PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 2080/Ti Review-Thread


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19

akuji13
2018-10-01, 11:11:41
Früher hatte man Games die das machbare pushen, heute unmöglich, da die Leute sofort flamen, wieso es auf ihren Systemen nicht auf voll läuft. Wenn ich da an Crysis denke, dass damals mit Highend gerademal 35 FPS mit High-End Karten in 720p hatte. Da ist 1080p mit 60 FPS ein noch erträgliches Ziel.

Ich weiß nicht wo du warst aber gerade bei Crysis wurde massiv gejammert über die Anforderungen.

Wieso muss ich etwas "wegregeln", wenn es gar nicht nötig ist, da es eh keinen negativen Einfluss hat? :freak:
Es ist also etwas vorhanden, dass das Spiel signifikant langsamer macht, aber überhaupt keinen Nutzen bringt?

Der Hinweis mit den Reglern läuft bei Spielen wie Wildlands ins Leere.
Da ist der Unterschied zwischen max und der Stufe darunter bereits deutlich negativ sichtbar.

HisN
2018-10-01, 11:37:02
http://abload.de/thumb/thedivision_2018_09_3mrcll.jpg (https://abload.de/image.php?img=thedivision_2018_09_3mrcll.jpg) http://abload.de/thumb/grw_2018_09_30_10_51_7sfkg.jpg (https://abload.de/image.php?img=grw_2018_09_30_10_51_7sfkg.jpg)

akuji13
2018-10-01, 12:12:43
Nicht mal 60 fps.

DrumDub
2018-10-01, 12:27:20
Erste Messwerte der kaum lieferbaren Geforce RTX 2080 Ti (heise.de) (https://www.heise.de/newsticker/meldung/Erste-Messwerte-der-kaum-lieferbaren-Geforce-RTX-2080-Ti-4177950.html)

wolik
2018-10-01, 12:38:30
http://abload.de/thumb/thedivision_2018_09_3mrcll.jpg (https://abload.de/image.php?img=thedivision_2018_09_3mrcll.jpg) http://abload.de/thumb/grw_2018_09_30_10_51_7sfkg.jpg (https://abload.de/image.php?img=grw_2018_09_30_10_51_7sfkg.jpg)
Division 45fps, Wildlands 47fps :facepalm: Wir werden wohl sogar in 2020 nicht mal eine Karte haben welche alleine 4K/60 fps schafft. Aber RT, DSAA... Hipp,Hipp,Hurra !!!

aufkrawall
2018-10-01, 12:41:10
Diese Ubisoft-Engines sind halt meist arschlahm, wobei man bei The Division wenigstens noch sinnvoll Detailstufen reduzieren kann.

Dural
2018-10-01, 12:47:18
Gut möglich das hier auch was anderes limitiert.
Wildland habe ich zwar schon länger nicht mehr gespielt aber ich glaube das ich mit einer 1080 in 4k etwas über den 30fps hatte?!

Matrix316
2018-10-01, 12:54:44
Man hätte der 2080TI ein paar GB mehr RAM geben und diese dafür als Titan R vermarkten sollen.

Dann hätte sich glaube ich keiner aufgeregt, außer, dass man für die 2080TI noch etwas hätte warten müssen (wie auch auf die 1080TI damals) - und die Verrückten hätten dann trotzdem ihre 1300 Euro Karte haben können. ;)

Und die normalen warten dann bis die 2080TI für 800 Euro rauskommt - und die 2080 würde dann auch billiger werden. ;)

Raff
2018-10-01, 12:56:56
Division 45fps, Wildlands 47fps :facepalm: Wir werden wohl sogar in 2020 nicht mal eine Karte haben welche alleine 4K/60 fps schafft. Aber RT, DSAA... Hipp,Hipp,Hurra !!!

Ist halt maxed out. Das kostet. PCGH gibt bei der Testszene (http://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/Benchmark-FAQ-2018-1247740/3/#a3) rund 45 Fps für die RTX 2080 Ti FE in UHD (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/Review-1265133/3/#a3) an, passt sehr gut. Eine RTX 2080 FE schafft nur rund 37, eine GTX 1080 FE sogar nur 28 Fps.

MfG,
Raff

gbm31
2018-10-01, 13:02:22
Ich lass es einfach. Mir zu blöd.

I agree to disagree.

HisN
2018-10-01, 13:02:45
Ist halt maxed out. Das kostet.


Ich glaub, ich hab sogar auf AA und MB verzichtet.
Macht aber den Kohl nicht fett.

Armaq
2018-10-01, 13:58:07
In 4k wundert mich das bei Wildlands überhaupt nicht. Gibt halt nichts schickeres was Landschaften angeht und selbst in WQHD bin ich der Meinung reicht die Auflösung für die Detailmenge nicht aus.

Woran liegt es eigentlich, dass die Karten in WQHD noch nicht ihre volle Performance ausfahren? Ich mein die 2080Ti. CPU Limit? Skalieren die neueren Ubisoft Games nicht bis 6 oder 8 Kerne?

HisN
2018-10-01, 15:44:16
Ich hoffe ihr habt eure RTX alle schon bestellt.
Die Preise ziehen an.

100 Euro mehr als noch vor 7 Tagen.

https://www.caseking.de/zotac-gaming-geforce-rtx-2080-ti-amp-edition-11264-mb-gddr6-gczt-116.html

HisN
2018-10-01, 15:46:11
Woran liegt es eigentlich, dass die Karten in WQHD noch nicht ihre volle Performance ausfahren? Ich mein die 2080Ti. CPU Limit? Skalieren die neueren Ubisoft Games nicht bis 6 oder 8 Kerne?

Was spricht gegen ein CPU-Limit auch in 4k?
Hab ich jedenfalls beim zocken von PUBGs

_kcASMieKHU

=Floi=
2018-10-01, 16:08:57
Ich hoffe ihr habt eure RTX alle schon bestellt.
Die Preise ziehen an.

100 Euro mehr als noch vor 7 Tagen.

https://www.caseking.de/zotac-gaming-geforce-rtx-2080-ti-amp-edition-11264-mb-gddr6-gczt-116.html

hoffe die preise gehen bis auf 1700€ rauf, damit die verkäufe komplett wegbrechen und manche mal wach werden. :redface: :biggrin:

JVC
2018-10-01, 16:24:56
...eine GTX 1080 FE sogar nur 28 Fps.

Ist das wieder so eine Graka mit Arschlahmem "Referenzkühler" ?
Oder warum das "FE" dahinter ?:rolleyes:

Ich glaub, ich hab sogar auf AA und MB verzichtet.
Macht aber den Kohl nicht fett.
Also reicht eine 2080Ti noch immer nicht für 4K, geschweige denn für mehr ...
Hat da NV nicht in Tabellen was anderes behauptet ?


m.f.g. JVC

cR@b
2018-10-01, 16:27:34
Ich hoffe ihr habt eure RTX alle schon bestellt.
Die Preise ziehen an.

100 Euro mehr als noch vor 7 Tagen.

https://www.caseking.de/zotac-gaming-geforce-rtx-2080-ti-amp-edition-11264-mb-gddr6-gczt-116.html

Quatsch... die künstliche Verknappung wird die Verkäufe auch nicht erhöhen. Zudem ist der Käsekönig eh die dickste Apotheke on earth. ;)

Bei den Preisen können sie die Karten weiterhin behalten. Auch schön, dass die 1080 Ti mal wieder länger bleibt als so manch andere Karte. Insofern alles gut :D

JVC
2018-10-01, 16:33:07
... Auch schön, dass die 1080 Ti mal wieder länger bleibt als so manch andere Karte. Insofern alles gut :D

So kann sollte man es auch sehen ! :up:

m.f.g. JVC

Megamember
2018-10-01, 16:33:41
Ich hoffe ihr habt eure RTX alle schon bestellt.
Die Preise ziehen an.

100 Euro mehr als noch vor 7 Tagen.

https://www.caseking.de/zotac-gaming-geforce-rtx-2080-ti-amp-edition-11264-mb-gddr6-gczt-116.html

Klar gehn die Preise grad immer höher. Die wenigen die es zu kaufen gab sind jetzt auch weg und die Händler versuchen grad das maximale an Gewinn rauszuholen oder machen die Preise extrahoch damit nicht noch mehr Vorbesteller dazukommen. Einfach abwarten.

HisN
2018-10-01, 16:36:51
Also reicht eine 2080Ti noch immer nicht für 4K, geschweige denn für mehr ...
Hat da NV nicht in Tabellen was anderes behauptet ?


NV hat die Titel in ihren Tabellen ganz genau ausgesucht^^

JVC
2018-10-01, 16:41:10
Klar gehn die Preise grad immer höher. Die wenigen die es zu kaufen gab sind jetzt auch weg ...

Jep die
"schnell entschlossenen" sind abgegrast ...
Jetzt holt man sich noch die
"panikschieber weil man was versäumen könnte" ...

@HisN: Schade dann schafft das noch immer nur die alte Titan V @ MAX OC :(
( Notiz an mich: " Augen auf nach ner günstigen gebrauchten" )

m.f.g. JVC

https://www.ebay.com/p/NVIDIA-TITAN-V-Volta-12gb-Hbm2-Video-Graphics-Card/4011255748

Bierbam
2018-10-01, 17:06:48
"Klugsch* Modus"

In der "RTX 2080 Ti" Umfrage steht was von Anfang Oktober für die Lieferungen.

Meine 1080Ti FE wird zwischen dem 6 - 10 Oktober versendet was durch die bescheidenen Lieferdienste best case Mitte Oktober bedeutet. ;)

"Klugsch* Modus off"

Was bei den Reviews sicher nicht erwähnt wird:
Hoffentlich wird das nicht wieder so eine Bluescreen Orgie wie mit der 1080Ti P-state Bugs + Netzteil mindestens 250W über dem üblichen überdimensionierungs-Geschichte.

Ah diese schöne Erinnerung an die Bluescreen Orgien, (z.b. End Level der kampagne von Homeworld deserts of kharak sobald die Video Sequenz geladen wurde ), will ich ehrlich nicht nochmal haben.^^

JVC
2018-10-01, 17:12:17
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47244-demo-amds-freesync-funktioniert-mit-nvidia-gpus.html
"Demo: AMDs FreeSync funktioniert mit NVIDIA-GPUs"

Funktioniert FreeSync jetzt eigentlich auch ohne tricks auf der 20xx Serie ?
( oder will NV noch immer keinen Standard unterstützen? Die werden ja langsam zu Apfle2 )

m.f.g. JVC

HisN
2018-10-01, 17:48:41
Du meinst das hier?

http://extreme.pcgameshardware.de/news-kommentare-zu-monitore/518836-rtx-2080-ti-und-freesync-vermeintlicher-clou-offenbart-sich-als-irrtum.html

SKYNET
2018-10-01, 17:59:07
Du meinst das hier?

http://extreme.pcgameshardware.de/news-kommentare-zu-monitore/518836-rtx-2080-ti-und-freesync-vermeintlicher-clou-offenbart-sich-als-irrtum.html


ich glaube er meint, wenn man ne AMD APU oder 2. Graka mit AMD chip hat, kann man freesync auch über ne NV karte laufen lassen.

HisN
2018-10-01, 18:15:12
Das ging ja nur mit "Tricks" ... das andere war ohne diese :-)

Daredevil
2018-10-01, 18:30:55
Wenn du dir den verlinkten Beitrag durchließt, wirst du merken, dass es nicht einfach so geht.
Du brauchst immer eine AMD Karte, um damit Freesync zu bekommen.
Andersrum kannst du auch mit einer AMD Karte GSync nutzen, man ändert bei Windows ja einfach nur die Ausgabe Hardware, berechnet wird dann woanders.

JVC
2018-10-01, 18:43:03
Genau genommen wollte ich nur wissen ob die 20xx Serie jetzt den Standard Sync unterstützt ... was sie scheinbar nicht kann.
Mit den worten eines Users von dort:
" Hat sich der Spaß eigentlich mit HDMI 2.1 erledigt ? ich meine Falls neue NVIDIA -Karten mit 2.1 kommen, werden die ja wohl kaum sagen können: NEE NEE also manche HDMI 2.1 Features funktionieren bei uns halt nicht! "

m.f.g. JVC

SKYNET
2018-10-01, 18:44:42
Wenn du dir den verlinkten Beitrag durchließt, wirst du merken, dass es nicht einfach so geht.
Du brauchst immer eine AMD Karte, um damit Freesync zu bekommen.
Andersrum kannst du auch mit einer AMD Karte GSync nutzen, man ändert bei Windows ja einfach nur die Ausgabe Hardware, berechnet wird dann woanders.


korrekt, wenn AMD jetzt nen 8C bringen würde mit GPU drinnen, wäre das der burner ;D kein gsync moni mehr nötig, bessere monitorauswahl und günstiger... trotz NV karte

Daredevil
2018-10-01, 18:45:44
Freesync ist aber kein HDMI Feature. Es basiert zwar auf diesem bzw, wurde nur umbenannt und ist offen für alle, aber das bedeutet nicht, dass Nvidia automatisch auf den Zug aufspringt.

Intel hat aber ja schon öffentlich gesagt, dass Freesync bzw. der offene Standard in Arbeit ist, also könnte man so oder so *immer die Bildverbesserungsmodis nutzen können.

*Solange man eine CPU mit iGPU hat.

SKYNET
2018-10-01, 18:54:29
Freesync ist aber kein HDMI Feature. Es basiert zwar auf diesem bzw, wurde nur umbenannt und ist offen für alle, aber das bedeutet nicht, dass Nvidia automatisch auf den Zug aufspringt.

Intel hat aber ja schon öffentlich gesagt, dass Freesync bzw. der offene Standard in Arbeit ist, also könnte man so oder so *immer die Bildverbesserungsmodis nutzen können.

*Solange man eine CPU mit iGPU hat.

NV muss aber aufspringen, spätestens wenn Intel kommt ist gsync tot(sofern die Grakas wirklich was können)

JVC
2018-10-01, 18:57:10
Intel hat aber ja schon öffentlich gesagt, dass Freesync bzw. der offene Standard in Arbeit ist, also könnte man so oder so *immer die Bildverbesserungsmodis nutzen können.

*Solange man eine CPU mit iGPU hat.

In Arbeit ist ?

•Enhanced refresh rate features ensure an added level of smooth and seamless motion and transitions for gaming, movies and video. They include:
◦Variable Refresh Rate (VRR) reduces or eliminates lag, stutter and frame tearing for more fluid and better detailed gameplay.
◦Quick Media Switching (QMS) for movies and video eliminates the delay that can result in blank screens before content is displayed.
◦Quick Frame Transport (QFT) reduces latency for smoother no-lag gaming, and real-time interactive virtual reality.
https://www.hdmi.org/manufacturer/hdmi_2_1/

Soviel ich weis haben sich MS und die Konsolen sowie die Fernseherhersteller für "Free Sync" entschieden.
( und von G-Sync Support lese ich bei HDMI 2.1 nix )

m.f.g. JVC

dildo4u
2018-10-01, 18:59:37
Das wird erst 2020 eine Rolle spielen bis jetzt sind noch keine TV damit in Sicht nicht mal der Samsung 8k TV für 14000€.

Achill
2018-10-01, 19:58:54
Das wird erst 2020 eine Rolle spielen bis jetzt sind noch keine TV damit in Sicht nicht mal der Samsung 8k TV für 14000€.

Gibt schon TVs/Monitore von Samsung die es können, 4k hat noch keine brauchbare Range aber 1080p sieht schon gut aus ... der Anfang ist also schon einmal gemacht: https://www.rtings.com/tv/tests/motion/variable-refresh-rate

Btw, was die anderen Hersteller anbieten habe ich nicht weiter verfolgt, evtl. geht da schon mehr.

--
Edit: http://www.pcgameshardware.de/Fernseher-Hardware-134500/News/Samsung-Smart-TV-VRR-Freesync-1253928/

dildo4u
2018-10-01, 20:23:53
Sorry ich meinte TVs mit HDMI 2.1 Support für 4k 120hz.

N0Thing
2018-10-02, 00:14:09
Freesync ist aber kein HDMI Feature. Es basiert zwar auf diesem bzw, wurde nur umbenannt und ist offen für alle, aber das bedeutet nicht, dass Nvidia automatisch auf den Zug aufspringt.

Intel hat aber ja schon öffentlich gesagt, dass Freesync bzw. der offene Standard in Arbeit ist, also könnte man so oder so *immer die Bildverbesserungsmodis nutzen können.

*Solange man eine CPU mit iGPU hat.

Nicht ganz, Free-Sync und auch Adaptive Sync basieren auf dem vertical blanking interval, den es bei eDP als Stromspar-Feature gab. Nvidia hat mit g-sync daraus VRR gemacht und AMD hat mit VESA das gleiche Prinzip als offenen Standard in die DisplayPort-Spezifikation gebracht und später auch für HDMI realisiert. Als offizieller Bestandteil von HDMI gibt es VRR erst mit HDMI 2.1.

Armaq
2018-10-02, 02:36:27
Was spricht gegen ein CPU-Limit auch in 4k?
Hab ich jedenfalls beim zocken von PUBGs

Das müsste man dann mit Vergleichen zwischen 4 und 5 Ghz mit nem 8700k machen, oder? AMD skalierte ja auch besser mit der reinen Auflösung bei der hohen Rechenleistung. Ich vermute etwas anderes als ein CPU Limit.

TobiWahnKenobi
2018-10-02, 08:54:08
digital river ist echt ein saftladen. ich kriege ums verrecken keine bestätigung für meine stornierte vorbestellung. und scheinbar haben die auch kein interesse ihre nvlink-brücke zurückzunehmen.. kommenden donnerstag liegt das drecksding hier seit zwei wochen. rücksendung und widerruf sind von meiner seite jetzt dreimal rausgegangen. bislang eine sehr einseitige kommunikation.

die logistik scheint bei NVidia und entsprechenden partnern echt verbesserungsbedürftig.


(..)

mfg
tobi

Sir Winston
2018-10-02, 09:33:33
Habe jetzt die Gainward 2080 TI nach Beschaffung passenden NT's endlich in Betrieb genommen. Bin insofern zufrieden, als das wie erhofft tatsächlich die Karte ist, mit der 4K@Ultra GPU-seitig momentan problemlos möglich ist. Aber man muss wirklich sagen, dass das Ding in jeder Beziehung ein Monstrum ist, Größe und Abwärme sind absolut grenzwertig (wobei die Gainward für meinen Geschmack zumindest angenehm leise bleibt, habe aber keine Möglichkeit, das zu messen). Deswegen auch kurz überlegt, doch bei der GTX 1080 zu bleiben, aber die Gier ist stärker.

yamo
2018-10-02, 13:45:22
Igor hat mal wieder was interssantes rausgehauhen:
Tom´s HW (https://www.tomshw.de/2018/10/02/warum-die-nvidia-geforce-rtx-2080-ti-founders-edition-fuer-custom-loop-kuehlungen-nicht-die-beste-idee-ist-igorslab/)

Armaq
2018-10-02, 14:05:48
Strom braucht das ja kaum noch. Kann bitte kurz ein Aufschrei stattfinden. ;)

SKYNET
2018-10-02, 14:11:30
Igor hat mal wieder was interssantes rausgehauhen:
Tom´s HW (https://www.tomshw.de/2018/10/02/warum-die-nvidia-geforce-rtx-2080-ti-founders-edition-fuer-custom-loop-kuehlungen-nicht-die-beste-idee-ist-igorslab/)


warum quarken die vega hater eigentlich nicht rum, das die 2080Ti fast 150W mehr aus der dose zieht? :confused:

achja, vergass, alles was vom heimatverein kommt ist ja doll toll und fehlerfrei und wie bei einer gottheit wird da keine kritik geübt :freak:

x-force
2018-10-02, 14:12:35
igor hat endlich eingesehen, daß ein powertarget (sehr) hoch sein muss um vernünftig zu übertakten. top!
ich will durch die spannung limitiert sein und durch nichts anderes. aber selbst dafür sind 380w zu wenig.

BlacKi
2018-10-02, 14:26:00
warum quarken die vega hater eigentlich nicht rum, das die 2080Ti fast 150W mehr aus der dose zieht? :confused:

achja, vergass, alles was vom heimatverein kommt ist ja doll toll und fehlerfrei und wie bei einer gottheit wird da keine kritik geübt :freak:
weil 65% mehr stromverbrauch 130% mehr performance gegenüberstehen? vl deshalb^^ vl auch deshalb weil man mit der 2080ti selbst bei einem 230w target immernoch knapp doppelt so schnell ist? oder weil kaum einer die karte so betreiben würde? such es dir aus.

yamo
2018-10-02, 14:27:02
igor hat endlich eingesehen, daß ein powertarget (sehr) hoch sein muss um vernünftig zu übertakten. top!
ich will durch die spannung limitiert sein und durch nichts anderes. aber selbst dafür sind 380w zu wenig.

Ach, komm schon:freak:

HisN
2018-10-02, 14:33:15
Das 380W-Bios nimmt dann schon richtig Saft aus der Leitung.

https://abload.de/thumb/stromgebrauch_2080ti_chcnn.jpg (https://abload.de/image.php?img=stromgebrauch_2080ti_chcnn.jpg) https://abload.de/thumb/stromgebrauch_2080tiv0eio.jpg (https://abload.de/image.php?img=stromgebrauch_2080tiv0eio.jpg)

Bin gespannt in wie weit sich das ändert, wenn der Wasserkühler draufkommt.

HisN
2018-10-02, 14:35:03
Das müsste man dann mit Vergleichen zwischen 4 und 5 Ghz mit nem 8700k machen, oder? AMD skalierte ja auch besser mit der reinen Auflösung bei der hohen Rechenleistung. Ich vermute etwas anderes als ein CPU Limit.


Ich takte die CPU auf 4Ghz und hab nur noch 100 FPS.
Das ist ein CPU-Limit.

Raff
2018-10-02, 14:38:40
Assassin's Creed Odyssey - Techniktest mit Benchmarks (http://www.pcgameshardware.de/Assassins-Creed-Odyssey-Spiel-61696/Specials/Assassins-Creed-Odyssey-Benchmarks-1266222/)

Ein ganz frischer Fall, bei dem sich eine ordentlich übertaktete RTX 2080 Ti fühlbar von einer GP102-Kiste absetzen kann. In Ultra HD braucht man jedes Fps-Plus.

MfG,
Raff

SKYNET
2018-10-02, 14:43:10
weil 65% mehr stromverbrauch 130% mehr performance gegenüberstehen? vl deshalb^^ vl auch deshalb weil man mit der 2080ti selbst bei einem 230w target immernoch knapp doppelt so schnell ist? oder weil kaum einer die karte so betreiben würde? such es dir aus.

dann schraub ich den vcore bei der vega runter, übertakte sie trotzdem und schon haben wir gleichstand... :tongue:

haters gonna hate :biggrin:

Triniter
2018-10-02, 14:57:38
Assassin's Creed Odyssey - Techniktest mit Benchmarks (http://www.pcgameshardware.de/Assassins-Creed-Odyssey-Spiel-61696/Specials/Assassins-Creed-Odyssey-Benchmarks-1266222/)

Ein ganz frischer Fall, bei dem sich eine ordentlich übertaktete RTX 2080 Ti fühlbar von einer GP102-Kiste absetzen kann. In Ultra HD braucht man jedes Fps-Plus.

MfG,
Raff

Soviel zum Thema die 2080 (nonTi) wäre die ideale 1440p Karte (und nein das habt nicht ihr so verbreitet, findet sich aber an vielen Stellen im Netz)

Nicht das man Ultra unbedingt bräuchte, vermutlich kann man problemlos ein paar Details reduzieren und landet sauber bei stabilen 60fps.

Ich will meine 980ti ersetzten aber das gebotene haut mich einfach nirgendwo vom Hocker.

warum quarken die vega hater eigentlich nicht rum, das die 2080Ti fast 150W mehr aus der dose zieht? :confused:

achja, vergass, alles was vom heimatverein kommt ist ja doll toll und fehlerfrei und wie bei einer gottheit wird da keine kritik geübt :freak:

Ich war jetzt nie ein richtiger Hater oder Fanboy aber aus meiner Sicht ist bei der zu kühlenden Leistung der HBM halt nicht so optimal weil die Hitze halt sehr zentral entsteht und weggekühlt werden muss, man halt halt genau diese eine große Hitzequelle. Bei einzelnen Speicherbausteinen rund um die GPU ist das halt entzerrter und somit etwas leichter möglich. So zumindest meine Meinung dazu.

Rein technisch gesehen finde ich HBM natürlich wiederum interessant weil es kleinere PCBs ermöglicht und natürlich weil die Bandbreite deutlich besser ist.
Vielleicht ist mit 7nm die Technik besser zu handhaben.

Fliwatut
2018-10-02, 15:12:39
dann schraub ich den vcore bei der vega runter, übertakte sie trotzdem und schon haben wir gleichstand...
Beim Stromverbrauch?

Mangel76
2018-10-02, 15:13:04
https://www.tomshw.de/wp-content/uploads/2018/10/03-Forca-Motorsport-7-WQHD.png

Sollte man sich ausdrucken und an die Wand hängen, VEGA 64 vor 1080Ti und Titan V ;D Man hat ja sonst nichts zu lachen als VEGA-User :biggrin:

SKYNET
2018-10-02, 15:15:04
Ich war jetzt nie ein richtiger Hater oder Fanboy aber aus meiner Sicht ist bei der zu kühlenden Leistung der HBM halt nicht so optimal weil die Hitze halt sehr zentral entsteht und weggekühlt werden muss, man halt halt genau diese eine große Hitzequelle. Bei einzelnen Speicherbausteinen rund um die GPU ist das halt entzerrter und somit etwas leichter möglich. So zumindest meine Meinung dazu.

Rein technisch gesehen finde ich HBM natürlich wiederum interessant weil es kleinere PCBs ermöglicht und natürlich weil die Bandbreite deutlich besser ist.
Vielleicht ist mit 7nm die Technik besser zu handhaben.

ich bin HBM fan, es müsst eeinfach besser umgesetzt werden, ich meine, der speicher wird ja meistens schon wärmer als die GPU dazwischen :frown:

BlacKi
2018-10-02, 15:16:01
dann schraub ich den vcore bei der vega runter, übertakte sie trotzdem und schon haben wir gleichstand... :tongue:

haters gonna hate :biggrin:
ehm, schon gegen die 1080ti hat vega performance verbrauchstechnisch keinen vorteil, gegen die 2080ti erst recht nicht. ich weiß nicht was du dir da zusammenfriemelst.

https://www.tomshw.de/wp-content/uploads/2018/10/03-Forca-Motorsport-7-WQHD.png

Sollte man sich ausdrucken und an die Wand hängen, VEGA 64 vor 1080Ti und Titan V ;D Man hat ja sonst nichts zu lachen als VEGA-User :biggrin:
da die vega jünger so gerne die percentile für wichtig halten taugt das nicht wirklich für die wand, davon abgesehen wundern mich die schlechten percentile der v64 ggü. der v56 und der 2080 vs 2080ti^^

SKYNET
2018-10-02, 15:25:40
https://www.tomshw.de/wp-content/uploads/2018/10/03-Forca-Motorsport-7-WQHD.png

Sollte man sich ausdrucken und an die Wand hängen, VEGA 64 vor 1080Ti und Titan V ;D Man hat ja sonst nichts zu lachen als VEGA-User :biggrin:


wenn ich mir die 99th frames anschaue, hat man als vega user nix zu lachen... weil da ist die 1080Ti dann auch wieder vor der 2080 FE :biggrin:

nix ist zu ersetzen durch rohe power.

Mangel76
2018-10-02, 15:51:21
da die vega jünger so gerne die percentile für wichtig halten taugt das nicht wirklich für die wand, davon abgesehen wundern mich die schlechten percentile der v64 ggü. der v56 und der 2080 vs 2080ti^^

wenn ich mir die 99th frames anschaue, hat man als vega user nix zu lachen... weil da ist die 1080Ti dann auch wieder vor der 2080 FE :biggrin:


War aus dieser Ecke bisher nicht immer das Argument, das man nicht auf avarage sondern auf 99th Werte schauen soll? ;)


Sehr schön, wie auf ironische Anmerkungen sofort angesprungen wird :freak:

BlacKi
2018-10-02, 16:22:23
? was meinst du mit anspringen?
ich hab nur angemerkt, das die tollen avg nix taugen für die hall of fame, für beide seiten wegen der percentile.

Digidi
2018-10-02, 16:39:23
wenn ich mir die 99th frames anschaue, hat man als vega user nix zu lachen... weil da ist die 1080Ti dann auch wieder vor der 2080 FE :biggrin:

nix ist zu ersetzen durch rohe power.

Die 99 Percentil und Fps times bringen nichts. Bei Forza Horizon 4 läuft es 90% gut in 10% hab ich ab und zu gestottere weil Windows da was im Hintergrund macht. Daher dann die FPS Drops....

JVC
2018-10-02, 16:46:39
Assassin's Creed Odyssey - Techniktest mit Benchmarks (http://www.pcgameshardware.de/Assassins-Creed-Odyssey-Spiel-61696/Specials/Assassins-Creed-Odyssey-Benchmarks-1266222/)

Ein ganz frischer Fall, bei dem sich eine ordentlich übertaktete RTX 2080 Ti fühlbar von einer GP102-Kiste absetzen kann. In Ultra HD braucht man jedes Fps-Plus.

MfG,
Raff

Suuper Test ! Danke Raff :up:

Mit einer ordentlichen 1080Ti hat man die 2080 ...
Die 2080Ti ist ~21% vor einer 1080Ti ... mit OC + Wakü eher Richtung 30%
Da ist die Weld in Ordnung ^^ ( trifft meine "Erwartung" ziemlich genau )

Igor hat mal wieder was interssantes rausgehauhen:
Tom´s HW (https://www.tomshw.de/2018/10/02/warum-die-nvidia-geforce-rtx-2080-ti-founders-edition-fuer-custom-loop-kuehlungen-nicht-die-beste-idee-ist-igorslab/)

Hmm Richtung 400W ... 500W Spikes ... Krass :usweet:
Aber ich sag ja immer der verbrauch wäre mir egal wenn die Leistung passt :cool:
Hab aber keine Lust auf Wasserkühlung ...

1080TI vs 2080Ti bei gleichem Verbrauch
würde mich noch interessieren falls wer was findet.
( wo beide karten nur in das Powerlimmit laufen )
Danke

m.f.g. JVC

Digidi
2018-10-02, 16:56:47
Assassins Creed ist doch wieder so ein Gameworks Titel?

Da Wundert es mich nicht das man es so skalieren lässt wie Jensen das will :facepalm:

Aber da seit ihr ja noch immer nicht dahinter gestiegen Raff.

Raff
2018-10-02, 17:00:18
Genau, einfach mal irgendwas behaupten. :uup:

Ich sage dazu nichts weiter als: AMD kooperiert mit Ubisoft (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Radeon-mit-Assassins-Creed-Odyssey-Star-Control-Origins-und-Strange-Brigade-1262330/).

MfG,
Raff

Digidi
2018-10-02, 17:02:21
Genau, einfach mal irgendwas behaupten. :uup:

Ich sage dazu nichts weiter als: AMD kooperiert mit Ubisoft (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Radeon-mit-Assassins-Creed-Odyssey-Star-Control-Origins-und-Strange-Brigade-1262330/).

MfG,
Raff

Jo nur weil sie es dazu legen heist das noch lange nicht das sie mit Ihnen Kooperieren. Da sind auch 2 Spiele von anderen Publishern dabei.

Raff
2018-10-02, 17:03:47
Mir ging's primär darum, dass du einfach irgendeinen Schmarrn gepostet hast, der nicht stimmt. ;)

Im PCGH-Forum wird gemotzt, dass die arme, arme RTX 2080 nicht in Form eines Triple-Slot-Schlachtschiffes, sondern als DHE-Sparversion vertreten ist ("PCGH ist doch von AMD gekauft!"), hier ist es wieder "PCGH hat das NDA unterschrieben und berichtet daher nur 'in favor of Nvidia'!". Das Internet ist köstlich. :ugly:

MfG,
Raff

BlacKi
2018-10-02, 17:03:59
und selbst wenn, was lässt dich vermuten das es ein GW titel sein soll? nur weil der balken dazu passen würde? ffs

dann gibts bald fast nur noch GW titel wenn sie DLSS unterstützen? und man darf keine DLSS unterstützende spiele mehr posten weil cherry picking?^^

Schnoesel
2018-10-02, 17:07:19
Interessant im Übrigen wie man sich im Forum der PCGH nun darüber beschwert eine der schwächsten 2080er ausgewählt zu haben :biggrin:

@ Raff Wie mans dreht und wendet ihr macht was falsch ;D

Ihr solltet 2 Online Magazine machen.

PCGH AMD Edition
und
PCGH NVIDIA Edition

Da können sich die Propellerboys nächtelang die Benches um die Ohren werfen.

PS: Und ja ich war einer derjenigen die Custom 1080TIs gerne im Review Thread gehabt hätten.
PPS: Was mich mehr interessiert: "Bei unseren Tests sahen wir immer wieder 100 Prozent Auslastung eines AMD Ryzen 7 1700 - nicht nur bei Ladesequenzen, sondern auch beim Umherwandern in der Welt, welche eine hohe Streaming-Last erzeugt." ... Bitte?

Mangel76
2018-10-02, 17:07:41
? was meinst du mit anspringen?
ich hab nur angemerkt, das die tollen avg nix taugen für die hall of fame, für beide seiten wegen der percentile.

Ja, wieviele Smilys müssen denn noch dran, damit man merkt, dass die ganze Sache nicht so ganz ernst gemeint war. Und die 99%-Werte taugen ja eben auch nichts, auch wenn einige das gleich wieder einwenden.

Raff
2018-10-02, 17:09:43
Nebenbei bemerkt: Klar taugen die P99-Perzentile etwas. Die Angabe ist (bei PCGH) stets ein Mittelwert aus drei Runs.

@ Raff Wie mans dreht und wendet ihr macht was falsch ;D

Ihr solltet 2 Online Magazine machen.

PCGH AMD Edition
und
PCGH NVIDIA Edition

Da können sich die Propellerboys nächtelang die Benches um die Ohren werfen.

PS: Und ja ich war einer derjenigen die Custom 1080TIs gerne im Review Thread gehabt hätten.

Geile Idee. Das würde ich aber schon auf Abo-Basis machen. Dafür gibt's dann auch nette Skins für die ganze Präsenz, je nach farblichem Herzensgusto des jeweiligen Propellerjungen. :up:

MfG,
Raff

Mr.Bug
2018-10-02, 17:11:06
Mir ging's primär darum, dass du einfach irgendeinen Schmarrn gepostet hast, der nicht stimmt. ;)

Im PCGH-Forum wird gemotzt, dass die arme, arme RTX 2080 nicht in Form eines Triple-Slot-Schlachtschiffes, sondern als DHE-Sparversion vertreten ist ("PCGH ist doch von AMD gekauft!"), hier ist es wieder "PCGH hat das NDA unterschrieben und berichtet daher nur 'in favor of Nvidia'". Das Internet ist köstlich. :ugly:

MfG,
Raff

Ja, mein unzynisches Beileid an dieser Stelle! Ich les gern die PCGH und man hat zuweilen den Eindruck, das die paranoiden Aluhutträger schubweise All-Inclusive-Ausgang haben. Man kann sich die Finger wund argumentieren. (Und ich sage das als jemand, der AMD & Nvidia in seinen PC's hat) :wink:

BlacKi
2018-10-02, 17:11:34
Ja, wieviele Smilys müssen denn noch dran, damit man merkt, dass die ganze Sache nicht so ganz ernst gemeint war. Und die 99%-Werte taugen ja eben auch nichts, auch wenn einige das gleich wieder einwenden.

du meinst also ich soll mir einfach das sparen was du dir nur dachtest, alles klar ;););)

Digidi
2018-10-02, 17:19:59
Ja, mein unzynisches Beileid an dieser Stelle! Ich les gern die PCGH und man hat zuweilen den Eindruck, das die paranoiden Aluhutträger schubweise All-Inclusive-Ausgang haben. Man kann sich die Finger wund argumentieren. (Und ich sage das als jemand, der AMD & Nvidia in seinen PC's hat) :wink:

Die Aluhutträger wundern sich halt ab und zu mal warum z.B. Carsten von Pcgh weggegeangen ist und Dinge wie die Beyond3d Suite mitgenommen hat und Raff schweigt dazu schon seit Wochen! ;D

JVC
2018-10-02, 17:23:13
Ihr solltet 2 Online Magazine machen.

PCGH AMD Edition
und
PCGH NVIDIA Edition

Da können sich die Propellerboys nächtelang die Benches um die Ohren werfen.


Hm halte ich für keine so gute Idee ... ( meine 2 Hefte )
Dann müsste ich Beide kaufen und den "schnitt" ausrechnen :rolleyes:

m.f.g. JVC

Menace
2018-10-02, 17:31:40
PCGH AMD Edition
und
PCGH NVIDIA Edition


Hihi... Gute Idee. Ich kaufe beide. Wenn ich traurig bin, lese ich die AMD-Edition und wenn müde, die Nvidia-Version. ;D

Etwas mehr Gelassenheit bei uns eher AMD zugeneigten Usern wäre ganz gut; wie wissen doch über die Stärken und Schwächen von Vega und man kann doch, sofern einen das Spiel interessiert, eine Einstellung für seine Bedürfnisse finden. :smile:

@Digidi: Aber als neugieriger Mensch; um welche Einstellung geht es denn?

Digidi
2018-10-02, 18:02:24
@Digidi: Aber als neugieriger Mensch; um welche Einstellung geht es denn?

Was meinst du ? Das ist die alte Engine und ich vermute mal die ganzen Wassereffekt sind PhysX Effekte. Diesmal ist Nvidia aber clever und bewirbt nicht Gameworks. Das Spiel läuft grottig. Man überlege mal 2080ti um konstant 60pfs in 1080p spielen zu können und das Teil sieht auch nicht besser aus als Battelfield 1.... Was machen die nur damit?

Was mal an PCGH auch wieder seltsam ist 2 Seiten Tests für Assasins Creed was schlecht läuft und auch die Nutzer nicht gut fidnen in den ersten metracritic Tests. Aber für Forza Horizon 4 was super läuft gut aussieht und super Technik hat wird nur 1 Seite verscheleudert.

Menace
2018-10-02, 18:38:58
Was meinst du ? Das ist die alte Engine und ich vermute mal die ganzen Wassereffekt sind PhysX Effekte. Diesmal ist Nvidia aber clever und bewirbt nicht Gameworks. Das Spiel läuft grottig. Man überlege mal 2080ti um konstant 60pfs in 1080p spielen zu können und das Teil sieht auch nicht besser aus als Battelfield 1.... Was machen die nur damit?

Was mal an PCGH auch wieder seltsam ist 2 Seiten Tests für Assasins Creed was schlecht läuft und auch die Nutzer nicht gut fidnen in den ersten metracritic Tests. Aber für Forza Horizon 4 was super läuft gut aussieht und super Technik hat wird nur 1 Seite verscheleudert.

Auch eine alte Engine gehört, wenn in einem neuen Spiel, getestet.

Du vermutest nur, aber laufen PhysX-Effekte nicht auch über PC die CPU? Wenn Du es nicht sicher weißt, frage doch mal höflich bei Raff nach.

Und grottig läuft es doch so oder so. Wenn es jetzt eine Einstellung gäbe, die im getesteten Bereich die AMD-Karten überdurchschnittlich schlecht abschneiden lassen, dann könnte man nochmals nachfragen, ob man einen Vergleichstest ohne diese Einstellung (müssen ja nur eine Vega und eine 2080 Karte sein) noch dazu machen kann. Davon hast Du aber nichts geschrieben.

Zum Forza-Test: Auf einer Seite ist doch besser. Nicht alle blättern durch und so sieht man auf einer Seite was Sache ist. Sehe jetzt da wirklich keinen Nachteil.

AffenJack
2018-10-02, 19:02:09
@Digidi: Aber als neugieriger Mensch; um welche Einstellung geht es denn?

Um seine Verschwörungstheorien, dass in jeder Engine Nvidia die Finger drin hatte die auf AMD nur mäßig läuft. In Games bei denen AMD mit den Herstellern kooperiert, hat Nvidia einfach AMDs Mitarbeiter geschmiert Gameworks einzubauen.

Naennon
2018-10-02, 19:09:31
Sollte man sich ausdrucken und an die Wand hängen, VEGA 64 vor 1080Ti und Titan V ;D Man hat ja sonst nichts zu lachen als VEGA-User :biggrin:


sehr realistisch :D

Menace
2018-10-02, 19:24:20
Um seine Verschwörungstheorien, dass in jeder Engine Nvidia die Finger drin hatte die auf AMD nur mäßig läuft. In Games bei denen AMD mit den Herstellern kooperiert, hat Nvidia einfach AMDs Mitarbeiter geschmiert Gameworks einzubauen.

:biggrin: Aber im Ernst. Es gibt schon ein paar seltsame Sachen (wie zum Beispiel Wasser, welches unter der Erde tesseliert wurde; oder ein Tesselations-Faktor, welches optisch so gut wie nichts bringt, aber bei AMD halt mehr frames kostet, als bei nvidia). Von daher ist ein kritisches Betrachten von Tests schon wichtig und bin auch häufig mit Digidi einer Meinung. ABER, wenn man Kritik bringt, sollte sie begründet werden können. Testergebnisse alleine reichen mir da nicht aus.

Und man muss halt auch nVidia zugestehen, dass sie extrem gute Software-Unterstützung machen; natürlich um selbst besser dazu stehen.

dargo
2018-10-02, 19:25:45
https://www.tomshw.de/wp-content/uploads/2018/10/03-Forca-Motorsport-7-WQHD.png

Sollte man sich ausdrucken und an die Wand hängen, VEGA 64 vor 1080Ti und Titan V ;D Man hat ja sonst nichts zu lachen als VEGA-User :biggrin:
Auch wenn ich mich schon wieder wiederhole... Forza Motorsport 7 ist nicht reproduzierbar benchbar!!! Jedenfalls nicht mit den Rennen Ingame. Beim intergrierten Benchmark bin ich gerade überfragt. Afaik hatte man dort aber auch jedes Mal ein etwas anderes Ergebnis.

Assassins Creed ist doch wieder so ein Gameworks Titel?

Eigentlich ist es nur ein schlecht optimierter Titel, zumindest beim Release. Egal ob Nvidia oder AMD.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11815788&postcount=277

Digidi
2018-10-02, 19:41:45
Auch eine alte Engine gehört, wenn in einem neuen Spiel, getestet.

Du vermutest nur, aber laufen PhysX-Effekte nicht auch über PC die CPU? Wenn Du es nicht sicher weißt, frage doch mal höflich bei Raff nach.


Zum Forza-Test: Auf einer Seite ist doch besser. Nicht alle blättern durch und so sieht man auf einer Seite was Sache ist. Sehe jetzt da wirklich keinen Nachteil.

Das Problem ist das die Alte Engine verwendet wird und jeder weiß das die Programmierer da nichts groß anfassen was schon da ist. Deshalb wird das ganze Gameworks Zeug noch vom lezten mal mit drin sein. Wäre ja mal nett wenn jemand das graphisch mit alten Titeln gegenüberstellt und auch mal bei Ubisoft und Nvidia nachfragt.

Zum Artikel:
Es suggeriert eine Höherwertigkeit des Spiels wenn für das eine Spiel 3 Seiten verwendet werden und das andere hat nur 1. Auch mit dem Umfang gibt man dem einen Spiel mehr raum.

Es ist in etwa so das die Zeit einen 5 Seitigen Artikel über Oma und Opa Mustermann bringt weil die eine Katze gerettet haben und dann bringt man auf einem einseitigen Artikel einen Politiker der den 3 Weltkrieg angefangen hat. (Übertrieben gesagt)

AffenJack
2018-10-02, 19:51:20
:biggrin: Aber im Ernst. Es gibt schon ein paar seltsame Sachen (wie zum Beispiel Wasser, welches unter der Erde tesseliert wurde; oder ein Tesselations-Faktor, welches optisch so gut wie nichts bringt, aber bei AMD halt mehr frames kostet, als bei nvidia). Von daher ist ein kritisches Betrachten von Tests schon wichtig und bin auch häufig mit Digidi einer Meinung. ABER, wenn man Kritik bringt, sollte sie begründet werden können. Testergebnisse alleine reichen mir da nicht aus.

Schon klar, aber wir reden hier von einem AMD Titel. Ein Titel bei dem AMD ganz sicher Leute beim programmieren dabei hatte, die sicherstellen sollen, dass AMD halbwegs performt. Ein Titel den AMD selber auf ihrer Webseite bewirbt und einen Marketingdeal hat. Wieso es trotzdem nciht so richtig läuft, keine Ahnung, aber bestimmt nicht weil Nvidia die Finger im Spiel hatte.

Und man muss halt auch nVidia zugestehen, dass sie extrem gute Software-Unterstützung machen; natürlich um selbst besser dazu stehen.

AMD hat deutlich aufgeholt. Mit Far Cry 5, Forza, AC hat man schon drei große Fische an Land gezogen dieses Jahr. Das war vor Jahren noch ganz anders.

Armaq
2018-10-02, 20:26:06
Mir ging's primär darum, dass du einfach irgendeinen Schmarrn gepostet hast, der nicht stimmt. ;)

Im PCGH-Forum wird gemotzt, dass die arme, arme RTX 2080 nicht in Form eines Triple-Slot-Schlachtschiffes, sondern als DHE-Sparversion vertreten ist ("PCGH ist doch von AMD gekauft!"), hier ist es wieder "PCGH hat das NDA unterschrieben und berichtet daher nur 'in favor of Nvidia'!". Das Internet ist köstlich. :ugly:

MfG,
Raff
Abseits davon würd mich mal interessieren, wie gut kann man den Ram übertakten und liegt da vll. was? Ich habe bei Odyssey deutlich mehr fps (peak, avg und min) durch RAM OC der 1080 erreicht (hab nur den Ingame Benchmark zum Vergleich genutzt, aber jeweils 3 Runs).

Soweit ich mitbekam, will nvidia kein Ram-OC?!

Digidi
2018-10-02, 20:40:06
Schon klar, aber wir reden hier von einem AMD Titel. Ein Titel bei dem AMD ganz sicher Leute beim programmieren dabei hatte, die sicherstellen sollen, dass AMD halbwegs performt. Ein Titel den AMD selber auf ihrer Webseite bewirbt und einen Marketingdeal hat. Wieso es trotzdem nciht so richtig läuft, keine Ahnung, aber bestimmt nicht weil Nvidia die Finger im Spiel hatte.



AMD hat deutlich aufgeholt. Mit Far Cry 5, Forza, AC hat man schon drei große Fische an Land gezogen dieses Jahr. Das war vor Jahren noch ganz anders.

Das ist kein AMD Titel. Er wird beigelegt weil Ihm viel Aufmerksamkeit zugute kommt. AMD hat aber keine Kooperation mit Ubisoft. Die einzige Kooperation die ich kenne wo man bei der Programmierung mit dabei ist, ist Bethesta.

gravitationsfeld
2018-10-02, 20:58:31
Sind sie nicht.

Digidi
2018-10-02, 21:01:22
Sind sie nicht.
https://www.golem.de/news/amd-radeon-rx-vega-fp16-haar-berechnung-und-bethesda-kooperation-1702-126461.html
:confused::confused::confused:

Schnitzl
2018-10-02, 22:34:37
https://www.tomshw.de/wp-content/uploads/2018/10/03-Forca-Motorsport-7-WQHD.png

Sollte man sich ausdrucken und an die Wand hängen, VEGA 64 vor 1080Ti und Titan V ;D Man hat ja sonst nichts zu lachen als VEGA-User :biggrin:
cool, wie sich die RTX Karten vom Rest absetzen!
nVidia hat ganz andere Möglichkeiten, darüber sollte man sich als Vega-Besitzer mal klar werden.
Durch die RTX-Karten erlebt Vega nun nen 2. Frühling...oder so in der Art :freak:

Diese Entwicklung gefällt mir! :up:

=Floi=
2018-10-03, 00:22:48
warum skaliert in dem test die titan v so schlecht?
irgendwie komisch, wie manche NV karten hier abschneiden. was hebt die RTX von der 1080Ti ab?


edit

Eigentlich ist es nur ein schlecht optimierter Titel, zumindest beim Release. Egal ob Nvidia oder AMD.

das habe ich an black flag vor kurzem wieder gemerkt, wo damals alles einfach durch den pc compiler gejagdt wurde. ;)
Heute laufen ein BF1 oder destiny 2 butterweich und superschön im vergleich. Das ist für mich imho auch so ein punkt, wo ich bei ubi titeln zweimal hinschaue.
origins ist deswegen für mich eher was für 5€ als jetzt.

dargo
2018-10-03, 11:34:24
2080TI = 4K Graka. :freak:

fDBIZ_Kx1og

Nee... ernsthaft, ein Paradebeispiel wieder für Softwareschrott. Zumindest aus technischer Sicht, nicht künstlerischen!

dildo4u
2018-10-03, 11:39:04
Ist auch extrem Sinnvoll die höste AA Stufe in 4k zu nutzen.

dargo
2018-10-03, 11:41:22
Super Argument. Kannst mit AA low gerne 10% dazu zählen. Wahnsinnige Beschleunigung.

dildo4u
2018-10-03, 11:46:30
Ich hab das Game noch nicht aber bei Origins war der Hit extrem mit der hösten AA Stufe,kann sein das sich das mit Vega anders verhält.

BlacKi
2018-10-03, 11:57:54
Ich glaub nicht das das AA für die fps schwankungen verantwortlich ist. das zuckelt wie hölle, als würde jemand im hintergrund mit obs aufnehmen, wie dieser spasst hier:
https://youtu.be/bQ6M6WLf0zM?t=273

shadowplay soll beim aufnehmen auch probleme machen.

dildo4u
2018-10-03, 12:09:00
Ich hab jedenfalls ein 20% FPS drop mit AA High statt Low.Das muss da teuerste TAA überhaupt sein.


6d37HE2N_tI

dargo
2018-10-03, 12:09:20
@Blacki

Der Typ im Video hat da wohl eine frühere Spielversion, keine Finale. Jedenfalls fällt mir auf, dass er mit seiner 1080TI deutlich niedrigere avg. Frames in 4k mit 28fps erreicht als in dem Video was ich verlinkt habe. Dort erreichte die 1080TI 42 avg.fps in 4k.

Ich hab jedenfalls ein 20% FPS drop mit AA High statt Low.Das muss da teuerste TAA überhaupt sein.

Das Spiel ist sowieso gaga. Ich hatte mit AA low 14% mehr Frames als mit AA off. :freak:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11713491&postcount=1061

Vielleicht rechnet intern das Game bei AA low die Auflösung etwas runter. Anders kann ich mir das technisch nicht erklären.

Emil_i_Lönneberga
2018-10-03, 12:23:32
warum skaliert in dem test die titan v so schlecht?
irgendwie komisch, wie manche NV karten hier abschneiden. was hebt die RTX von der 1080Ti ab? ...

PCGH gibt Taktraten und die Benchmarkszene an bzw. stellt den Speicherpunkt der Benchmarkszene als Download zur Verfügung.

http://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/Benchmark-FAQ-2018-1247740/

Igor liefert nichts davon und gegenüber den PCGH Messergebnissen gibt es zwischen Turing und Pascal größere Abstände. Keine Werbung in eigener Sache für den selbsternannten Messkönig :facepalm:.

64348

64349

64347

64346

Linmoum
2018-10-03, 12:42:29
Der Sinn dahinter, Benchmarks von Witcher 3 zu verlinken, obwohl es um FM7 ging, liegt jetzt genau worin? Vielleicht erstmal lesen, bevor man etwas postet.

Emil_i_Lönneberga
2018-10-03, 13:10:16
Der Sinn dahinter, Benchmarks von Witcher 3 zu verlinken, obwohl es um FM7 ging, liegt jetzt genau worin? Vielleicht erstmal lesen, bevor man etwas postet.

Du solltest erst einmal lernen, in Zusammenhängen zu Denken.

Edgecrusher86
2018-10-03, 14:52:16
Quantum Break 4K nativ, AA off - Palit 2080 Ti OC @ NZXT AiO Mod @ OC (stock BIOS...290-300W max PT?!) - 1950-2085/1875 MHz; 1950-1995 MHz avg.: ~29-46 fps; ~34-37 fps avg. (@ 5,3 GHz 8700K). :biggrin:

https://www.youtube.com/watch?v=qjPQJ9QSEcU

2020/21 nähern wir uns dann wohl langsam den 60 fps mit OC. :freak:


RTX 2080 Ti AiO vs. GTX 1080 Ti AiO - stock - FHD/WQHD/4K - verschiedene Games:
https://www.youtube.com/watch?v=oDLOkYYR9eM&t=88s


Ark Survival Evolved WQHD - Epic Settings - Palit RTX 2080 Ti OC @ AiO OC:
https://www.youtube.com/watch?v=Q_N8LszBAKs&t=238s

Crysis 3 4K Very High - Palit RTX 2080 Ti OC @ AiO OC:
https://www.youtube.com/watch?v=_axUTvhJ4ps&t=329s

FC5 4K - HD Pack - Ultra Settings - Palit RTX 2080 Ti OC @ AiO OC:
https://www.youtube.com/watch?v=63dVCMQelAI

Final Fantasy XV 4K - HD Texture Pack -Palit RTX 2080 Ti OC @ AiO OC:
https://www.youtube.com/watch?v=cyFgJpj_b-0&t=9s

Forza Motorsport 7 4K - maxed out - Palit RTX 2080 Ti OC @ AiO OC:
https://www.youtube.com/watch?v=Lan7TVJSSRQ&t=205s

SotTR 4K - max Settings - Palit RTX 2080 Ti OC @ AiO OC:
https://www.youtube.com/watch?v=V1UeCOGG3k4

The Division 4K - Ultra Settings - Palit RTX 2080 Ti OC @ AiO OC:
https://www.youtube.com/watch?v=3b2D37i6pE4&t=353s

TW3 4K - max Settings - Palit RTX 2080 Ti OC @ AiO OC:
https://www.youtube.com/watch?v=uGTOtPxi4z4&t=153s

TGKlaus
2018-10-03, 15:23:46
Du solltest erst einmal lernen, in Zusammenhängen zu Denken.

Dann erleuchte uns mal wie W3 und FM7 zusammenhängen. :rolleyes:

dargo
2018-10-03, 16:08:15
Quantum Break 4K nativ, AA off - Palit 2080 Ti OC @ NZXT AiO Mod @ OC (stock BIOS...290-300W max PT?!) - 1950-2085/1875 MHz; 1950-1995 MHz avg.: ~29-46 fps; ~34-37 fps avg. (@ 5,3 GHz 8700K). :biggrin:

https://www.youtube.com/watch?v=qjPQJ9QSEcU

2020/21 nähern wir uns dann wohl langsam den 60 fps mit OC. :freak:

Naja... wenn du dir anschaust wie das Game ohne Upscaling intern die Frames rendert würde ich QB nicht als Massstab nehmen. ;)

gravitationsfeld
2018-10-03, 18:09:35
https://www.golem.de/news/amd-radeon-rx-vega-fp16-haar-berechnung-und-bethesda-kooperation-1702-126461.html
:confused::confused::confused:
Es ist keine Zeile Code von AMD in Wolfenstein oder Doom. Sie geben Ratschlaege und helfen bei konkreten Fragen. Genauso wie NVIDIA auch.

Digidi
2018-10-03, 18:52:02
Es ist keine Zeile Code von AMD in Wolfenstein oder Doom. Sie geben Ratschlaege und helfen bei konkreten Fragen. Genauso wie NVIDIA auch.

Das hier höhrt sich halt komplett anders an


Am Ende der Präsentation kündigte AMD eine enge Kooperation mit dem Spiele-Publisher Bethesda an: Kommende Spiele sollen für Radeon-Grafikkarten und Ryzen-Prozessoren optimiert werden, weshalb Ingenieure von AMD bei Bethesda vor Ort helfen werden.

https://www.golem.de/news/amd-radeon-rx-vega-fp16-haar-berechnung-und-bethesda-kooperation-1702-126461.html

dargo
2018-10-03, 18:54:08
Floi wundert sich anhand Igors Benchmark über den Vorsprung von Turing gegenüber der 1080Ti.

Richtig, aber er sprach nirgendwo von Witcher 3 sondern hat den FM7 Benchmark zitiert. Insofern gibt es hier immer noch keinen Zusammenhang zu Witcher 3.

Edit:
Sorry, korrekterweise muss ich sage Schnitzl hats zitiert und Floi kam als weiterer Diskussionspartner dazu.

gravitationsfeld
2018-10-03, 19:09:25
Das hier höhrt sich halt komplett anders an
"Helfen" heisst nicht "code einchecken"

Rancor
2018-10-03, 19:15:43
@digidi

Du weißt wer gravitationsfeld ist?

tEd
2018-10-03, 19:25:26
Das hier höhrt sich halt komplett anders an


https://www.golem.de/news/amd-radeon-rx-vega-fp16-haar-berechnung-und-bethesda-kooperation-1702-126461.html

Bethesda ist gross. Die haben mehrere Entwickler Studios.

PHuV
2018-10-03, 19:46:26
Crysis 3 4K Very High - Palit RTX 2080 Ti OC @ AiO OC:
https://www.youtube.com/watch?v=_axUTvhJ4ps&t=329s

Wie alt ist Crysis 3 nochmal? :uponder: :tongue: Und man kann es jetzt erst in UHD flüssig spielen.

BlacKi
2018-10-03, 20:18:31
sry, hab c1 gemeint

Ex3cut3r
2018-10-03, 20:20:38
Crysis 3? Kam 2013, hat zum. rls. schon 16 Threads CPU ausgenutzt und man hatte sogar mehr FPS in "hohem Gras" Szenen im CPU Limit.

Emil_i_Lönneberga
2018-10-03, 20:34:18
Richtig, aber er sprach nirgendwo von Witcher 3 sondern hat den FM7 Benchmark zitiert. Insofern gibt es hier immer noch keinen Zusammenhang zu Witcher 3.

Edit:
Sorry, korrekterweise muss ich sage Schnitzl hats zitiert und Floi kam als weiterer Diskussionspartner dazu.

Dann sucht sich jeder einfach die Ergbnisse, die gewollt sind:

https://nl.hardware.info/reviews/8633/22/nvidia-geforce-rtx-2080-a-rtx-2080-ti-review-nieuwe-generatie-gebenchmarkt-benchmarks-forza-motorsport-7-dx12

Taktraten interessieren nicht und der Rückstand der 1080Ti ist geringer als bei Igor. Wenn jeder seine Kirschen pflückt, werden alle glücklich.

SKYNET
2018-10-03, 20:54:30
Wie alt ist Crysis 3 nochmal? :uponder: :tongue: Und man kann es jetzt erst in UHD flüssig spielen.


viel besser finde ich, das es wohl ohne AA(oder sehr wenig, soviele treppchen wie ich da sehe) ist und trotzdem unter 60fps fällt :freak:

Raff
2018-10-03, 22:13:35
Abseits davon würd mich mal interessieren, wie gut kann man den Ram übertakten und liegt da vll. was? Ich habe bei Odyssey deutlich mehr fps (peak, avg und min) durch RAM OC der 1080 erreicht (hab nur den Ingame Benchmark zum Vergleich genutzt, aber jeweils 3 Runs).

Soweit ich mitbekam, will nvidia kein Ram-OC?!

Also ich habe mittlerweile sechs Karten (Ti und Non-Ti) etwas länger durchgenommen und da stecken 7.800 bis 8.200 (!) MHz drin, wobei die Tendenz ganz klar zu weniger als 8.000 MHz geht. Das skaliert besser, als man angesichts der bereits werkseitig hohen Speichertransferrate, brutto wie netto, annehmen könnte. Dabei sollte man aber trotz der hohen Zahlen nicht vergessen, dass die quasi sicheren +10 % (effektiv 7.700 statt 7.000 MHz) eben bestenfalls +10 % Fps (praktisch natürlich weniger) sind, was niemals über die Spielbarkeit entscheidet.

In Kürze lest ihr übrigens den Test einer RTX-Karte mit schwacher Kühlung im Vergleich mit der Founders Edition. Ist aber leider von einem Medium, das das NDA unterzeichnet hat – vermutlich schneidet die Karte also noch viel besser ab als die ohnehin göttliche Founders Edition. :ulol:

MfG,
Raff

TGKlaus
2018-10-04, 00:28:27
Kannst du auch mal was anderes als provozieren und rumpampen?

Z.B. Antworten auf berechtigte kritische Fragen geben, welche weiterhin ausstehen!?

MasterElwood
2018-10-04, 00:35:25
Ich hab eine RTX. Ich hab Windows Herbst Update.

WO IST MEINE STAR WARS DEMO ZUM TESTEN? :mad:

Armaq
2018-10-04, 00:44:03
Also ich habe mittlerweile sechs Karten (Ti und Non-Ti) etwas länger durchgenommen und da stecken 7.800 bis 8.200 (!) MHz drin, wobei die Tendenz ganz klar zu weniger als 8.000 MHz geht. Das skaliert besser, als man angesichts der bereits werkseitig hohen Speichertransferrate, brutto wie netto, annehmen könnte. Dabei sollte man aber trotz der hohen Zahlen nicht vergessen, dass die quasi sicheren +10 % (effektiv 7.700 statt 7.000 MHz) eben bestenfalls +10 % Fps (praktisch natürlich weniger) sind, was niemals über die Spielbarkeit entscheidet.

In Kürze lest ihr übrigens den Test einer RTX-Karte mit schwacher Kühlung im Vergleich mit der Founders Edition. Ist aber leider von einem Medium, das das NDA unterzeichnet hat – vermutlich schneidet die Karte also noch viel besser ab als die ohnehin göttliche Founders Edition. :ulol:

MfG,
Raff
Point taken. ;)
Die 1080 OC im Launch wegzulassen war halt unschön und da kam sicherlich auch eine Information von nvidia dazu. Ihr wart ja lange nicht die Einzigen.

http://www.pcgameshardware.de/Assassins-Creed-Odyssey-Spiel-61696/Specials/Assassins-Creed-Odyssey-Benchmarks-1266222/2/

Btw. hier nehmt ihr wieder die richtigen Karten mit genau der durchaus schlüssigen Begründung. Care to explain? Steht schon drin, aber ist hochgradig merkwürdig. In Odyssey 800 @ für 15 % über ne 1080 OC ist halt kacke und nvidia knows.

Ja, GDDR OC ist ein Indikator, lineare Skalierung auch. HBM oder 512 Bit SI wären echt spannend zu sehen. Die Karte würde dann sicherlich 2k vom Konto reißen, aber ggf. wäre die nochmal 20% oder mehr schneller.

=Floi=
2018-10-04, 02:36:35
In Kürze lest ihr übrigens den Test einer RTX-Karte mit schwacher Kühlung im Vergleich mit der Founders Edition.

warum bringt man solche karten? wo liegt der sinn darin die karte ~10% langsamer zu machen. ist das für den asiatischen markt, wo lautstärke egal ist oder fprs minen?

BlacKi
2018-10-04, 02:54:05
nö, das ist einfach so weil man diese karten bringen muss. sie sind gefragt, aber nicht in gaming rechnern, dafür hat man aber die FE aufgebohrt, ontop die cutom OC modelle. warum muss man das hinterfragen? bei einer mini itx mit einem 200w target würdest du auch nicht fragen warum die langsamer ist.

je nach markt eben.

Raff
2018-10-04, 09:10:11
Kannst du auch mal was anderes als provozieren und rumpampen?

Z.B. Antworten auf berechtigte kritische Fragen geben, welche weiterhin ausstehen!?

So wie du dir das Recht herausnimmst, immer nur zu kritisieren (und zwar in keiner annehmbaren Form) und selektiv zu lesen, nehme ich mir das Recht heraus, nicht auf jeden Mist einzugehen. Ach - und das Recht auf Humor. :)

MfG,
Raff

JVC
2018-10-04, 09:49:07
http://www.pcgameshardware.de/Raytracing-Hardware-255905/News/Windows-10-October-Update-DXR-1266388/
Windows Oktober-Update bringt DXR(RTX heißt es bei NV) für alle Nutzer
DXR heute, DirectML im Frühling
DirectML dürfte also vermutlich das einheitliche Konkurrenzprodukt zu Nvidias Deep Learning Supersampling sein

http://www.pcgameshardware.de/Spiele-Thema-239104/News/Raytracing-Beschleunigung-Prozessor-Moeglich-1265693/
Beschleunigung durch Prozessor soll möglich sein
Könnte man zusätzliche Prozessorkerne für diese Arbeit bereitstellen, so würde die Leistungsschwelle, zumindest etwas, gesenkt werden - und Nutzer von Systemen mit vielen Threads könnten ihre Prozessoren voll nutzen.
Das hat auch technische Hintergründe: Raytracing kann zwar parallelisiert werden, aber nicht vollständig. Jeder Pixel kann unabhängig berechnet werden, die Berechnungen pro gesendetem Lichtstrahl sind jedoch nicht parallelisierbar und somit bei hohem Rechenaufwand besser für Prozessoren als für Grafikkarten geeignet.

Mal abwarten was für Vorteile für RTX Käufer am Ende übrig bleiben ( abgesehen vom saftigen Aufpreis ).

Warum muss NV ständig Standards mit Proprietärem vorgreifen ?
So was schadet doch nur der Entwicklung die gerade durch Standards gefördert wird.
( warum verarscht NV uns ständig ? )

m.f.g. JVC

SKYNET
2018-10-04, 10:02:31
http://www.pcgameshardware.de/Raytracing-Hardware-255905/News/Windows-10-October-Update-DXR-1266388/
Windows Oktober-Update bringt DXR(RTX heißt es bei NV) für alle Nutzer
DXR heute, DirectML im Frühling
DirectML dürfte also vermutlich das einheitliche Konkurrenzprodukt zu Nvidias Deep Learning Supersampling sein

http://www.pcgameshardware.de/Spiele-Thema-239104/News/Raytracing-Beschleunigung-Prozessor-Moeglich-1265693/
Beschleunigung durch Prozessor soll möglich sein
Könnte man zusätzliche Prozessorkerne für diese Arbeit bereitstellen, so würde die Leistungsschwelle, zumindest etwas, gesenkt werden - und Nutzer von Systemen mit vielen Threads könnten ihre Prozessoren voll nutzen.
Das hat auch technische Hintergründe: Raytracing kann zwar parallelisiert werden, aber nicht vollständig. Jeder Pixel kann unabhängig berechnet werden, die Berechnungen pro gesendetem Lichtstrahl sind jedoch nicht parallelisierbar und somit bei hohem Rechenaufwand besser für Prozessoren als für Grafikkarten geeignet.

Mal abwarten was für Vorteile für RTX Käufer am Ende übrig bleiben ( abgesehen vom saftigen Aufpreis ).

Warum muss NV ständig Standards mit Proprietärem vorgreifen ?
So was schadet doch nur der Entwicklung die gerade durch Standards gefördert wird.
( warum verarscht NV uns ständig ? )

m.f.g. JVC


mhhh... dann könnten die 8kerner massiv in führung gehen :cool: schon bin ich wieder froh, nen 2700X und keinen 2600X genommen zu haben, evtl. können die zumeist 4 überflüssigen kerne bzw. 8 threads DXR sogar schneller als die RT cores in einer RTX :biggrin:

JVC
2018-10-04, 10:04:16
@SKYNET
Genau darum hätte ich am liebsten einfach 16 echte Kerne und gut :)
( HT und so Gedöns bringt null in Spielen, und bei vielen Kernen generell immer weniger ... )

m.f.g. JVC

P.s.: dein Ram "3600 C14" nice :)
Überlege echt jetzt schon nen Zen aufzubauen und dann bei 7nm sofort zuzuschlagen ...
CPU ist ja schnell getauscht , damit ist nur wenig Geld "versenkt" ^^

Rancor
2018-10-04, 10:06:18
mhhh... dann könnten die 8kerner massiv in führung gehen :cool: schon bin ich wieder froh, nen 2700X und keinen 2600X genommen zu haben, evtl. können die zumeist 4 überflüssigen kerne bzw. 8 threads DXR sogar schneller als die RT cores in einer RTX :biggrin:

Sicherlich werden sie das nicht sein ^^

Troyan
2018-10-04, 10:18:09
http://www.pcgameshardware.de/Raytracing-Hardware-255905/News/Windows-10-October-Update-DXR-1266388/
Windows Oktober-Update bringt DXR(RTX heißt es bei NV) für alle Nutzer
DXR heute, DirectML im Frühling
DirectML dürfte also vermutlich das einheitliche Konkurrenzprodukt zu Nvidias Deep Learning Supersampling sein

http://www.pcgameshardware.de/Spiele-Thema-239104/News/Raytracing-Beschleunigung-Prozessor-Moeglich-1265693/
Beschleunigung durch Prozessor soll möglich sein
Könnte man zusätzliche Prozessorkerne für diese Arbeit bereitstellen, so würde die Leistungsschwelle, zumindest etwas, gesenkt werden - und Nutzer von Systemen mit vielen Threads könnten ihre Prozessoren voll nutzen.
Das hat auch technische Hintergründe: Raytracing kann zwar parallelisiert werden, aber nicht vollständig. Jeder Pixel kann unabhängig berechnet werden, die Berechnungen pro gesendetem Lichtstrahl sind jedoch nicht parallelisierbar und somit bei hohem Rechenaufwand besser für Prozessoren als für Grafikkarten geeignet.

Mal abwarten was für Vorteile für RTX Käufer am Ende übrig bleiben ( abgesehen vom saftigen Aufpreis ).

Warum muss NV ständig Standards mit Proprietärem vorgreifen ?
So was schadet doch nur der Entwicklung die gerade durch Standards gefördert wird.
( warum verarscht NV uns ständig ? )

m.f.g. JVC

Und wieder ein Quatschpostings von dir. Ich finde dein kontinuierliches Spammen irgendwie fazinierend. :freak:

SKYNET
2018-10-04, 10:20:11
Sicherlich werden sie das nicht sein ^^


nun, das sehen wir dann wenns soweit ist :wink:

Und wieder ein Quatschpostings von dir. Ich finde dein kontinuierliches Spammen irgendwie fazinierend. :freak:


oh, die Turing/RTX fangemeinde ist auch schon wach....

JVC
2018-10-04, 10:20:28
Und wieder ein Quatschpostings von dir. Ich finde dein kontinuierliches Spammen irgendwie fazinierend. :freak:

HM ich sag doch nicht wirklich was :confused:
Ich hab nur verlinkt und zitiert ...
Schräger Text nicht von mir, gerader Text von mir ... soweit klar ?
( und das auch noch von einer angeblich PRO NV Seite )

Aber danke für das "zitieren" , damit hilft du beim verbreiten ^^

m.f.g. JVC

Troyan
2018-10-04, 10:24:26
Klar, nur "zitiert". "Verarschen", "propritärer", "schadet der Entwicklung", "was bleibt als Vorteil" etc. Du spammst hier nur rum. Nur. Jedes deiner Postings ist ein niveauloser Unsinn und besteht rein aus Hetze und Trollerei.

Weder verarscht nVidia wem, noch ist DXR propritär im Sinne nVidia-only, noch schadet nVidia eine Entwicklung, die erst durch nVidia möglich ist.

Weißt du, es wäre toll, wenn du den Unsinn einfach lässt oder dir ein AMD Thread suchst. Da kannst du den Quatsch schreiben.

SKYNET
2018-10-04, 10:32:48
noch schadet nVidia eine Entwicklung, die erst durch nVidia möglich ist.


ist garnix "erst durch NV möglich" das DXR ist bestandteil von DX12...

https://www.computerbase.de/2018-03/directx-12-raytracing-dxr/

JVC
2018-10-04, 10:33:44
@Troyan
Ich sage nur das es der Entwicklung (uns allen) schadet wenn jeder Hersteller ein eigenes "Süppchen" kocht ...
Der anderen 2 sind nur Fragen, die ich durchaus ernst meine.

m.f.g. JVC

p.s.: Ich bin Hier weil ich mich für (echten) Fortschritt interessiere und nach mehr Leistung lechze ...

AffenJack
2018-10-04, 10:34:08
mhhh... dann könnten die 8kerner massiv in führung gehen :cool: schon bin ich wieder froh, nen 2700X und keinen 2600X genommen zu haben, evtl. können die zumeist 4 überflüssigen kerne bzw. 8 threads DXR sogar schneller als die RT cores in einer RTX :biggrin:

Eher 60 FPS mit RTX, 10 FPS mit 4 Core und 10,5 FPS mit 8 Core. Real-Time-Raytracing mit CPUs kannst vergessen. Die einzigen CPUs die halbwegs bei RT performen sind die 32 Core TR und selbst das ist noch weit entfernt.



p.s.: Ich bin Hier weil ich mich für (echten) Fortschritt interessiere und nach mehr Leistung lechze ...

Wärst du das, dann würdest du dich zumindest über das Zeug informieren, was du schreibst und nicht dauernd sinnlose Posts hier reinsetzen.
Siehe Direct ML, welches ein Standard ist, der auch gerade durch NV gespusht wird.

Du solltest dich vielleicht fragen, wieso MS in ihrem Blog bisher nur Nvidia erwähnt bei DirectML und nur diese damit schon anwendungen hatten bei der Ankündigung.
https://blogs.msdn.microsoft.com/directx/2018/03/19/gaming-with-windows-ml/

SKYNET
2018-10-04, 10:40:13
Eher 60 FPS mit RTX, 10 FPS mit 4 Core und 10,5 FPS mit 8 Core. Real-Time-Raytracing mit CPUs kannst vergessen. Die einzigen CPUs die halbwegs bei RT performen sind die 32 Core TR und selbst das ist noch weit entfernt.


wir reden hier von ein paar strahlen, kein komplettes bild...

Rancor
2018-10-04, 10:43:01
nun, das sehen wir dann wenns soweit ist :wink:
.
Du glaubst also ernsthaft, das 4 x86 Kerne schneller sind, als hochspezialisierte RT-Kerne, die ausschließlich zu diesem Zweck existieren?

Troyan
2018-10-04, 10:47:12
ist garnix "erst durch NV möglich" das DXR ist bestandteil von DX12...

https://www.computerbase.de/2018-03/directx-12-raytracing-dxr/

Ohne nVidia kein DXR. Ohne Turing kein realer Nutzen für Spieler.

Also nochmal: Wo behindert nVidia mit der Unterstützung von Standards wie DXR und DML die Entwicklung?

JVC
2018-10-04, 10:48:35
Du glaubst also ernsthaft das 4 x86 Kerne schneller sind, als hochspezialisierte RT-Kerne, die ausschließlich zu diesem Zweck existieren?

Ich wage zu behaupten das ein einheitlicher Standard weiter kommt als etwas spezielles was spezielle Pflege braucht und bei dem nicht sicher ist wie weit/lange es gepflegt wird :wink:

m.f.g. JVC

Lehdro
2018-10-04, 10:48:37
warum bringt man solche karten? wo liegt der sinn darin die karte ~10% langsamer zu machen. ist das für den asiatischen markt, wo lautstärke egal ist oder fprs minen?
Wenn es wirklich das Ref Design ist und eine nette Powertargeterhöhung über das BIOS verfügbar ist, wäre das der Traum für alle Waküuser. ;)

JVC
2018-10-04, 10:54:01
Ohne nVidia kein DXR.
Falsch.
https://www.computerbase.de/2018-03/directx-12-raytracing-dxr/
DirectX 12 erhält Raytracing-API DXR für Hybrid-Rendering

Ohne Turing kein realer Nutzen für Spieler.
Auch falsch.
http://www.pcgameshardware.de/Raytracing-Hardware-255905/News/Windows-10-October-Update-DXR-1266388/
Windows Oktober-Update bringt DXR(RTX heißt es bei NV) für alle Nutzer

Also nochmal: Wo behindert nVidia mit der Unterstützung von Standards wie DXR und DML die Entwicklung?
Indem sie Arbeitsleistung für "eigenes" ver(sch)wenden, welche in den Standard investiert einen nutzen für Alle hätte.

Ich bekrittle nicht die +25% Leistung die NV gebracht hat und begrüße den wirklich guten FE Kühler...
Sondern den "Features" mit denen sie mit über +100% Leistung geworben haben und somit MM nach den 0815 Käufer geblendet haben...

m.f.g. JVC

Fragman
2018-10-04, 11:02:47
Ich wage zu behaupten das ein einheitlicher Standard weiter kommt als etwas spezielles was spezielle Pflege braucht und bei dem nicht sicher ist wie weit/lange es gepflegt wird :wink:

m.f.g. JVC

Das hatten wir bisher in Form von CPU's und die sind deutlich langsamer als spezialisierte Hardware. Man könnte auch gleich auf GPU's verzichten und damit DirectX entsorgen, dann spart man sich auch die spezielle Pflege dieser Schnittstelle. :rolleyes:

Troyan
2018-10-04, 11:06:44
Welche Firma hat als erstes DXR unterstützt? Richtig, nVidia, weil nVidia DXR forciert hat. Welche Firma hat Hardware auf dem Markt, die DXR nutzbar macht? Richtig nVidia, weil man wusste, dass Turing über RT Cores verfügen werde und man deswegen DXR forciert hat.

Erkläre doch bitte, welche Arbeitsleistung nVidia verschwendet hätte, wenn man von Tag 1 DXR unterstützt hat. Und bitte mehr als nur das sinnlose Zitieren von Internetseiten.

yamo
2018-10-04, 11:16:07
Wenn RTX so sehr NV proprietär wäre, bräuchte es kein Win10 Update mit DXR...
Nv hat das halt in Hardware gegossen und ne api gestellt.
Ob das Ganze jetzt leistungsfähig genug sein wird, steht in den Sternen. Ist aber ein guter Anfang.
Ich persönlich bin ja gespannt auf ein 4k SLI Bench der Star Wars Demo mit 2080Ti...
Wäre zwar nur´n showcase, aber spannend zu sehen, was möglich wäre...

JVC
2018-10-04, 11:19:03
Welche Firma hat als erstes DXR unterstützt? Richtig, nVidia, weil nVidia DXR forciert hat. Welche Firma hat Hardware auf dem Markt, die DXR nutzbar macht? Richtig nVidia, weil man wusste, dass Turing über RT Cores verfügen werde und man deswegen DXR forciert hat.
Kommt mir so vor wie bei G-Sync ...
Natürlich kann man sagen NV hat die Entwicklung angestoßen ...

Erkläre doch bitte, welche Arbeitsleistung nVidia verschwendet hätte, wenn man von Tag 1 DXR unterstützt hat. Und bitte mehr als nur das sinnlose Zitieren von Internetseiten.
Jede Grafikkarte "unterstützt" mit DX12 DXR.
Jedes deiner Postings ist ein niveauloser Unsinn und besteht rein aus Hetze und Trollerei.

Weist du was du willst ?
Einerseits darf ich keine "Meinung" haben und anderseits darf ich aber auch nix konkretes verlinken/zitieren :confused:

m.f.g. JVC

PHuV
2018-10-04, 11:19:32
Kommt mir so vor wie bei G-Sync ...
Falsch. Nur mal so als Info, JVC, Nvidia hat hier eng mit Microsoft permanent zusammengearbeitet. Das kannst Du, wenn Du mal ordentlich Dich informieren würdest, in zig Publikationen nachlesen.

Und mit Freesync ist AMD auch erst aus dem Knick genommen, als Nvidia das fertige Produkt auf dem Markt warf, weil sich mit den Herstellern und dem Standard nichts weiter mehr tat.
Weist du was du willst ?
Einerseits darf ich keine "Meinung" haben und anderseits darf ich aber auch nix konkretes verlinken/zitieren :confused:
Wenn Deine Meinung nur auf Latrinenparolen ohne Fakten beruht, wirkt das einfach nicht besonders überlegt und kompetent. ;)

SKYNET
2018-10-04, 11:23:17
Welche Firma hat als erstes DXR unterstützt? Richtig, nVidia, weil nVidia DXR forciert hat. Welche Firma hat Hardware auf dem Markt, die DXR nutzbar macht? Richtig nVidia, weil man wusste, dass Turing über RT Cores verfügen werde und man deswegen DXR forciert hat.

Erkläre doch bitte, welche Arbeitsleistung nVidia verschwendet hätte, wenn man von Tag 1 DXR unterstützt hat. Und bitte mehr als nur das sinnlose Zitieren von Internetseiten.


Microsoft hat deshalb einen Fallback-Modus in DXR integrieren können, mit dessen Hilfe alle zu DirectX 12 kompatiblen Grafikkarten DXR über Compute Shaders nutzen können.

AMD brachte die erste ECHTE DX12 karte in 03/2013, NV 09/2014... also, wo hat NV nochmal DXR als erstes unterstützt? sorry, aber dein halbwissen ist echt gefährlich, fast auf pegida/afd niveau.


Falsch. Nur mal so als Info, JVC, Nvidia hat hier eng mit Microsoft permanent zusammengearbeitet. Das kannst Du, wenn Du mal ordentlich Dich informieren würdest, in zig Publikationen nachlesen.

Und mit Freesync ist AMD auch erst aus dem Knick genommen, als Nvidia das fertige Produkt auf dem Markt warf, weil sich mit den Herstellern und dem Standard nichts weiter mehr tat.

AMD auch... sonst gäbs keine DX12 karten... :smile:

JVC
2018-10-04, 11:27:04
Nur mal so als Info, JVC, Nvidia hat hier eng mit Microsoft permanent zusammengearbeitet. Das kannst Du, wenn Du mal ordentlich Dich informieren würdest, in zig Publikationen nachlesen.

Eben ^^
Sie wussten Was kommt ... genau so war es bei G-sync ...
Trotzdem brauchen NV´s Hardwareeinheiten "spezielle Pflege".
( da sie nicht zur Gänze dem Standard entsprechen (wollen) )

m.f.g. JVC
p.s.:
Nette Forenmitglieder wären bestimmt so lieb und verlinken ihre Quellen
Danke

ädit:
Wenn Deine Meinung nur auf Latrinenparolen ohne Fakten beruht, wirkt das einfach nicht besonders überlegt und kompetent. ;)

HM wieder mal darf ich keine Meinung haben aber wenn ich was verlinke ist alles scheisse was ich verlinke :confused:

PHuV
2018-10-04, 11:28:26
AMD brachte die erste ECHTE DX12 karte in 03/2013, NV 09/2014... also, wo hat NV nochmal DXR als erstes unterstützt? sorry, aber dein halbwissen ist echt gefährlich, fast auf pegida/afd niveau.
Eh, nein, Du liegst falsch:

Announcing Microsoft DirectX Raytracing (https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/)
Matt Sandy - MSFTMarch 19, 2018
Achte bitte mal auf das Datum!

Wie war das nochmal mit Halbwissen? ;)

PHuV
2018-10-04, 11:29:47
p.s.:
Nette Forenmitglieder wären bestimmt so lieb und verlinken ihre Quellen
Danke
Dann gehörst Du definitiv laut Deiner Definition nicht zu den netten Forenmitgliedern und der Verwurf der Trollerei Deinerseits wäre berechtigt.

https://www.forbes.com/sites/davealtavilla/2018/03/19/nvidia-and-microsoft-lay-foundation-for-photorealistic-gaming-with-real-time-ray-tracing/#40fac9af6e31
https://www.heise.de/newsticker/meldung/Raytracing-fuer-Spiele-kommt-Microsoft-Schnittstelle-DirectX-Raytracing-und-Nvidia-RTX-angekuendigt-3998690.html
https://devblogs.nvidia.com/introduction-nvidia-rtx-directx-ray-tracing/
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Nvidia-Microsoft-Ray-Tracing-DirectX-12-DXR-RTX-Volta-Turing-1252607/

Selbst $MS schreibt:
DirectX Raytracing and the Windows 10 October 2018 Update (https://blogs.msdn.microsoft.com/directx/2018/10/02/directx-raytracing-and-the-windows-10-october-2018-update/)
Several studios have partnered with our friends at NVIDIA, who created RTX technology to make DirectX Raytracing run as efficiently as possible on their hardware:

AffenJack
2018-10-04, 11:38:13
HM wieder mal darf ich keine Meinung haben aber wenn ich was verlinke ist alles scheisse was ich verlinke :confused:

Nicht das verlinkte ist scheiße, deine Interpretation davon. Du behauptest schließlich, dass Nv alle verarscht ohne dafür irgendwelche Quellen zu haben. Dabei ist Nv sowohl bei DXR, als auch bei Direct ML eine der Firmen die beides am meisten pusht. Das wird aber von dir gekonnt ignoriert, weil es nicht deinem Weltbild entspricht, dass Nv die Standards am meisten pusht.

JVC
2018-10-04, 11:41:31
Eh, nein, Du liegst falsch:

Announcing Microsoft DirectX Raytracing (https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/)

Achte bitte mal auf das Datum!

Wie war das nochmal mit Halbwissen? ;)
https://gpuopen.com/gaming-product/radeon-rays/?webSyncID=d6d54476-0e41-383b-90ca-b4354171d51c&sessionGUID=0915d143-d07b-573c-8b44-93103356a44a
Radeon Rays Technologie
Obwohl ich das weiter vorne schon mal verlinkte ...
Und Das gibt's schon weit länger als NV´s "RTX".

Aber du hast recht, Ich kenn mich nicht aus und lese nur und frage hald nach ...

m.f.g. JVC

p.s.: ja ich fühle mich von NV verarscht (hab zum glück keine Karte gekauft)
Immerhin hat NV selbst auf Folien +100% und mehr versprochen ...
Dafür hätt ich locker 1,3k hingelegt wenn nicht mehr.

ädit:
Nicht das verlinkte ist scheiße, deine Interpretation davon.
Dabei Zitiere ich mittlerweile fast ausschließlich ...
Ka was ich sonnst noch machen kann ...
( bin hald sauer auf NV ... und ich denke das bin ich zu recht bei dem P/L Verhältnis )

SKYNET
2018-10-04, 11:46:55
Eh, nein, Du liegst falsch:

Announcing Microsoft DirectX Raytracing (https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/)

Achte bitte mal auf das Datum!

Wie war das nochmal mit Halbwissen? ;)


ja, aber jede DX12 karte kanns per compute shader... ;) und AMD hatte die erste DX12 karte, ergo waren sie die ersten dies -ohne es damals zu wissen- unterstützt haben... könnten sie eigentlich mal als werbefeldzug iniziieren... "we was first (2013) where make raytracing possible" grad ne fist in da face für NV :D

Fragman
2018-10-04, 11:52:39
ja, aber jede DX12 karte kanns per compute shader... ;)...

Ein Niveau hier wieder, nicht einmal Hermes Limbo Faehigkeiten schaffen es hier drunter durch.

Troyan
2018-10-04, 11:56:20
AMD brachte die erste ECHTE DX12 karte in 03/2013, NV 09/2014... also, wo hat NV nochmal DXR als erstes unterstützt? sorry, aber dein halbwissen ist echt gefährlich, fast auf pegida/afd niveau.

Da Fermi DX12 unterstützt...

JVC
2018-10-04, 11:57:01
@Fragman
Jup :(

Manchmal hab ich das Gefühl als wenn auch einige Private NV´s NDA unterschrieben hätten ...
( blos nicht schlecht drüber reden )
Da ist ja sogar Raff kritischer...
Turing bringt ein zu kleines Plus gegenüber Pascal. Darüber sind wir uns einig. Ihr tut nun aber so, als wäre mit den starken Founders-Designs alles anders. Wir reden hier über einstellige prozentuale Unterschiede (Schätzung, Karten gibt es ja nicht). Ob's am Ende nun +35 oder +29 Prozent sind, ändert am Gesamtbild, dass es zu wenig ist, gar nichts.

MfG,
Raff

m.f.g. JVC

Fragman
2018-10-04, 12:06:32
Wir reden hier über spezialisierte Hardware, und nicht über SM's, die das zufällig schneller können als CPU's und auch deren Erweiterungen, die, in der Tat, RT beschleunigen können, aber am Ende trotzdem nicht schnell genug sind für Realtime RT, siehe Embree.

Die Diskussion macht doch so keinen Sinn. Auf der einen Seite wird der 2080 die Leistung abgesprochen und auf der anderen Seite will man normale CPU's zur Beschleunigung nutzen? Der Wiederspruch sollte eigentlich offensichtlich sein. ;)

yamo
2018-10-04, 12:11:37
@Fragman
Jup :(

Manchmal hab ich das Gefühl als wenn auch einige Private NV´s NDA unterschrieben hätten ...
( blos nicht schlecht drüber reden )

m.f.g. JVC

In meinem letzten Post ging ich nicht direkt auf deinen Eintrag ein, jetzt wird es mir zuviel mit dem Unsinn, den Du hier verbreitest.
Heilige Mutter Gottes, ich hab ja schon wenig Ahnung, lese mir stattdessen so Posts von "Gravitationsfeld" durch und versuche sie zu verstehen (und nebenbei die Fresse zu halten).
Du bellst hier ständig irgendwas raus. Aber jeder, der nur ein bischen Ahnung hat, sieht, das ist alles Blendwerk. Bitte, nimm Dich etwas zurück oder gehe ins Luxx.

Grüße,
Micha

JVC
2018-10-04, 12:13:33
@Fragman
Sind NV´s "extra Einheiten" zu 100% kompatibel zum Standard ?

Oder bedarf das immer einer gewissen Nachpflege seitens NV ?
(wie ich vermute und was für mich Proprietär wäre)

Das macht MMn nämlich n Riesen Unterschied.

m.f.g. JVC

PHuV
2018-10-04, 12:27:11
@Fragman
Sind NV´s "extra Einheiten" zu 100% kompatibel zum Standard ?

Oder bedarf das immer einer speziellen nachpflege seitens NV ?
(wie ich vermute und was für mich Proprietär wäre)

Das macht MMn nämlich n Riesen Unterschied.
Darf ich bitte direkt fragen, hast Du IT Know-How, Computerexpertenwissen als Background...? So sieht es erst mal nicht aus.

Es ist vollkommen egal, was Nvidia macht. Wichtig ist, es gibt einen Standard, der nennt sich DXR und der wird von $MS rausgerollt. Wenn Du meine Links, die Du ja von mir gefordert hast, gelesen hättest, hättest Du folgendes entdeckt:

DirectX Raytracing and the Windows 10 October 2018 Update (https://blogs.msdn.microsoft.com/directx/2018/10/02/directx-raytracing-and-the-windows-10-october-2018-update/)
Raytracing and Windows
:
We built DirectX Raytracing with ubiquity in mind: it’s an API that was built to work across hardware from all vendors.
Also, warum liest Du nicht einfach mal vernünftig nach, bevor Du weiter mit so blankem Unwissen den Thread zumüllst? Nochmals, alles OT hier, hier gehts um Reviews! Mach Deine Meinung, wie ich Dich bereits mal hinwies, bitte woanders hin.

PS: Weißt Du überhaupt, wie eine API funktioniert?

Troyan
2018-10-04, 12:28:27
Erkläre bitte, wieso die "extra"-Einheiten nicht kompatibel sein sollten. Bitte zeige auch die technischen Hintergründe auf, die eine solche Kompatibilität verhindern.

Schnitzl
2018-10-04, 12:39:11
Nicht das verlinkte ist scheiße, deine Interpretation davon. Du behauptest schließlich, dass Nv alle verarscht ohne dafür irgendwelche Quellen zu haben. Dabei ist Nv sowohl bei DXR, als auch bei Direct ML eine der Firmen die beides am meisten pusht. Das wird aber von dir gekonnt ignoriert, weil es nicht deinem Weltbild entspricht, dass Nv die Standards am meisten pusht.
Das wäre schön zu hören, dass nVidia sich geändert hat.
z.B. in Zeiten von PhysX war das noch anders. Sogar so dass wenn nur eine AMD-Grafikkarte zusätzlich drin war, PhysX nicht mehr funktioniert hat.
G-Sync hat die Monitorwelt zweigeteilt.
Sollte man nicht unterschlagen, wenn man sagt, dass nvidia Standards am meisten pusht...

nur mal am Rande bemerkt.

JVC
2018-10-04, 12:39:46
@ an die die mich nicht verstehen:

Ja Mein wissen ist eher schlecht :(
( in meiner Jugend hab ich mich sehr dafür interessiert und kannte mich auch etwas aus )
Mein English ist leider auch ~so schlecht wie der Googleübersetzer...

Und ich denke das ich bei ~+25-30% Mehrleistung bei fast doppelt so hohem Preis nicht Substanzlos rum heule.

Erkläre bitte, wieso die "extra"-Einheiten nicht kompatibel sein sollten. Bitte zeige auch die technischen Hintergründe auf, die eine solche Kompatibilität verhindern.
Was soll ich erklären nachdem ich selbst gerade gefragt habe ?
@Fragman
Sind NV´s "extra Einheiten" zu 100% kompatibel zum Standard ?
Oder bedarf das immer einer gewissen Nachpflege seitens NV ?
...

@PHuV :
"Wichtig ist, es gibt einen Standard, der nennt sich DXR und der wird von $MS rausgerollt."
Daher die obige frage ob NV´s Extraeinheiten auch Extrapflege von NV brauchen ...
(OB NV den Standard wirklich zur Gänze unterstützt und zwar ohne ständig nachbessern zu müssen)

m.f.g. JVC
(ein Pessimistischer immer Mistrauschischer "Realist")

AffenJack
2018-10-04, 12:46:44
Das wäre schön zu hören, dass nVidia sich geändert hat.
z.B. in Zeiten von PhysX war das noch anders. Sogar so dass wenn nur eine AMD-Grafikkarte zusätzlich drin war, PhysX nicht mehr funktioniert hat.
G-Sync hat die Monitorwelt zweigeteilt.
Sollte man nicht unterschlagen, wenn man sagt, dass nvidia Standards am meisten pusht...

nur mal am Rande bemerkt.

Geändert? Da würde ich nicht von Ausgehen, sonst hätte man endlich mal G-Sync öffnen können. Das machen sie nicht, weil Freesync zu gleichwertig ist und sie durch die Kundenbindung einen Vorteil kriegen. Sie wissen wo sie Vorteile drin haben und glauben diesen für sich nutzen zu können. Tensor Cores und RT-Cores haben gerade nur sie, aber die Verbreitung kriegen sie nur hin, wenn es einen Standard dafür gibt. Also pushen sie den Standard.

yamo
2018-10-04, 12:51:11
Wird mit dem kommenden Standard spannend. Lange wird sich NV dem Freesync nicht widersetzen können, wenn es breit auf den neuen TV´s released wird.
Das wird ne spannende Geschichte mit dem kommenden Standard. Was macht NV?
Ein Hinweis waren ihre BFG-TV.... Aber das kauft doch keiner zu den Preisen.

HisN
2018-10-04, 13:04:08
Die Welt ist so unterschiedlich^^

https://abload.de/thumb/witcher3_2018_10_04_1red7x.jpg (https://abload.de/image.php?img=witcher3_2018_10_04_1red7x.jpg) https://abload.de/thumb/gta5_2018_10_03_23_24h3c3c.jpg (https://abload.de/image.php?img=gta5_2018_10_03_23_24h3c3c.jpg)

Schnitzl
2018-10-04, 13:11:08
danke für die Infos :)

@ AffenJack: ich glaube ich hab jetzt verstanden was du gemeint hast.

PHuV
2018-10-04, 13:48:21
@PHuV :
"Wichtig ist, es gibt einen Standard, der nennt sich DXR und der wird von $MS rausgerollt."
Daher die obige frage ob NV´s Extraeinheiten auch Extrapflege von NV brauchen ...
(OB NV den Standard wirklich zur Gänze unterstützt und zwar ohne ständig nachbessern zu müssen)
:rolleyes: Nochmals, es ist eine API, eine Schnittstellendefinition. Dort legt man gewisse Funktionen fest, die auf eine gewisse verläßliche Weise funktionieren. Es ist dann egal, wer diese Funktion anspricht, sie arbeitet immer gleich.

Nvidia, AMD, Intel, ARM und sonstwer schreiben einen Treiber, der mit dieser API kommuniziert. Der Treiber kümmert sich darum, daß das diese Funktion auf deren eigene Hardware ausgeführt werden kann. Dann ist es vollkommen egal, ob das nun per CPU, GPU Shader, Tensorcore oder sonstwas ausgeführt wird, und auch egal, welcher Hersteller dann dahinter steckt.

Wenn sich irgendwann herausstellt, daß die API, hier DXR nicht mehr aussreicht, wird es eine neue Version mit neuen erweiterten Funktionen geben, so wie es die Evolution mit DirektX (1-12) zeigt. Also, warum zerbrichst Du Dir den Kopf über was, was Dich relativ wenig interessieren sollte. :confused:

JVC
2018-10-04, 14:22:05
Nvidia, AMD, Intel, ARM und sonstwer schreiben einen Treiber, der mit dieser API kommuniziert. Der Treiber kümmert sich darum, daß das diese Funktion auf deren eigene Hardware ausgeführt werden kann. Dann ist es vollkommen egal, ob das nun per CPU, GPU Shader, Tensorcore oder sonstwas ausgeführt wird, und auch egal, welcher Hersteller dann dahinter steckt.


Danke :)

Also weis man noch nicht wirklich was.
Wir werden sehen ob es mit dem Standard funktioniert oder sich wie PhysX oder G-Sync entwickelt.
Für mich ist nur noch wichtig das die "Kiste" einfach gut funktioniert ^^ das Alter macht bequem ;)
( und nein ... auf meinen Rechner darf kein Update automatisch, Wann und Was entscheide ich )

m.f.g. JVC

p.s.: meine erste "Konsole" war ein "MBO Teleball Cassetten System" ^^ das waren Zeiten :D
https://www.google.at/search?q=mbo+teleball+cassette+system&sa=X&ved=0ahUKEwj01r3z6OzdAhWSZVAKHal1DlUQ7xYIJCgA&biw=1310&bih=788
"Sold by: MBO, Germany, 1977"
Hab ich noch immer mit 6 Cassetten ... obs noch funktioniert ? müsst ich mal probieren ;)
Das klappte ganz gut mit "reinsteckenundloslegen" ohne viel gefummel ;D (und das ohne Updates)

AffenJack
2018-10-04, 14:25:30
danke für die Infos :)

@ AffenJack: ich glaube ich hab jetzt verstanden was du gemeint hast.

Ging mir nur darum, dass alles einfach eine Frage der Gewinnmaximierung ist. Desto eher sich DirectML und DXR durchsetzen, desto eher veraltet Pascal und die Leute rüsten auf. Win für Nvidia + eben technologischer Vorsprung gegenüber der Konkurrenz in dem Bereich gerade, weshalb es sich lohnt für Nvidia das zu pushen.

Ist bei AMD nix anderes, auch da ist der Ansatz nur "Open", weil man weniger Marktanteil hat und das der beste Weg ist aus so einer Position Dinge zu ändern. Da wo AMD von den features unterlegen war, hat AMD auch still gehalten. Siehe z.B. DX12.1 während Polaris, dafür Async pushen. Nvidia dagegen mit Marketing für DX12.1 und ignorieren von Async. Unternehmen tun nix aus purem guten Willen. :wink:

Nazar
2018-10-05, 08:57:32
Ohne nVidia kein DXR. Ohne Turing kein realer Nutzen für Spieler.

Also nochmal: Wo behindert nVidia mit der Unterstützung von Standards wie DXR und DML die Entwicklung?

Bitte den Begriff Standard nicht für etwas benutzen, was vom Standard noch weiter als der Mond von der Erde entfernt ist.
Wenn ihr nicht wisst, wie sich ein Standard definiert, dann bitte hier nachlesen: https://de.wikipedia.org/wiki/Standard

DXR ist alles aber mit Sicherheit derzeit KEIN Standard!
Fakt ist, dass die aktuelle Leistung aller Grafikkarten nicht ausreicht, um DXR in irgendeiner Form so in ein Spiel mit einzubauen, dass es sinnvoll wäre und die Performance für alle am Markt befindlichen GKs dabei nicht ins Unterirdische drischt. Somit ist es derzeit nur eine reine "Spielerei" und damit auch kein Standard.
Z.B. PhysX ist ebenso wenig als Standard definiert worden. Es ist sogar ein durch nV forciertes Alleinstellungsmerkmal, denn ohne deren Hardware, ohne einen nV Beschleuniger, gibt es kein PhysX! nV sit sogar so weit gegangen, dass es schon reichte eine ATI Grafikkarte im Rechner zu haben, dass PhysX, trotz nV Beschleuniger, nicht funktioniert.
Ähnlich verhält es sich mit Gsync! Was auch ein vollkommenes Alleinstellungsmerkmal ist.
Anders hingegen verhält es sich z.B. mit Freesync. Das ist ein wirklicher Standard, weil jeder es mit der derzeitigen Technik effektiv nutzen kann, wenn er es denn will und das ohne zusätzliche Hardware, die auf ein Monopol beruht. nV könnte sofort Freesync ohne zusätzliche Kosten nutzen.
DXR ist ein Testballon und ob es sich zu einem Standard entwickeln wird, steht noch in den Sternen. Denn hier müssen, neben den Hardwareentwicklern, auch die Softwareschmieden mitziehen. Der Limitierende Faktor ist hier aber die nicht ausreichend, für alle Kunden erreichbare, leistungsstarke Hardware.
Es werden noch viele Jahre ins Land gehen, bevor sich da ein eventueller Standard Abzeichen wird.
Derzeit kann aber keine Rede davon sein.

Fragman
2018-10-05, 09:04:02
DXR ist alles aber mit Sicherheit derzeit KEIN Standard!
Fakt ist, dass die aktuelle Leistung aller Grafikkarten nicht ausreicht, um DXR in irgendeiner Form so in ein Spiel mit einzubauen

KA warum Du so einen Unsinn schreibst. :confused:

Korvaun
2018-10-05, 09:53:24
Falscher Thread.... deshalb gelöscht!

AffenJack
2018-10-05, 09:58:55
:wink:Bitte den Begriff Standard nicht für etwas benutzen, was vom Standard noch weiter als der Mond von der Erde entfernt ist.
Wenn ihr nicht wisst, wie sich ein Standard definiert, dann bitte hier nachlesen: https://de.wikipedia.org/wiki/Standard


Dann ist HDMi 2.1 wohl auch kein Standard und DX12 ist ebenso wenig ein Standard. Denn HDMI wird noch von keinem Produkt unterstützt und DX12 von den Softwareherstellern größtenteils auch nicht. Das ist ne fadenscheinige Begründung.

DXR und WinML sind natürlich Standards. AMD, Intel, Nvidia plus die Softwarehersteller haben sich auf einen gemeinsamen Standard geeinigt. Wann die Unterstützung davon in Software/Hardware kommt ist völlig ohne Belang dafür ob es ein Standard ist oder nicht. Du kannst es meinetwegen auch Industriestandard nennen, wenn dir das Wort Standard zu sehr widerspricht. Aber dann sind wie gesagt HDMI, DX12 etc auch nur Industriestandards und es wird trotzdem jeder Standard schreiben, weils kürzer ist.

pixeljetstream
2018-10-05, 10:45:54
Selbst in dem wiki Eintrag steht:
"meist angewandte (oder zumindest angestrebte) Art und Weise,..."

Gymnopédies
2018-10-05, 10:53:02
Warum gibt es eigentlich nix neues zur RTX2070, die kommt doch bald raus? Fliegen da nicht schon irgendwo welche rum.^^

dildo4u
2018-10-05, 10:55:02
Termin ist dort erst der 17.10.

SKYNET
2018-10-05, 11:02:05
Termin ist dort erst der 17.10.


das ding wird von den redaktionen zerissen werden ;D

dildo4u
2018-10-05, 11:12:10
Turning skaliert ziemlich gut mit AC: Odyseey,gute Skalierung ist also auch ohne DX12/Vulkan möglich.

https://www.computerbase.de/2018-10/assassins-creed-odyssey-benchmark-test/3/#diagramm-assassins-creed-odyssey-2560-1440

Loeschzwerg
2018-10-05, 18:24:02
Gibt es Testberichte zu den Karten mit DHE Kühlung bzw. Blower Design?

https://geizhals.de/asus-turbo-geforce-rtx-2080-ti-90yv0c40-m0nm00-a1870839.html?hloc=de
https://geizhals.de/zotac-gaming-geforce-rtx-2080-blower-zt-t20800a-10p-a1870909.html?hloc=de

dildo4u
2018-10-05, 18:35:30
Ja für die 2080.

http://www.pcgameshardware.de/Geforce-RTX-2080-Grafikkarte-267863/Tests/Asus-RTX-2080-Turbo-8G-Test-Blower-1266233/

Loeschzwerg
2018-10-05, 18:37:24
Ahhh, sogar ganz frisch. Danke :)

Edit: Schlägt sich ganz gut die Karte. Unter Last leiser als die 1080 / TI FE. Danke für den Test Raff :up:

Ist auch ein Test der Ti Variante geplant?

USS-VOYAGER
2018-10-05, 23:10:11
Für die VR Interessierten: ca. 10fps mehr für 1300€. Lohnt sich ja richtig das Teil ;D

GitaUEAzrHQ

Daredevil
2018-10-05, 23:16:23
Ahhh, sogar ganz frisch. Danke :)

Edit: Schlägt sich ganz gut die Karte. Unter Last leiser als die 1080 / TI FE. Danke für den Test Raff :up:

Ist auch ein Test der Ti Variante geplant?
Unter Last leiser als Vega, also völlig brauchbar. :D
Bissl undervolting und man kann fix unter 2000rpm bleiben, gibt schlimmeres.

Liquid Metal drunter klatschen und man kommt nochmal 5-10°C runter.

horn 12
2018-10-05, 23:31:11
Wieviel Sone hat Vega 64 ? 4,0 Sone

Daredevil
2018-10-05, 23:33:51
Neeeeein, kein Vega Derailing jetzt.
Das war weder ein Bash, noch ein Zuspruch. Es war lediglich ein Vergleich, damit man sich in etwa vorstellen kann, wie laut das Ding ist. Vega Ref ist ja auch irgendwo ertragbar, also ist es die Turbo auch. :)

Ex3cut3r
2018-10-06, 01:29:16
Nö, sind für mich nicht tragbar, bis 2,0 Sone ist grade so akzeptbabel, drüber wirds schon arg kritsch, vorallem da es in meinen SP Games auch mal ruhige Stellen gibt.

Vega 56 Referenz übrgiens schon mit 4,9 Sone, Vega 64 dann irgendwo bei 5,9. Das schlimme ist, das GPUs bzw. der Kühler mit den Monaten und Jahren immer lauter werden, weil das Ding halt verstaubt und viele User sind auch faul, das mal richtig zu entstauben, aus 4,9 werden auch mal 5,5 Sone.

https://abload.de/img/unbenanntrdepo.png

Daredevil
2018-10-06, 01:35:44
Ertragbar =! Tragbar

Aber mir ist schon klar, dass dein Lautstärkeempfinden genau da okay ist, wo deine theoretische 2080 gerade endet. :D

Ex3cut3r
2018-10-06, 02:29:00
Die FE habe ich gar nicht mehr, die habe ich zurückgeschickt, weil zu laut. Habe mich eher bedeckt gehalten, weil manchen Leuten im Pre- Order Thread schon nicht gefallen hat, das ich 2 Stück bestellt habe (eine Custom + FE) am ende waren dann sogar 3 hier. Weil die Gaming X Trio trotz Monster Kühler, die GPU trotzdem auf 75 Grad gebracht hat und das bei 1600 RPM. Entweder war die Paste bei mir schlecht aufgetragen/bzw. ein Montags Modell oder das Ding ist gar nicht so gut, wie man denken könnte, bei der Ti wäre ich wohl fast an die 80 Grad gekommen. Am Gehäuse kanns nicht liegen, habe ein NZXT 630 Phantom Big Tower mit 2x200mm In (Vorne, Seitlich) + 1x200mm Out (Oben) + 1x140 Out (Hinten) Natürlich vorher entstaub und aufgeräumt. Alle Gehäuselüfter laufen mit unhörbaren 700 RPM! Und bringen auch wegen ihrer Größe genug Frischluft rein und raus. Das lauteste bei mir, ist tatsächlich die 1TB Seagte Festplatte, die will eh mal durch eine SSD ersetzen.

Am ende ist dann eine Gigabyte Gaming OC geworden (nicht Windforce) die hält die GPU auf 65-67 Grad mit 1300-1500 RPM, einzige Sache, die nervt an der Gigabyte sind, die elektronischen Geräusche bei Last Wechsel, und das die Fans teilweise ein wenig Buggy sind, manchmal laufen die aus dem Zero Fan Mode nicht richtig an, d.h. die Sie versuchen es, scheitern aber gleich wieder, und probieren es nochmal. Lösung bisher, Custom Fan Kurve im Afterburner, damit laufen die auch im Desktop mit niedriger Laufzahl und der Bug fällt aus. Vlt. muss Gigabyte da nochmal mit einen Bios Update ran. Überlege aber auch, ob ich die nicht auch noch zurückschicke. :biggrin:

Der Sprung von der GTX 1070 mit Max OC auf die RTX 2080 mit Max OC war in meiner Spielauflösung 3440x1440 war aber gewaltig, wo ich vorher so 50-70 FPS in meinen Spielen drin war, sind es nun 90-110FPS. Ausnahme war bisher, Shadow of the Tomb Raider, in Max wo es sich bei 70-90 FPS einpendelt. Und dann gibt da so krasse Beispiele, wo die Leistung sogar auf über 100% gewachsen ist, (kein Scherz) nämlich in Wolfenstein 2, da kratzt die RTX tatsächlich an der 200 FPS Marke und das wohlgemerkt in 3440x1440 mit Ueber und per Hand maximierten Settings + 16xAF Global im Treiber und 8xTSAA. Mit der 1070 waren es "grade" mal 70 FPS. Doom Eternal kann kommen. ;D

https://abload.de/thumb/newcolossus_x64vk_2013ychr.jpg (https://abload.de/image.php?img=newcolossus_x64vk_2013ychr.jpg)

Preismäßig war es auch vertretbar, hatte meine 1070er noch für 320€ im Luxx verkauft. Sodass ich 520€ dazulegen musste.

Ich vermisse ehrlich gesagt, etwas breitere Customs wie die Gaming X bei der 10er Serie, irgendwie gibt es diesmal zu viele Referzenz PCBs mit diesen "Bagutte" Kühlern und 3 Fans auf einmal, lieber 2 große Fans, als 3 kleine. Aber das sind eher Luxus Probleme. Und meine Präferenz.

Aber eins ist auch klar, von den Materialen war die FE die die beste GPU, die ich jemals in den Händen gehalten habe, ich hoffe das sie bei 30er Serie noch weiter verbessern, was Lautstärke und Temps angeht. Verdammt schick war Sie auch, nur das nutzt mir hier nicht so viel, da mein Case sowieso nur ein Halb Fenster hat. D.H Deckel drauf, und ich sehe höchstens den RTX Schriftzug. Das wars aber auch schon :D

Fazit, ist noch alles etwas unausgereift, dekadent, aber auch irgendwie geil, Shadow of the Tomb Raider, schon leider durch damit, überlege jetzt den Kauf von Forza, und im November gibts Battlefield 5 Action, BF1 schon fast 600 Stunden gezockt, https://battlefieldtracker.com/bf1/profile/pc/Ex3cut3rz123

Schnitzl
2018-10-06, 07:47:13
Real Life? WTF? Link? ;D

scnr

P.S.: Spass beiseite, danke für deinen Kurz-Bericht :up:
Ich freu mich schon auf die 3070 nächstes Jahr mit mehr lowlevel-Titeln + evtl. RTX Titeln

gravitationsfeld
2018-10-06, 08:25:56
(kein Scherz) nämlich in Wolfenstein 2, da kratzt die RTX tatsächlich an der 200 FPS Marke und das wohlgemerkt in 3440x1440 mit Ueber und per Hand maximierten Settings + 16xAF Global im Treiber und 8xTSAA. Mit der 1070 waren es "grade" mal 70 FPS. Doom Eternal kann kommen. ;D
Vielleicht laesst mich Troyan dann ja endlich mal in Ruhe :rolleyes:

Async laeuft einfach viel besser auf Turing (sprich: es funktioniert) und die Integer-Einheiten helfen auch.

dargo
2018-10-06, 08:38:05
Vielleicht laesst mich Troyan dann ja endlich mal in Ruhe :rolleyes:

Async laeuft einfach viel besser auf Turing (sprich: es funktioniert) und die Integer-Einheiten helfen auch.
Sicher, dass es an Async liegt? Ich frage deshalb weil Async bei Wolf 2 und Vega immer noch kaputt ist (bremst, bin mir gerade nur nicht 100% sicher ob es Indoors oder Outdoors waren) und ich mir nicht sicher bin ob es an MG oder am Treiber liegt.

Edit:
Das war mein letzter Stand.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11639561&postcount=1183

Irgendwas stimmt da nicht so ganz in Verbindung mit dem GPU-Culling.

Edit 2:
Aktueller Stand.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11819103&postcount=1214

gnomi
2018-10-06, 09:04:12
Danke für den Erfahrungsbericht zur 2080.:)
Ich hatte auch schon einige Nvidia Referenzversionen.
680 und 980 sowie 1080 zum Testen zum Beispiel.
Die Lautstärke fand ich zunehmend immer ein wenig besser und allgemein vertretbar, aber es ist eben schwer, wenn man auch mal in den Genuss von besserem kommt. (nun wurden die aber auch so gebaut, weil sie damals in jedem schlecht gekühltem Tower laufen mussten- das ist sogar gar nicht schlecht, wenn man die jetzt selber noch in den alten Mühlen im Haushalt weiterbenutzt)
Ich habe mich gelegentlich dann an meine alte GTX 470 erinnert, die ich selber mit ARCTIC Accelero Xtreme aufgewertet hatte.
Allerdings fand ich das Basteln schon ziemlich aufwendig und hatte da dann später auch nicht mehr so Lust zu bei so teuren Karten.
Aktuell bin ich ja mit der Palit Gamerock 1080 unterwegs, die echt eine äußerst gute Kühlkonstruktion hat.
Die 2080 & TI FE Versionen finde ich aber muss ich sagen richtig gut.
Einzelne Customs sind im Ergebnis wohl noch ein wenig besser, aber die FE finde ich von der Wertigkeit wie immer top und viel professioneller.
Sehr schade, dass nvidia die nur über ihren Shop anbietet.
Das schließt quasi einen Preiskampf wie bei Partnerkarten auf dem normalen Markt aus. :(

@ Performance
Also das sind natürlich auch so zu erwartende Ergebnisse.
Es müssen neue Spiele, Features und erweiterte Engines her, ansonsten ist das gerade mit GSync und nur 1440P halt ziemlich sinnlos, wenn die fps Raten schon jenseits der 60 und absolut glatt sind.
Aber das wird so kommen. Und ich bin mir auch ziemlich sicher, dass wir die TI oder was vergleichbar überholtes in 12-15 Monaten für unter 1k sehen werden.

gravitationsfeld
2018-10-06, 11:18:41
Sicher, dass es an Async liegt? Ich frage deshalb weil Async bei Wolf 2 und Vega immer noch kaputt ist (bremst, bin mir gerade nur nicht 100% sicher ob es Indoors oder Outdoors waren) und ich mir nicht sicher bin ob es an MG oder am Treiber liegt.

Edit:
Das war mein letzter Stand.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11639561&postcount=1183

Irgendwas stimmt da nicht so ganz in Verbindung mit dem GPU-Culling.

Edit 2:
Aktueller Stand.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11819103&postcount=1214
Das ist doch alles innerhalb der Messungenaugkeit. Die Szene die du da misst ist jetzt auch nicht besonders geeignet.

AffenJack
2018-10-06, 11:42:06
Vielleicht laesst mich Troyan dann ja endlich mal in Ruhe :rolleyes:

Async laeuft einfach viel besser auf Turing (sprich: es funktioniert) und die Integer-Einheiten helfen auch.

Wieso kann eigentlich die Titan V nicht von den Integereinheiten profitieren? Hast du da eine Erklärung für? Fällt zb bei Wolfenstein auf, dass Turing da deutlich schneller ist.

TobiWahnKenobi
2018-10-06, 11:43:37
(m)eine titan v macht da auch 150-230fps - je nach setting.


(..)

mfg
tobi

AffenJack
2018-10-06, 11:58:38
(m)eine titan v macht da auch 150-230fps - je nach setting.


(..)

mfg
tobi

Sie skaliert im Vergleich zu Turing äußerst schlecht in Wolfenstein, siehe zb. Hardwareluxx bei gleichem Takt:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=26

Und Hardwareluxx hat sogar eine Szene bei der Turing in Wolfenstein noch schlecht skaliert und eine 2080 nur 13% schneller als die 1080Ti ist (Weiter vorne mit Standardtaktraten). Viele Tests haben die 2080 25-30% schneller als die 1080Ti bei Wolfenstein.

TobiWahnKenobi
2018-10-06, 12:02:51
ich kann die wenigsten tests im netz nachvollziehen. nicht nur die von hardware luxx.. auch die von igor sind strange.

die wolfensteine und dooms dieser welt laufen schon unglaublich schnell - viel mehr kann ich dazu allerdings nicht beitragen, denn abseits vom reinschauen und mal messen haben diese titel nichts für mich; ich spiele sie nicht.



(..)

mfg
tobi

SKYNET
2018-10-06, 12:08:39
ich kann die wenigsten tests im netz nachvollziehen. nicht nur die von hardware luxx.. auch die von igor sind strange.

die wolfensteine und dooms dieser welt laufen schon unglaublich schnell - viel mehr kann ich dazu allerdings nicht beitragen, denn abseits vom reinschauen und mal messen haben diese titel nichts für mich; ich spiele sie nicht.



(..)

mfg
tobi



pssst... darum nennen sie ihn auch in der redaktion "dr. strange" :ulol:


sorry igor :wink:

dargo
2018-10-06, 12:10:37
Das ist doch alles innerhalb der Messungenaugkeit. Die Szene die du da misst ist jetzt auch nicht besonders geeignet.
Naja... Messtoleranz ist es nicht wenn ich sehe, dass zwischen dem besten und schlechtesten Wert 7% liegen. Die Frames sind auch exakt reproduzierbar. Szenenwahl lass ich natürlich gelten. Falls du einen besseren Vorschlag für andere Szenen hast gerne über PN.

y33H@
2018-10-06, 12:28:26
ich kann die wenigsten tests im netz nachvollziehen. nicht nur die von hardware luxx.. auch die von igor sind strangeWas genau kannst du nicht nachvollziehen?

TobiWahnKenobi
2018-10-06, 12:33:20
die kurzen balken in den spielen, die ich selbst habe.. festgenagelte takte, zusammenstellungen von testsystemen und natürlich damit einhergehend irgendwelche abschliessenden bewertungen.


(..)

mfg
tobi

y33H@
2018-10-06, 13:02:07
Kannst du exemplarisch ein zwei Spiele und Systeme nennen? Die meisten nutzen ja einen (übertakteten) 8700K.

TobiWahnKenobi
2018-10-06, 13:11:34
dazu muss ich mir die tests erst wieder raussuchen. evtl. wenn ich abends zuhause bin.

bei igors tests schlage ich den jeweils längsten balken mit meiner tv und im luxx wurde - meine ich mich zu erinnern - mit AMD-infrastruktur gemessen. auch da das selbe spiel mit den balken. FEs auf frequenzen festzunageln liest sich vllt. gut, aber ob das mit DHE überhaupt reproduzierbar möglich ist, zweifle ich an.

wie gesagt, ich müsste am rechner sein um das nochmal nachzuschlagen. zu spielen wie far cry 5, sottr, bf1, battlefront 2, witcher3 und wolfenstein habe ich diverse messungen noch im log. einiges sogar im kopf.. w3 zwischen 70 und 80avg und die dice-shooter auf jedenfall dreistellig avg, jeweils uhd. meine ergebnisse zu synthetischen benchmarks bzw diversen spielen wie fc5 oder sottr finden sich hier im forum in den entsprechenden threads.


(..)

mfg
tobi

Ex3cut3r
2018-10-06, 16:08:23
Real Life? WTF? Link? ;D

scnr

P.S.: Spass beiseite, danke für deinen Kurz-Bericht :up:
Ich freu mich schon auf die 3070 nächstes Jahr mit mehr lowlevel-Titeln + evtl. RTX Titeln

Kein Ding Jungs, das habe ich gerne geschrieben. :wink:

Digidi
2018-10-06, 16:38:40
ich kann die wenigsten tests im netz nachvollziehen. nicht nur die von hardware luxx.. auch die von igor sind strange.

die wolfensteine und dooms dieser welt laufen schon unglaublich schnell - viel mehr kann ich dazu allerdings nicht beitragen, denn abseits vom reinschauen und mal messen haben diese titel nichts für mich; ich spiele sie nicht.



(..)

mfg
tobi

Haben die nicht die neue Technik Integriert wo in Gewissen Bildteilen die Auflösung gesenkt wird?

Falls jemand mal zeit Hat mit einer 2080 / ti oder einer 1080ti mich würde mal Interessieren was Shadow of the Tombraider für einen Polygonenausstoß hat. Dazu bitte folgende Settings benutzen. Das ganze noch mal wiederholen mit Tesselation On.

JVC
2018-10-06, 18:00:40
Async laeuft einfach viel besser auf Turing (sprich: es funktioniert) und die Integer-Einheiten helfen auch.

Das ist ja mal ne gute Nachricht :smile:
Das stört mich schon noch an meiner Ti ...
(wenigstens den A-sync Standard unterstützen sie endlich)

Stört nur noch, das sie den "VRR-Standard" noch immer nicht unterstützen...
(ich hoffe die nächste Gen kann das ... oder AMD bringt mal wieder was "brauchbares")

m.f.g. JVC

@TobiWahnKenobi
Was müsste man dir realistisch bieten um deine TV (mit montiertem Wakü Block) zu bekommen ?
( jeder hat seinen Preis ;) )
https://www.ebay.com/p/NVIDIA-TITAN-V-Volta-12gb-Hbm2-Video-Graphics-Card/4011255748
"Excellent condition selling because I purchased a 2080 ti"
( der klingt irgendwie unglaubwürdig ^^)

Rancor
2018-10-06, 19:15:33
Naja... Messtoleranz ist es nicht wenn ich sehe, dass zwischen dem besten und schlechtesten Wert 7% liegen. Die Frames sind auch exakt reproduzierbar. Szenenwahl lass ich natürlich gelten. Falls du einen besseren Vorschlag für andere Szenen hast gerne über PN.

Vllt ist AC ja nur auf VEGA kaputt :P

dargo
2018-10-06, 19:57:23
Vllt ist AC ja nur auf VEGA kaputt :P
So wie bei Turing? :comfort2:

https://www2.pic-upload.de/img/36068480/Wolf2_2.jpg

https://www2.pic-upload.de/img/36068479/Wolf2_1.jpg

@gravitationsfeld
Nachdem ich mir den Turingvergleich (https://www.youtube.com/watch?v=M6t0rkKGRtI) genauer angesehen habe glaube ich langsam meine Untersuchungsmethodik bezüglich AC taugt nichts. Es reicht offenbar nicht aus einfach x-beliebige Savegames zu laden und einen Screenshot zu knipsen. Man muss sich schon ein klein wenig reproduzierbar bewegen. Womöglich noch in anderen Levelabschnitten. Mal sehen ob ich das Video nachstellen kann wenn ich noch ein passendes Savegame finde.

Ex3cut3r
2018-10-06, 20:02:31
Das Youtube Video kenn ich auch, ist ziemlich krass was AC da bei Turing bringt. Ich kann es nachstellen in 3440x1440, bringt genau so viel, wie da.

Rancor
2018-10-06, 20:07:50
Wenn es bei Turing auch kaputt ist, worauf das Video von dargo ja hindeutet, dann sollte man das Feature einfach mal in die Tonne kloppen, weil scheinbar bringt es beiden IHVs nix.
Nutzt SotTR eigentlich AC?

dargo
2018-10-06, 20:10:01
Es ist bei Turing nicht kaputt, schau dir doch einfach das ganze Video an. AC on ist halt nur nicht in jeder Sekunde schneller als AC off. Ist eben szenenabhängig.

Edit:
Hier hast du ein Worst Case in die andere Richtung.

https://www2.pic-upload.de/img/36068608/Wolf2_3.jpg

+32% für AC on.

Das Problem ist offenbar wirklich die Messmethodik. Nicht nur bei mir in Wolf 2 sondern auch bei den Redaktionen. Die avgs. glätten einfach vieles weg. Das Video finde ich richtig gut denn mit dem Frameverlauf sieht man sehr viel.

PS: die hätten in dem Video nur eine höhere Auflösung nehmen müssen wodurch AC noch stärker sich auszahlen könnte. Warum die da nur 1080p nehmen ist mir etwas schleierhaft.

dildo4u
2018-10-06, 20:14:14
Strange Brigade nutzt es erfolgreich würde Genre mal Turning mit On/Off sehen.


https://farm2.staticflickr.com/1946/44418753154_fac4359659_b.jpg (https://flic.kr/p/2aF8HMC)straneasy (https://flic.kr/p/2aF8HMC) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr


https://www.techspot.com/article/1685-strange-brigade-benchmarks/

Ex3cut3r
2018-10-06, 20:40:14
Kann ich nicht mit dienen, habe das Spiel nicht, plane auch keinen Kauf.

dargo
2018-10-07, 09:45:04
Alter... ich gehe kaputt hier. Ich habe das Problem mit Async Compute bei Wolf 2 und Vega gefunden. Es ist der verdammte MSI Afterburner der bei AC On bremst!

AC on mit Afterburner @1440p, max. Details
https://www2.pic-upload.de/thumb/36070651/NewColossus_x64vk_2018_10_07_09_32_40_652.jpg (https://www.pic-upload.de/view-36070651/NewColossus_x64vk_2018_10_07_09_32_40_652.jpg.html)

AC on ohne Afterburner @1440p, max. Details
https://www2.pic-upload.de/thumb/36070816/2018.10.07-10.21.jpg (https://www.pic-upload.de/view-36070816/2018.10.07-10.21.jpg.html)

AC off mit Afterburner @1440p, max. Details
https://www2.pic-upload.de/thumb/36070799/NewColossus_x64vk_2018_10_07_10_16_45_310.jpg (https://www.pic-upload.de/view-36070799/NewColossus_x64vk_2018_10_07_10_16_45_310.jpg.html)

AC off ohne Afterburner @1440p, max. Details
https://www2.pic-upload.de/thumb/36070798/2018.10.07-10.14.jpg (https://www.pic-upload.de/view-36070798/2018.10.07-10.14.jpg.html)

Ich meine im Netz war davon auch mal was zu lesen bezüglich AC on mit Radeon in Wolf 2 @Vulkan und Afterburner. Bin mir aber nicht mehr ganz sicher. Wäre mal interessant zu wissen ob es bei Turing auch so ist.

@gravitationsfeld
Sorry... ich habe komplett falsche Schlussfolgerungen bezüglich Async Compute in Wolf 2 durch den verdammten Afterburner gezogen. :redface:

Edit:
Da ist es ja.

VpOIhV582pQ

Immer diese verdammten Stolpersteine. :usad:

TobiWahnKenobi
2018-10-07, 15:28:19
ich lagere hier mal ein paar meiner bisherigen erkenntnisse mit der 2080Ti inkl. dezentem OC bis an die kotzgrenze des FE-kühlers zwischen.
das wären ca. 2.1GHz takt, der auch gern mal unter die 2000er marke runterbricht. gemittelt schafft die RTX hier etwa 2050MHz.


------------------------------------------------------
3DMark

https://abload.de/img/firestrike_vergleich_f5fz1.jpg
https://abload.de/img/firestrike_extreme_venrdnq.jpg
https://abload.de/img/firestrike_ultra_verg2yeea.jpg
https://abload.de/img/timespy_vergleich_rtx79eip.jpg
https://abload.de/img/timespy_extreme_vergltner2.jpg
NVidia Geforce RTX 2080Ti FE OC (jeweils links im vergleich, die falsche bezeichung ist ein sysinfo-problem)

------------------------------------------------------
Star Wars Battlefront II, UHD, Ultra


2080Ti
62324 frames rendered in 637.969 s
Average framerate : 97.6 FPS
Minimum framerate : 61.3 FPS
Maximum framerate : 121.7 FPS

GV100
110622 frames rendered in 991.812 s
Average framerate : 111.5 FPS
Minimum framerate : 73.4 FPS
Maximum framerate : 200.4 FPS

------------------------------------------------------
Witcher 3 UHD, preset hoch, 4x Hairworks AA

2080Ti
73498 frames rendered in 955.125 s
Average framerate : 76.9 FPS
Minimum framerate : 56.1 FPS
Maximum framerate : 599.8 FPS

GV100
105238 frames rendered in 1417.859 s
Average framerate : 74.2 FPS
Minimum framerate : 54.4 FPS
Maximum framerate : 98.9 FPS

------------------------------------------------------
Far Cry 5

2080Ti
https://abload.de/img/rtxti_fc5_ultra_wqhd_s3egi.jpg
https://abload.de/img/rtxti_fc5_ultra_uhd_2n3i0l.jpg

GV100
https://abload.de/img/gv100_fc5_ultra_wqhd84dm1.jpg
https://abload.de/img/gv100_fc5_ultra_uhd7yed7.jpg

------------------------------------------------------
Shadow of the Tomb Raider

https://abload.de/img/rtxti_sottr_uhd_ultrauccze.jpg
https://abload.de/img/gv100_sottr_uhd_ultraujcaj.jpg
UHD, ultrahoch, TAA

https://abload.de/img/rtxti_sottr_wqhd_ultrfwiom.jpg
https://abload.de/img/gv100_sottr_wqhd_ultrwtdbg.jpg
WQHD, ultrahoch, TAA

------------------------------------------------------
Unigine Super Position

https://abload.de/img/superposition_benchma13ex1.png
https://abload.de/img/gv100_usp_4koeede1.jpg

ich ergänze das bestimmt noch..




(..)

mfg
tobi

Digidi
2018-10-07, 19:50:06
ich lagere hier mal ein paar meiner bisherigen erkenntnisse mit der 2080Ti inkl. dezentem OC bis an die kotzgrenze des FE-kühlers zwischen.
das wären ca. 2.1GHz takt, der auch gern mal unter die 2000er marke runterbricht. gemittelt schafft die RTX hier etwa 2050MHz.


3DMark

https://abload.de/img/firestrike_vergleich_f5fz1.jpg
https://abload.de/img/firestrike_extreme_venrdnq.jpg
https://abload.de/img/firestrike_ultra_verg2yeea.jpg
https://abload.de/img/timespy_vergleich_rtx79eip.jpg
https://abload.de/img/timespy_extreme_vergltner2.jpg
NVidia Geforce RTX 2080Ti FE OC (jeweils links im vergleich, die falsche bezeichung ist ein sysinfo-problem)

------------------------------------------------------

Star Wars Battlefront II, UHD, Ultra

62324 frames rendered in 637.969 s
Average framerate : 97.6 FPS
Minimum framerate : 61.3 FPS
Maximum framerate : 121.7 FPS

35136 frames rendered in 358.156 s
Average framerate : 98.1 FPS
Minimum framerate : 75.5 FPS
Maximum framerate : 123.8 FPS

23596 frames rendered in 258.844 s
Average framerate : 91.1 FPS
Minimum framerate : 72.9 FPS
Maximum framerate : 120.0 FPS
------------------------------------------------------

Witcher 3 UHD, preset hoch, 4x Hairworks AA

73498 frames rendered in 955.125 s
Average framerate : 76.9 FPS
Minimum framerate : 56.1 FPS
Maximum framerate : 599.8 FPS
------------------------------------------------------

Far Cry 5

https://abload.de/img/rtxti_fc5_ultra_wqhdi2clk.jpg
https://abload.de/img/rtxti_fc5_ultra_uhd5acmn.jpg

Shadow of the Tomb Raider

https://abload.de/img/rtxti_sottr_uhd_ultrauccze.jpg
UHD, ultrahoch, TAA
https://abload.de/img/rtxti_sottr_wqhd_ultrfwiom.jpg
WQHD, ultrahoch, TAA
https://abload.de/img/rtxti_sottr_fhd_ultragsfve.jpg
FHD, ultrahoch, TAA

ich ergänze das bestimmt noch..




(..)

mfg
tobi

Danke Tobi für die Messungen kannst du mit deiner 2080ti mal bitte meine Settings bei Tombraider testen ;) Danke.

aufkrawall
2018-10-07, 20:51:59
Immer diese verdammten Stolpersteine. :usad:
Deswegen ist das Overlay in der aktuellen RTSS-Beta jetzt auch standardmäßig aus für die idTech-Spiele und muss via Config-Datei aktiviert werden.
Unwinder hatte die Problematik damals schon selbst angesprochen, ich hatte es zwischenzeitlich aber auch vergessen.

BlacKi
2018-10-07, 22:09:40
dafür bräuchten wir nen eigenen fred. ich hab fast immer overlay on. aber die auswirkungen sind mir kaum bekannt.

Ex3cut3r
2018-10-07, 22:20:08
Ich kann das auf einer RTX 2080 in Wolfenstein 2 und dem Afterburner mit A-sync on/off nicht nachstellen, es macht keinen Unterschied. :confused:

dargo
2018-10-08, 08:04:49
Ich kann das auf einer RTX 2080 in Wolfenstein 2 und dem Afterburner mit A-sync on/off nicht nachstellen, es macht keinen Unterschied. :confused:
Danke für die Info, dann betrifft es wirklich nur GCN.

Rancor
2018-10-08, 08:18:55
Sag ich doch ;)

dargo
2018-10-08, 08:54:58
Du sagtest AC wäre vielleicht bei Vega kaputt (mit den beiden Screens von Turing habe ich dich auch unsicher diesbezüglich gemacht), was Humbug ist. Das Problem ist weder Vega noch GCN sondern der Afterburner. Und zwar nur bei Vulkan mit aktivierten Async Compute. Da muss Unwinder nachsitzen. :cool:

Rancor
2018-10-08, 08:59:22
Naja, ich meinte eher das AC vllt. bei Wolfenstein und Doom auf VEGA kaputt ist, aber nicht grundsätzlich.
Aber da es ja nur am Afterburner liegt ( warum auch immer :confused: ), ist doch alles i.O.

dildo4u
2018-10-08, 09:17:11
Das mit dem AC ist echt schwer zu sagen Vega LCE sieht extrem gut aus,ich hätte aber z.b eine 580 dichter an der 1070 erwartet.

https://farm2.staticflickr.com/1906/45124376252_7083b3f6f3_b.jpg (https://flic.kr/p/2bKudX7)wolfslce (https://flic.kr/p/2bKudX7) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

http://www.pcgameshardware.de/Geforce-RTX-2080-Grafikkarte-267863/Tests/Asus-RTX-2080-Turbo-8G-Test-Blower-1266233/2/

dargo
2018-10-08, 09:35:36
Jetzt müsste man nur wissen ob alle Redaktionen ohne das Overlay vom Afterburner benchen. Raff zeigt nämlich gerne in seinen Videos das Overlay. Muss jetzt natürlich nicht zwangsläufig bedeuten, dass es auch in Benchmarks verwendet wird. Kann hier aber entscheidend sein ob die Vega leicht vor oder hinter 1080TI landet.

Edit:
Wenn ich mir deinen Link genauer ansehe dann tippe ich auf AB-Overlay beim benchen aktiviert.

GTX 1080TI --> Vega64 LCE
1080p = Gleichstand
1440p = +7%
2160p = +26%

bei den avgs.

Gerade bei hoher GPU-Last bremst das Overlay am stärksten. Mal sehen ob sich Raff dazu äußert. :)

Eine weitere Möglichkeit wäre, dass der Vulkan-Treiber bei AMD im CPU-Limit etwas mehr rausholt als der Vulkan Nvidia-Treiber (da aber die 2080TI selbst in 1080p weiter skaliert gehe ich hier nicht vom starken CPU-Limit aus). Da müsste sich aber wirklich Raff bzw. die Benchabteilung der PCGH dazu äußern ob das AB-Overlay bei denen Benches an oder aus ist.


Aber da es ja nur am Afterburner liegt ( warum auch immer :confused: ), ist doch alles i.O.
Unwinder hatte sich dazu hier geäußert.
https://www.reddit.com/r/Amd/comments/8etwyz/msi_afterburner_45_got_released_yesterday_does/dxynrno/?utm_content=permalink&utm_medium=front&utm_source=reddit&utm_name=Amd

Hat irgendwas mit der Synchronisierung zu tun wenn ich es richtig verstanden habe. Ist mir zu viel Techtelmechtel. :D

Raff
2018-10-08, 09:56:26
Keine Overlays beim Benchen, never. Eben weil das Nebenwirkungen hat. Videos sind ein ganz anderer "Markt" und daher gibt's da auch andere Regeln. :)

8-GiB-Karten werden spätestens in Ultra HD langsamer, weil der Speicher dort volläuft. Das hat leichte Auswirkungen; erst in 5K bricht es ihnen das Genick.

MfG,
Raff

MartinRiggs
2018-10-08, 10:10:39
Keine Overlays beim Benchen, never. Eben weil das Nebenwirkungen hat.
MfG,
Raff

Schön das es der Profi hier auch nochmal kundtut, ich mache Overlays nur an wenn ich eh schon Probleme habe um zu gucken was es sein könnte.

Finde es macht die Immersion ingame kaputt wenn man die ganze Zeit irgendwelche Zahlen des Systems sieht.

dargo
2018-10-08, 10:10:42
Keine Overlays beim Benchen, never. Eben weil das Nebenwirkungen hat. Videos sind ein ganz anderer "Markt" und daher gibt's da auch andere Regeln. :)

Danke für die Info.


8-GiB-Karten werden spätestens in Ultra HD langsamer, weil der Speicher dort volläuft. Das hat leichte Auswirkungen; erst in 5K bricht es ihnen das Genick.

Habt ihr Wolf 2 mit Streaming @extrem gebencht? Das würde zwar erklären warum die 8GB Vega da stärker einbricht ohne HBCC. Erklärt dann aber nicht warum die 2080 dies nicht tut.

Rancor
2018-10-08, 10:15:25
Vermutlich hat Turing die bessere Speicherkompression.

dargo
2018-10-08, 10:30:20
War es nicht so, dass Kompression eher Bandbreite als Speichermenge spart? Aber vielleicht wurde auch das Speichermanagement bei Turing verbessert.

x-force
2018-10-08, 10:35:32
Deswegen ist das Overlay in der aktuellen RTSS-Beta jetzt auch standardmäßig aus für die idTech-Spiele und muss via Config-Datei aktiviert werden.

ist es wirklich nur das overlay, oder das logging allgemein?

dargo
2018-10-08, 11:32:54
ist es wirklich nur das overlay, oder das logging allgemein?
Nur das Overlay. Ich habe hier einen Hotkey für Overlay on/off. Wenn ich das Overlay mit dem Hotkey deaktiviere steigen die Frames direkt.

@Raff
Gibt es irgendwo ein Video der Testszene in Wolf 2 zum nachmachen? Und noch was... wie bencht messt ihr dann ohne irgendein Overlay? Extern? Ich frage deshalb weil ich gelesen habe, dass selbst der Framecounter von Steam bremst. Habs aber selbst mit Steam noch nicht gegen gecheckt.

Edit:
Das Overlay vom neuesten OCAT (https://github.com/GPUOpen-Tools/OCAT/releases/tag/v1.2.0) bremst auch.
https://www2.pic-upload.de/thumb/36077336/2018.10.08-11.56.jpg (https://www.pic-upload.de/view-36077336/2018.10.08-11.56.jpg.html)

Zwar nicht so stark wie der AB bzw. RTSS, aber dennoch wird der Async Compute Vorteil in der Szene "wegradiert", gleicher Speed wie AC off.

dildo4u
2018-10-08, 12:04:50
OCAT dürfte aber nicht auf Vega mehr kosten als auf Nvidia.

dargo
2018-10-08, 12:06:57
Der aktuelle Stand ist auf Nvidia kosten die Overlays nichts. Kannst mich gerne vom Gegenteil überzeugen. :)

btw.
Das treibereigene Overlay von AMD kostet keine Leistung. Oder besser gesagt... <1%. Ohne Overlay 132fps, mit Overlay 131fps. Wenn man noch bedenkt, dass beide Overlays (sowohl der spieleigene als auch der treibereigene) nur ganze Frames anzeigen...

dildo4u
2018-10-08, 12:12:41
Ah ok ich hatte das Bild nicht kapiert dachte du meinst die 125 vs 124 fps.

dargo
2018-10-08, 12:21:28
Zur besseren Übersicht.

* kein externes Overlay = 132fps
* OCAT Overlay = 125fps (die 124fps von OCAT wird Rundungstoleranz sein)
* RTSS Overlay = 119fps

@Ex3cut3r
Checke mal bitte ob du bei Turing mit dem Overlay von OCAT bei AC on weniger Leistung hast.

PS: es sollte natürlich eine Szene sein die grundsätzlich von AC profitiert, ansonsten tappen wir im dunkeln. :D

wolik
2018-10-08, 13:04:06
https://diy.pconline.com.cn/1178/11783988.html

其次,这次RTX系列显卡的生产也比以往要复杂了许多。廖椿铿先生还举了例子,GTX 1080 Ti一共有1600个零件,而RTX 2080 Ti用了2600个,RTX 2080用了2400个,即使是RTX 2070也用了2200个。以前生产GTX 1080Ti时,一条生产线一天可以生产3500张左右,而现在RTX 2080 Ti只能生产1800张。

Zweitens ist die Produktion dieser RTX-Grafikkartenserie viel komplizierter als zuvor. Herr Liao gab ebenfalls ein Beispiel: Die GTX 1080 Ti hat insgesamt 1600 Teile, während der RTX 2080 Ti 2600, der RTX 2080 2,400 und sogar der RTX 2070 2,200 verwendet. Als die GTX 1080Ti zuvor produziert wurde, konnte eine Produktionslinie etwa 3.500 Karten pro Tag produzieren, und jetzt kann der RTX 2080 Ti nur 1.800 Karten produzieren.

JVC
2018-10-08, 16:11:58
Als die GTX 1080Ti zuvor produziert wurde, konnte eine Produktionslinie etwa 3.500 Karten pro Tag produzieren, und jetzt kann der RTX 2080 Ti nur 1.800 Karten produzieren.

AH OK Das erklärt die Preis Differenz ganz gut.
Ist hald nur schade das dabei so wenig +Leistung rumkommt ;(

Dachte schon NV stopft sich die Taschen voll ...
Aber scheinbar kostet die 20xx Serie doch massiv mehr in der Produktion ...

m.f.g. JVC

kruemelmonster
2018-10-08, 16:16:25
Du sagtest AC wäre vielleicht bei Vega kaputt (mit den beiden Screens von Turing habe ich dich auch unsicher diesbezüglich gemacht), was Humbug ist. Das Problem ist weder Vega noch GCN sondern der Afterburner. Und zwar nur bei Vulkan mit aktivierten Async Compute. Da muss Unwinder nachsitzen. :cool:

Njet, stattdessen solltest du mal Englisch lernen statt jahrelang zu lamentieren dass du kein Englisch kannst.

https://www.reddit.com/r/Amd/comments/9i50h2/ocatexe_vs_msi_afterburner_in_vulkan_doom/e6s4pmi/

I repeated many times that traditional universal vendor agnostic Vulkan overlay implementations, which are designed to be rendered from graphics queue only will not work other way in Vulkan games presenting frames from compute queue on AMD hardware (read it as id Tech 6 Doom and Wolfenstein 2). Such traditional overlay either will not work at all (if no special handling of present from compute on AMD hardware is performed) or it will stall a compute queue and reduce the performance if you opt to explicitly synchronize graphics and compute queues to make overlay visible. Performance penalty is guaranteed in this case and it is close to disabling async compute queue usage case.

Auf AMD Karten (und NUR auf AMD Karten) entsteht der Performanceverlust durch eine unvermeidbare Re-Synchronisation zwischen der Graphics- und der Compute Queue, um das RTSS OSD überhaupt darstellen zu können.

So for now I’ll just “fix” it via removing overlay support for such games for AMD hardware, so we’re back to beginning of 2017 when Vulkan overlay for Doom was only available to NV GPU owners. Ironically, it was AMD GPU owners who actively requested adding overlay support, even with documented performance penalty. Now we’re back to the past, thanks to youtube and haters.

Aber ist natürlich viel einfacher auf den YT-Fackelzug mit aufzuspringen und den MSI AB verantwortlich zu machen, als etwas "Techtelmechtel" zu lesen und zu begreifen dass (auch nicht zum ersten Mal) AMD der Verantwortliche ist wenn etwas im Zusammenhang mit dem MSI AB rumspackt.

dargo
2018-10-08, 17:14:06
Deswegen funktioniert der AMD eigene Framecounter und verständlicherweise der spieleigene verlustfrei. Bei OCAT ist der Verlust geringer als beim Afterburner. :rolleyes: Nicht falsch verstehen, ich schätze die Arbeit von Unwinder sehr. Aber auch er ist nicht unfehlbar.

Ex3cut3r
2018-10-08, 17:19:18
Also was ich sagen kann, in 3440x1440 rennt mir in Wolfenstein 2 mit Texturen (Streaming?) @ Ueber nicht voll, sind 7,6 GB Max belegt, ist aber vollkommen ok. Und es gibt keine Nachladeruckler/Stocker oder ähnliches. Wie es in 4K aussieht weiß icht nicht, da kann es wie Raff vermutlich sagt, schon eng werden.

Für wirkliches 4K Gaming wurde ich aber sowieso eher in Richtung RTX 2080 Ti mit Max OC tendieren, alles darunter ist spätestens in Shadow of the Tomb Raider @ Max oder AC Odysee zu langsam imo.

Ich hatte einen Fall bisher, wo 8GB nicht gerreicht haben, in Rise of the Tomb Raider - der Vorgänger und nur im DX12 Modus! In DX11 wurde wieder die Grenze eingehalten waren nur 7,8 GB belegt, DX12 genehmigt sich mehr, oder man kann in DX12 nicht auf den vollen VRAM zugreifen (mit einer Geforce?!) bzw. ist es ein Bug in diesem Spiel.

In Shadow of the Tomb Raider, leider nicht nachstellbar, weil das Spiel dort mehr Streaming hat, es werden "nur" 6GB in der Regel belegt. Wenn man in neues Gebiet kommt, wird nachgeladen und das alte ausgehauen, wahrscheinlich musste es so gemacht werden, weil es sonst mit der Detaildichte 16GB VRAM bräuchte. :freak:

N0Thing
2018-10-08, 17:20:00
Es kommt eben auf die Umsetzung des Overlays an und die Frage ist, ob Unwinder es überhaupt anders umsetzen könnte. Er schreibt ja, dass es Methoden für eine verlustfreie Implementierung geben würde, aber vermutlich hat er, im Gegensatz zu AMDs Treiber-Team und ID Software, keinen Zugriff darauf.

dargo
2018-10-08, 17:28:54
Es kommt eben auf die Umsetzung des Overlays an und die Frage ist, ob Unwinder es überhaupt anders umsetzen könnte. Er schreibt ja, dass es Methoden für eine verlustfreie Implementierung geben würde, aber vermutlich hat er, im Gegensatz zu AMDs Treiber-Team und ID Software, keinen Zugriff darauf.
Ich möchte es zwar nicht ausschließen. Aber mir wäre neu, dass sich AMD da verschlossener hält als Nvidia. Hat er diesbezüglich bei AMD nachgehakt falls letzteres zutrifft?

kruemelmonster
2018-10-08, 21:40:51
Unwinder wird nicht für den Einzelfall "id Tech Vulkan @ AMD" eine Extrawurst braten da die bisherige Umsetzung in jeder anderen Konstellation funktioniert. Der AB ist ein 1-Mann-Projekt, und seine Zeitressourcen sind wie bei jedem Menschen begrenzt.
Wenn der AMD-eigene Framecounter verlustfrei funktioniert => wunderbar. Ich kann verstehen dass er nicht AMD hinterher laufen will für etwas was mit dem nächsten Treiber schon wieder ganz anders aussehen kann (wäre auch nicht das erste Mal).

Ex3cut3r
2018-10-08, 21:46:07
Leute ok, hier gehts eigentlich um Turing, um nicht um Vega und dem AB. :freak:

dargos Urfrage, war ja, ob es auf Turing auch die Problem mit dem AB @ Wolfenstein 2 gibt? Ich habe nix feststellen können, und ein Zitat weiter oben von Unwinder bestätigt dies. Also, alles gut. ;)

aufkrawall
2018-10-08, 21:47:27
Immerhin erscheint da AMDs eigenes Overlay nicht mehr wie eine völlig unsinnige Ressourcen-Verschwendung. :D

Atma
2018-10-08, 22:08:56
Zweitens ist die Produktion dieser RTX-Grafikkartenserie viel komplizierter als zuvor. Herr Liao gab ebenfalls ein Beispiel: Die GTX 1080 Ti hat insgesamt 1600 Teile, während der RTX 2080 Ti 2600, der RTX 2080 2,400 und sogar der RTX 2070 2,200 verwendet. Als die GTX 1080Ti zuvor produziert wurde, konnte eine Produktionslinie etwa 3.500 Karten pro Tag produzieren, und jetzt kann der RTX 2080 Ti nur 1.800 Karten produzieren.
Das würde den Preisanstieg erklären, allerdings nicht den Mangel an 2080 Ti Karten. Die normale 2080 ist inzwischen ziemlich gut zu bekommen, die Ti hingegen ist immer noch Mangelware.

Freestaler
2018-10-08, 22:11:07
https://diy.pconline.com.cn/1178/11783988.html

其次,这次RTX系列显卡的生产也比以往要复杂了许多。廖椿铿先生还举了例子,GTX 1080 Ti一共有1600个零件,而RTX 2080 Ti用了2600个,RTX 2080用了2400个,即使是RTX 2070也用了2200个。以前生产GTX 1080Ti时,一条生产线一天可以生产3500张左右,而现在RTX 2080 Ti只能生产1800张。

Zweitens ist die Produktion dieser RTX-Grafikkartenserie viel komplizierter als zuvor. Herr Liao gab ebenfalls ein Beispiel: Die GTX 1080 Ti hat insgesamt 1600 Teile, während der RTX 2080 Ti 2600, der RTX 2080 2,400 und sogar der RTX 2070 2,200 verwendet. Als die GTX 1080Ti zuvor produziert wurde, konnte eine Produktionslinie etwa 3.500 Karten pro Tag produzieren, und jetzt kann der RTX 2080 Ti nur 1.800 Karten produzieren.

Ja, "build to overclock" braucht mehr Teile.. und ehrlich, dies ist ein meinen Auge weniger ein guter "Grund" um den Preis zu rechtfertigen als noch ein Fehler. Die RTX2070 wird nicht schneller sein als ne 1080Ti, wieso dann nicht 1080ti rebranded als 2070? (RT & DLSS sowieso zu lahm). Also wieso teurer herstellen? Ökonomischer Irrtum ausser der Kunde muss sowieso schlucken.

Ex3cut3r
2018-10-08, 23:35:52
Wieso? Die Leistung der 2070 wird zwischen 1080er und 1080er Ti pendeln und das bei 180W. Die 1080 Ti frisst mit @ 2000ghz und VRAM @ +500 schon gerne 350W.

Und lasst die Entwickler doch erstmal richtig die Tensor Cores verstehen und die neue RT Api von MS. BF5 hat man mit den RT Reflections innerhalb ein paar Tagen entwickelt, und die liefern ohne Tensor Cores.

Freestaler
2018-10-08, 23:56:56
Wieso? Die Leistung der 2070 wird zwischen 1080er und 1080er Ti pendeln und das bei 180W. Die 1080 Ti frisst mit @ 2000ghz und VRAM @ +500 schon gerne 350W.

Und lasst die Entwickler doch erstmal richtig die Tensor Cores verstehen und die neue RT Api von MS. BF5 hat man mit den RT Reflections innerhalb ein paar Tagen entwickelt, und die liefern ohne Tensor Cores.

Naja, die perf/watt wird ne interesannte Frage für die Review. Wobei ich nicht 350w sehe für gleiche Leistung wie ne 2070. Und BF V hat RT nicht in wenigen Tagen sondern seit Februar 2018 implementiert (titan v). Also mehr als ein halbes Jahr. Das interview mit dice ist hier thread. Jediglich die adaption dann aif die RTX Karten wurde dann in 2 Monaten umgesetzt. Wobei mMn dies mehr als wenige Tage sind.

BigKid
2018-10-09, 08:36:48
(RT & DLSS sowieso zu lahm).
Wo nimmst du jetzt wieder diese Binsenweisheit her ?
In Bezug zu DLSS gibt es vielleicht ein paar Dinge klären (Bildquali) oder nachzubessern von Seiten NV (mindestens auch noch für WQHD vefügbar machen) - aber "zu lahm" ist nach meinem Kentnissstand eine klare Falschaussage... DLSS bringt 30-40% boost. Bei RT vermutlich noch mehr. Vermutlich ist DLSS das Einzige was RT ab 1080p mit 25fps und mehr überhaupt möglich macht.
DLSS hat imho echt potential - man kann die Schalter alle auf Ultra Max lassen und wenn der Karte in 1-2 Jahren oder in Ausnahmetiteln die Luft ausgeht schaltet man halt DLSS zu...

Ob die 2080 und 2080ti für RT nun zu lahm ist ist doch auch noch völlig offen. Das hängt stark von der Implementierung ab und für was und wie exessiv es genutzt wird. Wenn es nur weitere optische Schmankerl in spielbaren Frameraten bringt hat es sich doch schon gelohnt - selbst wenn es die alten Renderverfahren erstmal nur ergänzt und (noch) nicht ablöst.
Eventuell lassen sich ja auch einzelne Aspekte mit RT in höherer Quali und schneller (performance) umsetzen - zB Schatten...

Schnoesel
2018-10-09, 09:48:17
Deinen Kenntnisstand saugst du dir aus den Fingern, denn es gibt keine! Tests zu DLSS/RT bisher.

Fakt ist:

1. DLSS erstmal nur für 4k (UHD)
2. DLSS für WQHD fraglich
3. Performanceboost durch DLSS unbekannt, da keine Tests
3. RT Performance für 1080P ebenso fraglich bei allen Karten weil auch hier keine! Tests
4. Die Schatten die über RT in TombRaider realisiert werden kosten! enorm viel und laufen nicht schneller.

dargo
2018-10-09, 10:42:56
Unwinder wird nicht für den Einzelfall "id Tech Vulkan @ AMD" eine Extrawurst braten da die bisherige Umsetzung in jeder anderen Konstellation funktioniert. Der AB ist ein 1-Mann-Projekt, und seine Zeitressourcen sind wie bei jedem Menschen begrenzt.
Wenn der AMD-eigene Framecounter verlustfrei funktioniert => wunderbar. Ich kann verstehen dass er nicht AMD hinterher laufen will für etwas was mit dem nächsten Treiber schon wieder ganz anders aussehen kann (wäre auch nicht das erste Mal).
Aha... das liest sich schon ganz anders. Man könnte es auch so drehen... Unwinder konzentriert sich stärker auf Nvidia Hardware (man sieht es schon alleine am Curve-Editor was es für Vega nicht gibt, obwohl das Funktionsprinzip sehr ähnlich, wenn nicht sogar identisch ist). Da ist es dann nicht verwunderlich wenn er keine Zeit wie aktuell bei Async Compute @Vulkan und Radeon mehr für AMD bei seinem Projekt hat. ;) Ist jetzt nicht unbedingt dramatisch. Man braucht sich aber in Zukunft nicht wundern wenn ich diverse Benchmarks in Frage stelle. Denn wie ich oben aufgezeigt habe bremst nicht nur der AB mit seinem RTSS.

dildo4u
2018-10-09, 10:50:08
Wird er nicht von MSI bezahlt die verkaufen gar keine Custom Vegas macht komplett Sinn.

dargo
2018-10-09, 10:56:28
Schwaches Argument... ich habe selbst eine V64 LCE von MSI, es gab also welche. Aktuell gibt es das von MSI.
https://geizhals.de/msi-radeon-rx-vega-64-air-boost-8g-oc-v368-008r-a1828428.html?hloc=at&hloc=de
https://geizhals.de/msi-radeon-rx-vega-56-air-boost-8g-oc-v368-001r-v368-005r-a1753949.html?hloc=at&hloc=de

Rancor
2018-10-09, 10:59:06
Also ob das den Unterscheid machen würde. Jeder weiß, das VEGA 64 gegen Turing 2080/TI ehh kein Land sieht.