PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Titan V zeigt in ersten Benchmarks erstaunliche Schwächen unter ...


Leonidas
2017-12-11, 12:03:04
Link zur News:
https://www.3dcenter.org/news/titan-v-zeigt-ersten-benchmarks-erstaunliche-schwaechen-unter-hoeheren-aufloesungen

Lowkey
2017-12-11, 12:24:33
Oder ist der 3DMark nicht ganz kompatibel mit Volta? Oder ist es doch nur ein Treiberproblem?

Gast
2017-12-11, 12:40:00
Stellt sich doch glatt die Frage wieviel Zeit nVidia überhaupt in irgendwelche GV100 Game Treiberoptimierungen gesteckt hat, wenn man der Hersteller selbst die Karte nur in professionellen Einsatzbereichen sieht. Es darf doch sehr bezweifelt werden das dies mit ähnlicher Einsatzbereitschaft wie bei den Pascal Gamer Chips passiert ist. Würde doch der GV100 als einziger Vertreter der Volta Generation sowie nur auf Prof-Bedürfnisse ausgelegt.

zombiewars
2017-12-11, 13:39:33
Also irgendetwas kann hier nicht stimmen. Unabhängig von der Performance der Titan V, die wahrscheinlich durch fehlende Treiberoptimierung oder einer Limitierung der Benchmarks
(Firestrike-Tests: https://www.reddit.com/r/hardware/comments/7ikukw/first_titan_volta_benchmarks/)
nicht ganz korrekt sein dürfte, frage ich mich wie der angebliche Takt von 2ghz erreicht wird?

Zitat Videocardz : "EVGA Precision already supports Volta overclocking, up to 170 MHz for the core frequency, at least on this sample. This resulted in actual frequencies beyond 2 GHz." (Quelle :https://videocardz.com/74382/overclocked-nvidia-titan-v-benchmarks-emerge)

Ausgehend von dem Default Boost-Takt von 1455 MHz oder von den vom Himmel gefallenen 1540Mhz (siehe GPU-Z Screenshot) kann bei 170 Mhz Übertaktung doch eigentlich nur ein Takt von ~1625 Mhz bzw. ~ 1710Mhz anliegen,
welcher deutlich unter einer übertakteten GTX 1080Ti (2Ghz +) liegen sollte.
Falls ich nicht gerade auf dem Schlauch stehe und das richtig sehe, dürfte die Titan V bei gleichem Takt (wahrscheinlich nur wassergekühlt zu erreichen) noch deutlich an Performance zulegen können.
Ob das dann auch zu mehr Performance führt, steht natürlich auf einem anderen Blatt.
Inwiefern der Speicher limitiert, kann ich aufgrund fehlender Erfahrung nicht beurteilen.

Und nein das soll kein Fanboy-Beitrag sein, sondern nur eine "mögliche Korrektur der Tatsachen" (Falls ich mich nicht irre :D)

MfG
Robin

Complicated
2017-12-11, 13:45:37
Also dass HBM mit höheren Auflösungen schlechter umgehen kann ist doch eine unlogische Behauptung. Gibt es Hinweise dafür bei Fiji oder Vega? Beide HBM-GPUs haben bei hohen Auflösungen näher an ihrer Konkurenz gelegen als unter niedrigen Auflösungen - nur hier wird anstatt der neuen Volta-Architektur der schwarze Peter dem Speicher zugeschoben, völlig ohne Grundlage vor allem!

Was denkst du dir dabei Leonidas?
Beispiel Fiji UHD:
https://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-7.html
Auch bei Vega - je höher die Auflösung desto näher die HBM Karte bei der Konkurrenz:
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/3/

Das hätte man doch wirklich kurz mal gegen checken können - es hat mich 5 min. gekostet um die "HBM schlechter in hohen Auflösungen"-Mär als gegenteilig zu verifizieren. Zumal es auch technisch überhaupt keinen Sinn ergibt.

Da ist es doch deutlich wahrscheinlicher, dass es Anpassungen bei der Software für die neue Architektur von Volta benötigt.

cat
2017-12-11, 14:09:17
Wenn man misst, ist von den 512GB/s sowieso viel zu wenig angekommen.
333GB/s wenn unkomprimierbar, miese 65%
http://abload.de/img/tex_bandwidth_gcn_cutxgugq.png

Complicated
2017-12-11, 14:15:55
Wie meinst du das zu "wenig angekommen"? Die Bandbreite darf ja nicht ausgelastet sein, denn dann wäre sie ja limitierend. Siehe die R9 290X in deinem Bild.

Wie machst du das im Netzwerk? Verbaust du 100 Mbit NICs um 100% Auslastung zu erhalten anstatt Gbit NICs? Oder hängst du deine SSD lieber an SATA 2.0 damit keine miesen 70% auf deiner SATA 3.0 Schnittstelle herrschen?

cat
2017-12-11, 14:25:44
Ein paar rechnerische Gründe warum AMD seit Fiji mit GCN auf Anschlag fährt, mehr als 4x 16 CU geht nicht kann ich auch nennen.

Where do the 4 Shader-Arrays fixed Function-Units limit?
Per Array guessed @75% Rasterizer-Efficiency:
290X 65,75 GB/s uncompressed 100%
FuryX 83,25 GB/s uncompressed 127% (here some Units don´t allow more)
96,75 GB/s compressable 147% (if compressable it gets this high)

Why was the FuryX build like it is?
If the 290X (2816 Cores) +27% drives the Units to its Limit (if uncompressed) a 3576 Cores Chip whould´ve been enough, more Cores would starve often without Compression.

But to handle the +47% you need about 4096 Cores and Compression to avoid starving them, thats it.
If Rasterizer-Efficiency @100% we´d get to 128GB/s per Array, 512GB/s

Nur mir einigen wenigen Formaten fährt AMD eine gute Auslastung.
PCGH testet ja ab und an in diese Richtung.

cat
2017-12-11, 14:31:33
Seite 27
a new generation memory controller in Volta, provides 1.5x delivered memory bandwidth versus Pascal GP100, and greater than 95%
memory bandwidth efficiency running many workloads
http://www.nvidia.com/content/gated-pdfs/Volta-Architecture-Whitepaper-v1.1.pdf


AMD versucht nicht umsonst fast schon mit Gewalt alle Fixed-Function-Überbleibsel durch Compute zu ersetzen, um überhaupt die Cores mit "vernünftiger Arbeit auszulasten.

BTW die 290X nutzt KEINE Komprimierung, daher sind beide Werte gleich.

Complicated
2017-12-11, 14:43:16
Du rechnest Dinge vor die überhaupt keine Relevanz haben zu dem was ich schrieb.
Nochmal: eine Aussage dass die Auslastung der 512 GB/s Bandbreite mit 65% mies sei ist hirnrissig, da eine 100% Auslastung eine Limitierung darstellt.

Niemand versucht beim Bau eines Chips die Bandbreite des Speichers mit Absicht auszulasten. Da hätte AMD einfach die halbe Bandbreite genommen und du hättest jubiliert weil ein rechnerischer Prozentwert näher an die 100% kommt - wozu soll das gut sein?

Du kannst vielleicht sagen, es kostet AMD Energieeffizienz, da 35% ungenutzte Bandbreite eben auch Strom verbrauchen, aber das war es auch schon mit dem Nachteil.
BTW die 290X nutzt KEINE Komprimierung, daher sind beide Werte gleich.
Die wären auch gleich wenn Komprimierung verwendet würde, die Bandbreite aber limitieren würde.

pixeljetstream
2017-12-11, 15:19:26
Du rechnest Dinge vor die überhaupt keine Relevanz haben zu dem was ich schrieb.
Nochmal: eine Aussage dass die Auslastung der 512 GB/s Bandbreite mit 65% mies sei ist hirnrissig, da eine 100% Auslastung eine Limitierung darstellt.

Niemand versucht beim Bau eines Chips die Bandbreite des Speichers mit Absicht auszulasten. Da hätte AMD einfach die halbe Bandbreite genommen und du hättest jubiliert weil ein rechnerischer Prozentwert näher an die 100% kommt - wozu soll das gut sein?

Das Bottleneck ergibt sich aus der Anwendung, man versucht so viel "Gesamtdurchsatz" zu erzeugen wie möglich (wenn man auf Speicher warten muss, andere Dinge berechnen usw.) um die Limitierungen der verschiedenen Units gut auszugleichen.
Aber wenn die Anwendung (wie in diesem Fall) eben nichts anderes macht als Speicherzugriffe, dann sollte das schon den Teil der Hardware auslasten. Natürlich sind nicht alle Zugriffspattern fähig hohe Prozentzahle zu erzielen, aber je höher der Wert, bei solchen directed Tests, desto besser. Idealerweise gibt es einen Test der dem Maximum sehr nahe kommt, sonst kann der Hersteller ja selber nicht überprüfen wie gut alles funktioniert.

Jeden Clock den eine Unit keine Arbeit leistet, ist de facto verschwendete Zeit bzw. Fläche. Es ist natürlich nicht überall gleich kritisch, aber das gerade im Zusammenhang mit dem Memorysystem zu bringen ist eine Fehleinschätzung. Die Chiparchitekten bemühen sich das da wo es von der Art der Anwendung erwartet wird, die units auch nahe 100% laufen. Das schwierige ist halt den Trade-off zu finden, weil die Anwendungen ja selten homogen sind, es gibt Phasen im Frame wo das eine mehr zum Problem wird wie das andere.

Complicated
2017-12-11, 16:03:06
Aber wenn die Anwendung (wie in diesem Fall) eben nichts anderes macht als Speicherzugriffe, dann sollte das schon den Teil der Hardware auslasten. Natürlich sind nicht alle Zugriffspattern fähig hohe Prozentzahle zu erzielen, aber je höher der Wert, bei solchen directed Tests, desto besser. Idealerweise gibt es einen Test der dem Maximum sehr nahe kommt, sonst kann der Hersteller ja selber nicht überprüfen wie gut alles funktioniert.
Also dieser Logik folgende würdest du sagen ein 4096-bit Speicherinterface ist schlechter als ein 2048-bit Speicherinterface bei HBM wenn man 4 statt 2 Stacks verbaut auf ansonsten identischer Hardware. Nur weil es einen Test gibt der 512 GB/s übertragen kann und so eine schlechtere Prozentuale Auslastung auf den 4096-bit erzielt. :confused:

Also ist auch SATA 3 schlechter als SATA 2 wenn ich eine HDD einbaue. Oder USB 3 schlechter als USB 2 wenn ich einen Stick mit 15 MB/s Speed habe. Oder Gbit LAN schlechter als 100 Mbit weil ich einen WLAN Access Point verbaut habe der nur 54 Mbit/s kann. Das alles weil ich einen Prozentualen Wert für die genutzte Bandbreite als "Effizienz" bezeichne. :freak:

Anbindungen müssen verschwenderisch hoch sein, damit man Geräte mit mehr Recheneinheiten oder schnelleren Recheneinheiten daran sinnvoll betreiben kann. Bandbreite betreibt man nicht an möglichst "hoher Effizienz" wie es bei Shadern oder anderen Untereinheiten wie Rasterizern der Fall ist. Speicheranbindung macht man so hoch, wie es das Powerbudget zulässt.

Lehdro
2017-12-11, 16:55:34
Ihr zieht das alles von der falschen Seite auf.

Beispiel meine Titan X (Pascal) in ME:A (schön shaderlastig):

Full HD: ~2,1 GHz
WQHD: ~ 2 GHz
4k: ~1900 MHz in anspruchsvollen Szenen gerne auch mal ein Dip in die hohen 1800er.

Das sind schon deutliche Unterschiede, rein von der Rohleistung, nur durch die Auflösung!

Ist doch klar das bei dem Riesenchip mit den vielen Cudacores das ganze noch heftiger einbricht, da die bei hohen Auflösungen erst so richtig krass ausgelastet werden und ordentlich Saft ziehen. Da haut dann das 250W Budget nochmals so richtig rein und kann somit den Performance unter die Aftermarketmodelle der 1080 Ti (mit erhöhten PT!) drücken.

MrSpadge
2017-12-11, 17:33:34
Complicated, du siehst das viel zu kompliziert. Was die beiden anderen versuchen zu sagen, ist: die maximal erreichbare Bandbreite wird nicht mit realen Applikationen gemessen (=die HDD am SATA3), sondern mit nem künstlichen Test, der den Bestfall ermitteln soll. Und wenn die Leistung dort schon "nicht stimmt", ist die Annahme (ungefähr gestützt durch Erfahrung), dass es auch in anderen Anwendungen schlechter läuft als man aufgrund der Spec erwarten würde.

Die Aussage, um die es ging, war:
Wenn man misst, ist von den 512GB/s sowieso viel zu wenig angekommen.
333GB/s wenn unkomprimierbar, miese 65%
Bezogen auf dein SATA-Beispiel: SATA2 bringt praktisch 250 MB/s, solide 83% der theoretischen 300 MB/s. Die ersten SATA3-Contoller schafften nur ca. 350 MB/s, also nur "miese" 58% der theoretischen 600 MB/s. Niemand hat behauptet, SATA2 wäre deshalb besser. Und mit ner HDD dran (=Code der wenig Bandbreite braucht) ist's auch wurscht egal.
Aber worauf es ankommt ist Folgendes: steckst du jetzt ne High-End SSD mit 550 MB/s Durchsatz ran (=Code der viel Bandbreite braucht) und stellst dann fest, dass praktisch nur 350 MB/s erreicht werden, dann ist "von den 600 MB/s viel zu wenig angekommen". Dann ist der Controller viel schlechter als man theoretisch erwarten würde und man büßt aufgrund der "miesen Effizienz" Leistung ein. Dafür ist es unerheblich, ob es mit SATA2 noch langsamer wäre. Die gedankliche Alternative ist ein Interface / Controller mit höherer Effizienz.

@Lehdro: guter Punkt, da wären in jedem Fall die real erreichten Taktraten in den Vergleich mit einzubeziehen. Die titan V wird durch's PT abgeriegelt, selbst bei +20%. Wenn die kleineren Karten dann einfach mal eben 5 - 10 - 20% mehr Leistung ziehen dürfen als in FHD, dann verringert sich der Abstand zur Titan V halt.

MrS

Complicated
2017-12-11, 17:42:01
Complicated, du siehst das viel zu kompliziert. Was die beiden anderen versuchen zu sagen, ist: die maximal erreichbare Bandbreite wird nicht mit realen Applikationen gemessen (=die HDD am SATA3), sondern mit nem künstlichen Test, der den Bestfall ermitteln soll.
Das ist aber nicht das was hier geschrieben wurde und auf was ich mich beziehe:
Wenn man misst, ist von den 512GB/s sowieso viel zu wenig angekommen.
333GB/s wenn unkomprimierbar, miese 65%
http://abload.de/img/tex_bandwidth_gcn_cutxgugq.pngDie 512 GB/s werden von der Software gar nicht erreicht. Hier die ganze Grafik:
https://techreport.com/r.x/radeon-r9-fury-x/b3d-bandwidth.gif

AckytheG
2017-12-11, 18:09:37
...
Die 512 GB/s werden von der Software gar nicht erreicht...

...und hier ist Dein Denkfehler.

Die 512 GB/s werden von der Hardware nicht erreicht.
Mit der Software aus der Grafik hat man das nachweisen können.

Complicated
2017-12-11, 18:12:14
Ja nur ist eben nicht die Bandbreite daran Schuld. Es sind die verbauten Recheneinheiten die keine 512 GB/s mit dieser Software produzieren. Der Denkfehler ist wenn ich daraus eine schlechte Effizienz der Anbindung diagnostiziere. Dies wurde hier gemacht.

AckytheG
2017-12-11, 18:17:15
Es geht darum, dass mit HBM die theoretisch erzielbare Bandbreite nicht "auf die Straße" gebracht werden kann.
Die Ursache dahinter ist wohl noch Teil der Spekulation.

Das Ergebnis aber kennen wir:
Ggf. skaliert der Chip schlechter in höheren Auflösungen als er könnte.

Das kann genauso gut auch auf Vega zutreffen.
Auch wenn er sich (relativ betrachtet) weniger schlecht schlägt, als Volta.

Complicated
2017-12-11, 18:23:19
Es geht darum, dass mit HBM die theoretisch erzielbare Bandbreite nicht "auf die Straße" gebracht werden kann.
Die Ursache dahinter ist wohl noch Teil der Spekulation.

Das geht doch aus den Messwerten überhaupt nicht hervor. Woher willst du wissen, dass Fiji mit Bench3D 512 GB/s Daten produzieren kann? In dem Test ist es der Chip mit dem höchsten Wert verglichen mit allen anderen verfügbaren zu der Zeit.

Wieso soll hier der HBM oder die Bandbreite verantwortlich sein für den Messwert und nicht die Shader oder andere Hardware auf dem Chip?

Und dass Fiji und Vega mit HBM besser skalieren in höheren Auflösungen als GDDR Chips habe ich schon einige Beiträge vorher hier verlinkt.

Lol...sehr lustig hab eben die Messwerte des Beyon3D Benchmarks gefunden:
https://techreport.com/r.x/2017_03_08_Nvidia_s_GeForce_GTX_1080_Ti_graphics_card_reviewed/B3Dbandwidth.png

Das ist doch völliger Humbug - unkomprimiert bringt der Bench nicht mal eine GTX 1080 Ti an das Limit der Bandbreite und produziert ähnlich viele Daten wie die Fury X.

Man sollte hier vielleicht hinterfragen wie Random Textures erzeugt werden und warum diese mehr Rechenleistung benötigen als Black Textures ;) Nicht nur die Kompression wird hier gemessen.

AckytheG
2017-12-11, 18:44:55
...
Wieso soll hier der HBM oder die Bandbreite verantwortlich sein für den Messwert und nicht die Shader oder andere Hardware auf dem Chip?
...
Das ist eine berechtigte Frage.

Ich könnte aber genauso gut den Spieß auch umdrehen:

Wieso kommen die nVidia-Karten auf höhere Werte bei gut komprimierbaren Texturen, wenn vorher etwas anderes limitiert.

Ich kann natürlich nicht mit Sicherheit sagen, dass der verlinkte Test wirklich die Speicherbandbreite zum Flaschenhals werden lässt.
Man sieht aber, dass Vega weiter von seinem Maximum entfernt ist, als Pascal.

Ideal wäre ein weiterer Bandbreitentest mit anderer Software aber ich habe leider keinen finden können.

Hat Jemand Vorschläge?

Complicated
2017-12-11, 18:50:58
Weil die Kompression besser ist bei Nvidia und die nur schwarze Textur eben kaum Rechenleistung benötigt beim nutzen aus dem Cache - aber das ist ja auch bekannt. Das testen der Bandbreite findet hier allerdings nicht wirklich nachvollziehbar statt. Andere Software wäre hier wirklich angezeigt.

AckytheG
2017-12-11, 19:03:03
Auch bei zufälligen Texturen kommt nV weiter ans Maximum.
Ich kann mir aber auch nicht vorstellen, dass das Erzeugen von zufälligen Texturen soviel Rechenleistung kostet.

Wie sieht es eigentlich mit den Latenzen aus bei HBM?

Spätestens seit dem Zweikampf zwischen 1080 und 1070Ti wissen wir ja, dass diese eine Rolle spielen können.
GDDR5 ist manchmal schneller als GDDR5X und das trotz nominell geringerer Bandbreite.

Ein ähnliches Spiel hatten wir schon zwischen HD3850 und HD3870.
Letztere hatte mit dem GDDR4 auch hier und da Probleme.

Complicated
2017-12-11, 19:35:48
Ja aber das ist doch auch zu erwarten wenn die höhere Bandbreite mittels Quad-Datarate erreicht wird gegenüber Double-Datarate bei GDRR5. Die etwas höhere Latenz ist halt im Vergleich zum deutlich höheren Durchsatz vernachlässigbar für GPU Workloads.

HisN
2017-12-11, 19:58:07
Im Timespy ist eine Titan V mit 2Ghz jetzt an 3. Stelle der Hall of Fame und pulverisiert die ganzen LN2-TIs .....
Und das sieht mir nicht nach einem Profi-LN2-Kingpin aus, der das Ergebnis gebracht hat.


http://abload.de/img/titanv_tsycsv8.jpg (http://abload.de/image.php?img=titanv_tsycsv8.jpg)

etp_inxession
2017-12-11, 20:08:16
Zur Titan V .... es ist nicht alles Glänzt was Gold ...

5 € ins Phrasenschwein...

pixeljetstream
2017-12-11, 20:50:58
Wieso soll hier der HBM oder die Bandbreite verantwortlich sein für den Messwert und nicht die Shader oder andere Hardware auf dem Chip?.

Ich stimme Dir zu, dass man NICHT darauf schließen kann, dass es am HBM liegt.

Meine Antwort bezog sich nur auf Deine Aussage dass die Prozentzahl in so nem Test keine Rolle spielt und man die Units nicht ans theoretische Maximum bringen will. Es sind also mindestens zwei Themen ;)

Theoretisch hast Du Recht und die Arithmetik usw. könnte limitieren, und es ist doof dass der Benchmark wohl nicht öffentlich verfügbar ist. Aber Rys, als Experte, wird hier nicht was völlig sinnfreies bauen, sondern etwas was das ganze Memorysystem (texture units, caches usw.) adäquat stresst. Er arbeitet mittlerweile bei AMD und war vorher bei Imagination (also quasi neutral im Desktopgefecht).

MrSpadge
2017-12-11, 22:57:13
Ja stimmt, dass ein Benchmark mit dem Titel "Bandwidth" evtl. etwas anderes als die praktisch erzielbare Maximalbandbreite ähnlich Sandra etc. darstellen könnte, hatte ich nicht bedacht. So ganz trivial ist der Umgang mit Texturen als "Krücke" für diese Messung ja nicht, wenn man wirklich das Maximum messen will.

MrS

pixeljetstream
2017-12-11, 23:11:46
Es gibt einfachere Tests die nur linearen Speicher hin und her kopieren, und dafür die copy engines auf der GPU nutzen. Nvidia hat für cuda/ocl ein "bandwidthTest" Programm, was man sich samt source runterladen kann.

Ben Carter
2017-12-12, 07:53:31
Ob die GPU selbst (große) Auswirkungen hat oder nicht, kann man recht einfach feststellen, indem man den Takt mal deutlich reduziert.

Nakai
2017-12-13, 11:58:17
GV100 schafft nicht die Performance aus einfachen Gründen. Pro SM gibts nur 4 TMUs nicht 8 wie bei Pascal.

Gast
2017-12-14, 18:03:18
GV100 schafft nicht die Performance aus einfachen Gründen. Pro SM gibts nur 4 TMUs nicht 8 wie bei Pascal.

Dafür gibt es ja auch nur die halben Shardercores/SM und auch ganze 80SMs.

Das Verhältnis von TMU:SC ist gleich geblieben und die Reduktion von TMUs/SCs pro SM sollte allenfalls zu einer besseren Auslastung führen.

haneetsinghp
2017-12-22, 15:29:45
Das geht doch aus den Messwerten überhaupt nicht hervor. Woher willst du wissen, dass Fiji mit Bench3D 512 GB/s Daten produzieren kann? In dem Test ist es der Chip mit dem höchsten Wert verglichen mit allen anderen verfügbaren zu der Zeit.

Wieso soll hier der HBM oder die Bandbreite verantwortlich sein für den Messwert und nicht die Shader oder andere Hardware auf dem Chip?

Und dass Fiji und Vega mit HBM besser skalieren in höheren Auflösungen als GDDR Chips habe ich schon einige Beiträge vorher hier verlinkt.

Lol...sehr lustig hab eben die Messwerte des Beyon3D Benchmarks gefunden:
https://techreport.com/r.x/2017_03_08_Nvidia_s_GeForce_GTX_1080_Ti_graphics_card_reviewed/B3Dbandwidth.png

Das ist doch völliger Humbug - unkomprimiert bringt der Bench nicht mal eine GTX 1080 Ti an das Limit der Bandbreite und produziert ähnlich viele Daten wie die Fury X.

Man sollte hier vielleicht hinterfragen wie Random Textures erzeugt werden und warum diese mehr Rechenleistung benötigen als Black Textures ;) Nicht nur die Kompression wird hier gemessen.


You also need to take care of the RAM, Check the DDR3 vs DDR4 (https://www.ytechb.com/ddr3-vs-ddr4-the-difference/)

Complicated
2017-12-22, 16:56:19
You also need to take care of the RAM, Check the DDR3 vs DDR4 (https://www.ytechb.com/ddr3-vs-ddr4-the-difference/)
Aha - any known actual GPU with DDR3 or DRR4?