PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Ampere-Launch am 21. September mit angeblich +35% Mehrperformance


Leonidas
2020-08-26, 13:08:12
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-ampere-launch-am-21-september-mit-angeblich-35-mehrperformance

Gast
2020-08-26, 13:17:49
35% Performanceplus ohne DLSS 3.0 vermutlich.
Mit DLSS 3.0 sind ja dann nochmal gut mindestens 50% mehr drin.

Lehdro
2020-08-26, 13:20:41
Ja, klar, 35%. Wenn das wirklich so stimmen sollte, ist das ein krasser Fail von NV. Das wäre ja schon fast die TDP Erhöhung die da 1:1 mit der Leistung steigen sollte - dagegen wäre ja jede Generation zuvor ein regelrechter Effizienzquantensprung gewesen.

WedgeAntilles
2020-08-26, 13:24:36
Meine Prognose habe ich in dem Ampere Thread schon geschrieben.
35% Mehrleistung bei 30% Mehrverbrauch? Halte ich für Quark. Würde ja bedeuten, dass es quasi 0!!! Forstschritt von Turing zu Ampere gibt.
Also bitte...

Beide Gerüchte zusammengefasst:
Lange hieß es ja ca. 30-40% Mehrperformance.
Dann scheint die 3090 ca. 30% mehr zu verbrauchen.

Schlichte Gemüter machten das dann zu 30-40% Mehrperformance bei 30% mehr Verbrauch.

Plausibler erscheint mir, dass man beide Gerüchte getrennt betrachten muss bzw. eben in Ergänzung.
30-40% Mehrperformance, bei gleichem Verbrauch.
Und wenn ich jetzt den Verbrauch erhöhe erhöht sich halt die Mehrperformance auf 60%, bei ca. 30% höherem Stromverbrauch.

Das wäre jetzt sicherlich nicht unglaublich phantastisch, aber es wäre halt auch nicht das Horrorszenario das viele gerne gemalt haben.
Unterstellt, dass RT und DLSS merklich besser werden würde ich es (von den technischen Werten her) als ordentliche bis gute neue GraKa-Generation bezeichnen.

WedgeAntilles
2020-08-26, 13:26:58
Ja, klar, 35%. Wenn das wirklich so stimmen sollte, ist das ein krasser Fail von NV. Das wäre ja schon fast die TDP Erhöhung die da 1:1 mit der Leistung steigen sollte - dagegen wäre ja jede Generation zuvor ein regelrechter Effizienzquantensprung gewesen.

Klugscheiß
Dein fettgedrucktes WENN muss ein FALLS sein.
Schließlich willst du hier ja explizit in Frage stellen, ob es überhaupt so kommt (=falls) und nicht eine zeitliche Komponente in der Frage haben (=wenn)

"Wenn ich in die Stadt gehe"- bedeutet man geht in die Stadt (unklar ist ggf. noch wann genau, aber es ist sicher, dass man geht)

"Falls ich in die Stadt gehe" - es ist noch unklar ob man überhaupt in die Stadt geht.

Nicht bös gemeint, nur da du es extra fett markiert hast :)

Daredevil
2020-08-26, 13:28:25
2080ti Launch 2018, 4K Performance:
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/
1080ti: 100%
2080ti: 135%

Die Leute so:
ein krasser Fail von NV.

2080ti heute:
https://docs.google.com/spreadsheets/d/e/2PACX-1vT8BB2otBaTtFRaN9aUZLQ6q5IT9-ej49Dq9dWEViIl5yawiVEkNC4-R39uWtkbqBfDxitlhbhfaQRW/pubchart?oid=1476055917&format=image

hab mir mal erlaubt kurz zu gucken wie stark die unterschiede der Titel so sind. Alles ohne DLSS oder RT.



35% wären okay bei einer Stock TDP von ~300-330w, gerade weil man den Speicher auch mit in die Betrachtung nehmen muss.
Wenn zudem noch die Raytracing Leistung über diese 35% ansteigt, wäre das wiederum eine starke Vorstellung.

Eine 2080ti mit 22GB Speicher, der zudem deutlich mehr verbraucht, wäre halt auch locker schon bei über 300w.

Leonidas
2020-08-26, 13:35:43
Naja, wenn man 2GBit-Speicher benutzt (und keine 24 Speicherchips), dann geht der Stromverbrauch durch Speicher kaum hoch. Aber selbst 24 vs. 12 Speicherchips verbraucht nicht so viel. 10-15W mehr? Was frisst, ist das Interface, nicht der Speicherchip selber.

Gast
2020-08-26, 13:47:57
Naja, wenn man 2GBit-Speicher benutzt (und keine 24 Speicherchips), dann geht der Stromverbrauch durch Speicher kaum hoch. Aber selbst 24 vs. 12 Speicherchips verbraucht nicht so viel. 10-15W mehr? Was frisst, ist das Interface, nicht der Speicherchip selber.
Ich dachte, die GDDR6X waren bei 2,5W pro Chip? Wäre da also merklich mehr, als du gerade vermutest.
Aber generell halte ich die 35% mehr Leistung bei dem angegebenen Mehrverbrauch auch für Quark. Ich tippe auch eher auf +35% bei ähnlichem Verbrauch. Da man noch mit dem Verbrauch nach oben gehen will, dann entsprechend deutlich mehr Leistung. Aufgrund der wohl etwas kleineren Chips hoffe ich auch auf nicht steigende Preise. Aber das hängt auch an AMD und deren Navi 2x...

Daredevil
2020-08-26, 13:51:31
12 Chips verbrauchen 10-15w mehr?

Ich kann mich nur an meine eigenen Tests halten bei der Effizienz Optimierung fürs Mining.
Diese beiden Screenshots sind eben dabei gerade entstanden, die Leistung wird nicht vom Speicher gefordert, beide Settings ergeben die gleichen Ergebnisse.
Der Speicher ist stark untertaktet/übertaktet ( -500 und +900 ) und da spart man ordentlich an Saft.

https://abload.de/img/900dtjnd.gif https://abload.de/img/-50053k9l.gif

25w Range, obwohl halt nur 3GB genutzt werden, das ist m.M. nach schon viel, was Speicher so sehen will.
Oder ich übersehe irgendwas anderes, wieso so ein Unterschied da ist. Der Chip saugt ja anscheinend auch mehr, was aber keinen Sinn ergibt, weil er schlicht nicht mehr leistet.

Complicated
2020-08-26, 14:04:27
Also wenn man hier folgende Überlegung mit einbezieht ist das gar nicht so abwegig:
8nm Samsung ist ein 10nm Prozeß und entspricht Intels 10nm+
AMD hat frühzeitig gegen 10nm votiert und ist direkt auf 7nm gesprungen.

Intels 10nm haben reichlich Probleme und es mir bisher nicht zu Ohren gekommen, dass Samsungs 10nm/8nm hier besser abschneiden. Zudem kann es möglich sein, dass der Prozeß überhaupt nicht geplant war mit diesem Design und relativ früh schon ein Backport von Samsungs 7nm nötig wurde. Zu heutigen Zeitpunkt wollte Samsung schon lange 7nm anbieten - wohl auch zum Zeitpunkt als über das Design von Ampere entschieden wurde.

Den hohen Verbrauch würde ich mal nicht anzweifeln:
https://www.thefpsreview.com/2020/07/02/nvidias-rtx-30-gpus-are-definitely-being-built-on-samsungs-8-nm-node-claims-leaker/
“It is meaningful that Samsung Electronics’ 7-nanometer process would be used in manufacturing our next-generation GPU,” said NVIDIA Korea chief Yoo Eung-joon at the time. “Until recently, Samsung has been working really hard to secure (partners) for foundry cooperation.”

The notion of NVIDIA leveraging Samsung’s 8 nm node is also plausible based on recent gossip of RTX 30-series GPUs being power-hungry beasts. And then there’s the fact that TSMC’s 7 nm supply is already extremely tight, thanks to customers such as AMD and Apple.
Nur wenn es einen derartig hohen Verbrauch gibt, dann muss jedem klar sein, dass der Performancesprung nicht einem üblichen Nodeshrink entsprechen wird. Das selbe ist Nvidia mit 40nm und Fermi passiert. Nvidias Stärke bei Architektur kann dies allerdings oft mit einem Refresh, sobald die Fertigung sich verbessert und einige Monate ins Land gegangen sind, kompensieren.

Als Unternehmen ist es das richtige vorgehen von Nvidia. Ampere so früh wie möglich launchen (das haben sie gelernt als sie bei Fermi versucht haben das ganze zu fixen und dadurch deutlich verspätet kamen.), bevor AMDs neue GPU kommt und so schon 3 Monate verkaufen so teuer wie es nur geht (neue Performanceklasse 3090). Im März/April den Refresh in 7nm (ich vermute der ist auch schon in Arbeit, sollte sich der hohe Verbrauch aus der Gerüchteküche bestätigen).
Denn sollte Nvidia hier wirklich nur durch den Prozess (was ich schwer vermute) eingebremst werden, hätten Sie schnell genug einen Konter nachgeschoben, selbst wenn AMD die gesamte Performance zu 8nm Ampere (knapp) einholt - was ja ein Riesensprung wäre, da AMD schon auf 7nm unterwegs ist.

Bis November wird Nvidia richtig absahnen mit der neuen Reihe und selbst darüber hinaus wird es schwierig für AMD den TopDog einzuholen, da sie auch überhaupt nicht mit diesen Verbrauchsgrößen kalkuliert haben.

Lehdro
2020-08-26, 14:04:48
12 Chips verbrauchen 10-15w mehr?

Titan RTX vs 2080 Ti. Doppelter Speicher, selbe TDP, vergleichbare Mehrleistung durch mehr Hardwareeinheiten.
Selbes bei der Titan X (Maxwell) vs. 980 Ti. Oder bei der Vanilla Titan. Oder 780 6 GiB vs 3 GiB. Oder GTX 770 2 GiB vs GTX 770 4 GiB. Überall war der Mehrverbrauch durch die Verdoppelung des Speichers extrem gering, trotz Doppelbestückung.

Daredevil
2020-08-26, 14:20:58
Und was sagst du zu meinen Werten da oben?

Anderes Beispiel für Verbrauch beim Speicher:
https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/MSI-Gaming-Z-Trio-Benchmarks-Review-1348817/2/

Auf der Trio Z ist ein um 14% schnellerer Speicher verbaut ( 11GB GDDR 6 ), welcher im gleichem Power Limit den Takt um ~1.5% hat senken lassen.
Wenn du dort nun auf der Rückseite das gleiche nochmal verbaust, sinkt weiter der Takt, weil der RAM sich viel vom Power Budget nimmt. Wird der Speicher übertaktet, geht das Spiel weiter.
300w 2080ti mit 11GB und 300w 3090 mit 24GB ist nicht vergleichbar, wenn einem der Speicher nicht egal ist.

PS: Die Titan RTX hat ein TDP von 280w, die 2080ti FE eines von 260w.
~Gleiche Leistung, 20w mehr für den RAM.
( Quelle: Nvidia HP )

RLZ
2020-08-26, 14:28:04
Naja, wenn man 2GBit-Speicher benutzt (und keine 24 Speicherchips), dann geht der Stromverbrauch durch Speicher kaum hoch. Aber selbst 24 vs. 12 Speicherchips verbraucht nicht so viel. 10-15W mehr? Was frisst, ist das Interface, nicht der Speicherchip selber.
Angeblich ist die Slide von Rambus (https://www.eeweb.com/profile/scharag/articles/high-bandwidth-memory-ready-for-ai-primetime-hbm2e-vs-gddr6):
https://cdn.eeweb.com/articles/sac0001-01-comparison-of-hbm2eand-gddr6-drams-for-ai-applications.jpg

Wenn wir mal mit den 2,5W pro Chip rechnen, wären 12 Chips schon 5030W.

Complicated
2020-08-26, 14:35:40
Hier wird zwar geschrieben:
https://www.gamersnexus.net/hwreviews/3418-nvidia-titan-rtx-review-overclocking-gaming-power-thermals
This chart is with Ashes of the Singularity: Escalation under a 4K/Crazy workload, pushing the GPU to its limits. Running the Titan RTX card, our total system power consumption peaks at 480W, outdrawing the 2080 Ti Founders Edition system by 24W.
Was halt nur die halbe Wahrheit ist, weil man lediglich die Peakwerte (das wären ca. +5%) vergleicht. Der Chart mit den Messdaten zeigt Unterschiede im selben Frame die zumeist zwischen 40-80W (+10-20%) liegen bei Last.
https://www.gamersnexus.net/images/media/2018/gpus/titan-rtx/titan-rtx-power-aots_all.png
32-bit Si mehr +256 Shader und +13GB Speicher. Das Performanceplus zur Ti waren magere 6-7% im Schnitt. Und die TDP hat sich auch um 30 Watt unterschieden: 250->280W

Für die RTX 3090 sind anscheinend auch 384-bit SI geplant, laut Gerüchten, während die RTX 3080 gleich 64-bit kleiner mit 320-bit SI kommen soll. Sich hier also vom Verbrauch her nochmal deutlicher unterscheiden kann als die 2080 Ti von der Titan RTX.

why_me
2020-08-26, 14:48:26
Ein Großteil des Stromverbrauchs bei Speicher kommt von der Datenübertragung.
Wenn man die Chips verdoppelt, dann halbiert sich der Zugriff auf die Einzelnen Module -> Halber IO Verbrauch pro Modul. Und es kommt nur ein "kleiner" Teil der DRAM Zellen hinzu.

@Daredevil: Deine Werte Zeigen schön, dass der Großteil des Stromverbrauch vom RAM vom Takt (= IO) kommt.

Gast
2020-08-26, 14:57:52
Also wenn man hier folgende Überlegung mit einbezieht ist das gar nicht so abwegig:
8nm Samsung ist ein 10nm Prozeß und entspricht Intels 10nm+
AMD hat frühzeitig gegen 10nm votiert und ist direkt auf 7nm gesprungen.


Wenn Samsungs 8nm Prozess einem 10nm Prozess entspricht, dann entspricht der Samsung 8nm Prozess bestimmt nicht Intels 10nm Prozess, geschweige denn dem 10nm+ Prozess. Intels 10nm Prozess entspricht TSMCs 7nm Prozess ...

Samsungs 7nm entspricht übrigens grob TSMCs 7nm+ Prozess ... wieso sollte also Samsung 8nm plötzlich so ein Haufen Mist sein?

Lehdro
2020-08-26, 15:03:51
Klugscheiß

Klugscheiß
Dein fettgedrucktes WENN muss ein FALLS sein.
Schließlich willst du hier ja explizit in Frage stellen, ob es überhaupt so kommt (=falls) und nicht eine zeitliche Komponente in der Frage haben (=wenn)

"Wenn ich in die Stadt gehe"- bedeutet man geht in die Stadt (unklar ist ggf. noch wann genau, aber es ist sicher, dass man geht)

"Falls ich in die Stadt gehe" - es ist noch unklar ob man überhaupt in die Stadt geht.

Nicht bös gemeint, nur da du es extra fett markiert hast :)
Das "Wenn" in dem Satz hat eine temporale Komponente, da es sich auf die Zukunft bezieht. Wenn Klugscheißen, dann richtig. In den Satz kann ein "Falls" rein, muss aber nicht.

DUDEN (https://www.duden.de/rechtschreibung/wenn) (Man beachte: Einige Beispielsätze haben keinerlei temporale Komponente)
Wenn/Falls/Sofern (https://easy-deutsch.de/satzbau/nebensatz/konditionalsatz-wenn-falls/)
Wenn/Falls (https://www.deutsch-perfekt.com/deutsch-hoeren/die-konjunktionen-wenn-und-als)

Wenn kann in einem Konditionalsatz stehen. Dann ist es ein Synonym zu „falls“. Wenn kann aber auch temporal benutzt werden. Es zeigt dann eine zeitliche Relation an. Wenn steht aber auch für einmalige Ereignisse oder Handlungen in der Zukunft.

PS: Die Titan RTX hat ein TDP von 280w, die 2080ti FE eines von 260w.
~Gleiche Leistung, 20w mehr für den RAM.
( Quelle: Nvidia HP )
Korrekt. Sie ist aber laut CB (https://www.computerbase.de/2019-03/geforce-titan-rtx-mifcom-test/2/#abschnitt_details_zu_den_spieletests) 7% schneller bei 7% mehr TDP, 6% mehr Recheneinheiten, 9% mehr I/O (384 Bit), nahezu identischen Taktraten (1 (https://www.computerbase.de/2019-03/geforce-titan-rtx-mifcom-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last),2 (https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40)) und mehr als verdoppeltem Speicher. Spricht alles eher gegen saufenden Speicher.

Nazar
2020-08-26, 15:04:13
2080ti Launch 2018, 4K Performance:
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/
1080ti: 100%
2080ti: 135%

Die Leute so:


2080ti heute:




35% wären okay bei einer Stock TDP von ~300-330w, gerade weil man den Speicher auch mit in die Betrachtung nehmen muss.
Wenn zudem noch die Raytracing Leistung über diese 35% ansteigt, wäre das wiederum eine starke Vorstellung.

Eine 2080ti mit 22GB Speicher, der zudem deutlich mehr verbraucht, wäre halt auch locker schon bei über 300w.

350 Watt für 35% mehr RZ Leistung sehe ich als kompletten Fail an, wenn man dann auch noch bedenkt wie teuer die Karten werden sollen.
Auch wird RT für mehr als 90% als Nutzer min. noch 2 Jahre komplett nebensächlich sein. Mit jetzigen und bisher angekündigten RT Spielen für das nächste Jahr reichen 10 Finger um alle aufzuzählen.
Wenn dann noch RT Spiele dabei sind, die für ein RT Spieler von Interesse sind, kann man sich glücklich schätzen.
Jetzt RT als Kaufargument oder als Entschuldigung für einen mangelhaften RZ Zuwachs zu nehmen, halte ich für eine weltfremde Einstellung.
RT wird frühestens in 2 Jahren eine Marktanteil haben, der relevant für Kaufentscheidungen der Masse sein wird, zumal RT gerade optisch nicht sofort als BQ Verbesserung wahrgenommen wird.

Berniyh
2020-08-26, 15:04:21
Gerade dass nVidia derzeit wirklich intensiv die Werbetrommel für seine nächste Grafikkarten-Generation rührt, dass man sogar eine Verbindung zur allerersten GeForce-Karte vor 21 Jahren zieht, zeigt eigentlich eher darauf hin, dass sich nVidia seiner Sache ziemlich sicher ist.
Also meine Erfahrung ist da eher, dass man die Werbetrommel hauptsächlich dann sehr intensiv bemüht, wenn es die nüchternen Fakten zum Produkts nicht wirklich bringen.
Oder um es mal anders zu formulieren: die die am meisten Werbung bzw. die beste Werbung betreiben sind nicht unbedingt (bzw. wahrscheinlich nicht) auch die die das beste Produkt haben.
Muss natürlich nicht so sein, aber man kann es eben auch anders auslegen als du. ;)

Gast
2020-08-26, 15:06:25
Also wenn man hier folgende Überlegung mit einbezieht ist das gar nicht so abwegig:
8nm Samsung ist ein 10nm Prozeß und entspricht Intels 10nm+
AMD hat frühzeitig gegen 10nm votiert und ist direkt auf 7nm gesprungen.

Intels 10nm haben reichlich Probleme und es mir bisher nicht zu Ohren gekommen, dass Samsungs 10nm/8nm hier besser abschneiden. Zudem kann es möglich sein, dass der Prozeß überhaupt nicht geplant war mit diesem Design und relativ früh schon ein Backport von Samsungs 7nm nötig wurde. Zu heutigen Zeitpunkt wollte Samsung schon lange 7nm anbieten - wohl auch zum Zeitpunkt als über das Design von Ampere entschieden wurde.

Den hohen Verbrauch würde ich mal nicht anzweifeln:
https://www.thefpsreview.com/2020/07/02/nvidias-rtx-30-gpus-are-definitely-being-built-on-samsungs-8-nm-node-claims-leaker/

Nur wenn es einen derartig hohen Verbrauch gibt, dann muss jedem klar sein, dass der Performancesprung nicht einem üblichen Nodeshrink entsprechen wird. Das selbe ist Nvidia mit 40nm und Fermi passiert. Nvidias Stärke bei Architektur kann dies allerdings oft mit einem Refresh, sobald die Fertigung sich verbessert und einige Monate ins Land gegangen sind, kompensieren.

Als Unternehmen ist es das richtige vorgehen von Nvidia. Ampere so früh wie möglich launchen (das haben sie gelernt als sie bei Fermi versucht haben das ganze zu fixen und dadurch deutlich verspätet kamen.), bevor AMDs neue GPU kommt und so schon 3 Monate verkaufen so teuer wie es nur geht (neue Performanceklasse 3090). Im März/April den Refresh in 7nm (ich vermute der ist auch schon in Arbeit, sollte sich der hohe Verbrauch aus der Gerüchteküche bestätigen).
Denn sollte Nvidia hier wirklich nur durch den Prozess (was ich schwer vermute) eingebremst werden, hätten Sie schnell genug einen Konter nachgeschoben, selbst wenn AMD die gesamte Performance zu 8nm Ampere (knapp) einholt - was ja ein Riesensprung wäre, da AMD schon auf 7nm unterwegs ist.

Bis November wird Nvidia richtig absahnen mit der neuen Reihe und selbst darüber hinaus wird es schwierig für AMD den TopDog einzuholen, da sie auch überhaupt nicht mit diesen Verbrauchsgrößen kalkuliert haben.

Da ist doch schon die Grundanahme falsch, Intels 10nm+ ist eher mit TSMC 7nm zu vergleichen , wie du dann weiter von Intels 10nm auf samsungs 10 nm extrapolierst ist der nächste "Facepalm".
Äpfel und Birnen.
Was man dann auch schnallt ist das der Spung von 12nm TSMC zu 8nm Samsung durchaus ordentlich ist aber nichts mit 10nm Intel zutun hat welcher wiederum garnichts mit Samsung 10nm zutun hat.



Samsung 8nm,TSMC 7nm&10nm....

Samung 8 nm TSMC 10nm TSMC 12nm TSMC 7nm Intel 10nm
Fin Pitch 42 nm 42 48 nm 30 nm 34nm
Gate Pitch 64 nm 66 90 nm 62 nm 54nm
M1, Mx 44 nm 44 64 nm 40 nm 36nm


Intel 14nm

Fin Pitch 42 nm
Gate Pitch 70 nm
M1, Mx 52 nm

Gast
2020-08-26, 15:15:17
350 Watt für 35% mehr RZ Leistung sehe ich als kompletten Fail an, wenn man dann auch noch bedenkt wie teuer die Karten werden sollen.
Auch wird RT für mehr als 90% als Nutzer min. noch 2 Jahre komplett nebensächlich sein. Mit jetzigen und bisher angekündigten RT Spielen für das nächste Jahr reichen 10 Finger um alle aufzuzählen.
Wenn dann noch RT Spiele dabei sind, die für ein RT Spieler von Interesse sind, kann man sich glücklich schätzen.
Jetzt RT als Kaufargument oder als Entschuldigung für einen mangelhaften RZ Zuwachs zu nehmen, halte ich für eine weltfremde Einstellung.
RT wird frühestens in 2 Jahren eine Marktanteil haben, der relevant für Kaufentscheidungen der Masse sein wird, zumal RT gerade optisch nicht sofort als BQ Verbesserung wahrgenommen wird.

Wie relevant RT für die Käufer ist und welchen Mehrwert /Qualiunterschied sie darin sehn kann man getrost den Kunden überlassen ausser manfühlt sich als kleiner Diktator dazu genötigt seine Meinung als allgemeingültig darstellen.

Daredevil
2020-08-26, 15:21:25
die die am meisten Werbung bzw. die beste Werbung betreiben sind nicht unbedingt (bzw. wahrscheinlich nicht) auch die die das beste Produkt haben.

Völlig richtig.
Aber die, die das beste Produkt haben, sind auch nicht immer die, die am erfolgreichsten sind und am meisten verkaufen. ^^



Korrekt. Sie ist aber laut CB (https://www.computerbase.de/2019-03/geforce-titan-rtx-mifcom-test/2/#abschnitt_details_zu_den_spieletests) 7% schneller bei 7% mehr TDP, 6% mehr Recheneinheiten, 9% mehr I/O (384 Bit), nahezu identischen Taktraten (1 (https://www.computerbase.de/2019-03/geforce-titan-rtx-mifcom-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last),2 (https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40)) und mehr als verdoppeltem Speicher. Spricht alles eher gegen saufenden Speicher.
Und warum verbrauchen meine 11GB dann 25w mehr, wenn ich den Takt erhöhe?
Dann kommts halt nicht vom Speicher, sondern vom Interface, oder wie? Ja mei.

Das gleiche kann ich btw. auch mit HBM2 nachstellen.

Lehdro
2020-08-26, 15:33:04
Und warum verbrauchen meine 11GB dann 25w mehr, wenn ich den Takt erhöhe?
Dann kommts halt nicht vom Speicher, sondern vom Interface, oder wie? Ja mei.

Das gleiche kann ich btw. auch mit HBM2 nachstellen.
Ja richtig. Takt = Verbrauch. Warum sollte das bei Speicherinterfaces anders sein?

Nightspider
2020-08-26, 15:37:22
Für 35% hätte man die Speicherbrandbreite nicht so so sehr mit extremen Mitteln angehoben.

Complicated
2020-08-26, 15:38:21
Ja richtig. Takt = Verbrauch. Warum sollte das bei Speicherinterfaces anders sein?
Die Ursache bleibt ja der Mehrspeicher, da ansonsten das Interface nicht mehr verbrauchen würde.
Nur hat sich bisher keiner in das Details vertiefen wollen an welcher Stelle des Chips/Boards der Mehrverbrauch entsteht - wozu auch. Es bleibt ein Mehrverbrauch durch mehr Speicher.

Morgenlicht
2020-08-26, 15:41:16
Sollte man wirklich annehmen, daß die 30-35 % an Mehrleistung als eine Fehlentwicklung hingestellt werden kann? Vielleicht sollte man im Gegenzug nachforschen, welche Bestandteile eines Games denn überhaupt noch durch höher getaktete Grafikhardware beschleunigt werden kann. Möglicherweise liefert eine CPU bzw. die Engine nicht ausreichend schnell genug die Daten für die Grafikkarte.

Ich ziehe gerne das folgende Beispiel heran, daß zum Beispiel der Windows-Rechner aus Windows XP bei der Fakultät von 10.000 nach ca. 30 Sekunden den Nutzer auffordert entweder die Berechnung weiter durchlaufen zu lassen oder abzubrechen. Während der Windows-Rechner von Windows 10 bei Aufruf der Fakultät von 10.000 einfach mal mit Überlauf abbricht.

Nicht immer nur sozusagen auf der Hardware herumhacken, sondern auch die Softwareseite betrachten, denn nimmt man SpeedCrunch (http://speedcrunch.org/download.html) mit 10000! ist bei mir selbst mit 800 MHz-CPU sofort ein Ergebnis errechnet.

Lehdro
2020-08-26, 15:51:30
Die Ursache bleibt ja der Mehrspeicher, da ansonsten das Interface nicht mehr verbrauchen würde.
Reden wir aneinander vorbei? Alle Beispiele der Vergangenheit zeigen doch das Gegenteil. Doppelter Speicher bei selbem Interface = minimaler Mehrverbrauch. Nur weil ich doppelt soviele Speicherbausteine anbinde an dasselbe Interface kann ich trotzdem nicht gleichzeitig alle voll ansprechen -> dann hätte ich ja auch noch ein verdoppeltes Speicherinterface.

why_me
2020-08-26, 16:00:01
Und warum verbrauchen meine 11GB dann 25w mehr, wenn ich den Takt erhöhe?
Dann kommts halt nicht vom Speicher, sondern vom Interface, oder wie? Ja mei.

Das gleiche kann ich btw. auch mit HBM2 nachstellen.

Weil du die Bandbreite Erhöhst und nicht die Speichermenge.
Bei Ampere Reden wir aber von gleicher Bandbreite und doppeltem Speicher -> ganz andere Vorraussetzung.

Durch den Clamshell mode bei GDDR wird der Bus nicht breiter und die Bandreite bleibt gleich, es erhöht sich nur die Speichermenge.
Da die Datenleitungen zwischen den Chips aufgeteilt werden, bleibt der Verbrauch des IO Teils (Interface) gleich.
Hinzu kommt nur der Verbrauch um die Daten im RAM zu halten, und dieser ist relativ gering.

https://www.extremetech.com/wp-content/uploads/2016/02/NV-HB-640x426.png
Diese Grafik Zeigt es recht schön, wenn auch nur GDDR5. Der IO Teil (rot) bleibt bei beim Verdoppeln der Speichermenge gleich, da die Bandbreite verdoppelt wird.
Der grüne und blaue Teil verdoppelt sich, da das die Energie ist, die innerhalb der Speicherchips verbraucht wird.

Raff
2020-08-26, 16:09:46
Zum Thema "Vergleich mit der ersten Geforce": Das war fast nur Checklisten-Gepose bei kaum gesteigerter Leistung. Viel schlimmer als Turing. Erst die Geforce DDR war angenehm schneller als die Spitzenlösungen der Vorgeneration (TNT2 Ultra, V3 3500). Hoffen wir also, dass Ampere mehr G80 als NV10 wird. :D

MfG
Raff

Nightspider
2020-08-26, 16:12:34
Vielleicht ist die 3070 35% schneller als die 2080 und so weiter. Das würde schon eher Sinn ergeben und auch zur gesteigerten Bandbreite passen.

Mit nur 35% würde man gegen RDNA2 und TSMCs überlegenen verbesserten 7nm Prozess dumm dastehen.

Ravenhearth
2020-08-26, 16:21:07
Vielleicht ist die 3070 35% schneller als die 3080 und so weiter.
Das wäre aber unkonventionell ;)

Ich denke, die 35% lassen sich dadurch erklären, dass die 2080 Super gemeint war und nicht die normale 2080. Damit wäre die 3080 schon 50% schneller als die 2080. Außerdem soll der Vorsprung in 4K ja größer ausfallen. Das passt dann auch wieder zu den heute gemeldeten +70% in Time Spy Extreme gegenüber der normalen 2080. Und die 3070 wäre vlt. 20-30% schneller als die 2080 (und auf Höhe der Ti).

Nightspider
2020-08-26, 16:24:06
Zugegeben sehr unwahrscheinlich aber man kann ja noch hoffen.
Die 1070 war auch schon 10% schneller als die 980.

Und Turing war hat nur popelige 30-40% auf Pascal draufgelegt.

Dazu >300W und einen Monsterkühler schlechthin.

Also entweder das oder Samungs 8nm Prozess ist fürn Arsch und damit auch Ampere. ;D

Ravenhearth
2020-08-26, 16:25:14
Du hast geschrieben:
Vielleicht ist die 3070 35% schneller als die 3080 und so weiter.
;)

Complicated
2020-08-26, 16:25:21
Reden wir aneinander vorbei? Alle Beispiele der Vergangenheit zeigen doch das Gegenteil. Doppelter Speicher bei selbem Interface = minimaler Mehrverbrauch. Nur weil ich doppelt soviele Speicherbausteine anbinde an dasselbe Interface kann ich trotzdem nicht gleichzeitig alle voll ansprechen -> dann hätte ich ja auch noch ein verdoppeltes Speicherinterface.
Das ist ja alles schön und gut in der Theorie und stimmt ja auch - sagt ja keiner was dagegen.

Nur wir reden hier ja davon, wie wohl der Unterschied zwischen 3080 10 GB zu 3090 24 GB aussehen wird.
In der Praxis ist was anderes gemessen worden, weil eben noch andere Komponenten eine Rolle spielen. Was stimmt nicht mit den gemessenen Werten die ich zum Vergleich RTX 2080 Ti (11 GB) vs RTX Titan (24GB) ausgegraben habe?
Die Behauptung diese hätten die selbe TDP war ja schon falsch. Und die Unterschiede 3080 zu 3090 sind ja schon beim SI doppelt so groß (64 bit), wenn man den Gerüchten glauben schenken darf. Die Speichergröße hat ja noch weitere Kleinigkeiten zur Konsequenz, die sich eben summieren, wenn Last anliegt. Ich finde nicht, dass es völlig vernachlässigbar ist.

Nightspider
2020-08-26, 16:27:38
Du hast geschrieben:

;)
Ups :D

Lehdro
2020-08-26, 16:39:57
Die Behauptung diese hätten die selbe TDP war ja schon falsch.
Ja, hatte ich so auch bestätigt, ändert aber nicht viel, wenn überhaupt.
Das ist ja alles schön und gut in der Theorie und stimmt ja auch - sagt ja keiner was dagegen.

In der Praxis ist was anderes gemessen worden, weil eben noch andere Komponenten eine Rolle spielen. Was stimmt nicht mit den gemessenen Werten die ich zum Vergleich RTX 2080 Ti (11 GB) vs RTX Titan (24GB) ausgegraben habe?
Naja, das da:
Sie ist aber laut CB (https://www.computerbase.de/2019-03/geforce-titan-rtx-mifcom-test/2/#abschnitt_details_zu_den_spieletests) 7% schneller bei 7% mehr TDP, 6% mehr Recheneinheiten, 9% mehr I/O (384 Bit), nahezu identischen Taktraten (1 (https://www.computerbase.de/2019-03/geforce-titan-rtx-mifcom-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last),2 (https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40)) und mehr als verdoppeltem Speicher. Spricht alles eher gegen saufenden Speicher.

GDDR6X wird das ganze nur potenzieren, aber die Unterschiede werden prozentual auf die Steigerung gemessen ähnlich ausfallen: Minimal. Dass das von 300W ausgehend dann eben doch 350W sein können, liegt dann aber nicht mehr "nur" am verdoppelten Speicher, sondern an vielen anderen Faktoren zugleich. Die 3080 mit der 3090 zu Vergleichen hat halt schon ein bisschen was von Äpfeln und Birnen, da die Hardwarebasis doch deutlich weiter auseinander ist als das bei den vorherigen Titans und deren Topdog Auskopplungen der Fall war. Das ist ja eben nicht nur der Speicher verdoppelt, sondern direkt Faktor 2,4. Da fehlen dann nicht nur 32 Bit, sondern direkt 64 Bit. Da sind nicht nur einstellige Prozente der Shader deaktiviert, sondern fast ein Fünftel. Jedenfalls, wenn die Gerüchte sich bewahrheiten.

Complicated
2020-08-26, 16:56:19
Wir spekulieren hier doch über die Unterschiede der 3080 zu 3090 - das ist der Zweck dieses Threads, warum sollte das dann sinnlos sein zu vergleichen und welche Unterschiede möglicherweise bestehen?
Die 3080 mit der 3090 zu Vergleichen hat halt schon ein bisschen was von Äpfeln und Birnen, da die Hardwarebasis doch deutlich weiter auseinander ist als das bei den vorherigen Titans und deren Topdog Auskopplungen der Fall war.
Und genau das sagte ich - der Unterschied zwischen den Karten wird größer sein als bei der Vorgänger-Generation bei Stromverbrauch.

Gast
2020-08-26, 17:12:12
12 Chips verbrauchen 10-15w mehr?

Ich kann mich nur an meine eigenen Tests halten bei der Effizienz Optimierung fürs Mining.
Diese beiden Screenshots sind eben dabei gerade entstanden, die Leistung wird nicht vom Speicher gefordert, beide Settings ergeben die gleichen Ergebnisse.
Der Speicher ist stark untertaktet/übertaktet ( -500 und +900 ) und da spart man ordentlich an Saft.

https://abload.de/img/900dtjnd.gif https://abload.de/img/-50053k9l.gif

25w Range, obwohl halt nur 3GB genutzt werden, das ist m.M. nach schon viel, was Speicher so sehen will.
Oder ich übersehe irgendwas anderes, wieso so ein Unterschied da ist. Der Chip saugt ja anscheinend auch mehr, was aber keinen Sinn ergibt, weil er schlicht nicht mehr leistet.


Leonids spricht ja über den speicher selbst, so wie es auch richtig ist, mit deinem OC und UC übertaktest ja auch das Interface, und das ist das, was richtig Strom frisst.

Leonidas
2020-08-26, 17:51:59
Der Speicher ist stark untertaktet/übertaktet ( -500 und +900 ) und da spart man ordentlich an Saft.


Die Ersparnis liegt im Speicherinterface, nur zum geringen Teil im Speicher selber.





Und warum verbrauchen meine 11GB dann 25w mehr, wenn ich den Takt erhöhe?
Dann kommts halt nicht vom Speicher, sondern vom Interface, oder wie? Ja mei.


Exakt. Mehrheitlich das Interface. Deswegen sind hohe Speichertaktraten ja so unbeliebt bei den Herstellern. Deswegen ist HBM so effektiv - Taktraten krass niedriger.





Zum Thema "Vergleich mit der ersten Geforce": Das war fast nur Checklisten-Gepose bei kaum gesteigerter Leistung. Viel schlimmer als Turing. Erst die Geforce DDR war angenehm schneller als die Spitzenlösungen der Vorgeneration (TNT2 Ultra, V3 3500).


Goldige Zeiten ...

Gast
2020-08-26, 17:56:30
Oder ich übersehe irgendwas anderes, wieso so ein Unterschied da ist. Der Chip saugt ja anscheinend auch mehr, was aber keinen Sinn ergibt, weil er schlicht nicht mehr leistet.

Das Speicherinterface braucht entsprechend mehr, und das sitzt nun mal in der GPU.

Die Speichermenge ist ziemlich egal, auch mit der doppelten Anzahl an Speicherbausteinen, weil die nicht alle gleichzeitig die maximale Leistung benötigen, und die maximale Leistungsaufnahme ist was du in den Daten findest.

Bei doppelseitiger Bestückung ist das gar nicht möglich, weil diese so funktioniert, dass die selben Datenleitung für beide Chips verwendet werden, und noch zusätzlich eine weitere Leitung existiert, die steuert welcher der beiden Chips gerade aktiv ist. Es können also gar nicht beide gleichzeitig aktiv sein.

Gast
2020-08-26, 18:06:59
35% mehr Performance bei deutlichem Mehrverbrauch trotz half-node step ???

Das klingt nach Totalversagen!!!

Ich kann mir nicht vorstellen das Nvidia soetwas abliefert. Damit macht man sich doch auf Jahre hin lächerlich.

Balla
2020-08-26, 18:23:28
Servus Zusammen,

ich habe hier kein Konto, aber auf Reddit gibts einen Link zum einem bekannten Twitterer, welcher von erheblich besserer Performance berichtet. Obs stimmt? Wir werden sehen ;)

https://www.reddit.com/r/nvidia/comments/igtu4k/kopite7kimi_update_the_benchmark_tse_3090fe_100/

Gast
2020-08-26, 19:07:34
Also wenn 35% mehr Leistung bei 35% mehr Verbrauch stimmen würden, müsste man davon ausgehen, dass nicht nur 10/8/7nm was auch immer verwendet wird, gegenüber 12nm gar nichts bringt sondern auch noch gleichzeitig keinerlei Effizienzverbesserungen in die Architektur geflossen sind.

Das beides zusammen der Fall ist scheint doch sehr unwahrscheinlich zu sein.

Irgendwie glaubwürdig erscheint da höchstens, dass die 35% sich auf unterschiedliche Performancebereiche beziehen.

Eine 3080 35% über einer 2080Ti hört sich schon glaubwürdiger an, oder aber die 35% beziehen sich auf nicht vollständig Grafiklimitierte Szenen beispielsweise in FullHd

Eldoran
2020-08-26, 19:22:18
Hier wird immer wieder Marketing und reale Werte bei den diversen Halbleiterverfahren von intel, TSMC und Samsung durcheinander geworfen.

Die Xnm Angaben haben mehr mit Marketing als mit sonst etwas zu tun. Rein von den Abmessungen ist der Beste Vergleich TSMC N7, Samsung LPP und intel 10nm. Da sind die Daten bis auf +-1% gleich. Ja Samsung schafft mit 7nm EUV nur die Daten von TSMC 7nm DUV!

Samsung 8nm ist eine Optimierung von 10nm und bringt 10% Fläche und 10% Verbrauch. Vermutlich wäre 9nm von den Daten her passender. Meiner Interpretation nach ist 8nm vergleichbar mit dem was GF bei 14nm zu 12nm gemacht hat. Etwas bessere Transistoren eine neue high density library die einen Fin/Transistor einspart. Der Effekt ist nebenbei eine ähnliche Kompatibitität mit 10nm Designs.
Allerdings hat Samsung beim BEOL auf quad patterning umgestellt, es sind feinere Leitungen möglich. Das ist alles nicht neu - seit zwei Jahren bekannt.

https://fuse.wikichip.org/news/1443/vlsi-2018-samsungs-8nm-8lpp-a-10nm-extension/
https://www.tomshardware.com/news/samsung-8lpp-process-production-ready,35721.html
https://www.anandtech.com/show/11946/samsungs-8lpp-process-technology-qualified-ready-for-production

BlacKi
2020-08-26, 20:03:38
Also wenn 35% mehr Leistung bei 35% mehr Verbrauch stimmen würden, müsste man davon ausgehen, dass nicht nur 10/8/7nm was auch immer verwendet wird, gegenüber 12nm gar nichts bringt sondern auch noch gleichzeitig keinerlei Effizienzverbesserungen in die Architektur geflossen sind.

Das beides zusammen der Fall ist scheint doch sehr unwahrscheinlich zu sein.

Irgendwie glaubwürdig erscheint da höchstens, dass die 35% sich auf unterschiedliche Performancebereiche beziehen.

Eine 3080 35% über einer 2080Ti hört sich schon glaubwürdiger an, oder aber die 35% beziehen sich auf nicht vollständig Grafiklimitierte Szenen beispielsweise in FullHd
der leaker berichtet ebenfalls davon das die performance in Timespy und TSE zwischen den generationen abweicht. ein generelles +35% ist wohl genauso falsch wie eine generelle +50% einordnung.

Gast
2020-08-26, 20:44:54
Angeblich ist die Slide von Rambus (https://www.eeweb.com/profile/scharag/articles/high-bandwidth-memory-ready-for-ai-primetime-hbm2e-vs-gddr6):
https://cdn.eeweb.com/articles/sac0001-01-comparison-of-hbm2eand-gddr6-drams-for-ai-applications.jpg

Wenn wir mal mit den 2,5W pro Chip rechnen, wären 12 Chips schon 50W.
Den letzten Satz musst du mir mal erklären. 12x 2,5 ist also 50?

RLZ
2020-08-26, 22:06:32
Den letzten Satz musst du mir mal erklären. 12x 2,5 ist also 50?
Ok Brainfart :freak:
30W