PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Angeblich allererste technische Daten zu nVidias Ampere-Generation


Leonidas
2019-11-12, 19:53:39
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-angeblich-allererste-technische-daten-zu-nvidias-ampere-generation

Gast
2019-11-12, 20:10:18
Wenn man bedenkt wie groß die Turing Chips sind durchaus machbar ,mit 7nm EUV mitte 2020 sollten sich auch die Kosten im ( hohem ) Rahmen halten.

Die Frage nach dem Leistungsplus welches wir zu welchem Preis bekommen wird sich auch danach richten ob AMD auf NAVI nochmal 50% drauflegen kann ohne den Verbrauch zu steigern was für mich fraglich ist weil man selbst mit einem Fullnodesprung auf 7nm + neuer Navi Arch nichtmal an 12nm Turing vorbei kam.

basix
2019-11-12, 20:17:49
bei einem Grafikchip mit angenommen +60% mehr Shader-Einheiten gäbe es dann also +120% mehr Tensor-Cores.

Adam Riese sagt: +220% Tensor Cores :D --> (1.6*2 - 1)*100 = 220

Gast
2019-11-12, 23:29:53
Treffen all diese Vorhersagen & Annahmen halbwegs zu, gibt es mit der Ampere-Generation voraussichtlich ein reguläres Performance-Plus von (im Schnitt) +50% bis +70%, bei der RayTracing-Performance allerdings eher +100% bis +150%. In letzterem Punkt könnte eventuell noch mehr drin sein – dies hängt an der Steigerung der RayTracing-Einheiten, welcher als wesentlicher Punkt der Hardware-Spezifikationen nicht genannt wurde. In jedem Fall läuft es allerdings darauf hinaus, das trotz vielleicht "nur" einem Plus von 30-70% bei den Shader-Einheiten aufgrund der stärker steigenden Aufwendungen für Tensor- und RayTracing-Cores trotzdem nahezu eine Verdopplung der Transistoren-Anzahl erwartet werden kann – was früheren großen Generations-Sprüngen entspricht..

Wie kommst du darauf? 16 versus 7nm bringt ein Performanceplus von ca 30%. Gehen wir von nVidias 12nm FFN aus trifft das wahrscheinlich nicht mal zu. Die Areareduction gilt vermutlich nur für klassische Shadereinheiten (Transistoren), aber nicht für Tensor und RT Cores die viel mehr Fläche brauchen und niemand kann dir sagen wie weit diese geshrinkt werden können. Was willst du dann für so ein Ding mit 6-7T Einheiten unter 7nm+ bezahlen=2500$? Schon die Wafer kosten doppelt so viel und nVidia braucht dann noch selektierte. Unglaubhaft was du schreibst.

Leonidas
2019-11-13, 03:29:12
Adam Riese sagt: +220% Tensor Cores :D --> (1.6*2 - 1)*100 = 220


Nö. Die Angabe +60% war ja schon ohne Basiswert. Die reine Verbesserung liegt bei +120% (meine Aussage), nur der Insgeamt-Werte bdann bei 220% (Deine Aussage).




Wie kommst du darauf? 16 versus 7nm bringt ein Performanceplus von ca 30%. Gehen wir von nVidias 12nm FFN aus trifft das wahrscheinlich nicht mal zu. Die Areareduction gilt vermutlich nur für klassische Shadereinheiten (Transistoren), aber nicht für Tensor und RT Cores die viel mehr Fläche brauchen und niemand kann dir sagen wie weit diese geshrinkt werden können. Was willst du dann für so ein Ding mit 6-7T Einheiten unter 7nm+ bezahlen=2500$? Schon die Wafer kosten doppelt so viel und nVidia braucht dann noch selektierte. Unglaubhaft was du schreibst.


Gaaanz so schlecht ist es nun auch wieder nicht. Immerhin ist es ein doppelter Fullnode-Sprung von 16nm auf 7nm. Also wenn da keine Verdopplung mehr drin ist, dann können die Chip-Entwickler gleich ganz aufhören. Und nebenbei: Die 30% Performanceplus sind nicht die relevante Größe. Relevant ist wieviel mehr Transistoren man unterbekommt und ob man dies möglichst Energieneutral schafft. Für letzteren Punkt läßt man dann gern die theoretischen Taktraten-Vorteile saußen.

Gast
2019-11-13, 07:52:00
Ich frage mich gerade, wie viel die Dinger dann kosten werden... Bei den Gaming Lösungen wechselt man von 12 auf 7nm, da spart man also wohl nicht zu viel Fläche ein. Zusammen mit den Preisen für EUV 7nm und den deutlich gewachsenen Chips, dürften die Preise mal wieder deutlich nach oben gehen...
Den Sinn von GA101 verstehe ich nicht, da wäre es doch für NV sinnvoller, GA102 oder GA104 zu verwenden.

matty2580
2019-11-13, 08:04:58
Der "Leak" ist unterm Strich sehr schwammig.
Einzig das Nvidia 5 GPUs für Gaming bei Samsung einplant bleibt dann übrig.

Das allein wäre aber schon sehr merkwürdig, da TSMC dann vom Volumen her deutlich kleiner ist als Samsung, und Samsung der neue Hauptfertiger für Nvidia wäre.

Dazu kommen Gerüchte das Nvidia Ampere um einige Monate nach Hinten verschoben hat, und die Gaming Amperes "erst" zur Computec vorgestellt werden sollen:
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/RTX-3000-Analyst-will-Ampere-Termine-1336819/

Aber egal wie, AMD hat mit Navi nur ein kleines Zeitfenster bis Nvidias Ampere kommt, und Navi wieder deutlich deplatzieren wird. Und Navi ist (leider) sehr preisstabil geblieben bis heute. Diese P/L-Klasse bot schon Nvidia mit Turing über ein Jahr früher an, und zusätzlich mit speziellen RT-, und Tensorcores.

AffenJack
2019-11-13, 08:57:06
Nö. Die Angabe +60% war ja schon ohne Basiswert. Die reine Verbesserung liegt bei +120% (meine Aussage), nur der Insgeamt-Werte bdann bei 220% (Deine Aussage).


Er hat schon recht, deine Rechnung ist falsch. 100% Ausgangswert x2 wegen Verdopplung pro SM= 200% x 1,6 = 320%, 220% Steigerung.

Was mir noch einfällt, der Twitterer hatte auch geposted, dass GA100 wieder im 800mm² Bereich ist. Davon ausgehend würde ich GA101 auch eher als Risikominimierung sehen, falls man die Fertigung von GA100 nicht hinkriegt und er sich nach hinten verschiebt. In AI Workloads wäre selbst GA101 stärker und vor allem auch deutlich effizienter als GV100. Ein Canceln von GA101 würde dagegen darauf hindeuten, dass GA100 im Plan ist und man zuversichtlich ist. Alles natürlich nur unter der Annahme, dass sein Zeug stimmt.

Deine Annahmen für GA102 usw halte ich für ziemlich optimistisch, da man nicht wieder mit so großer Diesize wie gerade ankommen wird. Ich rechne mit maximal 6k Shadern, eher sogar weniger, aber dafür nur ein 500mm² GA102, statt 750mm² gerade.


Das allein wäre aber schon sehr merkwürdig, da TSMC dann vom Volumen her deutlich kleiner ist als Samsung, und Samsung der neue Hauptfertiger für Nvidia wäre.

Dazu kommen Gerüchte das Nvidia Ampere um einige Monate nach Hinten verschoben hat, und die Gaming Amperes "erst" zur Computec vorgestellt werden sollen:
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/RTX-3000-Analyst-will-Ampere-Termine-1336819/


Samsung als Hauptfertiger für Nvidia bei 7nm war doch schon ewig zu hören gewesen. Weiß nicht, was daran merkwürdig sein soll. Ich würde aber auch wetten, dass daraus die Verschiebung (falls es eine gibt) entspringt. Man verschiebt keine Produkte, wenn die neuen fertig sind. So gut läuft Turing nicht. Wahrscheinlicher ist, dass Samsung die Fertigung noch nicht auf Reihe kriegt. Dazu hört man auch die ganze Zeit was, dass Samsungs 7nm EUV noch nicht toll laufen.

Mr.Smith
2019-11-13, 11:55:31
Umso früher die kommen, umso wärmer muss AMD sich anziehen oder gar ganz ausziehen :D

Leonidas
2019-11-13, 15:16:22
Adam Riese sagt: +220% Tensor Cores :D --> (1.6*2 - 1)*100 = 220

Er hat schon recht, deine Rechnung ist falsch. 100% Ausgangswert x2 wegen Verdopplung pro SM= 200% x 1,6 = 320%, 220% Steigerung. .



Ihr habt völlig Recht. Mein Gedankenfehler. Gefixt.

Lowkey
2019-11-13, 15:19:04
Leonidas könnte unter seinem Pseudonym XerXes ein Gerücht über die kommende Ampere Generation schreiben und dermaßen über 20+ Seiten detailreich ausführen, dass die ganze Welt am Ende glaubt, dass es echt sei und am Ende selbst Nvidia Teile der Ausführung übernimmt ;)

Gast
2019-11-13, 15:50:43
Wenn man bedenkt, dass Turing gerade mal die RT-Performance einer 3 Jahre alten 28nm Smartphone-GPU (https://www.imgtec.com/blog/imagination-technologies-the-ray-tracing-pioneers/) bei 100-fachem Verbrauch erreicht, wäre diesbezüglich mit qualitativen Verbesserungen der RT-Cores am meisten zu erreichen.

Gast
2019-11-13, 18:05:40
Wenn man bedenkt, dass Turing gerade mal die RT-Performance einer 3 Jahre alten 28nm Smartphone-GPU (https://www.imgtec.com/blog/imagination-technologies-the-ray-tracing-pioneers/) bei 100-fachem Verbrauch erreicht, wäre diesbezüglich mit qualitativen Verbesserungen der RT-Cores am meisten zu erreichen.

Der Imtec Chip ist zur RTX aber Vaporware, da kann man viel behaupten weil es sich nicht prüfen lässt ,ein Upscaled Sample mit gleichbleibenden bzw linear skalierenden Verbrauchseigenschaften als Demonstrator gibts meines Wissens auch nicht ?
Mag ja sein das IMG es besser als NV gekonnt hätte , haben sie oder etwaige Partner aber nicht.

Gast
2019-11-13, 21:16:03
Immerhin ist es ein doppelter Fullnode-Sprung von 16nm auf 7nm.


Nicht wirklich, es sind eher 1,5 Fullnodes, weder 14/16 auf 10 noch 10 auf 7 waren echte Fullnodes.

Die 30% Performanceplus sind nicht die relevante Größe.


Die sind durchaus relevant, man bekommt zwar locker die 3-Fache Transistorenanzahl auf gleicher Fläche unter, die brauchen aber nicht pro Schaltvorgang nur mehr 1/3 Strom.

Auch wenn wir davon ausgehen, dass Ampere wohl deutlich kleiner als Turing sein wird, können wir wohl mindestens eine Verdopplung der Transistoren erwarten. Nur zu einem deutlich höheren Verbrauch, wenn man nicht anderwertig was unternimmt.

Gast
2019-11-13, 23:42:55
Der Imtec Chip ist zur RTX aber Vaporware, da kann man viel behaupten weil es sich nicht prüfen lässt ,ein Upscaled Sample mit gleichbleibenden bzw linear skalierenden Verbrauchseigenschaften als Demonstrator gibts meines Wissens auch nicht ?
Mag ja sein das IMG es besser als NV gekonnt hätte , haben sie oder etwaige Partner aber nicht.

IMG hat es nicht einfach behauptet, sondern demonstriert (https://www.youtube.com/watch?v=ND96G9UZxxA&t=120). Bereits 2016 reichte es immerhin schon für rauschfreie 20fps in 1080p (100% raytraced) (https://www.youtube.com/watch?v=uxE2SYDHFtQ).
Der Grund dafür, dass es diesen Raytracer im Gegensatz zum Vorgänger nicht zu kaufen gab, ist das zweifelhafte Geschäftsgebaren von Apple. Dadurch hat IMG die Hälfte seiner Einnahmen verloren. Unabhängig davon sieht man aber schon am geringen Vorsprung gegenüber Pascal, dass die RT-Performance von Turing für dedizierte Hardware schlecht ist:
"In our testing, the RTX 2080 Ti scored 360 in Octane bench, almost 80% faster than the GTX 1080 Ti. Without RT acceleration, the RTX 2080 Ti is about 40% faster than the GTX 1080 Ti on CUDA core performance alone."
https://www.forbes.com/sites/moorinsights/2018/09/25/nvidia-geforce-rtx-2080-2080-ti-very-fast-with-untapped-potential/

Von dedizierter Hardware kann man viel mehr erwarten. Insbesondere wenn man bedenkt, dass Nvidia dafür mehr Zeit und ein Vielfaches an Ressourcen zur Verfügung hatte als IMG. Da ist also noch viel Luft nach oben und es würde mich nicht überraschen, wenn AMD und Intel das besser hinbekommen als Nvidia. Schlechter geht es schließlich kaum bzw. kann man sich die RT-Cores dann gleich sparen.

Leonidas
2019-11-14, 02:54:35
Nur zu einem deutlich höheren Verbrauch, wenn man nicht anderwertig was unternimmt.


... das ist heutzutage eben einfach nicht mehr drin. Jegliche Elektrischen Vorteile gehen heutzutage immer sofort darin, den Verbrauch zu begrenzen, damit man das Transistoren-Budget ausspielen kann. Schafft man das nicht, muß man sich bei den Transistoren begrenzen.

Gast
2019-11-14, 10:03:04
IMG hat es nicht einfach behauptet, sondern demonstriert (https://www.youtube.com/watch?v=ND96G9UZxxA&t=120). Bereits 2016 reichte es immerhin schon für rauschfreie 20fps in 1080p (100% raytraced) (https://www.youtube.com/watch?v=uxE2SYDHFtQ).
Der Grund dafür, dass es diesen Raytracer im Gegensatz zum Vorgänger nicht zu kaufen gab, ist das zweifelhafte Geschäftsgebaren von Apple. Dadurch hat IMG die Hälfte seiner Einnahmen verloren. Unabhängig davon sieht man aber schon am geringen Vorsprung gegenüber Pascal, dass die RT-Performance von Turing für dedizierte Hardware schlecht ist:
"In our testing, the RTX 2080 Ti scored 360 in Octane bench, almost 80% faster than the GTX 1080 Ti. Without RT acceleration, the RTX 2080 Ti is about 40% faster than the GTX 1080 Ti on CUDA core performance alone."
https://www.forbes.com/sites/moorinsights/2018/09/25/nvidia-geforce-rtx-2080-2080-ti-very-fast-with-untapped-potential/

Von dedizierter Hardware kann man viel mehr erwarten. Insbesondere wenn man bedenkt, dass Nvidia dafür mehr Zeit und ein Vielfaches an Ressourcen zur Verfügung hatte als IMG. Da ist also noch viel Luft nach oben und es würde mich nicht überraschen, wenn AMD und Intel das besser hinbekommen als Nvidia. Schlechter geht es schließlich kaum bzw. kann man sich die RT-Cores dann gleich sparen.

Ja sieh haben einen mobil Chip demonstriert wenn ich deinen Verlinkungen folge , wie die Geschichte in desktop Dimensionen ausschaut lässt sich nur spekulieren .

Wenn jemand performanteren fix Funktion Units mit der nächsten gen um die Ecke kommt umso besser , ich hoffe nur man einigt sich auf DXR oder einen anderen STD.

Gast
2019-11-14, 19:12:23
Ja sieh haben einen mobil Chip demonstriert wenn ich deinen Verlinkungen folge , wie die Geschichte in desktop Dimensionen ausschaut lässt sich nur spekulieren .

Wenn jemand performanteren fix Funktion Units mit der nächsten gen um die Ecke kommt umso besser , ich hoffe nur man einigt sich auf DXR oder einen anderen STD.
Kommt ga100 mit hbm? Was glaubt ihr?

Leonidas
2019-11-15, 03:49:25
Da GV100 auch HBM hatte - ganz sicher. In der Sphere spielt Geld keine Rolle, aber mit GDDR6 kommt man nicht auf die Bandbreiten und der Strombedarf von GDDR6 würde arg limitieren.

Die Frage ist eher: HBM erstmals auch bei Gaming-Grafikkarten?