PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse nVidia GeForce RTX 3080


Leonidas
2020-09-22, 10:01:21
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-3080

madshi
2020-09-22, 11:00:00
Thanks! :-)

Meiner Meinung nach kann die Anzahl der Tensor-Cores allerdings nicht stimmen. Deiner Tabelle nach soll sich die quasi halbiert haben. Gleichzeitig sagt Nvidia aber, daß der Tensor-Performance up to 2x schneller ist - aber nur bei Sparsity. Ohne Sparsity sagt Nvidia, daß sich die Tensor-Performance quasi nicht verändert hat. Wie kann es dann sein, daß sich die Anzahl der Tensor-Cores halbiert hat? Das macht keinen Sinn...

Leonidas
2020-09-22, 11:05:18
Nominell halbiert. Dafür mehr Power in den Cores selber. Die reine Anzahl stimmt also. Es ist halt nicht gegenüber Turing in der Anzahl vergleichbar, nur innerhalb der Ampere-Generation vergleichbar.

madshi
2020-09-22, 11:10:13
P.S: Hab grad rausgefunden, daß die Tensor Cores bei Ampere anders funktionieren. Siehe hier:

https://www.tomshardware.com/news/nvidia-geforce-rtx-3080-review

Turing's tensor cores used 4x4x4 matrices, while the GA100 uses 8x4x8 matrices.

Also stimmt die Anzahl der Tensor-Cores in Deiner Tabelle wohl doch. Allerdings erreichen die Ampere Tensor-Cores aufgrund der größeren Matrix die doppelte Performance pro Core, was dann die geringere Anzahl der Cores genau wieder ausgleicht.

Troyan
2020-09-22, 11:12:15
TensorCores bei Gaming-Ampere können 128 FMA Operationen ausführen. Das ist 2x mehr als bei Turing. Daher sind die TensorFLOPs ohne Sparsity identisch zu Turing.

y33H@
2020-09-22, 11:28:11
Warum fehlt Golem bei 1440p und 1080p trotz 10 Spielen?

L.ED
2020-09-22, 13:15:33
Für um 500 Euro wärs aktuell sicher nen Ding (aka mit ach und krach und Augen zudrücken, Fair für alle), aber SO, NEee lass mal! :crazy2:

Platos
2020-09-22, 13:33:45
Die Leistung ist schon ok. Fast doppelte Perfomance zur 1080Ti. Bin gespannt, wie viel dann die höheren Speicherversionen kosten.

Und interessant zu sehen, wie sehr die CPU ein Bottleneck ist.

Interessant wäre nun, ob bei höheren Auflösungen wie 4k der Abstand noch grösser wird.

Leonidas
2020-09-22, 14:42:32
Warum fehlt Golem bei 1440p und 1080p trotz 10 Spielen?


Weil ich Doofdino den indirekten Index zu spät gesehen habe.

PS: Sehr nervend, auf Golem jeden Tag den Cookies erneut zustimmen zu müssen. Das fördert meine Bereitschaft zur Datenauswertung überhaupt nicht.

von Richthofen
2020-09-22, 15:02:31
Die Betrachtung der 3080 gefällt mir hier besser als in so manchem Review, welche sich oft nahe einer nV-schen Werbebroschüre lesen (CB). Die Tabellen auf Seite 3 bieten echten Wert und reichen für einen schnellen Überblick vollkommen aus.
Bei der Erwähnung des Listenpreises könnte man vllt. noch die nicht so kleine Wahrscheinlichkeit der Anschaffung und der damit verbundenen Kosten für ein neues Netzteiles aufaddieren. Bei PCGH gab es Probleme mit 750W und gar 850 Watt starken Netzteilen.

Wenn ich mir die Performance/Watt so anschaue dann könnte AMD hier vllt. einen Stich machen, falls es tatsächlich gelingt wie angekündigt +50% auf RDNA1 draufzulegen. Selbst im ungünstigsten Fall müsste man locker vor den (großen) Amperes herauskommen. Das sagt natürlich nichts zur absoluten Performancehöhe aus.

Flusher
2020-09-22, 15:27:53
Besten Dank Leo für die super Launch Analyse. :up:

Jetzt muss das Ding nur noch lieferbar sein

maximus_hertus
2020-09-22, 15:39:01
Danke für die tolle Analyse. Alles kompakt und übersichtlich, Top!

MD_Enigma
2020-09-22, 18:13:11
Wie gewohnt super Arbeit und nichts als die Wahrheit :)

Gast_16
2020-09-22, 18:32:21
Genau für solche Analysen benötigt die Welt das 3DCenter. Und nun lässt sich das Produkt endlich in den Markt einordnen.

Gast
2020-09-22, 18:42:58
Danke, super Beitrag!

Gast
2020-09-22, 19:32:35
Fasst den Stand gut zusammen.
Die Karte ist halt heiss. Sowohl im Guten wie Schlechten. Entsprechend die Nachfrage.
Nvidia hätte nicht übertreiben sollen. Kommt nicht gut an.
Wenn der FP32-Anteil in Games wirklich steigt, wird der Vorsprung noch größer werden. Wenn nicht - auf Sand gebaut.
Was wäre gar mit 7nm TMSC statt 8nm Samsung drin gewesen.
Bin sehr auf die 3070 gespannt. Die 3080 bietet besseres P/L als selbst RX5700XT. Die Daten laut Nvidia sprechen für 3080 statt wie zu erwarten wäre 3070 (und kleiner).

Kulasko
2020-09-22, 21:12:02
Mir stößt es doch etwas auf, dass einfach ohne Test ein CPU-Limit in niedrigeren Auflösungen als Fakt verbreitet wird. Klar mag es so sein, es kann aber auch daran liegen, Dass Ampere aufgrund der massiv gestiegenen Shaderleistung einfach ein zu klein dimensioniertes Frontend besitzt. Erinnert sich noch jemand an Fiji/Fury (X)? Das war auch kein CPU Limit in FullHD.

von Richthofen
2020-09-22, 21:56:16
Mir stößt es doch etwas auf, dass einfach ohne Test ein CPU-Limit in niedrigeren Auflösungen als Fakt verbreitet wird.
Hier ist ein Test: https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Specials/Welche-CPU-Benchmarks-1357771/

y33H@
2020-09-22, 22:19:28
Mir stößt es doch etwas auf, dass einfach ohne Test ein CPU-Limit in niedrigeren Auflösungen als Fakt verbreitet wird. Klar mag es so sein, es kann aber auch daran liegen, Dass Ampere aufgrund der massiv gestiegenen Shaderleistung einfach ein zu klein dimensioniertes Frontend besitzt. Erinnert sich noch jemand an Fiji/Fury (X)? Das war auch kein CPU Limit in FullHD. Unrealistisch wenn andere Karten ins selbe CPU-Limit laufen.

Leonidas
2020-09-23, 03:52:56
Mir stößt es doch etwas auf, dass einfach ohne Test ein CPU-Limit in niedrigeren Auflösungen als Fakt verbreitet wird. Klar mag es so sein, es kann aber auch daran liegen, Dass Ampere aufgrund der massiv gestiegenen Shaderleistung einfach ein zu klein dimensioniertes Frontend besitzt. Erinnert sich noch jemand an Fiji/Fury (X)? Das war auch kein CPU Limit in FullHD.


Du hast Recht. Mehr Shader-Power, gleiches Frontend. Muß ich zukünftig als potentielles Problem mit beachten.

Gast
2020-09-23, 15:57:18
Gab es irgendwo einen Test mit dem Brigade-Renderer (https://www.youtube.com/watch?v=BpT6MkCeP7Y)? Zwei RTX 3080 sollten für ~40 Rays pro Pixel mit 720p@30fps reichen.

Leonidas
2020-09-23, 16:51:42
Es wurden glaube ich nur echte Spiele durchgetestet.

Knuddelbearli2
2020-09-23, 18:38:07
Da der Skalierungs-Verlauf bei kleineren Grafikkarten ergo "normal" ist und nur die GeForce RTX 3080 derart schwach speziell unter der WQHD-Auflösung skaliert, deutet dies wohl darauf hin, dass die GeForce RTX 3080 schon unter der WQHD-Auflösung maßgeblich CPU-limitiert ist. "Maßgeblich" bedeutet natürlich nicht "vollumfänglich" oder auch nur in der Nähe davon – aber man büßt halt schon unter WQHD grob ein Drittel dessen ein, was an Mehrperformance gegenüber der GeForce RTX 2080 Ti möglich wäre – womit die Ampere-Karte (mit Augenzudrücken) in die Reichweite von massiv übertakteten Ausführungen der GeForce RTX 2080 Ti gerät. Wahrscheinlich ist dies nicht der Fehler der GeForce RTX 3080, sondern hängt wirklich an der derzeit zur Verfügung stehenden CPU-Performance. Aber zumindest darf man dies als letzten Hinweis darauf betrachten, die GeForce RTX 3080 als reine 4K-Grafikkarte anzusehen.


Kann das nicht an der Rohleistung liegen? 4K kann die reine Rohleistung vs Logik drum herum besser auslasten.

War doch bei AMD auch immer so das man unter 4k deutlicher näher an NV rankam als unter FullHD und 1440p

Gast
2020-09-23, 20:38:52
Mir stößt es doch etwas auf, dass einfach ohne Test ein CPU-Limit in niedrigeren Auflösungen als Fakt verbreitet wird.

Schon die 2080Ti kann unter 4k Ihre Leistung nicht vollständig entfalten, dass jetzt eine signifikant schnellere Karte noch mehr limitiert wird ist nur die logische Folge und kann gar nicht anders sein.

Auch die aufwändigen RT-Spiele zeigen dass es eben nicht an der Auflösung ansich liegt

Gast
2020-09-23, 20:44:38
Die von der GeForce RTX 3080 erreichte Energieeffizienz (schlicht der Schnitt aus UltraHD/4K-Performance per Watt) ist immer noch bemerkbar höher als bei den vorherigen Turing-Grafikkarten oder gar AMDs Angeboten. Während nVidia allerdings vorab vollmundig von einer um +90% besseren Energieeffizienz zwischen Turing & Ampere gesprochen hat, so stellt sich im direkten Vergleich von GeForce RTX 2080 und GeForce RTX 3080 auf Basis unabhängiger Benchmarks und Stromverbrauchs-Messungen nur ein Energieeffizienz-Vorteil von +19% ein. Dies ist schon sehr krass abweichend von nVidia eigener Vorhersage – und wenn nVidia dies während seiner offiziellen Ampere-Vorstellung derart korrekt kommuniziert hätte, hätte sich manche überbordenden Performance-Erwartungen auch gleich gar nicht erst gebildet.

Im Gegensatz zu manch anderem Hersteller hat Nvidia ganz klar kommuniziert wie sie auf die +90% kommen und es war von Anfang an klar, dass es sich hier um einen Best-Case für Ampere handelt, und nicht nur das, es war sogar sofort ersichtlich, dass der Vorsprung in den realen Betriebspunkten wesentlich kleiner ist.
https://cdn.mos.cms.futurecdn.net/fgMEZrpT5yCXNJLZUv8ERe.jpg

Man kann Nvidia ja viel vorwerfen, aber dass sie zu viel versprochen haben, oder nicht ganz so positive Tatsachen verteckt haben sicher nicht.

Leonidas
2020-09-24, 05:41:00
Kann das nicht an der Rohleistung liegen? 4K kann die reine Rohleistung vs Logik drum herum besser auslasten.

War doch bei AMD auch immer so das man unter 4k deutlicher näher an NV rankam als unter FullHD und 1440p



Kann schon sein. Aber auch bei AMD war seinerzeit der Skalierungs-Verlauf gleichförmiger und nicht so klar abgestuft wie hier.





Im Gegensatz zu manch anderem Hersteller hat Nvidia ganz klar kommuniziert wie sie auf die +90% kommen und es war von Anfang an klar, dass es sich hier um einen Best-Case für Ampere handelt, und nicht nur das, es war sogar sofort ersichtlich, dass der Vorsprung in den realen Betriebspunkten wesentlich kleiner ist.
https://cdn.mos.cms.futurecdn.net/fgMEZrpT5yCXNJLZUv8ERe.jpg.


Man kann sicherlich viel durchgehen lassen. Aber kommunizierter Bestcase +90% und Realität +19% sind einfach eine zu massive Abweichung.

Wie sagte kürzlich so schön einer:
Unwahrheit gegenüber Konsumenten - scheiss drauf. Unwahrheit gegenüber Börsianern - führt vor die SEC (US-Börsenaufsicht).

y33H@
2020-09-24, 16:22:59
PS: Sehr nervend, auf Golem jeden Tag den Cookies erneut zustimmen zu müssen. Das fördert meine Bereitschaft zur Datenauswertung überhaupt nicht.Schick mir ne Mail, dann kriegen wir vll ein Abo für dich hin ;D

Gast
2020-09-24, 21:42:54
Man kann sicherlich viel durchgehen lassen. Aber kommunizierter Bestcase +90% und Realität +19% sind einfach eine zu massive Abweichung.



Wenn Nvidia einfach nur eine Zahl kommuniziert hätte ja.
Haben sie aber nicht, sie haben einen ganz genauen Graphen gezeigt, an dem jeder den für sich relevanten Fall heraussuchen kann.

Es gibt 2 Valide Möglichkeiten die Energieeffizienz zu vergleichen, entwerde man vergleicht den Verbrauch bei konstanter Performance, oder man vergleicht die Performance bei konstanter Leistung.

Nvidia hat den ersten Weg gewählt was völlig legitim ist.
Und beim umgekehrten Weg würden sich auch nicht soo schlecht dastehen, dann müssten sie nämlich Turing auf 320W Powerlimit bringen, und da skaliert Turing auch nicht mehr so wahnsinnig gut.

Was auf jeden Fall völlig daneben ist ist Turing und Ampere auf 2 komplett unterschiedlichen Betriebspunkten zu vergleichen, also Turing auf 260W und Ampere auf 320 W.

Ferenzo
2020-09-24, 23:01:04
Wie immer danke für den tollen Launch Artikel :up: