Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia gibt Details zum AD102-Chip und zur Ada-Lovelace-Architektur...


Leonidas
2022-09-22, 12:55:32
Link zur News:
https://www.3dcenter.org/news/nvidia-gibt-details-zum-ad102-chip-und-zur-ada-lovelace-architektur-bekannt

Update: Gab dann doch offizielle Werte zum L2-Cache, wurde eingearbeitet.

Gast
2022-09-22, 13:37:27
Hin oder her, für mich haben die trotz dieser Daten den Verstand verloren, es gibt kein Custom Design der 4090 und 4080 unter 3,15 Slots, 35cm und die GB 4090 Master schießt komplett den Vogel ab, 4,5+ Slots und wiegt 5kg!!!!

Die sind nicht ganz dicht. In welchen PC passen denn solche Abmaße, wer hängt denn 5kg an seinen PCIe Slot, für die Customs fordert man in vielen Fällen eine PSU mit min 1000w.

Mal eine ernstgemeinte Frage, an wen denkt den Nvidia und ihre Partner diese Karten zu verkaufen? Mal abgesehen von dieser extremen Materialverschwendung, der überzogenen Preissteigerung und dem massiven Ressoucenbedarf, ist der Formfaktor doch überhaupt nicht passend. Die Dinger sind noch größer als die letzte Gen. Sowas von bescheuert (sorry anders kann man diesen Wahnsinnn nicht mehr nennen), dass es schlimmer nicht mehr geht.

Sind die alle besoffen? Dann das ganze Gedöns und Geshroute mit tollen Marketingnamen wie Sharkcooler (lol) auf den Karten, was überhaupt nichts bringt ausser Blinkie und im Beispiel von Gigabyte dieser Displayschrott nicht mal richtig funktioniert und ständig abstürzt. Das sind komplette Kiddiedesigns für Preislagen die kein normaler Gamer mehr mitgehen kann.

Nvidia ist bei mir komplett raus, nach dieser Vorstellung. So ein Kindergartenverein man glaubt es kaum.

RTX4000 inklusive PC Gehäuse...sie brauchen nur noch ein 1000w Netzteil, dann könne sie die "Konsole" in Betrieb nehmen, die Abmaße sind gleich zur bekannten Konsolengen. Wooh Nvidia, was für eine tolle Leistung. So doof...und primitiv man glaubt es kaum. Ampere zeigte schon auf das 1000$ zuviel für eine Graka sind und die Abmaße vieler Customs nirgends mehr passen.

Redirion
2022-09-22, 13:47:08
Rechnet man hingegen ohne den stärkeren Shader-Clustern allein mit höherer Anzahl selbiger plus dem Mehrtakt, dann ist ein solches Performance-Ergebnis zumindest denkbar – wenngleich es gern auch etwas höher ausfallen kann, der Rohleistungs-Gewinn zwischen GeForce RTX 3090 Ti und 4090 liegt immerhin bei +106%.

und nicht zu vergessen den 12x so großen L2-Cache.

Für mich wirkt das gerade so, als würde Nvidia mit Ada die gleichen Probleme wie AMD damals mit Vega 10 bekommen. Massive Rohleistung, die aber nicht auf die Straße gebracht werden kann. Das SER klingt wie ein verzweifelter Versuch hier doch noch mehr Auslastung der Shadereinheiten zu generieren, so wie bei Vega damals mit dem gescheiterten Primitive Shader.

Ob wir eine Art "nVidia Fine Wine" erleben werden mit Ada durch Verbesserungen bei den Treibern?

Meridian12
2022-09-22, 13:54:48
Mal sehen ob in der Praxis bei normalen Tests ohne RT und DLSS wirklich noch 60-70% Mehrperformance übrig bleibt.

Mir kommt es aktuell so vor, als ob die Differenz da noch schlechter ausfällt und man deswegen quasi nichts ohne DLSS3 präsntierte und am Besten noch RT dazu.

Es kann doch nicht sein, dass man die schnellste Grafikkarte überhaupt präsentiert und dann quasi nur Ergebnisse mit Upscaler zeigt.

Kein Mensch benutzt einen Upsacler, wenn er eh mehr als genug Performance hat.

Upsacler benutzt man,wenn ohne es zu langsam ist.

Für mich hat da NVIDIA eher Anti Werbung betrieben. Wobei die 4090 natürlich dennoch die schnellste Karte auf dem markt sein wird.

Gast
2022-09-22, 14:01:09
und nicht zu vergessen den 12x so großen L2-Cache.


Bringt hauptsächlich nur eine Ersparnis an benötigter externer Bandbreite.


Für mich wirkt das gerade so, als würde Nvidia mit Ada die gleichen Probleme wie AMD damals mit Vega 10 bekommen. Massive Rohleistung, die aber nicht auf die Straße gebracht werden kann.


Ampere hat keine Probleme die Rohleistung auf die Straße zu bringen, und gleiches ist auch für Lovelace zu erwarten.

Dieses "Rohleistung nicht auf die Straße" bringen Märchen kommt lediglich durch eine Unterschätzung der Rohleistung von Turing bei Turing vs. Ampere.


Das SER klingt wie ein verzweifelter Versuch hier doch noch mehr Auslastung der Shadereinheiten zu generieren,


SER ist das Nvidia-Äquivalent von Intels TSU und wird größtenteils nur beim Raytracing was bringen.


Ob wir eine Art "nVidia Fine Wine" erleben werden mit Ada durch Verbesserungen bei den Treibern?

Unwahrscheinlich, mit der Nähe zu Ampere sollte dies zum Launch schon gut ausoptimiert sein, zumindest was Rasterizing betrifft.
Was SER betrifft könnte da schon einiges an Potential brachliegen, je nachdem wieviel davon tatsächlich in Hardware existiert und wieviel eigentlich Software ist, das betrifft aber wie gesagt fast ausschließlich Raytracing.

Daredevil
2022-09-22, 14:04:14
Für mich wirkt das gerade so, als würde Nvidia mit Ada die gleichen Probleme wie AMD damals mit Vega 10 bekommen. Massive Rohleistung, die aber nicht auf die Straße gebracht werden kann. Das SER klingt wie ein verzweifelter Versuch hier doch noch mehr Auslastung der Shadereinheiten zu generieren, so wie bei Vega damals mit dem gescheiterten Primitive Shader.

Ob wir eine Art "nVidia Fine Wine" erleben werden mit Ada durch Verbesserungen bei den Treibern?
Mit 3090 Ampere hat Nvidia ja auch schon das "Problem", das sie eben eher in hohen Auslastung glänzen statt bei FullHD, wo AMD deutlich besser performt.
Siehe hier z.B.
https://www.computerbase.de/2022-09/steelrising-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd

Erwähnenswert ist noch das in niedrigen Auflösungen in der „Open World“ des Spiels einsetzende CPU-Limit. Es beginnt auf GeForce-Grafikkarten deutlich eher als auf den Radeon-Pendants, in Full HD kann sich so die GeForce RTX 3090 Ti kaum noch von der GeForce RTX 3080 absetzen. Treibt man das Spielchen weiter und reduziert die Auflösung darüber hinaus, zeigt sich, dass die Radeons noch ganz normal bis hinab zu 720p skalieren, während die Nvidia-Ableger quasi bei 1.080p aufhören. Schneller wird es auch mit einem Core i9-12900K nicht mehr.


AMD kann sich in unteren Auflösungen mit RDNA2 sehr gut abheben, in höheren Konkurrieren sie zu ihrer Vorgänger Generation, erst ab 4K zeigt Ampere ordentlich Leistung.

* Ist jetzt wiederum der erste Test bei CB, der Grundtenot war bei Ampere aber schon immer, das die dickste Karte erst bei 4k glänzt.

Gast
2022-09-22, 14:09:57
AMD kann sich in unteren Auflösungen mit RDNA2 sehr gut abheben, in höheren Konkurrieren sie zu ihrer Vorgänger Generation, erst ab 4K zeigt Ampere ordentlich Leistung.
.

Ob es auf der ganzen Welt einen einzigen Spieler gibt, der sich eine 3090 gekauft hat um FullHD zu spielen?


Was bleibt bei der 4080 12GB / 4080 16GB als Mehrperformance übrig? Ohne DLSS?
50%?
Und das für 100% Aufpreis.
(3070 -> 4080 12, 3080 -> 4018 16)

Mehr als traurig.
Bin gespannt, wie sich das verkauft - wo man jetzt nicht mehr Kohle mit mining verdient.

Sweepi
2022-09-22, 14:17:27
Mit 3090 Ampere hat Nvidia ja auch schon das "Problem", das sie eben eher in hohen Auslastung glänzen statt bei FullHD, wo AMD deutlich besser performt.
...oder das AMD der Infinity Cache in 4k ausgeht

Platos
2022-09-22, 15:05:06
Jo, ist immer die eine oder andere Sache.

Um zu wissen, wer nun gegen oben hin die Schwäche hat oder ob der andere ein gegen unten hat, müsste man sie eig. mit den alten Karten vergleichen, die das noch nicht hatten.

Daredevil
2022-09-22, 15:08:00
Kannste ja bei CB, indem man Ampere und Turing vergleicht und RDNA2 und RDNA1. :)

Gast
2022-09-22, 15:25:03
In welchen PC passen denn solche Abmaße, wer hängt denn 5kg an seinen PCIe Slot, für die Customs fordert man in vielen Fällen eine PSU mit min 1000w.

Mal eine ernstgemeinte Frage, an wen denkt den Nvidia und ihre Partner diese Karten zu verkaufen? Mal abgesehen von dieser extremen Materialverschwendung, der überzogenen Preissteigerung und dem massiven Ressoucenbedarf, ist der Formfaktor doch überhaupt nicht passend.
Ja das ist zu vermuten, größer bedeutet heuer schneller. Nvidia und die Partner haben da komplett eine Trendwende verschlafen. Der Anwender sucht größtenteils weniger ist mehr, etwas langsamer aber sparsamer. Bekommt man eher von AMD als Nvidia.

Kauf dir einfach eine 3090ti: https://www.mindfactory.de/product_info.php/24GB-MSI-GeForce-RTX-3090-Ti-Black-TRIO-DDR6-V509-023R-retail_1452806.html

Ich vermute die wird billiger sein als die 4080 12g und bietet mehr speicher als die 4080 16g. Die kannste wunderbar undervolten dann passt auch der Cooler von MSI dazu. Die wird gut und gerne 5 Jahre reichen, wenn es unbedingt Nvidia sein muss. Sonst würde ich definitiv auf AMD warten. 4080 Leistung bieten die in jedem Fall.

Sonst kann man auch auf die 3090 gehen, habe eine FE bei ebay für 825 Euro im Sofortkauf geschossen, war nur ein Lüfter defekt, ist mir egal weil Custom-H²O. Das sind echt coole Preise. Lovelace ist mir egal. Ich mache es ab sofort wie früher, Vorgängergen und gut. Alles andere kann man nicht mehr mitgehen.

interzone
2022-09-22, 15:42:16
eine Karte in der Leistungsklasse, für 1100€ mit 12GB?
Diese Karten, komplett durch die Reihe, sind einfach zum abgewöhnen.
Es geht mir hier primär nicht um die Kohle, ich könnte sie mir problemlos leisten; die Karten sind abseits meiner Vorstellung von Vernunft.
Wenn so Fortschritt aussehen soll, dann mal gute Nacht!

Lehdro
2022-09-22, 15:44:30
Kannste ja bei CB, indem man Ampere und Turing vergleicht und RDNA2 und RDNA1. :)
Und was kam dabei heraus? Ampere ist die Abnormalität, nicht RDNA2. Also wird nicht etwa RDNA2 bei >1440p schwächer, sondern Ampere stärker. Luftpumpe: Ampere/Ada wirken tatsächlich wie GCN².

Quelle der Daten (https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/2/#abschnitt_benchmarks_in_3840__2160)
1080p
2080 TI FE -> 3090 = +28%
5700XT -> 6900XT = +69%
1440p
2080 TI FE -> 3090 = +39% (+39% relativ gesehen zur 1080p Skalierung)
5700XT -> 6900XT = +91% (+32% relativ gesehen zur 1080p Skalierung)
2160p
2080 TI FE -> 3090 = +45% (+15% relativ gesehen zur 1440p Skalierung)
5700XT -> 6900XT = +107% (+17,5% relativ gesehen zur 1440p Skalierung)

Gast
2022-09-22, 16:01:33
eine Karte in der Leistungsklasse, für 1100€ mit 12GB?
Diese Karten, komplett durch die Reihe, sind einfach zum abgewöhnen.
Es geht mir hier primär nicht um die Kohle, ich könnte sie mir problemlos leisten; die Karten sind abseits meiner Vorstellung von Vernunft.
Wenn so Fortschritt aussehen soll, dann mal gute Nacht!

Jepp, +50% Performance für +100% Preis.
Wenn das "wegen der Kosten" notwendig ist haben wir dann 2024 eine 5070 für 2200 Euro und 2026 eine 6070 für 4400 Euro.

Dann sollen sie ihre Forschung einstellen und nur noch beim existierenden Fertigungsprozess bleiben und den minimal verbessern.
Intel hat ja gezeigt, was man da rausholen kann.

Lieber habe ich +5% Performance bei gleichem Preis wie +50% Performance bei verdoppeltem Preis.

Es wäre schön, wenn AMD seine 7800 und 7800XT nur um 40% verteuern würde.
Das wären unter 1000 Euro für die 7800XT
Und 800 für die 7800.

40% Aufpreis wäre ja immer noch gewaltig - aber gegenüber den Nvidia Preisen wäre es gut.

Ich glaube aber nicht dran.

Daredevil
2022-09-22, 16:03:55
Und was kam dabei heraus?
Am Beispiel von Steelrising so, aber das habe ich ja oben auch verlinkt.
RDNA 2 kommt nicht vorwärts

Im Generationenvergleich zeigt sich dann auch, wo AMDs Problem entsteht. Denn während RDNA noch normal gegenüber dem Vorgänger GCN in Steelrising skaliert, legt die Radeon RX 6700 XT in WQHD nur um 13 Prozent gegenüber der Radeon RX 5700 XT zu, in AAA-Spielen sind es sonst 36 Prozent. Demzufolge beginnt AMDs FPS-Problem in Steelrising ab der RDNA-2-Generation, bis dahin gibt es nur die „gewöhnlichen Nachteile“ in der Unreal Engine 4. Die gute Nachricht ist, dass es bei den Perzentil-FPS deutlich besser aussieht, was der Spielbarkeit zugutekommt. Dennoch fällt das Ergebnis für AMD überraschend und ungewöhnlich schlecht aus.


But maybe the Wine is bad.

Geldmann3
2022-09-22, 18:13:42
Als hauptsächlicher Performance-Bringer quer durchs Chip-Portfolio agiert somit "nur" der durch den Wechsel auf Chipfertiger TSMC gewonnene Mehrtakt.

Dabei handelt es sich zwar um eine stark vereinfachte Darstellung, doch gut ausgedrückt! (y)

Gast
2022-09-22, 18:42:05
LOL, nun kommt die Kacke ans Tageslicht!

CB News:
1. Alben nennt eine Performanceverbesserung bei Raytracing-Programmen durch SER von 44 Prozent in Cyberpunk 2077 mit dem noch nicht verfügbaren Overdrive-RT-Preset, 29 Prozent in Portal RTX und 20 Prozent in Racer RTX.
2-fach und 4-fach hahahha...

2. So hat Nvidia eine Szene aus Cyberpunk 2077 mit einer GeForce RTX 4090 gezeigt, die mit DLSS 2 eine Framerate von 62 FPS mit einer Latenz von 58 ms aufweist. Mit DLSS 3 steigt die Framerate auf 101 FPS – entsprechend werden die zusätzlichen Bilder nicht klassisch berechnet, sondern von dem neuronalen Netzwerk per „Optical Multi Frame Generation“ erstellt. Die Latenz fällt zugleich auf einen Wert von 55 ms.

0,3ms besser lol, das liegt in der Messtoleranz...bei 50 Bildern auf die ich keinen Zugriff habe, weil sie gar nicht von der Engine ausgegeben werden, sondern irgendein AI Müll von der GPU sind und bei der Präsi einfach die Framerate hochhalten sollten und das noch im DLSS Performancemode.
-----------------------------------------------------------------------------------
Ähm Huang, der Abstand zur 3090/3090ti wird immer kleiner, gar für die 4080 und 4080 (was für eine blöde Entscheidung zwei karten mit identischem Namen) werden diese Dinger ohne diesen ganzen Mist hinter die 3090/ti zurückfallen und kosten genauso viel, wobei sie weniger VRAM haben.

Was für eine Katastrophe, was für ein Laden. 2 Fach? 4 Fach? LOL.

Die 12G wird in speicherlastigen Spielen einfach nur abkacken. 1150 ja du mich auch.

Mal ernsthaft gefragt, wo ist da der Fortschritt geblieben? 4nm, zwei Nodes übersprungen, das Design endlos aufgebläht und verteuert, dann so ein Mär erzählen.

Platos
2022-09-22, 19:19:45
Kannste ja bei CB, indem man Ampere und Turing vergleicht und RDNA2 und RDNA1. :)

Ja ich sage ja nur, dass man das so machen müsste, nicht dass du nicht recht hast :)

DSD512
2022-09-22, 19:42:15
Die einzig interessante Karte ist die 4090.
Da aber in ca. 12-18 Monaten eine 4090 Ti mit 18432 Cuda-Kernen nachgeschossen wird ...
warte ich ab.

Gibt derzeit kein Game, was mich zu einem GPU-Neukauf bewegen könnte.

13900K steht erstmal als nächstes an.
Das sind ja im Gegensatz zu den 4090-Preisen ja Peanuts. LOL.

Gast
2022-09-22, 20:21:14
Schade, dass nVidia sogar bei einer ~2000€ GPU auf Kosten der Effizienz beim Speicher spart. Mit HBM Speicher @1,5TB/s wäre die 4090 deutlich sparsamer und kompakter bei gleicher Performance.:motz:

Gast
2022-09-22, 22:11:35
Autsch, also ein aufgeblasener Ampere für viel Geld. Habe ja einige vorausgesagt. Leider habt ihr immer daran festgehalten das es Steigerungen im Bereich FP32 gibt. Denke mal das waren alles Nebelkerzen um den Hype aufrecht zu erhalten. Denke mal wird nur für Hopper oder nachfolgend gelten. Jetzt weiss man auch warum DLSS3 Lovelace exklusiv ist. Die 3090 sähe nicht so viel schlechter aus. Wobei es auf DLSS2 aufsetzt. NVidia hält uns gerade wieder zum Narren.

Ist mir für das Geld zu wenig, Ich werde es wie die aussitzen. Wird wohl erst mit 3nm was.

Gast
2022-09-22, 23:13:57
...oder das AMD der Infinity Cache in 4k ausgeht
Wenn man einen Quervergleich mit der 2080TI macht, dann eben nicht. Turing skaliert ähnlich wie RDNA2, Ampere hat bei unter 4k erheblich weniger Abstand zu Turing.
Damit geht deine Theorie nicht auf. Nicht RDNA2 skaliert bei hohen Auflösungen schlecht, sondern Ampere bei niedrigen.

Korvaun
2022-09-23, 08:50:29
nV geht eindeutig in Richtung DLSS(3)+RT ist der Standardmodus, alles andere ist nicht wichtig. Ob das nun gut/schlecht muss jeder selbst entscheiden. Upscaling an sich finde ich ok wenn die Qulität nicht merklich leidet, RT ist auch ok wenn es besser aussieht und nicht zu viel Performance kostet. Natürlich ist beides zusammen dann absolut sinnvoll....

Platos
2022-09-23, 08:57:15
Ja, nur hat ja auch heute noch nicht jedes Spiel DLSS, also sieht das vlt. nvidia so, die Praxis aber nicht!

Da zählt weiterhin reine Rasterperfomance ohne RT und ohne DLSS mindestens so viel, wie eben mit.

Kriegsgeier
2022-09-23, 09:40:21
somit ist und bleibt das Überspringen einer Generation bei NVIDIA eine sehr weise Entscheidung!

Ende 2021 bin ich von einer Titan X (non Pascal, Quasi 1080Ti nur mit 12GB statt 11GB) auf die 3090 umgestiegen: sehr schöner Performancesprung + 24GB!

Nun wird auch die ADA übersprungen ;)

Exxtreme
2022-09-23, 09:47:33
Da zählt weiterhin reine Rasterperfomance ohne RT und ohne DLSS mindestens so viel, wie eben mit.

Ja, aber es ist so, dass von einer gesteigerten Rastersizer-Performance wohl nur ~3% der Spieler profitieren würden. Denn nur die fahren 8k-Auflösungen. Für 97% ist schon die RTX3090Ti reiner Overkill.

Platos
2022-09-23, 10:04:06
Ja, aber es ist so, dass von einer gesteigerten Rastersizer-Performance wohl nur ~3% der Spieler profitieren würden. Denn nur die fahren 8k-Auflösungen. Für 97% ist schon die RTX3090Ti reiner Overkill.

Ah ja, wie gut das jeder eine 3090Ti im Rechner hat :eek: Oh nein, warte, es gibt ja auch noch andere:eek:

Man kann davon ausgehen, dass auch die unteren Modelle nicht völlig aus der Bahn tanzen und da nicht voll auf Rasterperfomance setzen und somit eher wenig an Mehrperfomance bieten. Ebenfalls ist klar, dass auch die im Preis enorm ansteigen. P/L wird also nicht sonderlich steigen bei Rasterperfomance.

Also... Rasterperfomance ist weiterhin an erster Stelle für die restlichen "97%" der Spieler, die keine 3090Ti oder ähnliches haben;)

Gast
2022-09-23, 11:42:12
Wenn man einen Quervergleich mit der 2080TI macht, dann eben nicht. Turing skaliert ähnlich wie RDNA2, Ampere hat bei unter 4k erheblich weniger Abstand zu Turing.

Falsch. Schnellere Grafikkarten skalieren in höheren Auflösungen besser als in niedrigen, wie es schon immer der Fall gewesen ist.

Schnellere Ampere-Lösungen skalieren demzufolge auch besser in höheren Auflösungen als langsamere Turing-Lösungen wie es auch zu erwarten ist.

Um architekturbedingte Unterschiede in der Auflösungskalierung zu vergleichen, muss man Grafikkarten vergleichen die in beiden Architekturen ähnlich schnell sind.

Anbieten für diesen Vergleich würde sich 3070 und 2080Ti und nicht 2080Ti und 3090.

Und wenn man diese vergleicht sieht man zwischen Turing und Ampere eine sehr ähnliche Skalierung zwischen unterschiedlichen Auflösungen und keinesfalls signifikante unterschiede.

Das bedeutet natürlich auch dass 3080(Ti) und 3090(Ti) gegenüber der 3070 in höheren Auflösungen besser skalieren, wie man es auch erwarten kann.

Gast
2022-09-23, 11:46:48
Da zählt weiterhin reine Rasterperfomance ohne RT und ohne DLSS mindestens so viel, wie eben mit.

Man kann mit ziemlicher Sicherheit davon ausgehen dass die Rasterperformance von Lovelace ausreichend ist, das war sie eigentlich schon mit Turing.

Raytracing ist es was mehr Performance, und zwar wesentlich mehr Performance benötigt, nicht nur weil Raytracing in heutigen Spielen immer noch verdammt viel Leistung kostet, sondern vor allem auch weil es immer noch aus Performancegründen viel zu wenig einsetzbar ist.

Mit Lovelace und DLSS3 könnte endlich langsam der Punkt erreicht werden, an dem wir uns Raytracing nicht nur selektiv für einen einzelnen Effekt leisten können, sondern zumindest für alles bei dem Rasterizing signifikante Schwächen zeigt gleichzeitig eingesetzt werden kann.

Gast
2022-09-23, 11:48:38
somit ist und bleibt das Überspringen einer Generation bei NVIDIA eine sehr weise Entscheidung!


Das war eigentlich schon immer der Fall, ich habe eigentlich immer nur alle 2 Generationen zugeschlagen. Insofern würde es jetzt mal wieder Zeit, 2080Ti auf 4090 ist ein richtig mächtiger Performancesprung.

Sweepi
2022-09-23, 12:02:05
Wenn man einen Quervergleich mit der 2080TI macht, dann eben nicht. Turing skaliert ähnlich wie RDNA2, Ampere hat bei unter 4k erheblich weniger Abstand zu Turing.
Damit geht deine Theorie nicht auf. Nicht RDNA2 skaliert bei hohen Auflösungen schlecht, sondern Ampere bei niedrigen.

Bin gerade
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Grafikkarten-Leistung-2021-1366846/2/

durchgegangen: stimmt.


bis auf ein paar Randfälle (z.B. 2060 12GB vs 6600XT vs 3060 Ti, wo (entgegen dem allgemeinem Trend) der Vorsprung der 6600XT auf Turing mit steigender Auflösung kleiner während Ampere auf Turing lediglich minimal zulegt) scheint der Infinity Cache zumindest bei >= 6700 XT bis einschließlich UHD im Schnitt und auch in allen Einzelfaellen immer ausreichend, da Amperes Vorsprung auf Turing mit kleinerer Auflösung schrumpft, hingegen Turing vs RDNA2 (extrem!*) stabil ist.

*Bei PCGH 6700XT vs 2060 12 GB:
156% - 157% - 156% - 156% in FHD -WQHD - UWQHD - UHD

Platos
2022-09-23, 12:47:46
Man kann mit ziemlicher Sicherheit davon ausgehen dass die Rasterperformance von Lovelace ausreichend ist, das war sie eigentlich schon mit Turing.



Nicht wirklich. Es geht nicht immer um die Topmodelle. Im unteren Preisbereich kriegst du keine 1440p 144hz oder 4k60hz hin (max Details ohne RT& DLSS). Das ist auf Monitorseite aber mittlerweile überhaupt nicht mehr teuer, also eben genau im unteren Preisbereich. Man braucht aber ne fette, teure GPU dafür.

Solange nicht günstige Grafikkarten 4k60 ohne DLSS und ohne RT stemmen können, ist die Rasterperfomance noch nicht hoch genug. Es geht nicht um "Generationen", was nichts anderes wie das Maximum bzw. das Topmodell bedeutet. 3090Ti ist genug... Ja und jetzt? 99% oder mehr haben keine solche Perfomance. Auch keine 2080Ti Perfomance.

Völlig an der Realität vorbei, wie ich ja schon sagte. Aber du hast anscheinend meine anderen Komentare (noch) nicht gelesen.

Solange ne 200-300$ GPU nicht günstige Monitore voll ausfahren kann (1440p 144hz oder 4k60hz), ist noch nicht genug Rasterperfomance da.

Leonidas
2022-09-23, 12:51:41
Ja, mit IF$ kann es Dir passieren, dass die Skalierung unter WQHD am besten ist, weil für 4K der IF$ zu klein ist.

Sweepi
2022-09-23, 13:24:39
nVidias Q&A zu RTX4000:

https://www.reddit.com/r/nvidia/comments/xke2um/nvidia_geforce_beyond_community_qa_you_asked_we/

https://www.nvidia.com/en-us/geforce/news/rtx-40-series-community-qa/


Q: Why isn’t DisplayPort 2.0 listed on the spec sheet?

The current DisplayPort 1.4 standard already supports 8K at 60Hz. Support for DisplayPort 2.0 in consumer gaming displays are still a ways away in the future.

Aus der Spezifikation (https://www.dell.com/en-us/shop/alienware-34-curved-qd-oled-gaming-monitor-aw3423dw/apd/210-bcye/monitors-monitor-accessories#techspecs_section) des AW3423DW

Color Support
1.07 billion colors (1.07B up to 144Hz, 16.7M at 175Hz)

weil das verbaute G-Sync Ultra Bauteil weder DP 1.4 DSC noch DP 1.4a noch DP 2.0 kann.
Kommt jetzt 2022/23 noch ein neues G-Sync Ultra mit DP 1.4a (oder DP 1.4 + DSC), 4-6 Jahre nach dem der Standard rauskam?!
[oder gibt das schon, und DELL verbaut hier ein "altes" Bauteil?)

Oder bleibt dieses Limit bei G-Sync Ultra bis 2024 bestehen?

Platos
2022-09-23, 13:37:00
Die ganze Seite dort ist eh nur PR-Gelaber.


What makes the GeForce RTX 4080 16 GB and 12 GB graphics cards keep the same “4080” name if they have completely different amounts of CUDA cores and are different chips?

Link

The GeForce RTX 4080 16GB and 12GB naming is similar to the naming of two versions of RTX 3080 that we had last generation, and others before that. There is an RTX 4080 configuration with a 16GB frame buffer, and a different configuration with a 12GB frame buffer. One product name, two configurations.

:freak:

Sweepi
2022-09-23, 13:57:12
Nicht nur, das hier z.B. sind solide Infos:


Q: Any updates to NVDEC? Still reliant on either M1 or Quicksync for 10 bit 422 decode.

GeForce RTX 40 Series use the same NVIDIA Decoder as RTX 30 Series - 5th generation NVDEC. There is no support for 10-bit 4:2:2 decode.


Q: Will ShadowPlay benefit from the NVENC improvements and the addition of AV1 encoding?

ShadowPlay has been updated to make use of GeForce RTX 40 Series dual encoders, enabling ShadowPlay to record up to 8K60 HDR in HEVC. AV1 is not currently supported in ShadowPlay.

Aber ja, bei der 4080 Frage ein double-down auf Bullshit.
(Wobei ich die Sache an sich nicht sooo schlimm sehe - bevor mensch 900+ für eine GPU ausgibt, kann er ja mal kurz recherchieren. Es war schon immer ein Fehler "einen 'i7'" oder "eine 'xx60'" kaufen zu wollen, weil dass "meine Einkaufsklasse" ist. Der Produktname ist Teil der Marketings. Setzt dir ein Budget oder ein Performance-Ziel - und kaufe dann ein Produkt, was dazu passt. Je schneller das den Konsumenten in Fleisch und Knochen übergeht, desto besser).

Platos
2022-09-23, 14:27:01
Ja, informieren ist gut, aber man kann unmöglich überall bei jedem Gebrauchsgegenstand zum Hobby-Experten werden. "Man kann sich ja informieren" ist eine Floskel, die logisch betrachtet nicht über den ganzen Lebensbereich angewendet werden kann oder zumindest nicht von allen.

Man sollte also davon ausgehen dürfen, dass man nicht übers Ohr gehauen wird. Das sollte zumindest das Ziel sein.

Gast
2022-09-23, 15:05:50
Man sollte also davon ausgehen dürfen, dass man nicht übers Ohr gehauen wird. Das sollte zumindest das Ziel sein.
Bei Nvidia? Kundenverarsche ist deren zweiter Vorname! Sie machen munter so weiter. Das ist Teil ihrer Produktpolitik über Jahre und sie finden immer wieder genug Deppen die ihnen das abkaufen. Sorry, aber Nvidiakäufer sind in meinen Augen nicht besonders intelligent wenn es um deren Hardware geht. Erst wenn es in Foren von Spezies zur Feststellung von Missständen kommt, dann wird reagiert. Ansonsten wird alles blind gekauft was die raushaun.

Bei AMD wird durch dieses Klientel alles vorher genaustens abgeprüft und selbst wenn es besser wäre nicht gekauft, weil denen das Prestige fehlt. Dazu kommt es wird dann schlecht geredet, obwohl man es nie besessen oder ausprobiert hat. Das ist schon Doppelmopral vom feinsten. Nvidia weiß das sie damit durchkommen, was auch in diesem Fall wieder so sein wird. Deren Ruf ist denen scheißegal und sorgt noch für zusätzliche Publicity, wobei dann wesentlicher Teil der Vermarktungstrategie.

Ganz lustig find ich das im Zusammenhang mit DLSS3 die Hardwarekompatibilitätsseite von Nvidia Reflex gelöscht wurde, keine Inhalte mehr verfügbar.

Der Großteil weiß noch gar nicht, dass DLSS3 vor allem auf Reflexbasis beruht und man dafür zertifizierte Hardware braucht, die Nvidia eine weitere Einnahmequelle beschert. Ansonsten laggst du nämlich durchs Bild und sie sagen, ja tut mir Leid aber dann dann musst die Hardware kaufen die sich dazu eignet. Reflex ist nun standardisierter Anteil in DLSS3. Komisch vorher hat das kaum jemanden interessiert und Nvidia schrieb für die Entwicklung Miese. Die tun also nie etwas ohnen Hintergendanken, der Anwender ist dabei so blöd, dass er das nicht mal merkt und wird gezielt ausgenutzt.

Sweepi
2022-09-23, 15:07:57
Man sollte also davon ausgehen dürfen, dass man nicht übers Ohr gehauen wird. Das sollte zumindest das Ziel sein.
Solange mehr Bullshit = mehr Geld wird es immer mehr Bullshit geben, weil sich die entsprechenden Firmen am Markt besser durchsetzen und danach ihren Investoren/Eigentümern mehr Geld ausschütten können.

Einziges Gegenmittel: Der Gesetzgeber sorgt dafür das
mehr Bullshit = mehr Gefängnis/ höhere Geldstrafe als der Gewinn durch den Bullshit

Bei GPUs finde ich kann man das "mal informieren" Argument nach halbwegs bringen, in dem Makt können auch unbedarfte rausfinden, wieviel ein Produkt kostet und was es leistet - zumindest Vergleichsweise,
wenn ich jetzt z.B. an

- Weissware (Spuel-, Waschmaschinen, Trockner, Kühlschranke)
- Solarpanel
- Autos
- Klamotten
- Essen
- ...

da sind Preise, Performance, Upgrades, Rebrands, Garantie, Tests, z.t. sogar Specs! wesentlich unübersichtlicher und schwerer zu recherchieren.
Da ist ein Klammern/Anlehnen an Erfahrungen, Produktnamen & Marken nachvollziehbarer (aber hat natürlich auch hier Nachteile)

Gast
2022-09-23, 15:41:41
Hin oder her, für mich haben die trotz dieser Daten den Verstand verloren, es gibt kein Custom Design der 4090 und 4080 unter 3,15 Slots, 35cm und die GB 4090 Master schießt komplett den Vogel ab, 4,5+ Slots und wiegt 5kg!!!!

Die sind nicht ganz dicht. In welchen PC passen denn solche Abmaße, wer hängt denn 5kg an seinen PCIe Slot, für die Customs fordert man in vielen Fällen eine PSU mit min 1000w.

Mal eine ernstgemeinte Frage, an wen denkt den Nvidia und ihre Partner diese Karten zu verkaufen?

z.B. An mich , selbst die 4090er wird für DCS und MSFS zu lahm sein , aber wenigstens ein Schritt in die richtige Richtung, gekühlt wird seit der 8800 Generation bei mir eh mit Wasser --> MoRa hinter Wand in der Garage.

Stromverbrauch und Co. sind bei mir sekundäre Parameter beim GPU Kauf , was bringt es mir primär die effizienteste Karte zu kaufen wenn sie für meinen Bedarf dann zu lahm ist ?

Die Forderung nach einer Vervielfachung der Leistung bei gleichzeitiger Reduktion des Verbrauchs bei 1,5 Node sprüngen ist halt reine Utopie oder Wunschdenken.
Dabei wird vollkommen ignoriert das es sehr wohl deutliche Effiziensteigerungen im Rahmen der physikalisch und fertigungstechnischen Möglichkeiten diese Generation gibt.

Es ist eigendlich ganz einfach , wenn man sich und seinen Bedarf nicht als Zielgruppe für die RTX4090 sieht schaut man andere Karten an die evtl. besser auf die eigenen Anforderungen zugeschnitten sind ohne dabei seine Bedürfnisse als einzig mögliche auf alle potentiellen Kunden zu extrapolieren.

Gast
2022-09-23, 15:54:57
https://www.deraktionaer.de/artikel/medien-ittk-technologie/amd-spuckt-nvidia-in-die-suppe-20317722.html

Die Preise werden bald fallen. Die Aktionäre machen das schon. Wenn denen die Dividenden wegbrechen geht die Hölle los. Umsatz ist in Rezesionen immer noch eine gute Basis für einen hohen Kundenanteil. Die muss man halten, Gewinn oder Marge bis ins Letzte ist dabei nicht immer wichtig. Sonst bekommt man nachfolgende Produkte nicht mehr verkauft und der eigene (Markt-) Anteil sinkt auf Dauer, das ist viel schlimmer.

Nvidia müssen ihre Preisgestaltung überdenken, wenn möglich bevor AMD launcht.

Gast
2022-09-23, 16:06:06
https://www.deraktionaer.de/artikel/medien-ittk-technologie/amd-spuckt-nvidia-in-die-suppe-20317722.html

Die Preise werden bald fallen. Die Aktionäre machen das schon. Wenn denen die Dividenden wegbrechen geht die Hölle los. Umsatz ist in Rezesionen immer noch eine gute Basis für einen hohen Kundenanteil. Die muss man halten, Gewinn oder Marge bis ins Letzte ist dabei nicht immer wichtig. Sonst bekommt man nachfolgende Produkte nicht mehr verkauft und der eigene (Markt-) Anteil sinkt auf Dauer, das ist viel schlimmer.

Nvidia müssen ihre Preisgestaltung überdenken, wenn möglich bevor AMD launcht.

AMDs Preise werden sich nicht groß von NV unterscheiden solange man gleich leistungsfähige Produkte vergleicht siehe die letzen Generationen,
Die effizienteren Karten im voraus bei AMD zu sehen ist auch nicht sicher da der Fertigungsvorteil diese Gen nicht mehr gegeben ist.

Gast
2022-09-23, 16:22:08
Nvidia müssen ihre Preisgestaltung überdenken, wenn möglich bevor AMD launcht.

Weil es ja vollkommen ausgeschlossen ist, dass AMD seine Preise genauso erhöht?

Ich fürchte Nvidia hat sich was dabei gedacht - entweder weiß Nvidia, dass AMD die Preise auch verdoppelt, oder Nvidia gleicht es über Mehrperformance aus.
Ich tippe auf "AMD verdoppelt den Preis auch".


Dann bleibt natürlich die Frage, ob Nvidia und AMD zu diesen abartigen Preisen genug Käufer finden.

Aber ich muss immer lachen, wenn ich lese: Viel zu teuer, ich kaufe AMD.
Als ob AMD deutlich billiger wird...

Gast
2022-09-23, 17:03:37
Als ob AMD deutlich billiger wird...

Äääh - die waren die letzten 20 Jahre immer billiger bis heute???

Leonidas
2022-09-24, 05:10:15
Die Frage ist doch eher: Um wieviel wird AMD günstiger sein.

https://pbs.twimg.com/media/FdSuYP9WIAMLy2v.jpg

Gast
2022-09-24, 22:18:08
Und Gott sprach: Cache existiert nicht. Und wenn doch, ist er irrelevant.

OpenVMSwartoll
2022-09-25, 01:05:44
Cache for Cash?

Leonidas
2022-09-25, 07:12:14
Und Gott sprach: Cache existiert nicht. Und wenn doch, ist er irrelevant.

Gott musste inzwischen zugeben, dass AD102 immerhin 96MB L2-Cache hat.

Gast
2022-09-25, 07:31:56
Gott musste inzwischen zugeben, dass AD102 immerhin 96MB L2-Cache hat.
Dass das performancerelevant ist, schreibt Gott in den News weiterhin nicht.

Leonidas
2022-09-25, 07:40:32
Nein, natürlich nicht. Dann müsste man ja zugeben, das der Infinity Cache eine Innovation eines Wettbewerbers war. ;)

Gast
2022-09-25, 13:46:11
OK, ich geb's auf.
Leo, mit _keinem_ Wort gehst du auf Performance durch L2 ein. Der ist wohl überflüssig und nur zur Kühlung oder so. Bei Nvidia wie auch AMD.

Ich war fast zwei Wochen forums-abstinent. In nicht mal zwei Tagen habe ich mich so viel aufgeregt, dass ich es wohl dabei belassen werde.

Leonidas
2022-09-25, 17:05:19
Sorry, wir haben uns hier augenscheinlich mißverstanden. Du wolltest wohl wirklich darauf hinaus, dass ich nix zur Performance des L2-Caches gesagt habe - das habe ich nicht so realisiert (dass Du das wolltest).

Zum Thema Performance des L2: Es gibt die Twitter-Aussage, dass dies 10% kostet. Ok, und das war es dann. Natürlich wird es einen Performance-Effekt haben, aber warum sollte ich jetzt spekulieren? Die Performance der RTX4090 steht für sich bzw. ergibt sich spätestens zum 12. Oktober.

Gast
2022-09-26, 07:59:51
OK, ich geb's auf.
Leo, mit _keinem_ Wort gehst du auf Performance durch L2 ein. Der ist wohl überflüssig und nur zur Kühlung oder so. Bei Nvidia wie auch AMD.

Der L2 per se trägt nichts zur Performance bei. Dieser reduziert lediglich die benötigte externe Bandbreite, das Backend wird dadurch nicht auf magische Weise schneller.

Insofern trägt der L2 nur in Bandbreitenlimitierten Szenarien zur Performance bei.

Anders ausgedrückt, Ada kommt für die zusätzliche Performance dank des L2 so gut wie ohne Bandbreitenerhöhung aus.

Der L2 kann aber nicht dafür sorgen, dass die Performance irgendwie superlinear, gegenüber der nominellen Leistungssteigerung des Backends skaliert. Er kann nur dafür sorgen, dass von der nominellen Leistungssteigerung auch so viel wie möglich ankommt und nicht aufgrund von Bandbreitenmangel deutlich weniger.

Gast
2022-09-26, 14:13:36
Lustige Argumentationsrunde.
Bei breiterem Interface hätte man sofort gesagt, dass es Performance bringt, weil dickerer Hals für das Mehr an Kernen/Takt/Blub. Ähnlich bei höherem Speichertakt.

Leonidas
2022-09-26, 14:18:38
Ich denke nicht, dass man den L2 niedrig bewerten sollte. Das bringt zweifelsfrei was, bewahrt NV zudem davor, breitere Interface bauen zu müssen. Eine wahrscheinlich absolut vernünftige Design-Entscheidung.

Gast
2022-09-26, 14:56:34
Bei breiterem Interface hätte man sofort gesagt, dass es Performance bringt, weil dickerer Hals für das Mehr an Kernen/Takt/Blub. Ähnlich bei höherem Speichertakt.

Nö, nur im Bereich des Marketingbullshits, wie immer wieder die irrwitzigen Zahlen "effektiver Bandbreite" zeigen.

Bandbreite bringt keine Performance, sie ist eine Notwendige Voraussetzung, dass die GPU die Performance für welche sie designt wurde bringen kann.

Zu wenig Bandbreite kostet Performance, zu viel Bandbreite bringt gar nix und Cache ist eine Möglichkeit die benötigte Bandbreite zu verringern.

Mit ausreichend Bandbreite gibt es 100% Performance. Mit noch mehr Bandbreite gibt es immer noch 100% Performance, mit zu wenig Bandbreite gibt es <100% Performance. >100% Performance ist nicht möglich, egal wieviel Bandbreite oder bandbreitenschonende Maßnahmen man ergreift.

Gast
2022-09-26, 14:59:16
Ich denke nicht, dass man den L2 niedrig bewerten sollte. Das bringt zweifelsfrei was, bewahrt NV zudem davor, breitere Interface bauen zu müssen. Eine wahrscheinlich absolut vernünftige Design-Entscheidung.

Es spart vor allem auch einiges an Energie. Daten über ein GDDR-Interface zu schieben ist viel teurer als zwischen Cache und GPCs.

Gast
2022-09-26, 18:40:18
Die Argumentation ist immer noch lustig, weil auf alle Komponenten zutrifft, dass sie möglichst optimal aufeinander abgestimmt sein müssen. Und weg.