PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 20. März 2024


Leonidas
2024-03-21, 08:11:23
Link zur News:
https://www.3dcenter.org/news/news-des-20-maerz-2024

HPVD
2024-03-21, 09:57:02
soll/muss der "große Sprung" denn für alles gelten oder nur für RT?

Leonidas
2024-03-21, 10:50:31
Unbekannt. Aber wenn ich spekulieren soll, würde ich denken, dass unter Raster kaum ein großer Sprung zu erreichen sein wird. Unter RT hingegen schon.

MD_Enigma
2024-03-21, 11:05:03
Das ist ein guter Ansatz. Ich vermute auch nicht, dass in der Raster-Performance neue Rekorde auf uns zukommen. Sprich NVidia wird eine ähnlich große Fläche für Raster nutzen und über einen Vollausbau gute 20% im High-End rausholen. Dazu die TDP um 10% nach oben und bringt einen weit genug an die 30% für einen Generationssprung ran. Mid-Range bekommt weniger - aber haken dran.

Die Einheiten für Raytracing zu verdoppeln, würde allerdings sehr gut ins Bild passen. Damit kann man werben und die Preise rechtfertigen. Wenn NVidia weis, dass die neue Generation an PathTracing-Titeln einschlägt wie eine Bombe, dann ist das die Karte der Wahl. Das wäre auch ein guter Grund die Karten erst nächstes Jahr einzuführen, wenn mehr Titel auf dem Markt sind.

Sardaukar.nsn
2024-03-21, 17:16:00
Sweetspot bei der 4090 liegt ja auch grob eher um 350 Watt. Diesen um 100 zu erhöhen dürfte machbar sein, falls nötig.

GerryB
2024-03-21, 20:06:00
Ob mehr IPC bei der 5090 geht, sollte doch außer Frage stehen.
Die 4090 war ggü. der 3090 kein besonders großer Wurf.(gemessen an den Transistoren kommt wenig mooore Perf. raus)

Ich bin gespannt was mehr L1 und breitere Register dann bringen.
Es hängt eeh von den Games ab, ... insofern zeigt der Parcour23 vllt. ein faires Bild für die 3090.

iamthebear
2024-03-21, 20:25:53
Was bei Ada auffällig war ist, dass die Performance bis zur 4080 relativ linear mit der Rohleistungs skaliert, danach aber deutlich schlechter. Speicherbandbreite scheint nicht der Grund zu sein. Das hat bei bei 4070 Ti vs. 4070 Ti Super vs. 4080 gesehen.

4080 vs. 4070 sind 64% mehr Performance bei 63% mehr Rohleistung
4090 vs. 4080 sind 33% mehr Performance bei 70% mehr Rohleistung

Da diese 33% quer durch die Bank bei Raster/RT/PT bei allen möglichen Frameraten immer in etwa gleich sind denke ich nicht, dass es sich um CPU Limit, ROPs etc. handelt.

Verschwörungstheoriemodus ein:
Könnte es sein, dass Nvidia die 4090 bewusst etwas zurückgeschraubt hat um die Umsatz der nächsten Generationen nicht zu gefährden. Mehr verkauft hätte man durch noch mehr Performance sowieso nicht.

Rein rechnerisch würde es reichen wenn:
.) Nvidia diese "Bremse" wieder ausbaut oder den Grund dafür behebt. Dadurch würde die 4090 noch einmal um ca. 25% zulegen.
.) Es gibt 192 statt 128 SM
.) Speicherbandbreite wird durch GDDR7 und mit L2 bzw. 512 Bit SI kompensiert (falls die 512Bit wirklich stimmen sollen)
.) Der 5090 so getaktet wird wie eine 4090 bei 350W. Damit verliert man ca. 10% Performance.

Verlustleistung wären 350W * 192SM / 128SM = 525W (mit ein bisschen besserem Node lässt sich das leicht auf 500W drosseln)

Performance ist:
125% * 192SM/128SM * (90% Takt) = 68,75% Performancesteigerung (mehr als 4090 vs. 3090 Ti)

Dass RT verbessert werden soll, das wurde bei Ampere und Ada auch schon behauptet aber bisher ist die RT Performance immer gleich mit Raster gestiegen.

Ich frage mich jedoch woher AGF das alles so genau wissen will. Ich glaube nicht, dass Nvidia schon so weit ist, dass sie Benchmarks über einen kompletten Parkour an Spielen laufen lassen können wenn sie gerade erst die ersten Samples bekommen haben.

Gast
2024-03-21, 21:53:55
In jedem Fall wäre es eine große Leistung, mit dieser gegenüber "Maxwell" so viel späteren Generation nochmals einen großen Architektur-Gewinn bei gleichzeitig (grober) Verbrauchs-Neutralität hinzulegen.

Die GPU (Chip) wird vermutlich tatsächlich mehr verbrauchen, aber die Grafikkarte, dank GDDR7 nicht. GDDR7 sollte deutlich sparsamer sein, als der aktuell verwendete, hoch gezüchteter GDDR6X.

Man hat ja schon damals bei der RTX 3070TI gesehen, welche Kosten der GDDR6X beim Verbrauch zur Folge hat.

RTX 3070 TI GDDR6X => 290W TDP
RTX 3070 GDDR6 => 220W TDP

Performance-Unterschied: 5 Prozent

https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/

Und GDDR7 soll ja laut JEDEC sogar sparsamer als normaler (ohne X) GDDR6 sein, (zumindest am Anfang in den anfänglichen relativ humanen Geschwindigkeiten, bevor es wieder hoch gezüchtet wird...)

https://www.jedec.org/news/pressreleases/jedec-publishes-gddr7-graphics-memory-standard

Gast
2024-03-22, 00:06:13
Die GPU (Chip) wird vermutlich tatsächlich mehr verbrauchen, aber die Grafikkarte, dank GDDR7 nicht. GDDR7 sollte deutlich sparsamer sein, als der aktuell verwendete, hoch gezüchteter GDDR6X.


Der Verbrauch von GDDR sind peanuts, egal welche Zahl dahinter steht, ob es nun 2 oder 2,5W pro Speicherchip sind interessiert bei 400W nun wirklich niemanden mehr.

Leonidas
2024-03-22, 04:32:21
Beide habt ihr Recht: Der Speicherchip ist für den Verbrauch nicht besonders relevant. Aber: GDDR6X-Interfaces (im Grafikchip) nuckeln kräftig, zu sehen an der 3070Ti. Wenn das bei GDDR7 besser ist (unbekannt, aber nicht unwahrscheinlich), dann kommen hier die Reserven her, um die eigentlichen Recheneinheiten stärker mit Saft zu versorgen.

Platos
2024-03-22, 05:22:31
Und man muss ja auch sagen, dass die 4090 in Spielen selten 450Watt zieht. Wenn jetzt die 5090 aber 500Watt zieht, dann ist das auch ordentlich Perfomancepotential.

Ansonsten gäbe es natürlich die Auslegung, dass es sich hier um RT Werte handelt. Fände ich zwar lächerlich, dass ein "leaker" da drauf anspringt und einen Sprung in nur RT als the biggest ever (im Generellen) bezeichnet. Weil eig. war seine Aussage generell gehalten und somit eig. auch so zu verstehen.

Was bei Ada auffällig war ist, dass die Performance bis zur 4080 relativ linear mit der Rohleistungs skaliert, danach aber deutlich schlechter. Speicherbandbreite scheint nicht der Grund zu sein. Das hat bei bei 4070 Ti vs. 4070 Ti Super vs. 4080 gesehen.

4080 vs. 4070 sind 64% mehr Performance bei 63% mehr Rohleistung
4090 vs. 4080 sind 33% mehr Performance bei 70% mehr Rohleistung

Da diese 33% quer durch die Bank bei Raster/RT/PT bei allen möglichen Frameraten immer in etwa gleich sind denke ich nicht, dass es sich um CPU Limit, ROPs etc. handelt.

Verschwörungstheoriemodus ein:
Könnte es sein, dass Nvidia die 4090 bewusst etwas zurückgeschraubt hat um die Umsatz der nächsten Generationen nicht zu gefährden. Mehr verkauft hätte man durch noch mehr Performance sowieso nicht.


Es ergibt null Sinn, eine 4090 mit so vielen Einheiten zu verkaufen, um sie dann irgendwie misteriös zu verlangsamen. Dann hätte man einfach weniger Einheiten verbaut/freigeschalten...

Gast
2024-03-22, 07:13:51
Und man muss ja auch sagen, dass die 4090 in Spielen selten 450Watt zieht. Wenn jetzt die 5090 aber 500Watt zieht, dann ist das auch ordentlich Perfomancepotential.

Ansonsten gäbe es natürlich die Auslegung, dass es sich hier um RT Werte handelt. Fände ich zwar lächerlich, dass ein "leaker" da drauf anspringt und einen Sprung in nur RT als the biggest ever (im Generellen) bezeichnet. Weil eig. war seine Aussage generell gehalten und somit eig. auch so zu verstehen.



Es ergibt null Sinn, eine 4090 mit so vielen Einheiten zu verkaufen, um sie dann irgendwie misteriös zu verlangsamen. Dann hätte man einfach weniger Einheiten verbaut/freigeschalten...

Na ja der l2 ist ziemlich beschnitten bei der 4090. Das könnte ein wahrscheinlicher Grund für die schlechtere Skalierung sein.
Oder einfach zu viel rohpower für die CPUs

Gast
2024-03-22, 11:42:54
Na ja der l2 ist ziemlich beschnitten bei der 4090. Das könnte ein wahrscheinlicher Grund für die schlechtere Skalierung sein.
Oder einfach zu viel rohpower für die CPUs

Das geht Hand in Hand.

Richtig aufwändige Spiele zeigen mit der 4090 ja durchaus die erwartbare Skalierung, für die meisten Spiele ist sie einfach viel zu Overpowered, und der "übliche" Weg die Auslastung zu erhöhen indem man einfach verrückt hohe Auflösungen verwendet, auch wenn der Arbeitsaufwand/Pixel nicht so hoch ist, wird dadurch torpediert, dass die Cache-Hitrate mit höherer Auflösung deutlich geringer wird.

Gast
2024-03-22, 21:17:02
Das geht Hand in Hand.

Richtig aufwändige Spiele zeigen mit der 4090 ja durchaus die erwartbare Skalierung, für die meisten Spiele ist sie einfach viel zu Overpowered, und der "übliche" Weg die Auslastung zu erhöhen indem man einfach verrückt hohe Auflösungen verwendet, auch wenn der Arbeitsaufwand/Pixel nicht so hoch ist, wird dadurch torpediert, dass die Cache-Hitrate mit höherer Auflösung deutlich geringer wird.
aus der Sicht macht es dann wahrlich keinen Sinn, die RT Perf weiter zu steigern, sondern mehr in Richtung RT und AI/offload der CPU zu arbeiten.

Platos
2024-03-23, 08:18:02
aus der Sicht macht es dann wahrlich keinen Sinn, die RT Perf weiter zu steigern, sondern mehr in Richtung RT und AI/offload der CPU zu arbeiten.

Könnte natürlich sein, dass das einer der Gründe ist, warum nvidia da so viel besser sein soll (wenn es nach den Leakern geht), obwohl da von der Fertigung praktisch kein Vorteil mitschwingt. AMD soll ja auch genau an sowas arbeiten für RDNA...4 oder 5? Was war es nochmals?

Das fände ich persönlich auch gut, weil es ist hald schon etwas problematisch, dass einen selbst die schnellste CPU teilweise schon unter 100FPS ausbremsen kann.

Gast
2024-03-23, 20:58:23
Könnte natürlich sein, dass das einer der Gründe ist, warum nvidia da so viel besser sein soll (wenn es nach den Leakern geht), obwohl da von der Fertigung praktisch kein Vorteil mitschwingt. AMD soll ja auch genau an sowas arbeiten für RDNA...4 oder 5? Was war es nochmals?

Das fände ich persönlich auch gut, weil es ist hald schon etwas problematisch, dass einen selbst die schnellste CPU teilweise schon unter 100FPS ausbremsen kann.

Vielleicht wrd es an der Zeit aus einer anderen perspektive auf das Problem zu sehen. Nicht, dass die CPUs zu langasm sind, sondern dass das Prinzip von CPU futtert die GPU nicht mehr zeitgemäß ist! Und man hier in eine andere Richtung denken sollte, scheint mir so, als ob Nvidia dies schon vor 5-6 Jahren begriffen hat.

Gast
2024-03-25, 22:08:24
Kepler war, verglichen mit Fermi, sehr ineffizient im gaming, aber hat es mit Menge ausgeglichen (Was ja auch das Ziel war damals). Maxwell hat diese ineffizienz beseitigt.
Ab Ampere sind die GPUs auch ineffizient, wenn mit den doppel-ALU Einheiten nur +30% auf die Strasse kommen. Falls Nvidia hier wege findet das auf 90% zu bringen, dann haben wir die +50%, bei gleichem Node, bei wenig mehr Transistoren und Frequenz.

(Ich greife Nvidia damit nicht an und ich dichte auch keine Wunder an. Aber ich sehe Potential und traue Nvidia Hardware Architekten zu in all der Zeit Lösungen erarbeitet zu haben).