PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Die Hardware-Daten zur GeForce RTX 4090 Ti


Leonidas
2023-01-30, 10:06:42
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-die-hardware-daten-zur-geforce-rtx-4090-ti

Gast
2023-01-30, 10:34:09
Am gewichtigsten dürfte jedoch die TDP bzw. das Power-Limit sein, welches in Richtung 600 Watt gehen soll – nochmals 150 Watt mehr als bei der non-Ti-Karte. Dies schafft dann auch die Reserven für höhere Taktraten bei der Ti-Karte, was wahrscheinlich mehr bringt als nur die +11% Shader-Cluster erreichen könnten.

Das dürfte nach den Erfahrungen mit den bisherigen Lovelace Karten so gut wie gar nichts bringen.

Alle bisherigen Lovelace Karten werden hauptsächlich nicht von der Leistungsaufnahme sondern von der Spannung limitiert, und die ergibt sich nun mal aufgrund der zugrundeliegenden Hardware.

Mehr Takt als die ~2,8GHz gehen mit der Architektur nur mit Spannungsmods und damit einem extremen Anstieg der Leistungsaufnahme.

Es ist eher zu erwarten, dass der Takt einer solchen 4090Ti quasi identisch ist, und fast nur das mehr an freigeschalteter Hardware für die Leistung sorgen wird, und gleichzeitig die Leistungsaufnahme real deutlich unter dem Powerlimit sein wird. 10-15% ist das höchste der Gefühle was man an Mehrleistung erwarten kann.

Doch letztlich hatte nVidia auch schon beim Wechsel von GeForce RTX 3090 zu 3090 Ti nahezu +10% herausgepresst, obwohl seinerzeit nur +2,4% mehr Shader-Cluster und keinerlei Sprung beim Level2-Cache zur Verfügung standen.



Der große Unterschied. Die 3090 war konstant Powerlimitiert, womit die +50% Powerlimit auch in Mehrtakt umgesetzt werden konnten.
Die 4090 ist praktisch nie Powerlimitiert, damit sorgt ein höheres Powerlimit auch für keinerlei Mehrtakt.

00-Schneider
2023-01-30, 12:59:57
Wann soll die Karte kommen? Q3?

Mega-Zord
2023-01-30, 13:19:53
Q3/Q4 würde mir ins Konzept passen. :D

Auch: Shut up and take my money. Haters gonna hate.

MiamiNice
2023-01-30, 14:14:18
Das dürfte nach den Erfahrungen mit den bisherigen Lovelace Karten so gut wie gar nichts bringen.

Alle bisherigen Lovelace Karten werden hauptsächlich nicht von der Leistungsaufnahme sondern von der Spannung limitiert, und die ergibt sich nun mal aufgrund der zugrundeliegenden Hardware.

Mehr Takt als die ~2,8GHz gehen mit der Architektur nur mit Spannungsmods und damit einem extremen Anstieg der Leistungsaufnahme.

Es ist eher zu erwarten, dass der Takt einer solchen 4090Ti quasi identisch ist, und fast nur das mehr an freigeschalteter Hardware für die Leistung sorgen wird, und gleichzeitig die Leistungsaufnahme real deutlich unter dem Powerlimit sein wird. 10-15% ist das höchste der Gefühle was man an Mehrleistung erwarten kann.


Nein. NV hat kurz vor Release die Ada Karten durch einen Bios Flash kastriert. Sie haben die Chip Spannung gedrosselt um die Leistung der Karten und deren Verbräuche zu reduzieren. Sie mussten nicht mehr bringen, weil AMD keine Gefahr darstellt. Man hat sich also schon durch diese Aktion einen größeren Abstand zum Refresh und zum vollem Chip "gebaut", als sonst üblich. Zusätzlich wurden die SKUs derart kastriert, wie noch niemals zuvor. Eine 4090 ist eigentlich eine 4080Ti, um ein Beispiel zu bringen.
Eine 4090 TI muss daher nicht mit der selben Spannung kommen, eher wahrscheinlich ist, das NV bei dieser Karte endlich zeigt was wirklich in Ada steckt.
Bisherige Ada Karten kann man nur als Abfall bezeichnen aber auf keinen Fall zeigen die was Ada wirklich unter der Haube hat.

Ich werde so eine Karte kaufen, weil es die erste richtige Ada Karte ist.

Exxtreme
2023-01-30, 14:21:06
Ist halt wieder die Frage ob die 4090 Ti wieder nur mit DP 1.4 kommt. :freak: Wenn ja dann wäre das ein harter Fail.

Mortalvision
2023-01-30, 14:25:38
@Exxxtreme hast du einen Link, warum dp 1.4 nicht reichen könnte?

Exxtreme
2023-01-30, 14:30:13
Weil diese Grafikkarte wohl in sehr vielen Spielen mehr schafft als die 120 Hz in 4K-Auflösung. Mehr packt Displayport 1.4 aber nicht. Ja, man kann auch noch verlustbehaftete Komprimierung einschalten. Aber das ist wie mit einem Regenschirm unter die Dusche steigen.

MiamiNice
2023-01-30, 14:33:47
https://abload.de/img/unbenanntccia0.jpg

MasterElwood
2023-01-30, 14:51:08
gibts irgendwo (blind)vergleiche mit DSC on/off?

Wäre interessant ob man den Unterschied WIRKLICH sieht...

Kleebl00d
2023-01-30, 15:03:56
NV hat kurz vor Release die Ada Karten durch einen Bios Flash kastriert. (...)
Sie mussten nicht mehr bringen, weil AMD keine Gefahr darstellt.
Ach Mensch, das muss ich wohl verpasst haben.
Hast du dazu einen Link, der das genauer beschreibt?

reallord
2023-01-30, 15:13:57
Gab's das hier (https://www.techpowerup.com/gpu-specs/?mfgr=NVIDIA&generation=GeForce%2040&sort=name) schon irgendwo?

...
4080 Ti
4090 Ti
NVIDIA RTX TITAN Ada Generation
...

Troyan
2023-01-30, 15:25:18
Ist halt wieder die Frage ob die 4090 Ti wieder nur mit DP 1.4 kommt. :freak: Wenn ja dann wäre das ein harter Fail.

Wieso? Reicht für 240Hz in 4K. AMD Karten schaffen ja nichtmal 60FPS in 4K. :freak:

Lehdro
2023-01-30, 15:27:17
Wieso?
Weil ein Premiumprodukt auch Premiumfeatures haben sollte. Die Frage ist also eher: Wenn nicht, wieso?

Platos
2023-01-30, 15:30:56
1.8k Grafikkarte aber beim DP Anschluss gespaart ;D

Exxtreme
2023-01-30, 15:36:19
Wieso? Reicht für 240Hz in 4K. AMD Karten schaffen ja nichtmal 60FPS in 4K. :freak:

Ja, mit verlustbehafteter Kompression geht das sicherlich. Aber eine 2k EUR Grafikkarte zu machen und dann solche Kompromisse eingehen zu müssen ist so konsequent wie Duschen mit einem Regenschirm.

Raff
2023-01-30, 15:38:17
Raytracing-Konterargument-Diskussion in 3, 2, 1 ... ;D

MfG
Raff

MiamiNice
2023-01-30, 15:53:20
Ach Mensch, das muss ich wohl verpasst haben.
Hast du dazu einen Link, der das genauer beschreibt?

Du könntest bei Igor anfangen und Dir den Rest denken.

https://www.igorslab.de/nvidia-geforce-rtx-4090-wo-der-irrtum-mit-den-600-watt-wirklich-herkommt-und-warum-die-karten-so-riesig-sind/

Lange Rede, kurzer Sinn. Der Wechsel von Samsung auf TSMC brauchte so viel an Leistung, dass die Ada Karten zu schnell waren. Also mussten diese eingebremst werden. Hat man über das PT gemacht, das kann man aber aushebeln, z.b. mit einem XOC Bios, also hat man auch über die Spannung begrenzt.

Troyan
2023-01-30, 16:04:21
Ja, mit verlustbehafteter Kompression geht das sicherlich. Aber eine 2k EUR Grafikkarte zu machen und dann solche Kompromisse eingehen zu müssen ist so konsequent wie Duschen mit einem Regenschirm.

Stimmt. Besser ist es in 4K mit weniger als 60 FPS zu spielen. Da nutzt man DP2.1 ja voll aus. :freak:

Cubitus
2023-01-30, 16:05:24
Wieso? Reicht für 240Hz in 4K. AMD Karten schaffen ja nichtmal 60FPS in 4K. :freak:

Nvidia hatte da investiert wo es wirklich wichtig ist ;D
DirectX12 z.b

Alle Nvidia-Karten der GTX-900-Serie packen die Standards 12_0 und 12_1. Insbesondere der Level 12_1 soll es Programmierern ermöglichen, einige Effekte schneller und schöner darzustellen - etwa plastischeren Rauch oder schönere Beleuchtung. Die GTX-1000-Serie leistet da natürlich auch nicht weniger. AMD-Karten ab GCN 1.1 (Graphics Core Next) können dagegen nur auf die eingeschränkte Feature-Liste des 12_0-Standards zugreifen. Das gilt auch für die aktuellen Polaris-Karten, also RX 460, 470 und 480 sowie die Rebrandings RX 550, RX 560, RX 570 und RX 580.

Die viel gekaufte 580er kann z.b Dead-Space nicht mal mehr starten, auf einer 1080 GTX läuft es zumindest.

Exxtreme
2023-01-30, 16:22:36
Stimmt. Besser ist es in 4K mit weniger als 60 FPS zu spielen. Da nutzt man DP2.1 ja voll aus. :freak:
Es gibt genug Spiele, die laufen in 4K auf einer Radeon 7900 XTX mit mehr als 60 fps. Ergo ist dieses Pseudo-Argument eher deplaziert.

Pumpi74
2023-01-30, 16:32:07
Bei 14% mehr Bandbreite und 33% mehr Cache könnten gut 20% mehr Performance raus kommen. Das die 4090 aus Spieler Sicht kastriert ist kann man nun mal nicht leugnen. Die 4080 zeigt wie es geht.

Exxtreme
2023-01-30, 16:37:42
Das die 4090 aus Spieler Sicht kastriert ist kann man nun mal nicht leugnen. Die 4080 zeigt wie es geht.

Kastration ist auch nicht so schlecht. Denn das erhöht die Chipfläche und ist somit effizienter zu kühlen. :) Und solange man aufgrund einer Kastration nicht in eine 3,5 GB Situation reinrennt, ist das eigentlich egal ob kastriert oder nicht. Das Produkt funktioniert trotzdem wie es soll. Auch wenn ich mir sicher bin, dass es Leute gibt, die schon beim Gedanken, dass ein Produkt kastriert worden ist die Finger davon lassen und auf das "volle" Produkt warten. Aber das ist nur eine psychologische Sache und keine rationale. :)

Troyan
2023-01-30, 16:38:14
Es gibt genug Spiele, die laufen in 4K auf einer Radeon 7900 XTX mit mehr als 60 fps. Ergo ist dieses Pseudo-Argument eher deplaziert.

Jo, alte Spiele. Für die kauft sich niemand eine 7900XTX und einen 2000€ Monitor.

Cubitus
2023-01-30, 16:48:49
Was meint ihr preislich, 2500 Dollar MRSP?
Dürften dann hier ca 2700 bis 3000 Euro sein.

Jo, alte Spiele. Für die kauft sich niemand eine 7900XTX und einen 2000€ Monitor.

und für neue Spiele müssen die AMD-Jungs neue HW kaufen.
Der Treiber muss dann zusätzlich noch "reifen" wie guter Wein, und dieser reift sich dann iwann zu Tode und setzt Pils an.. ;D

https://www.techpowerup.com/304124/forspoken-simply-doesnt-work-with-amd-radeon-rx-400-and-rx-500-polaris-gpus

scnr

arcanum
2023-01-30, 16:52:19
Definitiv mehr als 20% Aufpreis zur 4090 uvp. Ich tippe auf eher auf 2099/2199$ aber bis 2499$ ist alles möglich.

Cubitus
2023-01-30, 16:55:08
Definitiv mehr als 20% Aufpreis zur 4090 uvp. Ich tippe auf eher auf 2099/2199$ aber bis 2499$ ist alles möglich.

niedriger MRSP kannibalisiert dann die 4090.
Ich denke Onkel Jensen wird schon mindestens auf die 2499 Dollar gehen.

Die 4090(TI) ist ja quasi konkurrenzlos.

mike49
2023-01-30, 16:55:10
Das mit DP 1.4 ist schon etwas doof.

Neuere Monitore wie Samsung Odyssey Neo G9 8k benötigen dann schon DP 2.1 für die vollen 240Hz:

https://www.computerbase.de/2023-01/ultrabreite-samsung-monitore-odyssey-neo-g9-mit-8k-und-57-und-odyssey-oled-g9-mit-49-zoll/

Fühlt sich daher schon etwas blöd an, 2k für eine Karte auszugeben die de facto gleich schon wieder veraltet ist aufgrund der DP-Limitierung...

Kleebl00d
2023-01-30, 16:57:57
Du könntest bei Igor anfangen und Dir den Rest denken.
Puh, "den Rest kann man sich denken", steile These auf dieser Datengrundlage.


Lange Rede, kurzer Sinn. Der Wechsel von Samsung auf TSMC brauchte so viel an Leistung, dass die Ada Karten zu schnell waren. Also mussten diese eingebremst werden. Hat man über das PT gemacht, das kann man aber aushebeln, z.b. mit einem XOC Bios, also hat man auch über die Spannung begrenzt.
Dann sag aber ganz klar, dass das deine Interpretation ist und stell es nicht so dar, als wäre das etabliertes Wissen.
Auf Basis der im Artikel genannten Infos kann man genauso mutmaßen, dass durch den Wechsel das Hochprügeln auf 600W für vernünftige Leistung nicht notwendig war. Oder einen Schritt weiter, der bessere Prozess zwar eine bessere Baseline hatten, dann aber nicht mehr gut skaliert und man bei ~unter 400W einen Schlussstrich gezogen hat.

Wie dem auch sei, es ist eine Mutmaßung. Und wirkt so ein bisschen wie das AMD'sche "ein Designfehler verhindert hohe Taktraten", bloß in einer grünen statt roten Geschmacksrichtung.

Cubitus
2023-01-30, 16:58:45
Das mit DP 1.4 ist schon etwas doof.

Neuere Monitore wie Samsung Odyssey Neo G9 8k benötigen dann schon DP 2.1 für die vollen 240Hz:

https://www.computerbase.de/2023-01/ultrabreite-samsung-monitore-odyssey-neo-g9-mit-8k-und-57-und-odyssey-oled-g9-mit-49-zoll/

Fühlt sich daher schon etwas blöd an, 2k für eine Karte auszugeben die de facto gleich schon wieder veraltet ist aufgrund der DP-Limitierung...

Es gibt bisher keine Karte welche 8K wirklich mit 240HZ schafft.
Nicht mal eine Titan Aida könnte das..

Und alte Spiele auf nem 49er zu spielen, davon tun mir die Augen weh.

mike49
2023-01-30, 17:19:17
Und alte Spiele auf nem 49er zu spielen, davon tun mir die Augen weh.
Das ist ein 57er mit 2*4K Auflösung, also praktisch 2 32-Zoll 4K-Monitore in einem ;)

Es gibt bisher keine Karte welche 8K wirklich mit 240HZ schafft.
Nicht mal eine Titan Aida könnte das..

Bin ich dabei. Deshalb sagte ich ja auch nur, dass es sich blöd anfühlt. De facto würden mir auch die 120Hz @2*4K genügen, was gerade noch so mit DP 1.4 geht. AMD verbaut halt schon DP 2.1

arcanum
2023-01-30, 17:41:20
Es gibt bisher keine Karte welche 8K wirklich mit 240HZ schafft.
Nicht mal eine Titan Aida könnte das..

Und alte Spiele auf nem 49er zu spielen, davon tun mir die Augen weh.

wenn die karte 48gb hätte dann würde sie auch für 2999$ gut weg gehen aber ich sehe wenige gute argumente für eine karte die <=20% mehr performance bietet und dafür 56% mehr kostet, zumal der straßenpreis der 4090 eher fallen als stabil bleiben wird.

Pumpi74
2023-01-30, 18:04:11
Die 3090Ti haben ihre UVP grade mal lächerliche 3 Monate gehalten. Und das zu einer Zeit wo der Spielermarkt dank Mining noch ausgehungert war. Nun ist Mining ganz vorbei und die Leute haben dank Rezession keine Kohle auf Tasche. Das weis auch nV. Die werden sich die Peinlichkeit mit den 2499$ ersparen und bei 1999$ die offizielle Schnäppchensaison ausrufen. Die 48GB Titan wird dann halt richtig teuer.

Leonidas
2023-01-30, 18:24:00
Gab's das hier (https://www.techpowerup.com/gpu-specs/?mfgr=NVIDIA&generation=GeForce%2040&sort=name) schon irgendwo?

Platzhalter-Daten. Für jede denkbare Karte ein Eintrag - ganz egal, ob jene kommt.

Troyan
2023-01-30, 18:38:51
Das mit DP 1.4 ist schon etwas doof.

Neuere Monitore wie Samsung Odyssey Neo G9 8k benötigen dann schon DP 2.1 für die vollen 240Hz:

https://www.computerbase.de/2023-01/ultrabreite-samsung-monitore-odyssey-neo-g9-mit-8k-und-57-und-odyssey-oled-g9-mit-49-zoll/

Fühlt sich daher schon etwas blöd an, 2k für eine Karte auszugeben die de facto gleich schon wieder veraltet ist aufgrund der DP-Limitierung...

Cool. Spielst dann mit 10 FPS.

vinacis_vivids
2023-01-30, 19:42:06
https://abload.de/thumb/amd-rdna3-event-pressqifcv.png (https://abload.de/image.php?img=amd-rdna3-event-pressqifcv.png)

🙈🙈😂

wolik
2023-01-30, 21:02:09
Fake?

https://3dnews.ru/assets/external/illustrations/2023/01/29/1081041/sm.NVIDIA-TITAN-ADA_01.800.jpg

https://3dnews.ru/assets/external/illustrations/2023/01/29/1081041/sm.NVIDIA-TITAN-ADA_02.800.jpg

Schnitzl
2023-01-30, 21:56:23
(...)
Bisherige Ada Karten kann man nur als Abfall bezeichnen (...)
Nochmal Glück gehabt. Fast hätte ich mein Getränk auf dem Monitor verteilt ;D

danke für den Link weiter unten von Igor, sehr interessant :up:

Wenn ihr beide Recht habt, dann gibt es noch ein Bomben-Refresh ... irgendwann :freak:

Gast
2023-01-30, 22:20:55
Die Performanceeinschätzung kann ich nicht teilen.
RTX 4080 = 9728 Shader (= 100%)
Cache = 64 MB
RTX 4090 = 16384 Shader (+ 68%)
Cache = 72 MB (+12,5 %)

In UHD beträgt die Performancedifferenz trotzdem nur 34% (laut PCGH und Computerbase), also ziemlich genau die Hälfte der Shaderfifferenz.

Bei der 4090 Ti mit 18176 Shadern würde ich im besten Fall mit 5-6% Prozent Mehrleistung zur 4090 rechnen!

Der Speicher lässt sich bei guter Kühlung problemlos auf 23-24 Gbps übertakten (meine "günstige" Manli schafft 24 Gbps).

Es ist im übrigen seit jeher ein billiger Trick einfach den Speichertakt ein wenig zu erhöhen um einen Mehrwert zu suggerieren. Alle meine Ampere-Karten (3090, 3080Ti, 3070) haben problemlos 21 Gbps erreicht, kein Wunder der Speicher war dafür spezifiziert! Meine 3080 Ti war bei jeweils maximalem UV/OC genau gleich schnell wie meine RTX 3090. Kein Unterschied messbar (maximal 1%, das fällt unter Messungenauigkeit).

Freestaler
2023-01-31, 00:13:38
Inwiefern soll ein Horizontales layout das Gewicht besser über Mainboard geben? Entweder man lässt die Garaka aufsitzen oder halt nicht. Ist doch keine Frage des PCB.

MiamiNice
2023-01-31, 01:00:40
Der Schwerpunkt ist näher am Board, weniger Hebelwirkung?

Leonidas
2023-01-31, 03:55:30
In UHD beträgt die Performancedifferenz trotzdem nur 34% (laut PCGH und Computerbase), also ziemlich genau die Hälfte der Shaderfifferenz.

Du vergisst den Mehrtakt, welcher sich bei 600W ziemlich automatisch einstellen wird. Damit holt man am meisten raus.

Sardaukar.nsn
2023-01-31, 06:26:55
Eigentlich alle 4090 laufen mit 1.1v auch auf 3GHz. Zwar nicht mehr richtig effizient, aber sie schaffen es.

Der Perfomance Unterschied zwischen der günstigsten 4090 (Manli, Inno3D usw.) und den Top Modellen Strix/Suprim beträgt vielleicht 2-3%.

Wird sich denn eine Ti deutlich über 3 GHz absetzen können?

Gast
2023-01-31, 08:10:02
Du könntest bei Igor anfangen und Dir den Rest denken.

https://www.igorslab.de/nvidia-geforce-rtx-4090-wo-der-irrtum-mit-den-600-watt-wirklich-herkommt-und-warum-die-karten-so-riesig-sind/


Sorry, so sehr ich Igor schätze, aber der Artikel ist kompletter Quark.

Lovelace hätte nie und nimmer in Samsung 8N erscheinen können, damit wäre
ein AD102 1000mm² groß.

Weiters sind die ganzen Schlussfolgerungen daraus kompletter Schwachsinn.
Der Prozess ist eines der Dinge die in Stein gemeißelt sind lange bevor es irgendwelche echte Hardware gibt.
Selbst wenn Lovelace irgendwann mal für Samsung geplant war (und wenn dann war es Samsung 5nm) ist der Switch zu TSMC schon vor Jahren passiert, zu einer Zeit in der es noch lange nicht notwendig war irgendwelche Monsterkühler in Auftrag zu geben.

Die ganze "Beweiskette" ergäbe höchstens dann Sinn, wenn Simulationen eine wesentlich höhere Leistungsaufnahme prognostiziert hätten, das erste Silizium aus der Fab dann aber völlig überraschend viel sparsamer geworden ist.
Das würde aber wiederum bedeuten, dass TSMCs Tools kompletter Schrott sind, wovon man auch nicht ausgehen kann. Zumal die Leistungsaufnahme von Lovelace jetzt auch nicht fantastisch niedrig ist, sondern ziemlich genau da, wo man sie auch als Laie aufgrund der offiziellen Zahlen die Fabs zu ihren Prozessen nennen erwarten durfte.

Gast
2023-01-31, 08:11:35
Du vergisst den Mehrtakt, welcher sich bei 600W ziemlich automatisch einstellen wird. Damit holt man am meisten raus.

Stell eine 4090 auf 600W und beobachte wieviel Mehrtakt rauskommt.

Mehr sind von einer 4090Ti auch nicht zu erwarten.

Leonidas
2023-01-31, 08:34:34
Stell eine 4090 auf 600W und beobachte wieviel Mehrtakt rauskommt.

Das funktioniert so nicht, weil die Spannungen bei der 4090 seitens NV begrenzt sind. Damit läßt sich keine 4090Ti simulieren, selbst nicht wenn man die fehlenden SM freischalten könnte.

Freestaler
2023-01-31, 09:03:42
Gibts keine Spannungmods?

@MiameNice, ich denke die heutigen schwerpunkt ist ungefähr in der Mitte der Kühler auf der Längsachse. Wenn ich nun 90° drehen ändert sich da nicht wesentlich was, mMn.

Exxtreme
2023-01-31, 09:09:57
Jo, alte Spiele. Für die kauft sich niemand eine 7900XTX und einen 2000€ Monitor.

Das ist egal ob alte Spiele oder nicht. Und auch alte Spiele können auch auf einer modernen Grafikkarte ordentlich reinhauen in 4K-Auflösung.

Gast
2023-01-31, 10:00:14
Das funktioniert so nicht, weil die Spannungen bei der 4090 seitens NV begrenzt sind. Damit läßt sich keine 4090Ti simulieren, selbst nicht wenn man die fehlenden SM freischalten könnte.

Die Spannung jeder Karte ist begrenzt und die 4090 ist nicht ungewöhnlich niedrig. Es ist kaum zu erwarten, dass die gesunde Spannung für TSMC 4N höher liegt als bei Samsung 8N, und damit dass NV für die 4090Ti ein wesentlich höheres Spannungsziel zulässt.

Hardwaremods der 4090 zeigen auch, dass es praktisch nix bringt. Mit höheren Spannungen schießt zwar die Leistungsaufnahme in die Höhe, Takt bringt es aber keine 5%.

Leonidas
2023-01-31, 10:57:33
Ok, müssen wir mal schauen, ob da noch viel herauszuholen ist. Bei der 3090Ti hat es NV jedenfalls geschafft, mit wesentlich weniger HW-Unterschied.

Gast
2023-01-31, 11:50:30
Ok, müssen wir mal schauen, ob da noch viel herauszuholen ist. Bei der 3090Ti hat es NV jedenfalls geschafft, mit wesentlich weniger HW-Unterschied.

Die 3090 war aber nicht nahe des Taktlimits der Architektur, die 4090 ist es. (und alle anderen verfügbaren Lovelace Karten auch)

MiamiNice
2023-01-31, 13:17:55
Sorry, so sehr ich Igor schätze, aber der Artikel ist kompletter Quark.

Lovelace hätte nie und nimmer in Samsung 8N erscheinen können, damit wäre
ein AD102 1000mm² groß.

Weiters sind die ganzen Schlussfolgerungen daraus kompletter Schwachsinn.
Der Prozess ist eines der Dinge die in Stein gemeißelt sind lange bevor es irgendwelche echte Hardware gibt.
Selbst wenn Lovelace irgendwann mal für Samsung geplant war (und wenn dann war es Samsung 5nm) ist der Switch zu TSMC schon vor Jahren passiert, zu einer Zeit in der es noch lange nicht notwendig war irgendwelche Monsterkühler in Auftrag zu geben.

Die ganze "Beweiskette" ergäbe höchstens dann Sinn, wenn Simulationen eine wesentlich höhere Leistungsaufnahme prognostiziert hätten, das erste Silizium aus der Fab dann aber völlig überraschend viel sparsamer geworden ist.
Das würde aber wiederum bedeuten, dass TSMCs Tools kompletter Schrott sind, wovon man auch nicht ausgehen kann. Zumal die Leistungsaufnahme von Lovelace jetzt auch nicht fantastisch niedrig ist, sondern ziemlich genau da, wo man sie auch als Laie aufgrund der offiziellen Zahlen die Fabs zu ihren Prozessen nennen erwarten durfte.

Da hast Du 100 3dC Punkte gesammelt. Natürlich ist das was Igor schreibt zum Großteil quatsch, schon aus Deinen Gründen, ich könnte noch paar mehr anfügen. Z.b. legt man sich schon in der Konzeptionsphase des Chips auf den Hersteller fest. Außerdem dauert es mit dem Chip deutlich länger, als mit einem Kühler. Es ist unwahrscheinlich das der Kühler derart früh in Produktion geht oder bestellt wird.

Was man aus dem Artikel mitnehmen sollte ist, das NV überrascht über den Yield und über die Leistungsfähigkeit gewesen ist. Wenn man dann noch im Hinterkopf behält das AMD gerade gar keine Konkurrenz liefert und NV gerne 2x pro Chip abkassieren möchte, bleibt da nicht so viel Raum für Optionen.

Da NV shady ist und bis heute nicht geklärt ist warum eine 4090 mit Volt und PT Mod nicht mehr Leistung liefert, kann es sich nur um absichtliche Kastration handeln, damit der Refresh schneller wird als sonst. Man munkelt von irgendwelchen Taktdomains die nicht bekannt sind und so gesetzt sind, das die Karte irgendwo blockiert.

Rampage 2
2023-02-01, 15:06:01
Nein. NV hat kurz vor Release die Ada Karten durch einen Bios Flash kastriert. Sie haben die Chip Spannung gedrosselt um die Leistung der Karten und deren Verbräuche zu reduzieren. Sie mussten nicht mehr bringen, weil AMD keine Gefahr darstellt. Man hat sich also schon durch diese Aktion einen größeren Abstand zum Refresh und zum vollem Chip "gebaut", als sonst üblich. Zusätzlich wurden die SKUs derart kastriert, wie noch niemals zuvor. Eine 4090 ist eigentlich eine 4080Ti, um ein Beispiel zu bringen.

WARUM kommt die 4090 Ti dann nicht als voller Chip (144 SMs), sondern immer noch als Salvage?

Selbst wenn auch die 4090 Ti mit dem vollen Chip kommen würde, hätte eine hypothetische "Titan RTX" immer noch ihr Alleinstellungsmerkmal mit 48GB VRAM und einigen professionellen/"Prosumer"-Features wie auch die früheren Titans. (einige Quadro-Features, mehr FP64-Einheiten, etc.)

Warum also macht Nvidia sowas?

R2

Exxtreme
2023-02-01, 16:08:01
WARUM kommt die 4090 Ti dann nicht als voller Chip (144 SMs), sondern immer noch als Salvage?


Wahrscheinlich weil das Ding kaum schneller wäre als die teildeaktivierte Variante. Schon die RTX 4090 krebst fast immer im CPU-Limit. :)

gbm31
2023-02-01, 16:23:27
Scheint eher eine Titan zu sein: https://wccftech.com/nvidia-titan-rtx-ada-graphics-card-spotted-in-shipping-manifest-48-gb-gddr6x-memory-pg137-board/

Gast
2023-02-02, 11:39:55
WARUM kommt die 4090 Ti dann nicht als voller Chip (144 SMs), sondern immer noch als Salvage?

Vermutlich Yield.