Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)
dildo4u
2024-09-03, 19:36:10
Ziemlich wahrscheinlich das wären +40% Leistung für 200€ Aufpreis zu 4080S.
Und keine Konkurrenz.
The_Invisible
2024-09-03, 19:41:46
Im worst case ist die 4090 oft >40% schneller als eine 4080, +10% wären dann 50%, gibt schlimmeres.
Badesalz
2024-09-03, 21:23:14
Du verwechselst HPC mit Gaming. Die Chips haben nix miteinander zutun.Dachte das betrifft quasi alle aus dem Grund, weil sie bei allen einen ähh... falschen Ansatz nahmen.
OgrEGT
2024-09-04, 00:34:31
https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedly-targets-600w-rtx-5080-aims-for-400w-with-10-performance-increase-over-rtx-4090
RTX 5080 ca. 400 Watt und 10% schneller als RTX 4090
Raster oder RayTracing,-
tippe auf 2-tes und bei Raster knapp dahinter bis max. Gleichauf.
... und die 5090 soll 600W "konsumieren"... wenn damit wirklich die tatsächliche Leistungsaufnahme gemeint ist dann wäre das zu nahe an der maximalen Spezifikation des 1x16Pin Steckers...
Sardaukar.nsn
2024-09-04, 00:46:03
Naja, +50% zur 4090 erwarten die Kunden. Bei ähnlicher Fertigungstechnik geht es wohl nur mit der Brechstange.
Wobei man auch sagen muss, dass die 4090 mit "nur" 350 Watt extrem effizient ist.
Slipknot79
2024-09-04, 01:16:55
Naja, +50% zur 4090 erwarten die Kunden. Bei ähnlicher Fertigungstechnik geht es wohl nur mit der Brechstange.
Lederjacke muss mindestens +100% auspacken, sonst gibts keine Kohlen von mir. Und wenn es dafür 1000W baucht, spielt das keine Rolle. Ich trete nen Lambo und diskutiere über den Spritverbrauch? ;) Glaube, da habe ich andere Sorgen in dem Hobby. (y)
dargo
2024-09-04, 06:29:22
... und die 5090 soll 600W "konsumieren"... wenn damit wirklich die tatsächliche Leistungsaufnahme gemeint ist dann wäre das zu nahe an der maximalen Spezifikation des 1x16Pin Steckers...
Dann verbaut man eben zwei davon. Ich würde von diesen Gerüchten aber noch nichts halten. Ähnliches gab es schon für die 4090 und dann kam die mit 450W beim gewählten Betriebspunkt vom IHV raus. Die 600W könnten sich hier auch wieder auf einen vollen Blackwell beziehen der im Gamingbereich eh nicht kommt. Und die kastrierte Version fürs Gaming landet dann wieder bei 450W oder diesmal eben bei 500W.
horn 12
2024-09-04, 06:41:49
Dann wird man sich kaum absetzen können, Plus 25 - 30% Maximal zur 4090-er Karte.
Mir wäre dies genug, aber die Welt schreit +50% Min
OgrEGT
2024-09-04, 06:57:09
Dann verbaut man eben zwei davon. Ich würde von diesen Gerüchten aber noch nichts halten. Ähnliches gab es schon für die 4090 und dann kam die mit 450W beim gewählten Betriebspunkt vom IHV raus. Die 600W könnten sich hier auch wieder auf einen vollen Blackwell beziehen der im Gamingbereich eh nicht kommt. Und die kastrierte Version fürs Gaming landet dann wieder bei 450W oder diesmal eben bei 500W.
Genau das meinte ich... wenn wie im Link spekuliert nur 1x16Pin verbaut wird dann kann die tatsächliche Leistungsaufnahme nicht bei 600W liegen...
dargo
2024-09-04, 07:21:48
Dann wird man sich kaum absetzen können, Plus 25 - 30% Maximal zur 4090-er Karte.
Und? Bricht dann die Welt zusammen? :freak: Die "Nerds" die sowieso das schnellste jede Gen mitnehmen wird selbst das nicht stören. ;) Turing war damals auch nur 35% schneller als Pascal, ich hatte keinen Boykott erlebt.
btw.
Die ~30% könnten sogar grob hinkommen bei Raster. Ich würde bei Lederjacke aber erwarten, dass RT weiter aufgebohrt wird. So, dass hier mehr zu erwarten ist vs. Ada. RT scheint ja bei vielen Grünen zu ziehen. ;)
ChaosTM
2024-09-04, 07:55:41
So ähnlich + ein neues "must have" Feature, welches nur auf der 5er Serie läuft.
25-35% scheint recht gut hinzukommen. Wie die 4090er ab ~ 370 Watt skaliert wissen wir.
Nämlich gar nicht mal so gut, selbst wenn man 600 Watt drüber bügelt.
Realistischer sind eher 500, ein paar Einheiten mehr und schnellerer Speicher + jede Menge Head Room für eine Ti/Titan.
Warum sollte NV all ihr Pulver verschießen, wenn man sowieso schon klar vorne liegt bei Strahlungsverfolgung etc. und reines Rastern ist in der 2K Klasse kein Argument mehr.
basix
2024-09-04, 08:52:17
Die Logik von manchen verstehe ich nicht:
- 5080 = 1.1x 4090
- 5090 = 1.3x 4090 (bei doppeltem GB203)
Für wen macht das Sinn? :freak:
Und die absurd hohen TDPs erinnern mich wieder an die Lovelace Gerüchte. Ihr wisst ja, wie fett die 4090 Karten geworden sind. Und dass es dann doch anders kam. 400W stellen hohe Anforderungen an GPU- und Gehäuse-Kühlung. Das scheint mir nicht praktikabel zu sein für die 5080er Klasse. Bei der 5090 scheinen mir <=500W auch deutlich realistischer, die Default 4090 verbraucht im Schnitt ja eher so 380W in 4K.
The_Invisible
2024-09-04, 09:07:29
Und? Bricht dann die Welt zusammen? :freak: Die "Nerds" die sowieso das schnellste jede Gen mitnehmen wird selbst das nicht stören. ;) Turing war damals auch nur 35% schneller als Pascal, ich hatte keinen Boykott erlebt.
btw.
Die ~30% könnten sogar grob hinkommen bei Raster. Ich würde bei Lederjacke aber erwarten, dass RT weiter aufgebohrt wird. So, dass hier mehr zu erwarten ist vs. Ada. RT scheint ja bei vielen Grünen zu ziehen. ;)
Ja klar will ich mehr RT Leistung weil's die Zukunft ist, was willst heute noch mit raster
@basix
Klar ist ja der NV spekuthread, da muss tief gestapelt werden ;-)
MiamiNice
2024-09-04, 09:51:33
Ich glaube nicht an eine 500 Watt + 5090 Karte. Die Masse probt schon den Aufstand wenn eine CPU nur die Hälfte dieses Wertes erreicht - selbst wenn es nur im CB ist. Die Leaker haben schon zur aktuellen Gen eine kompromisslose GPU angekündigt, gekommen ist die 4090 in der Eco & Cut Edition obwohl die richtige Karte schon fertig gewesen ist, wie die 600 Watt Kühlkörper gezeigt haben. An einen Tim Taylor Pixelschubser glaube ich erst, wenn er unterm WaKü Block in meiner Kiste steckt.
€: Ich erwarte eher, dass NV den Trend fortsetzt und auf der 5090 der Chip noch eine Stufe mehr beschnitten wird, als bei der 4090 (das war schon unverschämt). Das was hier als 500 Watt + Beschleuniger gehandelt wird, ist imo die Blackwell Titan für den prof. Bereich und für 2500€+.
dildo4u
2024-09-04, 10:00:22
Anders als über den Takt kommst du nicht an die Performance wenn sie weiterhin 4nm nutzen.
Der Chip kann nicht unendlich weiter Wachsen weil es Limits für Die Größe gibt.
Im Server Bereich haben sie es mit zwei Chips auf einer Karte gelöst das ist hier nicht der Fall.
dargo
2024-09-04, 10:04:32
Ich glaube nicht an eine 500 Watt + Karte. Die Masse probt schon den Aufstand wenn eine CPU nur die Hälfte dieses Wertes erreicht - selbst wenn es nur im CB ist.
Was erwartest du dann? Eine 5090 mit 300-350W? Das wäre ein Sidegrade zu 4090. :freak:
Anders als über den Takt kommst du nicht an die Performance wenn sie weiterhin 4nm nutzen.
Der Chip kann nicht unendlich weiter Wachsen weil es Limits für Die Größe gibt.
Bringt der andere Fertigungsprozess bei Blackwell keine Vorteile beim shrinken vs. Ada? Oh weiha... dann wird das Ding zwangsläufig einiges größer werden müssen (nicht zuletzt auch dank 512Bit SI), das wird teuer. :D
Cubitus
2024-09-04, 10:05:16
Mehr vram wäre jedenfalls gut, damit ich alle meine gewünschten Texturmods in Cyperpunk nutzen kann. Im Bereich AI/RT wird’s schon wieder ein exklusives Feature geben um uns die GPU schmackhaft zu machen.
MiamiNice
2024-09-04, 10:07:29
Die Marge muss wachsen und NV hat keine Not hoch zu springen. Da kann sich doch jeder selbst ausrechnen was auf uns zukommt, IMO.
Zossel
2024-09-04, 10:12:45
Die Marge muss wachsen und NV hat keine Not hoch zu springen. Da kann sich doch jeder selbst ausrechnen was auf uns zukommt, IMO.
Eben hat es Pfff gemacht:
https://www.derstandard.at/story/3000000235111/nvidia-boersenwert-sackt-um-rekordwert-von-279-milliarden-dollar-ab
The_Invisible
2024-09-04, 10:12:45
Marge kann nur wachsen wenn das Ding auch verkauft wird und selbst highendkäufer brauchen einen Anreiz.
Also entweder entsprechend Performance oder exklusives Feature. Eine 1:1 4090 Kopie mit 20-30% mehr Performance wird nicht funzen, zudem man von der 4090 sinnig eh nur auf die 5090 upgraden wird können.
dargo
2024-09-04, 10:13:04
Die Marge muss wachsen und NV hat keine Not hoch zu springen. Da kann sich doch jeder selbst ausrechnen was auf uns zukommt, IMO.
Das geht viel einfacher. 5090 für die Gamingsparte canceln (wo anders gibts dafür wesentlich mehr Marge) und maximal die 5080 bringen, dann aber für 1499$. ;)
Eben hat es Pfff gemacht:
https://www.derstandard.at/story/3000000235111/nvidia-boersenwert-sackt-um-rekordwert-von-279-milliarden-dollar-ab
Lol... ich habe nur an den Tag gewartet bis die KI-Blase platzt. ;D Mich erinnert das irgendwie an den Miningboom von damals. :tongue:
MiamiNice
2024-09-04, 10:14:32
Das geht viel einfacher. 5090 für die Gamingsparte canceln (wo anderes gibts dafür wesentlich mehr Marge) und maximal die 5080 bringen, dann aber für 1499$. ;)
Das könnte ich mir auch vorstellen. Wenn man die 5080 in den 5090 Karton packt, kann man auch 2000 dafür bekommen ;):up:
ChaosTM
2024-09-04, 10:25:39
CP77 - 450 vs 370 Watt. + 2 fps (2,3%) @ ~ und absolut identisch bei den Min FPS.
Mir war grads fad, weil ich (fast) alles durch hab.
Vielleicht sollte ich mir doch Outlaws jetzt schon holen.
VRAM Verbrauch liegt gerade mal bei 15Gigs, aber das Add On dürfte da hungriger sein.
Muss ich mir anschauen.
Aber mehr VRAM ist nie verkehrt.
Die -279Mrd hören sich wilder an als sie sind. Die Aktie war krass überbewertet. Man lag sogar wertmäßig kurzzeitig von Apple.
https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedly-targets-600w-rtx-5080-aims-for-400w-with-10-performance-increase-over-rtx-4090
Damit ist die Katze quasi aus dem Sack. 600W für die 5090, wie befürchtet.
Ich wette, dass das Ding auch >700mm² groß ist, wie Turing damals.
Also den können die auch für 1500€ anbieten, ich würd ihn wegen der 600W trotzdem nicht kaufen, irgendwann ist auch mal gut.
Badesalz
2024-09-05, 13:19:19
Das hat sich doch schon mit der 4090 abgezeichnet. Die Nodes geben das einfach nicht her (!) was man an Leistung anbietet. Wir haben uns hier schon damals darüber unterhalten. Nur ging mit den 40ern das grad noch so.
Jetzt ist NV da angekommen wo Intel mit 13Gen/14Gen ankam. Nur war das eine interne Sache und TSMC konnte es halt wesentlich besser. Was NV sich vorstellt kann aktuell niemand. Ergo werden nun auch die TSMC-Nodes vergewaltigt.
Daredevil
2024-09-05, 13:21:37
Nur weil man eine Karte hoch jubeln kann, heißt das in 2024 ja nicht, das man sie auch genau so nutzen muss. Wenn eine 5090@300w das gleiche leistet wie eine 4090@450w, ist die 5090 trotz höherer maximaler Aufnahme die Karte, die im Sommer das Zimmer nicht auf 40°C aufheizt. Und für all diejenigen, die abseits der 500w+ agieren wollen und ihren Radi an die Heizanlage angeschlossen haben, die heizen damit halt ihr Haus im Winter. :D
350w sind für ein 0815 Case und den 0815 Nutzer ja schon eine kleine Zumutung, 450w haben dem nochmal die Krone aufgesetzt, weil man sowas schwierig aus dem Gehäuse bekommt. ( Deswegen ja auch teilweise eine direkte Abgabe der Hitze bei der FE ).
600w stelle ich mir schwer als "Default" für normale Nutzer vor. Eher wird der Preispunkt und der Name ( Titan? ) so exklusiv, das die Käuferschicht genau wissen muss, was sie damit tun.
Egal ob 1080ti, 2080ti, 3090 oder 4090, die Karten mit der besten Perf/Watt Leistung bei einem Anspruch von 4K+ sind am Ende immer die dicksten Karten gewesen@UV, da freue ich mich sehr drauf. :)
Muss aber auch dazu sagen, dass sie niemals dauerhaft bei mir 600w ziehen würde, je nach Kühllösung wäre mein Sweetspot da sicherlich bei 100-300w je nach Profil und Spiel, was ich damit befeuern möchte. Also quasi das gleiche verhalten wie bei der 2080ti/3090, sofern man hier den Verbrauch so weit runter drücken kann.
Badesalz
2024-09-05, 13:30:42
Nur weil man eine Karte hoch jubeln kann, heißt das in 2024 ja nicht, das man sie auch genau so nutzen muss. Wenn eine 5090@300w das gleiche leistet wie eine 4090@450w, ist die 5090 trotz höherer maximaler Aufnahme Du kaufst es DAFÜR für das Geld, nachdem du damals schon für die 4090 geblutet hast? Dann weiß ich grad nicht was die Leute so über den 9700X lästern :freak:
Aber ok. Ok. The More You Buy, The More You Save. Schon ok.
PS:
Ich kenne keine "normale Nutzer" unter den Spielern mit einer 4090. Warum sollten die plötzlich eine 5090 kaufen wollen?
Daredevil
2024-09-05, 14:15:12
Mein Fokus liegt klar auf Performance/Watt und genau darauf lege ich meine Hardware aus.
Das ist für mich in Spielen sinnvoll, da ich nicht unnötig Energie und somit Kosten verursache ( Ziel ist 4K120 ) und zusätzlich heize ich durch das bereitstellen meiner CPU+GPU Rechenleistung ( P2P Computing ) meine Wohnung in den kälteren Monaten, verdiene damit ein wenig *Geld und spare mir das Dinosaurier verbrennen. Meine ehemalige Hardware ( 5600X+3090 ) habe ich aus Ineffizienz Gründen deswegen in Q2 veräußert und warte demnach auf die effizienteste Plattform von AMD/Intel und als GPU Part auf Nvidia. Wenn AMD hier bei Perf/Watt mehr liefert, kann es auch AMD werden, erfahrungsgemäß ist hier aber die dickste Karte das beste Pferd im rennen. Wenn Apple mit einem neuen Ultra Chip um die Ecke kommt und der alles andere hinter sich lässt, vielleicht auch der, wobei hier Gaming dann runter fällt.
*Basteln macht zudem auch ziemlich viel Spaß :D
AffenJack
2024-09-05, 14:24:39
Dachte das betrifft quasi alle aus dem Grund, weil sie bei allen einen ähh... falschen Ansatz nahmen.
Nö, das sind ja spezifische Probleme durch Cowos-L und Dual-Chip. Blackwell Gaming soll ja monolithisch sein und keine Interposer usw. nutzen.
https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedly-targets-600w-rtx-5080-aims-for-400w-with-10-performance-increase-over-rtx-4090
Damit ist die Katze quasi aus dem Sack. 600W für die 5090, wie befürchtet.
Ich wette, dass das Ding auch >700mm² groß ist, wie Turing damals.
Also den können die auch für 1500€ anbieten, ich würd ihn wegen der 600W trotzdem nicht kaufen, irgendwann ist auch mal gut.
Und nen Tag später soll sich das wieder erledigt haben:
https://videocardz.com/newz/nvidia-expected-to-finalize-geforce-rtx-5090-and-rtx-5080-design-this-month-5080d-for-china-also-expected
Also im Moment würde ich annehmen, die Kühler sind auf bis zu 600W ausgelegt. Das waren dei 4090 Kühler aber auch schon. Was für einen Betriebspunkt Nvidia am Ende wählt ist aber noch unklar. 550W ist jetzt aber nun auch kein nennenswerter Unterschied zu 600W.
Davon abgesehen sind die 4090+10% Gerüchte von Kopite für mich unglaubwürdig. Kopites Zuverlässigkeit hat seit einiger Zeit arg nachgelassen und alleine durch den gleichen Node glaube ich nicht an mehr als +30% bei einer 5080 vs 4080.
rentex
2024-09-05, 14:52:53
@AffenJack Nur +30%? Warum sollte man sich die dann kaufen?
AffenJack
2024-09-05, 15:13:53
@AffenJack Nur +30%? Warum sollte man sich die dann kaufen?
Die Zielgruppe der neuen Gen sind nicht die Lovelacebesitzer, sondern die Amperebesitzer.
Die Physik limitiert nunmal die Zuwächse. Ohne Prozessschritt gibts größere Steigerungen nur mit massiv mehr Stromverbrauch. Das ist bei der 5090 mit dem wahrscheinlich ~800mm Die noch möglich für die Leute die das Maximum wollen, aber du kannst nunmal nicht das gesamte Portfolio sonst wie hoch im Verbrauch bringen.
Altehardware
2024-09-05, 15:38:18
Der gb202 wird riesig 823mm² keine chance das dies ne rtx5090 wird. auch wenn der node nur 11000$ kostet man bekommt nur 28 chips raus.
Die Kapazität hat man schlicht nicht und quadro gpu sind viel lohnender zumal dies exklusiv Taktkeule teuer verkaufen kann bei weniger verbrauch.
Etwa 192sm bei 2,0ghz = 300w mit 79tf +28% bei gleichem verbrauch (rtx 6000 142sm)
Sku ab 12000$
Das wird man definitiv nicht am desktop haben wo maximal 2000$ ne sku kosten wird.
Daher wird die rtx5090 den gb203 mit 102sm haben fasst Vollausbau 108sm und aufs maximale Oc bei 3,1ghz bei grob 350w tbp
Die 600w sind wie bei ada release ne Ablenkung für amd rdna5 den das wird früher kommen als alle denken. rdna4 ist quasi bis nov am markt rdna5 könnte bis q2 2025 kommen.
dargo
2024-09-05, 16:21:11
https://videocardz.com/newz/nvidia-geforce-rtx-5090-reportedly-targets-600w-rtx-5080-aims-for-400w-with-10-performance-increase-over-rtx-4090
Damit ist die Katze quasi aus dem Sack. 600W für die 5090, wie befürchtet.
Ich wette, dass das Ding auch >700mm² groß ist, wie Turing damals.
Also den können die auch für 1500€ anbieten, ich würd ihn wegen der 600W trotzdem nicht kaufen, irgendwann ist auch mal gut.
Bei >700mm² wäre es ein Wunder wenn NV dafür nur 1500€ will.
Badesalz
2024-09-05, 16:37:00
Nö, das sind ja spezifische Probleme durch Cowos-L und Dual-Chip. Blackwell Gaming soll ja monolithisch sein und keine Interposer usw. nutzen.Das sagte man zuerst, aber irgendwie tauchten dann auch gerüchte auf, daß die Transistordichte (wie man welche Sektionen anordnet) sehr gutgläubig gewählt wurde. Trotz Fingerzeige von TSMC.
Mein Fokus liegt klar auf Performance/Watt und genau darauf lege ich meine Hardware aus.
Das ist für mich in Spielen sinnvoll, da ich nicht unnötig Energie und somit Kosten verursache Müsste die kWh nicht 1€ kosten, damit sich das irgendwie rechnet, bevor die 6090 kommt? :|
AffenJack
2024-09-05, 19:02:06
Das sagte man zuerst, aber irgendwie tauchten dann auch gerüchte auf, daß die Transistordichte (wie man welche Sektionen anordnet) sehr gutgläubig gewählt wurde. Trotz Fingerzeige von TSMC.
Höre davon zum ersten mal. Quelle? Und jetzt sag bitte nicht MLID, dann kann ich wirklich nur lachen.
BlacKi
2024-09-05, 19:15:39
@AffenJack Nur +30%? Warum sollte man sich die dann kaufen?dlss4+new sauce reicht auch, wenn man die 5080 für 1199€ bringt. amd liefert ja nichts in diesem bereich. vl bringt ja amd diesmal wenigstens was gleichwertiges zu dlss2/3. müssen sie auch, sonst kann nv selbst die vorhandenen karten fast zum selben preis weiterverkaufen.
monstar-x
2024-09-06, 14:44:32
So ähnlich + ein neues "must have" Feature, welches nur auf der 5er Serie läuft.
25-35% scheint recht gut hinzukommen. Wie die 4090er ab ~ 370 Watt skaliert wissen wir.
Nämlich gar nicht mal so gut, selbst wenn man 600 Watt drüber bügelt.
So ist es, alles über 300 Watt bringt kaum noch was.
290-300 Watt sind in Spiel X 70fps avg (Undervolted, 2700 Mhz)
350 Watt 72 fps avg (2900 Mhz)
480 Watt 73 fps (3000Mhz)
das lohnt überhaupt nicht
500-600 brauche ich nicht, die 300 Watt sind noch okay (Stromverbrauch ist mir egal, ist Hobby), was mir nicht egal ist, ist die Abwärme gerade im Sommer.
Über den überdimensionierten Kühler der 4090 bin ich schon froh, so muss die nicht unter Wasser gesetzt werden.
The_Invisible
2024-09-06, 15:12:12
Das hohe Powerlimit ist eher dazu da um Worstcase Powerviren abzufangen, bei Q2RTX und 300W ist man sonst ganz schnell bei so ~2,1-2,2 Ghz Takt
Sardaukar.nsn
2024-09-07, 07:52:37
Weil Blackwell keinen wirklichen neuen Fertigungsprozess bekommt, stehen ja die Bedenken im Raum das ein Sprung in der Rohleistung eher klein ausfallen könnte.
PCGH hatte anlässlich des neuen 3Dmark Steel Nomad noch mal 40 GPUs durch den Parcours geschickt. Danke @Raff
Die Leistungssprünge zwischen den Topmodellen der letzten 10 Jahre stellen sich dann so dar.
980ti +75% = 1080ti
1080ti +51% = 2080ti (galt als mieser Sprung, hab ich auch ausgelassen)
2080ti +74% = 3090ti
3090ti +78% = 4090
Unter +50% wäre historisch schlecht. Kann natürlich passieren, wäre dann aber ein großer Kritikpunkt.
Aktuelle Quelle: https://www.pcgameshardware.de/3DMa...Solutions-GPU-Test-Review-Hands-on-1447596/2/
robbitop
2024-09-07, 08:25:09
1080ti->2080ti waren beim Launch iirc sogar nur ~35%. Der Vorsprung ist mit neueren Spielen gestiegen. Sowohl wegen der moderneren UArch als auch weil die old gen irgendwann keine Spieleoptimierungen bekommt. Letzteres macht schon einiges aus. Insofern kann man sowas IMO nur sauber vergleichen bei Spielen die Optimierungen für die getesteten GPUs bekommen haben.
Das sieht man eigentlich bei allen generationsübergreifenden Tests (zB DF Test wo GCN1-4 und rdna getestet worden sind) sieht man dass irgendwann völlig irrsinnige Vorsprünge aufklaffen, die zum Kaufzeitpunkt des neuen Produktes so damals nicht da waren und ab einem gewissen Zeitpunkt dann nur noch zum Teil theoretischen Nutzen haben (weil längst eine neue GPU gekauft wurde).
dildo4u
2024-09-07, 08:31:09
Die Werte finde ich irrelevant wenn das Ding 100% in RT Performance bringt.
In Raster 4k Performance wirst du massiv Probleme haben nicht in CPU Limits zu laufen.
The_Invisible
2024-09-07, 08:32:37
Bei den 2000ern hat man halt massiv transis verballert um RT und ai reinzubekommen. War von demher eh ein gewagter Release, auf längerer Sicht hat es sich aber wieder ausgezahlt.
dargo
2024-09-07, 09:02:09
So ist es, alles über 300 Watt bringt kaum noch was.
290-300 Watt sind in Spiel X 70fps avg (Undervolted, 2700 Mhz)
350 Watt 72 fps avg (2900 Mhz)
480 Watt 73 fps (3000Mhz)
das lohnt überhaupt nicht
500-600 brauche ich nicht, die 300 Watt sind noch okay (Stromverbrauch ist mir egal, ist Hobby), was mir nicht egal ist, ist die Abwärme gerade im Sommer.
Über den überdimensionierten Kühler der 4090 bin ich schon froh, so muss die nicht unter Wasser gesetzt werden.
Die Abwärme hast du trotzdem da, egal wie groß der Kühler ist. Auch bei Wakü hast du diese Abwärme im Raum, die löst sich nicht einfach auf. Es sei denn du führst diese Abwärme direkt nach draußen vom Gebäude ab. Dürften die wenigsten in der Praxis machen.
Altehardware
2024-09-07, 09:14:47
Es war 2018 klar das man mit raster nix mehr an optik und perf. aus dem silizium bekommt wen nicht die massiv im takt steigen
Zwar ist seitdem die ipc von 170cb15 auif 300cb 15 gestoegen (+76%) dafür hat das ganze 6 Jahre gebraucht
war 2018 noch etwa 16tf das maximum um in 1080p ne rtx titan auf 100% zu bringen
das schaffte damals aber keine cpu
das schnellste war der ci7 8700k mit 4,6ghz
Das spiel mit den höchsten gpu Anforderungen war far cry 5 gefolgt von ac oddessy
Die norm bei gpu um 300€ etwa 5,0tf
Daher war logisch das was neues her musste dxr habe ich nicht erwartet aber es hat sich optisch gelohnt leider kostet das aber massiv perf.
Wo noch metro exodus zaghaft war ist aktuell sw outlaws aus den vollen.
Am deutlichsten ist es aber bei alan wake2 zu sehen. Was dxr bringt.
Die neue Norm wird, sofern endlich die gpu preise an der Realität angekommen sind, bei 20tf sein für grob 400€ dank inflation.
Das gute aktuell reicht dafür jede cpu ab 120€ das war 2018 anders.
Ein 8700k kostete damals min 390€ (inflation inbegriffen)
dafür bekam man ne spieltaugliche gpu ab 350€ (inklusive inflation)
heute muss man min 540€ ausgeben um bis 2027 ruhe zu haben
Das bewiesen die letzten 6 games die herauskamen
sw outlaws
black myth
hellblade 2
ghost of tsu
dragon dogma 2
banishers
Und ich ahne das dieses Jahr noch ein hardwarehammer kommt das ich selbst mit meinen legacy gpu quasi gar nicht starten kann.
Sardaukar.nsn
2024-09-07, 09:38:23
Bei den 2000ern hat man halt massiv transis verballert um RT und ai reinzubekommen. War von demher eh ein gewagter Release, auf längerer Sicht hat es sich aber wieder ausgezahlt.
Ja, da hatte man Weitblick. Aber ich kann mich aus Kundensicht noch erinnern das der Wechsel von 1080ti auf 2080ti beim Release super unattraktiv aussah. Kann sein das so eine Situation jetzt wieder passiert, aber technisch wird sich durch Blackwell ja nicht grundlegend was verändern.
robbitop
2024-09-07, 09:41:57
Die Werte finde ich irrelevant wenn das Ding 100% in RT Performance bringt.
In Raster 4k Performance wirst du massiv Probleme haben nicht in CPU Limits zu laufen.
Ada hat pro SM ein Vielfaches an Transistoren investiert ggü Ampere. Es kam zwar mehr RT Leistung raus aber weit entfernt von 2x (rohleistungsnormiert). Und zu Ada gab es fast 2 fullnodesprünge. Jetzt gibt es bestenfalls einen half node Sprung. Dazu kommt das Gesetz des sinkenden Grenzertrags.
Da wird schon noch etwas mehr kommen aber sehr wahrscheinlich nicht Faktor 2.
Gouvernator
2024-09-07, 09:42:51
Weil Blackwell keinen wirklichen neuen Fertigungsprozess bekommt, stehen ja die Bedenken im Raum das ein Sprung in der Rohleistung eher klein ausfallen könnte.
PCGH hatte anlässlich des neuen 3Dmark Steel Nomad noch mal 40 GPUs durch den Parcours geschickt. Danke @Raff
Die Leistungssprünge zwischen der Topmodelle der letzten 10 Jahre stellen sich dann so dar.
980ti +75% = 1080ti
1080ti +51% = 2080ti (galt als mieser Sprung, hab ich auch ausgelassen)
2080ti +74% = 3090ti
3090ti +78% = 4090
Unter +50% wäre historisch schlecht. Kann natürlich passieren, wäre dann aber ein großer Kritikpunkt.
Aktuelle Quelle: https://www.pcgameshardware.de/3DMa...Solutions-GPU-Test-Review-Hands-on-1447596/2/
Vielleicht gleichen sie es mit historisch mehr VRAM aus? Ominöse AI Edition mit 48-60Gb würde alles an Kritik verstummen lassen. Weil so mal eben ein 70B Llama Modul im PC laufen lassen, ist wirklich bahnbrechend. Das ist 1000% mehr Wert wie paar Prozente in irgendeinem 3D Benchmark.
Sardaukar.nsn
2024-09-07, 10:25:24
Ada hat pro SM ein Vielfaches an Transistoren investiert ggü Ampere.
Viel hilft halt viel. Siehe aktuelle 4k Benchmarks von Warhammer Space Marine 2 (nur Raster) wo die 4090 +44% über der 4080 Super liegt. https://www.pcgameshardware.de/Warhammer-40000-Space-Marine-2-Spiel-74358/Specials/Release-Test-Benchmarks-1454891/4/
Troyan
2024-09-07, 10:30:54
Ada hat pro SM ein Vielfaches an Transistoren investiert ggü Ampere. Es kam zwar mehr RT Leistung raus aber weit entfernt von 2x (rohleistungsnormiert). Und zu Ada gab es fast 2 fullnodesprünge. Jetzt gibt es bestenfalls einen half node Sprung. Dazu kommt das Gesetz des sinkenden Grenzertrags.
Da wird schon noch etwas mehr kommen aber sehr wahrscheinlich nicht Faktor 2.
4090 ist 2x+ schneller als die 3090TI in Raytracing/Pathtracing. Je aufwendiger die Spiele werden, umso besser steht Ada dar. Das ist seit langem wieder eine Generation, wo der Aufwand sich auch in realer Mehrleistung widerspiegelt.
Weil so mal eben ein 70B Llama Modul im PC laufen lassen, ist wirklich bahnbrechend. Das ist 1000% mehr Wert wie paar Prozente in irgendeinem 3D Benchmark.
Sieht Nvidia auch so und verlangt deshalb auch den 5 fachen Preis für die RTX 6000 mit doppeltem RAM.
The_Invisible
2024-09-07, 10:47:13
Ja, da hatte man Weitblick. Aber ich kann mich aus Kundensicht noch erinnern das der Wechsel von 1080ti auf 2080ti beim Release super unattraktiv aussah. Kann sein das so eine Situation jetzt wieder passiert, aber technisch wird sich durch Blackwell ja nicht grundlegend was verändern.
Ja, bei Release gab es halt auch quasi nix was die neue Hardware nutzte, selbst DLSS lief zuerst auf Shadern und war grauslich. Hätte man rein in Raster investiert wäre da viel mehr rausgekommen. Typisches Henne-Ei Problem halt...
@Gouvernator
Ja aber was soll der gemeine Gamer damit? Wenn das kommt wird das höchstens ein paar GB brauchen durch spielkontext-optimierte Modelle.
Altehardware
2024-09-07, 11:40:34
dlss läuft immer noch über die shader
ada war nur mit cache Vergrößerung gegenüber ampere. Mehr war da nicht da der node aber 2 Sprünge gemacht hat von faktisch n16 auf n5 (samsung 8n entspricht in etwa tsmc 16nm)
War klar das die perf. stark ansteigen wird.
Leider auch wahr das man in dxr kein % Schneller wurde da wurde lediglich Takt und sm count größer per sku
Von blackwel erwarte ich grob 18% mehr dxr perf per sm und mehr sm je sku bei gleichem Takt das wäre die intelligent Antwort aber ich ahne das man den billigsten Weg gehen wird und auf Takt geht mit wenig sm aktiv.
und ausgerechnet der interessante chip ist nicht in n4x sondern in sf4 zwar teilweise mit gleicher tbp möglich zu n5 das aber ne frage mit welchen Takt nvidia anpeilt ich ahne das man die 2,5ghz versucht der sweetspot ist bei 2,3ghz und 36sm bei 150w 2,5ghz würden locker 200w ziehen
Was hat ada den vom großen L2 cache
1 puffer für ser
2 FG
3 mehr Auslastung der alu bei großen sku ab 80sm
Blackwell wird erst richtig mit dem L2 cache was anfangen können, mehr fp32 cores rechnen die strahlen von den rt cores aus.
Mich drückts in den fingern aber warten ist die schlaue Antwort auf diese Preisstagnation seit 2023
robbitop
2024-09-07, 12:00:57
4090 ist 2x+ schneller als die 3090TI in Raytracing/Pathtracing. Je aufwendiger die Spiele werden, umso besser steht Ada dar. Das ist seit langem wieder eine Generation, wo der Aufwand sich auch in realer Mehrleistung widerspiegelt.
Ich sagte Rohleistungsnormiert. Natürlich kommt insgesamt 2x RT raus - aber man hat ja auch 1,8x SMs verbaut (und 2,7x Transistoren!!)…
The_Invisible
2024-09-07, 12:11:04
dlss läuft immer noch über die shader
Äh nein: https://www.reddit.com/r/hardware/comments/16gez4x/discussing_the_use_of_tensor_cores_in_upscaling/
robbitop
2024-09-07, 12:14:39
Zumindest der NN Teil läuft über die Tensor Cores. Da wird es sicher aber auch processing geben was kein NN nutzt.
Altehardware
2024-09-07, 12:44:28
ein NN wird nicht genutzt das ist ein algo der festgelegt ist
Die tensor cores können denoisen das stimmt wird aber bisher kaum bis gar nicht genutzt die Ursache ist das denoisen nicht in Echtzeit geht.
Troyan
2024-09-07, 13:10:14
Ich sagte Rohleistungsnormiert. Natürlich kommt insgesamt 2x RT raus - aber man hat ja auch 1,8x SMs verbaut (und 2,7x Transistoren!!)…
Und bei Rasterizing kommt viel weniger raus trotzdem man alleine fast 50% mehr Takt hat. Ada ist soviel besser als Ampere, so dass Pathtracing jetzt schneller ist als simples Rasterizing GI ala Lumen in UE5.
ChaosTM
2024-09-07, 13:37:03
Ampere -> Ada war von 8mm Samsung auf 5nm TSMC.
Diesmal kann man sich keine solchen Sprünge erwarten.
Falls doch, wird es halt wieder teuer. :)
woodsdog
2024-09-07, 14:19:43
Die Leistungssprünge zwischen den Topmodellen der letzten 10 Jahre stellen sich dann so dar.
980ti +75% = 1080ti
1080ti +51% = 2080ti (galt als mieser Sprung, hab ich auch ausgelassen)
2080ti +74% = 3090ti
3090ti +78% = 4090
Man sollte IMO bei Ampere eher mit der 3090 vergleichen. Die TI version kam 1,5 Jahre später, soff 100W mehr und war nur lächerliche 10% schneller. Die hat doch niemand ernsthaft gekauft so spät im Zyklus und für die >=2000 Eur
3090 > 4090 war auf jedenfall ein historisch gutes Upgrade für Raster, RT und Features.
Gouvernator
2024-09-08, 10:20:29
Ja, bei Release gab es halt auch quasi nix was die neue Hardware nutzte, selbst DLSS lief zuerst auf Shadern und war grauslich. Hätte man rein in Raster investiert wäre da viel mehr rausgekommen. Typisches Henne-Ei Problem halt...
@Gouvernator
Ja aber was soll der gemeine Gamer damit? Wenn das kommt wird das höchstens ein paar GB brauchen durch spielkontext-optimierte Modelle.
Hier eine Auflistung was man für Lllama brauchen tut.
8B = 24Gb VRAM, 64Gb RAM
70B = 80Gb VRAM,128 RAM
400B = 400Gb Vram, 500Gb ram
https://youtu.be/1xdneyn6zjw?si=rt-aUOc7hn8_lmH2&t=433
Momentan als Gamer hat man noch nichts davon. Aber für echt bahnbrechende neue Spiele ist es von Vorteil. Man könnte sich quasi in Zukunft mit Bots z.B. in einem Graben sitzend, über Gott und die Welt unterhalten. Wenn man sagen wir als Sniper auf irgendwas wartet, und hat daneben einen KI-Kameraden den man per Sprache direkt ansprechen muss...Das geile ist ja, man braucht keine Befehle oder Tastenabkürzungen, sondern kann direkt seine natürliche Sprache nutzen. Und mit entsrechend gutem 8B-70B erhält auch sinnvolle Antworten zurück. Richtig krass wird es wenn man die AI dabei ganz bewusst, halluzinieren lässt, seinem Game-Avatar entsprechend. Dann wären die Stories in Games völlig einzigartig und interaktiv.
Aber wrum lokal berechnen?
Ich habe einige LLMs lokal ausprobiert, und sie kommen alle nicht annähernd an die Qualität von ChatGPT heran. Deshalb habe ich es aufgegeben und nutze den temporären Chat mit ChatGPT, der keine Daten an die Server zum Lernen sendet.
Gouvernator
2024-09-08, 13:33:09
Aber wrum lokal berechnen?
Weil es sonst eine Stange Geld kostet. Speech-to-Text transcription ist grundsätzlich nicht billig. Und dann zahlst du auch nochmal extra für die Tokens die eine AI als Antworten ausgibt. Diese Tech ins Gaming zu bringen ist wahrscheinlich noch anspruchsvoller als RayTracing.
Außerdem gibt es dann reichlich Mod-Möglichkeiten. Wenn man KI-Kameraden in ihrer Persönlichkeit modifizieren kann.
Weltraumeule
2024-09-16, 20:00:11
Wann kommen wohl die 5080 und 5070 Ti raus, also wirklich kaufbar, ohne Scalperaufpreis? Frage mich halt ob sich ein Upgrade von 4070 auf 4070 Ti Super oder gar billigste 4080 sich jetzt noch lohnt?
- wird die 4080 günstiger wenn die 5000er rauskommen oder nisten sich die 5000er Modelle zwischen den 4000ern passend rein und alle Preise bleiben gleich?
- bekäme ich 5070 Ti für 800-850 € mit Leistung der 4080 und 50 Watt weniger? (sonst lohnt sich kaum)
- oder bekäme ich für 1050 € die Leistung einer 4080 X 1,25?
Oder solle ich jetzt zu einer 4080 greifen? kfa2, Palit oder Gainward? Alle haben laut Recherche öfters mit lauten Lüftern bzw. Motorengeräuschen zu kämpfen.
Wichtig: Ich nutze viele alte DX9 Spiele und dabei SGSSAA/OGSSAA, die 5000er Generation wird dies noch unterstützen oder ist die Architektur zu unterschiedlich? Bzw. ist das davon abhängig oder eher nur ein Treiberfeauture? (AMD bietet sowas aber nicht, daher vermute ich architekturabhängig?)
reaperrr
2024-09-16, 20:19:27
Wann kommen wohl die 5080 und 5070 Ti raus, also wirklich kaufbar, ohne Scalperaufpreis?
Nächstes Jahr.
Dieses Jahr kommt höchstens die 5080, aber dann vmtl. schlecht verfügbar und Richtung 1,5K €.
Frage mich halt ob sich ein Upgrade von 4070 auf 4070 Ti Super oder gar billigste 4080 sich jetzt noch lohnt?
Wenn wie manche Gerüchte besagen die neuen AMD-Karten im Oktober kommen und in Raster nahezu 4080-Leistung bieten, wird NV zumindest zu gewissem Grad über Preise kontern. Mindestens das würde ich daher noch abwarten.
Zu aktuellen Preisen würde ich bei der 4080 klar sagen "nein, lohnt sich zu derzeitigen Preisen nicht".
- bekäme ich 5070 Ti für 800-850 € mit Leistung der 4080 und 50 Watt weniger? (sonst lohnt sich kaum)
Auch hier gilt: Kommt bisschen auf AMD an. Wenn die 8000er 4080-Leistung für <=600 bringen, wird NV für die 5070 Ti nicht viel mehr als 800 nehmen können. Wenn AMD auch teuer wird, kannst Pech haben.
Wichtig: Ich nutze viele alte DX9 Spiele und dabei SGSSAA/OGSSAA, die 5000er Generation wird dies noch unterstützen oder ist die Architektur zu unterschiedlich? Bzw. ist das davon abhängig oder eher nur ein Treiberfeauture? (AMD bietet sowas aber nicht, daher vermute ich architekturabhängig?)
Ich würde sagen: Beides. AMD hat es früher auch mal unterstützt. Vermutlich hängt aber Treiberarbeit dran und AMD hat ein kleineres Treiber-Team, deshalb wurde es nicht fortgeführt da inzwischen zu sehr Nische.
Was 5000er angeht, das wird dir außer jemand von NV selbst wahrscheinlich niemand seriös sagen können, bis die 5000er draußen sind.
Und dann kannst immer noch Pech haben, dass es irgendwann aus dem Treiber entfernt wird.
Sardaukar.nsn
2024-09-17, 06:39:07
Laut aktuellen Gerüchten wird es zunächst die 5090 im Januar auf der CES vorgestellt. Dann 1-2 Monate bis die Verfügbarkeit ohne Scalper Preise da sein wird.
Neurosphere
2024-09-17, 08:17:35
Ich kann mir nicht vorstellen das sowohl NVIDIA als auch AMD sich das Weihnachtsgeschäft entgehen lassen werden.
dildo4u
2024-09-17, 08:20:54
Nvidias Launch hängt nicht nur am Chip sondern ob genug GDDR7 produziert werden kann.
AMD setzt angeblich auf GDDR6 für die 8800XT.
Dural
2024-09-17, 09:42:30
Weihnachtsgeschäft entgehen?
Eine Firma die aktuell ihr Silizium mit Gold aufwiegen kann dürften paar Gamer Karten im Dezember vernachlässigbar sein. Erst recht wenn es überhaupt gar keine Konkurrenz gibt, sprich man muss so wie so zu NV greifen.
Aktuell würde ich ja fast behaupten dass es Stückzahl mässig erst Frühling-Sommer-Herbst 2025 richtig losgeht.
NV wird wie so oft vorgehen: bringt zuerst eine (abgespeckte) "Kleinserie" für rund 1200.- mit der Leistung etwas über der 4090. Sprich günstiger und mehr Leistung und das Marketing und die Gamer haben Freude. Und wenn es ganz schlecht läuft bringt NV zuerst einen extrem abgespeckten TopDog für 2000.-+
The_Invisible
2024-09-17, 10:25:11
Der Hardwaremarkt wird auch immer langweiliger, jetzt hat man schon >2Jahre eine GPU und CPU mäßig (7800x3d) siehts auch nicht wirklich besser aus.
Blöd auch das beide so dicht halten, ein kleiner sneak peek wäre zumindest schon mal interessant :D
Der Hardwaremarkt wird auch immer langweiliger, jetzt hat man schon >2Jahre eine GPU und CPU mäßig (7800x3d) siehts auch nicht wirklich besser aus.
Sei froh. Ich kann mich noch an Zeiten erinnern wo man jedes halbe Jahr aufrüsten konnte und jedes Jahr aufrüsten musste weil sonst nix mehr lief. Das brauch ich nicht mehr.
ChaosTM
2024-09-17, 11:20:44
Ich auch ned. Die 4090er werde ich wohl sehr lange nutzen und für die X3D CPU gilt ähnliches
Die Entwicklungsgeschwindigkeit geht nebenbei immer weiter zurück, aus den bekannten Gründen. (Grenzen der Physik/Strukturbreiten).
SamLombardo
2024-09-17, 11:21:05
NV wird wie so oft vorgehen: bringt zuerst eine (abgespeckte) "Kleinserie" für rund 1200.- mit der Leistung etwas über der 4090. Sprich günstiger und mehr Leistung und das Marketing und die Gamer haben Freude. Und wenn es ganz schlecht läuft bringt NV zuerst einen extrem abgespeckten TopDog für 2000.-+
Dass die 5090 zuerst kommt ist wohl noch nicht 100 Prozent sicher?
dargo
2024-09-17, 12:01:26
Dass die 5090 zuerst kommt ist wohl noch nicht 100 Prozent sicher?
Es macht für NV die 5090 zuerst zu bringen überhaupt keinen Sinn. Eigentlich macht es für NV eine 5090 überhaupt zu bringen keinen Sinn.
SamLombardo
2024-09-17, 12:27:11
Es macht für NV die 5090 zuerst zu bringen überhaupt keinen Sinn. Eigentlich macht es für NV eine 5090 überhaupt zu bringen keinen Sinn.
Hm ok. Hat es denn bei der 4090 Sinn gemacht? Was ist denn diesmal anders?
Aber danke für die Antwort. Es ist also bei Weitem noch nicht sicher. Das war mir nicht klar, ich hatte mich lange nicht mehr mit dem aktuellen Stand beschäftigt.
00-Schneider
2024-09-17, 14:40:46
Hm ok. Hat es denn bei der 4090 Sinn gemacht? Was ist denn diesmal anders?
Die 4090 musste die 7900 XTX schlagen.
Die 5090 hat keine Konkurrenz, da AMD keine Highend Karte auf RDNA4 Basis herausbringen wird.
Dural
2024-09-17, 15:06:57
Steht ja, zu 2/3 kommt die 5080 oder zu 1/3 die 5090 zuerst :freak:
Die 4090 musste die 7900 XTX schlagen.
Der war gut, ganz andere Liga.
maximus_hertus
2024-09-17, 15:10:53
Der war gut, ganz andere Liga.
Ja, aber nur die 4090. Die 4080 war eben keine anderen Liga und in Raster eben nciht schneller. Klar, als Paket war die 4080 die bessere Karte, aber eben nicht in jedem Teilaspekt.
Da hat es eben die 4090 gebraucht um unangefochten in jedem Aspekt vorne zu sein.
SamLombardo
2024-09-17, 15:44:07
Alles klar, danke. Ja das macht Sinn. Mal sehen wie es bei der 5er Generation wird.
Weltraumeule
2024-09-17, 16:33:30
Steht ja, zu 2/3 kommt die 5080 oder zu 1/3 die 5090 zuerst :freak:
Der war gut, ganz andere Liga.
Nein, die XTX wäre nahe an die 4090 dran gekommen, wenn das Design funktioniert und keinen Hardwarebug gehabt hätte. NV hat also mit der von AMD real angepeilten Leitung gerechnet und entsprechend die 4090 dimensioniert. Dann hat sich die XTX danach als defekt entpuppt nach Launch und konnte ihre Leistung nicht erbringen. :frown:
Weltraumeule
2024-09-17, 16:34:51
Es macht für NV die 5090 zuerst zu bringen überhaupt keinen Sinn. Eigentlich macht es für NV eine 5090 überhaupt zu bringen keinen Sinn.
Es gibt Enthusiasten die immer bereit sind Geld für das neuste und schnellste auszugeben, von daher warum nicht an denen verdienen?
Dann gibt es noch paar Enthusiasten welche auf der 3090 sitzen geblieben und die 4000er übersprungen haben, diese könnten nun auf die 5090 umsteigen.
Ergibt doppelt Sinn für NV die 5090 rauszubringen.
dargo
2024-09-18, 13:50:53
Es gibt Enthusiasten die immer bereit sind Geld für das neuste und schnellste auszugeben, von daher warum nicht an denen verdienen?
Diese Enthusiasten zahlen immer noch viel zu wenig wenn man das mit anderen Marktsegmenten vergleicht. ;) Dafür müsste eine 5090 mindestens 3-4x mehr kosten.
Hm ok. Hat es denn bei der 4090 Sinn gemacht? Was ist denn diesmal anders?
Bei der 4090 ging NV noch davon aus, dass AMD was vergleichbares bringt bzw. hat N31 stärker eingeschätzt. Wie es gekommen ist aufgrund des Fehldesigns von RDNA3 wissen wir alle. Beim Nachfolger weiß schon NV, dass nichts vs. 5090 kommt.
Tesseract
2024-09-18, 14:22:24
die dimensionen der 4090 und 5090 haben wenig mit AMD oder überhaupt gaming zu tun sondern orientieren sich am professionellen markt von dem 4090 (und später 5090) salvage parts sind.
dargo
2024-09-18, 14:35:10
Jein... denn "Abfall" vom AD102 gibts auch bei Profikarten wo man mehr Marge abgreifen kann.
https://geizhals.de/nvidia-rtx-5000-ada-generation-900-5g132-2240-000-a3084452.html?hloc=at&nocookie=1&skip_promo=1&mtm_kwd=3084452&gcsscid=1
Wobei ich jetzt unsicher bin wegen dem SI, womöglich sind die Angaben von GH falsch. Basiert die Karte auf AD102 oder AD103?
Edit:
Lol... die Vram Angaben bei GH sind für den Anus. Es sind 24GB und 384Bit SI, ergo Abfall vom AD102.
https://www.ba-computer.at/nvidia-rtx-5000-ada-generation-grafikkarten-900-5g132-2240-000.html
Dural
2024-09-18, 14:46:33
Die 4090 war nie irgendein Gegenstück zu AMD, überhaupt nicht.
Das war die Ursprungs Titan übrigens auch nie.
(Titan, so viel zum Thema es gab nie die Dicke GPU zuerst)
Es ist ein High-End Produkt das nur eines zu Ziel hat: Die Obere Top-Klasse noch etwas besser zur Kasse zu bieten. Sprich Gewinnmaximierung.
Tesseract
2024-09-18, 14:56:37
Jein... denn "Abfall" vom AD102 gibts auch bei Profikarten wo man mehr Marge abgreifen kann.
https://geizhals.de/nvidia-rtx-5000-ada-generation-900-5g132-2240-000-a3084452.html?hloc=at&nocookie=1&skip_promo=1&mtm_kwd=3084452&gcsscid=1
es geht um das grundlegende design, nicht die genaue aufteilung in SKUs.
AD102 ist 60% größer als als AD103, bei blackwell werden es wohl fast 100%. diese abstände ergeben aus reiner gaming-marktsegmentierung keinen sinn. diese chips richten sich danach was man noch ohne HBM bzw. advanced packaging sinnvoll bauen kann (bandbreite für den chip, yield etc.) um das "low-end" vom profimarkt zu bedienen ohne den noch dickeren chips fabkapazität wegzunehmen.
reaperrr
2024-09-18, 20:36:49
diese abstände ergeben aus reiner gaming-marktsegmentierung keinen sinn.
Doch, wegen China.
Die 5090 landet so oder so über den Handelsrestriktionen der USA, deshalb brauchten sie sich bei der auch nicht so sehr zurückhalten, was maximale Specs angeht.
Und die wurden sehr wohl auch in Hinblick auf eine potentielle HighEnd RDNA4 gwählt, die es jetzt so halt nicht geben wird, weshalb die 5090 nun mehr auf gute Yields ausgelegt sein wird.
Klar, auch der Profimarkt wird bei den Specs berücksichtigt worden sein, aber eben nicht nur.
GB203 dagegen ist vor allem so spezifiziert, dass er die Obergrenzen der Handelsrestriktionen nicht überschreitet, damit man die 5080 (und das Profi-Equivalent) noch in China verkaufen kann.
Tesseract
2024-09-18, 21:23:41
nein. die restriktion wurde nach dem release der 4090 auf 10% unter der 4090 festgelegt damit die 4090 explizit davon betroffen ist. außerdem macht beim kombinierten durchsatz der für die regelung ausschlaggebend ist einen großteil die tensor cores aus und die können sie skalieren bzw. deaktivieren wie sie wollen ohne die gamingperformance sigifikant zu beeinflussen.
GB203 dagegen ist vor allem so spezifiziert, dass er die Obergrenzen der Handelsrestriktionen nicht überschreitet, damit man die 5080 (und das Profi-Equivalent) noch in China verkaufen kann.
dass GB203 unter dem threshold liegt kann sein, das ändert aber nix daran dass 4090 und 5090 im verhältnis "zu groß" sind. es wird außerdem ziemlich sicher wieder eine 5090D geben.
das hauptkriterium bei GB203 wird mit hoher wahrscheinlichkeit sein dass sie in spielen in etwa auf oder leicht über der 4090 liegt.
Slipknot79
2024-09-18, 22:38:41
Worum soll man eine 5090D bringen wenn sie nicht schneller sein darf als eine 4090D in China? K würde weniger Saft verbrauchen, aber dürfte eben nicht schneller sein weil Restriktion? Oo
Tesseract
2024-09-18, 22:43:19
natürlich darf sie schneller sein. wenn man die TC entsprechend gimpt kann sie in spielen auch 100% schneller sein.
Colin MacLaren
2024-09-19, 08:51:39
Ich denke mir, die 5090 wird mit 28-32GB RAM kommen. Damit passen 7B Modelle rein, die 28GB RAM benötigen und der Hobby-KI-Markt, wo dann ob 2.000 oder 3.000 EUR keine Rolle spielen, wird bereit sein, dafür zu zahlen. Ich schätze mal so 2.799$ oder 3.199 EUR sind realistisch. Für ein halbes Jahr ausverkauft wird sie eh sein. Nachdem die PS5 Pro nun 799 EUR kostet, mache ich mir gar keine Illusionen mehr, was Preise angeht.
The_Invisible
2024-09-19, 08:58:37
RAM alleine wär mir zu wenig, schon die 24GB hab ich nie voll bekommen außer Games die einfach alles als Cache nutzen. PT Performance mit Faktor >2 und es wird interessant :D
Slipknot79
2024-09-19, 11:24:13
natürlich darf sie schneller sein. wenn man die TC entsprechend gimpt kann sie in spielen auch 100% schneller sein.
Ich d8e die Amis haben die Leistung von KI-GPUs für den Chinaexport absolut begrenzt? Nun kommen doch schnellere GPUs raus und diese dürfen die Chinesen bestellen? Oo
YeahBuoy!
2024-09-19, 11:37:22
Die Amerikaner haben 2023 interessante Metriken für die Sanktionen festgetackert. Verboten sind GPUs die es ermöglichen "100 FP64 PetaFLOPS oder über 200 FP32 PetaFLOPS innerhalb von 1178 Kubikmetern" zu erreichen. (Quelle: https://www.tomshardware.com/news/us-prohibits-exports-of-nvidias-a800-and-h800-to-china-blacklists-chinese-gpu-developers oder im Original hier: https://www.bis.doc.gov/index.php/documents/federal-register-notices-1/3353-2023-10-16-advanced-computing-supercomputing-ifr/file ).
horn 12
2024-09-22, 08:45:20
Hoppla, wenn dies stimmen würde
NV wird Blackwell wohl schnell Auf-Supern, Refreshen müssen!
https://www.tweaktown.com/news/100633/geforce-rtx-5090-could-ship-with-two-16-pin-power-connectors-require-new-psu/index.html?
bbott
2024-09-22, 17:11:27
Hoppla, wenn dies stimmen würde
NV wird Blackwell wohl schnell Auf-Supern, Refreshen müssen!
https://www.tweaktown.com/news/100633/geforce-rtx-5090-could-ship-with-two-16-pin-power-connectors-require-new-psu/index.html?
Warum sollte dadurch ein schneller Wechsel auf die Super erfolgen?
horn 12
2024-09-22, 18:29:48
Dies war ja bereits mal im Gespraech
BlacKi
2024-09-22, 19:23:32
wann gabs denn eine Xo90 super? auch die 2080ti bekam kein refresh. wieso sollte nun die 5090 ein refresh geben? ok es gab eine 3090ti 3 monate vor der next gen. aber was hat das mit den stromsteckern zu tun?
Sardaukar.nsn
2024-09-23, 04:01:23
Ich d8e die Amis haben die Leistung von KI-GPUs für den Chinaexport absolut begrenzt? Nun kommen doch schnellere GPUs raus und diese dürfen die Chinesen bestellen? Oo
Die Karten sind eh alle "made in China". Da werden wohl einige einfach im Land bleiben.
Edgecrusher86
2024-09-23, 07:42:06
Für mich steht es außer Frage, dass die RTX 5090 nicht früh veröffentlicht wird - den eingeschlagen Kurs fährt man doch quasi wieder seit Turing, dass eine Enthusiasten-Karte schnellstmöglich erscheint. Warum sollte es anders sein, als mit Anderen oder Ada? Größt mögliche Leistungssprünge wecken Begehrlichkeiten und man kann den Preis fast beliebig diktieren. Eine FE zu mindestens $1999 MSRP scheint logisch - Sprich 2499-2999€ für bessere Custom Modelle (von einer möglichen HoF OC LAB nicht zu sprechen... aber so etwas baut man eh nur für einige WR). Ich denke, die 5090 dürfte wieder zwei bis vier Wochen vor der 5080 kommen und alleine aufgrund der Tatsache, dass letztere vermutlich wieder "nur" 16GB bekommen dürfte auftrumpfen. Ein konkurrenzloses Produkt ist doch optimal für das Marketing.
Natürlich ist ein quasi Vollausbau (180+ SMs) mit 64GB als RTX 6000 Blackwell nochmals deutlich profitabler, aber NV kann auch abseits dessen ordentlich verdienen (die 5090 dürfte wohl grob 160-168 SMs bieten), vor allem auch mit einer 5090D (evtl. mit 9/12 GPC - 144SMs, also gar 1/3 Cut und dennoch 5090 Preis).
Eine 5080 wird man natürlich auch gut vermarkten können: Schneller als die RTX 4090 für zum Beispiel "nur" $1199 MSRP. Vor allem zum Beispiel 2080(Ti) oder 3080(Ti) User dürfte das ansprechen.
Badesalz
2024-09-23, 08:15:45
Für mich steht es außer Frage, dass die RTX 5090 nicht früh veröffentlicht wird
Ich verstehe das zwar mit der Enthusiasten-Blase, aber ich bin neulich kurz bei NextGen Dreams reingestolpert (CP2077). Dann noch kurz auf Digital Dreams und noch kurz Unrecord auf Voyagers Revenge.
Und dachte mir, wegen der 5090: Naja. Was solls :ulol:
basix
2024-09-23, 08:44:33
es geht um das grundlegende design, nicht die genaue aufteilung in SKUs.
AD102 ist 60% größer als als AD103, bei blackwell werden es wohl fast 100%. diese abstände ergeben aus reiner gaming-marktsegmentierung keinen sinn. diese chips richten sich danach was man noch ohne HBM bzw. advanced packaging sinnvoll bauen kann (bandbreite für den chip, yield etc.) um das "low-end" vom profimarkt zu bedienen ohne den noch dickeren chips fabkapazität wegzunehmen.
Korrekt. 512bit und 2x Chips macht man nicht für Consumer, sondern für den Workstation Markt. Bei 32Gbit Chips und wenn dann noch Clamshell geht (wird schon knapp bei 512bit), wären das 128GByte RAM für die fancy AI-Modelle. Ohne Clamshell sind es dann 64GByte. Vermutlich gibt es zm Start aber nur 16GBit Chips, dann bleibt es auch bei Clamshell bei max. 64GByte. Das ist deutlich günstiger herzustellen als H100 oder auch ein halber B100 und auch besser in eine 300W PCIe-Karte zu pressen. Mit der Bandbreite kommt man nie in die Nähe der HPC-Karten, deswegen wird man in gewissen Szenarien deutlich langsamer sein. 10k$ wird man trotzdem dafür abdrücken dürfen.
Ich denke mir, die 5090 wird mit 28-32GB RAM kommen. Damit passen 7B Modelle rein, die 28GB RAM benötigen und der Hobby-KI-Markt, wo dann ob 2.000 oder 3.000 EUR keine Rolle spielen, wird bereit sein, dafür zu zahlen. Ich schätze mal so 2.799$ oder 3.199 EUR sind realistisch. Für ein halbes Jahr ausverkauft wird sie eh sein. Nachdem die PS5 Pro nun 799 EUR kostet, mache ich mir gar keine Illusionen mehr, was Preise angeht.
Normalerweise sind Basis-Modelle in FP16 quantisiert. Das wären dan 14GByte für ein 7B Modell und 26GByte für ein 13B Modell. Dazu noch etwas Overhead für das drumherum. Da wären 32GByte schon nicht schlecht. Bei vielen neueren Modellen findet man auf Huggingface allerdings auf FP8 re-quantisierte Vesionen. Ganz wenige auch FP4 (das wird sich mit Blackwell vermutlich deutlich steigern).
konkretor
2024-09-26, 20:17:01
Specs wohl draußen
https://videocardz.com/newz/nvidia-geforce-rtx-5090-and-rtx-5080-specs-leaked
Tesseract
2024-09-26, 20:29:00
wenn das stimmt hat die 5080 wohl keine chance an die 4090 ran zu kommen.
rentex
2024-09-26, 20:42:31
wenn das stimmt hat die 5080 wohl keine chance an die 4090 ran zu kommen.
Das wäre wohl ein ziemlicher Fail.
Der_Korken
2024-09-26, 20:47:11
Die Specs sind schon ein ziemlicher Witz, aber das wird Nvidia nicht davon abhalten die für 1399$ rauszuhauen. Die 4080S für 999$ nimmt man einfach vom Markt und fertig. Die 5090 wird 2999$ kosten.
OgrEGT
2024-09-26, 21:00:23
Die 5080 hätte so aber auch nicht arg viel mehr SMs als die 4080S... also diejenigen die eine 4080S schon haben würds eher schwer fallen auf eine 5080 aufzurüsten... nicht jeder will ja gleich ne 5090...
basix
2024-09-26, 21:01:42
wenn das stimmt hat die 5080 wohl keine chance an die 4090 ran zu kommen.
Wie immer: Takt und IPC sind unbekannt. Bei ~3.3GHz ohne IPC Steigerung wäre man bei ~4090 Niveau, wenn man verglichen mit einer 76SM 4080 entsprechend skaliert.
ChaosTM
2024-09-26, 21:03:59
Das mach so wenig Sinn, aber mal schaun.
Die 5080er wäre dann relativ sinnarm. Lächerliche 16GB und nicht mal oder gerade mal 4090er Level.
Die Dicke ist/wäre natürlich "interessant" ...
OgrEGT
2024-09-26, 21:04:21
3.3GHz am Ende der Fahnenstange mit wieviel Leistungsaufnahme?
dildo4u
2024-09-26, 21:05:16
400 Watt sprechen für hohen Takt.
ChaosTM
2024-09-26, 21:05:38
3.3GHz am Ende der Fahnenstange mit wieviel Leistungsaufnahme?
600 Watt bei einem Sweet Spot von ~ 450 :)
OgrEGT
2024-09-26, 21:07:27
Muss man halt Tests abwarten wie hoch der Takt unter Last bei welchem Realverbrauch gehalten werden kann...
OgrEGT
2024-09-26, 21:08:32
600 Watt bei einem Sweet Spot von ~ 450 :)
Jupp :D
Sardaukar.nsn
2024-09-26, 21:10:59
Der Abstand zwischen 5090 und 5080 wäre dann ja noch mal deutlich stärker als schon bei Lovelace. Hätte ich nicht gedacht.
Tesseract
2024-09-26, 21:18:16
Wie immer: Takt und IPC sind unbekannt. Bei ~3.3GHz ohne IPC Steigerung wäre man bei ~4090 Niveau, wenn man verglichen mit einer 76SM 4080 entsprechend skaliert.
warum sollte man einfach von einer 4080 skalieren? da wo eine 4090 die rohleistung nicht auf die straße bringt wird das eine 5080 auch nicht. boosttakt einer durchschnittlichen 4090 ist etwa 2750MHz, selbst wenn eine 4080 beliebig taktbar wäre, perfekt skalieren würde und nur 135% erreichen müsste wären das 3,7GHz. in bestimmten lasten kann der unterschied aber auch deutlich größer als 35% sein.
mit welcher rechnung geht das auch nur irgendwo auf? (RT ausgenommen)
OgrEGT
2024-09-26, 21:19:50
Je nachdem wo da die 4090 genau dazwischen steht mit 60% mehr CCs 50% breiterem VRAM Interface und 28% mehr Bandbreite bezogen auf die spekulierte 5080... Könnte die 4090 noch ne Weile die Stellung halten...
The_Invisible
2024-09-26, 21:50:24
Das mit den nur 16gb bei der 5080 ist schon lächerlich, vor allem bei vermutlichen Preisen von >1000eur. Klar, wird bis zur nächsten Gen so halbwegs reichen aber wenn da wirklich massiv bessere RT Performance kommt könnte das schon limitieren bei PT Titeln, sehe ich schon bei meiner 4090.
Zumindest bekommt man dann die 4090 gut los.
BlacKi
2024-09-26, 22:25:14
ich finde die 12gb varianten für wohl 800-900€ einfach gaga. das war schon vor 2 jahren grenzwertig und eigentlich mit deutlich kürzerer halbwertzeit behaftet, aber nochmal bei blackwell?
ChaosTM
2024-09-26, 22:26:29
NV macht immer nur das absolute Minimum.
Daher muss man immer genau schauen was man kauft, will man eine Karte etwas länger haben.
Die 1080ti hat fast 5 jahre "gehalten", weil sie für damalige Verhältnisse überdurchschnittlich viel VRAM hatte.
Die 4090er ist zwar ungleich teurer, aber dank der Speicherbestückung und der "neuesten" Features hab ich ein gutes Gefühl, das auch die ähnlich lange brauchbar sein wird.
Die 30er Serie fühlte sich trotz 24Gb einfach nicht gut genug an.
Speziell wegen der suboptimalen 8nm von Samsung.
basix
2024-09-26, 23:09:46
warum sollte man einfach von einer 4080 skalieren? da wo eine 4090 die rohleistung nicht auf die straße bringt wird das eine 5080 auch nicht. boosttakt einer durchschnittlichen 4090 ist etwa 2750MHz, selbst wenn eine 4080 beliebig taktbar wäre, perfekt skalieren würde und nur 135% erreichen müsste wären das 3,7GHz. in bestimmten lasten kann der unterschied aber auch deutlich größer als 35% sein.
mit welcher rechnung geht das auch nur irgendwo auf? (RT ausgenommen)
Wie gesagt: Wir wissen nicht, wie sich Blackwell verhält. Du genauso wenig wie alle anderen. Rein von der Rohleistungssteigerung ggü. einer 4080 ist es nicht ausgeschlossen. Deswegen: Kann nicht für eine 4090 reichen, je nachdem aber doch. Hier irgendwelche Absolutismen zu predigen von wegen "das wird niemals reichen" ist ein bisschen vorschnell ;)
Tesseract
2024-09-26, 23:23:56
"wird wohl nicht" und "niemals" ist aber schon noch was anderes. :wink:
damit das eintritt muss man für blackwell IMHO einfach zu viele sehr optimistische annahmen treffen.
Edgecrusher86
2024-09-27, 03:29:37
Klingt ja fast so, dass man 2026 die RTX 5080 Ti für $1599 MSRP bringen dürfte - mit 112 bis 128 SMs (14336 SP bis 16384 SP F32; 7-8 GPC), 384-bit @ 28 Gbps (1344 GB/s), 24GB G7 und zum Beispiel 450-500W TGP.
Ein perfekter Lückenfüller mit ordentlicher Marge - grob 20-25% oberhalb der 5080 und 50% mehr VRAM , dennoch in etwa 25-30% hinter der 5090.Zu gut, um "nur" eine 5080 Super zu sein.
Also ich würde es so praktizieren. Viele Enthusiasten kaufen in dieser Zeit die 5090 und die Leute, denen eine 5080 zu wenig bietet, aber die 5090 zu teuer ist, kann man etwas später besser zur Kasse bitten.
Zusätzlich wäre auch noch eine 5080 Super mit einem halben GB202, 96 SM (1228 SP FP32; 6 GPC), 320-bit und 20GB mit z.B. 430W TGP zum Preis der originalen 5080 möglich - knapp 10% oberhalb genannter.
Altehardware
2024-09-27, 03:51:44
nun 170sm sind unglaubwürdig außer die Takten bei 2,2ghz
das muss ein cowos chip sein wo ein n12 Si mit einen n4 alu chip gibt 6 renderengines a36sm die in 128alu in 104 fp32 rendern können je sm 8 fpu
170*2,2*104*2,1= 77tf 340w oder +23% vs rtx4090
84sm *2,8ghz*2*104=48tf 250w +25% rtx4080 super
natürlich könnte nvidia einfach maxed oc gehen bis 3,0ghz macht aber kein Sinn
bei beiden ist ein cpu limit wahrscheinlich
Nun mein verdacht
gb202 cowos chip 440mm² zwei sku titan rtx5090 2,2ghz
gb203 monolith 480mm² drei sku rtx5080 84sm, rtx5070ti 70sm, rtx5070 60sm 2,8ghz
gb205 samsung sf4 (2,4ghz) Monolithen 389mm² zwei sku rtx5060ti (50sm) rtx5060 (40sm)
gb206 samsung sf4 laptop rtx5060m rtx5050 2,18ghz +-100w tdp laptops bis 140w per.+- rtx3070
gb207 samsung sf4 laptop handheld 20sm 1,8ghz +- rtx3050 8gb perf (60w tbp)
basix
2024-09-27, 08:14:11
damit das eintritt muss man für Blackwell IMHO einfach zu viele sehr optimistische Annahmen treffen.
Sind die so optimistisch? Es braucht genau 2 Dinge dazu:
- Skalierung mit Anzahl SMs (was alle Lovelace GPUs ausser 4080 Super und 4090 ganz anständig machen)
- Takt bei ~3.3GHz -> +20% ggü. einer 4080
Macht unter dem Strich 1.33x Performance, was beim CB Index das Niveau der 4090 ist (Raster und RT Index)
Eine neue Architektur, N4P, GDDR7 und die gerüchteweise 400W machen obige Annahmen jetzt nicht zu einem Moonshot. Klar, es muss zuerst so designed und umgesetzt werden, aber so weit aus dem Fenster muss ich mich nicht lehnen. Wir reden hier nicht von extremen Taktsteigerungen, doppelten FP32-Units pro SM oder deutlichen IPC Steigerungen, sondern eher einer Evolution ausgehend von Lovelace.
Nehmen wir mal alleine die 400W (was ich für viel zu viel halte): Eine 4080 verliert bei ~270W kaum Performance. Man hätte also fast +50% Power, um den Chip auf 3.3GHz zu prügeln. Eine 4080 erreicht mit OC auch um die 3.0GHz. Weit weg wäre man also nicht.
Ich vermute, eine 5080 wird sich mit einer 4090 duellieren können. Im Durchschnitt. Bei Spielen, wo die 4090 gut skaliert (1.4x+ zu einer 4080) wird es vermutlich nicht reichen (ausser eben besondere Effekte wie IPC usw. kommen zum tragen, was ich aber mal nicht erwarte). Inkl. DLSS könnte es noch interessant werden (z.B. bei 4K): Die 4090 skaliert enorm schlecht zu tieferen Auflösungen hin. Evtl. ist eine 5080 mit DLSS-Q/P sogar schneller als eine 4090. Wäre interessant und einen Test wert.
Wieso ich die 5080 auf einer 4090 verorte:
- Technisch nicht abwegig
- Portfolio mässig für Nvidia sinnvoll
- Eine 5080 die langsamer als eine 4090 ist, hat es noch nie oder schon extrem lange nicht mehr gegeben (Marketing Wirkung). Die 4080 schlug eine 3090 Ti, die 3070 war auf Augenhöhe einer 2080 Ti, die 2080 schlug eine 1080 Ti, eine 1070 war schneller als eine 980 Ti, die 980 schlug die 780 Ti, usw.
dildo4u
2024-09-27, 08:24:02
Oder sie wollen 999$ zum Launch und füllen die Lücke mit einer 5080 Ti.
Die 4080 hatte extrem negative Reviews und für Nvidia Verhältnisse miserable Verkäufe.
basix
2024-09-27, 08:28:19
999$ ist mMn immer noch zu viel, selbst wenn man die 4090 knapp erreicht ;)
Sowas würde sich immer noch schlecht verkaufen.
Sardaukar.nsn
2024-09-27, 08:35:14
Die 4080 hatte extrem negative Reviews und für Nvidia Verhältnisse miserable Verkäufe.
Wenn mit Blackwell nicht noch DLSS4 oder andere exklusive Features kommen, wird sich die 5080 noch schlechter verkaufen als die schon unbeliebte 4080.
dildo4u
2024-09-27, 09:10:23
Ich denke 2X zu 3080 mit 16GB sollte anlocken RT plus Framegen sollte dort größere Unterschiede zeigen.
Die Wahrheit ist ja das die Masse ihre 3080 nicht für 700€ gekauft hatte die sind auf 1k kalibriert.
gnomi
2024-09-27, 09:19:55
Die S Serien 2019 und 2024 liefen AFAIR besser als die Ursprungsmodelle.
Ich spekuliere auch auf die Refresh Karten Anfang 2026.
Am liebsten 5080S oder noch besser mal wieder eine ordentliche TI mit dem großen Chip. :D
5080 wird 4090 in vielen Fällen erreichen und teuer bleiben, wenn AMD nichts entgegen zu setzen hat.
5090 wird dann gewohnt extra teuer.
Noch vermeide ich das aus Prinzip und weil ich nicht mehr genug spiele.
Ich muss aber sagen, 4090 war eine überragende GPU.
BlacKi
2024-09-27, 09:29:51
glaubt ihr, die 5090 wird doppelt so schnell wie die 2. beste konkurenz? wann gabs dass das letzte mal?
Cubitus
2024-09-27, 09:53:57
Ich muss aber sagen, 4090 war eine überragende GPU.
Jepp das war quasi die zweite 8800 GTX.. :)
dildo4u
2024-09-27, 10:06:22
Launch zur CES 2025 laut diesem Gerücht
https://wccftech.com/nvidia-geforce-rtx-5090-5080-launch-ces-2025-14-layer-pcb-12v-2x6-pcie-5-0-dp-2-1a
Anscheinend sind die TDPs von 400 und 600W nicht final und es deutet offenbar viel darauf hin, dass das ähnlich wie letztes Mal läuft und die Kühllösung der Partner dafür designt sind aber letztendlich doch wieder 300 und 450W dabei rumkommen werden. Man sieht das lt. CB an den FE-Kühlern, die sind deutlich kleiner als für 600W nötig wäre.
Mit nur 300W dürfte die 5080 die 4090 auch nicht packen, ich geh von 899$ für das Modell aus, weil da eben nur 15% oder sowas draufkommen und sich die 4080 so mega schlecht verkauft hat. Die 5090 würde dann zwsichen 1600 und 1800$ landen. Nach den bisherigen Erfahrungen, auch mit den Titans, dürfte das das Maximum sein, was auch von normal ambitionierten Spielern, die gern RT wollen, bezahlt wird. >2000 wird sich nicht in der Masse verkaufen. 1600$ UVP hat sich mMn bewährt für NV, man muss ja auch ein bisschen Platz für die Produktvielfalt und die TUFs, Strix und Aorus dieser Welt lassen.
davidzo
2024-09-27, 11:43:52
Launch zur CES 2025 laut diesem Gerücht
https://wccftech.com/nvidia-geforce-rtx-5090-5080-launch-ces-2025-14-layer-pcb-12v-2x6-pcie-5-0-dp-2-1a
Ich würde da nichts auf die Goldwaage legen weil Teile der Gerüchte definitiv falsch sind. Zum Beispiel ist da von 24Gbit (3GB) GDDR7 Modulen für die 5090 die Rede, an einem 512bit Interface mit aber 32Gb VRAM Kapazität. Das passt natürlich nicht denn 16x 3GB Module wären 48GB. Ich halte trotz der langjährigen Gerüchte ein 384bit Interface im Consumerbereich für realistischer. Die ganzen anderen Gerüchte die von Alu Verdopplung, N3E etc. sprachen haben sich ja auch als maßlos übertrieben herausgestellt. Und wer weiß, vielleicht hat GB202 wirklich 512bit in HW? Aber dann wird halt neben 12% der SMs auch das SI gesalvaged um 25%. Und dann würden die 24Gbit GDDR7 Module wieder Sinn machen.
Was ebenfalls totaler Schmarrn ist sind die erneuten PCB Aufteilungsbilder. Keines der PCBs bringt einen Monsterchip mit 512bit SI und 16x Speichermodule unter. Das macht technisch so keinen Sinn und war schon letztes mal bei den Gerüchten zur 4090ti falsch. Wenn dann handelt es sich hier um die triple PCB Aufteilung die schon in Photos eines 4slot Kühlers geleakt wurde: https://videocardz.com/newz/nvidia-rtx-4090-ti-titan-cooler-prototype-listed-for-120k-usd-in-china
Diese Aufteilung macht durchaus Sinn, da der Airflow damit wesentlich effizienter wird. Bisher ist der 4090 Kühler nur zur Hälfte Flow through und einer der beiden Lüfter wird ineffizient umgelenkt. Der gezeigt Kühler zur 4090ti dagegen ist zu 100% flow through und dabei sogar kürzer. Die Länge der bisherigen 4090/3090 Kühllösung ist dabei gar nicht mal zuträglich für die Kühlleistung, da der mittlere Teil nur indirekt von Luft umströmt wird und längere Heatpipes nur einen größeren Wärmewiderstand haben. Kürzere Heatpipes und komplett umströmte Lamellen können also besser performen als die geringfügig höhere Oberfläche des alten Kühlers.
Zum Lineup fürchte ich aber dass der Leak ziemlich on point ist.
Nvidia hat genau Zero incentive ein sinnvoll besseres Lineup zu liefern. Die Mid-life Preiserhöhungen im April haben ja gezeigt wo die fahrt hingeht. Solange es keine Konkurrenz gibt gibt es bei nvidia nur eine Richtung mit den Preisen und zwar nach oben und mit den Kosten nach unten. Das heißt auch dass die 5080 über 1000$ starten wird und die 5090 die 2000$ brechen wird. Es gibt keinen Grund von Nvidia ein besseres P/L als die Vorgängergeneration zu bieten, eher geht es darum die zum Teil mittlerweile wieder gefallenen Retailpreise wieder anzuheben. Selbst AMD launcht mittlerweile keine Generation mit besserem PL als die Straßenpreise der alten Generation. Nvidia wird hier auch keine Ausnahme machen.
Ich glaube auch dass mindestens der lowend GB207 bei GDDR6 bleibt und nicht GDDR7 wie Leo das auf der Frontpage schreibt. 128bit GDDR7 macht einfach keinen Sinn für nur 20SM. Möglich ist ein 64bit Interface, aber vermutlich kommt man günstiger an das Ziel von 8GB VRAM mit gut verfügbarem GDDR6. Ich vermute dass man im Desktop bei 128bit bleibt, aber im Mobilbereich gibt es sicher auch einen GB207 mit nur 64bit.
Bei der 5060 hoffe ich noch auf eine altruistische Entscheidung Nvidias diese Karte mit 24Gbit GDDR7 Modulen auszustatten sodass man auf 12GB kommt. Den GDDR7 wird man brauchen um einen Bandbreitenzuwachs gegenüber der 4060 zu erziehlen, aber nur über die VRAM-Menge kann man sich deutlich von der 4060 absetzen welche über die gleiche Anzahl an SMs verfügt. Dann würde man auch endlich mit der vier Jahre alten 3060 gleichziehen.
Allerdings sind meine Hoffnungen gering, denn schon der 4060-Launch hat ja gezeigt dass nvidia im gaming markt mittlerweile komplett schamlos agiert.
Alle Hoffnungen liegen auf AMD und Intel die nvidia einzigst zu diesem Zug zwingen könnten.
prinz_valium_2
2024-09-27, 12:00:17
1000€ wäre für die Stats echt ein fairer Preis und würde ich sogar zahlen, obwohl ich eher 300 bis 500€ GPUs kaufte.
Aber wird wohl eher 2500 bis 2999€ für die 5090
Fragman
2024-09-27, 12:07:21
Gemessen an der 5080 ist die 5090 bei diesen Stats eher der Blackwell Nachfolger. Kann man sich also auf die 6080 freuen... :D
ChaosTM
2024-09-27, 12:07:43
Wird sich trotzdem großartig verkaufen. Manche müssen einfach immer das Beste haben und wenn das Geld sonst sinnlos herumliegt, warum nicht.
Persönlich sehe ich wenig Gründe, da sich die 4090er sowieso meist langweilt und bei den extremen HW Fressern wie Wukong reicht auch die 5090er nicht aus um 4K nativ vernünftig zu spielen. Falls das ein Anreiz sein sollte...
Prinzenrolle
2024-09-27, 12:44:35
In 60 Tagen wird es interessant.
wolik
2024-09-27, 21:03:03
https://www.tomshardware.com/pc-components/gpus/nvidia-rtx-5090-rumor-claims-pcie-50-displayport-21-uhbr20-and-only-a-single-12v-2x6-power-connector
Nun das vorläufig Die Spezifikationen für den RTX 5090 und den RTX 5080 sind durchgesickert, einschließlich der GPU-Kernzahlen und der Matrizenmodelle, andere gemunkelte Spezifikationen für Nvidias nächste Generation GPUs der Blackwell RTX 50-Serie überschwemmen das Internet. Benchlife berichtet, dass das Flaggschiff von Nvidia, RTX 5090, mit PCIe 5.0-Konnektivität und einem einzigen Stromanschluss sowie mit DisplayPort 2.1 UHBR20-Ausgängen ausgestattet sein wird.
In den Nachrichten wird behauptet, dass der RTX 5090 einen einzigen 12V-2x6-Steckverbinder haben wird, wobei zu beachten ist, dass die GPU "nur" einen einzelnen Anschluss verwenden kann. Dies könnte eine Art Einschränkung sein, die Nvidia implementiert, aber wir haben gesehen, dass RTX 4090s mit Übertaktung ausgerichtet sind dual 16-polig Steckverbinder vorher. Wenn der 5090 über einen 600-W-TGP verfügt, besteht für uns kaum ein Zweifel daran, dass ein AIB-Partner irgendwann ein werkseitig übertaktes Halomodell mit zwei Stromanschlüssen herausbringen wird.
Der RTX 5090 wird angeblich endlich haben DisplayPort 2.1a Steckverbinder — Nvidia liefert seit dem Start der GTX 10-Serie im Jahr 2016 DP1.4a-Ausgänge, obwohl DisplayPort 2.0 2019 von VESA offiziell veröffentlicht wurde. DP2.1 im Jahr 2022 hat sich nicht viel geändert, sondern nur Dinge aufgeräumt, um sie an USB4 auszurichten. Tatsächlich hat AMD seine RDNA 3 DP2.0-Unterstützung so überarbeitet, dass sie DP2.1-konform mit den Teilen der RX 7000-Serie ist. Nvidia wird Berichten zufolge auch die UHBR20-Spezifikation — mit voller Bandbreite unterstützen, bisher nur AMDs Radeon Pro W7900 bietet UHBR20 mit einem einzigen Ausgang an. Der Rest der Ports sowie andere RDNA 3-GPUs verwenden UHBR13.5.
An anderer Stelle wird behauptet, dass der 5090 über eine 14-lagige Leiterplatte verfügen wird, um die Signalintegrität zu gewährleisten. Die Luftkühlung bleibt trotz ihres ultrahohen 600-W-TDP die primäre Kühllösung für den RTX 5090. Die Medien schlugen jedoch vor, dass "verschiedene Unternehmen" auch Flüssigkühlungslösungen — auf den Markt bringen werden, was angesichts der Tatsache, dass wir solche GPUs in den letzten zehn Jahren gesehen haben, keine große Belastung darstellt.
Wenn dies korrekt ist, stellen diese Spezifikationen einige Neuerungen für Nvidia dar. Die RTX 50-Serie ist die erste Nvidia-Client-GPUs, die PCIe 5.0-Funktionen bietet (das Rechenzentrum H100 / H200 hat bereits PCIe 5.0-Unterstützung). Das verdoppelt die externe Bandbreite für die GPUs von 32 GT / s (PCIe 4,0 x 16) bis 64 GT / s (PCIe 5,0 x 16). Es ist fraglich, wie vorteilhaft dies in Spieleszenarien sein wird, aber es könnte für bestimmte Nicht-Gaming-Workloads, die mehr Kommunikation mit dem Host-System betreiben, sowie möglicherweise in Multi-GPU-Szenarien (wie KI) von Vorteil sein. Dies ist jedoch nicht die weltweit erste GPU mit PCIe 5.0 als Nvidia Hopper H100 hatte das schon im Jahr 2022 — und sogar Die GPU-Reihe von Moore Thread bietet auch PCIe 5.0-Unterstützung.
Die RTX 50-Serie wird auch die erste Nvidia GPU-Reihe sein, die eine Revision von DisplayPort über die mittlerweile alte 1.4a-Version hinaus bietet. DisplayPort 1.3 bis 1.4a bieten seit 2014 bis zu 32,4 Gbit / s Bandbreite (25,92 Gbit / s mit 8b / 10b-Codierung für Daten). 2016 wurden 1,4 DSC-Unterstützung (Display Stream Compression) hinzugefügt. DP1.4a überarbeitete die DSC-Unterstützung 2018 von 1,2 auf 1,2a, da frühere DSC-Revisionen einige Probleme zu haben schienen. Nachdem Nvidia endlich auf den neueren DisplayPort-Standard umgestellt hat, wird es die Variante mit der höchsten Bandbreite geben: UHBR20. Das unterstützt bis zu 20 Gbit / s pro Spur (von 8,1 Gbit / s mit Version 1,3 bis 1,4a) für 80 Gbit / s Gesamtbandbreite. DP2.1 verwendet auch die 128b / 132b-Codierung, um die Übertragungseffizienz zu verbessern, sodass die maximale Datenbandbreite bei 75,37 Gbit / s endet (wobei 0,20 Gbit / s für andere Zwecke reserviert sind).Das bedeutet, dass die tatsächliche Bandbreite der Videodaten fast dreimal so hoch ist wie die der alternden DP1.4a-Spezifikation. Mit DSC kann UHBR20 sogar eine Leistung von bis zu 8.000 bei 240 Hz oder 16.000 bei 60 Hz — oder theoretische 960 Hz für 4K-Videos unterstützen.
Last but not least behauptet Benchlife, dass RTX 5090 und RTX 5080 auf der CES 2025 veröffentlicht werden. Wir haben unsere Zweifel daran, dass Nvidia einen CES-Start durchführt, da dies traditionell keine PC-Hardware-Messe ist, auf der das Unternehmen wichtige Ankündigungen hat. Die Super-Erfrischung der RTX 40-Serie war Anfang 2024 die Ausnahme, aber das war eher ein Update in der Mitte des Zyklus als eine wichtige neue Architektur. Dennoch ist CES auch zu einem wichtigen Ort für KI-Diskussionen und Hype geworden, und es besteht kaum ein Zweifel, dass Nvidia bei seiner Ankunft die KI-Trommel für die RTX 50-Serie schlagen wird.
In 60 Tagen wird es interessant.
Für Portmone :)
Slipknot79
2024-09-27, 21:48:37
SHUT UP AND TAKE MY MONEY erst up +100% performance plus vs 4090, sonst nicht. Das ist der Deal mit Lederjacke. (y)
Was bringen die dicken Specs wenn das Teil eine Krücke wird.
Ich würde ja auch nicht von einer 4070 auf eine 4090 umsteigen. gähn.
1000€ wäre für die Stats echt ein fairer Preis und würde ich sogar zahlen, obwohl ich eher 300 bis 500€ GPUs kaufte.
Aber wird wohl eher 2500 bis 2999€ für die 5090
Fair ist an dem Preis überhaupt nichts. 1200$ für die 5090 und 700$ für die 5080 wäre fair. Wir sind auf überhöhtem Niveau nach wie vor.
lilgefo~
2024-09-27, 22:50:41
1200$ ist fair für etwas das planentenweit einzigartig ist und von keinem Konkurrenten ansatzweise erreicht werden kann? Dafür krieg ich nichtmal nen Satz Bremsscheiben für mein Auto. Und das können hunderte von Herstellern in der ganzen Welt liefern. Frag mich immer was da so die Denke ist bei solchen Kommentaren. Bei PC Hardware ist die Fahnenstange noch lange lange nicht erreicht, das fängt grad erst an.
aceCrasher
2024-09-27, 22:56:11
1200$ ist fair für etwas das planentenweit einzigartig ist und von keinem Konkurrenten ansatzweise erreicht werden kann? Dafür krieg ich nichtmal nen Satz Bremsscheiben für mein Auto. Und das können hunderte von Herstellern in der ganzen Welt liefern. Frag mich immer was da so die Denke ist bei solchen Kommentaren. Bei PC Hardware ist die Fahnenstange noch lange lange nicht erreicht, das fängt grad erst an.
Was allerdings dagegen spricht: Selbst die einzigsartigste, beste Grafikkarte der Welt ist in spätestens 4 Jahren nicht mehr der Rede Wert. Andere teure "Gegenstände-Hobbys" haben nicht diesen krassen Alterungsprozess. Es gibt beispielsweise absurd teure Lautsprecher oder Autos, die werden dann aber auch nicht innerhalb von wenigen Jahren von Einsteigerprodukten irrelevant gemacht.
lilgefo~
2024-09-27, 23:00:17
Was allerdings dagegen spricht: Selbst die einzigsartigste, beste Grafikkarte der Welt ist in spätestens 4 Jahren nicht mehr der Rede Wert. Andere teure "Gegenstände-Hobbys" haben nicht diesen krassen Alterungsprozess. Es gibt beispielsweise absurd teure Lautsprecher oder Autos, die werden dann aber auch nicht innerhalb von wenigen Jahren von Einsteigerprodukten irrelevant gemacht.
Hmm naja, gerade im Bereich Auto find ich das nicht so zutreffend. Ein Auto aus 2020 mag von aussen gut aussehen aber von der Technik her ist es halt komplett veraltet. Fährt immer noch gut, keine Frage aber das ist das Äquivalent zu naja, das Auto fährt aber noch gut, meine GTX 1080 kann immer noch WOW darstellen. Mein Audi ist BJ 2022 un fährt 0 auf 100 in unter 4 sek., das ist jetzt gut aber wenn ich ihn 26 tausche wirds halt nur Mittelmaß sein. Das ist in allen Hobbybereichen dasselbe nur das PC Hardware halt mit Abstand das Günstigste Hobby ist.
Slipknot79
2024-09-27, 23:40:40
https://videocardz.com/newz/nvidia-geforce-rtx-5080-also-rumored-with-24gb-memory-reportedly-using-3gb-gddr7-modules
Lederjacke liest im 3dc und ballert angeblich eine 5080 mit 24GB nach.
bbott
2024-09-28, 00:17:13
Fair ist an dem Preis überhaupt nichts. 1200$ für die 5090 und 700$ für die 5080 wäre fair. Wir sind auf überhöhtem Niveau nach wie vor.
NV und fair, der war gut ;D
TheAntitheist
2024-09-28, 02:57:22
Fair ist an dem Preis überhaupt nichts. 1200$ für die 5090 und 700$ für die 5080 wäre fair. Wir sind auf überhöhtem Niveau nach wie vor.
AMD macht kaum Gewinn mit ihren GPUs... dennoch sind die teuer obwohl sie kleine DIEs haben.
1200 wäre geistesgestört billig und überhaupt nicht realistisch. Vor allem mit 32GB GDDR7... sorry aber das ist bs
TheAntitheist
2024-09-28, 02:59:03
Was allerdings dagegen spricht: Selbst die einzigsartigste, beste Grafikkarte der Welt ist in spätestens 4 Jahren nicht mehr der Rede Wert. Andere teure "Gegenstände-Hobbys" haben nicht diesen krassen Alterungsprozess. Es gibt beispielsweise absurd teure Lautsprecher oder Autos, die werden dann aber auch nicht innerhalb von wenigen Jahren von Einsteigerprodukten irrelevant gemacht.
die Bremsscheiben sind nach 4 Jahren auch durch...
BlacKi
2024-09-28, 03:02:51
Vor allem mit 32GB GDDR7... sorry aber das ist bs
gddr7 ist wohl hauptsächlich in der entwicklung teurer solange die menge gleich bleibt. in der masse ist gddr7 wohl wenig teurer pro GB.
AMD macht kaum Gewinn mit ihren GPUs... dennoch sind die teuer obwohl sie kleine DIEs haben.
kaum gewinn? woran machst du das fest? ich denke schon das die mit ihrer 7800xt mit 450€ gewinn machen. nur nicht soviel wie nv mit ihren karten.
von dem kuchen will amd nun aber auch naschen, das geht wohl aber nur über andere wege.
nv geht nun auch neue wege. die produzieren nun 5090er die bei der teilung zu 2x 5080 gpus werden. einmaliger entwicklungsaufwand, aber 2 chips. das ist auch der grund für die 512bit SI. solch einen moove hätte ich mir von amd gewünscht. könnte in kleinformat ja kommen.
OgrEGT
2024-09-28, 08:10:51
(...)
nv geht nun auch neue wege. die produzieren nun 5090er die bei der teilung zu 2x 5080 gpus werden. einmaliger entwicklungsaufwand, aber 2 chips. das ist auch der grund für die 512bit SI. solch einen moove hätte ich mir von amd gewünscht. könnte in kleinformat ja kommen.
Wie geht das wenn der halbe GB202 aka GB203 7x6x2 SMs (7 Rasterizer) der GB202 12x8x2 SMs (12 Rasterizer) haben soll?
https://www.computerbase.de/2024-09/rtx-5090-und-5080-geruecht-nennt-600-watt-und-32-gb-gddr7-fuer-das-topmodell/
Sardaukar.nsn
2024-09-28, 10:41:02
nv geht nun auch neue wege. die produzieren nun 5090er die bei der teilung zu 2x 5080 gpus werden. einmaliger entwicklungsaufwand, aber 2 chips. das ist auch der grund für die 512bit SI. solch einen moove hätte ich mir von amd gewünscht. könnte in kleinformat ja kommen.
Finde ich interessant. Man kann ja davon ausgehen das die 5080 in etwa die Leistung der 4090 haben wird. Wenn das stimmt könnte die 5090 sich doch Richtung +50-70% über der 4090 liegen.
https://i.imgur.com/PCYmBGc.jpeg
https://videocardz.com/newz/nvidia-geforce-rtx-5090-and-rtx-5080-specs-leaked
basix
2024-09-28, 10:43:21
Gab ja lange Gerüchte, dass GB202 aus 2x GB203 besteht. Die Gerüchte der letzten Monate gingen wieder zurück auf monolithische Die. Ich denke, Nvidia kann sich den monolithischen Ansatz bei GB202 einfach leisten. Die werden genug Chips verkaufen und genug hohe Margen abgreifen können. GB202 wir zu einem guten Teil mit dem professionellen Markt und ML/AI Workstations im Auge entwickelt worden sein (64 GByte VRAM, später 96 GByte wenn die 24Gbit GDDR7 Chips kommen). Deswegen so viel Speicher und Bandbreite. Consumer ist hier also wirklich "nur Abfall" ;)
Mehrere Die hat Nvidia bei V100, A100 und H100 nicht gemacht. Und B100 geht auf Multi-Die, weil man grösser als das Reticle Limit wird. Dort gab es keine Alternative (N3E war noch nicht ready). GB202 sollte bei ~700mm2 oder leicht mehr landen, das dürfte im gut erpropten N5 / N4P Prozess ohne Probleme klappen.
Finde ich interessant. Man kann ja davon ausgehen das die 5080 in etwa die Leistung der 4090 haben wird. Wenn das stimmt könnte die 5090 sich doch Richtung +50-70% über der 4090 liegen.
Ich hoffe auch auf ~1.7x 4090. Wenn die 5080 auf ca. 4090 landet, sollte das möglich sein. Die 5090 hat verglichen mit der 4090 sehr, sehr viel mehr Bandbreite (~1.7x) und vermutlich auch deutlich mehr L2$ (sagen wir mal 96...112 MByte). Da hoffe ich, das GB202 die Leistung besser auf den Boden bringt als AD102.
1.7x Performance würde auch besser zu den 600W Gerüchten passen. Auch wenn ich hoffe, dass es deutlich weniger als 600W werden (450W waren schon sehr viel).
The_Invisible
2024-09-28, 10:49:29
https://videocardz.com/newz/nvidia-geforce-rtx-5080-also-rumored-with-24gb-memory-reportedly-using-3gb-gddr7-modules
Lederjacke liest im 3dc und ballert angeblich eine 5080 mit 24GB nach.
Na hoffentlich erst später dann kann man die 4090 noch gut verkaufen :D
Weltraumeule
2024-09-28, 11:29:16
Wann wäre die 5080 verfügbar und zu welchem Preis? Für 1000 € sicher nicht oder?
Denn Montag wird bei mir die neue 4080 für 1440p geliefert, für 1025 €.
Denke ich sollte die behalten oder? Für 1440p reicht sie, underoltet wird auf 270W oder weniger, wenn es geht und die 1025 waren bereits 200 € über meiner Schmerzgrenze.
Eine 5080 würde bestimmt 1200 kosten oder?
Sardaukar.nsn
2024-09-28, 11:40:29
Na hoffentlich erst später dann kann man die 4090 noch gut verkaufen :D
Wobei, wenn Blackwell keine neuen Features bringt, kannst du die 4090 auch getrost behalten. Komfortable Situation. :wink:
BlacKi
2024-09-28, 11:57:00
Eine 5080 würde bestimmt 1200 kosten oder?
denke schon, ich spekuliere mit 1199$. also praktisch 1299€, mit deppenaufschlag dann 1400.
Gab ja lange Gerüchte, dass GB202 aus 2x GB203 besteht. Die Gerüchte der letzten Monate gingen wieder zurück auf monolithische Die.
ja, aber der ansatz das wirklich die 5080 den zahlen nach, passt das wie die faust aufs auge. war das nicht ein patent von nvidia, 2x gb203 so anzuordnen, das sie als monolitischer die funktioniert? das man nach dem belichten entscheidet, ob der wafer zu gb202 chips wird oder doch gb203?
Finde ich interessant. Man kann ja davon ausgehen das die 5080 in etwa die Leistung der 4090 haben wird. Wenn das stimmt könnte die 5090 sich doch Richtung +50-70% über der 4090 liegen.
ich denke das könnte passen, wobei ich denke, das die 5080 in höheren auflösungen sich nicht ganz durchsetzen können wird. das kann man relativ gut anhand der speicherbandbreite ablesen. bei der 5090 könntest du richtig liegen, solange das powerlimit da nicht reinkreuzt. bei 600w könnte in richtung +70% gehen, bei 450w eher um die +50%.
Hmm naja, gerade im Bereich Auto find ich das nicht so zutreffend. Ein Auto aus 2020 mag von aussen gut aussehen aber von der Technik her ist es halt komplett veraltet.
Ein Auto ist nach 10 Jahren noch nicht so veraltet wie High-End-Hardware nach 3 Jahren :freak:
AMD macht kaum Gewinn mit ihren GPUs... dennoch sind die teuer obwohl sie kleine DIEs haben.
1200 wäre geistesgestört billig und überhaupt nicht realistisch. Vor allem mit 32GB GDDR7... sorry aber das ist bs
Das ist schlicht Unsinn. AMD verkauft und produziert kaum GPUs. Trotzdem soll es einen N31-Stock geben, der ist bislang nicht abverkauft. Angeblich soll das noch passieren, dafür müssen die Preise aber runter.
Und ich hab 0 von Realsmus geredet, sondern was faire Preise wären. Und das wäre nunmal fair, da auch NV noch gut Marge damit machen würde. Aber so ist es nicht, NV zockt die PC-Kundschaft halt knallhart ab und nimmt, was sie in dieser Monopolsituation noch bereit ist dafür zu bezahlen.
Die 4080 ist halt ein gutes Beispiel dafür, dass das eben nicht endlos geht mit den Preiserhöhungen, 1000$+ für ne 80 bezahlt die Kundschaft nicht.
Finde ich interessant. Man kann ja davon ausgehen das die 5080 in etwa die Leistung der 4090 haben wird. Wenn das stimmt könnte die 5090 sich doch Richtung +50-70% über der 4090 liegen.
https://i.imgur.com/PCYmBGc.jpeg
https://videocardz.com/newz/nvidia-geforce-rtx-5090-and-rtx-5080-specs-leaked
Die packt die 4090 mit Sicherheit nicht, ich denke, die wird auch keine 400W haben letztendlich. Guck dir das doch mal an: die 4080 taktet schon mit 2,8GHz, wie hoch soll die denn takten? Nein, mehr als 20-25% ist einfach nicht drin mit annähernd gleicher Shaderzahl und fast gleicher TDP. Und das ist hoch gegriffen.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Geforce-RTX-5080-bald-mehr-Speicher-24-GiB-1456581/
Ich schätz mal 899 für die 16GB und 999 für 24GB-Variante. Bin gespannt, ab wann 24Gbit-Speicher dann verfügbar ist.
BlacKi
2024-09-28, 14:10:24
Nein, mehr als 20-25% ist einfach nicht drin mit annähernd gleicher Shaderzahl und fast gleicher TDP. Und das ist hoch gegriffen.
naja, taktpotential wird mehr über die architektur erreicht. und BW ist eine neue architektur. potential wäre da, es lässt sich nur schlecht abschätzen.
aber mit hilfe über die bandbreite, wenn der cache sich nicht groß verändert, kann man schon erkennen wo die reise hingeht. denn zuviel bandbreite verbaut man freiwillig nicht. und da liegt ada konservativ gesehen bei -10%, der abstand wird aber tendentiell eher geringer ausfallen.
Und da sind wir ja auch schon beim Problem, wenn das Ding deutlich mehr Bandbreite bringt, kann man ein paar mm² beim Cache einsparen. Ich nehme sowieso an, dass der 203er 30-40mm² kleiner sein wird als der AD103. Das Ding wird für NV billier und für den Kunden schneller sein als AD103 mMn.
rentex
2024-09-28, 14:41:47
https://videocardz.com/newz/nvidia-geforce-rtx-5080-also-rumored-with-24gb-memory-reportedly-using-3gb-gddr7-modules
Lederjacke liest im 3dc und ballert angeblich eine 5080 mit 24GB nach.
Endlich die Bestätigung! Das 3DC Forum ist "systemrelevant" ;D
Spaß beiseite. Sollte die 5080 nicht im Bereich der 4090 operieren, wird sie übersprungen.
Ich kann Regler bedienen, DLSS aktivieren und besitze einen G-Sync Monitor.
basix
2024-09-28, 14:58:33
Ich schätz mal 899 für die 16GB und 999 für 24GB-Variante. Bin gespannt, ab wann 24Gbit-Speicher dann verfügbar ist.
Da gehe ich mit. Bei 4090 Performance :D
Interessant wird auch das restliche Portfolio sein, was den VRAM angeht. Die 4060 Ti krankt an zuwenig Bandbreite. Deswegen würde mir irgendwas so vorstellen.
Initiales Portfolio:
- GB202, 32GB, 28Gbps GDDR7 (5090)
- GB203, 16GB, 28Gbps GDDR7 (5080)
- GB205, 12GB, 26Gbps GDDR7 (5070)
- AD106 und kleiner bleiben am Markt (Desktop)?
- GB206, 8GB, 26Gbps GDDR7 (Mobile only?)
- GB207, 8GB, 18Gbps GDDR6 (Mobile only?)
Zweiter Teil und Refreshes (Ende 2025?):
- GB202, 28GB, 28Gbps GDDR7 (5080 Ti)
- GB203, 24GB, 28Gbps GDDR7 (5080 Super)
- GB205, 18GB, 26Gbps GDDR7 (5070 Super)
- GB206, 12GB, 28Gbps GDDR7 (5060 Ti)
- GB207, 12GB, 21Gbps GDDR7 (5060)
- GB207, 8GB, 18Gbps GDDR6 (5050 Ti)
reaperrr
2024-09-28, 16:50:58
Da gehe ich mit. Bei 4090 Performance :D
Interessant wird auch das restliche Portfolio sein, was den VRAM angeht. Die 4060 Ti krankt an zuwenig Bandbreite. Deswegen würde mir irgendwas so vorstellen.
(...)
GB206 soll ebenfalls noch GDDR6 sein nach letztem Gerüchtestand, GB207 sowieso. GDDR7, insb. die 3GB-Chips, wird für Mainstream anfangs schlicht zu teuer sein, jedenfalls für das, was sich NV an Margen vorstellt.
Was GB203 angeht: 84 Sm für die 5080 scheint bestätigt, für mich ist nur noch nicht ganz klar, ob das schon Vollausbau oder nur Salvage ist. Sind 84SM Vollausbau, wird definitiv noch ne 5070 Ti auf GB203-Basis darunter kommen.
Ist der Vollausbau eigentlich 96 SM und NV hält 84 SM einfach für ausreichend gegen die nicht-vorhandene Konkurrenz, wird unter der 5080 auch nix mehr mit GB203 kommen (außer Restverwertung in 1-2 Jahren).
Ich rechne jedenfalls aktuell eher mit sowas:
Initiales Portfolio:
- GB202-170, 32GB, 28Gbps GDDR7 (5090)
- GB203-84, 16GB, 28Gbps GDDR7 (5080)
- GB205-48/50, 12GB, 28Gbps GDDR7 (5070)
- GB206-36, 8GB/16GB(?), 19Gbps GDDR6 (5060)
- GB207, 8GB, 16-18Gbps GDDR6 (5050)
Zweiter Teil und Refreshes:
- GB202-180, 48GB, 28Gbps GDDR7 (5090 Ti/Titan)
- GB202-144, 28GB, 28Gbps GDDR7 (5080 Ti)
- GB203-84, 24GB, 28Gbps GDDR7 (5080-24GB)
- GB203-70, 16GB, 28Gbps GDDR7 (5070 Ti)*
(- GB205-48/50, 18GB, 28Gbps GDDR7 (5070-18GB)) - unsicher
- GB205-42, 10GB@160b, 28Gbps GDDR7 (5060 Ti)
- GB206-32, 8GB, 18Gbps GDDR6 (5050 Ti)
*abhängig davon, ob die 5080 schon Vollausbau ist.
Alles unter GB202 ist offensichtlich darauf ausgelegt, so günstig wie möglich in der Produktion zu sein und die Leistung eher über uArch-Verbesserungen und Takt zu holen und den Rest über DLSS und FrameGen zu "lösen".
GB206 hat mehr L2 als GB207, soll den G6 etwas höher takten und ein bisschen kann man auch dann noch über GPU-Takt rausholen, wenn die GPU teilweise im Bandbreitenlimit hängt, von daher würde ich hier nicht viel erwarten.
The_Invisible
2024-09-28, 17:27:15
naja, taktpotential wird mehr über die architektur erreicht. und BW ist eine neue architektur. potential wäre da, es lässt sich nur schlecht abschätzen.
aber mit hilfe über die bandbreite, wenn der cache sich nicht groß verändert, kann man schon erkennen wo die reise hingeht. denn zuviel bandbreite verbaut man freiwillig nicht. und da liegt ada konservativ gesehen bei -10%, der abstand wird aber tendentiell eher geringer ausfallen.
Ja das große Fragezeichen ist noch wie viel IPC mehr man bekommt und obs wieder ein "MustHave" 5000er only Feature geben wird oder eben zB die RT Leistung überproportional zu Raster ansteigt.
Die 4090 ist manchmal schon >40% schneller als eine 4080, wenn die Shaderzahl gleich bleibt müsste die 5080 sich da schon sehr strecken.
Lederjacke soll jetzt endlich mal Infos raushauen :freak:
horn 12
2024-09-28, 18:48:16
Zweiter Teil und Refreshes:
CES der Launch
und der Zweite Teil Spätsommer 2025
Was sagst du dazu reaperrr
Sardaukar.nsn
2024-09-28, 19:05:34
...Lederjacke soll jetzt endlich mal Infos raushauen :freak:
Na an, mit einer 4090 ist das jetzt die entspannteste Situation ever. Kann mich gar nicht erinnern das es am Ende eine Generation noch so viel "Überschuss" gab. DLSS+FG spielen da natürlich auch noch rein, aber hier läuft es meist noch ins 120hz/fps Limit des Monitors.
Edgecrusher86
2024-09-28, 19:23:35
Man muss bedenken, dass NV seit Maxwell die VRAM-Bestückung im Enthusiasten-Segment für jeweils zwei oder drei Generationen beibehalten hat.
GTX TITAN X 12GB
TITAN X (Pascal), XP 12GB
(TITAN RTX 24GB) in () ob des Preises
RTX 3090 24GB
RTX 4090 24GB
RTX 5090 32GB
Also dürfte die RTX 6090 auch mit 32GB kommen.
Bezüglich Refresh-Modelle, dürfte man vermutlich maximal eine RTX 5080 Ti 24GB und 384-Bit sehen - 28GB kann ich mir schwer vorstellen. Als so spendabel stufe ich Jensen nicht ein.
RTX 6000 Blackwell wird sicherlich mit 180(+) SMs und 64GB kommen, aber das ist eine andere Zielgruppe.
Eine 5090 Ti oder eine Art neue TITAN halte ich nicht für wahrscheinlich. Die 5090 wird eh die nächsten Jahre absolut dominieren. Also kann man es auch so wie mit der 4090 halten. Ich denke auch nicht, dass sich die 3090 Ti ordentlich verkauft hat - der Markt ist dann halt schon im Grunde gesättigt.
Schon derbe, dass GDDR7 später bis 64Gb haben kann. Dann kann man Next Gen wieder das SI beim 102/202er Chip verkleinern, wenn es die Taktraten ausgleichen können... wobei, wenn dieser 2x 103/203 wäre. 192/224 Bit erscheint doch etwas wenig für eine 80er Karte.
Sardaukar.nsn
2024-09-28, 19:49:36
Man muss bedenken, dass NV seit Maxwell die VRAM-Bestückung...
Aber mal Hand aufs Herz. Gab es denn bei dem Gamern ja echten Mangel an VRAM?
Ich kenne die Diskussionen, aber meistens kam die Unzufriedenheit durch die generelle Performance bei Auflösung XZY.
Edgecrusher86
2024-09-28, 22:29:04
Aber mal Hand aufs Herz. Gab es denn bei dem Gamern ja echten Mangel an VRAM?
Ich kenne die Diskussionen, aber meistens kam die Unzufriedenheit durch die generelle Performance bei Auflösung XZY.
Nur, wenn man tief in die Trickkiste gegriffen hat, ansonsten sind die 24GB immer ausreichend. ;-)
Was kleinere Modelle betrifft... das ist des Öfteren etwas Anderes. In der Regel hätten aber bereits + 2-4GB eine deutliche Besserung gebracht, sprich eine Verdoppelung wäre nicht sinnig gewesen im Bezug auf die Rohleistung.Genau!
Also 32GB bei der 5090 werden genauso OP für Gamer sein wie damals die 12GB Maxwell X oder die 24GB 3090 zu Release.
Die 16GB der 5080 sind wohl "kurzfristig" okay - erinnert mich etwas an die 3080 10GB. Darum mag vielleicht einigermaßen zeitnah eine 24GB Version on top aufgelegt werden - vermutlich mit 200€. Damals dauerte es aber über ein Jahr, bis die Variante "done right" kam. Also wenn man zum Beispiel die 4090 mit 10-30% schlägt (letzteres wohl bei RT, ohne FG), wäre dieselbe VRAM Menge sicherlich von Vorteil gewesen.
lilgefo~
2024-09-28, 22:57:11
Ein Auto ist nach 10 Jahren noch nicht so veraltet wie High-End-Hardware nach 3 Jahren :freak:
Naja, wenn man das Auto nur in seiner Essenz als Individualmobilität sieht mag da sein. Das gilt dann aber auch für Hardware. Eine 10 Jahre alte GPU oder CPU stellt dir trotzdem noch Bilder dar und bringt dich ins Internet. Kannst du damit NextGen Games spielen? Nö. Genauso ists beim Auto. Ne 10 Jahre alte Mühle bringt dich trotzdem zur Kneipe ums Eck, ob das nu sonderlich komfortabel oder schnell ist bzw. eine gute Transportqualität bereitstellt ist dann die andere Frage.
Aber mal Hand aufs Herz. Gab es denn bei dem Gamern ja echten Mangel an VRAM?
Ich kenne die Diskussionen, aber meistens kam die Unzufriedenheit durch die generelle Performance bei Auflösung XZY.
Wenn man im Enthusiast Bereich gekauft hat nie, nö.
Man muss bedenken, dass NV s....
RTX 6000 Blackwell, was??
Prinzenrolle
2024-09-29, 01:16:56
Fair ist an dem Preis überhaupt nichts. 1200$ für die 5090 und 700$ für die 5080 wäre fair. Wir sind auf überhöhtem Niveau nach wie vor.
Und die RX8800 dann für 350 oder was?
Wird nicht passieren.
1200 Dollar für die 5080 und 1699-1999 für die 5090. Völlig ohne Konkurrenz.
Die 5060 Ti, dann für 499 Dollar. So in etwa. Die rx 8800 dann für 599 Dollar.
dreamweaver
2024-09-29, 07:59:28
Muss man denn wieder davon ausgehen, daß man die 5080 wochen- oder monatelang gar nicht oder nur mit 500 Euro Aufschlag bekommen wird?
horn 12
2024-09-29, 08:27:30
Nein, denke nicht da der Aufrüstwille kaum vorhanden sein wird bei 16GB und nicht mal/kaum Level 4090 Performance
Erst eine 5080 TI mit 24GB und vielleicht 4090+ 10% wird die Leute dazu bewegen.
Sardaukar.nsn
2024-09-29, 08:54:38
Nein, denke nicht da der Aufrüstwille kaum vorhanden sein wird bei 16GB und nicht mal/kaum Level 4090 Performance
Erst eine 5080 TI mit 24GB und vielleicht 4090+ 10% wird die Leute dazu bewegen.
Mal ganz ehrlich, auf die Ti oder Super "Refresh" Modelle zu warten hat doch noch nie gelohnt.
OgrEGT
2024-09-29, 08:58:53
Eben weil in der Regel zu nahe an der next Gen...
OgrEGT
2024-09-29, 09:00:35
Was die 5090 braucht ist ein Mörder-PT AAA Spiel als Zugpferd...
Platos
2024-09-29, 09:06:45
Mal ganz ehrlich, auf die Ti oder Super "Refresh" Modelle zu warten hat doch noch nie gelohnt.
Ähhmmm, doch? Genau das hat es mit Ada. Die Preise sind erst dann brauchbar gewesen für z.B eine 4080(S). Gerade im Gebrauchtmarkt sind die Preise durch die 4080s extrem gesunken. Also doch, die Super-Generation hat die Preise erst brauchbar gemacht.
Das Selbe gilt für RTX 2000 Generation.
robbitop
2024-09-29, 09:32:32
Das schon aber viel zu spät. Eine neue GPU zu kaufen wenn nicht mehr so viel steigt bis zur NextGen kann zu „buyer‘s remorse“ führen.
Außerdem ist die kürzere Lebenszeit gesehen auf die „Abschreibung“ ja auch relevant. Wenn man zB 1 Jahr weniger Nutzwert hatte.
IMO war die 4070ti und 4080 extrem überteuert. Die 4070 oder die 4090 zum launch kaufen und 2 Jahre bis zur nächsten Gen wäre (rein für Ada gesehen) wahrscheinlich kein so schlechter Weg gewesen.
Haben viele nicht gemacht weil es ab Ada dann lächerlich wurde mit den Preisen.
Sardaukar.nsn
2024-09-29, 09:50:09
Was die 5090 braucht ist ein Mörder-PT AAA Spiel als Zugpferd...
...oder ein CP 2077 Remastered wie das Sony dieses Jahr mit der Horizon und der PS5 pro abzieht. Ne, lass mal stecken. :biggrin:
@Platos Ich hab tatsächlich im August eine 4070 Super für meinen Sohn gekauft, weil ich es zu dem Zeitpunkt für das beste Angebot hielt. (600€ -70€ Asus Cashback + Wukong). Aber nen Jahr auf so ne GPU warten? Ne lass mal.
Altehardware
2024-09-29, 10:20:23
16Gb vram reichen locker und das noch bis zur nächsten Konsolen gen (ps6 2027)
Die gründe sind Spiele engines sehen in high level den ganzen ram eines PC
Man hat nur Mangel an schnellen ram bei der gpu da sind 16gb ein solides Polster
Spiele berechnen ihre Frames auf kopieren eines Bildes und vorladend es nächsten mit Nachbearbeitung von etwa einen frame
Aus der Natur des ganzen läuft das fließend manchmal werden auch noch Daten vorgeladen was grob noch ein frame ist
Also maxed 4 frames die daten mengen pro Bildauflösung 1080p 2 Millionen pixel je 96dpi 512bit =1,3gb + Nachbearbeitung etwa 500mb =1,8gb mal 4 7,2gb
Das die norm die gebraucht wird
1440p vergrößert das ganze auf 11,6gb
2160p auf 23,6gb
Im maximum
nahezu kein Spiel rendert nativ 2160p
Die rop in den meisten sku können das gar nicht darstellen
60class 48 rop 1080p 60fps
70class 64 rop 1080p 85fps
80class 112 rop 1440p 80fps
90 class 192 rop 2160p mit grenzen 60fps
Darum sind die 16gb mit vermutlich 96rop völlig ausreichend
Ob das mit spielen ab 2027 noch reicht ist offen ich vermute das man bis dahin nur noch 1080p schafft
Das liegt aber primär an den rop nicht an der vram menge
rtx5080 84sm 96rop 386 tmu 2,8ghz sofern monolithisch mcm dann 2,3ghz
48tf oder 40tf mit 268gpixel (2160p = 32fps) oder 220gpixel (2160p =26fps)
Den eins ist sicher die Texturauflösung wird steigen bis 1024bit dann wird der vram bedarf quasi verdoppelt das passiert aber erst mit der ps6 ab 2028
bis dahin kommt man locker mit 12gb und 16gb vram aus. bei 1080p-1440p
jegliche zu geringe vram wird in den ram ausgelagert daher merkt man heute auch nicht mehr wirklich ob zu wenig vram im system ist die Leute mit 8gb sku haben dann Nachladende Strukturen früher, was zu popins führt.
Gut gemacht merkt man da nix und hat sogar mehr perf. da weniger berechnet wird.
Wer noch gta san andreas kennt kennt das problem auf der PS2. Die 4mb ram waren einfach zu wenig.
The_Invisible
2024-09-29, 11:14:28
Was die 5090 braucht ist ein Mörder-PT AAA Spiel als Zugpferd...
Reichen eigentlich schon die vorhandenen PT spiele wenn man mit nativ/dlss-q bencht oder gamen will.
Vom Zeitpunkt her würde ja Gothic Remake passen, glaub aber zu klein, ich wär aber dafür :D
ChaosTM
2024-09-29, 11:25:31
Wünsche der 5090er viel Glück dabei, zb. Wukong nativ mit 60fps @ 4k zu rendern.
Da wäre ich dann von der Rohleistung her wirklich beeindruckt. :)
Platos
2024-09-29, 11:32:59
Das schon aber viel zu spät. Eine neue GPU zu kaufen wenn nicht mehr so viel steigt bis zur NextGen kann zu „buyer‘s remorse“ führen.
Außerdem ist die kürzere Lebenszeit gesehen auf die „Abschreibung“ ja auch relevant. Wenn man zB 1 Jahr weniger Nutzwert hatte.
IMO war die 4070ti und 4080 extrem überteuert. Die 4070 oder die 4090 zum launch kaufen und 2 Jahre bis zur nächsten Gen wäre (rein für Ada gesehen) wahrscheinlich kein so schlechter Weg gewesen.
Haben viele nicht gemacht weil es ab Ada dann lächerlich wurde mit den Preisen.
Sehe ich anders. Wer ne RTX 4080 zu nem guten Preis (gebraucht) gekauft hat bzw. eine RTX 4080s zu nem guten Preis (neu), der wird auch noch mit RTX5000 kein besseres P/L kriegen (mit vieeeel Glück vlt. max. +5%). Bis es gute Preise gibt bei RTX5000 wird wieder 1 Jahr vergehen. Bis die Super-Generation kommt (sofern man beim 2 Jahreszyklus + Refresh bleibt). (Natürlich wird nvidia und die Fanboys hier es trotzdem hinkriegen, ein besseres P/L zu kreieren. Wie damals bei Lovelace und den Vergleichen mit einer RTX 3080Ti oder 3090 Ti und solche Spässe...)
Oder denkt hier ernsthaft jemand, dass nvidia mit Blackwell wieder ein besseres P/L bringt? Dann kann ich nur lachen:freak:
Es war sogar schon seit Generationen vor Lovelace so, dass bei Launch einer neuen Generation die Abverkaufspreise meistens mindestens gleichauf mit den neuen Karten waren. Selten gab es mal eine Karte, die wirklich von Anfang an viel besser war. Jeder weiss doch, dass man die guten Preise erst später kriegt. Du wartetest also defacto (wenn du ein gutes P/L haben willst) schon immer länger als bis zum Launch. D.h 1 Jahr vor Launch war noch nie 1 Jahr, sondern eher 1.5 Jahre, da erst dann die Preise gut sind. Mit Lovelace hat sich das aber geändert. Dort war der Preis die ganze Zeit richtig kacke, bis der Refresh kam. Man kann davon ausgehen, dass das bei Blackwell wieder so sein wird. Es wird also nicht 1 Jahr vergehen (gemessen vom Lovelace-Superrefresh aus), sondern 2 Jahre (eben bis zum nächsten Refresh).
RTX 4070 ist für (mich als) 4k-Gamer kein Thema gewesen und die RTX 4090 kommt nicht mal ansatzweise an das P/L einer gebrauchten RTX4080 ran. Gebrauchte Top-Dogs kriegt man aber meist erst beim eintreffen eines neuen Top-Dogs (zu niedrigen Preisen). Stromverbrauch muss man natürlich auch immer mit einberechnen und ein deswegen möglicherweise neues Netzteil.
Ich glaube, der (Super-)Refresh wird falsch verstanden: Der ist nicht (nur) zum kaufen da, der ist vorallem dazu da, um die Preise auf dem Gebrauchtmarkt zu drücken :freak:
Ich werde mit meiner RTX 4080 vermutlich ein besseres P/L haben, also jede Karte, die mit Blackwell kommt (also bis ein Refresh kommt).
Ganz ehrlich: Wer neu kauft, der soll hald Geld ausgeben:freak:
Ist mittlerweile wie mit Autos. Wer da neu kauft, ist selber schuld. Wenn man bezüglich Grafikkarten um Werteverlust, Langlebigkeit und gutes P/L redet, schliesst sich (bis auf wenige Ausnahmen) ein Neukauf eig. immer aus. Und eine neue Generation in den ersten 3 Monaten kaufen erst recht.
Edit: und abgesehen davon: Ne RTX 4090/4070 kaufen und dann auf Blackwell umzusteigen wäre mit Sicherheit nicht das Beste gewesen. Das wird sich nicht lohnen aus P/L sicht, und darum gehts ja (ausser natürlich für Leute, die ne RTX 3090Ti von einer 3090 kommend gekauft haben).
@Platos Ich hab tatsächlich im August eine 4070 Super für meinen Sohn gekauft, weil ich es zu dem Zeitpunkt für das beste Angebot hielt. (600€ -70€ Asus Cashback + Wukong). Aber nen Jahr auf so ne GPU warten? Ne lass mal.
Geduld ist also nicht so deine Stärke :) ?
Wenn du auf Hardware nicht einmal 1 Jahr warten kannst, dann wirds ja ganz schwierig ^^
Ich glaube, das Problem von manchen hier ist einfach, dass sie das "neue" haben wollen und "alte" Generation "meh" ist. Für Leute, die von einer 4090 auf eine 5090 und auf eine 6090 umsteigen, mag das ja zutreffen, aber wenn einem P/L etwas Wert ist, dann sollte man weg kommen von solchen Gedanken wie "ist nicht die neueste Gen, kommt ja schon bald das neue" oder "ist kein Vollausbau" usw. Alles nur psychologisch in den meisten Fällen (die wenigsten brauchen tatsächlich neue Features wie DP 2.1).
Abgesehen davon: Wer 1 Jahr vor Launch einer neuen Gen sagt, es kommt ja schon bald die neue Gen, der kann bis zum Lebensende warten. Das kann man nämlich immer sagen... Es kommt immer in einem Jahr dann schon das "nächst bessere" (also ja eben heutzutatge eigentlich nicht mehr, aber egal...).
Von Ada zu Ada Refresh war stieg das P/L in vielen Fällen mehr an, wie von Ampere zu Ada. Nur mal so nebenbei...
Sardaukar.nsn
2024-09-29, 11:45:01
@Platos: Sehe ich ganz anders, aber unterschiedliche Meinung ist ja völlig okay.
Ich bin eigentlich ein 80er Käufer, kommen von 1080ti und 3080 Suprim war die 4080 aber schon auf dem Papier derart uninteressant das (bin da sicher kein Einzelfall) nur die 4090 in Frage kam.
Hier wird es zum Ende das Jahres wohl noch mal kurios. Gerade noch mal nachgeschaut, meine 4090 hab ich am 13.10.2022 im Asus Shop für 1.949€ gekauft. Viel Geld, aber auch +124% schneller als mein Vorgänger (https://www.3dmark.com/compare/pr/709029/pr/1958110#). Aufgrund der Knappheit zum Weihnachtsgeschäft wird die wohl gebraucht, nach zwei Jahren Nutzung einen prima Preis erzielen.
Wenn ich sie denn verkaufe. Ich bin bei Blackwell echt noch unentschieden. 50-70% Mehrleistung würden einen Kauf schon rechtfertigen. Aber mir fehlt halt noch der Bedarf, bzw. das AAA Gaming Zugpferd oder irgend ein Spiel das nicht gescheit läuft. Dafür steht die 3 GHz 4090 einfach aktuell noch zu gut im Saft bzw. der Wasserkühlung. Limit sind hier oft genug noch die 120hz/fps des LG C2.
Platos
2024-09-29, 12:07:06
Ja, die RTX4080 war zum damaligen Preis (also vor Super-Refresh) völlig lächerlich. Aber ich rede ja primär auch vom Gebrauchtkauf einer 4080 nach dem Super-Launch. Da gingen die für 800 weg.
124% mehr Perfomance von was? Einer RTX 2080Ti? RTX 3070?
Und ja, verkaufen kann man natürlich vorher, aber das ist hald eine risikoreiche Spekulation. Du verkaufst bevor du weisst, was die neue Generation bringt (vom P/L her). Das kann gut laufen, kann aber auch schlecht laufen.
Wer genug früh seine 2080Ti verkauft hat, um dann umzusteigen, hat es wohl richtig gemacht (aus Sicht eines Enthusiastenkäufer). Bei der RTX 3090 im Grunde ja auch.
Jetzt kriegt die 5090 ja aber kaum mehr Einheiten, also muss man drauf hoffen, dass mehr Takt und/oder Architekturverbesserungen was reissen (bezweifle ich). Aber man kann wohl davon ausgehen, dass nvidia auf Framegen 2.0 setzt und von der Rohleistung max. 45% mehr kommt (von den reinen Einheiten sinda ja nur was mit 30%).
Nightspider
2024-09-29, 23:22:04
Hoffentlich hat der Chip der 5090 nicht so viel Verschnitt wie bei der 4090.
Da fehlte viel zu viel zum Vollausbau und die Käufer mussten es trotzdem mit zahlen.
Dann ließen sich auch einfacher +60-70% erreichen.
reaperrr
2024-09-30, 01:13:56
Hoffentlich hat der Chip der 5090 nicht so viel Verschnitt wie bei der 4090.
Da fehlte viel zu viel zum Vollausbau und die Käufer mussten es trotzdem mit zahlen.
kopite7kimi meint, 170 aktive SM, also 22 deaktiviert.
Prozentual ziemlich ähnlich zu den 16 deaktivierten bei der 4090.
Fairerweise muss man aber auch sagen, GB202 dürfte als einziger Desktop-Chip deutlich größer als der direkte Vorgänger sein und somit ne schlechtere Ausbeute haben.
Solange keine 5080 Ti auf GB202-Basis geplant ist (wissen wir nicht), wird Nvidia möglichst viele GB202 als 5090 verkaufen können wollen, also können sie die Specs nicht zu hoch ansetzen, weil sonst zu viele Chips den Cut nicht schaffen würden.
Wenn du nen GB202 möglichst nah am Vollausbau willst, musst du hoffen, dass RDNA5 gut wird und pünktlich kommt, sonst wird Nvidia keinen Grund sehen, außerhalb von Profi-Karten oder ner 3000€-Titan über die 5090-Specs hinauszugehen.
Nightspider
2024-09-30, 13:15:12
Okay. Mal schauen.
Der 4090 fehlten ja auch knapp 27% bei Cache zum Vollausbau. Das war schon recht heftig, da bei Cache der Verschnitt nicht so hoch sein sollte.
Tesseract
2024-09-30, 13:36:31
beim cache ist das eher egal weil nichts überläuft wie beim VRAM und nicht nahezu linear skaliert wie shader. 6MB gegen 64MB+ macht für die hitrate einen großen unterschied, +-30% wohl kaum.
Nightspider
2024-09-30, 13:51:52
Ja gut, keine Ahnung wie stark sich das auf die Performance auswirkt aber die Hitrate müsste schon knapp um 12% steigen in 4K.
Hilft sicherlich der Auslastung.
basix
2024-09-30, 14:07:08
Hilft sicher, aber solange man sich nicht im Latenz- oder Bandbreitenlimit befindet ist der Nutzen begrenzt. Bei der 4090 würde ich eher auf Latenz denn Bandbreite tippen, wenn was limitieren sollte.
Bei der 5090 dürften die insgesamt 128MB wohl auch auf 96MB oder 112MB zurückgestutzt werden.
Laufen Spiele eigentlich uneingeschränkt auf ner Quadro (sofern mit dem Chip eine kommt) oder ist der Treiber beschnitten?
00-Schneider
2024-09-30, 17:39:15
Ab 01:14:00 gehts um die Leaks:
9xklXWkI-3k
Kriegsgeier
2024-10-01, 06:19:36
ich glaube die 2499€ wären ein Sweetspot für die 5090.
Erst zu diesem Preis wird man auch eine bekommen - Marktwirtschaft eben.
Für 1999€ wird man quasi eine PS5 Anniversary Edition kaufen :)
In den ersten 5 Min. werden alle ausverkauft.
Sardaukar.nsn
2024-10-01, 06:28:26
Kommt sich auf Blackwell exklusive Features an. Ist zwar ne Sauerei, wenn DLSS 4 (oder so ähnlich) nur auf Blackwell läuft. Zuzutrauen wäre es nVidia aber.
Frame-Generation war schon ein Gamechanger. Aber es fehlt aktuell aber auch ein AAA Spiel als Zugpferd.
Kriegsgeier
2024-10-01, 06:29:30
wenn der KI Teil aber sagen wir mal um 2-3x Leistung zugelegt hat und erst dadurch neue Techniken möglich wären?
basix
2024-10-01, 06:56:57
Wie schon ein paar Mal erwähnt: Der Tensor Anteil von DLSS und FG ist relativ gering (selbst ausgemessen via Nsight). Bei RR bin ich mir nicht ganz sicher, ob ich das schon mal getestet habe. Kann aber nicht extrem viel sein, läuft ja auch auf Turing. Ich glaube nicht, dass die Rohleistung limitiert. Neue Techniken sind eher eine Frage der Software und dem entsprechenden Engineering dahinter.
Kriegsgeier
2024-10-01, 07:02:37
Noch ein Gedanke:
könnte es sein, dass wir bei RTX 5090 quasi den letzten bezahlbaren Highend Chip sehen werden?
Denn diese 3nm sind schon so teuer bei TSMC und dann diese erforderliche Größe des Chips ergeben schon ein sehr hohen Endpreis.
Jetzt stellt mal vor was ein 1nm Prozess bei der ähnlicher Chipgröße kosten wird!
3999€ für eine zukünftige RTX 6090 werden wohl nicht viele zahlen wollen/können.
Genau deswegen sind die 32Gb Speicher einer RTX 5090 so wichtig - Zukunftsicherheit!
ChaosTM
2024-10-01, 07:03:36
Kommt sich auf Blackwell exklusive Features an. Ist zwar ne Sauerei, wenn DLSS 4 (oder so ähnlich) nur auf Blackwell läuft. Zuzutrauen wäre es nVidia aber.
Frame-Generation war schon ein Gamechanger. Aber es fehlt aktuell aber auch ein AAA Spiel als Zugpferd.
Das ist genau das was Nvidia seit Ewigkeiten macht.
Proprietärer BS ist funktionierendes Marketing. Der kleine Taiwanese ist nunmal ein Genie ;)
"FG funktioniert nicht auf den alten Karten, da ihnen Einheiten fehlen".
Hold my beer sagte Lisa S. von AMD und voila -> FG für "alle" und im Gegensatzt zu FSR durchaus auf Augenhöhe mit NV.
!
Blase
2024-10-01, 09:32:52
Ein Satz, der zu jeder neuen Gen fallen könnte: Ich bin echt gespannt.
Aber hier mehr denn je. Es gab eine Zeit, da konnte man davon ausgehen, dass ein neuer XX70er Chip den vorherigen TopDog schlagen konnte. Nun ist zumindest auf dem Papier die kommende 5080 von den Specs schon durchgehend deutlich schlechter als die vorherige 4090 - und wird sie wahrscheinlich in Summe nur deswegen knapp schlagen, weil die dort wie auch immer hin geprügelt wird. Gleichzeitig darf man eine Preislage von möglicherweise spürbar oberhalb der 1.000€ erwarten. Schaut her, 4090 Leistung für 1.000+€ :rolleyes:
Die Lücke zur 5090 ist gewaltig, Faktor 2 an einigen Stellen. Für potenzielle 5090 Besitzer ja sicherlich ne feine Sache, dass man zukünftig komplett außer Konkurrenz unterwegs ist. Noch viel mehr als es mit der 4090 schon der Fall war. Aber es ist echt zu befürchten, dass nVidia sich das vergolden lässt.
Und was heißt das für das komplette Blackwell Portfolio? Wenn die 5080 grade mal die Leistung der 4090 hat, wie soll es da drunter weiter gehen? Und zu welcher Preislage und vor allem auch: mit welcher Speicher Ausstattung?
Ich bin wirklich gespannt. Vorfreude einerseits. Aber auch ein leichtes bis mittelschweres Unbehagen :freak:
MfG Blase
aceCrasher
2024-10-01, 09:36:38
Noch ein Gedanke:
könnte es sein, dass wir bei RTX 5090 quasi den letzten bezahlbaren Highend Chip sehen werden?
Denn diese 3nm sind schon so teuer bei TSMC und dann diese erforderliche Größe des Chips ergeben schon ein sehr hohen Endpreis.
Jetzt stellt mal vor was ein 1nm Prozess bei der ähnlicher Chipgröße kosten wird!
3999€ für eine zukünftige RTX 6090 werden wohl nicht viele zahlen wollen/können.
Genau deswegen sind die 32Gb Speicher einer RTX 5090 so wichtig - Zukunftsicherheit!
Der letzte "bezahlbare" Highend-Chip von Nvidia war der GP102 in der GTX 1080ti.
Kriegsgeier
2024-10-01, 09:48:44
also unter 2500€ für eine Grafikkarte, die ich min. 4 Jahre lang nutze ist für mich persönlich noch ok. Muss natürlich das Beste vom Besten sein. Und ich bin kein Überverdiener und muss meine Frau zur dieser Investition "vorbereiten" ;)
Mit anderen Worten: Jensen, gib mir einen wahren Monster für 2500€ in Form von RTX5090 und ich bin glücklich. Zur meiner RTX 3090Fe wäre es dann 3x Leistung --> perfekt.
Ach ja: genau diese 2500€ wären überhaupt die Voraussetzung, dass man die Karte bekommt!
ChaosTM
2024-10-01, 09:55:35
Falls die Karte wirklich so kommt, was alles andere als gesichert ist, dann wird man sie ewig nur zu absoluten Mondpreisen erwerben können, da sie sofort von Scalpern mit Beziehungen aufgesogen werden.
@aceCrasher da ist was wahres dran..
Blase
2024-10-01, 10:11:02
Falls die Karte wirklich so kommt, was alles andere als gesichert ist, dann wird man sie ewig nur zu absoluten Mondpreisen erwerben können, da sie sofort von Scalpern mit Beziehungen aufgesogen werden.
Mein du? War doch bei der 4090 schon nicht so, warum sollte das jetzt der Fall sein. Es muss doch nur in ausreichenden Mengen bereitgestellt werden. Warum sollte das nicht der Fall sein?
MfG Blase
ChaosTM
2024-10-01, 10:23:11
Wenn ich mich richtig zurückerinnere, dann hat es recht lange gedauert bis die Karten zum oder nahe dem UVP erhältlich waren.
Und bei einem absoluten Halo Produkt welches die 5090er werden könnte ist die Chance groß, das sich das nur verschlimmern wird.
Aber vielleicht haut NV ja genug Karten auf den Markt, was man bei den gigantischen AI Margen aber eher bezweifeln muss.
Außer der Ausschuss ist hoch genug, dass genug Abfall für die Spieler übrig bleibt.
Altehardware
2024-10-01, 10:28:07
warum es nicht mehr so ist das ne 70er sku die alte 90er sku schlägt hat mit den chipkosten zutun
Sofern es sich bewahrheitet mit cowos kostet der gb203 wovon die rtx5070 herkommt mit packaging grob 105$ das teure ist der vram pro 16gbit 10$ sku 12gb ab 579$/629€
Später 599€ viel später 579€
Das blöde gerade diese sku ist in tpb seitig sehr gut
perf etwa rtx4070 super
Billiger ginge es wenn das Si ausgeschöpft würde und mit gddr6 18gbps genutzt würde 3$ per 16gbit dann wäre ne sku mit 16gb ab 329$ drin
Das aber ist wegen Fokus auf gddr7 und zukünftig kleinerem Si vom Tisch.
Fragman
2024-10-01, 10:47:10
Wenn ich mich richtig zurückerinnere, dann hat es recht lange gedauert bis die Karten zum oder nahe dem UVP erhältlich waren.
Und bei einem absoluten Halo Produkt welches die 5090er werden könnte ist die Chance groß, das sich das nur verschlimmern wird.
Aber vielleicht haut NV ja genug Karten auf den Markt, was man bei den gigantischen AI Margen aber eher bezweifeln muss.
Außer der Ausschuss ist hoch genug, dass genug Abfall für die Spieler übrig bleibt.
Kauf direkt 2 und um den höheren Startpreis zu kompensieren verkaufst Du die 2. zum Scalperpreis. Damit bekommst Du Deine Karte zum "normalen" Preis. :D
The_Invisible
2024-10-01, 11:39:00
Ist auch interessant ob sie die Auslastung verbessern können. Die 4090 hat auch schon 60% mehr Shader aber oft kommen nur 20-30% an, in seltenen Optimalfällen 40-45%.
Wenn man das 1:1 auf die 5090 mit 100% Shader umlegt ist das auch nicht so toll, zudem dann der Skalierungsfaktor nochmal schlechter werden dürfte.
Kriegsgeier
2024-10-01, 12:35:21
Für mich ist eine NVIDIA Graka (Vollausbau) wie ein Zauber zum Teil. Eine Technik wie vom anderen Planeten. Wenn man bedenkt wieviel Manpower und Genie in der Architektur selbst aber auch bei der Produktion drinsteckt dann grenzt es wirklich an Zauberei.
Daher sind für mich persönlich die Preise um die 2500€ nichts schlimmes. Klar es ist SEHR viel Geld aber es ist es WERT!
gnomi
2024-10-01, 12:50:06
Technisch bleibt es imho faszinierend, nur leider schwächelt die Software inhaltlich zunehmend.
Vielleicht bekommt man die 5090 im Sommer vor der GTA VI PC Version zum halbwegs erträglichen Preis. Ansonsten warte ich mal auf den Refresh.
Die 5080 wäre zu 1000€ auf 4090 Niveau natürlich gut, aber ich finde sie noch stärker zusammen gespart als 4080.
Im Grunde war 3080 die letzte geile GPU aus der alten Zeit.
Aber an die kam ja kaum einer zum UVP ran.
Daher müsste man bis zur 2080TI oder 2080 im Abverkauf/2070S zurückgehen.
Letztendlich wird es auch darauf ankommen, wie viel technischer Zauber auf der Strasse landet.
Da waren die 2000er Reihe mit DLSS 2 im Nachhinein (2019) oder die 4000er Reihe mit DLSS 3 und FG vom Start weg besonders gut.
Cubitus
2024-10-01, 13:30:15
Für mich ist eine NVIDIA Graka (Vollausbau) wie ein Zauber zum Teil. Eine Technik wie vom anderen Planeten. Wenn man bedenkt wieviel Manpower und Genie in der Architektur selbst aber auch bei der Produktion drinsteckt dann grenzt es wirklich an Zauberei.
Daher sind für mich persönlich die Preise um die 2500€ nichts schlimmes. Klar es ist SEHR viel Geld aber es ist es WERT!
Vergleich das mal mit HighEnd Hifi..
Dagegen ist die 5090 ein Schnapper, dazu noch mit wesentlich mehr Hirnschmalz entwickelt worden.
Ich sehe es ähnlich wie du.
Hakim
2024-10-01, 13:44:01
Was wohl Nvidia diesmal an Feature mitbringen könnte? FG was nicht als Fake fps geht und der Input nicht benachteiligt wird? :)
Radeonfreak
2024-10-01, 14:30:22
Was wohl Nvidia diesmal an Feature mitbringen könnte? FG was nicht als Fake fps geht und der Input nicht benachteiligt wird? :)
Nee. FG kann dann 2 statt nur ein Bild dazwischenschieben. Voll des Gewinns.
aufkrawall
2024-10-01, 14:46:24
Muss es nicht. Die Skalierung bei Lovelace ist oft so schlecht, dass selbst mit einer Verdopplung der Skalierung man keine +100% erreichen würde. Da liegt also auch bei einem Verhältnis von 1:1 noch extrem Potenzial brach.
Sardaukar.nsn
2024-10-01, 14:50:07
Was wohl Nvidia diesmal an Feature mitbringen könnte? FG was nicht als Fake fps geht und der Input nicht benachteiligt wird? :)
Systemweit über den Treiber aktivierbar statt für jedes Spiel einzeln. Wäre für mich nen Wunsch.
Hatstick
2024-10-01, 15:23:53
Eine RTX 5090 sehe ich bei 2299€, die RTX 5080 kann durchaus günstiger werden für 1199 - 1299€ aber das ist echt schwer zu plazieren vom Preis.
Dann bekommst wohl schon ab der RTX 5080 die komplette Resteverwertung und dann werden wohl auch weiterhin 16GB möglich sein.
KA, inwiefern nVidia da vom Design überhaupt Spiel hat. Aber selbst wenn 24GB auf der 5080 möglich wären, nimmt man sich ein Stück von der Vermarktung für die 5090 und würde das niemals machen.
Wäre schon enttäuschend aber nVidia muss ja am Ende auch nicht mehr machen und nachlegen mit Ti Modellen können/werden sie wohl noch.
Fragman
2024-10-01, 15:44:14
Wenn die 5090 bei 2300 Euro oder drüber liegt wird es die 5080 nicht für unter 1500 Euro geben, eher auch Richtung 1700.
Nv wird beim Release keine Lücke von 1000 Euro oder mehr lassen.
Es sei denn sie planen mit einer Super, einer TI und einer TI Super der 5080 in 2025 bis Q1 2026.
Aber hier wird es dann absurd... .
Steigt die xx90 so deutlich im UVP Preis wird auch die xx80 entsprechend nachziehen.
Bei der bisherigen prognostizierten Leistung wird das aber nicht vermittelbar sein.
Hatstick
2024-10-01, 22:38:45
@Fragmann!
Gehe ich auch nicht von aus, ist dann wirklich nahezu unmöglich zu verkaufen.
Auf der anderen Seite ist nVidia bzgl. Preisgestaltung auch immer für eine Überraschung gut. :biggrin:
Für mich persönlich wird es oberhalb einer RTX 5070 eh zu teuer aber trotz allem immer interessant und spannend.
Hypadaiper
2024-10-02, 00:02:04
Wurde doch das gleiche bei der 4090 damals gesagt. 1800-2000€ viel zu viel. Welcher hirni soll das kaufen.. Und siehe da, die Karte verkauft sich nach wie vor blendend. Okay, AI pusht, aber der Preis hat sich in all der Zeit quasi null bewegt.
Hab im Freundeskreis 3 Leute die eine haben. Die hatten vorher nie den topdog.
Und selbst auch eine gekauft...ubd was soll ich sagen.. Das wohl überzeugendste und beste Stück Hardware das ich je hatte. Dagegen sieht selbst meine damalige 8800GTX alt aus. Die konnte zwar viel, war aber dann auch laut. Mit der 4090 FE hab ich ein optisch super designtes Teil welches ich auf 2500W (98% Performance zu @stock) flusterleise und Verhältnissmäßig super effizient laufen lassen kann.
Nightspider
2024-10-02, 00:24:17
Klar hat sich der Preis bewegt.
Was für ein Gequatsche hier.
Und die 8800GTX war viel beeindruckender.
Thomas Gräf
2024-10-02, 01:40:15
Falls die Karte wirklich so kommt, was alles andere als gesichert ist, dann wird man sie ewig nur zu absoluten Mondpreisen erwerben können, da sie sofort von Scalpern mit Beziehungen aufgesogen werden.
@aceCrasher da ist was wahres dran..
Habe damals meine 4090 FE für 2400 vom Scalper aus der Bucht erworben. Warum? Wegens Wakü, die ersten Wakü Blöcke sind immer für die FE's da machste nix.
Anderseits ist für mich die Qualität der FE auch sehr wertig.
Ehrlichgesagt glaub ich aber nicht das die 5090, wenn sie wirklich nochmal so ein Pixelschubser wird wie die 4090, für das gleiche Geld vom Scalper zu holen ist.
Und ja Ihr lieben Schlauis hier im Forum, ich würde auf der Nv Seite am Release Tag auch sofort auf 2x5090 klicken... :biggrin:
Kriegsgeier
2024-10-02, 08:20:35
also, wenn ich die Kommentare hier: https://videocardz.com/newz/nvidia-geforce-rtx-5090-and-rtx-5080-specs-leaked
lese, dann denke ich, dass der Preis der 5090 eher in Richtung 2999€ gehen wird/soll wenn man überhaupt eine Gelegenheit bekommen will eine kaufen zu können.
Die 32Gb werden viele dazu bewegen die min. +500$ Aufpreis zu akzeptieren.
Plus diese 170 Shader vs. 84 bei 5080. Ich glaube die 5090 wird wirklich zu einem Luxusprodukt werden. Wie glodene Rolex oder so :(
PS: erst gerade ist mir klar geworden, dass die 144 Shader nicht für die 4090 gelten sondern nur für den Vollausbau!
Die RTX 4090 hat ja "nur" 128 Shader! Und RTX 5090 wird 170 Shader haben und das mit Base Clock >500 MHz mehr als bei der RTX 4090!
RTX 5090 wird ein Monster!
Sardaukar.nsn
2024-10-02, 09:08:58
Plus diese 170 Shader vs. 84 bei 5080. Ich glaube die 5090 wird wirklich zu einem Luxusprodukt werden. Wie glodene Rolex oder so :(
Na, Luxus gibts bei Fahrrädern oder HiFi.
Bei der 5090 wird Preis/Leistung schon noch halbwegs passen, natürlich auf einem hohen Niveau.
Kriegsgeier
2024-10-02, 09:18:25
Leistungstechnisch sehe ich RTX 5090 min. 3x von RTX 3090
Oder wie eine RTX 4090 huckepack mit einer RTX 4080! Also 4090 + 4080 = 5090!
Eine Frage an den Experten: warum erfährt ein Consumerchip eine Reduzierung von der Vollausbau? Nur wegen der Fehlstellen auf dem Silizium und zwecks Wiederverwertung?
Sardaukar.nsn
2024-10-02, 09:26:52
Leistungstechnisch sehe ich RTX 5090 min. 3x von RTX 3090
Oder wie eine RTX 4090 huckepack mit einer RTX 4080! Also 4090 + 4080 = 5090!
Ja, nach den aktuellen Leaks gehe ich die Schätzung 4090 +50-70% mit.
Kaufentscheidung steht und fällt aber auch mit eventuellen neuen Features. Denn rein von der Leistung steht die 4090 zum Ende 2024 noch super da.
y33H@
2024-10-02, 09:37:10
Wird vielleicht doch Zeit für den 32er 4K OLED ...
Nightspider
2024-10-02, 10:06:28
Leistungstechnisch sehe ich RTX 5090 min. 3x von RTX 3090
Kannst du deine Fantasien mal mehr für dich behalten?
Deine Preisängste und Leistungsfantasien nerven.
basix
2024-10-02, 10:09:07
3x 3090 ist jetzt nicht so abwegig. Eine 4090 ist ca. 1.7x schneller wie eine 3090. Wird eine 5090 ebenfalls 1.7x scheller als eine 4090, sind wir bei 2.9x ;)
Würde mich überraschen, wenn es >3x werden sollte, aber das wäre dann ja eine positive Überraschung :)
Nightspider
2024-10-02, 10:10:08
Denn rein von der Leistung steht die 4090 zum Ende 2024 noch super da.
Stand eine 3090 vor dem Release einer 4090 schlecht da? Nein.
Stand eine 2080ti vor dem Release der 3090 schlecht da? Nein.
Merkste was?
Kriegsgeier
2024-10-02, 10:11:10
Preisängste und Leistungsfantasien? Ich weiß nicht wo du diese genau gesehen hast.
Und Forum ist für eine Diskussion da, oder etwa nicht?
Oder nur für Gedankengänge eines Nightspiders? Ich denke eher nicht ;)
PS: wie ich das hasse wenn einige einfach so aus dem Nichts persönlich werden. Was soll das überhaupt bringen? Gar nichts!
Also sollte man einfach objektiv beim Thema bleiben, oder?
Mit 28.069 Beiträgen müsste man das aber eigentlich schon beherzigt haben.
Kriegsgeier
2024-10-02, 10:19:40
Was ich gerade auch feststelle: wenn man nur jede zweite Generation den TopDog kauft, dann bin ich wahrscheinlich eher ungünstig vorgegangen:
1080Ti --> RTX 3090 --> RTX 5090
besser wäre wahrscheinlich:
2080Ti --> RTX 4090 --> RTX 6090
Kriegsgeier
2024-10-02, 10:45:45
ich glaube, Jensen hat entschieden die RTX XX90 Käufer intensiver zur Kasse zu bieten.
Daher der Riesen Abstand zwischen 5080 und 5090: man eröffnet damit eine neue Preiskategorie bzw. man verschiebt diese.
5080 rutscht fasst in den Preisegment einer RTX 4090 und die 5090 wird eine neue Preiskategorie einleiten.
Naja, 5080 für 2k glaube ich nicht. Dafür gibts keine Käuferschaft. Das ding ist für Enthusiasten nicht interessant und wer einfach ne sehr schnelle Karte will gibt nicht so viel Kohle aus. Da sind 2499 EUR für die 5090 realistischer, zumindest ich würde die dann vermutlich kaufen wenn mindestens 50% schneller als die 4090.
Kriegsgeier
2024-10-02, 11:08:48
denke 1500€ und 2500€ sind die Preise, die ausgerufen werden.
reaperrr
2024-10-02, 11:43:02
denke 1500€ und 2500€ sind die Preise, die ausgerufen werden.
Könnte hinkommen.
Leistung skaliert nie perfekt mit der SM-Zahl, und die 5080 wird - worauf die TDP jedenfalls hindeutet - wohl deutlich höher takten, wenigstens 7-10%.
Ich tippe, dass die 5080 je nach Spiel ca. 55-60% der pro-MHz-Leistung der 5090 haben wird, und mit höheren Taktraten letztlich bei etwa 60-65% der 5090-Leistung landen wird.
Dann würde 60% des 5090-Preises auch passen.
Blase
2024-10-02, 12:16:30
denke 1500€ und 2500€ sind die Preise, die ausgerufen werden.
Ne 5080, welche im Schnitt knapp oberhalb einer 4090 raus kommt, mit 8 GB weniger, soll beim Erscheinen das kosten, was ne 4090 fast zwischenzeitlich im Markt gekostet hat? Halte ich doch für sehr unwahrscheinlich.
Die Einschätzung zur 5090 halte ich da für wahrscheinlicher, auch wenn ich da auf spürbar weniger hoffe.
Aber am Ende ist es nVidia - da kann man sich nie sicher sein :freak:
MfG Blase
ChaosTM
2024-10-02, 12:36:34
Jensen lacht über AMD daher ist die 5080 eine Luftpumpe.
Jensen geht der Gaming Bereich momentan ziemlich am Allerwertesten vorbei.
Dass AMD nicht mithalten kann ist zwar schade, kommt aber auf Grund des 2 Fronten Kampfs den sie führen müssen nicht unerwartet.
Das ist momentan mit ihren Mitteln nicht aufholbar und man hat die logische Konsequenz daraus gezogen.
basix
2024-10-02, 13:16:11
Ich denke, die 5080 wird bei 999$ landen. Wenn Jensen eine soziale Ader hat vielleicht bei 899$. 1k$ ist halt einfach eine psychologische Grenze und +30% Performance zur 4080 Super keine Weltreise.
4070Ti (799$ und vor Release als 899$ 4080 12GB gehandelt :freak:) und 4080 (1199$) haben sich schlecht verkauft, erst die 4070 Ti Super (799$) und 4080 Super (999$) verkaufen sich einigermassen ordentlich
Für die 5080 Super 24GByte wird man dann entweder einen höhere Preis verlangen oder weil es +1 Jahr später erscheint, die selben 999$ einnehmen und eine 5070 Ti 16GB unten rum reinrutschen, so wie heute 4070 Ti Super vs. 4080 Super.
Was ich gerade auch feststelle: wenn man nur jede zweite Generation den TopDog kauft, dann bin ich wahrscheinlich eher ungünstig vorgegangen:
1080Ti --> RTX 3090 --> RTX 5090
besser wäre wahrscheinlich:
2080Ti --> RTX 4090 --> RTX 6090
Bei mir sieht es so aus :D
980 Ti -> check (1080 Ti hatte ich überlegt, war mir damals für die Mehrperformance aber zu teuer)
2080 Ti -> check
4090 -> check
5090 -> tbd :D
Tesseract
2024-10-02, 13:30:18
ich sehe die 5080 auch nicht bei 1500. schon die 4080 hatte massive probleme damit eben nicht der top dog zu sein. eine 4090 oder 5090 kann es sich leisten extrem teuer zu sein, eine karte aus dem "mittelfeld" aber nicht.
5090 für 2500 ist aber durchaus möglich bei der größe.
Kriegsgeier
2024-10-02, 13:40:10
eine neue RTX "5080" kriegst du doch unter 1000€ auch! Die RTX 5070!
Blase
2024-10-02, 13:43:01
eine neue RTX "5060" kriegst du doch unter 1000€ auch! Die RTX 5070!
Hab das mal für dich angepasst :tongue:
MfG Blase
mironicus
2024-10-02, 13:47:18
Wird die 5080 schneller sein als die 4090?
Kriegsgeier
2024-10-02, 13:52:10
mit sehr hoher Wahrscheinlichkeit - ja.
Tesseract
2024-10-02, 13:53:42
Wird die 5080 schneller sein als die 4090?
unbekannt, aber wahrscheinlich sehr nah beisammen. ich tippe bei raster eher auf nein.
Bei mir sieht es so aus :D
980 Ti -> check (1080 Ti hatte ich überlegt, war mir damals für die Mehrperformance aber zu teuer)
2080 Ti -> check
4090 -> check
5090 -> tbd :D
bei mir war diese zeit pandemie/cryptobubble-bedingt ein absoluter clusterfuck.
gedacht war 1080Ti -> ada, die 1080Ti ist wärend ampere aber frühzeitig verreckt, hersteller "musste" sie aus ampere- und restbestandmangel durch eine 2080Ti ersetzen ;D die ich dann opportunistisch verkauft und gegen die damals "günstige" weil für MSRP verfügbare 3070Ti FE getauscht habe die als kompaktere karte mit HDMI 2.1 nach dem ada launch im HTPC gelandet ist.
wie das halt so ist in der postapokalypse. :freak:
Kriegsgeier
2024-10-02, 13:57:10
Das Krasse wird es in 3 Monaten sein, wenn die 5080 wirklich zu 999€ UVP kommt und damit die RTX 4090 Karten auf Anhieb NUR unter 1000€ auf dem Gebrauchtmarkt zu verkaufen sein werden.
Neosix
2024-10-02, 14:00:21
Ich habe mir damals die Überteuerte 4070TI für 900 geholt (mehr war im Budget einfach nicht drin), ich finde es süß wenn man nach 2 Jahren denkt, die 5080 wird 900-1000 kosten. Ich rechne persönlich mit mindestens 1100-1200 eher mehr. Nvidia wird kaum mit dem Preis runtergehen. Warum sollten die ohne kleinere Fertigung eine 80er für den Preis der 70er aus der vorgeneration anbieten? Ohne Konkurenzdruck und nachdem man gesehen hat das Gamer auch 2k+ Zahlen.
ps. wer ein Aufwachen bei Preisen braucht, sollte nochmal den Preis der PS5Pro checken, da wurde vorher auch 600 genannt ;)
Tesseract
2024-10-02, 14:01:47
999 wird nicht passieren, das ist zu wenig. außerdem hat die 4090 24GB vs. 16GB und "prestige" was am gebrauchtmarkt ebenfalls einen wert hat. die 2080Ti hat sich z.B. gegen die 3070 lange zeit recht gut im preis gehalten aus diesen zwei gründen.
Nightspider
2024-10-02, 14:06:06
Im Dezember 22 hat eine 4080 um die 1300 Euro gekostet.
Hab dann erstmal zu einer 7900XTX gegriffen.
Habe 7 Monate später 1400 für meine 4090 auf Ebay gezahlt, nachdem ich die 7900XTX losgeworden bin.
Sardaukar.nsn
2024-10-02, 14:07:53
…
ps. wer ein Aufwachen bei Preisen braucht, sollte nochmal den Preis der PS5Pro checken, da wurde vorher auch 600 genannt ;)
Interessant da es zum Release der PS5pro genauso wenige neue Spiele/Zugpferde gibt wie für den Launch von Blackwell.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.