Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse nVidia GeForce RTX 5090
Leonidas
2025-01-27, 16:36:07
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-5090
Link zur entsprechenden Ersteindrucks-Umfrage:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-5090
Link zur Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-5090
Iscaran
2025-01-27, 16:55:06
Der langweiligste GPU Launch seit 1990...
Just my 2 cents.
Leonidas
2025-01-27, 17:06:44
Leider ja.
Gastanjette
2025-01-27, 17:30:02
Ich glaube auch kaum dass die ersten 2 Monate 2500.- Euro als Strassenpreis erreicht werden. Meine Erwartung geht deutlich in Richtung 2900.- Euro.
Die Karte wird von KI-Entwicklern und anderen Pro als "billige Alternative" getestet werden wollen und von Scalpern preisgetrieben. AIB-Partner wollen auch nicht die Mini-Marge akzeptieren und verlangen für Custom Designes ordentlich Marge. Dazu noch eine Hand voll Gamer ohne Preislimit und die Preistreiberei ist perfekt.
Im Text befindet sich auf der letzten Seite ein Fehler:
"Gegenüber der GeForce RTX 4090 schmilzt somit die Mehrperformance der GeForce RTX 5090 von +28,6% beim Performance/Preis-Verhältnis dann auf nur noch +11% zusammen, resultierend aus dem viel höheren (praktischen)
Preispunkt des neueren Modells."
Die 4090 hat aber nach der Tabelle ein besseres Performance/Preis-Verhältnis als die 5090. Demnach müsste es eher -11% heißen. Wobei es noch genauer wäre, in beiden Fällen die 4090 als Referenzgröße anzunehmen, dann müssten es von der 4090 zur 5090 -10% sein.
Leonidas
2025-01-27, 18:09:58
In der Tat, habe ich falsch herum beschrieben. Danke für den Hinweis, ist gefixt.
Ich glaube auch kaum dass die ersten 2 Monate 2500.- Euro als Strassenpreis erreicht werden. Meine Erwartung geht deutlich in Richtung 2900.- Euro.
Die Karte wird von KI-Entwicklern und anderen Pro als "billige Alternative" getestet werden wollen und von Scalpern preisgetrieben. AIB-Partner wollen auch nicht die Mini-Marge akzeptieren und verlangen für Custom Designes ordentlich Marge. Dazu noch eine Hand voll Gamer ohne Preislimit und die Preistreiberei ist perfekt.
Warten wir mal ab ob DeepSeek dort nicht ein Wörtchen mitredet. NVidia sollte jetzt so viele Karten so schnell wie möglich verkaufen und das geht über annehmbare Preise.. Die haben heute 0,5 Billionen $ an Marktwert verloren. Denke eine Strategie wird sein, die Gamer stärker zurück ins Boot zu holen, mit Mondpreisen wird das nichts.
Also nVidia sollte so viele KI Beschleuniger verkaufen wie nur möglich, sonst gteh dieses Marktsegment an open source. Das wäre für die eine mittelschwere Katastrophe, man verliert seine Investoren. Die Börse wankt unheimlich..., die Kurse stürzen minütlich ab. Das kann nur nVidia als KI Marktführer glatt ziehen.
Wenn die clever sind achten sie darauf das die Preise eingehalten werden. Dann könnte man auch für 2300 oder später sogar unter 2k ein Schnäppchen machen. Wenn man die Lemminge abgegrast hat. Sie müssen ein Zeichen setzen, sonst können die den chinesischen Markt vergessen.
Blase
2025-01-27, 19:15:54
Tja... ich war echt an der 5090 interessiert. Aber so sehr hasse ich mein Geld dann doch nicht, bzw. da kribbelt es nicht genug beim drüber nachdenken. Werde Freitag wahrscheinlich trotzdem neugierig die Stores und Storys verfolgen, aber ich setzte wohl aus :tongue:
Performance-technisch scheint dies wohl echtes kein Problem zu sein, ...
Kleiner Wort-Dreher auf der letzten Seite erster Absatz...
MfG Blase
Werde Freitag wahrscheinlich trotzdem neugierig die Stores und Storys verfolgen, aber ich setzte wohl aus :tongue:
Release ist Donnerstag.
Verkauft schnell die Aktie ist im Sturzflug!
https://www.finanzen.net/aktien/nvidia-aktie
Später wieder einsteigen.
Leonidas
2025-01-27, 19:28:29
Kleiner Wort-Dreher auf der letzten Seite erster Absatz...
Danke, gefixt.
Das die Aktie angeblich wegen der Testergebnisse und Nicht-Lieferbarkeit der 5090 'abstürzt', zeigt wie absurd die Börse ist.
Davon ab wird Nvidia höchstens die neuen Kratzer im Image ärgern.
Den Chip werden sie im WS/KI-Markt in Massen zu noch höheren Preisen los werden. AMD hält weder bei HW noch SW mit.
Leonidas
2025-01-27, 19:36:18
Sehr unwahrscheinlich, dass das kleine Consumer-Geschäft irgendwelche Auswirkungen auf den Aktienkurs hat. Da wird eher irgendwas bezüglich der HPC/AI-Sparte am laufen sein. Und wenn es einfach nur Gewinnmitnahmen sind, die dann wieder zu Einstiegskursen führen sollen ;)
Absolut nicht Leo.
https://www1.wdr.de/nachrichten/deepseek-ki-chatbot-chatgpt-china-100.html
https://www.finanzen.net/nachricht/aktien/deepseek-china-ki-chatbot-r1-crasht-nvidia-aktie-15-im-sell-off-14182946
Es geht um einen open source Chatbot bzw. AI für Consumer.
Da wird eher irgendwas bezüglich der HPC/AI-Sparte am laufen sein.
Liegt an DeepSeek R1.
Shink
2025-01-27, 20:24:21
Ja, das sind die generellen Kurseinbrüche bei amerikanischen KI-Aktien wegen Deepseek. Da hat wohl wirklich jemand geglaubt, Amerika hat ein Monopol auf KI oder so.
Anyway, der Launch der 5090 hat sicher auch nicht dazu geführt, dass die Aktie steigt. Die 6090 ist dann in wenigen Jahren doppelt so teuer, 5% schneller und braucht 1000 Watt oder wie?
Rabiata
2025-01-27, 20:44:22
Warten wir mal ab ob DeepSeek dort nicht ein Wörtchen mitredet. NVidia sollte jetzt so viele Karten so schnell wie möglich verkaufen und das geht über annehmbare Preise.. Die haben heute 0,5 Billionen $ an Marktwert verloren. Denke eine Strategie wird sein, die Gamer stärker zurück ins Boot zu holen, mit Mondpreisen wird das nichts.
Ich würde mir mehr Sorgen um OpenAI & Co. machen. DeepSeek wird immer noch Hardware brauchen, wenn auch vielleicht nicht ganz so viel. Die westlichen LLMs dagegen werden die Konkurrenz richtig spüren.
Tja... ich war echt an der 5090 interessiert. Aber so sehr hasse ich mein Geld dann doch nicht, bzw. da kribbelt es nicht genug beim drüber nachdenken. Werde Freitag wahrscheinlich trotzdem neugierig die Stores und Storys verfolgen, aber ich setzte wohl aus :tongue:
Kleiner Wort-Dreher auf der letzten Seite erster Absatz...
MfG Blase
Ditto. Das neue Netzteil muss warten....
Platos
2025-01-27, 21:50:55
Danke für die Analyse, aber leider ist das wirklich einer der schlechtesten Karten seit langem. Turing war da eig. auch nicht besser und eine RTX 4080 eig. auch nicht vom P/L, aber es ist rein subjektiv trotzdem einfach für mich einer der schlechtesten Launches seit langem.
Zum glück habe ich mit meiner RTX 4080 gebraucht für einen guten Preis erstmal eine gute Basis, um weitere 1 bis (hoffentlich nicht) 2 Generationen durchzuhalten.
Vielleicht sollte man aber nicht mehr in Grafikchipgenerationen sprechen/denken, sondern nur noch in Fullnodes. Also bis ich etwas zum ablösen habe, bräuchte ich einen Fullnode und dann wär's vermutlich auch wieder eine RTX 6090, so dass sich das vom Upgrade lohnt (2.5-3x Fach).
Naja, hoffentlich kriegt nvidia ordentlich eine auf die Fresse und die Preise sinken wieder. Sowas würde ich nicht im Traum kaufen. Grundsätzlich würde ich ja auch 2k für ne Graka ausgeben, würde sie denn auch doppelt so schnell wie ne RTX 4090 sein. Oder von mir aus auch 3k, wenn sie 3x so schnell ist (und die Effizienz stimmt). Aber so...
Prinzenrolle
2025-01-28, 00:57:40
Die RTX 4080S hat gegenüber der 7900XTX etwa 4-5% an Performance zugelegt und ist im Mittel über 3 Auflösungen nun schneller.
Interesting. Die 3090Ti hat gegenüber der 7900XT auch an Boden gut gemacht.
Leonidas
2025-01-28, 04:02:22
Ja, da habe ich auch gesehen. Da muss ich mir noch Gedanken drüber machen, wie ich das reflektiere. NV-intern passt alles hingegen ganz gut.
Blase
2025-01-28, 08:34:02
Release ist Donnerstag.
Danke. Aber Donnerstag kann ich nicht. Ob nVidia den weltweiten Start für mich um einen Tag nach hinten legen könnte... :tongue:
Ditto. Das neue Netzteil muss warten....
Was das angeht, bin ich schon auf Stand. Hatte mir nur in den Kopf gesetzt, zusammen mit der 5090 dann auch einen 9800X3D zu besorgen. Der liegt jetzt auch erst einmal auf Eis. Wahrscheinlich wird an meiner Kiste also überhaupt nichts mehr getauscht, bis eine 6090 whatever raus kommt. Also danke nVidia - einen Haufen Kohle gepart :freak:
MfG Blase
Kleebl00d
2025-01-28, 09:06:25
Ich weiß, Auto-Vergleiche sind irgendwie lahm.
Aber ich komme nicht um das Bild herum, dass nVidia hier das Äquivalent zu "Das ist unser neuer Sportwagen! Der ist zwar nur marginal schneller als der alte, aber wir haben jetzt einen neuen KI-Tacho mit viel größeren Zahlen drauf! Bis zu Faktor 3 - dann kannst du dir wenigstens vorgaukeln, es sei viel schneller!" bringt.
Leonidas
2025-01-28, 09:13:32
Du gibst der Auto-Industrie hier Ideen ...
Blase
2025-01-28, 09:38:54
Na wenn wir schon bei Autovergleichen sind... Wenn der neue Porsche 911 dann 6 KM/H mehr als das Vorgänger Modell leistet (oder auch nicht) und vom Look her an der Seitenschürze etwas schnittiger daher kommt, dürfte das dem geneigten Liebhaber auch schon mehr als genug sein, seinen Kontostand zu prüfen :tongue:
Also habt euch nicht so! :freak:
MfG Blase
Sweepi
2025-01-28, 09:46:04
'Der GB202-Chip erscheint somit fast nur wie ein aufgeblähter AD102-Chip, faktisch ein "AD101"'
Da es schon architektonische Unterschiede gibt, eher ein AD201 oder ein AD111, oder?
Analog dazu : GTX 480 vs 580 (GF100 vs GF110) und Maxwellv1 vs Maxwellv2 (GM1xx vs GM2xx).
Shink
2025-01-28, 10:08:19
Na wenn wir schon bei Autovergleichen sind... Wenn der neue Porsche 911 dann 6 KM/H mehr als das Vorgänger Modell leistet (oder auch nicht) und vom Look her an der Seitenschürze etwas schnittiger daher kommt, dürfte das dem geneigten Liebhaber auch schon mehr als genug sein, seinen Kontostand zu prüfen :tongue:
Nicht wenn er einen höheren Verbrauch hat.:freak:
downforze
2025-01-28, 10:10:32
Ich weiß, Auto-Vergleiche sind irgendwie lahm.
Aber ich komme nicht um das Bild herum, dass nVidia hier das Äquivalent zu "Das ist unser neuer Sportwagen! Der ist zwar nur marginal schneller als der alte, aber wir haben jetzt einen neuen KI-Tacho mit viel größeren Zahlen drauf! Bis zu Faktor 3 - dann kannst du dir wenigstens vorgaukeln, es sei viel schneller!" bringt.
Erinnert euch an die Autos. Wo die Tachoscheibe dann immer größere maximale Geschwindigkeiten anzeigt. Im Golf 100 PS bis 260 km/h.
MiamiNice
2025-01-28, 10:19:30
Der Autovergleich hinkt hier gewaltig. Bei Autofahren hat man immer die Kontrolle über das Lenkrad, auch mit gefaktem Tacho. Bei einem NV Auto, würdet ihr fahren, hättet aber nur alle 1/2 bis 1/4 Sekunde Kontrolle über das Auto. Die restliche Zeit fährt es wohin es will :freak:
[QUOTE=Shink;13694332]Ja, das sind die generellen Kurseinbrüche bei amerikanischen KI-Aktien wegen Deepseek. Da hat wohl wirklich jemand geglaubt, Amerika hat ein Monopol auf KI oder so./QUOTE]
Die Frage die sich IMO hier stellt ist, warum wird uns so teures Zeug verkauft und damit begründet das es ja KI/AI basierend ist, es dann technologisch auch nicht mehr anders geht, aber an anderer Stelle viel kostengünstiger für alle das Gleiche erreicht wird, man dafür keine aufgeblasenen GPU-Design braucht? Das müssen sich die Amis nun gefallen lassen, schon mal recht herzlichen Dank an die Chinesen die mit dem Thema aufgeräumt haben.
Nichts an KI muss teuer sein. Es geht also zuerst nur um den Profit, nicht wirklich um das technologisch Fortschrittliche.
Auf mich wirkt das so wie seinerzeit AMD im CPU Segment aufgeräumt hat, nichts an HEDT Performance muss teuer sein und nicht jeder minimale Fortschritt muss nochmals teurer eingepreist werden.
Nvidia verarscht uns mal wieder. Die sollten sich schnell eine Ausrede einfallen lassen, sonst geht das denen bald so wie Intel im CPU Diy Markt.
Bis das die Lemminge kapiert haben dauert es sicher noch etwas, aber ganz klar muss AI überhaupt nicht so teuer sein wie es von Nvidia dargestellt wird ihre Vormachtstellung kann seit gestern klar angezweifelt werden.
Das kommt übrigens davon wenn man denen anderswo den Hahn zusteht und sich im Recht sieht, dann entwickeln sie halt etwas mit dem was sie haben. Das muss wie man hier sieht, nicht mal schlechter sein.
Die RTX 4080S hat gegenüber der 7900XTX etwa 4-5% an Performance zugelegt und ist im Mittel über 3 Auflösungen nun schneller.
Interesting. Die 3090Ti hat gegenüber der 7900XT auch an Boden gut gemacht.
Das trifft nur zu, wenn man ausschließlich 2024er-Spiele in einen Topf wirft. "Breit" ist die XTX immer noch etwas schneller (Rasterizing, versteht sich).
MfG
Raff
Platos
2025-01-28, 11:30:10
Der Autovergleich hinkt hier gewaltig. Bei Autofahren hat man immer die Kontrolle über das Lenkrad, auch mit gefaktem Tacho. Bei einem NV Auto, würdet ihr fahren, hättet aber nur alle 1/2 bis 1/4 Sekunde Kontrolle über das Auto. Die restliche Zeit fährt es wohin es will :freak:
Quasi KI-Optimierung. KI Reagiert für dich in den anderen 3/4 der Sekunde.
"Jetzt neu, reagieren Sie im Falle eines Unfall jetzt noch schneller mit dem neuen XY-Auto. Für Ihre Sicherheit und die Ihrer Kinder" :D
Sweepi
2025-01-28, 11:35:53
Der langweiligste GPU Launch seit 1990...
Performance/Geld Regression bei gleichzeitig Performance/Watt Stillstand (bzw. leichte Verbesserung bei gleicher TDP) ist nach 2 Jahren+ schon echt enttäuschend,
aber die GTX 580 im Jahre 2011 war definitiv langweiliger :D
+16% Leistung im Vergleich zur GTX480 bei gleicher UVP (bzw. + 40% Strassenpreis) bei Null neuer Tech war Peak-yawn bis jetzt.
(siehe: https://www.3dcenter.org/artikel/zum-launch-der-geforce-gtx-580)
Die 5090 hat zumindest neuen Spielkram + Potenzial für ~40% bessere Leistung,
wenn sie diese auf die Strasse/Bildschirm bekommt (sehr anspruchsvolle Spiele, VR/8k*)
*8k für sich alleine nicht sinnvoll, aber ein akzeptabler Proxy für VR-Leistung.
Shink
2025-01-28, 12:38:58
"Jetzt neu, reagieren Sie im Falle eines Unfall jetzt noch schneller mit dem neuen XY-Auto. Für Ihre Sicherheit und die Ihrer Kinder" :D
Assistenz Systeme sind doch nichts anderes als das. Am Ende des Spektrums steht dann Steer-by-wire. Bei Autos eher selten aber durchaus sinnvoll. Bei großen Flugzeugen unverzichtbar.
AMDs Polaris-Phase war auch unglaublich langweilig. Kein Wunder, dass danach so etwas Bescheuertes wie Vega kam.
Platos
2025-01-28, 12:40:53
+ 16% Perfomance fürs gleiche Geld ginge ja. Es gab wesentlich schlimmere Generationen, bei denen weniger Perfonace fürs Geld raus kam. Lovelace ist z.B so eine Generation (z.B mit seiner RTX 4080 oder auch andere) oder auch Turing mit seiner 2080Ti.
Assistenz Systeme sind doch nichts anderes als das. Am Ende des Spektrums steht dann Steer-by-wire. Bei Autos eher selten aber durchaus sinnvoll. Bei großen Flugzeugen unverzichtbar.
AMDs Polaris-Phase war auch unglaublich langweilig. Kein Wunder, dass danach so etwas Bescheuertes wie Vega kam.
Nein, sind nicht das gleiche. Das ist entweder oder und im Fall der Fälle hast du die Kontrolle. In meinem hypothetischen Beispiel ist es aber die eigene Kontrolle + KI unterstützt (im ms Bereich) und die Ki "errechnet" quasi bewegungen voraus, die du machen willst/solltest.
Spielt aber auch keine Rolle. Geht eig. ja um Grafikkarten hier.
Blase
2025-01-28, 12:50:24
Bis das die Lemminge kapiert haben dauert es sicher noch etwas, ...
Ich mag die Wortwahl. Zusammen mit Schulmedizin, Lügenpresse und Co. hat man da gleich so eine gemütliche Grudstimmung in der Diskussion ;)
MfG Blase
Lehdro
2025-01-28, 13:53:06
Der langweiligste GPU Launch seit 1990...
Just my 2 cents.
Performance/Geld Regression bei gleichzeitig Performance/Watt Stillstand (bzw. leichte Verbesserung bei gleicher TDP) ist nach 2 Jahren+ schon echt enttäuschend,
aber die GTX 580 im Jahre 2011 war definitiv langweiliger :D
+16% Leistung im Vergleich zur GTX480 bei gleicher UVP (bzw. + 40% Strassenpreis) bei Null neuer Tech war Peak-yawn bis jetzt.
(siehe: https://www.3dcenter.org/artikel/zum-launch-der-geforce-gtx-580)
[...]
Habt ihr alle schon die Geforce 9800 GTX (04/2008) vergessen? Das war wirklich eine Generation zum vergessen. Schon zum Release: Von "unten" preislich obsolet dank 8800 GTS 512 (12/2007) und praktisch mehr oder minder gleichschnell zur "uralten" Legende 8800 GTX (11/2006). Eine neue Spitzenkarte die nicht einmal die alte Speerspitze überholen konnte (8800 Ultra (05/2007)).
MasterElwood
2025-01-28, 14:07:00
"Für den Augenblick ist wenig davon für den Käufer der GeForce RTX 5090 direkt nutzbar, abgesehen von der genannten besseren Bildqualität mittels DLSS4. Und dies dürfte zu wenig sein, um – wie bei GeForce GTX 1080 Ti, GeForce RTX 2080 Ti, GeForce RTX 3090 und GeForce RTX 4090 passiert – die GeForce RTX 5090 zu einer (zumindest in der ersten Welt) weit verbreiteten Karte zu machen."
DLSS4 kommt auch für die 4000er Serie. Nur multi frame generation nicht.
Platos
2025-01-28, 14:14:48
Nvidia versucht hald anscheinend diese Generation ernsthaft mit Multiframegen zu begründen.
Die 5090 dürfte für die meisten Enthusiasten keine Option sein. Enthusiasten sind bereit viel Geld auszugeben, wollen dafür aber auch was geliefert bekommen. Das kriegen sie hier nicht. Teuer und nichts dahinter.
Sweepi
2025-01-28, 15:11:55
Habt ihr alle schon die Geforce 9800 GTX (04/2008) vergessen? .
Um ehrlich zu sein: ja :D
Hab daher mein Gedächtnis aufgefrischt:
Die 8800 GTS 512 auf Basis des G92 hatte -25% Pixelfüllrate, +20% Shaderperformance, -33% weniger VRAM und -30% Speicherbandbreite als die ältere 8800 GTX (G80).
Damit war sie meist identisch (+-5%) schnell wie die 8800 GTX, aber günstiger, bis der VRAM/Speicherbandbreite reingraetschte (laut CB (https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-9800-gtx-sli-test.784/#abschnitt_performancerating) ab 1600x1200 8xAA / 2560x1600 4xAA)
Die 9800 GTX war eine Generation und ein Produktsegment höher (als "GTX" anstatt "GTS") eingestuft und konnte das rechtfertigen mit *trommelwirbel*: ... +3% Shaderperformance/Pixelfüllrate und 13% mehr Speicherbandbreite.
Schlimmer als ein Rebranding, die 9800 GTX (aka 8800 GTS 512 mit leicht schnellerem Speicher) war ab 1600x1200 8xAA /2560x1600 4xAA (obviously!) langsamer als die 1.5 Jahre alte 8800 GTX :freak:
Ich war damals ernsthaft verwirrt aufgrund der Namensgebung.
Warten wir mal ab ob DeepSeek dort nicht ein Wörtchen mitredet. NVidia sollte jetzt so viele Karten so schnell wie möglich verkaufen und das geht über annehmbare Preise.. Die haben heute 0,5 Billionen $ an Marktwert verloren.
Dass der Aktienmarkt ein völlig krankes Wettspiel ist, zeigt sich darin, dass erfolgreiche Unternehmen, die den Aktionär kaum bis gar nicht an den aktuellen Renditen beteiligen, die höchsten Kurse haben. Das sind einfach nur Aktien mit Pyramidensystemcharakter, man hofft immer noch auf einen weiteren Dummen, der einem noch teurer als zuvor eingekauft das abnimmt, der ebenso die Hoffnung hat. Irgendwann zieht die Marktdynamik dann den Stecker und den Letzten beißen die Hunde.
Dann muss oft sehr lange erstmal ausgesessen werden.
Sardaukar.nsn
2025-01-28, 15:53:28
Die 5090 dürfte für die meisten Enthusiasten keine Option sein. Enthusiasten sind bereit viel Geld auszugeben, wollen dafür aber auch was geliefert bekommen. Das kriegen sie hier nicht. Teuer und nichts dahinter.
Ist doch quasi eine 4090 auf Steroiden. Preis +20%, Leistung +20-30% im Schnitt.
Shink
2025-01-28, 17:00:02
Die 5090 dürfte für die meisten Enthusiasten keine Option sein.
https://www.notebookcheck.com/Nvidia-RTX-5090-Kunden-campieren-in-Zelten-bereits-Tage-vor-Release-vor-Geschaeften.953558.0.html
Scheint ja zu funktionieren.
Leonidas
2025-01-28, 18:59:30
aber die GTX 580 im Jahre 2011 war definitiv langweiliger :D
+16% Leistung im Vergleich zur GTX480 bei gleicher UVP (bzw. + 40% Strassenpreis) bei Null neuer Tech war Peak-yawn bis jetzt.
(siehe: https://www.3dcenter.org/artikel/zum-launch-der-geforce-gtx-580)
Gegenargument: Die 580 kam auf Basis desselben Chips, war nur ein Refresh. Die 5090 kommt auf Basis eines neuen Chips bzw. technisch neuer Generation.
Sardaukar.nsn
2025-01-28, 19:02:53
@Shink: Das werden wohl einfach normale Obdachlose in Kalifornien sein, die jetzt auf Nvidia-Fan machen.
Iscaran
2025-01-28, 19:03:17
Ja aber die GTX 580 war immerhin NICHT teurer, und sie war effizienter als die 480
Und die 9800 war AFAIK auch NICHT teurer usw.
Hier haben wir jetzt aber zum ersten mal:
1) Teurer
2) Verbraucht mehr (für linear mehr Leistung)
=> 3) P/L niedriger
=> 4) P/W gleich
Und dazu kommt noch P/€ niedriger
Früher war wenigstens eines von beiden besser für neue Karten, entweder P/L oder P/W
Oder mit anderen Worten Selber Performance, für weniger €. (oder eben Mehr Performance für mehr Geld.)
Die neue Karte hat NICHTS davon.
EDIT: Und ja Leonidas hats angesprochen 580 vs 480 war "refresh" ähnlich war das afaik bei 9800 ...das war ja keine neue "generation" in dem Sinne wie hier.
Ich finde die 5090 beeindruckend. Dieses Ignorieren des Gesamtpakets und die Konzentration nur auf die reine Rasterleistung finde ich falsch und langweilig.
Sie haben die Tensor-Cores verbessert und ermöglichen damit eine smoothe Multiframe-Generation ohne wirkliche Latenzerhöhung, was schon ein Meisterstück ist. Mit MFG wird Pathtracing quasi ein Kinderspiel. Eine 4090 hat da keine Chance, weil sie kein MFG hat. Sowas kann man doch nicht einfach ignorieren.
Mich stört nur der hohe Preis.
Platos
2025-01-28, 20:52:14
Bin nicht zufrieden mit der Auswahlmöglichkeiten. Habe negativ wegen Preis genommen, aber eig. hätte ich gerne Negativ weil zu teuer, zu hoher Verbrauch bzw. zu niedrige Effizienz. Die etwas niedrigere Perfomancesteigerung ist eig. nicht so schlimm, würde das ohne Preisanstieg und ohne höherer Verbrauch passieren.
Aber ist hald einer der schlechtesten Launches...
ENKORE
2025-01-28, 21:01:48
Vielleicht sollte man aber nicht mehr in Grafikchipgenerationen sprechen/denken, sondern nur noch in Fullnodes. Also bis ich etwas zum ablösen habe, bräuchte ich einen Fullnode und dann wär's vermutlich auch wieder eine RTX 6090, so dass sich das vom Upgrade lohnt (2.5-3x Fach).
Ein Fullnode-Sprung reicht niemals nicht für 2.5-3x Geschwindigkeit. Das ist ungefähr der Unterschied zwischen 2080 Ti (16nm) und 4090 (5nm).
Aroas
2025-01-28, 21:08:05
Negativ aus ALLEN genannten Gründen!
Stromverbrauch ist absolut jenseits von Gut und Böse, genauso wie der Preis. Die Mehrleistung im Vergleich zum Vorgänger ist dazu viel zu gering.
Also zumindest als reine Gaming Karte, ist das Teil ein Griff ins Klo. Aber für irgendwelchen anderen Kram wie KI Spielereien usw. wird das Ding wohl toll sein.
Naja, mir kanns eigentlich egal sein, weil solcherart Hardware eh vollkommen außerhalb meines Interesses liegt.
Ich hab in den letzten Jahren ja bereits mein Preislimit fr eine GPU von 300€ auf 500€ angehoben. Aber mehr mache ich definitiv nicht mit.
Da ich eh zumeist mehrere Jahre warte um Spiele zu kaufen, weil ich gar nicht die Zeit hab, immer die neuen Titel zu Release zu spielen, reicht eben auch eine deutlich günstigere Karte.
Blase
2025-01-28, 21:25:57
Wie so oft bei diesen Umfragen. Für das mehr an Preis hat sie zu wenig Leistung. Stört mich jetzt der Preis oder die geringe Leistung? Es ist wohl immer eine Kombination oder besser gesagt ein Zusammenspiel aus beiden. Sie darf teurer sein, wenn dafür die Leistung stimmt. Umgekehrt würde der geringe Leistungszuwachs schon in Ordnung gehen, wenn dafür der Preis im Rahmen bleibt. Stromverbrauch ist bei einer absoluten Enthusiasten Karte sekundär. Aber ja, der ist hoch. Habe mich letztlich für Durchschnittlicher Eindruck aufgrund geringer Mehrperformance entschieden.
Mal sehen, ob die realen Straßenpreise aufgrund von Verfügbarkeit diese Umfrage noch in eine gewisse Richtung drängen :freak:
MfG Blase
Platos
2025-01-28, 21:31:22
Ein Fullnode-Sprung reicht niemals nicht für 2.5-3x Geschwindigkeit. Das ist ungefähr der Unterschied zwischen 2080 Ti (16nm) und 4090 (5nm).
Ich schrieb ja von meiner RTX 4080 aus gesehen 2.5x- 3x. Die 5090 ist ja "schon" fast 2x so schnell. Also 2.5-3x wäre schon möglich. Nicht, dass ich das erwarte, aber möglich wäre es.
Wobei das natürlich auch auf die Fertigung ankommt. 3nm Basic reicht hier eher nicht, wenn der Verbrauch nicht wieder absurd sein soll.
Die 5090 ist Resteverwertung der AI-Entwicklung. Statt die Balkenlänge durch AI/Fakeframes auf Kosten von Bildqualität und Latenz aufzublasen, sollte NV die RT-Performance endlich durch vollständige Hardwarebeschleunigung steigern. Davon hätten Spieler mehr. Krücken wie Hybrid-Rendering wären dann auch überflüssig.
Schade, dass die Fachpresse (wg. Desinteresse, NDA oder weil vom Thema überfordert?) nicht bei NV nachbohrt und im Interesse der Kundschaft der Frage nachgeht, warum das Problem der unzureichenden RT-Performance nicht durch bessere Hardwarebeschleunigung gelöst wird. Mehr Rays statt Fakeframes müssen das Ziel sein.
Bei 60 brauchbaren Chips pro 15k $ Wafer kostet der Chip übrigens 250$. Zusammen mit VRAM, Kühler usw. wären das ca. 600$ für die GPU.
Auch wg. 170 von 192 SM handelt es sich um Resteverwertung. Mehr Shader und dafür niedrigerer Takt und Spannung und die Leistungsaufnahme wäre nicht auf 575W explodiert. :motz:
Mal sehen, ob die realen Straßenpreise aufgrund von Verfügbarkeit diese Umfrage noch in eine gewisse Richtung drängen :freak:
MfG Blase
Hoffentlich drängt es nv endlich dazu, top notch Fertigungsprozesse anzufordern.
Die schwimmen im Geld, haben Mondpreise wie Apple mittlerweile, sind sich aber zu fein und geizig, bei TSMC apple-like den besten anzufordern und in Beschlag zu nehmen. Stattdessen kredenzen sie in einem besseren Eierschalenkarton eine halbgare Dual-Slot-Heizplatte mit Kamineffekt, die um ihr Leben fiept.
Sowas gehört vom Kunden abgestraft, bevor das noch groteskere Züge annimmt und am Ende so wie Lego endet.
Leonidas
2025-01-29, 03:58:12
Ich finde die 5090 beeindruckend. Dieses Ignorieren des Gesamtpakets und die Konzentration nur auf die reine Rasterleistung finde ich falsch und langweilig.
Sehr gut, auch andere Meinungen hierzu zu lesen.
crnkoj
2025-01-29, 07:00:48
Negativer Eindruck aus mehreren Gründen: perf Zuwachs niedrig, Preis zu hoch, Verbrauch zu hoch/Effizienz zu schlecht.
MasterElwood
2025-01-29, 08:40:48
Ich schrieb ja von meiner RTX 4080 aus gesehen 2.5x- 3x. Die 5090 ist ja "schon" fast 2x so schnell. Also 2.5-3x wäre schon möglich. Nicht, dass ich das erwarte, aber möglich wäre es.
Wobei das natürlich auch auf die Fertigung ankommt. 3nm Basic reicht hier eher nicht, wenn der Verbrauch nicht wieder absurd sein soll.
Von meiner 3080 zur 4090 waren es rund +125 Prozent (eigene Benches). Dabei war die 3080 OC was geht - die 4090 läuft vanilla. Wenn du das einrechnest kommst du schon auf fast x2,5.
Geht also sehr wohl in EINEM Generations Sprung wenn du zugleich ein Model hoch gehst.
" Durchschnittlicher Ersteindruck, primär stört der hohe Stromverbrauch."
Das sage ich als hochglücklicher Besitzer einer 4090 - kaum zu glauben, dass nVidia es schafft diese GPU im Nachhinein "reasonable" wirken zu lassen.
"Durchschnittlich" wg. der 32 GB, mit 24 wäre es "negativ" gewesen.
Immortal
2025-01-29, 09:07:02
Ist es beabsichtigt, daß der link zur Diskussion der Umfrage auf die Diskussion der Launch-Analyse verweist? Könnte ja durchaus sein, wobei der Link zur Launch-Analyse auf die News des 27ten Januar verweist, was dann vermutlich doch eher ein Fehler ist?
Leonidas
2025-01-29, 09:10:57
Ist es beabsichtigt, daß der link zur Diskussion der Umfrage auf die Diskussion der Launch-Analyse verweist?
Ja, weil ich für Launch-Analysen und Ersteindrucks-Umfragen wegen der zeitlichen Nähe keine extra Forenthreads mehr aufmache.
The_Invisible
2025-01-29, 09:25:26
@Shink: Das werden wohl einfach normale Obdachlose in Kalifornien sein, die jetzt auf Nvidia-Fan machen.
Vielleicht wirklich: https://www.reddit.com/r/nvidia/comments/1icouqs/ethics_of_paying_a_homeless_guy_i_know_to_line_up/?share_id=EZmKKlpy7kFWhLOQz3PcY :freak:
Ethics of paying a homeless guy I know to line up?
Ich finde die 5090 beeindruckend. Dieses Ignorieren des Gesamtpakets und die Konzentration nur auf die reine Rasterleistung finde ich falsch und langweilig.
Sie haben die Tensor-Cores verbessert und ermöglichen damit eine smoothe Multiframe-Generation ohne wirkliche Latenzerhöhung, was schon ein Meisterstück ist. Mit MFG wird Pathtracing quasi ein Kinderspiel. Eine 4090 hat da keine Chance, weil sie kein MFG hat. Sowas kann man doch nicht einfach ignorieren.
Mich stört nur der hohe Preis.
Du denkst fortschrittlich und machst dir das Leben durch Technologieoffenheit leichter. Alle, die hingegen auf Brute Force bestehen, werden in den kommenden Jahren viel vermeidbares Ruckeln erleben ... und am Ende doch einknicken, weil AMD und Intel ebenfalls mit verbessertem KI-Upsampling antreten. Selbstverständlich werden wir immer wieder auch nette Verbesserungen der Rohleistung bekommen - Rubin wird nach dem schwachen Blackwell mit Ansage kicken -, aber eben nie wieder so wie früher(tm).
MfG
Raff
Shink
2025-01-29, 10:46:56
Ich hab ja gar nichts gegen FG solange die Rohleistung bei 60FPS liegt - im Prinzip könnte man damit z.B. perfekt Strom sparen wenn man z.B. mehr als 60FPS hat.
D.h. man hat viele Hundert FPS statt 60fps, bis Spiele herauskommen, die unter 60fps Rohleistung fallen. Dann hat man nichts mehr von der FG.
Sweepi
2025-01-29, 11:06:01
Gegenargument: Die 580 kam auf Basis desselben Chips, war nur ein Refresh. Die 5090 kommt auf Basis eines neuen Chips bzw. technisch neuer Generation.
EDIT: Und ja Leonidas hats angesprochen 580 vs 480 war "refresh" ähnlich war das afaik bei 9800 ...das war ja keine neue "generation" in dem Sinne wie hier.
Ihr habt natürlich Recht, weder die 9800GTX(G92) noch die GTX 580(Fermi 1.1) waren eine neue Architektur, d.h. so gesehen ist Blackwell der langweiligste nVidia Gaming-Architektur-Launch seit 1990.
Btt: Ist die 5090 enttäuschend? Hängt vermutlich davon ab, wie viel man von einer neuen Arch auf gleicher Node erwartet hat.
Persönlich finde ich enttäuschend, das es seit der 2080 Ti immer wieder Gerüchte gab "die nächste nVidia Generation bringt nur ~15% mehr Rasterleistung, dafür 2x-3x mehr Raytracing Performance", was sich aber bis heute nicht realisiert hat.
Ob die 5090 für Gaming eine Enttäuschung ist, hängt für mich von 2 Punktem ab:
- 1. die Entwicklung von DLSS4 (tolle Demos, wo es viel besser als DLSS 3.5 aussieht, siehe Digital Foundry Video (https://www.youtube.com/watch?v=rlePeTM-tv0&t=226s)):
-- Wird DLSS4 bei den AA/AAA Spielen eine hohe Penetration erreichen? (vermutlich: ja)
-- Wird DLSS4 immer/meistens so gut funktionieren/umgesetzt sein wie die Beispiele im DF Video? (hat eine gute Chance, wird sich zeigen)
-- Wird DLSS4 auf RTX 5000 besser performen als auf RTX 4000? (Gemeint ist, dass die Blackwell Tensor cores besser/schneller sind als die von Ada, nicht dass nVidia die RTX 4000 Generation künstlich zurückhält)
- 2. VR-Performance (eventuell höherer Sprung als 4k weil noch mehr Pixel)
Du denkst fortschrittlich und machst dir das Leben durch Technologieoffenheit leichter.
Was bitte ist denn an Bilder verdoppeln fortschrittlich?
Wenn man KI für was Fortschrittliches einsetzen würde wäre es ja verständlich, aber es wird zu Teilen für etwas eingesetzt, um im Gegenzug für minimalen Aufwand in Hardware fette Gewinne abzukassieren. Genau solche dedizierten Modelle ermöglichen das erst, das hat rein gar nichts mit Fortschritt zu tun! An anderer Stelle für sinnfreie Werbung verwendet und oder Erstellen von Nutzerprofilen bei dümmsten Antworten durch Chat Bots, die Geschichten selbst erfinden und deren Antworten wie bei Deepseek massiv manipuliert werden können, an der Realität vorbei. China hat dafür gesorgt das politische Massaker in der chinesischen Geschichte nicht erwähnt werden. Genauso ist es auch bei Bildrekonstruktionen durch AI's, das ist kompletter Fake.
Bruteforce muss überhaupt nicht sein und auch Bruteforce war und ist immer wieder eine sinnfreie Begründung dafür, immer mehr Geld verlangen zu können. Wenn Entwickler in der Spieleentwicklung sinnvolle Arbeit für den Spieler verrichten, braucht es weder das eine noch das andere. Leider ist dieser Markt nur noch von Blindpesen und raffgierigen Spinnern bevölkert, bei denen vor allem der höchste Profit für minimalstem Aufwand zählt. Und genau dort ist das Problem gelagert. Nirgends anders, und genau dafür liefern KI Entwickler Modelle, dass dies vorgesetzt werden kann.
KI/AI mag in sich was technologisch Positives und Nützliches für den Menschen sein, aber nur wenn es dem definierten Zweck nach dafür eingesetzt wird. Das ist aber bisher überhaupt nicht der Fall. Es ist bisher kein technologischer Zugewinn und kostet Unmengen, genau deshalb gab es auch dieses Erdbeben an den Börsen. Es basiert bisher nur auf amerikanisch dedizierten Modellen, die nur der Profitmaximierung dienen. Es hilft den Spielern nirgends oder beseitigt in dieser Form Bottlenecks. Es kostet einfach nur und dient als Begründung für weitere Preiserhöhungen.
"Es hilft Spielern nirgends" ist genau die Art konservativen Denkens, um die es geht. ;) Wir alle wünschen uns, dass die steile Kurve weitergeht. Kann sie aber nicht, weil die Fertigung kaum noch besser wird und andere Lösungen fehlen. Ich weiß nicht, was du so treibst, aber ich nehme lieber den Rollator, anstatt nur noch zu humpeln oder zu fallen.
MfG
Raff
Dovregubben
2025-01-29, 13:47:45
Persönlich finde ich enttäuschend, das es seit der 2080 Ti immer wieder Gerüchte gab "die nächste nVidia Generation bringt nur ~15% mehr Rasterleistung, dafür 2x-3x mehr Raytracing Performance", was sich aber bis heute nicht realisiert hat.
Hauptproblem ist hier ja, dass alles durcheinandergeworfen wird.
Wenn Nvidia von Raytracing Leistung redet, meinen die rein die Leistung für die Strahlenverfolgung.
Rasterleistung wäre entsprechend die Leistung des Rasterizers. Ich vermute fast niemand weiß aus dem Stehgreif, wie die sich in den letzten Generationen entwickelt hat.
Meistens ist mit Rasterleistung vermutlich die Compute Leistung gemeint, die eigentlich unabhängig von Raster vs Raytracing ist.
Lehdro
2025-01-29, 13:52:24
Blackwell ist ein Reinfall, weil der Preis nicht gerechtfertigt ist und das Plus zur Vorgängergeneration klein ausfällt. Das hat aber eher wenig mit der technischen Seite des Produktes zu tun.
ABER:
- die zukunftsweisende Architektur ist geil
- das allgemeine Leistungsniveau ist geil
- der Speicherausbau/Transferrate ist geil
- der technische Aspekt der FE Kühlung ist geil
DLSS 4 ist für mich persönlich kein Pluspunkt von Blackwell allein, da es alle RTX GPUs betrifft - und was man so sieht ist es schon krass gut. Eine 4090 wird somit noch besser, was die 5090 ziemlich "dumm" ausschauen lässt. Die 4090 ist jetzt quasi plötzlich der "Vernunftkauf", was absolut absurd ist. Für den geneigten 4090 Käufer ist die 5090 ein Gottesgeschenk - eine nachträgliche Validation, ein Upgrade + Werterhalt. Danke NV!
MFG ist interessant, hat aber wie FG dieselben Haken: Es hilft nicht bei niedrigen FPS, also genau da wo man mehr FPS unbedingt braucht. Ansonsten recht nett. Mit einem 240 Hz Display reicht mir aber FG, da ich eh dreistellige "vanilla" FPS anpeile bevor ich FG anschalte. Luxuslösung für Luxusproblem.
Reflex 2 hat das Potential sehr gut zu werden - aber auch hier sei auf DLSS 4 verwiesen. Kommt dann auch für RTX alt. Kein Pluspunkt für Blackwell gegenüber RTX 40/30/20.
Die ganzen Neural-dingsbums Dinger kam man Stand heute noch nicht bewerten - ich verweise mal auf Direct Storage als Analogvergleich.
ABER:
- die zukunftsweisende Architektur ist geil
Was ist daran zukunftsweisend und speziell für Gaming?
Zukunftsweisend wird sein, dass wir nächstes mal vielleicht 6xMFG-Matsch zu sehen bekommen.
"Es hilft Spielern nirgends" ist genau die Art konservativen Denkens, um die es geht. ;) Wir alle wünschen uns, dass die steile Kurve weitergeht. Kann sie aber nicht, weil die Fertigung kaum noch besser wird und andere Lösungen fehlen. Ich weiß nicht, was du so treibst, aber ich nehme lieber den Rollator, anstatt nur noch zu humpeln oder zu fallen.
MfG
Raff
Weil du deine Spielweise an Frameraten fest machst und langen Balken als Begründung dafür, das du viel bezahlen musst. Du hast was der gast geschrieben hast nicht im Ansatz verstanden. Was willst du mit diesen Pseudobildern? Sie gaukeln dir Fortschritt vor der keiner ist. Du siehst nicht mehr Bilder sondern ein Zwischenbild das nur dafür da ist hohe Frameraten vorzugaukeln. Sie werden einfach aus dem Bild das bereits vorliegt und das was danach kommt als Zwischensequenz angenommen und erstellt, nur um lange Balken zu zeichnen und den Mehrpreis zu begründen. Überleg dir den Bullshit einfach, dir werden irgendwann zwischen den real berechneten Bildern der Engine 16 Zwischenframes angezeigt, was soll dieser Blödsinn? Du brauchst diese Bilder für das inhaltliche Spielerlebnis nicht.
Wozu gibt es mittlerweile VVR? Es ruckelt nichts, auch nicht mit 30fps wenn die Range bspw. von 0-144fps reicht. Diese Mehrbilder haben das gleiche Problem, sie erhöhen den Lag, so wie weniger Bilder den Lag beeinflussen können. Weil es nicht das Problem beseitigt sondern übertüncht. Dann nimm den Rollator und bezahl ihn teuer, um nichts geht es dabei. Du eröffnest den Herstellern damit für geringen Mehraufwand hohe Preise zu verlangen, für etwas das dem Spielerlebnis nichts beiträgt und auch niemand dafür braucht. Letztlich behindert es den Fortschritt, Nvidia hätte ja auch auf 3nm gehen können. Machen sie aber nicht und verlangen nun bei 30% höherem Energiebedarf und 24% mehr Leistung, genauso viel mehr Geld. Das geht seit Jahren so.
Ich halte das für Betrug, weil es auch visuell nichts ist was du fürs Spielen wirklich brauchst, sonst hätte es der Entwickler von Anfang an eingefügt. Die Bilder werden bis auf minimale Änderungen im Pixelverlauf und Annahmen die auf einem Algorithmus beruhen, nur immer und immer wieder dubliziert, bis du tatsächlich einen neuen Inhalt zu Gesicht bekommt den die Engine generiert hat und dann geht das Spiel von Neuem los. Wemm diese Bilder wichtig wären hätte der Dev sie von Anfang an eingefügt. Hat er aber nicht. Derzeit wird AI nur dafür genutzt Sachen vorzugaukeln für die man viel bezahlen muss. Soll man sie den Entwikclern zur verfügung stellen um Code zu genereieren der weniger Bugs enthält. Sowas ist sinnvoll, aber MFG ist einfach Müll und zielt darauf ab das alle lange Balken sehen wollen, die haben aber mit dem Spielinhalt und Spielgefühl nichts zu tun. Man kann auch niegride Frameraten so optimieren das es flüssig läuft. Genau darin liegt die Kunst, nicht in Pseudo Zwischenbildern die hohe Frameraten vorgaukeln nur um Preisvorstellungen zu rechtfertigen, die immer höhere Gewinne einfahren.
Thomas Gräf
2025-01-29, 15:19:21
Die Gäste haben in meinen Augen recht.
Es war doch schon immer so das neue Hardware aus mieser Software Bonbons machen musste.
Dieser kommende KI Trend setzt dem nur noch eine neue Krone auf.
Shit in shit out sagt man.
Das Kernproblem ist und bleibt die schlampige Programmierung und vor allem nicht Optimierung von Software.
Lehdro
2025-01-29, 15:23:03
Was ist daran zukunftsweisend und speziell für Gaming?
Genug Rohleistung um auf Speziallösungen zu verzichten (z.B. fällt Optical Flow weg), FP32, INT32 und Tensor werden nun für alles genutzt. Cooperative Vectors als zukünftiger Standard (https://devblogs.microsoft.com/directx/enabling-neural-rendering-in-directx-cooperative-vector-support-coming-soon/), FP4 als unterstütztes Format, neue Triangle Cluster Intersection Engine für RT Parallelisierung und zu guter Letzt noch Displayport 2.1 + neuer und dickerer Encoder für Videos.
Zukunftsweisend wird sein, dass wir nächstes mal vielleicht 6xMFG-Matsch zu sehen bekommen.
Ich denke da eher an:
RTX Neural Rendering
RTX Mega Geometry
RTX Neural Radiance Cache
RTX Skin
Wird zwar alles ewig brauchen um bei uns anzukommen, aber der Anfang ist gemacht.
Ist schon krass wenn man unter MFGx4 mit dem AI Dublizierer aus 58 Bildern dann 144 macht und das als Mehrleistung verkauft, aber 86 Bilder davon der gleiche Inhalt sind (copy&paste+AI Reconstruction). Bis Raff das kapiert hat vergehen wieder ein paar Monate, war beim nV VRAM Problem genau das Gleiche. Später hat er seine Meinung geändert ;). Er ist halt kein Entwickler und schreibt das gelegentlich auch so. Jedem das Seine.
Raytracing war ja wirklich ein Mehrwert, aber MFG ist es tatsächlich nicht. Die Hersteller liefern immer genau das was, wonach geschrien wird. Da Nvidia hier kaum was liefern kann, was eine neue Gen rechtfertigt gibt es halt Bildvervielfältiger für viel Geld. Noch vor Jahren hätte man jeden Hersteller dafür in der Luft zerrissen. Heute ist es AI.
Sweepi
2025-01-29, 16:03:13
Du hast was der gast geschrieben hast nicht im Ansatz verstanden.
Im Gegenzug gehst du ausgleichenderweise auch nicht darauf ein, was Raff schreibt:
Wir alle wünschen uns, dass die steile Kurve weitergeht. Kann sie aber nicht, weil die Fertigung kaum noch besser wird und andere Lösungen fehlen.
Blackwell ist ein Reinfall, weil der Preis nicht gerechtfertigt ist und das Plus zur Vorgängergeneration klein ausfällt.
Das wird erst der Markt entscheiden, darüber kann man noch gar keine Aussage treffen. Ab morgen und die nächsten Tage wissen wir mehr. Ich sage, die 5090 wird wieder ein Renner, genau wie die 3090 und die 4090.
Das hat aber eher wenig mit der technischen Seite des Produktes zu tun.
Eben. Vollkommen außer acht gelassen wird beispielsweise das Videorendering mit 4:2:2, was aktuell nur Apple beherrscht.
Die verbesserten KI Leistungen:
Phoronix - Llama.cpp AI Performance With The GeForce RTX 5090 (https://www.phoronix.com/review/nvidia-rtx5090-llama-cpp)
Die verbesserten Anwendungsleistungen
Phoronix - NVIDIA GeForce RTX 5090 Linux GPU Compute Performance Benchmarks (https://www.phoronix.com/review/nvidia-geforce-rtx5090-linux)
Es ist eine Workstation Karte, mit der man auch spielen kann. Es ist meiner Meinung nach keine Gaming-Karte, mit der man auch Anwendungen machen kann.
Die Karte ist technisch mitnichten ein Reinfall. Für Gaming alleine? Vielleicht, aber es ist dennoch aktuell das HighEnd Top Produkt, was keiner toppen kann.
PCGH hat es ja auch gerafft, wir unterliegen mehr und mehr physikalischen Limitierungen in der Chipfertigung. Der Performanceschub von MFG ist doch der Hammer, damit hat vor der Vorstellung doch keiner gerechnet. Und ich gehe einen Schritt sogar weiter, irgendwann haben wir sogar nur noch Spiele, die vollkommen AI-generiert werden, siehe Doom per AI (https://www.heise.de/news/GameNGen-Google-Forscher-simulieren-Doom-ohne-Engine-9851001.html).
Und ich erinnere mal an die Diskussion, ob RT eine Zukunft hat, und heute haben wir das hier: Heise - "Doom: The Dark Ages" läuft mit Zwangs-Raytracing
(https://www.heise.de/news/Doom-The-Dark-Ages-laeuft-mit-Zwangs-Raytracing-10257146.html)
Es wird mehr AI werden, und Nvidia hat das doch geschickt vorbereitet. Daher Reinfall? Nein, der Geburt einer neuen Technologie wie damals mit den ersten RT.
Ist schon krass wenn man unter MFGx4 mit dem AI Dublizierer aus 58 Bildern dann 144 macht und das als Mehrleistung verkauft, aber 86 Bilder davon der gleiche Inhalt sind (copy&paste+AI Reconstruction). Bis Raff das kapiert hat vergehen wieder ein paar Monate, war beim nV VRAM Problem genau das Gleiche. Später hat er seine Meinung geändert ;). Er ist halt kein Entwickler und schreibt das gelegentlich auch so. Jedem das Seine.
Raytracing war ja wirklich ein Mehrwert, aber MFG ist es tatsächlich nicht. Die Hersteller liefern immer genau das was, wonach geschrien wird. Da Nvidia hier kaum was liefern kann, was eine neue Gen rechtfertigt gibt es halt Bildvervielfältiger für viel Geld. Noch vor Jahren hätte man jeden Hersteller dafür in der Luft zerrissen. Heute ist es AI.
Ich habe meine "Meinung" zu VRAM nie geändert - sondern meine Aussagen der aktuellen Datenlange angepasst. Das passiert quasi täglich, ist nämlich ein Moving Target. :)
MfG
Raff
Raytracing war ja wirklich ein Mehrwert, aber MFG ist es tatsächlich nicht.
Woher hast Du diese Gewissheit? Wenn sich im Spielgefühl nichts weiter ändert, und die Latenz - wie versprochen - gering bleibt, ist der Unterschied doch vollkommen egal, ob gerastert, geraytraced oder per AI generiert. Am Ende zählt doch das Ergebnis und das Spielerlebnis. Und das muß man doch erst mal abwarten, bevor man solche Aussagen trifft.
Meine Güte, wir haben jahrzehntelang mit Vektorgrafiken, teilweise miesen Texturen, schlechten Schattenimitationen usw. gelebt, und die Spiele wurden trotzdem gespielt. Das wird mit AI genauso gehen. Wenn die Leute sich schon beim Spielen auf Streaming einlassen, was spricht dann gegen MFG? Aus meiner Sicht nur falscher Widerwille.
Die Gäste haben in meinen Augen recht.
Es war doch schon immer so das neue Hardware aus mieser Software Bonbons machen musste.
Dieser kommende KI Trend setzt dem nur noch eine neue Krone auf.
Shit in shit out sagt man.
Das Kernproblem ist und bleibt die schlampige Programmierung und vor allem nicht Optimierung von Software.
Das große Problem ist ja auf CPU-Seite. Da wird ja von fast allen Devs und Engines nur rumgepfuscht. Gibt ja fast kein neues größeres Spiel mehr, das auch mit CPUs im oberen Drittel komplett und immer richtig rundläuft. Bot-KI und Physik schlecht bis nicht vorhanden, Crysis war/ist da der Eiffelturm dagegen. In der Branche müsste dringend mal ordentlich auf den Tisch gehauen und aufgeräumt von Konsumentenseite. Da die sich aber mental mindestens so stark wie die Physik in Games zurückgewandelt hat, bleibt das aus und nvidia macht um technisch schrottige Games dann ihr RTX-Schleifchen drüber, inter- und extrapoliert die Grütze mehrfach und kassiert erfolgreich Mondpreise ab.
Du denkst fortschrittlich und machst dir das Leben durch Technologieoffenheit leichter. Alle, die hingegen auf Brute Force bestehen,
Mit 575W und unzureichender Hardwarebeschleunigung setzt NV auf "Brute Force".
werden in den kommenden Jahren viel vermeidbares Ruckeln erleben ...
Wenn es ruckelt, helfen dir auch AI/Fakeframe-Balkenverlängerungen nicht weiter (Nicht einmal die Lederjacke behauptet sowas!) bessere Hardewarebeschleunigung hingegen schon (z.B. coherency gathering), weil es erst gar nicht zum Ruckeln kommt.
Falls du oder deine Kollegen die Möglichkeit haben, im Interesse der Kundschaft mal bei NV diesbezüglich nachzufragen und von der Pressefreiheit gebrauch zu machen, würden wir "reaktionär denkenden Technologieverschlossenen";) uns freuen und du hättest mindestens einen neuen Leser dazugewonnen.
und am Ende doch einknicken,
Niemals! Wir "reaktionär denkenden Technologieverschlossenen" werden uns nie mit Resteverwertung zufrieden geben. ;p
Troyan
2025-01-29, 19:03:15
Woher hast Du diese Gewissheit? Wenn sich im Spielgefühl nichts weiter ändert, und die Latenz - wie versprochen - gering bleibt, ist der Unterschied doch vollkommen egal, ob gerastert, geraytraced oder per AI generiert. Am Ende zählt doch das Ergebnis und das Spielerlebnis. Und das muß man doch erst mal abwarten, bevor man solche Aussagen trifft.
Meine Güte, wir haben jahrzehntelang mit Vektorgrafiken, teilweise miesen Texturen, schlechten Schattenimitationen usw. gelebt, und die Spiele wurden trotzdem gespielt. Das wird mit AI genauso gehen. Wenn die Leute sich schon beim Spielen auf Streaming einlassen, was spricht dann gegen MFG? Aus meiner Sicht nur falscher Widerwille.
Weil viele Leute garnicht mehr wissen, dass es auch noch andere Displaytechnologien als Sample&Hold geben kann. Daher versteht man nicht, wieso man überhaupt viele Frames benötigen würde.
Aus meiner Sicht nur falscher Widerwille.
Kapieret du nicht, dass du mit FG oder MFG kein einziges wirklich gerendertes Bild siehst? Das sind alles nur zwischenbilder aus Frame 1 und Frame 2 der Engine, dazwischen werden dir bis zu drei Bilder auf Grundlage dieser Bilder angezeigt (also bis 5 Bilder mit fast zu gleichem Inhalt), nicht ein Bild dieser 3 ist wirklich vom Entwickler, der Inhalt ist faktisch der Gleiche mit leichten Anpassungen durch die KI. Nvidia kaschiert faktisch damit die fehlende Leistung weil man hardwaretechnisch rein gar nichts weiter entwickelt hat. Die 5090 hat man aufgeblasen und die 5080 ist eine Refresh der 4080s, dass ist nicht mal ein Sidegrade. Genau deshalb beschränkt man MFG auch auf Backwell, ich vermute die Tensor Cores von ADA könnten das auch. Da brächte die 5080 kaum einen Mehrwert mit.
Wenn du diesen Gedöns alles nicht brauchst kauf dir ne 7900xtx, die ist gleichschnell im Raster und kostet 200 weniger, bringt dafür 24GiB VRAM mit. Ich habe ehrlich gesagt keine Ahnung was mir Nvidia damit sagen will (egal was Raff da wieder reininterpretiert), ich nutze kein MFG und werde es auch nie. Der Großteil stellt nicht mal DLSS an, hat Nvidia über eigene Metatdaten selbst ermittelt.
Ich frag mich was die zwei Jahre lang entwickelt haben. Backwell ist ein riesiger Flop. Das zeigt die 5080 klar auf. Der Preis für diese Karte ist viel zu hoch und AMDs 9700xt wird das noch verdeutlichen.
Kommt davon wenn ein Hersteller 90% Marktmonopol auf Gamer GPUs hat.
Wenn es ruckelt, helfen dir auch AI/Fakeframe-Balkenverlängerungen nicht weiter (Nicht einmal die Lederjacke behauptet sowas!) bessere Hardewarebeschleunigung hingegen schon (z.B. coherency gathering), weil es erst gar nicht zum Ruckeln kommt.
Das Problem bei Raff ist immer, er braucht zu lange um zu verstehen wie etwas funktioniert, selbst MFG braucht so viele Grundframes wie möglich und das erreicht man nur mit reiner Rohleistung. Der ganze KI Blödsinn vernebelt hier einigen das Hirn. Eigentlich hat Nvidia damit erreicht was sie wollen, nämlich die komplette Verblödung pur. Backwell ist dabei nur die erste der Katastrophen.
Derzeit ist es so das es einen Regler hat, on/off, wenn das erst Pflicht wird dann kann man diese Bildraten niemals mit ursrünglichen vergleichen.
Es gibt auch mit VVR keinen Grund zu Bildvervielfachung, wozu denn? Solange ein Monitor seine Bildrate dynamisch anpassen kann, wozu braucht man einen fixen Wert selobst wenn er von der CPU abhängt, der womöglich immer in Vsync liegt?
Das Ruckeln und Stottern im Bildverlauf bei schlechter Programmierung hebt weder VVR noch MFG auf.
MFG dient nur für besonders lange Balken, weil alle nach höherer Balkenlänge schreien. Bitte da habt ihr sie ohne irgendeinen Mehrwert.
Das haben sie wahrscheinlich in einer Woche entwickelt und den Rest frei gemacht. Die neue Gen, ob bei AMD oder nV ist ein kompletter Flop. Wahrscherinlich verlangt TSMC einfach zu viel, oder die Amis haben Schiss das China Taiwan übernimmt und ziehen sich dort gänzlich aus dem Geschäft zurück, bis in den USA ausreichend Fabs in N3P oder feiner produzieren könnten.
Bis dahin dominieren die Chinesen dann den Markt komplett mit open source AIs, für einen Apfel und ein Ei, und Nv kann einpacken.
Janos
2025-01-29, 19:33:44
Niemand braucht das Upgrade von einer 4090 auf die 5090 zu rechtfertigen, es reicht das man es sich leisten kann, dazu muss man sich nicht hinter den Nvidia Marketing BS stellen.
MFG als Mehrleistung zu vermarkten entspricht der Aussage 2+2=5, die Technologie versagt aber genau da wo sie benötigt wird und kann daher nicht als "Fortschritt" bezeichnet werden.
Cubitus
2025-01-29, 19:34:02
Meine Güte :upicard:
Gästeaccounts sind je her ein Fluch und ein Segen. Ich glaube, der Ausschuss ist dabei, wie es mein alter Chef im Systemhaus mal schön darlegte. 80 Prozent sind Pfeifen und nur 20 Prozent sind einigermaßen zu gebrauchen.:freak:
Daredevil
2025-01-29, 19:41:43
Nvidia kaschiert faktisch damit die fehlende Leistung weil man hardwaretechnisch rein gar nichts weiter entwickelt hat.
Zwischenbildberechnung ist übrigens seit Jahren gang und gebe im Fernsehmarkt, weil man damit ziemlich easy ruckelnde 25/30 fps auf 60+ aufgeblasen bekommt. Auch das funktioniert nicht einwandfrei, aber mit jeder Generation nach und nach besser. Auch hier ist nicht jeder ein Fan davon ( Soap Effekt ), schon gar nicht weil hier die Latenz für Gaming deutlich ansteigt und nicht so "minimal" wie bei Nvidia, aber etabliert ist diese Art der Technologie schon lange. Ich persönlich achte lieber auf eine gute Zwischenbildberechnung als auf die letzten Nits Helligkeit, weil mir das einen größeren Bildeindruck auf dem Schirm bringt. So gesehen ist der Computer im Fernseher für mich ein Kaufgrund.
Ich habe tatsächlich schon einmal mit genau der laggy Technik ein Spiel auf meinem AppleTV gespielt, weil Limbo nur mit 30fps lief. Das ist zwar überhaupt nicht Latenzsensitiv, weil die Steuerung eh ein wenig laggy ist, aber für meinen Eindruck hat das deutlich mehr Spaß gemacht als mit 30fps.
Der Grund ist ja hier auch denke ich ganz klar. Auch die Serien/Filmindustrie kann nicht easy peasy 4K120 liefern, weswegen wir heute immer noch mit Steinzeit FPS rumlaufen. Selbst wenn sie das liefern könnten, würden die Streaming Anbieter auf einmal deutlich mehr Bandbreite bereitstellen müssen. Das Ökosystem ist hierfür einfach nicht geschaffen, das gleiche gilt für Raytracing/Pathtracing. In 10 Jahren lachen wir uns bestimmt kaputt, weil neue Technologie diese Features kompromisslos spielbar gemacht haben, heute ist der Kompromiss entweder LowFPS oder GenFPS. Den größeren Hebel der Leistungssteigerung haben wir aktuell bei GenFPS.
Das Problem hätte Nvidia allerdings auch nicht, wenn sie es nicht in Spiele eingebracht hätten. Jensen ist ziemlich gut darin, Feuer zu legen und gleichzeitig den Feuerlöscher zu verkaufen. Aber gut, das ist halt kein Wohlfahrtsverein und die Verkaufsdaten geben ihnen völlig recht, Nvidia hat einfach nen guten Ruf in der Gaming Industrie, weil hier halt "alles geht". AMD/Intel bietet zwar auch Feuerlöscher an, allerdings steht man damit vor einem Waldbrand.
Kapieret du nicht, dass du mit FG oder MFG kein einziges wirklich gerendertes Bild siehst?
Du hast meine Frage nicht beantwortet. Wenn Du subjektiv trotz oder wegen MFG ein genauso gutes oder besseres Spielerlebnis hast, wenn juckts? Mich nicht.
ich nutze kein MFG und werde es auch nie.
Ok, Du kennst etwas nicht, Du weißt nicht wie sich das anfühlt, aber es wird grundsätzlich erst mal abgelehnt. Nicht gerade seriös und objektiv, und sehr voreingenommen, findest Du nicht?
Der Großteil stellt nicht mal DLSS an, hat Nvidia über eigene Metatdaten selbst ermittelt.
Ich hatte am Anfang auch damit bedenken, aber seit ich es verwende, ganz ehrlich ich bin begeistert. MSFS2020 wird damit auch in Städten spielbar. Ich finds toll, und es funktioniert in meinen Augen gut.
Ich frag mich was die zwei Jahre lang entwickelt haben. Backwell ist ein riesiger Flop.
Nochmals, warum ist es ein Flop? Das kannst Du HEUTE und JETZT noch gar nicht sagen.
Gegenwette, Blackwell (womit ich auch den Profibereich mit B200 und Co. anspreche) ist genau das Gegenteil. Zudem Blackwell schon seit bald einem halben Jahr in diversen Serverfarmen eingesetzt wird. Du wirst sehen, die 5090 Verkäufe werden die nächsten 6 Monate, so wie bei der 3090 und 4090, grandios sein. Ich hab damit überhaupt keinen Stress, kauf Du Dir die 9070, und sei glücklich damit, und ich werds mit der 5090 sein.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13695596&postcount=588
Wie in dem Link beschrieben, wenn es nicht die Gamer sind, werden es die zahlreichen Anwender sein, die diese GPU feiern und kaufen werden. Sprich, egal was Du sagst, Blackwell wird, wenn jetzt nichts gravierendes anderes kommt (Produktionsfehler und Co.) ein Erfolg werden. Vielleicht nicht so grandios wie bei der 4090. Aber wir haben doch bei jedem Release genau diese Diskussion immer wieder und wieder. Viele motzen, machen hetzen schon irrational, so wie Du, und trotzdem verkaufen sich die GPUs wie geschnitten Brot. Komisch, oder?
Das zeigt die 5080 klar auf. Der Preis für diese Karte ist viel zu hoch und AMDs 9700xt wird das noch verdeutlichen.
AMD Jünger wartet auf ein Wunder, so wie immer vor jedem Release? :wink: Kommt nicht, wie jedes Mal, und die Gesichter werden länger (das meine ich jetzt nicht böse). Das die 14% von AMD Anteil nun auf 10% geschrumpft sind, kommt... woher genau?
Du bist jetzt aber nicht zufälligerweise der Gast hier, den basix bereits argumentativ und sogar mit einer Grafik in Farbe und in Bunt bzgl. MFG auseinander genommen und widerlegt hat?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13689531&postcount=6807
AMD Jünger wartet auf ein Wunder, so wie immer vor jedem Release? :wink:
LOL...
Dann zahl du für KI Bildverdoppler Unmengen, viel Spaß damit. Andere setzen halt auf echte Frames. Du hast es immer noch nicht verstanden.
https://www.caseking.de/search?q=rtx+508%C3%9F&search-button=&lang=null
https://www.caseking.de/search?q=rtx5090&search-button=&lang=null
Welche Gesichter da gerade lang werden?
Nochmal was für dich zum Nachdenken:
https://www.pcgameshardware.de/Radeon-RX-7900-XTX-Grafikkarte-279267/News/DeepSeek-Benchmarks-vs-Geforce-RTX-4090-1464825/
https://www.caseking.de/search?q=rtx+508%C3%9F&search-button=&lang=null
https://www.caseking.de/search?q=rtx5090&search-button=&lang=null
Wer bei caseking noch einkauft ist selbst Schuld. Die haben seit langem komplett den Verstand verloren und sind neben NBB eine der Größen im deutschen Hardwaremarkt die die Preise unerbittlich hochjubeln. Habe da seit Jahren nicht mehr gekauft, weil das ein Assi-/Abzockerladen ist. Ich warte noch heute auf meine Werbe-Gutschrift, weil sie mir ein gebrauchtes MB zu gesand hatten, aber als neu verkauft. Davor stehen dann die dicken Porsche und MB von Filialienmitarbeitern.
Heutzutage kannst du selbst auf Amnazon billige reinkaufen und die bieten einen deutlich schnelleren Service als caseking. Also Käseking trifft auf die ziemlich gut zu.
Übrigens ist mindfactory genauso der letzte Dreck. Da bekommt man auch stetig bereits geöffnete OVP als neu verkauft. Die stellen alle Rückläufer wieder als Neuware ein.
Wer seiner Zeit eine 4090 für 1,6-1,7k bekommen hat, kann sich glücklich schätzen, die braucht auch x4 MFG nicht. Eine 4080 für 1k war/ist genauso gut. Da diese Gen ein reinster Flop ist, war klar was passiert, künstliche Knappheit und ausufernde Preise, dabei überteurte Haloprodukte um überhaupt was einzunehmen. Was ganz klar Absicht ist.
AMD hat gute Chancen demnächst viel zu verkaufen. Einfach etwas warten auf wenn das bei den "Grünlingen" nicht ins Hirn passt. RTG macht alles richtig. NVidia stellt sich das Bein selbst. Vermute mal die 5070 wird 900 und mehr kosten.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13689531&postcount=6807
MFG braucht wie jede AI Frame Engine eine bestimmte Anzahl an Vorlagen, sonst würde sie erstellen was ihr in Kram kommt und den Inhalt abändern. Das würde dann überhaupt nicht in die Framereihenfolge passen oder massiv die Qualität der Bilder verschlechtern. MFG tut nichts anderes als Zwischenbilder aus zwei Frames zu erstellen und sie zwischen diesen Bildern anzuzeigen. Frame1+MFG1+MFG2+MFG3-Frame2...
Die Anzahl der Bilder die die Spieleengine ausgeben kann ist also maßgeblich für die Qualität der Zwischenbilder und deren Inhalt. Also ist es überhaupt nicht egal wann, wieviele und von wem dieses Bild als Vorlage erstellt wird. Und die benötigte Grundanzahl hängt nunmal an der Rechenleistung.
Da hat jemand Tensor und zyklische Invarianz bei räumlicher Verschiebung nicht verstanden. Nichts anderes tut dieser Algorithmus, er berechnet dir Zwischenbilder zu dem Inhalt von Bild 1 und 2, wenn du Pech hast und Bild 1 und 2 unterscheiden sich nicht, wird dir 5x das gleiche Bild angezeigt (das ist übrigens dann auch der Lag) und MFG tut eigentlich nicht viel, unterscheiden sich die Bilder drastisch in ihrem Inhalt (weil du bspw. gerade mit der Kamera perspektiv umher schwenkst), berechnet MFG einen künstlichen Bildverlauf auf Grundlage der Inhalte beider Ausgangsbilder. Dazu muss MFG den Inhalt von Bild 1 und 2 kennen. Das heißt die Engine muss die Bilder schnell genug zur Verfügung stellen können, die dann im Cache vorgehalten werden müssen, damit die AI dazwischen nicht kompletten Blödsinn auswirft.
Nvidia bewirbt das Ganze als Leistungssteigerung, das ist es aber nicht. Es werden dir keine zusätzlich berechneten Inhalte, also faktisch mehr Bilder der Spieleengine angezeigt, sondern auf Basis bereits vorhandener Bilder. Die Frage stellt sich ob man diese Bilder überhaupt braucht? Das Spiel läuft auch ohne MFG.
Es dient also nur dazu lange Balken zeichnen zu können um ggf. Refreshraten von 100, 144, 175, 240, 280 Hz Monitoren gekoppelt ans VSync zu erreichen. Aber wozu? Alle diese Monitore haben mittlerweile eine VVR, sie können ihre Ausgabegeschwindigkeit dymanisch an die ausgegebene Framerate anpassen, ohne das man es optisch sieht oder bemerkt. Nvida tut hier in dem Fall kaum was anderen als Gsync in seiner Urform in die GPUs zu pressen und das Ganze als KI zu verkaufen. Auch dort konnten bis zu 3 Zwischenbilder gespeichert werden um sie bei fehlenden fertig gerenderten nächsten Frame, als Zwischenbild anzuzeigen. Die haben also faktisch aus dem Scheitern von Gsync nichts dazugelernt und verkaufen es jetzt als KI basierendes MFG, weil mittlerweile eine AI bei räumlicher Verschiebung einen Bildverlauf als Zwischenbilder berechnen kann.
Wozu soll das also gut sein? MFG und Vsync steigern den Lag! und damit beeinflussen sie die Eingabegeschwindigkeit. Dazu braucht es dann wieder irgendeine Technologie seitens Nvidia dies zu kaschieren, wohlgemerkt zu kaschieren - nicht aufzuheben.
Niemand braucht also MFG ausser Nvidia als Verkaufsargument bei fehlender Leistungssteigerung in Hardware. Dies trifft besonders auf die 5080 zu und alles was danach kommt. Die 5090 bringt in dem Fall zumindest 25-30% mit, wobei man aber genauso viel Energie zusätzlich reinpumpen muss. Soll jedem überlassen sein.
Für mich hat sich Nvidia komplett im KI Technologie Wald verlaufen und lernt seit Jahren absolut gar nichts dazu, weil sie immer wieder bestätigt werden. Du brauchts dann zig dedizierte Techniken, um das was du mit AI/KI erreichst wieder zu egalisieren um es überhaupt spieletauglich zu machen. Ich halte das für großen Blödsinn, sorry. Das hat auch nichts mit Leistungssteigerung zu tun. Das sind sogesehen Bilder die kein Mensch braucht, um ein Game zu spielen, denn das funzt auch völlig ohne MFG. Stell etwas an den Reglern, kaufe nach deinem persönlichen Buget Hardware die zusammen passt und alles ist gut.
ENKORE
2025-01-30, 15:07:16
Die 5090 ist Resteverwertung der AI-Entwicklung. Statt die Balkenlänge durch AI/Fakeframes auf Kosten von Bildqualität und Latenz aufzublasen, sollte NV die RT-Performance endlich durch vollständige Hardwarebeschleunigung steigern. Davon hätten Spieler mehr. Krücken wie Hybrid-Rendering wären dann auch überflüssig.
Schade, dass die Fachpresse (wg. Desinteresse, NDA oder weil vom Thema überfordert?) nicht bei NV nachbohrt und im Interesse der Kundschaft der Frage nachgeht, warum das Problem der unzureichenden RT-Performance nicht durch bessere Hardwarebeschleunigung gelöst wird. Mehr Rays statt Fakeframes müssen das Ziel sein.
Bei 60 brauchbaren Chips pro 15k $ Wafer kostet der Chip übrigens 250$. Zusammen mit VRAM, Kühler usw. wären das ca. 600$ für die GPU.
Auch wg. 170 von 192 SM handelt es sich um Resteverwertung. Mehr Shader und dafür niedrigerer Takt und Spannung und die Leistungsaufnahme wäre nicht auf 575W explodiert. :motz:
War's nicht so, dass bei RT das Rauschen zur Wurzel der Anzahl der Strahlen skaliert, es also relativ schnell kaum noch Sinn ergibt das Rauschen via "mehr Rays!1" senken zu wollen?
Exxtreme
2025-01-30, 15:56:00
War's nicht so, dass bei RT das Rauschen zur Wurzel der Anzahl der Strahlen skaliert, es also relativ schnell kaum noch Sinn ergibt das Rauschen via "mehr Rays!1" senken zu wollen?
Wenn du 4 Strahlen pro Pixel abfeuerst dann rauscht nichts mehr.
MasterElwood
2025-02-04, 09:14:23
Für alle die enttäuscht sind von den nur +30 Prozent zur 4090:
Es gibt mittlerweile mehrere unabhängige Anzeichen dass die 5090 in richtig hohen Auflösung (wie sie z.B. in VR gebraucht werden) voll den Turbo-Boost einlegt im Vergleich zur 4090!
https://imgur.com/a/Y0U5bBK
Und NEIN - die 4090 lief NICHT ins VRAM!
Die Ergebnisse sind viel zu gut um wahr zu sein - aber wie gesagt: gibt schon mehrere unabhängige Meldungen über solche Ergebnisse!
Vieleicht wird die 5090 ja berühmt als DIE VR-Karte 😊
Toolface
2025-02-05, 18:29:40
Was bitte ist denn an Bilder verdoppeln fortschrittlich?
Wenn man KI für was Fortschrittliches einsetzen würde wäre es ja verständlich, aber es wird zu Teilen für etwas eingesetzt, um im Gegenzug für minimalen Aufwand in Hardware fette Gewinne abzukassieren. Genau solche dedizierten Modelle ermöglichen das erst, das hat rein gar nichts mit Fortschritt zu tun! An anderer Stelle für sinnfreie Werbung verwendet und oder Erstellen von Nutzerprofilen bei dümmsten Antworten durch Chat Bots, die Geschichten selbst erfinden und deren Antworten wie bei Deepseek massiv manipuliert werden können, an der Realität vorbei. China hat dafür gesorgt das politische Massaker in der chinesischen Geschichte nicht erwähnt werden. Genauso ist es auch bei Bildrekonstruktionen durch AI's, das ist kompletter Fake.
Bruteforce muss überhaupt nicht sein und auch Bruteforce war und ist immer wieder eine sinnfreie Begründung dafür, immer mehr Geld verlangen zu können. Wenn Entwickler in der Spieleentwicklung sinnvolle Arbeit für den Spieler verrichten, braucht es weder das eine noch das andere. Leider ist dieser Markt nur noch von Blindpesen und raffgierigen Spinnern bevölkert, bei denen vor allem der höchste Profit für minimalstem Aufwand zählt. Und genau dort ist das Problem gelagert. Nirgends anders, und genau dafür liefern KI Entwickler Modelle, dass dies vorgesetzt werden kann.
KI/AI mag in sich was technologisch Positives und Nützliches für den Menschen sein, aber nur wenn es dem definierten Zweck nach dafür eingesetzt wird. Das ist aber bisher überhaupt nicht der Fall. Es ist bisher kein technologischer Zugewinn und kostet Unmengen, genau deshalb gab es auch dieses Erdbeben an den Börsen. Es basiert bisher nur auf amerikanisch dedizierten Modellen, die nur der Profitmaximierung dienen. Es hilft den Spielern nirgends oder beseitigt in dieser Form Bottlenecks. Es kostet einfach nur und dient als Begründung für weitere Preiserhöhungen.
Was ich bei dieser ganzen Diskussion nicht begreife ist die Engstirnigkeit ein neues Verfahren zur Performance Steigerung einfach abzulehnen. Ich stelle einfach mal die Frage: Worin unterscheidet sich ein klassisch gerenderter Frame von einem durch KI generiertem Frame? Im Idealfall überhaupt nicht. In der Realität sind die unterschiede so klein, dass sie nicht auffallen.
1. Das Auge ist kein Messgerät sondern ein Instrument um Veränderungen schnell und genau zu ermitteln. Schon die Farbdarstellung ist so ungenau, dass man im analogen Farb - TV geradezu unverschämte Vereinfachungen machen konnte, und der Kunde war begeistert.
2. Wenn in Spielen Dinge in der Darstellung vereinfacht werden um Performance zu gewinnen, oder das Bild zu verbessern so ist das Kluge Optimierung. Warum darf man das nicht in Hardware weiter denken? Doom und Doom 2 waren nicht mal 3D Games. Alles wurde in 2D gerechnet, und doch hatte der Spieler einen Eindruck den er vorher noch nie so erleben konnte. Gouraud shading hat bei minimaler Dreieckszahl den Eindruck von Rundungen ermöglicht. Und es gibt noch so viel mehr...
Es ist auch völlig anpassbar. Wenn ich generierte Frames nicht will, dann kann ich gern bei 20FPS herumruckeln, oder die Grafik runter drehen.
Es gibt auch Spiele die nicht von eingaben in mS abhängig sind. Wenn ich ein Spiel spielen würde in der ich als Schwalbe durch den Petersdom fliegen könnte, dann würden native 20FPS in full HD Pathtracing ausreichen. Hochgerechnet auf 4K mit MFG hab ich plötzlich stabile 60 FpS in 4K und bester Darstellung. Was ist falsch daran?
Reflex und Reflex 2 werden das Latenz Problem lösen... Was ist falsch daran?
Ich kann wirklich nicht verstehen warum von gewissen Leuten immer wieder an den gewaltigsten Fortschritten in der Berechnung und Darstellung von 3D SPIELEGRAFIK rumgemeckert wird. Habt Ihr keine andere Religion?
ChaosTM
2025-02-05, 19:01:51
Für alle die enttäuscht sind von den nur +30 Prozent zur 4090:
Es gibt mittlerweile mehrere unabhängige Anzeichen dass die 5090 in richtig hohen Auflösung (wie sie z.B. in VR gebraucht werden) voll den Turbo-Boost einlegt im Vergleich zur 4090!
https://imgur.com/a/Y0U5bBK
Und NEIN - die 4090 lief NICHT ins VRAM!
Die Ergebnisse sind viel zu gut um wahr zu sein - aber wie gesagt: gibt schon mehrere unabhängige Meldungen über solche Ergebnisse!
Vieleicht wird die 5090 ja berühmt als DIE VR-Karte ��
Gut möglich. In GTA5 @ 8k und 8x MSAA zerbröselt Blackwell die alte Ada ziemlich böse. Ohne Speicherüberlauf.
@16k geht dann auch Blackwell der Speicher aus.
+ Sobald ich eine MeganeX oder was vergleichbares habe, schau ich mir das nochmals genauer an.
Momentan seh ich noch keinen Aufrüstgrund.
MasterElwood
2025-02-05, 19:34:10
Er ist mittendrin im Benchen und teasert Ergebnisse an die so unglaublich sind dass er die Messungen mehrmals wiederholt hat weil er sie selbst nicht glauben konnte. Ich poste dann YT Video hier - dauert nur mehr paar Tage.
Iscaran
2025-02-05, 19:50:28
Zwischenbildberechnung ist übrigens seit Jahren gang und gebe im Fernsehmarkt, weil man damit ziemlich easy ruckelnde 25/30 fps auf 60+ aufgeblasen bekommt. Auch das funktioniert nicht einwandfrei, aber mit jeder Generation nach und nach besser.
Nur dass beim TV es völlig egal ist wie groß der "Reaktions"-Lag ist, da es kein "Dynamisch generiertes" Medium ist. Der Film läuft einfach ab und die Menge an Daten die ich übertragen muss ist eben ein "Bruchteil" wenn ich 25 FPS mit FG auf 120 FPS "aufblase".
Das funktioniert aber nicht (bzw. nur sehr bedingt) bei einem Game wo die Bilder als "Reaktion" auf deine Eingabe entsteht.
Früher würde immer "minimale Latenz" gefordert, weil das brauche man ja zum "Elite-Gamen", heute ist "Latenz" egal, Hauptsache die 300 FPS/Hz kommen am Screen an, wenn dafür der Input lag bei 100 ms liegt ist egal...der andere "looser" zockt halt mit 60 FPS und 16 ms Lag und gewinnt dann, aber man ist halt einfach nur dann "Pro-Gamer" wenn man erstmal 3k€ für die GPU hinrotzt. Kommt mir jedenfalls bei so manchen Reviewern die Loblieber auf MFG und das ganze gedöns singen so vor.
Oder durfte man einfach nichts negatives sagen, wegen der Verträge mit nVidia? (Da gabs doch was wegen "Knebelung der Pressefreiheit" durch bestimmte Review-Klauseln)
Und wenn die Karte angeblich in allen gängigen Tests im "CPU"-Limit liegt, dann brauchts eine 3k€ GPU auch nicht...das Geld dann lieber in bessere CPU investieren.
MasterElwood
2025-02-09, 03:05:21
Holy shit:
https://youtu.be/ue_IBysnP-0?si=QE5B39eTwm2O7AF_
Leonidas
2025-02-09, 04:58:17
In der Tat ...
https://i.imgur.com/aaNHMnN.jpeg
MasterElwood
2025-02-09, 09:49:36
Wenn ich Lederjacke wäre, ich hätte mir während der Keynote jemanden von PIMAX mit einer SUPER auf die Bühne geholt - und hätte 5 Minuten nur über High-end VR gesprochen - mit den passenden 2x, 2.4x, 3x Benches dazu. Plus Erwähnung dass es bei 16K ähnlich ist.
Die ganzen "die Karte kann ja garnix außer fake Frames" Kommentare nach der Keynote wären alle ganz anders abgelaufen. 🤓
Lehdro
2025-02-10, 10:52:23
Nur ist VR halt noch mehr Nische als 240Hz+ Monitore - das hätte also genau gar nichts geändert am generellen Urteil über die Karte.
MasterElwood
2025-02-16, 09:16:23
PIMAX behauptet im letzten Newsletter dass Frame Generation und sogar Multi Frame Generation in VR funktionieren??? WTF? 😳
"DLSS Frame Generation By generating additional frames using AI, this feature helps maintain a stable frame rate while reducing latency, particularly useful for VR, where smoothness is critical."
"DLSS Multi Frame Generation By using AI to generate up to three frames from each rendered frame, DLSS 4.0 significantly boosts frame rates, providing smoother motion in VR environments, a critical factor for high-resolution displays like those in Crystal Light."
https://mailchi.mp/77a38ea9899f/pimax-play-updates-improved-service-and-chance-for-beta-testing-in-8280204?e=a016b6ad46
bbott
2025-03-02, 16:55:53
"Für den Augenblick ist wenig davon für den Käufer der GeForce RTX 5090 direkt nutzbar, abgesehen von der genannten besseren Bildqualität mittels DLSS4. Und dies dürfte zu wenig sein, um – wie bei GeForce GTX 1080 Ti, GeForce RTX 2080 Ti, GeForce RTX 3090 und GeForce RTX 4090 passiert – die GeForce RTX 5090 zu einer (zumindest in der ersten Welt) weit verbreiteten Karte zu machen."
DLSS4 kommt auch für die 4000er Serie. Nur multi frame generation nicht.
Und dabei dürfte MFG eher auf den alten Karten laufen als DLSS4.
ENKORE
2025-03-02, 17:13:04
In der Tabelle könnte man noch die 1080 Ti ergänzen (https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zur-geforce-gtx-1080-ti), da wären wir bei 62% positiv, 21% durchschnittlich, 17% negativ und 16.5% mit Kaufinteresse bei $699 / €800 MSRP.
Leonidas
2025-03-02, 17:17:40
Hatte ich ursprünglich mit dabei. Hab es gestrichen, weil es eben eine ganz andere Preiskategorie darstellt.
ENKORE
2025-03-02, 17:37:14
Eben
5090-Launch, oder 50-er Launch generell, man hat Nvidia hier hart reingeschissen. Scalper-Preise, fehlende ROPs, Probleme mit dem Stromstecker, irreführende Benchmarks mal wieder wo KI-Fames mitgerechnet werden ... und dann wird offenbar kein 32-Bit-PhysX mehr unterstützt.
Dagegen sieht die 40-er Serie im Nachhinein fast wie ein Geniestreich aus.
Exxtreme
2025-03-03, 11:17:38
Korrekt. Aber dieses Verhalten wird von den Kunden belohnt. Ergo wird sich wahrscheinlich nichts ändern. Die Leute bekommen exakt das, wofür sie mit dem Geldbeutel abstimmen.
Lehdro
2025-03-03, 16:09:05
Korrekt. Aber dieses Verhalten wird von den Kunden belohnt.
Korrektur: Die Kunden würden das Verhalten noch mehr belohnen, wenn die Karten überhaupt kaufbar wären.
Lächerlich.
Was ich bei dieser ganzen Diskussion nicht begreife ist die Engstirnigkeit ein neues Verfahren zur Performance Steigerung einfach abzulehnen. Ich stelle einfach mal die Frage: Worin unterscheidet sich ein klassisch gerenderter Frame von einem durch KI generiertem Frame? Im Idealfall überhaupt nicht. In der Realität sind die unterschiede so klein, dass sie nicht auffallen.
1. Das Auge ist kein Messgerät sondern ein Instrument um Veränderungen schnell und genau zu ermitteln. Schon die Farbdarstellung ist so ungenau, dass man im analogen Farb - TV geradezu unverschämte Vereinfachungen machen konnte, und der Kunde war begeistert.
2. Wenn in Spielen Dinge in der Darstellung vereinfacht werden um Performance zu gewinnen, oder das Bild zu verbessern so ist das Kluge Optimierung. Warum darf man das nicht in Hardware weiter denken? Doom und Doom 2 waren nicht mal 3D Games. Alles wurde in 2D gerechnet, und doch hatte der Spieler einen Eindruck den er vorher noch nie so erleben konnte. Gouraud shading hat bei minimaler Dreieckszahl den Eindruck von Rundungen ermöglicht. Und es gibt noch so viel mehr...
Es ist auch völlig anpassbar. Wenn ich generierte Frames nicht will, dann kann ich gern bei 20FPS herumruckeln, oder die Grafik runter drehen.
Es gibt auch Spiele die nicht von eingaben in mS abhängig sind. Wenn ich ein Spiel spielen würde in der ich als Schwalbe durch den Petersdom fliegen könnte, dann würden native 20FPS in full HD Pathtracing ausreichen. Hochgerechnet auf 4K mit MFG hab ich plötzlich stabile 60 FpS in 4K und bester Darstellung. Was ist falsch daran?
Reflex und Reflex 2 werden das Latenz Problem lösen... Was ist falsch daran?
Ich kann wirklich nicht verstehen warum von gewissen Leuten immer wieder an den gewaltigsten Fortschritten in der Berechnung und Darstellung von 3D SPIELEGRAFIK rumgemeckert wird. Habt Ihr keine andere Religion?
Das Latenzproblem wird eher kaschiert, man verschiebt das Frame ein bisschen auf Grund des letzten Inputs. Das, wie FG generell, ist nur bei bereits hohen Frameraten gut genug. Ich sehe FG als Mittel um fps-Raten künstlich aufzublasen ohne dass sich das Spielgefühl (hier rede ich aus meinem persönlichen Eindruck) verbessert. Wäre MFG brauchbar um aus 30 fps 120 zu machen bei einem Spielgefühl von 120 fps, wäre es ja geil. Stattdessen habe ich (mit 4070 Super und normalem FG) einer ein Gefühl, dass sich das Spiel schwammig steuert. (M)FG wäre für echtzeitberechnete Zwischensequenzen hilfreich, wo kein Input verarbeitet wird.
(M)FG ist ein bisschen, nur eben in der zeitlichen Dimension, wie diese 2x-3x-Upscaler für niedrig aufgelöste alte Computerspiele bei Emulatoren von 8-Bit-Systemen. Man bekommt so die Klötzchenpixel weg, aber die Grafik ist nicht mehr die, welche der Künstler erstellt hat. Mein Vergleich hinkt etwas, weil 3D-Grafik theoretisch beliebig genau berechnet werden könnte während 2D-Pixelgrafik diskrete Datenpunkte nutzt. Allerdings, eine Bildrate von 20 fps wird mit MFG vielleicht zu 60+ aufgeblasen, leider ohne das entsprechende Spielgefühl. Und wenn es dann Ghosting gibt, oder andere Bild-Artefakte, bleiben die so lange im Bild dass sie ziemlich wahrnehmbar sind.
Ich hatte mal einen Röhrenfernseher von Philips, der 25 Frame auf 75 aufgeblasen hat. Das funktionierte ziemlich gut, wobei "Pixel Plus 2" machmal Bildfehler brachte während Cinema Plus diese kaum noch hatte, dafür aber nicht ganzu so scharf war, ich hatte diese Funktion sehr genossen. Auch wenn bei Star Wars die Raumschiffe nicht mit ihren 25 fps (PAL-Upspeed) reinruckelten sondern nach kurzer Erkennungsphase butterweich ins Bild scrollten. Das ist aber nicht interaktiv, ich möchte in Spielen dass mein Input sofort verarbeitet wird.
Gouraud-Shading hatte für Rundungen nicht so viel getan weil die Interpolation linear blieb, für runde Beleuchtung benötigt es Phong-Shading. Deutlich aufwändiger.
5090-Launch, oder 50-er Launch generell, man hat Nvidia hier hart reingeschissen. Scalper-Preise, fehlende ROPs, Probleme mit dem Stromstecker, irreführende Benchmarks mal wieder wo KI-Fames mitgerechnet werden ... und dann wird offenbar kein 32-Bit-PhysX mehr unterstützt.
Dagegen sieht die 40-er Serie im Nachhinein fast wie ein Geniestreich aus.
Reingeschissen? Deren Grafikkarten verkaufen sich wie geschnitten Brot! Und Stromsteckerprobleme sind bisher nicht nachgewiesen, wie schon zum Launch der RTX 40 Serie wurde das künstlich aufgeblasen.
Diese Argumentationskette erinnert mich an "Milliarden Fliegen können nicht irren -> fresst Scheiße!" :biggrin:
MfG
Raff
Diese Argumentationskette erinnert mich an "Milliarden Fliegen können nicht irren -> fresst Scheiße!" :biggrin:
MfG
Raff
Dieses Standing wurde sich hart erarbeitet, Innovationen und in Vorleistung gehen zahlt sich am Ende eben aus.
Reingeschissen? Deren Grafikkarten verkaufen sich wie geschnitten Brot! Und Stromsteckerprobleme sind bisher nicht nachgewiesen, wie schon zum Launch der RTX 40 Serie wurde das künstlich aufgeblasen.
Ja, reingeschissen. Als ich bei EVGA, später dann TGT und letztlich einige Zeit für Point of View gearbeitet hatte, hatte ich einige Geforce-Launches aus Herstellersicht miterlebt. Ich war jeweils wesentlich mitverantwortlich fürs werkeigene Overclocking. Was Stromstecker betrifft, ich hab damals wohl mehr Stromstecker angeschlossen als jeder andere in diesem Forum :D und dabei nie Durchbrennen/Überlast gesehen wie jetzt der 8auer, oder Stephen Burke.
In der Influencer-getragenen Welt gibt es natürlich 50-er Käufer und damit auch Scalper, das heißt nicht, dass Nvidia mit der 50-er Serie einen gelungenen Start hingelegt hätte. Im Gegenteil, da ging richtig viel schief. Mein aktueller Gaming-Desktop und mein Gaming-Laptop haben eine Nvidia-GPU, ich bin also nicht generell gegen NV.
Ja, reingeschissen. Als ich bei EVGA, später dann TGT und letztlich einige Zeit für Point of View gearbeitet hatte, hatte ich einige Geforce-Launches aus Herstellersicht miterlebt. Ich war jeweils wesentlich mitverantwortlich fürs werkeigene Overclocking. Was Stromstecker betrifft, ich hab damals wohl mehr Stromstecker angeschlossen als jeder andere in diesem Forum :D und dabei nie Durchbrennen/Überlast gesehen wie jetzt der 8auer, oder Stephen Burke.
In der Influencer-getragenen Welt gibt es natürlich 50-er Käufer und damit auch Scalper, das heißt nicht, dass Nvidia mit der 50-er Serie einen gelungenen Start hingelegt hätte. Im Gegenteil, da ging richtig viel schief. Mein aktueller Gaming-Desktop und mein Gaming-Laptop haben eine Nvidia-GPU, ich bin also nicht generell gegen NV.
Die haben es auch drauf angelegt, das hat mit realen Bedingungen nunmal wenig zu tun, egal wie man oft man es wiederholt, es wird nicht richtiger! Nur weil ein Ivan hier und da... seitdem ist es doch ziemlich ruhig geworden. ;-)
Mag sein, dass der Launch etwas überhastet war, die Stückzählen sind trotzdem ständig vergriffen, die Nachfrage nach einer RTX 5090 weiterhin enorm hoch!
Leonidas
2025-03-04, 03:57:48
Naja, wie groß die Nachfrage wirklich ist, kann man nicht sehen anhand eines Launches mit klar zu geringer Stückzahl.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.