Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Rubin (Nachfolger von Blackwell, möglicherweise rein HPC/AI, 2/3 nm, 2026)


Seiten : 1 [2]

ChaosTM
2026-01-09, 14:01:00
Was deine Vorfahren damit taten. Ergo, mit dem Leben anfangen.
Wenn ich mir die Modelle im HPC/AI Segment ansehe stimmt das nicht so ganz ;)




Wir können eine gewisse Strukturbreite einfach nicht mehr unterschreiten, weil Atome leider ziemlich groß sind.
#
Ähnliches trifft auf die Lichtgeschwindigkeit zu. Wer hat sich diesen Unsinn ausgedacht?

Daredevil
2026-01-09, 14:15:37
Es geht langsam Richtung alle 3 Jahre eine neue GPU-Gen.
Meanwhile Apple YOY
https://s1.directupload.eu/images/260109/vqg8p63g.png

https://s1.directupload.eu/images/260109/xk3wji23.png

Cyberpunk2077
https://s1.directupload.eu/images/260109/v9in8p7c.png

Q:
Dave2D
Apfelwelt
Computerbase

Wenn AMD und Nvidia nicht wollen, das wir in 3-4 Jahren Cyberpunk aufm 5mm dicken iPad spielen, dann sollten sie da schon was entgegen werfen, weil Apples Pace sie sonst schneller einholt, als sie reagieren können. Und ich glaube Nvidia ist es sehr daran gelegen, ihre Marktmacht zu erhalten. Die wollen sie sicherlich nicht weiter pushen, aber Gaming ist ein profitabler Markt und den will man sich nicht wegnehmen lassen, nur geht es aufgrund des Speichers vermutlich nicht anders.

HOT
2026-01-09, 14:50:51
Und da isser wieder der totale OT-Apple-Schwachsinn... Wenn jetzt alle 3 Jahre eine GPU-Generation kommt werden natürlich auch endlich mal die Sprünge etwas größer, da man dann jedes Mal auf einen neuen Fertigungsprozess setzen kann.

Daredevil
2026-01-09, 14:59:48
Hat man ja bei Blackwell gesehen, dass sich die 3 Jahre Wartezeit gelohnt haben. :redface:
Die dickste und beste Fertigung wird am Ende natürlich nicht bei großen Consumer Produkten landen sondern dort, wo man dafür auch die Kohle zahlt und/oder wo man auch in Masse fertigen kann.

Ich glaube demnach nicht mal an einen Nachfolger in 2027, sondern an einen Margenstarken und kostengünstigen Refresh in 2026/2027, weil Nvidia bis dato schlicht nicht mehr nachziehen muss und der Bedarf der Karte nicht mehr nur nach Raw Power erzeugt wird, sondern ebenso nach Software, sowas woran sie tatsächlich arbeiten können.
DLSS5/6 und MFG 7-8-9 und Neural Shader sind alle irgendwo auf einer Blackwell möglich und erzeugen Bedarf, obwohl die Hardware immer noch die selbe ist.
There is no need for new Hardware, wenn Software nicht an ihre Grenzen gekommen ist. Das wird Nvidia freuen.

Hakim
2026-01-09, 15:17:56
Vielleicht bringt die neue Fertigung doch einen größeren Sprung als es von Ada zu BW war. Software hin oder her, ich würde mir persönlich mehr rohpower wünschen, vor allem bei den Mittelklasse Karten, gefühlt tut sich da seit Generationen nichts

ChaosTM
2026-01-09, 15:23:16
Wird nicht passieren.
10-15% für den etwas besseren Fertigungsprozess. Und das zum doppelten(?) Preis
Die Hardware ist am Ende.

The_Invisible
2026-01-09, 15:23:39
Meanwhile Apple YOY
https://s1.directupload.eu/images/260109/vqg8p63g.png

https://s1.directupload.eu/images/260109/xk3wji23.png

Cyberpunk2077
https://s1.directupload.eu/images/260109/v9in8p7c.png

Q:
Dave2D
Apfelwelt
Computerbase

Wenn AMD und Nvidia nicht wollen, das wir in 3-4 Jahren Cyberpunk aufm 5mm dicken iPad spielen, dann sollten sie da schon was entgegen werfen, weil Apples Pace sie sonst schneller einholt, als sie reagieren können. Und ich glaube Nvidia ist es sehr daran gelegen, ihre Marktmacht zu erhalten. Die wollen sie sicherlich nicht weiter pushen, aber Gaming ist ein profitabler Markt und den will man sich nicht wegnehmen lassen, nur geht es aufgrund des Speichers vermutlich nicht anders.

FSR1.0, der war echt gut :freak:

Daredevil
2026-01-09, 15:35:52
Vielleicht bringt die neue Fertigung doch einen größeren Sprung als es von Ada zu BW war. Software hin oder her, ich würde mir persönlich mehr rohpower wünschen, vor allem bei den Mittelklasse Karten, gefühlt tut sich da seit Generationen nichts
Jensen hat auf der Keynote gesagt, Rubin hat 60% mehr Transistoren und kann somit halt zu einem gewissen Teil auch nur so viel schneller sein.
Man verspricht aber in anderen Bereichen 3-5x Performance und die kommt dann eher vom drumherum, also CPU/Switches/Software/Cooling ect.

Beim Gaming ist es eigentlich ziemlich klar, AI Einheiten sind der "Quanten Computer" der GPUs. Mit KI bekommen man ein überdurchschnittliches Ergebnis, was den meisten reicht und muss unterdurchschnittlich viel Transistoren dafür einsetzen. Also ist der Fokus auf KI Leistung bedeutender und entscheidender als die reine Rohleistung.
Nvidia hat ja bereits Neural Shader in Blackwell integriert. Die Hardware für eine völlig neue Ebene an Spielen ist bereits gelegt, die Software fehlt schlicht noch.

5PHBXY0FI5o

Und das ist dann wirklich der Moment, wo eine 5060 gegen eine 4090 anstinkt. ^^

Nightspider
2026-01-09, 15:37:54
Echt übel was machen wir nur mit dem gesparten Geld? :(

Dumme Frage! Natürlich RAM kaufen. ;D


Ich glaube demnach nicht mal an einen Nachfolger in 2027, sondern an einen Margenstarken und kostengünstigen Refresh in 2026/2027, weil Nvidia bis dato schlicht nicht mehr nachziehen muss und der Bedarf der Karte nicht mehr nur nach Raw Power erzeugt wird, sondern ebenso nach Software, sowas woran sie tatsächlich arbeiten können.
DLSS5/6 und MFG 7-8-9 und Neural Shader sind alle irgendwo auf einer Blackwell möglich und erzeugen Bedarf, obwohl die Hardware immer noch die selbe ist.
There is no need for new Hardware, wenn Software nicht an ihre Grenzen gekommen ist. Das wird Nvidia freuen.

:ucrazy2:

Daredevil
2026-01-09, 15:45:28
Ich weiß schon, das klingt abstrus. Solange wir sowas hier aber noch nicht in "real" gesehen haben, ist bei Blackwell noch einiges möglich, ohne einen einzigen Transistor zu bewegen, weil schlicht nur die Software fehlt. Gut, MFG von 19fps auf über 140fps klingt jetzt nicht sehr verlockend. :D
Nvidias Neural Shader sind aber Ballast, welcher die Karte seit Tag1 mitträgt und soweit ich weiß, werden die noch nicht genutzt, oder?

0_eGq38V1hk

Oder man klebt mehrere DIEs irgendwann auch mal im Consumer Segment zusammen, das wird dann aber nicht günstig. Geben tuts das ja durchaus.

davidzo
2026-01-09, 15:55:57
Rubin hat dennoch drei Vorteile: Speichermenge, Bandbreite, Interconnect (NVL144). Kommt dann wohl auf den Use Case an, wie gut sich H200 mit TFLOPS dagegen schlägt.


Wie kommt es eigentlich das Rubin plötzlich mit 22TB/s Speicherbandbreite launcht, dabei war in den früheren Folien noch von 13TB/s die rede?

Das Interface ist ja weiterhin 16.384bit, also 8 Stacks und das würde man auch nicht mal so eben ändern können ohne ein komplettes redesign.

AMD hat anfangs gedacht dass man mit einem 50% größeren 12 Stack SI für Mi400 Rubin bei der Bandbreite deutlich schlagen kann, liegt nun aber plötzlich mit 19,7gbps gar hinten.
Zudem sind diese 19,7gbps unter den ersten für HBM4 angekündigten speeds (8.0 Gbps per pin) sondern Takten bei AMD mit lediglich mit 6.4Gbps pro Pin, also wie bei altem HBM3 ohne e (9.6Gbps).

HBM4 sollte ja den Takt auch etwas zurücknehmen im Gegenzug für ein breiteres Interface das einen feineren Pitch zum Interposer hin benutzt. Daher auch die anvisierten 8.0 Gbps statt den 9.6 bei HBM3e.

Nvidia muss aber mit ihren 8 Stacks bei Rubin an HBM4 mit mindestens 11Gbps gekommen sein und auch ihr Interface kurzfristig so hoch takten können.

Kann es sein dass Nvidia hier den premium Nextgen HBM4 aufkauft um AMD eins auszuwischen?

Oder kann es sein dass AMD die Resterampe aufkauft an HBM4 und den deshalb so tief takten muss weil er nichtmal die geplanten 8.0Gbps erreicht?

Weil wenn beide den gleichen HBM4 verwenden, dann muss nvidia ja den heiligen Grahl beim PHY engineering gefunden haben wenn sich ihr SI fast doppelt so hoch takten lässt. Und der HBM4 mus das auch mit machen, womit AMD enorm viel auf dem teler lassen würde.

Meint ihr es gibt negative Auswirkungen auf den Energieverbraucht durch die hohen Speichertakte oder ist das breitere Interface da teurer? HBM ist ja generell als genügsam bei den joule pro bit bekannt, aber könnte es auch relevant für die gesamt-TDP des Chips werden wenn man den dermaßen hoch taktet?

Eines der wichtigsten features von HBM4 ist ja neben der verdoppelten Opinanzahl auch die abgesenkte Betriebssapannung von 0.7 -0.9V. ich kann mir aber schwer vorstellen dass man mit weniger Spannung gleichzeitig so einfach einen 15% Taktratengewinn gegenüber hochgezüchtetem HBM3e umsetzen kann.

HBM4 supports VDDQ options of 0.7V, 0.75V, 0.8V or 0.9V and VDDC of 1.0V or 1.05V. The lower voltage levels improve power efficiency.

ChaosTM
2026-01-09, 15:55:57
Jensen hat auf der Keynote gesagt, Rubin hat 60% mehr Transistoren und kann somit halt zu einem gewissen Teil auch nur so viel schneller sein.
Man verspricht aber in anderen Bereichen 3-5x Performance und die kommt dann eher vom drumherum, also CPU/Switches/Software/Cooling ect.

Beim Gaming ist es eigentlich ziemlich klar, AI Einheiten sind der "Quanten Computer" der GPUs. Mit KI bekommen man ein überdurchschnittliches Ergebnis, was den meisten reicht und muss unterdurchschnittlich viel Transistoren dafür einsetzen. Also ist der Fokus auf KI Leistung bedeutender und entscheidender als die reine Rohleistung.
Nvidia hat ja bereits Neural Shader in Blackwell integriert. Die Hardware für eine völlig neue Ebene an Spielen ist bereits gelegt, die Software fehlt schlicht noch.

https://youtu.be/5PHBXY0FI5o

Und das ist dann wirklich der Moment, wo eine 5060 gegen eine 4090 anstinkt. ^^


Jenson kann keine +60% Transistoren aus dem Hut oder aus seinem Herd zaubern, außer er verwendet Multicore.

MSABK
2026-01-09, 15:57:26
Echt übel was machen wir nur mit dem gesparten Geld? :(

Ein paar DXG Spark kaufen.;)

Nightspider
2026-01-09, 15:57:49
Ich weiß schon, das klingt abstrus. Solange wir sowas hier aber noch nicht in "real" gesehen haben, ist bei Blackwell noch einiges möglich, ohne einen einzigen Transistor zu bewegen, weil schlicht nur die Software fehlt. Gut, MFG von 19fps auf über 140fps klingt jetzt nicht sehr verlockend. :D
Nvidias Neural Shader sind aber Ballast, welcher die Karte seit Tag1 mitträgt und soweit ich weiß, werden die noch nicht genutzt, oder?

https://youtu.be/0_eGq38V1hk

Oder man klebt mehrere DIEs irgendwann auch mal im Consumer Segment zusammen, das wird dann aber nicht günstig. Geben tuts das ja durchaus.
Eine Techdemo zusammenschustern != reales, lagfreies Spiel mit riesiger Sichtweite und eventuell vielen Spielern / NPCs

Die 5090 kotzt jetzt schon in 4K Auflösungen mit DLAA. Alle Upscaling Methoden mit niedrigeren Renderauflösungen sehen auch schlechter aus.

Und die Fortschritte wie zB. von DLSS 4.5 würden den Kunden auch nicht so viel Geld aus der Tasche ziehen wie eine 6090.

Bezogen auf die Transistorzahl ist Blackwell aktuell eher ineffizient. Viele hätten jetzt lieber mehr Rohleistung und sind bereit mehr Geld auszugeben.
Das ganze KI Potential wird doch erst nach Jahren erst ausgereizt.
Jetzt wird gerade mal die 4090 langsam ausgereizt beim AI Potential nach 3 Jahren.

Platos
2026-01-09, 16:41:54
Wir können eine gewisse Strukturbreite einfach nicht mehr unterschreiten, weil Atome leider ziemlich groß sind.
#
Ähnliches trifft auf die Lichtgeschwindigkeit zu. Wer hat sich diesen Unsinn ausgedacht?

Atomgrössen sind hier nicht das Problem, davon sind wir noch weit entfernt. Also die Atome, die da genutzt werden zumindest. Die Prozessnamen sind nur Marketing.

dargo
2026-01-09, 17:36:59
Und das ist dann wirklich der Moment, wo eine 5060 gegen eine 4090 anstinkt. ^^
Na klar, vor allem mit ihren 8GB. :lol:

Daredevil
2026-01-09, 17:42:37
Na klar, vor allem mit ihren 8GB. :lol:
Neural Texture Compression. :)

Nvidia describes the whole thing using the term 'Inference on Sample,' and the results are impressive, to say the least. Without any form of compression, the texture memory footprint in the demo is 272 MB. With RTXNTC in full swing, that reduces to a mere 11.37 MB.

The whole process of sampling and decoding is pretty fast. It's not quite as fast as normal texture sampling and filtering, though. At 1080p, the non-NTC setup runs at 2,466 fps but this drops to 2,088 fps with Interfence on Sample. Stepping the resolution up to 4K the performance figures are 930 and 760 fps, respectively. In other words, RTXNTC incurs a frame rate penalty of 15% at 1080p and 18% at 4K—for a 96% reduction in texture memory.


Ist natürlich straight out of Marketing by Nvidia, aber wenn es selbst "nur" 50% spart, dann ist dies ebenso ein Pro für "AI Cards", auch wenn die Raster Performance keine neue höhen erreicht hat. Aber auch das sieht man noch nicht in der freien Wildbahn. Wenn man aber mit AI Software den RAM Bedarf senken kann, dann kann man auch mehr Kohle für das gleiche Silizium verlangen. Marge $$$.

Semmel
2026-01-09, 17:58:36
Ich halte die Neural Shader (und alles, was dazugehört) auch für eine unterschätzte Zukunftstechnologie.
Man wird in 5 Jahren mit Blackwell immer noch gut zocken können, während die heutige Konkurrenz von Intel und AMD deutlich schlechter gealtert sein wird.

dargo
2026-01-09, 18:04:11
Neural Texture Compression. :)

Träum weiter, ein PC ist keine Konsole wo DEVs sich auf eine, spezielle Hardware konzentrieren dürfen. Nichts für ungut... aber dass zukünftige Games wenig Vram brauchen glaube ich erst wenn ich glaubhafte Infos zu PS6 und dem Äquivalent von Microsoft mit nur 16GB sehe. Denn Konsolen bestimmen hauptsächlich wie der Hase im Gamingbereich läuft.

Ich halte die Neural Shader (und alles, was dazugehört) auch für eine unterschätzte Zukunftstechnologie.
Man wird in 5 Jahren mit Blackwell immer noch gut zocken können, während die heutige Konkurrenz von Intel und AMD deutlich schlechter gealtert sein wird.
Klar... genauso wie man heute mit den ganzen 6GB Geforces von vor 5 Jahren alles wunderbar spielen kann. :uup:

ChaosTM
2026-01-09, 18:08:46
Atomgrössen sind hier nicht das Problem, davon sind wir noch weit entfernt. Also die Atome, die da genutzt werden zumindest. Die Prozessnamen sind nur Marketing.


Die Physik und die Atomgröße sind das einzige Problem das wir haben.


Man kann vielleicht noch ein paar kleiner Node Sprünge durchführen, aber es wird exponentiell teurer und der Gewinn an Leistung ist nicht mehr mit den steigenden Kosten vergleichbar

Daredevil
2026-01-09, 18:16:21
Träum weiter, ein PC ist keine Konsole wo DEVs sich auf eine, spezielle Hardware konzentrieren dürfen. Nichts für ungut... aber dass zukünftige Games wenig Vram brauchen glaube ich erst wenn ich glaubhafte Infos zu PS6 und dem Äquivalent von Microsoft mit nur 16GB sehe. Denn Konsolen bestimmten hauptsächlich wie der Hase im Gamingbereich läuft.


Klar... genauso wie man heute mit den ganzen 6GB Geforces von vor 5 Jahren alles wunderbar spielen kann. :uup:
DirectX Cooperative Vectors sollen sowohl von AMD/Intel und Nvidia unterstützt werden und helfen einem breitflächlich Ressourcen zu sparen. Man bekommt also "Smart" ein besseres Ergebnis mit einer begrenzt zu verfügung stehenden Hardware. Das ist ebenso ein Zielmarker für Sony, für Nintendo und alle anderen "Fixed" Systeme. Nvidia ist bei neuer Technologie und vielleicht auch wegen ihrer Ausrichtung halt in dem Falle Pionier. Dafür zahlt man, wenn man sich ne GPU von dem Laden holt im Tausch für eine Niere.

https://devblogs.microsoft.com/directx/enabling-neural-rendering-in-directx-cooperative-vector-support-coming-soon/
What are Cooperative Vectors, and why do they matter?
Cooperative vector support will accelerate AI workloads for real-time rendering, which directly improves the performance of neural rendering techniques. It will do so by enabling multiplication of matrices with arbitrarily sized vectors, which optimize the matrix-vector operations that are required in large quantities for AI training, fine-tuning, and inferencing. Cooperative vectors also enable AI tasks to run in different shader stages, which means a small neural network can run in a pixel shader without consuming the entire GPU. Cooperative vectors will enable developers to seamlessly integrate neural graphics techniques into DirectX applications and light up access to AI-accelerator hardware across multiple platforms. Our aim is to provide game developers with the cutting-edge tools they need to create the next generation of immersive experiences.

What’s Next For Neural Rendering?
The HLSL team is working with AMD, Intel, NVIDIA, and Qualcomm on bringing cross-vendor support for cooperative vectors to the DirectX ecosystem. Stay tuned for more updates about cooperative vectors and its upcoming Preview release!

Cooperative vectors will unlock the power of Tensor Cores with neural shading in NVIDIA’s new RTX 50-series hardware. Neural shaders can be used to visualize game assets with AI, better organize geometry for improved path tracing performance and tools to create game characters with photo-realistic visuals. Learn more about NVIDIA’s plans for neural shaders and DirectX here.


Und AMD = Konsolen, oder nicht?

Badesalz
2026-01-09, 18:36:32
AMD hat anfangs gedacht dass man mit einem 50% größeren 12 Stack SI für Mi400 Rubin bei der Bandbreite deutlich schlagen kann, liegt nun aber plötzlich mit 19,7gbps gar hinten.
Zudem sind diese 19,7gbps unter den ersten für HBM4 angekündigten speeds (8.0 Gbps per pin) sondern Takten bei AMD mit lediglich mit 6.4Gbps pro Pin, also wie bei altem HBM3 ohne e (9.6Gbps).Ok. Wo hast du das mit den Speicherbandbreiten bei MI400 von AMD gesehen?

Das ist doch richtig, daß MI455 432MB hat und Rubin 288?... Ich schätze das Thema Energie ist die richtige Fährte...
Nur... wir kennen siet paar Tagen auch context memory storage... Ich weiß nicht was goiler wird :upara:

edit:
Der Spam-Berater spamt wieder einen Thread voll :rolleyes:

davidzo
2026-01-09, 19:16:28
Ok. Wo hast du das mit den Speicherbandbreiten bei MI400 von AMD gesehen?

Das ist doch richtig, daß MI455 432MB hat und Rubin 288? Ich schätze das Thema Energie ist die richtige Fährte...

edit:
Der Spam-Berater spamt wieder einen Thread voll :rolleyes:

Das war jetzt schon in drei AMD Präsentationen drin. 19,6TB/s für mi455X -> Das spricht für 6,4Gb/s Module.

Das erste mal anscheinend in Lisas Präsentation bei AMDs Advancing AI Day im Juni.

Damals gab es auch noch eine Vergleichsfolie mit Rubin wo bei AMD 1,5x Bandbreite steht. Witzigerweise stand auf der Folie in der Novemberversion nur noch Bandwidth vs Rubin ~1x :freak:

- In der jüngsten CES Präsentation hat man die vergleichsfolie ganz gekillt, vermutlich weil der Vorsprung gegenüber Nvidia kaum noch vorhanden war, wobei die anderen Folien aber 1:1 noch der Juni und November-Präsentation entsprechen.
Bei helios standen vorher noch 260TB/s Scale up Bandbreite und 43TB/s Speicherbandbreite, was man jetzt beides weggelassen hat. Der Rest der Specs ist aber identisch geblieben, also auch die 40PF und 2.9EF pro Rack.

dargo
2026-01-09, 19:34:15
DirectX Cooperative Vectors sollen sowohl von AMD/Intel und Nvidia unterstützt werden und helfen einem breitflächlich Ressourcen zu sparen. Man bekommt also "Smart" ein besseres Ergebnis mit einer begrenzt zu verfügung stehenden Hardware. Das ist ebenso ein Zielmarker für Sony, für Nintendo und alle anderen "Fixed" Systeme. Nvidia ist bei neuer Technologie und vielleicht auch wegen ihrer Ausrichtung halt in dem Falle Pionier. Dafür zahlt man, wenn man sich ne GPU von dem Laden holt im Tausch für eine Niere.

Du kannst Zielmarker setzen wie du lustig bist. Bis sich sowas flächendeckend durchsetzt vergehen sehr viele Jahre weil DEVs immer auch Rücksicht auf alte Hardware bis Zeitpunkt X nehmen müssen um wirtschaftlich zu aggieren. Ich kann nicht glauben, dass du solche Basics nicht kennst die schon seit Jahrzehnten greifen.

btw.
Nur ein Beispiel von vielen... Direct Storage kam in Hardware bereits Ende 2020. Wann kam es nochmal zuerst auf dem PC? Und flächendeckend wird es immer noch nicht in jedem Spiel verwendet.

Daredevil
2026-01-09, 19:42:53
Ist mir schon klar, dass bei neuen Technologien mehrere Jahre vergehen, darum ging es hier ja auch. Das Softwarefeatures durch AI die heute mangelnde Hardware Verbesserungen Kaschieren oder zumindest beschleunigen und dadurch sehr gut altern, weil sich die Software im Nachhinein noch verändern kann, wenn die entsprechenden Recheneinheiten vorhanden sind.

Nvidia wurde mit DLSS auch belächelt, dann haben sie vehement weiter mit ihrer Vision gemacht und sind nun Marktführer, während der Rest der Industrie hinterherhinkt, der eine mehr, der andere weniger. Und eben weil Nvidia einen langen Zeithorizont hat, bekommt man heute mit einer RTX3060 von 2021, der beliebtesten Karte bei Steam, eine bessere AI Upsampling Qualität als mit dem neuesten heißen scheiß von AMD, Apple, Qualcomm und Intel.
Dafür hat man früher beim Kauf der 3060 draufzahlen müssen, langfristig hat die "schlechtere PL" die Laufzeiten dieser Karten aber enorm verbessert. Heute stehen wir genau an dem gleichen Punkt mit Nvidias Neural Shader.

dargo
2026-01-09, 19:49:17
So ein Blödsinn... zumindest die 6GB 3060 rettet bei neuen AAA-Games nichts mehr und genau zu dieser Karte haben die meisten gegriffen damals. Für mich ist das Thema hier auch beendet. Du kannst gerne weiter in deiner Bubble bleiben. :)

Edit:
Habe die 3060 gerade mit der 2060 verwechselt was Speicherausstattung angeht. Da hast du dir eine schöne Rosine rausgepickt, warum keine 3070? :wink: Die 3060 war damals mit anfänglichen 12GB gut ausgestattet.

Daredevil
2026-01-09, 20:09:53
Da die Tensor Cores nicht im RAM verbaut sind, ist das relativ irrelevant mein guter. :D
Hier gings nicht um die Bewertung des Chips oder der Karte, sondern das Featuresets langfristig supportet werden bzw. sogar nach 5 Jahren Verbesserungen bekommen, eben weil Nvidia schon so früh Einheitem implementiert hat, die 2021 noch vor ihrer Zeit waren und durch Software im Jahr 2026 immer noch Klassenprimus sind. AI Software runs Hardware. :)

rentex
2026-01-10, 13:08:04
Momentan fühlte sich der ganze Gaming Hardware Markt an, als ob PC Gaming am Ende ist...Endzeitstimmung.

Platos
2026-01-10, 16:15:08
Übertreibt mal nicht. Ein paar Monate teurere Preise und schon seht ihr schwarz :D

Mal etwas Geduld bitte. In 1-2 Jahren gibts dafür RAM so billig, wie noch nie.

Semmel
2026-01-10, 16:58:49
Ich halte die negative Stimmung auch für massiv übertrieben. Ganz im Gegenteil kann man solche Gelegenheiten auch zu seinem Vorteil nutzen. ;)

RAM wird wieder billig, wobei ich anstatt 1-2 Jahre eher 2-4 Jahre schätzen würde.

rentex
2026-01-10, 18:02:18
Ich halte die negative Stimmung auch für massiv übertrieben. Ganz im Gegenteil kann man solche Gelegenheiten auch zu seinem Vorteil nutzen. ;)

RAM wird wieder billig, wobei ich anstatt 1-2 Jahre eher 2-4 Jahre schätzen würde.

Ja, das war jetzt auch nicht sooo gemeint.
Wir werden halt eine sehr lange Durststrecke haben.

Nightspider
2026-01-10, 18:54:54
Wir werden halt eine sehr lange Durststrecke haben.

Wasn für eine sehr lange Durststrecke?

Mit Speicher konnte man sich jetzt lange Zeit fett eindecken. Ich brauch in den nächsten ~4-6 Jahren jedenfalls keine SSDs und wahrscheinlich auch keinen RAM.
Zen6 wird in den gleichen Sockel passen, also auch kein Thema.

Nächste GPU Gen kommt sowieso erst in ~1,5 Jahren...also vielleicht ein halbes Jahr später als normal...das ist jetzt auch kein Weltuntergang.

Wer jetzt eine GPU braucht kann sich noch immer eine 5070/ti oder oder etwas in der Richtung, da sehe ich öfter noch Angebote.

rentex
2026-01-10, 19:22:55
Du bist aber sehr optimistisch, das der KI Spuk, bald vorbei ist...dazu haben wir noch eine asiatische Supermacht, die unbedingt einen auf "Heim ins Reich bringen" macht.

Platos
2026-01-11, 11:46:34
"Ki" Gabs auch schon vor dem Anstieg der Speicherpreise. Der Anstieg liegt primär am "leerkaufen" der Kapazitäten und dem darauf folgenden Ramsch-Kaufen aller anderen.

Es liegt nicht an sich an KI, sondern am plötzlichen Anstieg der Nachfrage. Das Angebot wird irgendwann ausgebaut und dann sinkt das wieder relativ gesehen. Oder alternativ die Nachfrage sinkt und das Angebot wird nicht grossartig ausgebaut (was ich eher nicht glaube).

Aber wie schon gesagt wurde: Es gab jetzt einige Zeit mit sehr niedrigen Speicherpreisen. Da musste man sich eben eindecken. Ich bin hinsichtlich RAM und SSD auch noch genug eingedeckt. Mir ist aber klar, dass Enthusiasten nicht gerade ihre Stärken beim Abwarten haben. Der Rest der Welt kauft aber einfach nicht, wenns nicht nötig ist.

rentex
2026-01-11, 12:50:05
Die Hersteller haben nicht die Absicht, das Angebot auszuweiten. Tatsächlich haben sie aus der Vergangenheit gelernt.
Selber bin ich eingedeckt, daher gebe ich nur Einschätzungen von mir.

Gouvernator
2026-01-11, 13:26:53
Du bist aber sehr optimistisch, das der KI Spuk, bald vorbei ist...dazu haben wir noch eine asiatische Supermacht, die unbedingt einen auf "Heim ins Reich bringen" macht.
LOL. KI Spuk hat nicht mal angefangen. Wenn du solche Special Effects lokal selber machen kannst. LTX2 einfach wtf. Wenn Rubin 5x so schnell ist kannst du dir bald ein Film bei einem Chat-Bot deines Vertrauens bestellen um in paar Stunden einzigartig unterhalten zu werden. Für was Lucas und Spielberg Jahre brauchen würden.
Nms4KMqCnJE

OgrEGT
2026-01-11, 13:54:04
LOL. KI Spuk hat nicht mal angefangen. Wenn du solche Special Effects lokal selber machen kannst. LTX2 einfach wtf. Wenn Rubin 5x so schnell ist kannst du dir bald ein Film bei einem Chat-Bot deines Vertrauens bestellen um in paar Stunden einzigartig unterhalten zu werden. Für was Lucas und Spielberg Jahre brauchen würden.
https://youtu.be/Nms4KMqCnJE
Sorry aber das ist einfach nur Quatsch... bei guten Filmen und guten Computerspielen geht es in erster Linie um Kunst und Design das dahinter steckt... KI Modelle egal wie leistungsfähig können sowas nur nachahmen ohne jeglichen Spirit oder Emotionalität...

ChaosTM
2026-01-11, 14:06:03
Man kann sie aber als Tools benutzen und ihnen die eigenen Ideen vorgeben.
Wie bei jedem Werkzeug kommt es drauf an wie man es nutzt.

Man kann ein UE5 Spiel mit den mitgelieferten Assets bauen, dann schaut es halt aus wie jedes andere UE5 Spiel, oder man macht sich etwas Arbeit und baut eigene Sachen ein..

siehe Clair Obscur: Expedition 33

OgrEGT
2026-01-11, 14:51:54
Man kann sie aber als Tools benutzen und ihnen die eigenen Ideen vorgeben.
Wie bei jedem Werkzeug kommt es drauf an wie man es nutzt.

Man kann ein UE5 Spiel mit den mitgelieferten Assets bauen, dann schaut es halt aus wie jedes andere UE5 Spiel, oder man macht sich etwas Arbeit und baut eigene Sachen ein..

siehe Clair Obscur: Expedition 33
Das ist klar dass man KI als Werkzeug verwenden kann. Die Aussage war aber dass jedermann per Quote von einem KI Chatbot Filme in Kinoqualität auf dem Niveau von Top Regisseuren und Schauspielern erstellen lässt... und das ist mMn Quatsch...

Gouvernator
2026-01-11, 15:21:19
Das ist klar dass man KI als Werkzeug verwenden kann. Die Aussage war aber dass jedermann per Quote von einem KI Chatbot Filme in Kinoqualität auf dem Niveau von Top Regisseuren und Schauspielern erstellen lässt... und das ist mMn Quatsch...
Wenn ich mit Blackwell in 3-4 Minuten das erstellen kann, was aussieht wie aus Spielbergs Katastrophen Film - was wird mit Nextgen sein? 5x schneller ist 100 Sec. Clip damit renderst du in zwei Stunden eine gute Episode.

FZJcgwTeK24
8ycavyFwOSM

00-Schneider
2026-01-11, 15:24:34
Bist du besoffen?

ChaosTM
2026-01-11, 15:24:45
Das ist klar dass man KI als Werkzeug verwenden kann. Die Aussage war aber dass jedermann per Quote von einem KI Chatbot Filme in Kinoqualität auf dem Niveau von Top Regisseuren und Schauspielern erstellen lässt... und das ist mMn Quatsch...


Ja, ist es natürlich. Da kann nur generischer Unfug raus kommen

Platos
2026-01-12, 07:51:46
Das ist klar dass man KI als Werkzeug verwenden kann. Die Aussage war aber dass jedermann per Quote von einem KI Chatbot Filme in Kinoqualität auf dem Niveau von Top Regisseuren und Schauspielern erstellen lässt... und das ist mMn Quatsch...

Also es gibt jetzt schon Apps, die das bei Musik machen (selber in Aktion gesehen und die Rechte liegen dann bei dir). Aber für Filme brauchts natürlich Lokal massivst mehr Perfomance. Allein deswegen gehts noch lange nicht. Und Musik ist nochmals etwas einfacher als Filme vermutlich. Aber bei Musik hats recht gut funktioniert.

Für den Normalo-Schiss reichts eventuell sogar (hab das Video von Gouvernator nicht gesehen), aber für gute Filme würde ich dann auch sagen, dass die Feinheiten fehlen. Aber das Niveau der Leute bei Filmen ist ja eh nicht so hoch und bei Spielen ja erst recht. Von daher hätte es schon Erfolg.

Aber cool fände ich die Nutzung für Modding. Das Potential finde ich spannender (für mich). Auch bei Stimmen (Synchro-Modding bei Spielen mit fehlender Synchro auf Deutsch oder so).

Natürlich wirds noch einige Jahre dauern, bis sowas bei Filmen/Games funktioniert.