Archiv verlassen und diese Seite im Standarddesign anzeigen : Igor mit einem Essay (?) über Grafikkarten
Badesalz
2025-02-22, 10:50:10
Moin.
Möchte ich eigentlich vorerst nicht kommentieren und stelle es erstmal nur zur Diskussion
https://www.igorslab.de/stillgestanden-oder-vorwaerts-marsch-ein-paar-eigene-gedanken-zu-grafikkarten-entwicklung-preisen-und-lemmingen-editorial/
ENKORE
2025-02-22, 11:19:53
Raytracing [...] Doch gleichzeitig begriff ich, dass genau das die Zukunft sein würde: nicht mehr höhere FPS durch rohe Rechenleistung, sondern neue Rendering-Techniken, die auf Tricks und optische Täuschungen setzen, um das Bild realistischer wirken zu lassen.
Aber eigentlich ist Rasterizing doch die Trickserei mit Abkürzungen und optischen Täuschungen...?
Troyan
2025-02-22, 12:10:28
Ja, Rasterizing ist Stillstand, weil vieles nur durch Fakes realisiert werden können oder überhaupt nicht gehen - Reflektionen.
Der_Korken
2025-02-22, 12:30:32
Was Igor im Tenor schreibt, ist mir schon länger klar, wobei ich das Hauptproblem darin verorte, dass die Effizienzgewinne der Fertigung in den letzten Jahren massiv abgenommen haben. Damit meine ich sowohl Preis pro Transistor als auch Verbrauch pro Leistung. Ich finde mit der Einführung von TSMC 7nm Chips hat man das erste mal so richtig gemerkt, dass das Zeug langsam sauteuer wird. Nvidia hat sowohl mit Turing als auch Ampere auf 7nm verzichtet, um Geld zu sparen. Mit 5nm haben sich beide dann bis Ende 2022 Zeit gelassen, während Apple zu der Zeit schon zwei Jahre lang den M1 draußen hatte und 3nm sehen wir von beiden bisher gar nicht in Consumer-Produkten, obwohl es locker möglich gewesen wäre (Intels Verzweiflungstat mit Arrow Lake klammer ich mal aus).
Die ausbleibenden Fortschritte bei P/L killen natürlich langfristig den Markt komplett. Man ist fast an dem Punkt angekommen, dass man die Graka nur noch tauscht, wenn die alte kaputt ist. Es ist schon lange nicht mehr so, dass man eine Karte nach spätestens drei Jahren rauswirft, weil man für den alten Preis jetzt locker doppelte Performance und mehr bekommt. Leistungssteigerungen von neuen Generationen wird größtenteils über einen höheren Preis erkauft, aber das Spielgeld der Kunden kann nicht mit dieser exponentiellen Preisspirale mithalten. Es ziehen immer weniger Leute mit den Preisen mit und der Markt wird immer kleiner. Igor sagt, dass die Architekturverbesserungen aus alten Zeiten ausbleiben, aber ich würde eher sagen, diese Verbesserungen sind mit einem stagnierenden Transistorbudget (was notwendig ist, um die Herstellungskosten nicht zu erhöhen) nicht möglich.
Natürlich spielen andere Entwicklungen mit rein, wie Crypto-Mining, Ai-Rechenzentren und Nvidias Monopol. Aber selbst wenn sich wieder eine gesunde Konkurrenz auf dem GPU-Markt etablieren würde und die Nachfrage nach AI-Chips nachlässt, gibt es an der ausbleibenden Entwicklung bei der Halbleiterfertigung imho keinen Weg vorbei.
BlacKi
2025-02-22, 12:57:36
nichtmehr lange, dann wirds praktisch garkeine reinen performance steigerungen geben und wir werden glücklich sein.
die hohen preise für die nv karten die kaum schneller sind, sind ein zweischneidiges schwert. oder eher ein multibladesword. es sei denn man ist nvidianer.
x-force
2025-02-22, 13:02:01
nichtmehr lange, dann wirds praktisch garkeine reinen performance steigerungen geben und wir werden glücklich sein.
quark
3d stacking und co vergessen?
ChaosTM
2025-02-22, 13:02:52
Software ist in Zukunft die einzige Möglichkeit, um die Bildqualität signifikant zu steigern.
Und die wird nicht zuletzt dank "AI" immer besser.
Oder unsere hellsten Köpfe finden einen Weg, um auch die Roh/Rasterleistung signifikant zu steigern.
Optische/Quanten oder wasauchimmer Computer
Jetzt wird es Zeit, dass man das Optimum aus der Hardware rausholt. Software hinkt immer der Hardware hinterher.
x-force
2025-02-22, 13:30:14
igors sichtweise ist leider etwas einseitig, denn er vergisst etwas ganz entscheidendes:
den preis und die gewinnspanne auf dem produkt.
gäbe es
5090 für 1200€
5080 für 700€
5070ti für 550€
sähe es auf einmal gar nicht mehr so schlecht aus und er hätte den artikel garantiert nicht geschrieben.
Relex
2025-02-22, 13:44:20
Man kann sich aber grundsätzlich auch die Frage stellen, ob Nvidia z.B. das Research für Pathtracing und AI Features mit in den Preis einkalkuliert.
Denn man muss sich dann vielleicht schon eingestehen, dass es in punkto Features, welche Bildqualität und Performance steigern oder deutlich bessere Grafik durch Pathtracing ermöglichen, in der Quantität und Qualität früher nichtmal ansatzweise gegeben hat.
Und ich würde auch sagen, dass Forschung und Rollout beim Kunden noch nie so nah zusammen lagen wie heutzutage. Meist dauert es keine 2 Jahre vom wissenschatlichen research paper bis zum Spielepatch.
Früher war das höchste der Gefühle vielleicht mal ein HBAO+ in irgend nem sponsored Spiel oder ein paar Haar und PhysX effekte. Und auf GPU Seite vielleicht mal ein TXAA oder so.
Heute arbeiten hingegen die klügsten Köpfe des Planeten an AI features. Die machen das auch nicht umsonst.
Von daher kann ich ein Stückweit verstehen, dass die Preise steigen.
Ich würde die extremen Preise zwar nicht rechtfertigen wollen, aber dass es nicht mehr so günstig geht wie früher sollte klar sein. Es sind eben nicht nur die Chippreise gestiegen.
Angesichts der Stagnation bei der Chipfertigung finde ich es eigentlich unglaublich, wie stark sich die Grafik verbessert hat.
Wir haben in den letzten paar Jahren die heftigste Chipstagnation, aber gleichzeitig den wahrscheinlich größten grafischen Sprung der letzten 20 Jahre in kürzester Zeit erreicht.
ChaosTM
2025-02-22, 13:48:48
igors sichtweise ist leider etwas einseitig, denn er vergisst etwas ganz entscheidendes:
den preis und die gewinnspanne auf dem produkt.
gäbe es
5090 für 1200€
5080 für 700€
5070ti für 550€
sähe es auf einmal gar nicht mehr so schlecht aus und er hätte den artikel garantiert nicht geschrieben.
NV muss seine 60+% Gewinnspanne halten, sonst könnte das dem Aktienkurs schaden.
Jensen wäre dann unter 100 Milliarden $ wert und
das will doch niemand..
Wie soll sich der arme Mann sonst seine 10k Tom Ford Jacken leisten ?!
Und ja, das wäre vernünftige Preise
Jetzt wird es Zeit, dass man das Optimum aus der Hardware rausholt. Software hinkt immer der Hardware hinterher.
So ist es. Man schaue sich mal an, was die Leute aus so Kisten wie dem C64 rausgeholt haben.
Da kann die Hardware ruhig mal 5 Jahre stagnieren. Dann haben die Entwickler Gelegenheit zu zeigen, was sie drauf haben. Oder eben auch nicht. ;)
ENKORE
2025-02-22, 14:48:12
Sieht man sogar in den Inflationsdaten, wie der Sektor vor sich hin stagniert
https://i.imgur.com/INdqJem.png
https://i.imgur.com/5NW1VtD.png
x-force
2025-02-22, 14:50:11
Man kann sich aber grundsätzlich auch die Frage stellen, ob Nvidia z.B. das Research für Pathtracing und AI Features mit in den Preis einkalkuliert.
man könnte die gaming experimente auch als r&d für ai sehen und einen teil des returns daraus dem gaming zuschreiben und käme so nicht in versuchung die falsche kostenstelle zu belasten ;)
Und ich würde auch sagen, dass Forschung und Rollout beim Kunden noch nie so nah zusammen lagen wie heutzutage. Meist dauert es keine 2 Jahre vom wissenschatlichen research paper bis zum Spielepatch.
Früher war das höchste der Gefühle vielleicht mal ein HBAO+ in irgend nem sponsored Spiel oder ein paar Haar und PhysX effekte. Und auf GPU Seite vielleicht mal ein TXAA oder so.
in der gleichen zeit haben sich die engines aber auch weiterentwickelt und den markt aufgeteilt. wenn nv früher vielleicht ubi bezahlt hat, um ein feature einzubauen, zeigt epic in meinen augen einen wesentlich größeren eigenen antrieb lösungen zu finden und zu implementieren.
directx hat sich weiter entwickelt.
ChaosTM
2025-02-22, 14:54:58
So ist es. Man schaue sich mal an, was die Leute aus so Kisten wie dem C64 rausgeholt haben.
Da kann die Hardware ruhig mal 5 Jahre stagnieren. Dann haben die Entwickler Gelegenheit zu zeigen, was sie drauf haben. Oder eben auch nicht. ;)
Jop, man schaue nur auf China. Die Sanktionen haben die Entwicklung dort nur beschleunigt - brain power > NV brute force power
noch..
Fusion_Power
2025-02-22, 15:11:44
Sieht man sogar in den Inflationsdaten, wie der Sektor vor sich hin stagniert
https://i.imgur.com/INdqJem.png
https://i.imgur.com/5NW1VtD.png
Kann ja eigentlich gar nicht sein, sind da die Grafikkartenpreise mit drin?
Badesalz
2025-02-22, 18:37:17
Was Igor im Tenor schreibt, ist mir schon länger klar, wobei ich das Hauptproblem darin verorte, dass die Effizienzgewinne der Fertigung in den letzten Jahren massiv abgenommen haben.Wenn man es einfach nur gelesen hat: Es ist was Igor schreibt :rolleyes: Weiterentwicklung findet seit mehreren Generatione nur durch die Nodes statt. Früher hat man Architekturen umgebaut und auch mal revolutioniert. Heute passiert das nicht mehr.
Ich schrieb auch schon sarkastisch vor einigen Wochen irgendwo hier, daß die GPUs anscheinend seit etlichen Generatione eher von TSMC als von NV und AMD weiterentwickelt werden :freak:
@Relex
Du gehst viel zu steil abumd wenig. Das kann man schon von MegaLights behaupten. Das läuft auf PS5(pro). Nur nicht nativ auf deinem 240Hz Monitor... Hat dann aber nichts mit Bild_Qualität zu tun, da um die 240 selbst sich wieder nur TSMC bemühen soll :usweet:
@alles aus dem C64 rausholen + 5 Jahre
Ja. Für so eine Nummer sollte man aber nicht wie ein Hund Blackwell nachhächeln, richtig?
@alles aus dem C64 rausholen + 5 Jahre
Ja. Für so eine Nummer sollte man aber nicht wie ein Hund Blackwell nachhächeln, richtig?
Es ist grundsätzlich nicht sehr smart, irgendjemandem oder irgendetwas nachzuhecheln.
Klar, neues Spielzeug hat seinen Reiz, aber dann den Verstand abstellen und dem Impuls freien Lauf lassen macht nur kurz glücklich. Wenn überhaupt.
ENKORE
2025-02-22, 20:26:51
Kann ja eigentlich gar nicht sein, sind da die Grafikkartenpreise mit drin?
CPI wird um qualitative Änderungen der Warenkörbe korrigiert, daher war der CPI für Computerkrams historisch immer stark deflationär: Das gleiche nominale Geld kauft später mehr Computer. Über die Chip Shortage war der Index das erste mal seit immer (der wird seit den späten 80ern erhoben, ist aber bei den FRED Zeitreihen erst seit 2005 drin) dann inflationär. D.h. das gleiche nominale Geld hat über 1-2 Jahre hinweg immer weniger Computer gekauft. Jetzt ist er wieder leicht deflationär, aber das gleicht die Delle halt noch nicht aus. Und diese Abflachung in der Kurve merken wir am Ende als stagnierende Performance/Geld.
Bei Grafikkarten ist es halt viel stärker als der Index abbildet, weil der halt nicht nur aus Grafikkarten besteht.
mapel110
2025-02-22, 20:54:10
Schon als die Geforce 670 raus kam(iirc 2012) und als neues High End abgefeiert wurde, obwohl sie nur ein Mid Range Chip war, zogen die Preise massiv an.
Der_Korken
2025-02-22, 21:33:46
Wenn man es einfach nur gelesen hat: Es ist was Igor schreibt :rolleyes: Weiterentwicklung findet seit mehreren Generatione nur durch die Nodes statt. Früher hat man Architekturen umgebaut und auch mal revolutioniert. Heute passiert das nicht mehr.
Ich schrieb auch schon sarkastisch vor einigen Wochen irgendwo hier, daß die GPUs anscheinend seit etlichen Generatione eher von TSMC als von NV und AMD weiterentwickelt werden :freak:
Igor gibt sowohl die Stagnation der Fertigung als auch die Stagnation der Mikroarchitekturen als Grund an. Bei ersterem gehe ich absolut mit und sehe darin den dominierenden Faktor. Bei letzterem gehe ich aber nicht mit, denn wenn das Transistorbudget stagniert, gibt es automatisch auch weniger Raum um neue Ideen umzusetzen. Architekturverbesserungen werden u.a. dadurch notwendig, dass die alte Architektur mit mehr Recheneinheiten nicht mehr gut nach oben skaliert. Der Mechanismus kommt aber logischerweise zum Erliegen, wenn die Fertigung stagniert. Das sieht von oben dann natürlich schnell so aus, als würden AMD und Nvidia im Vergleich zu früher Däumchen drehen (wie du ja sagst: TSMC hat quasi "mitentwickelt"). Ob die Innovationskraft von AMD und Nvidia aber tatsächlich abgenommen hat oder nicht, kann man so einfach nicht sagen imho.
Relex
2025-02-22, 22:42:25
Aber die Architekturänderungen finden doch statt?
Es wird immer mehr in AI investiert, weil die Rohleistung wohl über Matrix einheiten besser skaliert.
Dazu dann AI algorithmen, die durch Training auch immer besser werden.
Beides wird wohl langfristig dafür sorgen, dass die komplette Grafikberechnung über AI quasi Virtualisiert wird.
Der_Korken
2025-02-23, 00:11:36
Das ist kein Widerspruch zu meinem Post. Im Gegensatz zu Igor sehe ich keine generelle Stagnation bei den Architekturen. Die Änderungen sind notgedrungen aber anders gelagert als man das von früher kennt.
Badesalz
2025-02-23, 00:44:50
Igor gibt sowohl die Stagnation der Fertigung als auch die Stagnation der Mikroarchitekturen als Grund an. Bei ersterem gehe ich absolut mit und sehe darin den dominierenden Faktor. Bei letzterem gehe ich aber nicht mit, denn wenn das Transistorbudget stagniert, gibt es automatisch auch weniger Raum um neue Ideen umzusetzen.
Ich sehe ehrlich gesagt keinen DIREKTEN Zusammenhang zwischen Transistorbudget und neuen Ideen. So, sorry, überhaupt nicht. Neue Ideen sind nun breiter-breiter-breiter. Ja. Dafür braucht man mehr Transistoren...
Aber in einem hast du natürlich Recht. Die Änderungen sind Notgedrungen und damit anders gelagert.
@Relex
:uclap: Das ist mal eine wirklich sauberst braingewaschene Meinung :uup:
blackbox
2025-02-23, 01:24:37
Wirkliche Effizienzsteigerungen gibt es doch immer weniger.
AMD kämpft damit, Nvidia genauso. Willst du mehr Leistung? Gibts nur gegen höheren Strombedarf und mehr EUROs. Das skaliert inzwischen linear?
Wir kommen so langsam aber sicher an dem Punkt, wie die ganze Hitze abgeführt werden soll. Das wird so langsam nämlich nicht mehr praktikabel. (die Stromkosten lasse ich mal außen vor). Abgesehen von der Lautstärke wird man demnächst eine AC brauchen. Im Prinzip braucht man sie jetzt schon? im Winter ist eine Heizung schon jetzt nicht mehr nötig beim Zocken.
Der_Korken
2025-02-23, 01:53:53
Ich sehe ehrlich gesagt keinen DIREKTEN Zusammenhang zwischen Transistorbudget und neuen Ideen. So, sorry, überhaupt nicht.
Das ist natürlich bedauerlich.
=Floi=
2025-02-23, 01:59:28
Aber die Architekturänderungen finden doch statt?
Es wird immer mehr in AI investiert, weil die Rohleistung wohl über Matrix einheiten besser skaliert.
Dazu dann AI algorithmen, die durch Training auch immer besser werden.
Beides wird wohl langfristig dafür sorgen, dass die komplette Grafikberechnung über AI quasi Virtualisiert wird.
Naja, das meint NV und die treibven jedes jahr ne andere sau durchs dorf!
RT läuft ja auch super.
Irgendwann wird man auch bei MFG und DLSS anstehen.
Badesalz
2025-02-23, 09:34:26
Das ist natürlich bedauerlich.Ja ich bin naiv. Ich denke weiterhin daran, daß wenn man neue Ideen hat und damit eben einiges altes verwirft, von den alten Ideen Transistoren übrig bleiben :rolleyes:
basix
2025-02-23, 10:47:27
Relex und Der_Korken haben mMn schon recht. Auf Seiten Architektur innoviert man. Nur halt nicht in Punkto Raster-Rohleistung. Und das ist eine Konsequenz aus zwei Dingen: Fertigungsverahren erlauben immer kleinere Sprünge und Raster-Grafik ist vom Grundprinzip her am Limit angekommen (dazu gibt es auch Aussagen von Game-Entwicklern wie auch Chip-Herstellern).
Allenfalls noch zu Rohleistung:
Bei reinem Compute hat man massiv zugelegt. Eine 4090 ist in z.B. Blender oder allgemein vielen CUDA-Supported Applikationen irgendwie 5x schneller wie eine 1080 Ti.
Da man mit reiner Compute-Rohleistung in Games nicht mehr weiter kommt, pimpt man Pickel und Schaufel mit anderen Dingen wie RT-Accelerators, DLSS (SR, RR, FG) und in Zukunft "Neural Shaders" ("cooperative vectors" in DX12-Sprech). Das ist eine Co-Optimierung von HW-Einheiten sowie SW-Algorithmen.
Schau dir die Screenshots von Relex in Indiana Jones inkl. Ray Reconstruction an. Würde man das mit "normalen" Rohperformance-Mitteln erreichen wollen, wäre man in 10 Jahren noch nicht dort. Egal ob Raster oder RT.
Dazu auch so Sachen wie Meshlets und Nanite. Ersteres wird in HW unterstützt und zweiteres ist ein ähnliches Prinzip aber rein Compute basiert. Damit wird man bei Geometrie viel weiter kommen als mit älteren Verfahren. Auch da ist Innovation vorhanden, auf Seiten HW wie auch SW. Bei heutigen Entwicklungszyklen von Games dauert es nur lange, bis sich das in vollem Glanz auf unseren heimischen Bildschirmen entfaltet.
Fazit:
- Ja, HW Rohleistung wird immer weniger stark zulegen
- Nein, Innovationen sind nicht weniger geworden. Sie sind einfach anders gelagert. Wenn man nicht "gratis Performance" mit Node-Shrinks bekommt, muss man es eben anders machen.
(Hardware-Rohleistungs-Mangel) Not macht erfinderisch, sagt man doch so schön ;)
x-force
2025-02-23, 11:07:15
- Ja, HW Rohleistung wird immer weniger stark zulegen
nur, wenn man glaubt, dass rt, tensor und zukünftige berechnungen auf der cpu ausgeführt wird
Badesalz
2025-02-23, 11:37:34
Relex und Der_Korken haben mMn schon recht. Auf Seiten Architektur innoviert man.Meinst du nicht, daß ist die rosa Brille des Enthusiasten damit seine Welt nicht weitgehend zusammenfällt?
Ist nicht mal ironisch gemeint, aber die Menge am sozialen und psychologischen Anteil in technischen Diskussionen ist sehr viel größer als mancher vielleicht vermutet bzw. spätestens, zugeben möchte. Und anschliessend erzählen sich beim gemeinsamen Treffen derartige gegenseitig schön was in die Tasche. thats life und so...
Zum einem. Zum anderen könnte man auch noch überlegen welche Nuance Stillstand und Stagnation unterscheidet. Ich meine Igors spricht eher von Stagnation. Was imho auch die bessere Wahl ist. Stagnation erlaubt ja noch die kleinen Spileräume nach oben die wir eben grad erleben.
@x-force
Tensor & Co. sind weniger Berechnungen als Herbeiberechnungen. Es gibt jetzt halt eine neue Berechnungsklasse. Die Herbeirechnung.
@all
Wer meint das bietet eine tolle Gelegenheit weiter auf NV rumzuhacken: Ich finde RDNA4 irgendwie auch äußerst schlapp. Die Chance hier besteht eher die Situation zu normalisieren, also für die Gamer endlich wieder bezhalbare Leistungen bieten die bis UWQHD gute Bildqualität mit einem wahrnehmbaren Anteil von RT.
Shc.. was auf die Kronen. Nur die Forenblasen der Enthusiasten reden einem die Wirkung von Leistungskronen ein. Das ist aber rein opportunistisch. Das sorgt für die high-end Leistung die sie haben wollen (ähnlich dem ersten Absatz) und nur sie bezahlen. Ohne zu merken, daß es für den Spielemarkt kontraproduktiv ist.
BlacKi
2025-02-23, 11:55:24
Meinst du nicht, daß ist die rosa Brille des Enthusiasten damit seine Welt nicht weitgehend zusammenfällt?
Ist nicht mal ironisch gemeint, aber die Menge am sozialen und psychologischen Anteil in technischen Diskussionen ist sehr viel größer als mancher vielleicht vermutet bzw. spätestens, zugeben möchte. Und anschliessend erzählen sich beim gemeinsamen Treffen derartige gegenseitig schön was in die Tasche. thats life und so...
wenn nv eines kann, dann ist es marketing. und amd lernt auch dazu. zum release von fsr4 es nicht für die breite masse anzubieten ist halt ein krasses mittel um karten zu verkaufen. ich denke aber, das man zurückrudern muss, weil fsr4 sonst keine verbreitung in spielen findet.
man wird, so wie mit RT, zum kauf animieren können, obwohl alte spiele nahezu garnicht schneller werden.
das nv selbst für die bald 7 jahre alten karten immernoch neue dlss versionen bereitstellt, wird sich auch bald ändern. mfg ist jetzt nicht so der sellingpoint TBO
Zum einem. Zum anderen könnte man auch noch überlegen welche Nuance Stillstand und Stagnation unterscheidet. Ich meine Igors spricht eher von Stagnation. Was imho auch die bessere Wahl ist. Stagnation erlaubt ja noch die kleinen Spileräume nach oben die wir eben grad erleben.
semantik, rly? ich denke stillstand wirds nie geben, aber gefühlter stillstand ist ja praktisch schon vorhanden, denn games werden gefühlt. deshalb kauft man wegen 20% perf uplift auch keine neue karte.
Badesalz
2025-02-23, 11:59:52
wenn nv eines kann, dann ist es marketing.Das scheint diesmal nicht soviel zu bringen. Die langsam ansteigende Menge an solchen Diskussionen gab es zu 4090 nicht in dieser Form.
semantik, rly?Von mir aus nein danke ;) aber es hörte sich teils so an als wenn einige mit hren Argumenten das nicht könnten.
BlacKi
2025-02-23, 12:40:35
Das scheint diesmal nicht soviel zu bringen. Die langsam ansteigende Menge an solchen Diskussionen gab es zu 4090 nicht in dieser Form.
verstehe ich nicht. die wenige karten die verfügbar sind, sind massiv zu teuer. marketing funzt also wie gewünscht.
basix
2025-02-23, 15:21:07
Meinst du nicht, daß ist die rosa Brille des Enthusiasten damit seine Welt nicht weitgehend zusammenfällt?
Ist nicht mal ironisch gemeint, aber die Menge am sozialen und psychologischen Anteil in technischen Diskussionen ist sehr viel größer als mancher vielleicht vermutet bzw. spätestens, zugeben möchte. Und anschliessend erzählen sich beim gemeinsamen Treffen derartige gegenseitig schön was in die Tasche. thats life und so...
Ich sehe das nicht mit der rosa Brille sondern aus rein technischer Sicht, was man mit angepassten und neuen Verfahren hinkriegt. Ich lese mich durchaus in die Papers und Details der Technologien ein. Und da sieht man schon, dass sehr viel innoviert wird.
Zum Beispiel DLSS SR und auch RR sind sehr schlagkräftige Features und je nach dem geht der Gewinn weit über das hinaus, was man vor 10 Jahren noch an reiner HW-Performance in der selben Zeit dazugewonnen hat. Auch RT-Acceleration sowie Nvidias MegaGeometry fallen in diese Kategorie.
Das Problem ist:
Man muss die neuen Features nutzen können (=eine entsprechende Karte besitzen) und auch nutzen (=im Game aktivieren). Ersteres kann an den seit mehreren Jahren sehr hohen GPU Preisen scheitern (=kein Eigenverschulden) und letzteres, weil immer noch ein paar Leute denken, dass RT böse ist (weil es Performance kostet) und etwas anderes als nativ nicht ins Haus kommt. Frame Generation aka Fake Frames schon gar nicht. Das ist mMn Eigenverschulden, denn die Technologien sind mMn positiv zu bewerten und haben ihren Nutzen. Nicht alles ist positiv aber Netto eben schon. Sich auf die Vergangenheit zu stützen (z.B. neue HW hat immer gute Performancesprünge geliefert) und eine sich wandelnde Technologiewelt nicht anzunehmen und zu akzeptieren ist ein sich Verschliessen vor der Realität. Da kann Igor schon ankreiden, dass die HW nur noch langsam schneller wird, aber so ist es nun mal. Und hier sind Physik sowie Ökonomie entscheidende Bremser. Mit Ökonomie meine ich nicht die Verkaufspreise der Karten, das ist ein anderes Thema. Ich fokussiere mich aber lieber auf die Sachen, wo man noch effektiv Fortschritt realisieren kann. Und das sind immer mehr SW-Features wie z.B. DLSS.
Zum einem. Zum anderen könnte man auch noch überlegen welche Nuance Stillstand und Stagnation unterscheidet. Ich meine Igors spricht eher von Stagnation. Was imho auch die bessere Wahl ist. Stagnation erlaubt ja noch die kleinen Spileräume nach oben die wir eben grad erleben.
Hinsichtlich Stagnation gebe ich dir schon auch Recht. Aber das hat mMn eher mit den Spielen zu tun als der HW sowie den genutzten SW-Algorithmen. Aus meiner Sicht ist es nicht die Technologie, welche stagniert. Sind es steigende Produktionsbudgets, komplexere Projekte oder generell abnehmender Grenzertrag bei der visuellen Erfahrung?
Aus meiner Sicht wird die nächste Konsolengeneration nochmals einen sehr grossen visuellen Sprung hinlegen. Ich habe so das Bauchgefühl, dass der Sprung fast grösser sein wird als von PS4 zu PS5:
- Brauchbarer Rohperformance-Sprung
- LastGen Konsolen unterstützen viele Features wie RT usw. womit man Altlasten aus den Engines entfernen kann und nur die neuen Workflows nutzen kann
- Verbesserte RT-Beschleunigung
- FSR4 und Co. mit hoher Qualität und entsprechend hohen Upsampling Faktoren
- Ray Reconstruction
- Frame Generation (hoffentlich Extrapolation) = Ende des 30fps Zeitalters, allenfalls wird ein 120fps only Zeitalter anbrechen
- Sachen wie MegaGeometry, Meshlets, Nanite, Lumen / MegaLight sowie ReSTIR in der Breite in Engines verfügbar und ausgereift
- ML basierte enhancements für Animationen, Haare, Fell, Rauch, Fluide, Feuer, ....
- UE5 ist endlich mal "fertig" ;)
- Neural Rendering wird ebenfalls ein Thema sein (siehe Mark Cerny und Amethyst)
Wenn du die Liste da durchliest:
Nur wenig hat direkt mit HW zu tun. Das meiste sind verbesserte oder gar neue SW-Algorithmen. Und die meisten wurden erst in den letzten ~5 Jahren entwickelt und brauchten / brauchen noch etwas Reifezeit. Damit kompensiert man die sich verlangsamende HW-Entwicklung und mMn ist die kummulierte Steigerung mindestens gut genug wie historische HW-Sprünge. Ist das jetzt gut oder schlecht? Nun, schlecht ist es sicher nicht. Und es hat sogar einen positiven Sondereffekt am konkreten Beispiel von DLSS4: Selbst auf Turing läuft das noch, da keine neuen HW-Features benötigt. Man kann also die Einsatzdauer der HW massiv strecken, wenn man die Auflösung runterschraubt. Und da sich DLSS immer weiter verbessert, kann man die Render-Auflösung noch mehr runterschrauben (ohne Qualitätsverlust). Wenn die GPU-HW also stagniert, streckt man damit die Lebensdauer der Karte die man bereits hat. So schlecht ist das also nicht. Es hilft nur keinen Spielen, welche die neuen SW-Features nicht nutzen (wovon es immer weniger gibt).
Dass die HW durch die neueren Prozesse generell teurer wird und aufgrund mehrerer Sondereffekte (2x Mining Boom, Covid, AI-Boom, Inflation) der Preisanstieg zusätzlich befeuert wurde, hilft definitiv nicht. Denn ohne die neuen Technologien (primär die erwähnten SW-Features) steigt die Performance nur schwach und P/L faktisch gar nicht. Doch solange anderweitige Verbesserungen als SW-Feature für ältere HW nachgereicht wird (DAS ist das wichtigste, AMD zeigt das 1A mit FSR) kann man noch irgendwie damit leben. Dann bleibt man halt länger bei der Karte, die man hat. Igors "Just think first" passt da ganz gut. Und dass eine bestehende Karte mit neuen SW-Features noch besser wird, hat doch auch was schönes. Blöd finde ich eher, dass die absoluten Preispunkte sehr hoch sind und die Margen von Nvidia sprechen Bände, dass es wohl auch für weniger ginge. Naja, vielleicht beglückt uns AMD in 2 Wochen mal wieder mit etwas Fortschritt bei der HW oder zumindest hinsichtlich P/L ;)
Rabiata
2025-02-23, 19:29:48
Das Problem ist:
Man muss die neuen Features nutzen können (=eine entsprechende Karte besitzen) und auch nutzen (=im Game aktivieren). Ersteres kann an den seit mehreren Jahren sehr hohen GPU Preisen scheitern (=kein Eigenverschulden) und letzteres, weil immer noch ein paar Leute denken, dass RT böse ist (weil es Performance kostet) und etwas anderes als nativ nicht ins Haus kommt. Frame Generation aka Fake Frames schon gar nicht. Das ist mMn Eigenverschulden, denn die Technologien sind mMn positiv zu bewerten und haben ihren Nutzen. Nicht alles ist positiv aber Netto eben schon. Sich auf die Vergangenheit zu stützen (z.B. neue HW hat immer gute Performancesprünge geliefert) und eine sich wandelnde Technologiewelt nicht anzunehmen und zu akzeptieren ist ein sich Verschliessen vor der Realität.
Da kommen auch die persönlichen Ansprüche ins Spiel. Der eine spielt First Person Shooter, die schnelle Reaktionen erfordern. Da ist Frame Generation von Nachteil, weil sie objektiv die Latenz erhöht. Der andere spielt vielleicht eher langsame Games und erfreut sich dabei am Kameraschwenk über die Landschaft. Da hat dann Frame Generation maximale Berechtigung.
Meine persönliche Einstellung ist, daß ich mindestens 30 native FPS haben will, plus eventuell ein Zwischenbild um das Gesamterlebnis ruckelfrei zu machen. Was darüber hinaus geht, halte ich für unnötig. Aufgerüstet wird, wenn die Software meiner Wahl mehr verlangt als der Rechner kann.
Relex
2025-02-23, 19:35:07
@Relex
:uclap: Das ist mal eine wirklich sauberst braingewaschene Meinung :uup:
Erstens kannst du dir solche Aussagen mal sonst wo hinstecken und zweitens ist das keine Meinung sondern nur das was gerade passiert.
x-force
2025-02-23, 19:58:47
@x-force
Tensor & Co. sind weniger Berechnungen als Herbeiberechnungen. Es gibt jetzt halt eine neue Berechnungsklasse. Die Herbeirechnung.
ich befürchte mit dieser kreativen definition stehst du alleine da.
Badesalz
2025-02-24, 07:04:22
ich befürchte mit dieser kreativen definition stehst du alleine da.Alleine? Na wer beschäftigt sich denn sonst damit? Alle Arten von opportunistischen Pushern und Promotern (YT, Journalie, Foren) und die Forenblasen selbst, gefühlt mit ähh... Enthusiasten, die halt sonst bei einer Gen mit leeren Händen dastehen würden. Das geht natürlich nicht... Ja das kann also schon sein, daß man da bisschen länger suchen müsste bis weitere zustimmen - "alleine" ist mir bisschen too much social skills deinerseits :wink: - aber das ist angesichts dieses Umfelds erwartungsgemäß. Wayne?
Das haut keinen außerhalb dieses Tellerrandes gleich aus der Bahn, der mal darüber laut nachdenken mochte.
@basix
Deine Horrorliste erscheint realistisch. Nur die HW-Dongles für diese neuen Softwarealgos, die finde ich mittlerweile oberhalb von Wucher.
Zephyroth
2025-02-24, 09:36:49
DLSS erscheint mir sinnvoll, MFG nicht sonderlich. Während DLSS schlicht und einfach auf die Bildqualität geht (was sich nach den meisten Berichten aber in Grenzen hält), geht MFG unweigerlich auf die Latenz der Input-Devices. Wenn die interne Geschwindigkeit nur 15fps beträgt, aber mit MFG dann ansehnliche 60fps rauskommen, dann wird sich das vom Spielgefühl eher bescheiden anfühlen.
Was ich damit sagen will, DLSS ist ein gutes Mittel, um an hohe Auflösungen zu kommen, ohne die HW überzustrapazieren. MFG hingegen setzt eigentlich "spielbare" Frameraten (und damit eine bestimmte Rohleistung der Graka) voraus. Ist also imho kein probates Mittel einer zu schwachen Karte Beine zu machen.
Und dann stellt sich mir die Frage, ob der Upscaling-Algorithmus in der Graka an der richtigen Stelle ist. Man kann immerhin einen 4k-Monitor ohne Probleme mit einem 720p, 1080p oder 1440p füttern und er wird's selber auf 4k hochskalieren. Da gehört das ganze eigentlich hin. Mir ist aber auch klar, dass der Upscaling-Algorithmus in der Graka aufwändiger sein kann und auch flexibler gegen einen neuen ausgetauscht werden kann.
Ich (als Wiedereinsteiger nach 10 Jahren) weis noch nicht, was ich von diesen ganzen "Algorithmen" halten soll. Das was ich mit meinem System gesehen habe, reißt mich jedenfalls nicht vom Hocker (aber FSR ist halt kein DLSS), so dass ich sehr schnell wieder auf native Auflösung umgestellt habe. Aber da ich derzeit erst ein Spiel spiele (Everspace II) und das auf meiner 550€-RX7800XT mit 80fps+ @1440p läuft, bin ich erst mal zufrieden. Interessanter wird Cyberpunk2077, was als nächstes in meiner Pipeline ist. Da hab' ich schon gesehen, dass es hier verdammt eng wird. Mal sehen was den insgesamt besseren Eindruck vermittelt "nativ ohne RT" oder "RT & FSR". Muss ich mir erst ansehen.
Grüße,
Zeph
BlacKi
2025-02-24, 09:50:08
DLSS erscheint mir sinnvoll, MFG nicht sonderlich. den inputlag zu fixen ist theoretisch möglich. mal sehen was die zukunft bringt.
Zephyroth
2025-02-24, 10:09:48
den inputlag zu fixen ist theoretisch möglich. mal sehen was die zukunft bringt.
Dazu müsste man die Spiele-Engine von der Framerate zu entkoppeln.
Grüße,
Zeph
Badesalz
2025-02-24, 10:12:41
DLSS erscheint mir sinnvoll, MFG nicht sonderlich. Während DLSS schlicht und einfach auf die Bildqualität geht (was sich nach den meisten Berichten aber in Grenzen hält), geht MFG unweigerlich auf die Latenz der Input-Devices. Wenn die interne Geschwindigkeit nur 15fps beträgt, aber mit MFG dann ansehnliche 60fps rauskommen, dann wird sich das vom Spielgefühl eher bescheiden anfühlen.Es scheint sich... herauszuarbeiten, daß man mind. 60fps nativ schon haben sollte. Das scheint fast schon die Faustregel.
So als erstes. Ob die zweite Stufe auch soweit hinhaut, daß man sich erzählt, gleich die Hälfte der Ziel-FPS sollten nativ sein, das wird sich noch zeigen.
Da mich Forenblasen der ähh... Enthusiasten selten triggern und 120 für ausreichend annehmbar halte, würde das auch mit den 60fps nativ hinhauen ;)
Der Gedanke, daß wenn man etwas so schnelles spielt, daß 144 nochmals eine praktische Steigerung bedeutet, man das nicht in 4k machen muss, weil man von den 4k kaum etwas mitbekommt, will mich zwar auch nicht verlassen, aber darüber zu diskutieren bringt meist keine Erkenntnisgewinne ;) Ich würde derartiges eher immer in UWQHD zocken, aber ich hab zum Glück nicht den echten Durchblick...
Exxtreme
2025-02-24, 10:13:31
Dazu müsste man die Spiele-Engine von der Framerate zu entkoppeln.
Grüße,
Zeph
Nein, auch das hilft nicht. Denn Frame Generation sorgt dafür, dass man das fertig gerenderte Bild viel später auf dem Monitor zu sehen bekommt. Und da ist es egal ob die Engine an die Bildwiederholfrequenz gekoppelt ist oder nicht.
Was etwas helfen würde, wäre eine Frame Generation, die auf Extrapolation basiert. Aber sowas bringt wiederum neue Probleme mit sich.
Zephyroth
2025-02-24, 10:26:03
Was etwas helfen würde, wäre eine Frame Generation, die auf Extrapolation basiert. Aber sowas bringt wiederum neue Probleme mit sich.
Richtig. Stimmt, so müsste es laufen.
Was mir bei meinem Wiedereinstieg auffällt, alles unter 40fps fühlt sich seeeehr ruckelig an. Entweder ist das eine Verklärung der Vergangenheit bei mir, oder es hat sich irgendwas geändert, aber anno 2011 war meine Ziel-Framerate bei 25-30fps und ich fühlte mich wohl damit. Egal ob langsames RTS oder schneller FPS.
Bei Everspace II fällt mir das auf, ich kann auf 1440p alles auf episch drehen, nur nicht die dynamische Beleuchtung. Die halbiert mir die Framerate auf ~30-40fps. Das ist beinahe unspielbar, was mich dann doch überrascht hat, ausgehend von meinen früheren Erfahrungen mit max. 30fps.
Grüße,
Zeph
Badesalz
2025-02-24, 11:01:59
@Zephyroth
Was sind eigentlich diese Frametimes? =)
Zephyroth
2025-02-24, 11:09:00
@Zephyroth
Was sind eigentlich diese Frametimes? =)
Hmm. Du meinst ein Problem wie damals mit den Micro-Rucklern bei DualGPU? Könnte ich mal einen Blick drauf werfen...
Ich seh' nur keinen Grund, warum diese so grob ungleichmäßig sein sollte, zumindest zeigt mir das mein Graka-HUD an. Der Graph, auf dem die Frametimes laufen, hat keine großen Ruckler. Eigentlich nur wenn was geladen wird.
Grüße,
Zeph
Flusher
2025-02-28, 16:38:56
Spielegrafik und die zugrundeliegenden Technologien haben sich immer gewandelt. Jetzt haben wir drei Jahrzehnte des 3D Renderings hinter uns - anzunehmen, dass das immer weiter im selben Tempo skaliert war und ist unrealistisch. NVIDIA experimentiert nun immer weiter mit "KI-Rendering" - ist das ein Problem? Ich würde sagen: Nein.
Solange unser Sehsinn nicht deutliche Unterschiede erkennt ist es doch völlig egal wie das Bild auf dem Bildschirm generiert wurde.
x-force
2025-02-28, 16:51:10
die diskussionen bei aufkommen einer neuen technoligie sind immer die gleichen:
wer nicht versteht, worum es geht und wie die zukunft und der nutzen aussehen kann, hat nichts als kritik übrig.
Spielegrafik und die zugrundeliegenden Technologien haben sich immer gewandelt. Jetzt haben wir drei Jahrzehnte des 3D Renderings hinter uns - anzunehmen, dass das immer weiter im selben Tempo skaliert war und ist unrealistisch. NVIDIA experimentiert nun immer weiter mit "KI-Rendering" - ist das ein Problem? Ich würde sagen: Nein.
Ich gehe man so weit und behaupte, daß wir - wenn es in dem Tempo weitergeht - in 10 Jahren Teile oder so gar ganz generierte KI Inhalte erleben werden.
Solange unser Sehsinn nicht deutliche Unterschiede erkennt ist es doch völlig egal wie das Bild auf dem Bildschirm generiert wurde.
Richtig.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.