Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Eine (fehlbare) Performance-Prognose zur GeForce RTX 50 Serie
Leonidas
2025-01-11, 19:23:53
Link zur News:
https://www.3dcenter.org/news/eine-fehlbare-performance-prognose-zur-geforce-rtx-50-serie
crnkoj
2025-01-11, 19:39:05
warum haben die neuen karten so hohe Ram Bandwidth Verbesserungen? Da muss doch was dran sein, oder ?
Leonidas
2025-01-11, 19:40:05
GDDR7 und teilweise dickere Interfaces macht schon was aus.
denn diese muß natürlich ohne Frame Generation entstehen, was eher nur ein Hilfsmittel in speziellen Fällen ist, aber keine Allgemeinwirksamkeit entwickeln kann.
Nachdem es nicht nur Frame Generation sondern auch Framewarp gibt (auch für alle RTX-Karten), kann man FrameGeneration nicht mehr auf ein Tool für spezielle Fälle reduzieren, sondern muss es durchaus als echtes Performancetool betrachten.
Sweepi
2025-01-11, 20:17:14
1. Wechsel auf GDDR7 war fällig.
2. 512 bit bei der 5090 weil das AI-Training braucht VRAM und Speicherbandbreite: https://news.ycombinator.com/item?id=42618761#42618875
The_Invisible
2025-01-11, 20:22:22
Kaufen die sich nicht eher dieses DIGITS Ding um 3000$ mit 128gb?
Troyan
2025-01-11, 20:26:52
warum haben die neuen karten so hohe Ram Bandwidth Verbesserungen? Da muss doch was dran sein, oder ?
Naja, GDDR7 liefert die Bandbreite. Macht ja Sinn darauf zu wechseln. Bei der 5090 dagegen kann man sich die Frage stellen...
ChaosTM
2025-01-11, 20:37:47
Viele werden die Karte (5090) auch abseits von Spielen nutzen und dann wird sich das sicher bemerkbar machen. Siehe Sweepi
Auch bei ultrahohen Auflösungen, wo die CPU weniger limitiert, wird das Ding seine Muskeln ausspielen können. Da kommt dann auch die besserte AI Performance mit Multi-FG voll zur Geltung
GerryB
2025-01-11, 20:51:53
warum haben die neuen karten so hohe Ram Bandwidth Verbesserungen? Da muss doch was dran sein, oder ?
denke auch, das die mehr Bandbreite dringend gebraucht wird
GDDR7 und teilweise dickere Interfaces macht schon was aus.
wenn GDDR7 jetzt mit weniger Watt als beim Vorgänger möglich ist, dann ist eff. sogar mehr Spielraum für more Watt+Takt
bei den Shadern
Breitere Interface gibts bei 4000 Super vs 5000 eigentlich nicht.(außer 5090)
z.Bsp.
wenn ne 4080S ca. 120W für SOC+Vram verbrät und die 5080 könnte Das mit 105W, dann
stehen evtl. effektiv für die Shader ganz andere Prozente im Raum als Leo über gesamt TDP angibt
Milchmädchenrechnung:
4080S hat für die Shader nur 320W-120W = 200W zur Verfügung (müßte man mal in HWinfo schauen)
5080 hat neu für die Shader 360W-105W = 255W zur Verfügung
also 255/200=1,275 = 27,5% mehr Watt für Shader zzgl. Taktgewinn aus 4N-->N4P = 7,5...10%
heisst, das im Idealfall bis zu 30...35% mehr eff.Takt rauskommen kann (... man die mehr Bandbreite tatsächlich braucht)
Volt/Takt sind am oberen Ende meist nicht linear so das keine idealen 37,5% mehr Takt rauskommen können, eher weniger
so ca. 25-30% je nach Chipgüte.
Alle Games die bisher im Powerlimit stecken werden überdurchschnittlich profitieren vom more Boost.
Games, wo die 4080S durchgehend mit maxTakt schon <<Powerlimit läuft werden nur weniger profitieren.
btw.
Nach den Clocks, die CB@4k gemessen hat, war wohl die 4080s meistens durch den maxTakt abgeregelt, =verwunderlich!
(müßte man händisch also locker nochmal 20...35MHz draufpacken können ala 4080nonS)
--> nach m.E. müsste ne 4080S mit 2750MHz laufen können, ob jetzt ne 5080 tatsächlich mit eff. Gameclocks von 3300+ kommt,
wird interessant.(hätte ich nach den ersten Leaks mit 400W vermutet, ... leider jetzt nur noch 360W?)
crnkoj
2025-01-11, 20:55:32
Ich weiss schon, dass die hihe bandwidth vom 512bit bus +gddr7 kommt. Aber warum man so es so hoch treibt ist die Frage. Wenigstens bei der 5090. Für ai hätte man genauso die worskatrion Karten mit 512bit+gddr7 bringen können. Für "Normalos" lieber 384bit mit gddr7 und 1,5gbit Chips oder 512gbit kit gddr6x. Oder zumindest niedriger getakteten gddr7?
Aber wie ihr sagt für AI sehr wichtig. Vielleicht auch gerade wegen des multi FG. Schlussendlich geht die bandwidth bei allen neuen Karten um ca 30% hoch, die Rechenleistung (fp32) bleibt aber teilweise gleich oder wird schlechter.. Dann kannst su mit der 5090 8k mit mfg bei 120fps spielen haha.
crnkoj
2025-01-11, 22:01:13
Für was soll die extra Bandbreite so dringend gebraucht? Ernste Frage m
GerryB
2025-01-11, 22:08:00
bessere minFps
weniger später aufploppende Texturen
sollten sich fühlbar und optisch bemerkbar machen
ChaosTM
2025-01-11, 22:18:22
weniger später aufploppende Texturen
Das sollte die höhere Bandbreite zwar vermindern, aber wenn der VRAM voll ist hilft das auch ned.
Auch wenn noch VRAM vorhanden wäre, limitiert meist die Engine.
crnkoj
2025-01-11, 22:29:25
bessere minFps
weniger später aufploppende Texturen
sollten sich fühlbar und optisch bemerkbar machen
Komisch, dann hätte man einfach die Ada nehmen können und schnellere Chips, ausser der 4080/s hatten alle noch Spielraum.
Kakarot
2025-01-11, 22:40:07
2. Absatz:
In manchen Fällen könnte es aber dennoch knapp werden, gerade den Vergleich von GeForce RTX 4070 Super gegen GeForce RTX 4070 betrachtend.
5070 betrachtend
letzter Absatz:
Nur einen echten Performance-Bost außerhalb von Frame Generation...
Boost
GerryB
2025-01-11, 22:49:08
Komisch, dann hätte man einfach die Ada nehmen können und schnellere Chips, ausser der 4080/s hatten alle noch Spielraum.
5080= 4080S-Refresh mit besserem Process = mehr Takt
sehe da keinen echten Sprung in der Architektur
(evtl. verät uns Jensen später mal noch, ob Irgendwas die IPC verbessert oder ob man nur mit fakes was gewinnt)
() may be in AMD-Games wo den 4000ern Registergröße fehlt = Bottleneck, könnte ne leichte Vergrößerung schon Wunder
bewirken (Starfield o.ä.)
Chips & Cheese wird das hoffentlich wieder analysieren.
dito gibts sicherlich bei HDR auch noch Verbesserungspotential ggü. Ada
(das dann HDR auch mit RT und allen fake-tools zusammen noch funzt)
Sweepi
2025-01-12, 00:33:06
Auch wenn noch VRAM vorhanden wäre, limitiert meist die Engine.
Leider auch mein Eindruck, in vielen Spielen liegt der VRAM ungenutzt brach und die Texturen / Geometrie kommen zu spät.
Sweepi
2025-01-12, 00:34:42
5080= 4080S-Refresh mit besserem Process = mehr Takt
Besserer Prozess? Inwiefern? AFAIK immer noch 4nm aka 5nm+. Vll 5nm++ mittlerweile.
GerryB
2025-01-12, 00:42:04
N4P soll verbessert ggü. N5 sein
4N ist irgendein Ada-Betriebsgeheimnis, aber eigentlich auch nur N5.
Lehdro
2025-01-12, 01:27:21
Leider auch mein Eindruck, in vielen Spielen liegt der VRAM ungenutzt brach und die Texturen / Geometrie kommen zu spät.
Korrekt. Und es ist ein riesiges Problem. Neben dem Fakt dass es vor dem Laden der richtigen Textur einfach nur hässlich aussieht, zerstört es definitiv die Immersion.
Besonders ärgerlich als 4090 Nutzer ist es, wenn das Spiel sich bescheidene 12 GiB oder so allokiert, aber fleißig am (Nach-)Streamen ist. Zum Beispiel beim Waffenwechsel. Wieso man solche Texturen, die definitiv direkt prominent im Sichtfeld des Spielers sind, nicht generell vorhält, oder einem zumindest die Option gibt, wenn der betreffende PC das Problemlos schaffen würde, werde ich nie verstehen.
Genauso dieses "RAM sparen" um dann jedes Ingamemenü über eine vollkommen lächerliche Chromium Browserhölle erst bei Betätigung zu laden, was die Steuerung extrem langsam macht. Ein Beispiel an dass ich mich noch immer mit Schaudern erinnere: World of Tanks. Jedes Menü in der Garage läuft über Chromium und wird erst beim Klick des Spielers geladen - jedes einzelne Mal, selbst wenn man nur zwischen zwei Untermenüs hin- und herswitcht (zum Beispiel zwei Panzer im Techtree). Aber hey, dafür belegt das Spiel auch nur popelige Mengen an RAM und fühlt sich dabei an wie das alte NV Control Panel. :freak:
Hey liebe Entwickler - Ihr dürft die Ressourcen gerne nutzen die mein PC hat, dafür sind die da. Auch das ist Optimierung.
Leonidas
2025-01-12, 03:24:15
2. Absatz:
5070 betrachtend
letzter Absatz:
Boost
Danke für die Hinweise, gefixt.
PS: Tabelle mit prozentualen Zugewinnen als vorletzten Absatz hinzugefügt.
Hey liebe Entwickler - Ihr dürft die Ressourcen gerne nutzen die mein PC hat, dafür sind die da. Auch das ist Optimierung.
Volle Zustimmung. Da fehlt wohl die wirkliche Liebe zum eigenen Produkt.
crux2005
2025-01-12, 03:47:41
warum haben die neuen karten so hohe Ram Bandwidth Verbesserungen? Da muss doch was dran sein, oder ?
Raytracing braucht auch Bandbreite.
crnkoj
2025-01-12, 08:50:54
Raytracing braucht auch Bandbreite.
Das wäre eine gute Erklärung. Denn die rt perf soll ja relativ stark zulegen, die Raster eher nicht.
BlacKi
2025-01-12, 09:03:31
Das wäre eine gute Erklärung. Denn die rt perf soll ja relativ stark zulegen, die Raster eher nicht.
wieso? höhere bandbreite steigert die ipc, ähnlich größerer schnellerer cache. im prinzip ist es memory oc. du bekommst bessere performance.
ohne die +30% an bandbreite, würde nvidia kaum +30% an performance steigerungen bieten können. die chips würden schlicht an den bandbreite verhungern und man müsste um die performance ziele zu erreichen mindestens +60% mehr recheneinheiten verbauen, das würde bei der 5090 schlicht nicht gehen und bei den anderen modellen viel zu teuer werden.
schau mal bei amd. die kommen angeblich mit der chipgröße einer 5080 gerade so an eine 4080 ran, wenn die gerüchte stimmen. und spekuliert werden 600-700€ nv verkauft die 5080 aber für das doppelte. unter anderem auch wegen gddr7.
Sardaukar.nsn
2025-01-12, 09:04:00
Das wäre eine gute Erklärung. Denn die rt perf soll ja relativ stark zulegen, die Raster eher nicht.
Erklärt vielleicht die +44% die Roman angesprochen hat. RT + DLSS3 verwenden ja beide Karten.
https://i.imgur.com/CXPpXRa.jpeg
FrozenPie
2025-01-12, 11:40:30
Zweite Tabelle, Bezeichnung des dritten Spiels: CB2077
Wäre wohl eher CP2077.
MiamiNice
2025-01-12, 11:47:55
CineBench2077, passt doch viel besser zu der Software als der Name auf der Packung :D
crnkoj
2025-01-12, 13:00:53
wieso? höhere bandbreite steigert die ipc, ähnlich größerer schnellerer cache. im prinzip ist es memory oc. du bekommst bessere performance.
ohne die +30% an bandbreite, würde nvidia kaum +30% an performance steigerungen bieten können. die chips würden schlicht an den bandbreite verhungern und man müsste um die performance ziele zu erreichen mindestens +60% mehr recheneinheiten verbauen, das würde bei der 5090 schlicht nicht gehen und bei den anderen modellen viel zu teuer werden.
schau mal bei amd. die kommen angeblich mit der chipgröße einer 5080 gerade so an eine 4080 ran, wenn die gerüchte stimmen. und spekuliert werden 600-700€ nv verkauft die 5080 aber für das doppelte. unter anderem auch wegen gddr7.
Tut mir leid, deine Aussagen ergeben nur sehr bedingt Sinn. Dann hätte man doch Ada gleich mit 60% schnellerem Speicher ausstatten können und wäre genauso schnell wie Blackwell nun.
Es hat sich wohl grundlegend an der Architektur was ändern müssen, damit die nominell rechenleistung zwischen - 7 und +30% liegt, die Speicherbandbreite aber von +30 zu +60% liegt.
So wäre entweder nun die +60% Bandbreite eine Verschwendung oder, dass man die Ada Karten nicht einfach nochmal 30% kleiner/langsamer macht. Meine 4090 profitiert ja auch viel mehr vom undervolting und tdp hochsetzen als von Speicher oc, zumindest in games.
wieso? höhere bandbreite steigert die ipc, ähnlich größerer schnellerer cache. im prinzip ist es memory oc. du bekommst bessere performance.
ohne die +30% an bandbreite, würde nvidia kaum +30% an performance steigerungen bieten können. die chips würden schlicht an den bandbreite verhungern und man müsste um die performance ziele zu erreichen mindestens +60% mehr recheneinheiten verbauen, das würde bei der 5090 schlicht nicht gehen und bei den anderen modellen viel zu teuer werden.
schau mal bei amd. die kommen angeblich mit der chipgröße einer 5080 gerade so an eine 4080 ran, wenn die gerüchte stimmen. und spekuliert werden 600-700€ nv verkauft die 5080 aber für das doppelte. unter anderem auch wegen gddr7.
...die 5080 kostet 1169Euro inklusive Steuern, 999$! Die 5080 ist damit schneller und billiger als ihre Vorgängerin, bei gleicher Effizienz. Stellt übrigens alles was AMD bringt in Schatten die für 7900xtx immer noch knapp 900-1000 Euro verlangen. Das Ding verspeist die 5080 zum Frühstück und verbraucht dabei noch weniger.
AMD entwertet die Vorgängerversion mit der 9700xt selbst, damit weiß man was diese Karten wirklich wert sind, keine 600$. Frag dich mal für was AMD diesen ineffizienten Chiplet Schrott anfänglich verkauft hat, 1,3K?
BlacKi
2025-01-12, 13:15:51
Dann hätte man doch Ada gleich mit 60% schnellerem Speicher ausstatten können und wäre genauso schnell wie Blackwell nun.
Meine 4090 profitiert ja auch viel mehr vom undervolting und tdp hochsetzen als von Speicher oc, zumindest in games.
abnehmender grenzertrag. es skaliert nicht linear. bei 60% statt 30% mehr, hätte man vl nur noch 12% statt 10% rausholen können. und 100% mehr bandbreite skaliert dann nur noch im im promille bereich vs 60% mehr bandbreite.
bessere minFps
weniger später aufploppende Texturen
Halte ich für diskurswürdig. ;)
N4P soll verbessert ggü. N5 sein
Ist halt nur ein ++ Prozess, großartiges kann man da nicht erwarten, vor allem wenn 4N nicht nur ein kompletter Marketing-Bullshit war und tatsächlich Nvidia-spezifische Optimierungen hatte.
AMDoderNvidia
2025-01-12, 14:36:41
Das wäre eine gute Erklärung. Denn die rt perf soll ja relativ stark zulegen, die Raster eher nicht.
Raytracing ist bestimmt auch ein Punkt, aber mein Eindruck des ganzen RTX 5000 Line-ups ist, dass der Schwerpunkt dieser Architektur vor allem bei den Tensor-Cores liegt, also im Bereich künstlicher Intelligenz. Auf der Nvidia eigenen Website zur RTX 5000 heißt es ja:
Tensor-Recheneinheiten der vierten Generation liefern die bis zu 4-fache KI-Rechenleistung verglichen mit der Vorgängergeneration
Wobei ich dieses Zitat von Nvidia nicht mag, denn was heißt es denn nun? Dass ein einzelner Tensor-Core im 1:1 Vergleich zu RTX 4000 4-mal so schnell ist? Oder ist da auch die Taktfrequenz usw. mit reingerechnet?
Egal, wie auch immer, RTX 5000 will vor allem mit KI-Performance glänzen, denn das wird für DLSS4 Multi Frame Generation benötigt. Und jetzt die Spekulation: Um die Tensor-Cores auszulasten, braucht man Speicherbandbreite. Außerdem gehen für die vielen neuen Tensor-Cores viele Transistoren mit drauf, was die RTX 5000 Chips größer und fetter gemacht hat (ohne die Rasterizer-Leistung so zu erhöhen, wie man das auch vorherigen Generationswechseln gesehen hatte).
Leonidas
2025-01-12, 15:00:31
Wäre wohl eher CP2077.
Gefixt.
Rabiata
2025-01-12, 15:25:46
AMD entwertet die Vorgängerversion mit der 9700xt selbst, damit weiß man was diese Karten wirklich wert sind, keine 600$. Frag dich mal für was AMD diesen ineffizienten Chiplet Schrott anfänglich verkauft hat, 1,3K?
Daß die neue Generation mehr fürs Geld bringt, ist normal und wünschenswert. Sonst wären die neuen Modelle auch überflüssig. Die RTX 4000 -Serie wird von der RTX 5000 -Serie auch "entwertet". Sinnlose Polemik.
Weiter spekulieren möchte ich im Moment nicht, so kurz vor dem Launch lohnt es sich der Versuch nicht mehr, aus den wenigen Infos die endgültige Performance vorherzusagen.
Ich habe die in den Nvidia-Videos gezeigte Stelle in Cyberpunk 2077 gefunden. Sie befindet sich in Dogtown, in der Nähe des "Kress Street" Wegpunktes.
Preset Raytracing Overdrive, DLSS aus, Nvidia Reflex an, 4k Auflösung.
RTX 5090 schafft in dem Video 25-28 FPS, Mittelwert 26,5 FPS.
Meine Zotac RTX 4090 mit Wasserkühlung an gleicher Stelle:
Stock 19-22 FPS, Mittelwert 20,5 FPS. Karte läuft ständig ins Powerlimit von 450 Watt, 2520-2685 MHz Takt.
UV 18-22 FPS, Mittelwert 20 FPS. Ca. 330 Watt Verbrauch bei 2535 MHz und 885 mV und 11.500 MHz VRAM.
OC 20-24 FPS, Mittelwert 22 FPS. Karte läuft ständig ins Powerlimit von 495 Watt, 2835-2940 MHz Takt. 11.500 MHz VRAM.
RTX 5090 VS RTX 4090 Stock = +29%
RTX 5090 VS RTX 4090 UV = +32,5%
RTX 5090 VS RTX 4090 OC = +20,5%
Die RTX 5090 hat ein Powertarget von 575 Watt. Es gibt somit keine Effizienzverbesserungen.
DLSS3 nochmals ausprobiert.
RTX 4090 Stock, DLSS Quality, 39-45 FPS, Mittelwert 42 FPS. Ca. 350 Watt Verbrauch, 2760 MHz Takt.
Mit Frame Generation 71-79 FPS, Mittelwert 75 FPS. Ca. 335 Watt Verbrauch, 2745 MHz Takt.
Solange man nur die Tastatur benutzt sieht alles ganz gut aus. Sobald man aber die Maus bewegt, bemerkt man einen deutlichen Lag. Es sind nur Fake-Frames, es fühlt sich an wie 40 FPS.
Frame Generation ist für mich absolut nutzlos.
Die RTX 5090 ist somit nur ca. 25-30% schneller als die 4090 und verbraucht dafür auch 28% mehr Strom. Erinnert stark an die RTX 2080 Ti.
Ich würde nicht so sehr auf die Anzahl der Kerne achten, sondern darauf, was sie leisten können. Bei den Raytracing-Kernen und Tensor Cores gab es von der RTX 30- zur RTX 40-Serie schon einen großen Sprung. Auch zwischen der RTX 40- und 50-Serie haben sich die Werte deutlich verbessert.
Man hat auch gemerkt, dass die RTX 40-Serie deutlich zugelegt hat und erstmals wirklich nutzbar beim Pathtracing war. Der Sprung war sehr deutlich. Ich denke daher, dass die RTX 50-Serie sich ebenfalls wieder deutlich absetzen können wird.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90947&stc=1&d=1736712208
Auf die AMD-Gerüchte würde ich nichts geben. Ich traue AMD einfach nichts zu bei Raytracing und so. ^^
Und wegen der ewig gleichen Leier über "Fakeframes" empfehle ich einigen mal den Artikel, dem ich auch vollkommen zustimme. Who cares, wie die Frames erzeugt werden?
https://www.pcgamer.com/hardware/graphics-cards/its-time-for-me-to-admit-that-ai-accelerated-frame-generation-might-actually-be-the-way-of-the-future-and-thats-a-good-thing/
tl;dr
Zunächst war ich skeptisch gegenüber KI-unterstützter Frame-Generierung und bevorzugte traditionelle Rendering-Techniken. Ich dachte, dass ich die Leistung meiner GPU nur besitze, wenn sie ohne maschinelles Lernen arbeitet. Doch mittlerweile erkenne ich, dass auch traditionelle Rendering-Methoden auf Software angewiesen sind. KI-Frame-Generierung ist einfach eine weitere Methode, GPU-Hardware zu nutzen, und nicht weniger „authentisch“ als CUDA-Kerne.
Ich habe mich darauf eingelassen, weil DLSS 4 und ähnliche Technologien vielversprechende Ergebnisse liefern und die Leistung steigern können. Zwar bleibt Latenz ein Problem, insbesondere bei Echtzeit-Spielen, aber die Entwicklung zeigt, dass sowohl AMD als auch Nvidia neue Wege gehen, um die Leistung zu steigern. Die traditionelle Rendering-Technologie könnte an ihre Grenzen stoßen, weshalb Frame-Generierung eine sinnvolle Alternative darstellt.
Ich glaube, manche tun sich einfach nur schwer, das zu akzeptieren. Was sind schon "echte" Frames? Es wird beim Rendern ohnehin schon in modernen Spielen getrickst, wo es geht.
Leonidas
2025-01-13, 02:51:31
RTX 5090 schafft in dem Video 25-28 FPS, Mittelwert 26,5 FPS.
Woher stammt denn der Wert der 5090? Ich dachte in dem Video von DF war nur die 5080 zu sehen?
PS: Wert der 5090 mit 2xFG?
Exxtreme
2025-01-13, 08:49:27
Ich glaube, manche tun sich einfach nur schwer, das zu akzeptieren. Was sind schon "echte" Frames? Es wird beim Rendern ohnehin schon in modernen Spielen getrickst, wo es geht.
Der Unterschied zwischen echten Frames und Fake-Frames ist, dass die Fake-Frames nicht auf Eingaben des Spielers reagieren können. Weil die Spiele-Engine keinerlei Kontrolle über diese hat. Die Dinger werden direkt in der Grafikkarte erzeugt, der Rest des Systems weiss von ihnen nichts.
1. Wechsel auf GDDR7 war fällig.
2. 512 bit bei der 5090 weil das AI-Training braucht VRAM und Speicherbandbreite: https://news.ycombinator.com/item?id=42618761#42618875
Wird das nicht eher auf den HPC Beschleunigern gemacht (HBM).
Generell finde ich, dass Karten ab 1000€ durchaus HBM verwenden könnten/sollten.
downforze
2025-01-13, 10:37:18
Der Unterschied zwischen echten Frames und Fake-Frames ist, dass die Fake-Frames nicht auf Eingaben des Spielers reagieren können. Weil die Spiele-Engine keinerlei Kontrolle über diese hat. Die Dinger werden direkt in der Grafikkarte erzeugt, der Rest des Systems weiss von ihnen nichts.
Genau das ist das Problem. Und jetzt wirbt Nvidia mit 3 eingeschobenen Frames. Das hat doch nichts mit Fortschritt zu tun.
Nach dem Marketing von Nvidia könnte man eine 5050 mit 10 eingeschobenen Frames auch vor einer 4090 platzieren. Meiner Meinung nach ist es reine Verarschung.
Sweepi
2025-01-13, 11:05:47
Korrekt. Und es ist ein riesiges Problem. Neben dem Fakt dass es vor dem Laden der richtigen Textur einfach nur hässlich aussieht, zerstört es definitiv die Immersion.
Absolute Zustimmung! Vll funktionieren da andere Augen/Hirn Kombinationen anders, aber ich tendiere dazu, mich auf Bewegung/Veränderung zu konzentrieren, wenn ich mich in einem Spiel umschaue. Wenn die groesste Bewegung/Veränderung von auftauchenden/sich verändernden Texturen kommt, wird folglich meine Aufmerksamkeit darauf gelenkt, was mich immens stört.
Bei den Raytracing-Kernen und Tensor Cores gab es von der RTX 30- zur RTX 40-Serie schon einen großen Sprung. Auch zwischen der RTX 40- und 50-Serie haben sich die Werte deutlich verbessert.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90947&stc=1&d=1736712208
Leider nein, die Metric hat sich geändert.
Die 1321 "AI TOPS" der 4090 beziehen sich auf FP8/INT8 + sparsity**1
Die 3352 "AI TOPS" der 5090 beziehen sich auf 4 bit sparsity
Bei INT4 + sparsity kommt die 4090 auf 2642 "AI TOPS". **2
2642 -> 3352 sind 27% mehr als bei der 4090.
1) Seite 13 Spalte "Tensor TFLOPS (FP8)" https://images.nvidia.com/aem-dam/Solutions/Data-Center/l4/nvidia-ada-gpu-architecture-whitepaper-v2.1.pdf
2) Seite 30 Spalte "Peak INT4 Tensor TOPS", selbes Paper
Entsprechendes Blackwell Whitepaper noch nicht draußen, oder hat jemand einen Link?
https://news.ycombinator.com/item?id=42618761#42632535
Wird das nicht eher auf den HPC Beschleunigern gemacht (HBM).
Es wird über die gesamte Produktpalette gemacht.
Wichtig aus Nvidia Sicht ist, dass es immer ein Upgrade gibt.
Fängt mit einer gebrauchten 3080 für 350 euro an.
Wenn es lauft, möchtest du nicht an deiner billigen Hardware scheitern, kaufst eine 5080/5090 für 1000/2000.
Sobald du zahlende Kunden hast, wird du mehr 5090 kaufen, um skalieren zu können / mehr Entwickler beschäftigen zu können (N * 2000).
Im Vergleich zu einem Entwicklergehalt ist die Hw günstig. Dann kaufst du denen gerne Ada (oder in Zukunft Blackwell) 6000 für je 6000-8000.
Die haben kaum mehr Performance, aber mehr VRAM und Nvidia Support Anspruch (was auch immer das konkret heisst).
Wenn das Geschäft richtig brummt, kaufst du ganze Racks mit Ada/Blackwell 6000 oder A100/H100.
Jede Lücke im Portfolio eröffnet die Möglichkeit, nicht upzugraden oder sich bei der Konkurrenz umzusehen.
Generell finde ich, dass Karten ab 1000€ durchaus HBM verwenden könnten/sollten.
Kein Widerspruch meinerseits :D
Fürchte allerdings, dass das nicht passieren wird.
Der Unterschied zwischen echten Frames und Fake-Frames ist, dass die Fake-Frames nicht auf Eingaben des Spielers reagieren können. Weil die Spiele-Engine keinerlei Kontrolle über diese hat. Die Dinger werden direkt in der Grafikkarte erzeugt, der Rest des Systems weiss von ihnen nichts.
Da gibt es interessante Ansätze, den Userinput wesentlich häufiger zu verarbeiten als die native Framerate, und "Viewport" und Gamestate entsprechend häufiger zu updaten, sodass "nur" der native neue Frame langsam ist, aber der Inputdelay minimiert wird.
https://www.youtube.com/watch?v=f8piCZz0p-Y
Nachtrag 20250203: Das Blackwell Whitepaper ist mittlerweile erschienen: https://images.nvidia.com/aem-dam/Solutions/geforce/blackwell/nvidia-rtx-blackwell-gpu-architecture.pdf
Fazit: Wie "befürchtet", ist die 5090 in allen AI/Tensor-Kategorien (FP8/FP16/BF16/TF32/INT8) lediglich 27% (33% mehr Einheiten, leicht langsamer getaktet) schneller als die RTX 4090.
Ausnahmen:
1. Blackwell supported im Gegensatz zu Ada FP4
2. INT4 (supported von Turing, Ampere, Ada) wird nur noch im Fließtext genannt, aber keine Performance spezifiziert.
Der Unterschied zwischen echten Frames und Fake-Frames ist, dass die Fake-Frames nicht auf Eingaben des Spielers reagieren können.
Mit dem Argument bräuchte es nicht mehr als 20/60/90/120* FPS, weil das Spiel ja nicht darauf reagieren kann.
* Bitte Tickrate des jeweiligen Games auswählen.
Genau das ist das Problem. Und jetzt wirbt Nvidia mit 3 eingeschobenen Frames. Das hat doch nichts mit Fortschritt zu tun.
Also ich finde es durchaus ein Fortschritt, wenn man nun mehr zusätzliche Frames generieren kann, diese noch dazu schneller und in besserer Qualität, und man noch dazu das größte Problem der Fake-Frames durch die steigende Latenz zu einem großen Teil mitigiert.
Exxtreme
2025-01-13, 13:39:38
Mit dem Argument bräuchte es nicht mehr als 20/60/90/120* FPS, weil das Spiel ja nicht darauf reagieren kann.
* Bitte Tickrate des jeweiligen Games auswählen.
Streng genommen ist das korrekt. Man bräuchte nur einen echten Frame beim Tick und den Rest könnte man generieren lassen. Nur ist es halt so, man kennt die interne Tickrate der Spiele nicht so wirklich.
Streng genommen ist das korrekt. Man bräuchte nur einen echten Frame beim Tick und den Rest könnte man generieren lassen. Nur ist es halt so, man kennt die interne Tickrate der Spiele nicht so wirklich.
Lässt sich mit etwas Recherche meistens herausfinden, und mehr als 60Hz sind es selten.
Rabiata
2025-01-13, 20:08:02
Mit dem Argument bräuchte es nicht mehr als 20/60/90/120* FPS, weil das Spiel ja nicht darauf reagieren kann.
* Bitte Tickrate des jeweiligen Games auswählen.
Meine Erfahrung ist, daß sich First Person Shooter bei nur 30FPS etwas "träge" anfühlen, bei 60 FPS merke ich persönlich nichts mehr. Andere Genres kommen mit 30 FPS klar.
Dazu noch einen oder zwei Zwischen-Frames berechnen, dann sehen die Bewegungen im Bild gleichmäßig und ruckelfrei aus. Was darüber hinaus geht, halte ich für Effekthascherei die nicht wirklich was bringt.
ENKORE
2025-01-13, 23:37:59
Der Unterschied zwischen echten Frames und Fake-Frames ist, dass die Fake-Frames nicht auf Eingaben des Spielers reagieren können. Weil die Spiele-Engine keinerlei Kontrolle über diese hat. Die Dinger werden direkt in der Grafikkarte erzeugt, der Rest des Systems weiss von ihnen nichts.
Dafür gibt es doch jetzt die Integration mit Frame Warp, also Feed-forward von den Inputs an der Pipeline vorbei direkt zur Frame Generation. Die Idee ist afaik sehr alt, damals ging es dann noch darum, das gerade gerenderte Bild zu resampeln, um den gefühlten Inputlag zu verringern.
Mit dem Argument bräuchte es nicht mehr als 20/60/90/120* FPS, weil das Spiel ja nicht darauf reagieren kann.
* Bitte Tickrate des jeweiligen Games auswählen.
Mir fällt kein Spiel ein, wo Kamerabewegung an die Tickrate gekoppelt ist.
Mir fällt kein Spiel ein, wo Kamerabewegung an die Tickrate gekoppelt ist.
Die Gamelogic aber, und die ist es die auf Spielereingaben reagiert. Zumindest habe ich Extremes Aussage so interpretiert.
Die Kamerabewegung kann man eben durchaus auch bei den Fake-Frames anpassen, nur die Gamelogic nicht.
Wenn du in einem FPS einen Schuss abgibst hat der eben immer erst frühestens beim nächsten Tick tatsächlich eine Auswirkung auf die Spielwelt, egal ob die Frames dazwischen Echt oder Fake sind.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.