Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce RTX 5080 soll Performance der GeForce RTX 4090 nicht erreichen


Leonidas
2024-10-13, 18:57:07
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-5080-soll-performance-der-geforce-rtx-4090-nicht-erreichen

Gast
2024-10-13, 19:07:19
War ja zu erwarten wenn AMD nur Mittelklasse liefert. NVidia wird melken.

Gast
2024-10-13, 19:48:52
Möglicherweise hat NV wirklich was in der Hinterhand oder man hat einfach gesagt, jo für ne 5080 nehmen wir ohne Gegenprodukt den Top-Chip und nehmen den Gewinn einfach mit und wenn alles schief geht legen wir den 5080TI auf.

Langsam beschleicht mich das Gefühl denen ist der Umsatz egal bei dem ganzen KI Gedöns.

So oder so keine gute Ausgangslage für die Käufer.
Gibt's ne neue Technik die nur auf den 5000er läuft, muss man ein ansonsten halbgares Produkt kaufen, wenn man es nutzten will. Ansonsten kann man die 5080 gleich ganz abschreiben, wenn man nicht einige Generationen überspringt.

Seit langem hat mich eine neue NV generation so wenig getriggert wie diese...

Prinzenrolle
2024-10-13, 20:11:05
War ja zu erwarten wenn AMD nur Mittelklasse liefert. NVidia wird melken.

Was sollen sie denn groß melken? Wenn die 5080 keine große Mehrperformance bietet rüsten auch nicht so viele auf. Immer wieder albern solche Überlegungen.

aceCrasher
2024-10-13, 20:14:14
4090 besitzen macht schon Spaß. 2022 gekauft und bis vorraussichtlich Ende 2026 besitzt man die schnellste oder zweitschnellste Karte:cool:

Sardaukar.nsn
2024-10-13, 20:15:47
@aceCrasher: Ja, für den Werterhalt der 4090 wäre da natürlich prima. Aber mal abwarten was denn wirklich kommt.

Taigatrommel
2024-10-13, 20:24:44
Die eigentliche Frage wird sein, ob die 5080 denn zumindest die UVP der 4090 erreichen wird. Diese wurde ja sicher nicht grundlos auf einmal von nVidia eingestellt.:freak:

Ex3cut3r
2024-10-13, 21:16:55
DLSS 3 wird schon richten. Diesmal wird FG 2 oder 3 Bilder pro Sekunde zusätzlich generieren können. Natürlich nur ab RTX 5000 Reihe. Heißt also, die ganzen 4K, 240HZ OLED Monitore, können wohl anständig ausgefahren werden.

GerryB
2024-10-13, 21:20:49
Was sollen sie denn groß melken? Wenn die 5080 keine große Mehrperformance bietet rüsten auch nicht so viele auf. Immer wieder albern solche Überlegungen.
1+

Da gibts ne Menge User, die genauso am Wattregler drehen können.
(solange Vram+GPU-OCen einigermaßen skaliert ist ne 5080S sicher nicht so weit weg, das sich ein Umstieg lohnt)

ChaosTM
2024-10-13, 21:28:04
DLSS 3 wird schon richten. Diesmal wird FG 2 oder 3 Bilder pro Sekunde zusätzlich generieren können. Natürlich nur ab RTX 5000 Reihe. Heißt also, die ganzen 4K, 240HZ OLED Monitore, können wohl anständig ausgefahren werden.




Dann bringt AMD halt ihre Version von FG 2.X. Darin sind sie ja recht gut. ^^

Das neue (unvermeidliche) proprietäre Feature muss schon verdammt gut sein um die Leute zu überzeugen, falls die Performance nicht passt.

GerryB
2024-10-13, 21:36:01
die alte Lösung mit DLSS+FG ist auch bloß nicht immer rund bzgl. Frametimes
hoffentlich bleibt das nicht so grottig, falls NV nur ne neurere Lösung richtig vorantreibt
und die alten Grakas wieder mal in die Röhre gucken

rein subjektiv scheint eeh auf RDNA3 das FSR+FG besser zu skalieren

Ex3cut3r
2024-10-13, 21:41:58
Dann bringt AMD halt ihre Version von FG 2.X. Darin sind sie ja recht gut. ^^


Wird ohne die richtige HW in der GPU nicht funktionieren. Da gleichzuziehen.

Dorn
2024-10-13, 21:53:38
Die eigentliche Frage wird sein, ob die 5080 denn zumindest die UVP der 4090 erreichen wird. Diese wurde ja sicher nicht grundlos auf einmal von nVidia eingestellt.:freak:
Richtig, die 5080 zum Preis der 4090 aber mit weniger Leistung dafür FG 2 mit 3 Bilder mehr und die 4090 ist geschlagen. :biggrin:

The_Invisible
2024-10-13, 22:17:12
4090 besitzen macht schon Spaß. 2022 gekauft und bis vorraussichtlich Ende 2026 besitzt man die schnellste oder zweitschnellste Karte:cool:

Ja aber zweitschnellste ist schon meh :D

Bin echt gespannt was NV da auftischt aber Software leakmäßig scheint ja alles zugeschnürt zu sein...

ChaosTM
2024-10-13, 22:34:13
Wird ohne die richtige HW in der GPU nicht funktionieren. Da gleichzuziehen.


Die 3080er im Schleppi, die im Prinzip eine kastrierte Desktop 3070er ist, läuft wunderbar mit AMDs FG.
Und wie schon gesagt. Im Gegensatz zu FSR ist AMDs FG Lösung fast gleichwertig, wenn man den diversen Tests glauben kann.

@ Dorn, setzte Jensen nicht solche Sachen ins Ohr - der macht das glatt ;)

crnkoj
2024-10-13, 22:40:42
Findet ihr es nicht komisch, dass die 5080 angeblich mehr RAM Bandbreite haben soll als die 4090? Das würde dich dafür sprechen, dass die 84sm wesentlich potente sein sollten, oder sehe ich das falsch? Warum sonst so viel an so schnellem RAM verballern, sowohl preislich, als auch tdp?

Gast
2024-10-13, 23:24:48
Das ist garantiert eine Aussage über die GPGPU-Leistung, und keine über die Gaming-Performance der 5080.

Und da es bei ersterer in erster Linie auf FLOPs ankommt ist das nicht anders zu erwarten. Beim Gaming kann es ganz anders aussehen, da es eben nicht nur auf FLOPs sondern auch wie effizient diese genutzt werden ankommt.

Daredevil
2024-10-14, 00:23:50
Richtig, die 5080 zum Preis der 4090 aber mit weniger Leistung dafür FG 2 mit 3 Bilder mehr und die 4090 ist geschlagen. :biggrin:
War doch bei der 3090 und 4080 auch nicht anders, oder?
Die 3090 war im Schnitt die schnellere und saufandere Karte, bei Features wo DLSS3 mit FG durchgingen, wurde die 3090 dann verputzt.
Insofern für mich jetzt keine skandalöse News, das eine 5080 nicht unbedingt schneller sein muss als eine 4090. Am Ende entscheidet auch KI Leistung und Software über das Endergebnis und nicht nur Silizium.
Ich persönlich hätte lieber zum Gaming eine 4080 gehabt als eine 3090. Die 3090 hat dafür mehr Spaß gehabt mit KI Berechnung aufgrund des Speichers. :)

Ex3cut3r
2024-10-14, 06:55:54
Die 3080er im Schleppi, die im Prinzip eine kastrierte Desktop 3070er ist, läuft wunderbar mit AMDs FG.
Und wie schon gesagt. Im Gegensatz zu FSR ist AMDs FG Lösung fast gleichwertig, wenn man den diversen Tests glauben kann.


Es scheint, als hättest du es noch nicht ganz erfasst. Die fünfte Generation wird die einzige sein, die Frame Generation von Nvidia erhält, wodurch nun 2-3 Bilder pro Sekunde generiert werden können, nicht nur eines wie zuvor. Dadurch ist sie schneller als jede AMD-Karte mit Frame Generation oder bisherige Nvidia-Karten, vorausgesetzt, das Spiel unterstützt DLSS 3.

ChaosTM
2024-10-14, 07:58:24
Ein weiteres proprietäres Feature, das wohl auch auf der "4. Generation*" laufen könnte, aber aus den bekannten Gründen nicht darf.
Gutes Marketing wie immer - das kann Jensen wirklich gut.

Was ich oben ausdrücken wollte und offensichtlich nicht verstanden wurde ist, das irgendwann FG2 von AMD kommt, welches dann auf allen Karten laufen wird.


*"5.Generation" ? - das ist lediglich eine Typenbezeichnung.

Badesalz
2024-10-14, 08:06:28
Gibt es da auch etwas neues für Leute die kein Problem damit haben mit 120fps zu spielen?

Lightning
2024-10-14, 08:26:36
War doch bei der 3090 und 4080 auch nicht anders, oder?
Die 3090 war im Schnitt die schnellere und saufandere Karte, bei Features wo DLSS3 mit FG durchgingen, wurde die 3090 dann verputzt.
Insofern für mich jetzt keine skandalöse News, das eine 5080 nicht unbedingt schneller sein muss als eine 4090. Am Ende entscheidet auch KI Leistung und Software über das Endergebnis und nicht nur Silizium.
Ich persönlich hätte lieber zum Gaming eine 4080 gehabt als eine 3090. Die 3090 hat dafür mehr Spaß gehabt mit KI Berechnung aufgrund des Speichers. :)

Doch, war schon anders: 4080 FE knapp 20% vor der 3090Ti laut Computerbase ( https://www.computerbase.de/2022-11/nvidia-aus-msi-zotac-geforce-rtx-4080-review-test/2/#abschnitt_benchmarks_mit_und_ohne_rt_in_3840__2160).

ChaosTM
2024-10-14, 09:20:41
Gibt es da auch etwas neues für Leute die kein Problem damit haben mit 120fps zu spielen?


Für solche Loser mit Billighardware wird doch nicht extra entwickelt.
Das Gros des R&D Geldes für Beschleuniger fließt in die "AI" Entwicklung und für die Gamer bastelt man halt simple, sinnarme Marketing Tools.


Alles eine Frage der Priorität und aus rein wirtschaftlicher Sicht auch richtig.

Badesalz
2024-10-14, 10:17:04
Also kann man sich entspannt zurücklehnen :cool:

Ist noch keinem eingefallen, daß DLSS kam, weil die GPU-Heinis voraussahen auch auf den (eigenen) Zen5-Moment aufzulaufen? Die Kurve bei CPUs flacht ja spürbar ab. Ohne nörgeln. Ist ja nicht so, daß man nicht in Leistung schwimmt.
Das ist aber schon ne ganze Weile so im Gespräch. Die Nodes baden nicht mehr alles aus.

Warum sollte das für GPUs nicht so langsam ebenfalls zutreffen? Das deutete sich schon über Bande, über den Verbrauch, daß man an den Grenzen des möglichen kratzt. Oder doch? Jetzt machen erstmal alle so, als wenn das AMDs Schuld wäre, wenn NV mehr nicht liefert.

Wobei ist auch nicht so ganz Zen5/Ultra200 Moment. Die sind gleich schnell wie das Zeug davor, bei wirklich erheblich weniger Verbrauch. Sowas deutet sich bei den GPUs auch später nicht grad an...

Taigatrommel
2024-10-14, 10:37:50
Also kann man sich entspannt zurücklehnen :cool:

Ist noch keinem eingefallen, daß DLSS kam, weil die GPU-Heinis voraussahen auch auf den (eigenen) Zen5-Moment aufzulaufen? Die Kurve bei CPUs flacht ja spürbar ab. Ohne nörgeln. Ist ja nicht so, daß man nicht in Leistung schwimmt.
Das ist aber schon ne ganze Weile so im Gespräch. Die Nodes baden nicht mehr alles aus.

Warum sollte das für GPUs nicht so langsam ebenfalls zutreffen? Das deutete sich schon über Bande, über den Verbrauch, daß man an den Grenzen des möglichen kratzt. Oder doch? Jetzt machen erstmal alle so, als wenn das AMDs Schuld wäre, wenn NV mehr nicht liefert.

Wobei ist auch nicht so ganz Zen5/Ultra200 Moment. Die sind gleich schnell wie das Zeug davor, bei wirklich erheblich weniger Verbrauch. Sowas deutet sich bei den GPUs auch später nicht grad an...

Für die Hersteller sind diese Software-Tricks halt auch ein Garant, die neue Generation unter die Leute zu bringen. Das hat man ja schon bei RTX 30 auf 40 gesehen, wo DLSS 3 nur mit der neuesten Version kompatibel war.

nVidia wird mit größter Sicherheit zum Launch der 50er Serie DLSS 4 (oder wie auch immer) parat haben, welches dann zufällig natürlich nur mit den neuen Karten kompatibel ist. Wenn die Entwickler dann anfangen die älteren DLSS Generationen nicht mehr einzubauen, wird man ja quasi gezwungen, sich eine der neuen Karten zu kaufen, damit man die Funktionen weiterhin nutzen kann.

Von daher wird die reine GPU Leistung wohl generell immer uninteressanter, sieht man ja auch in den Testberichten. Was zählt ist die Performance und Qualität des Upscalers und der FG in 4k.

Prinzenrolle
2024-10-14, 10:39:57
Da gibts ne Menge User, die genauso am Wattregler drehen können.
(solange Vram+GPU-OCen einigermaßen skaliert ist ne 5080S sicher nicht so weit weg, das sich ein Umstieg lohnt)

Und der 3D Mark Timespy hat nun welche Relevanz?:biggrin:
Ging es dir wieder darum gute Radeon Ergebnisse zu verbreiten?^^

Flusher
2024-10-14, 10:53:49
4090 besitzen macht schon Spaß. 2022 gekauft und bis vorraussichtlich Ende 2026 besitzt man die schnellste oder zweitschnellste Karte:cool:

"Cries with 3090" :freak:

Badesalz
2024-10-14, 10:57:04
Ging es dir wieder darum gute Radeon Ergebnisse zu verbreiten?^^Aber schlecht sind sie diesbezüglich nicht oder? =)

Tigerfox
2024-10-14, 11:59:13
Nach den zigfach in der Gerüchteküche kolportierten Spezifikationen wäre auch alles andere eine große Überraschung geworden.

Ich erwarte, dass die neuen Karten bestenfalls einen Vorsprung von 20-30% gegenüber den unmittelbaren Vorgängern haben und dann aber auch mindestens wieder soviel kosten, wie die ursprünglichen RTX 4000-Karten bei Release, vielleicht sogar noch je 100-150€ mehr anfangs.

Ich gehe aber trotzdem fest davon aus, dass man mit RTX 5000 wenigstens ein bisschen mehr fürs Geld kriegt als aktuell, aber eben keine Performance-Revolution. Also eine 5080 wird mehr Performanceplus als Preisaufschlag ggü. einer 4080S bieten usw.

Man wird sehen, ob es eine neue, exklusive Spielerei für DLSS geben wird, durch welche die neuen Karten sich mehr absetzen können. Nachdem aber schon FG nicht wirklich der Hit ist, würde ich das in der Betrachtung nicht so hoch ansetzen.

Für mich bleibt leider, dass ich momentan nichts unter einer 4070TiS mit 16GB kaufen würde, eine 4080S mir aber aktuell auch zu teuer wäre und eine 7900XTX wegen der RT-Performance nicht infrage käme.
Bisher steht im nächsten Halbjahr kein Spiel für mich an, dass mich sicher zum Upgrade von meiner RTX 2070 zwingen würde. Ich peile an, durchzuhalten, bis entweder eine 5070Ti mit GB203 und 16GB, besser 24GB (mit 3GB-Bausteinen) oder wenigstens eine 5070(S) mit 18GB (3GB-Bausteine) erhältlich ist.
Leider sehe ich nach allen Gerüchten nicht, dass AMD etwas bieten könnte, das für mich interessant wäre. Selbst wenn RDNA4 endlich bei der RT-Performance zu NV aufschliesst, was ich bezweifle, dürfte die 8800XT eher auf dem Raster-Niveau der 7900XT oder drunter landen und wäre damit langsamer als die 5070 und für mich uninteressant. Ich würde AMD wirklich gern eine Chance geben, so wird es abe rnichts.

Badesalz
2024-10-14, 12:03:13
@Tigerfox
Mit einer 2070, wäre AMD nur eine Alternative, wenn sie im Preissegment zu NVs RT anschließen? Interessant...

Gast
2024-10-14, 12:48:47
Für die Hersteller sind diese Software-Tricks halt auch ein Garant, die neue Generation unter die Leute zu bringen. Das hat man ja schon bei RTX 30 auf 40 gesehen, wo DLSS 3 nur mit der neuesten Version kompatibel war.

nVidia wird mit größter Sicherheit zum Launch der 50er Serie DLSS 4 (oder wie auch immer) parat haben, welches dann zufällig natürlich nur mit den neuen Karten kompatibel ist. Wenn die Entwickler dann anfangen die älteren DLSS Generationen nicht mehr einzubauen, wird man ja quasi gezwungen, sich eine der neuen Karten zu kaufen, damit man die Funktionen weiterhin nutzen kann.

Von daher wird die reine GPU Leistung wohl generell immer uninteressanter, sieht man ja auch in den Testberichten. Was zählt ist die Performance und Qualität des Upscalers und der FG in 4k.

Also wird die RTX5xxx die letzte Hardwaregeneration von Nvidia und jede zukünftige Leistungssteigerung bekommt man per Softwareabo :thumbsup

Tigerfox
2024-10-14, 13:24:48
@Tigerfox
Mit einer 2070, wäre AMD nur eine Alternative, wenn sie im Preissegment zu NVs RT anschließen? Interessant...

Was hat meine aktuelle Karte mit dem Upgrade zu tun? Die 2070 ist, je nach Benchmark, auf dem Niveau einer RX 7600 oder RTX 3060. Aktuell würde ich eben die Leistung einer 4070TiS für den Preis als angemessenes Upgrade empfinden und AMD liefert mit RT nichts vergleichbares (die 7900XTX ist mit RT eher auf dem Niveau der 4070Ti). Die 7900XT ist hingegen im Rasterizing auf dem Niveau der 4070TiS, mit RT aber etwas unterhalb der 4070S.
Weniger als 16GB kommen mir nicht ins Haus.

Wenn AMD es jetzt also schafft, das RDNA nicht mehr 30-40% Performance durch RT verliert, sondern 15-20% wie Nvidia, die 8800XT aber bei der Rasterperformance auf dem Niveau der 7900XT ist, was ich nichtmal glaube, dann wäre sie so gerade ene Alternative zur 4070TiS - muss sich aber wahrscheinlich schon mit der 5070(Ti) messen.

Also, nur mit Glück liefert die schnellste RDNA4-Karte überhaupt eine Performance, die ich als upgradewürdig bezeichnen würde, wahrscheinlich aber weniger. Die GPU bietet ja nur minimal mehr als die 7800XT, der Takt dürfte auch nicht um Welten steigen, der Speicher ist der gleiche, da müsste RDNA4 schon ordentlich mehr IPC bieten, um überhaupt die 7900XT zu überflügeln, die immerhin >30% schneller als die 7800XT ist.

Legendenkiller
2024-10-14, 14:22:04
NVidias 2. Versuch die Karten Klassen/Namen 1 Kategorie zu verschieben.

Und ich seh diemal noch kein Geschrei das die 5080 ja eigentlich die 5070 Hardware ist. Und wenn das klappt, kann man noch weiter machen und der 5080 ein 4090 Preisschild verpassen. Und falls doch zu viele Meckern, rudert man zum Schluss 1/4 Schritt zurück.

Cubitus
2024-10-14, 14:36:15
Ich biete dann meine 4090 für 1000-1500 Euro feil.
Wenn die RTX 5080 ca 1300 Euro kosten wird, ist das immer noch für alle Beteiligten ein guter Deal ;D

Gast
2024-10-14, 14:46:27
Für die Hersteller sind diese Software-Tricks halt auch ein Garant, die neue Generation unter die Leute zu bringen.

Genau das Gegenteil, dank DLSS kann man Grafikkarten viel länger behalten.

Muss man eben irgendwann von DLSS-Q auf B und noch später auf P zurückschalten und hat dann mit minimalen Qualitätseinbußen immer noch die Performance der nächsten Generation.

ChaosTM
2024-10-14, 15:53:51
Aus der Chipfertigung ist nicht mehr allzu viel herauszuholen, außer zu horrenden Preisen und daher sind Softwarelösungen der momentan wichtigste Weg um mehr Performance und Qualität aus der Hardware herauszukitzeln.
Sei es DLSS, TSR, FG (ja, obwohl ich darüber ab-gelästert habe weiter oben, weil es als Marketing Tool missbraucht wird) oder Dinge wie Nanite, Mesh Shader, Lumen, MegaLights und was es sonst noch so gibt.

Das derzeitige Hardware Pathtracing mit Ray Reconstruction ist großartig, aber auch sehr "teuer".
Die liegt noch sehr viel Leistung und Qualität in Software verborgen.

Sardaukar.nsn
2024-10-14, 15:55:35
Genau das Gegenteil, dank DLSS kann man Grafikkarten viel länger behalten.

Muss man eben irgendwann von DLSS-Q auf B und noch später auf P zurückschalten und hat dann mit minimalen Qualitätseinbußen immer noch die Performance der nächsten Generation.

Sehe ich ähnlich. Gerade bei hohen Auflösungen wie 4K. Mit DLSS-Q wird daraus nur noch eine Anforderung für 1440p. Was ein enormer Unterschied ist.

Gast
2024-10-14, 17:16:17
4090 besitzen macht schon Spaß. 2022 gekauft und bis vorraussichtlich Ende 2026 besitzt man die schnellste oder zweitschnellste Karte:cool:

Kann ich nur unterschreiben. In meinem Fall ROG Strix 4090OC in weiss. Jede einzelne Minute wirklich Spaß & keine Kompromisse. Kühl, schnell, leise, kann alles Neue ansprechend flott und läuft in allen älteren Titeln lüfterlos - bester Grafikkartenkauf ever. Und ja, ganz sicher - ich fing mit der 3Dfx Voodoo1 an.
Wobei: honorable mention goes to -> 1080Ti, war auch ein legendäres Teil.

Das auf&ab der Preise, diese ganzen Sidegrades/alle Karten darunter, das Warten/Hoffen/Heischen auf was Neues oder +10% hier oder da, weil man sich "dank" Midrange Karte ständig mit einem mittelmässigen Kompromiß herumschlägt - alles verlorene Energie, kein Spaß und uninteressant. Hab mit 50+ auch weder Zeit noch Lust mehr dafür...
Wenn die Reviews eindeutig + Roadmaps halbwegs stabil sind + Performance Delta groß genug, lieber 1x mal ordentlich am Releaseday hinlangen und top tier/was gescheites (egal was, sei es Monitor, Graka, Smartphone, ....) und passt wieder, als ständig halb-zufrieden.

Deswegen auch lieber jetzt nach 5 Jahren zuerst mal auf neue Platform upgraden die eine 4090 auch wirklich kitzeln kann (also irgendein 9000X3D wirds werden). 64G Trident Z Neo, X870E Board, neue Nvme und AIO liegen für Umbau schon parat, und der 5800X3D/X570 Ace dürfen dann in die Ersatzteil/"neuer" PC für Familie&Freunde-kiste abtreten.
Und da ich zZt und absehbar tatsächlich nicht mehr Leistungsbedarf als eine cpu-seitig gut befeuerte 4090 habe/sehe, dann genussvoll zockend und in Ruhe 2026 abwarten was 6090 bzw. Zen6 oder Novalake so können.
Sprich erst zulangen, wenn es wieder ein unwiderstehlich großes, sich lohnendes, Leistungsplus gibt...

Fliwatut
2024-10-14, 19:01:30
Sprich erst zulangen, wenn es wieder ein unwiderstehlich großes, sich lohnendes, Leistungsplus gibt...
So ist es. Mit der 4090 kann man locker noch zwei Jahre in Ruhe abwarten und gucken, was die 6090 bringt. Da ich nur in 1440p zocke, könnte es bei mir auch sein, dass ich noch 2 weitere Jahre warten kann. Oder AMD hat seinen Ryzen-Moment auch bei den Grafikkarten und bringt "zusammengeklebte" GPU-Dies ohne Microruckler.

aceCrasher
2024-10-14, 19:28:27
Genau das Gegenteil, dank DLSS kann man Grafikkarten viel länger behalten.

Muss man eben irgendwann von DLSS-Q auf B und noch später auf P zurückschalten und hat dann mit minimalen Qualitätseinbußen immer noch die Performance der nächsten Generation.
Exakt so ist.

Seit ich meine 4090 bekommen habe spiele ich fast alles (path tracing außen vor) in 4K native oder mit DLSS Q. Über die nächsten Jahre habe ich dann die Perspektive auf DLSS B oder P zu dropped um mein fps Niveau halten zu können.

Gast
2024-10-14, 20:53:27
So ist es. Mit der 4090 kann man locker noch zwei Jahre in Ruhe abwarten und gucken, was die 6090 bringt. Da ich nur in 1440p zocke, könnte es bei mir auch sein, dass ich noch 2 weitere Jahre warten kann. Oder AMD hat seinen Ryzen-Moment auch bei den Grafikkarten und bringt "zusammengeklebte" GPU-Dies ohne Microruckler.

Das mit nochmal +2 Jahren könnte locker gehen (bis vllt. auf max. RT/neue RT Titel die 2027+ rauskommen).
Nachdem ich die ersten Consumersachen von allen erlebt habe (Intel 80286, Matrox, 3dfx, Nvidia NV1, ATI Mach, AMD K5), alle Hersteller hoch schätze, und von allen alles über die vielen Jahren hatte, wage ich mal zu behaupten: den Ryzen Moment bei deren Graka's - gab's seit der ATI Übernahme vor 18 Jahren noch nie so wirklich, und den werde ich wahrscheinlich auch nicht mehr erleben. Aber wie immer: die Hoffnung stirbt zuletzt... ;-)

Relex
2024-10-14, 21:32:03
Aus der Chipfertigung ist nicht mehr allzu viel herauszuholen, außer zu horrenden Preisen

Ja, ich denke Frame Gen wird für Nvidia das tool der Wahl um für Performanceunterschiede zwischen den Generationen zu sorgen, wenn die Chipfertigung es nicht mehr hergibt.
Vor allem da ein generierter Frame abhängig von der Auflösung immer fixe kosten hat, egal wie aufwändig die Grafik ist, lässt sich damit sehr gut planen. Die Rechenzeit für einen generierten Frame dürfte langfristig immer geringer werden und irgendwann gegen null gehen (relativ zur Gesamtperformance der GPU).
Ich denke daher, dass Nvidia sich das gut aufheben und wohl dosiert freigeben wird.

Dass Frame Gen mit 2 Frames kommt sehe ich bei eher 50:50 wahrscheinlichkeit. Ggf. gibt es nur etwas bessere Skalierung mit 1 Frame so dass man näher an 100% skalierung kommt.


Übrigens Funfact am Rande:
Im kürzlich erschienenen Interview mit Digital Foundry haben die Nvidia leute explizit gesagt, dass sie mit jeder neuen Gen ganz gezielt Grafikfeatures in Spiele bringen wollen, die NUR auf der neuesten Generation und auch dort am besten nur auf dem Flaggschiff lauffähig sind, weil sie die Technik ans Limit pushen wollen.
Ich musste schmunzeln, als ich das gehört habe, weil es ja genau das ist, was man Nvidia häufig negativ anlastet. Aber die machen auch keinen Hehl daraus. Das ist vollste Absicht.

Man kann sich also schonmal drauf einstellen, dass mit neuen pathtracing Games die 4090 genauso abkackt, wie es aktuell eine 3090 tut. Ich denke in der Hinsicht sollte man sich keine großartigen Hoffnungen machen. Sobald die neue Gen draußen ist, existiert die alte für Nvidia praktisch nicht mehr.
War bis jetzt immer so. Ob man das über Rohleistung und RT Featureset oder über Frame Gen schafft bleibt aber abzuwarten.

Gast
2024-10-14, 23:34:31
Ja, ich denke Frame Gen wird für Nvidia das tool der Wahl um für Performanceunterschiede zwischen den Generationen zu sorgen, wenn die Chipfertigung es nicht mehr hergibt.


Nur steigert Framegen, auch wenn es das Nvidia (und natürlich auch AMD) Marketing nicht wahrhaben will eben nicht die Performance, sondern die Bildqualität.

Die benötigte (reale) Performance, ist mit und ohne Framegen genau gleich.

Altehardware
2024-10-15, 00:56:51
Wenn das Stimmt ist dlss4 sicher rtx50 exklusiv und soll per default in allen spielen laufen was die mögliche Technische perf. Zuwachs reduziert
Die folge die neue gen ist he sku kaum schneller als die alte.
Die sku sind wild gemischt insbesondere die bei samsung sf4 node gefertigt werden sind betroffen.
Dazu technisch der gb205 der bei samsung gefertigt wird ist monolithisch wird grob 272mm² haben und physisch 72sm haben (4gpc)
Die bisher einzige sku von gb205 soll 50sm habe und ne rtx5070 werden (230w tbp) und etwa so schnell wie die rtx4070 super sein (+10% vs rtx4070)
Da der chip bis zu 60sm freischaltbar ist aber samsung yield grottig ist man redet von 0,3 defektrate ist die yield bei knapp 46%
Daher wird man die intakten chips mit der Lupe suchen müssen meist dürfte das Si betroffen sein alu zu Si 35-65
Das bedeutet das die 46% intakten chips sich nvidia vergolden lässt ne rtx5070 dürfet bei 86$ chipkosten bei 12gb vram um die 599€ kosten angemerkt ist das die sku nicht schneller ist als die rtx4070 super ist
Der Großteil wird aber die rtx5060ti 42sm mit 10gb vram ab 449€
Der gb206 hat 128bit Si 36sm. Der cut rtx5060 wird 32sm 96bit haben und 12gb vram später 128bit 12gb 36sm 130w tbp für grob 369€
Die größere Bandbreite wird man merken die rop von 48 bleiben identisch nur ist die perf. grottig bei nur 16,8tf/20,7tf = rtx3070 lvl 150w
Erst der refresh rtx5060 super wird das fixen mit 170w tbp 18,7tf/23tf <(aus gb205 Reste)
Daher ist die rtx5060ti somit die einzige option aber eben 10gb vram
Mein tipp rtx4070 im Abverkauf.
Die Wahl ist nicht leicht entweder nenn tick zu langsam als ps5 pro adäquat oder zu wenig vram.
ps5 pro grob 23tf 576gb/s zen2 cpu mit 3,6ghz leicht cpu limitiert +-80% load +-18,4tf
Der refresh der rtx5060 super trifft auf dem punkt. nur ist das eben erst q4 2025 wenn 24gbit 32gbps gibt.

Je nachdem wie viele ad106 ad104 noch gibt im lager dürfte man sogar den release auf q4 2025 verschieben das wäre extrem schlecht.
Sicher ist nur das die rtx4070 jetzt die beste Lösung wird wenn nvidia im dez diese auf 449$ senkt (489€)
Der Grund ist die rx8800xt 56cu 14gb für 489€ die dieses Jahr noch kommt Vorstellung im nov release dez.
Im Januar der volle n48 rdna4 mit 64cu 569€

Der Grund warum zuerst das kleinere Modell ist n31 die müssen aus den lagern und die rx8800xt erreicht fasst die rx7900gre leicht Bandbreitenlimitiert +- 600gb/s vs 620gb ne rx7800xt ist nur -5% langsamer
natürlich wird amd primär dxr perf. zeigen mit fsr4 die sku erreicht knapp die rtx4070 in dxr
Das einzige was mir nicht gefällt ist die tbp von 220w
Und darunter kommt nix bis n44 rx8700xt mit 32cu maxed Oc 3,4ghz 190w und etwa die ps5 pro lvl für 399€ kommt. +- rx6800 perf.
Eigentlich die perfekte sku dürfte aber erst kommen wenn n32 komplett abverkauft ist
Womit folgende Kampf gibt

rx8800xtx 16gb vs rtx5070 12gb 569€-599€ Januar 2025
rx8800xt 14gb vs rtx4070 +- 489€ dez 2024 Januar 2025
rx8700xt 16gb vs rtx5060ti 10gb +- 449€ Feb 2025
rx8600xt 16gb 28cu vs rtx5060 12gb +- 349€ Mai 2025

Daredevil
2024-10-15, 07:46:26
Doch, war schon anders: 4080 FE knapp 20% vor der 3090Ti laut Computerbase ( https://www.computerbase.de/2022-11/nvidia-aus-msi-zotac-geforce-rtx-4080-review-test/2/#abschnitt_benchmarks_mit_und_ohne_rt_in_3840__2160).
Huch, meine Erinnerung trügt. Danke fürs korrigieren!

ChaosTM
2024-10-15, 08:36:46
Und das bei etwas mehr als dem halben Verbrauch real. DAS war ein Effizienzsprung.

Davon kann man diesmal logischerweise nur Träumen. 8% unter der 4090er bei 10% weniger Verbraucht. Nur eine Hausnummer.

Gast
2024-10-15, 12:12:28
Wenn das Stimmt ist dlss4 sicher rtx50 exklusiv


Logisch, RTX4xxx gewinnt ja heute schon mit hohen Frameraten kaum an FPS, bzw. kann sogar verlieren. Wie soll da FG mit 2 oder 3 zusätzlichen Frames ohne Hardwareänderungen möglich sein?

Gast
2024-10-15, 12:15:07
Und das bei etwas mehr als dem halben Verbrauch real. DAS war ein Effizienzsprung.


Klar wenn man gegen ein Modell mit das weit über dem Sweetspot betrieben wird vergleicht. Gegen eine 3090 ist der Fortschritt immer noch deutlich aber bei weitem nicht so extrem.

ChaosTM
2024-10-15, 12:50:08
Natürlich. Die TI wurde geprügelt wie eine Intel KS CPU. Völlig (k)irre.
Trotzdem ein großer Sprung.
Ob die 4080er immer noch die effizientester Karte ist bezüglich FPS/Watt könnte ich gar nicht sagen. Die 4070 Ti wird da gut mithalten können.
Damals war es relativ klar die 80er.

Gast
2024-10-15, 15:33:49
Ob die 4080er immer noch die effizientester Karte ist bezüglich FPS/Watt könnte ich gar nicht sagen.


Meistens ist es sogar die 4090.
Wobei sich Nvidia-Karten einer Generation da generell nicht großartig unterscheiden, zumindest so lange Nvidia nicht unter Druck ist.

Gast
2024-10-15, 15:36:46
Sprich erst zulangen, wenn es wieder ein unwiderstehlich großes, sich lohnendes, Leistungsplus gibt...
Mit der Strategie wirst du bald darauf hinauslaufen, dass dir die Hardware im Gehäuse irgendwann verrecken wird und sie dann eben ersetzen musst, auch wenn das Neue nicht unwiderstehlich ist, dafür nur aber immer noch widerlich teuer. ;)
Bei CPUs und Mainboad machen sie ja deshalb schon übers MS-Betriebssystem künstlichen Aufrüstdruck und das MS-Betriebssystem hat ja wiederum auch eine künstliche Haltbarkeit, quasi eine perfekte Symbiose, um weiter die dicken Kohle trotz technologisch- und und softwaretechnischem Stillstand scheffeln zu können.
Mal gucken, wie nvidia da noch mitmischen will, wenn auch sie gegen die technologische Schallmauer anrennen werden.

ChaosTM
2024-10-15, 16:45:24
Meistens ist es sogar die 4090.
Wobei sich Nvidia-Karten einer Generation da generell nicht großartig unterscheiden, zumindest so lange Nvidia nicht unter Druck ist.


Hab beide Karten besessen und es ist in der Tat recht knapp.
Die 90er ist @ ~ 340W praktisch identisch bezüglich Effizienz.
Nur im Multi Monitor Betrieb gewann die 80er immer recht klar, was aber wiederum eine andere Metrik ist.

Gast
2024-10-18, 08:58:17
Hab beide Karten besessen und es ist in der Tat recht knapp.
Die 90er ist @ ~ 340W praktisch identisch bezüglich Effizienz.


Und mehr als die 340W braucht sie auch nur selten.