PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27

davidzo
2025-03-26, 12:51:41
48 SM mit 2.6 GHz ergäben doch 1 PFLOPS FP4 inkl. Sparsity? Sind ja in etwa RTX 5070 Specs.

GB10 könnte zudem in einem N3-Derivat gefertigt werden, deswegen die geringe Grösse: https://x.com/dnystedt/status/1877550847309263284

Hinsichtlich Grösse der GPU gegenüber dem Rest:
Sieh dir AMDs APUs an. Die GPU ist in den meisten Fällen ziemlich klein. CPU-Cores, SI, PCIe, USB, Video/Multimedia, ... braucht alles Platz. Und es sind immerhin 20 CPU-Cores
Das sind zwei Chips. Ja, der CPU-Teil von Mediatek ist TSMC N3. Aber der GPU Chip ist ja ein eigener DIE und kommt von nvidia.

Ich glaube kaum dass Nvidia die Blackwell Architektur die bisher durch die Bank für ihren custom 4N Prozess designt ist war für einen obskuren low volume Chip auf N3 portiert. 4N und N3 sind nicht design-Kompatibel. Wenn die GB10


Citing MediaTek’s Senior Vice President Jerry Yu, the reports note that the Taiwanese chip leader is responsible for co-developing the 20 Grace CPU dies within the GB10 chip, utilizing TSMC’s advanced 3nm process.



Wenn AMD ihren Marktanteil verdoppelt sind sie mit 20% immer noch irrelevant. Bei einer Verdreifachung immer noch...

Intel Denke.

Und schwupps ist man nur noch bei 65% und defizitär weil das engineering, marketing und salesteam für 90% Marktanteil gestaffed ist.
- So schnell kann es gehen mit der Dural-Strategie.

mironicus
2025-03-26, 12:53:53
Gibt es keinen Service der den Speicher von NVidia-Karten austauscht und verdoppelt? Eine RTX 4090 mit 48 Gigabyte, eine RTX 5090 mit 64 Gigabyte wären doch nett?

Hakim
2025-03-26, 13:00:22
Für Spieler wohl kaum, für AI wird das in Asien schon gemacht.

Ex3cut3r
2025-03-26, 13:20:04
Ich wette schon jetzt dass die 5070 besser verkauft wird als die 9070, aus einem ganz einfachen Grund, AMD ist mit rund 10% Marktanteil völlig irrelevant. Wenn AMD ihren Marktanteil verdoppelt sind sie mit 20% immer noch irrelevant. Bei einer Verdreifachung immer noch...

Fertigungskapazitäten müssen zum Teil über Jahre zum Voraus gebucht werden, und wenn man sie nicht abnimmt darf man noch Strafe zahlen. Da kennt sich AMD ja bestens aus. Es gibt kein Anlass für AMD aus dem nichts die 5 fache Wafer Menge zu bestellen. AMD profitiert sicherlich das NV ihre gebuchten Wafer wohl eher für KI verwendet, aber das wird sich über einen Zeitraum von 1-2 Jahren relativieren.

War schon bei der 480er so, auch bei der 580er usw.
Ich kann mich da noch gut an Diskussionen erinnern wo hier behauptet wurde dass das NV Gegenstück kein Land gegen die 480 sehen wird und von rissigen Marktanteilen fantasiert wurden. Und was passierte? Die 1060 wurde zu einer der meist verkauften Karten überhaupt. (Was ich schon damals vorhergesagt habe, aber die Aussage damals nicht allen passte...)

Geht mal in Asiatischen PC Läden rein, da muss man „Glück“ haben überhaupt AMD Karten zu finden. In den Regalen liegen 5070/Ti und vor allem ältere NV Karten. Von den ganzen Komplett Systemen fang ich erst gar nicht an.

Von daher finde ich die Diskussion um die Speicher Menge schon immer wieder interessant. Wieso sollte sich NV darum überhaupt kümmern? Weniger Speicher mehr Gewinn, weniger Speicher eventuell früher neue Karte verkaufen.
Früher als es Karten oft mit zwei Speichermenge Versionen zukaufen gab wurden die mit dem max Ausbau eigentlich durch die Bank weniger verkauft, da sie im Verhältnis zu teuer waren. Ich erinnere nur mal an die 8800GTS mit 320MB und Speicher Bug. Der Bedarf im Markt nach mehr Speicher bezweifle ich immer noch Massiv an.

Das mag sein, aber dennoch steht Nvidia durch die 9070 und die XT-Variante unter Druck – die Karten übertreffen die Erwartungen und sind zudem gut verfügbar. FSR 4 mit AI soll diesmal beeindruckende Ergebnisse liefern.

Ich gehe davon aus, dass der Refresh in einem Jahr genau hier ansetzen wird. Eine 5080 Ti mit 384-Bit-Speicherinterface dürfte erscheinen, die etwas schneller als die 4090 ist und die große Lücke zwischen 5080 und 5090 schließt.

Zudem rechne ich mit einer 5070 Ti Super mit 20 GB sowie einer 5080 Super mit 20 GB. Bei der 5070 Super bin ich mir unsicher, ob sie mit 16 GB ausgestattet wird – schließlich setzt Nvidia mit begrenztem Speicher klar auf Upselling.

EOVI
2025-03-28, 16:23:42
Die Mobile Versionen sind da richtige Gurken!

Geforce RTX 5090 vs. 4090: Mobil ist Blackwell ein Rückschritt

https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/News/Notebook-GPU-gegen-Geforce-RTX-4090-1469199/

robbitop
2025-03-28, 17:31:07
Zudem rechne ich mit einer 5070 Ti Super mit 20 GB sowie einer 5080 Super mit 20 GB. Bei der 5070 Super bin ich mir unsicher, ob sie mit 16 GB ausgestattet wird – schließlich setzt Nvidia mit begrenztem Speicher klar auf Upselling.

Wenn dann 24 GB aufgrund der 50% Erhöhung der Speicherkapazität der kommenden GDDR7 Bausteinen. Denn SI Breite will man bei einer super Karte sicherlich nicht kürzen.

Eddyk
2025-03-29, 22:17:19
Gibt es keinen Service der den Speicher von NVidia-Karten austauscht und verdoppelt? Eine RTX 4090 mit 48 Gigabyte, eine RTX 5090 mit 64 Gigabyte wären doch nett?

Du brauchst dann aber noch Treibersupport, hier ein Gerät mit mehr VRAM als erlaubt, aber alten Treibern.

UdbuPnfQcAA

Colin MacLaren
2025-03-30, 06:20:45
Die Mobile Versionen sind da richtige Gurken!

Geforce RTX 5090 vs. 4090: Mobil ist Blackwell ein Rückschritt

https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/News/Notebook-GPU-gegen-Geforce-RTX-4090-1469199/

Wir haben im 5090 Review-Thread mehrere Videos, die zeigen, dass bei gleicher TDP die 5090 zwischen 10 und 25% vor der 4090 liegt und gerade bei den 1% Lows was rausholen kann.

Die Frage ist natürlich, wie viel hier auf die neuen CPUs zurückgeht. In einem Laptop teilen sich CPU und GPU ein gemeinsames Powerbudget und gerade Raptor Lake in den 4090 Laptops nimmt sich da gern einen guten Schluck aus der Pulle. Entweder die CPU zieht nur 50W und die GPU bekommt die vollen 175W, dann ist man aber oft CPU-limitiert oder die CPU darf 100W+, dann bleiben aber nur 120W für die GPU übrig.


Spannend wäre ein reiner GPU-Test@175W wie Steel Nomad.

Trotzdem ist das natürlich nur ein kleiner Sprung. Wer eine 4080 oder 4090 im Laptop hat, kann diese Gen skippen und 2027 nochmal gucken.

Hier hat PCGH echt schlecht recherchiert.

Lawmachine79
2025-03-30, 13:16:15
Im PC vom Nachwuchs lief der Ryzen 7600 mit einer RTX 5080 und dem 550 Watt Seasonic problemlos. Also go, go!
"But can it run Furmark?"

HPVD
2025-03-31, 17:45:23
NVIDIA RTX PRO 6000 Blackwell Workstation 96GB GDDR7 RAM mit oder ohne Max-Q
11.312,71 € inkl MwSt (31.03.2025)
https://www.idealo.de/preisvergleich/ProductCategory/16073.html?q=NVIDIA-RTX-PRO-6000-Blackwell

wenn die wirklich zu dem Preis verfügbar wird, ist der Abstand zum aktuellen Preis der 5090 32GB gar nicht sooo groß:biggrin:

edit:
wobei die 5090 wird nun ja wirklich langsam "günstiger": ab € 2859,00 (31.03.2025)
https://geizhals.de/?cat=gra16_512&xf=9816_03+05+18+-+RTX+5090&sort=p#productlist

Colin MacLaren
2025-03-31, 19:30:25
NVIDIA RTX PRO 6000 Blackwell Workstation 96GB GDDR7 RAM mit oder ohne Max-Q
11.312,71 € inkl MwSt (31.03.2025)
https://www.idealo.de/preisvergleich/ProductCategory/16073.html?q=NVIDIA-RTX-PRO-6000-Blackwell

wenn die wirklich zu dem Preis verfügbar wird, ist der Abstand zum aktuellen Preis der 5090 32GB gar nicht sooo groß:biggrin:

edit:
wobei die 5090 wird nun ja wirklich langsam "günstiger": ab € 2859,00 (31.03.2025)
https://geizhals.de/?cat=gra16_512&xf=9816_03+05+18+-+RTX+5090&sort=p#productlist

Die günstigen sind mit lieferbar, unter 3000 kannst du eigentlich nirgends und auf direkt kaufen drücken. Das Beste ist die Vorbestellung im MSI Shop MSI Shop per Mail.

HPVD
2025-04-01, 15:27:27
Die günstigen sind mit lieferbar, unter 3000 kannst du eigentlich nirgends und auf direkt kaufen drücken. Das Beste ist die Vorbestellung im MSI Shop MSI Shop per Mail.

Palit 5090 bei Mindfactory 2939€ via geizhals
"Lagernd | > 5 St. (Max. Bestellmenge: 1)"

Wuge
2025-04-01, 16:32:17
Geht schon unter 3k inzwischen. Aber da die RTX PRO 6000 auch kein 100% full fat GB202 ist, muss ich Gott sei Dank nicht schwach werden ;)

ChaosTM
2025-04-01, 16:52:45
Unter 3k.. Jesus

Die Karte ist nicht mal 2,1k wert im Vergleich zu einer 4090er in 2023.

The_Invisible
2025-04-01, 17:45:25
Geht schon unter 3k inzwischen. Aber da die RTX PRO 6000 auch kein 100% full fat GB202 ist, muss ich Gott sei Dank nicht schwach werden ;)

Unter 3k geht eigentlich immer schon, noch 1-2 Monate warten und gut ist.

btw Zotac 5090 OC um ~2,7k, mein Finger wird schon nervöser :D

https://www.mylemon.at/artikel/zotac/zt_b50900j_10p/gaming-geforce-rtx-5090-solid.html

Wuge
2025-04-01, 18:33:32
Ich hab für meine Astral alles in allem UVP gezahlt (okay, die hat schon nen heftigen Aufschlag aber PCB-seitig immerhin auch nen gewissen Mehrwert)... mit der A770 Zwischenkarte noch nen kleinen Gewinn gemacht. Geht schon. Aber ja... 40% mehr Performance bei 100% der Kosten im Vergleich zu 4090 ist schon fragwürdig.

robbitop
2025-04-02, 10:55:11
Gibt es eigentlich irgendwo schon MFG Tests mit der 5070ti? Ich stelle mir einen 1440p Monitor mit 360 Hz vor. Da müsste 4x MFG doch richtig „atmen“ können oder?

x-force
2025-04-02, 11:02:58
Gibt es eigentlich irgendwo schon Mit freundlichen Grüßen Tests mit der 5070ti? Ich stelle mir einen 1440p Monitor mit 360 Hz vor. Da müsste 4x MFG doch richtig „atmen“ können oder?

wird kaum jemand machen, da man für 90fps base bei aktuellen sachen mit einer 5070ti meistens schon auf dlss performance, und/oder ein paar regler nach links drehen muss.

robbitop
2025-04-02, 11:52:51
Auch bei 1440p? :O

Troyan
2025-04-02, 12:04:28
Man benötigt keine 90 FPS. Reichen auch locker 60 FPS und weniger werden die meisten ja sowieso kaum am PC akzeptieren.

Habe Robocop mit meiner 5090 und V-Sync 360FPS in 1440p gespielt. Hat einwandfrei funktioniert. MFG hat manchmal paar Fehler, aber der Gewinn an Bewegtbildschärfe ist erheblich besser.

x-force
2025-04-02, 12:08:57
Auch bei 1440p? :O

meiner erfahrung nach defintiv, da helfen auch 3,3ghz und 350w nicht.

pcgh messwerte, base fps 1440p@dlss q:

cp2077: 40fps
alan wake2: 32fps
wukong: 37,5fps
indiana jones: 46fps
portal rtx: 24,5fps

DrFreaK666
2025-04-06, 13:30:34
5600Ti in Furmark auf 4060Ti Niveau.
MFG wirds womöglich richten müssen

https://videocardz.com/newz/nvidia-geforce-rtx-5060-ti-spotted-in-furmark-database

robbitop
2025-04-06, 13:36:14
meiner erfahrung nach defintiv, da helfen auch 3,3ghz und 350w nicht.

pcgh messwerte, base fps 1440p@dlss q:

cp2077: 40fps
alan wake2: 32fps
wukong: 37,5fps
indiana jones: 46fps
portal rtx: 24,5fps

Naja das ist alles Path Tracing oder so. Man kann ja aber auch normale Settings einstellen. Ich finde ja viel fps und viel Bildschärfe viel schöner als mehr details und wenig fps. :)

robbitop
2025-04-06, 13:37:08
5600Ti in Furmark auf 4060Ti Niveau.
MFG wirds womöglich richten müssen

https://videocardz.com/newz/nvidia-geforce-rtx-5060-ti-spotted-in-furmark-database
Wobei FG die Performance nicht verbessert sondern nur die Flüssigkeit und Bildschärfe. Nutzt IMO erst was wenn die Grundleistung hoch genug für das jeweils Spiel ist :)

x-force
2025-04-06, 13:39:41
Naja das ist alles Path Tracing oder so. Man kann ja aber auch normale Settings einstellen. Ich finde ja viel fps und viel Bildschärfe viel schöner als mehr details und wenig fps. :)

die wenigsten legen 2025 1000€ auf den tisch, um auf 2020 optik zurückzuschalten

The_Invisible
2025-04-06, 13:46:13
5600Ti in Furmark auf 4060Ti Niveau.
MFG wirds womöglich richten müssen

https://videocardz.com/newz/nvidia-geforce-rtx-5060-ti-spotted-in-furmark-database

Furmark ist ein reiner tdp Benchmark, was kommt da wohl raus bei gleicher fertigung

Hakim
2025-04-06, 13:50:04
5600Ti in Furmark auf 4060Ti Niveau.
MFG wirds womöglich richten müssen

https://videocardz.com/newz/nvidia-geforce-rtx-5060-ti-spotted-in-furmark-database

Ich sehe es schon kommen keine 20% schneller als die 3060Ti bei der Rohrleistung, nach fast 5 Jahren!

Damit hat Nvidia in dem 400-700€ Bereich leider mMn keine attraktiven Karten bei BW derzeit. Die erste gute Karte fängt bei knapp 900€ und drüber an

robbitop
2025-04-06, 14:21:32
die wenigsten legen 2025 1000€ auf den tisch, um auf 2020 optik zurückzuschalten

Geschmackssache. BQ ist häufig was perf/pixel angeht asymptotisch. Bedeutet den Großteil der BQ bekommt man für einen Bruchteil der Performance vs max. Wie immer ein grau spektrum und kein schwarz/weiss.
Aber um mal das Gegenextrem zu sagen: was bringt mir Path Tracing wenn die hart errechneten Details im Matsch des hold types in Bewegung untergehen? ^^

Dazu kommt noch mit 40 fps laufen Spiele zäh wie Honig (also Gameplay aus den 1990ern) und 40 fps sollten auch für temporale Verfahren wie DLAA/SS deutliche Nachteile haben weil temporal pro Zeiteinheit weniger Informationen

Ex3cut3r
2025-04-06, 15:14:14
die wenigsten legen 2025 1000€ auf den tisch, um auf 2020 optik zurückzuschalten

Ich wette das du in 90% der Spiele keinen Unterschied sehen wurdest bei normaler Sitzposition zwischen Max und optimierten Settings.

Der größte BQ Gewinn heute kommt, durch die Auflösung/PPi, RTGI/AO und wie gut dein GPU Upscaler ist.

Ein geschmeidiges Bild durch hohe FPS/HZ ist dann nochmal die Kirsche obendrauf.

Viele Spieler haben eher ein Ego Problem, wenn da nicht alle Regler auf Max sind, wird der kleine Pipi Mann schnell nochmal kleiner. ;D

x-force
2025-04-06, 15:42:04
Wie immer ein grau spektrum und kein schwarz/weiss.
Aber um mal das Gegenextrem zu sagen: was bringt mir Path Tracing wenn die hart errechneten Details im Matsch des hold types in Bewegung untergehen? ^^

bei pt sehe ich kein spektrum, das funktioniert, fehlt, oder wird mehr oder weniger gut gefaked.

dafür gibts bfi.
das rendering kann nichts dafür, was dein monitor anzeigt ;)

Dazu kommt noch mit 40 fps laufen Spiele zäh wie Honig (also Gameplay aus den 1990ern)

egal, jeder der crysis zu release gespielt hat, wird diesen moment in erinnerung haben, ich glaube mehr als 40fps hatte dort niemand ;)

Ich wette das du in 90% der Spiele keinen Unterschied sehen wurdest bei normaler Sitzposition zwischen Max und optimierten Settings.

glaub mir, ich sehe den unterschied.

rentex
2025-04-06, 15:42:08
Ich sehe eher weniger Ego, als Anspruch. Da hinkt es leider bei der Performance vieler Titel, zu sehr.

aufkrawall
2025-04-06, 15:44:04
Entwickler machen das Gleiche wie all die Jahre vorher auch, nur werden die GPUs nur noch in einem lächerlichen Maße schneller im Vergleich zu früher.

robbitop
2025-04-06, 15:52:39
Wie gesagt Präferenzen sind individuell. Kann ja jeder gerne machen wie er mag. Ich stehe auf hohe fps und die daraus resultierende Fluppdizität die ich im Gameplay mag und die hohe Bewegtschärfe.

Ich hatte damals in Crysis auch nur so 30…40 fps. War total hübsch - aber ich weiß noch wie sehr mich das Gameplay damals abgefuckt hat weil nicht gefluppt. Selbst mit Gamepad mag ich unter 60 fps keine Spiele und würde dann trotzdem gern mehr haben. Beispiel die Fromsoft Spiele die ja fast alle auf 60 hz gelockt sind ^^
Da nehme sich sogar FG Artefakte von LSFG in Kauf (Dark Souls 3) - bzw für Elden Ring gibts einen DLSS Mod den ich mit Optiscaler dann OptiFG und Reflex zuschalte ^^. Herrlich 120 fps. :)

Jupiter
2025-04-06, 18:18:18
Wenn Pathtracing da ist, spiele ich immer mit Pathtracing.
https://imgsli.com/MzYwNTEw

Es heißt zwar RT off vs. on aber eigentlich ist es PT on vs. off.

Durch viel RT und PT werden auch Shading und Materialien bei Spielen deutlich besser.

x-force
2025-04-06, 20:13:26
Wenn Pathtracing da ist, spiele ich immer mit Pathtracing.
https://imgsli.com/MzYwNTEw

Es heißt zwar RT off vs. on aber eigentlich ist es PT on vs. off.

Durch viel RT und PT werden auch Shading und Materialien bei Spielen deutlich besser.

danke für das gute beispiel.
da kanns ohne pt auch dsr/dlaa oder 16xssaa haben, es sieht aus wie von vorgestern.

Atma
2025-04-06, 20:28:44
Na ja, mit statischem Lighting was Indiana Jones nutzt, ginge das auch unter Verwendung von klassischem Rasterizing deutlich schöner. TLoU Part 2 zeigt eindrucksvoll was ohne RT und PT möglich ist.

Und das ganz ohne Artefakte oder schmieren, weil der Denoiser nicht hinterher kommt ...

crux2005
2025-04-06, 20:31:27
Gibt es eigentlich irgendwo schon Mit freundlichen Grüßen Tests mit der 5070ti? Ich stelle mir einen 1440p Monitor mit 360 Hz vor. Da müsste 4x MFG doch richtig „atmen“ können oder?

z.B. hier:

Kde0wX0m9C0

aber er hat MFG nur da an wo es vom Spiel unterstützt wird, also Cyberpunk 4x, Forbidden West nur 2x, etc.

Wenn du die PT Spiele nimmst dann ist Blackwell mit 4x MFG für 240 FPS/Hz ausgelegt. Für 360 Hz bräuchte es schon 90 FPS Basis, was wahrscheinlich das Ziel der nächsten Gen. sein wird.

robbitop
2025-04-06, 20:36:42
Ich werde es selbst mal testen wenn die GPU da ist. Ich stelle grundsätzlich gern Details mal etwas runter und DLSS etwas höher damit ich mehr fps hab. Selbst mit der 3080 geht das noch oft.
Und iirc kann ich ja sobald FG supportet wird das auf 4x erweitern. Ich bin gespannt ^^

dildo4u
2025-04-09, 10:37:30
Angebliche Preise für 5060 TI 8GB 379$/16GB 429$


https://www.computerbase.de/news/grafikkarten/uvp-verraten-so-viel-soll-die-rtx-5060-ti-mit-16-und-8-gb-gddr7-kosten.92111/

mironicus
2025-04-09, 10:48:15
So... 8 GB mehr kosten hier 50 Dollar, aber im Laptop 1000 Dollar mehr (von 5080 zu 5090)...?

y33H@
2025-04-09, 10:58:32
Ernsthaft? du kriegst ja auch ne anders konfigurierte GPU ...

maximus_hertus
2025-04-09, 11:05:31
429 USD, also rund 470 Euro für die 16GB 5060 Ti.

Die könnte ein echter Verkaufsschlager werden, sofern die Karte verfügbar ist.

Die 7800 XT ist zwar spürbar schneller, aber die nur 180W der 5060 Ti, der nV Ökosystembonus und unter 500 Euro / neu werden dafür sorgen, dass die 5060 Ti, mMn, sich echt gut verkauft. Natürlich nur, wenn es genug zu kaufen gibt.

Bei der Speed sollte man sich keiner Illusion hingeben, da wird man 4060 Ti + 10% sehen. Vielleicht etwas mehr oder etwas weniger.


Ich bin gespannt, was AMD machen wird.

dildo4u
2025-04-09, 11:10:32
Ziemlich offensichtlich 350 und 399.

basix
2025-04-09, 11:37:31
Angebliche Preise für 5060 TI 8GB 379$/16GB 429$

https://www.computerbase.de/news/grafikkarten/uvp-verraten-so-viel-soll-die-rtx-5060-ti-mit-16-und-8-gb-gddr7-kosten.92111/

Uh, Nvidia hat gemerkt dass sie nicht +100$ für die 16GB Variante verlangen dürfen ;)

Die 5060 Ti 16GB könnte tatsächlich eine relativ attraktive Karte werden. Nicht super geil aber kein Rohrkrepierer wie die 4060 Ti 16GB (499$ war etwas absurd). Die 8GB Variante ist mMn DoA.

dildo4u
2025-04-09, 11:41:20
Das sind eh nur Fantasie Werte der EU Preis sollte hoffentlich der Realität entsprechen.

Bin gespannt was NV nächste Woche macht Notebooks mit Blackwell sind schon betroffen.

https://www.computerbase.de/news/pc-systeme/lieferungen-ausgesetzt-asus-dell-framework-lenovo-razer-kehren-usa-den-ruecken.92113/

rentex
2025-04-09, 14:23:45
Irgendwie hat es NV nicht mit Blackwell und dazu kommt noch der Zollkrieg.
Die "5" ist ja eigentlich ne Glückszahl in China...

00-Schneider
2025-04-09, 14:26:21
Wird dadurch jetzt mehr in die EU geliefert?

Prinzenrolle
2025-04-09, 14:32:09
Die 7800 XT ist zwar spürbar schneller

Unter welcher Konstellation? Die 7800XT ist mit dem alten FSR gar nicht mehr in der Nähe der Leistung einer 4070 oder 5060Ti.

Ex3cut3r
2025-04-09, 14:40:26
TLoU Part 2 zeigt eindrucksvoll, was ohne RT und PT möglich ist.

Und das ganz ohne Artefakte oder schmieren, weil der Denoiser nicht hinterher kommt ...

Ja, allerdings war der manuelle Aufbau einer physikalisch korrekten Beleuchtung in der Produktion extrem zeitaufwändig. Die Entwicklung entsprechender Technologien hat bei einem Team von rund 2.100 Fachkräften über einen Zeitraum von fünf Jahren stattgefunden – finanziert durch signifikante Investitionen seitens Sony, die in diesem Umfang für ein durchschnittliches Studio nicht tragbar wären. Aus diesem Grund der Einsatz von Raytracing: Es liefert konsistente, physikalisch korrekte Ergebnisse – out of the box. Àla Jensen - It just works. ^^

Dovregubben
2025-04-09, 15:26:26
Ja, allerdings war der manuelle Aufbau einer physikalisch korrekten Beleuchtung in der Produktion extrem zeitaufwändig. Die Entwicklung entsprechender Technologien hat bei einem Team von rund 2.100 Fachkräften über einen Zeitraum von fünf Jahren stattgefunden – finanziert durch signifikante Investitionen seitens Sony, die in diesem Umfang für ein durchschnittliches Studio nicht tragbar wären. Aus diesem Grund der Einsatz von Raytracing: Es liefert konsistente, physikalisch korrekte Ergebnisse – out of the box. Àla Jensen - It just works. ^^
Nicht zu vergessen, dass die Welt zu fast 100% statisch ist und das Spiel um die Constraints rundum gebaut wird.
Wir haben uns die aktuelle Grafik erkauft durch statische Welten. Nun erkaufen wir uns Pathtracing mit temporalen Artefakten. Der nächste Kompromiss kommt auch irgendwann. Nun können wir erstmal einen Performance Faktor von 100 auf die Reduzierung der Artefakte werfen.

DozerDave
2025-04-09, 15:37:11
Angebliche Preise für 5060 TI 8GB 379$/16GB 429$


https://www.computerbase.de/news/grafikkarten/uvp-verraten-so-viel-soll-die-rtx-5060-ti-mit-16-und-8-gb-gddr7-kosten.92111/

So viel Geld für ne 60er GPU? Nein danke.

Und dann noch Shrinkflation:
2tJpe3Dk7Ko

prinz_valium_2
2025-04-09, 23:11:20
Euro Preise steigen. Wahrscheinlich wird das dann bei 499€ landen und nicht 479€

Zossel
2025-04-10, 07:30:50
Euro Preise steigen. Wahrscheinlich wird das dann bei 499€ landen und nicht 479€

Warte besser mal den morgendlichen Stuhlgang von Agent Orange ab.

x-force
2025-04-10, 10:06:47
Warte besser mal den morgendlichen Stuhlgang von Agent Orange ab.

der machts nochmal dreister als pelosi und hat zurückgerudert, damit die bros den dip kaufen können.
"its a great time to buy"... nachdem ich impulse gesetzt habe, die kurse steigen lassen :freak:

abenteurliche zeiten, in denen der us präsident offfen den aktienmarkt manipuliert.

davidzo
2025-04-10, 10:46:22
Warte besser mal den morgendlichen Stuhlgang von Agent Orange ab.

Ich denke auch dass es bei uns langfristig nur billiger werden kann.

Aber kurzfristig wird es bei uns eine Knappheit geben. Solange 90 Tage lang die Zölle ausgesetzt werden versucht man soviel Lagerware wie möglich in den USA aufzubauen. Allerdings nur von schon gelaunchten Produkten, neue Produkte führt man nicht ein, weil man den MSRP hoch ansetzen müsste und die Produkte dann nur schlecht mit den alten Produkten im Markt konkurrieren können.

Natürlich werden die Preise in den USA entsprechend anziehen, wenn nicht über MSRP Steigerungen dann durch den Effekt von Hamsterkäufen und durch die Händler selber. Aber mit Preisankündigungen will keiner der Erste sein, wegen der negativen PR. Daher warten alle Firmen ab und canceln lieber erstmal den Launch neuer Produktlinien bis sich die neuen teureren preise stabilisiert haben.

Nintendo hat die Switch2 preorder in den USA erstmal gecancelt: https://wccftech.com/nintendo-switch-2-pre-order-not-april-9th-tariffs/

Die USA machen ca. ein Drittel von Nintendos Umsatz aus, das heißt also dass der Rest der Welt sich die 50% mehr Konsolen in der preorderphase erstmal aufteilen kann.

Acer, Asus, Dell, Framework, HP, Lenovo, Razer haben auch angekündigt erstmal keine Produkte mehr in die USA zu liefern: https://www.computerbase.de/news/pc-systeme/lieferungen-ausgesetzt-asus-dell-framework-lenovo-razer-kehren-usa-den-ruecken.92113/

Ich denke schon das Nintendo die Switch2 irgendwann in den USA launcht, aber dann eben zum deutlich erhöhten MSRP.
Viele kleinere Unternehmen werden sich aber fragen ob sich das überhaupt noch lohnt auf den US Markt zu gehen weil die Nachfrage in den USA bei den notwendigen erhöhten Preisen sicherlich zusammenbricht. Der Effekt von Trumps Zöllen auf den Consumer ist wie eine Hyperinflation. In Bezug auf Konsumgüter, die ja fast alle nicht aus den USA stammen ist der Dollar dann viel weniger Wert als vorher, bzw. man muss erheblich mehr für die Waren zahlen die vorher noch erschwinglich waren.

Der Effekt für den Rest der Welt wird sein dass sich die Lager füllen mit den Waren die nicht in den USA verkauft wurden und dadurch der Preis im Rest der Welt absackt. Und das sind nicht wenige Produkte. In bezug auf Gaming/PC sind die USA mit 22%, bei Nintendo sogar mit 1/3 ein großer Teil des Weltmarkts. Wenn die Nachfrage dort einbricht, wird sich die Verfügbarkeit hier erheblich verbessern. Und sobald die Ware etwas länger im Lager liegt werden auch die Preise fallen.

x-force
2025-04-10, 12:02:29
Der Effekt für den Rest der Welt wird sein dass sich die Lager füllen mit den Waren die nicht in den USA verkauft wurden und dadurch der Preis im Rest der Welt absackt. Und das sind nicht wenige Produkte. In bezug auf Gaming/PC sind die USA mit 22%, bei Nintendo sogar mit 1/3 ein großer Teil des Weltmarkts. Wenn die Nachfrage dort einbricht, wird sich die Verfügbarkeit hier erheblich verbessern. Und sobald die Ware etwas länger im Lager liegt werden auch die Preise fallen.

interessanter wird die zweite runde, wenn die unternehmen spüren, dass mittelfristig umsatz und gewinn leiden, denn die kaufkraft der amis fällt damit raus und wird sicherlich nicht von der restwelt auf einmal zu gleichen konditionen gedeckt.

Zossel
2025-04-10, 14:23:40
interessanter wird die zweite runde, wenn die unternehmen spüren, dass mittelfristig umsatz und gewinn leiden, denn die kaufkraft der amis fällt damit raus und wird sicherlich nicht von der restwelt auf einmal zu gleichen konditionen gedeckt.

Für Apple mit deren hohen Entwicklungskosten könnte das ziemlich bitter werden wenn der Apple-CEO sich nicht bei Krasnov einschleimen kann.
IMHO ist die USA ein großer Markt für Apple.
Trump zieht nach eigenen Angaben in Erwägung, einige US-Unternehmen von den gegenseitigen Zöllen auszunehmen. "Es gibt einige, die hart getroffen worden sind. Es gibt einige, die aufgrund der Art des Unternehmens etwas härter getroffen werden. Und wir werden uns das ansehen", sagte Trump der Financial Times zufolge. Über mögliche Ausnahmen würde "instinktiv" entschieden
https://www.golem.de/news/ausser-fuer-china-trump-kuendigt-zollpause-von-90-tagen-an-2504-195199.html

davidzo
2025-04-10, 14:55:02
Für Apple mit deren hohen Entwicklungskosten könnte das ziemlich bitter werden wenn der Apple-CEO sich nicht bei Krasnov einschleimen kann.
IMHO ist die USA ein großer Markt für Apple.

https://www.golem.de/news/ausser-fuer-china-trump-kuendigt-zollpause-von-90-tagen-an-2504-195199.html


Ja, das ist schon spannend zu sehen wie die eine Seite (Apple und der Markt) es einfach noch nicht wahrhaben will und die andere Seite (Trumpisten) wild herumfantasieren man könne iphones ja einfach in den USA herstellen.

There is no universe where Apple moves iPhone production to the U.S.

:popcorn:

President Donald Trump ‘Absolutely’ Believes That iPhone Production Can Move To The U.S., Claiming That The Country Possesses The Resources To Make This Possible
:ubeer:

Morris Chang hat ja mal relativ deutlich gesagt dass die Amis weder die Arbeitsmoral haben noch schlau genug sind um in den Jobs kompetitiv zu sein welche die Taiwanesen und Chinesen mittlerweile perfektioniert haben. Und auch Apple hat mit der Mac Pro Fertigung die bittere Erfahrung gemacht dass Fertigung in den USA teuer und qualitativ schlecht ist.

Es ist kein Wunder wenn man die Breitenbildung in den USA in den letzten Jahrzehnten anschaut, dass da kein gutes Personal für einen Produktionsstandort vorhanden ist. Top-Unis hat man zwar, aber das ist ein sehr kleiner Prozentsatz des allgemeinen Bildungsmarkts. Und die guten Leute kommen in den USA seit jeher aus aller Welt, bzw. werden überall mit incentives abgeworben, was auch zurückgehen dürfte wenn die Lebensqualität sinkt und Inflation stark steig wonach es gerade aussieht.

Irgendwann spürt man halt den demografischen Kick der vielen versäumten Sozial-Investitionen seit der Reagan Ära. Und Apple weiß genau dass problem der Mangels an qualifizierten Mitarbeitern sich das nicht kurzfristig wie Trump sagt mit Geld aus dem Weg räumen lässt. Die Leute werden nicht von einem Tag auf den anderen Schlau. Selbst wenn man jetzt Änderungen am Bildungssystem macht ist das eine Aufgabe für Jahrzehnte.

Und auch langfristig lohnt es sich von den Kosten noch nicht die gewaltigen Investitionen in die Hand zu nehmen um eine Fertigung in den USA aufzubvauen. 50% oder gar 125% höhere Kosten in China sind doch gar nichts wenn es bisher Faktor 3x oder 5x billiger war als lokal zu produzieren. Zumindest kenne ich das so ähnlich schon aus dem Vergleich Deutschland/China. Da sorgen 125% Zölle nur für höhere Inflation, aber noch nicht zum Standortwechsel zurück ins Heimatland. Und da sind die großen Opportunitätskosten einer neuen Werkseröffnung in den USA noch außen vor gelassen.

Zossel
2025-04-10, 17:21:26
Irgendwann spürt man halt den demografischen Kick der vielen versäumten Sozial-Investitionen seit der Reagan Ära.

Und zwecks Bereicherung Einzelner wurden inländische "Sozial-Assets" aktiv vernichtet: https://de.wikipedia.org/wiki/Opioidkrise_in_den_Vereinigten_Staaten

Tesseract
2025-04-10, 17:24:19
keine politik hier im sub, danke.

Raff
2025-04-10, 17:28:45
So viel Geld für ne 60er GPU? Nein danke.

Die RTX 5060 Ti 16GB wird immerhin das bessere Gesamt-Angebot als die RTX 5070. ;)

MfG
Raff

Hakim
2025-04-10, 17:40:10
Die RTX 5060 Ti 16GB wird immerhin das bessere Gesamt-Angebot als die RTX 5070. ;)

MfG
Raff

Frage ist ob man ~ 7800XT/4070 Performance erreicht? Weil mit unter 500€ hat man schon seit Ewigkeiten mit der 7800xt eine 16GB Karte, und wenn man jetzt immer noch hinterher hinkt, ja.....

Troyan
2025-04-10, 19:40:36
Die RTX 5060 Ti 16GB wird immerhin das bessere Gesamt-Angebot als die RTX 5070. ;)

MfG
Raff

Wieso? Die 5070 sollte wohl >25% schneller sein.

x-force
2025-04-10, 20:30:19
man muss auch mal ehrlich sein... die 5060ti hat eh nicht die rohleistung, um alle regler nach rechts zu drehen und bei >12gb speichernutzung zu landen.

3gb chips und 12gb hätten gereicht, 16gb auf der karte sind neppenfang oder einhorn bei vollmond case.

davidzo
2025-04-10, 21:24:19
Frage ist ob man ~ 7800XT/4070 Performance erreicht? Weil mit unter 500€ hat man schon seit Ewigkeiten mit der 7800xt eine 16GB Karte, und wenn man jetzt immer noch hinterher hinkt, ja.....

Eher nicht. Die 7700XT und RX6800 sollte man aber knapp überrunden können.
Ich tippe auf rund 300% im 4K index, also knapp über der 7700xt aber deutlich unter der 4070 (330%) und 7800XT (344%).

gegenüber der 4060ti:
3GPC->3GPC
34-> 36SM (6%)
Takt bleibt gleich bzw. zwischen super und ti
Bandbreite 288 -> 448gb/s + 55%
Blackwell IPC Increase inkl. Bandbreitenzuwachs -> ca. 16-20%, womöglich am unteren Ende weil 3GPC

Insgesamt kann man also 20-25% mehr Performance als die 4060ti erwarten, vllt. etwas mehr in Bandbreitenlimitierten Szenarien.


Die 5070 liegt ja zwischen der 4070super und 4070ti. Sie hat aber 16% bzw. 20% weniger Shader. Der Takt bei Blackwell liegt auch zwischen beiden Modellen und nicht höher. Hier leite ich die 16-20% IPC Zuwachs ab. Allerdings ist das bei GB205 auch ein Optimalszenario denn GB205 hat halt 5GPC statt 4GPC wie AD104.



Für die 6600xt tippe ich auf 260%. Die liegt also wieder bequem zwischen der 5060ti und der vanilla 5060.
RDNA4 hat CU-bereinigt, aber inkl. Taktsprung um 35% zugelegt an Performance (7800xt vs 9070xt 344->500%). Legt man das an die 7600XT an, kommt man eben auf 261,5%.

crux2005
2025-04-10, 21:40:06
Die VRAM Kapazitäten müssten eigentlich bei 5060 Ti und 5070 getauscht werden, dann wären beide RTX "runde Produkte". Aber so...
Erinnert mich irgendwie an alte Grafikkarten wo low-end den doppelten VRAM einer High-end hatten. :D

Dural
2025-04-11, 09:29:50
Wieso? Die 5070 sollte wohl >25% schneller sein.

Ohne 16000GB Speicher läuft heute nix, sagen sie....

Ich kann den Blödsinn schon lange nicht mehr ernst nehmen. Wenn man nach ihren Rechnungen geht hat eigentlich nur die 5080 zu wenig Speicher, und dort wäre es Preislich auch irgendwie sinnvoll 24GB zu haben. Da diese Karte wohl eher im 4K Bereich eingesetzt werden, ich behaupte 99% der 5070 User haben 1080p.

Aber nein, die 4070TI und die 5070 haben viel zu wenig Speicher. Schon bei Ada und der 4070TI ging das Geschrei los (Und schon viel früher) Lustig, ich habe beide Karten selbst mit 2560er Auflösung hatte ich noch nie Probleme mit dem Speicher und als direktes Gegenstück eine 3090Ti mit 24GB und ziemlich gleicher Leistung. Die 3090TI kann sich zwar leicht absetzten umso höher Auflösung und Forderung, aber nichts was erwähnenswert wäre. Jaja gibt sicher Einstellungen in wenigen Spiele wo die 12GB einbrechen... Realität und Praxis und so... Habe gerade eine 3080Ti gegen 5070 getauscht, 12GB vs 12GB. Dieser Tausch hat mir mal wieder gezeigt wie völlig realitätsfern diese ganzen Diskussionen sind. Abzüglich Verkauf 3080Ti kostet mich die 5070 (Neu für 550.- bekommen) fast nichts habe aber eine Karte die praktisch in allen Bereichen besser ist.


Man schaue sich aktuelle News Meldungen oder YouTube Videos an, da geht es praktisch nur noch darum wie schlecht NV ist und wie gut AMD ist...
Wobei es ja absoluter Blödsinn ist, Blackwell ist als Architektur haushoch überlegen.

Wer 9070XT und 5080 hat weis das ganz genau, die ganzen anderen wo es halt nicht für beide gereicht hat müssen sich ihr Leben halt schön reden, und nein es ist nichts anders.

Interessant finde ich dass jetzt innert kürzester Zeit von diversen Tester auf der ganzen Welt ein UV Bericht zur 9070XT kam, ist zu 100% nicht Zufall. Der Witz an der Geschichte, Blackwell lässt sich viel besser Optimieren...

Das ist übrigens kein Vorwurf an die Medien, die bringen was die User lesen und schauen wollen. Denen geht es am Schluss ja auch nur darum das die Kasse stimmt, und das finde ich zumindest OK.

dildo4u
2025-04-11, 10:41:44
Leute ignorieren einfach die 9700 was kein Sinn macht selbe RT Performance 16GB und geringe TDP als 5070.
Kein Undervolting nötig.

https://i.postimg.cc/BbX7HsWd/Screenshot-2025-04-11-103901.png (https://postimages.org/)

https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/4/

basix
2025-04-11, 11:19:28
[...] ich behaupte 99% der 5070 User haben 1080p.
Ohne Daten und Belege: Ziemlich sicher falsch ;)

Blackwell ist als Architektur haushoch überlegen.
Blackwell bietet mehr Features. Unter dem Strich die mächtigere Architektur, sicher. Aber was ist da haushoch überlegen? Sie haben mehr RT-Performance (faktisch nur bei PT) und FP4 Support bei Matrix-Berechnungen. OK. Energieffizienz und Performance in 99% der Spielen und Settings ist es mal nicht. Wenn du "nur" spielst, ist RDNA4 in genau einer Sache Blackwell deutlich unterlegen: Pathtracing. Und wie viele Spiele mit dem gibt es nochmals? 10 oder so?

Wo sich Nvidia Karten mehr absetzen können ist schlichtweg SW und GPU-Acceleration in Applikationen. Dort hat Nvidia die letzten 15 Jahre nicht geschlafen. Das hat aber nichts mit der GPU-Architektur zu tun. Und wenn du keine entsprechenden Anwendungen nutzt, hast du als Kunde nichtmal einen Vorteil davon.


Wer 9070XT und 5080 hat weiss das ganz genau, die ganzen anderen wo es halt nicht für beide gereicht hat müssen sich ihr Leben halt schön reden, und nein es ist nichts anders.
Lass mal deine Überheblichkeit etwas abkühlen ;) Und eine 600$ Karte mit einer 1000$ Karte vergleichen ist, naja, nicht fair. Vergleiche lieber die 5070 mit der 9070. Gleicher Preis. Da sieht es für Blackwell nicht mehr ganz so rosig aus ;)


Interessant finde ich dass jetzt innert kürzester Zeit von diversen Tester auf der ganzen Welt ein UV Bericht zur 9070XT kam, ist zu 100% nicht Zufall. Der Witz an der Geschichte, Blackwell lässt sich viel besser Optimieren...
Verschwörungstheorien auch noch? Es ist ziemlich normal, dass innerhalb ca. 1 Monat nach GPU-Releases Zusatztests gefahren werden. Blackwell war hier nur mässig interessant, da gleiches Verhalten wie Ada (aber auch bei Blackwell gab es Tests mit reduzierten PT usw.). RDNA4 unterscheidet sich deutlich von RDNA3 und hat sich gerade bei Energieffizienz und UV deutlich verbessert. Was ist das also? Aha, doch irgendwie interessant das zu beleuchten. Dort lohnt es sich deutlich mehr einen Artikel zu machen. Insbesondere, weil die 9070XT relativ deutlich über den Sweet Spot gepusht wurde und man deshalb relativ viel Energieffizienz gewinnen kann.

===========================================
Vielleicht zum Ausgangsthema 12GB vs. 16GB zurück:
Die Performance der 5070 ist OK. Featureset auch. Aber 550$ für 12GB zahlen in 2025, einige Spiele bereits mit Nachteilen und NextGen Konsolen nicht mehr sooo weit weg (manche sprechen von Ende 2026): Nutzungsdauer für 1440p Gaming schon nicht ohne Zweifel erhaben. Bei einer nigelnagelneuen Karte für doch ordentlich viel Geld. Dazu viele Dinge, die zusätzlich/viel Speicher brauchen (RT, PT, DLSS, RR, FG, lokale Ausführung von ML/AI Modellen). Einige neue Nvidia AI Features sind mit 8 GByte Karten gar nicht erst verfügbar. Was denkt ihr, was mit 12GB Karten passieren wird?

Deswegen:

5070 16GB und 5060 Ti 12GB wäre die sinnvollere Speicherbestückung. Daran gibt es mMn nichts zu rütteln.
5060 Ti 8GB ist DoA
Ob die 5070 oder 5060 Ti 16GB die bessere Karte ist, hängt vom Nutzungsverhalten ab. Für viele dürfte es aber die 5060 Ti sein (ähnliches P/L Verhältnis und definitiv genug VRAM-Menge). Die 5070 ist nur besser, wenn man die +25% Performance braucht (allerdings mit dem Caveat, dass die 12GB ziemlich knapp werden). Mit DLSS4 verschwimmt diese Differenz allerdings stark (z.B. DLSS-B/P anstatt DLSS-Q nehmen). Wenn man die Karte lange behalten will, sind die 16GB langfristig wohl ebenfalls vorteilhaft.

x-force
2025-04-11, 11:49:58
Wenn man die Karte lange behalten will, sind die 16GB langfristig wohl ebenfalls vorteilhaft.[/LIST]

gerade dann zählt nichts mehr als die rohleistung.
texturen kann man immer eine stufe runter drehen.
jede wette die 5060ti ist zu langsam, bevor ein spiel auf low 12gb braucht!

Raff
2025-04-11, 12:00:29
Man könnte sagen, sie ist jetzt schon zu langsam, ist immerhin nur das Niveau der Ampere-Oberklasse. Wie immer liegt die Wahrheit irgendwo in der Mitte. :) Ich stimme basix jedenfalls in allen Punkten zu.

MfG
Raff

x-force
2025-04-11, 12:19:50
Man könnte sagen, sie ist jetzt schon zu langsam, ist immerhin nur das Niveau der Ampere-Oberklasse. Wie immer liegt die Wahrheit irgendwo in der Mitte. :) Ich stimme basix jedenfalls in allen Punkten zu.

MfG
Raff

zu langsam um 16gb zu nutzen, absolut.

ich bin gespannt darauf, was du für szenarien findest, die auf der 5060ti stabilere frametimes, oder gar mehr fps zeigen.
ich bezweifel lediglich, dass diese szenarien in der freien natur zu finden sind und in spielbaren fps resultieren und gleichzeitig auf der 5070 mit low texturen 12gb voll machen, also unspielbar sind. ;)

Raff
2025-04-11, 12:23:10
Ist schon alles passiert. :) Bereits die RTX 4060 Ti 16GB kann ganz eindeutig von ihrem Speicher profitieren und es gibt Fälle, bei denen sie die 12-GiB-Modelle kassiert.

https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/8-vs-16-GByte-Speicher-Test-RTX-4060-Ti-1467834/4/

Wird Zeit, dass die englische Version des Videos (https://www.youtube.com/watch?v=FCPRV755irA) endlich mal jemand weltweit streut. :D

MfG
Raff

Mordekai2009
2025-04-11, 12:48:30
16 GB Videospeicher rockt! :D Mehr wäre wünschenswert.

Lurtz
2025-04-11, 13:00:51
zu langsam um 16gb zu nutzen, absolut.

ich bin gespannt darauf, was du für szenarien findest, die auf der 5060ti stabilere frametimes, oder gar mehr fps zeigen.
ich bezweifel lediglich, dass diese szenarien in der freien natur zu finden sind und in spielbaren fps resultieren und gleichzeitig auf der 5070 mit low texturen 12gb voll machen, also unspielbar sind. ;)
Man muss nur einmal Ratchet & Clank oder Diablo 4 starten. Aber klar, wenn man brauchbare Texturen (auf Konsolenniveau) als verhandelbar ansieht, kann man sich alles schönreden...

x-force
2025-04-11, 13:21:03
Ist schon alles passiert. :) Bereits die RTX 4060 Ti 16GB kann ganz eindeutig von ihrem Speicher profitieren und es gibt Fälle, bei denen sie die 12-GiB-Modelle kassiert.

https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/8-vs-16-GByte-Speicher-Test-RTX-4060-Ti-1467834/4/


kannst du mir erklären, wo der test mir widerspricht?

ich sehe eigentlich immer die 3080 mit 10gb (deutlich) vorne.
du redest wahrscheinlich von dragon age, oder? -> 30fps, details zu hoch ;)

die frage bezog sich auf 16gb vs 12gb.
12gb reichen dort, wie man an der 5070 sieht, aus.

insbesondere der uhd index sieht die 3080 deutlich vor der 4060ti(16gb), was meine aussage stützt.

Man muss nur einmal Ratchet & Clank oder Diablo 4 starten. Aber klar, wenn man brauchbare Texturen (auf Konsolenniveau) als verhandelbar ansieht, kann man sich alles schönreden...

in raffs test:
10gb: 55fps
16gb: 45fps

wer sich low details oder low fps schön redet, wird auch gründe finden an der texturenqualität zu drehen. :freak:

Hakim
2025-04-11, 13:47:15
Ich sehe es eher so bezüglich Vram Bestückung, es ist eine Preis Sache. 12 GB und selbst noch die 8 GB haben ihre Daseinsberechtigung, je nachdem für was für eine Zielgruppe und entsprechend Preise sie verkauft werden. Es fühlt sich nur falsch an immer noch über 600€ auszugeben und dafür nur 12GB zu erhalten.

basix
2025-04-11, 13:50:54
gerade dann zählt nichts mehr als die rohleistung.
texturen kann man immer eine stufe runter drehen.
jede wette die 5060ti ist zu langsam, bevor ein spiel auf low 12gb braucht!

Probier mal Indiana Jones mit PT zu spielen. Da helfen auch reduzierte Texturen nichts. Und dann ist es egal, wie schnell die 5070 ist. Die 5060 Ti 16GB wird die 5070 locker überholen. Und Texturen werden aufgrund Sampler Feedback Streaming und Co. einen immer geringeren Anteil an der VRAM-Belegung haben.

Zu kleiner VRAM wird immer die deutlich krasseren Nachteile aufweisen als etwas weniger Rohleistung. Das ist nämlich der Unterschied von "es läuft etwas langsamer" zu "es läuft gar nicht".

Klar, die 5060 Ti ist keine super schnelle Karte. Aber ist ~85-90% einer 4070 so langsam und schlecht? Insbesondere mit DLSS4?

Und:
1.25x mehr Performance einer 5070 machen aus dem Spielerlebnis jetzt auch nicht einen Quantensprung.

Ich sehe es eher so bezüglich Vram Bestückung, es ist eine Preis Sache. 12 GB und selbst noch die 8 GB haben ihre Daseinsberechtigung, je nachdem für was für eine Zielgruppe und entsprechend Preise sie verkauft werden. Es fühlt sich nur falsch an immer noch über 600€ auszugeben und dafür nur 12GB zu erhalten.
Definitiv. Wäre die 5070 bei 400$ wäre es eine andere Diskussion.

x-force
2025-04-11, 15:17:21
Probier mal Indiana Jones mit PT zu spielen. Da helfen auch reduzierte Texturen nichts. Und dann ist es egal, wie schnell die 5070 ist. Die 5060 Ti 16GB wird die 5070 locker überholen. Und Texturen werden aufgrund Sampler Feedback Streaming und Co. einen immer geringeren Anteil an der VRAM-Belegung haben.

ernsthaft? indi läuft mit pt schon auf einer 5070ti grenzwertig... aber klar die 5060ti wirds mit 16gb richten ;D


Klar, die 5060 Ti ist keine super schnelle Karte. Aber ist ~85-90% einer 4070 so langsam und schlecht? Insbesondere mit DLSS4?


man wird sehen was das max powertarget hergibt. nur auf die einheiten zu schielen hilft nicht.
5070 legt mit 300w vor.
aber wenn wir schon bei den einheiten sind, es steht 80 vs 48 rops.
man hat schon 8 fehlende rops auf den großen karten geseheen. das wird definitiv kosten!

Raff
2025-04-11, 16:50:37
ernsthaft? indi läuft mit pt schon auf einer 5070ti grenzwertig... aber klar die 5060ti wirds mit 16gb richten ;D

Knallt man alles rauf, sind 12 GiB bereits in WQHD platt (Diashow). Mit 16 GiB hat man zumindest die Chance auf 30 Fps mit allem und scharf. ;)

MfG
Raff

x-force
2025-04-11, 17:37:37
Knallt man alles rauf, sind 12 GiB bereits in WQHD platt (Diashow).

ich weiß, allerdings kommen wir damit direkt zum nächsten punkt

Mit 16 GiB hat man zumindest die Chance auf 30 Fps mit allem und scharf. ;)

und einen lag, dass man auch gleich mit controller zocken kann. gerade indi braucht fps ohne ende, damit das gummiband an der maus verschwindet.
mfg kannst du bei der basis ebenfalls vergessen.

ich sehe es ein: die masochisten haben mit 5060ti ihr spielzeug gefunden :rolleyes:

The_Invisible
2025-04-11, 17:58:54
Knallt man alles rauf, sind 12 GiB bereits in WQHD platt (Diashow). Mit 16 GiB hat man zumindest die Chance auf 30 Fps mit allem und scharf. ;)

MfG
Raff

Ja gut das sind da aber der ID Engine und max Texturpool geschuldet, den kann man ruhig etwas runterstellen ohne das was schlechter aussieht :D

Bin gespannt wie das nächste Doom reagiert, wird aber wahrscheinlich nicht weniger werden. Die UE5 Engine ist dagegen ja voll sparsam :D

davidzo
2025-04-12, 11:37:59
Eher nicht. Die 7700XT und RX6800 sollte man aber knapp überrunden können.
Ich tippe auf rund 300% im 4K index, also knapp über der 7700xt aber deutlich unter der 4070 (330%) und 7800XT (344%).



Okay, Leo schätzt die Karte auf Basis von Leaks auf nur 265-280%.
https://www.3dcenter.org/news/news-des-10-april-2025

Das ist extrem enttäuschend. Scheinbar ist die Blackwell IPC doch nicht so hoch wie wir dachten, sondern das war dem Zuwachs an GPCs zuzuschreiben den es bei der 5070 gab, nicht jedoch bei den anderen Blackwell Chips.

10-16% mehr Performance als die 4060ti und man landet noch langsamer als die 7700XT.

Damit ist sie imo DOA, denn die 9060XT 16G wird ebenfalls bei 260%+ landen und dank GDDR6 erheblich günstiger sein. Die Leaks sprechen ja davon dass die Karten die Preise der 7600er Serie beerben. Für wahrscheinlicher halte ich aber dass AMD seine 16GB Karte auf dem Niveau des Nvidia 8GB Modells positioniert. Aber wenn Navi44 wirklich nur 153mm2 klein ist, ist AMD auch bestens auf einen späteren Preiskrieg mit nvidia vorbereitet.

Vielleicht ist das einer der Gründe dass wir vor einer Woche noch 399/499$ als Preise für die 5060ti gehört haben, jetzt aber 379 und 429$ im Raum stehen. Dazu der übliche 100$ Aufschlag für Partnerkarten und man ist schon gefährlich an der 9070 dran die über ein Drittel schneller ist. Btw, die 9070GRE kommt auch noch oben drüber nachgeschoben um es der 5060ti maximal schwierig zu machen.

Aber wenn es stimmt dass die Stückzahlen diesmal noch geringer sind als bei der 5070 und es nichtmal für review Samples reicht, dann ist der Winner by default eh wieder AMD - wenn die 9060xt wie man munkelt spätestens im Mai launcht und wieder Stückzahlen wie die 9070 Serie am Start hat.

dildo4u
2025-04-12, 11:43:25
Die 4060 TI hat schon kein Sinn gemacht verkaufte sich aber.
Die Wahrheit ist die 5060 TI 16GB reicht für 1080p davon kann man mit DLSS4 hoch skalieren, ohne die Limits die die 5070 durch Vram hat.

Nicht vergessen NV hat den EU Preis der 5070 gehalten gegenüber 4070, 5060TI könnte billiger werden?

davidzo
2025-04-12, 11:54:14
Solange sich die Karten nicht in den Lagern stapeln wird erstmal nichts billiger. Und derzeit dürfte ein Großteil der Karten eh in die USA gehen um die 90Tage Zoll-Verzicht auszunutzen um einen möglichst großen Lagerbestand aufzubauen.

Aber im zweiten Halbjahr könnte es erstmals seit Jahren wieder zu einem kompetitiven Preiskampf führen, nämlich wenn die Nachfrage in den USA aufgrund der notwendigen Preiserhöhungen einbricht.

dildo4u
2025-04-12, 12:10:10
Die 5070 ist doch schon beim neuen UVP die Nachfrage ist natürlich geringer in dem Bereich das man diese Performance schon kaufen konnte 4070S=5070.

Das Trifft auf alles zu was die nächsten Monate kommt.


5070 619€

https://www.notebooksbilliger.de/msi+geforce+rtx+5070+12g+ventus+2x+oc+881466?nbbct=4001_geizhals

Was AMD 9070 unterbietet ihr überschätz komplett die nachfrage wenn die Early Adopter bedient wurden unter der 5080 geht es nur über Preis.

dildo4u
2025-04-14, 11:20:52
Angeblich werden nur 16 GB 5060TI Modelle gesampelt.

3D Mark Werte
https://videocardz.com/newz/geforce-rtx-5060-ti-16gb-3dmark-performance-leaks-out

basix
2025-04-14, 12:30:32
Angeblich werden nur 16 GB 5060TI Modelle gesampelt.

Welch ein Zufall, ne ;)

Falls dem so ist, hoffe ich die Redaktionen beschaffen die 8GB Variante am besten selbstständig oder integrieren die 8GB Variante (wenn nötig nachträglich) mindestens ins selbe Review. Wenn man ein Review googelt, sind beide Varianten im selben Review integriert. Solche Taktiken muss man unterbinden.

Colin MacLaren
2025-04-14, 12:49:08
Wann kommt eigentlich Reflex 2? Das wurde zum Release groß beworben, bisher sehe ich dazu aber gar nichts.

basix
2025-04-14, 12:55:40
Reflex 2 ist doch nur Reflex inkl. Frame Warp. Das wird vermutlich primär in eSports Titel wandern. Es gibt nämlich ein Problem: Frame Warp wird mit sehr hoher Wahrscheinlichkeit nicht mit FG kompatibel sein ;)

Sweepi
2025-04-14, 12:58:24
@Raff kam dieser Test (8k/6k+DL-DSR) eigentlich?:

Frage: gibt es irgendwo 8K Benches zu bestaunen im direkten Vergleich zur 4090? Ich möchte mir ein vermeintliches CPU-Limit in 4k gern mal anschauen.
Habe ich in der Mache, dauert aber noch paar Tage. :biggrin: Spannender ist übrigens 6K via DL-DSR, also der insgesamt beste Modus, wenn man ein UHD-Display hat.

MfG
Raff

Habe ich auf pcgh nicht gefunden.. oder ist es hier mit drin?:
https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Specials/Geforce-RTX-5090-im-Test-1464993/

Zossel
2025-04-15, 07:21:39
12-15 Monate, klingt wie typischer Donald-Unfug:
Der weltgrößte KI-Chiphersteller will seine Produktion in Amerika in zwölf bis 15 Monaten hochfahren. Zusammen mit Partnern will Nvidia 500 Milliarden Dollar in die Hand nehmen.
https://www.faz.net/aktuell/wirtschaft/unternehmen/nvidia-plant-milliardenschwere-investitionen-in-usa-110419794.html

Hakim
2025-04-15, 13:42:19
Wenn der 5060ti release morgen sein soll. Müsste es dann nicht Testberichte geben?

Exxtreme
2025-04-15, 13:46:28
Normalerweise geht es um 15:00 Uhr los.

Raff
2025-04-15, 15:01:53
A5zg4wptBS4

https://www.pcgameshardware.de/Geforce-RTX-5060-Ti-16GB-Grafikkarte-281131/Specials/Preis-kaufen-Release-TDP-Watt-1470449/

MfG
Raff

MiamiNice
2025-04-15, 15:06:52
Lass mich raten.
Mimimi, weil man ein Verbot bekommen hat, dass man die 8GB Version nicht testen darf bzw. kein Sample bekommt. Über den Umstand echauffieren, bissel drüber aufregen, dass NV zu viel Marktmacht hat, etc. pp. Ach ja, 8GB generell auch zu wenig und Co. KG, habe ich vergessen.
Und beim 6090 wieder Jubelperser Review?
Die Klicks müssen rollen :tongue:
Die Geste die Du da schmeißt, schmeiße ich auch immer ...

Raff
2025-04-15, 15:19:19
Es gibt kein Verbot. Wie kommt man überhaupt auf solche Ideen?

MfG
Raff

Sweepi
2025-04-15, 15:32:02
Hi Raff, hast du diese Frage gesehen?:

@Raff kam dieser Test (8k/6k+DL-DSR) eigentlich?:

Frage: gibt es irgendwo 8K Benches zu bestaunen im direkten Vergleich zur 4090? Ich möchte mir ein vermeintliches CPU-Limit in 4k gern mal anschauen.
Habe ich in der Mache, dauert aber noch paar Tage. :biggrin: Spannender ist übrigens 6K via DL-DSR, also der insgesamt beste Modus, wenn man ein UHD-Display hat.

MfG
Raff


Habe ich auf pcgh nicht gefunden.. oder ist es hier mit drin?:
https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Specials/Geforce-RTX-5090-im-Test-1464993/

prinz_valium_2
2025-04-15, 15:43:33
Ich verstehe es auch nicht.
Die 5060 mit 8GB ergibt Sinn für den Preis.
Aber die 5060TI bei 399€ mit 8GB? Dann doch lieber 50€ mehr ausgeben.

Hakim
2025-04-15, 16:07:03
Ich bleibe dabei, alles unter der 5070Ti ist nicht wirklich attraktiv derzeit bei Nvidia. Leider

dargo
2025-04-15, 17:47:39
Schön verstecken. :tongue:

p2TRJkRTn-U

Troyan
2025-04-15, 19:38:18
Ist das nicht der Channel, der rumheult, dass 8GB nicht genug wären? Und jetzt heult der rum, weil nVidia denen keine 8GB Karte schickt?

Lmao. Als ob deren Review ein Mehrwert in der Diskussion bieten würde. ;D

dargo
2025-04-15, 19:58:50
Na deine Ergüsse in diesem Forum haben garantiert keinen Mehrwert.

btw.
Den ganzen 8GB Quark können sich die IHVs gleich schenken, völlig egal welche. Diese Grafikkarten sind für 2025+ nichts weiter als peinlich.

madzapp
2025-04-15, 21:36:10
Gerade gesehen, JayzTwoCents haut angeblich die Specs für die 5060er raus. Mal gucken.

Raff
2025-04-15, 21:41:54
Das haben schon diverse andere Leaker getan. Siehe Leos letzte Abhandlungen (https://www.3dcenter.org/news/news-des-14-april-2025) und die aktuelle Spec-Sammlung bei PCGH (https://www.pcgameshardware.de/Geforce-RTX-5060-Ti-16GB-Grafikkarte-281131/Specials/Preis-kaufen-Release-TDP-Watt-1470449/).

MfG
Raff

madzapp
2025-04-15, 21:55:21
Ist hauptsächlich nur nörgeln über NV. Wenigstens war es nicht so lang.
YT gucken ist z.Z. echt langweilig.

DrFreaK666
2025-04-16, 09:49:39
Es gibt kein Verbot. Wie kommt man überhaupt auf solche Ideen?

MfG
Raff

Linus Tech Tips und HWU berichten darüber. Wieso sollte es in Europa anders sein?
Verbot vielleicht nicht, aber wenn es keine Karten für Reviewer gibt (die 8GB Versionen) , dann kann man auch nichts testen

Lurtz
2025-04-16, 10:49:17
Den ganzen 8GB Quark können sich die IHVs gleich schenken, völlig egal welche. Diese Grafikkarten sind für 2025+ nichts weiter als peinlich.
Dito. Keine Ahnung was da immer noch seitenweise getestet und besprochen wird. Wer da mal nicht testet, alles richtig gemacht...

DrFreaK666
2025-04-16, 11:43:40
Sehen Menschen mit einem geringen Budget sicherlich anders.
Vor wenigen Jahren hab ich auch nur 6700XT für 330€ kaufen können

Hakim
2025-04-16, 14:18:47
Ja ich denke man kann alles verkaufen wenn der entsprechende Preis passt. Ab einem bestimmten Preis wäre auch die 5070 wieder attraktiv. Überall bei den kleineren mal 80€ abziehen, dann passt es wieder so in etwa :)

Raff
2025-04-16, 14:31:58
Sehen Menschen mit einem geringen Budget sicherlich anders.

Gerade die freuen sich über gescheite Beratung für Investitionen. Wer 2021 eine RTX 3060 12GB gekauft hat, strahlt heute noch wie ein Honigkuchenpferd. Mit einer RX 6600 XT sieht das anders aus. Die war damals schneller und man wurde für eine Empfehlung der Geforce mit "zu viel Speicher für die Leistung" oft belächelt. Für Nutzer, die eine GPU viele Jahre nutzen wollen, sind Tests mit etwas weiterem Horizont wertvoll. :) Du hast deswegen ja auch eine 6700 XT anstelle einer RTX 3060 Ti oder 3070 gekauft.

MfG
Raff

y33H@
2025-04-16, 14:57:55
GB206 hat etwas weniger Transistoren als AD106 bei 36 SMs vs 34 SMs, interessant.

Raff
2025-04-16, 14:59:27
Yep, das ist wirklich spannend. Ist bei Blackwell generell so, hier aber besonders deutlich. Falls jemand weiß, wo da gespart wurde, immer her mit den Insights. =)

MfG
Raff

y33H@
2025-04-16, 15:07:21
random guess wäre der IMC für GDDR7 ...

aufkrawall
2025-04-16, 15:14:58
Gerade die freuen sich über gescheite Beratung für Investitionen. Wer 2021 eine RTX 3060 12GB gekauft hat, strahlt heute noch wie ein Honigkuchenpferd. Mit einer RX 6600 XT sieht das anders aus. Die war damals schneller und man wurde für eine Empfehlung der Geforce mit "zu viel Speicher für die Leistung" oft belächelt. Für Nutzer, die eine GPU viele Jahre nutzen wollen, sind Tests mit etwas weiterem Horizont wertvoll. :) Du hast deswegen ja auch eine 6700 XT anstelle einer RTX 3060 Ti oder 3070 gekauft.

Erst hatte er eine 8GB Radeon gekauft, weil er das mit den 12GB der 3060 nicht wahrhaben wollte. Manchmal nützt auch die beste Beratung nichts...

DrFreaK666
2025-04-16, 17:26:34
Erst hatte er eine 8GB Radeon gekauft, weil er das mit den 12GB der 3060 nicht wahrhaben wollte. Manchmal nützt auch die beste Beratung nichts...

Ja, eine RX5500XT mit 8GB statt eine RTX1650 mit 4GB :rolleyes:
Besser informieren bevor du stänkerst

basix
2025-04-16, 19:42:09
Ich habe gerade den Test der 5060 Ti durchgelesen. Technisch ein ganz ordentliche Karte:
- Performance ganz OK für 1080p und 1440p inkl. Upscaling. Bäume werden aber keine ausgerissen
- Energieffizienz stimmt in allen Lebenslagen
- 16 GByte sind top
- Inkl. OC ähnliche Energieeffizienz und fast 4070 Performance

Einziger Wermutstropfen: Etwas teuer das ganze. Aber das sind mittlerweile alle Karten. P/L ist in etwa auf 9070 Niveau. grundsätzlich konkurrenzfähig aber auch nicht wirklich genial.

KarlKastor
2025-04-17, 03:27:14
Gerade die freuen sich über gescheite Beratung für Investitionen.
Eine klarere Beratung, als der Verriss der 5060Ti 8GB in einem Test, gibt es gar nicht.

rentex
2025-04-17, 06:00:50
Kommt da noch was von dem "Lesswell" Zeug? Da jetzt das KI Geschäft langsam am abkacken ist, können sie sich jetzt mal wieder um ne vernünftige Gamer Gen kümmern ;-D

x-force
2025-04-17, 11:42:48
Eine klarere Beratung, als der Verriss der 5060Ti 8GB in einem Test, gibt es gar nicht.

wenn doch bloß argumente dafür angebracht würden...
glauben ist etwas für die kirche :rolleyes:

The_Invisible
2025-04-17, 11:59:48
Kommt da noch was von dem "Lesswell" Zeug? Da jetzt das KI Geschäft langsam am abkacken ist, können sie sich jetzt mal wieder um ne vernünftige Gamer Gen kümmern ;-D

Schon wieder? Der PC ist ja auch schon 10x gestorben

KarlKastor
2025-04-17, 12:03:45
@x-force
Average FPS und 1% Low FPS Unterschied zwischen 8 und 16 GB reicht schon aus um die 8 GB zu lassen

x-force
2025-04-17, 12:16:17
@x-force
Average FPS und 1% Low FPS Unterschied zwischen 8 und 16 GB reicht schon aus um die 8 GB zu lassen

pcgh index fhd 4060ti von 8gb auf 16gb: +0,8fps ;D

KarlKastor
2025-04-17, 14:19:59
Kauf doch einfach deine 8 GB Karte und gut ist. Brauchst dich doch gar nicht zu rechtfertigen.
Schau dir den Test der 5060 Ti auf CB an, eindeutiger geht es nicht.

basix
2025-04-18, 10:16:17
pcgh index fhd 4060ti von 8gb auf 16gb: +0,8fps ;D

Vier Dinge zu dem:
- Das ist Stand heute. Neue Karten vs. Nutzungsdauer und so
- Die Durchschnitts-Framerate sagt nicht alles aus. Siehe Matschtexturen usw.
- Geh mal zum RT Index bei 1080p, dort sieht das bereits ganz anders aus
- Und will man mal auf 1440p wechseln, was heutzutage nicht ungewöhnlich ist, sieht es auch ganz anders aus

Man kann sich die 8GB schönreden wie man will. Für die meisten Nutzer wird es zu wenig sein. Je nach Nutzungsverhalten ist 8GB OK, aber der Nutzer sollte in dem Fall ziemlich genau wissen was er da tut. Und das ist ein wenig das Problem: Wie gut informiert ist der Nutzer? Was genau sind meine Anwendungen? Was könnte in den nächsten Monaten und Jahren noch kommen? Wie lange genau will ich die Karte behalten? Bleibe ich bei 1080p? Ist RT in zukünftigen Games "zwingend", da es keinen Raster-Pfad mehr gibt? Wo bin ich bereit, Qualitätseinbussen zu akzeptieren? Bei 16GB stellen sich all diese Fragen gar nicht. Da kann kommen was will und es ist genug.

Wenn ich also ~400 Euro Budget habe, sind die +50 Euro sinnvoll investiertes Geld. Auch der Wiederverkaufswert wird massiv besser sein und könnte sehr gut möglich die +50 Euro kompensieren. Die 8GB Karte wird in 2-3 Jahren absolut niemand mehr haben wollen. Unter dem Strich also das deutlich bessere Produkt bei finanziell keinen oder fast keinen Nachteilen.

mczak
2025-04-18, 12:28:54
Yep, das ist wirklich spannend. Ist bei Blackwell generell so, hier aber besonders deutlich. Falls jemand weiß, wo da gespart wurde, immer her mit den Insights. =)

Ganz einfach, weil es nicht stimmt :-). Sowohl AD106 wie GB206 haben 36 SMs. Dass Nvidia die RTX 4060 Ti nicht im Vollausbau gebracht hat macht den Chip natürlich nicht kleiner.
Damit liegt GB206 perfekt im Rahmen wie die anderen Blackwell Chips - bei gleicher Breite trotz ein paar mehr Features minimal weniger Transistoren (und minimal kleiner).

(Wieso generell Blackwell etwas weniger Transistoren bzw. Fläche braucht, das ist jetzt sehr spekulativ, meine Vermutung wäre dass da die Unified Int32/FP32 Shader womöglich weniger Platz benötigen. Bei Ada war es so dass der non-Tensor INT32-TOP Wert bei der Hälfte des FP32-TOP Werts lag - beide ausdrücklich spezifiziert als IMAD bzw. FMAD. Da bei Ada bloss die Hälfte der Einheiten Int32 können soll (wahrscheinlich gingen IADDs auch schon auf allen Einheiten, ein Test bei chipsandcheese deutete so was in der Richtung an, nicht aber die IMULs) hatten die Einheiten die sowohl INT32 wie FP32 beherrschten folglich vollen IMUL32-Durchsatz. Bei Blackwell gibt Nvidia denselben INT32 wie FP32 TOP Wert an, der gleich hoch ist - aber nicht mehr explizit spezifiziert als FMA/IMAD, das könnte also auch was anderes sein (und damit nicht unbedingt eine Verbesserung gegenüber Ada, wobei es nicht bloss IADDs sein können weil da sonst irgend eine "dual-add" Instruktion existieren müsste, aber die Aenderung im Whitepaper ist jedenfalls auffällig). Womöglich beherrschen nun also tatsächlich alle Einheiten IMAD, aber eben nicht mit vollem Durchsatz, was evtl. Transistoren sparen könnte gegenüber dem Ansatz in Ada. Es gab jedenfalls auf Reddit schon Diskussionen dass vom angeblich verdoppelten INT32-Durchsatz in Tests nichts zu sehen ist. Aber wie gesagt, alles sehr spekulativ...)

x-force
2025-04-18, 13:56:29
Die 8GB Karte wird in 2-3 Jahren absolut niemand mehr haben wollen. Unter dem Strich also das deutlich bessere Produkt bei finanziell keinen oder fast keinen Nachteilen.

es kostet egal wie mindestens 50€ mehr.

ich denke es bleibt eine frage der philosophie.
in meinen augen hat die karte, insbesondere in 2-3 jahren zu wenig leistung für alles was mehr als fhd@dlss ist.
wenn ich sowieso schon auf low/medium details spielen muss..., dann dreh ich die texturen halt auch ne stufe runter.
es ist sowieso fraglich was von den besser aufgelösten texturen bei 720p renderauflösung übrig bleibt ;)

abgesehen davon ist das laden von nicht angeforderten, kleineren texturen durch den treiber eine sauerei und cheating und sollte in den tests entsprechend geächtet werden und einige artikel nach sich ziehen.

mczak
2025-04-18, 15:12:22
es kostet egal wie mindestens 50€ mehr.

Ich sehe den Wert der 8GB 5060Ti auch nicht wirklich. Wenn man wirklich sparen will, kann man zur 5060 non-Ti greifen - die hat natürlich dieselben Speicherprobleme ist aber ansonsten wohl bloss so 15% langsamer und nochmal deutlich günstiger (von der reinen Rohleistung her sollte die ein besseres Preis/Leistungsverhältnis als die 5060 Ti 8GB haben, und damit natürlich auch deutlich besser als die 5060 Ti 16GB).
Die 5060 Ti 8GB ist da etwas im Niemandsland - bei der 4060 Ti war das noch etwas anders weil halt der Aufpreis der 16GB Version doppelt so gross war (und ausserdem war da die 4060 non-Ti von der Performance weiter weg weil die ja AD107 verwendet hat und die 5060 non-Ti nun einen abgespeckten GB206 und nicht den dafür zu kleinen GB207, dies trotz der Tatsache dass 4060 Ti einen leicht beschnittenen AD106 verwendet hat).

Raff
2025-04-18, 16:11:02
Ganz einfach, weil es nicht stimmt :-). Sowohl AD106 wie GB206 haben 36 SMs. Dass Nvidia die RTX 4060 Ti nicht im Vollausbau gebracht hat macht den Chip natürlich nicht kleiner.
Damit liegt GB206 perfekt im Rahmen wie die anderen Blackwell Chips - bei gleicher Breite trotz ein paar mehr Features minimal weniger Transistoren (und minimal kleiner).

Ich musste die Postings jetzt mehrfach lesen, um das Problem zu verstehen. :D Also: Ich stimmte zwar y33H@ zu, hatte aber durchaus im Hinterkopf, was du meinst. Schauen wir uns das mal genauer an:

GB203: ~378 mm², 45,6 Mrd. Transistoren, 84 SMs, 64 MiB L2$
AD103: ~379 mm², 45,9 Mrd. Transistoren, 84 SMs*, 64 MiB L2$
GB206: ~181 mm², 21,9 Mrd. Transistoren, 36 SMs, 32 MiB L2$
AD106: ~188 mm², 22,9 Mrd. Transistoren, 36 SMs, 32 MiB L2$

*Wobei das spekulativ ist, produktreif wurden bestenfalls 80 SMs.

Nur der Vergleich zwischen AD104 und GB205 passt nicht. Bei den anderen Blackwell-Chips spart Nvidia clever Schaltungen ein, gerade bei GB206. Dazu hast du die passenden Spekulationen:

(Wieso generell Blackwell etwas weniger Transistoren bzw. Fläche braucht, das ist jetzt sehr spekulativ, meine Vermutung wäre dass da die Unified Int32/FP32 Shader womöglich weniger Platz benötigen. Bei Ada war es so dass der non-Tensor INT32-TOP Wert bei der Hälfte des FP32-TOP Werts lag - beide ausdrücklich spezifiziert als IMAD bzw. FMAD. Da bei Ada bloss die Hälfte der Einheiten Int32 können soll (wahrscheinlich gingen IADDs auch schon auf allen Einheiten, ein Test bei chipsandcheese deutete so was in der Richtung an, nicht aber die IMULs) hatten die Einheiten die sowohl INT32 wie FP32 beherrschten folglich vollen IMUL32-Durchsatz. Bei Blackwell gibt Nvidia denselben INT32 wie FP32 TOP Wert an, der gleich hoch ist - aber nicht mehr explizit spezifiziert als FMA/IMAD, das könnte also auch was anderes sein (und damit nicht unbedingt eine Verbesserung gegenüber Ada, wobei es nicht bloss IADDs sein können weil da sonst irgend eine "dual-add" Instruktion existieren müsste, aber die Aenderung im Whitepaper ist jedenfalls auffällig). Womöglich beherrschen nun also tatsächlich alle Einheiten IMAD, aber eben nicht mit vollem Durchsatz, was evtl. Transistoren sparen könnte gegenüber dem Ansatz in Ada. Es gab jedenfalls auf Reddit schon Diskussionen dass vom angeblich verdoppelten INT32-Durchsatz in Tests nichts zu sehen ist. Aber wie gesagt, alles sehr spekulativ...)

Auf jeden Fall hat Nvidia an den richtigen Stellen gespart, denn mit gezielten Tests und dem richtigen Code-Mix kann man klare Fortschritte von Lovelace auf Blackwell herausarbeiten: https://www.pcgameshardware.de/Geforce-RTX-5070-Ti-Grafikkarte-281031/Tests/Release-Preis-Test-Benchmarks-vs-5080-1466041/5/#a3

MfG
Raff

HOT
2025-04-18, 16:18:55
Bei AD103 wird der 7. Shaderprozessor nur 8 SMs haben.

mczak
2025-04-18, 16:50:30
Ich musste die Postings jetzt mehrfach lesen, um das Problem zu verstehen. :D Also: Ich stimmte zwar y33H@ zu, hatte aber durchaus im Hinterkopf, was du meinst. Schauen wir uns das mal genauer an:

GB203: ~378 mm², 45,6 Mrd. Transistoren, 84 SMs, 64 MiB L2$
AD103: ~379 mm², 45,9 Mrd. Transistoren, 84 SMs*, 64 MiB L2$
GB206: ~181 mm², 21,9 Mrd. Transistoren, 36 SMs, 32 MiB L2$
AD106: ~188 mm², 22,9 Mrd. Transistoren, 36 SMs, 32 MiB L2$

*Wobei das spekulativ ist, produktreif wurden bestenfalls 80 SMs.

Also ich bin davon ausgegangen dass AD103 eben tatsächlich bloss 80 SMs hat - einfach weil das so im offiziellen Nvidia-Whitepaper steht. (Ist aber natürlich schon etwas komisch weil das bedeuten würde dass einer der GPCs weniger TPCs bzw. SMs hat. Wo bleibt denn da der Die-Shot :rolleyes:) Ansonsten würde GB206 tatsächlich verhältnismässig mehr Transistoren (bzw. Fläche) einsparen.


Auf jeden Fall hat Nvidia an den richtigen Stellen gespart, denn mit gezielten Tests und dem richtigen Code-Mix kann man klare Fortschritte von Lovelace auf Blackwell herausarbeiten: https://www.pcgameshardware.de/Geforce-RTX-5070-Ti-Grafikkarte-281031/Tests/Release-Preis-Test-Benchmarks-vs-5080-1466041/5/#a3

Das ist auf jeden Fall so, der Fortschritt von Blackwell gegenüber Lovelace mag ja im Allgemeinen nicht so gross sein, aber eben man hat das ganze im selben Prozess mit etwas weniger Transistoren realisiert.

basix
2025-04-24, 13:46:06
Wunsch für die 5060:
- 30 SM
- 96bit, 28 Gbps, 12 GByte

Selbes PCB, Kühler, GPU usw. wie die 5060 Ti 16GB. Keine 8 GByte Sollbruchstelle. Die Bandbreite wäre aufgrund GDDR7 kein Problem, auch bei 96bit nicht. Ich hoffe Nvidia kommt zur Vernunft. Für ~330$ OK.

rentex
2025-04-25, 06:14:58
Wunsch für die 5060:
- 30 SM
- 96bit, 28 Gbps, 12 GByte

Selbes PCB, Kühler, GPU usw. wie die 5060 Ti 16GB. Keine 8 GByte Sollbruchstelle. Die Bandbreite wäre aufgrund GDDR7 kein Problem, auch bei 96bit nicht. Ich hoffe Nvidia kommt zur Vernunft. Für ~330$ OK.

Wunsch für Blackwell: Einfach verschwinden...

Sardaukar.nsn
2025-04-25, 07:50:37
Wunsch für die 5060:
- 30 SM
- 96bit, 28 Gbps, 12 GByte

Ich denke da kannst du auch einfach ein 4070 Super nehmen und warten bis du diese zu deinem Wunschpreis bekommst. Prima Karte die im 1440p Rechner von meinem Sohn seit einem Jahr gut läuft.

basix
2025-04-25, 12:41:37
Das mit dem Wunschpreis ist wohl Wunschdenken ;)

Ich brauch so eine Karte allerdings nicht, bin eingedeckt. Es geht mir mehr um eine sinnvolle Karte für die User mit begrenztem Budget. Technologisch gäbe es das eben her, wenn man GB206 etwas stutzt. Und das wäre die deutlich sinnvollere Karte als 30 SM mit 128bit und nur 8GByte.

Wunsch für Blackwell: Einfach verschwinden...
Blackwell kann schon bleiben. Nur die schwachen VRAM Konfigurationen, hohen Preise und schlechten Treiber können verschwinden ;)

nordic_pegasus
2025-04-26, 18:49:22
Also ich bin davon ausgegangen dass AD103 eben tatsächlich bloss 80 SMs hat - einfach weil das so im offiziellen Nvidia-Whitepaper steht. (Ist aber natürlich schon etwas komisch weil das bedeuten würde dass einer der GPCs weniger TPCs bzw. SMs hat. Wo bleibt denn da der Die-Shot

direkt nach Launch der RTX4080 gab es dazu Gerüchte, dass ein Bug eine volle Aktivierung der 84SM nicht zulässt.

Darum warte ich auch bis heute auf einen Die-Shot einer 4080/Super. Das würde mich wirklich interessieren, ob das nur ein Mythos war oder Nvidia es wirklich nicht für nötig hielt, einen Respin spätestens bei der 4080Super zu machen.

w0mbat
2025-04-26, 20:50:12
Wenn jemand einen defekten AD103 hat können wir es herausfinden.

y33H@
2025-04-26, 21:14:50
Ich bilde mir ein im initialen Whitepaper waren es 84 SM ^^

basix
2025-04-27, 10:03:14
Hier ab 1:21 gäbe es einen hochauflösenden Die-Shot von AD103. Ohne bilibili Account allerdings max. 360p :D
https://www.bilibili.com/video/BV1TaFYecEgs/

nordic_pegasus
2025-04-27, 12:04:24
der Die-Shot bei 1:27 ist ganz brauchbar.

92769
92770

Damit sind es anscheinend wirklich 80 SM, aufgeteilt in 6 Cluster zu jeweils 2x6 SM und dazu ein einzelner 1x8 SM Cluster.

Mythos zerstört.

Edit: das passt zu den schematischen Darstellungen ( https://www.techpowerup.com/gpu-specs/nvidia-ad103.g1012#gallery-6 ), nur dass die 2x4 in Wirklichkeit als 1x8 organisiert sind.

basix
2025-04-27, 12:13:37
Jop. Hier im Vergleich zu GB203 sieht man auch schön den Vergleich in der Mittelsektion.

The_Invisible
2025-04-27, 19:11:06
Die rtx 6000 pro Platine ist schon heftig
https://x.com/unikoshardware/status/1916370180482965683

basix
2025-04-27, 20:27:59
HW P0rn :)

Zossel
2025-04-28, 08:20:37
Die rtx 6000 pro Platine ist schon heftig

Und das sind nur 2 Layer der Platine.

Hakim
2025-04-28, 13:17:41
Angeblichen Super Varianten der 5070 und 5080 mit wie schon seit langer Zeit eingeschätzt 3GB Modulen

https://www.computerbase.de/news/grafikkarten/geforce-rtx-5000-super-5080s-und-5070s-dank-3-gb-chips-mit-24-und-18-gb-gddr7.92376/

robbitop
2025-04-28, 13:21:49
Würde gerade die 5070 enorm verbessern. Aber auch die 5080 (und hoffentlich gibt es auch eine 5070ti Super). Aber: wie immer wohl erst zur Halbzeit. Also wieder nur 12 Monate "Spaß" bis des next gen gibt. IMO: too little too late. Aber wie immer gilt natürlich: Konkurrenz belebt das Geschäft ^^

dildo4u
2025-04-28, 13:30:33
Es gibt keine Regel das sie bis 2026 warten, die 4060 TI 16GB kam paar Monate nach dem 8GB Modell.

Hakim
2025-04-28, 13:32:56
Bei der 5070 könnte man ja noch paar Einheiten zusätzlich aktivieren, glaube wären dann 6400, aber bei der 5080 bliebe nur die Mehrperformance durch den erhöhten Takt. Wobei es beim 4080 zu 4080S auch sehr wenig Unterschied gab, und jetzt würde man zusätzlich noch mehr Speicher bekommen.

Ja wäre die 5070 von Anfang an so gekommen, hätte ich zugeschlagen, so ist mir die aktuelle 5070 zu schlecht und die 70Ti zu Teuer, so das ich derzeit eher zum 9070XT tendiere, aber noch nicht zuschlage weil ich nicht über UVP zahlen will. Einige 5070Ti Angebote unter UVP haben aber schon gut gejuckt.

HOT
2025-04-28, 15:41:16
Die 5080S wird mMn auch auf 400W aufgerüstet und Maximaltakt hoch auf 3GHz oder so, ansonsten tut sich neben dem Speicher nix.

Aber natürlich gibts die erst nächstes Jahr, das ist mMn illusorisch auf einen früheren Zeitpunkt zu hoffen.

robbitop
2025-04-28, 15:44:47
Es gibt keine Regel das sie bis 2026 warten, die 4060 TI 16GB kam paar Monate nach dem 8GB Modell.
Zumindest bisher kamen die Super Karten immer zur Halbzeit. Ist keine Garantie aber die 4060ti war keine "Super". :)

Hakim
2025-04-28, 15:52:54
Evt weil einige Karten wie der 5070 könnten sie es ja vorziehen da die es schwerer gegen die Konkurrenz haben. Bei der 80 und 70Ti ist der Bedarf nicht so dringend

HOT
2025-04-28, 15:56:18
Da wird nix vorgezogen. Ich tipp da mal auf ne 5060S mit 12GB, ne 5070S mit 18GB und ne 5080S mit 24GB, alle auch etwas mehr Power, aber nicht vor nächstem Jahr...
Ich glaub die leben jetzt einfach damit, wie die Produkte sind. Die 5060Ti mit 8GB wird mMn über kurz oder lang aus dem Retail-Bestand fliegen und auf OEM beschränkt, wenn die abverkauft sind.

KarlKastor
2025-04-28, 16:26:18
An einen 5060 mit 12 GB glaub ich nicht. Eher die Ti mit 12 GB, die kann dann die 8 und 16 GB Version ersetzen.

basix
2025-04-28, 19:59:02
Ich könnte mir vorstellen, dass die Super Karten mit schnellerem Speicher kommen und dafür das SI stutzen. Nvidia war schon immer VRAM knausrig ;)

Zum Beispiel sowas, in etwas extremer Form:
- Nvidia sammelt/stapelt bis zum Super Release alle GPUs mit teildefekten SI (GDDR7 PHY oder SI-Controller, L2-Cache)
- Die Super Generation erhöht den VRAM-Takt, um das schmalere SI zu kompensieren

Auch wenn es nicht super nice wäre, es erscheint mir irgendwie die sinnvollste Lösung. Am härtesten wird es die 5070S haben, Nvidia will hier sicher die 9070 übertreffen. Die anderen Karten sind typ. wohl bereits etwas schneller als die direkten Gegner (5070Ti vs. 9070XT // 5060Ti vs. 9060XT // 5060 vs 9060).

SKU|SM|SI|VRAM Clock|VRAM Menge|MSRP|Performance Prognose
5080S|84|224bit|36 Gbps|21 GByte|999$|+5%
5070TiS|72|192bit|36 Gbps|18 GByte|749$|+5%
5070S|50|160bit|34 Gbps|15 GByte|549$|+5...10% (noch mehr bei 1440p mit RT -> VRAM-Mangel)
5060TiS|36|128bit|28 Gbps|12 GByte|399$|+5...10% (vs. 16 GByte Variante)
5060S|32|128bit|28 Gbps|12 GByte|329$|+10% (noch mehr bei 8GB VRAM-Mangel Berücksichtigung)


Es gibt ja schon sehr viele Blackwell Karten, welche 34 Gbps erreichen:
https://www.tomshardware.com/pc-components/gpus/sk-hynix-gddr7-modules-hit-34-gbps-on-the-rtx-5070-ti-similar-oc-performance-to-samsung

Und Samsung spricht von >40Gbps bei den 24-Gbit Modulen:
https://news.samsung.com/global/samsung-develops-industrys-first-24gb-gddr7-dram-for-next-generation-ai-computing

Edit:
Spekulierte MSRP sowie Performance-Prognosen in der Tabelle eingefügt.

Dural
2025-04-29, 09:33:00
Es wird keine super geben, die haben ja gar keinen Platz im aktuellen Chip Gefüge.

5060Ti max Ausbau
5080 max Ausbau
5070Ti kann nicht näher an die 5080 kommen.
5090 läuft schon jetzt am Limit (575W)
Einzig bei der 5070 könnte man noch etwas drehen.

Vielleicht kommt noch eine 5080Ti mit GB202... wobei auch da eigentlich gar kein Bedarf vorhanden ist, erst bei Preissenkung der 5000 Serie.

Ich bin der Überzeugung die werden eher schnellst möglich auf 3nm wechseln, 2026.

Edit:
Die 3-GB-Chips werden wir somit erst bei der 3nm Generation sehen.

horn 12
2025-04-29, 09:54:31
Vor Herbst 2026 wird es KEINE Neue NV Generation geben, weder bei NV noch bei AMD
Spätherbst Oktober bis November möglich bei NV - AMD wohl erst Anfang 2027

HOT
2025-04-29, 10:19:59
Da gehe ich weiter und wette, dass es vor Q2 2027 keine neue Generation geben wird, allerfrühestens Vorstellung CES27.

basix
2025-04-29, 10:35:30
Es wird keine super geben, die haben ja gar keinen Platz im aktuellen Chip Gefüge.

Die aktuellen Chips haben alle ca. 10...15% OC Spielraum. Da ist etwas mehr Luft als bei Ada. Eine 4080S war kaum schneller, hatte gleich viel VRAM und dennoch hat man sie gebracht. Bei Blackwell hätte man ein VRAM-Mengen Update, welches für alle Karten gern gesehen werden. Deswegen wären +5% Performance-Update sowie das Speicher-Upgrade gut genug für einen Sprung. Bei der 5070TiS, 5070S und 5060S könnte man noch ein paar zusätzliche SM spendieren (70 -> 72 // 48 -> 50 // 30 -> 32). Ist nicht viel aber immerhin etwas. Dann könnten diese GPUs bei +10% Performance landen.

Und dann noch: Preissenkungen ;) Nvidia könnte die Karten neu positionieren, indem man die Preise etwas reduziert. Da man die Speichermengen erhöhte, glaube ich aber eher an gleichbleibende Preise.

HOT
2025-04-29, 11:26:12
Jo und alles plus etwas mehr Stromverbrauch, so 20-50W und höhere Maximaltakte und schon hast du durch die Bank 5-10% mehr Leistung. Ich fand das eh ne interessante Entscheidung, mit allem unter der 5090 derart konservativ zu bleiben und dadurch in Kauf zu nehmen, dass die 4000er gefährlich nah kommen...

Aber ich sehe nicht, dass es mehr als ne 5070S und ne 5080S geben wird, primär wegen des größeren Speichers. Vielleicht gibts noch ne 5060S, das kann auch sein, das wars aber. Und nein, es wird keine krummen Speicherbestückungen geben und auch keine Bestückungen jenseits der 30Gbps - nächste Generation dann.

Hakim
2025-04-29, 14:39:03
Ich weiß auch nicht woran es genau NV ausmacht eine Gen super Varianten zu verpassen, Pascal hatte es nicht, Turing schon, Ampere hatte es nicht, Ada schon, demnach sollte es eigentlich BW überspringen :). Vermutlich wird es nur gemacht wenn ein Gen nicht ganz überzeugt oder es gegen die Konkurrenz schwer hat. Bei BW würde es in den Bereichen 5070 zu 5070Ti passen wegen der starken Konkurrenz da, es sieht auch aus das die etwas OC übergelassen haben für evtl Super Versionen und die Möglichkeit für mehr Vram. Den Rhythmus zufolge nein, aber Kritik und Konkurrenz wegen wäre es diesmal schon sehr angebracht

HOT
2025-04-29, 14:45:02
Bei der 5080S ist das einzige, was NV interessiert, dass das Ding nicht unter die 1000$ sinkt, deshalb der Refresh.
Die 5070 ist einfach ein extrem beschissenes Produkt, daher ist das Upgrade hier schlichtweg nötig, AMD hat hier den Erfolg.

Hakim
2025-04-29, 14:50:12
Der Abstand, sowohl Performance und preislich, ist auch zwischen der 5070 zu 5070Ti zu groß. Ist auch genau der Bereich den AMD angreift. 5070 bräuchte es halt wirklich am dringendsten

PHuV
2025-04-30, 00:32:21
Die DGX Spark kann man in den USA bereits vorbestellen, bei uns ist das Feld noch ausgegraut. :mad:

The_Invisible
2025-05-15, 10:00:40
5080Ti incoming?

https://wccftech.com/nvidia-rtx-5090d-rumored-to-get-nerfed-to-just-14080-cuda-cores-rtx-5080-ti-super-expected-to-release-at-the-end-of-2025/

14k Cores, 384bit 24GB würde sich eigentlich plausibel anhören

Raff
2025-05-15, 10:04:29
... und dann mit 4090-Leistung. Jo, aber nicht alles, was wir für sinnvoll und schlüssig halten, wird von Nvidia gemacht. Faktisch fast nichts (RTX 3080 20GB *hust*). :ugly:

MfG
Raff

The_Invisible
2025-05-15, 10:16:34
... und dann mit 4090-Leistung. Jo, aber nicht alles, was wir für sinnvoll und schlüssig halten, wird von Nvidia gemacht. Faktisch fast nichts (RTX 3080 20GB *hust*). :ugly:

MfG
Raff

Und wahrscheinlich mit 4090 UVP Preis, diese Gen ist für 4000er Nutzer wirklich mehhh :D

00-Schneider
2025-05-15, 23:03:43
Warum hat man den Speichertakt bei allen Modellen so "moderat" gewählt? Gefühlt kann man ja anscheinend jedes Modell um 2.000Mhz oder mehr im Afterburner ohne Probleme übertakten.

dildo4u
2025-05-16, 05:44:04
Super Refresh soll angeblich noch 2025 kommen damit hat man eine zusätzliche Stellschraube.

Sardaukar.nsn
2025-05-16, 09:25:04
Eine 5080 Super/Ti sehe ich nicht. Auf welchem Chip soll die denn basieren? Der GB203 (https://www.techpowerup.com/gpu-specs/nvidia-gb203.g1073) der 5080 ist Vollausbau, ein noch weiter abgespeckter Riese von GB202 (https://www.techpowerup.com/gpu-specs/nvidia-gb202.g1072) würde sicher sehr teuer.

Die 5090 hat ja selbst zur UVP von 2,3k€ ein super schlechtes P/L Verhältnis wenn man damit hauptsächlich zocken will. Also +100% Preis für sehr optimistische +50% Leistung. Wo soll denn da eine 5080 Super/Ti platziert werden? +50% Preis und +25% Leistung?

Troyan
2025-05-16, 09:25:29
Warum hat man den Speichertakt bei allen Modellen so "moderat" gewählt? Gefühlt kann man ja anscheinend jedes Modell um 2.000Mhz oder mehr im Afterburner ohne Probleme übertakten.

Bessere Yields und null Leistungszuwachs. Die Karten haben jetzt schon massiv viel Bandbreite ohne dass es sich in wirklichen Leistungszuwachs mündet.

Wuge
2025-05-16, 09:43:14
Ist schon heftig wie gut der GDDR7 geht. Quasi in der ersten Generation schon gleicher interner Takt / Verdoppelung der Bandbreite zu GDDR6 im Endstadium.

Hakim
2025-05-16, 11:03:08
Super Refresh soll angeblich noch 2025 kommen damit hat man eine zusätzliche Stellschraube.

Gibt es dazu einen Link zu einer Meldung? Vermutet hatte ich es ja selber schon da gerade die normal gut verkaufte 70er diese Gen schwächelt und wohl wegen den 9070ern schon deutlich unter UVP angeboten wird.

Edit: vermutlich die Gerüchte über die 5080Ti oder?

basix
2025-05-16, 11:27:56
Eine 5080 Super/Ti sehe ich nicht. Auf welchem Chip soll die denn basieren?

Hast du die 4080S vergessen? ;) Faktisch Null Leistungszuwachs, dafür etwas günstiger.

Lurtz
2025-05-17, 16:00:17
Offenbar haben sich manche Reviewer für exklusive Previews der 5060 mit nVidia ins Bett gelegt und veröffentlichen jetzt "Benchmarks", die genauso aussehen wie nVidias PR-Folien, inkl. Vergleich der Vorgängergenerationen mit MFG vs keine FG und so zünftigen Titeln wie "Pathtracing mit Budget":
https://www.gamestar.de/artikel/geforce-rtx-5060-preview-benchmarks,3433080.html

aceCrasher
2025-05-17, 18:26:45
Offenbar haben sich manche Reviewer für exklusive Previews der 5060 mit nVidia ins Bett gelegt und veröffentlichen jetzt "Benchmarks", die genauso aussehen wie nVidias PR-Folien, inkl. Vergleich der Vorgängergenerationen mit MFG vs keine FG und so zünftigen Titeln wie "Pathtracing mit Budget":
https://www.gamestar.de/artikel/geforce-rtx-5060-preview-benchmarks,3433080.html
Was für eine Farce.

Hakim
2025-05-17, 19:38:33
Eines der Größten Unternehmen scheint wohl Zweifel am eigenen Produkt zu haben. Wie wäre es mal mit Produkten wo man dahinter stehen kann?

Ich hoffe wirklich das Nvidia aus den ganzen BW Gen lernt und sich bei der nächsten Gen mehr bemüht.

=Floi=
2025-05-17, 20:34:56
Offenbar haben sich manche Reviewer für exklusive Previews der 5060 mit nVidia ins Bett gelegt und veröffentlichen jetzt "Benchmarks", die genauso aussehen wie nVidias PR-Folien, inkl. Vergleich der Vorgängergenerationen mit MFG vs keine FG und so zünftigen Titeln wie "Pathtracing mit Budget":
https://www.gamestar.de/artikel/geforce-rtx-5060-preview-benchmarks,3433080.html

so filtern die sich selbst aus. ich fin de das perfekt.

Raff
2025-05-18, 02:06:10
https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/News/Nvidia-greift-aktiv-in-Tests-ein-1472929/

Wer hat denn der Jubelperserei noch zugesagt?

MfG
Raff

aths
2025-05-18, 03:26:52
https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/News/Nvidia-greift-aktiv-in-Tests-ein-1472929/

Wer hat denn der Jubelperserei noch zugesagt?

MfG
Raff
Ich dachte, es geht nicht mehr krasser (siehe Arroganz-oder-Berechnungs-Glosse) aber das ist jenseits dessen was ich denen zugetraut hätte.

Gouvernator
2025-05-18, 04:20:50
Ich dachte, es geht nicht mehr krasser (siehe Arroganz-oder-Berechnungs-Glosse) aber das ist jenseits dessen was ich denen zugetraut hätte.
Speicherthema ist bei NV derart brisant, das sie nicht wollen es in irgendeiner Weise noch weiter groß machen. Sonst müssen sie alle Modelle mit viel mehr Vram bestücken, was ihre Profite im Profi-Segment sofort fallen lässt. Diese sind wohl so hoch das man auf Consumer-Geschäft einfach pfeiffen kann. Ohne AI im Normalfall, nach 5 Jahren RTX3090 müsste die 5070 24Gb haben, die 5090 64Gb. Liegt aber auch viel an der breiten Masse dämlicher Käufer und Presse, die die ganzen Jahre meinen 16Gb wären genug.

Sardaukar.nsn
2025-05-18, 07:15:07
Das Speicherthema wird überbewertet. Gut das hier AMD und Nvidia im Gaming Segment auf die Einheitsgröße 16GB setzen. Dafür aber bitte möglichst schnell. Es gibt X Beispiele für Spiele die damit auch in 4K hervorragend funktionieren. Wer damit Probleme bekommt, optimiert nicht genug.
Erinnert mich etwas an die Zeit als nach immer mehr CPU Kernen gerufen wurden. Hat sich auch überlebt.

Troyan
2025-05-18, 08:21:07
https://www.pcgameshardware.de/Geforce-RTX-5060-Grafikkarte-281134/News/Nvidia-greift-aktiv-in-Tests-ein-1472929/

Wer hat denn der Jubelperserei noch zugesagt?

MfG
Raff


Diesem Fazit wird sich die PCGH-Redaktion sicherlich nicht anschließen und hat schon im Vorfeld sowohl hinsichtlich der Geforce RTX 5060 Ti mit 8 GiByte als auch im Hinblick auf die Geforce RTX 5060 die Empfehlung ausgesprochen: Finger weg, eine Grafikkarte mit nur 8 GiByte Grafikspeicher sollte 2025 nicht mehr gekauft werden. Dass Nvidia die Geforce RTX 5060 so versteckt, spricht Bände.

Sorry, aber zu heulen, dass andere Previews fahren, wenn das Review-Fazit schon feststeht, ist ebenfalls an Lächerlichkeit nicht zu überbieten. Offensichtlich braucht ihr keine Karte. Wozu die Aufregung?

basix
2025-05-18, 08:42:20
Wozu die Aufregung?
Nvidia weiss anscheinend, dass die 8GB Karten nicht gut sind. Sonst würde sie die Stunts mit der 5060 Ti 8GB und jetzt vor allem 5060 nicht machen ;)

Schlussendlich betreibt Nvidia damit Verneblungs- und Irreführungstaktik. Die freie Presse wird untergraben und diese ist die Basis für solide Kaufentscheidungen von Kunden. Deswegen die Aufregung. Ja keine richtigen Reviews zulassen und Benchmarks zeigen wo man weiss, dass die 8GB reichen. Dass das aber in vielen Spielen nicht mehr der Realität entspricht, haben die letzten Monate eindeutig gezeigt.

Es ist nicht so, das die Karte völlig unbrauchbar ist. Aber man muss schon einigermassen genau wissen, was man braucht. Sonst läuft man Gefahr, dass die 8GB überlaufen. Und das gilt nicht nur für Nvidia Karten, sondern alle 8GB Karten in 2025.

Raff
2025-05-18, 10:33:17
Es ist nicht so, das die Karte völlig unbrauchbar ist. Aber man muss schon einigermassen genau wissen, was man braucht. Sonst läuft man Gefahr, dass die 8GB überlaufen. Und das gilt nicht nur für Nvidia Karten, sondern alle 8GB Karten in 2025.

Genau so. Und die freien Tests werden herausarbeiten, inwiefern die vergleichbar teuren Alternativen - Arc B580 und RX 7600 XT - besser oder schlechter sind.

MfG
Raff

x-force
2025-05-18, 11:22:03
Und die freien Tests werden herausarbeiten, inwiefern die vergleichbar teuren Alternativen - Arc B580 und RX 7600 XT - besser oder schlechter sind.

solange man ein scharfes bild möchte und das nicht nur in einer handvoll titeln, bleibt nichts anderes als nv übrig. das ist schon vor den tests klar.

ob nun pest oder cholera ein bild mehr drückt, ist im grunde egal, solange sich die features derart unterscheiden.

basix
2025-05-18, 11:58:38
DLSS4 und FSR4 sind nicht so weit voneinander weg. DLSS4 hat primär den Vorteil, dass es deutlich weiter verbreitet eingesetzt werden kann. Bei neuen Spielen ist dieser Vorteil allerdings deutlich geringer, da FSR4 häufiger mit dabei ist.

Aber:
Wenn es stockt, ruckelt, zuckt sowie matsch-texturig wird (oder kurz gesagt beschi**en läuft) nützt auch DLSS4 nichts.

x-force
2025-05-18, 12:20:10
DLSS4 und FSR4 sind nicht so weit voneinander weg. DLSS4 hat primär den Vorteil, dass es deutlich weiter verbreitet eingesetzt werden kann. Bei neuen Spielen ist dieser Vorteil allerdings deutlich geringer, da FSR4 häufiger mit dabei ist.

deshalb ist intel keine alternative und wie du selbst sagst wird fsr4 schlechter supported.


Aber:
Wenn es stockt, ruckelt, zuckt sowie matsch-texturig wird (oder kurz gesagt beschi**en läuft) nützt auch DLSS4 nichts.

wie gut, dass man nicht jeden regler auf max drehen muss und die 5060 abgesehen davon auch gar nicht die rohleistung dafür hat ;)
ein problem ist es erst dann, wenn alles auf low mehr als 8gb zieht. das wird die 5060 dann aber unabhängig von den 8gb eh nicht mehr flüssig darstellen können.

aufkrawall
2025-05-18, 12:33:15
Mit Reglern kommt man bei dem Sony-Schrott leider oft nicht weit. Außerdem klaut FG auch weiterhin einige hundert MB, die absoluten Vorrang bei der Priorisierung brauchen.
So eine Karte ist imho rein für Esports mit niedrigsten Details kaufbar, sonst kann man es auch gleich bleiben lassen.

basix
2025-05-18, 12:42:00
wie gut, dass man nicht jeden regler auf max drehen muss und die 5060 abgesehen davon auch gar nicht die rohleistung dafür hat ;)
ein problem ist es erst dann, wenn alles auf low mehr als 8gb zieht. das wird die 5060 dann aber unabhängig von den 8gb eh nicht mehr flüssig darstellen können.

Wenn du nicht jeden Regler nach rechts drehen willst (also mal nur die, welche Speicherfresser sind), dann brauchst du auch nicht zwingend DLSS4 ;) Abnehmende Qualität ist abnehmende Qualität, egal von woher die kommt.

Und manche Spiele kannst du noch so auf Low Settings tunen, 8GB sind trotzdem knapp (und sieht aufgrund Low nicht gut aus und dafür zahle ich keine 300+ Euro).

Und nochmals:
Etwas schlechtere Qualität ist deutlich besser als ein Totalausfall aufgrund von zu wenig Speicher. Und diese Karte wird 2025 released und ist bereits heute oftmals problematisch. Was denkst du, wie es 2027 aussehen wird? Sicher nicht besser auf der Speicher-Seite. Die Upsampling-Seite auf Seiten AMD und Intel wird definitiv besser aussehen als heute. Wiederverkausfwert einer 8GB Karte wird ebenfalls gegen Null gehen (wie auch von RDNA3 aufgrund von schwachem RT). Deswegen sind die sinnvollsten Karten im Mainstream-Bereich die 5060 Ti 16GB (leider etwas teuer) sowie 9060XT 16GB (und hoffentlich 9060 12GB). Battlemage ist für vieles relativ lahm, ist aber ziemlich günstig und wird in Zukunft eine immer besser werdende Figur machen verglichen mit einer 8GB Karte.

x-force
2025-05-18, 14:11:01
Wenn du nicht jeden Regler nach rechts drehen willst (also mal nur die, welche Speicherfresser sind), dann brauchst du auch nicht zwingend DLSS4 ;) Abnehmende Qualität ist abnehmende Qualität, egal von woher die kommt.

dlss schlägt aber alle anderen regler bezüglich rechenzeit/bildqualität.


Und manche Spiele kannst du noch so auf Low Settings tunen, 8GB sind trotzdem knapp (und sieht aufgrund Low nicht gut aus und dafür zahle ich keine 300+ Euro).

beispiele? es muss auf ner 16gb variante messbar schneller sein, ansonsten konstruierst du.

ich kenne kein einziges.


Und nochmals: Was denkst du, wie es 2027 aussehen wird? Sicher nicht besser auf der Speicher-Seite.

ich denke 99% der 2027 erscheinenden spiele wird auf 8gb und niedrigsten einstellungen nicht schlechter als mit einer 16gb karte laufen. da extrem viele karten nicht mehr speicher haben und man es sich nicht erlauben kann auf diese basis zu verzichten.
die rechenleistung ist viel eher das problem, denn für max optionen fehlt es vorne und hinten und nicht nur am speicher.

Troyan
2025-05-18, 15:59:05
Nvidia weiss anscheinend, dass die 8GB Karten nicht gut sind. Sonst würde sie die Stunts mit der 5060 Ti 8GB und jetzt vor allem 5060 nicht machen ;)

Schlussendlich betreibt Nvidia damit Verneblungs- und Irreführungstaktik. Die freie Presse wird untergraben und diese ist die Basis für solide Kaufentscheidungen von Kunden. Deswegen die Aufregung. Ja keine richtigen Reviews zulassen und Benchmarks zeigen wo man weiss, dass die 8GB reichen. Dass das aber in vielen Spielen nicht mehr der Realität entspricht, haben die letzten Monate eindeutig gezeigt.

Es ist nicht so, das die Karte völlig unbrauchbar ist. Aber man muss schon einigermassen genau wissen, was man braucht. Sonst läuft man Gefahr, dass die 8GB überlaufen. Und das gilt nicht nur für Nvidia Karten, sondern alle 8GB Karten in 2025.

Das wissen wir alle. Ich meine, 5060 und 5060 TI sind schlussendlich sehr gleiche Produkte. Aber wenn das Fazit eines Reviews schon feststeht, wozu die Aufregung, dass a) andere Previews machen und b) dadurch Reviews zum NDA Fall haben? Das ist genauso lächerlich.

Schlussendlich wird nVidia wohl in Zukunft weniger Reviewer beglücken, weil diese gezeigt haben, dass sie kein Wert auf neutrale Berichterstattung legen.
Firmen lassen sich nicht einfach ewig alles gefallen. Das Pendel schwingt in beide Richtungen.

aths
2025-05-18, 16:40:18
Das wissen wir alle. Ich meine, 5060 und 5060 TI sind schlussendlich sehr gleiche Produkte. Aber wenn das Fazit eines Reviews schon feststeht, wozu die Aufregung, dass a) andere Previews machen und b) dadurch Reviews zum NDA Fall haben? Das ist genauso lächerlich.

Schlussendlich wird nVidia wohl in Zukunft weniger Reviewer beglücken, weil diese gezeigt haben, dass sie kein Wert auf neutrale Berichterstattung legen.
Firmen lassen sich nicht einfach ewig alles gefallen. Das Pendel schwingt in beide Richtungen.
Hä? Rewiever legen keinen Wert auf neutrale Berichterstattung?

Nvidia versucht, weniger informierten Kunden Produkte anzudrehen die ein eingebautes Ablaufdatum haben. Es ist Aufgabe einer neutralen Berichterstattung, das so klar zu benennen.

Slipknot79
2025-05-18, 17:04:02
Anwendungsgebiet der 5060:
- 720p AAA-Titel
- 1080p A-Titel
- Indie-Games und ältere Spiele und ähnliches (ggf. in 4k)

Alleine der letzte Punkt deckt 98% der Spiele up.

Sardaukar.nsn
2025-05-18, 17:52:08
Anwendungsgebiet der 5060:
- 720p AAA-Titel
- 1080p A-Titel
- Indie-Games und ältere Spiele und ähnliches (ggf. in 4k)

Alleine der letzte Punkt deckt 98% der Spiele up.

Von den Top-10 beliebtesten Grafikkarten auf Steam sind es 8x eine ..60er GPU. https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam?l=german Da wird sich wohl auch irgendwo die 5060er einreihen.

The_Invisible
2025-05-18, 18:02:26
Sind halt die typischen Asia esports/Moba/MMO Karten wo auch 8gb genügen, die haben einen riesen Markt dafür.

Troyan
2025-05-19, 09:05:04
Hä? Rewiever legen keinen Wert auf neutrale Berichterstattung?

Nvidia versucht, weniger informierten Kunden Produkte anzudrehen die ein eingebautes Ablaufdatum haben. Es ist Aufgabe einer neutralen Berichterstattung, das so klar zu benennen.

Nö. Als nVidia mit Lovelace FG eingeführt hat, wurde damit Reflex massenfähig. Wie viele Reviewer testen also die Latenz in Spielen? Keiner. Wie viele weißen darauf hin, dass mit einer nVidia-GPU die Eingabeverzögerung in fast allen AAA und vielen AA deutlich besser ist? Keiner.

Irgendwann stellt sich doch jede Firma die Frage, wozu Reviewer noch besamplen, wenn diese die Softwarevorteile ignorieren.

Raytracing, DLSS 1, DLSS 2, FG, Reflex, MFG - all das wurde immer von Reviewer kritisiert und als irrelevant angesehen.

Ne, die Mainstreamreviewer sind überflüssig geworden.

Raff
2025-05-19, 09:25:52
Ne, die Mainstreamreviewer sind überflüssig geworden.

Definitiv. Kauft mehr Geforce, kauft mehr Nvidia-Aktien, hail to the green king, baby! :ugly:

MfG
Raff

Troyan
2025-05-19, 09:28:50
Definitiv. Kauft mehr Geforce, kauft mehr Nvidia-Aktien, hail to the green king, baby! :ugly:

MfG
Raff

Niemand soll nVidia kaufen. Tangiert mich null.

Aber du kannst doch selbst nicht sagen, man hätte das ganze nicht mit provoziert, weil man Dinge ignoriert. Einfach mal sich auch selbst reflektieren.

Am Ende kann man auch auf nVidia Infos und Hardware-Test verzichten. Und wenn die Leserschaft nur AMD Produkte empfohlen haben möchte, ist es doch okay, nur diese zu testen.

basix
2025-05-19, 09:36:32
Nö. Als nVidia mit Lovelace FG eingeführt hat, wurde damit Reflex massenfähig. Wie viele Reviewer testen also die Latenz in Spielen? Keiner. Wie viele weißen darauf hin, dass mit einer nVidia-GPU die Eingabeverzögerung in fast allen AAA und vielen AA deutlich besser ist? Keiner.

Irgendwann stellt sich doch jede Firma die Frage, wozu Reviewer noch besamplen, wenn diese die Softwarevorteile ignorieren.

Raytracing, DLSS 1, DLSS 2, FG, Reflex, MFG - all das wurde immer von Reviewer kritisiert und als irrelevant angesehen.

Ne, die Mainstreamreviewer sind überflüssig geworden.
Du verzerrst die Wahrheit schon ein wenig ;)
- RT wurde gelobt. War aber nichtexistent in Games bei Turing (ergo geringe Relevanz für Kaufentscheidungen). Seit Ampere wird überall gesagt: Wenn dir RT wichtig ist, nimm Nvidia
- DLSS1 war wirklich kacke
- DLSS2 wurde in der Breite gelobt und als Vorteil für Nvidia-Karten deklariert
- FG wird ebenfalls gelobt, hat aber auch Nachteile
- Reflex hat wohl noch niemand kritisiert. Könnte man aber häufiger hervorheben, das stimmt.
- MFG ist FG. Nvidias Marketing wurde hier kritisiert und nicht die Technik
- DLSS RR wurde stark gelobt
- DLSS4 SR wurde stark gelobt

Und das ist das Bild von mehrheitlich objektiver Berichterstattung. Lob und Kritik wo angebracht. Was willst du da vorwerfen? Vorbehaltlose Lobhudelei auf Nvidia bringt niemandem was. Man darf anerkennen, dass Nvidia neue Technologien pusht und auf den Markt bringt. Das ist definitiv so. Und dafür "danken" wir Nvidia auch mit hohen Marktanteilen und hohen ASP. Leider kommt sehr vieles von Nvidia mit einem Vendor-Lock daher. Ist verständlich. Allerdings nicht wünschenswert für alle Kunden von Consumer-GPUs.

AtTheDriveIn
2025-05-19, 09:38:58
Troyan: In jedem Balken der letzen Jahre wurde gezeigt, das Nvidia die Nase vorn hat. Auf Features eingehen, wurde auch gemacht. Durch die Bank überkritisch gesehen definitiv nicht, aber darauf hingewiesen das Rohrleistung noch immer das Wichtigste ist. Alles richtige Pressearbeit.

Speichermangel ist zurecht ein riesen Kritikpunkt. Als Antwort auf Kritik versucht Nvidia nun die Presse zu schmieren. Deine Antwort: selbst provoziert.

Wtf. Wirklich What the f*uck!? Geht es hier nur noch um Rechthaberei?

basix
2025-05-19, 09:44:49
Ausserdem hätte Nvidia das Thema sehr leicht lösen können:
- 5060 12GB, zumindest als Variante (siehe 5060 Ti 16GB)

Aufgrund GDDR7 hätte das Ding auch mit 96bit genug Bandbreite gehabt. PCBs mit Clamshell gibt es aufgrund der 5060 Ti auch schon.

Raff
2025-05-19, 09:54:31
Ausserdem hätte Nvidia das Thema sehr leicht lösen können:
- 5060 12GB, zumindest als Variante (siehe 5060 Ti 16GB)

Aufgrund GDDR7 hätte das Ding auch mit 96bit genug Bandbreite gehabt. PCBs mit Clamshell gibt es aufgrund der 5060 Ti auch schon.

Das kann man nicht oft genug betonen. Die RTX 5060 wäre mit 12 GiB für 300 Euro ein richtig gutes Angebot. Aber man hat sich dagegen und stattdessen für fragwürdige Stunts entschieden.

Die RTX 5060 8GB darf dann gerne China-only sein, wenn da so viele Leute jede Generation für 20 Prozent mehr Fps in DOTA aufrüsten.

MfG
Raff

robbitop
2025-05-19, 10:19:37
Wenn Nvidia irgendwann mal den Compute Frame Generation Teil von DLSS FG oder Smooth Motion auf eine zweite GPU offloaden kann (so wie das bei AMDs AFMF2.1 oder auch LSFG3 geht), wäre eine 5060 8 GB eine coole GPU auch für uns Enthusiasten. :)
Ist schon geil bei FG wenn die Input FPS nicht einbrechen und die Output FPS sich tatsächlich ver-n-fachen. Das ist gut für Reduktion von FG Artefakten und Reduktion von Latenz.
Da FG ja ohnehin um 1 Frame verzögert ist, sollte das auch gutem Frame Generation wie DLSS FG (und den Äquivalenten von AMD und Intel) gehen.

Troyan
2025-05-19, 10:22:45
Troyan: In jedem Balken der letzen Jahre wurde gezeigt, das Nvidia die Nase vorn hat. Auf Features eingehen, wurde auch gemacht. Durch die Bank überkritisch gesehen definitiv nicht, aber darauf hingewiesen das Rohrleistung noch immer das Wichtigste ist. Alles richtige Pressearbeit.

Speichermangel ist zurecht ein riesen Kritikpunkt. Als Antwort auf Kritik versucht Nvidia nun die Presse zu schmieren. Deine Antwort: selbst provoziert.

Wtf. Wirklich What the f*uck!? Geht es hier nur noch um Rechthaberei?

Also bitte. Diese Geschichtsrelativierung ist unglaublich. PCGH war deutlich besser als andere, aber die ganzen Softwaresachen wurden doch stiefmutterlich behandelt. Und sie wurden solange ignoriert, wie es nicht mehr ging.

Und jetzt? AMD 5700XT Leute können kein Doom Dark Ages spielen, RDNA2 Leute haben noch beschissenere UE5 Leistung, miserabeles Upscaling und Anti-Lag ist nicht verfügbar(?). RDNA3 Leute haben keinen Zugriff auf FSR4, weil es künstlich beschränkt wird.
Schau dir einfach die ganzen US Videos der Youtuber an. Es war eine reine Hetze gegen nVidia und pushen von AMD.

Vielleicht ist es für alle eben das beste, wenn man keine Beziehung mehr pflegt. nVidia kann auf Gaming verzichten, PC Spieler müssen sich in Zukunft mit AMD Schrott begnügen und Youtuber können weiterhin Rage-Videos machen, wie böse nVidia ist.

basix
2025-05-19, 10:28:13
Wenn Nvidia irgendwann mal den Compute Frame Generation Teil von DLSS FG oder Smooth Motion auf eine zweite GPU offloaden kann (so wie das bei AMDs AFMF2.1 oder auch LSFG3 geht), wäre eine 5060 8 GB eine coole GPU auch für uns Enthusiasten. :)
Ist schon geil bei FG wenn die Input FPS nicht einbrechen und die Output FPS sich tatsächlich ver-n-fachen. Das ist gut für Reduktion von FG Artefakten und Reduktion von Latenz.
Da FG ja ohnehin um 1 Frame verzögert ist, sollte das auch gutem Frame Generation wie DLSS FG (und den Äquivalenten von AMD und Intel) gehen.

Interessanter Gedanke. Müsste technisch doch eigentlich machbar sein. Aber: Wirst du wirklich was gewinnen? Du willst nach Abschluss des Frames möglichst schnell das FG Frame generieren (sonst eben Framerate Reduktion sowie Latenzzuwachs). Und das wird auf der (schnelleren) Haupt-GPU sicher schneller vonstatten gehen.

Dann lieber extrapolieren anstatt interpolieren und dazu noch Framewarp obendrauf. Dann fühlen sich generierte Frames besser an als heute gerenderte Frames (da kein Framewarp) ;) Dann können wir bei FG auch wieder von Performance sprechen ;)

MiamiNice
2025-05-19, 11:43:49
Nö. Als nVidia mit Lovelace FG eingeführt hat, wurde damit Reflex massenfähig. Wie viele Reviewer testen also die Latenz in Spielen? Keiner. Wie viele weißen darauf hin, dass mit einer nVidia-GPU die Eingabeverzögerung in fast allen AAA und vielen AA deutlich besser ist? Keiner.

Irgendwann stellt sich doch jede Firma die Frage, wozu Reviewer noch besamplen, wenn diese die Softwarevorteile ignorieren.

Raytracing, DLSS 1, DLSS 2, FG, Reflex, MFG - all das wurde immer von Reviewer kritisiert und als irrelevant angesehen.

Ne, die Mainstreamreviewer sind überflüssig geworden.
Definitiv. Kauft mehr Geforce, kauft mehr Nvidia-Aktien, hail to the green king, baby! :ugly:

MfG
Raff

@Raff:
Ich möchte mich eindeutig von Troyan seinen Äusserungen distanzieren ^^ aber hier hat er definitiv einen Punkt (Wenn auch falsch herum, den ihr hättet alle zusammen gegen NV stehen müssen). Ihr habt zugelassen, dass NV euch Vorgaben macht. Anfangs um einen Boni dadurch zu bekommen. Ich habt nicht gecheckt, dass NV euch nur ausbooten wollte und das mittlerweile getan hat. Ihr habt dabei geholfen eine Eigenart salonfähig zu machen (Hersteller macht Reviewer Vorschriften und belohnt treue Redakteure mit Testmustern), die euer aller Jobs beenden wird. Ich prangere das schon seit Ewigkeiten an.
Ihr wurdet allesamt von Lederjacke in den Allerwertesten genagelt und hattet nicht die Weitsicht das zu erkennen. Ihr hattet nur Dollars in den Augen :D

robbitop
2025-05-19, 11:45:29
Interessanter Gedanke. Müsste technisch doch eigentlich machbar sein. Aber: Wirst du wirklich was gewinnen? Du willst nach Abschluss des Frames möglichst schnell das FG Frame generieren (sonst eben Framerate Reduktion sowie Latenzzuwachs). Und das wird auf der (schnelleren) Haupt-GPU sicher schneller vonstatten gehen.

Dann lieber extrapolieren anstatt interpolieren und dazu noch Framewarp obendrauf. Dann fühlen sich generierte Frames besser an als heute gerenderte Frames (da kein Framewarp) ;) Dann können wir bei FG auch wieder von Performance sprechen ;)

Mit LSFG3 funktioniert das tatsächlich. Und es gibt Latenzmessungen die Zeigen, dass man IIRC 10 ms besser ist als DLSS FG. Die zweite GPU muss auch tatsächlich ackern. Da gibt es auf Reddit einige sehr interessante Messungen und Berichte. Hier einer davon mit Messungen:
https://www.reddit.com/r/losslessscaling/comments/1hye9dl/lsfg_2_vs_3_vs_dlss_3_cyberpunk_2077_latency/


Bei mir verhagelt es leider meine 3080 die ich als LSFG GPU abgestellt hab und die 5070ti das Rendern übernimmt. Die 3080 zeigt schon ohne LSFG bei 300 fps und 1440p ~80% Auslastung - anscheinend ist das Annehmen des Streams über PCIe bei der 3080 kommend von der 5070ti irgendwie im Treiber kaputt. Da muss die GPU dann für etwas ackern was sonst der HW Block übernimmt. Wenn ich beides umtausche also die 3080 rendern lasse und die 5070ti für den DP Output ist da fast keine Auslastung und LSFG funktioniert perfekt. Also kein Einbruch der input FPS.
PCIe 4x 4.0 reicht locker aus auf jeden Fall. Ich habe einfach mal in Rocket League die FPS über den PCIe blasen lassen und komme da auf >400 und da ist die PCIe Bus load noch bei 70% bei der 4x Karte.

Da alles fest in einer Wakü verbaut ist hab ich gerade keinen Bock. Ich werde aber irgendwann die 3080 rausschmeissen und verkaufen (weil sie mir mit dem bug nichts bringt) und mal testweise gegen die 4060 aus meinem UnRaid Server tauschen.

Frameextrapolation:
IMO gilt wie immer: je mehr Werkzeuge im Werkzeuggürtel desto besser und "the right tool for the right job". Mit Frame Generation wird man technologienormiert (auch FG entwickelt sich weiter) und Auflösungsnormiert und fps normiert wahrscheinlich artefaktärmer bleiben. Auch wenn Extrapolation immer besser zu werden scheint laut Intels paper.

Für mich ist Frame Generation etwas, was nicht zwangsweise Spiele spielbarer macht. Es ist etwas was die Bildqualität erhöht in dem es die Bewegbildschärfe erhöht. Und das bedeutet man braucht dafür eine grundsätzlich hohe Inputframerate. Ich gerne >100 fps. Bei aufgestülptem FG sogar eher mehr. 120-130 fps. (wobei Smooth Motion von Nvidia - das kann ich jetzt bestätigen - DEUTLICH besser aussieht als LSFG3. Aber auch dort vermute ich wird es weitere Entwicklungen geben).
Aber bei dreistelliger fps Anzahl und leerer renderqueue (Antilag 2, Reflex, GPU teillast / CPU Limit etc) ist die Latenz IMO schon so gut, dass es kein Problem mehr gibt.

Extrapolation wäre ggf eher ein Werkzeug um Spiele spielbarer zu machen und sicherlich gibt es dann auch einen fps Bereich wo beides ineinander verschwimmt.

Raff
2025-05-19, 11:48:24
@Raff:
Ich möchte mich eindeutig von Troyan seinen Äusserungen distanzieren ^^ aber hier hat er definitiv einen Punkt. Ihr habt zugelassen, dass NV euch Vorgaben macht. Anfangs um einen Boni dadurch zu bekommen. Ich habt nicht gecheckt, dass NV euch nur ausbooten wollte und das mittlerweile getan hat. Ihr habt dabei geholfen eine Eigenart salonfähig zu machen, die euer aller Jobs beenden wird. Ich prangere das schon seit Ewigkeiten an.
Ihr wurdet allesamt von Lederjacke in den Allerwertesten genagelt und hattet nicht die Weitsicht das zu erkennen. Ihr hattet nur Dollars in den Augen :D

Es gab nie Vorgaben, nur Wünsche.

MfG
Raff

AtTheDriveIn
2025-05-19, 12:36:59
Also bitte. Diese Geschichtsrelativierung ist unglaublich. PCGH war deutlich besser als andere, aber die ganzen Softwaresachen wurden doch stiefmutterlich behandelt. Und sie wurden solange ignoriert, wie es nicht mehr ging.

Und jetzt? AMD 5700XT Leute können kein Doom Dark Ages spielen, RDNA2 Leute haben noch beschissenere UE5 Leistung, miserabeles Upscaling und Anti-Lag ist nicht verfügbar(?). RDNA3 Leute haben keinen Zugriff auf FSR4, weil es künstlich beschränkt wird.
Schau dir einfach die ganzen US Videos der Youtuber an. Es war eine reine Hetze gegen nVidia und pushen von AMD.

Vielleicht ist es für alle eben das beste, wenn man keine Beziehung mehr pflegt. nVidia kann auf Gaming verzichten, PC Spieler müssen sich in Zukunft mit AMD Schrott begnügen und Youtuber können weiterhin Rage-Videos machen, wie böse nVidia ist.

Ich schaue die großen Tech Reviewer allemsamt seit Jahren, die "reine Hetze" gab es nur in deinem Kopf.

robbitop
2025-05-19, 12:48:26
Und deren Argumente machen (was ich bis dahin gesehen habe) auch Sinn.

Hakim
2025-05-19, 12:56:30
Es wird kritisiert was zu kritisieren ist. Nur so als Beispiel als AMD bei der Referenz 7900XTX verkackt hat, hat man das auch entsprechend kritisiert, oder die Sache mit dem RX480 Referenz und dem 75Watt über den PCIe slot etc. Derzeit kann man z.B AMD für den "Fake" UVP Kritisieren, und das AMD trotz des Posts dagegen was machen zu wollen nichts großartiges passiert.

Nvidia hat halt bei BW einiges verkackt und das gehört auch aufgezeig und hat nichts mit Hetze zu tun

basix
2025-05-19, 13:51:55
Mit LSFG3 funktioniert das tatsächlich. Und es gibt Latenzmessungen die Zeigen, dass man IIRC 10 ms besser ist als DLSS FG. Die zweite GPU muss auch tatsächlich ackern. Da gibt es auf Reddit einige sehr interessante Messungen und Berichte. Hier einer davon mit Messungen:
https://www.reddit.com/r/losslessscaling/comments/1hye9dl/lsfg_2_vs_3_vs_dlss_3_cyberpunk_2077_latency/

Ich würde behaupten mit DLSS4 ist der Unterschied zu Dual-GPU LSFG2 deutlich geringer bis non-existent. DLSS3 war da einfach nicht das gelbe (oder grüne) vom Ei

robbitop
2025-05-19, 13:57:03
Ich würde behaupten mit DLSS4 ist der Unterschied zu Dual-GPU LSFG2 deutlich geringer bis non-existent. DLSS3 war da einfach nicht das gelbe (oder grüne) vom Ei
Schwer zu sagen. FG muss ja sowieso 1 Frame verzögert werden. Wenn der compute dafür nicht auf der main gpu läuft, sondern woanders, kann die Haupt GPU wieder am nächsten Frame arbeiten. Compute ist da bei 1440p bei in etwa 3-4 ms. Das haut gerade bei hohen FPS ordentlich in's Kontor. Das sollte prinzipbedingt also IMMER eine Latenzreduktion + FPS Steigerung bringen. :)
Entsprechend gäbe es mit einem dual GPU DLSS FG Mode höhere input fps, dementsprechend höhere output fps und das auf jeden Fall nicht zum Nachteil der Latenz.

BTW:
Die Messreihe war anscheinend bei 60 fps gelockt. Entsprechend kann es da sogar noch sehr sehr positiv für DLSS FG vs LSFG3 mGPU aussehen. Weil (ist ja eine 4090) die 3 ms sicherlich noch "über" waren und die input fps dann kaum bis gar nicht runterziehen. Messungen mit deutlich höheren Frameraten und GPUs die repräsentativer für eine Massen GPU wäre (eine 70er GPU zB) würde sich da die Schere der Latenz und Input/Outputframerate wahrscheinlich sogar eher noch weiter öffnen.

Troyan
2025-05-19, 14:00:17
Ich schaue die großen Tech Reviewer allemsamt seit Jahren, die "reine Hetze" gab es nur in deinem Kopf.

Wo befinden sich bei dir die Augen:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92995&stc=1&d=1747655981

Findest du solche Überschriften und Videos normal? Stellt sich da wirklich die Frage, wieso nVidia noch mit dem zusammenarbeiten will?

/edit: Das sind ca. 1/4 der veröffentlichenden Videos seit vier Monaten auf dem Channel.

robbitop
2025-05-19, 14:07:11
Reißerische Überschriften und Thumbnails sind bei Youtube normal und sind für den Algoritmus leider nötig. Aber die Kernaussagen der von dir genannten Videos sind auch nicht falsch. Wer die Videos objektiv schaut, merkt das.

dildo4u
2025-05-19, 14:08:16
Wo ist das Problem letztes Jahr haben alle auf Intel geschissen und jetzt bekommen wird deutlich bessere Preise.

https://www.golem.de/news/desktop-prozessor-intel-senkt-preis-fuer-core-ultra-7-265k-deutlich-2505-196115.html

Und AMD wird sein fett weg bekommen wenn sie eine 9600XT mit 8GB bringen.

robbitop
2025-05-19, 14:10:14
Zu Recht. 8 GB GPUs in 2025 sind einfach unpassend. Bzw ich denke grundsätzlich wenn der Preis entsprechend low end und das Produkt dann auch als Einsteigerprodukt vermarktet wird (MOBAs, alte Spiele, low quality settings etc) ist, ist es wahrscheinlich ok.

AtTheDriveIn
2025-05-19, 14:13:38
Wo befinden sich bei dir die Augen:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92995&stc=1&d=1747655981

Findest du solche Überschriften und Videos normal? Stellt sich da wirklich die Frage, wieso nVidia noch mit dem zusammenarbeiten will?

/edit: Das sind ca. 1/4 der veröffentlichenden Videos seit vier Monaten auf dem Channel.

1. Schau den Content, gerade Steve / Gamers Nexus ist eine Bank für uns Consumer.
2. Alles Blackwell, wo es objektiv nun mal einfach seeeehr viel zu kritisieren gibt :freak:
3. Findest ähnliches wenn es bei anderen was zu kritisieren gibt. ASUS, AMD, Intel, LTT,... Gerne empfehle ich seine Verrisse von faktisch schlechten Pre-Built Systemen von Corsair, Alienware und NZXT ;)

Troyan
2025-05-19, 14:14:42
Reißerische Überschriften und Thumbnails sind bei Youtube normal und sind für den Algoritmus leider nötig. Aber die Kernaussagen der von dir genannten Videos sind auch nicht falsch. Wer die Videos objektiv schaut, merkt das.

Sorry, aber "Fake Frames" hat nichts mehr mit Objektivität zu tun. Es ist auch eine Beleidigung für die Arbeit der Leute bei nVidia, die überhaupt sowas realisieren können.

Und dann heult der Typ rum, dass nVidia keinen Zugriff mehr auf Leute aus der Firma geben will? Lächerlich.

robbitop
2025-05-19, 14:16:35
Das endkundenunfreundliche Verhalten von Nvidia worauf obige Videos zT abzielen zeigt eigentlich nur eines: wir brauchen mehr Wettbewerb. Jedes Unternehmen, was eine Vormachtstellung hat, wird das ausnutzen. Companies are not your friends.

Troyan
2025-05-19, 14:18:18
Das endkundenunfreundliche Verhalten von Nvidia worauf obige Videos zT abzielen zeigt eigentlich nur eines: wir brauchen mehr Wettbewerb. Jedes Unternehmen, was eine Vormachtstellung hat, wird das ausnutzen. Companies are not your friends.

Wir haben Konkurrenz. Diese wurde nur jahrelang durch solche Youtuber beschützt. Oder wo ist die Kritik vom Tag 1 an RDNA2 gewesen? Oder an den miserablen RDNA3 Karten? Wo sind die Videos, die massiv AMD kritisieren, dass FSR4 per gatekeeping von den älteren Karten ferngehalten wird?

Wäre man viel früher viel härter mit AMD so umgegangen, würde der Markt heute anders aussehen.

robbitop
2025-05-19, 14:20:27
Sorry, aber "Fake Frames" hat nichts mehr mit Objektivität zu tun. Es ist auch eine Beleidigung für die Arbeit der Leute bei nVidia, die überhaupt sowas realisieren können.

Und dann heult der Typ rum, dass nVidia keinen Zugriff mehr auf Leute aus der Firma geben will? Lächerlich.

Er sagt, dass ihnen der Zugriff auf Leute entzogen wird, wenn sie nicht den Vorgaben von Nvidia für das Benchmarken folgen. Das ist was anderes.

Weiterhin sagt er in den Videos nicht, dass Frame Generation schlecht ist. Aber dass generated Frames (insbesondere mit MFG Faktoren) auch keine echten ersetzen und man das nicht 1:1 vergleichen kann - und genau da liegt die Kritik - wenn Nvidia zB behauptet die 5070ti ist so schnell wie eine 4090 was einfach nicht wahr ist. IIRC wird der Mehrwert von FG auch betont aber der Vergleich ist schief. Nvidia hätte aber den Vergleich gerne so dagestellt.
Dass es reißerisch ist - damit muss man IMO rechnen wenn es schon eine Regelmäßigkeit hat, dass endkundenunfreundliches Verhalten auftritt.

Wir haben Konkurrenz. Diese wurde nur jahrelang durch solche Youtuber beschützt. Oder wo ist die Kritik vom Tag 1 an RDNA2 gewesen? Oder an den miserablen RDNA3 Karten? Wo sind die Videos, die massiv AMD kritisieren, dass FSR4 per gatekeeping von den älteren Karten ferngehalten wird?

Wäre man viel früher viel härter mit AMD so umgegangen, würde der Markt heute anders aussehen.
Wir haben 90% Marktanteil von Nvidia. Das ist kein echter Wettbewerb im Sinne des Endkunden. Und wie man das ausmelkt zeigt man Generation für Generation. (und AMD macht da auch ein Stück weit sogar mit). Und natürlich nutzt Nvidia ihre Vormachtstellung aus zur Maximierung des Profits und nicht im Sinne des Endkundens (was normal im Kapitalismus ist und nichts negatives ist - sie handeln im Sinne ihrer Investoren). Entsprechend hilft nur mehr Wettbewerb. Also so viele wie mögliche Kontrahenten mit so ähnlichem wie möglichen Marktanteil. Und Angebot > Nachfrage.

FSR4 ist kein arbiträres Gatekeeping wie man es mit FG auf Ampere und MFG auf Blackwell oder Smooth Motion auf Blackwell betreibt. FSR4 ist ein NN Upscaler - sogar mit Transformeranteil - das braucht damit es sinnvoll läuft Matrix Cores und die gibts erst ab RDNA4 bei AMD. Und sie haben bereits bestätigt dass sie an einer Version für RDNA3 arbeiten (die wahrscheinlich auf Transformer verzichten muss, damit sie darauf sinnvoll laufen kann). Diesen Schritt hat Nvidia nie für Geforces gemacht die keine Matrix Cores haben. Im Prinzip ist AMDs FSR4 das historische Äquivalent von DLSS2 (dass es nie auf Pascal gab). Man brauchte Matrix Cores und alte Gens haben das nicht. AMD hat den non NN Pfad ausgeritten und ist an eine Grenze gestoßen. Aber immerhin arbeitet AMD daran es eben doch für die Vorgänger Gen best möglich zu bringen.

AtTheDriveIn
2025-05-19, 14:35:06
Sorry, aber "Fake Frames" hat nichts mehr mit Objektivität zu tun. Es ist auch eine Beleidigung für die Arbeit der Leute bei nVidia, die überhaupt sowas realisieren können.

Und dann heult der Typ rum, dass nVidia keinen Zugriff mehr auf Leute aus der Firma geben will? Lächerlich.

"Fake Frames" heißt es auch bei AMD.

Gamers Nexus hat in den letzten Monaten sehr detaillierten Content erzeugt, in denen Nvidia Ingenieure auftreten und sehr tolle Details liefern. Z.b. zum 5090 FE Kühlkonzept. Wirklich top content. Schau es dir an!

Nun sagt Nvidia zu GN, dass sowas nur noch geht, wenn man zukünftig MFG in die Vergleichsbalken einbaut und mehr Fokus auf deren proprietäre Feature legt. Also kurz dem Marketing BS von Jensen (5070ti = 4090 für 580$) verbreitet.

Das ist schon next-level fragwürdig.

Wohl der Zeitgeist: Pfeif auf öffentlichen Aufschrei und Anstand, Gier und Bereicherung über alles. Was dann noch on-top kommt, sind Kunden die sich auch noch zum Steigbügelhalter dafür machen. Parallelen zur aktuellen Politik sind extrem offensichtlich.

Armaq
2025-05-19, 14:36:10
Ein Monopolist kann halt machen was er will.

Wir können da viel drumherum reden, aber nvidia hat ein Monopol und jetzt verhalten sie sich vollends so. Die ganzen staatsnahen Dienstleistungen verhalten sich allesamt so. Sie haben extrem hohe Preise verlangt und die wurden klassenübergreifend auch gezahlt.

Mit AI wird es jetzt noch schlimmer und offenbar hat Jensens AI Overlord gesagt, quetsch die Presseheinis aus, die sind eh unfähig sich zu wehren.

Troyan
2025-05-19, 15:03:54
Er sagt, dass ihnen der Zugriff auf Leute entzogen wird, wenn sie nicht den Vorgaben von Nvidia für das Benchmarken folgen. Das ist was anderes.

Sage ich ja: nVidia gibt die Ressourcen nicht mehr einfach her. Aber wieso das überhaupt relevant ist, wird überhaupt nicht erklärt. Denn dies ist eine Freiwilligkeit von nVidia, um über ihr Produkt zu reden. Wenn ein Channel aber in allen anderen Videos über die Produkte herzieht, muss man sich selbst fragen, ob man so ein Angebot überhaupt annehmen sollte.


Weiterhin sagt er in den Videos nicht, dass Frame Generation schlecht ist. Aber dass generated Frames (insbesondere mit MFG Faktoren) auch keine echten ersetzen und man das nicht 1:1 vergleichen kann - und genau da liegt die Kritik - wenn Nvidia zB behauptet die 5070ti ist so schnell wie eine 4090 was einfach nicht wahr ist. IIRC wird der Mehrwert von FG auch betont aber der Vergleich ist schief. Nvidia hätte aber den Vergleich gerne so dagestellt.
Dass es reißerisch ist - damit muss man IMO rechnen wenn es schon eine Regelmäßigkeit hat, dass endkundenunfreundliches Verhalten auftritt.

Natürlich kann man es 1:1 vergleichen. FG und MFG unterscheiden sich null.
Und technischen Fortschritt zu ignorieren, macht solche Reviewer eben belanglos.

Exxtreme
2025-05-19, 15:06:24
Sage ich ja: nVidia gibt die Ressourcen nicht mehr einfach her.

Naja, einen Download-Link anzubieten ist ja jetzt nicht so der Aufwand. Zumal der DL-Link ja offenbar bereits existiert. Da andere "Reviewer", die hier gefälliger sind, den ja bekommen.

robbitop
2025-05-19, 15:10:35
Sage ich ja: nVidia gibt die Ressourcen nicht mehr einfach her. Aber wieso das überhaupt relevant ist, wird überhaupt nicht erklärt. Denn dies ist eine Freiwilligkeit von nVidia, um über ihr Produkt zu reden. Wenn ein Channel aber in allen anderen Videos über die Produkte herzieht, muss man sich selbst fragen, ob man so ein Angebot überhaupt annehmen sollte.

Wenn es an Bedingungen gekoppelt wird, wie das review gemacht wird (was und wie gebencht wird damit ein Produkt besonders vorteilhaft aussieht), ist das sehr wohl kritikwürdig. Und genau das war der Fall.


Natürlich kann man es 1:1 vergleichen. FG und MFG unterscheiden sich null.
Und technischen Fortschritt zu ignorieren, macht solche Reviewer eben belanglos.
Darum ging es nicht sondern darum FG und MFG mit nativen Frames zu vergleichen und 1:1 gleichzusetzen.
Und natürlich unterscheidet sich das Ergebnis bei MFG und FG. Bei FG sieht man 50% der Zeit native Frames und 50% der Zeit interpolierte, welche auch Artefakte enthalten können. Bei MFG ist das bis zu 75% der Zeit der Fall. Entsprechend fallen dem menschlichen Auge Artefakte dann auch mehr auf.

Troyan
2025-05-19, 15:20:56
Wenn es an Bedingungen gekoppelt wird, wie das review gemacht wird (was und wie gebencht wird damit ein Produkt besonders vorteilhaft aussieht), ist das sehr wohl kritikwürdig. Und genau das war der Fall.

Er bekommt Clicks durch nVidia. Wieso sollte dies nur einen einseitigen Effekt haben? Oder denkst du, dass jemand sich dann die zerrissene Karte kauft, weil ein Video vorher jemand von nVidia was über den Kühler, Latenz oder DLSS erzählt hat? Es ist für nVidia sinnlos.


Darum ging es nicht sondern darum FG und MFG mit nativen Frames zu vergleichen und 1:1 gleichzusetzen.
Und natürlich unterscheidet sich das Ergebnis bei MFG und FG. Bei FG sieht man 50% der Zeit native Frames und 50% der Zeit interpolierte, welche auch Artefakte enthalten können. Bei MFG ist das bis zu 75% der Zeit der Fall. Entsprechend fallen dem menschlichen Auge Artefakte dann auch mehr auf.

Nö, man sieht keinen Unterschied. Da du zwei weitere Frames hast, befindest du doch sowieso soweit oben, dass das alles nicht relevant ist.

Ansonsten ist es genauso irrelevant wie Fake Grafik aka Rasterizing. Die ist voll von Artefakten.

AtTheDriveIn
2025-05-19, 15:27:10
Naja, einen Download-Link anzubieten ist ja jetzt nicht so der Aufwand. Zumal der DL-Link ja offenbar bereits existiert. Da andere "Reviewer", die hier gefälliger sind, den ja bekommen.
Er meint wahrscheinlich Zugang zu Ingenieuren.

Muss Nvidia nicht machen, doch wenn sie es erst tun, um dann eine Drohkulisse aufzubauen ist das sehr befremdlich. Ich sehe nix wo GN bezüglich Blackwell nicht wahres Wort spricht. Die Kritik kommt ja auch nicht nur von GN, sondern der Mehrheit. Selbst deutsche Reviewer/Presse sieht das Nvidiagebahren sehr kritisch. Außerdem hört man von Kritik seitens der Boardpartner. EVGA ist zum Beispiel ausgestiegen...

Fehler liegt natürlich nie bei Nvidia, sondern immer den Anderen.

Nvidia verhält sich wie MS in den 90ern und Intel (bis vor kurzem). Allerdings auf Steroiden.

Armaq
2025-05-19, 15:38:31
Er bekommt Clicks durch nVidia. Wieso sollte dies nur einen einseitigen Effekt haben? Oder denkst du, dass jemand sich dann die zerrissene Karte kauft, weil ein Video vorher jemand von nVidia was über den Kühler, Latenz oder DLSS erzählt hat? Es ist für nVidia sinnlos.



Nö, man sieht keinen Unterschied. Da du zwei weitere Frames hast, befindest du doch sowieso soweit oben, dass das alles nicht relevant ist.

Ansonsten ist es genauso irrelevant wie Fake Grafik aka Rasterizing. Die ist voll von Artefakten.
Das stimmt überhaupt nicht. MFG erschafft viele Artefakte, sogar in den Promo Titeln. Off und 4x ist ein gewaltiger Unterschied insbesondere in Bewegung.

Lehdro
2025-05-19, 16:10:58
Als nVidia mit Lovelace FG eingeführt hat, wurde damit Reflex massenfähig. Wie viele Reviewer testen also die Latenz in Spielen? Keiner. Wie viele weißen darauf hin, dass mit einer nVidia-GPU die Eingabeverzögerung in fast allen AAA und vielen AA deutlich besser ist? Keiner.

Klassischer Fall von selber Schuld von NV:
Wie wird denn Reflex getestet? Sehr oft ist es nur folgende Kombination:
Reflex + FG/MFG an gegen Reflex/FG/MFG aus
Jo, danke für nichts. Wer hat das genau so beworben? Nvidia höchstselbst auf den Folien. Cool, cool. Bestimmt ein Zufall.

Nächstes Thema: MFG
Wie wird es mitgetestet? (M)FG nur bei 50er Karten, als hätten die 40er kein FG gehabt. Fällt mir besonders bei PCGH immer wieder auf:
5090 Review (Fake Frames nur für Blackwell) (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/4/)
5080 Review (Fake Frames nur für Blackwell) (https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/4/)
5070 Ti Review (Fake Frames nur für Blackwell) (https://www.pcgameshardware.de/Geforce-RTX-5070-Ti-Grafikkarte-281031/Tests/Release-Preis-Test-Benchmarks-vs-5080-1466041/4/)
5070 Review (Fake Frames nur für Blackwell) (https://www.pcgameshardware.de/Geforce-RTX-5070-Grafikkarte-281032/Tests/Preis-Release-Test-RTX-5070-Ti-vs-5070-1467175/4/)
5060 Ti Review (Fake Frame nur für Blackwell) (https://www.pcgameshardware.de/Geforce-RTX-5060-Ti-16GB-Grafikkarte-281131/Tests/Release-Review-Preis-kaufen-Benchmark-Specs-1470373/4/)
Bestimmt ein Zufall. Ach nee, bei der 5060 sehen wir jetzt dass das NV explizit so proviziert, denn die 4060 darf einfach nicht mitgetestet werden, dann gibt es dieses Problem gar nicht erst. Ah, herrlich.

Raff
2025-05-19, 16:14:20
Ist jetzt jeder Zusatztest, der mich weitere Überstunden kostet, tatsächlich "böse" oder doch der Mehrwert, als der er gedacht ist? ;) Das ist jeweils nur ein Spiel, um die heftigen Unterschiede zu zeigen. Bei der RTX 5060 werde ich das konsequenterweise nachher/heute Nacht auch machen. Und die RTX 4060 wird selbstverständlich über den kompletten Parcours enthalten sein.

MfG
Raff

robbitop
2025-05-19, 16:20:35
Er bekommt Clicks durch nVidia. Wieso sollte dies nur einen einseitigen Effekt haben? Oder denkst du, dass jemand sich dann die zerrissene Karte kauft, weil ein Video vorher jemand von nVidia was über den Kühler, Latenz oder DLSS erzählt hat? Es ist für nVidia sinnlos.
OK du scheinst keinen moralischen Kompass zu haben. Dass sich freie Berichterstattung mit Erpressung beißt, sollte jedem, der einen hat sofort klar sein.



Nö, man sieht keinen Unterschied. Da du zwei weitere Frames hast, befindest du doch sowieso soweit oben, dass das alles nicht relevant ist.
Also ich kann das nicht bestätigen. Ich sehe mit MFG erstens mehr Artefakte und wenn zB MW5 Clans auf 180 fps einbricht (4x MFG) ist es ein richtiges Gestotter. Überhaupt nichtmal annähernd vergleichbar mit realen Frames.

ISt MFG ein Mehrwert? Ja. Aber 1:1 vergleichbar? IMO nein.


Ansonsten ist es genauso irrelevant wie Fake Grafik aka Rasterizing. Die ist voll von Artefakten.
Um Rasterizing ging es doch gar nicht? Thema verfehlt?

Du bestätigst mir immer wieder, dass du ein fanatischer Fanboy bist und objektive Diskussionen mit dir nicht möglich sind.

Lehdro
2025-05-19, 16:23:57
Ist jetzt jeder Zusatztest, der mich weitere Überstunden kostet, tatsächlich "böse" oder doch der Mehrwert, als der er gedacht ist? ;)
Mich stört nicht der Zusatztest oder gar der Test an sich, sondern die Positionierung eben dessen. Es suggeriert halt etwas was nicht der Realität entspricht UND stellt Sachen gegenüber die man nicht 1:1 vergleichen kann oder gar sollte.

Und die RTX 4060 wird selbstverständlich über den kompletten Parcours enthalten sein.

:cool:

Troyan
2025-05-19, 16:44:16
Klassischer Fall von selber Schuld von NV:
Wie wird denn Reflex getestet? Sehr oft ist es nur folgende Kombination:
Reflex + FG/MFG an gegen Reflex/FG/MFG aus
Jo, danke für nichts. Wer hat das genau so beworben? Nvidia höchstselbst auf den Folien. Cool, cool. Bestimmt ein Zufall.

Was hat nVidia mit den Tests zu tun?
Mit Lovelace und FG hat nVidia doch klargestellt, dass jedes Spiel mit DLSS 3 auch Reflex unterstützt:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/ada/news/dlss3-ai-powered-neural-graphics-innovations/nvidia-dlss-supported-features.png
https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/

Geschichtsrelativierung sondersgleichen.

VooDoo7mx
2025-05-19, 19:40:10
OK du scheinst keinen moralischen Kompass zu haben. Dass sich freie Berichterstattung mit Erpressung beißt, sollte jedem, der einen hat sofort klar sein.
Du solltest mal echt einen Gang Dramatik runterschrauben.
Du tust ja praktisch schon so als ob hier einen Regierungsskandal gäbe, wo Milliarden veruntreut wurden und dann die Regierung Informationen zurück hält und Journalisten einschüchtert.

Wir reden hier von einen Privatunternehmen was Luxusprodukte anbietet die niemand auch nur im Ansatz benötigt um seinen Lebensunterhalt zu beschreiten. Es werden weder Gelder veruntreut noch kommt jemand hier irgendwie zu Schaden.
Wenn das Produkt raus ist, kann es doch jeder testen wie er mag, einschließlich Fall- und Flüssigkeitstest.

Auch passiert hier rein gar nichts illegales. Und wenn man es so sehen will, kann man auch jede NDA Unterzeichnung als eine Art Erpressung sehen. Egal ob AMD oder nVidia.

Das die Presse und die üblichen Youtuber mit aufspringen ist geschenkt, dass Drama bringt natürlich fett Kohle. Wäre ja doof wenn man das nicht mit nimmt.

Ex3cut3r
2025-05-19, 19:53:42
Ich bin wirklich kein Fan von Troyan, aber das Verhalten wirkt schon ziemlich ungewöhnlich.

Vermutlich geht es hauptsächlich um Klicks und Einnahmen – anders lässt sich das kaum noch erklären. Offenbar spricht er damit genau die Gamer an, die noch immer auf älteren Pascal-Grafikkarten sitzen, obwohl es seit 2018 bereits RTX-fähige Modelle gibt. Gerade bei Themen wie Doom: The Dark Ages ist das Klagen in den Steam-Foren aktuell besonders hoch. Weil Karten wie die 10er-Gen ausgeschlossen sind.

https://s1.directupload.eu/images/250519/y6lhsuag.jpg

AtTheDriveIn
2025-05-19, 20:47:33
Du solltest mal echt einen Gang Dramatik runterschrauben.
Du tust ja praktisch schon so als ob hier einen Regierungsskandal gäbe, wo Milliarden veruntreut wurden und dann die Regierung Informationen zurück hält und Journalisten einschüchtert.

Wir reden hier von einen Privatunternehmen was Luxusprodukte anbietet die niemand auch nur im Ansatz benötigt um seinen Lebensunterhalt zu beschreiten. Es werden weder Gelder veruntreut noch kommt jemand hier irgendwie zu Schaden.
Wenn das Produkt raus ist, kann es doch jeder testen wie er mag, einschließlich Fall- und Flüssigkeitstest.

Auch passiert hier rein gar nichts illegales. Und wenn man es so sehen will, kann man auch jede NDA Unterzeichnung als eine Art Erpressung sehen. Egal ob AMD oder nVidia.

Das die Presse und die üblichen Youtuber mit aufspringen ist geschenkt, dass Drama bringt natürlich fett Kohle. Wäre ja doof wenn man das nicht mit nimmt.

Wenn man das Verhalten von Nvidia rechtfertigt, ja dann kann man schon zweifel haben, ob der Kompass passt.

Consumer Scam ist das. Ein minderwertiges Produkt raushauen, dann mit aller Marktmacht Kritik ersticken wollen und Fakemetriken liefern, die dann bitte die Masse schlucken soll. Hier wird vergessen, das viele das Wissen von euch einfach nicht haben. "180fps sind doch gut und viel besser als das was ich jetzt hab". Genau das will Nvidia sehen/fördern. Ich befürchte die 5600 wird sich sehr gut verkaufen.


Gamers Nexus vorwerfen, das es nur um Klicks, also Kohle geht, ist so schräg. Wenn dann ist Tech Jesus, aka Steve von GN sogar schon fast drüber mit dem Pressekodex Zeigefinger. Der geht all-in. Aktuell ist er dabei Paypal zu verklagen.

Ex3cut3r
2025-05-19, 21:52:20
Eine 5070 Ti kostet aktuell 800€ hat alles an Board, was man als Performance Gamer braucht. Eine 9070 Xt ist auch nicht viel günstiger. Aber immer alles Nvidia in die Schuhe schieben, ist mir zu kurzsichtig. Und AMD kommt viel zu gut weg. Eine 9060 (XT) wird auch mit 8GB und 16GB kommen, wo ist der Aufschrei? Gibt es nicht.

Raff
2025-05-19, 22:03:52
Keine Sorge, AMD kriegt auch auf den Deckel, falls sie ähnlich freche Preise aufrufen. Kostet die 9060 XT 8GB hingegen 250 Euro: Das wäre akzeptabel. Nicht geil, wenn wir in Sachen Grafik mal vorankommen wollen, aber nicht übel.

MfG
Raff

Ex3cut3r
2025-05-19, 22:41:42
Dich meine ich auch nicht. ^^

Sondern die Klabauter auf YouTube.

aths
2025-05-20, 01:03:38
Ich bin wirklich kein Fan von Troyan, aber das Verhalten wirkt schon ziemlich ungewöhnlich.

Vermutlich geht es hauptsächlich um Klicks und Einnahmen – anders lässt sich das kaum noch erklären. Offenbar spricht er damit genau die Gamer an, die noch immer auf älteren Pascal-Grafikkarten sitzen, obwohl es seit 2018 bereits RTX-fähige Modelle gibt. Gerade bei Themen wie Doom: The Dark Ages ist das Klagen in den Steam-Foren aktuell besonders hoch. Weil Karten wie die 10er-Gen ausgeschlossen sind.

https://s1.directupload.eu/images/250519/y6lhsuag.jpg
Da Nvidia mal so richtig tief ins Klo greift, und das immer wieder, sind diese Videos völlig angemessen.

robbitop
2025-05-20, 07:24:43
Du solltest mal echt einen Gang Dramatik runterschrauben.
Du tust ja praktisch schon so als ob hier einen Regierungsskandal gäbe, wo Milliarden veruntreut wurden und dann die Regierung Informationen zurück hält und Journalisten einschüchtert.

Wir reden hier von einen Privatunternehmen was Luxusprodukte anbietet die niemand auch nur im Ansatz benötigt um seinen Lebensunterhalt zu beschreiten. Es werden weder Gelder veruntreut noch kommt jemand hier irgendwie zu Schaden.
Wenn das Produkt raus ist, kann es doch jeder testen wie er mag, einschließlich Fall- und Flüssigkeitstest.

Auch passiert hier rein gar nichts illegales. Und wenn man es so sehen will, kann man auch jede NDA Unterzeichnung als eine Art Erpressung sehen. Egal ob AMD oder nVidia.

Das die Presse und die üblichen Youtuber mit aufspringen ist geschenkt, dass Drama bringt natürlich fett Kohle. Wäre ja doof wenn man das nicht mit nimmt.
Es ist nicht in Ordnung und es ist consumerfeindlich. Die Kritik ist mehr als angemessen. Wer das auch noch rechtfertigt oder relativiert versteht entweder nicht was richtig und was falsch ist (Pressefreiheit - und Manipulation/Erpressung sind da nicht in Ordnung) und/oder ist ein Fanboy. Für solche Kritik braucht es keine Illegalität. Wenn das die Grenze für deinen moralischen Kompass ist, hast du praktisch keinen.

Platos
2025-05-20, 07:40:06
Keine Sorge, AMD kriegt auch auf den Deckel, falls sie ähnlich freche Preise aufrufen. Kostet die 9060 XT 8GB hingegen 250 Euro: Das wäre akzeptabel. Nicht geil, wenn wir in Sachen Grafik mal vorankommen wollen, aber nicht übel.

MfG
Raff

Ihr habt ja jetzt alle gute Karten so nach dem Motto: "schlimmer wie Gamestar kanns ja kaum werden"

Weil 8GB und 250 ist genau das, was eig. heute nicht mehr gehen sollte. Eine Einsteigerkarte sollte unter 200 kosten. Und eine nicht-Einsteigerkarte sollte keine 8GB haben.

Aber genau deswegen haben andere mehr Erfolg, weil sie nicht so "tolerant" sind.

Troyan
2025-05-20, 08:38:47
Es ist nicht in Ordnung und es ist consumerfeindlich. Die Kritik ist mehr als angemessen. Wer das auch noch rechtfertigt oder relativiert versteht entweder nicht was richtig und was falsch ist (Pressefreiheit - und Manipulation/Erpressung sind da nicht in Ordnung) und/oder ist ein Fanboy. Für solche Kritik braucht es keine Illegalität. Wenn das die Grenze für deinen moralischen Kompass ist, hast du praktisch keinen.

Stell dir vor du hast ein Stockholm-Syndrom und verteidigst irgendwelche Youtuber.

Du relativierst hier Channels, die sich gegen jede technische Neuerung von nVidia seit Jahren ausgesprochen haben. Und kommst dann mit "Consumerfeindlich" daher, wenn nVidia sich das nicht gefallen lässt?

Leute, ich weiß, einige müssen gegen nVidia hetzen, weil man meint, dass AMD doch nicht so schlecht ist. Aber lasst euch doch nicht von solchen Gestalten für deren Politik einspannen. Die interessieren sich null für Technik und Fortschritt. Ginge es nach denen, dürfte man heute noch mit nativer Auflösung und Billo-Rastergrafik spielen.

Und vergess nie, diese Channels haben sich null eingesetzt als AMD Publisher bezahlt hat DLSS aus den Spielen rauszuhalten und PC-Gamer einzig mit dem FSR Schrott zu beglücken. Es waren die PC-Spieler, die das festgestellt haben. Die Reviewer waren von Tag 1 gegen DLSS und somit nie eine Mauer gegen, wie du es sagst, "consumerfeindliches" Verhalten.

=Floi=
2025-05-20, 08:43:14
Stell dir vor du hast ein Stockholm-Syndrom und verteidigst irgendwelche Youtuber.


Klar weißt du davon am besten bescheid. ;D

Du müsstest die realität eigentlich mit deinem technischen backgroud selbst feststellen!
Gäbe es offene schnittstellen für alle, würde anders darüber geredet. NVs treiber verkommt zu einer blackbox die null messbar und durchschaubar wird. Haben die keinen bock mehr, schalten die dir einfach alles weg oder der support fällt weg. Denk mal darüber nach.
Alte gen --> MFG werd dann auf 2-3 bilder gesenkt etc.

Disconnected
2025-05-20, 08:51:08
Klar weißt du davon am besten bescheid. ;D

Du müsstest die realität eigentlich mit deinem technischen backgroud selbst feststellen!
Gäbe es offene schnittstellen für alle, würde anders darüber geredet. NVs treiber verkommt zu einer blackbox die null messbar und durchschaubar wird. Haben die keinen bock mehr, schalten die dir einfach alles weg oder der support fällt weg. Denk mal darüber nach.
Alte gen --> MFG werd dann auf 2-3 bilder gesenkt etc.

Das nennt man Projektion. :D

Wahrscheinlich bekommt er für jeden Pro-NV Post einen Dildo mit Firmenlogo als Werbegeschenk.

OnTopic: Channels wie Gamers Nexus (und Hardware Unboxed), aber auch Louis Rossmann sind sehr im Sinne des Endkunden eingestellt. Da bekommt *jede* Firma auf den Deckel, die sich kundenfeindlich verhält.

robbitop
2025-05-20, 09:45:48
Stell dir vor du hast ein Stockholm-Syndrom und verteidigst irgendwelche Youtuber.

Du relativierst hier Channels, die sich gegen jede technische Neuerung von nVidia seit Jahren ausgesprochen haben. Und kommst dann mit "Consumerfeindlich" daher, wenn nVidia sich das nicht gefallen lässt?

Leute, ich weiß, einige müssen gegen nVidia hetzen, weil man meint, dass AMD doch nicht so schlecht ist. Aber lasst euch doch nicht von solchen Gestalten für deren Politik einspannen. Die interessieren sich null für Technik und Fortschritt. Ginge es nach denen, dürfte man heute noch mit nativer Auflösung und Billo-Rastergrafik spielen.

Und vergess nie, diese Channels haben sich null eingesetzt als AMD Publisher bezahlt hat DLSS aus den Spielen rauszuhalten und PC-Gamer einzig mit dem FSR Schrott zu beglücken. Es waren die PC-Spieler, die das festgestellt haben. Die Reviewer waren von Tag 1 gegen DLSS und somit nie eine Mauer gegen, wie du es sagst, "consumerfeindliches" Verhalten.

~75% des Postings wieder mal am Thema vorbei. Es geht nicht um Rastergrafik oder FSR. Es geht um Manipulation von Reviews.
Wie immer komplett unreflektiertes und zT vom Thema abweichendes Fanboygeseier. Mit dir ist jegliche sachliche Diskussion sinnfrei.

HOT
2025-05-20, 09:47:10
Da Nvidia mal so richtig tief ins Klo greift, und das immer wieder, sind diese Videos völlig angemessen.

Ganz im Gegenteil, die Leute haben einfach vergessen, was Journalismus ist. Du musst natürlich dahin gehen, wo es am meisten stinkt und es ist vollkommen legitim an dem Coverup dann auch Geld zu verdienen. Ich finde das sehr erfrischend, dass ausgerechnet in der Hardwareberichterstattung wieder echter investigativer Journalismus Einzug hält - und wie es sein muss - von unabhängigen Outlets, die durch die Klickzahlen groß werden.

Hakim
2025-05-20, 10:55:58
Das Ding ist ja das diese ach so Bösen Youtuber auch immer AMD kritisiert haben wenn es was zu kritisieren gab, Intel hat auch seinen fett abbekommen vor gar nicht allzu langer Zeit, zu Recht (Raptor lake degeneration verhalten). Derzeit mit NV ist viel weil guess what, weil Nvidia derzeit vieles falsch macht. Die sind sich doch bewusst dass die 5060 in vielen Tests schlecht abschneiden wird, sonst würde man nicht versuchen zu manipulieren. Wenn man keine Zweifel am eigenen Produkt hat und dahinter stehen kann, hätte man auch kein Problem mit unabhängigen Tests. Ich verstehe nicht wie man diesen Punkt verteidigen will.