PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Arroganz oder Berechnung?


Seiten : 1 [2]

aths
2025-05-21, 15:14:57
Natürlich kann man nicht alle Karten in allen Spielen mit allen Setting-Kombinationen testen. Dass man die Karten alle mit max. Settings testet, finde ich OK - schließlich wird der Einfachheit halber auch immer mit der schnellsten verfügbaren CPU getestet. Es ist imho nicht zu erwarten, dass sich mit reduzierten Settings plötzlich die Verhältnisse umdrehen. Einzig Raytracing kann man mal separat ausmachen, allein schon, weil das die Framerate im Extremfall auf einen Bruchteil zusammenfallen lässt. Für alle, die an Medium-Settings interessiert ist, finde ich eine Übersicht wie die von CB völlig ausreichend, wo man exemplarisch an einer aktuellen AMD- und einer Nvidia-Karte mal max. Settings gegen high, medium und low bencht, damit man ein Gefühl dafür hat, wieviel fps man mit kleineren Settings noch rausholen kann, inkl. ein paar exemplarischer Vergleichsscreenshots. Jede Einstellung separat zu feintunen, sprengt imho völlig den Rahmen.
Das ist klar. Allerdings würde ich als Verbraucher gerne wissen, wie eine Budget-Karte mit praxisnäheren Tests abschneidet. Da müsste der Reviewer dann schon einige Zeit manuell testen, welche Settings Framerate oder Frame-Stabilität bringen und wie viel Grafikqualität das kostet. Vermutlich würde unterschiedliche Reviewer unterschiedliche Settings wählen, was wieder ein Mehrwert für den Leser ist, da er nicht überall die im Prinzip gleichen Zahlen bekommt.

Ich habe das schon vor Jahren bemängelt.
Aber wahrscheinlich ist es zu schwierig alle Regler auf mittlere Details zu stellen statt alles nach rechts ^^
Ich glaube es wird nicht gemacht wegen der Vergleichbarkeit. Wo würde man dann auch die Grenze setzen, welche man mit max und welche mit min?

Es gibt ein paar Youtuber, die auch Budget-Karten mit weniger Details benchen, wie z.B.
https://youtu.be/cioqSCD2qiENice. Er geht doch durch die Settings und erklärt.

Daredevil
2025-05-21, 15:19:00
...dann muss man halt bald in 720p testen, manche Games laufen ja so oder so schon in solchen Auflösungen auf Konsolen und co.

720p MAX
1080p MAX
1440p MAX
2160p MAX

Da weiß dann jeder am Ende selbst, ob er aktuelle Spiele vollumfänglich spielen kann, oder eben nicht. Ich stimmte persönlich hier auch zu:
Von einer 300€+ Karte erwarte ich maximale Details in 1080p

Alternativ muss es dann Software von AMD und Nvidia regeln, die im Vorhinein und meinetwegen auch per AIIIIII die Settings so stellen, das sie den Monitor ausreizen. Auf Spiele selber kann man sich wohl nicht verlassen, das sie direkt ein Optimum einstellen.
Und der 0815 Gamer startet das Spiel und drückt vermutlich direkt auf Start. Der 0815 Gamer schaut sich nicht, wie wir, erstmal alle Settings durch. :D

Und ja. Wenn eine "Entry Karte für 300€" nicht einmal die Entry Anforderungen schafft, dann ist das keine Entry Karte.
Dann ist eine 5060 heute halt die "1050ti" im Jahr 2025. Ein Kompromiss in der Hülle einer 1080p Karte.

x-force
2025-05-21, 15:19:36
Von einer 300€+ Karte erwarte ich maximale Details in 1080p

wie sollte eine karte mit 1/5 der rechenleistung des top dogs das in aktuellen spielen schaffen?

aths
2025-05-21, 15:27:54
Das lustige ist ja das sich die ganzen Qualitätsmedien mit der NV Hetze sich erst recht selber schaden. Das scheinen aber welche, nicht alle von ihnen aber nicht zu begreifen... Menschen wollen kein Test sehen "Das ist ein schlechtes Produkt" Sie werden weiter klicken oder das Video wechseln. Nein noch viel schlimmer, die Medien verbreiten damit sogar den Eindruck das PC Gaming "schlecht" ist, geht doch gleich auf Konsolen... etc.

Die Idee dahinter ist ja auch mehr als ersichtlich, denn wer schaut heute noch Tests an? Die ganzen Kids und Gamer kaufen zu 80%+ NV Karten, nachweislich. Und ich wette da geht es vor allem um Preise und Namen. Sprich das eine 5090 für 2k+ besser ist als eine 5070 für 800.- ist logisch und jedem klar. Wenn Interessieren da noch Tests? Jeder Weiss das NV die besten GPUs hat. Und das haben sie sich über Jahren aufgebaut, sprich NV hat auch zurecht diesen Ruf.

Sprich die Medien wollen unbedingt dass sie wichtig erscheinen, und fühlen sich auch genötigt dank weniger Klicks, richtig?Zumindest der Bauer sagt, dass positive Reviews mehr Klicks bekommen. Finde ich nachvollziehbar, da Käufer sich gerne bestätigt fühlen und sich Reviews reinziehen die ihre Kaufentscheidung rechtfertigt.

"Die Medien" wollen wichtig erscheinen, ginge es konkreter oder sind "die Medien" einfach alle eins? Die Medien sollten sich nicht das Marketing der Hersteller vorsetzen lassen, sondern die Markting-Behauptungen prüfen. Nvidia taumelt beim 5000-er Launch von einem Fail zum nächsten. Scalper-Preise während Nvidia-Sprecher Lars Weinand von einem tollen Marktstart schwärmt, fehlende ROPs, seltsame Behauptungen zu fehlenden ROPs in mobilen GPUs, angebliche 4090-Performance bei der 5070, Treiberprobleme, die Behauptung dass ja Boardpartner die 8-GB-5060-Ti schicken können während die Boardpartner sagen dass Nvidia das verboten hat, der Versuch sich gute Reviews für die 5060 zu stricken mit mehr oder weniger subtilen Druck auf die Presse.

Troyan
2025-05-21, 15:29:40
Von einer 300€+ Karte erwarte ich maximale Details in 1080p (zumal NV die Karte explizit auch für 1080p bewirbt), heutzutage bei absoluten Grafikkrachern von mir aus auch unter Zuhilfenahme von Upscalern, wenn dann noch Leistung für 1440p über ist - super.
Früher hat das jede 200€+ Karte geschafft, da ist das Zugeständnis von 50% extra Budget und Upscalern schon gnädig.
Im Bekanntenkreis kaufen außer 1-2 weiteren Verrückten wie mir sowieso alle nur im Mainstreamdunstkreis ein (~300€), aber die sehen das alle genauso. Für das Geld muss die Karte schon etwas liefern. Wenn mit einer neuen Karte (!) in 1080p (!) für 300€ (!) schon alles Neue quasi unspielbar ist, nur weil man die Regler nach rechts zieht, stimmt irgendetwas überhaupt nicht mehr im Gefüge. Da braucht sich dann auch niemand mehr wundern warum die Stimmung so mies ist im PCMR Lager.

Bekommst du ja nichtmal bei AMD für 700€. ;D

AMD User, die jahrelang Regler für Raytracing runterstellen müssten, sind doch die, die überhaupt keinen Wert auf Bildqualität legen. Aber hey, war ein guter Versuch Lehdro.

Spring
2025-05-21, 15:33:15
Bekommst du ja nichtmal bei AMD für 700€. ;D

AMD User, die jahrelang Regler für Raytracing runterstellen müssten, sind doch die, die überhaupt keinen Wert auf Bildqualität legen. Aber hey, war ein guter Versuch Lehdro.

Mal wieder zuviel gefappt auf Jensens Poster oder was soll der Unsinn.
Du bestätigst doch genau diesen Thread (und die Arroganz von nv), Leute wie Du machen beste Werbung für AMD, seit Jahren, ohne es zu merken.

Btw Dein Posting ist natürlich faktenfrei.

Disconnected
2025-05-21, 15:47:34
Es geht nicht um die Verhältnisse. Es geht darum, dass die Reviews mit stur max. Settings praktisch gar nicht für eine differenzierte Kaufberatung taugen. Der nicht so gut informierte Konsument sieht bei seiner potenziellen Kaufentscheidung, dass die Karte X nur 30fps schafft (rein fiktiv) und sieht sich gezwungen deutlich mehr Geld in Hand zu nehmen.

GPU-Tests sind auch keine Kaufberatung, sondern sollen die Unterschiede zwischen den Modellen darstellen. Sie können maximal eine prozentuale Einordnung der Karte vornehmen.

Lehdro
2025-05-21, 15:53:14
wie sollte eine karte mit 1/5 der rechenleistung des top dogs das in aktuellen spielen schaffen?
Wenn sie das nicht schafft muss man halt Fragen "Woran hat et jelegen? (https://www.youtube.com/watch?v=ElWOGVqNGTQ)"
Soll NV halt mehr Rechenleistung/VRAM springen lassen, oder den Preis senken. Oder halt akzeptieren dass die Karte so verrissen wird - auf die Verkäufe hat es scheinbar eh kaum Einfluss. Nicht mein Problem da ich solch eine Karte weder kaufen noch empfehlen würde. Das trifft auch auf AMD genauso zu.

DrFreaK666
2025-05-21, 15:58:42
...Nice. Er geht doch durch die Settings und erklärt.

Dieser hier hat mehrere Videos, in denen er Settings optimiert, wie z.B.
nF4pHlsbiD4

aths
2025-05-22, 13:20:54
GPU-Tests sind auch keine Kaufberatung, sondern sollen die Unterschiede zwischen den Modellen darstellen. Sie können maximal eine prozentuale Einordnung der Karte vornehmen.
Ja, so sind fast alle GPU-Tests designt. Bringt mir nur wenig, wenn ich zum Beispiel wissen möchte "welche Graka brauche ich um in den fordernsten Spielen die mir wichtig sind, ein bestimmtes fps-Ziel zu erreichen". Wenn ich die Unterschiede zwischen den Modellen kenne, weiß ich ja noch immer nicht, ob ich das größere Modell auch für mich brauche.

Bei einem Gaming-PC ist die GPU die teuerste Komponente, der Verbraucher wüsste gerne beim Dimensionieren, was er braucht.

Dieser hier hat mehrere Videos, in denen er Settings optimiert, wie z.B.
https://youtu.be/nF4pHlsbiD4
Interessant. Ich nehme mir bei aktuelleren Spielen auch Zeit und teste durch. Ist natürlich individuell welchen Kompromiss man als bestmöglich ansieht, ich finde in Spielen die Voreinstellungen wie Medium oder High aber oft nicht optimal und spiele da gerne bisschen rum. Wenn ich was passendes habe, genieße ich das Spiel.

robbitop
2025-05-22, 13:26:27
Anderer Ansatz: GPU Leistung kann man nicht genug haben und man kauft so viel davon wie das Budget hergibt. So wie der Deutsche beim Hauskauf: so groß wie man sich leisten kann X-D

Zugegeben ist aber "so groß wie nötig" der smartere Ansatz. Aber wir sind ja unter uns Nerds ^^

aths
2025-05-22, 13:52:53
Anderer Ansatz: GPU Leistung kann man nicht genug haben und man kauft so viel davon wie das Budget hergibt. So wie der Deutsche beim Hauskauf: so groß wie man sich leisten kann X-D

Zugegeben ist aber "so groß wie nötig" der smartere Ansatz. Aber wir sind ja unter uns Nerds ^^
bei der aktuellen Inflation ist für viele der Schmalhans angesagt wenns um Luxus wie Gaming-PCs geht. Oder wenn man noch andere Hobbys hat die Geld kosten zum Beispiel als Geartopgrapher (Fotograf der auf Ausrüstung Wert legt) ...

Bei mir war es auch eine Frage der Abwärme. Ich wollte ein luftgekühltes, auch unter Last schön leises System, und wenns geht auch insofern sparen dass falls ich in der erhofften PC-Lebensdauer die Graka wechsle, nicht zu viel Abwertung habe. Da reicht eine Graka die das was ich vorerst möchte, erst mal ordentlich kann.

Alter Sack
2025-05-25, 19:09:30
Bei mir liegt es nicht unbedingt am Geld, den PC Gaming ist mein Hobby seit 35 Jahren, sondern an mehreren Faktoren.

Ausgehend von meiner 4,5 Jahre alten 3060Ti:

1. es fehlen für mich interessante Spiele, welche eine neue Karte empfehlenswert machen

2. es gibt mehr als genug Spiele, die ich mittlerweile richtig interessant finde (vor allem Indie), wo die Graka fast irrelevant ist

3. viel mehr als offizielle 200 Watt TDP (undervolting interessiert mich nicht) will ich meinem kleinen Computerzimmer und der Stromrechnung nicht zumuten

4. theoretisch wäre die 5070 nonTi mit 250 Watt das Limit für den Stromverbrauch und die Mehrleistung zur aktuellen Graka wäre ach OK... ABER: warum keine 16 GB?!

5. die 5070Ti hat die erforderlichen 16 GB, aber 300 Watt ist mir einfach zu viel!

6. bis vor 5 Jahren waren guten Karten bereits für 300-500€ zu haben, warum soll ich jetzt für eine sub-optimale Karte (wg. hohem Stromverbrauch) das doppelte zahlen?!

Das wichtigste Argument für mich ist jedoch: die 3060Ti ist tatsächlich noch gut genug für meinen 34 Zoll GSync 100Hz Monitor!
Dank DLSS komme ich vielen Spielen auf die erforderlichen FPS für flüssiges Gameplay (selbst BO6 läuft smooth auf 100Hz).
Spiele wie IndianaJones, Oblivion oder Doom-DA, welche eine neue Karte notwendig machen würden, interessieren mich nicht.

Wenn die Karte noch 2-3 Jahre durchhält, werde ich die Zeit nutzen und meine riesige Spielesammlung (sehr viele ungespielte Perlen) durchzuzocken.
Dann wird halt nicht jedes Jahr ein neues COD im Multiplayer gezockt (was mir sowieso mittlerweile zu schwitzig ist und immer weniger Spaß machte, da die Spielerbasis mittlerweile abartiges Gameplay hat).

Eddyk
2025-05-25, 19:44:23
Schau dir mal den PCGH Test für 5070 TI an, die Karte dümpelt Stock bei 250 Watt.
Weiter optimierbar durch Frame Limiter oder undervolting, ist kein Hexenwerk, siehe YouTube oder aktuelles PCGH Heft :D

Plan B: auf 5070 Super warten.

aths
2025-06-09, 17:21:54
Tim von Hardware Unboxed roastet Nvidia für 23 Minuten.

Das Video dreht sich hauptsächlich um die merkwürdige Modellbezeichnungen. Dass neue Herstellungsprozesse der Chips teurer sind, wird nicht verschwiegen.

CD3CAPErRa4

seaFs
2025-06-09, 17:40:51
Es wiederholt sich also das Schema, welches bereits mit der GeForce-600-Serie anno 2012 bereits geschehen ist.
Ist da überhaupt noch jemand überrascht?

AffenJack
2025-06-09, 19:16:07
Tim von Hardware Unboxed roastet Nvidia für 23 Minuten.

Das Video dreht sich hauptsächlich um die merkwürdige Modellbezeichnungen. Dass neue Herstellungsprozesse der Chips teurer sind, wird nicht verschwiegen.


Verschwiegen nicht, aber man hätte sich drei Viertel des Videos sparen können und mal sinnvoll aufarbeiten können, wenn man die letzten paar Minuten mit den erhöhten Produktionskosten miteinbezogen hätte.

Es ist einfach Blödsinn ne 5090 mit normalen High-End Chips zu vergleichen, die damals nur nen Bruchteil der Produktionskosten hatten. Hätte man stattdessen das ganze mal mit den geschätztzten Diekosten der alten Gen normalisiert, dann hätte man ganz andere Schlüsse gehabt. Ne 780 Ti ist deutlich vergleichbarer zu ner 5080, als zu einer 5090. Man hätte den Chart ja mal ausgehend von einer 5080 machen können als Vergleich, ob es dann ähnlich wird wie früher.

Ebenso das Thema VRAM einholen von Konsolen. Da hätte man auch mal mit schauen sollen, wie sich früher Konsolenpreise entwickelt haben. Sie wurden billiger. Stattdessen haben wir jetzt Preiserhöhungen- Oder auf dem Markt verfügbare VRAM Kapazitäten pro Chip, wir haben jetzt in 6 Jahren ne 50% Steigerung bei den VRAM Chips bekommen, früher Verdopplung alle 2 Jahre.

Man verschweigt das Thema Preisentwicklung in der Industrie zwar nicht, aber man schneidet es extra nur kurz an und möchte dann niedrigere Margen der Hersteller. Dabei ist die Preisentwicklung der Herstellung und die kleinen Fortschritte dort das mit Abstand größte Problem der Industrie. Wer soll sich überhaupt noch groß Hardware kaufen, wenn wir absehbar bei 15% Steigerung alle 2 Jahre landen und sich die Konsolengenerationen kaum mehr weiterentwickeln.

aths
2025-06-09, 23:14:13
Verschwiegen nicht, aber man hätte sich drei Viertel des Videos sparen können und mal sinnvoll aufarbeiten können, wenn man die letzten paar Minuten mit den erhöhten Produktionskosten miteinbezogen hätte.

Es ist einfach Blödsinn ne 5090 mit normalen High-End Chips zu vergleichen, die damals nur nen Bruchteil der Produktionskosten hatten. Hätte man stattdessen das ganze mal mit den geschätztzten Diekosten der alten Gen normalisiert, dann hätte man ganz andere Schlüsse gehabt. Ne 780 Ti ist deutlich vergleichbarer zu ner 5080, als zu einer 5090. Man hätte den Chart ja mal ausgehend von einer 5080 machen können als Vergleich, ob es dann ähnlich wird wie früher.

Ebenso das Thema VRAM einholen von Konsolen. Da hätte man auch mal mit schauen sollen, wie sich früher Konsolenpreise entwickelt haben. Sie wurden billiger. Stattdessen haben wir jetzt Preiserhöhungen- Oder auf dem Markt verfügbare VRAM Kapazitäten pro Chip, wir haben jetzt in 6 Jahren ne 50% Steigerung bei den VRAM Chips bekommen, früher Verdopplung alle 2 Jahre.

Man verschweigt das Thema Preisentwicklung in der Industrie zwar nicht, aber man schneidet es extra nur kurz an und möchte dann niedrigere Margen der Hersteller. Dabei ist die Preisentwicklung der Herstellung und die kleinen Fortschritte dort das mit Abstand größte Problem der Industrie. Wer soll sich überhaupt noch groß Hardware kaufen, wenn wir absehbar bei 15% Steigerung alle 2 Jahre landen und sich die Konsolengenerationen kaum mehr weiterentwickeln.
Blödsinn finde ich das nicht. Es gibt im Video Segmente wo mit inflationsbereinigten Preisen verglichen wird, allerdings betrifft die Inflation viele Lebensbereiche, nicht nur Konsolen in der letzten Zeit oder Graka-Preise.

Im Großen und Ganzen geht es Tim um die Segmentierung der Varianten, er zeigt dass spätestens ab der 40-er Serie eine krasse Schieflage herrscht und Hardware abgesehen vom Flaggschiff eine Stufe höher bezeichnet wird als Nvidia es historisch etabliert hat.

Das Absurde ist, dass sich Nvidia selbst ein Bein stellt: Einfach die GPUs mit mehr RAM ausstatten und sie performen auch in aktuellen Titeln noch gut.

AffenJack
2025-06-10, 17:14:33
Blödsinn finde ich das nicht. Es gibt im Video Segmente wo mit inflationsbereinigten Preisen verglichen wird, allerdings betrifft die Inflation viele Lebensbereiche, nicht nur Konsolen in der letzten Zeit oder Graka-Preise.

Die Inflation ist aber der falsche Maßstab, wenn man viel stärker steigende Waferpreise hat. Du rechnest doch auch nicht, dass der Sprit die nächsten Jahre nur mit der Inflation im Preis steigt, wenn du weißt, dass da CO2 Steuer drauf kommt.


Im Großen und Ganzen geht es Tim um die Segmentierung der Varianten, er zeigt dass spätestens ab der 40-er Serie eine krasse Schieflage herrscht und Hardware abgesehen vom Flaggschiff eine Stufe höher bezeichnet wird als Nvidia es historisch etabliert hat.

Auch da ignoriert er absichtlich das frühere Ultra-High End, dass der richtige Vergleich zur 5090 wäre, nämlich SLI. Das sieht man alleine schon am Verbrauch der GPUs. Ne 1080 TI mit 451 mm² Chip und 250W mit einer 750mm² 575W GPu zu vergleichen ist sinnlos. Die Produktionskosten der Singlegpus entsprachen auch viel eher denen der früheren SLI Lösungen.
Interessanterweise sieht man bei der Skalierung der 5090 ein Verhalten, dass wiederrum auch SLI ähnelt.


Das Absurde ist, dass sich Nvidia selbst ein Bein stellt: Einfach die GPUs mit mehr RAM ausstatten und sie performen auch in aktuellen Titeln noch gut.

Ja, 50% mehr und alles wäre in Ordnung. Wenn sich die 3GB Chips nicht immer wieder verschoben hätten, dann denke ich hätte man das auch gemacht. Doppelbestückung vor und hinten wollte man anscheinend unbedingt vermeiden. Ich erinnere mich da an Igors alte Artikel, die über die steigende Komplexität durch GDDR6X beim PCB berichtet haben. Mich würde interessieren, ob Nvidia für GDDR6X bei Doppelbestückung evtl. deutlich mehr Aufwand hat, als AMD mit normalen GDDR6, weil man noch mehr Layer braucht oder es reine Verweigerung von Nvidia ist.

dargo
2025-06-10, 17:19:23
Auch da ignoriert er absichtlich das frühere Ultra-High End, dass der richtige Vergleich zur 5090 wäre, nämlich SLI.
Was ein Unsinn. Bei SLI mit 780TI hast du alles doppelt. Und bei der Die Size gleich mal eben 2x 561mm². Wo ist das vergleichbar? Sorry, aber das ist lächerlich.

AffenJack
2025-06-10, 17:42:34
Was ein Unsinn. Bei SLI mit 780TI hast du alles doppelt. Und bei der Die Size gleich mal eben 2x 561mm². Wo ist das vergleichbar? Sorry, aber das ist lächerlich.

Schau dir Kühlerkomplexität, PCB Komplexität etc an. Selbst abseits des Chips dürfte ne 5090 bei dem Vergleich noch mehr Kosten als 780TI SLI. Und dann kommt der Chip dazu, der noch deutlich teurer ist als 2 GK110. Selbst die 512 bit Speicherinterface zeigen, dass der Bezugspunkt einfach mit der 5090 überhaupt nicht passt.

Bei den Kommentaren wäre das einzige sinnvolle, dass Nvdia ihr Lineup schlicht bei der 5080 geendet hätte, dann wären ja alle zufrieden. Man kann durchaus diskutieren, dass ne 5080 TI mit 384 Bit fehlt, die ein echter Vergleich wäre und man deshalb nur alle x80er nach unten vergleichen kann, während man die TI ausklammern muss. Aber 5090 mit 80Ti gleichzusetzen ist lächerlich.

Daredevil
2025-06-10, 17:47:03
Eine 5090 wäre allerdings auch das bessere ( nicht Peak schnellere ) Produkt, weswegen es wiederum auch mehr kosten dürfte als zwei einzelne Karten. ^^
Einem ehemaligen SLI Besitzer wäre wohl das Wasser im Munde zusammen gelaufen, wenn er statt einer 780TI nicht unter umständen in perfekten Konditionen 100-200% mehr Leistung bekommen hätte, sondern schlicht dauerhaft und ohne Faxen +150%. ( 780ti x1.5 Die Size ) und dann hätte sich das Microstuttern auch erledigt.
Was nicht bedeutet, das Leute sich auch heute gerne noch zwei 5090 zusammen schnallen würden, weil für the lulz.
Wobei man heute ja einfach zwei Chips zusammen klebt und dann läuft die Uschi irgendwie.

dargo
2025-06-10, 17:47:24
Schau dir Kühlerkomplexität, PCB Komplexität etc an.

Da ist Nvidia selbst schuld wenn die so einen Heizofen planen. Und bei den AIBs ist bei der Kühlung überhaupt nichts komplex. Man geht da einfach mit mehr Masse dran, fertig. Auch nur eine Folge vom Heizofen.


Bei den Kommentaren wäre das einzige sinnvolle, dass Nvdia ihr Lineup schlicht bei der 5080 geendet hätte, dann wären ja alle zufrieden.
Ich bitte dich... was wäre das denn für ein Fortschritt nach der 4090? :freak:

Man kann durchaus diskutieren, dass ne 5080 TI mit 384 Bit fehlt, die ein echter Vergleich wäre und man deshalb nur alle x80er nach unten vergleichen kann, während man die TI ausklammern muss. Aber 5090 mit 80Ti gleichzusetzen ist lächerlich.
Daran ist gar nichts lächerlich. Schon eine 2080TI war ein Monster mit 754mm², bei einer UVP von 999$.

aths
2025-06-26, 12:32:46
Die Inflation ist aber der falsche Maßstab, wenn man viel stärker steigende Waferpreise hat. Du rechnest doch auch nicht, dass der Sprit die nächsten Jahre nur mit der Inflation im Preis steigt, wenn du weißt, dass da CO2 Steuer drauf kommt.

Auch da ignoriert er absichtlich das frühere Ultra-High End, dass der richtige Vergleich zur 5090 wäre, nämlich SLI. Das sieht man alleine schon am Verbrauch der GPUs. Ne 1080 TI mit 451 mm² Chip und 250W mit einer 750mm² 575W GPu zu vergleichen ist sinnlos. Die Produktionskosten der Singlegpus entsprachen auch viel eher denen der früheren SLI Lösungen.
Interessanterweise sieht man bei der Skalierung der 5090 ein Verhalten, dass wiederrum auch SLI ähnelt.

Ja, 50% mehr und alles wäre in Ordnung. Wenn sich die 3GB Chips nicht immer wieder verschoben hätten, dann denke ich hätte man das auch gemacht. Doppelbestückung vor und hinten wollte man anscheinend unbedingt vermeiden. Ich erinnere mich da an Igors alte Artikel, die über die steigende Komplexität durch GDDR6X beim PCB berichtet haben. Mich würde interessieren, ob Nvidia für GDDR6X bei Doppelbestückung evtl. deutlich mehr Aufwand hat, als AMD mit normalen GDDR6, weil man noch mehr Layer braucht oder es reine Verweigerung von Nvidia ist.Ich nehme Inflation als Hauptmaßstab, weil andere Effekte sich, wenn man lediglich Größenordnungen betrachtet, eher aufheben sollten. Steigende Waferpreise versus kleinere Strukturbreite unter anderem.

Die fetten Single-Chip-CPUs bei der 50-er Serie sehe ich als Versuch, mit der RTX 6000 im Profi-Markt abzuräumen und Salvage als 5090 an Gamer zu verschachern. Beim Profimarkt spielt der Preis nicht so die Rolle, wenn man mit der RTX 6000 schön Geld verdienen kann, lohnt sie sich ja.

Die RAM-Bestückung bei der 50-er sehe ich als Zeichen dass Nvidia zu selbstherrlich ist. Wenn man sich den Launch anschaut, fühlt sich Nvidia unangreifbar und hat dabei so geschlampt, dass es mehrere epische Fails gab. Alleine das ROP-Problem. Oder es liegt an der Firmenkultur und Mitarbeiter wussten davon aber wurden beordert, die Klappe zu halten weil mögliche Dullis in der Verkaufsabteilung dachten, das merkt eh keiner.

Mit der aktuellen RAM-Bestückung hat man Produkte die in bestimmten Benchmarks mit aktiviertem MFG fantastisch aussehen. Aber nicht besonders lange halten werden.

Raff
2025-06-26, 12:36:39
Mit der aktuellen RAM-Bestückung hat man Produkte die in bestimmten Benchmarks mit aktiviertem MFG fantastisch aussehen. Aber nicht besonders lange halten werden.

Was mich dabei immer etwas aufbaut, ist die Tatsache, dass MFG mehr Speicher braucht als "keine FG". Sprich, die Fälle, wo der VRAM eng wird, werden häufiger – und das kann man mit den richtigen Settings gegen diese "Blendermodelle" verwenden. :naughty:

MfG
Raff

downforze
2025-06-26, 16:25:03
Das beschissene Frame Generation bringt genau da nichts, wo man es bräuchte: nämlich bei unter 60 fps. Oh, aber wir haben doch 200 fps. Dummerweise nehmen ficktiefe Bilder keinen Input des Controllers entgegen. Das ist wie Tachotuning in einem 1.6 l VW Golf.
Und zum Thema Vergleichbarkeit der Karten: Wenn ich früher die Hälfte der Performance des Topmodells gekauft habe, war ich mit 250€ dabei. Bspw. die RX580. Nun zahlte ich für die 9070 non XT 613€. Und da liegt das große Problem. Nichts günstiges in der Mittelklasse. Die heftig kastrierten 9060 XT und 5060 Ti sind nicht mal untere Mittelklasse.

x-force
2025-06-26, 16:38:44
Das beschissene Frame Generation bringt genau da nichts, wo man es bräuchte: nämlich bei unter 60 fps.

das will raff nicht wahrhaben, denn dann könnte er nicht so viel klickwirksam haten :wink:

Raff
2025-06-26, 16:52:44
Du verwechselst mich offenbar mit ein paar berüchtigten Vollzeit-Meckerziegen. ;) Ich kritisiere, was kritikwürdig ist, und lobe, was lobenswert ist.

MfG
Raff

Argo Zero
2025-06-26, 17:00:54
Der Durchschnittsgamer denkt halt immer noch "ui 5070" und glaubt die 12GB VRAM seien ausreichend.
Aber ohne Druck auf dem Markt wird NV immer gerne etwas kreativ mit der Positionierung und Vermarktung der Karten.
Der Laden ist mir im Grunde seit der Kyro 2 GPU unsympathisch aber was willste sonst kauf0rn... :<

x-force
2025-06-26, 17:03:10
Du verwechselst mich offenbar mit ein paar berüchtigten Vollzeit-Meckerziegen. ;) Ich kritisiere, was kritikwürdig ist, und lobe, was lobenswert ist.

MfG
Raff

nene, du bist da auf einem auge blind.

du hast dich auch in diesem post nicht dazu geäußert unter welchen umständen mfg auf den karten überhaupt sinnvoll ist!

du erwähnst nie, dass flüssige settings nur einen klick(texturen) entfernt sind.
du berücksichtigst nicht, dass für mehr als 1080p eh die rohlleistung fehlt.
du berücksichtigst nicht, dass mit 1080p max texturen eh nicht sinnvoll darstellbar sind.

usw usf

Linmoum
2025-06-26, 17:22:51
Die 8GiB-Varianten werden weltweit von Tech-Medien zerrissen. Raff ist da keine Ausnahme, sondern die Regel. Und das völlig zurecht. Dein Verweis darauf, dass man ja die Texturdetails reduzieren könnte, zeigt doch in erster Linie vielmehr dein Verständnisproblem auf. Im Prinzip ist das eine Sicht, Speicherkrüppel zu rechtfertigen, wo es aber nichts zu rechtfertigen gibt.

ChaosTM
2025-06-26, 17:33:19
Der Durchschnittsgamer denkt halt immer noch "ui 5070" und glaubt die 12GB VRAM seien ausreichend.
Aber ohne Druck auf dem Markt wird NV immer gerne etwas kreativ mit der Positionierung und Vermarktung der Karten.
Der Laden ist mir im Grunde seit der Kyro 2 GPU unsympathisch aber was willste sonst kauf0rn... :<


Jensen und NV nehmen es nicht so genau mit der Wahrheit, solange der Kurs steigt. War immer schon so und wird auch in Zukunft so sein.
"The more you buy.." und so viele andere dumme Aussagen..

@ Upscaling und Bildgenerierung: muss man nicht mögen, aber Software/KI ist der einzige Weg in Zukunft noch deutlich mehr Leistung aus den verfügbaren Transistoren herauszukitzeln.

Und es wird auch niemand gezwungen es zu verwenden.

x-force
2025-06-26, 17:45:59
Dein Verweis darauf, dass man ja die Texturdetails reduzieren könnte, zeigt doch in erster Linie vielmehr dein Verständnisproblem auf.

mit diesen worten hast du dich für ein pc technikforum disqualifiziert :upicard:

Lehdro
2025-06-26, 18:09:07
Das Problem ist nicht das man Speichermangel umgehen kann - egal aus welcher Sichtweise man das betrachtet. Das Problem ist viel eher dass es zu diesen Preispunkten überhaupt zu diesen Diskussionen kommen muss. Und das liegt rein an der Ausgestaltung der Karten, nicht am Tester oder Endanwender. Ergo: Berechtigte Kritik am Produkt und NV.

Linmoum
2025-06-26, 18:15:33
mit diesen worten hast du dich für ein pc technikforum disqualifiziert :upicard:Dafür hättest du deinen eigenen Beitrag zitieren müssen.

Polaris gab es im Jahr 2016 mit 8GiB-Speicher für deutlich weniger Geld. Wer argumentiert, zu wenig Speicher sei kein Problem, weil man das ja mit reduzierten Texturen umgehen könne, der will die ganze Thematik entweder überhaupt nicht objektiv verstehen, oder derjenige arbeitet für Nvidia (oder AMD, die 9060XT 8GiB ist nicht besser). Dann ist das Schönreden nicht verwunderlich.

x-force
2025-06-26, 21:39:11
Das Problem ist nicht das man Speichermangel umgehen kann - egal aus welcher Sichtweise man das betrachtet. Das Problem ist viel eher dass es zu diesen Preispunkten überhaupt zu diesen Diskussionen kommen muss. Und das liegt rein an der Ausgestaltung der Karten, nicht am Tester oder Endanwender. Ergo: Berechtigte Kritik am Produkt und NV.

wünschen kann man sich immer viel, wenn der tag lang ist.
die preise sehen bei amd nicht besser aus, willkommen im jahr 2025.

das verhältnis aus rechenleistung und speicher ist bei der 5060 und speziell der 5050 besser zugunsten vom speicher als bei 5070ti und 5080.

Badesalz
2025-06-27, 07:49:47
Auch da ignoriert er absichtlich das frühere Ultra-High End, dass der richtige Vergleich zur 5090 wäre, nämlich SLI.Boah hah :ulol: Was für ein Fiebertraum...

AffenJack mal wieder auf dem "Alles für den Dackel! Alles für den Club!" Tripp :uup:

Lehdro
2025-06-27, 13:28:28
das verhältnis aus rechenleistung und speicher ist bei der 5060 und speziell der 5050 besser zugunsten vom speicher als bei 5070ti und 5080.
"Weil mir scheiße nicht schmeckt, bin ich jetzt auf Kotze umgestiegen".

Als ob dein Argument irgendetwas besser machen würde oder gar eine Rechtfertigung darstellen würde. Und nein, das AMD genauso Schwachsinn fabriziert, macht es auch nicht akzeptabel.

Fusion_Power
2025-06-27, 13:49:49
Der Durchschnittsgamer denkt halt immer noch "ui 5070" und glaubt die 12GB VRAM seien ausreichend.
Aber ohne Druck auf dem Markt wird NV immer gerne etwas kreativ mit der Positionierung und Vermarktung der Karten.
Der Laden ist mir im Grunde seit der Kyro 2 GPU unsympathisch aber was willste sonst kauf0rn... :<
Spielt der "Durchschnittsgamer" denn wirklich in der Masse die dicken Kracher die brachial die Grafikhardware ausreizen und zwangsweise viel VRAM verbraten? Was ist so die durchschnittliche VRAM Bestückung der Zocker? Gibts da auch Steam-Charts drüber? Wäre ja interessant. Meine 1050Ti hat 4GB davon, für das bissl was ich zocke reichts locker. ;) Ich würde mich aber nicht wundern wenn der Durchschnitt auch nur 8GB VRAM wären aktuell, Tendenz natürlich steigend.

Und wer verbietet den Spieleentwicklern eigentlich, ihre Games und die Engine besser zu optimieren statt faul immer alles auf die Hardwarefähigkeiten abzuwälzen? Man hört mittlerweile ja schon von zwangs-Frame-Gen weil sonst mit der Performance im Game gar nicht mehr hin haut. Solche Entwicklungen finde ich bedenklich.

Raff
2025-06-27, 13:51:58
Und wer verbietet den Spieleentwicklern eigentlich, ihre Games und die Engine besser zu optimieren statt faul immer alles auf die Hardwarefähigkeiten abzuwälzen? Man hört mittlerweile ja schon von zwangs-Frame-Gen weil sonst mit der Performance im Game gar nicht mehr hin haut. Solche Entwicklungen finde ich bedenklich.

Irgendwann ist halt mal Schluss mit alten Zöpfen. IT bedeutet Fortschritt. Schon immer. Die Hardware-Entwicklung ist in den letzten Jahren aufgrund von physikalischen Limits derart langsam geworden, dass man das schnell vergessen kann.

MfG
Raff

Exxtreme
2025-06-27, 13:53:42
Und wer verbietet den Spieleentwicklern eigentlich, ihre Games und die Engine besser zu optimieren statt faul immer alles auf die Hardwarefähigkeiten abzuwälzen? Man hört mittlerweile ja schon von zwangs-Frame-Gen weil sonst mit der Performance im Game gar nicht mehr hin haut. Solche Entwicklungen finde ich bedenklich.

Das Management der Firmen verbietet es. Als Spieler kann man nur eins tun, die "UE5 slop"-Spiele nicht kaufen. Wenn das genug Leute tun dann gehen die Studios pleite und das wird für andere Studios eine Lektion sein.

Badesalz
2025-06-27, 17:22:19
@Exxtreme
Marvel? :wink:

aths
2025-07-03, 23:07:26
Was mich dabei immer etwas aufbaut, ist die Tatsache, dass MFG mehr Speicher braucht als "keine FG". Sprich, die Fälle, wo der VRAM eng wird, werden häufiger – und das kann man mit den richtigen Settings gegen diese "Blendermodelle" verwenden. :naughty:

Japp.

nene, du bist da auf einem auge blind.

du hast dich auch in diesem post nicht dazu geäußert unter welchen umständen mfg auf den karten überhaupt sinnvoll ist!

du erwähnst nie, dass flüssige settings nur einen klick(texturen) entfernt sind.
du berücksichtigst nicht, dass für mehr als 1080p eh die rohlleistung fehlt.
du berücksichtigst nicht, dass mit 1080p max texturen eh nicht sinnvoll darstellbar sind.

usw usf
ich finde Raff in fast allen Fällen als sehr ausgewogen.

Es stimmt schon, dass man in der Praxis nicht unbedingt auf Ultra zockt, also auch nicht auf Max-Texturen und dass man dann auch nicht so schnell ins VRAM-Limit läuft. 2024 hielt ich Raffs Warnungen vor 12-GiB-Karten für noch leicht übertrieben, aber 2025 halte ich Warnungen vor 8-GB-Karten für Pflicht.

Wobei ich bei meinem Lappi mit mobiler "4070" (also 4060 Ti) mit 8 GB keine Sorgen habe weil ich weiß was man damit machen kann und was nicht. Ganz ehrlich? Gerade für das Powertarget und die schleißigen 8 GB VRAM finde ich die mobile 4070 ziemlich gut, wenn man sich ein wenig Zeit nimmt, verschiedene Setting zu probieren.

Für einen Desktop dürften 8-GB-Karten aber aktuell nicht so viel kosten, weil man absehbar in Probleme läuft. 1440p ist das neue 1080. Rohleistung haben die GPUs der 50-er Serie eigentlich reichlich. Was Nvidia schon immer hinbekommen hat, seit der ersten Geforce, ist Rohleistung.