PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 8 GB VRAM – Problem der Hersteller oder der Käufer?


nonharderware
2025-05-28, 16:35:38
Hallo,

mir brennt seit einiger Zeit ein Thema unter den Nägeln, das in der Hardware-Community (zurecht oder nicht) immer wieder für hitzige Diskussionen sorgt:
Die Empörung darüber, dass 2025 noch neue Grafikkarten mit nur 8 GB VRAM erscheinen – speziell im Midrange- oder sogar oberen Budget-Segment.

Und ich meine explizit: die Empörung an sich.
(Bitte nicht falsch verstehen – keine Kritik an den Artikeln hier auf 3DCenter. No offense, Leo!)

Klar, ich sehe den Punkt: Spiele werden anspruchsvoller, Texturen detaillierter, Engines komplexer. 8 GB stoßen da – je nach Titel und Auflösung – schnell an ihre Grenzen.

Aber ganz ehrlich:
Die Diskussion wird langsam lächerlich.
Haben wir keine anderen Sorgen? Etwa das Support-Ende bestimmter Betriebssysteme? Oder explodierende Preise, weil irgendjemand das Wort „Zoll“ als Lieblingsfüllwort nimmt?

Ich persönlich finde:
Das Problem liegt nicht (nur) bei den Herstellern – sondern auch bei der Käuferverantwortung.

Wer sich 2025 eine Grafikkarte zulegt – sei es fürs Gaming, für Content Creation oder anderes – hat Zugang zu einem Überfluss an Informationen.
Wer zu bequem zum Lesen ist, kann sich von ChatGPT was zusammenfassen lassen. Der Rest findet Reviews, Benchmarks, Vergleichsvideos usw.

Wer trotzdem zu einer 8-GB-Karte greift, obwohl regelmäßig AAA-Titel auf Ultra gespielt werden sollen, hat sich entweder nicht ausreichend informiert – oder nimmt die Limitierungen bewusst in Kauf.

Und ganz ehrlich:
Für Leute, die „nur mal was spielen“ wollen, oder die jetzt eine Ersatzkarte brauchen (z. B. bei Defekt oder begrenztem Budget), reicht eine 8-GB-Karte oft immer noch aus.
Niemand wird zur falschen Entscheidung gezwungen.
Die Informationen sind da – man muss sie nur nutzen.

Oder – als Analogie zur Datensicherheit:
Kein Backup? Kein Mitleid.
Keine Recherche? Tut mir leid – du hattest die Wahl. Lern draus.

Spannender finde ich aber die Systemfrage dahinter:
Warum ist es 2025 immer noch nicht möglich, den VRAM aufzurüsten?
Warum müssen wir bei jeder Speichergrenze gleich eine neue Karte kaufen, obwohl der Chip oft noch völlig ausreicht?

Stellt euch vor, eine RTX 2060 oder RX 5700 ließe sich heute mit einem simplen Modul auf 16 GB aufrüsten.
Das wäre nicht nur nachhaltiger, sondern würde auch echten technischen Fortschritt bedeuten – weg vom Wegwerfmodell, hin zu modularer, zukunftsfähiger Hardware.

Doch stattdessen kriecht die Industrie auf der Stelle.
Warum? Weil man sich damit abgefunden hat – und es mittlerweile fast schon Dogma ist:
Aufrüstung ist bei GPUs einfach tabu.

Ich glaube:
Würde man gesetzlich vorschreiben, dass VRAM prinzipiell aufrüstbar sein muss, dann hätten wir alle etwas davon – technisch wie ökologisch.
(Dass regulatorischer Druck Wirkung zeigt, sieht man z. B. aktuell bei der Zoll-Thematik.)

Und ganz ehrlich:
Mir wäre das alles tausendmal lieber, als wieder die hundertste Empörungsrunde über 8-GB-Karten.
Denn die nervt nur noch. 😉

Was meint ihr?

Wer trägt wirklich die Verantwortung – die Industrie oder der Käufer?

Fehlen uns schlicht die nötigen Marktregulierungen?

Und wie realistisch ist ein modularer GPU-Markt überhaupt?

Meine erste Grafikkarte – eine Cirrus Logic 5-irgendwas VLB – konnte man noch problemlos auf 2 MB (!) aufrüsten.
Heute? Undenkbar.

Bin gespannt auf eure Gedanken – konstruktiv natürlich!

Peace :smile::cool::)

Raff
2025-05-28, 16:49:04
Kein Fortschritt ist immer ein Problem. 8 GiB waren 2014 wirklich obergeil, aber die Welt hat sich weitergedreht. 2025 sind 8 GiB nichts weiter als ein Ärgernis, eine Technikbremse, geplante Obsoleszenz, Margenoptimierung. Wer heute noch eine 8-GiB-Karte will, kann auf dem Gebrauchtmarkt Millionen davon holen, ohne dass frische Ressourcen dafür verschwendet werden.

A5zg4wptBS4

MfG
Raff

nonharderware
2025-05-28, 16:54:51
Ich stimme dir grundsätzlich zu – der Fortschritt darf nicht künstlich gebremst werden.
Aber die Realität ist komplexer als nur „8 GiB = Obsoleszenz“.

Natürlich sind 8 GiB im High-End-Bereich 2025 nicht mehr zeitgemäß. Keine Frage. Aber der Markt besteht nicht nur aus Enthusiasten oder High-Fidelity-Gamern. Es gibt Nutzer mit sehr begrenztem Budget, es gibt OEMs, es gibt temporäre Übergangslösungen. Und: Der Gebrauchtmarkt ist nicht für alle eine Option (Garantie, Zustand, Kompatibilität, Unsicherheit).

Das größere Problem ist aus meiner Sicht nicht die Existenz von 8-GB-Karten, sondern:

Dass sie oft bewusst falsch vermarktet werden („Gaming-Karte!“),

Dass keine aufrüstbare Alternative existiert, und

Dass viele Käufer schlicht nicht wissen, worauf sie achten müssen – oder sich keine Zeit nehmen, sich zu informieren.

Und genau da liegt der Punkt meines ursprünglichen Postings:
Nicht die 8 GiB selbst sind das Problem – sondern wie sie verwendet, verkauft und gekauft werden.

Geplante Obsoleszenz wäre vermeidbar, wenn Aufrüstbarkeit gesetzlich gefordert würde. So wie bei Smartphones Akkutausch vorgeschrieben ist, könnte auch bei GPUs irgendwann eine modulare Speicherlösung gefordert sein. Das wäre echter Fortschritt.

Solange das fehlt, bleibt die Verantwortung auch beim Käufer. Denn wer sich heute eine neue GPU holt, hat Zugriff auf alle Informationen. Wer trotzdem unreflektiert kauft, darf sich am Ende nicht wundern.

BeetleatWar1977
2025-05-28, 17:09:31
So halb zum Thema:
Die letzte Grafikkarte mit Speicherupgradeoption, die ich in der Hand hatte, war ein Matrox Mystique - wenn ich mich nicht irre......

nonharderware
2025-05-28, 17:22:39
So halb zum Thema:
Die letzte Grafikkarte mit Speicherupgradeoption, die ich in der Hand hatte, war ein Matrox Mystique - wenn ich mich nicht irre......

Ich erinnere mich auch... Ich glaube da konnte man ein Modul aufstecken, richtig?

BeetleatWar1977
2025-05-28, 17:25:55
Ich erinnere mich auch... Ich glaube da konnte man ein Modul aufstecken, richtig?

:up:

Genau!

Rabiata
2025-05-28, 17:46:44
Warum ist es 2025 immer noch nicht möglich, den VRAM aufzurüsten?
Warum müssen wir bei jeder Speichergrenze gleich eine neue Karte kaufen, obwohl der Chip oft noch völlig ausreicht?
Peace :smile::cool::)
Meines Wissens wird es mit höheren Frequenzen immer schwieriger, Speichersockel zu verwenden, weil die Übergänge zwischen Mainboard und Modulen hochfrequenztechnisch problematisch werden. Direkt auf die Platine gelöteter RAM ist einfacher in den Griff zu bekommen. Und mit jedem neuen RAM-Standard werden die Frequenzen für den Datentransfer höher.

Als einfache Lösung für den Käufer bleibt leider nur, von vornherein eine Karte mit großzügig dimensioniertem RAM zu kaufen. Da würde ich mittlerweile z.B. eine 5060Ti 16 GB einer 5070 vorziehen.

blackbox
2025-05-28, 17:52:48
Die Empörung ist verständlich wegen 2 Kriterien: Preis und Fortschritt.

Dass die Preise zu hoch sind, ist allen klar.
Aber eine 8GB Karte heutzutage für den Mainstream noch zu verkaufen, ist frech. Und eine Karte der 60er Generation ist Mainstream.

Und warum geht das? Weil wir ein Duopol haben.

nonharderware
2025-05-28, 18:12:52
Meines Wissens wird es mit höheren Frequenzen immer schwieriger, Speichersockel zu verwenden, weil die Übergänge zwischen Mainboard und Modulen hochfrequenztechnisch problematisch werden. Direkt auf die Platine gelöteter RAM ist einfacher in den Griff zu bekommen. Und mit jedem neuen RAM-Standard werden die Frequenzen für den Datentransfer höher.

Als einfache Lösung für den Käufer bleibt leider nur, von vornherein eine Karte mit großzügig dimensioniertem RAM zu kaufen. Da würde ich mittlerweile z.B. eine 5060Ti 16 GB einer 5070 vorziehen.

Mit steigenden Taktraten wird das elektrische Design immer komplexer, und direkt verlöteter Speicher ist aus Herstellersicht einfacher zu kontrollieren.
Aber ich glaube, man muss die Frage weiterfassen.

Auch auf Mainboards laufen heute DDR5-Module mit 6000–8000 MT/s – über gesockelte DIMMs. Klar, mit Aufwand – aber es geht.
Industrie-Standards wie HBM oder modulare PCIe-Boards zeigen ebenfalls, dass selbst High-Speed-Komponenten modular und zuverlässig kombinierbar sind, wenn man es nur will.

Und genau da liegt das Problem:
Technisch wäre vieles möglich. Aber ökonomisch ist es mMn. nicht gewollt.
Ein modularer, aufrüstbarer VRAM-Standard bräuchte Normierung, Qualitätskontrolle, eine längere Produktlebensdauer.

Also ja – technisch komplex, aber nicht unmöglich.
Wir reden hier nicht über Magie, sondern über fehlende Motivation zur Modularität.


Die Empörung ist verständlich wegen 2 Kriterien: Preis und Fortschritt.

Dass die Preise zu hoch sind, ist allen klar.
Aber eine 8GB Karte heutzutage für den Mainstream noch zu verkaufen, ist frech. Und eine Karte der 60er Generation ist Mainstream.

Und warum geht das? Weil wir ein Duopol haben.


Das Duopol begünstigt das, ja. Aber ohne echten Wettbewerb oder gesetzliche Vorgaben für nachhaltige, aufrüstbare Hardware wird sich daran wenig ändern.

Und solange weiter Millionen schlecht informierte Käufer zugreifen, bleibt der Markt, wie er ist.

mczak
2025-05-28, 18:15:28
Ich würde meinen "Schuld" sind auch die Speicherhersteller, weil sich da bei der Kapazität der GDDR6 Chips seit 6 Jahren einfach gar nichts getan hat (Micron/Hynix hatten am Anfang bloss 8 gbit Chips im Programm, Samsung von Anfang an auch 16 gbit Chips).
Und Consumer-Grafikkarten mit Clamshell-Modus sind nun mal seit Ewigkeiten nicht mehr populär weil da (abgesehen von den Speicherchips, grössere Chips sind natürlich teurer) zusätzliche Kosten entstehen. Und extra ein breiteres SI will man natürlich auch nicht verbauen.
Ich denke mal die Lage wird sich da entspannen wenn 24 gbit (oder auch 32 gbit) gddr7 Chips breit verfügbar sind. Wird wohl immer noch Karten mit 8 GB geben, aber da alle Karten dasselbe PCB verwenden können werden sich die Aufpreise zu Karten mit mehr Speicher wohl in Grenzen halten.

Der_Korken
2025-05-28, 18:20:40
Über aufrüstbaren VRAM brauchst du gar nicht zu philosophieren. Je weiter die Technik fortschreitet, desto unwahrscheinlicher wird sowas, weil du die Signale einfach nicht mehr übertragen bekommst. Wenn, dann hätte es aufrüstbaren VRAM schon längst geben müssen und er wäre mit der Zeit seltener geworden, weil zu teuer und ineffizient. Vielmehr werden wir die nächsten Jahre vielleicht sogar erleben, dass normaler RAM nicht mehr aufrüstbar sein wird. Bei Laptops wird RAM schon lange zumindest teilweise verlötet, aber mit Apples M-Serie, Intels Lunar Lake und AMDs Strix Halo ist der RAM mittlerweile zur CPU aufs Package gewandert, weil das einfach unglaublich viel Strom spart. Im Desktop kann man auf diese Effizienz sicher noch eine Weile verzichten, aber auch dort wird die Physik nicht ewig Halt machen.

Hakim
2025-05-28, 18:20:59
Ich bin nicht konkret gegen 8GB oder auch 12GB Karten, klar kann man solche Karten entsprechend verkaufen. Aber es ist mMn nun mal nicht angebracht 2025 für 300-400€ 8 GB oder für 550-600€+ 12GB Karten zu verkaufen. Aber gut man hat zumindest bei einigen Karten die Option mit zwei verschiedenen Speicherausführungen, und da kann sich halt der Käufer selber aussuchen ob ihm das Wert ist, aber halt leider nicht bei jeder Serie (5060, 5070)

Rabiata
2025-05-28, 18:39:30
Auch auf Mainboards laufen heute DDR5-Module mit 6000–8000 MT/s – über gesockelte DIMMs. Klar, mit Aufwand – aber es geht.
Industrie-Standards wie HBM oder modulare PCIe-Boards zeigen ebenfalls, dass selbst High-Speed-Komponenten modular und zuverlässig kombinierbar sind, wenn man es nur will.

Und genau da liegt das Problem:
Technisch wäre vieles möglich. Aber ökonomisch ist es mMn. nicht gewollt.
Ein modularer, aufrüstbarer VRAM-Standard bräuchte Normierung, Qualitätskontrolle, eine längere Produktlebensdauer.
VRAM liegt derzeit eher bei 20 GT/s, das ist noch mal eine Hausnummer mehr. Und eine Artikel von 2024 (https://www.fpshub.com/753554/8gb-of-vram-now-costs-just-18-as-gddr6-spot-pricing-plummets-to-new-low/) meldet Preise um $18 für 8GB.
Da stellt sich schon die Frage, ob sich der Aufwand für den modularen Standard für den Hersteller lohnt, oder ob man nicht einfach pauschal etwas mehr verbauen sollte. Von 8 GB auf 16 GB zu gehen, sollte beim Endverbraucher eigentlich für 50 Dollar Mehrpreis ankommen, wenn die Zahlen im Artikel noch stimmen. Da sind etwa 100% Marge von Herstellung zum Endkundenpreis schon eingerechnet.

Aber wenn sich die Kunden schon nicht informieren und im Rahmen des vorhandenen Angebots klug auswählen, habe ich da wenig Hoffnung. Im Servermarkt scheint das eher zu gehen, siehe auch die Standards die Du erwähnt hast. Bei High End GPUs für KI ist HBM zum Beispiel Standard. Aber die sind auch richtig teuer.

Gouvernator
2025-05-28, 18:49:34
Es wird zu merkwürdig aussehen wenn kleine Grafikkarten ein Vram Upgrade erhalten, während die großen Karten stagnieren. Wir haben 8Gb weil die 16GB nicht steigen dürfen. Jensen will seine Trillionen mit KI Fabriken verdienen, und genau dafür darf seine eigene Karten mit lokalen LLMs deren Kundschaft nicht abgraben. Der Sweetspot fängt ja gerade mit 24GB an. Wenn das im Mainstream-Segment ankommt, braucht kein Mensch mehr seine KI Fabriken.

3D-User
2025-05-28, 18:49:46
Wenn eine 8-GB-Karte als „Gaming-Kraftpaket“ beworben wird, ohne klarzumachen, dass sie für 1080p oder "ältere/schwächere" Titel gedacht ist, wird der Käufer hier ganz klar getäuscht.

NVIDIA, AMD oder Intel könnten hier transparenter sein, z. B. mit klaren Hinweisen wie „Optimiert für 1080p-Gaming“ oder „Nicht für 4K-Raytracing geeignet“.

Stattdessen wird oft mit Schlagworte wie „Ultra Gaming“ geworben, was besonders weniger informierte Käufer in die Irre führt.

Das ist keine Bosheit, sondern Kalkül – und genau das treibt halt die Empörung an.

Sie lenkt Uns auch von größeren Problemen ab – wie der Wegwerfmentalität der Industrie und der fehlenden Nachhaltigkeit.

Ich bin ebenfalls der Meinung das Käufer die Verantwortung tragen, sich zu informieren, aber die Industrie könnte auch mit offeneren Karten spielen wenn Sie wollten indem Sie bewusst keine künstlichen Limitierungen setzen.

Modularer VRAM wäre ein Traum, aber die Industrie wird es wohl nie freiwillig umsetzen, da es Wirtschaftlich aus deren Sicht dies zu unlukrativ wäre.

Regulierungen könnten helfen - wäre aber auf langer Sicht betrachtet kein Allheilmittel.

spotz
2025-05-28, 21:15:45
Ganz ehrlich: Ich halte das für ein Problem der Hersteller und nicht der Käufer. Bei den Herstellern liegt die Expertise. NVIDIA und AMD könnten ihre Chips so designen, dass dort unterschiedliche VRAM Bestückungen möglich wären auch bei günstigen Karten. Die aktuelle Situation ist im Grunde ein Versagen des Marktes auf Seiten der Anbieter, nicht der Nachfrager. Die Nachfrage wäre da, sie wird aber nicht befriedigt, weil NVIDIA und AMD die Preise hochhalten wollen.

Da kann man die Käufer nicht verantwortlich machen. Könnte er besser informiert sein? Sicherlich. Aber bei Millionen Käufern ist das zu viel verlangt.

qiller
2025-05-28, 23:46:19
Modularer VRAM würde die Performance schmälern und/oder die Karten teurer machen. Ich mein, guck dir doch mal die Datenraten an, da sind wir mittlerweile bei über 1TB/s. Das kannste mit irgendwelchen Steckmodulen knicken. Und wenn man es doch hinbekommen würde (ich sag nicht, dass es nicht geht), wäre es halt deutlich teurer als gelötete ICs.

Der Markt wird das regeln, wenn diese Karten weniger gekauft werden. Und Raff geht ja auch seiner journalistischen Pflicht nach und warnt schon seit einer Weile vor 8GB Karten. Mittlerweile sind ja wirklich viele Medien auf den 8GB-Blame-Zug aufgesprungen (man gucke sich mal die ganzen Techtuber an, die jetzt wirklich regelmäßig die 8GB VRAM kritisieren).

Da entsteht dann auch mehr Druck auf die Hersteller, wenn deren Produkte ständig im schlechten Licht dastehen. Und auch bei immer mehr Endkunden kommt diese Philosophie an - selbst bei den Kunden, die Fertigsysteme kaufen (da wird sicherlich der Großteil der 8GB VRAM-Karten landen).

DrFreaK666
2025-05-28, 23:56:02
Preis spielt bei vielen auch eine Rolle.
Bei 300€ ist das Angebot überschaubar und für viele Intel halt keine Wahl, weil Intel; dann holt man sich die 5060.
Die 5060Ti 16GB kostet halt nochmal 150€ bzw. 50% mehr.
Und wer sowieso nur lightweight Spiele spielt, dem reichen 8GB locker aus

qiller
2025-05-29, 10:18:43
Preis spielt bei vielen auch eine Rolle.

Im DIY-Markt weniger. Jeder halbwegs informierte Käufer wird da die 50€ mehr ausgeben und zu der größeren VRAM-Variante greifen (siehe MF-Verkaufszahlen RTX5060Ti), wenn sie denn eine Wahl haben (bei den meisten Grafikkarten-Produkten hat man ja gar keine Wahl).

Im OEM-Markt hast du aber recht. Hier werden ja die Systeme aufs Äußerste beschnitten um die Kosten zu drücken. Und da passt dann eine RTX5060Ti mit nur 8GB super rein. Man kann fett mit der RTX5060Ti werben und lässt den VRAM unterm Tisch fallen. Und Leute, die OEM-Systeme kaufen, gucken da einfach weniger genau hin oder die Info wird ihnen sogar vorenthalten.

Ich muss aber auch sagen, dass ich das Gefühl habe, dass OEM-Gamingsysteme (wie z.B. die Medion-Teile) immer weniger gefragt sind und die Leute sich lieber bei Dubaro, MF, Alternate etc. ihre Kisten aus Retail-Produkten zusammenstellen lassen. Finde ich einen guten Trend und auch hier wird denke ich immer mehr auf solche Details wie VRAM geachtet. Wenn die Leute beim Zusammenklicken ihres Builds dann die Auswahl zwischen einer RTX5060Ti mit 8GB VRAM und 16GB VRAM haben, müssen sie sich zwangsläufig schlau machen (und stolpern dann auch über die Artikel und Videos mit den 8GB VRAM Kritiken), um nicht an der falschen Stelle zu sparen. Diese Auswahl hast du bei OEM-Fertigsystemen aber nicht.

DrFreaK666
2025-05-29, 11:15:13
Im DIY-Markt weniger. Jeder halbwegs informierte Käufer wird da die 50€ mehr ausgeben und zu der größeren VRAM-Variante greifen (siehe MF-Verkaufszahlen RTX5060Ti), wenn sie denn eine Wahl haben (bei den meisten Grafikkarten-Produkten hat man ja gar keine Wahl).
Ich schrieb mit Absicht 300€ (was du natürlich nicht zitiert hast)

qiller
2025-05-29, 12:31:09
Ok, dann schreib ichs mal anders: Wenn es jetzt eine RTX5060 mit 8GB VRAM für 300€ und eine RTX5060 mit 16GB (was ja auch nur am Willen von Nvidia scheitert) für 360€ gäbe, glaubst du ernsthaft, dass informierte Käufer dann wegen 60€ rumknausern werden? Das wäre dann das typische Sparen am falschen Ende. Aber aktuell stellt sich diese Frage ja auch bei RTX5060 gar nicht.

Ich bin mal gespannt, wie das dann bei der 9060XT aussehen wird. Mich deucht, wir werden hier wieder ähnliche Verkaufsverteilungen zwischen der 8 und 16GB Variante sehen, wie schon bei der RTX5060Ti.

00-Schneider
2025-05-29, 12:42:24
Das Problem ist, das immer noch die Irrglaube herrscht, das 8GB VRAM für 1080p ausreichen. Das ist in vielen ~aktuellen Spielen nicht mehr der Fall, selbst mit DLSS/FSR o.Ä.:

C0_4aCiORzE

(durchskippen reicht)

nonharderware
2025-05-29, 13:43:45
Ich habe dieses Thema hier gestaret, weil ich den Eindruck habe, dass die dauerhafte Empörung über 8 GB VRAM inzwischen vor allem emotional aufgeladen ist – mit immer weniger konkretem Nutzen.

Und ehrlich gesagt:
Mich stört diese künstliche Aufregung.

Denn sie ist weder zielführend noch konstruktiv:

Die Community hier ist informiert. Sie kennt die Limits, vergleicht Benchmarks und weiß, was sie kauft.

Die uninformierten Käufer profitieren von dieser Art Diskussion nicht – sie werden nur weiter verunsichert, was wiederum von von bspw. einer Marketingstrategie ausgenutzt werden könnte.

Und der Markt reagiert nicht auf Empörung. Die Debatte um GPU-Preise hat das ja bereits eindrucksvoll bewiesen.

Deshalb: Ablage. Weitermachen.

Aber „Weitermachen“ heißt nicht: hinnehmen.
Ich glaube, es gäbe durchaus realistische Zwischenlösungen, die Hersteller technisch umsetzen könnten, wenn sie wollten:

Beispiel:
Eine GPU mit fest verlöteten 16 GB VRAM, ergänzt um zwei Standard-RAM-Sockel (z. B. DDR5 SODIMM) plus einen PCIe-5-M.2-Slot auf dem PCB – nicht als Massenspeicher, sondern als Cache-Stufe für große Texturen, KI-Daten oder Replays.
Das wäre keine „echte VRAM-Erweiterung“, aber ein konfigurierbarer, nutzerseitiger Performance-Puffer, der GPU-Hardware endlich wieder in Richtung Aufrüstbarkeit öffnet.

Und bitte nicht verwechseln mit den wenigen Speziallösungen, bei denen SSDs als Massenspeicher für Spiele fungieren – ich rede hier von einem echten, durchdachten Cache-Modell, ähnlich wie beim gestaffelten Arbeitsspeicher auf Mainboards oder bei L3-Cache-Boosts auf CPUs.

Klar, das wäre kein trivialer Umbau, aber auch keine Science-Fiction.
Nur: Solche Lösungen kommen eben nicht von allein, solange wir uns weiter mit Empörung über die alten Probleme aufhalten.

Deshalb mein Appell:
Lassen wir die 8-GB-Debatte hinter uns – und reden wir endlich über Lösungen.

Der_Korken
2025-05-29, 14:28:55
Eine GPU mit fest verlöteten 16 GB VRAM, ergänzt um zwei Standard-RAM-Sockel (z. B. DDR5 SODIMM) plus einen PCIe-5-M.2-Slot auf dem PCB – nicht als Massenspeicher, sondern als Cache-Stufe für große Texturen, KI-Daten oder Replays.
Das wäre keine „echte VRAM-Erweiterung“, aber ein konfigurierbarer, nutzerseitiger Performance-Puffer, der GPU-Hardware endlich wieder in Richtung Aufrüstbarkeit öffnet.

Die SSD auf der Graka kannst du dir sparen. Wir haben einen x16 PCIe-Slot, der viel schneller ist als eine SSD, sodass man die Daten auch von einer SSD auf dem Mainboard holen kann. Genau das wird durch DirectStorage vereinfacht, sogar mit Extras wie GPU-seitiger (De-)kompression. Das ist mit allen SSDs kompatibel und wesentlich flexibler bzw. pflegeleichter, weil ich mich drum kümmern muss, dass immer das richtige Spiel auf meiner GPU-SSD liegt. Dein Vorschlag macht alles aufwendiger (d.h. teurer) ohne Vorteile zu bieten.

Die RAM-Slots auf der Graka haben ein ähnliches Problem. Hier sind natürlich Bandbreite und Latenz deutlich besser als die Anbindung über den PCIe-Bus auf den System-RAM, aber für 3D-Rendering wäre DDR5 viel zu langsam. Wir reden hier in Spitze - DDR5-8000 vs GDDR7 mit 30Gbps - fast von Faktor 4 Unterschied beim Durchsatz. Als Swap für den VRAM könnte es tatsächlich taugen, das gebe ich zu. Aber auch hier fängst du dir einige Nachteile ein:

1. Kleinster gemeinsamer Nenner. Aktuell bringt es dir fürs Gaming nichts, wenn du z.B. 32GB Zusatz-RAM auf der Graka hast, weil niemand seine Spiele so programmiert. Die Entwickler müssten diesen Vorteil erstmal in einen optischen Mehrwert umsetzen. Die Mühe machen sie sich aber nur, wenn die Installations-Basis auf lange Sicht gegeben ist. Solange du es aber über optionale DIMM-Slot löst, müssen die Entwickler immer auch einen Fallback einbauen, falls jemand sowas nicht hat. Das hat historisch leider oft dazu geführt, dass für den kleinsten gemeinsamen Nenner entwickelt wird. Ich meine hier übrigens explizit nicht das typische Henne-Ei-Problem, sondern dass sich hier langfristig eine Fragmantierung einstellt.
2. Kosten für die Graka: Die DIMM-Slots gibt es natürlich umsonst. Du musst für Dual-Channel-RAM 128bit SI von der GPU nach außen führen und das ist ganz schön aufwendig: Die PHYs kosten viel teure Chipfläche und die Platine braucht zusätzliche Layer.
3. Unflexibel: Den Extra-RAM kannst du nicht für andere Dinge nutzen. Das erwähne ich deswegen, weil wir aus technischer Sicht die umgekehrte Entwicklung beobachten können: Die Tendenz geht sowohl im Server als auch Mobile zu einem gemeinsamen RAM für CPU und GPU für weniger Overhead, weniger externe Leitungen und flexiblere Nutzung der Ressourcen.

Der Beitrag mag jetzt klingen, wie von einem verbitterten Rentner, der keine Veränderung will, aber so ist er nicht gemeint. Ich persönlich habe keine Vorlieben dafür welche Technik sich am Ende durchsetzt. Ich setze aber deine Vorschläge mit den Trends der letzten 10 Jahre in Relation und komme zu dem Schluss, dass erstere dem Trend quasi entgegengesetzt sind. Dadurch halte ich es für sehr unwahrscheinlich, dass wir sowas jemals sehen werden.

---------

Was die Emotionalität der 8GB-Diskussion betrifft: Ich verstehe, dass du bei einem so technischen Thema nicht Emotionen als Triebfeder haben möchtest. Letztendlich könnte uns das hier im Forum auch komplett egal sein. Wir könnten sogar schadenfreudig auf die ganzen Hardware-Noobs blicken, die einfach dem Marketing der Hersteller folgen und sich für teuer Geld eine 8GB-Karte kaufen. Die wird dann in neuen Spielen wie ein Sack Nüsse laufen und wir haben was zum lachen und können uns erhaben fühlen.

Die Frage ist nur, ob uns das nicht irgendwann doch wieder einholen wird. Zum einen könnte sich die Masse vom PC-Gaming abwenden, wenn sie bei der Hardware ständig übers Ohr gehauen wird, weil sie für ihr Geld zu wenig Gegenwert sieht. Zum anderen könnte hier wieder der kleinste gemeinsame Nenner zuschlagen und die Entwickler legen ihre Spiele wieder auf zu kleinen VRAM aus, sodass wir wieder Schlauchlevel und Matschtexturen wie zu PS3-Zeiten bekommen.

Das imho schlimmste was uns Enthusiasten passieren könnte, wäre entweder ein Absterben des PC-Gamings (unwahrscheinlich weil schon oft prophezeit aber dann doch nie eingetreten) oder aber ein Absterben des Hardware-Marktes (imho gar nicht so unwahrscheinlich). Letzteres bedeuten dann nur noch Online-Streaming mit Abo-Modell, Abschalten von alten Spielen nach Gutdünken der Anbieter und Monetarisierung bzw. Verunmöglichung von jedwedem Mod-Content. Insofern sollte uns nicht egal sein, was auf dem HW-Markt so vor sich geht.

DrFreaK666
2025-05-29, 14:33:10
Es gibt keine zufriedenstellende Lösungen, solange es sowas gibt

https://i.postimg.cc/QB22ff28/Screenshot-20250529-143154-Brave.jpg (https://postimg.cc/QB22ff28)

"Krass Alda! 5060 schneller als 5090."

Shink
2025-05-29, 14:39:18
für 3D-Rendering wäre DDR5 viel zu langsam
Ach was - sieh dir Strix Halo an.
Ansonsten: Wie schon öfters hier erwähnt sehe ich das größere Problem bei mobilen Geräten. Eine GPU mit mehr als 8GB VRAM bekommt man um unter 300€ (z.B. B580, RX7600XT). Ein Laptop mit mehr als 8GB VRAM kostet schon mal 2000€.

nonharderware
2025-05-29, 14:57:21
@Der_Korken:

Interessante Punkte, die sehe ich aber eben wahrscheinlich etwas verzerrt, da ich nicht nur spiele, sondern auch extrem viel mit KI-Modellen lokal arbeite(n muss - Datenschutz).
Ergo sind mir die 24GB der 4090 schon ehrlich gesagt zu wenig :freak: und ich bin eher von dieser 8GB Situation angewidert und interpretiere als ClickBait.
Habe mittlerweile diverse Abos auf YT abgestellt, weil ich es nicht mehr lesen kann.

Es gibt keine zufriedenstellende Lösungen, solange es sowas gibt

https://i.postimg.cc/QB22ff28/Screenshot-20250529-143154-Brave.jpg (https://postimg.cc/QB22ff28)

"Krass Alda! 5060 schneller als 5090."

Eben: Wer keine Ahnung hat, was "fakeFrames" sind, der soll sich doch freuen.

BlacKi
2025-05-29, 16:41:49
Aber ganz ehrlich:
Die Diskussion wird langsam lächerlich.
Haben wir keine anderen Sorgen? Etwa das Support-Ende bestimmter Betriebssysteme? Oder explodierende Preise, weil irgendjemand das Wort „Zoll“ als Lieblingsfüllwort nimmt?

Ich persönlich finde:
Das Problem liegt nicht (nur) bei den Herstellern – sondern auch bei der Käuferverantwortung.


Spannender finde ich aber die Systemfrage dahinter:
Warum ist es 2025 immer noch nicht möglich, den VRAM aufzurüsten?
Warum müssen wir bei jeder Speichergrenze gleich eine neue Karte kaufen, obwohl der Chip oft noch völlig ausreicht?

Stellt euch vor, eine RTX 2060 oder RX 5700 ließe sich heute mit einem simplen Modul auf 16 GB aufrüsten.
Das wäre nicht nur nachhaltiger, sondern würde auch echten technischen Fortschritt bedeuten – weg vom Wegwerfmodell, hin zu modularer, zukunftsfähiger Hardware.

Doch stattdessen kriecht die Industrie auf der Stelle.
Warum? Weil man sich damit abgefunden hat – und es mittlerweile fast schon Dogma ist:
Aufrüstung ist bei GPUs einfach tabu.

Ich glaube:
Würde man gesetzlich vorschreiben, dass VRAM prinzipiell aufrüstbar sein muss, dann hätten wir alle etwas davon – technisch wie ökologisch.
(Dass regulatorischer Druck Wirkung zeigt, sieht man z. B. aktuell bei der Zoll-Thematik.)

Und ganz ehrlich:
Mir wäre das alles tausendmal lieber, als wieder die hundertste Empörungsrunde über 8-GB-Karten.
Denn die nervt nur noch. ��

Was meint ihr?

Wer trägt wirklich die Verantwortung – die Industrie oder der Käufer?


Und wie realistisch ist ein modularer GPU-Markt überhaupt?

Bin gespannt auf eure Gedanken – konstruktiv natürlich!




schneller speicher mit niedrigen latenzen und breiter anbindung müssen verlötet werden. amds strix halo kommt zb. nur mit verlötetem systemram. die performance dieser systeme benötigen viel bandbreite und takt, das es modular steckbar nicht lösbar wäre. also bei normalem ram, nicht direkt vram.


d.h. bei gpus ist das aus den selben gründen nicht möglich. technisch nicht, ohne auf performance verzichten zu müssen.


die stabilität sind bei den taktraten und latenzen so anfällig das die enden der lötstellen eine gewisse form haben müssen um keine störungen zu erzeugen. das ist modular nicht lösbar.


was die diskussion um die diskussion angeht, mir geht das mittlerweile am arsch vorbei. mich stören nicht die 8gb sondern die fehlenden möglichkeiten sich anders zu entscheiden. z.b. bei der 5070 12gb? was ist mit 24 oder 16gb per 3gb module? lass sie doch 250€ mehr kosten. aber nee, gibts nicht. das sollte eher angeprangert werden als "optionale" vram ausstattung nach unten hin. von mir aus auch eine rtx 5060 mit 4gb, wenn die jemand kaufen will. wenn es aber mangelnde wahlmöglichkeiten sind die mich beschränken stört mich das viel mehr.

Lurtz
2025-05-29, 16:59:20
Klar, das wäre kein trivialer Umbau, aber auch keine Science-Fiction.
Nur: Solche Lösungen kommen eben nicht von allein, solange wir uns weiter mit Empörung über die alten Probleme aufhalten.

Deshalb mein Appell:
Lassen wir die 8-GB-Debatte hinter uns – und reden wir endlich über Lösungen.
Sehe da keine Lösung wenn man über irgendwelche ausgelagerten Lösungen diskutiert, die kein Hersteller supporten möchte, wenn man billigen VRAM nicht einfach auf die Karten packt.
Zumal die ganze Bandbreitenthematik ohne unified Memory am PC eh schon kompliziert genug ist und bestimmt nicht besser wird, wenn die GPU noch auf einen weiteren Speicherpool zugreifen muss.

Insofern beides völlige Elfenbeinturmdebatten, sieht man ja gerade wieder an den Quartalszahlen von nVidia.

Rabiata
2025-05-30, 23:13:55
Letztendlich könnte uns das hier im Forum auch komplett egal sein. Wir könnten sogar schadenfreudig auf die ganzen Hardware-Noobs blicken, die einfach dem Marketing der Hersteller folgen und sich für teuer Geld eine 8GB-Karte kaufen. Die wird dann in neuen Spielen wie ein Sack Nüsse laufen und wir haben was zum lachen und können uns erhaben fühlen.

Die Frage ist nur, ob uns das nicht irgendwann doch wieder einholen wird. Zum einen könnte sich die Masse vom PC-Gaming abwenden, wenn sie bei der Hardware ständig übers Ohr gehauen wird, weil sie für ihr Geld zu wenig Gegenwert sieht. Zum anderen könnte hier wieder der kleinste gemeinsame Nenner zuschlagen und die Entwickler legen ihre Spiele wieder auf zu kleinen VRAM aus, sodass wir wieder Schlauchlevel und Matschtexturen wie zu PS3-Zeiten bekommen.
Bei der Technik gebe ich Dir recht, und ich sehe auch keine Lösung die dem Endverbraucher mehr fürs Geld geben würde. Zumal die auch irgendwann technisch überholt ist. Da hilft nur Aufklärung, und die nicht immer.

Vor etwa einem Jahr war ein Freund da und hat um Ratschlag für eine eher preiswerte Grafikkarte gebeten. Ich habe ihm ein 12 GB Modell von AMD nahegelegt und gesagt, daß 8 GB schon langsam knapp werden. Einige Wochen später ist er mit einer RX 6650 XT angekommen, die er irgendwo im Sonderangebot bekommen hat. Was willst du da machen?

blackbox
2025-05-31, 00:24:27
Deshalb mein Appell:
Lassen wir die 8-GB-Debatte hinter uns – und reden wir endlich über Lösungen.

Ich glaube, du hast es immer noch nicht verstanden...... wir haben ein Duopol. Mit allen negativen Folgen.

Weder der eine noch der andere Hersteller werden einen Teufel tun, ihr Produkte dahingehend zu ändern, damit man sie länger nutzen kann. Oder dass man sie im Sinne des Verbrauchers anpasst. Das wird nicht passieren. Und schon gar nicht werden die aufgerufenen Preise zurück genommen.

In Ermangelung fehlender Alternativen bleibt dem Konsumenten gar keine Wahl.

Der Kreislauf Spielehersteller>Hardwarehersteller wird weiter fortbestehen. Die Spielehersteller müssen sich ebenfalls von Konkurrenten absetzen, also werden die Mindestanforderungen immer höher. Und die Hardwarehersteller spielen das Spiel mit. Der Konsument hat außer Verzicht keine Wahl mehr, als dieses Spiel mitzumachen. Das gilt auch für die Konsolen! Jede Konsolengeneration schraubt die Grafik und Technik nach oben.
Dieser Kreislauf ist sehr lukrativ für alle Beteiligten.... außer für den Konsumenten.

Wir erleben gerade im Grafikartenmarkt einen Minimalismus des Fortschritts: immer nur so viel wie nötig.

Und um die Anfangs-Frage zu beantworten: Ja, wir haben ein Herstellerproblem.

Tomahawk
2025-05-31, 01:29:15
Die 8GB sind natürlich knapp, allerdings sollte man die Kirche im Dorf lassen. In der Regel kann man die Texturqualität um eine Stufe reduzieren und das Problem ist gelöst.

Zum anderen werden Spiele berücksichtigen (müssen), dass nVidia beim Speicher knausert. Spiele können es sich nicht leisten, auf einer 8 GB-Karte nicht vernünftig lauffähig zu sein, dafür gibt es zu viele 8-GB-Grafikkarten (bis zur 5060 Ti 8GB, und 4070 8 GB Laptop). nVidia gibt hier (leider) auf Grund der dominanten Stellung vor, dass Spiele auch mit 8 GB laufen müssen. Es ist also ein Problem der Spielehersteller, dass Spiele auch mit 8 GB laufen müssen.

nonharderware
2025-05-31, 12:39:36
Ich glaube, du hast es immer noch nicht verstanden...... wir haben ein Duopol. Mit allen negativen Folgen.


Doch, ich habe das sehr wohl verstanden – aber genau deshalb lautet mein Punkt:
Der „freie Markt“ regelt eben nichts. Und wenn das so ist, dann muss staatlicher Druck her – in welcher Form auch immer.

Wenn eine gesetzliche Vorgabe zur Aufrüstbarkeit nicht durchsetzbar ist, dann braucht es zumindest klare Regeln, z. B. ein Verbot von „Upselling“-Strategien oder das Unterbinden von falscher Positionierung sogenannter „Einsteigerlösungen“, die den realen Marktanforderungen längst nicht mehr gerecht werden.

Und nein, das wäre kein Verbot von Non-Gaming-Hardware – sondern ein Verbot, solche Hardware als „Gaming-Produkt“ zu vermarkten, wenn sie das praktisch nicht leisten kann, ohne massive Qualitätseinbußen (z. B. bei Auflösung, Ladezeiten oder Framerate).

Ein Vorschlag zur Umsetzung:
Kein offizieller „Gaming-Treiber“-Support für Produkte, die zum Zeitpunkt der Veröffentlichung Gaming-Anforderungen faktisch nicht erfüllen können. Wer eine Office-Karte kaufen will, soll das tun können – aber ohne Irreführung.

blackbox
2025-05-31, 12:49:02
Staatliche Einflussnahme für ein Luxusprodukt?

Ähm.... ich glaube, der Staat hat Besseres zu tun als sich um solche Lappalien zu kümmern.

nonharderware
2025-05-31, 12:54:08
Staatliche Einflussnahme für ein Luxusprodukt?

Ähm.... ich glaube, der Staat hat Besseres zu tun als sich um solche Lappalien zu kümmern.

Stimmt, deswegen werden auch Autos staatlich nicht reguliert - ich vergaß, my bad :rolleyes:

blackbox
2025-05-31, 13:35:32
Genau, eine Grafikkarte ist auch so dermaßen gefährlich für den Menschen und die Umwelt. Das muss natürlich reguliert werden.

Du weißt ganz genau, dass dein Vergleich für den Popo ist. Der Gesetzgeber regelt vieles beim Auto, wegen der Sicherheit und der Umwelt. Aber ganz sicher regelt der Gesetzgeber nicht, dass du eine Klimaanlage gesetzlich vorgeschrieben nachrüsten kannst. Oder einen größeren Tank nachrüsten kannst. Oder einen stärkeren Motor.....

Ich sags mal so: deine Vorstellungen haben was von "wünsch dir was". Nur sind die leider etwas realitätsfern.

nonharderware
2025-05-31, 14:00:30
Genau, eine Grafikkarte ist auch so dermaßen gefährlich für den Menschen und die Umwelt. Das muss natürlich reguliert werden.



Niemand hat behauptet, dass es um Lebensgefahr geht. Aber wir reden hier auch nicht über Spielzeug – sondern über systematische Ressourcenverschwendung, geplante Obsoleszenz etc. in einem Milliardenmarkt.

Staatliche Eingriffe im Techbereich sind längst Realität, auch bei Gaming-Hardware:

Die Trump-Administration hat z. B. Exportverbote für High-End-GPUs und Chipdesign-Software nach China verhängt – inkl. Nvidia-Produkten, die ursprünglich auch fürs Gaming gedacht waren.

Auch die PlayStation 3 durfte seinerzeit aufgrund technischer Einschränkungen (unter anderem wegen möglicher militärischer Nutzung) nicht in alle Länder exportiert werden.

Und heute? Die EU diskutiert über Reparaturpflichten und Produktlebenszyklen auch im Elektronikbereich – Smartphones und Notebooks eingeschlossen.

Der Punkt ist:
Gaming-Hardware ist längst politisch reguliert worden, wenn auch aus anderen Gründen. Warum also nicht auch im Sinne von Nachhaltigkeit, Transparenz und Verbraucherschutz?


Der Gesetzgeber regelt vieles beim Auto, wegen der Sicherheit und der Umwelt. Aber ganz sicher regelt der Gesetzgeber nicht, dass du eine Klimaanlage gesetzlich vorgeschrieben nachrüsten kannst. Oder einen größeren Tank nachrüsten kannst. Oder einen stärkeren Motor.....


Genau – und dort geht es auch nicht um Klimaanlagen oder größere Tanks, sondern um Effizienz, Sicherheit und Abgasnormen. Das sind Prinzipien, die sehr wohl auch auf die IT-Industrie übertragbar sind.

Ich sags mal so: deine Vorstellungen haben was von "wünsch dir was". Nur sind die leider etwas realitätsfern.


Möglich. Aber viele Fortschritte begannen als „wünsch dir was“ – etwa tauschbare Akkus, verpflichtende Ökodesign-Richtlinien oder Kennzeichnungspflichten.
Und sie wurden Realität, weil jemand nicht akzeptiert hat, dass es eben so bleibt, wie es ist.

Wenn sich der Markt nicht selbst reguliert – dann muss man ihn regulieren. Nicht aus Dogma, sondern aus Notwendigkeit.

blackbox
2025-05-31, 14:10:12
Du driftest ab..... geht es hier noch um die 8GB?

Egal..... die Welt hat wichtigere Probleme zu lösen als diese 8GB.

Sorry, aber diese Diskussion ist mir zu skurril. Over and out.

nonharderware
2025-05-31, 14:15:24
Du driftest ab..... geht es hier noch um die 8GB?

Egal..... die Welt hat wichtigere Probleme zu lösen als diese 8GB.

Sorry, aber diese Diskussion ist mir zu skurril.

Siehst du – am Ende bringst du genau meinen Punkt auf den Punkt:

Diese ständige mediale Empörung rund um die 8 GB wirkt auf mich mittlerweile wie ein Sommerloch-Clickbait – laut, emotional, aber faktisch wenig zielführend - siehe 3. Satz meines Eingangspostings.

Ich „freue“ mich schon, wenn in der nächsten sauren-Gurken-Zeit dann vielleicht 8 CPU-Kerne verteufelt werden … oder vielleicht 12 GB VRAM? Mal sehen, was als nächstes „das große Problem“ wird. 😉

Vielleicht ist’s einfach Zeit, die Debatte loszulassen – und sich echten Lösungen zuzuwenden.

blackbox
2025-05-31, 14:29:17
Ähm, nein, du hast meine Worte falsch gedeutet bzw. falsch verstanden....... 8GB sind definitiv zu wenig und die Aufregung darüber ist berechtigt.

Die Diskussion, die du gestartet hast mit diesem Thread...... von wegen der Staat müsse regulieren..... das empfinde ich als nichtig und überflüssig > es gibt wichtigere Probleme.

G3cko
2025-05-31, 15:12:30
Niemand wird zum Kauf gezwungen, wer es informiert tut muss halt mit den Folgen seiner Entscheidung leben. Wir hatten in der Vergangenheit schon öfter GPUs die vom VRAM DoA waren. Besonders die Dual-GPUs sind hier hervorzuheben.

Rabiata
2025-05-31, 19:19:27
Ich „freue“ mich schon, wenn in der nächsten sauren-Gurken-Zeit dann vielleicht 8 CPU-Kerne verteufelt werden … oder vielleicht 12 GB VRAM? Mal sehen, was als nächstes „das große Problem“ wird. ��

Vielleicht ist’s einfach Zeit, die Debatte loszulassen – und sich echten Lösungen zuzuwenden.
12 GB werden auch irgendwann zu knapp. Keine Frage. Aber wie schon diskutiert, eine technisch gute Lösung für dieses Problem ist nicht in Sicht. Da würde staatliche Regulierung letztlich mehr Schaden anrichten, weil sie die Brache auf eine fragwürdige Lösung festnagelt. Wechselbare Akkus am Handy und verpflichtende USB-Lader sind vergleichsweise sinnvoller.

Vielleicht ist es einfach Zeit, die Debatte zu ignorieren wenn sie keinen Spaß macht.

Meine RX 6600 reicht noch, und wenn das mal nicht mehr der Fall ist, ist die Bestellung für den Nachfolger in ein paar Tagen getätigt. Ich warte da bis ein ganz konkreter Grund da ist, im Sinne von "Anwendung/Spiel schwächelt mit dieser Hardware".

Ex3cut3r
2025-05-31, 20:27:20
Das Thema wird meiner Meinung nach deutlich überbewertet. Die Diskussion läuft bereits seit dem Turing-Release 2018. Damals gab es schon Kritik, als ich von einer GTX 1070 auf eine RTX 2080 umgestiegen bin. Manche Nutzer konnten das überhaupt nicht nachvollziehen.

Sich heute darüber aufzuregen, halte ich für wenig sinnvoll. Mit angepassten Einstellungen auf 1080p und DLSS im Qualitätsmodus laufen rund 90 % der Spiele völlig problemlos. Zusätzlich sollte man vor dem Spielen den Browser schließen und RGB-Software beenden, auch die verbraucht teilweise mehrere Hundert MB VRAM.

Ein weiteres Problem: Viele Tests nutzen maximale Einstellungen statt Settings, die realistisch dem entsprechen, was Konsolen wie die PS5 bieten. Ich bin überzeugt, dass 8 GB VRAM für mich nach wie vor ausreichen würden.

=Floi=
2025-05-31, 23:38:50
Das Thema wird meiner Meinung nach deutlich überbewertet.

und stand heute?

Raff
2025-05-31, 23:42:22
Das Thema wird meiner Meinung nach deutlich überbewertet. Die Diskussion läuft bereits seit dem Turing-Release 2018. Damals gab es schon Kritik, als ich von einer GTX 1070 auf eine RTX 2080 umgestiegen bin. Manche Nutzer konnten das überhaupt nicht nachvollziehen.

Sich heute darüber aufzuregen, halte ich für wenig sinnvoll. Mit angepassten Einstellungen auf 1080p und DLSS im Qualitätsmodus laufen rund 90 % der Spiele völlig problemlos. Zusätzlich sollte man vor dem Spielen den Browser schließen und RGB-Software beenden, auch die verbraucht teilweise mehrere Hundert MB VRAM.

Ein weiteres Problem: Viele Tests nutzen maximale Einstellungen statt Settings, die realistisch dem entsprechen, was Konsolen wie die PS5 bieten. Ich bin überzeugt, dass 8 GB VRAM für mich nach wie vor ausreichen würden.

Du erwähnst korrekterweise Hintergrundprogramme – die werden tatsächlich oft vergessen. Das Problem: Testsysteme sind idR aufgeräumt.

-> Echte Systeme stressen den VRAM mehr als diese "Laborbedingungen".
-> Wie man's dreht und wendet, 8 GiB sind nicht mehr zeitgemäß.

MfG
Raff

x-force
2025-06-01, 04:14:50
Du erwähnst korrekterweise Hintergrundprogramme – die werden tatsächlich oft vergessen. Das Problem: Testsysteme sind idR aufgeräumt.

-> Echte Systeme stressen den VRAM mehr als diese "Laborbedingungen".


was bleibt denn realistisch übrig, das den vram belegt, wenn man alle vordergrundanwendungen schließt?
das sollte man übrigtens nicht nur wegen des speicherverbrauchs tun, sondern auch für saubere frametimes ;)

BiZiNiZz
2025-06-01, 04:22:47
Ich stimme zu, dass 8GB oft/teils/immer je nach Situation zu wenig sind, aber was immer bei der Diskussion außen vorgelassen wird, ist der Software Müll der auf den Markt geworfen wird.

Es wird effektiv betrachtet gar nicht mehr optimiert. Die Spiele fressen die Ressourcen einfach nur und der Mehrwert ist nicht gegeben. Sehe hierzu aber keine großen Diskussionen. Stattdessen wird immer nur nach mehr Ressourcen verlangt, sei es RAM, VRAM, SSD Platz, CPU Leistung, etc.

Es ist leider auch nicht hilfreich, dass es mittlerweile nur noch gefühlt eine Engine auf dem Markt gibt, die jeder Idiot nutzen kann. Früher wurden die Spiele aufgrund der begrenzten Ressourcen zu Tode Optimiert, heute ist es den Entwicklern egal, oder sie können es einfach nicht, die denken sich dann, soll der Kunde sich was neues dickes kaufen. Und dann wollen die gleichen Entwickler für das Game mittlerweile 70-100€, bitte könnt ihr haben, aber Optimiert euren Müll bitte auch und lasst diesen beschissenen Kopierschutz weg, der eh nichts bringt.

Haarmann
2025-06-01, 08:18:47
8 GB sind imo zu knapp bemessen ... aber ...

Für markengeile Einsteiger gemacht ...
Da kannst den Leuten noch so mit zB CB kommen und zeigen - schau - die B580 ist top für alles für den Preis und bietet 12 GB - will Lederjackenkarte ist die Antwort.

Vernünftig zur Zeit ist ne 12 GB 5070 Lederjacke ... aber da sind wir nimmer beim 700er PC, sondern beim 1000er PC. Und auch wenn ich das Glück habe jede Menge 1000er PCs zu verkaufen ... die 700er gibts eben auch.

Der Kunde ist König - auch wenn er ein Idiot ist.

Solange sich die Karten verkaufen - werden die verkauft ...

Selbst die 3050 fand ihre Käufer - ich hatte mal so nen Ding gebraucht gekauft und mit etwas OC befeuert ... unbrauchbar aus meiner Sicht.

][immy
2025-06-01, 09:28:38
8 GB sind imo zu knapp bemessen ... aber ...

Für markengeile Einsteiger gemacht ...
Da kannst den Leuten noch so mit zB CB kommen und zeigen - schau - die B580 ist top für alles für den Preis und bietet 12 GB - will Lederjackenkarte ist die Antwort.

Vernünftig zur Zeit ist ne 12 GB 5070 Lederjacke ... aber da sind wir nimmer beim 700er PC, sondern beim 1000er PC. Und auch wenn ich das Glück habe jede Menge 1000er PCs zu verkaufen ... die 700er gibts eben auch.

Der Kunde ist König - auch wenn er ein Idiot ist.

Solange sich die Karten verkaufen - werden die verkauft ...

Selbst die 3050 fand ihre Käufer - ich hatte mal so nen Ding gebraucht gekauft und mit etwas OC befeuert ... unbrauchbar aus meiner Sicht.

Also, aus meiner Erfahrung ist die 3050 schon flott für den Preisbereich wo der Name her stammt, aber halt vollkommen überteuert.
Natürlich muss man mit einer solchen Karte seine Ansprüche runter schrauben.
Für RT reicht die natürlich nicht, höchstens um mal einen Blick rein zu werfen.

Lurtz
2025-06-01, 12:51:55
Es ist leider auch nicht hilfreich, dass es mittlerweile nur noch gefühlt eine Engine auf dem Markt gibt, die jeder Idiot nutzen kann.
Die UE5 ist doch in dem Punkt sehr intelligent designt, indem sie ziemlich VRAM-sparsam ist und viel streamt. Aber dann zuckts halt mal und schon ist gerade der Masterraceler mit seiner 7 Jahre alten GPU überfordert.

Früher wurden die Spiele aufgrund der begrenzten Ressourcen zu Tode Optimiert, heute ist es den Entwicklern egal, oder sie können es einfach nicht, die denken sich dann, soll der Kunde sich was neues dickes kaufen.
Früher wurde noch mehr kaputte Software auf den Markt geworfen (das war erst überhaupt der Grundgedanke Spiele wie andere Waren zu testen, da man sich nicht mal darauf verlassen konnte, dass sie überhaupt lauffähig sind. Mit Spielspaß und Kunst hatte das noch nichts zu tun.

Windi
2025-06-01, 15:05:49
Bei mir ist es bald soweit, dass ich eine neue Karte brauche.
Wenn man nicht so viel Geld ausgeben möchte spart man am meisten, wenn man die Karte möglichst lange nutzt. Bei 16 GB hätte ich keine Bedenken, dass sie sechs Jahre oder länger hält. Bei 12 GB sehe ich es auch noch locker. Aber bei 8 GB gibt es heute schon kleine Probleme. Wenn man Pech hat, ärgert man sich von Anfang an und kauft dann frustriert nach 3 Jahren eine neue Karte.

Die Spiele-Entwickler können da auch nicht immer viel machen. Die Entwicklung eines Spieles dauert leicht fünf Jahre und länger, da hat man sich anfangs auf bestimmte Mindestanforderungen festgelegt und nicht damit gerechnet, das 2030 immer noch alte Grafikkarten mit 8GB in den Rechnern stecken. Und in der letzten Zeit werden immer mehr AA Spiele von kleinen Entwicklern erfolgreich. Die sind kreativ, haben nur eine kleine Mannschaft und leider nicht so viel Zeit zum optimieren.

Hier liegen die Grafikkartenhersteller in der Pflicht. Wenn zusätzliche 8GB unter 20 € im Einkauf kosten, dann müssen die auf alle teuren Karten drauf.
Ich habe nichts gegen 8GB Karten, wenn sie unter 200€ kosten und 5030 heißen. Aber auf Spielekarten gehören mindestens 12GB.

Da kann die Fachpresse gerne immer und immer wieder den Finger in die Wunde legen.

3D-User
2025-06-01, 15:19:13
Die Hersteller wissen, dass Spieleentwicklungen 3-5 Jahre oder auch mehr dauern können und VRAM-Anforderungen steigen.

Trotzdem setzen sie auf kurzfristige Gewinnmaximierung statt auf zukunftssichere Produkte. Das führt dazu, dass Käufer wie du nach "wenigen" Jahren gezwungen sind, erneut Geld auszugeben.

Daher bin ich der Ansicht, dass Fachpresse und Community konstant Druck machen sollten, auch wenn ich bezweifle ob das letztlich etwas bewirkt.

Shink
2025-06-01, 20:29:51
Ich hab auch nichts gegen 8GB Karten. Wie die Hersteller die benennen, ist ihr Ding. Wer sich z.B. eine hypothetische 9070GRE 8GB kauft, nur weil die einen 7er in der Bezeichnung hat, ist selbst Schuld - oder er weiß genau was er tut und spielt die nächsten 10 Jahre nur Starfield.

Ich hab auch kein Problem mit der RTX3050; ja nicht einmal mit der RX6400. Eine Karte ohne Stromanschluss, Single Slot und SFF die schneller als realistisch bepreiste APUs ist - warum denn nicht.
Die "Einstiegslösungen" mit mehr VRAM kratzen ja alle an die 200W. Da kann man noch so ein mündiger Käufer sein; kompakte und sparsame Karten ab 12GB VRAM gibt es (zur Zeit) nicht.

Colin MacLaren
2025-06-01, 21:34:32
Ich finde die Diskussion lächerlich. Reichen 8 GB für Fortnite, Roblox und Minecraft in 1080p oder 1440p? Ja, das tun sie. Damit hat man quasi alle Unter-20-Jährigen, die überhaupt noch am PC statt am Handy spielen, abgedeckt. Und wenn Papa aus Gründen nix Gebrauchtes zum Geburtstag spendieren will, wird es halt eine 8GB 5060 und die neue Gam0r-Mouse von Trust. Der Use-Case der Karten sind sicher 50% des PC-Gaming-Marktes.

T86
2025-06-02, 08:01:11
Aufgrund der großen Markt Verbreitung könnte man auch annehmen das bei der Spiele Entwicklung einfach auch eine detail Stufe bei Spielen für 6 oder 8gb Karten tauglich ist angeboten und optimiert wird

Ich finde 8gb pauschal auch nicht zu wenig… aber der Hunger der Spiele nach Speicher zollt einfach seinen Tribut
Bei der 3060 hat man schon gesehen das mehr geht
Warum wurde denn ein Rückschritt gemacht danach
Das ist eher die Frage?

Das nächste ist halt auch das der optische Zugewinn durch den Hardware Hunger in keinster Weise gerechtfertigt ist in meinen Augen
Die niedrigen Details die man oft so einstellt inzwischen sind auch relativ hässlich
Und bringen oft auch nur wenig mehr fps da liegt der Hund genau so begraben

Die Schere geht mir nicht mehr weit genug auseinander bei vielen Spielen fehlt Zeit in der Optimierung.
Das die Hardware Hersteller das ausbaden oder die Kunden ist halt auch nicht in Ordnung

Aquaschaf
2025-06-02, 10:09:55
Ein anderer Aspekt ist dass die aktuelle Konsolen-Generation eine Art Baseline darstellt. Wenn man gleich viel oder besser noch etwas mehr Speicher hat als die Konsolen, dann laufen Multiplattform-Titel meistens gut.

Shink
2025-06-02, 10:14:49
Ich finde 8gb pauschal auch nicht zu wenig… aber der Hunger der Spiele nach Speicher zollt einfach seinen Tribut
Bei der 3060 hat man schon gesehen das mehr geht
Warum wurde denn ein Rückschritt gemacht danach
Das ist eher die Frage?

Ich denke, das ist Zufall. Bei NVidia ging man davon aus, dass 6GB genug sind für FullHD. Das ist nicht wirklich falsch - man kommt schon halbwegs damit zurecht.
Bei der RTX2060 musste man dann einsehen, dass das mit Raytracing keinen Sinn macht. Die RTX2060 war eigentlich viel zu stark in der Raytracing-Leistung, um es dann nicht zu nutzen mangels VRAM. Also hat man sich mit 8GB zufrieden gegeben bei der RTX30xx - Reihe. Da die RTX3060 ein 2/3 Speicherinterface hat, hatte man also die Wahl zwischen 6GB und 12GB. Aufgrund der Preissituation damals waren 12GB locker drin.
Bei allen anderen Karten dieser Serie wurde hingegen mächtig gespart (außer der 3090, die sich ausschließlich dadurch auszeichnet).

nonharderware
2025-06-02, 12:22:39
Ich finde die Diskussion lächerlich. Reichen 8 GB für Fortnite, Roblox und Minecraft in 1080p oder 1440p? Ja, das tun sie. Damit hat man quasi alle Unter-20-Jährigen, die überhaupt noch am PC statt am Handy spielen, abgedeckt. Und wenn Papa aus Gründen nix Gebrauchtes zum Geburtstag spendieren will, wird es halt eine 8GB 5060 und die neue Gam0r-Mouse von Trust. Der Use-Case der Karten sind sicher 50% des PC-Gaming-Marktes.

DANKE!
Stimme absolut zu!

Marscel
2025-06-02, 21:00:16
Gibt es eine Schnittmenge zwischen den Leuten "8GB in 2025 sind Scam!1!111^^!" und "Halbes Monatsgehalt für ne Nvidia-Karte, voll gut, nehm ich"? Irgendwie hab ich da immer so einen Geruch in der Nase, ich komm gerade nur nicht drauf.

Raff
2025-06-02, 21:27:14
Bestenfalls eine Korrelation, keine Kausalität. Ich bin auch 'ne arme Sau*, habe aber als Kind gelernt, was "Sparen" ist.

MfG
Raff

*Steinreich, was Workload angeht, immerhin.

Ex3cut3r
2025-06-02, 21:32:00
Gibt es eine Schnittmenge zwischen den Leuten "8GB in 2025 sind Scam!1!111^^!" und "Halbes Monatsgehalt für ne Nvidia-Karte, voll gut, nehm ich"? Irgendwie hab ich da immer so einen Geruch in der Nase, ich komm gerade nur nicht drauf.

Liegt an dir. Wenn du nicht mitmachen willst, bleibst du halt auf der Strecke.
Ist jedem überlassen. Soll ja auch ganz brauchbare Karten aus dem Hause AMD geben, z.B. die 9060 XT mit satten 8GB.

Raff
2025-06-02, 21:34:38
Ein starkes AMD nützt uns allen. Ich würde wahnsinnig gerne einen monolithischen Navi 41 sehen und was der mit GB202 anstellt.

MfG
Raff

nonharderware
2025-06-02, 21:38:23
Ein starkes AMD nützt uns allen. Ich würde wahnsinnig gerne einen monolithischen Navi 41 sehen und was der mit GB202 anstellt.

MfG
Raff

Solange das Ding nicht CUDA unterstützt, kann es bei mir noch nebenher kochen, putzen und meine Füße massieren und ich werde es doch nicht kaufen - weil sinnlos für mich.

Raff
2025-06-02, 21:43:11
Ja, CUDA und das massive Anfixen und Investieren war sicher einer von Jensens größten Coups. Davon unabhängig:

Kauft 8-GiByte-Shice nicht mehr neu und haut allen nett auf die Finger, die das erwägen!

Wer unbedingt eine 8-GiByte-Karte haben will, soll eine 290X 8GB kaufen. Als die neu war, hatte das echt Stil. Ist auch schön günstig. Und hat 512 Bit! ;)

MfG
Raff

nonharderware
2025-06-02, 21:44:27
Ja, CUDA und das massive Anfixen und Investieren war sicher einer von Jensens größten Coups.

MfG
Raff

Ja, ich hätte auch gern mehr Optionen...

Rabiata
2025-06-02, 23:56:40
Ein starkes AMD nützt uns allen. Ich würde wahnsinnig gerne einen monolithischen Navi 41 sehen und was der mit GB202 anstellt.

MfG
Raff
Ich hoffe daß AMD doch noch einen sinnvollen Chiplet-Ansatz bei GPUs findet. Bei den CPUs geht es ja auch. Und das Teil dann hochskalieren wie Epyc im Vergleich zu einer Desktop-CPU.

Shink
2025-06-06, 10:16:20
Kauft 8-GiByte-Shice nicht mehr neu und haut allen nett auf die Finger, die das erwägen!
Eventuell passend dazu die Zahlen von der letzten News:
https://www.3dcenter.org/news/news-des-5-juni-2025

10% der 9060XT-Käufer und ~0% der 5060Ti-Käufer haben sich für die 8GB-Version entschieden. Das Problem der schlecht informierten Kunden scheint sich also in Grenzen zu halten.

3D-User
2025-06-06, 11:11:12
Ich hoffe daß AMD doch noch einen sinnvollen Chiplet-Ansatz bei GPUs findet. Bei den CPUs geht es ja auch. Und das Teil dann hochskalieren wie Epyc im Vergleich zu einer Desktop-CPU.

Ich hoffe zudem auch, dass AMD irgendwann mal (zumindest Gaming-Bereich) Mr. Lederjacke mit besserer Technologie, Leistung und "Humanen" preisen kräftig einen auswischt :up:

Haarmann
2025-06-06, 18:52:11
Gäbs ne 9060 XT 16 GB für die ca 320 CHF, die ich umrechne ... gerne genommen.
Jetzt gibts mal zum Test ne Vanilla 5060 ti 16 GB - läuft ganz gut - aber 380 sind mehr denn 320.

Ich denke die 8 GB Versionen kauft der Papi fürs Kind, das nicht mehr wie Geforce RTX stammelt ... ist billiger. Und ich hatte viele Kinder hier als Kunden, die nicht viel mehr sagen konnten, als Geforce RTX, und glücklich mit 4060 8 GB waren - da half kein Zureden.

So sollte mans besser lesen können - Gestern war mein Bad Deutschtag

nonharderware
2025-06-06, 19:48:40
Ich denke die 8 GB Versionen kauft Papi fürs Kind, nicht mehr wie Geforce RTX stammelt ... ist billiger. Und ich hatte viele Kinder hier als Kunden, die nicht viel mehr sagen konnten und glücklich mit 4060 8 GB waren - da half kein Zureden.

Sorry, aber wie meinen?


Und zu den 8GB Käufern allgemein: Wer mich fragt, der bekommt eine Antwort.
Ich habe erst vor kurzen 1x im Freundeskreis (wurde ein 4060 mit 8GB) und 1x in der Familie (keine Ahnung welcher Chip, es waren aber 8GB) versucht dagegenzuhalten.
Wurde in beiden Fällen deppat angemacht ("Ich hab halt kein Geld und was geht es dich an?" - wohlgemerkt: Ich wurde gefragt ob ich den Build absegnen könnte :freak: bzw. mir wurde erklärt, dass nicht jeder "mit KI" arbeitet).

Zusammengefasst: Ich halte mich da zukünftig raus, es gibt genug technische Publikationen, welche den Sachverhalt darstellen - wer zu faul ist, der soll sich dann eben nicht wundern.

Ändert aber nichts an meiner generellen Aussage: Diese mediale Empörung ist mMn. zum Kotzen - vor allem wenn sie von Techie4Techie Medien kommt.

Oder soll ich ernsthaft jetzt eine empörte Kolumne schreiben, wie dass ein 4 Kerner keine Gaming-CPU ist oder 8GB RAM vielleicht noch einmal zu überdenken wären?
Wir wissen es und langsam nervt es einfach.

Denniss
2025-06-06, 22:45:50
Solche Bekannten habe ich auch mal gehabt, erst fragen dann nicht drauf hören und ein paar Monate später kommse dann an wegen falsch beraten und verbreiten das auch noch hinter vorgehaltener Hand.

nonharderware
2025-06-06, 23:17:31
Solche Bekannten habe ich auch mal gehabt, erst fragen dann nicht drauf hören und ein paar Monate später kommse dann an wegen falsch beraten und verbreiten das auch noch hinter vorgehaltener Hand.

Ja - unnötig. Absolut.

Haarmann
2025-06-07, 11:15:35
Wenn man jetzt in CH auf Alternate 9060 XT 16 sucht, dann kostet die ca CHF 100 weniger, denn eine 5060 ti 16 - also bei Verfügbar vs Verfügbar. Angebote ohne Ware sind nicht relevant.

Aber ... ne 5060 ti 8 GB gibts eben fürs gleiche Geld ...

Palpatin
2025-06-07, 12:57:40
Wer unbedingt eine 8-GiByte-Karte haben will, soll eine 290X 8GB kaufen. Als die neu war, hatte das echt Stil. Ist auch schön günstig. Und hat 512 Bit! ;)

MfG
Raff
Und säuft wie ein Loch. Wenn Leistungsaufnahme eine Rolle spielt dann ist die 290x keine vernünftige Option.

qiller
2025-06-08, 01:10:14
Ich glaub das war von Raff nur ein Wink mitm Zaunpfahl in Richtung Vergangenheit :>.

Troyan
2025-06-08, 08:56:51
Schaue mir die Game Shows an und die sind zu 80% voll von UE5 Spielen. Da reichen 8GB in Zukunft einfach aus.

AtTheDriveIn
2025-06-08, 10:11:14
1) Die Empörung der Tech-Influencer/Review ist ja nicht nur wegen der 8GByte, sondern vor allem auch wegen der Tricksereien mit Previews, Marketingaussagen, Produktbezeichnungen etc., denn das ist alles Anti-Consumer und in der Form gab es da so noch nicht.

Allerdings habe ich auch so manches Review gesehen, wo man sich dann doch etwas zu sehr empört hat, dass man nur die 16Gbyte Variante zum Testen bekommen hat. Auch VW schickt der Autobild den Passat mit Topausstattung zum reviewen und nicht die Brot-und-Butter Variante. -->Gab es immer schon.

2) Das Problem ist mMn eher der Systembuilder-Markt und nicht DIY. Die meisten PC-Gamer kaufen ein Komplettsystem. Es werden reihenweise Systeme von der Stange mit 5060(TI) und 9060XT als Gaming-Maschine angeboten werden. Das es sich nur um die 8Gbyte Variante handelt steht im Kleingedruckten. Die Tricksereien von Nvidia mit MFG in Previews tuen dann ihr übriges und zielen genau darauf ab. -->Noob Baiter 9000

Was für mich bleibt:

Die XT und TI Varianten sollten 16Gbyte haben.
Die 16Gbyte Varianten der 5060TI und 9060XT sind gute Produkte.
Das es 8Gbyte Varianten gibt wäre OK (wenn unter anderem Namen).
Der Preis der 8Gbyte Varianten ist zu hoch.
Anti-Consumer Praktiken gehören abgestraft. Nvidia ist bei Blackwell wirklich über die Grenzen hinaus gegangen, das ist schon bewusstes Täuschen in meinen (no-Lawyer) Augen. AMD ist im Kielwasser dann auch nicht 100%-ig, aber noch im Rahmen dessen was es wohl schon immer gab.
Friends don't let friends buy 8Gbyte.


*Edit: Rechtschreibung

Spring
2025-06-08, 10:28:27
Nvidia
4zwaEHH9tGs

AMD
4Bmqxn0o7Us

Freestaler
2025-06-08, 10:37:19
@AtTheDriveIn, sehr schön auf den Punkt gebracht.

y33H@
2025-06-08, 11:30:34
Gibt es eine Schnittmenge zwischen den Leuten "8GB in 2025 sind Scam!1!111^^!" und "Halbes Monatsgehalt für ne Nvidia-Karte, voll gut, nehm ich"?€4K netto musste erst mal haben ^^

mboeller
2025-06-08, 12:33:38
€4K netto musste erst mal haben ^^

nicht doch eher 5k?

https://preisvergleich.heise.de/?cat=gra16_512&xf=9816_03+05+18+-+RTX+5090&view=list&sort=p#productlist

Haarmann
2025-06-15, 06:32:43
Wenn ich jetzt sehe, dass es ja einerseits eine absolut nutzlose 5060 gibt, aber andererseits auch eine 9060 XT 8 GB ...

Dann kann man fast sagen, dass es sich dabei ums Gegenangebot handelt.

Was eine 5060 ti 8 GB soll ist auch fraglich, aber leider sind die 5060 so teuer, dass sogar diese Karte ne Daseinsberechtigung bekam.

Nicht zwingend für den Neukäufer ... aber wenn ich sehe, was für ne Garantielose und gebrauchte 3070 verlangt wird ... kann ichs verstehen, warum jemand da zuschlägt.

ChaosTM
2025-06-15, 10:36:47
Die Dinger verkaufen sich einfach. Man schaue sich nur die ganzen "Einsteiger-Komplett PCs" an.
Da sind überall die 8GB Dinger verbaut und die gehen weg wie nix.

Für die Fortnite/Counterstrike etc. Fraktion passt das ja auch.

Raff: lool @ 290X 8GB :D

w0mbat
2025-06-15, 13:39:17
€4K netto musste erst mal haben ^^
Wer steht hier für unter 10k€ netto auf? :eek:

PHuV
2025-06-17, 12:22:28
Ich verstehe das Grundproblem um die 8GB auch nicht. Diejenigen, die informiert sind, und auf Gaming oder anderes (Videoschnitt, KI..) wert legen, kaufen sich die 8GB Dinger nicht, die legen das Geld für die 12-16GB Varianten drauf.

Denen, die nur auf den Preis schauen, ist es doch egal, was da drinsteckt, die wollen und können nicht mehr ausgeben. Die müssen eben, wie vorne schon gesagt, einfach die Einstellungen und Texturen so runterstellen, daß 8GB noch reichen. Die müssen eben dann auch in der Darstellung "sparen".

Letztlich bestimmt dann doch der Markt und die Nachfrage beim Hersteller. Wenn die 8GB Teile wie Blei in den Regalen liegen bleiben, wird sich schon was daraus ergeben. Und trotzdem werden diese, wenn sie günstiger werden, wiederum von preisbewußten Käufern erworben werden, mit den oben genannten Konsequenzen.

Da es doch mittlerweile genug Alternativen auf dem Markt gibt, ist das für mich nur eine Scheindiskussion und Empörung. Einfach nicht kaufen, oder nur ab 12-16 GB kaufen, fertig. Und sorry, wer sich nicht vorher in den entsprechenden zahlreichen PC Technik-Foren informiert und keine entsprechenden Tests liest, selbst schuld.

Shink
2025-06-17, 12:34:03
Einfach nicht kaufen, oder nur ab 12-16 GB kaufen, fertig. Und sorry, wer sich nicht vorher in den entsprechenden zahlreichen PC Technik-Foren informiert und keine entsprechenden Tests liest, selbst schuld.
Wie ich schon mal schrub: Ein wirkliches Problem hat man, wenn man sich ein Gaming-Laptop kaufen will. Gaming-Laptops mit RTX 3050 6GB bekommt man um 600€. Für ein Laptop mit 8GB VRAM zahlt man 850€, für 12GB VRAM mindestens 1500€. DAS ist dreifach fies, vor allem da man das ganze Laptop dann auf den Recyclinghof bringen darf, wenn dein Lieblingsspiel nach einem Update mehr VRAM fordert. (Gab's ja schon mal.)
Im Vergleich ist man mit einer billigen neuen 8GB-Karte doch fein raus.

nonharderware
2025-06-25, 14:43:24
Da es doch mittlerweile genug Alternativen auf dem Markt gibt, ist das für mich nur eine Scheindiskussion und Empörung. Einfach nicht kaufen, oder nur ab 12-16 GB kaufen, fertig. Und sorry, wer sich nicht vorher in den entsprechenden zahlreichen PC Technik-Foren informiert und keine entsprechenden Tests liest, selbst schuld.

So ist es, neutrale sachliche Tests lesen und dann für sich selbst entscheiden.

Dieses ständige Gejammer der Medien kann man sich mMm. wirklich sparen – das sind am Ende vor allem Infos für Enthusiasten, nicht für Durchschnittskäufer.

Ich meide diese Formate/Publikationen mittlerweile konsequent.