PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 29./30. April 2023


Leonidas
2023-05-01, 10:18:52
Link zur News:
https://www.3dcenter.org/news/news-des-2930-april-2023

hardtech
2023-05-01, 10:45:19
Im Sinne der letzten Spiele-Veröffentlichungen (und deren VRAM-Hunger) sind jene 8-GB-Modelle von AMD & nVidia nunmehr glatt fehl-konzipiert.

kann ich so gar nicht unterschreiben.
1. arbeiten nv und amd mit spieleherstellern hier und da zusammen. das impliziert, dass sie genau bescheid wissen, welche anforderungen die kommenden spiele haben werden.
2. passt das vram-setup und die chipdaten zum rest des portfolios. sprich: eine kleine karte sollte nicht mehr vram haben als die nächst größere. (es gibt kleine ausnahmen: z.b. 3060 12gb, wo 6gb an einem 192-bit interface offensichtlich zu klein waren)

wir kennen nur einen teil des portfolios. nv und amd kennen alle chips und ordnen sie zu gegebenem zeitpunkt in ihr angebot ein. der preispunkt wird sehr spät verkündet. damit reagieren hersteller auf den aktuellen markt und haben eine gute verkaufssteuerung in der hand.

käufer einer 8gb karte wissen idr, dass sie 2023 keine bäume ausreissen können damit. aber vielleicht kauft diese zielgruppe solche karten (meist aus preislichen gründen) und setzt die regler im spiel weiter nach links. so sind sie dann auch unter wqhd noch nutzbar. wir dürfen nicht immer vom eigenen anspruch ausgehen: gut informiert und alle regler nach rechts.

das angebot der gpu-anbieter ist in sich schlüssig. von einer fehlplanung zu sprechen, halte ich daher für falsch.

Gastein
2023-05-01, 11:05:15
Hände weg von den 8GB Karten für Spieler wenn ihr nicht im Gestern stehen bleiben wollt.

Kauft euch da lieber eine neue Konsole, die ist noch länger mit guter Grafik supportet.

16GB sind für neue GPUs notwendig. Moderne Games werden mit Photogrammetrie die 16GB RAM der Konsolen ausnutzen oder runter gerechnet matschig aussehen. Hundertschaften von Grafikern aus Niedriglohnländern wird es bei AAA nicht mehr geben. Da wird nicht noch gross händisch optimiert ausser in kleinen Teams wenns nur Fortnite oder Cell-Shading oder ähnliches wird.

Die GPU Hersteller wissen ganz genau, dass weniger als 16GB nur noch für altes Zeugs basierend auf XbOne und PS4 genügen wird.
Die wollen/müssen aber auch jedes Jahr neue Produkte verkaufen.
Der Treiber macht im Zweifel dann aus den Texturen nur noch Matsch, auch in FullHD mit nur 8GB, hauptsache das Spiel läuft. Interessiert doch nicht was die Gamesentwickler machen.

8GB heute sind wie 4GB in 2015. Wer das damals schon toll fand kann natürlich zuschlagen ;D
Dann gibbet wieder den nächsten "Retro-Boom" weil sonst nix gscheit läuft.

raumfahrer
2023-05-01, 11:20:29
NVIDIA has not yet mentioned any price to board partners, so anything you hear elsewhere is pure speculation. However, the use of older PG190 board, limited memory spec to 128-bit bus and PCIe Gen4 to eight lanes could indicate that we are finally looking at a budget RTX 40 Ada graphics card. Hopefully, NVIDIA sees those SKUs the same way that we do.

Musste kurz schmunzeln, als ich die Einordnung von "finally (...) a budget RTX 40" für die nächstkleineren Karte unterhalb 600-700 Euro gelesen hab.

Leonidas
2023-05-01, 11:26:39
arbeiten nv und amd mit spieleherstellern hier und da zusammen. das impliziert, dass sie genau bescheid wissen, welche anforderungen die kommenden spiele haben werden.

Naja, die Chips werden 1,5J vorher konzipiert. Da wissen die Spieleentwickler noch nicht, wieviel VRAM das Endprodukt benötigt. Da hilft alle Zusammenarbeit nicht, wenn die Zeiträume derart unterschiedlich sind.


das angebot der gpu-anbieter ist in sich schlüssig. von einer fehlplanung zu sprechen, halte ich daher für falsch.

Schlüssig ja - im Sinne der Planung. Fehlgeplant ist es trotzdem. Es wäre minimum 12 GB notwendig und Midrange ab 16 GB. Ob man dies vorab sehen konnte, das ist die große Frage. Aber das Wort "Fehlplanung" sagt ja nicht zwingend aus, dass man es vorher hätte wissen können. Es sagt nur aus: "Planung ist schiefgegangen, erfüllt nicht die Marktanforderungen." Aber das AMD & nVidia keinen Plan B in der Hinterhand haben, dass ist denen wirklich anzukreiden.

hardtech
2023-05-01, 11:59:26
aus sicht der spieler ist es bedauerlich, heute noch 8gb für mehrere hundert euro angeboten zu bekommen.
aus sicht der konzerne, die gewinn maximieren wollen, ist es eine nachvollziehbare entscheidung.

und 1,5j sind nichts, wenn man bedenkt, dass die 1070 mit 8gb bereits im jahre 2016 erschien. das sind nunmal 7 jahre! auch da gab es bereits ddr4 mit 16gb ram im pc. heute habe ich auch 16gb ram verbaut und komme wunderbar zurecht. eine upgrade auf 64gb brachte bei mir... nichts.

leute, die kleine karten kaufen, sind eher bereit grafikqualität zu opfern und dafür den geldbeutel zu schonen im gegensatz zu 4090-käufern, die volle pulle aufdrehen wollen.
da spiele jedoch meist mit vollen reglern nach rechts getestet werden, ist die aussage nicht korrekt, dass 8gb karten für fhd ein fehlkauf sind.

was kannst du heute mit einer 3060 12gb (1130% fhd) mehr anstellen als einer 3060ti 8gb (1460% fhd), die in etwas das gleiche kosteten? ich würde jederzeit die ti nehmen.

Leonidas
2023-05-01, 13:37:12
leute, die kleine karten kaufen, sind eher bereit grafikqualität zu opfern und dafür den geldbeutel zu schonen als 4090-käufer.

Korrekt. Aber dennoch gilt: Dies hat einen engen preislichen Rahmen. Wenn man eine Karte erwirbt, die vom Launch weg für moderne Spiele unter 1080p nicht mehr mit Max-Grafik geeignet ist - dann ist man im Entry-Segment und da darf man Preislagen unterhalb 200 Dollar/Euro erwarten. Was AMD & NV mit ihren neuen 8GB-Karten eben nicht bieten werden. Ganz besonders eine 4060Ti nicht.

MD_Enigma
2023-05-01, 15:01:12
Ich fände es absolut nachvollziehbar, wenn AMD die Einstiegskarte für 200 EUR bringt. "Gleicher" Fertigungsprozess zur 6600er-Serie, voraussichtlich 20% kleinerer Chip, minimale TDP-Anforderungen. Das spart Kosten. RAM ist gerade billig und der Herstellungspreis ist somit extrem gering. Die Rohleistung wird in Richtung PS5 gehen und somit attraktiv für jeden der noch was richtig altes (<= 1060) hat. Man kann kann alle Current-Gen-Spiele inkl. Cyberpunk 2077 in FullHD spielen.

Die 8 GB sind geplante Obsoleszenz und man grenzt sich ganz klar von WQHD-NextGen-Gaming ab. Man generiert sich seinen eigenen Markt in 3 Jahren, für all diejenigen die das Produkt kaufen und die Leistung nicht mehr reicht.

Gast
2023-05-01, 15:18:39
Wie mehrfach erwähnt, wäre es spätestens mit baldigem Refresh Zeit für die lange verfügbare Speicher-Zwischengröße.

Ich wundere mich über den angeblichen VRAM-Bedarf neuer Spiele, denn es ist nicht zu erwarten, dass so schnell Konsolen mit mehr RAM erscheinen. Kommen die aktuellen denn klar?

Und wie immer: Speicher ist erst da zu wenig, wo er von spielbaren fps auf unzumutbar ausbremst. Tests, bei welchen 4090 und 7645HX (um mal nur zu nennen, was aktuell ist - gibt ja noch älteres Zeugs) alles gleich behandelt wird, sind Schwachsinn.

Letztendlich reine Preisfrage. Und wenn der Markt es - mangels Alternativen - her gibt, werden AMD und Nvidia es machen. Auch hier: Weitere Chance für intel.

Gast
2023-05-01, 15:22:14
4050 und 4060 sind jetzt Mainstream, ja lol. Vllt. zum Mainstreampreis.

MD_Enigma
2023-05-01, 15:51:29
Konsolen haben 16GB Arbeitsspeicher den man frei zwischen VRAM und RAM aufteilen kann. Dazu kommt das SSD-Streaming-Feature in das Sony investiert hat um möglichst wenig RAM zu brauchen. Ein schlechter portierter Titel hat daher nachvollziehbarer Weise Anforderungen Richtung 32GB RAM und 16GB VRAM. Natürlich wird optimiert, aber 16 GB RAM und 8 GB VRAM werden nicht immer ausreichen.

hardtech
2023-05-01, 17:05:45
Korrekt. Aber dennoch gilt: Dies hat einen engen preislichen Rahmen. Wenn man eine Karte erwirbt, die vom Launch weg für moderne Spiele unter 1080p nicht mehr mit Max-Grafik geeignet ist - dann ist man im Entry-Segment und da darf man Preislagen unterhalb 200 Dollar/Euro erwarten. Was AMD & NV mit ihren neuen 8GB-Karten eben nicht bieten werden. Ganz besonders eine 4060Ti nicht.

auch richtig. nur sind wir uns darüber einig, dass nv und amd (meine vermutung ist, dass beide sich preislich absprechen!) nach crypto-preisen, pandemie-nachfrage und nun in der inflationszeit einen testballon fahren, welcher lautet: wie hoch kann ich mit den preisen gehen, ohne dass zu viele potenzielle käufer abspringen.
uns sind auch die chipgrößen bekannt, welche verglichen mit den vorherigen generationen mindestens 1, wenn nicht 2 sprünge beim namen nach oben gemacht haben, sprich: die chipgrößen sind viel kleiner als die verkaufsnamen der grafikkarten suggerieren. die produktion ist demnach vergleichsweise günstig (auch wenn die herstellungskosten insgesamt pro wafer gestiegen sind bei modernen prozess-nodes).
nv ist aber scheinbar bereit dazu, auf umsatz zu verzichten und die hohe marge mitzunehmen.
wir leben aber auch in einer zeit, wo große namen wie evga sich aus dem markt zurückziehen, da nv denen die marge so stark abzwackt, dass es sich scheinbar nicht mehr lohnt, karten unter eigenem namen zu vermarkten (inkl. garantieversprechen, logistik, marketing, verbrieb und sonstigen kosten)

es wäre schade, wenn das duopol nv und amd sich durchsetzt, die kartenhersteller nur noch zu ausführungseinheiten der big player werden und das gefüge aus angebot und nachfrage sich damit komplett auflöst.

wir sind bei mainboard-preisen von 300 euro aufwärts bei "normal" ausgestattenen platinen. in zeiten von z170 war das highend (ist gar nicht so lange her!). heute zahlt man dafür 700 euro und mehr.

und da wundest du dich, dass die grafikkarten für fhd 500 euro kosten?!
mich wundert in der verrückten zeit gar nichts mehr, ausser vielleicht dass ram gerade auf einem extremen tiefpreis angekommen ist, die ssd preise runtergehen und dass das duopol ohne hemnisse seine preise fordern kann nach dem motto: irgendwann wird auch der gtx1060 spieler schon unser produkt kaufen müssen!
der ganze markt ist kaputt. wir brauchen einen gegenplayer möglichst ansässig in europa. aber wir kriegen nicht einmal eine chipproduktion hierzulande hin (infineon, ok, aber der rest ist in taiwan und usa). was meinst du was passiert, wenn china taiwan angreift?! >> dann haben wir den nächsten preisrutsch nach oben in unbekannter höhe! davor graust es mir jetzt schon.

Gastanjette
2023-05-01, 17:12:50
Die Radeon RX470 gab es 2016 wahlweise mit 8GB im absoluten Midrange, bei der RX480 war das zu 240$ schon standard (kaum jemand hat ernsthaft damals noch die 4GB genommen) und die wollen 8GB in 2023 noch immer als Midrange bezeichnen?

Wer kauft heute denn noch GPUs nur für 6 Monate?

Mortalvision
2023-05-01, 17:24:20
Es braucht wieder mal eine "Volks-GPU" wie die 480/580 von AMD es waren. Die kamen mit 8 GB und haben lange Zeit FHD gut dargestellt für 200-250€.

So eine GPU mit 12 GB und Rasterleistung einer 6600/6700 von AMD sollte doch für 250€ drin sein…

Gast
2023-05-01, 19:30:21
Hey Leo,
Ich habe eine große Bitte.
Kannst du bitte bei rdna2 und rdna3 immer bei beiden sowohl die CU als auch die FP Einheiten zu den restlichen specs aufführen. Dazu auch in die Tabellen den direkten Vorgänger (also in der Tabelle mit möglichen 7600 Versionen auch den 6600xt und 6650xt mit aufführen), die auch bei den nv Karten.

Ich Blicke diese Vergleiche mittlerweile garnicht durch. 6650xt hat 2048 FP (wie viele cu, wie viel if$ ?), der n33 vollausbau 4096 FP? Und 32 CU mit 32mb if$. Ist 6nm gegen 7nm.

Das scheint, zumindest mir in der Theorie, dass der n33 vollausbau so 20 oder 30% schneller als 6650xt sein sollte.

Danke!

Gast
2023-05-01, 19:36:45
So eine GPU mit 12 GB und Rasterleistung einer 6600/6700 von AMD sollte doch für 250€ drin sein…
So etwas gibt's schon, nennt sich 6700XT. :) Die ist preislich aber grob 50% teurer als von dir gewünscht.
Sicherlich könnte AMD durchaus noch Preislich etwas heraus holen, aber 50% ist einfach unrealistisch. Ich bezweifle auch, dass die 50% nur von Gewinnsucht bei AMD kommt. Die haben ja durchaus auch steigende Kosten gehabt, die Chip Preise haben sich z.B. von 14nm auf 7nm mehr als verdoppelt. Bedingt durch die immer kleiner werdenden Schritte in der Fertigung muss man leider durchaus mit steigenden Preise für die Karten rechnen. Ob das nun wirklich so viel ist, wie AMD und NVidia aktuell wollen, glaube ich zwar nicht, aber es ist sicherlich mehr als uns Kunden lieb ist...

Vita Brevis ars Longa
2023-05-01, 21:20:48
Ich glaube nicht, dass Nvidia die 4060ti preisaggressiv in den Markt drücken wird, und AMD die RX 7600 XT auch nicht, weil AMD seit Navi preislich überhaupt nicht mehr mit Nvidia konkurriert, sondern beide Konzerne die Strategie eines höchst möglichen Verkaufspreises fahren.

D.h. wie schon seit vielen Jahren, muss man für mehr Leistung bei AMD und Nvidia auch viel mehr Geld zahlen.
AMD ist das ja auch völlig egal. Wer keine sauteuer PC-GPUs kaufen will, kauft halt eine neue X-Box oder PS5. Und Nvidia setzt ganz auf die neuen KIs, und liefert die teuren Chips dafür. Auch Nvidia sind irgendwelche Gamer seit vielen Jahren völlig egal....

ps: Nvidia hat ja noch den Tegra-Chip der Switch in der Tasche, und verdient sich daran seit 6 Jahren dumm und dämlich. Und wenn die Gerüchte stimmen, liefert Nvidia auch den Chip für den Nachfolger der Switch, und sichert damit den Erfolg von Nintendo, und den eigenen Erfolg weiter ab. Auch für Nvidia sind PC-GPUs zwar wichtig, aber nicht entscheidend. Sondern entscheidend wird sein, ob der Verkauf ihrer KI-Chips weiter so erfolgreich sein wird, und ob der Nachfolger der Switch 2025 wieder einschlagen wird wie eine Bombe.....

Leonidas
2023-05-02, 05:09:15
Das scheint, zumindest mir in der Theorie, dass der n33 vollausbau so 20 oder 30% schneller als 6650xt sein sollte.

Sagen wir 20%. Es sind FP32-Verdopplung, RDNA3, mehr Takt, besserer Node. Aber da dies alles nur wenig bringt und die Bandbreite nicht mit steigt, sind +20% realistisch.

|Navi 23|Navi 33
Architektur|RDNA2|RDNA3
Fertigung|TSMC N7|TSMC N6
max CU|32|32
max FP32|2048|4096
IF$|32 MB|32 MB
Interface|128 Bit GDDR6|128 Bit GDDR6

Gast
2023-05-02, 07:38:53
Wenn man eine Karte erwirbt, die vom Launch weg für moderne Spiele unter 1080p nicht mehr mit Max-Grafik geeignet ist -


Also von einer 60er Karte zu erwarten, dass sie alles @Max, wenn auch "nur" 1080p, darstellen kann ist schon ziemlich naiv.

Gast
2023-05-02, 08:11:04
uns sind auch die chipgrößen bekannt, welche verglichen mit den vorherigen generationen mindestens 1, wenn nicht 2 sprünge beim namen nach oben gemacht haben, sprich: die chipgrößen sind viel kleiner als die verkaufsnamen der grafikkarten suggerieren.

So wie schon immer seit Fertigungsnodes für mehrere Generationen herhalten müssen.

Die erste 14/16er Generation war deutlich kleiner als die letzte 28er Generation, die 10er Generation war deutlich kleiner als die letzte 14er Generation und die erste 5er Generation ist jetzt deutlich kleiner als die 10er Generation.

Crazy_Borg
2023-05-02, 11:02:44
Ich hoffe ja mal das ALLE gängigen Spielemagazine nicht nur von diesen 8GB "Midrange" Karten abraten, sondern ganz klar warnen und als Totgeburt den Leuten einbläuen.
Besonders wenn man guckt was mit diesen 16GB Eigenbaulösungen (z.B. das verlinkte auf 3060 Basis) möglich wäre.
Warum da kein Boardpartner aus der Reihe tanzt verstehe ich nicht. Die werden wohl alle Knebelverträge aus der DSDS Kategorie haben.

Ich bin derzeit dabei zu sagen:
Wenn ihr eine "Midrange" Karte mit Zukunftaussichten wollt, nehmt ne Intel Arc A770 limited.

Exxtreme
2023-05-02, 11:05:07
Ich bin derzeit dabei zu sagen:
Wenn ihr eine "Midrange" Karte mit Zukunftaussichten wollt, nehmt ne Intel Arc A770 limited.

Die lohnt sich aber nur wenn der Rest des Systems halbwegs aktuell ist. Kann der Rest nämlich kein Rbar/Sam dann verliert man Performance ohne Ende. Intel hat den RAM-Controller bei Arc wirklich arg versemmelt.

Leonidas
2023-05-02, 11:12:16
Also von einer 60er Karte zu erwarten, dass sie alles @Max, wenn auch "nur" 1080p, darstellen kann ist schon ziemlich naiv.

Ich habe nicht direkt 60 fps gefordert. Sagen wir 40-45 fps @ 1080p "Max" *

Konnte das die 1060 nicht? Auch die 2060 war da nicht schlecht dabei. Selbst 3060 kann man hier hinzurechnen. Und von der Rechenleistung her wäre auch 4060Ti vertretbar. Aber die 8 GB VRAM machen es zunichte.

* wenn nötig, ohne RT

hardtech
2023-05-02, 11:45:00
Ich bin derzeit dabei zu sagen:
Wenn ihr eine "Midrange" Karte mit Zukunftaussichten wollt, nehmt ne Intel Arc A770 limited.

nein, keinesfalls!
da bleibt nur der gebrauchtmarkt.

Crazy_Borg
2023-05-02, 12:42:37
Gebrauchtmarkt geht immer, gibt aber genug Leute die nur Neuware wollen und/oder auf Garantie scharf sind.
Ich würde nie meine Haupt GPU gebraucht kaufen, dafür sind mir schon zuviele abgeraucht.

Die lohnt sich aber nur wenn der Rest des Systems halbwegs aktuell ist. Kann der Rest nämlich kein Rbar/Sam dann verliert man Performance ohne Ende. Intel hat den RAM-Controller bei Arc wirklich arg versemmelt.

Naja, mein Board hat nen X370 Chipsatz, der ist jetzt auch schon 5/6 Jahre alt.
Hat aber dennoch bereits rbar Support.
Beim B350 weiss ich jetzt nicht. Wer noch älteres hat wird wohl hoffentlich keine 400 Euro rein in eine GPU investieren und Wunder erwarten, oder?
Zumal ausreichend schnelle AM4 Plattformen derzeit relativ günstig zusammenzustellen sind.

Lehdro
2023-05-02, 14:13:11
Und wie immer: Speicher ist erst da zu wenig, wo er von spielbaren fps auf unzumutbar ausbremst.
Das ist Bullshit.

Es gibt seit Jahren genug Beispiele, dass die Performance nicht ins Bodenlose stürzt, nur weil der Grafikspeicher nicht ausreicht. Es kann auch einfach dazu führen dass deine Texturen aussehen als ob sie direkt aus der 16 Bit Texturhölle kommen. Streaming ist das Stichwort: Was nicht reinpasst wird weggelassen oder halt durch ein grobpixiliges, aber platzsparendes Textürchen ersetzt.

Deswegen reichts es eben bei weitem NICHT nur auf die bunten Balken zu schauen, sondern auch mal auf das was da auf dem Bildschirm dahinflimmert. Das Thema begleitet uns nun echt schon sehr viele Jahre...
Die Radeon RX470 gab es 2016 wahlweise mit 8GB im absoluten Midrange, bei der RX480 war das zu 240$ schon standard (kaum jemand hat ernsthaft damals noch die 4GB genommen) und die wollen 8GB in 2023 noch immer als Midrange bezeichnen?

Wer kauft heute denn noch GPUs nur für 6 Monate?
Genau das wurde übrigens auch schon zum 3070 Launch thematisiert, ist jetzt 3 Jahre her und man mag es kaum glauben welche Wortwahl damals schon gefallen ist: (https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/8-GB-vs-16-GB-Benchmarks-1360672/)
Dass wir 2020 immer noch 8-GiByte-Grafikkarten thematisieren, sollte zu denken geben.
Das war vor 3 Jahren und selbst da war das schon absurd. Und es gibt noch immer Leute die solch ein Gebaren verteidigen: 8 GiB sind Einsteigerklasse und sollten nur noch sub 200€ angeboten werden. Alles darüber hat gefälligst mehr zu bekommen, weil es einfach notwendig ist. Seit Jahren schon.

MiamiNice
2023-05-02, 14:16:14
Wo Lehdro recht hat, hat Lehdro recht :wink:

Dino-Fossil
2023-05-02, 16:20:29
Mal abwarten...
Vielleicht bringt es ja im Gegenteil die Entwickler dazu, die PC-Ports eben in Punkto VRAM-Management doch ein bisschen besser zu optimieren, anstatt solche Müll-Ports abzuliefern.

Raff
2023-05-02, 16:24:07
Nope, nicht bei Ports von einer technischen Basis, die viel mehr Speicher hat. Irgendwann muss man einfach aufrüsten. Hoffen wir einfach, dass wir bisher nur die halbe Wahrheit sehen und längst 16-GiB-Modelle der Mittelklasse in der Mache sind.

+1 Lehdro

MfG
Raff

Dino-Fossil
2023-05-02, 17:34:57
„Mehr Speicher“ stimmt ja nur zum Teil.
Die Speicherverwaltung auf den Konsolen funktioniert halt anders als am Pc. Hauptspeicher plus VRAM dürfte zusammen bei eigentlich allen aktuellen Spielerechnern größer sein.

Bisher ging es auf wundersame Weise ja auch irgendwie…

Exxtreme
2023-05-02, 19:12:45
Konsolen haben einen viel höheren internen Durchsatz denn PCs. PC ist im Grunde Riesencaches, welche sehr dünn verbunden sind. Ist bei Konsolen anders. Konsolen ähneln eher Mainframes, welche ebenfalls einen sehr hohen internen Durchsatz haben.

Deshalb kann mann nicht so ohne Weiteres Konsolenspiele portieren.

Gast
2023-05-03, 07:21:58
Hauptspeicher plus VRAM dürfte zusammen bei eigentlich allen aktuellen Spielerechnern größer sein.



Konsolen ersparen sich eben das ständige Kopieren vom Hauptspeicher in den VRAM.

Die Rechnung VRAM + Hauptspeicher = Konsolenspeicher geht eben nicht wirklich auf, da der RAM in den Konsolen unified ist. PC-Spiele müssen die Daten welche die Grafikkarte braucht "auf Vorrat" im Hauptspeicher zwischenlagern um sie dann bei Bedarf schnell hochladen zu können, auf den Konsolen kann die GPU alles verwenden was im RAM liegt.

Gast
2023-05-04, 10:33:39
Das ist Bullshit.Nur, wenn man es so interpretiert. Ich will nicht sagen 'falsch', aber schon fragwürdig. Ich meinte schon auf Basis gleicher Bildqualität.
Prinzipiell gebe ich dir bzgl. Bildvergleich völlig recht. Und das nicht zum ersten Mal. Wird leider kaum gemacht. Wenigstens setzt sich langsam durch, nicht nur die durchschnittlichen fps abzudrucken.