Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : VRAM-Auslastung aktueller Spieletitel


Seiten : 1 2 [3] 4

HisN
2023-02-13, 02:18:47
Forspoken geht ja auch gut ab.

UHD mit DLSS Qualität.
18GB in der Spitze. Im Mittel immer kurz unter 18GB.
Und ich sehe da schon 64GB zum Zocken an der Tür klopfen^^

Anfang
https://abload.de/img/forspoken_2023_02_13_2qe24.png (https://abload.de/image.php?img=forspoken_2023_02_13_2qe24.png)

Wenns dann gut gefüllt ist.
https://abload.de/img/forspoken_2023_02_13_wniqa.png (https://abload.de/image.php?img=forspoken_2023_02_13_wniqa.png)

jorge42
2023-02-13, 09:31:14
https://abload.de/image.php?img=forspoken_2023_02_13_2qe24.png
welches Overlay ist das?

IC3M@N FX
2023-02-13, 10:23:16
Ich glaube einfach das die Entwickler sehr schlecht mittlerweile optimieren.
12 - 16GB VRAM Verbrauch lass ich noch bei UHD bei den neuen Spielen gelten, aber alles was drüber hinaus dann noch mit DLSS zeigt nur das die Spiele eine sehr sehr schlechte Optimierung haben bzw. das Spiel ist verbuggt.
Auch generell die PC Grafik Performance = Grafik Bild steht mittlerweile auch nicht im richtigen Verhältnis.
Für mich sind PS5 Spiele wie Dark Souls, Returnal, Horizon Forbidden West immer noch ein Indikator das Entwickler sehr faul sind bei Thirdparty Multiport Games.
Diese Spiele haben mit weitaus viel weniger Hardware Power immer noch durch diverse Upscaling methoden ein sehr gutes QHD/UHD Bild ohne große grafische Abstriche.
Meistens sind sie sogar teilweise eine Grafik Referenz zum Release.
Auch wenn es kleinere Abstriche gibt bei Eyecandy & Raytracing, aber selbst da gibt es sehr gute Kompromisse wie Spiderman & Co bei der PS5 beweisen das es auch mit 60 FPS geht.
Ich finde es schade das man mittlerweile auf dem PC für UWQHD/UHD mindestens eine RX 6800/6900 XT bzw. RTX 3080 haben muss damit ein aktuelles Spiel mit 60+ FPS ohne Kompromisse mit High/Ultra Settings läuft.

Dampf
2023-02-13, 11:29:30
https://cdn.discordapp.com/attachments/409816332796690433/1073324926834065509/FofBvUtXgAUjIbV.png

https://cdn.discordapp.com/attachments/409816332796690433/1073049535510753374/Foe_lugaMAAAPIQ.png

https://i.imgur.com/FblcNJX.jpg

https://i.imgur.com/Kjd8KYL.jpg

Und das ist auf der Switch möglich, mit 4 GB Shared Memory :ugly: In 60 FPS noch dazu.

Entwickler geben sich einfach keine Mühe mehr.

dargo
2023-02-13, 11:40:09
Blödsinn... aktuell sehe ich an Uncharted wie viel Optimierung in so einen Titel hineinfließt. Exzellente Performance bei der Grafik mit kleinem Aufwand beim Speicher. Nicht alles über einen Kamm scheren, Bananensoftware gabs schon immer und es wird auch dabei bleiben. ;)

btw.
Imho stellt ein Uncharted ein Forspoken locker in die Tasche bei deutlich besseren Performance.

Nazar
2023-02-13, 11:50:40
Jetzt Mal eine ganz blöde Frage: Wir reden hier immer von "wenn man die Texturen auf Maximum stellt, geht der Speicher aus".
Wie schlimm sieht das denn aus, wenn man auf 1080p die Texturen nicht auf Maximum stellt?

Die Antwort steht doch in deinem Text. :freak:
Also ja, ganz blöde Frage, falls du die Frage nicht noch umformulieren möchtest, oder zumindest erläuterst, welche Intention deine Frage haben soll.
Zumal du nicht näher darauf eingehst, was "nicht auf Maximum" für ein spezifischer Wert ist und was du damit bewirken willst, bzw. in welchem Verhältnis und zu "wem" dieser "Wert" dann stehen soll.

HisN
2023-02-13, 13:20:51
https://abload.de/image.php?img=forspoken_2023_02_13_2qe24.png
welches Overlay ist das?

Das ist der RTSS

https://www.hardwareluxx.de/community/threads/osd-overlay-zur-%C3%9Cberwachung-eurer-hardware.1183474/post-29570226

Blase
2023-02-13, 22:34:41
Habe grade ne längere Witcher 3 Session am Start. Schaue mal wieder aufs Overlay => knapp 17, 18.... ok, war nun an 20 GB VRAM dran...

Ziemlich viel Text...

Tust du dich wirklich so schwer, dass von Shink Geschriebene zu verstehen? Mal abgesehen davon, dass das Spiel just rausgekommen ist und weitere Optimierungen im Raum stehen, die das Problem möglicherweise sogar lösen könnten... mag hier dann vielleicht das erste Spiel rausgekommen sein, welches gerne für max. Qualität >10 GB VRAM sehen möchte (auch unterhalb von 4K). Wenn ein, zwei Regler allerdings schon das Problem lösen würden, bei möglicherweise nur minimalsten Qualitätsverlust, wäre das ja eine gangbare Option. Mehr wollte Shink imho nicht sagen...

MfG Blase

00-Schneider
2023-02-14, 07:51:08
Gerade bei den hier genannten VRAM-Fressern würde mich mal der Verbrauch interessieren, wenn man den Texturregler um eine Einheit nach links verschiebt. Inklusive Bildvergleich Max vs. Max - 1.

Shink
2023-02-14, 08:31:23
Gerade bei den hier genannten VRAM-Fressern würde mich mal der Verbrauch interessieren, wenn man den Texturregler um eine Einheit nach links verschiebt. Inklusive Bildvergleich Max vs. Max - 1.
Genau das.

Man stelle sich vor, jemand bringt ein Spiel heraus, das eine Textureinstellung bietet, die nur auf einer Hand voll Grafikkarten sinnvoll ist. Aus Gründen, die ich nicht verstehe, testet z.B. PCGH und Techpowerup nur diese eine Einstellung und stellt fest: "Das Spiel ist schlecht optimiert" oder "fahrt eure 3080 und 4070Ti zum Recyclinghof und holt euch eine Arc A770 - die Zeiten von <16GiB VRAM sind vorbei".

Wenn ihr jetzt sagt: Die "zweithöchste" Textureneinstellung ist nicht vorhanden/sieht in 1080p schlechter aus als FSR 1.0/kostet auch nicht weniger VRAM, dann wär das doch eine super Antwort. Ich hab das Spiel nicht, kann mir die Antwort jemand geben?

aufkrawall
2023-03-23, 15:37:58
Kurios, auf Radeon macht FC6 den VRAM "richtig" voll. Die 12GB der 6700 XT fast komplett belegt:
https://abload.de/thumb/farcry6_2023_03_23_135hedy.png (https://abload.de/image.php?img=farcry6_2023_03_23_135hedy.png)

DAIBO
2023-04-01, 08:57:49
Allokiert in Deinem Fall. Genutzt wird die Menge abseits von UHD mit HiRes-Textures und Raytracing nicht.

MasterElwood
2023-04-01, 09:17:15
Genau das.

Man stelle sich vor, jemand bringt ein Spiel heraus, das eine Textureinstellung bietet, die nur auf einer Hand voll Grafikkarten sinnvoll ist. Aus Gründen, die ich nicht verstehe, testet z.B. PCGH und Techpowerup nur diese eine Einstellung und stellt fest: "Das Spiel ist schlecht optimiert" oder "fahrt eure 3080 und 4070Ti zum Recyclinghof und holt euch eine Arc A770 - die Zeiten von <16GiB VRAM sind vorbei".

Wenn ihr jetzt sagt: Die "zweithöchste" Textureneinstellung ist nicht vorhanden/sieht in 1080p schlechter aus als FSR 1.0/kostet auch nicht weniger VRAM, dann wär das doch eine super Antwort. Ich hab das Spiel nicht, kann mir die Antwort jemand geben?

Dasselbe wie bei jeder Einstellung mit "ultra".

"ultra" war nie dazu gedacht dass es beim Spielerscheinen flüssig läuft. Dafür gab es HIGH oder VERY HIGH. "ultra" machte jedes Game zur Diashow - und war dafür gedacht dass Games paar Jahre nach Erscheinen mit zukünftiger Hardware quasi ein "zweites Leben" bekommen. Und jeder hat das damals kapiert. Nur heutzutage glauben Leute ein Game MUSS man unbedingt mit allen Settings auf MAX zocken können :facepalm:

Und dasselbe haben wir mit VRAM: Nur weil ein Entwickler quasi riesen Bonus-Texturen zum Game dazu gibt - quasi als "ULTRA" weil sie halt da sind - schreien dann alle "Tod allen Karten mit zuwenig VRAM" 🤦

HOT
2023-04-01, 09:37:32
Jo bei allen aktuellen Titeln kann man bei FHD mit 8GB High-Preset benutzen. Darüber wirds dann aber oft schon wieder eng ;). Die Entwicklung wird ja nicht stoppen, in nicht allzu ferner Zukunft ist mit 8GB halt nur noch medium drin. Und das hat nix mit schlechter Optimierung zu tun ;).

Mortalvision
2023-04-01, 09:46:54
Ganz zu schweigen vom aktuellen Preisverfall der Speicherchips. Da klnnten Devs doch auf die Idee kommen, ein paar Dutzend mehr GB an texturen einzutüten :freak:

MasterElwood
2023-04-01, 14:09:35
Neuer VR-Chip braucht weniger VRAM 👍

https://www.notebookcheck.net/MetaVRain-AI-powered-3D-rendering-chip-is-1000x-more-powerful-than-current-Nvidia-GPUs.704811.0.html

aufkrawall
2023-04-01, 14:56:00
Allokiert in Deinem Fall. Genutzt wird die Menge abseits von UHD mit HiRes-Textures und Raytracing nicht.
Diese vermeintlich sichere Unterscheidung zwischen Belegung und Nutzung ist völliger Quatsch. Ansonsten kannst du das gerne mit Profiling-Tools nachweisen.

Mortalvision
2023-04-01, 16:53:01
Neuer VR-Chip braucht weniger VRAM 👍

https://www.notebookcheck.net/MetaVRain-AI-powered-3D-rendering-chip-is-1000x-more-powerful-than-current-Nvidia-GPUs.704811.0.html

Du kennst den AFD?

BlacKi
2023-04-01, 16:55:16
Neuer VR-Chip braucht weniger VRAM 👍

https://www.notebookcheck.net/MetaVRain-AI-powered-3D-rendering-chip-is-1000x-more-powerful-than-current-Nvidia-GPUs.704811.0.htmlfalscher thread:wink:

Thunder99
2023-04-02, 12:50:36
Nach wie vor gibt es das Reservieren und wirklich brauchen. Interessant wird da auch ab welcher VRAM Menge es wirklich Einbrüche gibt. Z.B. wenn 20GB reserviert werden kann aber bis 12GB wunderbar ohne Kompromisse gespielt werden, erst darunter kommt das Streamen nicht mehr hinterher.
Gibt es dazu Analysen?

MasterElwood
2023-04-02, 14:08:45
falscher thread:wink:

Chill - der Artikel war eh nur ein Aprilscherz. Wobei wäre schon geil:

"MetaVRain AI-powered 3D rendering chip is 1000x more powerful than current Nvidia GPUs, may also use 26,400 times less energy and 180 times less VRAM"

😂

][immy
2023-04-02, 14:44:36
Nach wie vor gibt es das Reservieren und wirklich brauchen. Interessant wird da auch ab welcher VRAM Menge es wirklich Einbrüche gibt. Z.B. wenn 20GB reserviert werden kann aber bis 12GB wunderbar ohne Kompromisse gespielt werden, erst darunter kommt das Streamen nicht mehr hinterher.
Gibt es dazu Analysen?

Es kommt halt auch immer drauf an, wie viel Speicher überhaupt je frame verarbeitet werden kann. Ab irgendwo limiert halt das streamen.
Bin aber nach wie vor der Meinung das heutzutage nur noch selten wirklich optimiert wird. Kostet halt auch Zeit alles so zu optimieren das es alles passt. Aber spätestens nach der ps360 war es mir Optimierungen auch einfach vorbei weil es eigentlich immer genug Speicher gab.

Thunder99
2023-04-02, 16:04:45
Die UE5 Engine braucht recht wenig VRAM für die Optik. So sollte es öfters sein mMn

DrFreaK666
2023-04-02, 17:16:39
Die UE5 Engine braucht recht wenig VRAM für die Optik. So sollte es öfters sein mMn

Kann man es nach einem Spiel schon urteilen?

basix
2023-04-02, 17:31:56
UE5 isch schon relativ effizient mit Speicher unterwegs. Nanite-Geometrie & Texturen werden recht effizient gestreamed. RT / GI ist aber ein richtiger Speicherfresser, wäre gut wenn Epic das noch optimieren kann

Die UE5 City Demo mit allem auf max. ausser GI nimmt sich 12.5...14 GByte VRAM bei 8K + DLSS-P + GI @ Very High (=Epic im UE5 Editor?). Das ist eigentlich noch OK. GI @ Ultra (Cinematic?) benötigt dann aber bereits 15.5...17 GByte. Und das bei "nur" 4K als Renderauflösung. Sobald die Renderauflösung steigt killt man auch die 24 GByte der 4090.

Edit:
Die Mawi Redwood Forest Biome Demo nimmt sich mit 4K, GI Very High und TSR Max. ~9.5 GByte. Für den doch recht ansehlichen Wald ist das nicht so viel. Die Indizien, dass UE5 relativ gut hinsichtlich Optik vs. VRAM-Verbrauch da steht ist schon nicht von der Hand zu weisen.

DrFreaK666
2023-04-03, 09:47:43
Das sind Grafikdemos. Das einzige Spiel derzeit ist Fortnite und das ist kein Texturwunder.
Hab grad n Video von Fortnite in 4k gesehen. VRAM-Anzeige bei Afterburner war bei 10+GB

HOT
2023-04-04, 17:44:14
Wenn die Demos schon so viel brauchen, dann werdet ihr aber mit den Ohren schlackern, was ein echtes PS5-Game auf dem PC benötigen wird ;). Ich glaub ihr unterschätzt das völlig :cool:. Klar, das ist sehr effizient, aber dafür wird der Detailgrad auch steigen ;).

Wer mal Lust auf ein paar Basics zu dem Thema (und anderen) hat:
https://youtu.be/Isn4eLTi8lQ

Der interviewte sagt zum Thema Optimierung für 8GB-Karten (sinngemäß): "Es ist unwahrscheinlich Arbeit, alles in den 8GB zu halten, also sagt man irgendwann schrew it, dann eben 12GB."
Da ist also nix schlecht optimiert, das ist einfach unverhältnismäßig viel Arbeit auf dem PC, das hinzubekommen, wenn die Basis (also PS5) soviel mehr schafft. Und genau hier liegt das Problem. Die Leute sehen immer die 16GB der Konsolen und denken "och, das schafft mein Rechner auch". Aber das ist eben echt weit gefehlt, weil dem PC einfach die Streamingmöglichkeiten fehlen, und das ist ja vor allem aufgrund der Architektur mit CPU+GPU, getrennt durch PCIe, läuft auf einem OS, das dem ganzen System Rechnung trägt so und das Streaming der neuen Konsolen (der Volksmund nennt es DirectStorage) quasi simulieren muss (ob mit oder ohne GPU-Dekodierung, die API verrignert halt in erster Linie CPU-Last, weniger den Speicher)... wenn das mit den 8GB bei dem jetzigen Optimierungsstand der PS5-Games schon so schwierig ist, dass die Entwickler entnervt aufgeben, wie soll das bei weiterem Optimierungsstand im späten Teil der PS5-Ära erst werden? Es ist absehbar, dass auch irgendwann die 12GB so schwierig werden zu optimieren, dass auch das zum Problem werden dürfte...

vinacis_vivids
2023-04-04, 21:29:51
AMD Oberon(+) hat gerade mal 448GB/s Bandbreite und 10,3 Tflops fp32 und 4MB L2-Cache.

Am Desktop braucht NV für die gleiche Qualität ~50 Tflops fp32 und ~720GB/s Bandbreite und 30-Fach größeren L2-Cache.
Also fünf Mal mehr Rechenleistung und doppelte Bandbreite.😭🙈😁

Dampf
2023-04-07, 17:06:19
Wir müssen uns nichts vormachen, die steinalte PC-Architektur pfeift aus dem letzten Loch. Bruteforcing mit mehr VRAM kann nicht die Lösung sein. Wenn dann die neue Konsolengeneration kommt, heißt es wieder upgraden. Auch mit mehr VRAM und besserer PCIe Anbindung werden die Bottlenecks immer so bleiben.

Der PC muss endlich zur Unified Memory Architektur wechseln, so wie das Apple schon vor 3 Jahren gemacht hat.

Derzeitige PC Architektur (strikte Trennung von RAM/VRAM)
https://therealmjp.github.io/images/gpu-memory-pools/numa.png

Vergleich:

https://techterms.com/img/xl/unified_memory_architecture_1563.png

Wenn man sich einen PC mit Unified Memory kauft, hat man theoretisch bis zu 128 GB VRAM. Mittlerweile kann man DDR-Speicher schnell genug anbinden. Der M1 Ultra hat eine Bandbreite von bis zu 800 GB/s (so schnell wie derzeitiges GDDR6X) mit zugleich sehr geringer Latenz (ähnlich von DRAM auf dem PC).

In Zukunft könnte ich mir vorstellen, dass die Hersteller GPU und CPUs einfach auf einem riesigen Die kombinieren.

https://www.cgdirector.com/wp-content/uploads/media/2023/02/x86-vs-ARM-bassed-Memory.jpg

Dann würde man quasi eine CPU/GPU Kombination kaufen, statt wie bisher getrennte Produkte.

Lehdro
2023-04-08, 00:11:33
Dann würde man quasi eine CPU/GPU Kombination kaufen, statt wie bisher getrennte Produkte.
Und genau ist das Hauptproblem. Unflexibel².

vinacis_vivids
2023-04-08, 11:33:13
Wir müssen uns nichts vormachen, die steinalte PC-Architektur pfeift aus dem letzten Loch. Bruteforcing mit mehr VRAM kann nicht die Lösung sein. Wenn dann die neue Konsolengeneration kommt, heißt es wieder upgraden. Auch mit mehr VRAM und besserer PCIe Anbindung werden die Bottlenecks immer so bleiben.

Der PC muss endlich zur Unified Memory Architektur wechseln, so wie das Apple schon vor 3 Jahren gemacht hat.

Derzeitige PC Architektur (strikte Trennung von RAM/VRAM)
https://therealmjp.github.io/images/gpu-memory-pools/numa.png

Vergleich:

https://techterms.com/img/xl/unified_memory_architecture_1563.png

Wenn man sich einen PC mit Unified Memory kauft, hat man theoretisch bis zu 128 GB VRAM. Mittlerweile kann man DDR-Speicher schnell genug anbinden. Der M1 Ultra hat eine Bandbreite von bis zu 800 GB/s (so schnell wie derzeitiges GDDR6X) mit zugleich sehr geringer Latenz (ähnlich von DRAM auf dem PC).

In Zukunft könnte ich mir vorstellen, dass die Hersteller GPU und CPUs einfach auf einem riesigen Die kombinieren.

https://www.cgdirector.com/wp-content/uploads/media/2023/02/x86-vs-ARM-bassed-Memory.jpg

Dann würde man quasi eine CPU/GPU Kombination kaufen, statt wie bisher getrennte Produkte.

Wird nicht passieren, warum?

Nvidia hält die Speicherkompression so geheim in der BlackBox wie Staatsgeheimnisse. Nvidia hat keine CPUs.

Intel ist zu energiehunrig bei den CPUs und zu schwach bei den GPUs.

Nur AMD hat genügend GPU-CPU Patente für x86 & x64 APUs. Derzeit kann nur AMD "unified memory" als Technologie durchsetzen, die auch konkurrenzfähig ist. Dann bleibt es exklusiv für AMD-Plattform.
AMD ist nicht bereit die diskreten GPUs für APUs zu opfern, sondern entwickelt APUs (MI300) für HPC und Notebooks (Phoenix) separat.

BlacKi
2023-04-08, 12:47:13
Chill - der Artikel war eh nur ein Aprilscherz.


sag ich doch, falscher thread, gehört in den aprilscherz thread.

][immy
2023-04-08, 13:21:34
Wir müssen uns nichts vormachen, die steinalte PC-Architektur pfeift aus dem letzten Loch. Bruteforcing mit mehr VRAM kann nicht die Lösung sein. Wenn dann die neue Konsolengeneration kommt, heißt es wieder upgraden. Auch mit mehr VRAM und besserer PCIe Anbindung werden die Bottlenecks immer so bleiben.

Der PC muss endlich zur Unified Memory Architektur wechseln, so wie das Apple schon vor 3 Jahren gemacht hat.

Derzeitige PC Architektur (strikte Trennung von RAM/VRAM)
https://therealmjp.github.io/images/gpu-memory-pools/numa.png

Vergleich:

https://techterms.com/img/xl/unified_memory_architecture_1563.png

Wenn man sich einen PC mit Unified Memory kauft, hat man theoretisch bis zu 128 GB VRAM. Mittlerweile kann man DDR-Speicher schnell genug anbinden. Der M1 Ultra hat eine Bandbreite von bis zu 800 GB/s (so schnell wie derzeitiges GDDR6X) mit zugleich sehr geringer Latenz (ähnlich von DRAM auf dem PC).

In Zukunft könnte ich mir vorstellen, dass die Hersteller GPU und CPUs einfach auf einem riesigen Die kombinieren.

https://www.cgdirector.com/wp-content/uploads/media/2023/02/x86-vs-ARM-bassed-Memory.jpg

Dann würde man quasi eine CPU/GPU Kombination kaufen, statt wie bisher getrennte Produkte.
Dann hast du aber, CPU, GPU und Speicher fix in einem Paket. Das würde im flexiblen PC Markt überhaupt keinen Sinn ergeben.
Außerdem darfst du nicht vergessen daß PCIe Grad enorm and Bandbreite gewinnt. Und ganz nebenbei, die wenigsten Systeme brauchen eine starke GPU. Meist reicht nen billiger onboard chip damit einfach nur irgendwas ausgegeben werden kann.
Und mehr Speicher ist aktuell sogar recht günstig (wenn die GPU Hersteller das weitergeben würden). Streaming können die Konsolen derzeit besser, das stimmt, aber in ein paar Jahren (der PC Markt ist nunmal langsam im adaptieren) sieht es anders aus, wenn die Dekompression auf der GPU stattfindet.
Klar kommt dann wieder eine neue Konsole mit neuen kompromissbehafteten Schnickschnack, aber der PC kann es theoretisch besser, wenn die Kompatibilität nicht wäre (was aber ein großer Vorteil ist).
Und von RT fangen wir gar nicht erst an, ist aber bisher eher noch im Experimentierstadium wo man sich schon fragen kann ob das die nächste Konsolegen wirklich gut beherrscht, wenn die 4090 da schon Probleme bekommen kann.

Troyan
2023-04-09, 10:40:37
32GB am PC sind doppelt soviel als eine PS5 hat. Darin können also 24GB alleine an Spieldaten aufbewahrt, die dann per PCIe in den VRAM geschrieben werden.

Problem gelöst.

Hakim
2023-05-12, 20:50:07
Das heute CoD WZ2 update ist wieder geil, bisher bei meinen Einstellungen um die 7 GB Vram geschluckt, heute nach dem Update fühlt sich spiel irgendwie nicht ganz so gut an, kurzer Check ingame Grafikeinstellungen, knapp 10 GB :freak:, und selbst Texturen auf Normal immer noch über 8 GB.

DrFreaK666
2023-05-13, 06:00:40
AMD ist schuld XD

r-or
2023-05-13, 06:22:46
32GB am PC sind doppelt soviel als eine PS5 hat. Darin können also 24GB alleine an Spieldaten aufbewahrt, die dann per PCIe in den VRAM geschrieben werden.

Problem gelöst.
Nope. Das Problem ist nicht die Größe des Speichers / Verschwendung dessen, sondern der Effizienzvorteil eines shared pools. Zero copy.

dargo
2023-05-13, 07:02:29
32GB am PC sind doppelt soviel als eine PS5 hat. Darin können also 24GB alleine an Spieldaten aufbewahrt, die dann per PCIe in den VRAM geschrieben werden.

Problem gelöst.
Lol... was willst du mit den mickrigen Bandbreiten vom Arbeitsspeicher und PCIe vs. um Faktoren schnelleren shared Memory @GDDRx? :freak: Zumal jeder unnötige Kopiervorgang auch Energie und Performance kostet.

ChaosTM
2023-05-13, 07:38:43
Jop, kopieren ist energetisch und zeit-mäßig sehr teuer. Daher sind die Konsolen auch weit effizienter als unsere Dino PCs.

Daher braucht der PC auch deutlich mehr VRAM um ähnlich gut arbeiten zu können. Direct Storage wird das aber etwas abfedern.

][immy
2023-05-13, 08:47:55
Nope. Das Problem ist nicht die Größe des Speichers / Verschwendung dessen, sondern der Effizienzvorteil eines shared pools. Zero copy.

Klar brauchst du etwas mehr vram und Bandbreite um die Effizienz der Konsolen wieder zu tippen, aber nicht wirklich viel.
Der Flaschenhals ist an Ende das holen der Daten vom Festspeicher. Und hier haben PCs eigentlich den Vorteil massig billigen ram zu haben, d.h. einmal gelesene Daten müssen nicht unbedingt teuer erst von der SSD oder HDD geholt werden, wenn die vernünftig gepuffert wurden. Wurden sie aber meist nicht.
Hinzu kommt noch das Konzept kleinere Pakete zu packen, damit nicht immer so viel auf einmal entpackt werden muss. Das würde der Effizienz sehr zuträglich sein, aber HDD Nutzer direkt ausschließen, weshalb das am PC noch keiner macht.
Und dann gibt es am PC halt noch das Problem des kompilierens der shader...
Das ließe sich lösen wenn das Spiel einmalig beim start die shader kompilieren und auf der SSD speichern würde. Das kostet aktuell enorm viel Ressourcen wenn das Just in time durchgeführt wird. Auf Konsolen entfällt dieser Schritt vollkommen da die GPU vorher schon bekannt ist.

Und das mehr RAM/vram auch dafür sorgt das Entwickler etwas "fauler" werden ist auch bekannt, denn viel Zeitaufwand für Optimierung kann eingespart werden, weil einfach in der Regel genug Speicher vorhanden ist.
Ist manchmal unglaublich zu sehen mit wie wenig Speicher man Mal aus kam (sogar für 4k). Ja es stimmt das man bei manchen Aufgaben nicht umher kommt deutlich mehr Speicher zu nutzen (bzw. dadurch erst möglich werden), aber wenn man Speicher bis zum abwinken hat, muss man halt auch nicht mehr drauf achten.

Dorn
2023-05-13, 09:03:27
Direct Storage wird das aber etwas abfedern.Hier tut sich aber erstaunlich wenig, was schade ist.

Troyan
2023-05-13, 10:51:28
Lol... was willst du mit den mickrigen Bandbreiten vom Arbeitsspeicher und PCIe vs. um Faktoren schnelleren shared Memory @GDDRx? :freak: Zumal jeder unnötige Kopiervorgang auch Energie und Performance kostet.

Ach und die PS5 kann von der SSD mit 488GB/s lesen? :rolleyes:

HOT
2023-05-13, 11:08:29
Wie soll DS auch helfen? Das verlagert ja grob gesagt nur die Asset-Dekompression auf die GPU. Ich hab aber nicht den Eindruck, dass die CPUs hier auf 100% Last wären, die Dekompression ist also gar nicht das Problem. Das I/O ist das Problem und hier hilft DS einfach 0, wie Forspoken ja gezeigt hat.
Und Speicherverbrauch spart DS gar nicht auf dem PC. Dafür ist es nicht gedacht.

aufkrawall
2023-05-13, 11:21:04
Fortnite ~10GB mit Radeon rBAR und alles max@1440p (TSR epic 100%):
https://abload.de/thumb/fortniteclient-win64-uzf2o.png (https://abload.de/image.php?img=fortniteclient-win64-uzf2o.png)
Hab aber auch sporadisch sichtbares Streaming und nach wie vor Streaming-Einbrüche.

vinacis_vivids
2023-05-13, 11:44:31
Die Assett Decompression funktioniert auf der PS5 anders als auf dem PC.
Eines der Geheimnisse wieso PS5 so stark ist.
Zlib und Oodle Kraken sind die Algorithmen bei der PS5. Am PC gibs nichts vergleichbares.
Vermulich wird auf der CPU die Liste an Variablen vorbereitet und dann in den Command-Prozessor der GPU injiziert, welcher dann per "Oodle Kraken" die Decompression macht.

dildo4u
2023-05-13, 11:46:54
Komische Stragie hast du was anderes am laufen 20GB RAM hatte noch nicht.
Könnte sein das sie Agressiver aus dem Vram werfen um 8 GB Karten zu schützen.

aufkrawall
2023-05-13, 12:56:17
Komische Stragie hast du was anderes am laufen 20GB RAM hatte noch nicht.

Du hast auch kein HW-RT. Ist normal und mit GeForce spätestens in 4k nach etwas Spielzeit auch so.

Atma
2023-05-13, 14:16:13
Zlib und Oodle Kraken sind die Algorithmen bei der PS5. Am PC gibs nichts vergleichbares.
Was blubberst du da :confused: Zlib und Oodle gibt es schon eine kleine Ewigkeit auf PC ...

vinacis_vivids
2023-05-13, 15:45:24
Was blubberst du da :confused: Zlib und Oodle gibt es schon eine kleine Ewigkeit auf PC ...

Aber nicht in der Form wie es die PS5 kann (Kraken Hardware Decompression)
Beim Vergleich zwischen PS5 und Xbox-X, sind die Game-Files ~30% kleiner.
Die Decompression geht direkt in den VRAM der GPU, weshalb viele Kopiervorgänge eingespart werden.

https://www.neogaf.com/threads/kraken-vs-zlib-29-smaller-game-sizes-losslessly-297-faster-decompression-on-ps5.1570901/

Sony hat Epic dabei geholfen "Nanite" zu entwickeln, also 8K Texturen/Assets und 16K Shadows zu streamen.


Am PC liegen die Daten mehr oder weniger unoptimiert auf der SSD rum und wandern bei Gebrauch hin und her (RAM, VRAM, PCIe usw.).

Atma
2023-05-13, 18:28:09
Die Decompression geht direkt in den VRAM der GPU, weshalb viele Kopiervorgänge eingespart werden.
Weil das ja nicht auf PC möglich ist ... *hust* DirectStorage *hust*.

ChaosTM
2023-05-13, 19:19:31
Funktioniert leider noch nicht so wie es sollte. Woran das liegt - ich kanns ned sagen - Windows oder ist die Implementierung doch schwerer als erwartet?

dargo
2023-05-13, 20:34:41
Ach und die PS5 kann von der SSD mit 488GB/s lesen? :rolleyes:
Sag mal... kann es sein, dass du die Vorteile von einem gemeinsamen Speicher überhaupt nicht einschätzen kannst? Den Eindruck erweckst du nämlich bei mir. Das hat rein gar nichts mit der SSD einer PS5 zu tun. PS4 hat auch gemeinsamen Speicher gehabt, so ganz ohne SSD. :rolleyes:

Dorn
2023-05-13, 21:57:22
Sag mal... kann es sein, dass du die Vorteile von einem gemeinsamen Speicher überhaupt nicht einschätzen kannst?Darum ist Troyan u.a. als einziger auf meiner Ignorliste. Einfach nur Furchtbar...leider sehe ich Zitate...:frown:

HOT
2023-05-13, 21:59:20
Funktioniert leider noch nicht so wie es sollte. Woran das liegt - ich kanns ned sagen - Windows oder ist die Implementierung doch schwerer als erwartet?
Klar funktioniert es wie es sollte. Das Problem stellt sich bislang aber nicht wirklich. Es bleibt halt nur den PC mit Speicher zuzuschmeißen, wenn er effizient mit den PS5-Inhalten umgehen soll, das liegt nunmal in der jetzigen Implementierung des PCs. Hat er 24GB VRAM und 48GB Systemram als Standard kann man super effiiziente und schnelle Software dafür bauen, die der PS5 in nichts nachsteht und trotz RT mit 120 Hz läuft. Das ist aber nicht so, daher müssen die Entwickler ständig Kompromisse eingehen auf dem PC.

CXL3.0 wird hier aber mittelfristig (also Zen6 und wahrscheinlich Panther Lake) Abhilfe schaffen.

][immy
2023-05-13, 22:13:21
Hier wird die Dekompression in Hardware etwas überschätzt, genau so wie der gemeinsame Pool. Klar macht es die Sache etwas effizienter, aber der größte Teil kommt einfach von dem Konzept nur für eine SSD zu entwickeln. Kleine Pakete heißt weniger muss in den Speicher wandern und entpackt werden. Kommt das Konzept mal beim PC wirklich an (hat es bislang nicht Mal durchgängig zur xbox geschafft) sind die bottlecks kaum mehr vorhanden.
Einzig das Shader Kompilieren kommt dann noch wirklich in die Quere, weil hier nicht viel optimiert werden kann, außer beim Spielstart schon mal einiges vorkompilieren.

Assets sind eher durch den Platzverbrauch beschränkt. Die Paketierung aktuell gibt den Spielen dann noch den Rest. Die Komprimierung ändert daran kaum was. Besonders da alles über die CPU wandert kann man am PC immer die optimale Komprimierung verwenden. Bringt halt nur nichts wenn viele Artefakte in mehreren Paketen wandern.

dildo4u
2023-05-14, 06:14:16
Irgendwie hat jedes neue PC Game Ruckler wenn man durch die Welt läuft.
Es ist sauber auf PS5 vermutlich weil die FPS auf 60 gelockt sind.
Ansonsten hat AMD bessere mins enttäuscht aber beim Durchschnitt, NV und Intel umgekehrt die 16GB der A770 hauen es hier nicht raus.


IrI0Z7Xj_jU

Troyan
2023-05-14, 09:46:27
Sag mal... kann es sein, dass du die Vorteile von einem gemeinsamen Speicher überhaupt nicht einschätzen kannst? Den Eindruck erweckst du nämlich bei mir. Das hat rein gar nichts mit der SSD einer PS5 zu tun. PS4 hat auch gemeinsamen Speicher gehabt, so ganz ohne SSD. :rolleyes:

Mit 32GB Arbeitsspeicher hat man genug Speicher, um VRAM und individuelle Daten unkompromiert im Speicher zu haben. DX12 erlaubt nebenbeilaufende Kopiervorgänge von und zur GPU aus dem Arbeitsspeicher.

ChaosTM
2023-05-14, 09:47:14
Jo, AMD etwas langsamer aber konsistenter. Leider waren keine "richtigen" (ab 16GB) NV Karten dabei.

Exxtreme
2023-05-14, 10:17:21
https://www.youtube.com/watch?v=IrI0Z7Xj_jU&t=1250s

RTX 4070Ti mit FG. Gut, kann natürlich daran liegen, dass das Spiel eine Beta ist. Aber wenn das so bleibt dann ist FG auf dieser Grafikkarte wohl echt nicht gut. Und Nvidia sollte die Treiber mal verbessern, dass die 1% Lows besser werden.

ChaosTM
2023-05-14, 10:21:25
Das dürfte ein Bug sein. Bei fast 120fps braucht man das auch nicht zwingend.

add.: wenn man sich die Grafikbelegung der 6800er anschaut, könnte es aber auch am Speicher liegen

dildo4u
2023-05-14, 10:23:26
Das dürfte ein Bug sein. Bei fast 120fps braucht man das auch nicht zwingend.
Ryzen plus FG scheint buggy, selbst in 1440p mit 4090.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13304880&postcount=1442

Troyan
2023-05-14, 10:26:23
https://www.youtube.com/watch?v=IrI0Z7Xj_jU&t=1250s

RTX 4070Ti mit FG. Gut, kann natürlich daran liegen, dass das Spiel eine Beta ist. Aber wenn das so bleibt dann ist FG auf dieser Grafikkarte wohl echt nicht gut. Und Nvidia sollte die Treiber mal verbessern, dass die 1% Lows besser werden.

Das ist doch ein Bug mit AMD Prozessoren.

Exxtreme
2023-05-14, 10:31:51
Das ist doch ein Bug mit AMD Prozessoren.

Mit der 4090 geht es aber nie in quasi unspielbare Bereiche herunter. Aber ja, ist halt eine Beta.

ChaosTM
2023-05-14, 10:34:08
OK, die "Lösung" mancher ist immer, dass der Bug bei AMD liegt. Kann natürlich sein, aber warten wir mal ab..

Troyan
2023-05-14, 10:34:12
Mit der 4090 geht es aber nie in quasi unspielbare Bereiche herunter. Aber ja, ist halt eine Beta.

Das Spiel müllt bis zu 16GB an VRAM zu. Was schon beeindruckend ist für ein Top-Down Spiel, wo man sich nicht ultra-schnell durch die Gegend bewegt.

Offensichtlich hat man irgendwann in den letzten 12 Monaten in der Spieleentwicklung sich entschlossen einfach kein Wert mehr auf Optimierungen zu legen.

Exxtreme
2023-05-14, 10:39:40
Das Spiel müllt bis zu 16GB an VRAM zu. Was schon beeindruckend ist für ein Top-Down Spiel, wo man sich nicht ultra-schnell durch die Gegend bewegt.

Offensichtlich hat man irgendwann in den letzten 12 Monaten in der Spieleentwicklung sich entschlossen einfach kein Wert mehr auf Optimierungen zu legen.

Für mich sieht es so aus als ob das Spiel möglichst viel VRAM pre-allokiert. Sowas ist bei Software üblich weil allokieren und de-allokieren und re-allokieren Performance kostet. Und ist halt die Frage was der Treiber dem Spiel als freien VRAM meldet. Wenn Nvidia es versemmelt hat, dass sie mit FG eine etwas kleinere VRAM-Menge melden müssen dann kann es durchaus sein, dass der RTX 4070 mit FG der VRAM ausgeht.

Aber gut, kann sein, dass es einen Treiberfix dafür geben wird. Oder das Spiel merkt, dass FG aktiviert wurde und dann müssen sie pauschal 2 GB von der gemeldeten Menge abziehen oder so.

aufkrawall
2023-05-14, 10:41:19
Einige Texturen, die schon @Ultra nicht wirklich gut sind, werden @High sogar noch schlechter :freak: :
https://abload.de/thumb/diabloiv_2023_05_14_1evfy6.png (https://abload.de/image.php?img=diabloiv_2023_05_14_1evfy6.png) https://abload.de/thumb/diabloiv_2023_05_14_1efds8.png (https://abload.de/image.php?img=diabloiv_2023_05_14_1efds8.png)


Ja, der VRAM-Verbrauch ist natürlich komplett lächerlich. Und das nutzt laut mitgelieferter DLLs offenbar DirectStorage. ;D

ChaosTM
2023-05-14, 10:57:41
Exzessive Pre-Allocation scheint auch ein ziemlich dummer Weg zu sein. Das kann nur zu Rucklern führen, wenn man den Speicher zu einer ungünstigen Zeit leeren muss. (Laienhaft ausgedrückt)

Direct Storage ist am PC noch eine Baustelle so wies ausschaut.

Troyan
2023-05-14, 11:00:21
Für mich sieht es so aus als ob das Spiel möglichst viel VRAM pre-allokiert. Sowas ist bei Software üblich weil allokieren und de-allokieren und re-allokieren Performance kostet. Und ist halt die Frage was der Treiber dem Spiel als freien VRAM meldet. Wenn Nvidia es versemmelt hat, dass sie mit FG eine etwas kleinere VRAM-Menge melden müssen dann kann es durchaus sein, dass der RTX 4070 mit FG der VRAM ausgeht.

Aber gut, kann sein, dass es einen Treiberfix dafür geben wird. Oder das Spiel merkt, dass FG aktiviert wurde und dann müssen sie pauschal 2 GB von der gemeldeten Menge abziehen oder so.

Was? Daten in und aus dem VRAM zu schreiben, kostet mit DX12 keine Leistung mehr. jede GPU hat mindesten eine Copy-Engine dafür. Mit Ultra-Texturen wird der Speicher bis 16GB (und nur 16GB...) komplett gefüllt. Das Spiel an sich ist strunzdumm und deswegen gibt es auch Traversal-Stutters, weil es das nächste zum Spieler gelegende Gebiet nicht früh genug nachlädt.

Müsste mal mit "High"-Texturen länger spielen, ob das ebenfalls sich aufbläht. Aber wenn man von Ultra auf High wechselt, wirft der erstmal 10GB an Daten aus dem VRAM.;D

Exxtreme
2023-05-14, 11:01:26
Exzessive Pre-Allocation scheint auch ein ziemlich dummer Weg zu sein. Das kann nur zu Rucklern führen, wenn man den Speicher zu einer ungünstigen Zeit leeren muss. (Laienhaft ausgedrückt)


Nicht wirklich. Du krallst dir einen größeren Block vom RAM und verwaltest den dann manuell. Das ist viel schneller als ständig Speicher beim OS anfordern und wieder freigeben. Und eigentlich ist das ein gelöstes Problem. Das machen Programme seit Jahrzehnten.

Aber ist halt noch eine Beta und kann sein, dass sie das noch fixen weil mit FG real weniger VRAM verfügbar ist.

aufkrawall
2023-05-14, 11:05:24
Müsste mal mit "High"-Texturen länger spielen, ob das ebenfalls sich aufbläht.
Tut es, aber nicht so exzessiv. Für 8GB-Karten vermutlich auch schon kritisch.

dargo
2023-05-14, 12:20:36
Mit 32GB Arbeitsspeicher hat man genug Speicher, um VRAM und individuelle Daten unkompromiert im Speicher zu haben. DX12 erlaubt nebenbeilaufende Kopiervorgänge von und zur GPU aus dem Arbeitsspeicher.
:facepalm:

Völlig lernresistent.

DDR4 = 40+ bis 50+GB/s
PCIe 3.0 x16 = ~15,4GB/s ohne Overhead
PCIe 4.0 x16 = ~30,8GB/s ohne Overhead
GDDR6 @PS5 = 448GB/s

Junge, Junge... informiere dich mal über die Flaschenhälse bei einem PC-Öko-System. :rolleyes: Und dass... dieses ganze hin und her Kopieren Energie und Performance am PC unnötig verschlingt ist dir natürlich auch wieder entgangen.

][immy
2023-05-14, 12:38:41
:facepalm:

Völlig lernresistent.

DDR4 = 40+ bis 50+GB/s
PCIe 3.0 x16 = ~15,4GB/s ohne Overhead
PCIe 4.0 x16 = ~30,8GB/s ohne Overhead
GDDR6 @PS5 = 448GB/s

Junge, Junge... informiere dich mal über die Flaschenhälse bei einem PC-Öko-System. :rolleyes: Und dass... dieses ganze hin und her Kopieren Energie und Performance am PC unnötig verschlingt ist dir natürlich auch wieder entgangen.

Vermutlich liegt hier eher ein anderes Kommunikationsproblem vor. Wenn die Daten im RAM liegen, müssen diese zwar noch über den PCIe Bus, das ist aber deutlich performater (wenn diese da schon mal drin liegen) als die Daten mit nem noch kleineren Bus von einer SSD zu holen ;)
Und leerräumen musst du den GPU Speicher sowieso weil der sonst zu winzig ist. Also wird nur ein Flaschenhals gegen einen anderen getauscht. Wohlgemerkt wenn der billige Hauptspeicher als großer Cache genutzt wird.
Und da man sowieso nur noch das laden sollte was auch wirklich benötigt wird sollte sich die künftige Arbeit für die CPU und den Bus stark verringern.
Gemeinsame Speicherpools haben aber auch nicht nur Vorteile. Ein gigantischer Nachteil ist der Preis.

Troyan
2023-05-14, 14:34:00
Die PS5 muss ebenfalls Speicher reservieren für die Teile des Renderings, die anstehen. Aber am PC muss man eben mehr Aufwand als Spieleentwickler betreiben. Offensichtlich wird das von vielen Entwicklern einfach nicht getan. Nixxess hat z.B. ein komplett einiges VRAM Management geschrieben und schiebt nun per CPU-Thread immer die Teile aus dem VRAM, die am weitesten in der Zeit zurückliegen. Das ist alles kein Problem mit DX12.

BTW bzgl. Diablo 4: Im Dungeon werden mit Ultra-Texturen nur 12GB VRAM verwendet. Mehr nicht, ruckelt sich also dann ab 12GB auch einen ab, wenn neue Daten geladen werden müssen...

00-Schneider
2023-05-15, 08:37:29
Das heute CoD WZ2 update ist wieder geil, bisher bei meinen Einstellungen um die 7 GB Vram geschluckt, heute nach dem Update fühlt sich spiel irgendwie nicht ganz so gut an, kurzer Check ingame Grafikeinstellungen, knapp 10 GB :freak:, und selbst Texturen auf Normal immer noch über 8 GB.


Das Game ist broken, was VRAM angeht. Bei mir nimmt es sich auch direkt 20GB und geht auf 23GB hoch.

vinacis_vivids
2023-05-15, 08:59:19
Das Game ist broken, was VRAM angeht. Bei mir nimmt es sich auch direkt 20GB und geht auf 23GB hoch.

Sicherlich wieder broken bei Nvidia 😂

Rancor
2023-05-15, 10:22:22
Sicherlich wieder broken bei Nvidia 😂
Ne, es verhält sich bei meiner 6800XT genauso dämlich.

aufkrawall
2023-05-15, 10:35:50
Hier nicht, geht von 10GB nach und nach >14GB. Sehe keine Veränderung durch neue Patches. Spiel läuft immer noch ekelhaft mikroruckelig wie seit der Einführung von WZ2, wie kann man sich so ein Müll-Spiel mit so einer Müll-Technik überhaupt antun...

vinacis_vivids
2023-05-15, 10:45:59
Hä?

IW 9.0 ist ne gute Engine. Wer mehr fps haben will, stellt die Settings runter auf medium-low für hohe fps.

Bei schnellen shootern auf billige Server ruckelt es überall. Das liegt eher am Server als an der Engine.

aufkrawall
2023-05-15, 10:53:10
Nein, die Frame Times sind seit WZ2 deutlich zuckeliger, wenn man keinen fps-Limiter nutzt.
https://abload.de/thumb/cod_2023_05_15_09_39_2xiu5.png (https://abload.de/image.php?img=cod_2023_05_15_09_39_2xiu5.png)
Einfach nur eine in jeder Hinsicht schlimme Erfahrung, wenn dieses Spiel läuft. ;D

basix
2023-05-15, 11:15:55
Funktioniert leider noch nicht so wie es sollte. Woran das liegt - ich kanns ned sagen - Windows oder ist die Implementierung doch schwerer als erwartet?

DirectStorage v1.0 gibt es noch nicht sooo lange und Dekompression lief noch via CPU. Erst DirectStorage v1.1 läuft auf der GPU und erst das ist wirklich das, was DirectStorage sinnvoll macht. Geht halt jetzt eine Zeit, Microsoft hat einfach ewig für die Umsetzung gebraucht und bis das in den Spiele Engines ankommt, dauert das etwas.

[immy;13304426']Hier wird die Dekompression in Hardware etwas überschätzt, genau so wie der gemeinsame Pool. Klar macht es die Sache etwas effizienter, aber der größte Teil kommt einfach von dem Konzept nur für eine SSD zu entwickeln. Kleine Pakete heißt weniger muss in den Speicher wandern und entpackt werden. Kommt das Konzept mal beim PC wirklich an (hat es bislang nicht Mal durchgängig zur xbox geschafft) sind die bottlecks kaum mehr vorhanden.

This! Spiele müssen mit SSDs und entsprechendem Streaming entwickelt werden. Das hat den initial grösseren Effekt als DirectStorage an sich. GPU-Decompression hat dann aber schon noch seine Vorteile, da PCIe nur mit komprimierten Daten belastet wird (geringere Bandbreite), die CPU entlastet wird und man einige memcpy / Sys-RAM Auslastung Sachen vermeiden kann.

Das sind aber relativ grundlegende Speichermanagement Geschichten einer Engine. Das baut man nicht einfach so ein oder um. Wieder ein Grund, wieso das etwas länger dauert als gewünscht.

Adaptives nachladen wie Sampler Feedback Streaming oder das was Nanite mit Geometrie macht (oder neu "Nano Tech" bei Unity), sind weitere Optimierungen am ganzen Streaming-Prozess (just load what you need mit deutlich höherer Granularität wie herkömmliches Streaming). Aber wie gesagt: Sind relativ tiefgreifende Änderungen am Speichermanagement einer Engine und deswegen relativ aufwändig in der Implementierung.

The_Invisible
2023-05-15, 18:59:04
Das Spiel müllt bis zu 16GB an VRAM zu. Was schon beeindruckend ist für ein Top-Down Spiel, wo man sich nicht ultra-schnell durch die Gegend bewegt.

Offensichtlich hat man irgendwann in den letzten 12 Monaten in der Spieleentwicklung sich entschlossen einfach kein Wert mehr auf Optimierungen zu legen.

16? Bei mir gings nach ein paar Szenen Wechsel noch immer auf 23,x rauf... Trotzdem sehr smooth, wird's einfach als Cache hernehmen

Troyan
2023-05-25, 16:45:33
Mit Gollum gibt es das nächste Next-Gen Spiel, was vollkommen berechtigt bis zu 17GB VRAM benötigt: https://www.pcgameshardware.de/Der-Herr-der-Ringe-Gollum-Spiel-62644/Specials/Technik-Test-Review-Release-RAM-VRAM-1420290/

Endlich gehts mit den richtigen Grafikkracher mal vorwärts hier.

DrFreaK666
2023-05-25, 17:20:00
Mit Gollum gibt es das nächste Next-Gen Spiel, was vollkommen berechtigt bis zu 17GB VRAM benötigt: https://www.pcgameshardware.de/Der-Herr-der-Ringe-Gollum-Spiel-62644/Specials/Technik-Test-Review-Release-RAM-VRAM-1420290/

Endlich gehts mit den richtigen Grafikkracher mal vorwärts hier.

Dabei ist es gar kein AMD-Titel, sondern NV hat unter die Arme gegriffen

Exxtreme
2023-05-25, 18:18:11
Puhhh! Hätte nicht gedacht, dass die RTX 4080 so schnell out-of-date sein wird. Aber zum Glück habe ich eine 24 GB-Karte geholt!

X-D

aufkrawall
2023-05-25, 18:22:08
Hat sich für Gollum dann ja schon mehr als bezahlt gemacht. Kannst sogar RT reinknallen, damit erfährt das TTT-Spiel (Triple-Turd) nochmal eine endgeile Aufwertung.

Ex3cut3r
2023-05-30, 19:42:25
KA was manche für Probleme haben, aber

ich sehe da selbst mit 8GB @ FHD mit oder ohne DLSS 2/3 keine großen Probleme, wenn man notfalls Settings und/oder Texturen ein bis zwei Stufen anpasst, ohne das die Qualität stark leidet.

Last of Us, Ultra, Außer Schatten, High Texturen, Streaming-Rate normal, 4K DLSS Q
7,7 Belegung, wirklich genutzt 7,3
https://abload.de/thumb/tlou-i_2023_05_10_18_phiwh.jpg (https://abload.de/image.php?img=tlou-i_2023_05_10_18_phiwh.jpg)

God of War, Ultra, 4K, DLSS Q
7,2 Belegung, wirklich genutzt 5,7
https://abload.de/thumb/gow_2023_05_10_18_57_4hfpq.jpg (https://abload.de/image.php?img=gow_2023_05_10_18_57_4hfpq.jpg)

Doom Eternal, Ultra, RT ON, 4K DLSS P
8,2GB, 7,8 wirklich genutzt
https://abload.de/thumb/doometernalx64vk_2023k3dh3.jpg (https://abload.de/image.php?img=doometernalx64vk_2023k3dh3.jpg)

Dying Light 2 Max mit allen RT Optionen 4K, DLSS Q
6,8 GB Belegung, 6,3 tatsächlich genutzt
https://abload.de/thumb/dyinglightgame_x64_rw74ceg.jpg (https://abload.de/image.php?img=dyinglightgame_x64_rw74ceg.jpg)

RDR2, Max paar Optionen auf High, DLAA 4K + diverse Mods
8,6 Belegung, 8GB wirklich genutzt
https://abload.de/thumb/rdr2_2023_05_10_19_14zifx1.jpg (https://abload.de/image.php?img=rdr2_2023_05_10_19_14zifx1.jpg)

Dead Space Remake 2023 Max mit RTAO On, 4K, DLSS Q
8,1GB Belegung, 7,4 tatsächlich gebraucht
https://abload.de/thumb/deadspace_2023_05_10_k6eap.jpg (https://abload.de/image.php?img=deadspace_2023_05_10_k6eap.jpg)

Miles Morales. Ultra mit RT Spiegelungen @ Ultra, reichtweite 7, 4K DLSS Q
10,3GB Belegung, tatsächlich gebraucht 9,9GB VRAM
https://abload.de/thumb/milesmorales_2023_05_44eoa.jpg (https://abload.de/image.php?img=milesmorales_2023_05_44eoa.jpg)

CP77, 4K, DLSS Q, Max Settings + RT Medium, RT Reflections + RT Lokale Schatten
10,9GB Belegung, 10,3 tatsächlich gebraucht
https://abload.de/thumb/cyberpunk2077_2023_05urdso.jpg (https://abload.de/image.php?img=cyberpunk2077_2023_05urdso.jpg)

Resident Evil 4 2023 (Remake) 4K, DLSS Q, Max Settings, kein RT, keine SSRs
8,6GB Belegung, tatsächlich genutzt, 7,5GB
https://abload.de/thumb/re4_2023_05_30_13_30_zec9u.jpg (https://abload.de/image.php?img=re4_2023_05_30_13_30_zec9u.jpg)

Wo soll da ein großes Problem sein? In den UE4 "Kack" Ports? Wie Hogwarts, Callisto Protocol, und Jedi Survior? Ja, wurde ich sowieso nie kaufen, so einen technischen Bock mist. Punkt.

Sieht mir wie die übliche Nvidia Bashing aus, einfach mal mitmachen....weil Nvidia und so. Komischerweise hat die 7600 von AMD auch nicht mehr VRAM, nur komischerweise ist dort im Thread nichts los, achso, richtig, weil es AMD ist. Eigentlich müsste die ganze Diskussion in den 7600 Thread, denn die hat das noch schlechtere VRAM Managment, ist DLSS 2 FSR 2.0 weit überlegen, und eine DLSS 3 Alternative hat Sie auch nicht. Aber ist AMD und daher gut. Peinlich.... :facepalm:

Platos
2023-05-30, 21:01:07
Ich denke, es gibt genug Tests die belegen, dass 8GB einfach zu wenig sind.

Da muss man eig. nicht mehr darüber diskutieren.

Lurtz
2023-05-30, 22:13:18
Wo soll da ein großes Problem sein? In den UE4 "Kack" Ports? Wie Hogwarts, Callisto Protocol, und Jedi Survior?
Jedi Survivor hat überhaupt kein Problem mit 8 GB, keine Ahnung wie du auf den Trichter kommst.

Ja, wurde ich sowieso nie kaufen, so einen technischen Bock mist. Punkt.
Toll, andere schon.
Sieht mir wie die übliche Nvidia Bashing aus, einfach mal mitmachen....weil Nvidia und so. Komischerweise hat die 7600 von AMD auch nicht mehr VRAM, nur komischerweise ist dort im Thread nichts los, achso, richtig, weil es AMD ist. Eigentlich müsste die ganze Diskussion in den 7600 Thread, denn die hat das noch schlechtere VRAM Managment, ist DLSS 2 FSR 2.0 weit überlegen, und eine DLSS 3 Alternative hat Sie auch nicht. Aber ist AMD und daher gut. Peinlich.... :facepalm:
Ja die Resonanz auf die 7600 war super hier :facepalm: Peinlich ist eher aus jedem einzelnen Thema einen nVidia vs AMD-Kleinkindkrieg zu machen.

Ex3cut3r
2023-05-31, 10:03:01
Jedi Survivor hat überhaupt kein Problem mit 8 GB, keine Ahnung wie du auf den Trichter kommst.


Toll, andere schon.

Ja die Resonanz auf die 7600 war super hier :facepalm: Peinlich ist eher aus jedem einzelnen Thema einen nVidia vs AMD-Kleinkindkrieg zu machen.

Ihr labert ständig davon, dass 8GB nicht ausreichen. Ich poste 9 aktuelle Spiele, und sehe nix davon. Wo sind eure Gegenbeispiele? :rolleyes:

Von meinen 8 Spielen haben 2 eine Usage von mehr als 8GB. Aber die sind auch mit RT vollgeschissen. Lächerlich die ganze VRAM Diskussion, da wird jede Gen, eine Panik gemacht, vollkommen lächerlich. 8GB reichen locker, behaupte ich!

bestMAN
2023-05-31, 10:21:07
Zumal nvidia besser mit dem VRAM umgeht als AMD und intel.
8 GB reichen auch meiner Meinung nach in FHD, wenn man Einschränkungen hinnehmen mag, allerdings ist bei nvidia die Preisregion eindeutig zu hoch gegriffen.
Das alles liegt natürlich an dem hohen Preis einer 4090, der sich nach unten durchsetzt, siehe 4070/4070ti. Die 70er Karten halte ich für gut, gerade mit deren 12 GB, aber eben auch zu teuer.

Exxtreme
2023-05-31, 10:23:26
Zumal nvidia besser mit dem VRAM umgeht als AMD und intel.

Stimmt das wirklich oder ist das bloß so ein Gerücht, welches eigentlich 9 Jahre alt oder so ist?

aufkrawall
2023-05-31, 10:28:25
Stimmt das wirklich oder ist das bloß so ein Gerücht, welches eigentlich 9 Jahre alt oder so ist?
Wird in erster Linie dadurch kommen, dass Nvidia für zig Spiele rBAR nicht aktiviert, was den Verbrauch schon mal um >1GB erhöhen kann. Oder es läuft dann einen halben Level lang besser, bis die Probleme doch anfangen aufzutreten. VRAM-Knappheit kann immer völlig unvorhersehbar Probleme bereiten. Insbesondere bei den ganzen D3D12-Technikmüllhaufen...

bestMAN
2023-05-31, 10:28:40
Die Quelle muss ich raussuchen, aber wenn nvidia 8 GB reichen, braucht AMD 8,5 und intel 9 GB
So ungefähr ist das meinem Gedächtnis zu entnehmen,

Ex3cut3r
2023-05-31, 10:32:19
Quelle war/ist PCGH.

DrFreaK666
2023-05-31, 10:57:14
Link?

aufkrawall
2023-05-31, 11:20:31
Wahrscheinlich Doom Eternal mit Nightmare-Streaming + RT auf der 6600 XT...

The_Invisible
2023-05-31, 11:39:08
Quelle war/ist PCGH.

Jap war dieser Test: https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Specials/A770-8GB-vs-16GB-Benchmark-Test-1414980/2/

Ist aber schon ewig so bekannt, weiß nicht warum man da wieder rumreiten muss ob es wirklich so ist...

DrFreaK666
2023-05-31, 11:55:25
Ob mit oder ohne rBar getestet wurde, steht nirgends im Text. Und wenn es, wie aufkrawall sagt, wirklich VRAM schluckt, dann ist das nicht ganz unwichtig

Exxtreme
2023-05-31, 11:57:57
Ich glaube, die Nvidia-Treiber machen das profilbasiert. Also es hängt davon ab welches Spiel das ist und welche Grafikkarte benutzt wird. Lässt sich deshalb womöglich schlecht voraussagen ob Rbar benutzt wird oder nicht. Aktivieren alleine reicht nicht wenn der Treiber das wieder deaktiviert.

Und ja, Rbar kann viel VRAM fressen.

aufkrawall
2023-05-31, 12:02:24
Nvidia Wunder-VRAM-Management in Aktion:
https://abload.de/img/1440pr0fxr.jpg (https://abload.de/image.php?img=1440pr0fxr.jpg)
https://youtu.be/SZB6YHDUsew?t=259

Auf einer 6700 XT läuft das selbst in 4k sauberer:
https://youtu.be/Ub2KtHLdoG8?t=385

Wenn man halt mal echte längere Spiel-Sessions aufnimmt anstatt nur 30s Benchmarks...

Raff
2023-05-31, 12:08:55
Trotzdem sind 8 "Nvidia-GiByte" besser als 8 "AMD-GiByte" und erst recht 8 "Intel-GiByte". Punkt. Quelle: Unzählige Messreihen, Praxistests, Nachtschichten. Ich spamme diese 24/7-Erkenntnisse ja nicht aus Spaß ständig hier ins Forum, sondern damit ihr auch etwas davon habt. :) Eine Quelle ist der Artikel oben, viele weitere Häppchen gibt es hier (zum Thema "längere Spielzeit" im Video):

https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Specials/A770-8GB-vs-16GB-Benchmark-Test-1414980/2/#a4
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Specials/Test-12GB-vs-8GB-Benchmarks-Preis-Leistung-1415350/2/#a4

"Die wichtigste Information beim Thema VRAM lautet: Nvidia-Grafikkarten weisen die beste Speicherverwaltung auf, Mangelsymptome werden so gut es geht hinausgezögert. Diese Tatsache ist unumstößlich und zeigt sich in jeder VRAM-fokussierten Messreihe aufs Neue. Wenn Arc mit 8 GiByte die Grundlinie darstellt, entspricht eine Radeon einer 8,5-GiByte-Grafikkarte und Nvidia einem 9-GiByte-Modell (stets auf die Standfestigkeit bei hoher Speicherlast bezogen). Das bedeutet, dass Nvidia zwar das Beste aus der gegebenen Kapazität holt, das Unvermeidliche aber nur hinauszögern kann. 8-GiByte-Grafikkarten jeder Art sind nicht mehr in der Lage, moderne Spiele mit maximalen Details darzustellen, ohne Probleme zu bekommen." (das ist ein Richtwert, keine Goldwaagen-Eichung!)

Ft8MkfCm6pw

MfG
Raff

dargo
2023-05-31, 12:15:44
Wenn bei Nvidia rBar "intern" Off war und bei AMD und/oder Intel On dann habt ihr nichts weiter als Äpfel und Orangen da verglichen.

Raff
2023-05-31, 12:22:56
Was du meinst: Wir haben verglichen, was jedes aktuelle Gaming-System ab Werk einstellt -> praxisnah. :) Es geht ja nicht darum, Megabytes zu zählen, sondern abzubilden, was praktisch mit einer gegebenen Kapazität erzielt wird. Den Zustand "ReBAR und HAGS aus" kann man machen, aber das müsste mal jemand mit zu viel Lebenszeit groß durchtesten. :D Nebenbei bemerkt: Ich mache täglich nichts anderes, ich atme und schwitze bereits Silizium aus, insofern haben diese Informationen Hand und Fuß.

MfG
Raff

Exxtreme
2023-05-31, 12:30:13
Wenn bei Nvidia rBar "intern" Off war und bei AMD und/oder Intel On dann habt ihr nichts weiter als Äpfel und Orangen da verglichen.

Das ist aber etwas, was der Benutzer wohl so oder so nicht beeinflussen kann. Und wenn ein deaktiviertes Rbar bessere Ergebnisse erzielt dann ist es halt so. Dann hat die Nvidia-Grafikkarte halt mehr RAM übrig als die Konkurrenz. Klar kann man jetzt Rbar pauschal deaktivieren um es vergleichbarer zu machen. Aber dann bricht Intel Arc so um 20% ein. Und zweitens, das wäre wohl auch nicht sehr praxisnah.

Linmoum
2023-05-31, 12:40:54
Du kannst auch bei NV rBAR aktivieren. Die Mittel und Wege gibt es. Natürlich ist ein Standard-Vergleich die logische Konsequenz, aber der lässt halt kein pauschales "das ist da besser"-Fazit zu.

basix
2023-05-31, 12:46:37
Trotzdem sind 8 "Nvidia-GiByte" besser als 8 "AMD-GiByte" und erst recht 8 "Intel-GiByte". Punkt. Quelle: Unzählige Messreihen, Praxistests, Nachtschichten. Ich spamme diese 24/7-Erkenntnisse ja nicht aus Spaß ständig hier ins Forum, sondern damit ihr auch etwas davon habt. :)

Von einigen Seiten liest man allerdings, dass bei Nvidia Karten die Frametime Spikes öfters auftreten. Kann das jetzt nicht belegen aber habe definitiv solche Beispiele gesehen. In beiden Fällen müssen die Daten aber noch in den VRAM passen (z.B. 7 GByte bei 8GB Karten).

Prinzipiell würde das auch Sinn machen: Nvidias VRAM-Management agiert aggressiver und deswegen ist die Tendenz zu Frametime-Spikes höher. Ob das jetzt bei allen Spielen so ist? Vermutlich nicht, keine Ahnung. Vielleicht liegt es auch nicht am VRAM sondern der CPU-Auslastung, die bei Nvidia tendenziell etwas höher ist.

dargo
2023-05-31, 12:52:28
Was du meinst: Wir haben verglichen, was jedes aktuelle Gaming-System ab Werk einstellt -> praxisnah. :)
Ich sage auch nicht euer Vergleich wäre nicht legitim. Was mich dabei etwas stört... es werden daraus Gerüchte geschnürt Speichermanagement ist bei XYZ besser. Das ist halt nicht haltbar sofern die eine GPU mit rBar On und die andere mit rBar Off läuft. Aber ganz ehrlich... sinnlose Diskussion wenn es dabei wirklich nur um magere ~0,5GB hin oder her geht. Einfach eine Grafikkarte mit ausreichend Vram kaufen und schon geht man potenziellen Problemen aus dem Weg.

Lurtz
2023-05-31, 12:57:22
Ihr labert ständig davon, dass 8GB nicht ausreichen. Ich poste 9 aktuelle Spiele, und sehe nix davon. Wo sind eure Gegenbeispiele? :rolleyes:

Von meinen 8 Spielen haben 2 eine Usage von mehr als 8GB. Aber die sind auch mit RT vollgeschissen. Lächerlich die ganze VRAM Diskussion, da wird jede Gen, eine Panik gemacht, vollkommen lächerlich. 8GB reichen locker, behaupte ich!
Im Gegensatz zu dir habe ich eine 8 GB VRAM-GPU und erlebe das oft genug live, statt es mit einer 12 GB GPU nachstellen zu wollen.

Außerdem habe ich keine Zeit und Lust, längst nachgewiesenes jemandem zu demonstrieren, der behauptet, dass 8 GB locker (!) reichen :ugly:

Trotzdem sind 8 "Nvidia-GiByte" besser als 8 "AMD-GiByte" und erst recht 8 "Intel-GiByte". Punkt. Quelle: Unzählige Messreihen, Praxistests, Nachtschichten. Ich spamme diese 24/7-Erkenntnisse ja nicht aus Spaß ständig hier ins Forum, sondern damit ihr auch etwas davon habt. :) Eine Quelle ist der Artikel oben, viele weitere Häppchen gibt es hier (zum Thema "längere Spielzeit" im Video):

https://www.pcgameshardware.de/Intel-Arc-Grafikkarte-267650/Specials/A770-8GB-vs-16GB-Benchmark-Test-1414980/2/#a4
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Specials/Test-12GB-vs-8GB-Benchmarks-Preis-Leistung-1415350/2/#a4

"Die wichtigste Information beim Thema VRAM lautet: Nvidia-Grafikkarten weisen die beste Speicherverwaltung auf, Mangelsymptome werden so gut es geht hinausgezögert. Diese Tatsache ist unumstößlich und zeigt sich in jeder VRAM-fokussierten Messreihe aufs Neue. Wenn Arc mit 8 GiByte die Grundlinie darstellt, entspricht eine Radeon einer 8,5-GiByte-Grafikkarte und Nvidia einem 9-GiByte-Modell (stets auf die Standfestigkeit bei hoher Speicherlast bezogen). Das bedeutet, dass Nvidia zwar das Beste aus der gegebenen Kapazität holt, das Unvermeidliche aber nur hinauszögern kann. 8-GiByte-Grafikkarten jeder Art sind nicht mehr in der Lage, moderne Spiele mit maximalen Details darzustellen, ohne Probleme zu bekommen." (das ist ein Richtwert, keine Goldwaagen-Eichung!)

https://youtu.be/Ft8MkfCm6pw

In wie vielen Spielen machen die 0,5 GB mehr einen relevanten Unterschied? In FH5 vielleicht, wo es dafür aber monatelang Regenbogenartefakte gab auf 8 GB Geforces?

Raff
2023-05-31, 13:01:35
Einfach eine Grafikkarte mit ausreichend Vram kaufen und schon geht man potenziellen Problemen aus dem Weg.

Absolut!

Bei den restlichen Beobachtungen würde ich mir aber etwas mehr Vertrauen wünschen. Erfahrung (und zwar nicht nur anhand einer Karte in einem Spiel) schlägt hier Ausnahmen. :)

In wie vielen Spielen machen die 0,5 GB mehr einen relevanten Unterschied? In FH5 vielleicht, wo es dafür aber monatelang Regenbogenartefakte gab auf 8 GB Geforces?

Pauschale Aussagen dazu sind unmöglich. Und die 0,5 bis 1,0 GiByte sind, wie gesagt, nur ein Richtwert zur Veranschaulichung. Der sagt nämlich deutlich: 10 GiByte auf einer RX 6700 sind besser, bestes Management hin oder her.

Was ich sagen kann: Nvidia schlägt sich gerade in Grenzbereichen besser, die Mangelverwaltung ist einfach zackiger. Also während in FH5 sowohl Arc als auch Radeon früh eine Speicherwarnmeldung provozieren und die Leistung etwas einbricht, springt Geforce noch wie ein junges Reh. Das Ausmaß hängt stark von den Settings ab.

MfG
Raff

Platos
2023-05-31, 13:03:30
Man muss das auch gar nicht mehr nachweisen. Es gibt bereits genug Tests. Schon in den Launchreviews gabs genug Beispiele. Abgesehen davon hat er es ja selber nachgewiesen...

2 von 8 haben selbst bei ihm (Settings sind nicht mal überall auf max) stand heute einen Einfluss.

In 2 Jahren sinds dann mehr.

Aber ist ja egal, weil ER zockt diese Spiele ja nicht, punkt :D

The_Invisible
2023-05-31, 13:05:06
Ich sage auch nicht euer Vergleich wäre nicht legitim. Was mich dabei etwas stört... es werden daraus Gerüchte geschnürt Speichermanagement ist bei XYZ besser. Das ist halt nicht haltbar sofern die eine GPU mit rBar On und die andere mit rBar Off läuft. Aber ganz ehrlich... sinnlose Diskussion wenn es dabei wirklich nur um magere ~0,5GB hin oder her geht. Einfach eine Grafikkarte mit ausreichend Vram kaufen und schon geht man potenziellen Problemen aus dem Weg.

Genauso sinnlos dann wie manche Diskussionen hier das AMD plötzlich in RT besser ist als NV, aja da kommt ja der "Wundertreiber" und "fine wine" von AMD ins Spiel ;D

DrFreaK666
2023-05-31, 13:06:22
Naja, "Wundertreiber" und "fine wine" sind eher alte Geschichten

aufkrawall
2023-05-31, 13:18:26
Genauso sinnlos dann wie manche Diskussionen hier das AMD plötzlich in RT besser ist als NV, aja da kommt ja der "Wundertreiber" und "fine wine" von AMD ins Spiel ;D
Klar. Jetzt ist wieder jeder, der nicht an Jensens Lippen hängt, gleich ein v_v...
Heute schon gespart neue Karte wegen VRAM-Mangel gekauft? ;D

dargo
2023-05-31, 15:14:21
Genauso sinnlos dann wie manche Diskussionen hier das AMD plötzlich in RT besser ist als NV, aja da kommt ja der "Wundertreiber" und "fine wine" von AMD ins Spiel ;D
Warum zitierst du mich jetzt in dem Zusammanhang?

Lehdro
2023-05-31, 15:14:38
Heute schon gespart neue Karte wegen VRAM-Mangel gekauft? ;D

The more you buy, the more you save - Lederjacke.

Bezieht sich demnach auch auf VRAM Mangel Karten.

Ex3cut3r
2023-05-31, 20:45:24
Im Gegensatz zu dir habe ich eine 8 GB VRAM-GPU und erlebe das oft genug live, statt es mit einer 12 GB GPU nachstellen zu wollen.


:confused: Wo mehr speicher da ist, so wird natürlich auch mehr adressiert. Des Weiteren spiele ich in 4K. Also mehr Worst Case geht ja gar nicht, und trotzdem sind die meisten Spiele meiner "Liste" unter 8GB. So viel dazu. :rolleyes:

Ich habe keinen Schimmer, was die meisten 8GB Nörgler wie du z.B. für ein Problem haben. Wahrscheinlich ist gegenseitiges Eier schaukeln, wie gemein Nvidia ist, in Mode gekommen.

Wurden sich die meisten mal überhaupt ansehen, wie viel moderne Spiele gerade bei Ihnen belegen, wurde man zum gleichen Schluss wie ich kommen. Klar, gibt es mal Ausreißer, aber die werden auch noch gepatcht, siehe Last Of Us. UE4 Spiele sind wohl ein ziemlicher Worst Case, damit kann ich aber nicht dienen, weil ich um technisch schlechte Spiele einen großen Bogen mache.

Lurtz
2023-05-31, 22:04:42
:confused: Wo mehr speicher da ist, so wird natürlich auch mehr adressiert. Des Weiteren spiele ich in 4K. Also mehr Worst Case geht ja gar nicht, und trotzdem sind die meisten Spiele meiner "Liste" unter 8GB. So viel dazu. :rolleyes:

Ich habe keinen Schimmer, was die meisten 8GB Nörgler wie du z.B. für ein Problem haben. Wahrscheinlich ist gegenseitiges Eier schaukeln, wie gemein Nvidia ist, in Mode gekommen.

Wurden sich die meisten mal überhaupt ansehen, wie viel moderne Spiele gerade bei Ihnen belegen, wurde man zum gleichen Schluss wie ich kommen. Klar, gibt es mal Ausreißer, aber die werden auch noch gepatcht, siehe Last Of Us. UE4 Spiele sind wohl ein ziemlicher Worst Case, damit kann ich aber nicht dienen, weil ich um technisch schlechte Spiele einen großen Bogen mache.
Klar, alle blöd außer dir, inklusive zig seriöser Reviewer. Selbst die nVidia-Fans Digital Foundry haben die VRAM-Problematik deutlich kritisiert. Ist das irgendwie eine Neurose von dir, jedem mit anderer Meinung nVidia-Hate zu unterstellen? Zumal das Thema nicht mal auf nVidia begrenzt ist, weil AMD ähnlich inadäquate Karten auf den Markt wirft.

6 deiner 9 gezeigten Spiele werden auf einer 8 GB-Karte potenziell Probleme machen. Spätestens wenn man noch so dreist ist auf seiner 400€-Karte nebenbei mal einen Browser zu öffnen, der dann den VRAM überbelegt. Oder soll man wegen der Auflösung nochmal pauschal 2 GB abziehen, weil du eh nur Zustimmung ernten willst?

Prinzenrolle
2023-05-31, 22:10:24
Lächerlich die ganze VRAM Diskussion, da wird jede Gen, eine Panik gemacht, vollkommen lächerlich. 8GB reichen locker, behaupte ich!

Und ich behaupte, dass eigentlich 640KB für alles reichen sollten.
Sagt jemand etwas dagegen, beschimpfe ich ihn als Nvidia Hater.
Aber wer weiß, vielleicht hat sich Jensen den ganzen Speicher den man auf der 4070/4060 und 3080 schon nicht verbauen wollte in seine neue Lederjacke integrieren lassen.

Raff
2023-05-31, 22:12:26
Und ich behaupte, dass eigentlich 640KB für alles reichen sollten.

Yep. Man muss einfach prozedural (https://de.wikipedia.org/wiki/.kkrieger) erzeugen. :wink:

MfG
Raff

Prinzenrolle
2023-05-31, 22:24:58
Yep. Man muss einfach prozedural (https://de.wikipedia.org/wiki/.kkrieger) erzeugen. :wink:

Hoffentlicht presst CD Projekt Red mit dieser Methode Cyberpunk bald auf eine klassische Diskette.:ulol:

Ex3cut3r
2023-05-31, 23:04:26
6 deiner 9 gezeigten Spiele werden auf einer 8 GB-Karte potenziell Probleme machen. Spätestens wenn man noch so dreist ist auf seiner 400€-Karte nebenbei mal einen Browser zu öffnen, der dann den VRAM überbelegt. Oder soll man wegen der Auflösung nochmal pauschal 2 GB abziehen, weil du eh nur Zustimmung ernten willst?

6 Spiele? Wie kommt darauf? LOL

Hoffnungslos. Naja. So ist das halt mit GPU VRAM Schwubler.

ChaosTM
2023-05-31, 23:06:01
Jop, Fanbubis sind hoffnungslos verblendet.

DrFreaK666
2023-05-31, 23:07:25
Haben nicht schon Deus Ex Mankind Divided und Shadows of War bei 6GB Karten eine Meldung gebracht, dass der VRAM nicht ausreicht?
Und wie lange ist das jetzt her?
Deus Ex: 2016
Shadows of War: 2017

Bin gerade nicht zuhause um zu sehen, was sie bei 8GB sagen

VRAM-Diskussion bitte hier weiterführen :
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13318507#post13318507

DrFreaK666
2023-06-01, 00:51:21
RTX3070 mit 16GB gebencht.
So viel zu "8GB reichen locker, behaupte ich!"

Die zwei Screenshots zeigen Worst Case.
8GB Karten kann man mit einer 12GB Karte nicht emulieren!

https://videocardz.com/newz/this-geforce-rtx-3070-comes-with-a-physical-8gb-16gb-memory-switch

https://abload.de/img/rtx3070-16gbmod_046ncjw.jpg (https://abload.de/image.php?img=rtx3070-16gbmod_046ncjw.jpg)

https://abload.de/img/rtx3070-16gbmod_061hehh.jpg (https://abload.de/image.php?img=rtx3070-16gbmod_061hehh.jpg)

Ex3cut3r
2023-06-01, 09:50:18
;D

Was ein Fail Test. In Last of Us, hat mit High Texturen überhaupt keinen optischen Nachteil.....dazu kann man die Streming-Rate auf Normal stellen, damit soll mehr aufploppen, ist aber in der Praxis nie Fall, außer man macht einen 360 Turn, und seriously wer macht bei TLOU einen 360 Turn? X-D

Mit High Texturen und Streaming Rate auf Normal kommt man in Last of Us mit 7GB sehr gut klar.

Bei einer 2 Jahre alten Mittelklasse GPU einfach alles stur zu maxxen, und sich dann wundern, dass hier und da hakt. -> Problem sitzt vor dem Bildschirm, indem Fall der Tester.

DrFreaK666
2023-06-01, 09:59:01
;D

Was ein Fail Test. In Last of Us, hat mit High Texturen überhaupt keinen optischen Nachteil...

Die zwei Screenshots zeigen Worst Case.hast natürlich wieder gekonnt überlesen und auf den Link zu klicken war wohl auch zu viel Arbeit für deinen rechten Zeigefinger :rolleyes:

bestMAN
2023-06-01, 11:33:19
Ich mag diese Schwarz/Weiß-Denke überhaupt nicht.

Die einen sagen: 8 GB reichen nicht mehr!
Das suggeriert, dass die 8 GB generell für alle Spieler und für alle Spiele nicht mehr langen und wir nur noch am kotzen sind.

Die anderen aber: 8 GB reichen locker

Ich sehe das inzwischen ganz ähnlich: Was bei mir langt oder eben nicht liegt an mir, und nicht an yt oder irgendeinem Forum.


Wenn jemand schreibt "8 GB reichen nicht!" dann beziehe ich das auf sein Umfeld und würde ihm empfehlen:
- eine andere Karte mit mehr Speicher kaufen
- die Regler bedienen und niedrigere Einstellungen zu benutzen
- eine andere Auflösung

Und es hat gezeigt, dass die aktuellen Spiele doch noch 3-4 Fixes brauchen, bis der Speicherbedarf, der zum Release höher war, gesenkt werden kann.

Die aktuellen Preise, das ist wohl der eigentliche Kotzgrund, sind bei nvidia natürlich zu hoch. Ich persönlich warte auf die kommende Karten 7700xt/7800xt bei AMD in Q4/2023 und entscheide dann.

Leider wird AMD nicht die Energieeffizienz von nvidia erreichen, das macht mich dann schon etwas traurig.

The_Invisible
2023-06-01, 12:49:25
Haben nicht schon Deus Ex Mankind Divided und Shadows of War bei 6GB Karten eine Meldung gebracht, dass der VRAM nicht ausreicht?
Und wie lange ist das jetzt her?
Deus Ex: 2016
Shadows of War: 2017

Bin gerade nicht zuhause um zu sehen, was sie bei 8GB sagen

VRAM-Diskussion bitte hier weiterführen :
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13318507#post13318507

VRAM konnte man schon immer (sinnlos) vollballern, zb damals schon mit Doom3 mit unkomprimierten Texturen und damals nicht existenden 512MB Grafikkarten obwohl es nicht besser ausgesehen hatte wie eine Stufe darunter

Aber gut, für mich war eine 60er Karte schon früher nie eine Karte die max Details darstellen können musste. Will man das VRAM Thema jetzt bis zur 50er tragen damit auch diese Ultra Texturen darstellen können muss? Irgendwie eskaliert die VRAM Thematik gerade ;)

Raff
2023-06-01, 12:52:19
VRAM konnte man schon immer (sinnlos) vollballern, zb damals schon mit Doom3 mit unkomprimierten Texturen und damals nicht existenden 512MB Grafikkarten obwohl es nicht besser ausgesehen hatte wie eine Stufe darunter

Zugegeben, ich weiß nicht mehr genau, wie es bei Doom 3 im Speziellen war (das ist 19 Jahre her). Aber generell sieht man Kompression bzw. das Fehlen derselben -> keine Block-Artefakte mehr. Wolfenstein: The New Order ist das anschaulichste Beispiel dafür. Wie immer gilt: Kann man kleinreden, übersehen oder sonstwie egal finden, Speichergeiz ergibt trotzdem keinen Sinn. :D

MfG
Raff

aufkrawall
2023-06-01, 12:54:57
Irgendwie eskaliert die VRAM Thematik gerade ;)
"Irgendwie". Könnte es etwas mit dem Preis bzw. Upselling zu tun haben? Es ist und bleibt ein Rätsel...

Ex3cut3r
2023-06-01, 14:57:56
Wo hat er denn bitte Last Of Us mit High Texturen und Streaming Rate auf Normal getestet? Ich sehe da nix.

Sieht dann so aus. Dafür brauche ich aber keinen "Tester"

Ich schaue es mir selber an.

https://abload.de/img/neuesprojektfqe8n.jpg

https://abload.de/thumb/tlou-i_2023_06_01_14_ebdui.jpg (https://abload.de/image.php?img=tlou-i_2023_06_01_14_ebdui.jpg)


Sein blödes kreischendes 10 Minuten YouTube Video, kann er sich sonst wo hinschieben. So einen Rotz schaue ich mir gar nicht erst an. Sowas ist dann wie gesagt für die Nvidia VRAM Hetzer. Die fühlen sich dann auch schön bestätigt, in ihrer denkweise.

DrFreaK666
2023-06-01, 16:32:48
Ignore... :rolleyes:

Ex3cut3r
2023-06-01, 16:35:48
Sry das es nicht dein Weltbild passt.

Nvidia Hetze bringt halt momentan sehr viel Klicks/Views und genau das wollen diese YouTuber viele klicks/views.

Prinzenrolle
2023-06-01, 18:04:57
Sowas ist dann wie gesagt für die Nvidia VRAM Hetzer. Die fühlen sich dann auch schön bestätigt, in ihrer denkweise.

Und so wie es die V-ram Hetzer gibt, die schon bei 12GB überall viel zu wenig sehen, gibt es halt die Knäuseriche, die eine 8GB Speichermenge verteidigen, die es vor fast 10 Jahren gab...

Aber stimmt, wer will auch schon mit einer "beyond fast" neuen RTX 4060 Ti SuperSusi seine Spiele in StrullHD Auflösung inkl. FrameGen und grandioser AI Power auf Ultra spielen, reicht ja auf mid-high...

Die Karte hat laut 3DCenter Umfrage gerade mal 1% positive Bewertungen und ist wie die RX 7600 verschwendetes Silizium für die Preise.
Du hast die Karte wahrscheinlich mit Troyan als einziger positiv bewertet?;D
. Aber zum Glück habe ich eine 24 GB-Karte geholt!

Hättest mal besser auf das 48GB Flaggschiff gewartet.

Ex3cut3r
2023-06-01, 18:35:26
Es geht nicht darum, was mal 10 Jahren der Fall war, weil eigentlich vor 10 Jahren hatten wir 2 oder 3GB Karten im High End Segment, deine 10 Jahre sind mal wieder, wie so oft in deinen Kommentaren, vollkommen übertrieben.

Des Weiteren kannst du gerne andere Spiele hier posten. Ich habe mir selbst 9 aktuelle Spiele angesehen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13317617&postcount=297

8GB Geforce reichen locker für eine Mittelklasse GPU.

The_Invisible
2023-06-01, 18:44:20
Der RAM-Need wächst halt auch viel langsamer als vor 10 Jahren noch. Konsolen vor PS5 gabs jede Gen 8x so viel Speicher, bei PS5 auf PS4 nur mehr das doppelte.

Selbst meine 32GB RAM die ich vor über 8 Jahren schon hatte sind heute noch HighEnd. 8GB wurde erst zur 1070 Ära richtig prominent, das ist jetzt schon 7 Jahre her und trotzdem kann man damit heute noch gut zocken. In den frühen 2000ern wäre die schon als 3. Generation Briefbeschwerer verwendet worden.

Trotzdem würde ich heute keine 8GB mehr kaufen, nur im LowEnd mehr. Ab 12GB sehe ich keine Probleme.

Schnoesel
2023-06-01, 19:06:27
8GB sind keine 300€ mehr wert. Das ist einfach nur Geld das sich Nvidia in die Tasche steckt, denn die RAM Preise sind günstig wie nie gleichzeitig die Karten teuer wie nie, nur ein Opfer verteidigt das auch noch.

Karte mit 8GB 450€? Kauf ne Konsole hat man mehr davon zum gleichen Preis.

Lurtz
2023-06-01, 20:20:20
Es geht nicht darum, was mal 10 Jahren der Fall war, weil eigentlich vor 10 Jahren hatten wir 2 oder 3GB Karten im High End Segment, deine 10 Jahre sind mal wieder, wie so oft in deinen Kommentaren, vollkommen übertrieben.

Des Weiteren kannst du gerne andere Spiele hier posten. Ich habe mir selbst 9 aktuelle Spiele angesehen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13317617&postcount=297

8GB Geforce reichen locker für eine Mittelklasse GPU.
9 cherry picked Spiele (alles andere wird als technischer Schrott deklariert) mit cherry picked Settings (alles andere wird als unnötig deklariert) :uup:

8 GB reichen locker! Für immer, weil der VRAM-Bedarf darf ja nicht mehr steigen, es gibt ja soo viele 8 GB-Grafikkarten, die darf man auf keinen Fall überfordern, sonst steht der nächste Shitstorm der sogenannten Masterrace ins Haus.

Ex3cut3r
2023-06-01, 21:34:43
Andere Spiele habe ich nunmal nicht installiert. Du kannst gerne andere Spiele posten, aber Plot Twist, da kommt sowieso nichts. Lieber meckerst du nochmal ne runde über 8GB -> Fail.

DrFreaK666
2023-06-01, 21:48:50
9 cherry picked Spiele (alles andere wird als technischer Schrott deklariert) mit cherry picked Settings (alles andere wird als unnötig deklariert) :uup:..

Cherry Picking ist immer super und war bis vor Kurzem eigentlich eher ein Troyan-Move.

Slipknot79
2023-06-01, 23:08:39
Warum gibt es keine Grakas, wo man den VRAM nachrüsten can wie bei einem Mobo? :redface:

][immy
2023-06-02, 00:03:25
Warum gibt es keine Grakas, wo man den VRAM nachrüsten can wie bei einem Mobo? :redface:
Groß genug sind die Karten inzwischen jedenfalls um auf der Rückseite einige RAM-Slots anzubringen, aber die Geschwindigkeit dürfte davon eher ... extrem langsam sein.
Einen der Gründe den ich in den aktuellen zu klein geratenen Speicherinterfaces vermute ist, das die Chips einfach zu klein geworden sind um noch die ganzen Leitungen irgendwo unter zu bringen. Man hat die neue Fertigung halt für die reine Verkleinerung genutzt anstatt DIE-Fläche mit neuen Einheiten auszustatten. Das reduziert gleichzeitig die Kontaktfläche zu "externen" Komponenten auf dem Grafikboard.
Das sie aber selbst bei der 4070er schon unter 256 Bit gegangen sind (und die größte davon sollte 4080 12GB genannt werden ^^), war schon ein deutliches Zeichen, das es für die unteren Klassen deutlich schlechter werden wird, denn so viel schneller sind die Speicher nicht geworden um das auszugleichen.

Kann man nur hoffen, das der Markt hier nvidia entsprechend abstraft, damit mit der nächsten Generation endlich mal wieder ein Mehrwert geschaffen wird. Auch wenn ich eine erhöhte Effizienz begrüße, mag ich mir nicht vorstellen, wie gut die Effizienz mit einem etwas größerer Chip mit mehr Einheiten gewesen wäre, dafür aber im Takt ein wenig reduziert. Plus etwas mehr Speicher und man hätte die 3070er ohne Probleme abgehängt und einen Generationssprung auch ins untere Segment getragen.

The_Invisible
2023-06-02, 08:45:38
Diablo 4 final Release schluckt noch immer VRAM zum Frühstück, ging in der kurzen Spielzeit bis zur Stadt auf 22,x GB rauf. :D

The_Invisible
2023-06-02, 08:52:41
Scheitert auch an der Signalstabilität/qualität. Nvidia/AMD hat nicht umsonst die RAM Chips so eng an die GPU gepackt. Da sind dann Steckverbindungen auch nicht gerade nützlich.

Lurtz
2023-06-02, 15:27:24
Andere Spiele habe ich nunmal nicht installiert. Du kannst gerne andere Spiele posten, aber Plot Twist, da kommt sowieso nichts. Lieber meckerst du nochmal ne runde über 8GB -> Fail.
Und du gaslightest -> Fail. Kapierst ja nicht mal dass bei deinen Beispielen schon genug dabei sind, die auf einer 8 GB-GPU locker in den WDDM-Slowmode rutschen können und dann ist es im Gegensatz zu deiner 12 GB-GPU Sense mit der Performance und man kann alle halbe Stunde Neustarten. Da bringen auch deine ganzen statischen Screenshots nichts.

Aber das wars jetzt auch von mir dazu, genug Zeit mit alternativen Fakten hier verschwendet.

Ex3cut3r
2023-06-02, 18:22:01
Und du gaslightest -> Fail. Kapierst ja nicht mal dass bei deinen Beispielen schon genug dabei sind, die auf einer 8 GB-GPU locker in den WDDM-Slowmode rutschen können und dann ist es im Gegensatz zu deiner 12 GB-GPU Sense mit der Performance und man kann alle halbe Stunde Neustarten. Da bringen auch deine ganzen statischen Screenshots nichts.

Aber das wars jetzt auch von mir dazu, genug Zeit mit alternativen Fakten hier verschwendet.

Nö. Weil man mit einer 8GB GPU sicherlich nicht in 4K und/oder mit RT zockt. X-D

Und wenn man probleme bekommt, eine Textur Stufe runter mit Alex/DF Optimised Settings, und die Welt ist wieder vollkommen in Ordnung. Das Problem, wenn überhaupt, sitz wie so oft vor dem Bildschirm.

Du hast damals bei Last of Us diese selbe Shit Show gemacht. Da haben mir die Ohren schon geblutet, wie oft du "geflucht" hast über deine 8GB.

Und schon 3 Wochen später, wars wunderbar spielbar mit 8GB. ;D

Lächerlich, wie so oft. Aber der größtze Witz ist, du meckerst ständig über Nvidia und ihren angeblichen Speichergeiz. Und jetzt sehe ich im 4070 Thread, dass du schon den Kauf einer 4070 mit 12GB "Krüppel Speicher" planst. Also, das ist für mich der Beweis überhaupt, dein gewhine ist eigentlich total unbegründet, und das weißt du auch. Weil sonst wurdest du sicherlich nicht Nvidia auch noch mit deinem Kauf unterstützen.

Lurtz
2023-06-02, 22:19:41
Nö. Weil man mit einer 8GB GPU sicherlich nicht in 4K und/oder mit RT zockt. X-D

Und wenn man probleme bekommt, eine Textur Stufe runter mit Alex/DF Optimised Settings, und die Welt ist wieder vollkommen in Ordnung. Das Problem, wenn überhaupt, sitz wie so oft vor dem Bildschirm.

Du hast damals bei Last of Us diese selbe Shit Show gemacht. Da haben mir die Ohren schon geblutet, wie oft du "geflucht" hast über deine 8GB.

Und schon 3 Wochen später, wars wunderbar spielbar mit 8GB. ;D


Das Problem sind die Produkte. Alles andere ist Schönrederei.

Als ich es gespielt habe, wars nicht wunderbar spielbar. Genauso wie Cyberpunk 2077 zu Release mit RT nicht wunderbar spielbar war.

Lächerlich, wie so oft. Aber der größtze Witz ist, du meckerst ständig über Nvidia und ihren angeblichen Speichergeiz. Und jetzt sehe ich im 4070 Thread, dass du schon den Kauf einer 4070 mit 12GB "Krüppel Speicher" planst. Also, das ist für mich der Beweis überhaupt, dein gewhine ist eigentlich total unbegründet, und das weißt du auch. Weil sonst wurdest du sicherlich nicht Nvidia auch noch mit deinem Kauf unterstützen.
Ich meckere über 8 GB GPUs. Egal von welchem Hersteller.

Im Gegensatz zu dir renne ich nicht blind einem Hersteller hinterher, sondern kaufe was gerade passt. Und da ist die 4070 in ihrem Preisbereich kein schlechtes Angebot, wie ja auch die Reviewer betonen, ganz im Gegensatz zur 3070, bei der oft genug davor gewarnt wurde (und die ich auch nur gekauft habe, weil ich sie zur UVP ergattern konnte).

aufkrawall
2023-06-02, 22:23:29
Ironischerweise lassen Dinge wie das miese UE4 RT die 12GB wieder weniger unattraktiv erscheinen, weil man eh drauf verzichten kann und es so auch kein großer Verlust wäre, würden die 12GB ansonsten nicht reichen. X-D

Lurtz
2023-06-02, 22:47:52
Das ist halt auch so ein Punkt, abseits von Techdemos sieht es mau aus, was brauchbare Raytracing-Implementierungen angeht. Und andere Ansätze wie Lumen laufen auf den meisten GPUs akzeptabel.

/Locutus oB
2023-06-02, 22:52:51
darum ist mir die RT Leistung meiner 6800xt relativ egal. da beruhigen mich die 16gb schon irgendwie...

ich sehe es auch überhaupt nicht ein mehr Geld für weniger Speicher auszugeben unabhängig davon wie schnell die karte ist.

Raff
2023-06-03, 17:28:25
System Shock (Remake) (https://www.pcgameshardware.de/System-Shock-Spiel-36361/Specials/Remake-Review-Benchmarks-Test-Release-1420994/) ist übrigens mit 6 GiByte VRAM gesättigt. :D

MfG
Raff

dildo4u
2023-06-03, 17:41:16
Kein Plan ob das schon bei der Beta der Fall
War aber Diablo 4 gibt an das man High Texturen für 4k nutzen kann.
Ultra will zusätzlich 32 GM RAM zum Auslagern, schätze mal 8K ist möglich mit DLSS.(4080/4090)

Ex3cut3r
2023-06-03, 18:14:18
Als ich es gespielt habe, wars nicht wunderbar spielbar. Genauso wie Cyberpunk 2077 zu Release mit RT nicht wunderbar spielbar war.


Ja, weil man erst mit dem Kauf warten sollte, ist Regel Nr.1 eines jedes PC Gamers. Bei Jedi Survior hast du auch ziemlich schnell zugeschlagen, machst du anscheinend öfters so.

ChaosTM
2023-06-03, 18:48:07
System Shock (Remake) (https://www.pcgameshardware.de/System-Shock-Spiel-36361/Specials/Remake-Review-Benchmarks-Test-Release-1420994/) ist übrigens mit 6 GiByte VRAM gesättigt. :D

MfG
Raff


Naja, das ganze Spiel hat auch nur 13gb (iirc). Das würde locker komplett in den (V)RAM passen. :)

HisN
2023-06-04, 00:44:51
Ich mag es wenn Spiele das VARM der Graka nutzen.
Diablo IV fängt in UHD ohne Qualitäts-Verringerung mit 10GB an, und pumpt dann den Speicher bis 22GB voll. Würde auf einer Karte mit NOCH MEHR Speicher bestimmt NOCH MEHR belegen^^

https://abload.de/img/diabloiv_2023_06_03_13mez7.png (https://abload.de/image.php?img=diabloiv_2023_06_03_13mez7.png) https://abload.de/img/diabloiv_2023_06_03_1jeedu.png (https://abload.de/image.php?img=diabloiv_2023_06_03_1jeedu.png) https://abload.de/img/diabloiv_2023_06_03_1s9cgv.png (https://abload.de/image.php?img=diabloiv_2023_06_03_1s9cgv.png)

r3ptil3
2023-06-04, 02:20:17
Far Cry 6
2560x1440
Ultra
Auflösungsskalierung 2.0

16.5 GB VRAM

https://i.ibb.co/d409Dyk/image.png

RTX 4090 + 7800X3D

The_Invisible
2023-06-04, 09:23:10
Ich mag es wenn Spiele das VARM der Graka nutzen.
Diablo IV fängt in UHD ohne Qualitäts-Verringerung mit 10GB an, und pumpt dann den Speicher bis 22GB voll. Würde auf einer Karte mit NOCH MEHR Speicher bestimmt NOCH MEHR belegen^^

https://abload.de/img/diabloiv_2023_06_03_13mez7.png (https://abload.de/image.php?img=diabloiv_2023_06_03_13mez7.png) https://abload.de/img/diabloiv_2023_06_03_1jeedu.png (https://abload.de/image.php?img=diabloiv_2023_06_03_1jeedu.png) https://abload.de/img/diabloiv_2023_06_03_1s9cgv.png (https://abload.de/image.php?img=diabloiv_2023_06_03_1s9cgv.png)

Jo, keiner hier mit einer RTX 6000 48GB, schon öde ;)

00-Schneider
2023-06-04, 09:46:55
Ich finde man kann mittlerweile schlecht unterscheiden, welche Games den VRAM einfach nur vollmüllen, und welche ihn tatsächlich brauchen.

D4 "braucht" mit Sicherheit keine 20GB in 4K, genauso wenig wie Far Cry 6 16GB in 1440p benötigt.

Exxtreme
2023-06-04, 10:05:03
Das Problem ist, das lässt sich nicht herausfinden ob ein Spiel den RAM vollmüllt oder nicht. Externe Tools können nur auslesen wieviel RAM das Spiel anfordert. Wieviel es davon tatsächlich nutzt, das weiss nur das Spiel.

r3ptil3
2023-06-04, 10:50:27
Man kann aber bei Far Cry 6 sehr gut sehen wie der VRAM Verbrauch skaliert mit den Einstellungen. Die maximale Auflösungskalierung verdoppelt den VRAM Verbrauch und ebenso steigt es stark durch das HD-Texturenpaket.

Ist nicht so, dass das Spiel grundsätzlich den VRAM schon unnötig stark befüllt.

00-Schneider
2023-06-04, 11:13:39
Das Problem ist, das lässt sich nicht herausfinden ob ein Spiel den RAM vollmüllt oder nicht. Externe Tools können nur auslesen wieviel RAM das Spiel anfordert. Wieviel es davon tatsächlich nutzt, das weiss nur das Spiel.

Man kann aber bei Far Cry 6 sehr gut sehen wie der VRAM Verbrauch skaliert mit den Einstellungen. Die maximale Auflösungskalierung verdoppelt den VRAM Verbrauch und ebenso steigt es stark durch das HD-Texturenpaket.

Ist nicht so, dass das Spiel grundsätzlich den VRAM schon unnötig stark befüllt.


Solange man die Werte von RTSS nicht als "die Wahrheit" annimmt und dadurch Aussagen ableitet ala´ "FC6 braucht schon in 1440p zwingend 16GB VRAM!" ist alles gut. ;)

Ex3cut3r
2023-06-04, 13:09:28
Callisto Protocol. Natives 4K, kein Upscaling (da DLSS fehlt)

Max Settings, ohne RT.

Wieder nur 8GB Belegung, 7,3 tatsächlich in Benutzung. :biggrin:

https://abload.de/thumb/thecallistoprotocol-wsaer0.jpg (https://abload.de/image.php?img=thecallistoprotocol-wsaer0.jpg)

ChaosTM
2023-06-04, 13:24:49
@ Ex3cut3r

dein Kreuzzug für 8Gb Karten ist zwar nobel, aber wer eine Karte für mehr als 1 Jahr kaufen will. -> Finger weg !

Platos
2023-06-04, 13:25:37
Ja, Executer wieder mal auf Kreuzzug unterwegs. Ausnahmsweise mal nicht für Hardware, die er gekauft hat xD

Die letzten Male waren es noch die bösen AMD CPUs und die bösen nvdidia GPUs... Bis er es dann gekauft hat...

Solange man die Werte von RTSS nicht als "die Wahrheit" annimmt und dadurch Aussagen ableitet ala´ "FC6 braucht schon in 1440p zwingend 16GB VRAM!" ist alles gut. ;)

Spielt keine Rolle, was tatsächlich "gebraucht" wird. Der Speicher wird reserviert, ob er nun gebraucht wird oder nicht, ist völlig egal. Wird nämlich mehr angefordert, schaut das System nicht, wie viel "tatsächlich gebraucht" wird, sondern wie viel reserviert ist. Da kann auch nur 1GB von 8GB reserviertem Speicher genutzt werden. Völlig egal. Wenn da 8GB reserviert sind und das System will mehr, dann gibts Speicherprobleme.

Das kann man ja gerne den Entwicklern vorwerfen, aber das ändert nunmal nichts an der Realität. Man "braucht" als Nutzer so viel Speicher, wie angefordert/serveriert wird und nicht, wie viel "tatsächlich" gebraucht wird.

Executer postet auch immer wieder Sinnfrei den "tatsächlichen Verbrauch", obwohl es keine Relevanz hat.

Das ist nur für Entwickler interessant.

@ Ex3cut3r

dein Kreuzzug für 8Gb Karten ist zwar nobel, aber wer eine Karte für mehr als 1 Jahr kaufen will. -> Finger weg !

Du meinst, wer keine Karte für 1 Jahr kaufen will und all die Spiele nicht spielen will, die heute schon mehr wie 8GB benötigen für die höchste oder zweithöchste Texturstufe ?

Ex3cut3r
2023-06-04, 14:09:49
@ Ex3cut3r

dein Kreuzzug für 8Gb Karten ist zwar nobel, aber wer eine Karte für mehr als 1 Jahr kaufen will. -> Finger weg !

Genau, das wird doch seit 2018 in den Foren gepredigt. Und jetzt natürlich auch wieder. Immer dieselbe Leier. Weil auch Leute Angst haben das Options Menü zu bedienen. Als ob man groß an Qualität verlieren wurde, wen man auf High spielt. :biggrin:

Doom Eternal. Ultra Nightmare Texturen vs Ultra Texturen ~ Null visueller Unterschied, aber 1GB weniger VRAM.

https://abload.de/thumb/doometernalx64vk_2023slipk.jpg (https://abload.de/image.php?img=doometernalx64vk_2023slipk.jpg) https://abload.de/thumb/doometernalx64vk_2023udc48.jpg (https://abload.de/image.php?img=doometernalx64vk_2023udc48.jpg)

Last of Us Part 1 Ultra Texturen, Streaming Rate Schnellstens vs High Texturen und Streaming Rate Normal ~ Null Unterschied, aber fast 2GB weniger VRAM

https://abload.de/thumb/tlou-i_2023_06_04_13_u9ckd.jpg (https://abload.de/image.php?img=tlou-i_2023_06_04_13_u9ckd.jpg) https://abload.de/thumb/tlou-i_2023_06_04_13_clcx1.jpg (https://abload.de/image.php?img=tlou-i_2023_06_04_13_clcx1.jpg)

https://abload.de/thumb/tlou-i_2023_06_04_13_eid48.jpg (https://abload.de/image.php?img=tlou-i_2023_06_04_13_eid48.jpg) https://abload.de/thumb/tlou-i_2023_06_04_13_7mf1r.jpg (https://abload.de/image.php?img=tlou-i_2023_06_04_13_7mf1r.jpg)

Blase
2023-06-04, 14:42:49
Ich will mich in diese Diskussion hier gar nicht groß einmischen - ist mir zu müßig - aber Exe, du warst es doch, der die 10 GB der 3080 in der Luft zerrissen hat. "Speicherkrüppel" waren da noch die netteren Worte. Das ist bald 2.5 Jahre her. Also vor 2.5 Jahren waren die 10 GB der 3080 eine absolute Katastrophe - und heute nun sind 8 GB Karten aber super? Das passt doch nicht zusammen.
Klar kann man Regler bedienen und so, sicherlich in fast allen Titeln, den RAM Bedarf soweit drücken, dass es auf jeden Fall passt. Die Frage ist doch aber eher, warum man das mit einer 400+ Euro Karte gleich ab Erscheinen tun sollte. Und da reden wir nicht von 4K Auflösungen...

MfG Blase

Platos
2023-06-04, 15:26:08
Executer widerspricht sich ständig. Am einen Tag ist es ein Krüppel, am nächsten Tag eingebaut im Rechner und das Gegenteil wird gepredigt.

Dieses Mal ausnahmsweise ohne eigene 8GB Karte.

MadManniMan
2023-06-04, 15:37:08
Last of Us Part 1 Ultra Texturen, Streaming Rate Schnellstens vs High Texturen und Streaming Rate Normal ~ Null Unterschied, aber fast 2GB weniger VRAM

Ist ja auch Quatsch, das an Screenshots festzumachen. Da geht's um das (verzögerte) Nachladen von Texturen, wenn Blickwinkel bzw. die Kamera sich ändern.

ChaosTM
2023-06-04, 15:37:16
Beim Speicher sparen hat nur einen Grund. Den User früher als nötig zum Kauf eine neuen Karte zu "animieren".
Geplante Obsoleszenz light..

Platos
2023-06-04, 16:02:49
Beim Speicher sparen hat nur einen Grund. Den User früher als nötig zum Kauf eine neuen Karte zu "animieren".
Geplante Obsoleszenz light..

Können die Leute hier, die jede Generation umsteigen, hald nicht verstehen.

ChaosTM
2023-06-04, 16:06:17
Können die Leute hier, die jede Generation umsteigen, hald nicht verstehen.


Wenn du jede Generation umsteigst ist die Grafikbestückung auch wurscht..

Platos
2023-06-04, 16:11:16
Ja eben, deswegen ja.

Ex3cut3r
2023-06-04, 16:25:22
Ist ja auch Quatsch, das an Screenshots festzumachen. Da geht's um das (verzögerte) Nachladen von Texturen, wenn Blickwinkel bzw. die Kamera sich ändern.

Ändert sich aber nichts. Außer man macht einen 360 Turn, und dann sieht für eine halbe Sekunde wie die Texturen reinploppen.

Aber wann macht man in TLOU einen 360-Turn? :biggrin:

Außerdem eliminiert das schon Streaming-Rate auf Schneller komplett für 500MB mehr Verbrauch. Müsste immer noch für einen 8GB Puffer langen.

Beim Speicher sparen hat nur einen Grund. Den User früher als nötig zum Kauf eine neuen Karte zu "animieren".
Geplante Obsoleszenz light..

Nö, man kann immer Settings anpassen. Ultra ist leider für faule bzw. dumme Menschen.

ChaosTM
2023-06-04, 16:27:40
Wenn man sich schnell dreht sollte genau nix ruckeln.

Jesus, wie ignorant kann man sein

OCmylife
2023-06-04, 16:37:09
Ändert sich aber nichts. Außer man macht einen 360 Turn, und dann sieht für eine halbe Sekunde wie die Texturen reinploppen.

Aber wann macht man in TLOU einen 360-Turn? :biggrin:

Außerdem eliminiert das schon Streaming-Rate auf Schneller komplett für 500MB mehr Verbrauch. Müsste immer noch für einen 8GB Puffer langen.



Nö, man kann immer Settings anpassen. Ultra ist leider für faule bzw. dumme Menschen.

Hattest Du Dir nicht auch eine 4090 gekauft? Ich bin da ganz bei Dir, dass Regler zu bedienen nicht so schwierig ist, obwohl ich es ab einem gewissen Grad auch lästig fand bei der 2070 in 4K und das für mich zu dem Zeitpunkt der Grund war auf eine doppelt so schnelle 3090 upzudaten. Aber wofür muss man von einer 3080 auf eine 4090 umsteigen, wenn der VRAM und die Performance doch reicht.

ChaosTM
2023-06-04, 16:39:32
Weil die 3080er einfach ein Kastrat ist.. ;)

Ex3cut3r
2023-06-04, 16:41:13
Hattest Du Dir nicht auch eine 4090 gekauft? Ich bin da ganz bei Dir, dass Regler zu bedienen nicht so schwierig ist, obwohl ich es ab einem gewissen Grad auch lästig fand bei der 2070 in 4K und das für mich zu dem Zeitpunkt der Grund war auf eine doppelt so schnelle 3090 upzudaten. Aber wofür muss man von einer 3080 auf eine 4090 umsteigen, wenn der VRAM und die Performance doch reicht.
Ich habe aktuell eine 3080 Ti seit Dezember 2021 mit 12GB. Ich plane aber zum ende des Jahres den Kauf einer 4080 Ti oder 4090.

Klar, kannst du das natürlich so einstellen, wie du willst. Ich will auch niemanden etwas vorschreiben. Aber der PC bietet mit dem Options Menü so viele tolle Einstellungen für jede GPU und VRAM Buffer. Meistens unterscheiden sich High/Medium Texturen gar nicht so groß von Ultra Texturen z.B. belegen/benötigen aber ehrheblich weniger VRAM.

Den Aufschrei nach VRAM in den anderen Forum (im 3DCenter geht es eigentlich noch) sehe ich daher viel weniger kritisch, ich wurde auch noch mit 8GB gut ausgekommen.

ChaosTM
2023-06-04, 16:42:56
Cyberpunk leidet immer noch unter der 3080er.
Die VRAM Belegung ist immer noch auf 10GB limitiert.

Mach keine Sinn, aber NV will es so..

add.: die neue Version scheint offen zu sein.. alle 16GB (3080ti Mobile) werden benutzt

OCmylife
2023-06-04, 17:00:10
Ich habe aktuell eine 3080 Ti seit Dezember 2021 mit 12GB. Ich plane aber zum ende des Jahres den Kauf einer 4080 Ti oder 4090.

Klar, kannst du das natürlich so einstellen, wie du willst. Ich will auch niemanden etwas vorschreiben. Aber der PC bietet mit dem Options Menü so viele tolle Einstellungen für jede GPU und VRAM Buffer. Meistens unterscheiden sich High/Medium Texturen gar nicht so groß von Ultra Texturen z.B. belegen/benötigen aber ehrheblich weniger VRAM.

Den Aufschrei nach VRAM in den anderen Forum (im 3DCenter geht es eigentlich noch) sehe ich daher viel weniger kritisch, ich wurde auch noch mit 8GB gut ausgekommen.

Edit: Ich hatte im Kopf, dass Du den Umstieg schon vollzogen hast und mit so einer Grafikkarte lässt es sich von oben herab natürlich leicht reden, dass auch 8GB reichen, wenn man selbst ausreichend VRAM hat.

Aus meiner Sicht sind 8GB aber nicht mehr genug, wenn mein Afterburner in 4K bei Jedi Survivor schon über 16GB zugewiesenen Grafikspeicher anzeigt und auch in einem Resi 4 Remake und auch anderen Spielen schon eindrucksvoll gezeigt wurde, was passieren kann, wenn der VRAM voll läuft. Da bringt Dir dann auch ein großer Cache nicht mehr viel, auch wenn NV dass den Kunden so verkaufen möchte. Klar kann man optimieren, aber man sollte den Fortschritt auch nicht aufhalten. Und wenn ein Kunde sich jetzt eine Grafikkarte für 400€ kauft, dann sollte sie nicht jetzt schon am Grafikspeicher ersaufen. Wie gesagt, meine Meinung vom hohen Ross mit 24GB VRAM. Mein Bruder ist in 1080P mit meiner ehemaligen 2070 auch glücklich. Der zockt aber auch nicht die neusten Titel und die Grafikkarte hat schon ein paar Jahre auf dem Buckel.

The_Invisible
2023-06-04, 17:10:25
Cyberpunk leidet immer noch unter der 3080er.
Die VRAM Belegung ist immer noch auf 10GB limitiert.

Mach keine Sinn, aber NV will es so..

add.: die neue Version scheint offen zu sein.. alle 16GB (3080ti Mobile) werden benutzt

Hätte da nie ein 10GB Limit gesehen, früher mit der 3080Ti nicht (warens in 4k schon 11GB) und jetzt mit Pathtracing eher so 15-16GB

AffenJack
2023-06-04, 17:12:14
Wenn du jede Generation umsteigst ist die Grafikbestückung auch wurscht..

Wenn man Regler bedienen kann, hat man in der Regel ebenso keine Probleme. Es ist ärgerlich bei neuen Karten, wenn man trotz höchster möglicher Einstellungen die Texturqualität runter stellen muss. Ansonsten seh ich aber nicht, wo das Problem ist die Texturdetails runterzustellen, wenn man auch andere Regler bedient.

Insbesondere amüsant ist es, wenn die gleichen Leute für VRAM Fresser Spiele argumentieren, indem man keinen Unterschied zwischen High und Ultra sieht, aber im gleichen Atemzug RT verteufeln, weil man zu wenig Unterschied sieht. In einem Fall ist Einstellungen runter drehen also ok, im anderen aber furchtbar. Obwohl die Konsequenz, kaum grafischer Unterschied bei Bedienung der Regler, hier und da diesselbe ist.

Lurtz
2023-06-04, 17:13:51
Ist ja auch Quatsch, das an Screenshots festzumachen. Da geht's um das (verzögerte) Nachladen von Texturen, wenn Blickwinkel bzw. die Kamera sich ändern.
Ich hab mit der niedrigeren Streaming Rate gleich in der ersten Cutscene nachladende Texturen gesehen. Man nimmt halt immer wahr, was man will...

Edit: Ich hatte im Kopf, dass Du den Umstieg schon vollzogen hast und mit so einer Grafikkarte lässt es sich von oben herab natürlich leicht reden, dass auch 8GB reichen, wenn man selbst ausreichend VRAM hat.

Das ist immer das beste. Wenn Leute mit Highend-GPUs der Mittelklasse erzählen wie das doch alles reicht :ugly:
Das ist wie wenn 3090-Besitzer das tolle RT Ampere-Mittelklasse loben, das an VRAM-Mangel verhungert.

Lurtz
2023-06-04, 17:14:57
Wenn man Regler bedienen kann, hat man in der Regel ebenso keine Probleme. Es ist ärgerlich bei neuen Karten, wenn man trotz höchster möglicher Einstellungen die Texturqualität runter stellen muss. Ansonsten seh ich aber nicht, wo das Problem ist die Texturdetails runterzustellen, wenn man auch andere Regler bedient.

Insbesondere amüsant ist es, wenn die gleichen Leute für VRAM Fresser Spiele argumentieren, indem man keinen Unterschied zwischen High und Ultra sieht, aber im gleichen Atemzug RT verteufeln, weil man zu wenig Unterschied sieht. In einem Fall ist Einstellungen runter drehen also ok, im anderen aber furchtbar. Obwohl die Konsequenz, kaum grafischer Unterschied bei Bedienung der Regler, hier und da diesselbe ist.
Oft genug gibts bei Texturen aber nur High und Medium, vor allem bei den Konsolenports, und Medium sieht dann oft schon deutlich schlechter als High aus.

ChaosTM
2023-06-04, 17:18:19
Ich hab RT nie verteufelt, sondern nur den damals bescheidenen Gewinn bezüglich Bildqualität kritisiert.

Und ja, man kann den Regler etwas nach links bewegen, aber warum sollte ich das tun wenn man genug Speicher hat ?

Ex3cut3r
2023-06-04, 17:58:27
Oft genug gibts bei Texturen aber nur High und Medium, vor allem bei den Konsolenports, und Medium sieht dann oft schon deutlich schlechter als High aus.

Hast du dafür mal bespiele? Kann ich nämlich nicht wirklich bestätigen in den meisten AAA Spielen. Oder muss ich wieder selber meine 9 installieren Spiele testen?

The_Invisible
2023-06-05, 11:49:47
Insbesondere amüsant ist es, wenn die gleichen Leute für VRAM Fresser Spiele argumentieren, indem man keinen Unterschied zwischen High und Ultra sieht, aber im gleichen Atemzug RT verteufeln, weil man zu wenig Unterschied sieht. In einem Fall ist Einstellungen runter drehen also ok, im anderen aber furchtbar. Obwohl die Konsequenz, kaum grafischer Unterschied bei Bedienung der Regler, hier und da diesselbe ist.

Man biegt es sich halt zurecht wie man braucht, finds daher auch witzig das über wenig VRAM gelästert wird aber über zu wenig (RT) Leistung nicht obwohl beides Bildqualität kostet.

][immy
2023-06-05, 11:57:26
Oft genug gibts bei Texturen aber nur High und Medium, vor allem bei den Konsolenports, und Medium sieht dann oft schon deutlich schlechter als High aus.
Das ist eher die Ausnahme denn die Regel. Normalerweise gibt es zwischen den letzten beiden Textur-Stufen nur wenig visuelle Unterschiede. Es gab in letzter Zeit technisch echt grottige Ports wo das nicht der Fall war, das stimmt. Aber das ist noch kein generelles Vorgehen. Man muss hier Mal bedenken das im Falle eines der Spiele sogar auf der ps3 & 4 besser aussah. Das wurde aber auch gepatched.
Aber ja, 8gb neu würde ich jetzt auch nicht mehr holen, außer im <200€ Bereich.

aufkrawall
2023-06-05, 12:00:46
Man biegt es sich halt zurecht wie man braucht, finds daher auch witzig das über wenig VRAM gelästert wird aber über zu wenig (RT) Leistung nicht obwohl beides Bildqualität kostet.
Hatte dich das schon mal nach den Titeln der letzten 12 Monate gefragt, da kam dann aber nichts (*surprise*).
Bei den VRAM-Beispielen sieht es ganz anders aus. Jetzt muss man hoffen, dass Diablo 4 nach längerer Spielzeit (oder eher?) nicht doch unschöne Einbrüche mit 8GB zeigt. Bei high- statt ultra-Texturen. Medium sieht dann schon aus wie Kotze...
Ach, RT hats noch gar nicht und soll es übrigens auch noch kriegen (außer, es läuft wie bei Atomic Heart...). Hoffentlich besser auf VRAM optimiert als das Texturenstreaming. ;D

][immy
2023-06-05, 12:05:10
Hatte dich das schon mal nach den Titeln der letzten 12 Monate gefragt, da kam dann aber nichts (*surprise*).
Bei den VRAM-Beispielen sieht es ganz anders aus. Jetzt muss man hoffen, dass Diablo 4 nach längerer Spielzeit (oder eher?) nicht doch unschöne Einbrüche mit 8GB zeigt. Bei high- statt ultra-Texturen. Medium sieht dann schon aus wie Kotze...
Ach, RT hats noch gar nicht und soll es übrigens auch noch kriegen (außer, es läuft wie bei Atomic Heart...). Hoffentlich besser auf VRAM optimiert als das Texturenstreaming. ;D

"Nach längerer Spielzeit" klingt eher wie memory-leak. 16gb machen das erträglicher, aber trotzdem ist es dann wohl eher ein Fehler im Spiel und kein "man benötigt unbedingt mehr als 8gb".

aufkrawall
2023-06-05, 12:09:16
[immy;13321442']"Nach längerer Spielzeit" klingt eher wie memory-leak. 16gb machen das erträglicher, aber trotzdem ist es dann wohl eher ein Fehler im Spiel und kein "man benötigt unbedingt mehr als 8gb".
Nope. Ist völlig normal, dass der VRAM-Verbrauch in zig Titeln in den ersten Minuten noch deutlich ansteigt und sich dann meist einpendelt oder erst ab dieser höheren Marke etwas aggressiver geleert wird (aber die Belegung immer noch hoch bleibt). Genau ist es normal, dass es dann oft wie Mist läuft, wenn vorher schon längst der VRAM ausgeht.

Schockierende Unwissenheit über die Realität, dafür, dass mit solcher scheinbaren Gewissheit erklärt wird, was ausreichen würde...

Raff
2023-06-05, 12:14:04
Man kann die "längere Spielzeit" in einigen Titeln übrigens effektiv "simulieren": Schnellreise noch und nöcher nutzen, sodass neue Gebiete und somit Daten eingeladen werden, und die Kacke ist schneller am Dampfen. :biggrin: Das ist auch nicht praxisfern, sondern im Gegensatz zu "Spiel laden, 20 Sekunden benchen" deutlich realistischer.

MfG
Raff

][immy
2023-06-05, 12:20:57
Man kann die "längere Spielzeit" in einigen Titeln übrigens effektiv "simulieren": Schnellreise noch und nöcher nutzen, sodass neue Gebiete und somit Daten eingeladen werden, und die Kacke ist schneller am Dampfen. :biggrin: Das ist auch nicht praxisfern, sondern im Gegensatz zu "Spiel laden, 20 Sekunden benchen" deutlich realistischer.

MfG
Raff
Ändert aber nicht daran das scheinbar ungenutzter, belegter Speicher nicht wieder freigegeben wird, was viel Raum für Optimierung ergeben dürfte.

Und ja, mir ist leider klar, das man heute kaum mehr auf do was wie Effizienz Rücksicht nimmt. Nicht desto trotz sollte es von den Kunden eingefordert werden, zumindest wenn da so ein großes Studio hinter steckt, das entsprechendes technisches Know-how haben sollte.

aufkrawall
2023-06-05, 12:25:24
Man kann die "längere Spielzeit" in einigen Titeln übrigens effektiv "simulieren": Schnellreise noch und nöcher nutzen, sodass neue Gebiete und somit Daten eingeladen werden, und die Kacke ist schneller am Dampfen. :biggrin: Das ist auch nicht praxisfern, sondern im Gegensatz zu "Spiel laden, 20 Sekunden benchen" deutlich realistischer.

Das kann auch das exakte Gegenteil bewirken, oft wird gerade bei Fast Travel der VRAM um mehrere hundert MB geleert (Hogwarts und afair auch Witcher 3 Rem.).

[immy;13321455']Ändert aber nicht daran das scheinbar ungenutzter, belegter Speicher nicht wieder freigegeben wird, was viel Raum für Optimierung ergeben dürfte.
Diese Erkenntnis wird dem Frame Time-Graphen sicherlich Beine machen...

Exxtreme
2023-06-05, 12:31:19
[immy;13321455']Ändert aber nicht daran das scheinbar ungenutzter, belegter Speicher nicht wieder freigegeben wird, was viel Raum für Optimierung ergeben dürfte.


Das ist ein Tradeoff, dass man ungenutzten Speicher nicht freigibt. Speicher allokieren und wieder deallokieren ist auch nicht kostenlos sondern geht auf die Performance. Und das auch nicht unerheblich. Ist z.B. mit ein Grund warum Java-Programme so viel RAM fressen. Sobald sich die JVM RAM gekrallt hat, gibt sie den nicht so ohne Weiteres wieder frei.

bestMAN
2023-06-05, 12:40:38
wir sollten bitte immer auch den Preis miteinbeziehen.
8GB stehen derzeit ab 210€ zur Verfügung. Aber leider ist die Spanne doch recht groß, man kann auch fast 500€ zahlen.

][immy
2023-06-05, 14:23:30
Das ist ein Tradeoff, dass man ungenutzten Speicher nicht freigibt. Speicher allokieren und wieder deallokieren ist auch nicht kostenlos sondern geht auf die Performance. Und das auch nicht unerheblich. Ist z.B. mit ein Grund warum Java-Programme so viel RAM fressen. Sobald sich die JVM RAM gekrallt hat, gibt sie den nicht so ohne Weiteres wieder frei.

Zwischen weiternutzen und ungenutzt besetzt lassen besteht aber ein Unterschied. Auch Java wird Speicher wieder freigegeben oder Wiedernutzen wenn er knapp wird. Genau das scheint aber hier nicht zu klappen. Natürlich ist es sinnvoll ungenutzten Speicher mit Texturen (etc) voll zu pumpen die vielleicht Mal benötigt werden, aber wenn Platz benötigt wird, muss man trotzdem aufräumen oder den Cache verringern. Aber genau das scheint spätestens seit dx12/Vulkan bei einigen Titeln gar nicht mehr zu klappen am PC. Ggfs. liegt es daran das sich der Entwickler einfach um mehr selbst kümmern muss, es aber effektiv nicht macht.

Platos
2023-06-05, 18:18:10
Zu 8GB und nicht genug gibts ja jetzt in der News vom 3./4. Juni auch nochmals wunderbar die Belege, dass (gerade die 4060Ti) mit Framegen On einfach zu wenig speicher hat. Gerade das Feature schlechthin von Ada läuft auf der 4060Ti nicht richtig, weil Speicher fehlt:D

10GB sind einfach Minimum (nicht Optimum) mit Framegen (Mit RT 12GB).

Das macht 8GB bri nvidia eig. selbst bei Low-End Karten untauglich irgendwie. Denn dann muss man sich entscheiden: Texturen oder Framegen?

Raff
2023-06-07, 11:13:13
Diablo 4 allokiert auch in der Finalversion bis zu 23 GiByte auf einer 24-GiByte-Grafikkarte (Ultra HD mit Hi-Res-Texturen), man muss nur lange genug spielen. Der tatsächliche VRAM-Bedarf ist hingegen nicht leicht zu beziffern, denn das Spiel verhält sich nicht binär - sondern zeigt ohne Framelock auf jedem System mehr oder minder fühlbare Ruckler. Diese kommen nicht nur durch den VRAM, sondern sind auch Traversal-Ruckler. Das Zuckeln wird stärker, wenn das Streaming-System Daten rumkopieren muss, also vor allem <12 GiByte VRAM. Texturschwund gibt's bei diesem Vorgang natürlich auch, das ist ein "modernes" Verhalten. Hier ein paar Frametime-Beispiele (https://www.pcgameshardware.de/Diablo-4-Spiel-55956/Specials/Diablo-4-Benchmarks-Tuning-Tipps-Technical-Review-1421206/3/#a1), die klar sagen: Mehr VRAM ist besser, aber nicht zwangsläufig perfekt (in groß (https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1421206&page=3&draft=-1&rank=1)).

MfG
Raff

gnomi
2023-06-07, 11:51:50
Wie läuft es denn mit gelockten 60 /120/144 fps?
Das sollte man ja eh an Display/GPU Power ausrichten und GSync kompatibel oder vergleichbar ist ja bald ohnehin alles.
60fps wäre verglichen mit Konsole interessant.
Die scheinen sauber zu laufen, aber nicht die höchst mögliche Textur Einstellung und keinen 120 fps Modus zu bieten.
Wahrscheinlich muss man sich das dann ähnlich zurecht basteln und die HD Texturen einfach auslassen außer auf 4090.
Jedenfalls, wenn das jetzt unbedingt super smooth sein soll...

dildo4u
2023-06-07, 11:53:02
Framegen ist doch kaputt daher vermutlich die grottige Performance in eurem Video oder liegt das an der Aufnahme?


BlvEXsNKBtQ


CB hat D4 noch mit tonnen älteren GPU getestet 5500XT,1060,RX580,1660,1650 Super,RX6400 etc.

https://www.computerbase.de/2023-06/diablo-iv-benchmark-test/3/

Raff
2023-06-07, 12:00:17
Framegen ist doch kaputt daher vermutlich die grottige Performance in eurem Video oder liegt das an der Aufnahme?

Das ist die Aufnahme. :( Leider zeigen sich diese Probleme immer erst, wenn das Video von Youtube konvertiert wurde - flüssig abspielen lassen sich die OBS-"Lossless"-Files nicht mal an den dicksten Rechnern. Man sieht aber an den Fps und Frametimes im Video, dass das eigentlich flüssig läuft.

MfG
Raff

aufkrawall
2023-06-07, 12:02:41
Wieso ist der fps-Graph empfindlicher als der Frame Time-Graph?

00-Schneider
2023-06-07, 13:18:04
Wie läuft es denn mit gelockten 60 /120/144 fps?
Das sollte man ja eh an Display/GPU Power ausrichten und GSync kompatibel oder vergleichbar ist ja bald ohnehin alles.


Sehr sauber bis auf ein paar minimale Traversal Stutter, die wahrscheinlich CPU bedingt sind. Hab meine CPU mal mit 50% Takt laufen lassen, was diese Stutter deutlich häufiger hat auftreten lassen, obwohl die FPS laut RTSS weiter stabil durchgängig bei 117fps waren.

dildo4u
2023-06-13, 15:47:28
Mal wieder AMD Marketing zur Vram Ausstattung.

https://community.amd.com/t5/gaming/importance-of-vram-when-gaming-at-1440p-in-2023/ba-p/611105

Linmoum
2023-06-13, 16:30:37
Wer ursprünglich 8GiB VRAM auf einer $300 GPU anbieten wollte, sollte halt einfach mal die Fresse halten.

dargo
2023-06-13, 16:54:09
Wer ursprünglich 8GiB VRAM auf einer $300 GPU anbieten wollte, sollte halt einfach mal die Fresse halten.
Was stimmt mit dir nicht? :freak:

HOT
2023-06-13, 18:05:20
Keine Ahnung... nach dem Marketing würd ich aber gerne die 7700er auch mit 16GB sehen ;).

DrFreaK666
2023-06-13, 18:37:11
Keine Ahnung... nach dem Marketing würd ich aber gerne die 7700er auch mit 16GB sehen ;).

Würde nicht damit rechnen.

"For 1440p gaming at maximum settings, AMD recommends 12GB of VRAM."

AMD gibt Nvidia also Recht.

Lurtz
2023-06-16, 23:06:45
2Rl6sFoeOSU

DF sagt Diablo 4 braucht 16 GB VRAM um PS5 Texturqualität ohne Stutter zu erreichen ;D

Und Alex ist immer noch in denial...
https://twitter.com/Dachsjaeger/status/1669713876705853444

Ich verstehe echt nicht was so schwer daran zu verstehen ist, dass die ganze Streaming Pipeline der Konsolen zumindest ohne Direct Storage GPU Decompression um Welten effizienter als alles am PC ist, dass der unified memory enorm viel bringt, und dass PC Versionen massiv mehr VRAM brauchen werden, weil selbst wenn es möglich wäre, ein Großteil der Entwickler sich schlichtweg nicht die Mühe gibt/geben kann. Bin mal gespannt wie lange sie das durchhalten, wahrscheinlich bis Nvidia nur noch 16 GB Grafikkarten im Angebot hat... :upara:

Das Video ist aber auch ziemlich schwach. Der Reviewer hat nur 8 und 16 GB GPUs und schließt dann, dass man 16 GB für PlayStation Texturqualität braucht :confused:

Verstehe nicht wieso Digital Foundry ihren Mitarbeitern nicht mal Zugriff auf mehr Hardware gibt :ugly:

Die negative Skalierung mit Frame Generation haben sie auch festgestellt, ohne weiter nachzuhaken, im Gegensatz zu PCGH.

aufkrawall
2023-06-16, 23:10:15
Bin mir fast sicher, dass das Spiel @Ultra-Texturen mit UE5 mit 8-10GB VRAM laufen würde. Dieser in-house Müll muss einfach mal komplett sterben.

DrFreaK666
2023-06-16, 23:11:26
Und sie bekommen wohl Ausschlag von AMD-Karten

Bin mir fast sicher, dass das Spiel @Ultra-Texturen mit UE5 mit 8-10GB VRAM laufen würde. Dieser in-house Müll muss einfach mal komplett sterben.

D4 muss halt noch auf PS4 und Xbox One laufen. Wie performt UE5 auf diesen Konsolen?

Lurtz
2023-06-16, 23:21:21
Bin mir fast sicher, dass das Spiel @Ultra-Texturen mit UE5 mit 8-10GB VRAM laufen würde. Dieser in-house Müll muss einfach mal komplett sterben.
Ja aber wahrscheinlich basiert die gesamte battle.net-Integration auf 15 Jahre altem Code eines Programmierers, der das Unternehmen vor 10 Jahren verlassen hat und deshalb geht das nicht... :D

The_Invisible
2023-06-16, 23:36:04
Naja so läuft D4 schon ganz nett, kein Vergleich zu den letzten Beta Releases so, die Grafikkarte langweilt sich da auch in 4k. Warum so viel VRAM verbraten wird erschließt sich mir aber auch nicht, hat irgendwie was von den letzten UE4 Games wo der Speicher einfach nicht mehr freigegeben wird. Schätze mal werden noch Optimierungen kommen...

gnomi
2023-06-17, 10:37:37
Mag sein. Bis dahin kann man sich aber echt lieber ne PS5/Series X Version schön auf dem OLED geben.
Ist eine sehr kritische Situation für PC Gaming jetzt.
Da müssen die Preise runter und bei den Monitoren muss auch was kommen.

Hätte auch nicht gedacht, dass die am PC nicht wenigstens diesen PCIE 3 SSD Standard hinbekommen für schnelles Laden und brauchbares Streaming.
Microsoft wollte das ja mit der Series X plus Direct Storage angleichen.
Nur nutzt das keiner sonderlich.
Also das erinnert an DX12, was auch ewig nicht in die Gänge kam.
Damals hatte man einen dicken Prozessor plus nvidia GPU mit DX11 Treiber Bonus. Und heute eben ne Konsole als Workaround.
Ob die UE5 die Lösung bringt.:confused: Wette, da kommen auch erst wieder 5.1 Build Versionen, wo auch noch nicht alles reibungslos ist. :freak:

Thunder99
2023-06-17, 11:01:00
Wir sind noch am Anfang. Der Motor stockt noch ein wenig aber er wird laufen.

Troyan
2023-06-17, 11:03:59
Diablo 4 auf den Konsolen nutzt keine Ultra-Texturen. Das 8GB bei Ultra-Texturen nicht ausreichen, kann sein. Aber das das Spiel mehr als 12GB benötigt, ist eben wieder so ein Softwareschrott.

Die Konsolen laufen auch nichtmal nativ in 1440p und werden angeblich mit FSR hochskaliert. Das sieht kaum besser aus als High-Texturen auf dem PC.

dildo4u
2023-06-17, 11:04:44
Mag sein. Bis dahin kann man sich aber echt lieber ne PS5/Series X Version schön auf dem OLED geben.
Ist eine sehr kritische Situation für PC Gaming jetzt.
Da müssen die Preise runter und bei den Monitoren muss auch was kommen.

Hätte auch nicht gedacht, dass die am PC nicht wenigstens diesen PCIE 3 SSD Standard hinbekommen für schnelles Laden und brauchbares Streaming.
Microsoft wollte das ja mit der Series X plus Direct Storage angleichen.
Nur nutzt das keiner sonderlich.
Also das erinnert an DX12, was auch ewig nicht in die Gänge kam.
Damals hatte man einen dicken Prozessor plus nvidia GPU mit DX11 Treiber Bonus. Und heute eben ne Konsole als Workaround.
Ob die UE5 die Lösung bringt.:confused: Wette, da kommen auch erst wieder 5.1 Build Versionen, wo auch noch nicht alles reibungslos ist. :freak:

Die ersten 30fps Games werden langsam angekündigt(Starfield z.b) ja die Situation ist Kacke was GPUs angeht aber Zen 4 sollte erlauben das wir wieder Gameplay @60fps bekommen wenn auch nicht mit maximaler Grafik.


Diablo 4 auf den Konsolen nutzt keine Ultra-Texturen. Das 8GB bei Ultra-Texturen nicht ausreichen, kann sein. Aber das das Spiel mehr als 12GB benötigt, ist eben wieder so ein Softwareschrott.

Die Konsolen laufen auch nichtmal nativ in 1440p und werden angeblich mit FSR hochskaliert. Das sieht kaum besser aus als High-Texturen auf dem PC.

Das Game hat 75GB auf PS5 das wird Ultra sein nur ist die Basis Auflösung zu niedrig um das vernünftig darzustellen.

][immy
2023-06-17, 11:44:58
Mag sein. Bis dahin kann man sich aber echt lieber ne PS5/Series X Version schön auf dem OLED geben.
Ist eine sehr kritische Situation für PC Gaming jetzt.
Da müssen die Preise runter und bei den Monitoren muss auch was kommen.

Hätte auch nicht gedacht, dass die am PC nicht wenigstens diesen PCIE 3 SSD Standard hinbekommen für schnelles Laden und brauchbares Streaming.
Microsoft wollte das ja mit der Series X plus Direct Storage angleichen.
Nur nutzt das keiner sonderlich.
Also das erinnert an DX12, was auch ewig nicht in die Gänge kam.
Damals hatte man einen dicken Prozessor plus nvidia GPU mit DX11 Treiber Bonus. Und heute eben ne Konsole als Workaround.
Ob die UE5 die Lösung bringt.:confused: Wette, da kommen auch erst wieder 5.1 Build Versionen, wo auch noch nicht alles reibungslos ist. :freak:
Dx12 steckt nach wie vor in den Kinderschuhen was die Verbreitung abgeht.
Zudem gibt es aktuell immer noch das große Problem des shader stutter was am PC bislang entweder durch vorkompilieren (nach wie vor zu selten) gelöst wird oder durch brute force.
Ich glaube nicht daß sich direct storage so schnell durchsetzen wird. Schon ohne direct storage könnte man heute mit ganz normalen SSDs schon einiges rausholen, aber selbst das passiert nicht und wenn SSDs Vorraussetzungen sind (derzeit), dann werden trotzdem noch große packages geliefert und das laden ebenfalls nur durch brute force gelöst.
Also so schnell sehr ich nicht das sich am PC irgendwas mal durchsetzt.

aufkrawall
2023-06-17, 12:00:11
[immy;13330210']Dx12 steckt nach wie vor in den Kinderschuhen was die Verbreitung abgeht.

Wie bitte? Bei AAA ist es ~100% und selbst AA ist mit UE mittlerweile fast immer 12.

][immy
2023-06-17, 12:21:08
Wie bitte? Bei AAA ist es ~100% und selbst AA ist mit UE mittlerweile fast immer 12.

Also die meisten Implementierungrn der letzten Jahre waren höchst verbucht. Und dass meine ich mit Kinderschuhen. Es läuft einfach nicht gut mit der Implementierung von dx12/vulkan

Monsta
2023-06-17, 19:09:50
[immy;13330236']Also die meisten Implementierungrn der letzten Jahre waren höchst verbucht. Und dass meine ich mit Kinderschuhen. Es läuft einfach nicht gut mit der Implementierung von dx12/vulkan

Du schreibst Verbreitung und meinst verbuggt. Ja dann ist ja alles klar.

HOT
2023-06-17, 19:44:06
Da ist nix verbugt. Das liegt einfach an den Konsolen. Das sind eben Streamingmaschinen und sobald für diese Software umgesetzt wird, wirds auf dem PC halt schwierig bei den jetzigen 16Gbit VRAM-Modulen. Das muss einfach mit entsprechenden Speichermengen aufgefangen werden. Mit der Zeit bekommt man hier und da noch ne Optimierung hin (meinetwegen 10 unterschiedliche Blätter-Texturen durch eine ersetzen oder ähnlich simples) um noch ein paar MB einzusparen. Manche PC-Ports sind anfangs eben noch etwas unoptimiert, das kostet eben Zeit, das für Speicherverbrauch hin zu optimieren. Wobei das gar nicht nötig wäre, wenn die Hersteller bei den Speichermengen in den letzten 3 Jahren nicht so unglaublich geizig gewesen wären und es von GDDR6 schon längst 32Gbit-Module geben würde. 16GBit wurde schon auf Profi-Turings 2018 (!) verbaut (das ist 5 Jahre her!), was ist das los ?! Nicht die Optimierungen sind Schuld. Es gab kein normales Wachstum bei den Speichermengen, das ist das Problem. Und jetzt müssen sich Spielestudios völlig überflüssigerweise mit viel zu geringen VRAM-Größen herumschlagen.

Troyan
2023-06-18, 10:31:12
Hä? Konsolen haben 10GB oder 12GB VRAM. Das war es. TLoU läuft sogar mit "High"-Texturen in 1440p auf einer 8GB Karte.

Das Diablo 4 mehr als 12GB mit Ultra braucht, ist ein Software-Problem.

aufkrawall
2023-06-18, 10:35:34
TLOU kackt zig Threads zu mit Streaming, selbst auf einem 13700K läuft das bei >100fps deshalb oft zappelig...

HOT
2023-06-18, 13:25:01
Hä? Konsolen haben 10GB oder 12GB VRAM. Das war es. TLoU läuft sogar mit "High"-Texturen in 1440p auf einer 8GB Karte.

Das Diablo 4 mehr als 12GB mit Ultra braucht, ist ein Software-Problem.
Ich zitier von dir normal nix, aber du liegst einfach falsch. Die aktuellen Konsolen haben brutto sehr viel mehr VRAM dank der Streamingeigenschaften. Die Texturen liegen auf der SSD, nicht im VRAM. Dieser dient halt nur als Cache und für den Framebuffer. Das muss man verstehen, sonst wird man immer diesem Trugschluss aufsitzen.
Der PC kann das so nicht, vielleicht geht das irgendwann mal, wenn CXL3 im Consumer-Bereich Einzug hält. Aber der PC muss auch mit DirectStorage das Spiel + Grafik in den Hauptspeicher steamen, um die Grafik dann weiter die GPU abzugeben. Diese speichert die gesamten benötigten Daten im VRAM. DirectStorage macht auf dem PC nur eines, nämlich Prozessorleistung einsparen, weil die Dekodierung der komprimierten Videodaten auf der GPU stattfindet, nicht auf der CPU. Will heißen, wenn die CPU kein Flaschenhals ist, hast du nicht mal nen Performancevorteil dadurch. Das was die Konsolen durch Steaming erreichen können braucht der PC als Speichermenge, das ist der ganze Witz bei der Geschichte, dann läuft das auf dem PC genauso performant (oder besser gesagt sehr viel Performanter, weil es keine Hardwarelimits gibt auf dem PC) wie auf der Konsole.

Exxtreme
2023-06-18, 13:37:02
Die Texturen liegen auf der SSD, nicht im VRAM. Dieser dient halt nur als Cache und für den Framebuffer. Das muss man verstehen, sonst wird man immer diesem Trugschluss aufsitzen.

Wobei das fraglich ist ob das schnell ist. Auf dem PC ist das Auslagern der Texturen ins System-RAM schon sehr langsam obwohl das trotzdem beträchtlich schneller sein dürfte als Texturen auf SSDs zu parken.

HOT
2023-06-18, 13:41:12
Wobei das fraglich ist ob das schnell ist. Auf dem PC ist das Auslagern der Texturen ins System-RAM schon sehr langsam obwohl das trotzdem beträchtlich schneller sein dürfte als Texturen auf SSDs zu parken.
Du bis da völlig auf dem Holzweg :freak:.
Es geht doch nicht darum was zurückzuspeichern. Die Konsolen haben eine Wahnsinns Bandbreite von der SSD zur Grafikausgabe, dadurch, dass man eine sehr schnelle SSD verbaut hat und die Daten sehr stark komprimiert sind. Die GPU verrechnet im Prinzip nur die komprimierten Daten und speichert das fertige Bild in den Framebuffer, dann beginnt alles von vorne. Das Streaming ist eben das was es ist, die Daten werden andauernd von der SSD gestreamt und im VRAM nur gecached. Das ist eben ein etwas anderes Prinzip als auf dem PC. Das reicht halt für 30-60FPS mit einer gewissen Latenz. Der PC hat keine Limits, du lädst alles was du brauchst in die Speicher und das Limit ist nur die Rechenleistung+Speicherbandbreite - sofern du genug Speicher hast. Natürlich brauchst du auch auf dem PC Streaming, wir sind ja nicht mehr in den 90ern, als man ein ganzes Spiel in den Hauptspeicher geladen hat, aber du musst eben nach wie vor viel mehr Daten vorhalten, weil die Bandbreiten (z.B. zum Hauptspeicher) eben sehr viel kleiner sind und auch das Grundprinzip nach wie vor das gleiche ist wie in den 90ern. Machst du nun DS an, entlastest du Prozessor und Hauptspeicher, weil die CPU die Daten nicht mehr für die GPU dekomprimieren muss und die Gesamtmenge dadurch kleiner ist, brauchst aber immer noch die entsprechenden VRAM-Mengen. Wenn du viel Speicher hast, sagen wird 64GB SystemRAM und 32GB VRAM beispielsweise, könntest du alle wichtigen Daten immer vorhalten, die die jetzige Konsolengeneration darstellen kann und du hättest auf dem PC keine Performancelimits mehr, kein Stocken, kein Ruckeln, nichts. Speicher spart Rechenleistung, daher ist viel Speicher effizient auf dem PC, zumal Speicher quasi nichts kostet. Aber es ist eben Politik im Spiel und das ist einfach KACKE.

Platos
2023-06-18, 15:26:44
Wo ist da Die Politik im Spiel?

aber @ Topic: Warum kann DirectStorage den VRAM Bedarf nicht senken? Es kann ja genau so gestreamt werden, wenn es denn mal genutzt werden würde.

][immy
2023-06-18, 16:35:16
Wo ist da Die Politik im Spiel?

aber @ Topic: Warum kann DirectStorage den VRAM Bedarf nicht senken? Es kann ja genau so gestreamt werden, wenn es denn mal genutzt werden würde.

Was da oben steht ist falsch. Direct storage kann auch ohne Umweg über den RAM Daten Richtung GPU schicken, wenn die Vorraussetzungen passen.
Das ist aber auch nicht wirklich der große Vorteil den Konsolen haben. Das entpacken erledigen CPUs eigentlich Recht fix. Der Unterschied ist nur, das man auf Konsolen optimalerweise winzige Päckchen hat die geladen werden. Als auch eine Textur direkt zerteilt und jedes Teil gepackt. Dadurch kann am Ende genau das geladen werden was nötig ist.
Der CPU Overhead den wir aktuell am PC brauchen hängt einerseits mit der shaderkompilierung zusammen und andererseits damit das viel mehr Daten mit großen Paketen geladen werden (deuttmehr als nötig). Das passt hervorragend für HDDs, aber nicht mehr gut mit SSDs.
Besonders das letztere lässt sich nur dadurch ändern das die Spiel für SSDs ausgelegt werden. Dafür braucht es nicht mal direct storage. Das wird dann erst wieder interessant wenn für ein Bild so viel geladen werden muss weil sich die Daten alle auf dem Bildschirm befinden (bzw. befinden könnten in den nächsten x Frames).

Ob das am Ende tatsächlich realistisch ist, das die Daten nicht doch über die CPU laufen (Virenschutz, Verschlüsselung, ...) ist eine andere Frage. Auch hier geht am PC natürlich noch zusätzlich CPU Ressourcen verloren.

Platos
2023-06-18, 16:59:17
also laut cerny bräuchte es 9 der ps5 cpu kerne, um die volle Datentate der SSD zu dekomprimieren.

Selbst wenn man jetzt von doppelter Leistung pro Kern ausgeht bei Zen4 oder 5, wären das immer noch 4.5 Kerne. Das nenne ich jetzt aber nicht so flott. 1 Kern maximal wäre akzeptabel, aber selbst das wäre eig. dann viel.

][immy
2023-06-18, 20:32:24
also laut cerny bräuchte es 9 der ps5 cpu kerne, um die volle Datentate der SSD zu dekomprimieren.

Selbst wenn man jetzt von doppelter Leistung pro Kern ausgeht bei Zen4 oder 5, wären das immer noch 4.5 Kerne. Das nenne ich jetzt aber nicht so flott. 1 Kern maximal wäre akzeptabel, aber selbst das wäre eig. dann viel.

Der Trick besteht ja darin, das nur das dekomprimiert wird, was man auch wirklich braucht. Dann ist die Datenmenge quasi relativ harmlos für heutige CPUs. Wenn du halt Daten in großen Paketen dekomprimierst wovon du 90% (oder mehr) eigentlich aktuell gar nicht brauchst hast du natürlich Beschäftigungstherapie für die CPU geschaffen (was eher noch stand der Technik ist). Die Hardware in der PS5/xbox lagert diese Beschäftigungstherapie quasi auf extra Hardware aus, was es aber nicht unbedingt effizienter macht (was die geleistete Arbeit angeht) sondern nur verschiebt. Deutlich mehr als Standard SSD Leistung brauchst du dann (mit neuerer Technik) auch nur noch in Extremfällen wo komplette Szenenwechsel stattfinden (oder halt initialed laden). Für das reine streaming der Daten brauchst du so am Ende nur noch recht wenig Leistung pro Frame. Lustigerweise je höher die Framerate desto weniger MB pro Frame, weil sich halt auch weniger Inhalt pro Frame ändert.

Platos
2023-06-18, 21:11:28
[immy;13331032'] Dann ist die Datenmenge quasi relativ harmlos für heutige CPUs.

Gibts denn zu dieser Aussage auch was Handfestes?

Weil das kann ich mir kaum vorstellen. Wäre dem so, hätte Sony wohl kaum extra Hardware dafür eingebaut.

Szenenwechsel ist btw. ein Bestandteil moderner Spiele. Beispiel sind ja gerade Sonys Exklusivtitel. Da gibts eben jetzt, seit der PS5, solche Titel, die mitten Drinn szenenwechsel haben.

Wo siehst du diese Spikes denn als harmlos? Wenn in diesem Moment die CPU Auslastung ansteigt, bleibt nichts mehr für's Spiel an sich übrig.

Mir kommt deine Aussage mehr wie ne EInschätzung rüber.

Ex3cut3r
2023-06-18, 22:15:26
Die Dekompression wird am PC natürlich von der GPU abgearbeitet werden, das wird natürlich auch etwas Leistung kosten. Da wir am PC aber meistens dickerer GPUs als in der Konsole verbaut haben, vermutlich zu verschmerzen für die Vorteile die man durch DS erhält. Vlt. wird man später die Dekompression auch wieder auf die CPU abwälzen, wenn jeder mindestens 12C/24T CPUs verbaut hat, wird also wohl etwas dauern.

][immy
2023-06-18, 23:16:41
Gibts denn zu dieser Aussage auch was Handfestes?

Weil das kann ich mir kaum vorstellen. Wäre dem so, hätte Sony wohl kaum extra Hardware dafür eingebaut.

Szenenwechsel ist btw. ein Bestandteil moderner Spiele. Beispiel sind ja gerade Sonys Exklusivtitel. Da gibts eben jetzt, seit der PS5, solche Titel, die mitten Drinn szenenwechsel haben.

Wo siehst du diese Spikes denn als harmlos? Wenn in diesem Moment die CPU Auslastung ansteigt, bleibt nichts mehr für's Spiel an sich übrig.

Mir kommt deine Aussage mehr wie ne EInschätzung rüber.
Szenenwechsel sind vorhersehbar und können vorzeitig geladen werden. Das haben Spiele auch schon früher gemacht, nur die Datenmenge ist heutzutage gigantisch.
Konsolen haben außerdem Recht "wenig" CPU Leistung im Vergleich zu PCs wo immer mehr cores dazu kommen. Da macht entsprechende Hardware schon Sinn. Aber am PC gäbe es halt diesen Engpass so extrem ausgeprägt nicht, wenn man deutlich früher auf SSDs gesetzt hätte l, was halt aber der Markt nicht hergegeben hätte.
Sony wollte ja vor allem die anfänglichen Ladezeiten quasi eleminieren und diese bursts kann die Hardware auch abfangen. Am PC müsste eine langsame SSD halt trotzdem erst Mal etwas länger laden, aber da geht es um Sekunden. Mit HDDs waren wir ja im Minutenbereich.
Und irgendwann begrenzt dann auf den Konsolen auch die GPU wie viele Daten überhaupt sinnvoll verarbeitet werden können.

Und zum Thema Daten, da gibt es die Beispiele von MS mit Demo wo gezeigt wird wie viel Speicher die neuen Techniken einsparen können. Das sollte so auch übertragbar auf die PS5 sein. Lustigerweise gab es vor kurzem noch Interviews das die Techniken auf den Konsolen nur selten und häufig nicht mal die Dekompressionseinheit genutzt wird sondern weiter das meiste über die CPU geht, weil es am Ende halt nicht so viel aus macht wenn der Benutzer nen kurzen Ladebildschirm bekommt.
Könnte sich halt langsam mal ändern wenn wirklich alles auf die neuen Konsolen ausgerichtet ist. Das ist ja nach wie vor nicht wirklich der Fall, dauert schließlich auch bis neue Titel mal fertig sind.

Aber ich gehe stark davon aus das auch in den nächsten Jahren am PC so ziemlich alles per brute force umgesetzt wird, einfach weil es einfacher ist als neue Wege zu beschreiten und ggfs. potentielle Kundschaft auszuschließen.

Raff
2023-06-18, 23:19:30
Wenn "Brute Force" bedeutet, dass die ganzen dauergammelnden Kerne/Threads moderner Prozessoren endlich mal genutzt werden, also das Multithreading vorangetrieben wird, fände ich das gar nicht so schlimm. :ugly: Wobei Direct Storage natürlich viel smarter wäre.

MfG
Raff

Platos
2023-06-19, 01:24:15
[immy;13331151']Szenenwechsel sind vorhersehbar und können vorzeitig geladen werden. Das haben Spiele auch schon früher gemacht, nur die Datenmenge ist heutzutage gigantisch.
Konsolen haben außerdem Recht "wenig" CPU Leistung im Vergleich zu PCs wo immer mehr cores dazu kommen.

Das ist der Denkfehler, der hier und in anderen Foren oft gemacht wird. Der PC bietet zwar als Plattform mehr an, aber es haben ja schliesslich nicht alle einen 16 Threader oder mehr.

Szenenwechsel sind auch nur in Videosequenzen vorhersehbar. Das meine ich damit aber nicht. Ich meinte generell plötzliche Ortänderungen, wie es eben in manchen Sonyspielen der Fall ist. Das haben Spiele nicht früher schon gemacht, nicht auf diese Art. Eben wegen den neuen Konsolen sind solche Spiele überhaupt möglich.

Klar, am PC kann! man natürlich alles einfach mit RAM und co. erschlagen. Aber passieren wird das m.M.n nicht. Dafür hat schlichtweg einfach nicht jeder so vo viel davon.


[immy;13331151']
Sony wollte ja vor allem die anfänglichen Ladezeiten quasi eleminieren und diese bursts kann die Hardware auch abfangen. Am PC müsste eine langsame SSD halt trotzdem erst Mal etwas länger laden, aber da geht es um Sekunden. Mit HDDs waren wir ja im Minutenbereich.
Und irgendwann begrenzt dann auf den Konsolen auch die GPU wie viele Daten überhaupt sinnvoll verarbeitet werden können.


Wo hast du das her? Cerny hat da was ganz anderes vorgestellt. Um Ladezeiten gings da nur am Rande. Es ging eig. vor allem um das Texturstreaming. Also dass man nicht mehr wie bei HDDs so viel vorhalten muss (was den Speicher nur unnötig füllt=

[immy;13331151']

Aber ich gehe stark davon aus das auch in den nächsten Jahren am PC so ziemlich alles per brute force umgesetzt wird, einfach weil es einfacher ist als neue Wege zu beschreiten und ggfs. potentielle Kundschaft auszuschließen.

Das hoffe ich nicht. Sobald es für die PS5 von grund auf Entwickelte Spiele gibt und diese dann auf den PC portiert werden, wirds ohne Direct Storage ziemlich mies werden für PC-ler. Wie gesagt: Der Fehlgedanke ist immer, dass alle PC-Gammer nen High-End PC haben. Für die wird's natürlich nicht eng.

Wenn "Brute Force" bedeutet, dass die ganzen dauergammelnden Kerne/Threads moderner Prozessoren endlich mal genutzt werden, also das Multithreading vorangetrieben wird, fände ich das gar nicht so schlimm. :ugly: Wobei Direct Storage natürlich viel smarter wäre.

MfG
Raff

Was soll daran gut sein, eine veraltete Technik voranzutreiben, nur um "künstlich" einen Bedarf an hoher Kernanzahl zu schaffen?

][immy
2023-06-19, 07:28:59
Das hat nichts mit Denkfehler zu tun. Die CPUs in den Konsolen sind beschnitten in Takt, Cache und teilweise Features (PS5). Da kommt theoretisch die Zen+ Generation noch gut mit die mittlerweile ein paar Jährchen auf dem Buckel hat. Abgesehen davon, das auch Kerne für das OS reserviert sind.
Und ja, das allgemeine Problem an der Plattform PC ist halt das man es auch mit weniger potenter Hardware zu tun hat. Das ist auch der Grund warum SSDs nach wie vor keine Grundvoraussetzung für die meisten Titel sind, bzw dies jetzt erst langsam passiert.
Es wäre halt schon länger deutlich mehr möglich nur die Hardwarebasis der Allgemeinheit macht halt ne Strich durch die Rechnung. Und so verbuggt wie dx12/Vulkan häufig implementiert werden, mangelt es halt auch häufig bei den Entwicklern an der Fähigkeit mit der ganzen "macht" umzugehen.

Das Thema streaming von Daten (ohne großen Puffer) wird uns am PC wohl noch einige Jahre begleiten bis es sich wirklich mal durchsetzt.

OgrEGT
2023-06-19, 08:11:47
Welche zuverlässigen Daten gibt es zur Hardwarebasis der Allgemeinheit die auch beabsichtigt neue Spiele zu spielen?

HOT
2023-06-19, 08:45:01
[immy;13331210']Das hat nichts mit Denkfehler zu tun. Die CPUs in den Konsolen sind beschnitten in Takt, Cache und teilweise Features (PS5). Da kommt theoretisch die Zen+ Generation noch gut mit die mittlerweile ein paar Jährchen auf dem Buckel hat. Abgesehen davon, das auch Kerne für das OS reserviert sind.
Und ja, das allgemeine Problem an der Plattform PC ist halt das man es auch mit weniger potenter Hardware zu tun hat. Das ist auch der Grund warum SSDs nach wie vor keine Grundvoraussetzung für die meisten Titel sind, bzw dies jetzt erst langsam passiert.
Es wäre halt schon länger deutlich mehr möglich nur die Hardwarebasis der Allgemeinheit macht halt ne Strich durch die Rechnung. Und so verbuggt wie dx12/Vulkan häufig implementiert werden, mangelt es halt auch häufig bei den Entwicklern an der Fähigkeit mit der ganzen "macht" umzugehen.

Das Thema streaming von Daten (ohne großen Puffer) wird uns am PC wohl noch einige Jahre begleiten bis es sich wirklich mal durchsetzt.

Die Konsolen haben Zen2 und die CPU wird weit weniger belastet als auf dem PC.

Wenn "Brute Force" bedeutet, dass die ganzen dauergammelnden Kerne/Threads moderner Prozessoren endlich mal genutzt werden, also das Multithreading vorangetrieben wird, fände ich das gar nicht so schlimm. :ugly: Wobei Direct Storage natürlich viel smarter wäre.

MfG
Raff

Der Witz ist ja, wenn genug Speicher da wäre und die Entwickler den auch nutzen würde, bräuchte man weder das Eine noch das Andere.

Wo ist da Die Politik im Spiel?

aber @ Topic: Warum kann DirectStorage den VRAM Bedarf nicht senken? Es kann ja genau so gestreamt werden, wenn es denn mal genutzt werden würde.

Naaa Produktpolitik, Firmenpolitik usw. Das Mining hat hier viel kaputt gemacht. Es gab sicherlich keine technischen Gründe die seit Jahrzenten andauernde Speichermengensteigerung zu stoppen. Schon Turing hätte teilweise 16Gbit-Module gebraucht, Ampere durchgehend 16Gbit-Module und Ada hätte teilweise 32Gbit-Module benötigt. Nv hatte politisch den Fuß auf der Bremse. Vielleicht liegts auch ein bisschen daran, dass die 100er mit HBM kamen und kein GDDR mehr brauchen.

Es geht schlichtweg nicht um VRAM-Menge bei DS, sondern darum, die Daten von der SSD möglichst ohne groß die CPU belasten zur GPU zu bekommen. Das VRAM-Sparen ist schlichtweg ein Märchen, dass Leute wie Dampf immer wieder wiederholt haben. Die Grafikkarte funktioniert ja nicht anders mit oder ohne DS, du musst eben trotzdem alle Daten vorhalten, die du brauchst.

Raff
2023-06-19, 09:01:49
Wenn ich Dampf richtig verstanden habe, ging es da auch (vorwiegend) um Sampler Feedback. Wo wir schon dabei sind, kennt hier jemand Anwendungen, die das nutzen? Im 3DMark ist der Nutzen genauso überschaubar (aka fragwürdig) wie von VRS.

MfG
Raff

][immy
2023-06-19, 10:39:01
Wenn ich Dampf richtig verstanden habe, ging es da auch (vorwiegend) um Sampler Feedback. Wo wir schon dabei sind, kennt hier jemand Anwendungen, die das nutzen? Im 3DMark ist der Nutzen genauso überschaubar (aka fragwürdig) wie von VRS.

MfG
Raff

Sampler Feedback ist ja nur ein Teil des ganzen. Quasi noch eine weitere Optimierung. Aber z.b. Tiling per se macht halt erst mit SSDs wirklich Sinn, weil man zuvor die HDDs durch viele kleine read Operationen überfordert hätte. Vom langsamen storage (z.b. noch CDs) kommt es ja, das wir große Paket mit Duplikaten haben anstatt vieler fitzel die ein Spiel einlesen kann. Es sind ja nicht nur Duplikate die beim laden von Paketen wegfallen, sondern generell Daten die zum aktuellen Zeitpunkt einfach nicht im Speicher sein müssten. Ich meine MS hat mal von >70% Texturdaten gesprochen die einfach nur im Speicher liegen weil sie eventuell Mal benötigt werden und mit den Paketen dann auch geladen wurden.
Anderes Beispiel wäre eine Textur die geladen werden soll, aber die sich in einem Paket von Texturen befindet und dann komplett von der CPU entpackt werden muss um dann die eine Textur in den GPU Speicher zu legen (ggfs miss auch die noch dekomprimiert werden). Das sind halt allerhand Operationen mit massiven Overhead, was in Zukunft wegfallen könnte.


Aber ja, spätestens mit RT und anderen Sachen wird es langsam knapp, denn da lässt sich häufig nicht mehr so viel optimieren wie es bei den "alten" Techniken noch der Fall ist.

Ex3cut3r
2023-06-19, 11:40:26
Den Bruteforce Gedanken, finde ich aber auch nicht richtig.

Warum? Weil PC-Ports meistens sehr billig abgefertigt werden. An ein Studio ohne viel Know How. Man siehe doch nur mal die letzten AAA PC Ports an. 8 von 10 Fällen eine Katastrophe.

Egal ob Multi Core Usage (Hallo UE4) VRAM Nutzung/Belegung, Medium Texturen mit 8GB Belegung sehen schlimmer aus, als in FC1 von 2004 (Hallo Last of Us) oder einfach nur Müll Streaming mit Schluckauf/Spikes/Nachladeruckler mit Traversal Stutters obendrauf. Juhu, da freut man sich, die 2000€ für einen Mittelklassen-PC auf den Tisch zu legen.

Im Ernst, ich hoffe DS mit Sampler Feedback kommt schnell genug, das wird einiges erleichtern IHMO.

Natürlich gibt es dann auch mal PC Ports die technisch ein "Meisterwerk" sind. Doom Eternal, Forza Horizon 5 fallen mir da ein. Nixxes Ports sind auch immer gut, obwohl ich da die Spider-Man Spiele etwas schlechter fand, als die Tomb Raider Spiele technisch gesehen. Aber gut, mal sehen wie Ratchet & Clank Rift Apart von Nixxes nächsten Monat aussehen wird.

HOT
2023-06-19, 12:26:58
Das ist einfach Unsinn. Die PC Ports mögen nicht perfekt sein, aber sie sind sehr gut. Was kann denn der Entwickler dafür, dass beim PC so mit Speicher gegeizt wird.

Platos
2023-06-19, 12:31:00
@hot: Ne, das stimmt nicht. Bei einer 5GB/s SSD musst du eben nicht genau die gleichen Daten vorhalten. Genau das ist ja der Witz an der Sache bei der PS5. Da die Datenrate von nvme SSDs so viel schneller sind als bei hdds, muss eben nicht mehr alles mögliche vorgehalten werden. Es kann deutlich schneller reagiert werden und deswegen muss man eben nicht mehr so viel vorhalten, wie bei hdds. Natürlich muss das auch von entwicklerseite umgesetzt werden.

Das ist zumindest so bei der PS5. Wie das nun mit direct Storage funktioniert, kann ich nicht sagen. Aber wenn es eben direkt in den VRAM streamen kann, wüsste ich nicht, wo hier der Unterschied liegt (ausser darin, dass die GPU dekomprimiert und nicht spezielle Hardwareeinheiten).

Aber im Endeffekt muss nicht mehr so weit in die Zukunft vorgehalten werden und deshalb spart man sich so eben Speicher.

Ex3cut3r
2023-06-19, 12:35:08
Das ist einfach Unsinn. Die PC Ports mögen nicht perfekt sein, aber sie sind sehr gut. Was kann denn der Entwickler dafür, dass beim PC so mit Speicher gegeizt wird.
Unsinn? Aha. Komische Sichtweise. Entwickler sind leider faulpelze! Die immer wieder, gerade mal das nötigste machen wollen. Erst wenn sich die Community laut genug beschwert, wird eingegriffen, lächerlich, dass du sowas verteidigen willst.

ForSpoken Release und nach Patches.

https://abload.de/img/fxjjhspxsaad6g_7uc0w.jpg


Last of Us Release vs Patches

https://abload.de/img/fyfoyp0wiaqulpbk6dds.jpg

Thunder99
2023-06-19, 12:35:38
Die Entwickler müssen aber wahrscheinlich noch Rücksicht nehmen auf die HDD bei PC Port. Ggf könnten sie dafür ein Blockade einbauen um dann besser auf SSD zu optimieren.

HOT
2023-06-19, 12:54:08
Das ist alles Unsinn. Klar brauchst du weniger Daten vorhalten, wenn du mehr streamst, aber das geht doch nur beschränkt. Die Konsole ist dafür gebaut und erreicht grad mal 30-60FPS Leute. Ihr seid völlig außerhalb jedes Verhältnisses unterwegs mit den bescheuerten Einschätzungen. Die Ports sind gut, der PC bietet im Durchschnitt aber einfach zu wenig Speicher um eine Streamingmaschine für 100FPS+ zu substituieren. Der PC ist auch viel performanter als die Konsole, aber man braucht eben den Speicher. Und aufgrund des Speichermangels wirds natürlich für die Entwickler schwieriger, das vernünftig optimal zu konfigurieren. Der Speichermangel ist das Problem, sonst nix. Wenn der Entwickler aus dem Vollen schöpfen kann, gäbs auch keine Optimierungsprobleme. Ein Beispiel zum Nachdenken: Nehmt mal einen normalen Rechner mit 12600k mit ner 3070 mit 16GB. Welche Spiele sind hier so schlecht optimiert, dass man sie nicht hätte spielen können? auch von Anfang an? Gibts nicht, wären alle gelaufen. Es gibt so viele Leute, die den Speichermangel mit schlechten Optimierungen rechtfertigen, dabei ist es nur Speichermangel.

ChaosTM
2023-06-19, 13:36:18
Die Entwickler müssen aber wahrscheinlich noch Rücksicht nehmen auf die HDD bei PC Port. Ggf könnten sie dafür ein Blockade einbauen um dann besser auf SSD zu optimieren.


Gibts wirklich noch Spieler mit HDD`s ?

Der PC liegt bezüglich Speichermanagement um einige Jahre hinter den Konsolen zurück und da es keine einheitliche Hardware gibt, ist die Optimierung auch deutlich schwerer.

Speziell der erste Punkt lässt sich nur mit sehr viel VRAM ausgleichen.
Darüber herrscht glaub ich, bis auf die üblichen Verdächtigen, die alles hassen was nicht von Jensens Firma kommt, Konsens..

DrFreaK666
2023-06-19, 13:47:44
Jensens Firma hatte auch mal Karten mit mehr VRAM im Angebot. Da fällt mir z.B. 980Ti vs Fury X. Lang ists her