PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : VRAM-Auslastung aktueller Spieletitel


Seiten : [1] 2 3 4

Sweepi
2020-09-03, 14:56:34
Imo wäre es cool wenn die hw Seiten ein bisschen den vram Verbrauch analysieren. Aber auch die Forums User hier konnten ein thread starten und Daten sammeln.
Macht doch endlich mal nen VRAM Diskussionsthread auf...

Dann machen wir das halt!
Ich schreib mal was runter, bitte großzügig den Korrekturstift einsetzen!

Titel schamlos gestohlen von HisN (https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/).

In diesem Thread bitte: Diskussion / Vorschläge zur Methodik, Messergebnisse, Diskussion / Interpretation der Messergebnisse
In diesem Thread bitte nicht: Meinungsäußerung / Lagerbildung.


I. Wodurch macht sich VRAM - Mangel bemerkbar?
Nicht genug VRAM -> Wahrscheinlichkeit, dass für den aktuellen Frame benötigte Textur/Info nicht da ist -> 2 mögliche Konsequenzen:

a) Frame wird ohne die Textur / Info gerendert -> Fehler/Artefakte im Bild / Textur "poppt" verspätet rein
b) Auf die Textur/Info wird gewartet -> Frame braucht mehr Zeit -> FrameTimeSpike




II. Wie kann man das messen?
Ich sehe 2 offensichtliche Pfade:

1) genutzten VRAM durch Tools auslesen

[...]
Now, you may suspect that some stutter could be caused by video-memory overcommitment and you may not be sure how to best prove this hypothesis. Monitoring the amount of per-GPU used video memory with a tool such as GPU-Z, reducing the texture quality (to lower the video memory footprint), or testing with a GPU with more video memory can give you hints. However, for various reasons, the GPU-Z “Memory Used” counter may be below the amount of available dedicated video memory but the application may actually still be over-committing video memory. So in general, looking at the used video memory alone is not enough to know if you are over-committing.

Note that in this context, the term “committed” is equivalent to “referenced”, that is, a resource “used” (or bound) in any render call (clear, copy, draw or dispatch call). Only the resources that are referenced in an actual render call are considered to be placed in (dedicated) video memory. Resources that are just created but never referenced in any render call will never be committed to video memory.

[...]

Summary

Overall, you know video-memory overcommittement is causing stuttering if:


There are large gaps (>1ms) of variable length in the GPU Graphics queue.
There are no gaps in the game’s CPU Graphics queue.
There are DxgKrnl EvictAllocation events happening during gameplay.
The EvictAllocation events are correlated with the GPU Graphics queue gaps.


Funktioniert GPUView (https://developer.nvidia.com/content/are-you-running-out-video-memory-detecting-video-memory-overcommitment-using-gpuview) mittlerweile auch in Windows 10?

2) GPU Takt Skalierung
Ich vermute in einem Spiel VRAM-Mangel

1. Szene A mit hohem VRAM Bedarf finden
2. Szene B mit niedrigerem VRAM Bedarf finden
3. Szene A mit niedrigem GPU takt (~300 MHz) spielen. Takt in 100 MHz Schritten erhöhen. Ab welchen Takt skaliert die Leistung nicht mehr entsprechend? Treten Artefakte auf?
4. Selber Test Szene B.
5. Ergebnisse A & B posten.



III. Offene / Zu untersuchende Fragen

In welchem Verhältnis skaliert benötigter VRAM mit Renderaufloesung? @HisN...?
Spart DLSS durch die niedrigere Renderaufloesung mehr VRAM ein lsl es anderswo benötigt?
Kann der VRAM einer (nVidia) GPU künstlich begrenzt werden? Wenn nicht direkt, dann vll. durch Ballooning? @Pixel...?
Getrennte Threads für nVidia und AMD GPUs sinnvoll?
...


Rauswerfer: VRAM wird nicht "verbraucht", er wird genutzt, benutzt, belegt, in Anspruch genommen, aber bitte nicht verbraucht, sonst ist er ja nicht mehr da, und wir brauchen doch mehr, nicht weniger!

aufkrawall
2020-09-03, 15:30:29
I. Wodurch macht sich VRAM - Mangel bemerkbar?
Nicht genug VRAM -> Wahrscheinlichkeit, dass für den aktuellen Frame benötigte Textur/Info nicht da ist -> 2 mögliche Konsequenzen:

a) Frame wird ohne die Textur / Info gerendert -> Fehler/Artefakte im Bild / Textur "poppt" verspätet rein
b) Auf die Textur/Info wird gewartet -> Frame braucht mehr Zeit -> FrameTimeSpike

Seit WDDM 2.0 können die fps auch dauerhaft absacken.

pixeljetstream
2020-09-03, 16:10:15
Erschwerend kommt hinzu das Titel mit Streaming oft einfach das nutzen was da ist. Man könnte dann nur am Traffic erkennen, dass die kleineren Karten ständig mehr kopieren.
Oder visuell eben mehr ein/ausfaden.

Übrigens bei mir schreien die Überschriften mich an ;)

Genutzter VRAM lässt sich nur schwer messen (also wieviel unique pages per Frame angefordert werden).
Das was man im Windows Explorer so sieht ist das reservierte.

PCIe Traffic messen sollte schon ein Unterschied zeigen.

Ex3cut3r
2020-09-03, 16:14:09
Seit WDDM 2.0 können die fps auch dauerhaft absacken.

Genau. WDDM Lansgam Modus. Könnte ich damals bei Arkam Knight mit der 770 2GB gut reproduzieren. Was ne kack Zeit. (Next Gen Phase der PS4/XBOX) :biggrin:

HisN
2020-09-03, 16:20:24
I. Wodurch macht sich VRAM - Mangel bemerkbar?

c) Die Engine lädt die höchste Texturauflösung erst gar nicht und der User kräht: Braucht doch gar kein VRAM, alle keine Ahnung^^

III
Ist genau das gleiche wie bei allen anderen, inkonsistent^^. Manche Engines laden (falls genug Platz ist) alle Texturen voraus (Preload) und skalieren praktisch NULL über die Auflösung. Bei anderen sind mehrere GB Unterschied zu sehen.

Und nein. Ich habe ein Tool, das zum Begrenzen des VRAMs, einfach Müll in den VRAM lädt.
Das Speichermanagement vom VRAM ist identisch zum Windows-Speichermanagement.
Sobald ein Game startet wird der Müll einfach aus dem VRAM entfernt, und nur die Teile die unbedingt genutzt werden müssen verbleiben darin. Der Rest kommt ins RAM (solange genug vorhanden) und dann in das Swapfile wenn nicht genug RAM vorhanden ist. Kann man gut beobachten.
Falls jemand das Tool ausprobieren möchte linke ich es gerne, bzw. den alten Thread dazu^^

JVC
2020-09-03, 16:27:26
I. Wodurch macht sich VRAM - Mangel bemerkbar?

c) Die Engine lädt die höchste Texturauflösung erst gar nicht und der User kräht: Braucht doch gar kein VRAM, alle keine Ahnung^^

:up:

M.f.G. JVC

pixeljetstream
2020-09-03, 16:32:11
Und nein. Ich habe ein Tool das zum Begrenzen des VRAMs einfach Müll in den VRAM lädt.
Das Speichermanagement vom VRAM ist identisch zum Windows-Speichermanagement.
Sobald ein Game startet wird der Müll einfach aus dem VRAM entfernt, und nur die Teile die unbedingt genutzt werden müssen verbleiben darin. Der Rest kommt ins RAM (solange genug vorhanden) und dann in das Swapfile wenn nicht genug RAM vorhanden ist. Kann man gut beobachten.

IMO wäre der naheliegende trick dem Spiel einfach zu sagen es gibt nicht so viel. Also dll wrapper und dann die query methoden überladen. Weiß nur nicht ob das jedes Spiel/ anti cheat tool so mitmacht. Aber sowas wie reshade schleift auch die api durch. Und bei Vulkan kann man die Layer nutzen um die device features und properties ebenfalls künstlich zu beschränken.
Die Hersteller haben es da bissl leichter, man kann recht einfach die gpu Config per sw ändern.

Gpuview tut unter win10. Vielleicht ist es mit MS pix, AMD’s und Nvidia’s Grafik Tools mittlerweile leichter.

https://devblogs.microsoft.com/pix/gpu-memory-usage/

HisN
2020-09-03, 17:07:02
Wir brauchen einen Programmierer :-)

Hakim
2020-09-03, 17:17:37
Ich bemerke das bei mir mit meinem 6GB Vram in Warzone. Wenn ich bei meinen Einstellungen noch die Texturen auf High stelle, meckert das Spiel das es mehr Vram verbrauchen würde als vorhanden ist. Übernehme ich es und spiele es so, sieht es auf den ersten Blick ganz normal aus, es läuft und sogar die FPS sind stabil. Dennoch sieht man es wenn man ein Sniper Gewehr mitführt und spontan schnell irgendwohin Zoomt = Texturen werden kurz (auch wenns wirklich super schnell vonstatten geht) nachgeladen, nicht immer, kommt aber vor.

Dampf
2020-09-05, 08:55:18
https://www.resetera.com/threads/vram-in-2020-2024-why-10gb-is-enough.280976/

Diesen Post finde ich sehr informativ und richtig, steht eigentlich alles drin.

Hat schon jemand Special K ausprobiert? Anscheinend soll das den tatsächlichen VRAM Verbrauch auslesen.

In Flight Simulator scheint es zu funktionieren, 6 GB sind bei dem Poster im MSI Afterburner als VRAM zugeteilt, die Developer Konsole und Special K spricht von 2,4GB verbrauchtem VRAM.

dargo
2020-09-05, 10:11:11
Hat schon jemand Special K ausprobiert? Anscheinend soll das den tatsächlichen VRAM Verbrauch auslesen.

Würde ich ja gerne. Ich scheitere aber schon beim Finden des Hotkeys für das Overlay. :freak:

BiZiNiZz
2020-09-05, 10:49:40
Wie bekomm ich den die non Steam Spiele darein, mit den Dateien in dem Install Guide hängen sich die Spiele beim Start auf, selbst solche die als Perfect laufend beschrieben werden :confused:

Ätznatron
2020-09-05, 11:20:03
Wir brauchen einen Programmierer :-)

Exakte Angaben wirst du vermutlich nur von den Spiele-Entwicklern selbst bekommen.

X-Plane 11 macht da einen großen Schritt in die mMn richtige Richtung, in dem ein VRAM-Profiler genanntes Tool zur Verfügung steht, welches hilft, haarklein und exakt die tatsächliche Videospeichernutzung zu erfassen, siehe Anhänge.

Und da man so den Überblick hat, kann man sich selbst von den Auswirkungen von zu wenig VRAM überzeugen, wenn man nur eifrig genug solange an den Texturen und sonstigen Settings herumbastelt, bis der Speicher zu Neige geht und ins Sys-RAM oder, noch schlimmer, in irgendein Swapfile ausgelagert werden muss.

pixeljetstream
2020-09-05, 13:27:04
Das specialK nutzt zumindest für NV die gleiche API wie sie auch auf dem NV Blog ist
IMO braucht es daher eigentlich keinen wrapper, weil wenn ich mich recht erinnere diese Werte global sind. Ergo kleines Tool was die im Hintergrund ausließt tut auch.

https://docs.nvidia.com/gameworks/content/gameworkslibrary/coresdk/nvapi/structNV__DISPLAY__DRIVER__MEMORY__INFO__V3.html#a77af0e4fd6102e70a73df1e4e89db3 e5

Man kann nun darüber streiten wie man “benutzt” definiert, dieser Wert wird alles sein was Ressourcen auf der GPU hat. Das muss nicht das sein was pro Frame ein Spiel tatsächlich anfasst (wenn nur ein Bruchteil der Textur sichtbar ist etc.). Und wie schon erwähnt Titel mit Virtual texturing werden die Ressourcen für ihren selbst verwalteten Cache auf der gpu haben. Nur die Anwendung weiß dann wieviel sie davon wirklich nutzt.
Um solche Werte ohne den Entwickler zu kriegen bedarf es IMO Tools vom Hersteller.

PS resetera installiert eine Milliarde tracker, cookies etc. Nur so als Warnung. Idealerweise Tools nutzen die davor schützen, oder besser gar nicht hingehen...

Armaq
2020-09-05, 13:41:48
Das specialK nutzt zumindest für NV die gleiche API wie sie auch auf dem NV Blog ist
IMO braucht es daher eigentlich keinen wrapper, weil wenn ich mich recht erinnere diese Werte global sind. Ergo kleines Tool was die im Hintergrund ausließt tut auch.

https://docs.nvidia.com/gameworks/content/gameworkslibrary/coresdk/nvapi/structNV__DISPLAY__DRIVER__MEMORY__INFO__V3.html#a77af0e4fd6102e70a73df1e4e89db3 e5

Man kann nun darüber streiten wie man “benutzt” definiert, dieser Wert wird alles sein was Ressourcen auf der GPU hat. Das muss nicht das sein was pro Frame ein Spiel tatsächlich anfasst (wenn nur ein Bruchteil der Textur sichtbar ist etc.). Und wie schon erwähnt Titel mit Virtual texturing werden die Ressourcen für ihren selbst verwalteten Cache auf der gpu haben. Nur die Anwendung weiß dann wieviel sie davon wirklich nutzt.
Um solche Werte ohne den Entwickler zu kriegen bedarf es IMO Tools vom Hersteller.

PS resetera installiert eine Milliarde tracker, cookies etc. Nur so als Warnung. Idealerweise Tools nutzen die davor schützen, oder besser gar nicht hingehen...
Aber es gehen ja einige Spiele dahin über dir zu sagen, wieviel VRAM sie haben wollen, damit alles klappt. Diese Anzeige kenn ich von CoD MW, Ubisoft Spielen und noch einige andere.

Als Hersteller werd ich ja nicht nur hingehen und fragen, sondern auch selbst Untersuchungen anstellen?

Ätznatron
2020-09-05, 15:55:29
Also ich würde eher zwischen aktiv (momentan) genutzten und passiv (im Sinn von "bevorratet") genutzten Texturen unterscheiden.

Die aktiven Texturen sind halt alle gepufferten und alle im aktuellen Blickfeld (Field of View) enthaltenen, und die passiven halt diejenigen, die sich zwar im Speicher befinden, aber erst dann aktiv werden, wenn sich der Blickwinkel entsprechend ändert. Die brauchen dann nicht zeitaufwändig nachgeladen werden.

Insofern gibt es für mich keine "schlechte" oder unnötige Speichernutzung.

BlacKi
2020-09-05, 17:34:06
Ich bemerke das bei mir mit meinem 6GB Vram in Warzone. Wenn ich bei meinen Einstellungen noch die Texturen auf High stelle, meckert das Spiel das es mehr Vram verbrauchen würde als vorhanden ist. Übernehme ich es und spiele es so, sieht es auf den ersten Blick ganz normal aus, es läuft und sogar die FPS sind stabil. Dennoch sieht man es wenn man ein Sniper Gewehr mitführt und spontan schnell irgendwohin Zoomt = Texturen werden kurz (auch wenns wirklich super schnell vonstatten geht) nachgeladen, nicht immer, kommt aber vor.
ich kenne das problem. das problem dabei ist, das haben auch 11gb karten wie meine 1080ti.

beim ersten mal in reinzoomen müssen beide karten streamen und es kommt zu LoD ladezeiten und zwar wirklich bei beiden, keine karte hat da einen vorteil. beim wegsehen kann die 11gb karten die daten halten auch wenn man in eine andere richtung sieht. die 6gb karten schmeißt die daten dann raus, wenn sie neue daten laden muss.

der punkt ist, du müsstest mit der einer 11-24gb karte ersteinmal in alle richtungen sehen, oder besser durchfahren, damit alles im vram liegt und dann anfangen zu spielen^^ erst dann hättest du einen uneingeschränkten vorteil von dem größeren vram.

oder die CoD entwickler fixen einfach ihren scheiß, dann reicht auch eine 6gb karte. denn das was man dort beobachtet ist einfach eine schlechte textur streaming unterstützung, nicht einfach zu wenig vram.

pixeljetstream
2020-09-05, 17:43:43
Aber es gehen ja einige Spiele dahin über dir zu sagen, wieviel VRAM sie haben wollen, damit alles klappt. Diese Anzeige kenn ich von CoD MW, Ubisoft Spielen und noch einige andere.

Als Hersteller werd ich ja nicht nur hingehen und fragen, sondern auch selbst Untersuchungen anstellen?

Kannst du das bissl umformulieren, ich werde nicht ganz schlau daraus?
Die Menge die tatsächlich auf der Karte liegt, ist trivial und eben mit jener nvapi auszulesen. Das heißt aber nicht das alles davon pro frame genutzt wird. Das ist komplizierter.

Zum Teil machen aber die Spiele so ein Tracking auch selbst, wenn sie selbst so streaming Caches verwalten.

crux2005
2020-09-05, 21:34:57
Ein schreibe es noch einmal hier rein:

Mehr als 8 GiB VRAM @ => 1440p und wirklich Maximum Einstellungen werden in diesen Spielen gebraucht:

Wolfensteins: New Collosus
Wolfenstein: Youngblood
Final Fantasy XV mit Texture Pack

Knapp wird es in (nicht sicher ob es deswegen Ruckelt):

Far Cry: New dawn mit Texture Pack
Call of Duty: Modern Warfare
Horizon Zero Dawn
Flight Simulator 2020

Als Bonus, neue/kommende Spiele:
Marvel's Avengers mit Texture Pack :freak:

Könnt die Liste gerne ergänzen. Habe sicher was vergessen.

Sardaukar.nsn
2020-09-06, 10:56:53
https://www.resetera.com/threads/vra...enough.280976/

Diesen Post finde ich sehr informativ und richtig, steht eigentlich alles drin.

Danke für den Link, fand ich sehr informativ und toll zu lesen.

Dampf
2020-09-06, 11:10:56
Wolfenstein Youngblood ist in der Tat ein VRAM Fresser, das kann ich bestätigen.

Die IDTech Titel sind in der Hinsicht sehr speziell. Für verschiedene Grafiksettings wird immer ein fixes VRAM Budget adressiert. Wenn die Engine das nicht tun kann oder gar RTX dazwischen funkt, wirds ungemütlich. 8 GB mit RTX und Mein Leben! ist schon sehr knapp, 6 GB mit RTX und mein Leben und die Framerate geht in den Keller.

Gibt aber ne einfache Lösung, einfach das Texture Image Streaming Budget auf Hoch reduzieren und den Rest lassen. Das verringert das fix festgelegte Memory-Budget. Auf die Texturen-Qualität hat das, zumindest auf High, keinen Einfluss, siehe hier:

https://images.nvidia.com/geforce-com/international/comparisons/wolfenstein-youngblood/wolfenstein-youngblood-image-streaming-interactive-comparison-001-ultra-vs-high.html

Erst ab low/medium sieht man Unterschiede, die sich aber auch in Grenzen halten (zu sehen bei dem Adler, da müsst ihr echt "Adleraugen" haben. Hehe!

Keine Ahnung, warum das so ist. Bei Doom Eternal wird man unter 8 GB aufgrund des Image Streaming Budgets gar von den Ultra Nightmare Settings ausgeschlossen, weil die Engine auf Ultra Nightmare ein paar MB über 6 GB adressieren will. Und wie auch bei Wolfenstein gibt es beim Image Streaming bzw Texture Streaming budget keine Qualitätsunterschiede zwischen den höheren Settings. Hier hilft Ultra Texture Streaming Budget und alles andere auf Ultra Nightmare lassen, wenn ihr unter 8 GB habt. Dann rennt das Spiel super.

Eventuell sollte man das mal überarbeiten. Auf der Xbox Series S könnte dieses fixe Memory-Budget zu einem Problem werden.

pixeljetstream
2020-09-07, 00:33:57
Noch ein bisschen background info zusammengefasst.

Eine Textur fuer die 3D Modelle liegt eigentlich immer als Mip-Pyramide vor. Also so-oft die Breite/Hoehe halbiert bis 1x1 Pixel. Die Speichergroesser dieser Rest MipChain betraegt in etwa 1/3 der LoD Stufe mit dem hoechsten Detail.

Grundsaetzlich gibt es speicher der im dedizierten vram sein soll, und auch speicher der im sysram liegt aber von der grafikkarte dort gelesen werden kann. Manchmal ist's Intention dass er im sysram bleibt, wenngleich das meiste schon fuer dedizierten speicher bestimmt ist.

Im Prinzip gibt der Entwickler die Intention in der api an, und das Betriebssystem (NICHT der treiber) managed ob der Speicher dann auf der Karte ist (resident) oder nicht. WDDM2 kann das performanter als WDDM1.

In Dx9,11,GL wird der Speicher nicht vom Entwickler sondern vom Treiber alloziert. Der Entwickler erstellte Ressourcen (Texturen/Buffer) und der Treiber konnte dann zum Beispiel aus Optimierungsgruenden die tatsaechlichen Speicher Allokationen zusammenfassen. Oder per Heuristik halt den Speichertyp auswaehlen der am besten passt.

In DX12/Vk ist dies deutlich direkter. Der Entwickler kann Speicher direkt allokieren, und diesen dann selbst verwalten und darin Ressourcen anlegen. So koennen mehrere Ressourcen in einem Speicherblock liegen. Man kann "aliasing" Betreiben, also zwei Texturen koennen sich ueberlappenden Speicherbereich teilen, weil der Entwickler weiss, dass er niemals beide Texturen zur gleichen Zeit braucht. Gerade bei temporaeren Daten in post processing passes etc. ist das praktisch, und ein essentielles Feature was die Konsolen voraus hatten um "sparsamer" zu sein (mit dx12,vk halt nicht mehr). Auch sehr beliebt ist das fuer das dyanmische Anpassen der Renderaufloesung, der Speicher ist alloziert fuer worst-case, die Texturen der Rendertargets passt man darin aber dynamisch an.

Nachwievor macht das OS aber das tatsaechliche residency management. DX12 hat ein callback mit dem die Applikation informiert wird, sie solle bitte speicher freigeben der nicht unbedingt resident sein muss. Sagen wir mal wir starten Blender mehrfach... Reagiert der Entwickler nicht auf das callback wird das OS einfach selbst entscheiden welcher Speicher wieder im sysram landet (page out / eviction / demotion). Die dx9-dx11,gl Treiber versuchen dann moeglichst den Speicher (deren Ressourcen) rauszuschmeissen, die am laengsten nicht benutzt wurden. Weil die alten apis hi-level genug waren, koennen die Treiber mit-tracken wann ein user die Textur/Buffer das letzte mal nutzte. Das ist auch ein Grund warum die mehr CPU last erzeugen, sich das alles zu merken kostet. Je nach hw faehigkeit muss es nicht immer den page-in / promotion geben um den naechsten frame auszufuehren, da die GPU auch den speicher aus dem sysram lesen kann. Das spart dann das rein/rauskopieren und das OS kann auf memory-page Granularitaet den speicher hin und herschieben ueber die Zeit.

Soviel zur Entwickler/OS Sicht erstmal.

Die Werte die man nun so sieht:

Reservierter Speicher = Das ist Speicher den eine Applikation sich holt, aber eventuell nicht vollstaendig nutzt. Nicht alle Ressourcen sind angelegt/muessen resident sein etc.

Speicher der in Benutzung ist = also die memory pages die auf der GPU aktiv gehalten werden. Das OS managed das mit hinweisen aus treiber/applikation, wie vorher erwaehnt.

Bei "einfachen" Titeln reicht der Wert aus und man sieht die Eviction events die meist fuer stutter sorgen, wie der NV blog beschreibt.

Speicher den das Spiel tatsaechlich anfasst = einfaches Beispiel, eine Textur ist nur teilweise sichtbar. Im "einfachen" Fall liegt sie dennoch komplett im Speicher (vielleicht aus steaming Gruenden in geringerem LOD).

Hat der Entwickler aber nun selbst ein virtuelles texturing zum streaming implementiert (also das was sampler-feedback erleichtert, und was es schon seit megatexture/ crysis (https://developer.amd.com/wordpress/media/2013/01/Chapter02-Mittring-Advanced_Virtual_Texture_Topics.pdf)etc. machbar ist) kann er durchaus nur die Teilbereiche der Textur in der Detailstufen hinterlegen, die gebraucht wurden (immer mit einer gewissen Tile-granularitaet, also ein rechteck aus NxN pixeln). Die API und das OS sieht dann nicht mehr die Texturen als solche, sondern halt groessere Bloecke, die eben als Cache fungieren, komplett alles vom Entwickler verwaltet.
Titel die sowas machen werden im Normalfall sich feste Budgets fuer diese Caches setzen, meist so gross es eben geht.

Der grosse Vorteil ist dass die Titel damit selber das paging akkurater machen koennen (Granularitaet wie sie wollen, denn an die echten hw-page tables, die auch vendor spezifische sind kommen sie schon aus sicherheitsgruenden nicht ran) und auch ne Kostenkontrolle haben (sie fuellen/aktualiseren den Cache). Sie wissen ja wieviel man so pro frame streamen kann, und so koennen sie stutter etc. umgehen. Das heisst eben es dauert "laenger" bis die texturen im hoeheren Detail vorliegen, dafuer ruckelt es idealerweise nicht. Je groesser dieser Cache ist, desto laenger kann man die Details vorhalten (desto weniger aendert sich). Je schneller die PCI-E Anbindung, desto mehr Daten kann man pro frame Aktualisieren.
Das game kann natuerlich auch abschaetzen welche texturen so als naechstes gebraucht werden, da der Spieler sich ja fast nie sprunghaft bewegt, oder wenn Portale man das mit Uebergaengen bissl verstecken kann.

Bei diesen Titeln ist es von aussen schwer zu sagen wieviel sie wirklich brauchen. Intern tracken die Engines das, idealerweise bietet also die Engine selbst ein stats Overlay. Je mehr Speicher sie ausnutzen koennen desto besser. Ab gewissen Groessen merkt man aber nicht mehr wirklich was. Bzw. das was man dann noch sieht, kann einfach das initiale Laden von ressourcen sein, wogegen der Cache nicht hilft. Da hilft dann idealerweise das DirectStorage.

Ich bin in diesen Streaming-Sachen auch nicht super firm, aber sollte erstmal plausibel sein. Es liegt halt viel am Entwickler selbst.

ein ur-alt paper von Crysis: https://developer.amd.com/wordpress/media/2013/01/Chapter02-Mittring-Advanced_Virtual_Texture_Topics.pdf

N0Thing
2020-09-07, 00:43:25
Super Beitrag. Danke dafür. :love4:

dargo
2020-09-07, 07:37:37
@pixeljetstream

Hast du eine Vermutung was hier schief läuft?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12415145&postcount=1445
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12415489&postcount=1458

Ich habe es gestern an Guerrilla Games geschickt. Applikation Fehler, OS oder GPU-Treiber?

Um es mal kurz zu fassen... sobald der dynamische Speicher über 1.200MB geht spiken spürbar die Frametimes. Macht sich dann als Ruckler/Zuckler Ingame bemerkbar.

JVC
2020-09-07, 08:41:23
Danke für den Link, fand ich sehr informativ und toll zu lesen.
Aus diesem "Forenpost":
For the rest of us (many who are not even gaming at 4k right now, but lower resolutions such as 1440p or 1080p), the 3080 10GB will not be holding us back.
- Conclusion of Part 3: 10GB is enough (for now)

Leider ist bei mir weniger als 4K schon länger nicht mehr gangbar am PC...
Aber ich weis es ja eh und will als 4K User min 16Gb ;)

M.f.G. JVC

Badesalz
2020-09-07, 10:02:25
"Forenpost".
Schon "conclusion of part1" ist sehr interessant. Ich habs nur leider nicht durchschauen können :tongue:
"10GB of VRAM in 2021+ is not the same as 10GB of VRAM in 2020."

Heißt das es wird bis 2021+ alles gut oder ab 2021+? :freak:

edit:
Das auch noch...
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/RTX-3070-geringere-Speicherbandbreite-RTX-2080-Ti-1357575/

pixeljetstream
2020-09-07, 10:54:56
@pixeljetstream

Hast du eine Vermutung was hier schief läuft?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12415145&postcount=1445
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12415489&postcount=1458

Ich habe es gestern an Guerrilla Games geschickt. Applikation Fehler, OS oder GPU-Treiber?

Um es mal kurz zu fassen... sobald der dynamische Speicher über 1.200MB geht spiken spürbar die Frametimes. Macht sich dann als Ruckler/Zuckler Ingame bemerkbar.
Kann man pauschal nicht sagen imo. OS aber unwahrscheinlich.

Lowkey
2020-09-07, 10:59:42
Man muss immer schon auf die Wortwahl und Prognosen achten: heute reiche es zu 100%, aber in ein paar Monaten könnte alles anders sein. Was quasi nur heißt, dass es passen könnte oder auch nicht. Was dann am Ende heißt: ich weiss es nicht.

Man stelle sich vor, dass die eine oder andere neue/alte Funktion auf der 3080 10gb den Speicher komplett ausnutzt und keine Reserven hat. Und dann hat die 3090 24gb, die irgendwer wie HISN füllen will. Kommt dann ein anfänglicher Support für 16gb und mehr?

Mit der Angst, dass 10gb nicht genug seien, macht man die meisten Käufer verrückt.

dargo
2020-09-07, 11:22:08
Kann man pauschal nicht sagen imo. OS aber unwahrscheinlich.
Ok... danke. Ferndiagnose ist immer schwierig. Ich hatte zuerst gedacht, dass am PC diese ~1.200MB Grenze irgendwie mit den Flaschenhälsen eines PCs (bsw. PCIe Bandbreite) zusammen hängen würde. Dies scheint aber nicht der Fall zu sein. Ein Control fordert beim dynamischen Speicher über 1,7GB an und es läuft trotzdem sauber. Ich denke es hat viel mit der Streamingengine der Spielengine zu tun oder? Oder einfach nur Bugs bzw. schlechte Optimierung im Bereich Speichermanagement in HZD.

arcanum
2020-09-07, 12:14:55
Man muss immer schon auf die Wortwahl und Prognosen achten: heute reiche es zu 100%, aber in ein paar Monaten könnte alles anders sein. Was quasi nur heißt, dass es passen könnte oder auch nicht. Was dann am Ende heißt: ich weiss es nicht.

Man stelle sich vor, dass die eine oder andere neue/alte Funktion auf der 3080 10gb den Speicher komplett ausnutzt und keine Reserven hat. Und dann hat die 3090 24gb, die irgendwer wie HISN füllen will. Kommt dann ein anfänglicher Support für 16gb und mehr?

Mit der Angst, dass 10gb nicht genug seien, macht man die meisten Käufer verrückt.

die spiele werden mit 10gb schon gut genug aussehen und laufen, einfach weil mindestens 80% der nutzer-basis in den nächsten 3+ jahren karten mit <=8gb besitzen werden. für alle anderen gibt es dann vielleicht marginal bessere texturen, höher aufgelöste schatten und mit glück einen sichtweitenregler.
hier im forum könnte man auch meinen, dass jeder 2. pc-spieler auf der welt eine 3090 kaufen wird weil 10GB eine zumutung sind, dabei ist das eine absolute nische.

ChaosTM
2020-09-07, 12:24:54
Interessant ist eigentlich nur, wie gut Konsolenports auf diesen Karten laufen werden und welche Einschränkung 8/10 ev. darstellt.
Reicht es schon für normale Ports nicht mehr ohne Abstriche, haben die Käufer ein Problem.

Ätznatron
2020-09-07, 12:45:49
Interessant ist eigentlich nur, wie gut Konsolenports auf diesen Karten laufen werden und welche Einschränkung 8/10 ev. darstellt.
Reicht es schon für normale Ports nicht mehr ohne Abstriche, haben die Käufer ein Problem.

Das Problem wird von der Masse vermutlich nicht einmal bemerkt werden, da sie es einfach nicht besser kennen, siehe die Anmerkung von HisN:

I. Wodurch macht sich VRAM - Mangel bemerkbar?

c) Die Engine lädt die höchste Texturauflösung erst gar nicht und der User kräht: Braucht doch gar kein VRAM, alle keine Ahnung^^

Ex3cut3r
2020-09-07, 13:44:59
Unterstützt Turing eigentlich RTX IO? Was ich so bisher gelesen habe, ja?!
Muss Argumente für einen Gebraucht Verkauf meiner 2080 finden. ;D ;)
Muss das irgendwie schmackhaft in der Beschreibung vermitteln, umso so "zukunftssicherer" umso besser für den "Dau"
Antwort kann dauern, verkaufe erst wenn die 16 bzw. 20GB draußen sind. Ich werde hier bestimmt nicht, 3 Monate ohne GPU hier sitzen. Der weitere Wertverlust ist mir dann auch egal. Was solls, durch Ampere gibt ja jetzt schon einen heftigen für alle Modelle.

dargo
2020-09-07, 14:18:32
Unterstützt Turing eigentlich RTX IO?
Ja.

Ex3cut3r
2020-09-07, 14:49:30
Danke, das ist ja erfreulich. :)

Armaq
2020-09-07, 17:08:11
Aber das ist doch genau der Trick. Verkaufst eine 699 Karte die eigentlich Probleme hat und die gehypte Masse erkennt das nicht.



Genau das gleiche Spiel gibt es mit mehr RAM, man vermisst es nicht, wenn man es nicht kennt. Auflösung der gleiche Spass, SSD war genau der gleiche Kram.

Jeder der sich einmal solche Sachen angesehen hat, will nicht mehr zurück. Nehmen wir nur HZD. 11 GB VRam hatten nie ein Problem, andere regen sich immer noch auf.

@pixeljetstream: Nvidia wird doch sicherlich Anwendungen und Spiele genau analysieren mit Tools die es nicht gibt für externe. Daher gehe ich davon aus, dass man einen Informationsvorsprung hat.

BlacKi
2020-09-07, 18:27:22
Aber das ist doch genau der Trick. Verkaufst eine 699 Karte die eigentlich Probleme hat und die gehypte Masse erkennt das nicht.



Genau das gleiche Spiel gibt es mit mehr RAM, man vermisst es nicht, wenn man es nicht kennt. Auflösung der gleiche Spass, SSD war genau der gleiche Kram.

Jeder der sich einmal solche Sachen angesehen hat, will nicht mehr zurück.
ich hatte jahrelang 11gb vram, einen unterschied zu 8gb habe ich keinen bemerkt.

ich hab die 11gb dankend mitgenommen, aber benötigt habe ich sie nicht. genauso wirds mir mit der 3080 gehen.

Ex3cut3r
2020-09-07, 19:19:36
Ziemlich kurz gedacht. Wir haben eine neue Konsolen Gen am ende des Jahres vor der Nase. Zu glauben, dass sich wieder nix ändert am VRAM Bedarf wie ende 2013 (PS4 und Xbox) ist IMO purer Leichtsinn, der teuer werden kann. 2xmal Kaufen und Co. lässt grüßen. RT wird IMO diesmal auch in mehr Titeln geben, weil die Konsolen es jetzt auch können. Wenn man glaubt das dafür dann 8GB bzw. 10 Gig reichen (2015 hat angerufen und will seine Speichermenge wieder haben - Radeon 390X) der lebt IMO in einer Traumwelt. Aber gut.

Troyan
2020-09-07, 19:22:49
Xbox Series X hat 10GB "GPU optimierten" Speicher. Was denkst du wohl, werden Entwickler machen? Richtig, auf 10GB ihre Assets und Texturen optimieren. Alles darunter kann übel werden, alles darüber wird zu 90% verpuffen.

Sweepi
2020-09-07, 19:23:47
Ich möchte an dieser Stelle darum bitten, dass das Thema dieses Threads messen (und nicht Diskussion) bleibt.
Ich bin aktuell außer Landes und kann nicht messen bzw mir sie Tools ansehen, werde nachher den Eingangspost updaten. Danke schonmal an Pixeljetstream für die Wissensbeiträge.

Ex3cut3r
2020-09-07, 19:24:33
Xbox Series X hat 10GB "GPU optimierten" Speicher. Was denkst du wohl, werden Entwickler machen? Richtig, auf 10GB ihre Assets und Texturen optimieren. Alles darunter kann übel werden, alles darüber wird zu 90% verpuffen.

Wusste gar nicht, dass am PC jetzt mit Konsolen Details gedaddelt wird. Seit wann gibt es am PC keine Ultra Settings mehr? Oder wird das für Next Gen Titeln gestrichen? Weil wir eh nur alle 8 und 10GB haben werden? ;D

Wie kann man so dämlich sein, und alles aber auch alles Nvidia durch gehen lassen? Nvidia will doch nur das wir 2xmal zur Kasse rennen. Man hätte einfach die 8 und 10 GB streichen sollen, und gleich zum rls. mit 16 und 20 Gig kommen sollen, soooo ist das einfach nur pure Verarsche. Aber gut, soll jeder so machen, wie er denkt. Ich warte auf größere Speichermengen.

Sweepi
2020-09-07, 19:35:02
Ich möchte an dieser Stelle darum bitten, dass das Thema dieses Threads messen (und nicht Diskussion) bleibt.
Ich bin aktuell außer Landes und kann nicht messen bzw mir sie Tools ansehen, werde nachher den Eingangspost updaten. Danke schonmal an Pixeljetstream für die Wissensbeiträge...

Badesalz
2020-09-08, 08:36:38
die spiele werden mit 10gb schon gut genug aussehen und laufen, einfach weil mindestens 80% der nutzer-basis in den nächsten 3+ jahren karten mit <=8gb besitzen werden. für alle anderen gibt es dann vielleicht marginal bessere texturen, höher aufgelöste schatten und mit glück einen sichtweitenregler.Kostet RT keinen Vram?

HisN
2020-09-08, 10:21:32
laut Afterburner kostet es.

BTW SpecialK lässt meine Grafik sofort mit Standbild einfrieren.

aufkrawall
2020-09-09, 20:37:41
Mit Mesa-Treibern lässt sich nun weniger VRAM simulieren:
https://gitlab.freedesktop.org/mesa/mesa/-/merge_requests/6641

pixeljetstream
2020-09-09, 20:57:11
In Vulkan geht das theoretisch mit https://vulkan.lunarg.com/doc/view/1.1.114.0/windows/device_simulation_layer.html
Die Größe der Memory heaps für device local reduzieren.

Troyan
2020-09-22, 11:36:47
Mit der aktuellen MSI Afterburner Version kann man sich den VRAM von Prozessen anzeigen lassen: https://www.resetera.com/threads/msi-afterburner-can-now-display-per-process-vram.291986/

Dampf
2020-09-22, 12:35:36
Mit der aktuellen MSI Afterburner Version kann man sich den VRAM von Prozessen anzeigen lassen: https://www.resetera.com/threads/msi-afterburner-can-now-display-per-process-vram.291986/

Es scheint wirklich zu funktionieren!

Super, das erlaubt deutlich präzisere Einschätzungen bezüglich des VRAMs.

woodsdog
2020-09-22, 12:39:13
nö, erlaubt es nicht.
Ist doch wieder nur der selbe Unsinnige "VRAM von Prozess X Reserviert"-Wert wie vorher auch schon. Eigentlich liefert er sogar weniger Informationenen da ja der Total-Used Wert viel wichtiger ggü Prozess X-Used ist.

aufkrawall
2020-09-22, 12:42:21
Für eine zu 100% belastbare Aussage bleibt nur ein Test mit einer Karte mit mehr VRAM. Wobei man die Zusammenhänge zwischen System-RAM, -VRAM und Frame Time schon gut deuten kann, wenn man sich nicht so doof anstellt.

Dampf
2020-09-22, 12:55:27
Ich fang dann mal an.

Battlefield 5 Ultra in nativen 1440p mit Raytracing und ohne GPU Speicher Beschränkung.

https://i.imgur.com/WkpYyQR.jpg

Verbrauch: ~ 4.7 GB

nö, erlaubt es nicht.
Ist doch wieder nur der selbe Unsinnige "VRAM von Prozess X Reserviert"-Wert wie vorher auch schon. Eigentlich liefert er sogar weniger Informationenen da ja der Total-Used Wert viel wichtiger ggü Prozess X-Used ist.

100% genau ist es natürlich nicht, aber es ist deutlich näher an der Realität als der VRAM Allocation Wert.

Wir wollen doch wissen, wie viel Speicher das Spiel verbraucht. Der Total Used Wert ist in diesem Falle sinnbefreit, da Windows dem Spiel und anderen Programmen bei Bedarf sowieso deutlich mehr oder deutlich weniger Speicher zuteilt.

sapito
2020-09-22, 12:57:45
Ich fang dann mal an.

Battlefield 5 Ultra in nativen 1440p mit Raytracing und ohne GPU Speicher Beschränkung.

https://i.imgur.com/WkpYyQR.jpg

Verbrauch: ~ 4.7 GB



100% genau ist es natürlich nicht, aber es ist deutlich näher an der Realität als der VRAM Allocation Wert.

einfach mal mit FFXV testen > das hat ne genaue ingame verbrauchs anzeige

aufkrawall
2020-09-22, 13:01:35
Battlefield 5 Ultra
Das DX12 ist dort so verkackt, das switcht bei manchen Texturen selbst aus nächster Nähe immer zwischen verschiedenen Auflösungen. Die Texturen allgemein sind auch mitunter viel matschiger als noch in BF4. Würd das eher als abschreckendes Beispiel für Spiele sehen, die zu wenig VRAM nutzen. ;D
Schon dieses hässliche Streaming der Assets, wenn man im Spawn Screen die Klassen wechselt... :freak:

Dampf
2020-09-22, 13:01:51
einfach mal mit FFXV testen > das hat ne genaue ingame verbrauchs anzeige

Nicht jedes Spiel hat eine solch praktische Anzeige!

Das DX12 ist dort so verkackt, das switcht bei manchen Texturen selbst aus nächster Nähe immer zwischen verschiedenen Auflösungen. Die Texturen allgemein sind auch mitunter viel matschiger als noch in BF4. Würd das eher als abschreckendes Beispiel für Spiele sehen, die zu wenig VRAM nutzen. ;D
Schon dieses hässliche Streaming der Assets, wenn man im Spawn Screen die Klassen wechselt... :freak:

Da hast du recht, das DX12 ist in diesem Spiel leider nicht so gut gelungen und das Streaming im Hauptmenü lässt zu wünschen übrig. Aber die Texturen im Spiel selbst sind doch sehr knackig, da kann ich jetzt keine Mängel sehen. Zumindest wenn man nicht nah dranzoomt und normal spielt.

Ich hoffe BF6 nutzt exklusiv DX12 und wirft den alten DX11 Code endlich raus.

sapito
2020-09-22, 13:46:10
Nicht jedes Spiel hat eine solch praktische Anzeige!


leider ist das so.

kurzer test in FFXV mit ingame anzeige+ specialK + neuen AB

der AB schlägt sich gut. die dedicated per process sind die realen werte

AB kommt aber mit grenzsituationen nicht klar.

sobald ich die auflösung + rendering hoch drehe und UNTER 10 FPS falle bekommt AB nicht mehr genug daten und zeigt deutlich zu wenig an XD (minus 1000 - 2000 MB VRAM use und mehr)

4k + 200% rendering oder 5k + 150% rendering

sind auch die beiden fälle wo der VRAM absäuft

wolik
2020-09-22, 15:57:12
BF5 in 8K (4K 200 skalierung) könnte noch mit 12Gb laufen, grade so. FFXV ich denke auf kein Fall. Nur nicht mal eine 3090 wird mit "40" TFLOPs das auf brauchbare FPS stammen zu können, mit DLSS auch nicht (und DLSS 1.0 ... na ja...)

SKYNET
2020-09-22, 19:57:46
leider ist das so.

kurzer test in FFXV mit ingame anzeige+ specialK + neuen AB

der AB schlägt sich gut. die dedicated per process sind die realen werte

AB kommt aber mit grenzsituationen nicht klar.

sobald ich die auflösung + rendering hoch drehe und UNTER 10 FPS falle bekommt AB nicht mehr genug daten und zeigt deutlich zu wenig an XD (minus 1000 - 2000 MB VRAM use und mehr)

4k + 200% rendering oder 5k + 150% rendering

sind auch die beiden fälle wo der VRAM absäuft

FFXV schaffe ichs das die 11GB meiner 1080Ti abkacken in 1920*1200... :freak:

will garnicht wissen was in 4k abgeht mit dem highres pack :uponder:

HisN
2020-09-23, 08:28:11
der AB hat zwei neue Sensoren bekommen.

https://abload.de/img/afterburner_vram_sett76j4z.jpg (https://abload.de/image.php?img=afterburner_vram_sett76j4z.jpg)



So. Mit der neuen Einstellung im Afterburner, werdet ihr also meine Screenshots nicht mehr so zerreissen, wenn ich sie nach diesem Muster erstelle?

https://abload.de/img/kingdomcome_2020_09_2vpjck.jpg (https://abload.de/image.php?img=kingdomcome_2020_09_2vpjck.jpg)


Dazu der Post von Unwinder, der auch Resetera dabei hinterfragt.


Snipp


I forgot to document one more tiny but interesting feature of recently published 4.6.3 beta 2. GPU.dll monitoring plugin was upgraded and received 2 new performance counters: “GPU dedicated memory \ process” and “GPU shared memory \ process”, so you may give it a try. The counters are displaying local and non-local VRAM commits for foreground process, so you may use them to see how much VRAM is allocated by the game you’re currently playing and compare it with total system-wide VRAM usage. The counters were added to help you to compare apples to apples and oranges to oranges, because recently there was rather interesting post @ resetera (https://www.resetera.com/threads/vram-in-2020-2024-why-10gb-is-enough.280976/) dedicated to VRAM usage measurement. While it contains a few true statements, it also contains good porting of misunderstanding and false claims and in result it confuses readers even more. So the post claims that:

- Games use less VRAM than you see in GPU-Z, MSI AB, Precision, HwInfo etc. That’s correct statement. Games run in multitasking environment. Games do not own whole VRAM exclusively, it is shared between all running processes in the system. Even before you start your game, standard background applications of almost every modern PC like Steam, internet browsers, background video streaming/recording applications and even OS itself (e.g. DWM aka Desktop Windows Manager, OS component responsible for hardware accelerated desktop windows rendering) eat from few hundred megabytes to few gigabytes of VRAM. All that dedicated VRAM consumed by background processes also counts and displayed in total VRAM usage in tools mentioned above. Total dedicated VRAM minus VRAM consumed by all background processes form VRAM budget for a game, i.e. amount of VRAM the game can commit and use without causing VRAM evictions for other processes and degrading system performance. The budget is expected to be less (sometimes few gigabytes less) than total amount of VRAM installed on your graphics card.

- Misleading applications like GPU-Z, MSI AB, Precision, HwInfo display absolutely useless VRAM allocation value opposing to the only real usage reported by budget API and displayed by Special K. That’s false statement. First, there is no any “allocated VRAM” versus “real VRAM usage”. Real usage he is referencing is also nothing but exactly the same allocation, i.e VRAM commit but in context of single game process. Any form of VRAM usage monitoring (including the “real” one based on DXGI budget monitoring) is displaying you current amount of commited/allocated VRAM. DXGI budget monitoring API was added by Microsoft to help 3D application developers to avoid overcommiting VRAM. So it is just giving you your current VRAM commit limit (budget) and allows you to track how much you’ve already commited. While it is _extremely_ useful performance counter for a developer on game development stage, it doesn’t allow you to see whole system picture when your profile whole system performance, doesn’t allow you to see how much VRAM other applications commited, how much of this total commited VRAM is currently resident in local VRAM and how close to physical VRAM limit (and VRAM eviction related stuttering) we’re. So those are nothing but VRAM commits displayed on different (game/system) levels and both are useful.

New performance counters (“GPU dedicated memory \ process” and “GPU shared memory \ process” exported by GPU.dll plugin) just allow you to see this “real usage” (application specific VRAM commit in reality). But instead of using in-process DXGI budget API it uses more low-level and advanced D3DKMT API, which allows to peek into process specific D3D performance counters from different processes. Due to that reason new “GPU dedicated memory \ process” and “GPU shared memory \ process” are currently not supported for EAC/BattleEye protected games (as they require opening game process from external application, such request won't work for EAC/BE protected games). Here is the example of using new performance counters in MSFS 2020:

View attachment 1987

The first one in RTSS “Mem” line, 5290MB, is a total amount of VRAM commited by display driver + all running processes and residing in local videomemory. It is MSI AB’s built in “Memory usage” performance counter taking data from NVAPI on NVIDIA GPU (on AMD GPUs native VRAM monitoring is not exposed by their API so it is read via D3DKMT by MSI AB and matches with the second performance counter). The second one in RTSS “Mem” line, 5125MB, is total amount of VRAM commited by all running processes and residing in local videomemory. Unlike the first one, it doesn’t include internal display driver’s VRAM allocations. So it is expected to be a couple hundred megabytes lower. It is reported by “GPU dedicated memory usage” counter exported by GPU.dll plugin and comes from D3DKMT. The third one, 3446MB, is VRAM commited by foreground process (i.e. MSFS 2020 game). It comes from "GPU dedicated memory usage \ process" counter exporeted by GPU.dll plugin and duplicates GPU budget usage, displayed by MSFS developer overlay.



Der Resetera-Autor ist auch in dem Thread von Unwinder unterwegs, und hat versprochen sein Artikel zu aktualisieren, um die Fehler darin zu beseitigen.



https://abload.de/img/modernwarfare_2020_091jknm.jpg (https://abload.de/image.php?img=modernwarfare_2020_091jknm.jpg)

BlacKi
2020-09-23, 13:16:19
kann jemand die begriffe dedicated und shared gpu memory etwas erläutern?

SKYNET
2020-09-26, 02:14:13
farcry 5 mit highres pack und alles auf max, 1920*1200, auslösung 1.6x(=1440p interne auflösung) --> 9.2GB direkt am start, steigend bis zu 10.8GB nach 2h spielzeit...

kann mal wer mit 4k testen?

HisN
2020-09-26, 08:05:21
7GB steigend bis 15GB
Ach ne, das war new Dawn, ohne irgendwelches Gehampel :-)

https://abload.de/thumb/farcrynewdawn_2019_02dqjxx.jpg (https://abload.de/image.php?img=farcrynewdawn_2019_02dqjxx.jpg)

Sardaukar.nsn
2020-09-26, 08:18:00
@hisn: Wie war sah das denn mit dem neuen Anzeige für "dedicated memory usage" aus?

pixeljetstream
2020-09-26, 09:10:43
kann jemand die begriffe dedicated und shared gpu memory etwas erläutern?
Dedicated: VRAM auf der Karte
Shared: RAM auf den die GPU direkt zugreift (entweder vom Entwickler so gewollt oder weil OS Daten auslagert)

gbm31
2020-09-26, 10:34:01
Wenn ich Zeit find am Wochenende und RTSS diese shared Geschichte auch kann mach ich mal ein paar Screenshots in UWQHD.

So ausm Kopf: Breakpoint ~8,5GB, DIV2 ~15,5GB...

HisN
2020-09-26, 11:35:35
@hisn: Wie war sah das denn mit dem neuen Anzeige für "dedicated memory usage" aus?


Ist nen alter Screen, sobald ich wieder Zeit habe, mache ich neue^^

Dedicated: VRAM auf der Karte
Shared: RAM auf den die GPU direkt zugreift (entweder vom Entwickler so gewollt oder weil OS Daten auslagert)


Thx, hört sich plausibel an.

Maorga
2020-09-26, 11:42:45
Hallo,

rein aus Interesse habe ich mir die Beta geladen und wollte es mit der Belegung des Speichers probieren. So wie es aussieht kommen aber keine Daten an. Die GPU DLL ist aktiviert. Ebenso habe ich in der Überwachung nach den GPU dedicated gesucht. Bei mir erscheint da aber nur diese 2 GPU1 shared/dedicated. Muss ich noch ein weiteres Plugin laden oder eine zusätzliche Software auf den PC laden?

Liebe Grüße

HisN
2020-09-26, 11:52:50
So ausm Kopf: Breakpoint ~8,5GB, DIV2 ~15,5GB...

Div2 ist auf jeden Fall interessant in der Betrachtung, weil die 16GB auf keinen Fall "benötigt" wurden.

@Maorga
Du hast "Aktivierung von Hardware-Überwachungskurven" angeklickt. Die GPU.DLL mal ausgewählt und SETUP (oder wars ADD) gedrückt, und die Werte manuell hinzugefügt, wenn es nicht automatisch geht?

Bei mir waren die von alleine vorhanden, deshalb nur ne Vermutung. Also genau so wie man z.b. HWinfo-Daten Seamless einbindet.

BlacKi
2020-09-26, 12:22:23
Dedicated: VRAM auf der Karte
Shared: RAM auf den die GPU direkt zugreift (entweder vom Entwickler so gewollt oder weil OS Daten auslagert)
danke

ich hab noch eine frage. streaming spiele, wie hzd, lesen beim streaming vom harddrive und starten beim anfang einer map nicht alles in den vram den sie benötigen werden.

inwiefern soll eine karte von 16/24gb dann davon nachladeruckler seitig profitieren wenn so oder so gestreamed werden muss?

ich habe den eindruck das tests den eindruck hinterlassen das die nachladeruckler mit mehr vram immer besser sind, weil die tester eine mehrere testläufe machen und dann den besten testlauf aufnehmen. die testläufe, die aber beim ersten durchlaufen der map entstanden sind und nachladeruckler haben wie 8gb modelle, einfach weggelassen werden.

kurz gesagt. wenn ich mit einer 8gb karte oder eine 16gb karte durch ein level laufe ohne vorherschon mal durchgelaufen zu sein, dann habe ich mit den 16gb version keinen vorteil.

einen vorteil habe ich nur, wenn ich längere zeit in einem lvl bleibe und schonmal den lvlbereich besucht habe.

feel free to correct me.

Troyan
2020-09-26, 12:27:23
Wenn Spiele nur den "sichtbaren" Teil in den VRAM laden, dann stimmt das. Spiele könnten aber auch Teile der Welt sofort laden und dann immer die unbenutzen Bereiche entfernen.

BlacKi
2020-09-26, 12:34:44
Wenn Spiele nur den "sichtbaren" Teil in den VRAM laden, dann stimmt das. Spiele könnten aber auch Teile der Welt sofort laden und dann immer die unbenutzen Bereiche entfernen.
beispiel? like serious?

HisN
2020-09-26, 12:39:10
Oder andersrum, gerade in HZD kommst Du ja ständig an den gleichen Stellen vorbei. Geschickterweise werden diese nicht entladen und müssen nicht neu gestreamt werden.

Streaming ist ne Krücke.

dargo
2020-09-26, 12:47:34
HZD ist noch ein riesen Fragezeichen. Miserables Speichermanagement beim PC oder der gemeinsame Speicher der Konsole hat hier extreme Vorteile. Ich meine wie kann es sein, dass 5,5GB bei der Konsole reichen und am PC 8GB Vram + 16GB Arbeitspeicher zu wenig sind? :freak: Letzteres eher uninteressant. Fairerweise muss ich dabei sagen, dass ich Konsole nicht gespielt habe. Am PC ist es mittlerweile so, dass die 8GB Vram nicht durchgängig ein Problem sind. Viele Areale laufen sauber, es gibt aber leider auch viele Stellen noch die spiken. Hinzu kommt noch die Tatsache, dass durch die Modellqualität am PC mit Ultra der Vrambedarf noch paar zusätzliche Hundert MB in Anspruch nimmt. Konsole hat dort nur Medium Setting. Aber auch mit Medium Modellqualität reichen 8GB Vram am PC nicht überall mit Medium Texturen aus. Auch nicht mit dem Medium-Preset.

BlacKi
2020-09-26, 12:49:32
Oder andersrum, gerade in HZD kommst Du ja ständig an den gleichen Stellen vorbei. Geschickterweise werden diese nicht entladen und müssen nicht neu gestreamt werden.

Streaming ist ne Krücke.
kann sein, aber im letzten punkt stimme ich dir nicht zu, streaming ermöglicht tolle texturen auf günstigen karten. streaming muss einfach nur gut umgesetzt werden. wie zb. TD2.

wie dargo immer zu sagen pflegt, einfach keine bananensoftware kaufen:freak:

dargo
2020-09-26, 12:53:35
wie dargo immer zu sagen pflegt, einfach keine bananensoftware kaufen:freak:
Ja... das stimmt. :D Blöderweise habe ich zu früh zugeschlagen. :redface: Muss aber zugeben, dass mir das Game sehr gefallen hat. Speichermanagement ist aber dort immer noch Mist. Ob das je behoben wird steht auch in den Sternen. Einfachste Lösung wem das zu viel auf die Eier geht... zur Seite legen und erst mit einen neuen Grafikkarte zocken die mindestens 12GB hat. Womöglich sind aber erst 16GB sorglos hier. Alternativ geht natürlich low Texturen. Wen die nicht stören kann das komplette Game sorglos sauber durchspielen.

HisN
2020-09-26, 12:58:50
zur Seite legen und erst mit einen neuen Grafikkarte zocken die mindestens 12GB hat. Womöglich sind aber erst 16GB sorglos hier.

Oh Wow. Das Zugeständniss hätte ich von Dir jetzt nicht erwartet.

BlacKi
2020-09-26, 12:58:58
wie gesagt löst vram nicht die probleme beim ersten durchlaufen.

ich frage mich ob hier vega mit hbcc vorteile hat... dort liegen dann die texturen im ram und nicht auf der ssd?

aufkrawall
2020-09-26, 13:01:01
wie gesagt löst vram nicht die probleme beim ersten durchlaufen.

Wo? In HZD? Doch, die großen Spikes sind so von Anfang an komplett weg.
Die kleineren Spikes sind Nachladeruckler für neue Gebiete/Siedlungen, das kann man wohl nicht mit Hardware erschlagen.

BlacKi
2020-09-26, 13:02:41
Die kleinere Spikes sind Nachladeruckler für neue Gebiete/Siedlungen, das kann man wohl nicht mit Hardware erschlagen.
das meinte ich.

Maorga
2020-09-26, 13:25:10
@Maorga
Du hast "Aktivierung von Hardware-Überwachungskurven" angeklickt. Die GPU.DLL mal ausgewählt und SETUP (oder wars ADD) gedrückt, und die Werte manuell hinzugefügt, wenn es nicht automatisch geht?

Bei mir waren die von alleine vorhanden, deshalb nur ne Vermutung. Also genau so wie man z.b. HWinfo-Daten Seamless einbindet.

Also die GPU.DLL habe ich nur aktiviert. Setup ist nicht möglich, das Feld ist ausgegraut. Wenn ich die GPU.DLL deaktiviere verschwinden auch die 2 Einträge GPU1 dedicated memory usage und GPU1 shared memory usage.

Deshalb meine Frage irgendetwas stimmt nicht.

Win10 Version 2004 (Build 19041.508)
GTX 980 Ti mit dem Treiber 456.38
CPU Ryzen 3700X
Mainboard ASRock X570 pro

Hier mal mein System

SKYNET
2020-09-26, 16:15:44
7GB steigend bis 15GB
Ach ne, das war new Dawn, ohne irgendwelches Gehampel :-)

https://abload.de/thumb/farcrynewdawn_2019_02dqjxx.jpg (https://abload.de/image.php?img=farcrynewdawn_2019_02dqjxx.jpg)

Glaub ND is genügsamer als 5 🤔

aufkrawall
2020-09-26, 17:16:29
Mit HD-Texturen knallt das alles voll.

ChaosTM
2020-09-26, 17:22:16
FS2020
1200p - high/max -> 7200-7500MB (Laptop mit 7700HQ und 1070er)
2160p - high/max -> sofort voll (32700, 1080ti)

Seth
2020-09-26, 19:36:18
wie gesagt löst vram nicht die probleme beim ersten durchlaufen.

ich frage mich ob hier vega mit hbcc vorteile hat... dort liegen dann die texturen im ram und nicht auf der ssd?

HBCC auf Vega64 in HZD ist unbrauchbar. Bild bleibt teils komplett stehen im Benchmark, wie man an den 2fps min sieht. Ingame selber habe ich danach erst gar nicht getestet, sollte ich vielleicht noch mal machen.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12410597#post12410597

crux2005
2020-09-26, 19:55:53
FS2020
1200p - high/max -> 7200-7500MB (Laptop mit 7700HQ und 1070er)
2160p - high/max -> sofort voll (32700, 1080ti)

Mit FS2020 hast du das Problem von zu vielen Orten. Wo hast du die Messungen gemacht?

Ich glaube auf dem JFK hatte bis jetzt die größte VRAM allocation gesehen (~8090 MB).

ChaosTM
2020-09-26, 20:16:11
Mit FS2020 hast du das Problem von zu vielen Orten. Wo hast du die Messungen gemacht?

Ich glaube auf dem JFK hatte bis jetzt die größte VRAM allocation gesehen (~8090 MB).


In Rom hab ich momentan 10,7 mit einer 747..

NY ergibt ähnliche Werte. Alle Fotogrammetrie-Städte kann man sagen.

add.: ich seh gerade, dass das Dual Screen System alleine zwischen 1,4 und 2,2GB VRAM frisst. Firefox, Youtube und was sonst noch so immer rennt. Das verfälscht natürlich.

Rio sauft auch gut.
Die Region um Chicago frisst in 1080p an die 8GB..

dargo
2020-09-26, 22:21:26
Hier ist ein nettes Beispiel wie unterschiedlich Spiele den Vram adressieren.

2sQLAuEjfOw

Bei Jedi Fallen Ordner werden bei der 3090 mal eben ~50% mehr Vram adressiert obwohl dieser für eine saubere Frameausgabe nicht benötigt wird. Ist imho die beste Methode im direkten Vergleich mit der selben GPU. Ob Salvage gegen Top Dog spielt keine Rolle. Wichtig, dass beide unterschiedliche Speichermengen aufweisen und dabei gleichzeitig die Frametimes prüfen. Warum allerdings ein Odyssey bei einer Karte mit weniger Vram mehr adressiert ist mir ein Rätsel. :tongue: Ist dann aber auch wurscht, ist dennoch weit unter 10GB.

-=Popeye=-
2020-09-26, 22:38:03
Wie heißt es so schön: Speicher kann man nie genug haben.

Hier frisst Serious Sam 4 in WQHD und Vulkan auch im Schnitt neuneinhalb Gig VRAM.

aufkrawall
2020-09-27, 01:04:49
Das scheint mit D3D11 mit 6GB auch in 1080p (Upscaling) mitunter arg einzubrechen vs. 8GB. ;D

gbm31
2020-09-27, 11:01:15
DIV2 UWQHD kurz nach dem Start, nur ein bisschen durch die Straßen gerannt.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71613&stc=1&d=1601199886

Warzone UWQHD

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71615&stc=1&d=1601209280

Dampf
2020-10-21, 18:08:58
"Spiele" (in Anführungsstriche weil ich nur die Technik testen will) zur Zeit die Beta von COD Cold War. Getreu der COD Manier zieht das Spiel am VRAM und deutlich mehr als der Vorgänger!

Das erste Spiel (hab alle RTX Titel gespielt) bei dem ich wirkliche Limitationen aufgrund meines VRAMs sehe. Für Ultra Texturen reichen da 6 GB nicht aus, der genutzte und zugewiesene Speicher beträgt 5,8GB.

Wie bemerkt man es? Die Framerate ist geringer (in 1080p beispielsweise 95 vs 107 FPS). In 1080p kann man mit meiner 2060 noch locker über 60 FPS halten mit Ultra Texturen. In 1440p allerdings nicht mehr. Texturschwund oder Frametime-Spikes gibt es keine. So handeln es eigentlich die meisten modernen Engines.

Mit hohen Texturen ist der gebrauchte Speicher dann deutlich geringer und die Performance ebenfalls besser, reicht locker für 1440p. Qualitätsunterschiede gibt es, die halten sich aber in Grenzen. Beispielsweise sind ein paar Gemälde geringer aufgelöst. Die meisten Texturen sind aber auch mit hoher Einstellung sehr knackig und detailreich, ist imo also kein großer Kompromiss.

Wird spannend zu sehen sein, wenn noch Raytracing dazukommt, mit hohen Texturen wird es sicherlich locker ausreichen. Aber mit Ultra und DXR könnten sogar 8 GB knapp werden. DLSS könnte jedoch aushelfen auch bei 6 GB, schließlich wird da massiv Speicher gespart.

Bin gespannt! Kaufen werd ichs mir aber nicht, bin kein COD Fan.

Von der Technik her ist das aber schon solide, kommt jedoch noch nicht ganz an Frostbite ran IMO.

Sweepi
2020-10-21, 23:13:17
Hi Forum,

ich erstelle gerade eine Übersicht der verschiedenen Tools, und suche nach einem Spiel, in dem alle funktionieren.

Vorläufiges Ergebnis:
Folgende Titel funktionieren nicht mit SpezialK

[Anticheat]
WoW
CS:GO
Black Mesa

[Signature Fail]
The Talos Principle

[Unknown]
3DMark (vll gehts irgendwie)


Mit folgenden Spielen funktioniert es, die sind allerdings ein wenig anspruchslos:

Golf it
Among Us (!)
Jackbox Party Pack 6

Bei folgenden Spielen läuft SpecialK, aber nicht MS Pix:
Tomb Raider

dildo4u
2020-10-22, 07:25:30
Paar Tests mit der neuen Rivatuner Anzeige. Real vs Reserviert.

https://www.resetera.com/threads/msi-afterburner-can-now-display-per-process-vram.291986/page-2

crux2005
2020-10-22, 07:47:32
Paar Tests mit der neuen Rivatuner Anzeige. Real vs Reserviert.

https://www.resetera.com/threads/msi-afterburner-can-now-display-per-process-vram.291986/page-2

Danke. Gerade HZD ist interessant.

Horizon Zero Dawn, Max Settings, 3440x1440 HDR
9200 MB alloziert, 7502 MB werden vom Spiel verlangt.

aufkrawall
2020-10-22, 10:14:38
Was heißt "verlangt"? Wenn es stockt, weil er trotzdem nicht mehr allozieren kann, nützt einem das herzlich wenig. ;)

HisN
2020-10-22, 15:42:19
Is jetzt die neue Metrik vom Rivatuner das was wir wissen wollen, oder ist sie es nicht?

_8nnbkoL37g

bMDjhdNn5R8

aufkrawall
2020-10-22, 16:38:20
Is jetzt die neue Metrik vom Rivatuner das was wir wissen wollen, oder ist sie es nicht?

Nein. Kein externes Programm kann generisch wissen, ob ein Spiel mit mehr VRAM besser laufen würde. Nur Gegentests mit Karten mit mehr VRAM sind aussagekräftig.

Geldmann3
2020-10-22, 17:04:19
Ich finde die Metrik wie viel Vram ein Game sich gerne einverleibt schon recht interessant.
Hab noch kein Game gesehen, was einfach unnötig 24GB Vram bis oben hin füllt.

Natürlich kann man darauf nicht unbedingt auf die Performance zurückschließen.

Aber ich habe auch noch kein Game auf der 3090 gesehen, was über 16GB Vram verbraucht und dann bei diesen Settings noch flüssig auf einer 3080 läuft.
Spätestens bei ein paar GB mehr, als eine Grafikkarte hat, ist also die Kotzgrenze erreicht.

Langlay
2020-10-22, 17:50:03
https://youtu.be/_8nnbkoL37g



Hmm, bei dir läuft HZD schon besser wie bei mir. Deine Frametime sind wie mit den Stift gezogen wie bei mir damals bei der Radeon VII. Jetzt mit der 3090 ist mein Frametimegraph leicht ausgefranst. Vielleicht sollte ich mein Windows mal neu aufsetzen so nach 3 Jahren.


https://abload.de/img/hzdft20jjr.png

Sweepi
2020-10-22, 18:09:50
Is jetzt die neue Metrik vom Rivatuner das was wir wissen wollen, oder ist sie es nicht?


Ich würde das gerne umdrehen: Wir brauchen (reproduzierbare) Fälle von der Art:
Mit GPU A mit X GiB VRAM habe ich in $(Spiel) nach umstellen der Settings von "B" auf "C" optische beobachtbare Phänomene, welche einen VRAM Mangel nahe legen.

Wenn wir einen Fall verifiziert haben, können wir dann wiederum die Tools rauskrammen und schauen, ob die sich das Problem an den Zahlen ablesen lässt.


Ich bitte um Vorschläge von Spielen, welche folgende Eigenschaften haben:
- Frisst VRAM wie blöde
- Frisst im Vergleich dazu weniger GPU-Power, sodass der VRAM Mangel offensichtlich ist

Bonuseigenschaften:
- günstig/kostenlos
- integrierter Benchmark
- keine/wenig Anticheat/Antitamper Maßnahmen
- VRAM Nutzung stark abhängig von Settings (-> Gegentest ohne VRAM Mangel gut möglich)
- VRAM Mangel lässt sich in 1920x1080 windowed reproduzieren (damit sollten es alle nachstellen können)

PS:
https://www.youtube.com/watch?v=_8nnbkoL37g&t=604s
https://www.youtube.com/watch?v=_8nnbkoL37g&t=604s

achtet mal drauf, wie das Gras am Berg nachlaedt, sodass man eine Linie hat, die sich vom Spieler wegbewegt, warum macht man das so? Ist die Performance sonst wirklich zu schlecht?

aufkrawall
2020-10-22, 18:10:24
Ich würde mal auf den RTSS-Graphen schalten, ist evtl. noch ausgefranster als du denkst (dürfte aber fürs subjektive Empfinden kaum oder gar nicht ins Gewicht fallen). :D
Aber: Ich seh bei dir auch so komische Plateaus wie bei Turrican. Die waren mit der VII vermutlich auch nicht da, oder? Sind sie hier mit Polaris jedenfalls nicht.

Langlay
2020-10-22, 18:21:57
Ich würde mal auf den RTSS-Graphen schalten, ist evtl. noch ausgefranster als du denkst (dürfte aber fürs subjektive Empfinden kaum oder gar nicht ins Gewicht fallen). :D
Aber: Ich seh bei dir auch so komische Plateaus wie bei Turrican. Die waren mit der VII vermutlich auch nicht da, oder? Sind sie hier mit Polaris jedenfalls nicht.

Yap, diese Plateaus gab es mit der VII auch nicht. Mit der VII waren die Frametimes auch wie mit dem Stift gezogen ohne Fransen und Plateaus.

HisN
2020-10-22, 23:43:56
.

Aber ich habe auch noch kein Game auf der 3090 gesehen, was über 16GB Vram verbraucht und dann bei diesen Settings noch flüssig auf einer 3080 läuft.
Spätestens bei ein paar GB mehr, als eine Grafikkarte hat, ist also die Kotzgrenze erreicht.


Echt nicht? Was für Settings? FHD reicht ja schon wenn Du Dir das "richtige" Game aussuchst. Sind 138 FPS jetzt nicht mehr flüssig?


https://abload.de/img/modernwarfare_2020_1064knq.jpg (https://abload.de/image.php?img=modernwarfare_2020_1064knq.jpg)



Hmm, bei dir läuft HZD schon besser wie bei mir. Deine Frametime sind wie mit den Stift gezogen wie bei mir damals bei der Radeon VII. Jetzt mit der 3090 ist mein Frametimegraph leicht ausgefranst. Vielleicht sollte ich mein Windows mal neu aufsetzen so nach 3 Jahren.



Naja, ich renne da in UHD rum, und hab deutlich weniger FPS, eventuell sind bei kleineren Auflösungen auch stärkere Schwankungen zu sehen, weil Du nicht die ganze Zeit im Graka-Limit hängst.

Langlay
2020-10-22, 23:47:44
Naja, ich renne da in UHD rum, und hab deutlich weniger FPS, eventuell sind bei kleineren Auflösungen auch stärkere Schwankungen zu sehen, weil Du nicht die ganze Zeit im Graka-Limit hängst.

Sieht in 4K genauso aus, macht bei mir keinen Unterschied.

HisN
2020-10-22, 23:54:28
Du hast nen UV-Profil am laufen, damit die Karte nicht ständig ins PT rennt?
Ansonsten wüsste ich mal wieder nicht woran es liegt. Mein Windows ist noch eine Win 8.1-Upgrade-Installation, und das 8.1 sollte eine Win7-Upgrade-Installation gewesen sein.
Ach is schon so lange her^^

Langlay
2020-10-22, 23:58:28
Du hast nen UV-Profil am laufen, damit die Karte nicht ständig ins PT rennt?
Ansonsten wüsste ich mal wieder nicht woran es liegt. Mein Windows ist noch eine Win 8.1-Upgrade-Installation, und das 8.1 sollte eine Win7-Upgrade-Installation gewesen sein.
Ach is schon so lange her^^

Ja, ich hab ein UV Profil am laufen. Aber das Verhalten von HZD ist immer so, auch stock.

HisN
2020-10-23, 00:13:33
Dann sinds die 24 Kerne oder die 128GB Arbeitsspeicher *lach*

Sweepi
2020-10-23, 01:26:41
https://abload.de/img/modernwarfare_2020_1064knq.jpg (https://abload.de/image.php?img=modernwarfare_2020_1064knq.jpg)




Ist das CoD 4 remaster? waere das was für die Liste?

Hakim
2020-10-23, 02:08:19
Ist das CoD 4 remaster? waere das was für die Liste?

Das ist CoD Warzone, Szene aus Gulag.

aufkrawall
2020-10-23, 11:59:41
Yap, diese Plateaus gab es mit der VII auch nicht. Mit der VII waren die Frametimes auch wie mit dem Stift gezogen ohne Fransen und Plateaus.
Laut Meinung einiger "Experten" aus dem HZD Technik-Thread wäre dein System mit 3090 usw. dem Spiel einfach unwürdig, du musst mal aufrüsten. :ulol:

Langlay
2020-10-23, 16:59:03
Laut Meinung einiger "Experten" aus dem HZD Technik-Thread wäre dein System mit 3090 usw. dem Spiel einfach unwürdig, du musst mal aufrüsten. :ulol:

Das wird die Lösung sein, Rechner zu schlecht :freak:

Naja unterm Strich stört mich das Verhalten so auch nicht, da Spiel spielt sich trotzdem sehr gut und ich bin ja mittlerweile quasi auch durch mit HZD mir fehlt noch das letzte Jagdgebiet dann hätte ich wohl alles durch.

crux2005
2020-10-23, 21:31:47
Was heißt "verlangt"? Wenn es stockt, weil er trotzdem nicht mehr allozieren kann, nützt einem das herzlich wenig. ;)

Ich dachte solange der "gebrauchte" VRAM < als die VRAM Kapazität der Graka ist, sollte es deswegen nicht Ruckeln. :freak:

Wenn dieser Wert == VRAM Kapazität ist und es Ruckelt, kann das ein gutes Indiz sein. Aber du hast natürlich recht das die SW nicht sagen kann wie viel VRAM ein Spiel braucht. Wie wird dieser Wert also genannt? Habe verlangt (requested) geschrieben weil mir nichts passenderes einfiel.

Geldmann3
2020-10-24, 00:45:36
Echt nicht? Was für Settings? FHD reicht ja schon wenn Du Dir das "richtige" Game aussuchst. Sind 138 FPS jetzt nicht mehr flüssig?


https://abload.de/img/modernwarfare_2020_1064knq.jpg (https://abload.de/image.php?img=modernwarfare_2020_1064knq.jpg)





Naja, ich renne da in UHD rum, und hab deutlich weniger FPS, eventuell sind bei kleineren Auflösungen auch stärkere Schwankungen zu sehen, weil Du nicht die ganze Zeit im Graka-Limit hängst.

Das Game zieht in Full HD 21GB Vram?

Dampf
2020-10-24, 00:54:23
Das Game zieht in Full HD 21GB Vram?

Ist halt wieder zugewiesener Speicher vs gebrauchter Speicher. Das sieht man bei so einer Karte wie der 3090 sehr deutlich. Und deswegen sind Aussagen wie man bräuchte 16 GB weil heute schon Spiele mehr als 11 GB auf einer 16 GB Karte belegen auch hanebüchen. Nach der Logik wäre auch 16 GB nicht für die Zukunft ausreichend wenn ein Current Gen Spiel schon 21 GB in Full HD auf einer 3090 belegt 😉

rentex
2020-10-24, 06:57:55
Laut Meinung einiger "Experten" aus dem HZD Technik-Thread wäre dein System mit 3090 usw. dem Spiel einfach unwürdig, du musst mal aufrüsten. :ulol:

Das buggiest Game dieses Jahres...und die "Experten" nehmen es als Referenz:rolleyes:
Bald werde ich sehen, ob ne 3090 reicht ;D

Langlay
2020-10-24, 19:54:46
Mit na 3090 spielt es sich jedenfall ganz gut. Soviel kann ich sagen.

Lurtz
2020-10-26, 10:25:33
c) Die Engine lädt die höchste Texturauflösung erst gar nicht und der User kräht: Braucht doch gar kein VRAM, alle keine Ahnung^^

Gibt es eine Liste von Spielen/Engines, die sich so verhalten?

aufkrawall
2020-10-26, 10:33:46
Ist jedenfalls nicht unwahrscheinlich bei jedem neu erscheinenden Spiel. Ist halt die Frage, ob es fast gar nicht bemerkbar ist, oder man ständig Matsch begegnet. Allerdings würd ich Spikes/Einbrüche weiterhin als das wesentlich größere Problem durch Knappheit ansehen.

HisN
2020-10-26, 10:34:14
@Lurtz
Nicht das ich wüsste. Wer macht sich schon die Mühe das wirklich zu beobachten.
Am ehesten würde ich RAFF sowas zutrauen.

w0mbat
2020-10-26, 11:26:33
Frostbite hat so eine Einstellung.

Daredevil
2020-10-26, 11:38:49
Ist zumindest deutlich Bedienerfreundlicher, das man dem Kunden ein fluffiges Erlebnis bietet, egal ob 8, 6 oder 4GB Ram.
Würde mich auch echt freuen, wenn die dynamische Auflösung in den PC Markt kommt, so kann der Kunde selbst entscheiden, was bei ihm abgeht,

Du siehst ja schon, wie sehr dargos Spikes hier im Forum den Shitstorm des Jahres ausgelößt haben und Leute blind Folgen, ohne das Spiel einmal gespielt zu haben. Deswegen brüllen Leute mit 8GB Karten ja auch, dass man mit 10GB nicht mal mehr Minecraft spielen kann. :D
Der findet das Spiel ja so scheiße, dass er jeden Tag neue Fehler findet, wenn er es spielt.
Sowas willste als Publisher auch nicht an der Backe haben. :X

aufkrawall
2020-10-26, 11:48:28
dargo kann nerven, ja. Aber wenigstens verweigert er sich nicht den Fakten, anders als du auf deinem Hypetrain für den 10GB VRAM-Krüppel. Mal sehen, ob sich nach HZD und Avengers auch Watch Dogs direkt in die Reihe der 10 GB- Fails einsortiert. Ich gehe schon mal davon aus...

Daredevil
2020-10-26, 12:09:00
Währenddessen im Thread breit diskutiert wurde, wie unspielbar dieses Spiel ist, habe ich es in WQHD@High@11GB mit ~80-90fps gespielt. Ich habe da schlicht kein Fail gesehen, sondern meine Freude gehabt. ( Und Videos geteilt, wo ich keine Probleme sehe, zumindest bei mir )
Wieso sollte ich also meine eigene Wahrnehmung ändern, nur weil jemand anderes Probleme mit seinem System hat? Wenn es danach geht, wäre Division2 ja auch unspielbar gewesen, weil das ist bei ihm regelmäßig für Wochen abgestürzt. Aber tausende andere haben das Spiel einfach gespielt.
Viele übertragen ihre eigene Blase auf die Allgemeinheit und gehen mit vollem Selbstvertrauen da rein, das ist manchmal echt ein wenig arrogant hier im Forum.

Genauso wie ich, der gerade im "Hypetrain für den 10GB VRAM-Krüppel" sitzt, sich aber eine 24GB Karte gekauft hat, weil er weiß, dass 4K+ mit 8-11GB knapp werden können, alles drunter aber keine bis wenig Probleme macht. ( Und zwar, weil ich meine eigene Erfahrung gemacht habe mit 4K+ @ 11GB )
Solange es noch mehr Spiele gibt, wo man RT/DLSS aktivieren kann als Spiele, wo RAM zu wenig wird, ist die Relevanz einfach nicht da. ( Die Relevanz von RT/DLSS wird ja aufgrund der Anzahl der Spiele auch gerne abgeschrieben, super sinnlos )
Daher sehe ich deinen Front auch gelassen, mir tun die Leute nur einfach leid. ^^

aufkrawall
2020-10-26, 12:25:12
Blablabla, oder in anderen Worten: Dich interessieren die Fakten einfach nicht, was dich als Diskussionsteilnehmer disqualifiziert.

Daredevil
2020-10-26, 12:33:21
Das es bei manchen nur "Die Fakten" gibt, da hast du wohl recht. :)

aufkrawall
2020-10-26, 12:42:43
Ja, das sind Fakten in Form simpelster Mathematik (Menge x reicht für y Performance/Grafik). Wenn man meint, dazu absatzweise wirre Gedanken auskippen zu müssen, ist das nur ein kläglicher Relativierungsversuch.

blaidd
2020-10-26, 14:27:35
Gibt es eine Liste von Spielen/Engines, die sich so verhalten?

Meines Wissens priorisiert quasi jedes aktuelle Spiel Geometrie-Details (bzw. Vertex-Daten) vor dem Laden der höher qualitativen Mip-Maps (Texturen). Besser überhaupt Geometrie und dann eben mit Matschtextur, statt Loch mit all den damit auftretenden Problemen in der Spielewelt. Wenn man's auf die Spitze treibt (via Auflösung/Einstellungen), dann passt allerdings hier und dort nicht mal mehr die Geometrie in den Speicher. (https://www.instagram.com/p/CDgjA0klFtu/)

Doom Eternal (der Vorgänger indes auch schon) ist beispielsweise definitiv eins davon, das habe ich vom Lead Programmer höchstpersönlich... (spätestens im Addon Ancient Gods limitieren darüber hinaus außerdem 8 GiByte Grafikspeicher, obwohl man da immerhin noch maximale Ultra-Nightmare-Details nutzen kann)

Wo man es aber beispielsweise auch sieht: Ghost Recon Wildlands/Breakpoint, Assassin's Creed, HZD, Serious Sam 4 (da wird's sogar in der Dev-Konsole angezeigt, wenn die Texturen reduziert werden), RDR2, COD, sämtliche UE4-Titel.

crux2005
2020-10-26, 21:30:21
Wo man es aber beispielsweise auch sieht: Ghost Recon Wildlands/Breakpoint, Assassin's Creed, HZD, Serious Sam 4 (da wird's sogar in der Dev-Konsole angezeigt, wenn die Texturen reduziert werden), RDR2, COD, sämtliche UE4-Titel.

Würde erklären wieso RDR2 und Flight Simulator 2020 bei mir in 1440p und einer 8 GB VRAM Karte so matschig aussieht.

hq-hq
2020-10-26, 21:49:19
am Streaming leiden aber auch Spiele wie Metro Exodus obwohl der VRAM bei weitem nicht voll belegt ist, ein grausliges Beispiel aus der Vergangenheit ist RAGE

Langlay
2020-10-26, 21:54:10
am Streaming leiden aber auch Spiele wie Metro Exodus obwohl der VRAM bei weitem nicht voll belegt ist, ein grausliges Beispiel aus der Vergangenheit ist RAGE


Bei Rage war das auch extrem. Haste 180° Drehung gemacht und MATSCH und dann siehste wie langsam die Textur geladen wird.

aufkrawall
2020-10-26, 21:55:53
Würde erklären wieso RDR2 und Flight Simulator 2020 bei mir in 1440p und einer 8 GB VRAM Karte so matschig aussieht.
Glaub ich bez. RDR2 nicht, das belegt nach etwas Spielzeit und vernünftigen Grafiksettings nur etwas über 6GB. Wird eher am TAA und den allgemein durchwachsenen Texturen liegen. Mit 4 oder 6GB-Krüppeln mag das anders aussehen.

Ex3cut3r
2020-10-26, 21:57:52
Nein. RDR2 definitiv nicht. Alles per Hand Maximiert außer DS. Belegt beim Start 6,7GB. Wächst mit der Spielzeit auf 7GB VRAM an. Läuft aber trotzdem absolut sauber, kein Vergleich zu HZD oder Avengers mit Ultra Texturen. Das Matschige Bild, liegt eher am TAA.

Btw. Mit optimierten Settings läuft das Spiel mit 73 FPS in der Szene. Und sieht vlt. einen ticken schlechter aus, wenn überhaupt. Ultra Settings sind bei dem Game wirklich großer Quatsch.

https://abload.de/thumb/rdr2_2020_10_26_21_54hmklx.jpg (https://abload.de/image.php?img=rdr2_2020_10_26_21_54hmklx.jpg)

Rooter
2020-10-26, 22:47:49
Bei Rage war das auch extrem. Haste 180° Drehung gemacht und MATSCH und dann siehste wie langsam die Textur geladen wird.Das lag ja an der Megatexture-Technik. Imho die größte Schnapsidee, die Carmack je hatte.

MfG
Rooter

blaidd
2020-10-26, 23:27:01
Nein. RDR2 definitiv nicht. Alles per Hand Maximiert außer DS. Belegt beim Start 6,7GB. Wächst mit der Spielzeit auf 7GB VRAM an. Läuft aber trotzdem absolut sauber, kein Vergleich zu HZD oder Avengers mit Ultra Texturen. Das Matschige Bild, liegt eher am TAA.

Btw. Mit optimierten Settings läuft das Spiel mit 73 FPS in der Szene. Und sieht vlt. einen ticken schlechter aus, wenn überhaupt. Ultra Settings sind bei dem Game wirklich großer Quatsch.

https://abload.de/thumb/rdr2_2020_10_26_21_54hmklx.jpg (https://abload.de/image.php?img=rdr2_2020_10_26_21_54hmklx.jpg)


Was ich meinte: Versuch das beispielsweise mal mit einer 4 GiByte-GPU. Das lässt RDR2 normalerweise gar nicht erst zu, das meckert dann im Optionsmenü, dass nicht genug Grafikspeicher zur Verfügung steht.

Das kann man allerdings per Ini-Datei aushebeln. Und dann gibt's alles von Matsch-Texturen bis Löchern in der Landschaft (Raff hat da eventuell ein passendes Bild, der misst das ja öfterts..) ;)

HisN
2020-10-27, 14:33:51
https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/8-GB-vs-16-GB-Benchmarks-1360672/

Kleine Beleuchtung von Raff



Wussten Sie, dass maximale Texturdetails keine oder nur minimal Leistung kosten, sofern der Grafikspeicher ausreicht? Das ist ein großer Unterschied zu anderen Effekten. Die Oberflächenqualität hat einen großen Einfluss darauf, ob wir ein Spiel hübsch finden oder nicht. Was liegt da näher, als hier das Optimum anzustreben? Mit diesem Wissen ergibt die Idee, am Grafikspeicher zu sparen, überhaupt keinen Sinn - es sei denn, Sie sind ein Grafikkarten-Hersteller und haben ein Auge auf den Gewinn.



Immer, wenn es um Speichermangel geht, gibt es zwei Diskussionspunkte: Den für die meisten Spieler schmerzhaften Schwund der Leistung und den subtileren Schwund der Bildqualität. Letzterer wird außerhalb des PCGH-Universums überraschend selten thematisiert, Lange bevor die Bildrate ins Bodenlose fällt, werden [...] Texturdetails eingespart. findet jedoch in vielen PC-Spielen der vergangenen Jahre mit unterschiedlicher Ausprägung statt. Das Problem dabei ist: Lange bevor die Bildrate moderner Spiele ins Bodenlose fällt, werden dynamisch und weitgehend clever Texturdetails eingespart, um die Bildrate zu retten.


Ich würde ja behaupten, dass die Betrachtung über die Frametimes/FPS alleine schon lange keinen Sinn mehr macht, mann müsste auch schauen wie die Details abgeschaltet werden.

Ich halte mich also weiter lieber am Commit vom Game fest.

aufkrawall
2020-10-27, 14:37:46
Ich will ja gar keinen Fetisch draus machen. Wenn es nur subtil ist und mich nicht aus der Immersion reißt, ok. So etwas wie die unregelmäßig auftretenden regelmäßigen Spikes in HZD, selbst wenn man nur still steht, sind aber das Allerletzte...

dargo
2020-10-27, 15:37:09
Ich sehe das genauso. Gegen eine dynamische Anpassung der Texturqualität vom Spiel hätte ich beim Mangel an Vram nichts wenn die Qualität dadurch nicht deutlich leidet. Diese Stocker bei zu wenig Vram gehen aber gar nicht.

Sweepi
2020-10-28, 09:47:27
Ich würde das gerne umdrehen: Wir brauchen (reproduzierbare) Fälle von der Art:
Mit GPU A mit X GiB VRAM habe ich in $(Spiel) nach umstellen der Settings von "B" auf "C" optische beobachtbare Phänomene, welche einen VRAM Mangel nahe legen.

Wenn wir einen Fall verifiziert haben, können wir dann wiederum die Tools rauskrammen und schauen, ob die sich das Problem an den Zahlen ablesen lässt.


Ich bitte um Vorschläge von Spielen, welche folgende Eigenschaften haben:
- Frisst VRAM wie blöde
- Frisst im Vergleich dazu weniger GPU-Power, sodass der VRAM Mangel offensichtlich ist

Bonuseigenschaften:
- günstig/kostenlos
- integrierter Benchmark
- keine/wenig Anticheat/Antitamper Maßnahmen
- VRAM Nutzung stark abhängig von Settings (-> Gegentest ohne VRAM Mangel gut möglich)
- VRAM Mangel lässt sich in 1920x1080 windowed reproduzieren (damit sollten es alle nachstellen können)


Raff hat genau das gemacht, mit CAPFRMAMEX in

Horizon Zero Dawn
Minecraft RTX (16 RT-Darstellungskacheln (Chunks))
Wolfenstein Youngblood RTX (Maximales Textur-Pool-Budget plus Raytracing)


in allen Spielen ist die Performance auf 2080S/3070 8 GiB schlechter als auf einer 2080 Ti 11 GiB.
https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/8-GB-vs-16-GB-Benchmarks-1360672/2/


Spiele, die dynamisch Texturdetails reduzieren by blaidd

Ghost Recon Wildlands/Breakpoint (Raff agrees (https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/8-GB-vs-16-GB-Benchmarks-1360672/galerie/3450270/))
Assassin's Creed
Horizon Zero Dawn (dargo, Ex3cut3r & Raff disagree (https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/8-GB-vs-16-GB-Benchmarks-1360672/galerie/3450271/?fullsize), evtl abhaengig von Settings?)
Serious Sam 4 (da wird's sogar in der Dev-Konsole angezeigt, wenn die Texturen reduziert werden)
RDR2
COD
sämtliche UE4-Titel



Weitere Vorschlaege
CoD Warzone (Szene aus Gulag), HisN/Hakim

dargo
2020-10-28, 10:08:05
Horizon Zero Dawn reduziert keine Texturdetails dynamisch. Zumindest nicht auf einer Radeon 5700XT. Würde das passieren gäbe es keine Spikes in den Frametimes ab medium Texturen. Und nach den Erfahrungen von Exe wird da bei Turing auch nichts dynamisch reduziert.

Sweepi
2020-10-28, 10:48:24
Danke, habs im Beitrag geandert.

Ex3cut3r
2020-10-28, 21:25:47
Control mit Full RT ohne DLSS reduziert noch gerne die Texturen, und zwar so drastisch das du es sofort siehst. (3440x1440- 8GB VRAM Karte 2080)

blaidd
2020-10-28, 21:37:47
Naja, irgendwann reduziert HZD die Details definitiv (https://www.instagram.com/p/CDgjA0klFtu/?utm_source=ig_web_copy_link) (GTX 970@4K) ;)

dargo
2020-10-28, 21:54:04
Das ist keine dynamische Reduzierung sondern kompletter Ausfall. :D

aufkrawall
2020-10-28, 22:04:16
Mit 6GB gibts das in 4k auch. Gut, nicht mehr ganz relevant.

Hm, mir fehlt in den letzten Stunden etwas die Selbstbeweihräucherung der Nvidia-Fraktion. Ich übernehm das mal:
Mal sehen, ob sich nach HZD und Avengers auch Watch Dogs direkt in die Reihe der 10 GB- Fails einsortiert. Ich gehe schon mal davon aus...
War ja klar. :cool:
Ist jetzt die Frage, ob das nicht schon ohne RT in 1440p nach einiger Zeit eklig laufen kann und ob der in Aussicht gestellte Performance-Patch hierbei irgendetwas ändern wird.

HisN
2020-10-28, 23:22:39
Weitere Vorschlaege
CoD Warzone (Szene aus Gulag), HisN/Hakim


COD nutzt das VRAM als Cache. Ich weiß (aus Mangel an Karten mit wenig VRAM) nicht ob die Menge Performance-Relevant ist. Mir ist aber glaube ich ein Spruch von Wolfgang (CB) im Kopf, das er auf 8GB Karten keine Verluste hatte.
Da das LOD vom Game unglaublich aggresiv ist und die Bäume z.b. sowieso nur aus zig dutzend verschiedenen Texturen bestehen ploppt es da sowieso nur rum wie verrückt, auch mit genug Speicher.

aufkrawall
2020-10-28, 23:32:44
CoD Warzone läuft auch mit 6GB noch gut (außer natürlich auf den Pascal-Steinzeitkarten, da bringens auch 8 nicht :D ). Tatsächlich ein Titel, bei dem die allozierten Mengen an VRAM und RAM wenig bis nichts über die Performance aussagen.

Hakim
2020-10-28, 23:44:22
CoD Warzone läuft auch mit 6GB noch gut (außer natürlich auf den Pascal-Steinzeitkarten, da bringens auch 8 nicht :D ). Tatsächlich ein Titel, bei dem die allozierten Mengen an VRAM und RAM wenig bis nichts über die Performance aussagen.

Aber ist dennoch außergewöhnlich das es sich bei 24GB Vram mal so über 21GB gönnt :)

HisN wie ist es eigentlich wenn du mit der Sniper (zweifachem Zoom Visier) irgendwohin rein zoomst? Texturstream selbst bei 21GB Verbrauch noch da?

HisN
2020-10-29, 00:01:19
FF15
Hat zwar nen integrierten Bench, aber der bringt (meiner Meinung nach) nicht viel Punkte.
Was Punkte bringt ist, sich in das Auto zu setzen, und von A nach B über die ganze Karte zu fahren, da wird das VRAM RICHTIG vollgepumpt. Und DAS kann man Automatisieren mit dem Autopilot des Wagens.

12GB Karte
https://abload.de/thumb/ffxv_s_2018_03_08_21_tbs4l.jpg (https://abload.de/image.php?img=ffxv_s_2018_03_08_21_tbs4l.jpg)

24GB Karte
https://abload.de/thumb/ffxv_s_2019_03_11_00_h2kb5.jpg (https://abload.de/image.php?img=ffxv_s_2019_03_11_00_h2kb5.jpg)

Vergleich System/Game mit dem neuen AB, leider an einer Stelle weit weg vom Start.
https://abload.de/thumb/ffxv_s_2020_09_23_09_26j7f.jpg (https://abload.de/image.php?img=ffxv_s_2020_09_23_09_26j7f.jpg)

Aber ist dennoch außergewöhnlich das es sich bei 24GB vorhaltendem Vram mal so über 21GB gönnt :)

HisN wie ist es eigentlich wenn du mit der Sniper (zweifachem Zoom Visier) irgendwohin rein zoomst? Texturstream selbst bei 21GB Verbrauch noch da?

Check ich. Is nicht mein Spiel. Aber wenns schon umsonst is^^

Gouvernator
2020-11-12, 16:04:05
Ich zocke gerade COD WW2 in 8K. Und VRAM Verbrauch liegt öfters bei 18,5Gb. Am Anfang dachte ich die 24Gb VRAM wären unnütz und Overkill aber jetzt fühlen die sich an wie ein guter und notwendiger Polster. Wer konnte es bis jetzt auch wirklich wissen? Ohne breite 8K Erfahrung keiner. In 8K sind alle 16Gb Karten genau so Speicherkrüppel wie 10Gb in 4K.

HisN
2020-11-12, 16:05:53
Siehe #102
Das Game belegt das auch in FHD. Das hat nicht unbedingt was mit 8k zu tun.
Aber die breite 8GB-Userschaft stellt einfach in den Config-Files 0.55% VRAM-Usage ein und erzählt weiterhin "8GB reichen doch", und alle anderen sagen "Belegt zwar so viel Speicher, nutzt es aber nicht". Dann frag ich mich halt, warum die 8GB-User die Config umstellen müssen, wenn es reicht.

Naja. Die Wahrheit wird irgendwo in der Mitte liegen.

aufkrawall
2020-11-12, 16:22:41
Und dann läuft CW doch wieder problemlos mit 8GB in 1440p...

Gouvernator
2020-11-13, 14:32:58
Habe nun auch COD Black Ops 4 installiert. In 8K über 23Gb in ausgewählten Maps auch 24250Gb. Mit ca. 40FPS auch noch absolut spielbar mit Controller.

Lawmachine79
2020-11-13, 15:03:34
Mit 6GB gibts das in 4k auch. Gut, nicht mehr ganz relevant.

Hm, mir fehlt in den letzten Stunden etwas die Selbstbeweihräucherung der Nvidia-Fraktion. Ich übernehm das mal:

War ja klar. :cool:
Ist jetzt die Frage, ob das nicht schon ohne RT in 1440p nach einiger Zeit eklig laufen kann und ob der in Aussicht gestellte Performance-Patch hierbei irgendetwas ändern wird.
Ich schere mich als Teil der NV-Fraktion um sowas gar nicht, ich habe 24GB VRAM.

Gouvernator
2020-11-13, 22:52:50
AC: Odyssee auch so ein Game mit 30FPS in 8K bei 23Gb.

Troyan
2020-11-14, 02:34:19
RTSS zeigt in CoD Cold War 16GB+ dedicated in 4K mit Raytracing an. Da weiß man wenigsten, wo die ganzen 121GB an Spiel hingehen. :rolleyes:

aufkrawall
2020-12-06, 13:09:05
RT-Schatten erhöhen für SotTR in 4k mal eben den Verbrauch um 2GB, kratzt nach kurzer Spielzeit schon an den 11GB. :freak:
HZD macht auch weiterhin 11GB voll, Far Cry ND nach etwas Spielzeit ebenso.
Wer glaubt, dass das mit weniger VRAM komplett ohne Nebenwirkungen bleibt, der wird auch an den Weihnachtsmann glauben. :freak:

SKYNET
2020-12-06, 15:10:17
RT-Schatten erhöhen für SotTR in 4k mal eben den Verbrauch um 2GB, kratzt nach kurzer Spielzeit schon an den 11GB. :freak:
HZD macht auch weiterhin 11GB voll, Far Cry ND nach etwas Spielzeit ebenso.
Wer glaubt, dass das mit weniger VRAM komplett ohne Nebenwirkungen bleibt, der wird auch an den Weihnachtsmann glauben. :freak:

ach komm jetzt, die 8GB der 3060Ti und 3070 langen doch vollkommen bei deren rohleistung :ulol: und die 10GB der 3080 auch... rohleistung ner 4k karte, aber weniger speicherausbau als von ner <400€ RDNA2 karte ;D

Palpatin
2020-12-15, 23:49:32
Spiele zur Zeit Greedfall in 4k auf einer 3070. Das Spiel läuft am Anfang Butterweich, dann kommen nach 15-30Minuten vereinzelt kleinere Ruckler die aber nicht sonderlich stören. Irgendwann nach einer guten Stunde wird es dann absolut unspielbar und man muss es neu starten. Afterburner zeigt an das VRAM voll belegt ist.

MasterElwood
2021-01-17, 10:08:04
Half Life Alyx
Alles auf max
Reverb G2 auf SS100% - also (3184 x 3096) x2
RTX3080

Von den 10GB immer so um die 1GB-1.5GB frei.

Rampage 2
2021-02-03, 21:41:47
RT-Schatten erhöhen für SotTR in 4k mal eben den Verbrauch um 2GB, kratzt nach kurzer Spielzeit schon an den 11GB. :freak:
HZD macht auch weiterhin 11GB voll, Far Cry ND nach etwas Spielzeit ebenso.

Auch in 1440p? :eek:

R2

aufkrawall
2021-02-03, 21:47:01
Eher nicht. Das schlechte VRAM-Management von FC ND dürfte der Nvidia DX11-Treiber zudem recht gut verwalten können.

Bei Watch Dogs Legion schienen die 8GB meiner 5700 XT aber nicht mal für das HD-Texturenpack ohne Einbrüche zu reichen. Ob da die 10GB der 3080 in 1440p mit RT nach längerer Spielzeit wirklich reichen, damit es genau so gut wie mit mehr VRAM läuft, halte ich für unsicher.

Rampage 2
2021-02-03, 21:53:01
Das lag ja an der Megatexture-Technik. Imho die größte Schnapsidee, die Carmack je hatte.

MfG
Rooter

Im Gegenteil, die Idee war/ist genial. Am Anfang schlecht umgesetzt, aber mit idtech6 (RAGE war noch idtech5-Engine) wurde es weiter verbessert bzw. das Aufploppen vermindert. Leider ist idSoftware mit idtech7 (Doom Eternal) davon abgekehrt - aber Jetzt, wo die PS5/XSX über superschnelle SSDs verfügen, bereuen sie diese Entscheidung (Abkehr von MegaTexture) vielleicht wieder... vermutlich wurde diese Entscheidung getroffen, bevor die HW-Daten der neuen Konsolen bekannt wurden.

R2

Rampage 2
2021-02-04, 20:17:09
Welche der folgenden Titel kann man (oder kann man nicht) mit einer 8GB-Karte in 1440p @ max. Settings + RT Ultra und/oder Texture Pack völlig (oder weitgehend;)) einwandfrei spielen?

- Ghost Recon: Breakpoint
- TD2
- FC5
- FC:ND
- Wolfenstein: The New Colossus
- Wolfenstein: Youngblood
- Doom Eternal
- CoD:MW (2019)
- CoD: Warzone
- CoD:BO - Cold War

Diese befinden sich nämlich auf meiner Spiele-Liste - will ich also auf absehbare Zeit spielen...

R2

Ex3cut3r
2021-02-04, 20:21:15
Kannst du alle ohne große Probleme zocken.

sapito
2021-02-04, 20:24:25
Welche der folgenden Titel kann man (oder kann man nicht) mit einer 8GB-Karte in 1440p @ max. Settings + RT Ultra und/oder Texture Pack völlig (oder weitgehend;)) einwandfrei spielen?

- Ghost Recon: Breakpoint
- TD2
- FC5
- FC:ND
- Wolfenstein: The New Colossus
- Wolfenstein: Youngblood
- Doom Eternal
- CoD:MW (2019)
- CoD: Warzone
- CoD:BO - Cold War

Diese befinden sich nämlich auf meiner Spiele-Liste - will ich also auf absehbare Zeit spielen...

R2

keines :freak:

Rampage 2
2021-02-04, 20:48:55
keines :freak:

Kein Einziges? :eek: Auch nicht mit Abstrichen? (gelegentliche Nachladeruckler, FPS-Spikes)

Was ist mit GR:BP, TD2, Doom Eternal, W:TNC und W:YB ? Wenigstens die...:frown:

R2

sapito
2021-02-04, 20:50:36
Kein Einziges? :eek: Auch nicht mit Abstrichen? (gelegentliche Nachladeruckler, FPS-Spikes)

Was ist mit GR:BP, TD2, Doom Eternal, W:TNC und W:YB ? Wenigstens die...:frown:

R2

mit was werden denn die 8GiB angetrieben?

Rampage 2
2021-02-04, 20:53:04
Ich schiele derzeit auf eine gebrauchte 2080 Super. (habe im Moment eine RTX 2070 verbaut, also ebenfalls 8GB Grafikspeicher)

R2

sapito
2021-02-04, 21:12:35
Ich schiele derzeit auf eine gebrauchte 2080 Super. (habe im Moment eine RTX 2070 verbaut, also ebenfalls 8GB Grafikspeicher)

R2

warum das Side grade? habe ne 2080ti und die ist auf dem Niveau einer 3070 ohne den VRAM vergleich.

generell muss man sagen > 8 GiB > Speicher Krüppel > nix future :freak:

schreiber
2021-02-04, 21:35:19
Bei der aktuellen Verfügbarkeit und dem Preisniveau sage ich den 8GB-Karten einen zweiten Frühling voraus. Die 2060 ist ja neu aufgelegt worden von nvidia.

Rampage 2
2021-02-04, 21:36:58
warum das Side grade?

Weil ich seit einem halben Jahr glücklicher Besitzer eines 1440p-144Hz-Monitors bin (Umstieg von einem 1080p-Monitor) und die über 75% gestiegene Pixelmenge ja auch entsprechend befeuert werden muss;) - auch um ältere Spiele in 144Hz zocken zu können...

Abgesehen davon, will ich mir diese GPU schon seit Langem zulegen - zum Kauf-Zeitpunkt meiner 2070 (Anfang 2019) wusste ich ja nicht, dass es diese GPU überhaupt geben würde; sie wurde ja erst im Mai/Juni 2019 von Nvidia angekündigt...

Und es ist mitnichten ein "Sidegrade" - ich darf mich auf 40% (35-45%) Performance-Plus freuen:)

Das einzige Problem ist der zu kleine Grafikspeicher - mit der reinen Leistung könnte ich mich eine Weile zufriedengeben:)


habe ne 2080ti und die ist auf dem Niveau einer 3070 ohne den VRAM vergleich.

Eine 2080 Ti kaufe ich nicht, weil diese nur 11GB VRAM hat - entweder ganz oder gar nicht bzw. nur 2080S. Wenn's höherpreisig ist, dann nicht unter 12GB Grafikspeicher:P


generell muss man sagen > 8 GiB > Speicher Krüppel > nix future :freak:

Das ist mir klar, dass die Karte nichts für die Zukunft ist - aber die Spiele, die ich oben aufgelistet habe, sind bereits erschienen; Einige davon schon vor mehreren Jahren;)

R2

gedi
2021-02-04, 21:42:17
ach komm jetzt, die 8GB der 3060Ti und 3070 langen doch vollkommen bei deren rohleistung :ulol:

Sehe ich auch so - ist ja nix anderes als nen besserer 2D-Beschleuniger ;D

vinacis_vivids
2021-02-05, 07:49:14
Man muss sich das mal auf der Zunge zergehen lassen: die R9 390 von AMD kam 2015 raus mit 8GB raus! 2015, das sind 6 Jahre her und was ist heute?
Nvidia komprimiert und komprimiert und komprimiert auf Kosten der BQ um Speicher zu sparen und verkauft immer noch >99% der Karten mit bis zu 8GB mit super duper wisch wasch tricks. :freak:

Bei AMD haben alle rumgeschrien als die FuryX mit 4GB rauskam und AMD musste ein tiefes Tal durchgehen. Heute wird Nvidia für wenig Speicher und Speicherkrüppeltechnik auch noch belohnt. Viele Engines sind über Jahre hinweg grundlegend gar nicht verbessert worden, sondern haben mit Komprimierungsmethoden sich selbst in eine Falle programmiert.
Einige Teile der Gamertechnikwelt ist richtig dumm, hirnlos und hat Nvidia jahrelang überteuert Geld in den Rachen geworfen und Geld bekommen um für eine schlechte Technik zu optimieren.

Leute schauen sich die Leute RTX3090 Balkenlänge an, geilen sich auf und kaufen sich dann ne RTX2060 und denken, die haben den richtigen Griff gemacht ;D

Ich bin auch ein bisschen traurig, dass es nur noch zwei echte Hersteller für GPU-Chips gibt (Intel ausgenommen).

Wären heute PowerVR, 3dfx, Matrox, XGI usw. noch hier, wäre Nvidia weg vom Fenster oder müsste sich viel mehr anstrengen und auch mal richtig richtig richtig viel Hardware fürs Geld bieten. So aber wird diese überbewertete Aktie weiter mit Geld befeuert und diese falschen Jubelstürme weiter gefeiert :crazy:

Dieses Jahr gibs bestimmt noch camper, die vor einem Laden mehrere Tage zelten um eine RTX3060 mit 12GB zu bekommen :freak: :lol:

Selbst hier im 3dcenter, dem Forum für Kenner und Experten, wovon ich denke, dass es fähige Leute gibt, gibs diese Hardcore Nvidia-Jünger die die ganze Zeit Krüppeltechnik verteidigen.

Ein Bild auf 720p abspeichern und dann auf 8K hochrechnen und gleichzeitig in den Himmel loben :freak: , guter Witz. Dann diese 70% performace hits für ein paar RT-Strahlen auf einer 35 Tflop/s GPU. Das ist ein Witz wie Hairworks und Gameworks-Crap :crazy:

Was ist daran so schwer mal ne RTX3060 mit 12 GB, ne RTX 3070 mit 16 GB und ne RTX3080 mit 20GB auszustatten damit wir auch mal voran kommen? Gar nichts, Nvidia ist krass geldgierig, tricks immer wieder rum, ist unehrlich und verarscht große Teile der Technikwelt und viele lassen sich das auch noch gefallen.

2021 fragen noch Leute, ob sie ne 8GB Karte ein haufen Geld hinlegen sollen?
Warum stellen die sich nicht selbst die Frage wohin sie ihr Geld über die Jahre geworfen haben? (GTX 970 :freak:)
;D;D;D;D;D;D;D

sven2.0
2021-02-05, 07:58:19
Du brauchst Hilfe

=Floi=
2021-02-05, 08:01:39
hör dein bashing auf.

dildo4u
2021-02-05, 08:28:16
Man muss sich das mal auf der Zunge zergehen lassen: die R9 390 von AMD kam 2015 raus mit 8GB raus! 2015, das sind 6 Jahre her und was ist heute?
Nvidia komprimiert und komprimiert und komprimiert auf Kosten der BQ um Speicher zu sparen und verkauft immer noch >99% der Karten mit bis zu 8GB mit super duper wisch wasch tricks. :freak:

Bei AMD haben alle rumgeschrien als die FuryX mit 4GB rauskam und AMD musste ein tiefes Tal durchgehen. Heute wird Nvidia für wenig Speicher und Speicherkrüppeltechnik auch noch belohnt. Viele Engines sind über Jahre hinweg grundlegend gar nicht verbessert worden, sondern haben mit Komprimierungsmethoden sich selbst in eine Falle programmiert.
Einige Teile der Gamertechnikwelt ist richtig dumm, hirnlos und hat Nvidia jahrelang überteuert Geld in den Rachen geworfen und Geld bekommen um für eine schlechte Technik zu optimieren.

Leute schauen sich die Leute RTX3090 Balkenlänge an, geilen sich auf und kaufen sich dann ne RTX2060 und denken, die haben den richtigen Griff gemacht ;D

Ich bin auch ein bisschen traurig, dass es nur noch zwei echte Hersteller für GPU-Chips gibt (Intel ausgenommen).

Wären heute PowerVR, 3dfx, Matrox, XGI usw. noch hier, wäre Nvidia weg vom Fenster oder müsste sich viel mehr anstrengen und auch mal richtig richtig richtig viel Hardware fürs Geld bieten. So aber wird diese überbewertete Aktie weiter mit Geld befeuert und diese falschen Jubelstürme weiter gefeiert :crazy:

Dieses Jahr gibs bestimmt noch camper, die vor einem Laden mehrere Tage zelten um eine RTX3060 mit 12GB zu bekommen :freak: :lol:

Selbst hier im 3dcenter, dem Forum für Kenner und Experten, wovon ich denke, dass es fähige Leute gibt, gibs diese Hardcore Nvidia-Jünger die die ganze Zeit Krüppeltechnik verteidigen.

Ein Bild auf 720p abspeichern und dann auf 8K hochrechnen und gleichzeitig in den Himmel loben :freak: , guter Witz. Dann diese 70% performace hits für ein paar RT-Strahlen auf einer 35 Tflop/s GPU. Das ist ein Witz wie Hairworks und Gameworks-Crap :crazy:

Was ist daran so schwer mal ne RTX3060 mit 12 GB, ne RTX 3070 mit 16 GB und ne RTX3080 mit 20GB auszustatten damit wir auch mal voran kommen? Gar nichts, Nvidia ist krass geldgierig, tricks immer wieder rum, ist unehrlich und verarscht große Teile der Technikwelt und viele lassen sich das auch noch gefallen.

2021 fragen noch Leute, ob sie ne 8GB Karte ein haufen Geld hinlegen sollen?
Warum stellen die sich nicht selbst die Frage wohin sie ihr Geld über die Jahre geworfen haben? (GTX 970 :freak:)
;D;D;D;D;D;D;D
NV ist der einzige der in den nästen Monaten liefert wo es zählt, die Karten ab 500€ haben keine Relevanz für das was Spieleentwickler als Grundlage nehmen, die 3060 ist die einzige GPU die auch nur die Chance hat endlich die 1060 nach 5 Jahren zu ersetzen.

Daredevil
2021-02-08, 20:19:30
Was hatn Medium eigentlich für ein Problem?
Ist bestimmt wieder nur "reserviert", aber selbst wenn, mehr als 20GB habe ich noch nicht gesehen.
4K Max Settings, DLSS-Q und am Ende werden mir 21119MB im Afterburner OSD angezeigt. :freak:

von Richthofen
2021-02-08, 20:34:51
Hier wurden in WQHD und RT off nicht mehr als 6,4GB belegt - ansonsten fällt die Performance auf einer 1080 Ti auf ca. 1/10tel (62fps->7fps bzw. 14fps). Diese angeblich hohe VRAM-Last, die in Tests zutage getreten ist, kann ich daher nicht nachvollziehen.

vinacis_vivids
2021-02-15, 12:16:44
Guckt euch mal das Video an, Hier wird die RX6900XT 16GB mit der RTX3080 8GB verglichen
ab min 5:00 geht Horizon Zero Dawn los.

wl6mS2_I2Nw

Nvidia RTX3080 komprimiert hier ganz klar und ziemlich heftig die Texturen, die an Schärfe, Details und Farben verlieren.
Da der (verlustbehaftete) Kompressionsalgorithmus im Nvidia-Treiber steckt, gilt das für alle Nvidia Karten hardwareseitig. Und gerade bei dem optisch mächtigen HZD auch besonders auffällig.

Bei meiner ebenfalls mit 8GB ausgestatteten RX5700XT & RX480 sind die Texturen bei voller schärfe bei HZD@Ultimate@4K.

8GB bei AMD sind also echte 8GB während bei Nvidia 8GB mit Vorsicht zu genießen sind.

sapito
2021-02-15, 12:28:37
Guckt euch mal das Video an, Hier wird die RX6900XT 16GB mit der RTX3080 8GB verglichen
ab min 5:00 geht Horizon Zero Dawn los.

wl6mS2_I2Nw?t=300

Nvidia RTX3080 komprimiert hier ganz klar und ziemlich heftig die Texturen, die an Schärfe, Details und Farben verlieren.
Da der (verlustbehaftete) Kompressionsalgorithmus im Nvidia-Treiber steckt, gilt das für alle Nvidia Karten hardwareseitig. Und gerade bei dem optisch mächtigen HZD auch besonders auffällig.

Bei meiner ebenfalls mit 8GB ausgestatteten RX5700XT & RX480 sind die Texturen bei voller schärfe bei HZD@Ultimate@4K.

8GB bei AMD sind also echte 8GB während bei Nvidia 8GB mit Vorsicht zu genießen sind.

edit

wl6mS2_I2Nw

Dampf
2021-02-15, 12:37:22
Guckt euch mal das Video an, Hier wird die RX6900XT 16GB mit der RTX3080 8GB verglichen
ab min 5:00 geht Horizon Zero Dawn los.

wl6mS2_I2Nw?t=300

Nvidia RTX3080 komprimiert hier ganz klar und ziemlich heftig die Texturen, die an Schärfe, Details und Farben verlieren.
Da der (verlustbehaftete) Kompressionsalgorithmus im Nvidia-Treiber steckt, gilt das für alle Nvidia Karten hardwareseitig. Und gerade bei dem optisch mächtigen HZD auch besonders auffällig.

Bei meiner ebenfalls mit 8GB ausgestatteten RX5700XT & RX480 sind die Texturen bei voller schärfe bei HZD@Ultimate@4K.

8GB bei AMD sind also echte 8GB während bei Nvidia 8GB mit Vorsicht zu genießen sind.

Blödsinn. Es ist eher wahrscheinlicher, dass die Capturing-Software auf der Nvidia Seite anders oder falsch eingestellt war. Oder Horizon hat auf Nvidia Hardware einfach ein Streaming-Problem.

Eher sind solche YouTUbe Videos mit Vorsicht zu genießen.

Daredevil
2021-02-15, 12:38:53
Ganz besonders gut finde ich die Ruckler der 6900xt während des Horizon Benches. ^^
Aber ja, die 3080 ist keine vollumfängliche 4K Karte aufgrund des Speichers, wie überraschend.

y33H@
2021-02-15, 12:42:03
Da der (verlustbehaftete) Kompressionsalgorithmus im Nvidia-Treiber steckt, gilt das für alle Nvidia Karten hardwareseitig. Welcher verlustbehaftete Kompressionsalgorithmus bitte? DCC ist lossless bei AMD und Nvidia ...

-/\-CruNcher-/\-
2021-02-15, 12:47:39
Ganz besonders gut finde ich die Ruckler der 6900xt während des Horizon Benches. ^^
Aber ja, die 3080 ist keine vollumfängliche 4K Karte aufgrund des Speichers, wie überraschend.

Diese Videos sind nichtsaussagend

Eher sind solche YouTUbe Videos mit Vorsicht zu genießen.

Zumal du jetzt mehrere komplexe Workflows anfängst zu vergleichen und nicht mehr nur das 3D Rendering selbst bei den meisten Youtubern ;)

@y33h@
Er spricht wohl eher die HDR differenz an als wie die SDR

Was ist daran so schwer mal ne RTX3060 mit 12 GB, ne RTX 3070 mit 16 GB und ne RTX3080 mit 20GB auszustatten damit wir auch mal voran kommen? Gar nichts, Nvidia ist krass geldgierig, tricks immer wieder rum, ist unehrlich und verarscht große Teile der Technikwelt und viele lassen sich das auch noch gefallen.

Nvidia versucht Probleme etwas effizienter Software/Hardware zu lösen und nicht voll mit dem Hardware Hammer draufzuschlagen und den Preis balanciert zu halten.

Das nennt man eine gute Symbiose vor allem eben bei der Gesammt Balance auf alle Workflows gesehen.

Man ist teils damit immer am Limit korrekt.

Matrix316
2021-02-15, 13:09:41
Kann es sein, dass beim 6900XT Test eine neuere Version von HZD verwendet wurde?

Das Video hier ist zwar generell unscharf ;) aber ich meine man sieht mehr Details mit dem letzten Patch.

AmBZJhj-ofc

Z.B. bei 1:14 das blaue Dach und unten der Boden.

Oder hier:

jQ3ImGVcG0w

Bei 0:54 siehts man gut, dass die neuere Version schärfer als eine alte ist. Oder bei 1:04 das blaue Dach. Oder 1:08 unten die Steine am Rand...=)

Matrix316
2021-02-15, 13:25:57
Man muss sich das mal auf der Zunge zergehen lassen: die R9 390 von AMD kam 2015 raus mit 8GB raus! 2015, das sind 6 Jahre her und was ist heute? [....]

Heute reichen 8 GB immer noch und eine 390 ist unspielbar langsam in höheren Auflösungen. ;)

y33H@
2021-02-15, 13:46:32
Bei 0:54 siehts man gut, dass die neuere Version schärfer als eine alte ist. Oder bei 1:04 das blaue Dach. Oder 1:08 unten die Steine am Rand ...Mit der v1.07 wurde das fehlerhafte AF gefixt, sprich Texturen sehen klar besser aus.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12485709&postcount=1726

Hakim
2021-02-15, 15:38:55
Also wenn man das Video und den HZD Abschnitt als Vergleichs Basis nimmt, kommt mir eher die Frage auf warum es beim 6900xt ständig mikroruckler gibt obwohl stabile FPS? Das fällt super auffällig als erstes auf. Aber ja, solche Vergleiche bezüglich Bildqualität auf YT sind schon wie geschrieben net das Beste.

aufkrawall
2021-02-15, 15:42:29
Ist jedenfalls nicht normal, das läuft auf Big Navi in 4k normalerweise einwandfrei.

vinacis_vivids
2021-02-16, 12:26:50
Crysis Remastered 2.0 inkl. Ray-Tracing
RTX3080 mit 10GB steigt aus:
https://www.pcgameshardware.de/Crysis-Remastered-Spiel-72909/Specials/Update-Patch-20-Benchmark-Test-Review-1358327/2/
https://abload.de/img/crysis-remastered_maxvokvm.png

-/\-CruNcher-/\-
2021-02-16, 12:45:14
Also wenn man das Video und den HZD Abschnitt als Vergleichs Basis nimmt, kommt mir eher die Frage auf warum es beim 6900xt ständig mikroruckler gibt obwohl stabile FPS? Das fällt super auffällig als erstes auf. Aber ja, solche Vergleiche bezüglich Bildqualität auf YT sind schon wie geschrieben net das Beste.

Vor allem die Frametimes unter den meisten Youtuber Review Bedingungen als Datengrundlage zu vergleichen ist irsinn ausser ein paar ausgewählten vielleicht und selbst da nur mit allerhöchster vorsicht.

Lurtz
2021-02-18, 13:45:08
Raytracing benötigt nicht nur eine sehr hohe Rechenleistung, sondern auch viel Grafikkarten-Speicher. Gar so viel, dass selbst 8 GB nicht immer ausreichend sind. Während in Control die 8 GB auch für 3.840 × 2.160 ausreichend sind, bricht die GeForce RTX 3070 in Watch Dogs: Legion in Ultra HD völlig gegenüber der GeForce RTX 3080 weg. Praktisch spielt dies keine Rolle, da beide Grafikkarten das Szenario nicht stemmen können, doch passiert das bei reiner Rasterizer-Grafik des Spiels nicht
In CoD: Cold War reichen 8 GB auch in einem praktisch anwendbarem Szenario nicht mehr. Bereits in Full HD sind 8 GB zu wenig. So ist die GeForce RTX 3080 mit 10 GB bei den Durchschnitts-FPS zwar nur 28 Prozent schneller als die GeForce RTX 3070 mit 8 GB, bei den Perzentil-FPS sind es aber satte 89 Prozent. Mit der 8-GB-Grafikkarte hakt das Spiel immer mal wieder spürbar. Selbst die 10 GB der GeForce RTX 3080 werden in Ultra HD knapp. Das Spiel läuft zwar noch problemlos, doch liegt die GeForce RTX 3090 mit plus 17 Prozent ungewöhnlich weit vor dem kleineren Modell.

In Cyberpunk 2077 reichen die 8 GB für Raytracing ebenso nicht aus. Bereits in Full HD zeigen sich mit der GeForce RTX 3070 immer mal wieder auftretende Ruckler, die es so mit der GeForce RTX 3080 nicht gibt.
https://www.computerbase.de/2021-02/amd-radeon-nvidia-geforce-benchmark-test-2021/

Und das sind alles noch Crossgen-Titel, keine echte Next-Gen :popcorn:

Na, wer möchte nochmal das Narrativ aufgreifen, dass 8 bzw. 10 GB völlig genug sind und das ja eh keine Ultra-HD-Karten sind? :D

Erwähnenswert ist zudem der VRAM-Hunger, der mit den neuen Spielen teils deutlich angestiegen ist. Während im alten Parcours 6 GB ausreichend gewesen sind und selbst 4 GB noch ordentlich liefen, geraten nun selbst 6-GB-Karten immer mal wieder in starke Bedrängnis und 4-GB-Modelle fallen deutlich zurück. Wer mit maximalen Details spielen möchte, sollte daher gleich zu einer Grafikkarte mit mindestens 8 GB greifen. In Raytracing-Titeln reicht selbst das des Öfteren nicht mehr aus, bedenkenlos sind erst 10 GB. Und die dürften ebenfalls nicht mehr lange für alles genügen.

dildo4u
2021-02-18, 14:05:43
Beide Games können doch DLSS 2.0 macht wenig Sinn das nativ laufen zu lassen.
Mit DLSS hat man entweder bessere fps und weniger Input Lag oder zusätzliche Luft für RTX.

Lurtz
2021-02-18, 20:25:51
Beide Games können doch DLSS 2.0 macht wenig Sinn das nativ laufen zu lassen.
Mit DLSS hat man entweder bessere fps und weniger Input Lag oder zusätzliche Luft für RTX.
DLSS ändert zumindest in Cyberpunk mit RT auch nichts am VRAM-Problem.

aufkrawall
2021-02-18, 20:49:43
In WD Legion hatten hier auf Navi nicht mal die 8GB fürs HD-Pack ohne RT gereicht. Das Spiel sieht zwar mit dem Pack nicht gerade wie ausgewechselt aus, aber viele Texturen auf Dächern etc. wirken zumindest ohne arg auf Sparsamkeit getrimmt (bzw. völlige Ausfälle). Ohne das Pack sind nur 6,5Gb belegt, mit dann ständig 8 + Einbrüche mit niedrigem GPU-Stromverbrauch.
Ich wills nicht überdramatisieren, aber mehr wär schon besser.

gnomi
2021-02-20, 14:25:29
Die 3070 finde ich auch bisschen knapp ausgestattet.
1080 & 2080 hatten bereits 8GB VRAM. (1070/2070 auch)
Bei ersterer war das sehr großzügig. Konnte da bis auf Deus Ex MD kaum was finden.
Bei 2080 kommt man bis UWQHD Dank DLSS imho gut klar.
Regler bisschen bedienen ist allerdings angesagt.
Ich finde es okay, da eine 2080 noch unter 600 Euro dann im Abverkauf und mit mehr RT Support 2019 weg ging.
COD CW und Watch Dogs Legiob kann eine brandneue Series X auch nicht besser darstellen, wenn die Optionen vergleichbar eingestellt werden.
2080 TI ist mit 11GB VRAM besser als 3070.
Ich würde nichts sagen, wenn die UVP Preise sich bei der 3070 bewahrheitet hätten.
So für mich aber nicht ganz stimmig.

crux2005
2021-02-20, 14:34:40
Die 3070 finde ich auch bisschen knapp ausgestattet.
1080 & 2080 hatten bereits 8GB VRAM. (1070/2070 auch)
Bei ersterer war das sehr großzügig. Konnte da bis auf Deus Ex MD kaum was finden.
Bei 2080 kommt man bis UWQHD Dank DLSS imho gut klar.
Regler bisschen bedienen ist allerdings angesagt.
Ich finde es okay, da eine 2080 noch unter 600 Euro dann im Abverkauf und mit mehr RT Support 2019 weg ging.
COD CW und Watch Dogs Legiob kann eine brandneue Series X auch nicht besser darstellen, wenn die Optionen vergleichbar eingestellt werden.
2080 TI ist mit 11GB VRAM besser als 3070.
Ich würde nichts sagen, wenn die UVP Preise sich bei der 3070 bewahrheitet hätten.
So für mich aber nicht ganz stimmig.

Wobei das in Deus Ex: MD nicht am VRAM lag. Habe es gegengetestet. Auch mit 6 GiB VRAM belegung gab es in gewissen Bereichen immer Ruckler. Einfach weil das Spiel im Hintergrund was geladen hat.

Die 2080 wird auch bei mir noch halten müssen und dank DLSS besser als gedacht.

Welche der folgenden Titel kann man (oder kann man nicht) mit einer 8GB-Karte in 1440p @ max. Settings + RT Ultra und/oder Texture Pack völlig (oder weitgehend;)) einwandfrei spielen?

- Ghost Recon: Breakpoint
- TD2
- FC5
- FC:ND
- Wolfenstein: The New Colossus
- Wolfenstein: Youngblood
- Doom Eternal
- CoD:MW (2019)
- CoD: Warzone
- CoD:BO - Cold War

R2

Alle von dir genanten Spiele würde gerne mehr als 8 GiB VRAM sehen. Wirklich "unspielbar" ist aber keines.

In Breakpoint wirst du z.B. nicht genug Leistung haben in nativ 1440p. Mit dem internen upsampling sollten 8GiB aber reichen...

DLSS ändert zumindest in Cyberpunk mit RT auch nichts am VRAM-Problem.

Sollte doch was ändern wenn die Auflösung niedriger ist. Oder braucht RT so viel VRAM? :confused:

gnomi
2021-02-20, 14:42:47
Beide Games können doch DLSS 2.0 macht wenig Sinn das nativ laufen zu lassen.
Mit DLSS hat man entweder bessere fps und weniger Input Lag oder zusätzliche Luft für RTX.

Finde RT auf meiner 2080 OC in UWQHD trotz DLSS nicht nutzbar. (voll sowieso nicht)
3080 muss es denke ich schon sein. (wenn ich die Werte mal so abschätze)
Bei einer 2080TI ginge wahrscheinlich 4k mit DLSS besser als auf einer 3070 wegen VRAM. Oder WQHD mit DLSS plus bisschen Ray Tracing.

Das Problem ist zudem ein wenig, dass Cyberpunk mit >= 60 fps DLSS weit besser funktioniert als bei zugeschaltetem Ray Tracing.
Das fordert einfach derbe die Hardware. Besonders auch die CPU, die dann nicht mehr so überraschend hohe Minimum FPS auswirft und damit den Spieleindruck verschlechtert. (habe nur 8700k OC - mag sich mit besserem ausgestattet dann wieder ändern)
Watch Dogs erreicht generell auch ohne RT keine so gute CPU Auslastung. Muss man mehr mit leben. Und COD frisst außer im Vietnam Level nicht so viel bei mir.
Von daher RT irgendwie besser nutzbar mit den etwas schwächeren Ray Tracing Karten meinen Eindrücken nach.

aufkrawall
2021-02-20, 14:47:47
Watch Dogs erreicht keine so gute CPU Auslastung.
Läuft auf AMD-GPU trotzdem viel besser als CP. Von allen drei WD-Spielen hat Legion hier mit Abstand die besten Frametimes und ich war mit der 5700 XT mit leicht reduzierten GPU-Details und 20% Extrasichtweite (mehr schlägt sonst auch zu sehr auf die GPU) zu 100% im GPU-Limit.
Ist mit CP zwar auch so, aber je niedriger dort die fps sind, desto mehr scheint das Streaming die Frametimes zu versauen bzw. desto eher merkt man das. Glaube kaum, dass das mit 8C (RT off) nennenswert besser läuft. Und es hat halt ekligen Input Lag.

gnomi
2021-02-20, 15:03:56
Fehlt mir leider das Equipment.
Kann da nur mit Intel CPU und nvidia GPU was zu sagen.

Kern Skalierung soll bei Cyberpunk ja gut sein.
33% mehr Kerne sollten das Niveau heben und die sicher 20% zusätzlichen Anforderungen an die CPU mit RT auch verbessern.
Kaufen werde ich mir aber keinen 9900k deswegen, und eine neue Plattform mit Rocket Lake muss auch nicht sofort sein.

Watch Dogs läuft tatsächlich runder als die Vorgänger.
Gerade Teil 1 war nicht gerade unkritisch.
Das habe ich damals nicht aufgedreht. (Streaming Probleme)
Teil 2 war DX 11 Only IIRC. Sehr hohe Anforderungen mit den Extra Details an die CPU.
Teil 3 hat die Spielwelt zwar etwas gestrafft, aber imho auf jeden Fall optimierter. Konnte auch leichte Verbesserungen mit den Patches bemerken.
Läuft auf AMD GPU wahrscheinlich auch wegen der vielen Konsolen Versionen und Architektur Verwandtschaften doch recht gut.
Teil 2 hat nur eine PS4 Pro Version AFAIR noch abbekommen. PC Version hatte weit bessere Grafiken und Details.

Rampage 2
2021-02-20, 15:43:44
Wobei das in Deus Ex: MD nicht am VRAM lag. Habe es gegengetestet. Auch mit 6 GiB VRAM belegung gab es in gewissen Bereichen immer Ruckler. Einfach weil das Spiel im Hintergrund was geladen hat.

DX:MD benötigt eine leistungsfähige SSD und je stärker die SSD, desto flüssiger sollte sich das Spiel anfühlen - dennoch sind GPU & VRAM (8GB sollten definitiv reichen) noch wichtiger für die Frametimes. Soweit mein Senf dazu...


In Breakpoint wirst du z.B. nicht genug Leistung haben in nativ 1440p.

Meinst du damit meine jetzige 2070 oder die von mir geplante 2080 Super? :confused:

R2

sapito
2021-02-20, 16:07:26
Meinst du damit meine jetzige 2070 oder die von mir geplante 2080 Super? :confused:

R2

mit ner 2080ti und max setting in 1440p OHNE TEMP Injection droppt es schon mal öfters in den 60er Bereich > sonst 70-80er

mit ner 2080 sicher deutlich drunter

VRAM liegt dann bei 10000+

gnomi
2021-02-20, 16:10:39
Sehe gerade, dass ich wohl oben falsch verstanden wurde.
Deus EX läuft mit SSD und 8GB VRAM imho unproblematisch .
Ich meinte, dass ich mit der 1080 gegenüber der vorherigen 980 eben mehr als 4GB VRAM Verbrauch durch die beiden höchsten Textur Stufen feststellen konnte. (getestet damals unter DX 11 alles noch, da es zu der Zeit besser auf nvidia lief)
Die 1080 war einfach sehr großzügig beim Speicher. Kann mich da an kein Problem erinnern.
2080 muss man hin und wieder Regler bedienen. Bitte aber auch bedenken, dass RT und schnellere Konsolen/Enhanced Versionen zu fortschrittlicheren Grafiken und mehr Goodies beitrugen.
Außerdem bin ich auf UWQHD von WQHD umgestiegen.
Es ist auch jetzt eher mal knapp, als ein Problem.
Texturen eine Stufe runter sind nicht so einfach festzustellen, ohne analytisch zu spielen oder 4K Auflösung zu fahren.
3080 nur 2GB VRAM mehr ist grenzwertig. Für UVP-850€ und vor dem Hintergrund der VRAM Strukturen der Konsolen hätte ich trotzdem gekauft. (wurde nur nicht beliefert)
Zu 1000 habe ich dann nicht gekauft. Zu 1300€ im Schnitt wie jetzt mache ich das natürlich erst recht nicht.
Ich denke nvidia wird das Problem lösen. Nur aktuell alles Worst Case Szenario. (und jeder Kauf weit fernab UVP verschlechtert die Situation für alle finde ich, auch wenn schwer auszuhalten :freak:)

Rampage 2
2021-02-20, 19:11:45
mit ner 2080 sicher deutlich drunter

Eine normale 2080 vermutlich schon, aber die 2080 Super liegt oftmals weniger als 20%, manchmal weniger als 15% hinter einer 2080Ti - mit welchem Takt läuft deine 2080Ti? (Chip- und Speichertakt)

R2

crux2005
2021-02-20, 19:13:39
DX:MD benötigt eine leistungsfähige SSD und je stärker die SSD, desto flüssiger sollte sich das Spiel anfühlen - dennoch sind GPU & VRAM (8GB sollten definitiv reichen) noch wichtiger für die Frametimes. Soweit mein Senf dazu...R2

Hast du es bis jetzt denn gespielt?

Eine SSD bringt in DX:MD bis auf die Ladezeiten keine Vorteile. Wenn du in Prag oben - rechts bist mit blick auf die Palisady Bank und zum Puppenladen gehst wirst du mit alles Systemen Ruckler haben.

2080 Super? :confused:

R2

Naja, so viel schneller ist eine Super jetzt auch nicht ggü 2080 OC Modellen. In beiden Fällen IMHO zu wenig Leistung in Breakpoint ohne Temporal Injection.

Rampage 2
2021-02-20, 19:25:45
Hast du es bis jetzt denn gespielt?

Hunderte von Stunden;)

Ich habe natürlich keine speziellen SSD-Tests durchgeführt, aber ich finde es schon plausibel, dass bei DX:MD auch die Frametimes von einer stärkeren SSD profitieren. Zumindest würde es mich nicht im Geringsten wundern, wenn dem so wäre...

Und wie du schon angemerkt hast, verbessern sich die Ladezeiten brutalst. Der Wechsel von HDD auf NVMe-SSD war ein Quantensprung:eek: Ich bin mir sicher, dass eine herkömmliche SATA-SSD die Ladezeiten nicht derart gut gedrückt hätte...


Naja, so viel schneller ist eine Super jetzt auch nicht ggü 2080 OC Modellen. In beiden Fällen zu wenig Leistung in Breakpoint.

Gelegentliche Slowdowns auf 45-50fps kann ich verkraften:)

Und 'ne Super kann man auch overclocken;)

R2

crux2005
2021-02-20, 19:39:55
Hunderte von Stunden;)

Ich habe natürlich keine speziellen SSD-Tests durchgeführt, aber ich finde es schon plausibel, dass bei DX:MD auch die Frametimes von einer stärkeren SSD profitieren.



Nein, tut es nicht.

Und 'ne Super kann man auch overclocken;)

R2

Die GPU kannst du ~ gleich gut bei beiden übertakten. Der VRAM geht bei der Super im durchschnitt besser aber das wird nicht mehr als 1-2% sein.

Was am ende bleibt sind die ~4% durch mehr Einheiten und die 1-2% durch mehr G6 RAM Takt. Sagenhafte 5% mehr...

Rampage 2
2021-02-20, 20:30:10
Nein, tut es nicht.

Ich glaube dir mal;)

Sagenhafte 5% mehr...

Bzw. mehr als 5% weniger Abstand zur 2080 Ti;) Schon die reguläre 2080 war nicht sehr weit von der Ti entfernt (Ti war im Schnitt 20-30% schneller), die Super verringert diesen Abstand noch weiter (runter auf 15-25% für die Ti). Außerdem hat die Super ein deutlich erhöhtes Power-Budget (bei manchen Custom-Modellen bis zu 350W!) ggü. der normalen 2080 - alleine deswegen schon sollte der OC-Spielraum größer sein:)

R2

-=Popeye=-
2021-02-20, 22:01:47
Wie wäre es mit einer gebrauchten 2080TI, davon hättest du einen deutlichen Mehrwert als ein 2080S.

Rampage 2
2021-02-20, 23:23:55
Wie wäre es mit einer gebrauchten 2080TI, davon hättest du einen deutlichen Mehrwert als ein 2080S.

Ne gebrauchte 2080S kostet doch mittlerweile wegen des Mining-Wahnsinns schon wieder 600-700€ oder sogar noch mehr - wieviel wird dann wohl eine gebrauchte 2080 Ti kosten? :freak:

Zumal ich mir garantiert kein Billig-Modell zulegen würde - irgendwas Höherklassiges (ASUS Strix oder EVGA XC/FTW Gaming)

PS: Willst du mir ein Angebot machen? :D

R2

Daredevil
2021-02-20, 23:32:24
Ist doch ein okayer Preis für ne WaKü 2080ti
https://www.ebay-kleinanzeigen.de/s-anzeige/rtx-2080ti-ichill-black-wakue/1548718178-225-3836

-=Popeye=-
2021-02-20, 23:44:25
Kann ich dir leider kein Angebot machen da ich Turing übersprungen habe, ein Wechsel von einer 2070 auf eine 2080S ist aber Blödsinn.

Das Angebot was DD verlinkt hat ist bei den heutigen Preisen noch im Rahmen oder man wechselt auf eine RX 6800 die sich auf einem ähnlichen Niveau bewegt.

aufkrawall
2021-03-19, 01:04:32
WD Legion mit 1440 70% Resolution Scale kommt mit der niedrigsten RT-Einstellung + Texturen-Pack manchmal den 10GB schon recht nah ^^ :
https://abload.de/thumb/watchdogslegion_2021_okj9x.png (https://abload.de/image.php?img=watchdogslegion_2021_okj9x.png)
Da er ständig Daten raussschmeißt, wird er die auch nicht nur zum Spaß belegen.

Ich freu mich nach dem letzten RT-Stadtausflug übrigens wie bekloppt auf den nächsten Teil, was ein kranker Detaillevel das sein wird. :eek:
Shut up and fill my VRAM! ;D

dargo
2021-03-19, 09:34:27
Och... das schaffe ich in 1440p auch ganz ohne RT. ;)
https://ibb.co/4KK0N84?clickid=dade780d-b7d6-4f3e-b443-fbeccda63cb0&pub=5b9248587c4b9603af2ba106&sub_pub_id=API
https://ibb.co/NVrrxs6?clickid=ecdaad52-c287-45fa-9bab-79a7bc241247&pub=5b9248587c4b9603af2ba106&sub_pub_id=API

Ob die auch tatsächlich gebraucht werden? Man weiß es nicht...

gnomi
2021-03-19, 15:00:38
Bei mir klappte das mit angepassten Settings in 3440*1440 DLSS Balanced und Ray Tracing niedrig (2,83 Millionen Pixel) noch ganz gut mit 8GB VRAM auf einer 2080OC.
Hatte die Texturen sogar voll eingestellt, finde eine Stufe reduziert dennoch nur leicht schlechter. HD Texture Pack ist imho ein Bonus. Würde ich locker abstellen und verkraften können, wenn es mir zu eng wird.
Ray Tracing ist cool, auch wenn die CPU noch mehr leidet.
Auf einer neuen Karte aber eventuell ein Dämpfer. :confused:
3440*1440P nativ sehr anspruchsvoll. 4k mit DLSS Quality ebenfalls.
Müsste ich aber erst einmal live sehen, ob das einen sonderlich besseren Grafik Eindruck hinterlässt. Nach oben hin ist das alles bisschen langweilig geworden mit den Mondpreisen über UVP. Möchte mich damit gar nicht mehr beschäftigen und ignoriere Produkte, Tester und Käufer zunehmend, da verzerrend. :devil:
Bleibe jetzt erst einmal in der Klasse und als Ergänzung habe ich eine Series X. (wenn mal wieder einer nicht optimiert und die Versionen Unterschiede zeigen)

Hakim
2021-03-19, 15:08:30
Wenn ihr es liebt das viel Speicher Nutzung angezeigt wird, Warzone. Bei 8 gb lässt es knapp 1gb frei, bei 10 und 11 ebenfalls. Bei 24gb gönnt es sich 18-21 GB.

Seth
2021-03-19, 17:19:01
Lässt sich in COD sogar konfigurieren. VRAM Usage Target. 80% sind default (Black Ops Cold War).

Hakim
2021-03-19, 18:01:03
Ja die Anzeige in den Einstellungen zeigt auch nur sehr wenig vram, aber beansprucht halt dennoch deutlich mehr. Würde mich mal interessieren bei den 16 GB der 6800er.

Seth
2021-03-19, 18:21:10
Na vermutlich um die 16GB * 0,8 :confused:

aufkrawall
2021-03-23, 20:37:02
Unter Linux schmeißt RDR2 mit dem amdgpu-pro Vulkan-Treiber nichts mehr aus dem VRAM und die komischen Einbrüche sind weg :freak: ;D :
https://abload.de/thumb/screenshot_20210323_2zvk4h.png (https://abload.de/image.php?img=screenshot_20210323_2zvk4h.png)

crux2005
2021-03-23, 21:44:19
Lässt sich in COD sogar konfigurieren. VRAM Usage Target. 80% sind default (Black Ops Cold War).

Falls ich 90% oder mehr bei meiner RTX 2080 einstelle, gibt es extra Ruckler. Toll gemacht Treiarsch ;D

Unter Linux schmeißt RDR2 mit dem amdgpu-pro Vulkan-Treiber nichts mehr aus dem VRAM und die komischen Einbrüche sind weg :freak: ;D :
https://abload.de/thumb/screenshot_20210323_2zvk4h.png (https://abload.de/image.php?img=screenshot_20210323_2zvk4h.png)

Es gibt keine Einbrüche ;D

Was mich erinnert, ich wollte noch hier was schreiben...
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12632874#post12632874

aufkrawall
2021-04-04, 21:16:05
Mit SAM verhält sich der AMD Windows-Vulkantreiber so wie unter Linux ohne SAM, er schmeißt dann nicht mehr raus und entsprechend keine Einbrüche. Am Ende des Benchmarks sind in 4k dann über 11GB VRAM belegt.

r3ptil3
2021-04-05, 02:49:13
Vorhin zum ersten mal Cold war gespielt (ganz vergessen, dass ich den Key beim Kauf einer RTX 3080 vor Monaten mal erhalten habe).

Läuft butterweich mit einer RTX 3080 auf 3840x1600, die Speicherauslastung hat mich aber überrascht:
https://i.ibb.co/cry5h5B/coldwar.png

Keine Ruckler oder sonst was, sowas würde ich sofort merken.

Dalai-lamer
2021-04-05, 08:00:45
Wieso müsst ihr immer noch die Speicherauslastung. Es ist doch schon vielfach belegt, dass alte Daten die nicht gebraucht werden oft einfach nicht gelöscht werden.

IUm zu sehen wieviel RAM ein Spiel wirklich nutzt müsste ihr schauen ab wann es extreme Einbrüche im Zusammenhang mit unterschiedlichen speicherausstattungen gibt.

crux2005
2021-04-05, 09:07:26
Mit SAM verhält sich der AMD Windows-Vulkantreiber so wie unter Linux ohne SAM, er schmeißt dann nicht mehr raus und entsprechend keine Einbrüche. Am Ende des Benchmarks sind in 4k dann über 11GB VRAM belegt.

Warte, ich schalte mein imaginäres SAM ein damit RDR2 wieder so wie bei Release läuft. ;D

HisN
2021-04-05, 10:26:24
Wieso müsst ihr immer noch die Speicherauslastung. Es ist doch schon vielfach belegt, dass alte Daten die nicht gebraucht werden oft einfach nicht gelöscht werden.

IUm zu sehen wieviel RAM ein Spiel wirklich nutzt müsste ihr schauen ab wann es extreme Einbrüche im Zusammenhang mit unterschiedlichen speicherausstattungen gibt.

Is Einfach, da ja jeder mehrere Grakas mit gleicher Leistung aber unterschiedlicher Speicherausstattung daheim hat und reproduzierbare Benchmark Runs mit mehreren Stunden Länge produziert :-)

Raff
2021-04-05, 10:57:17
Vorhin zum ersten mal Cold war gespielt (ganz vergessen, dass ich den Key beim Kauf einer RTX 3080 vor Monaten mal erhalten habe).

Läuft butterweich mit einer RTX 3080 auf 3840x1600, die Speicherauslastung hat mich aber überrascht:
https://i.ibb.co/cry5h5B/coldwar.png

Keine Ruckler oder sonst was, sowas würde ich sofort merken.

Im Grafikmenü kannst du Einfluss darauf nehmen, wie viel Grafikspeicher das Spiel zum Vorladen von Daten nimmt. Standardmäßig steht das auf 80 Prozent, womit's prima läuft, ohne dass Streaming-Schwund wirklich stört. Stell das doch mal testweise auf den Maximalwert von 90 Prozent. Und natürlich Raytracing etc. auf volle Kanone. Dann dürften 10 GiByte problematisch werden.

MfG
Raff

sChRaNzA
2021-04-05, 12:15:37
Im Grafikmenü kannst du Einfluss darauf nehmen, wie viel Grafikspeicher das Spiel zum Vorladen von Daten nimmt. Standardmäßig steht das auf 80 Prozent, womit's prima läuft, ohne dass Streaming-Schwund wirklich stört. Stell das doch mal testweise auf den Maximalwert von 90 Prozent. Und natürlich Raytracing etc. auf volle Kanone. Dann dürften 10 GiByte problematisch werden.

MfG
Raff

Aber was hätte der Wert für Vorteile? Bzw, warum sollte ich diesen Wert ändern, wenn er nachteilig ist? (ernst gemeinte Frage)

y33H@
2021-04-05, 12:22:57
Wenn du genug Speicher hast, kannst du mehr belegen ^^

aufkrawall
2021-04-05, 12:24:01
Warte, ich schalte mein imaginäres SAM ein damit RDR2 wieder so wie bei Release läuft. ;D
Wieso hast du das Feature nicht?

Lehdro
2021-04-05, 13:02:23
Aber was hätte der Wert für Vorteile? Bzw, warum sollte ich diesen Wert ändern, wenn er nachteilig ist? (ernst gemeinte Frage)
Gar keine Streaming Probleme, aka überall die richtigen Texturen sofort und keine Platzhalterdowngrades, weil sonst nicht genug gestreamt werden kann. Steht sogar in dem gequoteten Text:
ohne dass Streaming-Schwund wirklich stört.

aufkrawall
2021-04-07, 15:51:52
Mit CAM und 16GB VRAM fängt er ab ~13GB wieder an auszumisten, allerdings nur mit Mini-Einbrüchen :D :
https://abload.de/thumb/mpv-shot0003nbku9.png (https://abload.de/image.php?img=mpv-shot0003nbku9.png)

crux2005
2021-04-10, 00:35:41
Wieso hast du das Feature nicht?

Weil Turing. CPU/MB wären ready.

Bandit3644
2021-04-10, 05:48:04
Vorhin zum ersten mal Cold war gespielt (ganz vergessen, dass ich den Key beim Kauf einer RTX 3080 vor Monaten mal erhalten habe).

Läuft butterweich mit einer RTX 3080 auf 3840x1600, die Speicherauslastung hat mich aber überrascht:
https://i.ibb.co/cry5h5B/coldwar.png

Keine Ruckler oder sonst was, sowas würde ich sofort merken.

Das ist der Speicher denn das Spiel für sich reserviert obwohl es gar nicht gebraucht wird.
Hab das auch mal getestet in:

UHD@Ultra mit HD Spiel Texturen und auch Raytracing in Ultra.
Rechts ist der reservierte Speicher und links der tatsächliche Verbrauch.
https://s18.directupload.net/images/210410/esm3yntx.png (https://www.directupload.net)

Bandit3644
2021-04-10, 06:14:39
Is Einfach, da ja jeder mehrere Grakas mit gleicher Leistung aber unterschiedlicher Speicherausstattung daheim hat und reproduzierbare Benchmark Runs mit mehreren Stunden Länge produziert :-)

Also ich habe diese beiden Karten mehrere Wochen in UHD@ Ultra getestet und
die 3080 ist trotz des kleineren Speichers die bessere Karte, zumindest für mich.
https://s18.directupload.net/images/210410/nu36jqhz.jpg (https://www.directupload.net)

rentex
2021-04-10, 08:25:42
Das ist der Speicher denn das Spiel für sich reserviert obwohl es gar nicht gebraucht wird.
Hab das auch mal getestet in:

UHD@Ultra mit HD Spiel Texturen und auch Raytracing in Ultra.
Rechts ist der reservierte Speicher und links der tatsächliche Verbrauch.
https://s18.directupload.net/images/210410/esm3yntx.png (https://www.directupload.net)

Das kann man im 3DC so oft wiederholen wie man mag, die "Spezialisten" hier, sehen das aus Prinzip anders.

-/\-CruNcher-/\-
2021-08-02, 20:30:46
Aber was hätte der Wert für Vorteile? Bzw, warum sollte ich diesen Wert ändern, wenn er nachteilig ist? (ernst gemeinte Frage)
Texture Streaming kann sehr perfide sein für einen Bruchteil denkst du hmm war da was, bei schnellen Kamera wechseln kann man das gut beobachten, wenn die metric nicht optimal ist.
Nur wenn der Mip Change plötzlich richtig böse von der Zielauflösung abweicht dann wirds unlustig, typisch kristallklarer Charakter aber der Boden unter ihm wird plötzlich unscharf sowie als würde der DOF mitten drauf halten eine Sekunde später alles wieder in Ordnung
Bei Unreal Indie Sachen kanns richtig lustig werden, was die für interessante Pool Einstellungen manchmal fahren ohne irgendwelche Content Anpassungen, ist teils nicht wirklich ausgewogen.

blaidd
2021-08-03, 18:38:17
Aber was hätte der Wert für Vorteile? Bzw, warum sollte ich diesen Wert ändern, wenn er nachteilig ist? (ernst gemeinte Frage)

Wenn die Assets (also auch Texturen, Modelle, etc) schon im Grafikspeicher sind, kann schneller darauf zugegriffen werden. Wenn der Kram noch im RAM ist, muss der erst vom (vergleichsweise) lahmen System-RAM in den flotten Grafikspeicher geladen werden.

Wenn du also mehr Grafikspeicher zusicherst, hast du potenziell höhere Performance, weniger sichtbares Nachladen und weniger kleine Ruckler oder Stocker. Kurz: Es reduziert die Latenz.

Call of Duty ist aber ein Crap-Beispiel (zumindest der Singleplayer bzw. die Kampagnen-Missionen. Warzone ist ein bisschen was anderes, aber da ist auch das LoD und die Texturschärfe drastisch reduziert.)

Erstens belegt CoDCW einen festen Block, der oft viel zu groß ist, zweitens belegt es einen festen Block, auch wenn der viel zu klein ist und eigentlich noch mehr Speicher vorhanden wäre und genutzt werden könnte - das Spiel ist in der Hinsicht echt sackdumm (man kann's mit Alt+Tab und Grafikoptionen hin/herschalten kurzfristig dazu bringen, mehr Grafikspeicher zu nehmen, aber früher oder später kackt's wieder ab und/oder produziert Grafikfehler). Bei einer RTX 3090 werden z.B. nur knapp über 19 GiByte belegt (80%), selbst wenn 24 GiB genutzt werden können. In 8K kratzt das Ding dann komplett ab, es gibt Grafikfehler, Speicherüberlauf etc. sogar die Schrift wird teilweise klingonisch, obwohl eigentlich noch knapp 5 GiByte Speicher zur Verfügung stünden, die das hundsdämliche Spiel aber nicht nutzen will.

Und man kann (mW) nirgendwo ablesen, wie viel Speicher genau benötigt wird. Man kann den zugesicherten Speicher mit dem Afterburner etc. überwachen und nachschauen, wann da Blöcke entfernt und neugeladen werden und nebenbei die PCI-E-Schnittstelle überwachen. Aber ansonsten helfen nur penibelste Vergleichsmessungen und das geht zumeist nicht wirklich gut, weil es kaum Karten gibt, die genau gleich schnell sind, aber unterschiedliche Speicherausstattung haben.

Kurze Erklärung von Billy Khan (https://www.pcgameshardware.de/Doom-Eternal-Spiel-72610/Specials/Interview-mit-Lead-Engine-Programmer-Billy-Khan-1360708/) (Doom Eternal) zum Thema:
Billy Khan: Klar, am PC habt ihr natürlich den Arbeitsspeicher und den VRAM auf eurer Grafikkarte. Eins, was man immer vermeiden will, ist das einem der VRAM ausgeht. Denn wenn der Treiber oder auch WDDM (Windows Display Driver Model - betrifft auch Vulkan) sagt: "Moment, den Speicher brauche ich aber", was soll er dann machen? Genau: Der Treiber oder WDDM holt sich den fehlenden Speicher dann aus dem System-RAM und urplötzlich fällt die Leistung massiv ab. Das will man natürlich nicht, deshalb bin ich der Ansicht, man sollte die Speichergröße auf einer Grafikkarte immer mit in die Kaufentscheidung einschließen. Man kann eine fantastische Karte haben, die wunderbar ALU und Floating-Point-Berechnungen durchführen kann, aber am Ende ist die Speicherlatenz ein Problem. Eigentlich war das schon immer so, nicht wahr? Wie kann man das was man brauch schnell in den Cache einlesen und dann ohne Umschweife darauf zugreifen? Wir schlagen uns schon lange mit Bandwith-Problemen auf der GPU herum. Oft wartet man nur darauf, dass alles endlich aus dem Speicher in die GPU gelangt. Wir versuchen diese Kosten zu minimieren, weshalb es für uns offensichtlich notwendig war, viel mehr zu streamen. Je nachdem, welche Einstellungen vorliegen, haben wir dafür jetzt dedizierten Speicher, quasi einen Brocken Speicher, der nur dafür dann abgestellt wird (Pool Size).

Thunder99
2021-09-15, 21:17:38
Ein weiteres Beispiel, dass 10GB zu wenig sein können (geschweige denn 8GB):
https://www.computerbase.de/2021-09/deathloop-benchmark-review-test/3/#abschnitt_vram_10_gb_schnell_pflicht_sorglos_erst_mit_16_gb

Christopher_Blair
2021-09-15, 21:26:24
Deathloop scheint ein gutes Beispiel für VRAM-Usage mit mittelmässiger Grafik und schlechtem / verbuggtem VRAM Managment zu sein :freak:
Die Artikel Überschrift "VRAM ist nur durch mehr VRAM zu ersetzen" ist putzig.

Rampage 2
2021-09-15, 21:37:56
Deathloop scheint ein gutes Beispiel für VRAM-Usage mit mittelmässiger Grafik und schlechtem / verbuggtem VRAM Managment zu sein :freak:

+1

Raytracing nur für die Schatten und trotzdem mindestens 16GB VRAM für vollständig sorgenfreies Spielen:crazy:

Ich wüsste aber gerne, ob der enorme Speicherhunger primär am RT oder doch an den hochauflösenden Texturen liegt oder einfach an einem schlechten Speichermanagement:|

R2

ChaosTM
2021-09-16, 00:32:15
Deathloop im Test: VRAM ist nur durch mehr VRAM zu ersetzen (https://www.computerbase.de/2021-09/deathloop-benchmark-review-test/)

Bin so froh, dass ich zur 16er 3080er gegriffen hab. Der Trend in die Richtung wird sich in den nächsten Jahren nur verstärken. Mit 12 wirds bald sehr eng. 8 ist für höhere Auflösungen draußen.

aufkrawall
2021-09-16, 01:11:36
oder einfach an einem schlechten Speichermanagement

Das kann man sich ja einfach denken: Man lädt das Savegame und läuft zehn Minuten im Level rum, alles läuft prima. Dann lädt man, wie etwa in Dishonored 2, den nächsten Level, indem man bestimmte Bereiche erreicht. Sodele ist der VRAM überladen, im neuen Areal stockt es ständig fies etc. Daraufhin geht man zurück in das alte Areal, was vorher über zig Minuten problemlos lief. Jetzt ruckelt es dort ebenfalls, obwohl genau das Gleiche gerendert wird wie zuvor.
Ergo -> Entwickler hats verkackt sicherzustellen, gar nicht mehr benötigte alte Daten rauszuschmeißen, obwohl das bis auf ggf. etwas kürzere Ladezeiten gar nichts bringt.

ChaosTM
2021-09-16, 01:17:33
Wären alle Spiele perfekt programmiert, würden wahrscheinlich 8GB noch überall reichen. Dem ist aber nicht so..
Ganz übel ist Star Citizen, aber das ist eine ganz andere Geschichte ;)

Lowkey
2021-09-16, 09:03:27
Ich sehe bei Deathloop Nvidia in Führung, gerade bei RT. Mit 16gb kompensiert man doch keine RT Schwäche. Und dann ist der Abstand zwischen AMD und Nvidia wieder so hoch, dass man auf angepasste Treiber hoffen darf.

dargo
2021-09-16, 09:27:48
Dann putz mal deine Brille.
https://www.pcgameshardware.de/Deathloop-Spiel-67696/Specials/Benchmark-Test-Review-Systemanforderungen-1379400/2/

Mal ganz davon abgesehen, dass es müßig ist über einen Bughaufen zu diskutieren.

Slipknot79
2021-09-16, 10:02:50
https://www.pcgameshardware.de/Deathloop-Spiel-67696/Specials/Benchmark-Test-Review-Systemanforderungen-1379400/2/

Warum "kackt" die 3070 vs 2080Ti mit RT up? VRAM?
Falls das Speichermanagement vom Spiel Shice ist und es gepacht wird, dann sollte AMD erst recht upkacken. :redface:


Ansonsten TOP Nvidia, liefert wieder solides up in den für die Grakas vorgesehenen Auflösungen, insbesondere mit RT. (y)


Dennoch, wenn man sich das Feedback hier so durchliest ("60fps für keine Ruckler"), sind auch 40EUR viel zu viel für das Spiel. Hätte mich geärgert es gekauft zu haben. :mad: K chill, mal upwarten.

The_Invisible
2021-09-16, 10:11:28
Deathloop im Test: VRAM ist nur durch mehr VRAM zu ersetzen (https://www.computerbase.de/2021-09/deathloop-benchmark-review-test/)

Bin so froh, dass ich zur 16er 3080er gegriffen hab. Der Trend in die Richtung wird sich in den nächsten Jahren nur verstärken. Mit 12 wirds bald sehr eng. 8 ist für höhere Auflösungen draußen.

Der Trend das immer schlechter optimierte PC-Ports auf den Markt geschmissen werden? Stimme ich voll zu ;)

N0Thing
2021-09-16, 11:52:58
+1

Raytracing nur für die Schatten und trotzdem mindestens 16GB VRAM für vollständig sorgenfreies Spielen:crazy:

Raytracing wird in Deathloop auch für die Umgebungsverdeckung genutzt. Wird interessant zu sehen sein, wie viel VRAM das Spiel dauerhaft belegt, wenn ein Patch den offensichtlichen Bug beseitigen sollte. Kann mir gut vorstellen, dass die VRAM-Belegung dann an der 10GB-Grenze knabbert und es mit 8GB-Karten weiterhin Probleme geben wird.

Dampf
2021-09-16, 11:56:51
Das kann man sich ja einfach denken: Man lädt das Savegame und läuft zehn Minuten im Level rum, alles läuft prima. Dann lädt man, wie etwa in Dishonored 2, den nächsten Level, indem man bestimmte Bereiche erreicht. Sodele ist der VRAM überladen, im neuen Areal stockt es ständig fies etc. Daraufhin geht man zurück in das alte Areal, was vorher über zig Minuten problemlos lief. Jetzt ruckelt es dort ebenfalls, obwohl genau das Gleiche gerendert wird wie zuvor.
Ergo -> Entwickler hats verkackt sicherzustellen, gar nicht mehr benötigte alte Daten rauszuschmeißen, obwohl das bis auf ggf. etwas kürzere Ladezeiten gar nichts bringt.

Hört sich ja wie Cyberpunk vor dem Patch an. Da ist genau das gleiche passiert. Zumindest auf 6-8 GB Karten.

Lurtz
2021-09-16, 12:49:53
Raytracing wird in Deathloop auch für die Umgebungsverdeckung genutzt. Wird interessant zu sehen sein, wie viel VRAM das Spiel dauerhaft belegt, wenn ein Patch den offensichtlichen Bug beseitigen sollte. Kann mir gut vorstellen, dass die VRAM-Belegung dann an der 10GB-Grenze knabbert und es mit 8GB-Karten weiterhin Probleme geben wird.
Da man 8 GB-Karten ja bereits im ersten Level nach Neustart zum Performance-Absturz bringen lassen kann, werden wohl auch spätere Optimierungen da nicht viel bringen.

A propos AMD, die PS5 performet auch nicht gut in dem Spiel:
[...]an RTX 3080 runs circles around the PS5 here. I have measured that the PS5 in rasterised performance is between an RTX 2060 Super and RTX 2070 Super and in ray tracing is below an RTX 2060 Super.
https://mobile.twitter.com/Dachsjaeger/status/1438446218892435456