Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : VRAM-Auslastung aktueller Spieletitel


Seiten : 1 2 3 [4]

][immy
2023-06-19, 13:47:44
Das ist einfach Unsinn. Die PC Ports mögen nicht perfekt sein, aber sie sind sehr gut. Was kann denn der Entwickler dafür, dass beim PC so mit Speicher gegeizt wird.
MHH, also auf der einen Seite verlangst du das xbjahre alte CPUs noch Beachtung finden, aber bei Grafikkarten muss es dann die high-end Bestückung für mehr als milchige Texturen geben?

Die Technik das texturstreaming sogar mit Standard SSDs zu revolutionieren ist vorhanden und so den Speicherbedarf stark zu drücken (das geht auch schon ohne die dx12 Features oder direct storage) aber es scheitert schlicht an der Umsetzung auf dem PC, eben weil das alte gut genug ist und mit mehr Hardware erschlagen werden kann (brute force halt).

Blase
2023-06-19, 13:58:56
Gibts wirklich noch Spieler mit HDD`s ?

Ja, hier ;)

Und ich sehe bis heute keinen Nachteil - wenn man mal von vereinzelten, längeren Wartezeiten beim einmaligen Laden eines Spielstandes absieht. Es mag vereinzelt Titel da draußen geben, die von einer SSD auch in anderen Bereichen (Streaming?) beim Spielen profitieren - aber unverändert spielt das eine eher untergeordnete Rolle...

MfG Blase

Exxtreme
2023-06-19, 14:18:51
Unsinn? Aha. Komische Sichtweise. Entwickler sind leider faulpelze! Die immer wieder, gerade mal das nötigste machen wollen.

Nein, sind sie nicht. Liegt eher daran, dass da nicht so viel Budget für Optimierung drin ist dafür sehr viel Budget für neue Features.

Platos
2023-06-19, 14:22:37
Das ist alles Unsinn. Klar brauchst du weniger Daten vorhalten, wenn du mehr streamst, aber das geht doch nur beschränkt. Die Konsole ist dafür gebaut und erreicht grad mal 30-60FPS Leute. Ihr seid völlig außerhalb jedes Verhältnisses unterwegs mit den bescheuerten Einschätzungen.

Ah ja, aber deine Einschätzung ist natürlich die einzig wahre:rolleyes:

Direct Storage ist auch genau dafür gebaut. Das was du da redest ist nichts als deine persönliche Einschätzung.

Jensens Firma hatte auch mal Karten mit mehr VRAM im Angebot. Da fällt mir z.B. 980Ti vs Fury X. Lang ists her

*Hust* RTX 3060 *Hust*

The_Invisible
2023-06-19, 14:49:04
Jensens Firma hatte auch mal Karten mit mehr VRAM im Angebot. Da fällt mir z.B. 980Ti vs Fury X. Lang ists her

Die 3090 hatte auch mehr als die 69x0 von AMD

Ex3cut3r
2023-06-19, 15:18:00
Nein, sind sie nicht. Liegt eher daran, dass da nicht so viel Budget für Optimierung drin ist dafür sehr viel Budget für neue Features.

Ebenfalls eine sehr komische Sichtweise, sobald es dann den Shit Storm gab, ist dann plötzlich das Budget wieder drin? :confused:

Weil es auch sehr schwer und teuer ist, texturen vernünftig nach unten skalieren zu lassen, da die PS4 Versionen auch noch immer hergestellt werden, sind Texturen sowieso auch in einer schlechteren Qualität vorhanden, das Argument ist also sowieso fragwürdig.

Exxtreme
2023-06-19, 15:43:53
Ebenfalls eine sehr komische Sichtweise, sobald es dann den Shit Storm gab, ist dann plötzlich das Budget wieder drin? :confused:


Japp. In der Softwareentwicklung bzw. genauer: Scrum gibt es so eine Kategorie namens "non-functional requirements". Bessere Performance aber auch Skalierbarkeit oder Sicherheit fallen in diese Kategorie. Und man merkt auch schnell, dass auch diese Dinge sträflich vernachlässigt werden. Eben weil das Budget für diese "non-functional requirements" meist sehr klein ist und nur dann erhöht wird wenn die Hütte richtig brennt.

Über Budgets entscheiden aber nicht die Softwareentwickler sondern das Management.

HOT
2023-06-19, 16:34:34
Ah ja, aber deine Einschätzung ist natürlich die einzig wahre:rolleyes:
[...]
Na wieder einer der das jetzt erst merkt dass meine Einschätzung die allterbeste ist :D.
Meine Güte, immer dieser nonsens :freak:

Übrigens gibts mittlerweile sogar 32Gb GDDR6-RAM, nennt sich GDDR6W und ist von Samsung ;).
Ist mir total durchgegangen. Dürfte dann so Anfang 24 verfügbar werden mit 22GT/s, wär doch ein toller Zeitpunkt für einen Refresh :D.

https://www.tomshardware.com/news/samsung-gddr6w-doubles-performance-and-capacity

Ebenfalls eine sehr komische Sichtweise, sobald es dann den Shit Storm gab, ist dann plötzlich das Budget wieder drin? :confused:

Weil es auch sehr schwer und teuer ist, texturen vernünftig nach unten skalieren zu lassen, da die PS4 Versionen auch noch immer hergestellt werden, sind Texturen sowieso auch in einer schlechteren Qualität vorhanden, das Argument ist also sowieso fragwürdig.

Du machst es dir, wie immer wenn es um diese Frage geht, einfach viel zu einfach. Sind ja alle schlecht uind doof. Wie wärs wenn du die Ports demnächst mal durchführst?

[immy;13331411']MHH, also auf der einen Seite verlangst du das xbjahre alte CPUs noch Beachtung finden, aber bei Grafikkarten muss es dann die high-end Bestückung für mehr als milchige Texturen geben?

Die Technik das texturstreaming sogar mit Standard SSDs zu revolutionieren ist vorhanden und so den Speicherbedarf stark zu drücken (das geht auch schon ohne die dx12 Features oder direct storage) aber es scheitert schlicht an der Umsetzung auf dem PC, eben weil das alte gut genug ist und mit mehr Hardware erschlagen werden kann (brute force halt).

Du machst es dir genauso einfach. Das ist die Theorie, aber es gibt eben jetzt ne ganze Latte an Beispielen, die beweisen, dass diese Theorie in der Praxis eben nicht so einfach umgesetzt werden kann ;).

Ex3cut3r
2023-06-19, 18:14:19
Du machst es dir, wie immer wenn es um diese Frage geht, einfach viel zu einfach. Sind ja alle schlecht uind doof. Wie wärs wenn du die Ports demnächst mal durchführst?


Wieso so pampig? Habe ich dich irgendwie persönlich beleidigt? Ne, ich mache mir das einfacher -> Ich kaufe diese Spiele einfach nicht, oder nicht zum release. :biggrin:

Die meisten Entwickler, die an PC Ports schrauben, haben wenig drauf. Punkt. Und dabei bleibe ich. Das ist seit Jahren bekannt, dass der PC immer "billige" Ports bekommt und/oder von Third Party Entwickler meisten aus dem Osten (Polen, Tschechien, Rumänien etc.) abgearbeitet werden. Klar gibt es auch Ausnahmen wie Nixxes (Niederlande) oder Id Software (USA)

Ein gutes Beispiel sind die Uncharted Games und Last of Us. Während Naughty Dog persönlich die Kosolen Verfassungen mit viel Geld von Sony und intern entwickelt hat. Hat man die PC-Versionen an Iron Galaxy outgesourced, das Studio was uns schon 2015 den grandiosen Arkham Knight PC Port geliefert hat. Low Budget vom feinsten.

DX12 hat die Sache doch noch mehr verschlimmert. Da der Entwickler hier noch eigenständiger an einer sauberen Implementierung arbeiten muss. Direct Storage mit Sampler Feedback wird hoffentlich viel Arbeit und Know How, welches die meisten nun mal nicht haben, erleichtern.

Schnoesel
2023-06-19, 18:41:20
PC hat halt keine Prio mehr und das hat Gründe. Das Problem ist hausgemacht, der PC einfach unattraktiv als Gamingkiste. Komm raus aus der Blase, dann wirst sehen wie unbedeutend wir sind. Konsole und vor allem Mobile Games, da geht die Kohle hin. PC Ports? Wayne! Eigentlich kannste schon fast froh sein, wenn Games überhaupt noch für den PC erscheinen.

The_Invisible
2023-06-19, 20:14:39
Bin ja auch für schnelle Hardware und viel Speicher für alles, aber ein wenig Optimierung kann schon sein. Das letzte StarWars war zb ja ein Witz und auch bei Diablo4 fragt man sich was bei einem isometrischen Game 16GB VRAM fressen kann.

Da bin ich jedenfalls auch wer der das hinterfragt und nicht einfach meint "Haut halt >=32GB VRAM Grafikkarten raus"...

Platos
2023-06-19, 21:07:25
Ebenfalls eine sehr komische Sichtweise, sobald es dann den Shit Storm gab, ist dann plötzlich das Budget wieder drin? :confused:



Klar, was denkst du, wie das läuft? Solltest du doch mittlerweile wissen. Dreck auf den Markt werfen und mal abwarten, ob man noch was machen muss oder ob die Alpha doch genügt.

Aber die Leute belohnen dieses Verhalten ja, indem sie immer bei Launch kaufen.

Lurtz
2023-06-19, 23:15:24
PC hat halt keine Prio mehr und das hat Gründe. Das Problem ist hausgemacht, der PC einfach unattraktiv als Gamingkiste. Komm raus aus der Blase, dann wirst sehen wie unbedeutend wir sind. Konsole und vor allem Mobile Games, da geht die Kohle hin. PC Ports? Wayne! Eigentlich kannste schon fast froh sein, wenn Games überhaupt noch für den PC erscheinen.
Genau, deshalb gibts mittlerweile selbst japanische Entwickler wie Capcom, bei denen der PC auf einzelne Plattformen gerechnet teils vor allen Konsolenplattformen liegt.

Mehr Spiele denn je erscheinen für den PC, es gibt außer bei Nintendo praktisch keine Konsolen-Exklusivtitel mehr, aber der PC ist mal wieder tot! :ugly:

Thunder99
2023-06-20, 12:43:14
Bin ja auch für schnelle Hardware und viel Speicher für alles, aber ein wenig Optimierung kann schon sein. Das letzte StarWars war zb ja ein Witz und auch bei Diablo4 fragt man sich was bei einem isometrischen Game 16GB VRAM fressen kann.

Da bin ich jedenfalls auch wer der das hinterfragt und nicht einfach meint "Haut halt >=32GB VRAM Grafikkarten raus"...
Müsste man mal D2 Refresh D3 und D4 vergleichen wie groß die Welten sind und was dort im Detail sichtbar ist.
Könnte mir schon gut vorstellen, dass Blizzard VRAM Belegung dem Streaming vorzieht damit es wirklich flüssig ist bei einem schnellen Spiel.

Am Ende wird es dir nur der Entwickler sagen können :)

Frage mich schon wieso die Entwickler und Studios nicht schon längst gestürmt haben für mehr Speicher...

Lurtz
2023-06-20, 17:55:04
nVidia hat angeblich was am VRAM-Management im Treiber geändert, es soll jetzt früher der Shared Memory genutzt werden und damit vermehrt Performanceprobleme auftreten?

https://steamcommunity.com/app/1774580/discussions/0/5264192561410268782/#c5264193038182728393
https://github.com/vladmandic/automatic/discussions/1285

Ist da was dran oder ist das FUD?

ChaosTM
2023-06-20, 18:05:42
Ich hoffe, sie legen keinen "Cyberpunk 77" hin.

Damals wurde die maximale VRAM usage (4k) auf 10Gb beschränkt, um die 3080er nicht komplett idiotisch ausersehen zu lassen..

HOT
2023-06-20, 18:12:36
https://youtu.be/ylwv19lIap0

Tom hat ein paar Stimmen eingefangen genau zu dem Thema. Es ist eben nicht schlecht optimiert, das Problem ist erheblich komplexer.

eure gesamte Diskussion ist völlig bekloppt in meinen Augen. Die Speichermenge ist zu gering, kauft den Scheiss nicht und fertig oder lebt mit Low-Details. Es tut mir leid, jemand der ne 4060Ti kauft kann ich einfach nicht bedauern, eine solche Person halte ich schlichtweg für dämlich oder ein völlig uninformiertes Opfer...

aufkrawall
2023-06-20, 18:41:07
Welcher Arbeitslose guckt sich solche 2h Laber-Podcasts von irgendwelchen völlig unbekannten oder unglaubwürdigen Leuten in voller Länge an? Was wird da gesagt?
Und natürlich ist Diablo 4 schrottig optimiert, die Assets wiederholen sich die ganze Zeit komplett und Geometrie sowie Grafikeffekte sind ein Witz.

HOT
2023-06-20, 19:18:48
Ist nur 10min oder so, ist die erste story. Er hat eben einige Entwickler-Aussagen zu dem Thema zusammengetragen.
Aber erst mal meckern, wie immer.

aufkrawall
2023-06-21, 10:26:55
Da wird auch nur gesagt, was man sich denken kann: Entwickler kriegens innerhalb der Zeitvorgabe nicht auf die Reihe.
Also technisches Missmanagement. Meanwhile läuft Fortnite mit maximalen Details als einziges echtes NextGen-Spiel (einigermaßen) problemlos mit 10GB, inkls. rBAR, und skaliert von der PS4 (bzw. Android) bis zur RTX 4090...

Schnoesel
2023-06-21, 12:11:51
Igor hat mal was bzgl VRAM untersucht:

https://www.igorslab.de/testreihe-mit-karten-von-nvidia-und-amd-wenn-ploetzlich-der-speicher-der-grafikkarte-nicht-mehr-reicht/

AMD und Nvidia reagieren unterschiedlich, aber wenn der Speicher überläuft laufen beide Scheiße (wenn auch in anderer Form). AMD bricht zwar eher ein als Nvidia cheated aber mit reduzierten Texturdetails. Lösung ist nur eines: mehr Speicher.
So viel zum hochgelobten Speichermanagement von Nvidia. Ist klar wer Texturen weglässt braucht weniger.

Ex3cut3r
2023-06-21, 12:18:40
Hmm, das wäre mir neu. Das der Treiber da einfach Texutren weglassen kann.
Normalerweise ist das immer das Spiel/Engine, das entscheidet wie umgegangen wird, wenn VRAM überläuft. Die meisten zeigen dann einfach Matsch an, andere ruckeln sich im einstelligen FPS Zahlen rum.

Leider hat Igor, so wie ich das sehe, keine Screenshots von AMD und Nvidia, wo das angeblich passiert zum vergleich. Naja, so richtig traue dem Braten nicht, was Igor da sagt.

EDIT: Wo genau, steht das eigentlich im Text?

EDIT 2: Oh Mann, der hat echt mit Workstation Grafikkarten getestet? "Radeon Pro W7800 mit 32 GB als auch die RTX 6000" Die verhalten sich im Gaming Bereich doch ganz anders als Consumer spezielle Gaming Grafikkarten. IMHO ein Fail, der ganze test.

aufkrawall
2023-06-21, 12:23:16
Ich halte die Methodik für sehr fragwürdig bzw. offenkundig invalide, 12GB AMD-Karten kacken definitiv nicht 2GB vor voller Belegung mal eben deutlich ein...

DrFreaK666
2023-06-21, 14:00:27
... EDIT 2: Oh Mann, der hat echt mit Workstation Grafikkarten getestet? "Radeon Pro W7800 mit 32 GB als auch die RTX 6000" Die verhalten sich im Gaming Bereich doch ganz anders als Consumer spezielle Gaming Grafikkarten. IMHO ein Fail, der ganze test.

Aber mit einer 12GB-Karte sagen, dass 8GB-Karten reichen, ist völlig in Ordnung :ugly:

Hab verstanden, dass es um Workstation-Karten ging. Aber du erwähnst die Speichermenge bestimmt nicht ganz zufällig

Platos
2023-06-21, 14:05:55
EDIT 2: Oh Mann, der hat echt mit Workstation Grafikkarten getestet? "Radeon Pro W7800 mit 32 GB als auch die RTX 6000" Die verhalten sich im Gaming Bereich doch ganz anders als Consumer spezielle Gaming Grafikkarten. IMHO ein Fail, der ganze test.

Was soll denn der Unterschied sein? Game Ready Treiber? Das betrifft nur die neuesten Spiele. Der Studiotreiber läuft genau so gut, wenn es sich nicht gerade um allerneueste Spiele handelt.

aufkrawall
2023-06-21, 14:13:11
Viel problematischer dürfte sein, dass die Spiele die volle Größe des VRAMs abfragen können, der dann aber durch die OCL-Anwendung nicht zur Verfügung steht. Und komische Wechselwirkungen durch die gleichzeitige Verwaltung der OCL-Anwendung und der Spiele-Belegung durch den Treiber sind auch jedenfalls alles andere als unplausibel. Der Test ist echt für die Tonne, kann man eigentlich nur so hart sagen...

Langlay
2023-06-21, 14:13:25
Was soll denn der Unterschied sein? Game Ready Treiber? Das betrifft nur die neuesten Spiele. Der Studiotreiber läuft genau so gut, wenn es sich nicht gerade um allerneueste Spiele handelt.

Yap, ich hab auf der Radeon VII fast immer den Pro Treiber benutzt weil der weniger rumgezickt hat. Leistungsmässig gabs da keine Unterschiede.

Ex3cut3r
2023-06-22, 23:22:19
Aber mit einer 12GB-Karte sagen, dass 8GB-Karten reichen, ist völlig in Ordnung :ugly:

Hab verstanden, dass es um Workstation-Karten ging. Aber du erwähnst die Speichermenge bestimmt nicht ganz zufällig

Natürlich ist das vollkommen legitim. Denn wenn eine 12GB Karte bei Usage und Belegung unter 8GB in einem Spiel ist, dann wird eine 8GB Karte natürlich niemals mehr belegen oder brauchen. :freak:

So schwer ist das nicht zu kapieren...eigentlich.

Was Igor jetzt macht ist schon fragwürdig. Er hätte IMHO einfach eine 8GB und eine 16GB Gamer Karte aus dem aktuellen Nvidia Lager und aus dem AMD Lager genommen.

Dann hätten wir uns die Frametimes angesehen, und wenn die sich dann komplett unterscheiden...und der Rest des Systems vollkommen gleich ist, dann wurden wir wissen, ok hier in diesem Spiel, bei Auflösung XY gibt es Probleme.

Gegebenenfalls das ganze mit Screenshots abrunden, wo Textur Matsch mit 8GB auftretet und daneben dann das 16GB VRAM Bild wo die Texturen vollständig sind. DF hat das z.B. letztens sehr gut hier dargestellt.

https://youtu.be/7UwKKHmPzhg?t=900

gnomi
2023-06-24, 10:38:19
Wäre gut, wenn man immer so ne Art 60fps Konsolenmodus mit testet.
Vielleicht 1080P nativ und 1440P mit DLSS/FSR.
Dazu Hohe Einstellungen ohne überzogene Features und etwas reduzierte Textur Details. Aber eben nichts, was die Qualität sonderlich abwerten darf.
Aber wieso sollte jemand daran interessiert sein?
Es würde rauskommen, dass man mit einer 2070S bis 3060TI immer noch gut spielen kann und neue GPU's derzeit frech überteuert sind und die Spiele mit hochgezogenen Einstellungen die GPU und CPU Leistung verbrennen.
Niemand würde dann auf Hardware Seiten jeden Bericht mehr aufsaugen und ständig was Neues wollen.
8GB GPU jetzt kaufen bleibt für mich Nogo, weil auf 2-4 Jahre Anschaffung zu knapp/limitierend. Preise 60er Serie sind frech.
Mit 8GB weiterspielen geht hingegen klar.

Thunder99
2023-06-24, 11:17:38
Der Test von Igor ist doch nur logisch.
Jeweils ne 32GB Karte (die es nur im Profi Sektor gibt) und dann die Skalierung anschauen. Ja, es mag ein "Fehler" sein mit Pro Karten zu testen, aber wenn man immer den Fehler hat kann man diesen aus der Gleichung nehmen :wink:

Warum AMD früher Probleme hat, ggf nur bei dem Spiel oder "kack" Treiber die dann das Problem verursachen? Es zeigt halt schön, dass Nvidia es besser macht mit dem Speichermanagement als AMD. Letztere sollte immer genug Speicher haben, bei Nvidia kann es noch etwas besser laufen.

Gilt also immer noch die Aussage eine AMD Karte sollte 2GB mehr haben als eine Nvidia um gleich gut in Sachen Speicher zu performen?

vinacis_vivids
2023-06-24, 11:29:53
Nvidia cheatet mit low-quality Texturen. Daher greife ich Aufgrund der Bildqualität immer zu AMD.

aufkrawall
2023-06-24, 11:38:13
Es zeigt halt schön, dass Nvidia es besser macht mit dem Speichermanagement als AMD.
Nein, machen sie nicht. Nvidia schmeißt in diversen Spielen wie RDR2, Far Cry 6 oder Fortnite aggressiver Daten aus dem VRAM, was dann ggf. Probleme auf Karten mit zu wenig VRAM vermeidet oder wenigstens lindert. Dafür gibts aber schlechtere Frame Times als mit AMD, wenn der VRAM ansonsten reichen würde. Und das macht sich um so stärker bemerkbar, je voller der VRAM wird, also etwa höhere Auflösung. Mit einer Radeon mit üppig VRAM ist man dahingehend also am besten dran.

Troyan
2023-06-24, 11:40:37
Quatsch. nVidia kann überhaupt nicht mehr Daten bei DX12/Vulkan rauswerfen. Das Spiel ist verantwortlich für die VRAM Verwaltung.

aufkrawall
2023-06-24, 11:42:45
Quatsch. nVidia kann überhaupt nicht mehr Daten bei DX12/Vulkan rauswerfen. Das Spiel ist verantwortlich für die VRAM Verwaltung.
Dann macht es das Spiel halt auf NV-Hardware aufgrund Nvidias Empfehlungen so, das Ergebnis ist das Gleiche.
Und ist auch nicht wirklich korrekt, was du sagst. Die VRAM-Belegung mit etwa rBAR verhält sich mitunter ziemlich unterschiedlich zwischen Radeon und GeForce. Gibt sogar Treiber-Profile dafür bei Nvidia. So viel zu "Der Treiber macht nichts."...

Exxtreme
2023-06-24, 12:02:09
Quatsch. nVidia kann überhaupt nicht mehr Daten bei DX12/Vulkan rauswerfen. Das Spiel ist verantwortlich für die VRAM Verwaltung.

Vulkan/Direct3D 12 sind keine APIs wo man komplett direkt auf der Hardware programmiert. Auch da hat man immer noch Abstraktionsschichten drüber. Und wo eine Abstraktionsschicht existiert da kann der Treiber was machen.

Thunder99
2023-06-24, 19:43:26
Nein, machen sie nicht. Nvidia schmeißt in diversen Spielen wie RDR2, Far Cry 6 oder Fortnite aggressiver Daten aus dem VRAM, was dann ggf. Probleme auf Karten mit zu wenig VRAM vermeidet oder wenigstens lindert. Dafür gibts aber schlechtere Frame Times als mit AMD, wenn der VRAM ansonsten reichen würde. Und das macht sich um so stärker bemerkbar, je voller der VRAM wird, also etwa höhere Auflösung. Mit einer Radeon mit üppig VRAM ist man dahingehend also am besten dran.
Hmm, ok da ist echt k...e :(. Ergo hilft nur üppig VRAM das der Treiber nicht "dazwischen" funkt :freak:

aufkrawall
2023-06-24, 20:15:38
Nope, da kannst du mit GeForce gar nichts machen. Fortnite versucht auf einer 24GB 4090 in 4k nativen unter 10GB zu bleiben. Je näher der Verbrauch an diese Marke während des Spielens hochschwappt, desto zuckeliger wird es. Wenn man im Spectator-Mode den Spieler wechselt, sieht man sogar manchmal für ein paar Sekunden nur Textur-Matsch.
Ich würd jetzt nicht sagen, dass es so ein Verhalten auf Radeons garantiert nicht gibt. Es scheint aber massiv geringer ausgeprägt zu sein.

Ausnahme ist Deathloop, das funktioniert mit der Radeon-VRAM-Verwaltung komplett nicht richtig bez. Frame Time-Varianz. Wobei man auch auf einer 4090 nach ein paar Minuten mit ausgereiztem VRAM auch nicht das Spiel minimieren kann, um mal kurz den Browser zu starten. Ist dann bis zum Level-Neustart hinsichtlich Spikes komplett gestorben, hakt alle paar Sekunden. Das ist dahingehend wirklich der größte Software-Schrott, den ich je gesehen habe.

Altehardware
2023-06-25, 23:46:18
Zuallererst muss amn wissend as die programme nur den speicher eines System als ganzes Sieht so auch die api
dx9 hat Limitierungen weswegen man kein spiel mit mehr als 4gb belegt werden kann.
dx10 ist die erste api die es ermöglicht mehr als ein thread für das rendern zu nutzen max 4
dx11 Führte die gemeinsame Speicher Nutzung ein von System RAM und video ram
dx12 ermöglich den Entwickler selber das Speichermenagdment zu gestalten insbesondere dem streaming.
Nvidia oder amd Treiber können lediglich den Speicher in der gpu managen
Läuft der buffer voll wird ausgelagert zu sehen an shared memory am pcie bus.
Folglich kann nvidia oder amd die qualität der texturauflösung der Filterung verringern.
Es sind die game engines die für eine geringere Textur Qualität sorgen wenn der vram nicht reicht

beim Erzwungenen upscaling bspw kann man vram einsparen aber das geht dann soweit bsp 1080p ultraperf mode das die native Auflösung nur noch 1024-576p ist, das sieht man deutlich da LCD nicht nativ skalieren.

zu den engines
unreal engine seit 1998 aktuell 5 meiste verwendete 4
unity engine
ID tech3 open source seit 1997
source aktuell version 2 (valve)
idtech seit 1994 aktuell 7
cry engine seit 2004 aktuell 5
gamebroy engine eol seit 2010
anvil seit 2006 aktuell 2
snowdrop seit 2016
dunia seit 2008 aktuell 2
creation engine seit 2003 aktuell 3 (letzte spiel fallout 76)
void seit 2014 /letztes spiel deathloop
iwtech seit 2002 aktuell 8
frostbyte seit 2012 aktuell 2

Engines sind immer toolsets das sind die mit komplettsets teils publisher exklusiv
Dazu kommen noch etwaige 2d engines die alle eol sind.
Die neueste ist unreal engine 5 auch wegen des lizenzmodells sehr interessant für alle publisher
Bald soll die cryengine 6 kommen und hoffentlich endlich vom abo Modell wegkommen ob es technisch besser wird ist offen
Derzeit setze ich auf die ue5 und diese hat mehrere Möglichkeiten den vram einzusparen das intrigierte upscaling tsr, sowie nanite distanz bezogene Auflösung ohne Texturen dafür Vorberechnet zu laden. Das erzeugt zwar mehr last auf die gpu aber der vram bedarf sinkt.
Dann die Möglichkeit per streaming vom ram direkt zu nutzen.
Und da derzeit kaum was von Entwicklungen an dunia anvil iwtech und co bekannt ist nehme ich an das die UE5 durchgehend zu industriestandard werden kann.
Für indi studios ist das schon so die unity engine hält dagegen aber lässt einiges vermissen

Ob valve endlich source 2 ne 3 spendiert ist offen.
valve hat angst vor der drei.

Ich könnte den verbrauch von min 50 games angeben mit der rtx3060 und gtx1060
Und etwa 350 games von der rtx3060 (eine Auswahl von games von 2004 bis 2022 ausgenommen games mit fps cap sonst wären es min 500)

Troyan
2023-06-26, 10:04:33
Vulkan/Direct3D 12 sind keine APIs wo man komplett direkt auf der Hardware programmiert. Auch da hat man immer noch Abstraktionsschichten drüber. Und wo eine Abstraktionsschicht existiert da kann der Treiber was machen.

DX12 und Vulkan sind explizierte APIs, die das komplette VRAM Management selbst verwalten. Deswegen sind diese auch so aufwendig und es benötigt viel mehr Code um überhaupt ein Dreieck rendern zu können.

Exxtreme
2023-06-26, 10:31:31
DX12 und Vulkan sind explizierte APIs, die das komplette VRAM Management selbst verwalten. Deswegen sind diese auch so aufwendig und es benötigt viel mehr Code um überhaupt ein Dreieck rendern zu können.

DirectX12/Vulkan geben dir eventuell die Illusion, dass du die totale Kontrolle über den VRAM hast. Solche Illusionen gibt es öfter. Sobald man aber eine Abstraktionsschicht hat, sollte man nicht davon ausgehen, dass man die Kontrolle hat. Die Kontrolle hat man dann wenn man direkt proprietären Maschinencode gegen die Hardware wirft. Und das ist bei DirectX12/Vulkan nicht der Fall.

Programmiert jemand in C oder C++ und meint die Kontrolle über den RAM zu haben? Da habe ich auch eine schlechte Nachricht. :)
https://lemire.me/blog/2020/03/03/calling-free-or-delete/

Troyan
2023-06-26, 10:36:56
Du hast die vollständige Kontrolle bei diesen APIs. Der Treiber macht kaum mehr was. Er ist einzig nur noch eine Art Translationlayer zwischen API und Hardware.

Langlay
2023-06-26, 14:06:19
Du hast die vollständige Kontrolle bei diesen APIs. Der Treiber macht kaum mehr was. Er ist einzig nur noch eine Art Translationlayer zwischen API und Hardware.

Ob du ein dünnes Brett vor dem Kopf hast oder 2-3 dicke macht keinen Unterschied.

Exxtreme
2023-06-26, 14:13:05
Du hast die vollständige Kontrolle bei diesen APIs. Der Treiber macht kaum mehr was. Er ist einzig nur noch eine Art Translationlayer zwischen API und Hardware.

Sobald du auch nur eine Abstraktionsschicht hast, kannst du nicht davon ausgehen, dass du die volle Kontrolle hast. Und die volle Kontrolle gibt es offenbar auch nicht mit DirectX12 und Vulkan. Sonst würden sich alle GPUs ziemlich exakt gleich verhalten. Das tun sie aber nicht. Sprich, man bekommt eine Art virtualisierte volle Kontrolle ähnlich RAM beim OS anfordern und wieder freigeben. Kann man sicherlich machen aber ein free/delete ist dann eher ein "hint" denn eine harte Anweisung.

DrumDub
2023-06-26, 15:06:02
Sobald du auch nur eine Abstraktionsschicht hast, kannst du nicht davon ausgehen, dass du die volle Kontrolle hast. Und die volle Kontrolle gibt es offenbar auch nicht mit DirectX12 und Vulkan. Sonst würden sich alle GPUs ziemlich exakt gleich verhalten. Das tun sie aber nicht. Sprich, man bekommt eine Art virtualisierte volle Kontrolle ähnlich RAM beim OS anfordern und wieder freigeben. Kann man sicherlich machen aber ein free/delete ist dann eher ein "hint" denn eine harte Anweisung. so isses.

HOT
2023-06-27, 16:30:59
Mal ein weiterer Gedanke zu Spieleoptimierung:
Spielehersteller sollten gar nicht mehr dieses low-bis-ultra-Spiel spielen. MMn reicht ne Basiseinstellung und eine advanced Einstellung (Textureinstellung hier kann sich ja automatisch an VRAM-Pool anpassen). Alles weitere sollte man dem Spieler überlassen. Man braucht keine 5 presets von denen 3 nie benutzt werden, das ist nur aufwendig in der Optimierung und fürn Arsch, weil zufrieden ist doch eh keiner. Und ich würde mir eine Sammelfunktion für Film-Features wünschen wie Chromatische Aberration, Filmkörnung, und Bewegungsunschärfe wünschen, weil ich damit alle (in meiner Empfindung) Schrottfeatures abschalten könnte mit einem Schalter :D.

Raff
2023-08-01, 10:53:27
Hier ein paar Werte des Stand jetzt gemeinsten Spiels (mal sehen, wie lange noch): Ratchet & Clank - Rift Apart (https://www.pcgameshardware.de/Ratchet-und-Clank-Rift-Apart-Spiel-73185/Specials/Benchmark-Test-Review-PC-Version-1425523/2/)

6 vs. 12 GiB, 8 vs. 16 GiB (und 8 vs. 10 bei Radeon), ziemlich eindrücklich.

MfG
Raff

gnomi
2023-08-01, 12:48:40
Haben ist besser als brauchen.
Wie sieht es denn mit angepassten Textureinstellungen aus?
Die 53% Lücke bei der 4060TI/Full HD kriegt man vielleicht klein mit vertretbaren Kompromissen.:confused:
6 oder 8 GB VRAM sind bei Neukauf natürlich nicht empfehlenswert, aber alles unter 4070 ist auch zu langsam irgendwie.

phoenix887
2023-08-02, 08:26:36
Den VRAM Hunger kann ich Unter Linux nicht bestätigen. In WHQD Max Out bis auf RT komme ich mit meiner RX 6800 nicht über 10 GB. Egal wie lange ich spiele.

Nach meiner meiner Meinung ist Windows und RT nichts anderes wie ein Subventionsprogramm für Grafikkarten.

Raff
2023-08-02, 09:04:10
Den VRAM Hunger kann ich Unter Linux nicht bestätigen. In WHQD Max Out bis auf RT komme ich mit meiner RX 6800 nicht über 10 GB. Egal wie lange ich spiele.

Das deckt sich doch gut mit den Benchmarks - WQHD ist nicht Worstcase, Rasterizing ist nicht Worstcase -> 8-GiB-Karten kämpfen, gehen aber nicht komplett ein. Erst mit Raytracing, allem und scharf braucht man mindestens 12 GiB, damit's fluffig läuft.

MfG
Raff

phoenix887
2023-08-02, 13:36:07
Das deckt sich doch gut mit den Benchmarks - WQHD ist nicht Worstcase, Rasterizing ist nicht Worstcase -> 8-GiB-Karten kämpfen, gehen aber nicht komplett ein. Erst mit Raytracing, allem und scharf braucht man mindestens 12 GiB, damit's fluffig läuft.

MfG
Raff

Jo, habe auch alles aufgedreht. Bis auf RT. Wieder Nvidia Werbung wegen ein paar Reflexionen. Ich sag’s ja Subventionsprogramm.

DrFreaK666
2023-08-02, 19:06:35
Jo, habe auch alles aufgedreht. Bis auf RT. Wieder Nvidia Werbung wegen ein paar Reflexionen. Ich sag’s ja Subventionsprogramm.

Reflexionen gabs auch auf der PS5 mit AMD-Hardware

The_Invisible
2023-08-02, 19:46:33
Jo, habe auch alles aufgedreht. Bis auf RT. Wieder Nvidia Werbung wegen ein paar Reflexionen. Ich sag’s ja Subventionsprogramm.

RT/PT ist einfach der nächste Schritt in der Spielegrafik oder willst heute noch irgendwas ohne Shader spielen... das wird in Zukunft einfach normal sein

Holundermann
2023-08-02, 23:39:09
Programmiert jemand in C oder C++ und meint die Kontrolle über den RAM zu haben? Da habe ich auch eine schlechte Nachricht. :)
https://lemire.me/blog/2020/03/03/calling-free-or-delete/

Natürlich hat man in c/c++ die volle Kontrolle über den Speicher - das wird in dem Artikel auch in den Kommentaren diskutiert - halt nicht wenn man mmalloc und free verwendet sondern die syscalls auf denen die aufsetzen.

dildo4u
2023-08-08, 06:15:10
Paar Werte von Baldursgate 3 mit DX11 und Vulkan.

https://www.techpowerup.com/review/baldur-s-gate-3-benchmark-test-performance-analysis/5.html

SimonGreen
2023-08-10, 20:18:33
Weiß jemand wie Baldur's Gate 3 auf folgendem System laufen wird?
Seit 08.08.2023 gibt es auch den neuen Nvidia v536.99 Treiber mit BG3 "Verbesserungen"

4k, full details

Ryzen 3600
RTX 2070 8GB
32GB RAM

Hat das jemand getestet? Evtl auch mit neuem Treiber?

vinacis_vivids
2023-08-10, 20:29:52
~25fps kriegste vllt.

Thunder99
2023-08-10, 20:37:01
Nimm DLSS, dann passt das.

Raff
2023-08-10, 22:56:54
https://www.pcgameshardware.de/Baldurs-Gate-3-Spiel-18525/Specials/Benchmark-Test-Review-Grafik-Ersteindruck-1425826/2/

Eine RTX 2070 liegt zwischen 2060 und 2070S -> 25-30 Fps in einem GPU-lastigen Gebiet. Schaltest du DLSS Performance ein, werden daraus ~50.

Der neue Treiber ist übrigens genauso schnell wie der alte.

MfG
Raff

Razor
2023-08-11, 07:14:15
Der neue Treiber ist übrigens genauso schnell wie der alte.
Wer hätte das gedacht ;D

Razor

gnomi
2023-08-11, 11:38:58
2070-3060 TI 8GB VRAM und DLSS 2 Niveau werden wohl doch noch bisschen länger reichen.
Wer die Anforderungen überreizt, muss mit einer starken Franchise unterwegs sein und Optimierungen in Aussicht stellen.
Ansonsten bleiben PC Versionen zunehmend schlecht verkauft liegen.
BG 3 ist löblich umgesetzt. Ich bin trotzdem auch gespannt, wie die Konsolen Fassung mit COOP so rüberkommt.
Könnte mir das durchaus vorstellen schön am Fernseher, wenn die Bedienung einwandfrei ist...

Lurtz
2023-08-11, 16:04:37
Ansonsten bleiben PC Versionen zunehmend schlecht verkauft liegen.

Ist das so?

gnomi
2023-08-13, 17:45:50
Tendenziell imho schon.
Allerdings steht auch jetzt nicht immer die Technik allein im Vordergrund.

Wenn das Spiel für den PC Markt prinzipiell interessant ist und viele anspricht, dann wird ja auch vom Start weg zunächst gut gekauft.
Und ein paar Patches bei spezielleren Problemen sind auch noch keine so extreme Sache außer bei so Freaks wie in den Foren.

Auf lange Sicht denke ich allerdings, dass sich die eher schlechten technischen Umsetzungen und hohen GPU Preise unvorteilhaft auswirken können.
Es gab dazu auch schon Zahlen vom PC Markt 2022 mit schwachen Software Umsätzen. Allerdings bräuchte man da schon noch die Daten der nächsten Monate und Jahre.

Im Falle von Sony liefen aber auch einige Sachen sehr zufriedenstellend.
God of War auf jeden Fall. Horizon und Days Gone ganz okay.
Spiderman hat sich gut verkauft. Last of Us wegen paar Problemen aber dann wohl etwas unter den Erwartungen.
Returnal und Ratchet sind wohl nicht so Favoriten. Waren auf Playstation aber auch keine ganz großen Hits. Vorhandene Inhouse Engine Technologie oder UE ist aber vielleicht generell nicht so aufwendig.
Die Umsätze sind natürlich hoch, denn vorher gab es für PC Fans nichts zum Spielen. Start Bonus.
Aber da muss man einfach abwarten, ob Sony das auch durchzieht mit den Veröffentlichungen. Natürlich freue ich mich da über jedes zeitnah umgesetzte Spiel. Falls die allerdings nur billig Cash einnehmen wollen mit suboptimalen Umsetzungen, werden die schnell merken, dass der PC Markt da vielleicht etwas schwieriger ist.
Microsoft hat das auch auf die harte Tour gelernt. Mittlerweile kann man im Game Pass sehr gleichberechtigt und auf der Wunschplattform zeitgleich neue Veröffentlichungen spielen.=)

Lurtz
2023-08-13, 17:56:45
Naja, der große Trend ist recht eindeutig - es spielen mehr denn je am PC und auch die Umsatzanteile gegenüber den Konsolenplattformen sind stabil, da muss man sich eher Gedanken um die XBox machen. Hat schon seinen Grund wieso Microsoft den PC wieder so in den Fokus gesetzt hat, und dafür sogar "Strafgebühr" bei Valve zahlt statt nur Gamepass und Windows Store zu nutzen.

Und auch für viele andere Publisher hat der PC einen großen Umsatzanteil oder ist wie bei Capcom teils sogar die stärkste Plattform mitunter.

Aber klar, gewisse Dinge wie die teuren Grafikkartenpreise könnten auf Dauer problematisch sein, wobei der Konsolen-Generationssprung ja nun erstmal bewältigt wurde. Und wenn man sieht wie schlecht viele Current-Gen-Spiele abseits von Sony-Exklusivtiteln (;)) auf den Konsolen performen ist da auch nicht mehr viel Headroom für Performance-Verschlechterungen am PC über, der ja immerhin auch von Upsampling und Co profitieren kann.

HisN
2023-09-02, 00:12:49
Als Sparsamer VRAM-JÜnger kann man sich Starfield auf jeden Fall geben.
Nicht mal UHD ohne Upsampling lässt 8GB überlaufen.
Entsprechend matschig sieht es auch aus :-)

1. Bild nach dem Intro
https://abload.de/img/starfield_startsbe0w.png (https://abload.de/image.php?img=starfield_startsbe0w.png)

2. Nach 2h der Story folgen.
https://abload.de/img/starfield_firstraisp.png (https://abload.de/image.php?img=starfield_firstraisp.png)

Raff
2023-09-02, 01:00:00
Mal sehen, wann die ersten Grafikmods spawnen. :biggrin: Wundert mich ehrlich gesagt, dass da nicht direkt ein (optionales) HD-Texturen-Paket bereit steht, denn der Partner ist schließlich AMD.

MfG
Raff

latiose88
2023-09-02, 04:16:03
Villeicht hat AMD nicht genug gezahlt oder die brauchen noch ne Zeit bis das Vernünftig in das Spiel gepatcht wird ,wer weis.

Ich weis warum,weil AMD ja mehr Speicher hat als Nvidia.Damit die einen klaren Vorteil geniesen können wie der mehr an Speicher und so.

aufkrawall
2023-09-02, 04:20:07
Villeicht hat AMD nicht genug gezahlt oder die brauchen noch ne Zeit bis das Vernünftig in das Spiel gepatcht wird ,wer weis.

Die wesentlich plausiblere Variante (so ein Dünnpfiff btw.) ist, dass AMD's und Bethesda's Zusammenarbeits-Gelaber reine heiße PR-Luft ist, bis auf FSR 2 als Abfallprodukt von den Konsolen (+DLSS-Sabotage).

Lurtz
2023-09-02, 11:39:47
An die Frankenstein-Engine kann man sicher niemanden setzen, der sich nicht zuvor jahrelang eingearbeitet hat, insofern.

The_Invisible
2023-09-02, 13:50:24
Mal sehen, wann die ersten Grafikmods spawnen. :biggrin: Wundert mich ehrlich gesagt, dass da nicht direkt ein (optionales) HD-Texturen-Paket bereit steht, denn der Partner ist schließlich AMD.

MfG
Raff
Wie sehr willst AMD bei Starfield noch failen lassen? :freak:

OCmylife
2023-09-02, 14:43:58
Als Sparsamer VRAM-JÜnger kann man sich Starfield auf jeden Fall geben.
Nicht mal UHD ohne Upsampling lässt 8GB überlaufen.
Entsprechend matschig sieht es auch aus :-)

1. Bild nach dem Intro
https://abload.de/img/starfield_startsbe0w.png (https://abload.de/image.php?img=starfield_startsbe0w.png)

2. Nach 2h der Story folgen.
https://abload.de/img/starfield_firstraisp.png (https://abload.de/image.php?img=starfield_firstraisp.png)

Die Bäume erinnern mich leider an eine Morrowind Mod und das Spiel ist von ... 2002? Okay, auch von Bethesda, aber irgendwie wirkt es an so manchen Stellen doch etwas zu altbacken. Wird mich sicherlich nicht davon abhalten es nach Release zu kaufen, aber ein fader Beigeschmack bleibt bei der benötigten Hardware für das Gebotene dennoch.

][immy
2023-10-31, 15:04:54
Um das Thema mal wieder auf zu bringen, Alan wake 2 scheint aktuell zu zeigen das es auch mit "wenig" vram geht. 8gb stellt keine Limitierung dar. Allerdings ist es ansonsten auch ziemlich fordernd und wohl erst in Zukunft voll ausgefahren wirklich gut spielbar.

dildo4u
2023-10-31, 15:18:59
Kommt drauf an RT füll den Speicher nur sind die Midrange Karten zu langsam für 1440p.


4060 TI 16GB 29fps, 8GB 7fps.

https://www.techpowerup.com/review/alan-wake-2-performance-benchmark/7.html

The_Invisible
2023-10-31, 15:42:35
[immy;13426885']Um das Thema mal wieder auf zu bringen, Alan wake 2 scheint aktuell zu zeigen das es auch mit "wenig" vram geht. 8gb stellt keine Limitierung dar. Allerdings ist es ansonsten auch ziemlich fordernd und wohl erst in Zukunft voll ausgefahren wirklich gut spielbar.

Kommt mit max Details in 4k + PT/DLSS-Q/FG auf gute 15-16GB VRAM. Aber skaliert anscheinend nicht schlecht wenn man es auch mit einer 6GB 2060 zocken kann.

][immy
2023-10-31, 15:46:57
Kommt drauf an RT füll den Speicher nur sind die Midrange Karten zu langsam für 1440p.


4060 TI 16GB 29fps, 8GB 7fps.

https://www.techpowerup.com/review/alan-wake-2-performance-benchmark/7.html
Jep, da ist dann aber raytracing einfach wirklich zu viel ;)
War eher ein Bezug darauf das es in letzter Zeit immer wieder Spiele auch ohne RT geschafft haben den Speicher scheinbar sinnlos zu füllen und überproportional an Performance zu verlieren.
Bei AW2 ist dies erst mit Ray tracing und path tracing tatsächlich der Fall. Hier schaffen es auch die rdna2 Karten schneller zu sein als die Ampere Karten. Aber trotzdem nicht im spielbaren Bereich (3,4 vs 10 fps)
Ja dieses Spiel wird wohl das neue Crysis für eine Weile sein.
Kommt mit max Details in 4k + PT/DLSS-Q/FG auf gute 15-16GB VRAM. Aber skaliert anscheinend nicht schlecht wenn man es auch mit einer 6GB 2060 zocken kann.

Und sieht mit reduzierten Details nicht nach Matsche aus ;)

basix
2023-10-31, 22:42:34
https://www.techpowerup.com/review/alan-wake-2-performance-benchmark/7.html

Interessant sind die 4K Raytracing Werte: 12GByte Karten von Nvidia brechen weg, AMD Karten nicht. Dito bei den 1440p Pathtracing Benches und 8 GByte Karten. Und noch extremer 4K PT wo dei 7700XT mit 12 GByte noch mithält und alle anderen AMD & Nvidia Karten mit 12 GByte nicht.

dildo4u
2023-11-01, 03:37:01
Die 7800XT läuft richtig gut in Alan Wake und die Kosten aktuell kaum mehr als 4060Ti 16GB.

Hatstick
2023-11-01, 11:06:01
* Wer möchte 4k spielen und hat nur eine 12GB im PC? Keine geeignete Kombo!

* Der Gegenspieler der 7800XT ist die RTX 4070, das sie gegen eine 4060Ti immer recht gut aussieht ist klar, diese ist auch 30% langsamer wie die RTX 4070 und wird immer schlecht gegen eine 7800XT aussehen, weil andere Leistungsklasse.

dildo4u
2023-11-01, 11:08:58
Auf die Preise achten in der EU sind 4060Ti 16GB dichter bei der 7800XT als 4070.

Hatstick
2023-11-01, 11:15:31
Will da nVidia nicht verteidigen aber sieht dann natürlich sehr wohlwollend geschönt aus, wenn man die 4060Ti gegen die 7800XT aufstellt.
Sehe die RTX 4070 klar als 7800XT Gegenspieler, egal ob die 4060Ti jetzt 20€ näher dran ist. Trotz allem bleibt ne ganz andere Leistungsklasse wie die 4070.

Thunder99
2023-11-01, 11:20:06
8GB sind nicht mehr zeitgemäß. Am Beispiel von Alan Wake 2 sieht man aber auch, der Hunger lässt sich stillen mit den Einstellungen.

Cyberpunk 2.x und Alan Wake 2 im max. Details RT Setting sind das neue Crysis :freak:
Ihrer Zeit voraus bzw nur mit Tricks möglich den Detailgrad flüssig anzuzeigen.

DrFreaK666
2023-11-01, 11:20:24
Kauft man nach Leistungsklasse oder nach Preis? 7800XT 13% teurer als 4060Ti. Die 4070 ist nochmals 10% teurer. Wenn die 4060Ti zu langsam und die 4070 zu teuer ist, dann ist die 7800XT eine gute Wahl.
Zu beachten ist natürlich, dass es bei AMD zur Zeit kein Spiele-Bundle gibt, bei der 4070 allerdings schon

vinacis_vivids
2023-11-10, 07:35:57
https://abload.de/thumb/farcryr610.11.202307grezs.webp (https://abload.de/image.php?img=farcryr610.11.202307grezs.webp)

23,5GB belegt und 20GB benutzt mit FC6 HD-Texturen (5120X2160) X 1,3 = 6656 X 2808 pixel.

gnomi
2023-11-10, 09:43:28
Far Cry ist einfach verschwenderisch.
Hatte gestern bisschen an der Auflösungsskalierung gespielt und dann auch eine Warnmeldung zum VRAM kassiert.
Letztendlich sind die Grafiken und Texturen doch ein wenig überholt.
UE5 in Immortals of Aveum bringt da ein viel schöneres Gesamtbild mit den Texturen bei überraschend gutem VRAM Verbrauch. Liegt natürlich auch am besseren Upscaling, womit man nicht auf native Auflösungen mehr angewiesen ist.
Und da werden wir ja einige Titel mit der Engine sehen.
Insofern bin ich da jetzt doch leicht entspannt, dass man mit 8GB immerhin einigermaßen Spaß in Full HD und mit 12 GB keine nennenswerten Probleme bis UWQHD hat die nächsten 1,2 Jahre.
16 sollten dann mit Upscaling bis 4K reichen.
Neue Anforderungen dann erst mit schnelleren Konsolen und bei Epic und modifizierten Settings.
Alan Wake 2 bspw. ist quasi für drei Generationen gemacht.
2080 Liga eher Raster oder wenig Auflösung. 3080 bisschen RT oder mehr Auflösung. Und 4080 dann eventuell schon mal PT probeweise oder volle Auflösung.

HOT
2023-11-10, 10:31:02
Wer wirklich hochauflösende Texturen haben möchte, muss verschwenderisch sein.

Lurtz
2023-11-10, 11:54:47
Sieht wie kompletter Müll aus gegenüber UE5 mit 8-10 GB VRAM-Belegung :ugly:

gnomi
2023-11-10, 11:56:58
Imho braucht es eher eine hohe Qualität für gängige VRAM Budgets. (8/12/16)
Nach Oben raus kann man sicher mehr anbieten.
Verschwenderisch wie zum Beispiel unkomprimierte Texturen wie in Doom3/Quake 4 wirken im Nachhinein allerdings lachhaft, wenn neue Spiele mit im Gesamtbild detaillierteren Grafiken und moderneren Techniken kommen. Für PC mit näherem Sitzabstand sollte man natürlich bis zu einem gewissen Grad mehr anbieten.
Wir sahen, dass es viele HD Textur Pakete gab, als die PS4/Xbox One Konsolen immer mehr limitierten und mit Pro und One X erweitert wurden.
Die Fortschritte fand ich zumeist allerdings überschaubar.
Zum Glück kommt jetzt mehr moderne Technik statt paar Extra Texturen und hochgezogene Details auf alte Engines.

dildo4u
2023-11-10, 12:26:09
Die nächsten Ubisoft Games sind zum Glück Snowdrop immer noch extrem Performant ohne massiven Vram Hunger.
Anvil und Dunia gehören beerdigt Far Cry und Assassin’s Creed sehen minimal 5 Jahre gleich aus.(Assassin’s Creed Origins ist von 2017!)

vinacis_vivids
2023-11-10, 12:33:53
Ja, die älteren Engines rendern aber native während die neuen Dinger nur noch upsclaling betreiben.

Der Detailreichtum durch native Auflösung und HD-Textures kann kaum ersetzt werden:

https://abload.de/img/farcryr610.11.202306gveuc.webp

Native braucht bei mir 17GB und mit 1,3X Downsampling! dann 23GB.
Viele UE5 mit upsampling sehen nicht wesentlich besser aus, auch nicht in Bewegung, da ist die Far Cry Serie absolut top.

Exxtreme
2023-11-10, 12:48:02
Ja, die älteren Engines rendern aber native während die neuen Dinger nur noch upsclaling betreiben.


Ob man nativ oder per Upscaler rendert ist für den VRAM-Verbrauch praktisch nicht relevant. Denn auch in niedrigerer Auflösung werden alle Mipmaps der Texturen vorgehalten. Ausnahmen sind natürlich Texturen, die höher aufgelöst sind als die Bildschirmauflösung. Das lässt sich gut wegoptimieren. Aber so hoch aufgelöste Texturen sind extrem selten.

][immy
2023-11-10, 17:13:22
Ja, die älteren Engines rendern aber native während die neuen Dinger nur noch upsclaling betreiben.

Der Detailreichtum durch native Auflösung und HD-Textures kann kaum ersetzt werden:

https://abload.de/img/farcryr610.11.202306gveuc.webp

Native braucht bei mir 17GB und mit 1,3X Downsampling! dann 23GB.
Viele UE5 mit upsampling sehen nicht wesentlich besser aus, auch nicht in Bewegung, da ist die Far Cry Serie absolut top.

Du merkst aber schon das da was nicht ganz stimmen kann in der engine. Trotz quasi gleichem Bildinhalt deutlich mehr Speicherverbrauch. Am Rendertarget liegt die Erhöhung des Verbrauchs jedenfalls nicht. Da kamen nur ein paar mehr MB bei rum (trotz quadratischem Wachstum bei der Auflösung). Eher an fehlenden Optimierungen der engine im Zusammenspiel mit den Textur Packs. Aber Spiele sind meist nur auf das "normale" Niveau optimiert. Alles darüber hinaus zahlt man meist mit überdurchschnittlich viel Hardware.

aufkrawall
2023-11-10, 17:24:40
Der Detailreichtum durch native Auflösung und HD-Textures kann kaum ersetzt werden:

https://abload.de/img/farcryr610.11.202306gveuc.webp

Das sieht aus wie komplette Rotze gegen Talos 2, das mit <10GB läuft:
https://abload.de/img/screenshot_20231108_2eee7a.png (https://abload.de/image.php?img=screenshot_20231108_2eee7a.png)

Nanite-Terrain könnte den VRAM-Verbrauch bei gleichzeitig gesteigerter Qualität auch noch weiter senken. Ggf. löst das auch das sichtbare Terrain-Streaming bei Drehungen.
Das HWRT in Dunia ist auch ein Witz schon gegen SWRT-Lumen. Gut, dass selbst Ubisoft so einen Murks mittlerweile mal beerdigt.

Relex
2023-11-12, 14:40:34
Ja, die älteren Engines rendern aber native während die neuen Dinger nur noch upsclaling betreiben.

Der Detailreichtum durch native Auflösung und HD-Textures kann kaum ersetzt werden:

https://abload.de/img/farcryr610.11.202306gveuc.webp

Native braucht bei mir 17GB und mit 1,3X Downsampling! dann 23GB.
Viele UE5 mit upsampling sehen nicht wesentlich besser aus, auch nicht in Bewegung, da ist die Far Cry Serie absolut top.


Ich finde FarCry 6 ein schlechtes Beispiel für das was du sagen willst. Passt nicht zu deinen Worten.
Denn das Spiel sieht für mich in nativer Auflösung aus, als hätte man irgend nen total veralteten Upscaler oder irgend ein Checkerboarding genutzt, das sich nicht abschalten lässt. Wenn mir in den letzten Jahren ein Spiel mit besonders schlechter Bildqualität aufgefallen ist, dann Far Cry 6...
Die Grafik kann man sich ohne Downsampling kaum geben, so grisselig sieht das alles aus.

Die Texturen sind jetzt auch nicht so geil.

Bin da voll und ganz bei aufkrawall.

Gegen next bzw. current gen Engines stinken die alten Spiele ziemlich ab.
Vor allem zeigen moderne Engines, dass man nicht alles mit Speicher erschlagen muss. Der VRAM Hunger eines Far Cry ist ein witz. Die UE5 schafft bei halb so viel Speicher sehr viel schärfere Texturen und geometrie darzustellen bei gleichzeitig massiv höherer Bildqualität. Und was bei gleichem Speicherverbrauch möglich wäre kann man sich jetzt noch kaum ausmalen.

basix
2023-11-12, 15:20:48
Zum Glück kommt jetzt mehr moderne Technik statt paar Extra Texturen und hochgezogene Details auf alte Engines.

Jop. Mesh Shaders in AW2 zeigen es bereits für Geometrie. Und die UE5 sowieso schon.

Bei Texturen ist es bei der UE5 stark mit Nanite und dessen Streaming verknüpft. Was auch sehr gut funktioniert. Andere Spiele sollten aber mal mit Sampler Feedback Streaming und Direct Storage antanzen.

Gegen next bzw. current gen Engines stinken die alten Spiele ziemlich ab.
Vor allem zeigen moderne Engines, dass man nicht alles mit Speicher erschlagen muss. Der VRAM Hunger eines Far Cry ist ein witz. Die UE5 schafft bei halb so viel Speicher sehr viel schärfere Texturen und geometrie darzustellen bei gleichzeitig massiv höherer Bildqualität. Und was bei gleichem Speicherverbrauch möglich wäre kann man sich jetzt noch kaum ausmalen.

Es gibt aber auch einfach schlechte oder fehlerhafte Implementierungen. TLOU1 zeigte extrem schlechte Texturdetails. Mit einem Patch wurde das behoben, bei gleichzeitig sogar deutlich weniger Speicherverbrauch: https://youtu.be/L8bg9coF6AA?t=285

The_Invisible
2023-11-19, 17:33:43
Alan Wake 2 habe ich zum Schluss hin bis zu knapp 18GB gesehen, in 4k+DLSSQ+FG+PT@max. Cache wirds wohl nicht so sein da bei Szenenwechsel der VRAM ziemlich geleert wird.

Ansonsten wäre ich jetzt bei knapp 11 Monate Nutzung noch nie an die 24GB rangekommen (jeweils auch mit DSR) bei spielbaren fps, bin ja gespannt ob die 5090 nochmals mit 24GB kommt ;)

basix
2023-11-20, 08:38:08
Die Wahrscheinlichkeit auf 24GB ist relativ hoch. Allerdings stünden bei GDDR7 endlich 24 Gbit Chips an. +50% VRAM über alle Produktsegmente wären nice, vor allem bei der unteren Hälfte des Produkt-Stacks. Nvidias 4060er kranken an 8GByte und die 12GByte der 4070er können je nach Situation nur noch wenig Reserve haben. 12GByte bzw. 18/15GByte wären hier ziemlich ideal. 36GByte bei der 5090 wäre aber eindeutig Overkill ;) Hatte zwar auch schon Situationen, wo die 24 GByte nicht ausreichten. Das waren aber allesamt 8K Experimente und das war dann auch mit der 4090 nicht spielbar. Die 5090 könnte aber in die Spielbarkeit vordringen.

Thunder99
2023-11-20, 09:40:08
11GB war ihrer Zeit voraus wie auch die 24GB. Man kann es nutzen aber das Groß der Spiele braucht man es nicht.
Finde es sehr wichtig das wieder an der Effizienz vom Speicherverbrauch gearbeitet wird.

vinacis_vivids
2023-11-20, 13:22:20
~20GB
jyUHCEoNCLQ

Raff
2024-01-30, 12:29:11
Bisschen Evidenz zum Thema "Tatsächlicher Bedarf": 16 gegen 12 GiByte VRAM: Geforce RTX 4070 Ti Super vs. RTX 4070 Ti (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Super-Grafikkarte-280115/Tests/16-vs-12-GByte-Geforce-RTX-4070-Ti-Super-vs-RTX-4070-Ti-1439313/)

Ist ein Spin-off aus dem TiS-Test mit etwas mehr Erläuterung drumherum. Wird auch im Video thematisiert.

-> Wer alles nutzen möchte, das eine neue Geforce kann, sollte 16 GiB haben.

MfG
Raff

Lurtz
2024-03-06, 10:56:16
Why VRAM’s So Important For Gaming: 4GB vs. 8GB ('https://www.youtube.com/watch?v=Gd1pzPgLlIY')

Mit visuellen Vergleichen.

DrFreaK666
2024-03-06, 11:35:08
Deshalb hab ich mich für die 6700XT und gegen die 3060Ti entschieden

redpanther
2024-03-06, 13:52:03
Bisschen Evidenz zum Thema "Tatsächlicher Bedarf": 16 gegen 12 GiByte VRAM: Geforce RTX 4070 Ti Super vs. RTX 4070 Ti (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Super-Grafikkarte-280115/Tests/16-vs-12-GByte-Geforce-RTX-4070-Ti-Super-vs-RTX-4070-Ti-1439313/)

Ist ein Spin-off aus dem TiS-Test mit etwas mehr Erläuterung drumherum. Wird auch im Video thematisiert.

-> Wer alles nutzen möchte, das eine neue Geforce kann, sollte 16 GiB haben.

MfG
Raff

Hätte es interessant gefunden, wenn bei der non super noch geprüft würde was für Auswirkungen hat, wenn man nur mal den Textur Regler in den Spielen eine oder gar 2 Stufen runter stellt.
Performance Gleichwertig wie die Super?? Bekommt man Augenkrebs wegen low res Texturen?
Mir ist klar das man nicht alle Einstellbaren Parameter Testen kann, aber Textur Auflösung liegt ja doch sehr nah und wird vermutlich beim Speicher die größten Auswirkungen haben, oder?

Crazy_Chris
2024-03-06, 16:04:26
letztens im FS2020 knapp 19Gb VRAM Verbrauch mit einer 7900XT. Und dabei ist um Grunde nüscht zu sehen. :freak:

gnomi
2024-03-08, 10:02:08
Hätte es interessant gefunden, wenn bei der non super noch geprüft würde was für Auswirkungen hat, wenn man nur mal den Textur Regler in den Spielen eine oder gar 2 Stufen runter stellt.
Performance Gleichwertig wie die Super?? Bekommt man Augenkrebs wegen low res Texturen?
Mir ist klar das man nicht alle Einstellbaren Parameter Testen kann, aber Textur Auflösung liegt ja doch sehr nah und wird vermutlich beim Speicher die größten Auswirkungen haben, oder?

Texturen eine Stufe runter funktioniert äußerst gut.
Bis WQHD gehen dann 8GB Vram oft brauchbar.
Mit 12GB ist auch UWQHD bis 4k oft möglich.
Mehr Ram ist immer besser, aber die Verschwendung/Ansprüche von Ultra Einstellungen und das Testen vorwiegend Hardware lastiger Games sollte man auch im Hinterkopf haben.
Genauso, dass PCGH für unsere Blase von ein paar tausend Hardware Freaks schreibt und kein Interesse daran hat, Artikel zu bringen, dass ein fünf Jahre altes System bereits über PS5 Niveau performt und im Grunde genommen völlig ausreicht. ;)

Als Beispiel kann ich Steel Rising bringen, was ein ziemlicher Hardware Fresser ist.
Mit der 3080TI die Texturen nicht auf Ultra. Performance soweit okay in UWQHD.
Jetzt mit 4080S und 4K kann man mal alles auch ohne Frame Generation aufdrehen, da eben über 40% mehr Power und 1/3 mehr VRAM.

Letztendlich ist es auch in Sachen Bildqualität schicker.
Allerdings gingen auch 2K in die Aufrüstung GPU und Monitor, was sich dann für mich erst nach 1-2 Dutzend cooler Spiele bzw. ab 500 Spielstunden und mehr anfängt zu lohnen.

Ist schon genial soweit, wenn alles sorgenlos einstellbar ist.
Nach Oben hin bekommt man nur immer weniger. Und wenn man seine Ansprüche dann maximiert, wird man auch gut abkassiert von den Firmen.

ChaosTM
2024-03-08, 10:38:01
Das alte Thema.: "Geplante Obsoleszenz" vs."stellen wir doch einfach die Qualität runter".

Für NV ist Lösungsweg Nr. 1 natürlich wirtschaftlich gesehen der bessere, aber als Kunde hat man gsd. meist selbst die Wahl.
Wenn ich einen Tausender oder mehr ausgebe, will ich keine Kompromisse eingehen müssen.
Andere sparen lieber und verzichten auf das letzte Quäntchen.

Und der FS2020 verballert in jeder Lebenslage viel zu viel VRAM - bzw alloziert diesen (nur?).
Dort hängt die Flüssigkeit meist/oft von der Geschwindigkeit der Internet Leitung
ab.

Exxtreme
2024-03-08, 11:50:39
Texturen eine Stufe runter funktioniert äußerst gut.
Bis WQHD gehen dann 8GB Vram oft brauchbar.

Richtig. Es gibt das Gesetz des abnehmenden Grenzertrages und das trifft auch auf Computerspiele zu. Man hat jetzt eine Stufe bei der Computergrafik erreicht, dass man die Grafikqualität kaum noch steigern kann, ausser man nimmt exorbitant höheren Ressourcenverbrauch inkauf.

Was jetzt noch helfen könnte wären hier und da neue Verfahren. Z.B. könnte man bessere Texturkompression einführen. Denn die Texturkompression, die in DirectX verwendet wird, hat jetzt 27 Jahre auf dem Buckel. Eventuell gibt es hier schon etwas viel besseres.

Raff
2024-03-08, 11:59:27
Yep. Letzteres ist schon krass. Nvidia hat vor einiger Zeit recht beeindruckende WIP-Geschichten (https://research.nvidia.com/publication/2023-08_random-access-neural-compression-material-textures) gezeigt, die alle Speicherprobleme lösen würden. Wobei, natürlich nicht - Spiele würden damit bei gleicher Allokation einfach viel hübscher. Finally. So ein Zeug gehört ohne proprietären Code in DirectX. Version 13 werden wir wohl nie sehen, weil Aberglaube und so, aber wo zum Henker bleibt DirectX 14? ;)

MfG
Raff

The_Invisible
2024-03-08, 12:10:10
Die Texturen sind meistens eh schon gut genug bzw kann UE5 diese auch gut streamen ohne den RAM vollzuballern. Lieber bessere Beleuchtung und vor allem Physik... bei letzterem ist man irgendwo bei den Physx Karten stehengeblieben bzw hat sich sogar verschlechtert...

Lurtz
2024-03-08, 13:31:57
Texturen eine Stufe runter funktioniert äußerst gut.
Bis WQHD gehen dann 8GB Vram oft brauchbar.
Mit 12GB ist auch UWQHD bis 4k oft möglich.
Mehr Ram ist immer besser, aber die Verschwendung/Ansprüche von Ultra Einstellungen und das Testen vorwiegend Hardware lastiger Games sollte man auch im Hinterkopf haben.
Genauso, dass PCGH für unsere Blase von ein paar tausend Hardware Freaks schreibt und kein Interesse daran hat, Artikel zu bringen, dass ein fünf Jahre altes System bereits über PS5 Niveau performt und im Grunde genommen völlig ausreicht. ;)

Als Beispiel kann ich Steel Rising bringen, was ein ziemlicher Hardware Fresser ist.
Mit der 3080TI die Texturen nicht auf Ultra. Performance soweit okay in UWQHD.

Wenn Texturen = Ultra aber Konsolenqualität bedeutet und sich beim Runterskalieren überhaupt keine Arbeit gemacht wird, wie bei TLOU Part I, ist alles unter Ultra eben schon ein schlechter Kompromiss.

1ch0
2024-03-08, 14:28:03
Avatar mit Unobtanium Setting und DLSS3 Mod in 4K DLSS Q ist definitiv zu viel für 16 GB. Da kräftig in den RAM ausgelagert.


https://cdn.discordapp.com/attachments/957686950364598322/1215399515201343518/afop_2024_03_07_20_51_47_423.jpg?ex=65fc9c01&is=65ea2701&hm=fe0026f00dd13f94414ef003bfb799486d37ed08f62c739a128fe69a69a063e3&

https://cdn.discordapp.com/attachments/957686950364598322/1215399516115705856/afop_2024_03_07_20_47_39_098.jpg?ex=65fc9c01&is=65ea2701&hm=e108e14491766719b90c4260840e07e3583835be1501d90fd4fad186f0beca75&

https://cdn.discordapp.com/attachments/957686950364598322/1215399516841185340/afop_2024_03_07_20_54_37_870.jpg?ex=65fc9c01&is=65ea2701&hm=1e82d1c7dc53a0d63a4010543a5059cbd629225097d0e60ca0e23eaab22e0a56&



Die FPS sind zwar recht stabil mit kleinen Drops hier und da, aber man merkt es schon.

gnomi
2024-03-08, 15:30:45
Wenn Texturen = Ultra aber Konsolenqualität bedeutet und sich beim Runterskalieren überhaupt keine Arbeit gemacht wird, wie bei TLOU Part I, ist alles unter Ultra eben schon ein schlechter Kompromiss.

Ja, deshalb empfehlen ja auch viele mittlerweile bisschen VRAM Puffer.
Nvidia macht es einem da allerdings nicht so einfach.
Aufpreis 4070(S) auf 4070 TI Super ist jetzt für die Kernzielgruppe solcher GPU's nicht so ohne.
Würde bei über WQHD Auflösung bei Neuanschaffung nicht mehr 12GB kaufen.
Aus 10% grenzwertigen großen Games wird dann schnell 1/3 und mehr nach 12 Monaten.
Aber es wird auch mit 12GB Dank Upscaling und Einstellungen wohl gutgehen.
TLoU war bisschen schlechter Release Zustand.
Hatte da mit 3080TI Ende letzten Jahres allerdings bislang auch keine Probleme.
Steel Rising ist auch mit 1,2 Reglern nicht auf Maximum weit über PS5 Niveau.
Das frisst nur einfach mörderisch Hardware in manchen Gebieten.
4080S in 4K mit DLSS schon voll empfehlenswert.

Raff
2024-04-29, 00:24:13
Aktuelles Futter mit praxisnahen Settings:

weRqYqhA8dQ

MfG
Raff

dildo4u
2024-04-29, 09:42:30
Danke für das Video und Helldivers nutzt nicht UE sondern eine alte Engine die kein Support mehr hat.(Autodesk Stingray)

https://www.pcgamer.com/helldivers-2-engine-bitsquid-autodesk-stingray

Raff
2024-04-29, 09:51:28
Jo, eigentlich weiß Phil das, aber Lampenfieber macht manchmal Dinge. :D Leider hat's in der Korrektur niemand bemerkt.

MfG
Raff

blaidd
2024-04-29, 17:22:29
Danke für das Video und Helldivers nutzt nicht UE sondern eine alte Engine die kein Support mehr hat.(Autodesk Stingray)

https://www.pcgamer.com/helldivers-2-engine-bitsquid-autodesk-stingray

Jo, mein Fehler, sorry. Hab mich auch schon tüchtig geärgert^^
Da bin ich irgendeiner Falsch-Meldung aufgesessen. Normalerweise muss man da hauptsächlich bei UE4 und UE5 aufpassen, was das alle ständig durcheinanderwerfen (btw. auch Experten wie der hier – Homeworld 3 ist UE4.27 (https://youtu.be/xG5wRhFeelM?t=1753)) aber ab und an werden auch mal andere Spiele da mit reingeworfen (a lá "Plague Tale Requiem zeigt zweifelsohne die brandgeile Next-Gen-Grafik der UE5" – nein, tut es nicht. :rolleyes:). Ich sollte wohl einfach aufhören, irgendwelchen News bezüglich Spiele-Engine/Technik zu glauben ;)

Hätten wir das "richtig" in Form eines Tech-Artikels durchgetestet, hätte ich mehr Aufmerksamkeit auf die Entstehung/den Entwicklungsprozess gelegt. Hier bzw. in den Test im Heft hab ich es hauptsächlich mit reingepackt, weil es gerade erschienen war, ich eine Testversion hatte und das Spiel obendrein einige Popularität genießt (es läuft zudem gut, was außerdem sehr praktisch war, da es bei den Benchmarks nahezu das perfekte Ergebnis für "Nicht-Speichermangel" abbildet.).

Auf Autodesk Stingray hätte ich allerdings auch nicht getippt.^^
Da dachte ich auch tatsächlich mal (https://www.pcgameshardware.de/Warhammer-Vermintide-2-Spiel-61276/Specials/Direct-X-12-Benchmarks-Test-Review-1252228/), die wäre mit Vermintide 2 gestorben (ist sie aber [noch immer!] nicht. Darktide (https://en.wikipedia.org/wiki/Warhammer_40,000:_Darktide) nutzt die auch noch!)

EDIT: Und sorry für das gehäufte "basically" und "kinda". :rolleyes: Ich habe immer ein paar Füllwörter, die ich für eine Weile besonders häufig nutze, aktuell sind es die beiden. Vorher haben sich alle über "tatsächlich" oder "im Grunde" geärgert, offenbar habe ich das dann konsequent unterbewusst eingedenglischt.^^

Könnt auch für Videos "indes" auspacken, aber damit ärgere ich lieber unsere Print-Leser :cool:

Achill
2024-04-29, 20:14:26
[..]
Könnt auch für Videos "indes" auspacken, aber damit ärgere ich lieber unsere Print-Leser :cool:

Gibt noch "derweil", "sowieso" oder das gute alte "nun" ... musst nur gut mixen ;)

blaidd
2024-04-29, 23:01:21
Gibt noch "derweil", "sowieso" oder das gute alte "nun" ... musst nur gut mixen ;)

"mich dünkt...". Endgegner^^

"Mich dünkt an dieser Statt mein aufrecht strebsames Verlangen;
Ob Wahrheit Wahrheit sei, dies Urteil bleibt indes in eurer statt Belangen."

;)

Hakim
2024-05-12, 22:11:20
gerade beim yt schauen das aufgefallen:

https://s20.directupload.net/images/240512/temp/g54ljex6.jpg (https://www.directupload.eu/file/d/8552/g54ljex6_jpg.htm)

50% mehr Vram bei der 7800xt? Oder halt 1/3 Weniger als die AMD Karte, je Nachdem wie man es betrachtet. Der Unterschied ist aber dennoch irgendwie zu Groß oder nicht? Spiel ist Diablo 4

aufkrawall
2024-05-12, 22:38:20
Poste doch den Link?
https://youtu.be/IjoYGpqs7aw?t=893

Er alloziert halt mit Nvidia weniger VRAM, ggf. wegen rBAR-Limit oder was auch immer. Läuft trotzdem auf der 12GB-Karte schlechter. Finde ich irgendwie die relevantere Information als die Zahl, die laut OSD für die VRAM-Allozierung angegeben wird. :freak:
Weil die Zahl halt im Grunde wertlos ist.

Hakim
2024-05-12, 22:43:50
ja stimmt sry, hätte ich direkt machen sollen.

Exxtreme
2024-05-12, 22:45:48
Und man sollte auch bedenken, dass diese Zahl nur anzeigt wieviel VRAM angefordert und zugesichert wurde. Diese Zahl sagt aber nicht aus wieviel VRAM auch wirklich benutzt wird. Das ist von aussen nicht auslesbar.

Hakim
2024-05-12, 22:49:56
Glaube Diablo 4 mit dem Ultra Texturen, welches man sogar bei der Installation separat anklicken und installieren muß, will schon 16 GB Vram, daher auch die Spikes ab und an bei der Nvidia Karte vermutlich

aufkrawall
2024-05-12, 22:56:32
Aber zugegebenermaßen ein extremer Fall, dass er in 1080p nur 9.xGB alloziert und es trotzdem schon ruckelt. Wobei ich diesen YTber auch für unzuverlässig halte. Bei ihm ruckelte es auch schon mit Radeon in diversen Spielen seltsam, was ich nicht nachstellen konnte. Keine Ahnung, ob seine Ergebnisse für D4 stimmig sind.

Jedenfalls macht rBAR hier in Witcher 3 RT direkt mal 2GB Unterschied nach dem Laden aus. Mit GeForce ist das afaik nicht so ausgeprägt, aber die Vorteile halt auch nicht.

1ch0
2024-05-12, 23:35:13
Weil die Zahl halt im Grunde wertlos ist.

Nee, is eben nicht nutzlos. Die Zahl die das Spiel nutzt, ist wertlos. Weil der VRAM wird dennoch belegt, ob nun vom Spiel oder dem Rest im Hintergrund. Was das Spiel nutzt, interessiert mich eigentlich am wenigsten. Was gesamt genutzt wird, das ist relevant.

Und was nun allocated ist und was nicht, siehste bei RTSS sowieso nicht. Du siehst was der process an VRAM braucht und was das gesamte System an VRAM braucht. Guck mal in Afterburner was da steht.

aufkrawall
2024-05-12, 23:44:43
Was denn nun? System-Verbrauch irrelevant oder nicht? Scheinst dir selbst zu widersprechen.
Und was einfach nur reserviert wird oder real beschreiben wird, siehst du sowieso nicht.

Womit wir wieder bei dem Punkt wären, dass nur ein Test mit einer Karte mit noch mehr VRAM Aufschluss gibt, ob genug VRAM vorhanden ist oder nicht. Was auch das Video genau zeigt, sofern die Performance-Werte nicht durch handwerkliche Fehler unbrauchbar sind.

Besser wär natürlich noch 12GB GeForce vs. 16GB GeForce.

1ch0
2024-05-12, 23:51:43
Ahh, Missverständnis.

Ja relevant für mich ist nur noch der Hauptverbrauch und der sollte es auch sein. Weil wenn ein Game 11 GB braucht wie bei Grayzone, du hast aber nur 12, dann biste mit dem Hintergrund wie Windows, etc, bereits drüber. Die Info das Spiel braucht 11 GB ist also nutzlos.

Platos
2024-05-13, 00:06:40
Und man sollte auch bedenken, dass diese Zahl nur anzeigt wieviel VRAM angefordert und zugesichert wurde. Diese Zahl sagt aber nicht aus wieviel VRAM auch wirklich benutzt wird. Das ist von aussen nicht auslesbar.

Und trotzdem ist das die relevante Zahl. Wenn das Spiel plötzlich noch mehr anfordert, dann hat es nicht mehr zur Verfügung. Ob das nun gebraucht wird oder nicht.

Ist beim RAM übrigens genau so. Da crasht dir jede Anwendung dann, wenn dir der zugesicherte RAM ausgeht, nicht der tatsächlich "gebrauchte" (ohne Auslagerungsdatei. Sonst wird das natürlich aufgefangen).

aufkrawall
2024-05-13, 00:47:45
Natürlich ist Systemverbrauch relevanter als die per App-Metrik. Die kann auf 8GB-Karten auch 6GB anzeigen, wenn es dann schon wie völliger Mist läuft. Und "die Leute" checken es nicht und meinen, das reicht. :freak:
Die ist aber auch nicht allein relevant, wie die Stocker bei 9,xGB (mutmaßlich) Systemverbrauch mit 12GB-Karte zeigen. Klarheit gibts nur durch Test mit mehr VRAM.

Sweepi
2024-05-13, 10:05:50
Aktuelles Futter mit praxisnahen Settings:

https://youtu.be/weRqYqhA8dQ

MfG
Raff

Hi Raff,

blöde Frage:
Warum ist eigentlich den Artikel (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Grafikspeicher-2024-1445859/) einzeln zu kaufen ein anderer Shop als das Heft digital (https://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-06-2024-Magazin-284-DVD-Download-PDF-1445847/) zu kaufen?

Blaze
2024-05-17, 22:39:24
Das hab ich auch noch nie erlebt: Ich komme mit meiner RX7800XT in 1080p ins VRAM Limit und hab heftige Nachladeruckler. WTF? Ist das Spiel echt so mies optimiert? Es handelt sich um Ghost Recon Wildlands, also auch nix wirklich aktuelles.

Edit: Ich hab bei Techpowerup Tests gefunden wo 1080p Ultra in etwa 4GB verbrauchen soll. Wieso brauche ich das vierfache? :ulol:

https://i.ibb.co/jvyb1MJ/GRW-2024-05-17-22-32-43-623.png (https://ibb.co/DD9zSCr)

HisN
2024-05-17, 23:46:19
Weil Du das 4k Texturpaket installiert und nicht vergessen hast die Texturen auf Ultra zu schalten?
Ich weiß ja nicht wie viele Patches ins Land gegangen sind aber 10GB hab ich damals auch gesehen^^

aufkrawall
2024-05-18, 00:24:31
Ins Blaue geraten: Spiel und Ressourcenverwaltung des Treibers mögen sich nicht.
CoD Warzone ist auch seltsam, läuft wie völliger Mist mit der VRAM-Allozierungsoption >50%. Mal sehen, ob das mit GeForce auch so ist (tippe nein).

ChaosTM
2024-05-18, 01:03:26
Avatar klettern im Unobtanium Mode (4k DLSS, FG) nach ein paar Stunden schon "nahe" an das 24GB Limit.

21GB sind keine Seltenheit. Mehr hab ich aber noch nicht gesehen..

Wie viel wirklich gebraucht wird sei dahingestellt, aber beim VRAM sparen geht nie gut aus.
Alles unter 12 für WQHD bzw 16 für UHD ist sinnfrei wenn man Neu kauft.

Blaze
2024-05-18, 06:47:22
Weil Du das 4k Texturpaket installiert und nicht vergessen hast die Texturen auf Ultra zu schalten?
Ich weiß ja nicht wie viele Patches ins Land gegangen sind aber 10GB hab ich damals auch gesehen^^

Ist das so? Ich hab es einfach nur von Ubisoft Connect installiert, da konnte man nicht mal extra was auswählen. Aber ja, Ultra ist es natürlich.



Wie viel wirklich gebraucht wird sei dahingestellt, aber beim VRAM sparen geht nie gut aus.
Alles unter 12 für WQHD bzw 16 für UHD ist sinnfrei wenn man Neu kauft.

Ich dachte eigentlich mit 16GB für 1080p wäre ich safe :ulol:

The_Invisible
2024-05-18, 09:04:55
Das hab ich auch noch nie erlebt: Ich komme mit meiner RX7800XT in 1080p ins VRAM Limit und hab heftige Nachladeruckler. WTF? Ist das Spiel echt so mies optimiert? Es handelt sich um Ghost Recon Wildlands, also auch nix wirklich aktuelles.

Edit: Ich hab bei Techpowerup Tests gefunden wo 1080p Ultra in etwa 4GB verbrauchen soll. Wieso brauche ich das vierfache? :ulol:

https://i.ibb.co/jvyb1MJ/GRW-2024-05-17-22-32-43-623.png (https://ibb.co/DD9zSCr)

Sicher das kein 4xSSAA oder so an ist? :D

Blaze
2024-05-18, 14:48:54
Muss irgendein Bug gewesen sein, bin gerade wieder ins Spiel und hatte an gleicher Stelle diesmal nur 8,5GB.

Edit: Ok, ich kann es reproduzieren. Ich hab gestern bevor ich ins Spiel bin den internen Benchmark laufen lassen, aber mit 200% Auflösungsskalierung, also 4K, da hat er mit 15,9GB am VRAM Limit gekratzt. Habe dann wieder auf 100% zurück gestellt und der allocated memory blieb aber komischerweise selbst im Menü bei über 14,5GB, als ob er in der Zwischenzeit den Speicher nicht wieder freiräumt. Wenn ich das Spiel einmal komplett neu starte ist wieder alles in Ordnung...