Archiv verlassen und diese Seite im Standarddesign anzeigen : Rettet Linux Grafikkarten mit 8 GB VRAM?
kokett
2025-06-18, 01:55:54
Ich habe bei mir eine verblüffende Entdeckung gemacht. Folgende Ausgangslage:
"Älterer" PC mit RX 5700XT (Wakü, starker OC), i9 11980HK, 32GB Speicher an einem 32:9 Monitor (5120x1440) unter Windows mit dem Problem, dass auf dem System nahezu keine aktuellen Spiele mehr gescheit liefen, weil die 8 GB Vram zu hässlichen Rucklern führen. Man sieht auch mit dem Afterburner, dass der VRAM voll läuft. FSR Upscaling hilft auch nichts, weil FSR ebenfalls VRAM verbraucht und man mit einer geringeren Renderauflösung dann netto auch nichts gewinnt.
Debloat scripts haben an dem VRAM Verbrauch von Windows auch nichts geändert, ~ 1,3GiB waren immer belegt und standen Spielen nicht zur Verfügung, zu sehen an der Diskrepanz im Afterburner zwischen Gesamtverbrauch und /process.
Ich kam dann auf die Idee den Bildschirm an die iGPU anzuschließen, in der Hoffnung, dass dann der VRAM der 5700 XT als dGPU nahezu 100% frei ist und voll zum Spielen verwendet werden kann. Das war leider nicht so, ein paar hundert MB waren trotzdem belegt und manche Spiele weigerten sich auch beharrlich auf der dGPU zu laufen und haben auf der iGPU gerendert.
Ich habe dann Arch Linux auf dem Rechner installiert, eigentlich mit dem Vorhaben nur damit zu arbeiten und auf dem System nicht mehr zu spielen. Spaßeshalber habe ich aber das iGPU - dGPU setup trotzdem mal ausprobiert und lustigerweise hat es auf Anhieb perfekt funktioniert. Es läuft alles über die iGPU, die dGPU hat lediglich 35MiB VRAM belegt. Starte ich ein Spiel via Steam oder Heroic Launcher, läuft das automatisch exklusiv über die dGPU und hat somit die vollen 8176MiB VRAM zur Verfügung.
Interessanterweise scheint in der o.g. Auflösung auch der VRAM für höchste Textursettings zu reichen, ich spiele nicht sehr viel parallel, aber so an aktuellen Spielen habe ich TLoU2, Avowed und Oblivion Remastered ausprobiert. Avowed bleibt knapp unter 7 GiB, Oblivion 7,8 GiB - kein Ruckeln, TLoU2 7,7GiB. Man sieht mit LACT, dass noch ein kleines bisschen Speicher frei bleibt und die Frametimes bleiben stabil, der Graph ist flach wie ein Pfannkuchen. Netterweise packt die 5700XT unter Linux etwas mehr OC, evtl. weil nur das Spiel drauf läuft und sonst nichts, mit 2150 MHz auf dem Core und 1800 MHz auf dem Speicher bei schnellstem strap ist die Leistung der alten GPU tatsächlich noch ausreichend, um in hohen Settings spielen zu können - unter Windows undenkbar.
Ganon
2025-06-18, 06:34:22
Das sind lediglich Grenzeffekte, wenn der VRAM nur "gerade so" ausreicht. Wenn der VRAM nicht ausreicht, dann hat Windows das bessere VRAM Management. Da wird dir unter Linux die Performance wesentlich stärker wegbrechen.
Shink
2025-06-18, 07:39:04
Das sind lediglich Grenzeffekte, wenn der VRAM nur "gerade so" ausreicht. Wenn der VRAM nicht ausreicht, dann hat Windows das bessere VRAM Management. Da wird dir unter Linux die Performance wesentlich stärker wegbrechen.Plasma hat einen etwas höheren VRAM-Verbrauch wie ich bemerkt hab, weil...
ich von der W5700 (mit selben Chip wie beim TS) auf eine RTX2070 umgestiegen bin. Und soviel kann ich sagen: Bei einer RTX2070 sind 8GB viel weniger als unter Windows oder bei einer RX5700. Nicht nur das; die Nvidia-Treiber verhalten sich super destruktiv. Wenn ich bei Doom Eternal oder selbst Wolfenstein Youngblood Textursize maximiere und RT aktiviere, sagt er mir, ich hätte genug VRAM. Nach ein paar Sekunden In-Game komm ich einfach auf den Desktop zurück.
Unter Windows hab ich unter NVidia weniger VRAM-Verbrauch aber mehr übrig als unter Linux mit 8 AMD-GB hab ich auch nicht.
Sprich: Mag sein, dass Windows ein besseres VRAM-Management hat (ich wusste gar nicht, dass das Betriebssystem das macht...). Noch dazu sollte die Emulation ja VRAM kosten.
Aber im Endeffekt sind die AMD-Linuxtreiber einfach... sehr, sehr gut für Windows-Spiele geeignet.:freak: So sehr, dass es bescheuert ist, mit Vega oder RDNA1 Windows zu nutzen. Unter Linux kann man ja sogar leichtes Raytracing (Bethesda) nutzen mit den großen Karten.
Ganon
2025-06-18, 08:31:58
(ich wusste gar nicht, dass das Betriebssystem das macht...)
Jain. Sagen wir es so: Zusammen mit der Treiberschnittstelle hat Windows mehr Kontrolle darüber, was der Treiber so tun sollte.
https://learn.microsoft.com/de-de/windows-hardware/drivers/display/gpu-virtual-memory-in-wddm-2-0
Dass die Treiber anderweitig besser sind schließt das ja nicht aus. Aber wie gesagt: Wenn du in Windows die VRAM Grenze "leicht" überschreitest, dann ist das weniger ein Problem als unter Linux. Ich hab jetzt gerade keine Links parat, aber wenn man mal zu Performance-Themen auf dem Mesa oder DXVK Issue Tracker so rumstöbert, fällt das sehr oft. Es ist nicht so, dass Linux hier absolut gar nicht damit klar kommt, aber eben noch etwas schlechter.
Wenn der VRAM natürlich hinten und vorne nicht ausreicht, dann hilft natürlich alles nichts. Der Vorteil hier ist einfach, dass man ein Linux halt wesentlich schlanker hinbekommt und somit die verfügbaren Ressourcen dann doch besser ausreichen.
kokett
2025-06-18, 13:41:23
Das sind lediglich Grenzeffekte, wenn der VRAM nur "gerade so" ausreicht. Wenn der VRAM nicht ausreicht, dann hat Windows das bessere VRAM Management. Da wird dir unter Linux die Performance wesentlich stärker wegbrechen.
Das kann gut sein, nur habe ich halt mit dem igpu-dgpu "trick" deutlich mehr Puffer, bis mir der VRAM überhaupt ausgeht. Finde es ärgerlich, dass das mit der igpu nicht auch unter Windows so reibungslos klappt. Es gibt im Control Panel ja auch eine Einstellung dafür (Leistung - immer dgpu bevorzugen), nur greift die nicht immer weil Anwendungen das anscheinend umgehen können.
aufkrawall
2025-06-18, 13:59:24
Es ist nicht so, dass Linux hier absolut gar nicht damit klar kommt, aber eben noch etwas schlechter.
Ist wohl mittlerweile eher umgekehrt, zumindest mit Radeon in einigen Fällen:
https://youtu.be/YRioXquHloQ
Keine Ahnung, warum mit Radeon mit rBAR unter Windows teilweise so viel alloziert wird. Mit VKD3D-Proton + RADV ist trotz rBAR die Allozierung mitunter wesentlich geringer, und hat dabei trotzdem sogar oft die besseren Frame Times.
Es gibt da aber keine Zauberlösungen. Auch mit Nvidia Windows rBAR off läuft AW2 mit PT + FG eine Zeit lang gut auf der 5070, aber nach etwas Spielzeit stirbt es dann trotzdem. 8GB sind nur noch "gut" für Esports-Titel mit reduzierten Details. Wenn irgendwas anderes noch gut läuft, ist das reines Glück.
Lurtz
2025-06-18, 15:00:11
Das "eine Zeit lang gut" galt schon für die 3070 im ersten Jahr nach Release, erst recht wenn man gewagt hat Dinge wie Raytracing zu benutzen. Wird selten von Benchmarks erfasst, weil die gar nicht so lange laufen.
RAM-Auslastungen lassen sich sehr schlecht vergleichen, speziell nicht über verschiedene Betriebssysteme, besonders wenn es darum geht wie viel RAM nun einem einzelnen Prozess zusteht.
Auch VRAM kann in den System-RAM und prinzipiell sogar ins Swapfile auslagern, natürlich ganz blöd wenn es sich da um Daten handelt, die gerade für den nächsten Frame gebraucht werden.
Die Daten vom Windows-Desktop können aber problemlos ausgelagert werden, wenn ein Spiel Fullscreen läuft, auf das Spiel selbst hat die Belegung vom Windows-Desktop nicht wirklich viel Auswirkungen, Alt-Tab-Swapping wird eben langsamer, insbesondere zurück ins Spiel selbst wenn dann der vom Desktop gebrauchte VRAM wieder ausgelagert und erst der vom Spiel benötigte Teil nachgeladen wird.
aufkrawall
2025-06-18, 21:42:36
insbesondere zurück ins Spiel selbst wenn dann der vom Desktop gebrauchte VRAM wieder ausgelagert und erst der vom Spiel benötigte Teil nachgeladen wird.
Dabei darf man dann beten, dass sich die Performance wieder fängt. Mit der üblen Schrott-Engine in Deathloop kann selbst auf einer 4090 etwas alt + tab mit Chromium die Performance nachhaltig töten.
In Talos Reawakened bislang (was auch immer das wert ist) keine Probs mit den 12GB. Fortnite ist mit HWRT-Lumen/VSM high auch bei <8GB in 4k 50%...
Dennis50300
2025-06-23, 08:41:38
Ich habe bei mir eine verblüffende Entdeckung gemacht. Folgende Ausgangslage:
"Älterer" PC mit RX 5700XT (Wakü, starker OC), i9 11980HK, 32GB Speicher an einem 32:9 Monitor (5120x1440) unter Windows mit dem Problem, dass auf dem System nahezu keine aktuellen Spiele mehr gescheit liefen, weil die 8 GB Vram zu hässlichen Rucklern führen.
Überlicherweise wenn der VRAM "dicht" ist gehts eben über den Arbeitsspeicher, wovon nachgeschoben wird.
Da bricht einem die Performance halt immer ein, wenn man die Settings so hinschafft
Monitor an der iGPU ist insofern schlecht, das es eigentlich Leistung kostet im Vergleich dazu das der Monitor worauf gedaddelt wird, wenn dieser direkt an der Graka hängt.
Das hab ich auch schonmal ausprobiert und am Endeffekt dann auch immer wieder gelassen.
Da würd ich einfach mal auch die Settings anpassen, mir ist das beispielswiese bei Sniper Elite 5 zuletzt auch "zu doof" das meine aktuell 3070 OC von Gigabyte um 200 Watt wegknallen soll mit 2560x1440 bei gescheiten Settings, anstelle um 100 Watt bei 1920x1080.
GPU-Skalierung auf Windows natürlich dabei auf GPU-Skalierung im Seitenverhältnis nicht auf "Anzeige" das Setting. (Nvidia Treiber)
Das soviel noch mehr Auflösung natürlich noch mehr VRAM sich direkt zum Frühstück gönnt sollte keinen Wundern :smile:
Man möchte meinen, da da ja auch skaliert wird das des mit der GPU-Skalierung auch irgendwie Leistung brauchen würde, witzigerweise tut es das nicht und das schon gefühlt seit Dekaden.
Das Bild ist auch top, da hat man keine Nachteile
Wenn ich dasselbe auf aktuell Manjaro mache wo man die Skalierung garnicht konfigurieren kann wie auf dem Windows-Nvidia Treiber tuts allerdings genausogut. (vielleicht nur Glück das der Scaler in meinem AOC Monitor halt was taugt)
An und für sich sollte ich aber wohl auch mal mehr meinen Zweitrechner mit der RX 5700 mal mehr benutzen, insbesondere mit ner Linuxdistri :biggrin: (5800X und 3070 vs 5600X und RX 5700 PowerColor, Referenzdesign mit diesen Radiallüfter)
Ich denke mal nen Rolling Release, wenn es stabil ist wie bei mir aktuell eben Manjaro mit Cinnamon, dürfte an sich auch sehr sparsam sein.
Flott ist es auf jeden Fall, Win10 und 11 ist dagegen ein Witz
mfG
kokett
2025-06-23, 14:25:59
Monitor an der iGPU ist insofern schlecht, das es eigentlich Leistung kostet im Vergleich dazu das der Monitor worauf gedaddelt wird, wenn dieser direkt an der Graka hängt.
Das hab ich auch schonmal ausprobiert und am Endeffekt dann auch immer wieder gelassen.
Ich habe den direkten Vergleich erlebt, unter Arch mit der iGPU-dGPU Variante ist das System in allen Variationen (auch wenn ich die Monitore direkt an die dGPU hänge) schneller, als unter Windows. Unter Linux fühlt es sich so an, als hätte man eine 10GB Vram GPU unter Windows am laufen von den Settings her.
Evtl. liegt es auch teilweise an der Hardware, das Mainboard ist von Erying und hat eine TigerLake Laptop CPU auf einem MATX Desktop Board verlötet - also etwas relativ exotisches. Es funktioniert aber einwandfrei, und dasselbe Board mit einer 16GB VRAM GPU läuft auch super unter Windows.
Dennis50300
2025-06-23, 17:43:46
Hm ja gut, ist natürlich auch die Frage mit wieviel Frames/Sekunde du dann auch zockst tatsächlich.
Kann natürlich gut sein das es gescheit funktioniert, wenn man nicht auf Framesjagd ist, weil mehr Frames/Sekunde anstelle mehr oder weniger Auflösung dann bandbreitentechnisch noch gut durchgeht.
Auf normaler Hardware und auch älterer war das jedenfalls immer ein noGo, den Monitor an die iGPU zu stöpseln um darüber dann die dGPU zu verwenden.
Aus Sicht vom Stromsparen, wenn es denn funktionieren würde, was es halt leider auch nie wirklich tat, wäre es halt sinnvoll, sofern es denn auch funktioieren würde.
Mit aktuellerer Hardware mag das natürlich alles etwas anders aussehen mittlerweile.
Mit nem 3400g, oder nem 6700k, konnt man das jedenfalls knicken :biggrin:
Edit:
Hast du denn auch mal auf Windows diesen NPSM... Mist-Dienst rausgeschmissen, ausgehen von Windows 11
Zudem diesen "CPUmetricsonstwas"-Mist mal rausgeschmissen aus dem System ? (Aufgabenplanung)
mfG
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.