PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wann tritt VRAM-Limit ein?


DarknessFalls
2015-02-07, 18:01:20
Hallo zusammen!

Wir diskutieren an anderer Stelle zur Zeit reichlich ergebnislos die Menge VRAM, die eine GPU heutzutage mitbringen sollte, bevor er zum Flaschenhals wird.

Auf der einen Seite haben wir Verfechter, die sich sicher sind, dass z.B. eine 2GB GTX770 heutzutage noch immer keinerlei Nachteile gegenüber ihrer 4GB-Schwester oder einer 3GB-Tahiti-Karte besitzt und sogar eine 1.5GB GTX590 noch keine VRAM-Problematik zumindest in FullHD auftreten ließe.

Auf der anderen Seite haben wir diejenigen die sagen, dass man mit 2GB oder weniger bereits aktuell in FullHD auch bei normalerweisen spielbaren Frameraten bös ins Limit laufen kann - betrachtet man den Videospeicher, der tatsächlich belegt wird, so er denn vorhanden ist, erscheint das auch logisch.

Langes und zugegebenermaßen erschöpfendes Googeln brachte einiges bekanntes und einiges neues hervor, aber nichts wirklich aktuelles und/oder tatsächlich hilfreiches, auch HisNs tolle Arbeit zu dem Thema ist bereits bekannt.

Also, hier meine Frage an Euch:

Mit wie viel VRAM kann man heutzutage schon bei FullHD bei spielbaren Framerates ins VRAM-Limit rennen? Wie äußert sich beim heutigen stetigen Streamen zwischen VRAM und RAM ein auftretendes Limit außer durch einen totalen FPS-Einbruch? Ich habe hier im Forum bereits von automatisch reduzierten Sichtweiten oder Details gelesen, gibt es dazu Vergleichsbilder oder Erfahrungen?

Interessant ist schlichtweg alles rund um eine eventuelle VRAM-Problematik.

:freak:

x-force
2015-02-07, 18:11:08
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10516224#post10516224

DarknessFalls
2015-02-07, 18:12:47
Hatte ich gesehen, dazu gibt es mehr Beispiele, allerdings: Nimmt man jetzt einen Tahiti daher, kommt der mit seinen 3GB in entsprechenden Benchmarks ja augenscheinlich auch aus. Da muss ja irgendwas passieren, dass es dann plötzlich mit den 3GB auch noch passt, oder?

Knuddelbearli
2015-02-08, 11:37:08
Also zumindest gegen die 580 muss ich massiv widersprechen

hatte ne 480 und hatte in jedem neueren Spiel VRAM Mangel obwohl Rohleistung ( dank Wakü und OC ) meist noch passte

DarknessFalls
2015-02-08, 12:30:32
Ja, das ist genau das, worauf ich hinaus möchte, ich vermute sogar, dass selbst ein 2GB Kepler bereits in aktuellen Spielen trotz theoretisch ausreichender Rohleistung VRAM-Engpässe befürchten muss.

Allerdings: Es gibt augenscheinlich NICHTS verwertbares dazu im ganzen weiten Internet. Vielleicht bin ich nur zu blöd, sowas zu finden, aber wäre das dann nicht mal was, was man sich näher anschauen sollte?!


Edit: Super war dieser Bericht damals von CB: http://www.computerbase.de/2008-04/bericht-wieviel-grafikkartenspeicher-muss-sein/

Aber aktuell? NICHTS vergleichbares. :(

Matrix316
2015-02-08, 13:38:11
Nicht die klare Antwort, aber ganz unterhaltsam. ;)

Utv144XeHag

Und hier die Kurzform


Es kommt drauf an. ;)

HisN
2015-02-08, 13:48:43
Wie äußert sich beim heutigen stetigen Streamen zwischen VRAM und RAM ein auftretendes Limit außer durch einen totalen FPS-Einbruch?

Erst kommen Nachlade-Ruckler. Man kann z.b. keinen sauberen 360°-Turn mehr machen. Während man in einer Streaming-Umgebung vielleicht noch gerade aus laufen kann ohne das es auffällt, werden 360°-Turns zur Ruckel-Orgie (es reicht ja schon ein oder zwei kleine Ruckler damit ein Turn nicht mehr smooth ist).

Das ist der Moment in der die Graka über den PCIe-Bus benötigte Daten noch schnell genug anfordern kann, weil es nur eine kleine Menge ist die fehlt.

Erst wenn die Menge der Daten die im Speicher der Graka fehlen so groß ist, dass die Bandbreite bzw. die Möglichkeit der Datenbeschaffung das Streaming der Engine dauerhaft beschäftigt, brechen die FPS auch dauerhaft ein. Meine Beobachtungen z.b. sagen: Die Auslastung der Graka bricht dabei ein, weil sie nur noch auf die Datenbeschaffung wartet.

Falls jemand sehen möchte wie das aussieht .. RAFF hat mal ein nettes Video über Skyrim gemacht in dem das gut zu sehen ist.
Laufen geht, drehen nicht mehr. (Ich glaub es war Raff).

Je nach Game-Engine sind es auch längere Textur-Swaps. Die kann man an der VRAM-Menge die benutzt wird gut erkennen, weil vor dem Swap für den Swap Platz im VRAM gemacht wird.
Hitman hatte zum Release einen schönen VRAM-Bug. Dort ist immer mehr vom VRAM genutzt worden, solange bis auch die 6GB der Titan voll waren. Dann hat das ganze Spiel kurz angehalten, während die Engine Platz im VRAM gemacht hat (VRAM-Auslastung geht kurz runter) und neue Texturen nachgeladen wurden (VRAM-Auslastung geht wieder hoch).
Und das alle paar Minuten während man so durch die Level wandert.

Für die Leute die predigen: Warum haut das Game den ganzen VRAM der Karte voll, auch wenn das Game mit der Hälfte auskommt: Weil es schneller geht Daten aus dem VRAM zu holen, als aus dem RAM oder sogar von der Festplatte. Ich lobe mir da Games wie Lords of the Fallen oder Shadow of Mordor, die das VRAM gnadenlos zuballern, auch wenn es nicht unbedingt nötigt sein muss (wobei ich in Shadow of Mordor auch schon Textur-Streaming-Ruckler gesehen habe). Sobald ich Level-basierte Games zocke in denen Texturen endlos recyled werden bzw. ich keine Lust habe dass ständig die gleichen Daten von der Engine nachgeladen werden müssen, ist es doch wunderbar "zu viel" VRAM zu haben. Ist doch beim Systemram nix anderes. Je mehr ich davon habe, desto weniger ackert meine Festplatte. Weil die Daten die ich brauche im RAM vorgehalten werden können. Und wenn mein Game 48GB auf der Festplatte belegt, dann kann ich mir gut vorstellen, das es öfter mal Daten von der Platte braucht :-)

Der Gegentest ist doch ganz einfach: Textur-Auflösung runter. Verschwinden die Ruckler ist es 100% eine VRAM-Frage, weil die Leistung die eine Graka benötigt um höhere aufgelöste Texturen zu benutzen (abgesehen von der VRAM-Menge) doch eher unter Peantus fällt.

Auch wenn man (ich jedenfalls) natürlich nicht sagen kann woher die kleinen Ruckler in einem sonst glatt laufendem Game kommen... scheinbar ist die Menge der Gamer diese kleinen Ruckler so gewohnt, dass sie schon gar nicht mehr wahrgenommen werden. Sie können vom Texturen-Streaming kommen.

Ach ja .. ich bin kein Programmierer. Da gibts hier ja ganze andere Größen. Aber ich beobachte gerne.

DarknessFalls
2015-02-08, 13:50:43
@matrix: Oh ja, großartig - die GTX770 hat also 3GB VRAM? Jetzt hab ich was gelernt. :D

Aber ja, das ist tatsächlich nicht die Antwort, die ich suche - ich suche etwas im Stil dessen, was CB mal geliefert hat. Kriegen wir sowas hier vielleicht hin? Die Diskussion um VRAM ist ja mehr als aktuell dank der GTX970 und es gibt genug Beispiele, wo 4GB oder mehr belegt werden - aber werden die auch wirklich GEBRAUCHT? Komm ich mit meinem FHD-Monitor mit 2GB auf Kepler in jeder Lebenslage hin, solange ich nicht in irrwitzige Settings abgleite, die die FPS so oder so schon in unspielbare Regionen abrutschen lassen?


Edit: @HisN, Du warst schneller mit der Antwort - Edit dazu folgt. Danke! :)

So, jetzt noch n Edit: @HisN, nochmal besten Dank für die ausführliche Erläuterung. :) Das heißt also, in einem herkömmlichen Benchmark fällt ein VRAM-Mangel möglicherweise so lange nicht auf, bis ich anfange Frametimes zu messen - und selbst dann nur, wenn ich etwas mache, was das Streaming nicht oder nur schlecht ausgleichen kann, wie die erwähnte 360°-Drehung?

Es wäre natürlich interessant, so etwas für die Nachwelt mal wieder in harten Werten festzuhalten, oder nicht? Einfach mal zu zeigen, wo aktuell einfach das Ende der Fahnenstange beginnt (2GB?) und Schluss im Schacht ist (1.5GB?).

HisN
2015-02-08, 14:10:54
Dazu müssten die Tester:
a) Ihre Testmethodik überdenken
b) Ihren Software-Testparcours überdenken
c) sich überlegen wie man eine Graka mit 2/4/6/8 GB RAM "simuliert". Denn es darf sich ja sonst nix verändern wenn man es auf das VRAM runterbrechen möchte.

DarknessFalls
2015-02-08, 14:21:09
CB nahm damals die verfügbaren Versionen von 8800GT und HD3850, was ein Spektrum von 256/512/1024MB abdeckte. Jetzt wäre optional doch möglich:

Fermi 1.5/3GB
Kepler GK204 2/4GB - GK200 3/6GB
Tahiti 3/6GB
Hawaii 4/8GB

Wenn Du Dir den alten CB-Test anschaust, der sich natürlich nur auf reine FPS bezieht, gibt das schon sehr anschauliche und gut nachzuvollziehende Ergebnisse. :)

Matrix316
2015-02-08, 14:36:21
@matrix: Oh ja, großartig - die GTX770 hat also 3GB VRAM? Jetzt hab ich was gelernt. :D[...]
Vielleicht meinten die die 780. ;)

Da jedes Spiel anders ist und jeder einen anderen Monitor und andere Auflösungen + Details + AA fährt, kann man das nicht ganz so pauschal beantworten. Jemand mit einem 4K Monitor wird mehr VRAM brauchen als jemand mit 1680x1050er Display. Es sei denn, der will DSR fahren. ;)

HisN
2015-02-08, 14:49:35
Tja, und jemand der Diablo3 zockt braucht auch deutlich weniger VRAM, als jemand der Shadow of Mordor mit Highres-DLC zockt.

Da kommt ne ganze Menge auf die Tester zu :-)

Knuddelbearli
2015-02-08, 17:08:22
Falls jemand sehen möchte wie das aussieht .. RAFF hat mal ein nettes Video über Skyrim gemacht in dem das gut zu sehen ist.
Laufen geht, drehen nicht mehr. (Ich glaub es war Raff).


Und genau aus dem Grund sehen das die Tester nicht. Mann muss ja nur gucken wie Skyrim getestet wird. 15 Sec geradeaus rennen nachdem man gewartet hat bis sich die Festplatte beruhigt hat.

Gibts den wirklich keine Möglichkeit durch Maus und Tastaturmakros ordentlich Tests zu machen? Wenn ich dran denke was illegale Bots für Spiele heutzutage schon alles können ...

Gimmick
2015-02-08, 17:13:50
Und genau aus dem Grund sehen das die Tester nicht. Mann muss ja nur gucken wie Skyrim getestet wird. 15 Sec geradeaus rennen nachdem man gewartet hat bis sich die Festplatte beruhigt hat.

Gibts den wirklich keine Möglichkeit durch Maus und Tastaturmakros ordentlich Tests zu machen? Wenn ich dran denke was illegale Bots für Spiele heutzutage schon alles können ...

Doch klar geht. Gibt Programme, die Tasteneingaben und Mausbewegungen speichern und abspielen können.

Spasstiger
2015-02-08, 17:28:52
Wäre doch mal ein toller 3DC-Artikel, dem VRAM-Bedarf aktueller Spiele und dem entsprechenden Performance-Verhalten aktueller Grafikkarten auf den Grund zu gehen. Rein aus dem Bauch raus würde ich für 200€ aufwärts auch keine Karte mehr mit weniger als 3 GiB VRAM mehr kaufen.

Grundsätzlich kann man bei aktuellen Spielen Kompromisse bei der Bildqualität eingehen, so dass für FullHD auch 1 GiB VRAM genügt.

Knuddelbearli
2015-02-08, 17:35:41
Doch klar geht. Gibt Programme, die Tasteneingaben und Mausbewegungen speichern und abspielen können.


Ja das weiss ich und selber schon damit experimentiert für Benchmarks auf Grund mangelndem Interesse der Community dann aber immer aufgehört da man sich alles selber zusammensuchen muss da das sonst niemand nutzt.

Das + Frametimes + Lange Szenen ( nicht in allen Spielen möglich ) und es wäre der perfekte benchmark

DarknessFalls
2015-02-08, 17:48:11
Wäre doch mal ein toller 3DC-Artikel, dem VRAM-Bedarf aktueller Spiele und dem entsprechenden Performance-Verhalten aktueller Grafikkarten auf den Grund zu gehen.

Ich würde das vielleicht nichtmal auf die aktuelle Gen münzen, sondern eben 1.5/3GB Fermi und 2/4GB Kepler mit reinnehmen. Die sind nach wie vor verbreitet und helfen sehr schön, einen Überblick zu bekommen.

Allerdings braucht man einfach die notwendigen Ressourcen, um das Ganze auf die Beine zu stellen. Wie gesagt, es gibt seit dem Artikel von CB aus 2008 (!)

http://www.computerbase.de/2008-04/bericht-wieviel-grafikkartenspeicher-muss-sein/

nichts vergleichbares mehr, was ich gefunden hätte. :( Es wird also höchste Eisenbahn.

Wolfram
2015-02-16, 14:40:30
CB nahm damals die verfügbaren Versionen von 8800GT und HD3850, was ein Spektrum von 256/512/1024MB abdeckte. Jetzt wäre optional doch möglich:

Fermi 1.5/3GB
Kepler GK204 2/4GB - GK200 3/6GB
Tahiti 3/6GB
Hawaii 4/8GB

Wenn Du Dir den alten CB-Test anschaust, der sich natürlich nur auf reine FPS bezieht, gibt das schon sehr anschauliche und gut nachzuvollziehende Ergebnisse. :)

Der Computerbase-Test von damals krankt eben an dem Durchschnitts-fps-Problem (die hier diskutierten Phänome werden damit nur abgebildet, wenn sie schon dauernd auftreten).

Das hat den weiteren Effekt, daß die Frameraten absolut gesehen auch bei den Karten mit mehr Speicher in den meisten Tests schon im unspielbaren Bereich liegen, wenn die Karten mit weniger Speicher deutlich einbrechen.

Wenn ich das so lesen würde, wäre meine Reaktion: Was soll's, Speicherprobleme gibt's eh erst bei mit solchen Karten unspielbaren Settings, also ist die Speichermenge nicht so wichtig.

MasterElwood
2015-02-16, 15:17:43
So ein Test wäre interessant für uns GTX970er Besitzer, um mal in der praxis zu sehen ob dieses halbe GB weniger denn WIRKLICH ein Problem ist, oder alles nur theoretischer FUD. :cool:

Hobby
2015-02-16, 15:26:18
So ein Test wäre interessant für uns GTX970er Besitzer, um mal in der praxis zu sehen ob dieses halbe GB weniger denn WIRKLICH ein Problem ist, oder alles nur theoretischer FUD. :cool:


Reicht es da nicht z.B. Heaven Bench 4.0 mit den höchsten Settings und Auflösung laufen zu lassen und dabei mit GPU-Z die Speicherauslastung zu beobachten?

Bei mir sind die 2 GB vorhandener Speicher beim Start sofort weg und mit der GTX 960 mit diesen Settings sowieso eine "Ruckelorgie" ...

Wenn nur 3 GB beansprucht werden - dürfte es kein Problem geben!

aufkrawall
2015-02-16, 15:39:27
Dürfte reichen, einfach CoH 2 zu starten. Leider gibts dazu keine Demo.

Egoim
2015-02-16, 23:18:43
Nachdem ich an besagter anderer Stelle bereits mitdiskutiert hatte, schaue ich hier auch mal herein.

Wir haben bei Hitman Absolution im Spiele eigenen Benchmark mit der R9 285 anscheinend einen Vram Engpass.
Die Karte kann sich zumindest in unserem Testsystem nicht wirklich von der R7 265 absetzen.

Alle zunächst vermuteten Engpässe scheinen unwichtig zu sein, verwunderlich ist allerdings, dass die GTX 760 an besagter Stelle nicht so stark einbricht.

Getestet wird mit Hitman Absolution (dem internen Benchmark) mit ausmaximierten Settings in 1080p

zumindest ein interessantes Phänomen, da alle drei Karten 2Gb Vram besitzen, die 760 davon aber weniger gebremst zu werden scheint.

gruß Egoim

woodsdog
2015-02-17, 06:28:01
Wir? :)

Hast du auch Zahlen?

Dawn on Titan
2015-02-17, 06:53:12
Dürfte reichen, einfach CoH 2 zu starten. Leider gibts dazu keine Demo.

Wobei CoH auch irgendwie komisch ist, das frisst VRAm und man fragt sich wieso.

Dorn
2015-02-17, 07:03:07
Watch Dogs auf HD und Medium Texturen auf einer 680GTX mit 2GB und es rucktelt ständig vor sich hin, stell ich auf Low und es läuft flüssig.

TobiWahnKenobi
2015-02-17, 07:33:23
Wann tritt VRAM-Limit ein?

..wenn der speicher auf der grafikkarte nicht reicht. meist wohl, weil der user seine hardware mit falschen einstellungen (im spiel, im treiber oder in beidem zusammen) überfordert.

spieleentwicklern sollte eigentlich daran gelegen sein, das spiel so auszurichten, dass es zur verbreiteten hardwarebasis der spieler passt und lauffähig ist.

dass es ausnahmen geben kann, will ich nicht abstreiten. idR gibt es aber in den einstellungen der spiele möglichkeiten, details und texturgrößen oder sichtweiten zu reduzieren.

die diskussion darüber, wieviel speicher man haben sollte hat einen langen grauen bart. solange darüber diskutiert wird, waren limits immer kreierter natur u. mussten künstlich herbeigeführt werden. erreicht man den punkt, wo sämtliche spiele die hardware mit standard-einstellungen überfordern wird es zeit aufzurüsten.

haben ist besser als brauchen. also einfach das größere modell kaufen, sofern es eine wahl bei der ausstattung gibt und gut is' :)


(..)

mfg
tobi

Egoim
2015-02-17, 07:53:29
Wir? :)

Hast du auch Zahlen?

Also ein Freund von mir und ich ^^

Ja, habe ich natürlich, leider gerade nicht zur Hand... aber stelle ich nachher noch herein.
Frametimemessungen habe ich leider nicht, das stört mich etwas

Gruß Egoim

mustrum
2015-02-17, 11:11:12
Hatte ich gesehen, dazu gibt es mehr Beispiele, allerdings: Nimmt man jetzt einen Tahiti daher, kommt der mit seinen 3GB in entsprechenden Benchmarks ja augenscheinlich auch aus. Da muss ja irgendwas passieren, dass es dann plötzlich mit den 3GB auch noch passt, oder?

Das würde mich auch interessieren.
Ich habe eine R9290 und spiele in der doch recht hohen Auflösung von 5920x1080. Bei Arma 3 sind die 4 GB meiner Karte zu jedem Zeitpunkt am Maximum. Trotzdem habe ich keine Mikroruckler.

Gerade im Anbetracht dessen, dass die 390x wahrscheinlich nur 4 GB haben wird, wäre es sehr interessant zu wissen, wie sich das auswirkt.

aufkrawall
2015-02-17, 11:41:16
Wobei CoH auch irgendwie komisch ist, das frisst VRAm und man fragt sich wieso.
So einen Schrott gibts halt. Aber nun kaufe sich jemand eine 970 4GB, um genau vor solchen Fällen gefeit zu sein...

Egoim
2015-02-17, 12:23:40
Hier mal die Ergebnisse:

(sorry wegen mobil)

http://abload.de/img/b6u40.jpg

fällt irgendwem etwas anderes ein als Grund für dieses Ergebnis?
verwendet wurde ein FX 8350 @ Stock und der selbe Treiber auf dem selben Windows


gruß Egoim

DarknessFalls
2015-02-17, 13:30:15
Ich verstehe gerade nicht, was genau diese Werte uns jetzt zeigen sollen? Du hast einen Benchmark mit diversen Karten, dazu min, max und avg-Werte. Um einen Einbruch zu zeigen, braucht's doch zumindest noch einen weiteren Benchmark mit höherer Auflösung / Details, oder? Denn z.B. bei der Differenz zwischen min und max ist der Unterschied bei der 760 größer, von der 265 ganz zu schweigen.

Palpatin
2015-02-17, 13:58:37
Die 280 und 285 müssten normal in etwa gleich auf sein, in dem geposteten Benchmark liegen allerdings Welten zwischen den Karten. Erklärung für so enorme differenz kann eigentlich nur der auf 2gb beschnittene VRAM sein.

DarknessFalls
2015-02-17, 14:21:45
Um das zu verifizieren bräuchte es aber vermutlich noch VRAM-Usage und Frametimes...

akuji13
2015-02-17, 14:28:08
Ist VRAM usage nicht ziemlich unsinnig?

Wir wissen doch dann gerne auch mal alles vollgeballert wird was da ist.

DarknessFalls
2015-02-17, 15:09:40
Ist VRAM usage nicht ziemlich unsinnig?

Jain. Wenn man bei GraKa X mit 2GB einen Verbrauch von konstant kompletten 2GB sieht, bei GraKa Y mit 2GB aber einen Verbrauch von oftmals deutlich weniger, sagen wir, 1.8GB, dann ist da ein Unterschied in der Speicherverwaltung offensichtlich.

Das Problem mit dem "einfach mal alles vollknallen" ist ja eine der Ursprungsfragen, die ich hier hatte. Bringt das Vorteile? Warum tut das jeweilige Game das? Gibt es tatsächlich "ungefragte" Detailverringerungen bei weniger VRAM, um das auszugleichen und um Ruckler zu umgehen?

Das ist IMHO noch nie irgendwo näher beleuchtet worden.

Thunder99
2015-02-17, 16:00:50
Hab da nur von GTA V (evt auch 4) gehört wo das gemacht wird

DarknessFalls
2015-02-17, 16:16:27
In einem anderen Thread IMHO rund um die GTX970 hatte auch jemand Far Cry 4 in den Raum geworfen, ich find den Beitrag nur nicht mehr... :(

blaidd
2015-02-17, 17:09:44
Gibt es tatsächlich "ungefragte" Detailverringerungen bei weniger VRAM, um das auszugleichen und um Ruckler zu umgehen?

Das ist IMHO noch nie irgendwo näher beleuchtet worden.

Das kann man sehr gut in Call of Duty: AW sehen. Das Spiel braucht horrende Mengen an Grafikspeicher, reicht der nicht, wird die Texturqualität dramatisch reduziert. Das kann man sehr gut mit (1x, 2x, 4x) Supersampling überprüfen, damit zeigen auch 4-GiByte-GPUs nicht den vollen Detailgrad an, bzw streamen die "HQ" (:tongue:)-Texturen extrem langsam ein.

ACU habe ich auch den Verdacht, dass hier getrixt wird. Stelle ich die Auflösung hoch, erscheinen mir die Texturdetails deutlich schlechter. Auch mit meiner R9 290X, wenn ich statt 2.560 × 1.600 3.440 × 1.440 nutze... (das sind nur ~20 % mehr Pixel)

Hier mal ein hübsches Bild mit einer GTX 970 @ UHD, FXAA um zu demonstrieren, was ich meine (Turm rechts im Bild). Ist mir nicht gelungen, dass mit einer GTX 980 genau so nachzustellen, was aber natürlich auch andere Gründe haben könnte (zum Beispiel das generell verkorkste Streaming).
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51205&stc=1&d=1424189314

HisN
2015-02-17, 17:25:33
Fragt sich halt ob das jetzt generell ein beabsichtigtes LOD ist, dass überall vorhanden ist, aber bei hohen Details halt raussticht. Oder ob es tatsächlich NUR von den Textur-Einstellungen abhängig ist. Alles so Sachen die man als Außenstehender unglaublich schwer beurteilen kann.

Byteschlumpf
2015-02-17, 19:16:29
Spiele ich Crysis2@Ultra unter 1920x1080 mit einer GTX670@2GB VRAM, läuft es angenehm flüssig, trotz maximal belegtem VRAM. Mit einer GTX970 werden bei selben Einstellungen ca. 2600MB VRAM verwendet. Da stellt sich die Frage, ob die Darstellungsqualität bei den genutzten 2600MB besser ist, als bei den 2GB?

HisN
2015-02-17, 19:38:46
Vergleich-Screenshots^^

DarknessFalls
2015-02-17, 20:06:02
...ja, sowas wäre jetzt vielleicht angebracht. Reichlich. ;)

TobiWahnKenobi
2015-02-17, 20:10:07
crysis 2 nimmt sich mit HD texturen unter FHD 2.6GiB VRAM. wenn die karte nur 2GiB hat, wird halt irgendwo zur spielzeit nachgeladen. wenn das auf der GTX970 hübscher aussieht, dann eher weil damit auch höhere auflösungen möglich sind als mit einer GTX670.

ich kriegs auf der zwei jahre alten karte auch bei 4K noch bewegt. sollte eine GTX970 auch irgendwie schaffen. das spiel nimmt sich dann 3.4GiB VRAM, könnte in den 3.3GiB popelram also noch passen.

http://abload.de/thumb/crysis2_2015_02_17_19w6j07.jpg (http://abload.de/image.php?img=crysis2_2015_02_17_19w6j07.jpg)




(..)

mfg
tobi

DarknessFalls
2015-02-17, 20:25:28
Die Frage hier ist komplett losgelöst von der 970, es geht generell darum, warum manche Spiele bei 2GB flüssig laufen, obwohl sie bei 3GB den VRAM schon voll ausnutzen. Irgendwas muss da ja sichtbar oder zumindest spürbar passieren; offensichtlich ja auch Dinge, die ein VRAM-Limit verhindern bzw verschleiern.

TobiWahnKenobi
2015-02-17, 20:27:55
warum muss es "spürbar" passieren? das eine spiel mag da subtilere nachlader haben als spürbar stockende ruckler. auch lädt es die texturen sicher aus dem RAM nach und nicht von einem datenträger. und selbst wenn letzteres passiert, ist nicht jeder datenträger aus holz mit schleifend lahmen zugriffs- oder transferzeiten. und nicht jede textur ist etliche GByte groß..

die spielengine hat das zu händeln.


(..)

mfg
tobi

DarknessFalls
2015-02-17, 20:31:35
Natürlich, daher auch (unter anderem) die Frage, mit wie viel VRAM man heutzutage zumeist noch hinkommt und wo die Engines es eben NICHT mehr handeln können. ;) Irgendwann wird es zwansläufig spürbar, aber anders als vor einigen Jahren, als das ausgiebig getestet wurde, kann aktuell niemand mit Sicherheit sagen, ob es bei 1.5, 2, 3 oder mehr GB kritisch wird - zumindest in den meisten Szenarien, Extrembeispiele jetzt einfach mal ausgeklammert.

Interessant ist in dem Zusammenhang dann halt auch das, was hier bereits mehrmals erwähnt wurde: Verringerung der Detailstufe ohne "nachzufragen", weil der VRAM limitiert. Wäre interessant, das mal nachzuweisen.

akuji13
2015-02-17, 21:35:23
Interessant ist in dem Zusammenhang dann halt auch das, was hier bereits mehrmals erwähnt wurde: Verringerung der Detailstufe ohne "nachzufragen", weil der VRAM limitiert.

Sind aktuell eigentlich Spiele bekannt die bestimmte Texturstufen nicht anbieten bei Vram Größe X wie einst in Ghost Recon: AW?

blaidd
2015-02-17, 23:48:30
Sind aktuell eigentlich Spiele bekannt die bestimmte Texturstufen nicht anbieten bei Vram Größe X wie einst in Ghost Recon: AW?

Ryse wählt automatisch nach Speicherausstattung die passende Texturstufe (niedrigere kann man natürlich trotzdem anwählen, höhere nur per Editing der Config-Datei). 1 GiByte = Low, 1,5 GiByte = Medium, 2 GiByte = High und ab 3 GiByte = Very High.
Ansonsten wüsst ich spontan kein Spiel, welches die Texturstufe beschränkt. Eventuell beglückt uns ja GTA V wieder mit einem Rockstar-typischen Optionsmenü - hoffentlich kann man die Vorschläge auch ignorieren, wie es in Max Payne 3 (nach Patch?) möglich war...

Engpässe beim Grafikkartenspeicher sind häufig leider nicht ganz leicht aufzuspüren. Wenn der Speicher nicht grade heftigst überquillt, äußert sich das oft nur in kleinen Stockern, ähnlich Microruckeln. Das fällt einigen gar nicht auf und erst mit den aktuellen Konsolen ist der Grafikspeicher überhaupt wieder etwas in den Fokus der Spieler und Tester getreten. Vorher haben sich hauptsächlich Downsampling- und Modding-Freaks damit beschäftigt. Ich hab früher mit meiner HD 7970 und vor dem ENB-Speichermanagement in Skyrim von Hand herumprobiert, welche Textur ich noch in den Speicher gestopft bekomme (bei ziemlich genau 3.072 MiByte ist Skyrim dann reproduzierbar abgestürzt) - es war jedenfalls verhältnismäßig easy hinter diese Eigenheit zu kommen. Mit den ganzen modernen (und nicht immer wirklich gut funktionierenden) Streaming-Engines ist das viel schwieriger.

Mir ist die Ruckelei in Shadow of Mordor mit einer GTX 970 aufgefallen, ich hab's sogar auf Video gebannt (https://www.youtube.com/watch?v=nKIue1wReqI#t=93) (bei ~1:30, Zeitstempel scheint nicht zu funktionieren). Nur zeigte die Speicherauslastung zum Release noch nichts auffälliges an. Also hab ich's auf die Ultra-Texturen geschoben, mit einer Titan hatte ich da schließlich eine Belegung von deutlich über 5 GiByte und auf einer R9 290X hat's auch hin und wieder gestockt - aus meiner damaligen Sicht ein logischer Schluss. Heute weiß ich's besser.

Ohne Frametime-Vergleiche hat man kaum eine Chance und selbst dann können kleine Stocker schwer eindeutig dem V-Ram zugeordnet werden. Beispiel Watch_Dogs: Das läuft auf AMD-Karten immer noch ziemlich dürftig und stockt gern vor sich hin, das hat aber nichts (oder nur wenig) mit dem Speicher zu tun, sondern mehr mit der Engine und wie sie sich mit dem AMD-Treiber verträgt.
Gleiches gilt für Far Cry 4 spätestens seit Patch 1.8.0.: Da brauch ich nicht mal Frametimes, um ziemlich sicher sagen zu können, dass die Performance mit einer GTX 970 besser als mit einer R9 290X ist (bei abgeschalteten Gameworks-Features sind die einfachen Frameraten fast deckungsgleich, die R9 hätte tatsächlich sogar einen kleinen Vorsprung), auch wenn Erstere unter ihrer V-Ram-Problematik leidet und Letztere noch Reserven hätte. Durch das (miese) Streaming verursachte Stocker treten aber beispielsweise auch mit einer GTX 980 in 720p und heruntergeregelten Details auf - Ein fetter Hänger alle paar hundert virtuelle Meter. Sowas erschwert eindeutige Aussagen deutlich. Noch schwieriger wird's, wenn das Spiel dann auch noch Texturen unterschlägt, bzw. die V-Ram-Belegung drosselt, dafür dann aber Details ausblendet. Sowas könnte man in schwierigen Fällen nur in Screenshot-Vergleichen und akribischem Absuchen halbwegs ordentlich feststellen - vorausgesetzt, das ist reproduzierbar. Ist mir beispielsweise in ACU noch nicht gelungen, da unterscheiden sich die Texturauflösungen von Mal zu Mal zu sehr. In Call of Duty: AW war's dagegen relativ leicht.

Bei normalen Benchmarks zeigt sich so ein Verhalten nur sehr eingeschränkt, solche Stocker treten nicht regelmäßig auf, sind oft zu kurz, um von Tools wie Fraps erfasst zu werden und werden spätestens beim Errechnen des Durchschnitts mehrerer Messungen ausgebügelt. Nur wirklich heftige Stocker fallen in Benchmarks auf (Beispiel: Evolve in 1440p oder mehr mit einer 2 GiByte-GPU). Dann sind aber oft die Frameraten sowieso schon im unspielbaren Bereich.

Die GTX 970 war ein guter Weckruf, sich eingehender mit dem Grafikspeicher zu beschäftigen - das werde ich auch tun, obwohl das ohne vernünftige Tools zum Auslesen des Speichers und ohne wirkliche Möglichkeit zu bestimmen, wie viel Speicher ein Spiel tatsächlich braucht, nicht ganz einfach ist. Frametimes und Vergleiche zwischen recht ähnlichen GPUs (aktuell beispielsweise: untertaktete GTX 980 vs GTX 970, R9 290X/4G vs R9 290X/8G, GTX 770/2G vs GTX 770/4G) sind aber zumindest ein brauchbarer Ansatz.
Bei verdächtigen Spielen werde ich das in Zukunft nach Möglichkeit immer versuchen, nicht nur wegen der GTX 970, sondern auch, weil der Speicher mit kommenden, hoffentlich üppiger ausgestatteten GPUs, Ultra-HD und Konsorten sowie Direktzugriff auf den Grafikspeicher durch die Entwickler mittels Low-Level-API eine nochmals wichtigere Rolle spielen dürfte. Es könnte beispielsweise der Fall eintreten, dass man mit einer zukünftigen Mittelklasse-GPU mit sagen wir 6 oder 8 GiByte in UHD gut spielen kann, mit einem jetzigen Top-Modell und 4 GiByte dagegen nicht, weil der Speicher zu knapp bemessen ist - richtig kommunizierbar wäre das wahrscheinlich nur per Frametimes.

Also werde ich in der kommenden Zeit mal ausprobieren, was da so geht und wie ich den Ablauf vereinfachen kann, damit ich nicht für jeden Online-Artikel 2-3 (Über-)Stunden Mehraufwand durch Frametime-Messungen habe.

Und nachdem ich schon so viel gefaselt habe: Totgeschwiegen wird übrigens gar nichts: PCGH hat die Problematik der GTX 970 sowohl in den letzten Spiele-Tests (Dying Light, Evolve) zumindest angesprochen, im nächsten Heft gibt's außerdem ein Special zum Thema. Mal ganz davon abgesehen, dass wir auch Online einen größeren Artikel dazu gebracht haben... Das Thema hat jedenfalls momentan mehr Coverage als viele andere.
Und ich hätte auch noch einen Kommentar zu schreiben. Eventuell lass ich mich ja über die GTX 970 aus - obwohl ich das Thema langsam für ausgenudelt halte (rein von der Häufigkeit der Berichterstattung). Aber so ein Kommentar ist eben auch eine feine Sache, da muss man nicht gleich befürchten, dass einem die Anwälte mit nacktem Arsch ins Gesicht springen - aka freie Meinungsäußerung. Siehe den Kommentar des Kollegen von der Gamestar übrigens. Das ist eben KEIN wirklich offizieller Artikel ;-)

Egoim
2015-02-18, 00:06:19
Ich finde es immernoch erstaunlich (und durchaus Lobenswert) was für deutliche Worte Heise zu dem Thema gefunden hat... geistert Martin hier eigentlich auch durchs Forum?

Ich denke Screenshots von einigen Spielen mit 1,2 bzw 4GB Vram sollte auch ich machen können... Ich stell dann hier rein

Gruß Egoim

blaidd
2015-02-18, 00:21:48
Ich finde es immernoch erstaunlich (und durchaus Lobenswert) was für deutliche Worte Heise zu dem Thema gefunden hat...

Nicht, dass ich die Kritik nicht gutheißen würde (Thumbs-up an die Kollegen), aber schau mal, was bei den wirklich kritischen Äußerungen in der Headline steht ;):
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51212&stc=1&d=1424215256

Ich denke Screenshots von einigen Spielen mit 1,2 bzw 4GB Vram sollte auch ich machen können... Ich stell dann hier rein

Das ist sicher hilfreich :)

EDIT: Ich übernehm mal den Schummelaner Call of Duty: AW, ist so schön einfach :)
Settings sind bis auf das Supersampling immer gleich: 1080p, cinematic SMAA 2TX, Details maxed, zusätzliches Texture-Caching (u.A. für die "Scheinwerferschatten" :ugly:) aus. R9 290X/4G.

Jedes Mal ein komplett neuer Anlauf vom Checkpoint aus, inklusive komplettem Neustart von CoD (aus dem Spiel gehen, neu starten. Ist leicht nachzustellen, die Stelle findet sich direkt zu Beginn des Spiels: Sprint zum Zelt, Kamera ausrichten, Shot, warten bis Texturen geladen wurden, Shot). Beim letzten Bild mit 4x SSAA ist mir dummerweise das DoF dazwischengegrätscht (passiert an der Stelle gern mal) - daher nicht aussagekräftig. Dauert aber ein bisschen länger, bis die "HQ"-Textur erscheint (~8 Sek.)

SSAA aus (+ 0 Sekunden):
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51213&stc=1&d=1424223303

SSAA 2x (+0 Sekunden):
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51215&stc=1&d=1424223777

SSAA 2x (+4 Sekunden):
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51214&stc=1&d=1424223742

SSAA 4x (+0 Sekunden):
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51216&stc=1&d=1424223490

Screemer
2015-02-18, 01:32:28
Und welcher andere Verlag hat so einen Kommentar durchgelassen? Computec und idg zumindest nicht. Nix gegen die Redakteure aber ganz koscher ist das doch nicht.

Hoffentlich lernen wenigstens alle daraus und beleuchten eine evtl. Speicherproblematik nun eingehender.

blaidd
2015-02-18, 02:58:54
Neuer Post wegen Bild-Begrenzung (auch wenn's nicht 100-%ig aussagekräftig ist):

SSAA x4 (+9 Sek.)
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51217&stc=1&d=1424223988

Der Speicher braucht offenbar nicht mal annähernd voll zu sein und schon werden Details ausgeblendet. So ähnlich sieht es aus, wenn man eine 2 GiByte-Karte gegen eine mit vier antreten lässt. Manchmal laden die Texturen auch einfach gar nicht... Und das hat definitiv auch Auswirkungen auf die Performance. Berücksichtigt man das "normale" CoD-Tempo (also schnell irgendwelchen NPCs hinterher sprinten, sonst ist man nach ca. 5 Sek. tot), dürfte das im tatsächlichen Spielbetrieb nur selten auffallen - beim dutzendfachen Durchlauf -etwa beim Benchen- sieht man diese Unterschiede allerdings recht deutlich.

Sicher nicht das einzige Spiel, dass sich in Hinsicht Grafikspeicher und Textur-Handling seltsam benimmt ;-)

Egoim
2015-02-18, 07:52:40
Ich hätte jetzt auf die Schnelle Hitman Absolution, Crysis 3 und Assassines Creed Unity mit den drei Karten gescreenshottet

Noch eine Idee sonst? (Das neue COD habe ich leider (oder auch zum Glück) nicht)

Gruß Egoim

Egoim
2015-02-28, 00:15:35
Es gibt keinen Unterschied zwischen Hitman Absolution auf der 290 gegenüber einer 285 oder gar einer HD 5850 (in 1800p)

Aber bei exakt gleichen Einstellungen sieht die Beleuchtung anders aus, wenn man 1080 und 1800P vergleicht... Aber das auf allen drei Karten.
Hier mal ein Vergleichsbild:

http://abload.de/img/hitman-1080p-brandedsmk8x.png
http://abload.de/img/hitman-1800p-brandedgojbx.png

gruß Egoim