PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 4GB VRAM - wann wird es wirklich erforderlich sein?


Seiten : 1 2 [3]

aufkrawall
2014-09-27, 18:50:57
BF4 hat stellenweise sehr gute Texturen + Quasi-MT fürs Terrain und macht mit MSAA eigentlich nichtmal 3GB voll, laut Coda soll das mit noch besseren Texturen und gutem Streaming nicht anders sein...
SoM sieht halt einfach mies aus für den gebotenen VRAM-Hunger, was gibts da zu diskutieren?

Dorn
2014-09-27, 20:01:35
BF4 hat stellenweise sehr gute Texturen + Quasi-MT fürs Terrain und macht mit MSAA eigentlich nichtmal 3GB voll, laut Coda soll das mit noch besseren Texturen und gutem Streaming nicht anders sein...
SoM sieht halt einfach mies aus für den gebotenen VRAM-Hunger, was gibts da zu diskutieren?

Genau Battlefield 4 kann ich bei den Texturen auf Ultra einstellen und alles läuft klasse. Ich hab nix gegen Fortschrit bzw. der kann garnicht für mich schnell genug gehen aber wenn ich merke das andere Spiele Engines klasse Grafik hinbekommen und jetzt so was kommt.

Den Tech 5 Engine sollen die mal in die Tonne hauen. ;)

fondness
2014-09-27, 20:25:25
BF4 hat stellenweise sehr gute Texturen + Quasi-MT fürs Terrain und macht mit MSAA eigentlich nichtmal 3GB voll, laut Coda soll das mit noch besseren Texturen und gutem Streaming nicht anders sein...
SoM sieht halt einfach mies aus für den gebotenen VRAM-Hunger, was gibts da zu diskutieren?

Das hilft aber auch nicht weiter die Schuld auf die Spiele zu schieben. Fakt ist weniger wie 3Gb VRAM möchte ich heute nicht mehr haben, 4GB wären wohl besser.

dildo4u
2014-09-27, 20:26:08
BF4 hat stellenweise sehr gute Texturen + Quasi-MT fürs Terrain und macht mit MSAA eigentlich nichtmal 3GB voll, laut Coda soll das mit noch besseren Texturen und gutem Streaming nicht anders sein...
SoM sieht halt einfach mies aus für den gebotenen VRAM-Hunger, was gibts da zu diskutieren?
Du kannst nicht Open World gegen geschlossen Level vergleichen und bis jetzt hat noch keiner die Ultra Texturen gesehen.Bei einem Open World Game lädt's du natürlich deutlich mehr in den Vram,weil du eine viel weitere Sichtweite hast und kein Sichtbares Streaming haben willst.Das wird bei GTA5 nicht anders sein GTA4 war für seine Zeit ja auch schon V-Ram hungrig.

aufkrawall
2014-09-27, 20:37:11
Das hilft aber auch nicht weiter die Schuld auf die Spiele zu schieben. Fakt ist weniger wie 3Gb VRAM möchte ich heute nicht mehr haben, 4GB wären wohl besser.
Das habe ich nicht bestritten.

Du kannst nicht Open World gegen geschlossen Level vergleichen und bis jetzt hat noch keiner die Ultra Texturen gesehen.Bei einem Open World Game lädt's du natürlich deutlich mehr in den Vram,weil du eine viel weitere Sichtweite hast und kein Sichtbares Streaming haben willst.
Bezweifle ich, BF4 MP-Maps sind äußerst groß, Ryse-Level wahrscheinlich auch.
Vanishing of Ethan Carter ist übrigens quasi open-World, hat äußerst knackige Texturen (und auch hochaufgelöste Lightmaps) und verbraucht mit altertümlichem UE3-Texturenstreaming in 1440p 4xMSAA gerade mal 1,5GB...

Pfuscher
2014-09-29, 00:15:22
Bezweifle ich, BF4 MP-Maps sind äußerst groß, Ryse-Level wahrscheinlich auch.


Hm nicht so, war vielleicht geplant, aber die xbone kann sowas doch nicht. Die braucht Schläuche.

Schnoesel
2014-09-30, 11:51:20
http://www.pcgameshardware.de/Mittelerde-Mordors-Schatten-PC-258069/Specials/Hands-on-Test-Ultra-Texturen-1137689/

Vorsicht der Artikel wird gerade überarbeitet. Ich schätze zwar nicht das sich am Verbrauch was ändert aber wahrscheinlich bei der Optik.

Ach ja nach derzeitigem Stand müsste man bei dem Game auf Medium stellen bei ner 3GB Karte :eek:

gnomi
2014-09-30, 12:47:13
Evil Within, dieses Herr der Ringe Game, Ryse, Wolfenstein, Watch Dogs, ich glaube die 970/980 Käufer sollten lieber auf die 8GB Vram Versionen warten. :devil:

Wenn so weiter geht wird GTA 5 8GB VRAM benötigen :crazy:

Wenn man wenigstens mal was vom Verbrauch sehen würde.
Shadows of Mordor wirkt texturtechnisch jetzt beispielsweise nicht gerade großartig.
Wolfenstein läuft mit nur 2 GB bereits bestens. Die unkomprimierten Texturen sind wie damals schon bei Doom 3 sehr uninteressant.
Watch Dogs gewinnt mit Ultra Texturen zwar etwas, aber da das Streaming nicht flüssig läuft, kann man sich hier auch die Einstellung schenken und prima mit 2 GB spielen.
Bei Ryse bin ich mal gespannt. Ausgehend von Crysis 3 sollten hier aber auch 2GB Karten bereits super laufen. Auch die AA Lösung ist sehr clever und speichersparend. Eventuell dann für >1080P.

Alles in allem überzeugt mich das ganze noch nicht sonderlich.
Es gibt so gut wie nichts, wo die Ultra Einstellungen einen grafischen Sprung machen.
Ich hoffe, dass Spiele wie Assassin's Creed Unity, Far Cry 4, Call of Duty Advanced Warfare, Dragon Age Inquisition und vor allem The Witcher 3 dann auch tatsächlich in höchsten Einstellungen mal optisch zulegen.

Jules
2014-09-30, 13:13:38
Wenn man wenigstens mal was vom Verbrauch sehen würde.
Shadows of Mordor wirkt texturtechnisch jetzt beispielsweise nicht gerade großartig.
Wolfenstein läuft mit nur 2 GB bereits bestens. Die unkomprimierten Texturen sind wie damals schon bei Doom 3 sehr uninteressant.
Watch Dogs gewinnt mit Ultra Texturen zwar etwas, aber da das Streaming nicht flüssig läuft, kann man sich hier auch die Einstellung schenken und prima mit 2 GB spielen.
Bei Ryse bin ich mal gespannt. Ausgehend von Crysis 3 sollten hier aber auch 2GB Karten bereits super laufen. Auch die AA Lösung ist sehr clever und speichersparend. Eventuell dann für >1080P.

Alles in allem überzeugt mich das ganze noch nicht sonderlich.
Es gibt so gut wie nichts, wo die Ultra Einstellungen einen grafischen Sprung machen.
Ich hoffe, dass Spiele wie Assassin's Creed Unity, Far Cry 4, Call of Duty Advanced Warfare, Dragon Age Inquisition und vor allem The Witcher 3 dann auch tatsächlich in höchsten Einstellungen mal optisch zulegen.
Und auch noch spielbar sind. :tongue::D

Mordor jetzt mit eher gradlinigeren Spielen zu vergleichen finde ich persönlich suboptimal. Dildo sagt das mMn richtig, das OpenWorld einfach mehr abverlangen dürfte. Man muss bedenken das bei Wolfenstein, Ryse oder Crysis 3 die Umgebun nicht komplett begehbar ist. Das ist schon ein unterschied ob ich Texturen komplett reinstreamen muss oder in niedrigerer Auflösung aus der Entfernung betrachte. Daher dürfte von deinen Vergleichen Watch Dogs am ehesten noch zutreffen. Und da sieht man schon das es ordentlich frisst.....oder eben GTA.

Wobei ich jetzt nicht sagen möchte das es nicht besser geht. Der Vergleich sollte nur unter fairen Bedingungen Erwähnung finden.

gnomi
2014-09-30, 13:35:00
Watch Dogs läuft aber sogar sehr gut und hat dabei noch einen irren Detailgrad.
Den extremen Ram Verbrauch auf Ultra würde ich nicht überbewerten.
Da ist definitiv das Streaming nicht sauber.
Die Entwickler hätten hier das Ergebnis für sich behalten sollen.
Die nächsten Ubisoft Titel laufen unter Garantie sauberer. (besonders, falls nur Next Gen Konsolen und PC bedient werden müssen)

Raff
2014-09-30, 13:37:59
Man sieht den Unterschied in Watch Dogs definitiv, wenn man Ultra kennt und dann heruntergeht. Einige Texturen, beispielsweise Mauern, leiden sehr und der knackig-fesche Eindruck, welcher Ultra hinterlässt, weicht einem matschigen "meh". Mit einer Titan oder GTX 900 ist das Streaming-Ruckeln halb so wild, sofern man's mit der Auflösung und dem AA nicht übertreibt.

MfG,
Raff

Hübie
2014-09-30, 13:38:47
Na dennoch sollte man nicht so inflationär mit der Speichermenge umgehen. Genau das ist jedoch meine Beobachtung. Da wird einfach nicht schonend mit Ressourcen gearbeitet, weil die Konsolen halt genügend haben. Wie immer sind wir in den Arsch gekniffen.
Jetzt lachen Titan-Käufer über "uns".

aufkrawall
2014-09-30, 13:40:08
Auf den Konsolen sind die Texturen niedriger aufgelöst.

Raff
2014-09-30, 13:40:31
Ich lache ja seit Monaten. :biggrin:

MfG,
Raff

Sven77
2014-09-30, 13:49:29
Jetzt lachen Titan-Käufer über "uns".

http://abload.de/img/nelson_ha-hauck18.jpg

-/\-CruNcher-/\-
2014-09-30, 13:49:53
Na dennoch sollte man nicht so inflationär mit der Speichermenge umgehen. Genau das ist jedoch meine Beobachtung. Da wird einfach nicht schonend mit Ressourcen gearbeitet, weil die Konsolen halt genügend haben. Wie immer sind wir in den Arsch gekniffen.
Jetzt lachen Titan-Käufer über "uns".

Ein anderes problem ist auch wir krebsen noch mit einem texturkompressionsystem aus dem letzten jahrhundert umher.

Und ja es ist auch viel nachsichtigkeit bei den assets dabei es wird zu wenig optimiert wo es optimierbar wäre weil man die Gewinne für vernachlässigbar und zu kostenintensiv hält.
Es ist einfacher einen export knopf zu drücken als wie manuel hand an zu legen ;)

wenn die 4 GB voll sind geht ein teil auf den System Ram über das muss aber nicht immer katastrophal sein :)

selbst mit 1 GB VRAM und den zusätzlichen geshareden 3 GB System Ram ist noch viel machbar :)


Es gibt auch einen einfachen test zu sehen wie Stabil das System (Engine) läuft

Windows die Pagefile verwehren wenn die Engine nun nicht effizient genug ist oder an einer stelle memory leaked tauchen ganz schnell memory warnings auf mit dem steigenden texuture load oder eben nicht ;)

dildo4u
2014-09-30, 14:37:32
Golem hat auch noch ein Vergleich der Texturen in Shadow of Mordor.

http://www.golem.de/news/mittelerde-mordors-schatten-6-gbyte-vram-fuer-scharfe-ultra-texturen-notwendig-1409-109531.html

fondness
2014-09-30, 14:41:52
bitte löschen.

akuji13
2014-09-30, 14:44:33
Ich lache ja seit Monaten. :biggrin:

Du bist aber auch böse. =)

@Shadow of Mordor

Die texturen@ultra wirken ja einen Zacken knackiger und schärfer als high.

Könnte man ein ähnliches Ergebnis auch mit high+luma sharpen hinkriegen?

x-force
2014-09-30, 15:25:21
nein, die sind schon ne ganze ecke schärfer, mit sharpen erschaffst du nur artefakte.

das ist doch einfach nur extrem peinlich, was die devs da ablassen. ich sag mal wieder nur ut99
http://img329.imageshack.us/img329/9531/eg3lo0.jpg
http://img329.imageshack.us/img329/3784/eg2yz7.jpg
http://www.abload.de/img/unreals3tc15m9v.jpg

edit: die alten bilder waren down...
edit2: ne doch nicht, beim dritten muss man nur etwas länger warten.

Ex3cut3r
2014-09-30, 15:28:20
Also meine nächste Graka sollte 6-8GB Vram haben, da drunter muss man nächstes Jahr schon wieder Abstriche machen imo. Ich glaube einfach jetzt wo langsam die PS3/360 wegfallen, werden PC ports sehr VRAM gierig werden. Bin ja mal auf GTA 5 gespannt 8GB vram anyone? ;D

Muss ja ziemlich frustierend sein für frische 980 Käufer nicht alles auf max zu stellen bei Mordor ;D

mironicus
2014-09-30, 17:05:12
Du kannst Mordor ja auf eine SSD installieren und dann mit Ultra spielen.

Mordor zeigt wo die Reise bald hingeht - mit Konsolen die 8 GB Speicher haben und die PC-User brauchen GPUs mit ähnlich viel Speicher - für 4K schon zweistellig.

Ex3cut3r
2014-09-30, 17:26:14
Du kannst Mordor ja auf eine SSD installieren und dann mit Ultra spielen.


Das soll was bringen? :o

mironicus
2014-09-30, 17:39:28
Versuch macht klug. Oder z.B. eine 48 GB Ramdisc? Für Leute mit 64 GB Arbeitsspeicher... :D
Texturen werden schnellstmöglich nachgeladen, das gibt weniger Ruckler.

dargo
2014-09-30, 17:48:39
Mordor jetzt mit eher gradlinigeren Spielen zu vergleichen finde ich persönlich suboptimal. Dildo sagt das mMn richtig, das OpenWorld einfach mehr abverlangen dürfte. Man muss bedenken das bei Wolfenstein, Ryse oder Crysis 3 die Umgebun nicht komplett begehbar ist.
Mit vernünftigem Streaming lässt sich viel Vram einsparen. Egal ob Schlauch oder Openworld. Man muss den ganzen Rotz nicht im Vram halten.

Lightning
2014-09-30, 17:58:17
Versuch macht klug. Oder z.B. eine 48 GB Ramdisc? Für Leute mit 64 GB Arbeitsspeicher... :D
Texturen werden schnellstmöglich nachgeladen, das gibt weniger Ruckler.

Die Texturen werden doch nicht durch die Festplatte ausgelagert/nachgeladen, sondern durch den Hauptspeicher. Das kann also nichts bringen.

Hübie
2014-09-30, 18:03:21
Die Texturkompression als solches ist kein wirkliches Problem wie man gut an x-force's Beispiel sehen kann. Ich denke du meintest eher die "drohende" Bandbreitenproblematik welche man mit on-the-fly-compression mildern will. Das ist erst wirklich ein Problem wenn man entsprechende Texturformate nutzt und diese entsprechend hoch auflöst.
Coda sagte dass selbst 2013 noch 2048 MB für full HD reichten wenn man sich nicht blöd anstellt. Das glaube ich ihm auch da man seine Arbeit und die seiner Mitarbeiter immerzu gerne betrachtet und in diversen Tests oder Diskussionen als Referenz heranzieht. Selbst mit Bonus sollten also 4 GB reichen.
Ich schätze das ist nur nicht mehr wichtig weil die Performance auf der Straße liegt und PS4/XBONE entsprechend VRAM haben. Das der PC 16 GB DRAM und 4 GB VRAM hat interessiert dabei offensichtlich kein Würstchen. Schade.
Vielleicht sollten wir alle unser Hobby an den Nagel hängen und Konsolero werden :naughty:
Aber wo ist denn da der Reiz?

dargo
2014-09-30, 18:07:50
Ich schätze das ist nur nicht mehr wichtig weil die Performance auf der Straße liegt und PS4/XBONE entsprechend VRAM haben.
Was habt ihr immer mit eurem Speicher bei den Konsolen? Die können eh nur für Spiele 5-6GB nutzen. Und das ist nicht nur Grafikspeicher. Wenn die Konsolen so viel Speicher haben warum nutzt man den nicht bei bsw. Watch Dogs oder BF4?

x-force
2014-09-30, 18:31:58
Die Texturkompression als solches ist kein wirkliches Problem wie man gut an x-force's Beispiel sehen kann.

ich hab nochmal die bilder aktualisiert, das alte war schnell down:biggrin:

Hübie
2014-09-30, 18:46:41
Was habt ihr immer mit eurem Speicher bei den Konsolen? Die können eh nur für Spiele 5-6GB nutzen. Und das ist nicht nur Grafikspeicher. Wenn die Konsolen so viel Speicher haben warum nutzt man den nicht bei bsw. Watch Dogs oder BF4?

Ein Wort: crossplatform ;) Und bedenke dass der PC nicht sowas wie unified adress space hat. Auf der PS4 werden afaik auch nur 1 GB fürs OS reserviert. Der Rest ist standby oder teilweise für hardware reserviert. Da können unsere Devs hier im Forum mehr zu sagen.

dargo
2014-09-30, 19:10:56
Ein Wort: crossplatform ;)
Hä?

Was hindert die Entwickler daran, den neuen Konsolen genauso Ultra-Texturen zu spendieren wie dem PC wenn erstere doch so viel Speicher haben? Crossplattform ist kein Argument.

x-force
2014-09-30, 19:25:29
es macht schlicht keinen sinn hochaufgelöste texturen zu verwenden, wenn man mit 720p rendert ;)

dargo
2014-09-30, 20:00:04
Sowohl Watch Dogs als auch BF4 laufen auf PS4 in 900p.

HisN
2014-09-30, 23:08:47
Schatten von Mordor
http://abload.de/thumb/shadowofmordor_2014_0squpa.jpg (http://abload.de/image.php?img=shadowofmordor_2014_0squpa.jpg)

4.9 GB im Benchmark bei völlig Spielbaren Settings in 2560x1600

http://abload.de/thumb/shadowofmordor_2014_080kbj.jpg (http://abload.de/image.php?img=shadowofmordor_2014_080kbj.jpg)
5.3GB beim ersten Bild im Spiel.

Nach einiger Zeit erreicht die Anzeige 6GB
http://abload.de/thumb/shadowofmordor_2014_058b2j.jpg (http://abload.de/image.php?img=shadowofmordor_2014_058b2j.jpg)

http://www.youtube.com/watch?v=XOpAnAo6dtU
Der Benchmark und die ersten Minuten im Video, natürlich mit Statistik in der oberen Ecke.
Kein SLI-Profil zur Zeit.
Edit: AFR2 funktioniert, ruckelt sich aber gut einen ab an machen Stellen.
http://www.youtube.com/watch?v=lPuf2w30BcQ

Hübie
2014-09-30, 23:18:50
Sowohl Watch Dogs als auch BF4 laufen auf PS4 in 900p.

Ui. 900p? :freak:
Davon ab muss der Mist auch auf den alten Gammelkisten ruckeln laufen damit Ubischrott & Co mehr Spieler schröpfen erreichen kann. Also wird das Budget an anderer Stelle verwendet.

Edit: Und wie gesagt hat die PS4 zwar ein RAM für alles aber dann wieder nur 8 GB. Das scheint ja soviel zu sein dass man ruhig etwas verschwenderisch sein darf. Ich mein: schau dir mal die alten Konsolen an und wie wenig RAM da drin ist. Was man da stellenweise herausholte ware erstaunlich. Und jetzt wo "genug" da ist, haben PCs mal wieder das nachsehen.

@HisN: Wenn ich mir die Bilder so ansehe frage ich mich wo da die 5 Gigabyte an Texturen zu sehen sind. Ich mein...äääh Risen 3 sah stellenweise bei nur 50% VRAM-Auslastung besser aus :freak:

HisN
2014-09-30, 23:29:34
Echt jetzt? Dann muss das ein anderes Risen sein. Das was ich gesehen habe besteht großenteils aus Matsch.

Jupiter
2014-09-30, 23:45:14
Ich mein: schau dir mal die alten Konsolen an und wie wenig RAM da drin ist. Was man da stellenweise herausholte ware erstaunlich.

Nicht viel. Bis auf Beyond: Two Souls und Crysis 2 hatten alle Spiele die ich auf der PlayStation 3 gesehen habe, Matschtexturen und furchtbares Textur-Streaming. Ich kenne wirklich eine Menge Spiele auf der PlayStation 3.

Trotzdem sollte die Speicherverschwendung in den aktuellen Spielen nicht ignoriert werden. Besonders wenn ich mir dagegen Titel wie Crysis 3 ansehe, wo die Qualität stimmt und der Verbrauch vergleichsweise gering ist.

Hübie
2014-09-30, 23:56:12
Echt jetzt? Dann muss das ein anderes Risen sein. Das was ich gesehen habe besteht großenteils aus Matsch.

Herrje. Erbsenzähler. Das war eine Spitze. Das gebotene steht nicht in proportionaler Relation zum Verbrauch. Ich hätte 527 andere Titel nennen können bei denen dies zutreffend wäre - davon ab ist Risen 3 nicht nur Matsch. Wenn du das so siehst ist entweder deine Optik kaputt, dein LOD Bias verschoben (+6), deine Einstellung im Treiber auf Matsch, dein Monitor kaputt oder dein Anspruch verschroben.

@Jupiter: Ich habe ebenfalls eine PS3 und finde die Charaktere in vielen Spielen sehr gelungen dafür das die Hardware total 2005 ist. Haze, Killzone, Mass Effect oder Unchartered boten echt ne Menge. Auch am PC. ME 3 spielte ich kürzlich sogar noch mal durch. In 2880*1620 und SGSSAA waren es glaub ich 1,7 GB belegter VRAM.

Ex3cut3r
2014-09-30, 23:57:41
:popcorn:

Zocker84
2014-10-01, 00:11:29
Wenn eine Textur in den RAM geladen wird, bedeutet das doch afaik nicht, dass diese Textur zu jedem Zeitpunkt dargestellt werden muss.
Nur weil ein Spiel 5 GB VRAM belegt, bedeutet das also nicht, dass eine Grafikkarte mit 3 GB VRAM automatisch "abkackt".
Entscheidend ist die Performance bei der Darstellung, wo neben Speichergröße und - Takt insbesondere die Bandbreite des Speicherinterfaces, sowie die Engine/Streaming eine große Rolle spielen.

Ich bezweifle daher, dass sich eine Regel aufstellen lässt à la "das Spiel belegt 5 GB VRAM, also muss es auch dementsprechend aussehen".
Jedoch bin ich mir sicher, dass in den nächsten 2 Jahren Spiele erscheinen werden, die in Full HD von 4 GB VRAM ggü weniger VRAM profitieren.
In hohen downsampling Auflösungen oder 4K ist dem schon jetzt so.

Jupiter
2014-10-01, 00:20:10
@Jupiter: Ich habe ebenfalls eine PS3 und finde die Charaktere in vielen Spielen sehr gelungen dafür das die Hardware total 2005 ist. Haze, Killzone, Mass Effect oder Unchartered boten echt ne Menge. Auch am PC. ME 3 spielte ich kürzlich sogar noch mal durch. In 2880*1620 und SGSSAA waren es glaub ich 1,7 GB belegter VRAM.

Es stimmt das immer bedacht werden muss, dass die Hardware der PlayStation 3 von 2005 ist. Doch mit einer GTX 8800 (die kam Ende 2006) hätte ich auch grafisch gute Titel wie Crysis 2 in einer Qualität spielen können, die es auf der PlayStation 3 und Xbox360 nicht gegeben hat.

Die Charaktere haben natürlich besonders an den "cineastischen" Spielen eine andere Stellung. Da kam es natürlich vor, dass diese besonders gut ausgesehen haben. Bei HAZE kann ich allerdings nicht zustimmen. Das war aus meiner Sicht die größte Videospielenttäuschung, die ich je hatte.

Ich möchte nicht sagen das alle Konsolenspiele deshalb schlecht ausgesehen hätten. Aber als erstes hat sich m.E. der Speichermangel bemerkbar gemacht. Meiner Meinung nach war das einzige Spiel, bei den ich mich wirklich wundere wie das gelaufen ist, GTA V. Das sieht für seine Größe für diese Hardware gar nicht so übel aus.

Jedenfalls konnte ich mir denken, dass der Grafik-Speicher ab den Erscheinen der aktuellen Konsolen nach und nach eine größere Rolle einnehmen wird. Deshalb habe ich auch mehr die R290 als die GTX 780 im Visier gehabt. Jetzt kam glücklicherweise die GTX 970. ^^

marc-05
2014-10-01, 06:30:38
Die Karten mit 2GB Vram halten sich aber wacker z.b GTX 770
http://s7.directupload.net/images/141001/23cl8amt.jpg (http://www.directupload.net)

http://s14.directupload.net/images/141001/7izvdhg9.jpg (http://www.directupload.net)

http://s14.directupload.net/images/141001/ohz4sbkp.jpg (http://www.directupload.net)



http://gamegpu.ru/rpg/rollevye/middle-earth-shadow-of-mordor-test-gpu.html

Hübie
2014-10-01, 07:00:12
@Zocker84: Ja und was soll ich mit einer Textur im Speicher wenn diese nicht benötigt wird. Genau das ist doch der springende Punkt ;) Cleveres streaming.
@Jupiter: Die PS3 kam 2006 / 2007(EU). Die Hardware ist halt ungefähr anno 2005. Soviel ich weiß war der cell-Prozessor arithmetisch schneller als jede x86-CPU. Nur der RAM war halt unterirdisch. Da das Ding eh quersubventioniert war musste man sparen wo man konnte, schätz ich.
Hast du The last of us gespielt? Das war einfach nur... WOW :eek: Grafik war jedenfalls grandios für die Playse. Da hab sogar ich gestaunt.

@marc-05: Danke für den Test. Scheint also gar nicht so schlimm zu sein wenn man weniger VRAM hat. Man müsste jetzt den Text lesen um zu sehen obs wirklich flüssig lief. Dann ist es ja Overkill 6 GB zu empfehlen.

HisN
2014-10-01, 08:30:04
Das die nicht mal schnell ein SLI Profil angelegt haben ...

y33H@
2014-10-01, 08:37:23
Der integrierte Bench ist ein Schlauch ...

HisN
2014-10-01, 10:11:09
Der leere Star-Citizen-Hangar belegt 4.4GB VRAM^^

http://abload.de/thumb/starcitizen_2014_10_0fojif.jpg (http://abload.de/image.php?img=starcitizen_2014_10_0fojif.jpg)

differenzdiskriminator
2014-10-01, 10:15:13
Der leere Star-Citizen-Hangar belegt 4.4GB VRAM^^
Schicker Hangar :redface:

Raff
2014-10-01, 11:27:12
Unoptimierter Alpha-Hangar. ;)

MfG,
Raff

Zocker84
2014-10-01, 13:06:37
Jdf. bin ich ziemlich angesickt von NV.
Die wussten schon lange, dass sehr bald sehr viel mehr RAM zum zocken nötig wird - und haben ihre Karten bis vor kurzem mit weniger RAM released als ATI.

Seit der 6000er Serie verkauft ATI ihr Karten mit genug RAM, um den Bottleneck nur GPU seitig zuzulassen. NV wollte offenbar unbedingt einen zusätzlichen Bottleneck, durch zu wenig RAM. Damit man schneller eine neue Karte braucht/kauft. Die GTX 970 4 GB läutet wohl den Anfang dazu ein, diese Leute abzugreifen. Den Hauptköder erwarte ich dann in der nächsten Generation.

Ich kann mir vorstellen, dass alle Käufer einer nicht billigen GTX 780 3GB oder 780 Ti 3GB angesickt sein dürften. Das werde zumindest ich, so schnell nicht vergessen und beim nächsten Grafikkarten Kauf ganz genau die ATIs im Auge halten.

y33H@
2014-10-01, 13:12:47
VRAM-Krüppel gibt's schon ewig, man erinnere sich nur mal an die 8800 GT mit 512 oder gar 256 MByte. Dafür hatte NV mit der 8800 GTX ein schönes 768er Polster ...

Raff
2014-10-01, 13:16:55
Und schon damals rüsteten viele auf eine 9800 GTX "auf". :ugly:

MfG,
Raff

Schnoesel
2014-10-01, 13:45:03
Nun irgendeinen Grund musste Nvidia ja liefern weiterhin Titans zu Märchenpreisen verkaufen zu können. Der Semiprofessionelle Einsatz war doch hier nur ein Alibi. Kein Wunder dass die GTX 780 ti 6GB gecancelt wurde. die würde sogar jetzt noch interessant sein.

Wobei ich sagen muss, dass ich fürchte auch die 4GB werden nicht allzu lange halten :freak:

TobiWahnKenobi
2014-10-01, 13:45:57
Und schon damals rüsteten viele auf eine 9800 GTX "auf". :ugly:

MfG,
Raff

haben "wir" aber nicht schon immer gesagt, dass man nie genug VRAM haben kann. AFAIR bietet NV schon seit äonen mannigfaltige optionale AA-modi an und wer mit seiner graka umgehen kann - und sie nicht nur gekauft hat, um sie "out-of-the-box" mit "in-game-optionen" zu nutzen - findet meist auch die richtigen schalter.

das BIOS hat das 4k stabilitätsproblem übrigens gelöst (4.1). danke nochmal dafür - jetzt kann ich genüsslich auf die offizielle kepler-dsr-implementierung warten hoffen. sind unsere karten so unterschiedlich, dass bei dir 4.0 guuuut ist und ich brauche 4.1 ?? *kopfkratz*

apropos 4K -> das nehme ich nur zum gucken und vergleichen. in-game hält engine-übergreifend meist 2688x1512 her - das langt so ziemlich überall für 60fps mit ausreichender augenkarzinomprophylaxe.


(..)

mfg
tobi

Ex3cut3r
2014-10-01, 15:11:46
Jup, wenn man sich aktuelle und vor allem zukünftige Games anguckt, erscheinen mir die 4GB der 980 auch zu wenig, für 8GB darf man wohl wieder einen schönen Aufschlag zahlen, ich schau mal wie die Lage zu Weihnachten aussieht und gönn mir dann was neues. Solange muss die 770er OC aka Vram Krüppel herhalten.

Kriton
2014-10-01, 15:44:11
Und schon damals rüsteten viele auf eine 9800 GTX "auf". :ugly:


War damals der gleiche Chip, oder?

Tesseract
2014-10-01, 15:50:37
haben "wir" aber nicht schon immer gesagt, dass man nie genug VRAM haben kann. AFAIR bietet NV schon seit äonen mannigfaltige optionale AA-modi an und wer mit seiner graka umgehen kann - und sie nicht nur gekauft hat, um sie "out-of-the-box" mit "in-game-optionen" zu nutzen - findet meist auch die richtigen schalter.

der vram allein bringt für die ganzen AA-modi aber auch nicht viel wenn die rechenleistung der karte dafür einfach nicht reicht und so lange man für den größeren speicher so gewaltige aufpreise zahlt ist dieser ratschlag bestenfalls fragwürdig.

Lurtz
2014-10-01, 19:13:24
Jdf. bin ich ziemlich angesickt von NV.
Die wussten schon lange, dass sehr bald sehr viel mehr RAM zum zocken nötig wird - und haben ihre Karten bis vor kurzem mit weniger RAM released als ATI.

Seit der 6000er Serie verkauft ATI ihr Karten mit genug RAM, um den Bottleneck nur GPU seitig zuzulassen. NV wollte offenbar unbedingt einen zusätzlichen Bottleneck, durch zu wenig RAM. Damit man schneller eine neue Karte braucht/kauft. Die GTX 970 4 GB läutet wohl den Anfang dazu ein, diese Leute abzugreifen. Den Hauptköder erwarte ich dann in der nächsten Generation.

Ich kann mir vorstellen, dass alle Käufer einer nicht billigen GTX 780 3GB oder 780 Ti 3GB angesickt sein dürften. Das werde zumindest ich, so schnell nicht vergessen und beim nächsten Grafikkarten Kauf ganz genau die ATIs im Auge halten.
Selbst wenn das so wäre, nVidia kann es sich halt leisten. Der Großteil der nVidia-Käufer kauft die Karten, weil nVidia draufsteht und AMD scheiße ist.

AnarchX
2014-10-01, 19:25:35
War damals der gleiche Chip, oder?
Nein, die 9800 GTX basierte auf G92, der vergleichbar bis schneller als G80 war. Das Problem waren halt die 512MiB. Die wirkten sich schwerwiegend aus, da die DX10-GPUs von NV nicht in der Lage waren direkt über PCIe Texturen zu adressieren, Pre-G80 GPUs von NV konnten es noch. Das war die Ursache des bekannten VRAM-Bugs.

Generell ist die Politik welche AMD und Nvidia bzgl. VRAM-Größen fahren nicht sehr kundenfreundlich. Die Aufpreise für deutlich größere VRAM-Bestückungen (6-8GiB) wären wohl verhältnismäßig gering, erst recht in Preisklassen wie bei der GTX 980. Und die 285 mit ihren mickrigen 2GiB bei eher langsamen 5,5Gbps Speicher kann man wohl auch nur mit Restbeständen an 3GiB Karten erklären.

Hübie
2014-10-01, 19:42:08
Das die nicht mal schnell ein SLI Profil angelegt haben ...

Das ist doch nicht out-of-the-box und kann man einem PC-User nicht zumuten :rolleyes:

Jdf. bin ich ziemlich angesickt von NV.
Die wussten schon lange, dass sehr bald sehr viel mehr RAM zum zocken nötig wird - und haben ihre Karten bis vor kurzem mit weniger RAM released als ATI.

Seit der 6000er Serie verkauft ATI ihr Karten mit genug RAM, um den Bottleneck nur GPU seitig zuzulassen. NV wollte offenbar unbedingt einen zusätzlichen Bottleneck, durch zu wenig RAM. Damit man schneller eine neue Karte braucht/kauft. Die GTX 970 4 GB läutet wohl den Anfang dazu ein, diese Leute abzugreifen. Den Hauptköder erwarte ich dann in der nächsten Generation.

Ich kann mir vorstellen, dass alle Käufer einer nicht billigen GTX 780 3GB oder 780 Ti 3GB angesickt sein dürften. Das werde zumindest ich, so schnell nicht vergessen und beim nächsten Grafikkarten Kauf ganz genau die ATIs im Auge halten.

Es zwingt dich ja niemand etwas zu kaufen. Eine 780 (Ti) mit 3 GiB fand ich schon immer daneben. Titan zu teuer, 780 Ti zu wenig VRAM.

Selbst wenn das so wäre, nVidia kann es sich halt leisten. Der Großteil der nVidia-Käufer kauft die Karten, weil nVidia draufsteht und AMD scheiße ist.

Oder weil nVidia irgendwie das bessere Gesamtpaket hat. Bis AMD das schnallt sind deren Fuzzies alt und grau.

Offenbar wird das Streaming (bzw. die Optimierung) das nächste Budgetopfer welches den Rotstrich kennenlernt. Ich weiß schon warum ich nicht programmieren will :redface:

gnomi
2014-10-02, 10:51:51
Selbst wenn das so wäre, nVidia kann es sich halt leisten. Der Großteil der nVidia-Käufer kauft die Karten, weil nVidia draufsteht und AMD scheiße ist.

Also ich finde, nvidia hat sich die Marktanteile auch außerhalb des guten Marketings fair erkämpft und Qualität abgeliefert.
8 GB auf der 980 hätte ich nichts gegen gehabt, aber es war nicht zu erwarten.
Zwar treiben die neuen Konsolen den Ram Verbrauch hoch, aber die PC Versionen skalieren ja mit den Einstellungen und oft sind selbst die hohen Details über Next Gen Konsolenniveau. (und falls nicht, dann sind es Auflösungen & Framerate)
Was ich einfach nicht begreife: Ich muss ja nicht unbedingt Ultra in Mordor fahren. Die Verbesserungen sind jetzt bei den neusten Screenshots zu erkennen, aber viele Titel werden unter 4GB Ram Verbrauch trotzdem besser wirken, da sie nicht durch Mega Texturen karge Landstriche aufwerten müssen, sondern beispielsweise mehr Details bieten und mit 2k Texturen im Schnitt trotzdem konsistent und hochwertig wirken.
Auch eine 2 GB Karte ist brauchbar, wenn man vernünftige Einstellungen tätigt. Ein Watch Dogs auf Konsole kann sich nicht mit der PC Fassung einer 2 1/2 Jahre alten GTX 680 messen.
Insofern finde ich das ganze doch übertrieben.
Es ist doch schön, wenn wir derartige Optionen haben.
Aber nicht jede Karte mit 256Bit Anbindung muss jetzt 8 GB an Bord haben.
Es hätte die 980 und besonders 970 auf jeden Fall verteuert. Und gerade die Preise sind doch überraschend OK...

fondness
2014-10-03, 17:47:27
Technik-Test von Mittelerde: Mordors Schatten.
http://www.pcgameshardware.de/Mittelerde-Mordors-Schatten-PC-258069/Specials/Test-Technik-1137829/

Für 1080p und Ultra-Texturen braucht es 6Gb VRAM, für höhere Auflösungen mehr :ugly:

Die 6 Gigabyte einer Geforce GTX Titan lassen das Spiel auch mit Ultra-Texturen sehr flüssig laufen (~5,7 Gigabyte Belegung), doch schon mit einer Auflösungsskalierung von 150 % - ausgehend von 1080p, die interne Auflösung beträgt also 2.880 x 1.620 - läuft auch hier der Speicher voll, das Spiel stockt hin und wieder.

Für diese Auflösung mitsamt Ultra-Texturen sind andere Kaliber nötig. Wie etwa die mit gewaltigen 16 Gigabyte ausgestattete Radeon Firepro W9100, die auch diese Auflösung und selbst Ultra-HD ohne Speicherruckler packt - beides wohlgemerkt als einzige Grafikkarte in unserem Testfeld.

HisN
2014-10-03, 17:51:01
Also ich muss mich in 2560x1600 schon anstrengen um die 6GB voll zu bekommen.
Textur-Swap-Ruckler sind mir bei etwa 4h Spielzeit noch nicht aufgefallen, und ich schaue genau hin^^.

http://abload.de/thumb/shadowofmordor_2014_058b2j.jpg (http://abload.de/image.php?img=shadowofmordor_2014_058b2j.jpg)

Coda
2014-10-06, 21:02:53
Du kannst nicht Open World gegen geschlossen Level vergleichen und bis jetzt hat noch keiner die Ultra Texturen gesehen.Bei einem Open World Game lädt's du natürlich deutlich mehr in den Vram,weil du eine viel weitere Sichtweite hast und kein Sichtbares Streaming haben willst.Das wird bei GTA5 nicht anders sein GTA4 war für seine Zeit ja auch schon V-Ram hungrig.
Die Pool-Size fixiert man üblicherweise, das macht keinen Unterschied. Auch lädt man nur die Mip-Maps die man gerade braucht, alles nach einer nicht allzu großen Entfernung verbraucht deshalb nur einen Bruchteil des Speichers.

HisN
2014-10-07, 13:11:27
Hier geht dann allerdings auch mit 6GB nix mehr.
Ruckler bei 360°-Turns.
http://abload.de/thumb/shadowofmordor_2014_1ftui9.jpg (http://abload.de/image.php?img=shadowofmordor_2014_1ftui9.jpg)

TobiWahnKenobi
2014-10-07, 13:18:43
Hier geht dann allerdings auch mit 6GB nix mehr.
Ruckler bei 360°-Turns.
http://abload.de/thumb/shadowofmordor_2014_1ftui9.jpg (http://abload.de/image.php?img=shadowofmordor_2014_1ftui9.jpg)

verblüffend, probier mal übereinander.. dann ruckts nur bei purzelbäumen.

http://abload.de/thumb/shadowofmordor_2014_1n9ozd.jpg (http://abload.de/image.php?img=shadowofmordor_2014_1n9ozd.jpg) http://abload.de/thumb/shadowofmordor_2014_1g2pa5.jpg (http://abload.de/image.php?img=shadowofmordor_2014_1g2pa5.jpg)


(..)

mfg
tobi

aufkrawall
2014-10-07, 13:29:01
Die Pool-Size fixiert man üblicherweise, das macht keinen Unterschied. Auch lädt man nur die Mip-Maps die man gerade braucht, alles nach einer nicht allzu großen Entfernung verbraucht deshalb nur einen Bruchteil des Speichers.
Danke für diese Details.

dildo4u
2014-10-08, 20:49:17
Bethesda erklärt die Evil Within Anforderungen genauer es braucht 4GB Vram wenn man 1080p oder höher zocken will.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10381061#post10381061

Lightning
2014-10-08, 21:00:05
Bethesda erklärt die Evil Within Anforderungen genauer es braucht 4GB Vram wenn man 1080p oder höher zocken will.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10381061#post10381061

Glaube ich nicht. Der VRAM-Bedarf wird auch bei diesem Spiel zuächst in erster Linie von den Texturen abhängen, und nicht von der Auflösung. Und das ist regelbar, andernfalls würde das Spiel kaum mit einer 1 GB-Karte laufen.
Wird einfach wieder so eine typisch vereinfachte und dadurch missverständliche Angabe sein. Gemeint ist eigentlich, dass man mit den Minimalvorraussetzungen Auflösung und Details reduzieren mussn (logisch).

HisN
2014-10-09, 10:35:23
http://abload.de/thumb/bf4_2014_10_09_10_30_p3swy.jpg (http://abload.de/image.php?img=bf4_2014_10_09_10_30_p3swy.jpg)

Gib mir mehr VRAM. Seit DSR auch auf unseren "alten" Grakas geht.

gnomi
2014-10-09, 10:45:59
Also ich frage mich wirklich, was die mit dem ganzen VRam anstellen.
Crysis 3 beispielsweise ist bereits mit 2 GB in Full HD sehr schön texturiert.
Ryse mit 3 GB in sehr hohen Einstellungen sollte dann vielleicht 25% mehr Texturqualität drauflegen.
Ein 4GB Spiel 50%...
Ich sehe aber bislang überhaupt nichts in der Richtung.

Palpatin
2014-10-09, 11:54:01
Also ich frage mich wirklich, was die mit dem ganzen VRam anstellen.
Crysis 3 beispielsweise ist bereits mit 2 GB in Full HD sehr schön texturiert.
Ryse mit 3 GB in sehr hohen Einstellungen sollte dann vielleicht 25% mehr Texturqualität drauflegen.
Ein 4GB Spiel 50%...
Ich sehe aber bislang überhaupt nichts in der Richtung.
Die alten Konsolen hatten ganz wenig VRam also musste man das so gut optimieren wie möglich und alles rausquetschen was ging.
Die neuen Konsolen haben ganz viel VRam man muss nichts optimieren.
Der PC Port hat bei den meisten dieser Spiele keinen allzu hohen Stellenwert also egal.
War doch absolut abzusehen das der VRam bedarf für die next Gen Spiele massivst steigt. Die PS 4 hat halt nunmal bis zu 32x soviel Grafikspiecher zur Verfügung im Vergleich zur PS3.
Verstehe aufgrund der Problematik auch aktuell den ganzen Hype um die 970er und 980er Karten nicht, für mich werden die erst intressant wenn die 8gb Versionen kommen.

Dural
2014-10-09, 12:47:47
Wenn ein Spiel vernünftig programmiert wurde, reichen 4GB für sehr viel. Eventuell für zu viel für einen GM204.

gnomi
2014-10-09, 13:00:59
Genau das ist eben die Frage.
Mit 6-8 GB ist man zwar besser abgesichert, aber die neuen Konsolen nutzen doch auch nicht alles für Texturen. Vielleicht 30-50% des Speichers. Es kommen ja noch die ganzen OS Sachen und andere Dinge hinzu, die speicherhungrig sind.

SamLombardo
2014-10-09, 13:11:45
Genau das ist eben die Frage.
Mit 6-8 GB ist man zwar besser abgesichert, aber die neuen Konsolen nutzen doch auch nicht alles für Texturen. Vielleicht 30-50% des Speichers. Es kommen ja noch die ganzen OS Sachen und andere Dinge hinzu, die speicherhungrig sind.
Bei den speicherhungrigen Games Watch Dogs und Mordor sind die Konsolentexturen auch "nur" gleichwertig zur "hoch" Einstellung am PC. Für diese reichen 3GB Vram locker. Die Vram fressenden Ultra Settings sind PC exklusiv.

gnomi
2014-10-09, 14:01:29
Bei Watch Dogs reichen bereits 2 GB für High plus SMAA.
Bei Mordor sollen 2GB Karten wohl nur Mittel schaffen.
Natürlich kann man wie bei Watch Dogs weitere Features wieder über Konsolenniveau einstellen. Von daher ist eine 2 GB Karte nicht einmal in diesem Worst Case Szenario tatsächlich groß schlechter.
Für Ryse sollen 2GB für High auch reichen.
Den Bildern nach zu urteilen ist Very High besser als die One Version. (die dürfte High entsprechen)
Alles in allem aktuell viel Dramatik um wenig. =)

Palpatin
2014-10-09, 20:29:46
Genau das ist eben die Frage.
Mit 6-8 GB ist man zwar besser abgesichert, aber die neuen Konsolen nutzen doch auch nicht alles für Texturen. Vielleicht 30-50% des Speichers. Es kommen ja noch die ganzen OS Sachen und andere Dinge hinzu, die speicherhungrig sind.
Auf den neuen Konsolen laufen die Spiele aber auch in der Regel nur mit 720-900p ohne AA, wenn einem das genügt reichen wohl die 4gb das ist richtig. Wäre mir allerdings zu wenig für eine 500€ Graka (980GTX).

gnomi
2014-10-10, 10:31:12
Auf PS4 läuft fast alles auf 1080P, bei der Xbox One einiges eben auch mal mit 900P.
4GB sollten für 1440P und Top Grafik mit eventuell noch etwas SSAA oder DRS im Grunde genommen reichen.
Vielleicht bin ich zu wenig anspruchsvoll. Aber für mich ist das schon top. (siehe Ryse PC)

Schnäppchenjäger
2014-10-10, 11:04:17
Auf den neuen Konsolen laufen die Spiele aber auch in der Regel nur mit 720-900p ohne AA, wenn einem das genügt reichen wohl die 4gb das ist richtig. Wäre mir allerdings zu wenig für eine 500€ Graka (980GTX).
4GB sind doch nicht zu wenig.... vllt wenn man Downsampling benutzt bei einem der Spiele mit hohem Verbrauch samt Texturmods und allem Pipapo...
Ansonsten gibt es halt für die Hardoreleute 6GB VRAM :smile:

Für den normalen Spieler wird auch im kommenden Jahr 2-3GB VRAM reichen sage ich

HisN
2014-10-12, 02:16:54
Ryse
http://abload.de/thumb/ryse_2014_10_12_01_4203j5t.jpg (http://abload.de/image.php?img=ryse_2014_10_12_01_4203j5t.jpg)

Ex3cut3r
2014-10-12, 02:46:45
Also der Thread Titel, könnte auch mal geändert werden "wann wird es wirklich erforderlich sein?" -> Imo jetzt! ;D

Geldmann3
2014-10-12, 08:41:28
Kommt darauf an, was mal als "erforderlich" zählt. Ich habe die 4GB Vram Grenze erstmals vor einem Jahr im PS2 Emulator gesprengt. Da das auch vor 6 Jahren schon möglich gewesen wäre, kann man es so sehen, dass 4GB Vram schon vor 6 Jahren bereits erforderlich waren.

Doch wenn "erforderlich" bedeuten soll, dass ein AAA Game mit weniger Vram überhaupt nicht mehr spielbar ist, dann tippe ich auf noch etwa 2 Jahre, bis man mit 2GB Vram das erste Spiel nicht mehr flüssig zocken kann. Noch ca. 3 Jahre, bis 3GB zu knapp werden. Dabei rede ich aber von minimalen Settings@800x600...

Lowkey
2014-10-12, 08:55:57
Wenn ein Spiel im Grafikspeicher laut Auslesetool 4000Mb belegt, dann heißt das, dass das Spiel auch wirklich 4000Mb benötigt?

Denn vor nicht allzulanger Zeit wurde doch festgestellt, dass zusätzlicher Speicher immer gerne belegt wird. Das Spiel bzw. die Programmierung räumt einfach den Speicher nicht mehr auf?

HisN
2014-10-12, 09:19:20
Cache, was nicht aus dem RAM oder der Platte geholt werden muss, das neigt nicht zum Ruckeln wenn es gebraucht wird. Ansonsten ist es immer noch so wie Du sagst, der Gegentest müsste mit einer Graka die über weniger Vram verfügt gemacht werden.

Geldmann3
2014-10-12, 09:25:13
Das variiert von Anwendung zu Anwendung. Im PS2 Emulator ist es beispielsweise echt so, dass ich mit 3,9GB noch 60FPS habe und mit 4,2GB nur noch 5FPS. (R9 290)

In einigen Spielen kann man die Grenze auch um ein paar hundert MB überschreiten, dass sind dann wohl keine Daten, die direkt nötig sind, sondern eher sicherheitshalber vorgehalten werden.

Es gibt auch Games, die sehen bei gleichen Settings einfach schlechter aus, mit weniger VRam. Wie GTA IV.

Was man aber im Umkehrschluss auch sagen kann ist, dass wenn der Vram zu mindestens 90% voll ist, auf einem System mit mehr Vram möglicherweise mehr genutzt werden würde. Man kann sich trotz maximaler Settings also nicht sicher sein, ob man das Spiel wirklich in voller Pracht genießt.

basix
2014-10-14, 12:22:10
Das variiert von Anwendung zu Anwendung. Im PS2 Emulator ist es beispielsweise echt so, dass ich mit 3,9GB noch 60FPS habe und mit 4,2GB nur noch 5FPS. (R9 290)

In einigen Spielen kann man die Grenze auch um ein paar hundert MB überschreiten, dass sind dann wohl keine Daten, die direkt nötig sind, sondern eher sicherheitshalber vorgehalten werden.

Es gibt auch Games, die sehen bei gleichen Settings einfach schlechter aus, mit weniger VRam. Wie GTA IV.

Was man aber im Umkehrschluss auch sagen kann ist, dass wenn der Vram zu mindestens 90% voll ist, auf einem System mit mehr Vram möglicherweise mehr genutzt werden würde. Man kann sich trotz maximaler Settings also nicht sicher sein, ob man das Spiel wirklich in voller Pracht genießt.

Das ist interessant zu wissen! Man könnte es sozusagen als "Schummeln" bezeichnen, ergo dass Grafikkarten mit wenig VRAM in Benchmarks besser dastehen als sie eigentlich sollten, da sie die schlechtere Bildqualität bieten. Natürlich ist es aus Spieleprogrammierer-Sicht sinnvoll, das so zu implementieren. Die Chipleistung reicht z.B. eigentlich aus aber es ist einfach zu wenig Speicher vorhanden.

Gibt es dazu irgendewelche Berichte, wo bei (bis auf die Speicherbestückung) ansonsten identischen Karten die rohen FPS auch mit der tatsächlichen Bildqualität quer-verglichen wird?

Thunder99
2014-10-14, 13:47:24
Wo bleibt denn die gute alte Texturkompression? Es gab Spiele, die mit den Texturen und verfügbaren Speicher von 512-1GB damals besser aus sahen als heute (z.B: Mordors Schatten)

Disconnected
2014-10-16, 20:31:08
Ich finde es immer wieder erheiternd, wenn Leute Screenshots von der VRAM-Belegung posten und dann daraus schlussfolgern, dass die Anwendung soundsoviel Speicher *braucht*. Sowas ist doch keine methodische Vorgehensweise. Das sagt schließlich nur aus, dass sie soviel Speicher nutzen kann. Möglicherweise wird mehr allokiert, wenn mehr vorhanden ist. Warum auch nicht? Um das wirklich korrekt nachzumessen, braucht man zwei bis auf die Speichergröße identische Karten oder man limitiert den für die Anwendung verfügbaren VRAM, falls sowas möglich ist. Dann braucht man ausführliche Benchmarks, am besten mit Framerateverläufen und *daraus* kann man dann ein Resultat ziehen. Alles andere ist Kaffeesatz lesen.

Und ja, man kann ein Memory Leak auch an Slowdowns erkennen, aber das ist nur ein Indikator und nicht zwangsläufig die Ursache.

dargo
2014-10-16, 20:48:42
Ich finde es immer wieder erheiternd, wenn Leute Screenshots von der VRAM-Belegung posten und dann daraus schlussfolgern, dass die Anwendung soundsoviel Speicher *braucht*. Sowas ist doch keine methodische Vorgehensweise. Das sagt schließlich nur aus, dass sie soviel Speicher nutzen kann. Möglicherweise wird mehr allokiert, wenn mehr vorhanden ist. Warum auch nicht? Um das wirklich korrekt nachzumessen, braucht man zwei bis auf die Speichergröße identische Karten oder man limitiert den für die Anwendung verfügbaren VRAM, falls sowas möglich ist. Dann braucht man ausführliche Benchmarks, am besten mit Framerateverläufen und *daraus* kann man dann ein Resultat ziehen. Alles andere ist Kaffeesatz lesen.

Und ja, man kann ein Memory Leak auch an Slowdowns erkennen, aber das ist nur ein Indikator und nicht zwangsläufig die Ursache.
Volle Zustimmung, ich amüsiere mich über diesen Thread auch köstlich.

Übrigens kannst du den Vram nicht limitieren. Selbst wenn es gehen würde wäre es nicht sinnvoll da du dadurch X Speicherbandbreite dir killst.

Geldmann3
2014-10-16, 20:55:15
Gibt es dazu irgendewelche Berichte, wo bei (bis auf die Speicherbestückung) ansonsten identischen Karten die rohen FPS auch mit der tatsächlichen Bildqualität quer-verglichen wird?

Ist leider sehr speziell, aber für GTA IV gab es mal eine Diskussion dazu hier im Forum. Hier der Vergleich (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7047532&postcount=33) zwischen den maximalen Settings einmal mit 512MB Vram und 1,5Gb Vram. GTA IV ist aber auch sehr speziell. Ryse skaliert die Texturqualität aber auch mit dem Vram. Bin mir eigentlich sicher, dass der Vram bei vielen Spielen einen Unterschied macht. Sogar ob ein Spiel auf einer schnellen SSD oder einer Festplatte läuft macht geringfügige Unterschiede für die Texturqualität und damit auch die Performance, weil es manchmal eben nicht schnell genug nachgeladen werden kann, ändert sich das LOD bei langsameren Datenträgern beispielsweise erst später. Zu wenig VRam hat sicher einen ähnlichen Effekt. Die Leute sagen dann:,,Hey guck mal, mein Vram ist nur zu 80% voll!" Doch in Wirklichkeit wären einige entfernte und unscheinbare Texturen manchmal früher in der hochauflösenden Version geladen wenn mehr Speicher da wäre. Ich sage ja nicht, dass das bei allen Spielen so ist und weiß auch nicht in welchem Umfang bei welchen Spiel... Das ist es eben, man kann es nicht wissen. Ein Spiel könnte also möglicherweise mit mehr Vram besser aussehen. Es sei denn, man sieht, dass der Vram nicht mal zu 80% gefüllt ist, dann ist es natürlich sehr unwahrscheinlich, dass es von mehr Videospeicher noch in irgend einer Form profitieren würde.

ChaosTM
2014-10-16, 21:26:03
GTA 5 will use 95% of all Space

Nightspider
2014-10-16, 21:34:17
GTA 5 will use 95% of all Space

Quelle?

Disconnected
2014-10-16, 21:47:49
Selbst wenn es gehen würde wäre es nicht sinnvoll da du dadurch X Speicherbandbreite dir killst.

Warum? Ich meinte jetzt nicht, die Hälfte des Speichers zu deaktivieren, sondern lediglich, der Applikation weniger vorhandenen Speicher vorzugaukeln. Ich weiß nicht, ob von der Applikation direkt VRAM angefordert werden kann oder ob das über einen Garbage Collector läuft. In jedem Fall müsste irgendein TSR laufen, dass die entsprechenden Anfragen abfängt und falsche Ergebnisse zurückliefert. Zumindest in der Theorie.

gnomi
2014-10-22, 10:25:02
Ist leider sehr speziell, aber für GTA IV gab es mal eine Diskussion dazu hier im Forum. Hier der Vergleich (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7047532&postcount=33) zwischen den maximalen Settings einmal mit 512MB Vram und 1,5Gb Vram. GTA IV ist aber auch sehr speziell. Ryse skaliert die Texturqualität aber auch mit dem Vram. Bin mir eigentlich sicher, dass der Vram bei vielen Spielen einen Unterschied macht. Sogar ob ein Spiel auf einer schnellen SSD oder einer Festplatte läuft macht geringfügige Unterschiede für die Texturqualität und damit auch die Performance, weil es manchmal eben nicht schnell genug nachgeladen werden kann, ändert sich das LOD bei langsameren Datenträgern beispielsweise erst später. Zu wenig VRam hat sicher einen ähnlichen Effekt. Die Leute sagen dann:,,Hey guck mal, mein Vram ist nur zu 80% voll!" Doch in Wirklichkeit wären einige entfernte und unscheinbare Texturen manchmal früher in der hochauflösenden Version geladen wenn mehr Speicher da wäre. Ich sage ja nicht, dass das bei allen Spielen so ist und weiß auch nicht in welchem Umfang bei welchen Spiel... Das ist es eben, man kann es nicht wissen. Ein Spiel könnte also möglicherweise mit mehr Vram besser aussehen. Es sei denn, man sieht, dass der Vram nicht mal zu 80% gefüllt ist, dann ist es natürlich sehr unwahrscheinlich, dass es von mehr Videospeicher noch in irgend einer Form profitieren würde.

Wichtig ist eben, dass das Streaming des Titels einwandfrei ist und die Optionen im Grafikmenü gut voreingestellt werden.
Bei Cryengine 3 ist das beispielsweise der Fall.
Crysis 3 ist noch für 2 GB für volle Qualität in 1080P mit Post AA optimiert, Ryse bereits für 3 GB.
Mit 2 GB läuft Ryse trotzdem klasse, da es eben dynamisch so viel Speicher wie vorhanden nutzen kann. (es kann also qualitativ schwanken, je nach Szenenkomplexität)
Ein eher negatives Beispiel wäre Wolfenstein.
Wer sich hier nicht auskennt, wird sein blaues Wunder erleben, wenn er die Texturkompression nicht aktiviert und die Einstellungen drosselt.
Das Spiel braucht bis zu 3,8 GB in 1440P, ohne dass man sonderlich was von merkt.
Und dennoch sieht es nur unwesentlich schlechter mit 2 GB aus.
Alles totale Panikmache mit dem Vram Verbrauch.
Die Entwickler sind gefordert, wie bei Ryse ordentliche Voreinstellungen und entsprechende Qualitätsunterschiede zu liefern.
Mit 2 GB kann man dann prima auskommen, und mit 3 oder 4 aufwärts noch mehr Qualität genießen.

Ach ja, SSD auf dem PC (OS plus Spielepfad) ist natürlich Pflicht.
Alles andere ist auf Spielerechnern nicht mehr ernst zu nehmen.

HisN
2014-10-28, 18:47:24
Lords of the Fallen. Ballert das VRAM (unabhängig von der tatsächlich vorhandenen Menge) absolut voll. DAS nenne ich mal perfekte Ausnutzung. Nicht immer dieses Ringelpiez mit Anfassen, das die anderen Games veranstalten. Das was da ist wird genutzt.

Menu: 3GB
http://abload.de/thumb/lordsofthefallen_2014ycpz3.jpg (http://abload.de/image.php?img=lordsofthefallen_2014ycpz3.jpg)

Intro: 6GB
http://abload.de/thumb/lordsofthefallen_2014s9qcj.jpg (http://abload.de/image.php?img=lordsofthefallen_2014s9qcj.jpg)

1. Ingame-Bild: 6GB
http://abload.de/thumb/lordsofthefallen_2014uqp1l.jpg (http://abload.de/image.php?img=lordsofthefallen_2014uqp1l.jpg)

1. Selbst steuerbare Szene: 6GB
http://abload.de/thumb/lordsofthefallen_2014ohppp.jpg (http://abload.de/image.php?img=lordsofthefallen_2014ohppp.jpg)

Ph0b0ss
2014-10-28, 19:46:45
Lords of the Fallen. Ballert das VRAM (unabhängig von der tatsächlich vorhandenen Menge) absolut voll. DAS nenne ich mal perfekte Ausnutzung. Nicht immer dieses Ringelpiez mit Anfassen, das die anderen Games veranstalten. Das was da ist wird genutzt.

Menu: 3GB
http://abload.de/thumb/lordsofthefallen_2014ycpz3.jpg (http://abload.de/image.php?img=lordsofthefallen_2014ycpz3.jpg)

Intro: 6GB
http://abload.de/thumb/lordsofthefallen_2014s9qcj.jpg (http://abload.de/image.php?img=lordsofthefallen_2014s9qcj.jpg)

1. Ingame-Bild: 6GB
http://abload.de/thumb/lordsofthefallen_2014uqp1l.jpg (http://abload.de/image.php?img=lordsofthefallen_2014uqp1l.jpg)

1. Selbst steuerbare Szene: 6GB
http://abload.de/thumb/lordsofthefallen_2014ohppp.jpg (http://abload.de/image.php?img=lordsofthefallen_2014ohppp.jpg)

Für den Matsch solle aber 0,5-1GB Vram doch locker ausreichen!

aufkrawall
2014-10-28, 19:53:44
Kann stocken, weil der VRAM voll ist, oder weil er es nicht ist. So what?
Gibts FCAT-Messungen zum Spiel?

Rente
2014-10-28, 19:56:10
Für den Matsch solle aber 0,5-1GB Vram doch locker ausreichen!
Lesen und Verstehen könnte helfen - das Spiel nimmt sich einfach direkt allen VRAM den es bekommen kann, was real wirklich genutzt wird ist nach außen (ohne Konsolenbefehle o.ä.) wie bei den meisten Titeln heutzutage überhaupt nicht ersichtlich.

Ph0b0ss
2014-10-28, 20:03:42
Lesen und Verstehen könnte helfen - das Spiel nimmt sich einfach direkt allen VRAM den es bekommen kann, was real wirklich genutzt wird ist nach außen (ohne Konsolenbefehle o.ä.) wie bei den meisten Titeln heutzutage überhaupt nicht ersichtlich.

Das ist mir schon klar. Es ist auch toll, wenn schonmal alles Mögliche vorher in den Vram geladen wird bis er voll ausgenutzt wird. Aber bei der erreichten Qualität reichen sicherlich trotzdem 1GB Vram, ohne das es zu Nachladerucklern kommt.

gnomi
2014-10-29, 11:37:11
Ne, glaube ich nicht. 1 GB halte ich für sehr knapp bemessen.
Ich bin zwar auch von etwas besseren Texturen ausgegangen, aber um die 2 GB Vram sollte man denke ich schon haben. (entsprechende GPU's wie die 680 liefern auch passende Minimalwerte- der Speicher sollte also reichen)

dildo4u
2014-10-29, 13:52:11
Der PC scheint in jedem Fall besser Texturen zu haben als die PS4 Version der Download ist auch größer.

http://youtu.be/i-g1BbDE-rY?t=54s

Pirx
2014-10-29, 16:41:43
Also könnte jetzt mal langsam jemand den nächsten Thread aufmachen "8 GB VRAM - wann wird es wirklich erforderlich sein?" (nach 4 GB, 2 GB, 1 GB, 512 MB, 256 MB, 128 MB, 64 MB, 32 MB, 16 MB, 8 MB,...,..., "VRAM - wann wird es wirklich erforderlich sein?")
:D

gnomi
2014-10-29, 18:56:13
Der PC scheint in jedem Fall besser Texturen zu haben als die PS4 Version der Download ist auch größer.

http://youtu.be/i-g1BbDE-rY?t=54s

Die Konsolenversionen sind scheinbar ohnehin Müll.
Keine volle Texturqualität, miese Framerate unter 30 und im Falle der One auch nur 900p.
Der PC hat mit den höchsten Einstellungen klar bessere Texturen, aber laut GameGPU.ru läuft es in Very High ja auch mit 2GB VRam Karten wie der GTX 680 bereits gut.
Man fragt sich also, warum die Konsolenversionen hier patzen. Die haben vergleichsweise gut Speicher. Liegt es am Streaming oder der Festplatte?
Ich bin mal gespannt, ob da noch mehr nachgepatcht wird. Der PS4 Patch war ja schon eine Hausnummer mit fast 5 GB.
Ich finde die Version richtig schlecht aussehend.
Natürlich wird's im Konsolenforum keiner an die große Glocke hängen, aber bei dem Milchglaslook geht doch auch das Spielerlebnis den Bach runter. :down:

Rampage 2
2014-10-29, 19:54:32
Wo bleibt denn die gute alte Texturkompression? Es gab Spiele, die mit den Texturen und verfügbaren Speicher von 512-1GB damals besser aus sahen als heute (z.B: Mordors Schatten)

Ich muss da immer an UT2004 und CoD2 denken:redface:

Oldskool-Titel sind immer noch die Besten...

R2

dildo4u
2014-10-30, 16:06:24
Lords scheint recht nette Texturen zu haben.

https://farm8.staticflickr.com/7557/15663529161_e2f97b6341_o.jpg

http://www.neogaf.com/forum/showpost.php?p=136587478&postcount=12201

Disconnected
2014-10-30, 18:16:21
Wenn dann die 8 GB Versionen von R290X und GTX 980 kommen, kann man ja endlich mal vernünftige Tests machen, was wieviel verbraucht und damit meine ich keine Screenshots mit Speicherbelegungen, sondern richtige Benchmarks 8 GB vs. 4 GB.

Palpatin
2014-10-30, 18:54:10
Die Konsolenversionen sind scheinbar ohnehin Müll.
Keine volle Texturqualität, miese Framerate unter 30 und im Falle der One auch nur 900p.
Der PC hat mit den höchsten Einstellungen klar bessere Texturen, aber laut GameGPU.ru läuft es in Very High ja auch mit 2GB VRam Karten wie der GTX 680 bereits gut.
Man fragt sich also, warum die Konsolenversionen hier patzen. Die haben vergleichsweise gut Speicher. Liegt es am Streaming oder der Festplatte?
Ich bin mal gespannt, ob da noch mehr nachgepatcht wird. Der PS4 Patch war ja schon eine Hausnummer mit fast 5 GB.
Ich finde die Version richtig schlecht aussehend.
Natürlich wird's im Konsolenforum keiner an die große Glocke hängen, aber bei dem Milchglaslook geht doch auch das Spielerlebnis den Bach runter. :down:
Abgesehen vom Speicher ist die Rohleistung der PS4 in etwa vergleichbar mit der 7850HD und da kommt die Zocke in 1080p auch grad mal so auf die 30FPS und das auch nicht stabil. Die angesprochene 680 ist da schon ein anderes Kaliber und ca 60% schneller.

Knuddelbearli
2014-10-30, 19:18:47
Wenn dann die 8 GB Versionen von R290X und GTX 980 kommen, kann man ja endlich mal vernünftige Tests machen, was wieviel verbraucht und damit meine ich keine Screenshots mit Speicherbelegungen, sondern richtige Benchmarks 8 GB vs. 4 GB.

und wieso war das bisher mit 780 vs titan und 780ti und black nicht möglich?

boost hast ja weiterhin der da mit reinfunkt und muss eh deaktiviert werden

Disconnected
2014-10-30, 21:24:37
Wenn, dann eher 780 3 GB vs. 6 GB. Keine Ahnung, ob es da Tests gibt.

Thunder99
2014-10-30, 23:01:39
DAS (http://www.computerbase.de/2014-05/sapphire-amd-radeon-vaporx-r9-290x-oc-4gb-vs-8gb-test/) ist ja bekannt oder? Nur in extremen Settings oder neuste Spiele brauchen >4GB

Ätznatron
2014-10-31, 08:14:01
Benchmarks bringen doch nichts* bei so einem Vergleich, denn die zeigen nur die FPS.

Der Punkt ist doch, ob es zu Nachladerucklern kommt oder nicht.

Um das also beurteilen zu können, eignen sich Videos entsprechender Ingamesequenzen wohl besser.

*bzw. nicht so viel

edit:

@Disconnected

Wenn, dann eher 780 3 GB vs. 6 GB. Keine Ahnung, ob es da Tests gibt.

Tests kann ich dir nicht liefern, aber wenn dir meine eigene Erfahrung reicht mit einer Palit GTX 780 SJS 3 GB und einer GTX 780 Inno3D 6 GB?

Beides sind Werks-OC Karten und leistungsmäßig auf einer Höhe. Die 6 GB-Karte habe ich mir ausschließlich wegen eines neben höchsten Qualitätseinstellungen stark mit HD-Texturen gemoddeten X-Plane 10 zugelegt und konnte erst da so richtig feststellen, wieviel VRAM denn nun eigentlich belegt wird, und das sind in der Spitze fast 6 GB, im Durchschnitt etwa um die 5,3 GB.

Mit der 3 GB-Karte gab es heftige Einbrüche, während die 6 GB-Karte da wesentlich weniger Probleme macht. Es gibt so gut wie keine Framedrops mehr, das ganze Spiel ist dadurch erstmals vernünftig spielbar geworden. Um eine ähnliche Spielbarkeit mit der 3 GB Karte zu erreichen, muss man schon deutlich die Settings runterschrauben, was das Spiel dann natürlich weniger ansehnlich macht.

robbitop
2014-10-31, 08:43:20
Watch Dogs und Shadows of Mordor brauchen bei Ultra Texturen schon mehr als 4 GiB. Kombiniert man das mit DSR oder 4K, sollten es mind. 6 GiB sein.

VRAM Bedarf steigt nunmal - das ist historisch schon immer so gewesen. Ist mir ein Rätsel, warum das jedes Mal wieder neu angezweifelt wird. :D

Thunder99
2014-10-31, 12:08:56
Weil es manchmal nicht im Verhältnis steht zu der Qualität, insbesondere wenn frühere Titel es besser hin bekommen haben :confused:

Raff
2014-10-31, 12:16:38
Das können wir als Laien gar nicht beurteilen. Bessere Beleuchtung kostet beispielsweise auch Speicher. Natürlich sind Texturen echte Vielfraße, wenn man sie lässt, aber auf dem Weg zu besserer Grafik führt kein Weg an höherer Speicherbelegung vorbei. Wie robbi schon sagte: Das war schon immer so. Und es hat nicht zwingend etwas mit Ineffizienz zu tun. Natürlich gehen Entwickler im Falle viel vorhandenen Speichers etwas sorgloser damit um - die alten Konsolen wurden jedoch manuell totoptimiert -, am Ende haben wir aber alle bessere Grafik.

Einfach keine auf Kante genähten "Speicherkrüppel" kaufen und gut ist. :up:

MfG,
Raff

basix
2014-10-31, 12:25:16
Lords of the Fallen. Ballert das VRAM (unabhängig von der tatsächlich vorhandenen Menge) absolut voll. DAS nenne ich mal perfekte Ausnutzung. Nicht immer dieses Ringelpiez mit Anfassen, das die anderen Games veranstalten. Das was da ist wird genutzt.

Das selbe gilt für den normalen Abeitsspeicher ;) Ging bei mir bei total 12GB RAM auf >11GB Auslastung rauf. Keine Ahnung was da so alles geladen wird aber das ist schon verdammt viel (hatte vorher noch nie so viel RAM Belegung :D).

Disconnected
2014-10-31, 16:42:04
Benchmarks bringen doch nichts* bei so einem Vergleich, denn die zeigen nur die FPS.

Der Punkt ist doch, ob es zu Nachladerucklern kommt oder nicht.

Um das also beurteilen zu können, eignen sich Videos entsprechender Ingamesequenzen wohl besser.

*bzw. nicht so viel

edit:

@Disconnected



Tests kann ich dir nicht liefern, aber wenn dir meine eigene Erfahrung reicht mit einer Palit GTX 780 SJS 3 GB und einer GTX 780 Inno3D 6 GB?

Beides sind Werks-OC Karten und leistungsmäßig auf einer Höhe. Die 6 GB-Karte habe ich mir ausschließlich wegen eines neben höchsten Qualitätseinstellungen stark mit HD-Texturen gemoddeten X-Plane 10 zugelegt und konnte erst da so richtig feststellen, wieviel VRAM denn nun eigentlich belegt wird, und das sind in der Spitze fast 6 GB, im Durchschnitt etwa um die 5,3 GB.

Mit der 3 GB-Karte gab es heftige Einbrüche, während die 6 GB-Karte da wesentlich weniger Probleme macht. Es gibt so gut wie keine Framedrops mehr, das ganze Spiel ist dadurch erstmals vernünftig spielbar geworden. Um eine ähnliche Spielbarkeit mit der 3 GB Karte zu erreichen, muss man schon deutlich die Settings runterschrauben, was das Spiel dann natürlich weniger ansehnlich macht.

Dafür sollte man eben einen Framerateverlauf mit hinzufügen. Auf dem sind dann auch die Einbrüche (sofern denn welche kommen) zu sehen. Die meisten Spiele sollten auch mit weniger Speicher auskommen. Wenn man sie natürlich mit Texturen moddet, für deren Auflösung sie eigentlich gar nicht vorgesehen waren, dann kann ich mir das schon vorstellen. Ein gutes Beispiel für eine fehlerhafte Implementierung ist Fable III. Da läuft regelmäßig der Speicher voll. Das Spiel wird dann unspielbar langsam und schließlich stürzt der Renderer ab. Danach geht es wieder.

Nightspider
2014-10-31, 17:14:41
4K und 8K Texturen in Star Citizen - "I don't care about consoles"

http://www.tweaktown.com/news/40851/star-citizen-creator-i-don-t-care-about-consoles-/index.html

8GB Karten ich komme.^^

Botcruscher
2014-10-31, 17:20:58
Fein. Dazu ein guter 4K Moni...

ChaosTM
2014-10-31, 17:43:29
Ein "Sidegrade" werde ich wohl nicht machen, aber die nächste Gen. bekommt sicher 8+GB.
Nvidia und AMD mögen sich beeilen...

Hübie
2015-01-08, 06:03:28
Wollte hier mal kurz anbringen dass ACU gut und gerne 4GB voll ausnutzt:

Schaut mal auf VRAM-Usage und dann schaut mal die spikes an wann die auftauchen. Die Frametimes waren hier besonders mies, weil da offenbar eine Menge hin- und herkopiert werden musst. Das war die Szene im Paris des 19. Jahrhunderts (für die, die das Spiel kennen). Eine der anspruchvollsten Szenen bisher. Man beachte den Bereich zwischen den fetten Spikes.
AC:U - 1920x1080@TXAA @Ultra hohe Details:

http://abload.de/img/assassinscreed_unity_7hucl.png (http://abload.de/image.php?img=assassinscreed_unity_7hucl.png)

Ansonsten läufts mit ~50-70 fps ganz ordentlich. Wohl dem der mehr als 4 GB hat :redface:

Disco_STFU
2015-02-19, 21:47:23
http://www.computerbase.de/forum/showthread.php?t=1449144&page=2&p=17042161#post17042161

Könnt ihr die Angaben bestätitgen zum VRAM Verbrauch?

Thunder99
2015-02-19, 22:12:17
FarCry 4 mit 1620p hatte ich so um die 3,2GB VRAM Verbrauch bei max. Qualität und SMAA

Hübie
2015-02-19, 22:16:10
Was genau meinst du? Verkehrt ist das nicht. Hab da meinen Senf zu gegeben.

HisN
2019-03-03, 16:25:44
https://abload.de/thumb/thedivision2_2019_03_q7j33.jpg (http://abload.de/image.php?img=thedivision2_2019_03_q7j33.jpg)

aufkrawall
2019-03-03, 16:35:47
Startet bei meinem Bruder mit Vega 56 in 4k gar nicht erst mit DX12, VRAM und RAM explodieren schon im Menü sofort. :freak:
DX11 geht, der VRAM ist aber auch sofort voll.

Für die HiRes-Texturen von Far Cry ND reichen übrigens 8GB für WQHD so gerade.

dildo4u
2019-03-03, 17:18:36
Gut dachte das liegt an Pascal komisch da dargo meinte DX12 läuft wie butter.

HisN
2019-03-03, 17:35:16
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=593646

Um das mal in vernünftige Bahnen zu lenken, hat ein findiger Programmierer ein Tool geschrieben, mit dem man VRAM "belegen" kann. Einfach um zu sehen wann und wie eine Graka einbricht, wenn ihr das VRAM ausgeht.
Und das ganz ohne Graka-Wechsel :-)

aufkrawall
2019-03-03, 18:09:04
Gut dachte das liegt an Pascal komisch da dargo meinte DX12 läuft wie butter.
Ich schrieb von 4k, für WQHD reichts evtl. noch knapp.

dargo
2019-03-03, 18:26:33
Wovon sprecht ihr? Von The Division 2 Open Beta? Da reichen 8GB für 1440p problemlos.

Nosferatu1
2019-03-03, 19:02:41
reicht bei 4k auch....zumindest bei mir :)

Platos
2019-03-03, 19:28:29
@HiSN

Wie machst du diese Balken beim OSD ?

Und nützliches Tool, muss ich mal ausprobieren (mit meienr gammeligen GTX960-Zwischenlösung:biggrin:).

Andron
2019-03-03, 19:41:53
Startet bei meinem Bruder mit Vega 56 in 4k gar nicht erst mit DX12, VRAM und RAM explodieren schon im Menü sofort. :freak:
DX11 geht, der VRAM ist aber auch sofort voll.


Hilft HBCC oder bringt es in diesem Fall nichts?

BeetleatWar1977
2019-03-03, 19:44:18
Hilft HBCC oder bringt es in diesem Fall nichts?
Hilft - crasht hier in DX12 aber auch sobald der Speicher volläuft.... Reduzierung der erweiterten(?) Streamings hat geholfen..... Pendel so um die 10GB rum in 4K mit Vega 56

Platos
2019-03-03, 20:07:06
Eig. sollte man gleich jede gängige Karte damit in 4K testen :D Zumindest die 4K tauglichen. Und die anderen (z.B RTX 2060 GTx 1660Ti) in 1440p

HisN
2019-03-03, 21:55:04
Wie machst du diese Balken beim OSD ?


Das ist der Modern-Web-Style den Unwinder in der Beta10 vom aktuellen AB eingeführt hat.

Rancor
2019-03-03, 22:41:35
Also für WQHD reichen 8GB in TD 2 locker.

crux2005
2019-03-03, 22:51:03
Das ist der Modern-Web-Style den Unwinder in der Beta10 vom aktuellen AB eingeführt hat.

Benutze Beta 14 aber die Balken habe ich beim Modern Web Style nicht.

HisN
2019-03-03, 22:55:58
http://www.fichen.de/temp/Profile1.cfg
Hier als kleine Anleitung. Ist sonst so viel zu tippen.
Ich hab das per Trial+Error rausgepopelt^^

unl34shed
2019-03-04, 06:15:05
Also für WQHD reichen 8GB in TD 2 locker.

Also bei mir crashed es nach ca 30min in fullHD. RX 480 8GB, DX12.

dargo
2019-03-04, 14:13:09
Also bei mir crashed es nach ca 30min in fullHD. RX 480 8GB, DX12.
Und bei mir läufts perfekt @1440p... RX Vega64 LCE 8GB, DX12. Check mal deine OC-Settings falls System übertaktet.

Rancor
2019-03-04, 14:59:43
Also bei mir crashed es nach ca 30min in fullHD. RX 480 8GB, DX12.

Das liegt aber sicher nicht an den 8GB :wink:

dildo4u
2019-03-16, 12:12:00
PCGH hat jetzt die Final von Division 2 gebencht 6GB scheinen ok zu sein,das Game wird schon in 1440p extrem GPU Lastig.


http://www.pcgameshardware.de/Tom-Clancys-The-Division-2-Spiel-61585/Specials/Benchmark-Test-1277387/2/

dargo
2019-03-16, 12:19:01
Ach nee... vor kurzem hieß es noch 12GB wären bei Titan X Pascal für 4k und max. Details zu wenig. ;)

Interessant ist, dass The Division 2 bis inklusive Ultrawide-QHD mit 6 GiByte Speicher auskommt. Erst in Ultra HD brechen 6G-Grafikkarten wie die Geforce GTX 1660 und RTX 2060 ein, sodass 8G-Modelle wie die Radeon RX 590 oder Vega 56 Boden gutmachen. Wer im Spiel wirklich alle Optionen auf das Maximum stellt, benötigt noch etwas mehr Grafikspeicher. Dann sollten es für WQHD+ bereits 8 GiByte sein, während wir für Ultra HD mindestens 11 GiByte empfehlen, um von sporadischem Stocken und/oder Texturbrei gefeit zu sein.


Es hat sich hier zur Open Beta gar nichts geändert. Selbst mit max. Details habe ich max. 6,95GB hier in 1440p mit einer 8GB Vega gesehen. Insofern erspare ich mir auch Vergleiche mit 12GB dank HBCC.

Edit:
Muss mich korrigieren. Nach jetzt insgesamt 13 Spielstunden habe ich nun max. 7,55GB Speicherbelegung gesehen. Andere Szenen, anderer Speicherverbrauch.

dildo4u
2019-03-16, 12:21:29
Ich denke mal man hat dort mehr erwartet weil die Radeon VII in der Empfehlung für 4k stand und keine 2080.Wobei das eh kein Sinn macht weil man dafür wesentlich mehr GPU Power braucht.

dargo
2019-03-16, 12:29:35
Ach Quatsch... als ob die Empfehlungen irgendwo Sinn gemacht hätten. Man empfiehlt einfach das schnellste was der Markt her gibt für max. Settings und gut ist. Genau so bescheuert sind die CPU-Empfehlungen für Elite @4K und 60fps (da reicht schon der R5 1500X locker für aus). Da hat man auch einfach nur die schnellsten CPUs am Markt beider Hersteller genommen.

btw.
Die GTX970 bekommt hier arge Probleme. R9 390 ist bei den avgs. 48% schneller, das waren mal Konkurrenten. Verwunderlich finde ich auch, dass die R9 390 selbst die GTX1060 leicht überholt. Fiji performt auch sehr schwach. Gerade mal 12% schneller als eine RX570 4GB. :freak:

Ex3cut3r
2019-03-30, 15:13:49
Ich habe hier endlich mal Szenario gefunden wo 8GB nicht reichen. -> GTA 5 mit NVR + Visual V + LOD Tweak + DS x4 = 6880x2880 + 2xMSAA + Reshade Config. Da wird der VRAM sowas von vollgeballert, das ganze Texturen fehlen, sieht ultra witzig aus "fliegende Autos" Aber wenn ich schon das 2xMSAA ausschalte reichen 8GB schon wieder. Meine akutellen Spiele Settings sehen aber "nur" so aus 1.x5 DS = 5160x2160 @ 3440x1440 + 2xMSAA läuft zwar nur mit 30 - 40 FPS aber die Optik ist zum niederknien @ RTX 2080 max OC. Wegen dem LOD Tweak/MOD erreiche eh nur max 50 FPS -> CPU Limit.

hq-hq
2019-03-30, 15:41:43
ich kann mich nur an ein Spiel erinnern wo mir VRAM und Arbeitsspeicher ausgegangen sind, 2x GTX 970 3.5GByte+500MByte und 8GByte DDR3 mit einem 4790k waren für Ryse zu knapp...

dildo4u
2019-03-30, 16:06:23
Paar neue Benches 970 vs 1660.


https://youtu.be/qVl4Hg_gq08?t=636

downforze
2019-03-30, 17:29:26
Interessanter Test. Dass die alte 980 die 1660 ausbotet, wenn auch knapp, hätte ich nicht gedacht.

Ex3cut3r
2019-03-30, 20:03:42
Interessanter Test. Dass die alte 980 die 1660 ausbotet, wenn auch knapp, hätte ich nicht gedacht.

Naja in solchen alten Schinken wie Crysis 3 schon, ist auch schon wieder 6 Jahre alt, aber schau mal weiter z.B bei Assassins Creed Oydsee oder SoTTR, da ist die 1660 30-60% schneller. Und ganz schlimm ist es am Schluss bei Wolfenstein 2 - gut, da wird wohl der VRAM voll sein, musste man mal nachsehen wie es mit "High Texturen" (Bei Wolfenstein 2 betrift die Textureinstellung sowieso nur das Streaming Budget, einen optischen unterschied gibt es nicht) aussieht.

gravitationsfeld
2019-03-30, 23:34:41
(Bei Wolfenstein 2 betrift die Textureinstellung sowieso nur das Streaming Budget, einen optischen unterschied gibt es nicht
Stimmt nicht. Die niedrigeren Einstellungen laden hoeher aufgeloesste Texturen gar nie.

"Uber" ist ein bisschen sinnlos. Ich verstehe nicht warum man damit benchmarkt. Das war eigentlich fuer die Zukunft gedacht, wenn eh jeder 8+GB hat.

dargo
2019-03-31, 10:54:24
"Uber" ist ein bisschen sinnlos. Ich verstehe nicht warum man damit benchmarkt. Das war eigentlich fuer die Zukunft gedacht, wenn eh jeder 8+GB hat.
Klickbaits generieren.

Raff
2019-03-31, 11:01:40
Unterschiede aufzeigen.

MfG,
Raff

dargo
2019-03-31, 11:26:14
Ach komm. Wenn ihr Unterschiede aufzeigen wolltet dann würde da ebenfalls ein Vergleich mit einer Stufe tiefer stehen und ein dicker Hinweis unter dem Diagramm, dass das höchste Setting visuell nichts bringt.

gnomi
2019-03-31, 18:10:41
Die 970 ist immer noch überraschend brauchbar, hat aber eben ihre Probleme wegen dem langsamer angebundenen zweiten Speicher.
Die 980 bleibt hingegen eine sehr gute GPU.
Habe das ja schon in Deus Ex Mankind Divided festgestellt.
Texturen bisschen zurück auf High und läuft super. (gerade mit GSync auch noch 1440P ohne sonstige GPU Anpassungen zumeist kein Thema)
Mittlerweile benutze ich die Karte noch gerne im alten Zweit PC. (Full HD und nur 60fps Target langweilt die sich bei vielen Sachen dann sogar)
Meine 1080 OC habe ich damals nur aus purem Luxus und wegen 144 Herz Display zu 650 gekauft.
Ich fand das schon bald dekadent, als die neusten AAA Spiele dann mit über Hundert Bildern im Schnitt oft liefen. Und dann die noch bessere 1080 TI mit irrwitzigen 800 Euro hinterher. Tja, aktuell wären das Schnäppchen. :wink:
Dieses Mal werde ich versuchen, etwas zu warten, denn einen vergleichbaren Sprung von 70-80% gibt es erst mit der 2080TI.
Und die nächste Monitor GSync HDR Generation kostet sogar das 3x.
Ne, so nicht. :wink:

Mortalvision
2019-03-31, 18:34:13
Ja,beide: 970 und 980 waren damals bessere Investitionen als damals gedacht!

aufkrawall
2019-03-31, 18:50:52
Geht so, die 4GB haben schon 2016 in z.B. Mirror's Edge nur noch bescheiden für WQHD gereicht.

Mortalvision
2019-03-31, 21:13:38
jo mei. für full hd ;)

Das sind doch 2012er gpus gewesen. Wenn die nach 6-7 Jahren nicht mehr reichen, sind sie für damalige Zeiten sehr langlebig gewesen!

aufkrawall
2019-03-31, 21:17:51
Maxwell kam erst Herbst 2014. ;)

Daredevil
2019-03-31, 21:20:34
Geht so, die 4GB haben schon 2016 in z.B. Mirror's Edge nur noch bescheiden für WQHD gereicht.
Hat denn ne 970 FPS mäßig für Mirrors Edge und WQHD gereicht? :D

aufkrawall
2019-03-31, 21:55:13
Ja, natürlich. Hässliche SSR aus und Schatten ("Lighting") auf Ultra statt Hyper, und das läuft locker flockig mit einer 980 in WQHD (bez. würde es, würde der VRAM reichen).

Mortalvision
2019-04-01, 03:00:26
Maxwell kam erst Herbst 2014. ;)

oh, dann mittelprächtig kurzlebig ;D

Leonidas
2019-04-02, 06:35:50
Auch noch einmal ein interessanter Fall zum Thema:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1-april-2019

https://www.3dcenter.org/dateien/abbildungen/GeForce-GTX-1050-Ti-1060-The-Division-2.png

Razor
2019-04-02, 07:50:23
Also ich habe mir den Artikel mal angeschaut und dort eher ein Problem mit DX12 gesehen:
https://www.tomshw.de/2019/04/01/the-division-2-grafikkarten-der-mittelklasse-im-benchmark/2/
Aprilscherz?

Auch gibt es zwischen 1060 3G und 6G ja auch noch weitere Unterscheide:
- Armor OC: GP106-400-A1 (1280/​80/​48)
- WF OC: GP106-300-A1 (1152/​72/​48)
Hat schon ein bissel was von Apples-vs-Pears, auch wenn es natürlich nicht DEN Unterschied erklärt.

- 1080p, DX12: 31,5 zu 63.... schon krass!
- 1440p, DX12: 20 zu 42... wieder krass!

- 1080p, DX11: 47 zu 55... schon eher nachzuvollziehen.
- 1440p, DX11: 32 zu 39... passt wieder

Ich will damit nicht sagen, dass 3GB heute noch ausreichen (der Thread ist aus 08/2013, nicht zu vergessen ;-), zumal ich selbst mit meiner 2080 (1080ti Niveau) und Games wie SotTR, AC Odyssee oder ganz aktuell DeusEx Mankind Devided (aus 2016!) schon an QHD Leistungs-, wenn auch weniger an 8GB VRAM-Grenzen stoße.

Razor

gnomi
2019-04-02, 14:16:33
Es sollte wesentlich genauer geguckt werden, wie ein Spiel tatsächlich über seine Einstellungen skaliert und allgemein performt.
Gerade beim Texturspeicher gibt es so ein paar AAA Ausfallkandidaten mit Ultra/Hyper/Super Duper Einstellung.
Der Speicherverbrauch explodiert, aber selbst in WQHD nur geringfügige Unterschiede.
Für aktuelle High End Karten eine Herausforderung, für 4-5 Jahre alte GPU's wähle ich natürlich die Sinn ergebene Einstellung.
Ich würde sogar knallhart dann Deus Ex MD Texture High 980 gegen 1080 Ultra testen. Da sehe ich einfach viel realistischer, was ich tatsächlich aus dem Spiel an Grafik und Performance auf einer GPU bekomme und empfehlen kann.
Ich fand HardOCP da immer sehr gut muss ich sagen.
Also mehr Game fokussierte Benchmarks. Schließlich geht es ja darum. Taugt die GPU für das Spiel, und was kann ich maximal mit der entsprechenden GPU zum Testzeitpunkt erwarten?

aufkrawall
2019-04-02, 15:30:10
Gerade beim Texturspeicher gibt es so ein paar AAA Ausfallkandidaten mit Ultra/Hyper/Super Duper Einstellung.

Und genau so gibt es Fälle, bei denen der Unterschied deutlich sichtbar ist. Komisch, dass das bei dir immer unter den Tisch fällt. :rolleyes:

][immy
2019-04-02, 15:55:59
Also ich habe mir den Artikel mal angeschaut und dort eher ein Problem mit DX12 gesehen:
https://www.tomshw.de/2019/04/01/the-division-2-grafikkarten-der-mittelklasse-im-benchmark/2/
Aprilscherz?

Auch gibt es zwischen 1060 3G und 6G ja auch noch weitere Unterscheide:
- Armor OC: GP106-400-A1 (1280/​80/​48)
- WF OC: GP106-300-A1 (1152/​72/​48)
Hat schon ein bissel was von Apples-vs-Pears, auch wenn es natürlich nicht DEN Unterschied erklärt.

- 1080p, DX12: 31,5 zu 63.... schon krass!
- 1440p, DX12: 20 zu 42... wieder krass!

- 1080p, DX11: 47 zu 55... schon eher nachzuvollziehen.
- 1440p, DX11: 32 zu 39... passt wieder

Ich will damit nicht sagen, dass 3GB heute noch ausreichen (der Thread ist aus 08/2013, nicht zu vergessen ;-), zumal ich selbst mit meiner 2080 (1080ti Niveau) und Games wie SotTR, AC Odyssee oder ganz aktuell DeusEx Mankind Devided (aus 2016!) schon an QHD Leistungs-, wenn auch weniger an 8GB VRAM-Grenzen stoße.

Razor

Hardwareunboxed hat vor kurzem auch mal nen aktuelles Video zum Thema 4GB gemacht. Am Ende kam raus, das 4GB natürlich noch ausreicht, es kommt halt aber immer auf die Einstellungen an.
Hier im Forum wird gerne mal so getan, als wenn man mit einer 4GB Karte nicht mal mehr spielen könnte. Was natürlich nur daran liegt, das dieses Forum schon ziemlich exklusive Anwender hat und man selten beachtet, das mit so einer Karte wohl kaum jemand Ultra-Details bei 4k flüssig erwarten würde.
Kann jedenfalls mit meiner Karte (RX570 4GB) noch sehr gut spielen. Ich muss auch nicht immer alles nachbenchen ob es wirklich überall 60fps waren. Mich beispielsweise stört inzwischen eher die Kühllösung, weshalb ich die Karte ein wenig runter getaktet habe.
Ultra Details müssen es auch nicht sein (zumal die Unterschied teils nur noch mit der Lupe zu suchen sind in den höheren Detailstufen), abgesehen davon das 1080p durch den Monitor meist schon begrenzt ist und auf VSR muss man dann bei neueren Titeln eben auch verzichten.

Aber eine Karte mit 4GB oder auch 6GB aktuell noch holen wenn ich >200€ ausgeben, würde ich mir trotzdem nicht. Abgesehen davon das mir der Sprung viel zu klein wäre.

w0mbat
2019-04-02, 16:07:17
Klar reichen 4GB noch locker aus, die werden auch noch eine Weile länger halten. Oft reicht es ja schon die Texturen von ultra auf hoch zu stellen, zumal man z.B. in 1080p sehr häufig eh nicht von den extrem aufgelösten Texturen profitiert.

Nur gibt es eben schon die ersten Spiele wo man selbst @1080p die Texturen wirklich etwas reduzieren sollte um etwaigen Rucklern vorzubeugen. Wenn man sich also jetzt eine neue GPU kauft und für etwas mehr Geld 8GB bekommt, ist das sicher gut angelegt. Und eine 1660 Ti z.B., die auch in 1440p noch Ambitionen hat, sollte heutzutage einfach wirklich mit 8GB kommen.

Ich hoffe wir hören in 7 Wochen endlich was zu Navi.

aufkrawall
2019-04-02, 16:10:06
Um mal jemanden zu zitieren, mit dem ich nicht immer einer Meinung bin:
Ich habe FC5 leider ohne die HD-Texturen gespielt - die kamen erst raus, als ich FC5 schon beendet hatte. Aber in New Dawn bemerke ich sofort, wie wichtig knackige Texturen doch sein können, die geben in New Dawn schon richtig was her, finde ich. Siehe zb. die Felsen oder Bodentexturen, den Himmel, die Waffenmodels usw.

---

Wer hat denn gesagt, dass man mit 4GB nicht mehr spielen kann? Es geht darum, in wie weit man Abstriche bei der Grafik oder den Frametimes noch in Kauf nimmt. Ist das so schwer zu verstehen? :rolleyes:
4GB sind für WQHD schon lange ziemlich suboptimal, da gibts überhaupt nichts zu diskutieren.

w0mbat
2019-04-02, 16:16:44
Da blöde ist, viele Tests übergehen die Frage, ob "nur" 4GB einen Einfluss auf die frametimes haben. CB hat zu BFV z.B. bemerkt, dass max. Texturen bei 4GB mehr spikes hervorrufen. Ich hab dann die Texturen eine Stufe runter gestellt und siehe da, es fühlte sich besser an.

Razor
2019-04-02, 22:03:24
[immy;11963384']...es kommt halt aber immer auf die Einstellungen an. Hier im Forum wird gerne mal so getan, als wenn man mit einer 4GB Karte nicht mal mehr spielen könnte. Was natürlich nur daran liegt, das dieses Forum schon ziemlich exklusive Anwender hat...
Und leider gibt es hier auch eine Tendenz, seine eigene "Exklusivität" schützen zu wollen.

Selbstverständlich reichen 4GB heute noch locker aus.
Damals, wie heute sind es einzig die Textureinstellungen, die das relativieren würden.

Aber klar, auch ich würde "heute" keine 4GB mehr kaufen... ganz im Gegenteil, die Karte vor der 2080 eine 1060/6GB... seit 09/2016!
(und die 2080 jetzt auch nur, weil "geschenkt" ;-)

Ich würde heute sagen, dass es schon mind. 4GB sein sollte.
Und wer bereit ist, mehr als 200€ auszugeben, darf auch gerne 6 oder 8 nahmen... da stimme ich vollkommen zu!

Razor

gnomi
2019-04-03, 09:53:05
Und genau so gibt es Fälle, bei denen der Unterschied deutlich sichtbar ist. Komisch, dass das bei dir immer unter den Tisch fällt. :rolleyes:


Es geht eben um Verhältnismäßigkeit und das Gesetz des abnehmenden Ertrages.
Full HD ist immer noch die Auflösung mit der höchsten Verbreitung.
WQHD 144 Herz benutze ich bereits seit 2014 mit Maxwell und GSync.
Eine vergleichbare Kombination an Power (neue Midrange GPU und Freesync 1440P Bildschirm) findet wegen besserer Preise aber erst jetzt den Weg in viele Spiele PC's.
4K ist weniger ein Thema. 2080 TI und GSync HDR sind auch viel zu teuer.
Man muss die Unterschiede zudem dann auch erstmal in Bewegung ausmachen.
Viele sehen ja nicht mal groß AA & AF, oder diese ganzen besseren Details, für die Digital Foundry dann ihre aufwendigen Videos erstellt.
Die Hersteller nennen das sogar oft 4K Textur Paket. (und nicht einmal die X Box X besitzt diese Qualität und muss mit Standard High auskommen- da jammert auch keiner ;))
So ehrlich sollte die Diskussion halt schon sein. Selbst hier...

Deus Ex MD ist auch eines der wenigen guten Beispiele überhaupt, denn es ist a) VRAM fressend, bietet aber wenigstens überhaupt einen brauchbaren Unterschied im Detail.
Der Sprung von einer guten auf eine leicht bessere Texturqualität kostet eben sehr viel mehr als von brauchbar auf gut.
Ich halte 16GB Arbeitsspeicher sogar noch für wichtiger als 8GB VRam.
Natürlich wird es sich ab der nächsten Generation drehen, weil die Minimalanforderungen dann andere Systeme sind.
Aber diese Technik Seiten nerven einfach nur rum und reden GPU's schlechter, als es die Wirklichkeit dann zeigt.
So eine 980 ist jetzt bereits 4 1/2 Jahre draußen und schafft alle AAA Spiele in Full HD bis WQHD (angepasst) locker.
Mit dieser Erfahrung finde ich, dass es reicht, wenn man bei 6GB darauf hinweist, dass es in der nächsten Generation etwas knapp werden könnte. Im High End Bereich ist etwas mehr Kritik angebracht.
Aber jeder weiß im Grunde genommen, dass die ersten RTX Karten eine Übergangsgeneration sind. Die 3000er Serie wird viel geiler für leider ähnliche Preise. :wink:

downforze
2019-04-05, 11:36:57
Das mit den Frametimes bei 4 GB habe ich nie kapiert. Wenn der Speicher nicht voll ist, sollte es keine Rolle spielen, ob ich 8 GB oder 4 GB GDR auf der GPU habe.

aufkrawall
2019-04-05, 11:58:54
So eine 980 ist jetzt bereits 4 1/2 Jahre draußen und schafft alle AAA Spiele in Full HD bis WQHD (angepasst) locker.

Schon das Texturenpack für Far Cry Primal 2016 hatte die 4GB in WQHD irgendwann überfordert. In New Dawn gibts außer dem Texturenpack nicht einmal eine Einstellung zur Texturauflösung, und schon ohne Texturenpack macht es > 4GB direkt nach dem Laden voll. Da ist gar nichts mehr "locker". :freak:

Stretcher
2019-04-05, 12:32:08
Ich kann mit 2 GB noch alles in 4 K auf max Texturen spielen.

AnnoDADDY
2019-04-05, 15:06:30
Ich kann mit 2 GB noch alles in 4 K auf max Texturen spielen.

Was meinst du mit spielen können? 10fps? Alte Schinken? 2GB sind definitiv zu wenig für 4k. 8gb sollte man da schon wenigstens haben.

HisN
2019-04-05, 18:00:35
Was meinst Du mit "alles"?
Bist Du Millionär und musst nicht mehr arbeiten? An Geld oder Zeit muss es doch am Ende scheitern um "alles" auch nur anzocken zu können :-)

Ex3cut3r
2019-04-05, 18:08:14
Schon das Texturenpack für Far Cry Primal 2016 hatte die 4GB in WQHD irgendwann überfordert. In New Dawn gibts außer dem Texturenpack nicht einmal eine Einstellung zur Texturauflösung, und schon ohne Texturenpack macht es > 4GB direkt nach dem Laden voll. Da ist gar nichts mehr "locker". :freak:

Die Texturen sehen aber nicht so tooool aus, wie die Speicherbelugung es suggeriert, ergo völlig unverhältnismäßig. Ein Metro Exodus frisst nur 4GB und hat ebenbürtige Texturen wenn nicht sogar teils bessere.

blaidd
2019-04-05, 19:56:45
Die Texturen sehen aber nicht so tooool aus, wie die Speicherbelugung es suggeriert, ergo völlig unverhältnismäßig. Ein Metro Exodus frisst nur 4GB und hat ebenbürtige Texturen wenn nicht sogar teils bessere.

Das hat aber auch teils fieses Texturen-Pop-Up, was vielleicht nicht nötig gewesen wäre, würde es 6 oder 8 GiByte belegen. ;)

Ex3cut3r
2019-04-05, 20:07:23
Ist mir bisher nicht aufgefallen (neuster Patch) aber kann ja sein.

aufkrawall
2019-04-05, 21:07:02
Die Texturen sehen aber nicht so tooool aus, wie die Speicherbelugung es suggeriert, ergo völlig unverhältnismäßig. Ein Metro Exodus frisst nur 4GB und hat ebenbürtige Texturen wenn nicht sogar teils bessere.
Nützt einem in FC ND: 0.

aufkrawall
2019-04-06, 14:23:09
Weiter gehts:
https://www.computerbase.de/2019-04/monster-hunter-world-hd-texturen-update/

gnomi
2019-04-14, 09:56:46
Schon das Texturenpack für Far Cry Primal 2016 hatte die 4GB in WQHD irgendwann überfordert. In New Dawn gibts außer dem Texturenpack nicht einmal eine Einstellung zur Texturauflösung, und schon ohne Texturenpack macht es > 4GB direkt nach dem Laden voll. Da ist gar nichts mehr "locker". :freak:

Ich habe Far Cry Primal zur Veröffentlichung mit meiner alten GTX 980 OC in WQHD GSync problemlos spielen können.
Das Spiel lief auch deutlich glatter als Teil 4, weil die Entwickler am Streaming gearbeitet und die teuren Gameworks Effekte ausgelassen haben.
Hier ist auch noch ein älterer Bericht dazu:
http://www.pcgameshardware.de/Far-Cry-Primal-Spiel-56751/Specials/Benchmark-Test-1187476/
Mit den 4GB VRAM kam ich locker aus.
Das Texturpaket habe ich nicht benutzt, da es auch später erst kam.
https://www.golem.de/news/far-cry-primal-die-ultra-hd-texturen-lohnen-sich-selten-1604-120345.html
Jetzt mit der 1080 würde ich es natürlich dann schon nutzen.
Es ist jedoch für mich auch nicht schlimm, wenn eine Einstellung nicht maximiert ist...

New Dawn habe ich nicht mit der 980 getestet bislang.
Das Spiel ist ja auch jetzt wieder 3 Jahre neuer, und ich habe dann natürlich auch mit einer 4 1/2 Jahre alten GPU ganz andere Maßstäbe.
https://www.guru3d.com/articles_pages/far_cry_new_dawn_pc_graphics_performance_benchmark_review,4.html
https://www.guru3d.com/articles_pages/far_cry_new_dawn_pc_graphics_performance_benchmark_review,5.html
Full HD 73, WQHD 53 fps sind aber noch gute Werte.
10% Overclocking kann man draufrechnen.
Mit meiner 1080 OC konnte ich es in WQHD mit GSyync bei im Schnitt 90 fps spielen.
Die Ultra Texturen habe ich ausprobiert. Ich finde die schon etwas besser, und mit 8GB läuft es auch kaum wahrnehmbar weniger glatt. (daher lasse ich sie an)
Mit 4GB geht das sicherlich nicht. Hier müsste man mal sehen, wie es läuft.
https://www.guru3d.com/articles_pages/far_cry_new_dawn_pc_graphics_performance_benchmark_review,6.html
Laut Guru und anderen Quellen reichen die 4GB VRam aber auch.

Letztendlich geht es ja weniger darum, dass mehr Speicher nicht toll wäre. :wink:
Da hast es ja selbst gepostet. Es kommen jetzt zum Ende der Generation einige speicherhungrigere Spiele oder Texturpakete, und die neue PCGH hat sich auch recht gelungen mit dem Thema beschäftigt. :up:
Allerdings sind das imho natürlich auch alles industrienahe Quellen.
Der unterschwellige Versuch, einen zu teureren GPU's und Raytracing zu bewegen, nimmt merklich zu. (ist nicht immer böse und beabsichtigt, sondern auch einfach der technischen Begeisterung geschuldet!)
Wir befinden uns jedoch in Zeiten, wo man locker anfangen kann, auf 4 Jahre Rhythmus zu gehen, weil die Steigerungen nicht mehr so krass und deutlich teurer werden.
Und gerade mit den vielen Einstelloptionen (wenn die Spiele sie auch anbieten und gut optimiert sind) sieht man super, dass natürlich Karten wie eine 980 für diese Generation noch langen können.
Von daher bin ich dann auch so pingelig, irgendwelchen Nerds nicht die Deutungshoheit mehr zu lassen. :wink:
Wer sich die nächste Konsolen Generation oder die GPU Nachfolger um 2020 herum holt, fährt denke ich auch besser als mit den selbst im Performance/Midrange Segment sehr überteuerten Karten aktuell.
Dann werden 8-16 GB VRAM definitiv kommen und die Einstelloptionen nach unten des Öfteren entfallen.
Die 6GB sind also tatsächlich knapp. Das war ja der andere aktuelle Streitpunkt.
Aber auch hierzu sei gesagt. Viele Entwickler werden solche Karten wie die 1660 und 2060 noch performant unterstützen wollen. Es geht ja gar nicht anders wegen der hohen Installationsbasis.
Außerdem ist auch nicht mehr so viel AAA bzw. läuft eh auf jeder Möhre bis zum Smartphone runter...

Effe
2019-04-30, 15:02:39
GTX 960 2GB vs. 4GB in 2019 – Did It End Up Mattering?

Ja, in einigen Spielen. In stumpfen Benchmarks aber nicht zu sehen, erst im direkten Bildvergleich erkennt man den Unterschied.

brPpuys8pf0

Badesalz
2019-05-21, 12:09:09
[immy;11963384']Hier im Forum wird gerne mal so getan, als wenn man mit einer 4GB Karte nicht mal mehr spielen könnte. Was natürlich nur daran liegt, das dieses Forum schon ziemlich exklusive Anwender hat und man selten beachtet, das mit so einer Karte wohl kaum jemand Ultra-Details bei 4k flüssig erwarten würde.Wann und wo werden solche Diskussionen überhaupt ehrlich geführt? :rolleyes: Nicht den anderen gegenüber, sonder sich selbst gegenüber.

Gruppenverhalten.
"1" Der eine will zu den besondereren gehören und quaselt das so schön es geht. Weil er hat nun auch XYZ. Eienr der wenigen begehrten Hirschplätze wäre natürlich optimal.
"2" Der andere will auch dazu gehören, meidet die Investition bisher. Das muss nicht allgemein mit seinen Finanzen zu tun haben. Und redet die kleinere Lösung eben noch mehr als ausreichend. Eigentlich musste ihm das eher egal sein, aber nun ;)

Der Nutzen ist technisch gering. Es sei denn man kann auf overdosis-mässige Texturepacks zurückgreifen und/oder will das Bild viel grösser haben.
Sonst ist da noch nicht viel. Auf den Vergleichen von Screenshots sieht man es teilweise klar. Auf nebeneinander laufenden Sequenzen findet man die Unterschiede auch.
Nur wenn man spielt, da fällt es weniger auf. Spielen ist, sobald man aufhört die technische Seite des Spiels zu beachten.

Weiterhin urzeitlich geprägt, reagieren wir auf Effekte mit Licht und Schatten wie auch physikalisch gefällige Motions viel emotionaller als auf höhere Auflösungen. Das war mit der Voodoo(2) so und das war mit der Playsi1 auch so. Die beiden Beispiele sind recht exemplarisch dafür.

Es ist also eine dieser mehr sozialen als technischen Diskussionen. Schreib ich grad mit 8GB Vram :freak: Ich bin aber eher ein Stationsworker als Gamer und die Karte hat sich vor allem über ihre top Kühlung (Wirkungsgrad vs. Lautstärker) verkauft.
Das alles verhindert natürlich nicht die Meinung oder Ansicht, es macht schon Sinn, wenn die zweite Generation von spielfähigen RT-Karten, egal bei welchem Hersteller, mit 8 GB Vram anfängt.

Nosferatu1
2019-05-21, 12:23:23
Auch das 8gb bei full hd schon knapp werden XDD zocke in 4k aseit nemjahr und 8gb waren noch nicht einmal ein Problem egal welches spiel. Leute immer mit ihren halbwahrheiten.

Badesalz
2019-05-21, 12:32:13
@Nosferatu1
Na das war jetzt nicht gut. So wirst du niemals in die Platzhirschenschaft aufgenommen ;)