PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 4GB VRAM - wann wird es wirklich erforderlich sein?


Seiten : 1 [2] 3

Iruwen
2013-10-30, 09:56:20
Wurde dieser Verlgleich GTX 770 2gb vs 4 GB schon gepostet?
http://alienbabeltech.com/main/gtx-770-4gb-vs-2gb-tested/

Nach diesem Ergebniss, gibt es anscheinend wirklich Aktuell so gut wie keinen Grund für mehr als 2GB.

Ja, Hübies Einwand ist da aber nicht von der Hand zu weisen.

oh ja. avg fps sind auch sehr sinnvoll da sie kurze Einbrüche gut wiederspiegeln :rolleyes:

Hübie
2013-10-30, 10:05:54
Wenn ich die Zeit hätte würde ich da gerne einen großen Test machen aber dem ist leider nicht so. Natürlich habt ihr auch recht wenn ihr sagt dass sich 4GB erst ab 770 SLi oder einer Karte wie der 290x lohnen. Es aber als überflüssig dastehen zu lassen und 2GB als völlig ausreichend zu bewerten finde ich zu indifferent als dass ichs einfach stehen lassen könnte.
Vielleicht habt ihr persönliche Wünsche, dann probiere ich dem nachzukommen und mache Schritt für Schritt Testläufe.
Momentan spiele ich ja ausschließlich Skyrim und das geht bis auf 2,7 GB VRAM hoch. Also wenn ihr was spezielles wollt sagt das mal hier.

Iruwen
2013-10-30, 10:07:29
BF4 natürlich :biggrin:

Hübie
2013-10-30, 10:09:05
Okay das habe ich nicht (aus oben genannten Gründen)

aufkrawall
2013-10-30, 12:17:45
BF4 natürlich :biggrin:
Für 1080p sind 2GB ausreichend.

Iruwen
2013-10-30, 13:44:28
Mit 200% Resolution Scale und MSAA dann wohl nicht mehr. Sind das dann intern volle 2160x3840 oder weniger?

Dicker Igel
2013-10-30, 14:12:59
Sollte hinkommen und es kommen möglicherweise noch mehr Games, welche RS anbieten.

aufkrawall
2013-10-30, 14:21:57
Mit 200% Resolution Scale und MSAA dann wohl nicht mehr. Sind das dann intern volle 2160x3840 oder weniger?
Ja, aber es läuft damit auch auf jedem 4GB GK104 unspielbar.
Hab im MP nur 125% Auflösung (ohne MSAA) und bei großen Partikelwolken gehen die fps schon spürbar runter.

Iruwen
2013-10-30, 14:47:39
Bringt das denn spürbar mehr Bildruhe? Dafür würde ich andere Dinge runterdrehen falls man damit in spielbare Bereiche kommt. Aber dann brauchts wohl auch wieder weniger Speicher, insofern... hab mir die Beta geklemmt und nach allem was ich bisher gelesen hab werd ich wohl noch warten bis ich mir das zulege bis es halbwegs spielbar ist.

Raff
2013-10-30, 14:51:06
200 Prozent Resolution Scale + FXAA: Full of Win. Moderater Speicherverbrauch, vernünftige Qualität, spielbar zumindest mit High-End-GPUs.

MfG,
Raff

aufkrawall
2013-10-30, 14:51:08
Die Bildruhe ist natürlich nicht toll, aber es flimmert wenigstens schon deutlich unterschwelliger und feiner.
Wenn man nicht gerade mehrere Titanen hat, lohnt es sich so gesehen imho nicht.

mekakic
2013-10-30, 15:24:34
Ich hab eine kurze Zeit lang zwischen der 2GB Variante (http://geizhals.at/de/gainward-geforce-gtx-770-phantom-2951-a953279.html) und der 4GB Variante (http://geizhals.at/de/gainward-geforce-gtx-770-phantom-2968-a953280.html) geschwankt und dann erst gesehen, dass die 4GB Variante bei Gainward zumindest deutlich niedriger getaktet war. Das relativiert jede Entscheidung gleich nochmal mehr.

Armaq
2013-10-30, 15:28:59
3 GB sind eine Empfehlung von DICE für BF4 soweit ich das richtig im Kopf habe. Wie ist denn der Verbrauch auf 4k? Dann werden 4 GB videospeicher sicherlich auch erforderlich.

Iruwen
2013-10-30, 16:10:54
http://forums.anandtech.com/showthread.php?t=2346032

Geldmann3
2013-10-30, 16:13:36
Jo, bei 4k bringen 4GB Vram wohl etwas. Wobei 200% Resolution Scale auch 4k entspricht. Mit Single-GPU's unterhalb der R9 290 oder GTX 780 sollte man aber eh gar nicht erst über 4k nachdenken. Die Leistung kann man IMHO viel besser verbraten.

Palpatin
2013-10-30, 16:49:18
Jo, bei 4k bringen 4GB Vram wohl etwas. Wobei 200% Resolution Scale auch 4k entspricht. Mit Single-GPU's unterhalb der R9 290 oder GTX 780 sollte man aber eh gar nicht erst über 4k nachdenken. Die Leistung kann man IMHO viel besser verbraten.
Warum ? Gibt genug Spiele die auch mit einer 280X/770 in 4k gut laufen. Gäb es 4k 27 Zoll Monitore mit 120HZ für 500,- würde ich mir sofort einen kaufen und mich über die 2GB VRAM meiner 670 SLI Lösung ärgern. ;)

esc
2013-10-30, 17:11:22
Manchmal bedauere ich schon fast, zu einer GTX 780 gegriffen zu haben und nicht zu einer 6 GB HD 7970 oder am besten gleich zur Titan.Es ist ja wirklich nicht nur Skyrim, was von mehr VRAM profitiert.

Hübie
2013-10-30, 17:53:48
Also mir fallen da eigentlich keine weiteren Spiele ein. Wobei Skyrim ab ~3 GB abkackt. Besonders blöd ist ja dass ca 15% der Texturen im regulären RAM fürs streaming landen :rolleyes:

Dicker Igel
2013-10-30, 18:08:51
Ich find' die 780 korrekt, die 3GB samt flotten SI sollten imo reichen, wenn man nicht grade multi Screens fährt :) Bei Skyrim sind manche Mods derbe übertrieben, 4096²er Texturen on Mass verlangen halt ihren Tribut.

HisN
2013-11-08, 18:30:37
COD Ghosts.
Start 1. Level Singleplayer
5GB im Fenstermodus (64-Bit-Software, kein OSD^^). Nur FXAA, sonst alles Maxed.
http://abload.de/thumb/cod_ghosts_1_levelzrs61.jpg (http://abload.de/image.php?img=cod_ghosts_1_levelzrs61.jpg)

Rampage 2
2013-12-04, 16:19:23
Meine eigentliche Frage mit diesem Thread war ja nicht nur ob man 4GB VRAM *jetzt* braucht, sondern eine Prognose für später - angesichts der NextGen-Konsolen:

Wie wird 2016-2017 der VRAM-Bedarf von Spielen aussehen? (ich will hier natürlich keine genauen Schätzungen sondern ungefähre Prognosen - etwa so: "2016/17 mehr als 2GB VRAM" oder "2016/17 mehr als 3GB VRAM" ;))

R2

HisN
2013-12-04, 16:52:04
Das erste Game, dass ich gesehen habe das richtig viel VRAM braucht ist 2011 auf den Markt gekommen (richtig viel bedeutet locker über 4GB in spielbaren Settings in höheren Auflösungen).
Siehe:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9876479&postcount=76

Warum krebst Du da mit Deinen zahlen immer noch so klein rum. Werden das Mindest-Anforderungen sein? Oder hängt es am Ende doch immer noch an der Software selbst, bzw. an der Software die Du Dir kaufen wirst (was die Menge noch viel viel kleiner werden lässt).

Ich meine ... solange es Games gibt die niedrig aufgelöste Texturen benutzen, brauchste halt nicht viel VRAM. Und wenn es den "Look" unterstützt, ist das doch gar nicht mal schlimm.

Siehe:
http://abload.de/thumb/diabloiii_2012_05_17_uou7t.jpg (http://abload.de/image.php?img=diabloiii_2012_05_17_uou7t.jpg)

Hübie
2013-12-04, 17:47:14
Das steigt und fällt aber auch mit der Art und Weise wie eine Engine geschrieben ist. Ich führe mal Borderlands 2 als Beispiel an, da ich es aktuell zocke: Obwohl ich 4 GB VRAM habe streamed die Engine munter hin und her, statt einfach einen fetten pool im VRAM abzulegen. Per ini-tweaking habe ich das zwar in den Griff bekommen, aber eliminieren kann man es einfach nicht. Da stelle ich mir die Frage warum das alles so statisch behandelt wird, statt zu checken: "Wieviel ist da? Wieviel kann ich nutzen? Wieviel muss ich streamen?". Aber das geht in Programmiersphären von denen ich nicht mehr viel verstehe. Da müssen wieder andere einspringen.

Es ist mit Sicherheit nicht falsch in VRAM zu investieren wenn der Mehrpreis sich in Grenzen hält. Wenn ich schätzen müsste würde ich sagen von aktuell 40 installierten Spielen brauchen etwa 5 mehr als 2 GB VRAM. Der Trend geht aber eindeutig nach oben.

Rampage 2
2013-12-04, 19:02:42
Es ist mit Sicherheit nicht falsch in VRAM zu investieren wenn der Mehrpreis sich in Grenzen hält. Wenn ich schätzen müsste würde ich sagen von aktuell 40 installierten Spielen brauchen etwa 5 mehr als 2 GB VRAM. Der Trend geht aber eindeutig nach oben.

Das sind aber bestimmt Spiele mit Textur-Mods, oder? Aber das will ich auch gar nicht wissen. Ich versuche mal, meine Frage noch präziser zu stellen:

Ist es sehr wahrscheinlich, dass die Mehrzahl der Spiele, die 2016/2017 rauskommen, mehr als 2GB VRAM brauchen wird, um *bei originellen Max-Settings* (also keine Custom-Textures) optimal zu laufen?

BF4 braucht ja angeblich 3GB VRAM, um "optimal zu laufen" - worauf ist das bezogen? Auf maximale Grafiksettings oder auf RS?

Der entscheidende Fakt ist, ob die Mehrzahl der Spiele 2016/17 nur durch das VRAM unspielbar sein werden - also dass Rohleistung vorhanden ist (GTX 770), aber eben das VRAM zum Flaschenhals wird. Das ist der eigentliche Sinn dieses Threads;)

R2

Geldmann3
2013-12-15, 01:36:44
Nur 2 GB Vram kosten jetzt mit 4x SSAA schon Performance. In Battlefield 4 massiv und in Tomb Raider 2013 minimal.

Das Cryengine SDK zeigt allerdings sehr schön, dass man mit 2GB VRam selbst in 4K unglaublich detailreiche Grafik samt Kantenglättung hinbekommen kann, wenn eine Engine darauf ausgelegt ist. Da die Konsolen allerdings mit 4GB+ freien "VRAM" ankommen, denke ich, dass zukünftige Spiele schnell mehr Grafikspeicher verlangen werden.

Das sind aber bestimmt Spiele mit Textur-Mods, oder? Aber das will ich auch gar nicht wissen. Ich versuche mal, meine Frage noch präziser zu stellen:
Da gibt es durchaus einige aktuelle Spiele, die ohne Mods bereits die 2GB Vram Grenze knacken, besonders wenn sie hochwertige Ingame Kantenglättung bieten.

Ist es sehr wahrscheinlich, dass die Mehrzahl der Spiele, die 2016/2017 rauskommen, mehr als 2GB VRAM brauchen wird, um *bei originellen Max-Settings* (also keine Custom-Textures) optimal zu laufen?
Wenn du damit die "großen" Spiele von "großen" Publishern meinst. Ja. Es sei denn, du verzichtest dann komplett auf hochwertige Ingame Kantenglättungsoptionen, die immer mehr Spiele bieten. Wie Resolution Scale, SSAA oder MSAA. Doch selbst komplett ohne Kantenglättung wird es ab 2016 wohl sehr knapp mit 2GB Vram. 2016 werden High End Karten wohl schon mit 8/12GB Vram daherkommen.

BF4 braucht ja angeblich 3GB VRAM, um "optimal zu laufen" - worauf ist das bezogen? Auf maximale Grafiksettings oder auf RS?
Das ist wohl auf die Ultra Settings in 1080p ohne Resolution Scale bezogen. Mit 200% RS läuft es mit 3GB Vram schon nicht mehr "Optimal", da braucht man bereits am besten 4GB+. Genauso in 4k. Für 4k+RS reichen selbst 4GB VRam nicht mehr. Doch diese Pixelmenge stemmt momentan eh keine Grafiklösung.

Kleine Tabelle mit groben Richtwerten, schwankt natürlich sehr stark von Spiel zu Spiel. Hier wird von einem perfekt skalierbaren und Vram hungrigen Spiel ausgegangen.:
720p NoAA 512MB Vram
720p + 4xMSAA 750MB Vram
720p + 4xSSAA 2GB VRam
720p+4xSSAA+4xMSAA 3GB Vram

1080p NoAA 1GB Vram
1080p+4xMSAA 1,5GB VRam
1080p+4xSSAA 4GB Vram
1080p+4xSSAA+4xMSAA 6GB VRam

1440p NoAA 2Gb Vram
1440p+4xMSAA 3GB VRam
1440p+4xSSAA 6GB VRam
1440p+4xSSAA+4xMSAA 8GB Vram

2160p NoAA 4GB Vram
2160p+4xMSAA 6GB Vram
2160p+4xSSAA 8GB VRam
2160p+4xSSAA+4xMSAA 12GB Vram

Ich nehme an 2016 kommt man mit 1GB Vram in aktuellen Spielen gar nicht mehr aus und selbst mit 2GB VRam wird es schon problematisch. 4-6GB Vram sollten es 2016/2017 schon sein um ganz oben mitspielen zu können. In Battlefield 5 und dem neuen Crytek Shooter. :wink: Mit 4xSSAA + MSAA schon eher 6/8GB.

Rampage 2
2013-12-16, 00:21:19
Danke für deine ausführliche Antwort:)

akuji13
2014-01-22, 15:46:18
*rauskram*

Wird schon so sein, dass der größere VRAM anders "beladen" wird, ob das nun schlecht ist, ist eine andere Frage :)

Momentan spiele ich ja ausschließlich Skyrim und das geht bis auf 2,7 GB VRAM hoch.

Ich habe festgestellt das meine Skyriminstallation mit der Titan 3.5Gb schluckt und mit der 780Ti 2.5Gb.

Interessant wäre zu wissen, ab wieviel Gb die 780Ti letztlich einbricht wegen Rammangel.

mustrum
2014-01-22, 16:37:00
Also Star Citizen Hangar Module reizt meine 4 GB voll aus.
Auflösung: 5920x1080 Tripplehead

Iruwen
2014-01-22, 16:44:50
Ich habe festgestellt das meine Skyriminstallation mit der Titan 3.5Gb schluckt und mit der 780Ti 2.5Gb.

Interessant wäre zu wissen, ab wieviel Gb die 780Ti letztlich einbricht wegen Rammangel.

Das ist die Angabe die leider immer fehlt.

Hübie
2014-01-22, 17:46:31
*rauskram*





Ich habe festgestellt das meine Skyriminstallation mit der Titan 3.5Gb schluckt und mit der 780Ti 2.5Gb.

Interessant wäre zu wissen, ab wieviel Gb die 780Ti letztlich einbricht wegen Rammangel.

Das macht jede Engine anders. Bei skyrim spürte ich mit meinen 1536 MB oft Nachladeruckler. Als ich dann 4GB hatte waren es halt ~2.5 GB. Also ab sagen wir 700 MB merkt mans deutlich bei Schwenks bzw. reisen auf dem Pferd.
UE2.5+ Spiele machen das geschickter da hier 1536 MB stets ausreichten obwohl jetzt 2200 MB genutzt werden.

Tesseract
2014-01-22, 17:55:19
Genau!
Eine hd5850 mit 1gb war gemau richtig zu der zeit. Generell finde ich, dass die hersteller die ramgrösse an die leistung der karten anpassen. Diese ganzen über-ram versionen sind im grunde nur für sli gut. Und natürlich für leute, die marketingaffin sind und sich in zukunftsinvestition wägen.

die spiele passen sich an dem vram an, nicht der vram der GPU. 4GB+ hätten zum release der 5850 enorme vorteile gebracht wenn wirklich alle karten (+konsolen) ähnliche größen verbaut gehabt hätten und dementsprechend die spiele größere texturen für einen großen teil des marktes bieten hätten können.
solche größen sind nur dann recht sinnlos wenn sie nur auf einer oder zwei ultra-high-end-karten verbaut sind und sich die developer an den massen der vram-krüppel orientieren müssen.

haehae
2014-01-22, 20:20:36
Ich denke, da hat man noch minimum 3 Jahre Zeit.
Bauchgefühl und iwie zu träge aufzulisten, warum ;)

Vorher geht eher der GPU die Puste aus.
So war es, so ist es und so wird es wahrscheinlich auch bleiben.

Pirx
2014-01-22, 20:31:13
2 GB sind doch jetzt schon manchmal zu wenig und da geht den ehemaligen Flaggschiffen GTX 670 680 nicht die Puste aus.

Hübie
2014-01-22, 21:59:30
Ich denke, da hat man noch minimum 3 Jahre Zeit.
Bauchgefühl und iwie zu träge aufzulisten, warum ;)

Vorher geht eher der GPU die Puste aus.
So war es, so ist es und so wird es wahrscheinlich auch bleiben.

Quark. Mehr und höher aufgelöste Texturen kosten wenig bis gar nix auf aktuellen Gens... AA ist wieder was anderes, da geht drn meisten tatsächlich die Puste aus.

MORPHiNE
2014-02-03, 21:52:05
BF4 (2560x1440, Ultra, Mantle) belegte zuletzt 3726 MB auf meiner 290X. Es scheint also einen Anwendungsfall zu geben. Lässt sich nur noch drüber streiten, ob die Ressourcen so sinnvoll eingesetzt sind :rolleyes:

CrimsoN
2014-02-03, 23:58:27
Also 4GB VRAM haben bei mir schon paar nicht gereicht.

Wenn du Alte Games mit 32xS+ SGSSAA + HABO+ und DS nutzt dann sind 4GB stellenweiße echt zu wenig.
Aber selbst ein BF4 mit Dx11 und etwas SSAA brauch schon massig VRAM.

gedi
2014-02-04, 00:20:44
BF4 (2560x1440, Ultra, Mantle) belegte zuletzt 3726 MB auf meiner 290X. Es scheint also einen Anwendungsfall zu geben. Lässt sich nur noch drüber streiten, ob die Ressourcen so sinnvoll eingesetzt sind :rolleyes:

Kann ich bestätigen - Mantle haut voll rein zwecks Vram-Verbrauch

fondness
2014-02-04, 11:48:38
Da könnte aber auch einfach ein Memory-Leak oder dgl. die Ursache für sein. Zumindest sehe ich jetzt keinen Grund warum die Mantle-API mehr VRAM verbrauchen sollte.

Palpatin
2014-02-05, 09:59:32
Verbrauch ist vielleicht auch das falsche Wort? Mantel nutzt den vorhandenen Vram besser aus als DX?

M4xw0lf
2014-02-05, 10:17:30
Wenns was bringt, den Speicher bis zum Anschlag vollzuhauen, dann immer zu - man hat ihn ja nicht nur um das PCB vollzukriegen. ^^

Iruwen
2014-02-05, 10:22:07
Da könnte aber auch einfach ein Memory-Leak oder dgl. die Ursache für sein. Zumindest sehe ich jetzt keinen Grund warum die Mantle-API mehr VRAM verbrauchen sollte.
https://twitter.com/repi/status/430685312113991680

akuji13
2014-02-07, 15:53:35
Wenn du Alte Games mit 32xS+ SGSSAA + HABO+ und DS nutzt dann sind 4GB stellenweiße echt zu wenig.

Wobei ich solche settings als sehr künstlich empfinde, letztlich kriege ich so irgendwann jeden Vram/jede GPU zum erliegen.

Etwas moderatere Einstellungen ziehen meist deutlich weniger Leistung/Vram und sind mMn optisch kaum schlechter.

Raff
2014-02-07, 16:11:07
Da könnte aber auch einfach ein Memory-Leak oder dgl. die Ursache für sein. Zumindest sehe ich jetzt keinen Grund warum die Mantle-API mehr VRAM verbrauchen sollte.

Verbrauch ist vielleicht auch das falsche Wort? Mantel nutzt den vorhandenen Vram besser aus als DX?

Wenns was bringt, den Speicher bis zum Anschlag vollzuhauen, dann immer zu - man hat ihn ja nicht nur um das PCB vollzukriegen. ^^

Precaching, ahoi! Vermutlich wird zwecks schneller Verfügbarkeit mehr Zeug im Grafikspeicher (und auch Hauptspeicher) vorgehalten als unter Direct 3D. Die längeren Ladezeiten von Mantle lassen sowas erahnen.

MfG,
Raff

grobi
2014-02-07, 16:20:13
Die längeren Ladezeiten von Mantle lassen sowas erahnen.

MfG,
Raff

Also längere Ladezeiten sind mir nicht aufgefallen.

Ich habe aber fest gestellt wenn ich die Einstellungen auf medium zurück fahre gibt es diese Ruckler nicht mehr nur noch die Framedrops alle 10 min. Ich denke die Performanceeinbrüche haben die 290'er nicht da 4GB vorhanden sind. Das Problem was die kleineren Grafikkarten haben die auf Mantle setzen wird da wohl bei den größeren mit dem vRam erschlagen.

Hübie
2014-02-20, 04:09:06
Titanfall mit seiner Source-Engine (2.0?) ist der nächste Kandidat welcher exzessiv VRAM braucht:

http://abload.de/img/titanfallbeta_memusagfokyt.png (http://abload.de/image.php?img=titanfallbeta_memusagfokyt.png)

Nach einigen Stunden BF4 auf den neuen Maps kam ich nicht über 2900 MB hinaus. Titanfall dagegen legt voll los. Leider geht SLi nicht. :mad:

HisN
2014-02-21, 09:26:59
http://abload.de/thumb/titanfall_2014_02_19_g4ju9.jpg (http://abload.de/image.php?img=titanfall_2014_02_19_g4ju9.jpg) http://abload.de/thumb/titanfall_2014_02_19_f3j5n.jpg (http://abload.de/image.php?img=titanfall_2014_02_19_f3j5n.jpg) Titanfall (BETA) nutzt im Trainings-Modul 3.4GB, egal ob 1280 oder 2560er Auflösung.
Im Match waren dann bei mir auch sofort 4GB gefüllt
http://abload.de/thumb/titanfall_2014_02_19_zqk22.jpg (http://abload.de/image.php?img=titanfall_2014_02_19_zqk22.jpg)

Rancor
2014-02-28, 10:32:55
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Videos/GTX-Titan-Black-6GB-Video-Review-1111075/

Wie man sieht sind 4GB absolut nicht notwendig.

In dem Video wird auch gezeigt, das Karten mit mehr Speicher sich einfach mehr gönnen. Das heißt aber nicht das Karten mit weniger Speicher, das Spiel nicht genauso darstellen können.

Raff
2014-02-28, 11:03:37
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10128088#post10128088 ;)

Ausnahmen bestätigen die Regel.

MfG,
Raff

Ätznatron
2014-02-28, 12:07:44
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Videos/GTX-Titan-Black-6GB-Video-Review-1111075/

Wie man sieht sind 4GB absolut nicht notwendig.

In dem Video wird auch gezeigt, das Karten mit mehr Speicher sich einfach mehr gönnen. Das heißt aber nicht das Karten mit weniger Speicher, das Spiel nicht genauso darstellen können.

Ich sehe da das Gegenteil.

Keine Ruckler bei mehr als 3 GB, Ruckler hingegen bei Drehungen mit der 3 GB-Karte.

Und daher stimmt auch nicht die Behauptung, Karten mit mehr RAM verbrauchen auch mehr, einfach, weil sie mehr haben.

Das Mehr an RAM wird direkt in erhöhte Spielqualität umgesetzt.

Rancor
2014-02-28, 12:22:18
Ich sehe da das Gegenteil.

Keine Ruckler bei mehr als 3 GB, Ruckler hingegen bei Drehungen mit der 3 GB-Karte.

Und daher stimmt auch nicht die Behauptung, Karten mit mehr RAM verbrauchen auch mehr, einfach, weil sie mehr haben.

Das Mehr an RAM wird direkt in erhöhte Spielqualität umgesetzt.

Also ob die kurzen Nachladeruckler in irgendeiner Weise spielrelevant wären, ... Die kann man auch bekommen, wenn man ne HDD statt SSD benutzt...

gnomi
2014-02-28, 12:26:29
In Full HD mit moderatem AA reichen 2 GB derzeit noch aus.
In Thief speziell bringt der neue Patch auch einen gesenkten VRam Verbrauch.
Nichts desto trotz sollten zukünftig 3-4 GB besser sein, wenn man die Spiele dann auch mehr ausreizen möchte und in Richtung 4k geht.
Für umfangreiche AA Auswahl schadet das ganze auch nicht.
Die neuen Konsolen scheinen hingegen nicht die Anforderungen an den PC sonderlich nach oben zu ziehen. (sofern man bereits GPU's einsetzt, die deutlich über deren GPU Leistung liegen)

Iruwen
2014-02-28, 12:33:33
Gibt doch bisher kaum Spiele für die neuen Konsolen an denen man das festmachen könnte.

PS: Deppenapostroph.

Ätznatron
2014-02-28, 12:46:12
Also ob die kurzen Nachladeruckler in irgendeiner Weise spielrelevant wären, ... Die kann man auch bekommen, wenn man ne HDD statt SSD benutzt...

In dem Fall werden sie aber nicht durch irgendwelche andere Hardware verusacht.

Ursache hier ist der fehlende VRAM der 3 GB-Karte.

Und deswegen wird man mit so einer Karte allerhöchstens eine nachladerucklergeplagte Brot und Butter Spielqualität erreichen.

Botcruscher
2014-02-28, 13:08:26
Gibt doch bisher kaum Spiele für die neuen Konsolen an denen man das festmachen könnte.
Der Trend ist klar. Wenn die Versionen für PS3/360 entfallen explodiert der Verbrauch noch mal.
Also ob die kurzen Nachladeruckler in irgendeiner Weise spielrelevant wären, ... Die kann man auch bekommen, wenn man ne HDD statt SSD benutzt...
Da hat man sie aber nur bis die Daten[durch neues Level etc.] wieder aus dem Speicher fliegen. So wird durchgehend geladen.

Iruwen
2014-02-28, 13:33:59
Das hängt vermutlich davon ab ob und wie gut man Streaming implementiert. Coda sagte iirc mal dass der Speicherbedarf zumindest für Texturen in der Regel nicht signifikant steigen sollte wenn der Entwickler nicht murkst.

Raff
2014-02-28, 14:53:41
In Full HD mit moderatem AA reichen 2 GB derzeit noch aus.
In Thief speziell bringt der neue Patch auch einen gesenkten VRam Verbrauch.

Welchen Patch meinst du? Gerade fand ich keinen vor. Das Bild mit 5,6 GiB Belegung entstand heute Nacht gegen ~01:15 Uhr, als das Spiel in Deutschland (hoffentlich aktuell X-D) live ging. :)

Also ob die kurzen Nachladeruckler in irgendeiner Weise spielrelevant wären, ... Die kann man auch bekommen, wenn man ne HDD statt SSD benutzt...

Abgesehen davon, dass das Spiel im Video natürlich auf einer SSD liegt: Gerade solche Nachladehänger sind es, die in einem Kampf das Leben kosten oder zumindest arg nerven können. Ansonsten flüssig, bei Action rucklig, das ist oft fatal.

MfG,
Raff

oids
2014-02-28, 17:38:37
Tja da hilft nur das hier-tätärätä:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10126584&postcount=65

Hübie
2014-02-28, 17:49:47
Also ob die kurzen Nachladeruckler in irgendeiner Weise spielrelevant wären, ... Die kann man auch bekommen, wenn man ne HDD statt SSD benutzt...

Man kann auch alles kleinreden. Oder einfach akzeptieren dass die Zeiten sich ändern :rolleyes: Wer 2014 noch 2GB-Karten kauft / empfiehlt geizt oder dem ist das Hobby nicht wichtig genug.
Jetzt haben alle Plattformen eine gewisse Menge RAM zur Verfügung und dass wird sich logischerweise auch bemerkbar machen. Die neue Sourceengine zeigts ja schon. UE 4.0, FB 3.0 und CE 3.5 folgen auf dem Fuße und werden sicher nicht sparsamer. Klar kann man auch mit 2 GB zocken. Aber die Uhr tickt :freak:

@oids: Overkill ;D :up: Hammer-Teil! Das im QuadCFX und 4k!

aufkrawall
2014-02-28, 17:52:26
Titanfall dürfte mit Sicherheit nicht Source 2.0 sein, der alte Rotz hat schon immer viel VRAM gefressen.

Hübie
2014-02-28, 18:13:49
Keine Ahnung. Es heißt nur neue Source Engine... Aber wieso VRAM fressen? Willst du VRAM frei haben oder sinnvoll belegen??? :rolleyes: Das gestreame geht mir aufn Sack.

aufkrawall
2014-02-28, 18:18:44
In Crysis 3 ist doch nichts sichtbar am streamen und der VRAM-Verbrauch ist ziemlich gering für das Gebotene. Gut, die Texturen könnten besser sein, aber 300-500MB mehr wären jetzt auch nicht die Welt und man würd locker mit 2,5GB hinkommen.

Ich werd mir aber wohl auch keine 780 holen, in 1440p sind mir 3GB zu wenig für 2014. CoD oder Thief lassen Übles ahnen.

Geldmann3
2014-02-28, 18:21:59
Also ob die kurzen Nachladeruckler in irgendeiner Weise spielrelevant wären, ... Die kann man auch bekommen, wenn man ne HDD statt SSD benutzt...

Oder wenn man mit dem Fuß gegen den PC tritt......

also bitte, klar sind die spiel-relevant.

Da beschweren sich manche Leute, dass sie nicht auf stabile 60FPS kommen und woanders sollen dauernde 500ms lange Ruckler dann plötzlich egal sein.

Fakt ist, 6GB Vram bringen etwas, weshalb ich mir auch keine 780Ti gekauft habe, sondern die 2 R9 290. Ich habe doch so eine High End Grafikkarte um extreme Settings zu fahren und nicht, dass mir dann der Vram ausgeht.

blaidd
2014-02-28, 18:30:26
Titanfall dürfte mit Sicherheit nicht Source 2.0 sein, der alte Rotz hat schon immer viel VRAM gefressen.

Bei der Beta waren schon im Spiel-Menu (ohne also ins eigentliche Spiel zu gehen) über 2 GiB Video-Speicher belegt :freak: Die haben wohl die Hintergrundvideos in den Speicher geladen... ;-)

Mal sehen, wie's in der Early Access aussieht.

Geldmann3
2014-02-28, 18:36:35
Das stört mich aber auch und ist teilweise arg verschwenderisch, wie mit dem Vram umgegangen wird. Das Spiel hätte vor 5 Jahren rauskommen können und grafisch gegen Crysis 1 verloren.

Das Cryengine SDK sieht beim halben Vram Verbrauch um längen besser aus.

Botcruscher
2014-02-28, 19:07:14
Mal sehen, wie's in der Early Access aussieht.
Sollte ja bei 48GB Installation noch deutlich mehr hergeben.

Hübie
2014-02-28, 20:52:08
In Crysis 3 ist doch nichts sichtbar am streamen und der VRAM-Verbrauch ist ziemlich gering für das Gebotene. Gut, die Texturen könnten besser sein, aber 300-500MB mehr wären jetzt auch nicht die Welt und man würd locker mit 2,5GB hinkommen.

Ich werd mir aber wohl auch keine 780 holen, in 1440p sind mir 3GB zu wenig für 2014. CoD oder Thief lassen Übles ahnen.

Stimmt. Ist ein positives Beispiel. Aber sonst kenne ich kein Spiel wo man es nicht sieht. Vor allem die UE-basierten Spiele und RAGE (wer kennt es nicht? ;)). Selbst in Betafailed 4 seh ich das öfter mal. Heute z.B. wars das Cockpit des Helis in dem ich frisch spawnte.
Fakt ist dass man (fast) nie genug RAM haben kann. Das sagt dir wohl auch jeder Dev.
Und ich bin mir ziemlich sicher dass es in diesem Jahr oft dazu kommen wird dass unter Full HD mehr als 2 GB belegt werden wenn vorhanden. Danke PCIE 3.0 kann man zwar noch einiges abfedern aber so ab 3-400 Megabyte wirds auch hier kritisch.

Coda
2014-02-28, 21:25:04
2GB für Texturen ist mehr als genug wenn man ordentliches Streaming hat.

HisN
2014-02-28, 23:14:59
Also ob die kurzen Nachladeruckler in irgendeiner Weise spielrelevant wären

Och, wenns gerade die Texturen vom Feind sind, der um die Ecke kommt ... dann stört das schon erheblich. Aber das muss jeder für sich selbst entscheiden. Vielleicht sind manche an ruckelnde Games so gewöhnt, dass sie es gar nicht mehr anders kennen.

Hübie
2014-02-28, 23:28:19
2GB für Texturen ist mehr als genug wenn man ordentliches Streaming hat.

Deshalb ist CE da auch ein positives Beispiel.

Das bekommen Devs aber offenbar nicht immer hin. Also theoretisch reichen 2 GB, praktisch reichen 2 GB nicht mehr. Und du widersprichst doch nicht wenn ich sage dass es mit einer Basis von sagen wir 95% der Nutzer mit 4 GB VRAM und 8 GB DRAM leichter wäre, oder? ;)

Wie läuft das mit der CE überhaupt: Werden Texturen indiziert? Kompression ist ja hier auch ein wichtiger Faktor, oder? Kann man durch early Z auch noch einiges sparen?

Coda
2014-03-01, 11:49:16
Wie läuft das mit der CE überhaupt: Werden Texturen indiziert? Kompression ist ja hier auch ein wichtiger Faktor, oder? Kann man durch early Z auch noch einiges sparen?
Ich verstehe die erste und letzte Frage nicht. Die zweite kann man mit "bringt bisschen was" beantworten.

Hübie
2014-03-01, 12:25:32
Ich meinte damit ob die Texturen irgendwie geordnet werden nach häufig gebraucht und / oder mit einem use-timer. Die letzte: Wenn ich frühzeitig in der Z Achse verwerfe muss das Objekt ja nicht mehr texturiert werden. Diese Textur wird dann ja nicht geladen oder etwa doch?

Wenn ich eine Textur mehrmals verwende muss ich die doch auch nicht öfter laden, sondern nur filtern (wegen der Winkelabhängigkeit)? Sorry, falls das laienhaft klingt :D

Ronny G.
2014-03-01, 14:59:00
Ich glaube 4GB können nie verkehrt sein, solange sie schnell genug angebunden sind, weil diese Datenmengen ja auch irgendwie effektiv bewegt werden wollen ...aber das ist bei unseren derzeitigen Karten kein wirkliches Thema.

Ich war beim wechsel von meiner GTX 460 1GB auch überrascht welche formen das Thema Grafikspeicher-größe über die letzten Jahre angenommen hat ....kam mir erstmal brutal viel vor.

Nun im gemoddeten Skyrim muss ich sagen das ich über die 3GB Speicher meiner 280x sehr beruhigt bin ...für solche Spielchen kann man nämlich nie genug speicher haben. Und klar mag sowas derzeit noch ne Ausnahme sein, aber die Tendenz ist ohne zweifel immer Richtung mehr Grafikspeicher da.... also kann man mit viel Speicher eigentlich nix verkehrt machen....allerdings nur solange der Aufpreis auch vertretbar ist

gnomi
2014-03-02, 11:47:33
Aktuell haben wir aber schon einen kleinen Stillstand drin.
Mehr als 8GB System- und 2GB Grafikkartenspeicher bringen nicht so viel.
Extreme Settings und Mods sind ein Spezialfall, aber ansonsten haben wir jetzt seit Crysis 3 gerade mal ein paar Spiele, die 2 GB in Full HD gut ausnutzen. (vorher waren 1-1,5 GB für alle Current Gen Portierungen unter maximalen Details schon völlig ausreichend)
Und wer eine neue High End Karte kauft, bekommt ja gleich 3-4 GB, was ebenfalls für die nächsten 2,3 Jahre ausreicht.
Die neuen Konsolen haben die Systemanforderungen außerdem nicht wie erwartet explodieren lassen.
Wir bekommen jetzt nur mehr Spiele, die in etwa so gut aussehen und anspruchsvoll sind wie Crysis 3 vor einem Jahr schon.

Ronny G.
2014-03-02, 12:25:13
Aktuell haben wir aber schon einen kleinen Stillstand drin.
Mehr als 8GB System- und 2GB Grafikkartenspeicher bringen nicht so viel.
Extreme Settings und Mods sind ein Spezialfall, aber ansonsten haben wir jetzt seit Crysis 3 gerade mal ein paar Spiele, die 2 GB in Full HD gut ausnutzen. (vorher waren 1-1,5 GB für alle Current Gen Portierungen unter maximalen Details schon völlig ausreichend)
Und wer eine neue High End Karte kauft, bekommt ja gleich 3-4 GB, was ebenfalls für die nächsten 2,3 Jahre ausreicht.
Die neuen Konsolen haben die Systemanforderungen außerdem nicht wie erwartet explodieren lassen.
Wir bekommen jetzt nur mehr Spiele, die in etwa so gut aussehen und anspruchsvoll sind wie Crysis 3 vor einem Jahr schon.


naja einerseits ist das ja ein wenig beruhigend finde ich, da hat man erstmal ruhe mit dem Aufrüstplänen und kann sein Geld in gute Spieletitel investieren.
Und ich denke schon das wenn die neuen Titel für die Next-Gen Konsolen raus kommen, also keine aufgebohrten alten PS3 ect. Titel, sondern richtig neue Ware ...dann gibt es in meinen Augen viel hochqualitativere Konsolenports als bisher... den die neuen Konsolen sind weit mehr an die Architektur von PC´s angelehnt als es die alten jemals waren.

gnomi
2014-03-03, 12:20:08
Ich habe eher das Gefühl, dass die Konsolen durch die Nähe zum PC langsam die Portierungen bekommen. :wink:
Egal ob Cryengine, Frost Bite, UE oder Anvil Next- das sind quasi alles schon auf PC erprobte Sachen, die unter DX 11 soweit gut laufen.
Es bleiben eigentlich nur die Sony und MS Exklusivtitel. (wobei letztere auch auf externe Entwickler/Auftragsarbeiten setzen und zukünftig wieder mehr PC Support bieten wollen)
Für PC Spieler sieht es alles in allem prima aus.
Schon jetzt ist die Hardware deutlich über Konsolen Niveau.
Spiele sehen durch die Bank besser aus und bieten mehr Funktionen. (es sei denn, man hält den Content zurück wie in Tomb Raider Definitive Edition oder gibt ihn nicht frei wie Ryse, Killzone oder Fifa14/NBA2k14)
Dazu kommen obendrauf noch die GPU seitigen Exklusivfeatures.
Und falls jetzt endlich mal weiter an DX Optimierungen gearbeitet wird (11 ist quasi schon uralt), zieht der PC noch mehr weg.

fondness
2014-03-24, 13:14:31
Schon ein Fall wo man mit 2Gb baden geht und selbst mehr als 3GB noch ein bisschen was bringen: Und das nur in full-HD Auflösung

http://s10.postimg.org/qse4ta6qh/Titanfall_Benchmarks_Retail_20140324092345_pcgh.png (http://postimage.org/)

http://www.pcgameshardware.de/Titanfall-PC-257364/Specials/Titanfall-Benchmarks-welche-Grafikkarte-1114386/

Raff
2014-03-24, 13:23:19
Also mit 'ner Titan ist selbst 3.840x2.400 mit 4x MSAA gesichert (braucht dann mehr als 4 GiB).

MfG,
Raff

N0Thing
2014-03-24, 13:38:17
Der Unterschied zwischen 2GB und 4GB bei der GTX 680 / GTX 770 ist deutlich, aber zwischen den 3GB und 6GB würde ich eher von Messungenauigkeiten ausgehen. Die Unterschiede sind zu gering, vor allem bei den Minmalwerten.

Ronny G.
2014-03-24, 14:44:38
Ja da ist echt eine deutliche Tendenz zu sehen ...die Unterschiede zwischen 2GB und 3GB sind ja immens!

Aber der Titel ist derzeit bestimmt noch ne Ausnahme

Atma
2014-03-24, 14:54:10
Bei Titanfall ist doch offensichtlich, dass noch was im Argen liegt. Das Spiel sieht nicht schlecht aus, jedoch ist der VRam Hunger viel zu groß bei der gebotenen Optik. 2 GB sollten locker reichen.

dargo
2014-03-24, 15:05:22
Schon ein Fall wo man mit 2Gb baden geht und selbst mehr als 3GB noch ein bisschen was bringen: Und das nur in full-HD Auflösung

http://s10.postimg.org/qse4ta6qh/Titanfall_Benchmarks_Retail_20140324092345_pcgh.png (http://postimage.org/)

http://www.pcgameshardware.de/Titanfall-PC-257364/Specials/Titanfall-Benchmarks-welche-Grafikkarte-1114386/
Das würde ich nicht auf die Goldwaage legen und erstmal paar Spielpatches abwarten. Offenbar lädt das Game die Videos in den Vram anstatt in den Arbeitsspeicher. Sinn? :freak:

Schaffe89
2014-03-24, 15:21:06
Aber auch ohne die Videos braucht das Spiel mehr als 2GB.

captain_drink
2014-03-24, 15:29:48
Als Laie würde ich auf mangelhaftes Streaming tippen, was bei einer so alten Engine auch kein Wunder wäre. Man erinnere sich an HL 2, da gab es auch in den Levels immer wieder Ladepausen.

N0Thing
2014-03-24, 15:36:17
Das würde ich nicht auf die Goldwaage legen und erstmal paar Spielpatches abwarten. Offenbar lädt das Game die Videos in den Vram anstatt in den Arbeitsspeicher. Sinn? :freak:

Siehe Benchmark, da sind auch Ergebnisse mit deaktivierten Videos drin.

Hübie
2014-03-24, 17:29:14
Das würde ich nicht auf die Goldwaage legen und erstmal paar Spielpatches abwarten. Offenbar lädt das Game die Videos in den Vram anstatt in den Arbeitsspeicher. Sinn? :freak:

Das ist hardwarebeschleunigtes Video glotzen :freak: Ich finde es gut wenn vorhandener (V) RAM vollständig ausgenutzt wird, aber natürlich mies wenn bei kleinen Mengen nicht anständig gestreamed wird. Coda sagte vor kurzem noch, dass mit anständigem streaming-Verfahren zwei Gigabyte VRAM für fullHD reichen würden.
Ist das jetzt Source 1.5 oder schon 2.0?? :|

fondness
2014-03-24, 17:59:06
Hm, beim zweiten drüverschauen: Ist überhaupt klar dass das am VRAM liegt? Die 290X liegt ja auch sehr deutlich vor der Titan mit 6GB. Könnte also auch einfach AMD deutlich besser liegen.

Hat sich erledigt, habe die 4GB GTX680 nicht gesehen.

N0Thing
2014-03-24, 18:00:46
Ist das jetzt Source 1.5 oder schon 2.0?? :|

Ist die alte bekannte Source-Engine, aber stark modifiziert.

Iruwen
2014-03-24, 22:02:46
Siehe http://www.pcgameshardware.de/Titanfall-PC-257364/Specials/Titanfall-Interview-Technik-1112495/

gnomi
2014-03-24, 22:32:15
Titanfall ist doch technisch gar nicht ernst zu nehmen.
Uralt Engine, kein Streaming und nicht sonderlich optimiert und poliert.
Als Workaround lässt sich aber auch mit analytischer Kantenglättung oder mit um eine Stufe reduzierter Texturauflösung spielen.
Dann sind konstante 60 fps wieder kein Problem.

Iruwen
2014-03-24, 22:39:45
Laut Wiki kann Source seit mindestens fünf Jahren Streaming (seit HL2 auf der Xbox). Wie das funktioniert und wie effizient das ist steht auf einem anderen Blatt, aber wenn man sich dranmacht und DX11 Support an die Engine klatscht wird es das sicherlich geben. In den Minimum Requirements stehen auch nur 512MB VRAM. Trotzdem ist da irgendwas am Sack was wohl entweder am Alter der Engine liegt, laut Interview haben sie die ja hauptsächlich genommen weil sie einfach zu benutzen ist, oder weil sie auf Teufel komm raus die Anforderungen niedrig halten wollten (siehe unkomprimierte Audiofiles) und Streaming etwas kostet.

blaidd
2014-03-24, 23:25:22
Laut Wiki kann Source seit mindestens fünf Jahren Streaming (seit HL2 auf der Xbox). Wie das funktioniert und wie effizient das ist steht auf einem anderen Blatt, aber wenn man sich dranmacht und DX11 Support an die Engine klatscht wird es das sicherlich geben. In den Minimum Requirements stehen auch nur 512MB VRAM. Trotzdem ist da irgendwas am Sack was wohl entweder am Alter der Engine liegt, laut Interview haben sie die ja hauptsächlich genommen weil sie einfach zu benutzen ist, oder weil sie auf Teufel komm raus die Anforderungen niedrig halten wollten (siehe unkomprimierte Audiofiles) und Streaming etwas kostet.

Ich weiß es nicht spezifisch, aber ich gehe mal schwer davon aus, das Titanfall mit den recht kleinen Maps auf Texture-Streaming verzichtet.

Das war auch bei der Source-Engine in HL2 der Fall (Korrektur erwünscht, falls notwendig), daher auch die Ladezeiten zwischen den einzelnen Levelabschnitten.

Warum Titanfall aber DERMAßEN Speicher frisst, will mir nicht so ganz in den Sinn.

Bei Thief ist es auch ziemlich heftig, aber das kann immerhin zwei Gründe haben:
1) Nvidia-Karten ausbremsen, die momentan im Schnitt weniger Speicher haben.
2) Aus übermäßigem Qualitätsanspruch unkompirmierte Normal-Maps verwenden (Das sind die Biester, die ein gemoddetes Skyrim so anspruchsvoll machen)

Bzgl. Titanfall: Das wird schon. Ich habe ausdrücklich bei EA und Respawn gemeckert. ;-)

Hübie
2014-03-24, 23:41:12
Ich weiß dass du ein Redakteur bist aber mir is noch kein Lichtlein aufgegangen welcher :freak: Helf mir auf die Sprünge.
Grundsätzlich ists gut dass die Presse das direkt angeht. Könntest vielleicht mal nach haken ob die das nicht bemerkt haben. Ich hatte in der Beta schon 4 GB voll.

HisN
2014-05-21, 12:23:20
Wolfenstein.
4GB vom Start Weg
Ohne groß Modden, ohne überzogene Settings. Einfach nur Ultra mit gut 60 FPS. Und dabei hab ich nicht mal das 3-Moni-Setup genommen.
http://abload.de/thumb/wolfneworder_x64_20144zrq4.jpg (http://abload.de/image.php?img=wolfneworder_x64_20144zrq4.jpg)

Radeonfreak
2014-05-21, 12:29:07
Jupp. Ultra 1080p + 16xMSAA 3.8GB Speicherbelegung.

Hübie
2014-05-21, 13:08:07
Eine der Vorteile von PSONE.

Palpatin
2014-05-21, 13:47:51
Eine der Vorteile von PSONE.
? die hatte doch nur 1MB Grafikspeicher ;).

akuji13
2014-05-21, 14:35:32
Wolfenstein.
4GB vom Start Weg

Und das sogar mit belegbaren Nachteilen bei 3Gb Karten lt. PCGH.

Um also den thread-Titel zu beantworten:

Ab jetzt! :D

HisN
2014-05-24, 12:55:43
Watch Dogs
4GB
Ultra, nur FXAA
http://abload.de/thumb/watch_dogs_2014_05_24wdk0u.jpg (http://abload.de/image.php?img=watch_dogs_2014_05_24wdk0u.jpg) http://abload.de/thumb/watch_dogs_2014_05_24wkk4l.jpg (http://abload.de/image.php?img=watch_dogs_2014_05_24wkk4l.jpg) http://abload.de/thumb/watch_dogs_2014_05_24ccj74.jpg (http://abload.de/image.php?img=watch_dogs_2014_05_24ccj74.jpg) http://abload.de/thumb/watch_dogs_2014_05_2421jqp.jpg (http://abload.de/image.php?img=watch_dogs_2014_05_2421jqp.jpg)

fondness
2014-05-24, 13:03:18
Da dürfte es schon mit einer 3Gb Karte knapp werden wenn selbst 4GB voll werden. Wolfenstein dasselbe.

Hübie
2014-05-24, 13:08:27
? die hatte doch nur 1MB Grafikspeicher ;).

Ding dong. Ps4+Xbox one=psone. Das ist doch einleuchtend oder?

aufkrawall
2014-05-24, 13:18:23
Da dürfte es schon mit einer 3Gb Karte knapp werden wenn selbst 4GB voll werden. Wolfenstein dasselbe.
Wolfenstein nicht dasselbe. Nur mit einem AA-Modus, der im Menü gar nicht angeboten wird und das MSAA ist crap.

00-Schneider
2014-05-24, 13:44:42
Ding dong. Ps4+Xbox one=psone. Das ist doch einleuchtend oder?


Nicht wirklich... :freak:

Hübie
2014-05-24, 15:25:06
Na wie auch immer. :freak:
Wenn man 4 GB VRAM aufgrund mieser Programmierung braucht ists was anderes als wenn man die Menge aufgrund des Inhalts braucht. Dennoch habe ich mich nicht lumpen lassen und gleich 4 GB genommen. Sonst wäre ich wohl bei einer Ti gelandet...

SamLombardo
2014-05-30, 10:58:39
Falls noch nicht gesehen: sehr interessantes Video von PCGH, vergleich eines extrem gemoddeten Skyrim mit 3 und 6GB Vram. Klick! (http://m.youtube.com/watch?v=CN8PLXnJxLA)

Fazit ist eigentlich, dass es keine großen Unterschiede gibt, und dass obwohl sich die 6GB karte 4,6GB gönnt, und die 3GB Karte "überfüllt" ist.

Hübie
2014-05-30, 11:52:40
Das stockt aber immer kurz. Sagt Raff aber auch. Der Aspekt der Kosten machts halt mehr oder minder obsolet.
Edit: Ich würde zwei 780 6GB dem Setup dort vorziehen. Gibt's halt auch mit custom cooler.

SamLombardo
2014-05-30, 11:59:09
Jo stimmt, die Frage ist, wie oft das Stocken auftritt (ob zB nur bei schnellen 180 Grad Drehungen oder wenn man neue Gebiete betritt - so scheint es im Video- oder auch beim normalen Laufen und "Umherschauen".) Vielleicht könnte Raff mal was dazu sagen:wink:

Hübie
2014-05-30, 12:01:53
Aus Erfahrung kann ich sagen dass es A) vom Gebiet abhängt und B) auf Dauer nervt. Habe ~800 Skyrimstunden hinter mir und kenne das Spiel in- und auswendig ;)
Mit PCIE 3.0 sollten die Hänger aber deutlich kürzer ausfallen.

CrimsoN
2014-05-30, 12:36:40
Watch Dogs
4GB
Ultra, nur FXAA
http://abload.de/thumb/watch_dogs_2014_05_24wdk0u.jpg (http://abload.de/image.php?img=watch_dogs_2014_05_24wdk0u.jpg) http://abload.de/thumb/watch_dogs_2014_05_24wkk4l.jpg (http://abload.de/image.php?img=watch_dogs_2014_05_24wkk4l.jpg) http://abload.de/thumb/watch_dogs_2014_05_24ccj74.jpg (http://abload.de/image.php?img=watch_dogs_2014_05_24ccj74.jpg) http://abload.de/thumb/watch_dogs_2014_05_2421jqp.jpg (http://abload.de/image.php?img=watch_dogs_2014_05_2421jqp.jpg)

Hab bei mir auch so ca 3.5-3.8GB bei Watch_dogs aber bei 1680x1050 mit 2xTXAA+2xSGSSAA.

Und es Läuft ganz gut muss ich sagen ob wohl es nicht auf meiner SSD liegt.

@00-Schneider

Du weißst schon das Bild hier eine Neo-Nazi ist (Hohes NPD Mitglied)

HisN
2014-06-04, 18:58:03
http://abload.de/thumb/starcitizen_2014_06_06pi84.jpg (http://abload.de/image.php?img=starcitizen_2014_06_06pi84.jpg)
Star Citizen, Arena Commander
Erster Blick aus dem Cockpit
4.2GB

Raff
2014-06-04, 19:50:42
Dieser Thread ist doch viel cooler: 6 GB Vram sind doch zu was nützlich (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=542911) :biggrin:

MfG,
Raff

Knuddelbearli
2014-06-04, 23:39:35
ja aber NV only wobei State of the Art die Sapphire 8GB ist ^^

TobiWahnKenobi
2014-06-05, 07:41:10
Watch Dogs
4GB
Ultra, nur FXAA
http://abload.de/thumb/watch_dogs_2014_05_24wdk0u.jpg (http://abload.de/image.php?img=watch_dogs_2014_05_24wdk0u.jpg) http://abload.de/thumb/watch_dogs_2014_05_24wkk4l.jpg (http://abload.de/image.php?img=watch_dogs_2014_05_24wkk4l.jpg) http://abload.de/thumb/watch_dogs_2014_05_24ccj74.jpg (http://abload.de/image.php?img=watch_dogs_2014_05_24ccj74.jpg) http://abload.de/thumb/watch_dogs_2014_05_2421jqp.jpg (http://abload.de/image.php?img=watch_dogs_2014_05_2421jqp.jpg)

da gehe ich mit.. sogar drüber.

http://abload.de/thumb/wdvld71.jpg (http://abload.de/image.php?img=wdvld71.jpg) http://abload.de/thumb/wd3dv1tduz.jpg (http://abload.de/image.php?img=wd3dv1tduz.jpg)

übrigens in 3DV reichlich hübsch.


(..)

mfg
tobi

Raff
2014-06-05, 08:55:52
In Watch Dogs habe ich bei meinen Settings (2.880 × 1.800, 2x TXAA) auch 4,1 bis 4,5 GiB Belegung. Ohne Titan OC undenkbar. :)

MfG,
Raff

Pirx
2014-06-05, 09:46:11
Tja so schnell kanns gehen (gähn), nicht mal 1 Jahr nach Threaderstellung.

Hübie
2014-06-05, 10:19:43
In Watch Dogs habe ich bei meinen Settings (2.880 × 1.800, 2x TXAA) auch 4,1 bis 4,5 GiB Belegung. Ohne Titan OC undenkbar. :)

MfG,
Raff

Kannst du mal bitte 3200*1800*2xTXAA testen? Alles Ultra nur MB und DoF aus. Danke ;D

Damit zocke ich. Da ich "nur" 4 GB VRAM hab interessiert mich wieviel geswapped wird. Auf dem Bus ist bis zu 82% Auslastung verzeichnet :eek:

Raff
2014-06-05, 10:27:26
Perverse Auflösung. :biggrin: Dürfte aber noch recht locker in den Grafikspeicher passen. Mal sehen, ob ich nachher dazu komme.

MfG,
Raff

Hübie
2014-06-05, 10:41:08
Sieht verdammt lecker aus ;D

ShinyMcShine
2014-06-05, 12:01:05
Tja so schnell kanns gehen (gähn), nicht mal 1 Jahr nach Threaderstellung.

Das habe ich mir auch gerade gedacht.
Vor 9 Monaten wurde mir wegen meiner Entscheidung, eine GTX 770 mit 4GB zu kaufen, teilweise gesagt, dass sich das überhaupt nicht lohnt. ;)

Hübie
2014-06-05, 12:05:05
Tada ;) Ich hatte dir ja schon gesagt dass es sich mal auszahlen wird. War glaub ich drüben im Luxx. Auch irgendwie logisch. Wobei Watch_dogs ja durch einen Bug noch vorsichtig zu bewerten ist.

ShinyMcShine
2014-06-05, 12:06:48
Tada ;) Ich hatte dir ja schon gesagt dass es sich mal auszahlen wird. War glaub ich drüben im Luxx. Auch irgendwie logisch. Wobei Watch_dogs ja durch einen Bug noch vorsichtig zu bewerten ist.

Du warst auch eine der (wenigen) Ausnahmen. :)
Das neue Wolfenstein haut doch auch ganz ordentlich rein, oder?

Hübie
2014-06-05, 12:08:13
Laut Meldungen ja. Ich habs nicht. MSAA mit DS und die Hütte sollte voll sein ;D

Radeonfreak
2014-06-05, 12:09:55
Ja. 3.8 GB hat ich schon mal. 1440p.

Raff
2014-06-05, 12:30:32
Das habe ich mir auch gerade gedacht.
Vor 9 Monaten wurde mir wegen meiner Entscheidung, eine GTX 770 mit 4GB zu kaufen, teilweise gesagt, dass sich das überhaupt nicht lohnt. ;)

Ja, vor 9 Monaten war das auch einfach nur teuer. ;) Hast du das hier gefragt? Schon damals war eine HD 7970 (OC/GHz Edition) eigentlich die bessere Option, da eine GTX 770/4G immer noch recht teuer ist. Wie gesagt: Eine Schwalbe (hier: Spiel) macht noch keinen Sommer. Der Nutzen von 4 GiB im Rahmen der Leistungsfähigkeit einer GTX 770 ist nach wie vor überschaubar, wird bei kommenden Spielen aber bestimmt größer.

Die geplante Nutzungsdauer entscheidet, ob sich die Investition in dicken Speicher auszahlt. Wer sich 2011 eine GTX 580 mit 3 GiB gekauft hat, kann damit nun deutlich entspannter Spielen als Nutzer des Originals mit 1,5 GiB. Die Titan habe ich übrigens im Hinblick auf kommende Entwicklungen gekauft – es war irgendwie klar, dass sich monatelang nur wenig tun wird und diese Karte lange oben mitspielt. Dass es jedoch bis 2015 dauern würde ... nun, das hätte ich auch nicht gedacht, fühle mich jedoch bestätigt. :)

MfG,
Raff

occ-kh@Mirko
2014-06-05, 12:38:08
Hier geht es aber definitiv um Auflösungen über 1920x1080i...?

Mr. Lolman
2014-06-05, 12:41:35
In Watch Dogs habe ich bei meinen Settings (2.880 × 1.800, 2x TXAA) auch 4,1 bis 4,5 GiB Belegung. Ohne Titan OC undenkbar. :)

MfG,
Raff

Jo, weil auf Radeons TXAA nicht funktioniert. Ansonsten ist die 290(X) wohl immernoch die beste Möglichkeit Watch Dogs möglichst günstig in möglichst hoher Qualität möglichst flüssig zu spielen. Nur schad, dass das bei den meisten publizierten Benchmarks überhaupt nicht rauskommt.

Hübie
2014-06-05, 12:45:29
Hier geht es aber definitiv um Auflösungen über 1920x1080ip...?

Fixed! Wenn downsampling mitzählt dann ja. Alien Colonial Marines frisst in 4k Speicher zum Frühstück. 3200*1800 einwandfrei, 3840*2160 stotter-zuckel-ruckel... ;D

Ätznatron
2014-06-05, 12:48:34
Hier geht es aber definitiv um Auflösungen über 1920x1080i...?

Es gibt auch Beispiele, in denen mit geringer Auflösung unterhalb 1080p die 3 GB-Grenze durchbrochen werden kann.

Wie auch immer: Die so häufig - und wie man jetzt sieht, zu Unrecht - verspotteten Titan-Käufer können sich jetzt nur um so bestätigter fühlen.

Ich kann mir durchaus vorstellen, dass einige GTX 780(ti)-Käufer sich jetzt kräftig in den Allerwertesten beissen, vor allem die mit SLi-Systemen.

aufkrawall
2014-06-05, 12:50:06
Nicht wirklich. Wolfenstein lief tadellos in 1440p und Watchdogs läuft auch auf ner 4GB Radeon beschissen, einfach, weils kaputt ist.
Braucht ne Neubewertung nach Patch(es).

occ-kh@Mirko
2014-06-05, 13:00:05
Wolfenstein läuft auf einem Schenkerlaptop mit der einen oder anderen GPU bis 1080? ohne weiteres und ohne zusätzliches Hand anlegen, sehe keine großen Unterschiede...WD interessiert mich nicht...mag diesen GTA Kram nicht.

Mr. Lolman
2014-06-05, 13:01:59
Watchdogs läuft auch auf ner 4GB Radeon beschissen, einfach, weils kaputt ist.


Seltsam, wieso spiels ich dann mit 1600p + SMAA + SweetFX und hab minfps die nur selten unter 40 fallen?

aufkrawall
2014-06-05, 13:02:52
Seltsam, wieso spiels ich dann mit 1600p + SMAA + SweetFX und hab minfps die nur selten unter 40 fallen?
Ja, Balken sind was feines.

Mr. Lolman
2014-06-05, 13:08:03
Ok, ich werd bezeiten mal die Frametimes messen.

aufkrawall
2014-06-05, 13:09:40
Hat Nightspider im WD-Thread schon gemacht.

Mr. Lolman
2014-06-05, 13:13:50
Ich weiß. Trotzdem werd ichs auch messen. Ist ja nicht so, dass die Frameratimes NUR von der GraKa abhängig wären... ;)

aufkrawall
2014-06-05, 13:19:11
In 1600p ist man im GPU-Limit, bleiben nur Treiber und OS.
Ich habe es selbst kurz mit einer 290 auf Win 7 x64 gespielt und es hat Mikroruckler gemacht. Es ruckelt bei mir btw. selbst mit nur High Details und Texturen auf High, also noch massig VRAM frei.

"4GB laufen etwas weniger scheiße." ist imho echt kein tolles Argument.

Mr. Lolman
2014-06-05, 13:21:56
Auch im GPU Limit ist die CPU nicht nebensächlich. Aber selbst wenn, wo ist das Problem, wenn ich einen Test mach? Und nochmal: Unabhängig der Frametimes (die ich ohne sie getestet zu haben, als durchaus ok empfinde), spiel ich das Spiel mit 1600p und es läuft alles andere als beschissen. (i4770k@4.3, 16GB RAM @2.4 1T, 480GB M500 SSD, Win8.1)

occ-kh@Mirko
2014-06-05, 13:21:59
Wen man @Sebastien Viard Glauben schenkt kommt bald ein Patch der das Problem lösen soll. https://twitter.com/SebViard?original_referer=http%3A%2F%2Fwww.pcgameshardware.de%2FWatch-Dogs-PC-249220%2FNews%2FWatch-Dogs-Patch-1123018%2F&tw_i=472036622171930624&tw_p=tweetembed

N0Thing
2014-06-05, 13:26:25
Meinst du den Tweet vom 29. Mai?

occ-kh@Mirko
2014-06-05, 13:30:52
Ja, weisst du was genaueres? Termin ist unbekannt, hat aber höchste Priorität. http://www.onlinewelten.com/games/watch-dogs/news/patch-schlechte-pc-performance-beheben-update-126389/ http://www.pcgameshardware.de/Watch-Dogs-PC-249220/News/Watch-Dogs-Patch-1123018/ Irgendwie gibt es jetzt auch Probleme mit den Speicherständen...http://www.pcgames.de/Watch-Dogs-PC-249220/News/Watch-Dogs-Spielstand-laedt-nicht-Uplay-Belohnungen-offenbar-die-Ursache-1123594/

Aber wohl eher offtopic..;)

N0Thing
2014-06-05, 13:33:03
Ne, ich dachte nur du würdest vielleicht auf eine aktuellere Meldung verweisen, die ich übersehen habe.
Daß ein Patch in Arbeit ist, weiß man ja nun seit einer Woche.

Knuddelbearli
2014-06-05, 16:44:58
Titan Käufer sind trotzdem "dumm" ^^
hätten auch damals ne 780 kaufen können und jetzt ne 780 6GB käme günstiger und hätten 2 mal was zum rumspielen ^^

Raff
2014-06-05, 17:25:24
Jo, ich komme mir auch total dämlich vor, direkt das Beste gekauft zu haben statt 2× etwas Langsameres, das ich noch stärker übertakten muss. :| X-D

MfG,
Raff

Knuddelbearli
2014-06-05, 17:29:23
na ihr argumentiert doch immer mit rumspielen. und da hättest 2 mal was zum rumspielen gehabt. oder du hättest dir damals die 780 kaufen können und jetzt die Black. minimal mehr Geld ( wertverluist 780 100-150€ ? bei der normalen Titane dagegen 300-400€ ? ) und 2 mal was zum rumspielen und jetzt deutlich schneller :P

780TI 6GB lässt ja noch auf sich warten.

und das dumm war eben mit Gänsefüßchen da ich eben NIEMANDEN damit persönlich angreifen wollte sondern einfach weill das ihmo die bessere alternative gewesen wäre. Mann kauft doch keine Hardware da man die vielleicht in einem Jahr dann endlich ausnutzen kann

occ-kh@Mirko
2014-06-05, 17:35:48
na ihr argumentiert doch immer mit rumspielen. und da hättest 2 mal was zum rumspielen gehabt. oder du hättest dir damals die 780 kaufen können und jetzt die Black.
Unlogisch, jedem neuen preistreibenden Angebot zu folgen! Die Titan machst doch noch...was hat er da falsch gemacht? Nochmal 850 Euro investieren für 3-5% Mehrleistung und den Verlust beim Verkauf der gebrauchten Titan hinnehmen.:conf2:

edit sagt: Klar kann man auch in die Zukunft investieren, wenn man den Trend kennt.

Knuddelbearli
2014-06-05, 17:37:32
wo liest du da was von einer gebrauchten Titan? -.-
Einfach den Text in der Klammer mitlesen, wo ich ja sage das bei einer 780 sich der Wertverlust in grenzen hält gegenüber einer Titan

N0Thing
2014-06-05, 17:48:53
Bin momentan wirklich froh noch mit 1680x1050 unterwegs zu sein. Da komme ich auch noch mit 2GB VRAM über die nächsten Jahre. :)

Knuddelbearli
2014-06-05, 17:50:43
na mich hat der unterschied 1,5GB vs 3GB bei der GTX 580 in WD richtig schockiert mal eben fast doppelte FPS ... und hab eine 1,5GB 480

WD und Wolfenstein kann ich aber erstmal aufschieben aber wenn noch mehr solche Spiele kommen schaffe ich es wohl nicht auf 20nm / 16nm zu warten ...

occ-kh@Mirko
2014-06-05, 18:08:44
wo liest du da was von einer gebrauchten Titan? -.-
Einfach den Text in der Klammer mitlesen, wo ich ja sage das bei einer 780 sich der Wertverlust in grenzen hält gegenüber einer Titan
Ahja...verstanden, hab nur die Titan mit in die Rechnung genommen, aber sozusagen hat eine Black ab 2560x1440p ist der Unterschied 3-4 % in Referenz. Kann er locker mit leichtem OC ausgleichen, zudem hat die Titan ohne Black dort einen etwas größeren Spielraum, da das Referenzdesign nicht so ausgefahren ist...

Blaire
2014-06-05, 18:27:39
Es gibt auch Beispiele, in denen mit geringer Auflösung unterhalb 1080p die 3 GB-Grenze durchbrochen werden kann.

Wie auch immer: Die so häufig - und wie man jetzt sieht, zu Unrecht - verspotteten Titan-Käufer können sich jetzt nur um so bestätigter fühlen.

Ich kann mir durchaus vorstellen, dass einige GTX 780(ti)-Käufer sich jetzt kräftig in den Allerwertesten beissen, vor allem die mit SLi-Systemen.

Bis auf WatchDogs ( welches noch sehr buggy daherkommt ) und Thief (fehlende BQ-Alternativen) ist das doch alles ziemlich im Rahmen, selbst als SLI User wo genug Reserven vorhanden, sehe ich da kein Problem bei "nur" 3GB. Vieleicht siehts in einem Jahr ja anders aus, aber da brauchts auch schnellere Grafikkarten für, welche ein Wolfenstein oder WatchDogs bei 4K und max. Details ermöglichen. Aktuell geht das auch nur mit Kompromissen einher, ich sehe das nicht so eng. :)

Ätznatron
2014-06-05, 18:54:45
Na ja,

die reine FPS-Betrachtung reicht mir da nicht.

Wenn Nachladeruckler und Framedrops durch mehr VRAM minimiert werden können, ist das ein erheblicher Gewinn an Spielqualität.

Die - vielleicht - leistungsstärkste Karte GTX 780 ti wird durch ihre VRAM-Schwäche für mich so entwertet, dass ein Kauf nicht in Betracht kommt.

StefanV
2014-06-05, 19:35:16
Vor 9 Monaten wurde mir wegen meiner Entscheidung, eine GTX 770 mit 4GB zu kaufen, teilweise gesagt, dass sich das überhaupt nicht lohnt. ;)
Die Leute verdrängen alle die Vergangenheit...

Es war eigentlich immer so, dass die Karte mit mehr Speicher eine längere 'Halbwertzeit' hatte. Schon damals, zu 128MiB Zeiten mit DX9. Oder 256-> 512MiB, 512MiB -> 1GiB usw...

Blaire
2014-06-05, 20:40:38
Die - vielleicht - leistungsstärkste Karte GTX 780 ti wird durch ihre VRAM-Schwäche für mich so entwertet, dass ein Kauf nicht in Betracht kommt.

Dann kannst du sicher auch Beispiele nennen, wo es DEN Unterschied macht? :D
Ob Assassins Creed IV Black Flag, Battlefield4, Bioshock Infinite, Call of Duty Ghosts, Crysis 3 , Hitman Absolution, Metro Last Light, TitanFall oder Tomb Raider ich wüsste nicht, wo das irgendeine Relevanz hätte, ob nun 3GB oder 6GB verbaut sind?
Und ob Witcher III, Batman Arkham Knight, The Division , Star Citizen (erst 2015) oder Farcry4 (Ende dieses Jahr) da nun großartig was dran ändern, darf doch zumindest bezweifelt werden.
Würde ich aktuell eine Grafikkarte kaufen, wären mir 3GB (sofern keine spätere MultiGPU-Option in Frage käme) völlig ausreichend.
Wie auch immer, das muss jeder selber entscheiden.

Raff
2014-06-05, 21:39:46
Die Leute verdrängen alle die Vergangenheit...

Es war eigentlich immer so, dass die Karte mit mehr Speicher eine längere 'Halbwertzeit' hatte. Schon damals, zu 128MiB Zeiten mit DX9. Oder 256-> 512MiB, 512MiB -> 1GiB usw...

Es steht IMO gar nicht zur Debatte, dass sich ein dicker Speicher Jahre nach Release positiv bemerkbar macht, denn das lässt sich gar nicht bestreiten. Für die meisten Enthusiasten ist das aber nur ein theoretischer Punkt, da sie Grafikkarten beinahe wie Unterwäsche wechseln. Ich bin aber sicher, dass 2015 oder spätestens 2016 eine GTX 780 Ti schwer am Kotzen ist, während die dann steinalten Titanen noch etwas reißer – genau wie die GTX 580/3G jetzt.

MfG,
Raff

Grey
2014-06-05, 21:52:30
Es steht IMO gar nicht zur Debatte, dass sich ein dicker Speicher Jahre nach Release positiv bemerkbar macht, denn das lässt sich gar nicht bestreiten. Für die meisten Enthusiasten ist das aber nur ein theoretischer Punkt, da sie Grafikkarten beinahe wie Unterwäsche wechseln. Ich bin aber sicher, dass 2015 oder spätestens 2016 eine GTX 780 Ti schwer am Kotzen ist, während die dann steinalten Titanen noch etwas reißer – genau wie die GTX 580/3G jetzt.

MfG,
Raff

Ich denke auch, dass aktuelle Spiele wie Watch_Dogs nicht zwangsläufig das Maß für die Masse sein werden. Schon in der letzten Generation hat die UE viel als Middleware gedient und dabei viel zu selten 1GB überschritten... das wird wieder kommen und Titel wie WD die Ausnahme bleiben.

aufkrawall
2014-06-05, 21:54:02
Ja, alle UE-, FB-, CE- und Unity-Spiele werden problemlos mit 3GB auskommen (in 1440p).

Hübie
2014-06-05, 22:11:44
Okay, Raff. Wo eine GTX 580 3 GiB noch was reißt möcht ich jetzt mal konkret wissen :smile:

blaidd
2014-06-05, 22:15:45
Ja, alle UE-, FB-, CE- und Unity-Spiele werden problemlos mit 3GB auskommen (in 1440p).

Sicher? Ich meine mich zu entsinnen, dass Borderlands (UE3) in 1080p kaum mehr als 500 MByte an Speicher belegt hätte. Thief (ebenfalls UE3) belegt aber locker das vierfache (sicher auch nach dem Patch). Die Frostbyte-Engine ist sicher noch eine Weile von der Partie, gleiches gilt für die Cryengine - Da könnte sich schon noch was tun. Star Citizen belegt schonmal rund 2,8 GiByte mit zwei Schiffstexturen, einem Planet und ein paar herumfliegenden Steinen. Ich hätte schon Bedenken, jetzt noch eine 3-GiByte-Karte zu kaufen. Grad wenn man Wert auf Bildqualität und Kantenglättung legt.

Ich würde lieber zu mehr Speicher greifen und im Zweifelsfall auf den Zeitraum gerechnet, die ich die Karte nutze, mit den Schultern zucken weil ich 3 Euro mehr pro Monat sinnlos ausgegeben habe, als mich ein halbes Jahr darüber zu ärgern, dass ich hunderte Euros in den Wind geblasen habe, weil ich mir viel zu früh eine neue GPU kaufen muss. ;-)

[EDIT:] @ Hübie: Watch Dogs (http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/) :) GTX 580/1,5 GiByte: Min: 3 Avg.: 7,7; GTX 580/3 GiByte: Min.: 22 Avg.: 30,1 (tSMAA)

Hübie
2014-06-05, 22:19:22
Gut. Da widerspreche ich nicht - bis zu dem Punkt wo es preislich absurd wird (Titan). Eine 780 6G erscheint mir momentan als das attraktivere Angebot. AMD hat leider "nur" 4 GB. Die 250 Vapor-X 8G klammer ich mal aus ;)

occ-kh@Mirko
2014-06-05, 22:23:43
Die 6GB sind aber vllt. wirklich zuviel? Nvidia muss etwas bringen was den Preis rechtfertigt, 4,5 GB wären da nicht gegangen! Zur Zeit liegen die 6GB Karten bei 450-475 Euro, AMD weiter drunter und liefert die schnellere GPU. Eine Titan hat ja noch andere Feinheiten...

Hübie
2014-06-05, 22:27:00
Ja klar. Ich bin immer nur so Ich-bezogen, daher kommt AMD nicht in Frage.
Aber du hast Recht. AMD bietet für den Preis das rundere Produkt.

aufkrawall
2014-06-05, 23:11:13
Sicher? Ich meine mich zu entsinnen, dass Borderlands (UE3) in 1080p kaum mehr als 500 MByte an Speicher belegt hätte. Thief (ebenfalls UE3) belegt aber locker das vierfache (sicher auch nach dem Patch).

Ist stark gemoddete Engine, die ursprünglich von 2007 ist.


Die Frostbyte-Engine ist sicher noch eine Weile von der Partie, gleiches gilt für die Cryengine - Da könnte sich schon noch was tun. Star Citizen belegt schonmal rund 2,8 GiByte mit zwei Schiffstexturen, einem Planet und ein paar herumfliegenden Steinen.

Star Citizen ist ebenfalls (stark?) gemoddet, alpha und erscheint erst 2015.


Ich hätte schon Bedenken, jetzt noch eine 3-GiByte-Karte zu kaufen. Grad wenn man Wert auf Bildqualität und Kantenglättung legt.

MSAA suckt in so ziemlich jedem neuen Spiel.


Ich würde lieber zu mehr Speicher greifen und im Zweifelsfall auf den Zeitraum gerechnet, die ich die Karte nutze, mit den Schultern zucken weil ich 3 Euro mehr pro Monat sinnlos ausgegeben habe, als mich ein halbes Jahr darüber zu ärgern, dass ich hunderte Euros in den Wind geblasen habe, weil ich mir viel zu früh eine neue GPU kaufen muss. ;-)

Gibt leider keine Alternative zur 780 Ti, 780 ist spürbar langsamer und von AMD-Treiberschrott konnte ich mich jüngstens erst wieder überzeugen.
Wenn der Speicher mich öfter ärgert, ersetz ich die Ti schnellstmöglich durch Maxwell.
Würde mir dann wohl ne 8GB Karte holen, wenn es die gibt.

fondness
2014-06-05, 23:21:00
Würde mir dann wohl ne 8GB Karte holen, wenn es die gibt.

Als Titan vielleicht, aber nachdem du dich von NV so gerne melken lässt sollte das kein Problem sein. *duckundweg*

aufkrawall
2014-06-05, 23:24:12
Das wird nicht so ein, weil der GM204 ein lächerliches SP:DP-Verhältnis aufweist.

blaidd
2014-06-06, 00:46:45
AMD-Treiberschrott
Du weißt dich eben nicht durchzusetzen:
WrDYkksIYok

aufkrawall
2014-06-06, 01:27:13
War schon ein Ding.
So eine extrem geile Karte (290 Vapor-X, arschleise, kein Spulenfiepen, geile Optik, gute Verarbeitung...), aber die Software...
AMD hat einfach keine gute Struktur in ihren Software-Teams. Das wirkt unkoordiniert und unstringent durchdacht. Die schaden so dem Markt, wir sollten ihnen wehtun...

blaidd
2014-06-06, 01:56:22
Gut. Da widerspreche ich nicht - bis zu dem Punkt wo es preislich absurd wird (Titan). Eine 780 6G erscheint mir momentan als das attraktivere Angebot. AMD hat leider "nur" 4 GB. Die 250 Vapor-X 8G klammer ich mal aus ;)

Bei der nächsten Generation solle bei den High-End-Modellen definitiv mehr drin oder drauf sein. 8 GiByte halte ich (noch) für ein wenig übertrieben, aber sechs sollten's beim Top-Modell schon sein, finde ich - warum auch nicht. Gerade Bei 4K-Gaming, Intels Ankündigung, diesen Markt zu unterstützen und damit (hoffentlich brauchbare) UHD-Monitore in bezahlbare Regionen zu bringen und der Tatsache, dass eine High-End-GPU mindestens zwei Jahre gut nutzbar sein sollte, schadet das sicher nicht. Und wenn Mantle und in Zukunft vielleicht auch DX12 weiter die Tendenz zeigt, Video-Speicher zu verfrühstücken, sowieso.

War schon ein Ding.
So eine extrem geile Karte (290 Vapor-X, arschleise, kein Spulenfiepen, geile Optik, gute Verarbeitung...), aber die Software...
AMD hat einfach keine gute Struktur in ihren Software-Teams. Das wirkt unkoordiniert und unstringent durchdacht. Die schaden so dem Markt, wir sollten ihnen wehtun...

Ich bezweifele, dass Boykott in dieser Hinsicht hilft. Ich würde eher auf gezieltes Flaming setzen. Ich habe da allerdings wahrscheinlich wegen meiner Anstellung einen gewissen Vorteil und werde den auch konsequent nutzen. Beispiel: Ich glaube, ich habe in jeder der letzten drei oder vier erschienenen Ausgaben irgendwo wegen mangelnder Downsampling-Unterstützung gemeckert. Ich denke aber, der "normale" bzw. High-End User wird den Unterschied machen (wenn die Marketing-Fachmänner endlich mal merken, dass man nicht einfach so mit dem High-End-Anspruch anfängt, sondern von der entsprechenden Community initiiert wird), also flamt z.B. bezüglich DS ruhig mal Richtung Roy@AMD (https://twitter.com/amd_roy/status/425339019296133120) und lasst euch keinen Unsinn erzählen. Schlimmstenfalls passiert nichts und wir gehen ihm nur auf die Nerven, realistischer erscheint mir aber bei genügend Druck eine Reaktion. Diesbezüglich sollten wir als Gemeinschaft einmal egozentrisch bleiben und das Wohl der Masse vor das Nervenheil des Einzelnen stellen. Das gilt übrigens auch für Nvidia, die auch schon mal Interesse daran bekundet haben, DS besser in den Treiber einzubauen. Ist übrigens ähnlich lange her wie Roys Bekunden, da sollte also vielleicht mal jemand nachhaken.

Hübie
2014-06-06, 02:17:08
4k muss erst mal spielbar werden. Und damit meine ich nicht 30+ sondern 60+ fps. Dann machen 6-8 GB als Standard auch wirklich Sinn. Jetzt muss man sich eben noch Szenarien kreieren um die zu nutzen oder einfach ein mies optimiertes Spiel aus der Schublade zücken. Und selbst dann läuft 4k nur mit reduzierten Details, zwei GPUs oder alten Spielen die man aus der Mottenkiste gekramt hat (Huhu, Ultima 9 und Outcast ;D).
Alles in allem: 3 GB ausreichend, 4 gut und 6 nice to have.

blaidd
2014-06-06, 02:34:31
4k muss erst mal spielbar werden. Und damit meine ich nicht 30+ sondern 60+ fps. Dann machen 6-8 GB als Standard auch wirklich Sinn. Jetzt muss man sich eben noch Szenarien kreieren um die zu nutzen oder einfach ein mies optimiertes Spiel aus der Schublade zücken. Und selbst dann läuft 4k nur mit reduzierten Details, zwei GPUs oder alten Spielen die man aus der Mottenkiste gekramt hat (Huhu, Ultima 9 und Outcast ;D).
Alles in allem: 3 GB ausreichend, 4 gut und 6 nice to have.

Wenn 4K für die Massen bezahlbar wird, werden auch die GPU-Hersteller über kurz oder lang nachlegen (müssen). So einfach ist das (aus Konsumentensicht). Mit dem ganzen anderen Larifari muss (oder sollte - der Zustand, mit dem einige Produkte heutzutage "Marktreife" erlangen, ist auch so eine Sache) man sich gar nicht groß herumschlagen.

[EDIT:] Will mal sehen, wie jemand Outcast in 4K spielt. Ich wette, da macht auch heutzutage noch jede CPU schlapp ;) 1.280 x 1.024 waren für meinen i7-920 schon harter Tobak (http://extreme.pcgameshardware.de/rollenspiele-und-adventures/149014-outcast-spielbar-unter-windows-7-x64.html) (Single-Core!)

Knuddelbearli
2014-06-06, 05:08:28
Okay, Raff. Wo eine GTX 580 3 GiB noch was reißt möcht ich jetzt mal konkret wissen :smile:

Watch Dog Max Details SMAA
580 3GB 30fps mit 1,5gb nur 15FPS
6940 mit 1 beziehungsweise 2 GB reagiert ganz vergleichbar
OC und mit der 3GB wäre es spielbar ...
hat mich als 480 Besitzer richtig schockiert

Palpatin
2014-06-06, 08:15:36
Ich denke auch, dass aktuelle Spiele wie Watch_Dogs nicht zwangsläufig das Maß für die Masse sein werden. Schon in der letzten Generation hat die UE viel als Middleware gedient und dabei viel zu selten 1GB überschritten... das wird wieder kommen und Titel wie WD die Ausnahme bleiben.
Glaub ich nicht, musste ja alles in den Mäuschenspeicher der Last Gen Konsolen passen, und die Mühe das für den PC zu Optimieren haben sich nicht viele gemacht, deswegen kamen Spiele wie Borderlands 2 mit 512 MB Graka Speicher aus. PS4 und XBone haben Speicher ohne Ende. Bin mal gespannt wie sich das entwickelt aber selbst bei 1080p könnt es bald sehr eng werden, zummindest für die Besitzer von 3gB VRam Karten.

SamLombardo
2014-06-06, 10:37:12
Call of Duty Ghosts verhält sich auch merkwürdig. Das Spiel gönnt sich mit den höchsten Einstellungen über 5GB(!) Vram wenn vorhanden, läuft aber auch mit 3GB und sogar mit 2GB (selber getestet mit GTX670) ohne Nachladeruckler. Frage mich, warum hier funktioniert, bei WD zB aber nicht...

gnomi
2014-06-06, 11:57:16
Ich verstehe einfach das Problem nicht, warum es immer gleich maximale Texturdetails sein müssen. :confused:
In Watch Dogs und besonders Wolfenstein kommt man doch prima mit hohen Texturen aus. Der Qualitätsabfall ist nicht der Rede wert, und wahrscheinlich den nicht gut nach oben hin skalierenden Spieleengines geschuldet. :(
Mich kotzen eher die ganzen Benchmarks an, die uns suggerieren, für diese in Standard Einstellungen gut laufenden Spiele tatsächlich für minimale Verbesserungen neue Hardware anzuschaffen, nur um dann in Ultra mit schlechteren Bildraten als zuvor zu spielen. :crazy2:
Das ist eine Riesensauerei in meinen Augen! :mad:
Die PS4 muss auch mit High leben und ist speichertechnisch in etwa vergleichbar mit PC Systemen mit 8GB Ram und 2 GB VRam. (bei jedoch weniger Rohleistung)
Ab 2015 sollten beim Neukauf sicher 4 GB Vram her, aber auch eine GTX 780 TI lässt sich fernab von speicherhungrigem AA und Ultra HD sicherlich gut ausreizen und liegt in Sachen Rohleistung deutlich über Next Gen Konsolen Niveau.

Hübie
2014-06-06, 12:02:04
A) siehst du vielleicht die Unterschiede nicht so sehr. Andere schon.
B) Ist das auch eine Ego-Geschichte. Ich bezahle Summe X und erwarte Gegenleistung. Je höher die Summe desto höher der Anspruch bzw. das Anspruchdenken.
C) Ist es ebenso eine Frechheit Bananensoftware abzuliefern (reift beim Kunden). Gegen miese Programmierung ist noch kein Kraut gewachsen.
D) Klingt es geil wenn man sagen kann dass man auf UUUUUULTRA spielt ;D

occ-kh@Mirko
2014-06-06, 12:05:25
In Watch Dogs und besonders Wolfenstein kommt man doch prima mit hohen Texturen aus. Der Qualitätsabfall ist nicht der Rede wert
Mir fallen ehrlich gesagt gerade ein paar ausgeprägtere Beleutungseffekte auf, in die ich in einem Shooter aber auch verzichten kann. Ansonsten bringt eine höhere Auflösung eben doch etwas mehr, z.B. unterm Downsampling, da braucht es aber wieder Speicher.

Ich sehs aber auch so, bei längerfristiger Neuanschaffung sollte man drauf achten. Ansonsten gehts auch so. ;) Wer sowieso jährlich wechselt, für den ist das eh kein Thema.

Blaire
2014-06-06, 19:26:15
Bei der nächsten Generation solle bei den High-End-Modellen definitiv mehr drin oder drauf sein. 8 GiByte halte ich (noch) für ein wenig übertrieben, aber sechs sollten's beim Top-Modell schon sein, finde ich - warum auch nicht. Gerade Bei 4K-Gaming, Intels Ankündigung, diesen Markt zu unterstützen und damit (hoffentlich brauchbare) UHD-Monitore in bezahlbare Regionen zu bringen und der Tatsache, dass eine High-End-GPU mindestens zwei Jahre gut nutzbar sein sollte, schadet das sicher nicht. Und wenn Mantle und in Zukunft vielleicht auch DX12 weiter die Tendenz zeigt, Video-Speicher zu verfrühstücken, sowieso.

Das alles ist noch soweit entfernt, da braucht man sich jetzt nicht den Kopf zerbrechen, um aktuell 4K möglichst sinnvoll einzusetzen, kommst du garnicht ohne MultiGPU aus, in Einzelfällen wie z.b. Wolfenstein reicht nichtmal das.
Ausgewogenheit darauf kommts an, 6GB bei SingleCard ist aktuell Oversized, da die GPU bereits lange vorher dicht macht. Warum sollte sich das nun schlagartig ändern? Seh ich nicht so.

Ätznatron
2014-06-06, 19:41:09
Das alles ist noch soweit entfernt, da braucht man sich jetzt nicht den Kopf zerbrechen, um aktuell 4K möglichst sinnvoll einzusetzen, kommst du garnicht ohne MultiGPU aus, in Einzelfällen wie z.b. Wolfenstein reicht nichtmal das.
Ausgewogenheit darauf kommts an, 6GB bei SingleCard ist aktuell Oversized, da die GPU bereits lange vorher dicht macht. Warum sollte sich das nun schlagartig ändern? Seh ich nicht so.

Nicht unbedingt oversized.

Bei mir entscheiden zwei Games die Kartenkaufentscheidung:

DCS:World und X-Plane

Wegen DCS bin ich eigentlich an nVidia gebunden, da es mit deren Karten deutlich besser läuft als mit meiner letzten AMD-Karte (kann sich mittlerweile geändert haben, kann ich aber mangels AMD-Karte nicht beurteilen).

X-Plane ist ein eher CPU-lastiges Spiel, bei dem selbst High-End CPUs bei entsprechenden Settings die Puste ausgeht.

Wenn dann noch wegen fehlenden VRAMs mit entsprechenden Laderucklern hin und her ausgelagert wird (und mit HD-Texturen sind bspw. 3 GB mühelos zu überfüllen), ist der Spielspass komplett ruiniert.

Mit gelegentlich teilweise weniger als 20 FPS kann ich gerade noch bei einer Flugsimulation leben, aber nicht zusammen mit den anderen beschriebenen Effekten.

gnomi
2014-06-07, 11:52:18
A) siehst du vielleicht die Unterschiede nicht so sehr. Andere schon.
B) Ist das auch eine Ego-Geschichte. Ich bezahle Summe X und erwarte Gegenleistung. Je höher die Summe desto höher der Anspruch bzw. das Anspruchdenken.
C) Ist es ebenso eine Frechheit Bananensoftware abzuliefern (reift beim Kunden). Gegen miese Programmierung ist noch kein Kraut gewachsen.
D) Klingt es geil wenn man sagen kann dass man auf UUUUUULTRA spielt ;D

a) Das halte ich jetzt mal für ziemlich unwahrscheinlich. :wink:
Ich spiele seit klein an und habe bereits hunderte von Games quer durch alle Plattformen und Systeme/Konfigurationen ausgiebig gezockt.
b) Also ehrlich gesagt haben die Leute mit tatsächlichen High End Systemen wie Blaire oder zumindest professionell Zugang zu solchen doch eher die Ruhe weg als die, die nur für eine High End Karte ihr gesamtes Taschengeld auf den Kopf hauen. ;)
c) Es ist nicht gleich Bananensoftware. Watch Dogs ist ein Spiel mit enormem Produktionsaufwand und extrem ambitioniert gestaltet.
Dazu wurde es schon verschoben und ist neutral betrachtet technisch sehr ausgereift und beeindruckend.
Die PC Version speziell hat natürlich nur einen bestimmten Produktionsaufwand.
Man kann so schnell also nicht unbedingt die Engine nach oben anpassen oder DX 12 und andere Goodies einbauen, sowie brutal optimieren.
So etwas kommt immer als letztes.
Mit den Gameworks Sachen hat Ubisoft in diesem Bereich allerdings zweifelsohne sogar mehr investiert als es die meisten Publisher überhaupt noch tun.
Technische Verbesserungen werden wir wie bei Assassin's Creed oder Far Cry im Zuge weiterer Teile ganz sicher sehen.
Eventuell wird auch noch mal von den GPU Herstellern und Programmierern nachgepatcht. Ich würde hier aber eben keine Wunder erwarten.
d) Holy Shit. ;D Ja, ist schon cool, aber eben nur mit top Bildraten. Ansonsten wirkt es auf mich schnell affig und von Unkenntnis zeugend.

gnomi
2014-06-07, 12:06:44
Mir fallen ehrlich gesagt gerade ein paar ausgeprägtere Beleutungseffekte auf, in die ich in einem Shooter aber auch verzichten kann. Ansonsten bringt eine höhere Auflösung eben doch etwas mehr, z.B. unterm Downsampling, da braucht es aber wieder Speicher.

Ich sehs aber auch so, bei längerfristiger Neuanschaffung sollte man drauf achten. Ansonsten gehts auch so. ;) Wer sowieso jährlich wechselt, für den ist das eh kein Thema.

Downsampling & SSAA sind ja auch schon wieder so extreme Enthusiasten Features.
Mit meiner 2,5 Jahre alten GTX 680 muss ich bei Watch Dogs lediglich bei Texturen, Objektdetails, Reflexionen und Effekten eine kleine Stufe runter.
Full HD, AF & temporales SMAA und sogar HBAO+ sind drin, aber TXAA kostet zu viel.
Damit erreiche ich aber auch schon 50-60 fps durchschnittlich, was wohl kaum performancetechnisch schlecht und weiter Über Next Gen Niveau ist.
Eine 3 GB Karte wie die TI 780 kann man Dank 60-80% mehr Rohleistung und 50% mehr Speicher schon wieder mehr ausfahren.
Z.B. alles bis auf die Texturen auf Ultra und noch TXAA an.
Damit sollte man denke ich zufrieden sein können.
Falls sie dann beim Streaming und Speicherverbrauch tatsächlich nachbessern, fällt dann eben auch die letzte zurückgestellte Option.
Das Ego muss sowas wirklich mal verkraften.
Denkt an Crysis 1. Das lief auch längst nicht überall volle Pulle. =)

SamLombardo
2014-06-07, 12:26:04
... muss ich bei Watch Dogs lediglich bei Texturen, Objektdetails, Reflexionen und Effekten eine kleine Stufe runter.

...und das wäre extrem unbefriedigend für mich. Da würde ich lieber warten bis ich neue Hardware habe anstatt Texturen, Objektdetails, Reflexionen und Effekte runterdrehen zu müssen um es spielen zu können. Das was du sagst mag vielleicht rational richtig sein, ich persönlich bin da aber leicht irrational:wink: Würde dann das entsprechende Spiel lieber später spielen, dann aber in "voller Pracht":D

gnomi
2014-06-07, 15:25:10
Ich kann da nichts Unbefriedigendes drin sehen.
Und dass, obwohl ich ganz sicher extrem verwöhnt und anspruchsvoll bin.
Bei F.E.A.R gab es auch so ein Geheule wegen den fressenden Soft Shadows.
Oder die unkomprimierten, speicherhungrigen Texturen bei Doom 3.
Auch bei The Witcher 2 die Sache mit dem Übersampling.
Das alles ist dann nur zum Teil belustigend- nämlich so lange, wie die Entwickler nicht genervt die Einstellungen locken und verschwinden lassen...
Falls einem 30 fps in Watch Dogs genügen, kann man sogar mit einer oberen Mittelklasse GPU noch höher gehen und alles abseits der Texturen auf Ultra stellen.

Scorpius
2014-06-07, 17:57:32
...und das wäre extrem unbefriedigend für mich. Da würde ich lieber warten bis ich neue Hardware habe anstatt Texturen, Objektdetails, Reflexionen und Effekte runterdrehen zu müssen um es spielen zu können. Das was du sagst mag vielleicht rational richtig sein, ich persönlich bin da aber leicht irrational:wink: Würde dann das entsprechende Spiel lieber später spielen, dann aber in "voller Pracht":D
Dem würd ich zustimmen wenn es im wirkliche Einschränkungen geht, d.h. um wirklich sichtbare Effekte die beim Spielen auffallen und nicht nur auf Screenshots. Denn ob jetzt nun ein Schatten statt 16 nun 64 Abstufungen hat fällt außer in Außnahmefällen keinem auf wenn man wirklich spielt und nicht nur die Umgebung begafft. Und für Screenshotporno ist die Framerates eh egal.
Find das eh auf jammern auf hohem Niveau und ist auch wenn es den meisten nicht gefällt schlichtweg ne neuzeitige Egosache weil jeder den Längsten haben will. Denn früher zu TNT/Geforce Zeiten kann ich mich nicht erinnern, dass sich da überhaupt und vorallem so offen drüber echauffiert wurde, dass man nur auf high spielen kann. Da war very high ein nice to have und fertig.

Hübie
2014-06-07, 18:27:40
Also bei mir gabs keine Epoche wo ich mich nicht darüber echauffiert habe alle Regler nach rechts schieben zu können ohne das es ruckelt. Wegen UT 2003 / Doom 3 wurde ne 9700 Pro gekauft. HL2 war Schuld am ersten Crossfire-Desaster und so weiter. Ist keine Ego-Sache. Eher (verschrobenes?) Anspruchdenken.

BlacKi
2014-06-07, 23:33:57
2gb war langezeit ausreichend. wenn sich jetzt jemand ne neue karte zulegt (das mache ich nicht an 2gb aus) dann werdens nicht nur 3gb. eher 4, dazu warte ich aber noch und hole mir nicht kurzfristig ne 280x oder 780...

da wartet man auf die next gen maxwell oder tonga die kommen eh mit 4gb.

wegen dem halben jahr hol ich mir keine last gen karte... da kann man auch mal runterdrehen kruzzeitig

Geldmann3
2014-06-08, 01:57:35
wegen dem halben jahr hol ich mir keine last gen karte... da kann man auch mal runterdrehen kruzzeitig
Sobald die neuen Karten auf dem Markt sind, sind sie auch schon nur noch "last gen" Karten. :wink:

Wenn du so denkst, wirst du für immer in der "last gen" hängen bleiben.

CD-LABS
2014-06-08, 09:06:57
Sobald die neuen Karten auf dem Markt sind, sind sie auch schon nur noch "last gen" Karten. :wink:

Wenn du so denkst, wirst du für immer in der "last gen" hängen bleiben.
Du übertreibst. Es ist zwar schlimm, dass die PS4 und XBOX One noch nach Release NextGen genannt werden (obwohl sie CurrentGen heißen müssten), deshalb muss man es aber bei den Grafikkarten nicht in andere Richtung übertreiben.
Wenn die neuen Karten auf dem Markt sind, dann sind die natürliche CurrentGen und nicht LastGen---wovon BlacKi hier redet sind doch CapeVerde, Pitcairn, Tahiti, GK 107, GK 106, GK 104 und GK 110 die seit dem Erscheinen vom GM 107 definitiv LastGen sind---und deshalb empfielt er davon nichts mehr zu kaufen!
+50% Effizienz sind ein ordentlicher Sprung, den man schon als Gen-Wechsel bezeichnen darf...

blaidd
2014-06-11, 20:37:25
Das alles ist noch soweit entfernt, da braucht man sich jetzt nicht den Kopf zerbrechen, um aktuell 4K möglichst sinnvoll einzusetzen, kommst du garnicht ohne MultiGPU aus, in Einzelfällen wie z.b. Wolfenstein reicht nichtmal das.
Ausgewogenheit darauf kommts an, 6GB bei SingleCard ist aktuell Oversized, da die GPU bereits lange vorher dicht macht. Warum sollte sich das nun schlagartig ändern? Seh ich nicht so.

Klar, im Moment seh ich da auch kein Problem (und noch keine breite UHD-Verbreitung). Aber wer sich zum jetzigen Zeitpunkt eine teuere GPU kauft, will die vielleicht dann auch zwei Jahre nutzen. Der momentane V-RAM-Hunger einiger Spiele (auch in 1080p) könnte man in dieser Hinsicht schon als kritisch betrachten, vor allem, wenn sich diese Entwicklung fortsetzt. Ich denke aber, die meisten - wenn nicht alle - Spiele-Entwickler werden darauf achten, dass sie die 3 GB (die zumindest unter uns anspruchsvollen PC-Spielern mit GTX 780, GTX 780 Ti und R9 280X recht weit verbreitet sind) nicht grob überschreiten. Trotzdem: Mit dem Erscheinen der jetzigen Konsolengeneration gab's da definitiv einen Sprung nach oben.

Gruß,
blaidd

Rente
2014-06-11, 20:46:16
Die Leute mit einer 780 Ti würde ich nicht unbedingt dazu zählen, 600€ in eine 3GB-Karte stecken doch wohl hauptsächlich Leute die auch bereit sind nach einem Jahr auf den Nachfolger/das Sidegrade zu wechseln. Blöd ist es da nur für Leute mit 2 Ti im SLi.

Aktuell stört es kaum (eigentlich nur bei Wolfenstein ohne Kompression), gegen Ende des Jahres/Anfang nächstes Jahr kann auf GM204 gewechselt werden (mit 4GB).

aufkrawall
2014-06-11, 20:50:24
Aktuell stört es kaum (eigentlich nur bei Wolfenstein ohne Kompression)
Ich habe es mit max. Details in 1440p gespielt und es ruckelte nie wegen des VRAMs. :confused:
Sehe eher Watchdogs als problematisch, wobei das auch mit genügend VRAM derzeit unschön läuft.

Rente
2014-06-11, 20:52:30
Ich habe es mit max. Details in 1440p gespielt und es ruckelte nie wegen des VRAMs. :confused:
Sehe eher Watchdogs als problematisch, wobei das auch mit genügend VRAM derzeit unschön läuft.
Vielleicht war es auch einfach ein Bug gestern, als ein Chapter geladen wurde ruckelt es erst einmal gut und gerne 1 Minute vor sich her bei mir, dann hab ich im Menü die Kompression angemacht und es lief wieder einwandfrei.
Ich hab nicht versucht es zu reproduzieren, Einstellungen waren eben nur 1080p und alles auf Anschlag.

aufkrawall
2014-06-11, 21:10:39
Ja, klingt sehr seltsam nach Bug. Das mit dem TK an/aus-Workaround liest man öfter.

blaidd
2014-06-11, 23:37:11
Vielleicht war es auch einfach ein Bug gestern, als ein Chapter geladen wurde ruckelt es erst einmal gut und gerne 1 Minute vor sich her bei mir, dann hab ich im Menü die Kompression angemacht und es lief wieder einwandfrei.
Ich hab nicht versucht es zu reproduzieren, Einstellungen waren eben nur 1080p und alles auf Anschlag.

Das ist glaube ich wirklich ein Bug. Das konnte ich noch nicht (absichtlich) reproduzieren, allerdings bin ich damit auch schon privat (4 GiByte) in Berührung gekommen. Hab die Kompression danach direkt wieder ausgemacht und alles war okay.

Allerdings finde ich die Entwicklung schon etwas auffällig, seit die neuen Konsolen halbwegs weit verbreitet sind. Vor nicht mal einem Jahr ist man gelyncht worden, wenn man suggeriert hat, dass (außerhalb vielleicht einem gemoddeten Skyrim) 2 GiByte in Zukunft knapp werden könnten. Ich bin zugegebenermaßen mit einem 1-GiByte-Crossfire-Setup selbst in die Situation gekommen (75 Fps+ im BF3-SP, Framedrop auf 10 oder so, dann wieder für eine Weile flüssig, dann gleiches Spiel von vorn), daher tendiere ich im Zweifelsfall wohl gern Richtung sicher - Schadet aber wohl auch nicht.

Nächste PCGH-Ausgabe werde ich das übrigens mal genauer beleuchten. Mit aktuellen RAM-Fressern wie Watch Dogs sowie Wolfenstein und aktuellen wie älteren (doppelt bestückten) GPUs.

Gruß,
blaidd

occ-kh@Mirko
2014-06-11, 23:49:54
Gab ja schon andere VRAM Fresser, einen Trend würde ich da jetzt nicht sehen, bin auf den Artikel gespannt. 2-3 Spiele machen jetzt nicht die Mehrzahl aus, wenn man auf "normalen" bzw weit verbreiteten Settings fährt. 2K oder 4K ist da mit High oder Ultra Qualis schon wieder was anderes.

Grey
2014-06-12, 22:27:34
Glaub ich nicht, musste ja alles in den Mäuschenspeicher der Last Gen Konsolen passen, und die Mühe das für den PC zu Optimieren haben sich nicht viele gemacht, deswegen kamen Spiele wie Borderlands 2 mit 512 MB Graka Speicher aus. PS4 und XBone haben Speicher ohne Ende. Bin mal gespannt wie sich das entwickelt aber selbst bei 1080p könnt es bald sehr eng werden, zummindest für die Besitzer von 3gB VRam Karten.

Schon mit einem Ende :D

Mal schauen. Ich glaube nicht, dass das Limit von 3GB bis Ende 2015 konstant überschritten sein wird und immer noch eher die minderheit von Titeln mehr fordern (@1920x1080 und dem Maximum, was das Spiel selber vorgibt. DS, 4K usw. mal außen vor gelassen)

Matrix316
2014-06-15, 00:02:17
Interessantes Review einer GTX 780 mit 6 GB und selbst in einem älteren Titel wie FC3 geht da ziemlich was...

http://www.hardocp.com/article/2014/06/11/asus_strix_gtx_780_oc_6gb_review_exclusive/7#.U5zF3rFkwhU

Oder auch Battlefield 4:
http://www.hardocp.com/article/2014/06/11/asus_strix_gtx_780_oc_6gb_review_exclusive/4#.U5zGPrFkwhU

Und natürlich Watchdogs:
http://www.hardocp.com/article/2014/06/11/asus_strix_gtx_780_oc_6gb_review_exclusive/3#.U5zGaLFkwhU


Obs erforderlich wird ist das eine, aber bringen tut mehr RAM eigentlich fast immer was, zumindest, wenn die Karte eine gewisse Grundschnelligkeit hat. Da die neue Konsolengeneration mehr VRAM hat, ist es eh fahrlässig am PC dabei zu sparen. Wir wissen ja, dass die Konsolenports nie so wirklich optimiert werden. Dann lieber den PC mit ausreichend Reserven (CPU Kerne + VRAM) ausstatten, statt Ruckeln ertragen zu müssen, weil was nicht gescheit angepasst ist.

aufkrawall
2014-06-15, 01:23:41
I
Oder auch Battlefield 4:
http://www.hardocp.com/article/2014/06/11/asus_strix_gtx_780_oc_6gb_review_exclusive/4#.U5zGPrFkwhU

Welche Stelle soll das sein? 3GB reichen hier dicke für 1440p 4xMSAA, was testen die denn da wieder zusammen...

-=Popeye=-
2014-06-15, 01:48:36
BF4 und 6GB?

Hmm... :rolleyes:

http://abload.de/thumb/bf4_2014_06_15_01_16_emsui.jpg (http://abload.de/image.php?img=bf4_2014_06_15_01_16_emsui.jpg) http://abload.de/thumb/bf4_2014_06_15_01_16_pgshl.jpg (http://abload.de/image.php?img=bf4_2014_06_15_01_16_pgshl.jpg) http://abload.de/thumb/bf4_2014_06_15_01_19_aes1i.jpg (http://abload.de/image.php?img=bf4_2014_06_15_01_19_aes1i.jpg) http://abload.de/thumb/bf4_2014_06_15_01_19_hjsj6.jpg (http://abload.de/image.php?img=bf4_2014_06_15_01_19_hjsj6.jpg)

Blaire
2014-06-15, 13:03:47
Gut bei 4K + Ultra und vollem Server 64 Spieler Shanghai-Conquest sieht das schon anders aus, da sind die 3GB zu wenig, es kommt zu deutlichen Stockern welche auf zuwenig VRAM zurückzuführen sind, die FPS sind dann allerdings so niedrig, das es auch schon wieder egal ist.
Selbst im SLI wo die FPS dann im spielbaren Bereichen lägen , würde ich immer noch freiwillig auf MSAA verzichten, weil es sich verzögert anfühlt, ohne MSAA die Steuerung viel genauer ist.

Geldmann3
2014-06-16, 03:53:44
Ha, spielt ihr etwa ohne 200% Resolution Scale? :wink: Da fängt das Spiel doch erst an Spaß zu machen.

Butterfly
2014-06-16, 12:14:08
Welche Stelle soll das sein? 3GB reichen hier dicke für 1440p 4xMSAA, was testen die denn da wieder zusammen...
Die GTX780 hat nur 3GB und bricht z.B. bei FarCry 3 in der Mitte vom Diagramm sehr stark ein.
BF4 und 6GB?

Hmm... :rolleyes:
http://abload.de/image.php?img=bf4_2014_06_15_01_16_pgshl.jpg

Motion Blur amount 0% und Weapon DOF aus?
Bei mir sind es mit Ultra, 90 FOV, 50% Blur und Weapon DOF ~2GiB pro Karte mit 1080p.

Naja irgendow muss ja die Leistung herkommen. :D
Von Sapphire gibt es doch eine 290x mit 8GiB, davon gibt es aber nur 250 Stück soweit ich weiß.

Matrix316
2014-06-16, 14:32:24
Wenn man sagt: "Aber mit Medium Details in 1280x1024 reichen 2 GB doch locker" - das ist nicht das Ziel der Sache. ;)

Es muss doch immer der Anspruch sein in der höchstmöglichen Auflösung mit allen Details spielen zu können und dank der neuen Konsolentechnik, kann das auf dem PC eben die Grafikkarten mit <= 3 GB RAM zum Schwitzen bringen.

Mal ganz abgesehen davon, dass selbst die Next Gen Konsolen eigentlich schon hoffnungslos veraltet sind, wenn man bei neuen Spielen schon um jeden 792p Auflösungspixel kämpfen muss, damit es halbwegs flüssig läuft. :ugly:

BlacKi
2014-06-16, 16:53:53
Wenn man sagt: "Aber mit Medium Details in 1280x1024 reichen 2 GB doch locker" - das ist nicht das Ziel der Sache. ;)

Es muss doch immer der Anspruch sein in der höchstmöglichen Auflösung mit allen Details spielen zu können und dank der neuen Konsolentechnik, kann das auf dem PC eben die Grafikkarten mit <= 3 GB RAM zum Schwitzen bringen.

ansichtssache. ich finde für meine 670 in normalem full hd reichen 2gb noch aus. wenn ich mir aber ne 770 ansehe mit 2gb dann reicht das nicht mehr optimal bemessen. ne normale 780 mit 3gb gehen auch noch wenn man normales full hd spielt. die nächste generation wird mit 4gb kommen im performance bereich, es muss ja noch 2-3 jahre reichen. meine 670 macht in 3 jahren keinen spass mehr, von der leistung her und von der speichermenge.

Blaire
2014-06-16, 20:50:41
Die GTX780 hat nur 3GB und bricht z.B. bei FarCry 3 in der Mitte vom Diagramm sehr stark ein.

VRAM-Engpass besteht bei den Settings jedenfalls nicht, knapp um die 2GB genehmigt sich das Game hier, da ist noch reichlich Luft... würde daher von einem anderen Problem ausgehn, vieleicht Messfehler oder Systembedingt

-=Popeye=-
2014-06-16, 21:07:20
Ha, spielt ihr etwa ohne 200% Resolution Scale? :wink: Da fängt das Spiel doch erst an Spaß zu machen.
Ähm... 2160p ist das selbe wie 1080p+200% RS nur schärfer.

edit: wenn man die anderen Matschfilter wie Post Process Quality und Post AA ausschaltet kommt auch noch das eine oder andere FPS bei raus.

aufkrawall
2014-06-16, 21:15:42
MotionBlur und DoF werden auch nicht Gigabytes vollknallen.

Butterfly
2014-06-16, 23:01:39
Mal ganz abgesehen davon, dass selbst die Next Gen Konsolen eigentlich schon hoffnungslos veraltet sind, wenn man bei neuen Spielen schon um jeden 792p Auflösungspixel kämpfen muss, damit es halbwegs flüssig läuft. :ugly:
Also bisher kenn ich keine CPU die physikalisch direkt auf GDDR5 zugreifen kann, denn die PS4 bietet das.
Ich hab auch schon gelesen, dass die PS4 mit einer höheren Auflösung die gleichen FPS erreicht wie die neue Xbox.
VRAM-Engpass besteht bei den Settings jedenfalls nicht, knapp um die 2GB genehmigt sich das Game hier, da ist noch reichlich Luft... würde daher von einem anderen Problem ausgehn, vieleicht Messfehler oder Systembedingt
Das nicht, aber wenn mehr VRAM vorhanden ist, kann auch mehr gepuffert werden.
Es kann aber trotzdem auch am System liegen, die AMD haben zumindest ein breitere Anbindung.
512Bit gab es bei nvidia mit der GTX285, bis heute gibt es nur noch 384Bit. :mad:
MotionBlur und DoF werden auch nicht Gigabytes vollknallen.
Nein das natürlich nicht, aber 200MiB mehr gegenüber 1440p finde ich schon "viel".
Zumal ich bei FarCry 3 mit 1080p ~1.4GiB pro Karte habe.
So richtige hänger habe ich nur bei Screenshots machen im .png Format. :)

Matrix316
2014-06-17, 10:31:10
Also bisher kenn ich keine CPU die physikalisch direkt auf GDDR5 zugreifen kann, denn die PS4 bietet das.
Ich hab auch schon gelesen, dass die PS4 mit einer höheren Auflösung die gleichen FPS erreicht wie die neue Xbox.[...]
Da hat man dann statt 720er die 900er Auflösung, aber FullHD kriegt man nicht immer und das ist ja für PC Maßstäbe eigentlich schon eine relativ niedrige Auflösung, oder? Meinen ersten 1920x1200 Monitor habe ich 2008 (!) gekauft. Das war vor sechs Jahren und das war schon mehr als Full HD. Jedes Handy hat heute Full HD. Da kann ich ja wohl erwarten, dass die PC Hardware (und auch Konsolenhardware) besser ist.

N0Thing
2014-06-17, 12:44:17
Es kann aber trotzdem auch am System liegen, die AMD haben zumindest ein breitere Anbindung.
512Bit gab es bei nvidia mit der GTX285, bis heute gibt es nur noch 384Bit. :mad:

Es liegt nicht allein an der Anbindung, erst zusammen mit den Speicherchips ergibt sich die Speicherbandbreite. Kleines Interface mit schnellen Chips hat keinen Nachteil gegen ein breites Interface gepaart mit langsameren Chips, wenn beide Lösungen auf die gleiche Bandbreite kommen.

Kriton
2014-06-17, 14:06:32
Da hat man dann statt 720er die 900er Auflösung, aber FullHD kriegt man nicht immer und das ist ja für PC Maßstäbe eigentlich schon eine relativ niedrige Auflösung, oder? Meinen ersten 1920x1200 Monitor habe ich 2008 (!) gekauft. Das war vor sechs Jahren und das war schon mehr als Full HD. Jedes Handy hat heute Full HD. Da kann ich ja wohl erwarten, dass die PC Hardware (und auch Konsolenhardware) besser ist.

Ich laufe hier noch mit 1680x1050 - habe das seinerzeit auch gerade genommen um die Grafikkarte prinzipiell länger nutzen zu können.

Matrix316
2014-06-18, 13:11:09
Ich laufe hier noch mit 1680x1050 - habe das seinerzeit auch gerade genommen um die Grafikkarte prinzipiell länger nutzen zu können.
Das ist doch der falsche Ansatz. ;)

Da kannste gleich sagen: Ich spiel nur mit minimalen Details, damit meine 8 Jahre alte Kiste das noch packt. :freak:

Die PC Hardware soll sich einfach weiter entwickeln, damit man 4K in Ultra Details auch flüssig mit einer Single Karte spielen kann. Wir haben 2014 und nicht 2004. ;)

Kriton
2014-06-18, 22:59:29
Na ja, ich habe den seinerzeit mit einer Radeon HD 4850 gekauft und wollte nicht so schnell upgraden.

Matrix316
2014-06-20, 11:41:13
Zu lange an der alten HW festhalten ist auch nicht gut, weil man dann zu viel Wertverlust hat.

Selbst mit einer 5870 kann man heute hohe Details und höhere Auflösungen vergessen.

Was sich aber z.B. lohnt ist SLI mit zwei GTX 760 mit 4 GB RAM. Die sind zum Teil viel besser als eine 780TI mit nur 3 GB.

fondness
2014-06-20, 11:53:20
Was sich aber z.B. lohnt ist SLI mit zwei GTX 760 mit 4 GB RAM. Die sind zum Teil viel besser als eine 780TI mit nur 3 GB.

Wo es immer mehr Spiele gibt die mit AFR Probleme machen? Nicht wirklich. Eine Single-GPU ist immer vorzuziehen.

Kriton
2014-06-20, 14:01:45
Zu lange an der alten HW festhalten ist auch nicht gut, weil man dann zu viel Wertverlust hat.

Selbst mit einer 5870 kann man heute hohe Details und höhere Auflösungen vergessen.

Was sich aber z.B. lohnt ist SLI mit zwei GTX 760 mit 4 GB RAM. Die sind zum Teil viel besser als eine 780TI mit nur 3 GB.

Wenn man sie lange genug nutzt ist der "Wertverlust" irrelevant. Meine 4850 ist abgeraucht. Die 460 meiner Frau wird auch niemand mehr kaufen wenn ich die austausche ;-)
Ich bezweifel auch, dass ich meinen alten Q6600 noch loswerde.

Matrix316
2014-06-20, 17:14:06
Wenn man sie lange genug nutzt ist der "Wertverlust" irrelevant. Meine 4850 ist abgeraucht. Die 460 meiner Frau wird auch niemand mehr kaufen wenn ich die austausche ;-)
Ich bezweifel auch, dass ich meinen alten Q6600 noch loswerde.
Dafür musste dir dann einen komplett neuen PC dann kaufen, während, wenn du früher gewechselst hättest, der Aufpreis nicht ganz so hoch gewesen wäre, aber das ist ein anderes Thema. ;)

Ich finde nur schon, dass 4 GB VRam heute schon erforderlich sind, gerade im Hinblick auf schlampige Konsolenumsetzungen. Lieber z.B. eine 780 mit 6 GB als eine 780TI mit nur 3 GB.

Geldmann3
2014-06-20, 20:01:04
Ich finde nur schon, dass 4 GB VRam heute schon erforderlich sind, gerade im Hinblick auf schlampige Konsolenumsetzungen. Lieber z.B. eine 780 mit 6 GB als eine 780TI mit nur 3 GB.
Seh' ich genauso und zwar schon seit etwa einem Jahr. Die in Relation zu den Anforderungen sinkende GPU Leistung ist zudem ein schleichender Prozess, den man sogar mit Multi GPU noch bedingt aushebeln könnte. Doch der VRam ist eine Wand, gegen die man plötzlich stößt.

Ich greife immer eher zu mehr Vram, es sei denn, man möchte eh jährlich eine neue Grafikkarte kaufen. Vor einem dreiviertel Jahr, wollte ich mir einen PC zusammenstellen, da wurden mir noch Grafikkarten mit 2GB Vram empfohlen. GTX 780 2GB etc. 2GB Vram würde ja quasi noch jahrelang für alles reichen. Ich bin froh, dass ich im Endeffekt zur R9 290 gegriffen habe, denn die 4GB VRam sind bei mir schon stark in Nutzung. Selbst der PCSX2 Emulator kann diese via downsampling schon spielend ausnutzen.

Selbes bei meinem alten PC mit 2 GB Vram. Da hatte ich eine 6990 2x2GB verbaut, doch mir wurden vor 2,5 Jahren noch 2 6970 mit 1GB empfohlen, weil 2GB ja angeblich nie ausgelastet würden. Bin auch hier wieder froh, zu den "mehr" Vram gegriffen zu haben, sonst könnte ich mit 1GB Vram jetzt alle neueren Games auf diesem PC Quasi vergessen.

Ich gehe davon aus, dass 2016 4GB VRam vergleichbar mit 2GB Vram heute sind. Wer daher etwas länger Spaß mit seinem Rechner haben möchte sollte in der Tat schon heute zu 4GB Vram greifen, um hier nicht schon beim Kauf am Limit zu sein, wo sich der Grafikmarkt doch selbst heute noch so schnell weiterentwickelt.

Natürlich lohnt es sich nur, wenn man sich eh im High End Bereich herumtreibt. Midrange oder gar Low End Lösungen brauchen keine 4GB Vram, da wird sowieso immer durch die GPU limitiert.

Hübie
2014-06-20, 22:21:55
Wo es immer mehr Spiele gibt die mit AFR Probleme machen? Nicht wirklich. Eine Single-GPU ist immer vorzuziehen.

Kann ich (leider) weitgehend bestätigen. Das wird von Spiel zu Spiel schlimmer und obwohl ich eigentlich schon letztes Mal (Fermi) mit mGPU Schluß machen wollte falle ich immer wieder drauf rein :rolleyes::freak:
Das beste ist entweder ne 780 6GB oder ne Titan (Black) wenns nVidia sein muss. Ansonsten einfach die R9 290 (X) und fertig. Die gibts ja mittlerweile mit leisen Kühlern.

Geldmann3
2014-06-25, 00:40:28
Kann ich (leider) weitgehend bestätigen. Das wird von Spiel zu Spiel schlimmer und obwohl ich eigentlich schon letztes Mal (Fermi) mit mGPU Schluß machen wollte falle ich immer wieder drauf rein
Das beste ist entweder ne 780 6GB oder ne Titan (Black) wenns nVidia sein muss. Ansonsten einfach die R9 290 (X) und fertig. Die gibts ja mittlerweile mit leisen Kühlern.
Da stimme ich vollends zu. Wobei auch die 4GB Versionen der 780 (Ti) noch empfehlenswert sind. Habe ja auch 2 R9 290 und zuvor eine HD 6990. Wenn man das Maximum an Leistung haben möchte macht Multi GPU unter Umständen zwar schon Sinn, doch leider gibt es in letzter Zeit scheinbar immer mehr Entwickler die auf MGPU kacken, obwohl es IMHO immer wichtiger wird. Gerade heute wäre es (theoretisch) ziemlich günstig, 2 GPU's zu kombinieren um richtig Power zu bekommen.


Letztens habe ich eine Runde Assassins Creed Black Flag gezockt, doch funktioniert CF scheinbar gar nicht von Haus aus. Und wenn ich es über den Treiber "erzwinge", scheint es zwar zu arbeiten, doch das Spiel läuft total inkonsistent, sodass ich mich zum Schluss doch entschieden habe das Game nur mit einer einzelnen 290 zu zocken.
(Alles Max, doch nur in 1680x1050px, weil sonst die Leistung nicht mehr reicht) Schon traurig und jämmerlich optimiert, dass ich mit einem aktuellen High End- MultiGPU Gespann nicht in FullHD auf Max zocken kann. Vor allem verstehe ich nicht, warum man das nicht ordentlich implementiert hat. Viele andere Spiele schaffen das ja auch spielend. Tomb Raider und Metro Last Light beispielsweise skalieren bei mir mit Crossfire extrem gut und das Spiel fühlt sich dort auch überhaupt nicht nach MGPU an. Warum schaffen das andere nicht?

Hübie
2014-06-25, 00:50:06
Ja gut. Das sind teils wirtschaftliche Entscheidungen, teils marktpolitische Zwänge.
Im Falle von Assassins Creed Black Flag lehne ich mich mal soweit aus dem Fenster dass ich sage: nVidia will damit gut dastehen bzw. die Konkurrenz denunzieren. Mit SLi läuft das Spiel nämlich einwandfrei von A bis Z. Das soll jetzt kein Ätschie-Bätschie sein sondern dir zeigen dass es nicht an der Grafikengine an sich liegt (so wie bei Company of Heroes 2).
Aber mal als Tipp: exe-renaming ist bei CFX immer noch die beste Methode, oder? ;) Habe mich von der X800 bis HD4000 durch Crossfire gekämpft.

aufkrawall
2014-06-27, 16:30:09
Für Garden Warfare werden wieder 3GB empfohlen.

Allerdings gibt es weder MSAA, noch SSAA. Davon abgesehen ist der allgemeine VRAM-Verbrauch wesentlich geringer als bei BF4.
Es verbraucht hier in 1440p ~1,3GB und die Grafik ist hübsch dabei.

Knuddelbearli
2014-07-02, 16:56:20
was meint ihr wird es langfristig einen größeren unterschied machen ob 3 oder 4gb?

1,5 vs 2gb macht ja aktuell doch einigen unterschied aus

mit Wakü OC ist eine GTX 780 B1 ca gleichauf mit eienr 290X schwere Entscheidung...
NV bekommt man halt einfacher Referenzdesigns bei AMD wirds schon schwer

Natürlich kann keiner Hellsehen und die meisten NV Fans werden wohl sagen 3gb reichen und die meisten AMD Fans 3gb reichen nicht.

Will aber trotzdem einfach mal paar Meinungen, bzw begründete Spekulationen

aufkrawall
2014-07-02, 17:02:30
Kommt auf die Engine an.
Technischer Schrott wie Watch Dogs kommt leider immer wieder vor. 4GB sind in dem Fall natürlich sicherer. Kann aber auch passieren, dass selbst die nicht reichen, um Stocker zu vermeiden.

fondness
2014-07-02, 17:05:27
Viele AMD Karten haben nach wie vor Ref-Design, auch wenn ein anderer Kühler drauf steckt, das nur nebenbei.

Raff
2014-07-02, 17:11:51
was meint ihr wird es langfristig einen größeren unterschied machen ob 3 oder 4gb?

Zunächst solltest du "langfristig" definieren. :)

MfG,
Raff

occ-kh@Mirko
2014-07-02, 17:56:16
Manche Spiele müllen auch mehr als 3-4GB VRam voll, davon sollte man aber nicht als allgemeinen Standard ausgehen. 3GB sollten zukunftsorientiert aber schon sein, hoffe es geht schneller als bei WD, ein Spiel zukünftig eben auch auf die PC Architektur zu portieren.

Mir scheint, als wüssten die Entwickler nicht Bescheid was derzeit im Markt flächendeckend Standard ist, 2GB...

Knuddelbearli
2014-07-02, 18:59:17
Zunächst solltest du "langfristig" definieren. :)

MfG,
Raff


Ich hab immer noch eine GTX 480 im PC reicht das? ^^

Hübie
2014-07-02, 19:11:01
was meint ihr wird es langfristig einen größeren unterschied machen ob 3 oder 4gb?

1,5 vs 2gb macht ja aktuell doch einigen unterschied aus

mit Wakü OC ist eine GTX 780 B1 ca gleichauf mit eienr 290X schwere Entscheidung...
NV bekommt man halt einfacher Referenzdesigns bei AMD wirds schon schwer

Natürlich kann keiner Hellsehen und die meisten NV Fans werden wohl sagen 3gb reichen und die meisten AMD Fans 3gb reichen nicht.

Will aber trotzdem einfach mal paar Meinungen, bzw begründete Spekulationen

Also es kommt hier höchst selten vor dass deutlich über 3000 MB gefüllt werden. Ich nutze alles was geht (DS, SSAA & Texturmods/-tweaks). Also sind 3 GB ausreichend. Aber zukunftsorientiert würde ich gleich zu 4 GB greifen. Die 290X kann man auch unter Wasser setzen ;);)
Ps: 780 gibt's (überteuert) mit 6 GB...

aufkrawall
2014-07-02, 19:34:22
In vier Jahren ist es nicht unwahrscheinlich, dass auch 4GB zu wenig sind.
Mal abgesehen davon, dass dann 4k nichts Unübliches mehr ist.

exxo
2014-07-02, 20:12:27
Wenn ich das richtig beobachtet habe, gibt es bei vom Preis und Rechenleistung vergleichbaren Karten von AMD idr mehr VRAM als bei
nVidia.

Zum Beispiel hatte damals die Radeon 6950 2GB und die vergleichbare 560ti nur 1GB.

Auf den ersten Blick sind Karten von nVidia somit eher outdated als AMD Karten. Zu blöd ist es nur wenn die Verfügbare Rechenleistung schneller ausgenutzt wird als das VRAM.

Ich habe die 6950 3 Jahre genutzt, alles bis auf Crysis 3 und Metro Last Light lief immer super, insbesondere Skyrim mit Mods. Kann ein Besitzer einer 560ti berichten wie sich seine Karte in den letzten Jahren geschlagen hat?

Raff
2014-07-02, 20:50:47
Ich hab immer noch eine GTX 480 im PC reicht das? ^^

Ja – lass die Finger von 3-GiB-Krüppeln. :D

MfG,
Raff

Knuddelbearli
2014-07-03, 20:37:15
danke Raff das hat jetzt für nen guten Lacher gesorgt ^^

naja eigentlich wollte ich auf 20nm warten aber die WixXxer lassen sich ja Zeit bis zum Sankt Nimmerlandstag ...

Ravenhearth
2014-07-03, 20:43:37
Imho braucht man nicht bis 20nm zu warten. Maxwell dürfte - wie am GM107 zu sehen ist - trotz 28nm-Fertigung eine großere Steigerung der Leistung/Effizienz mitbringen. Das liegt schon im Bereich eines Shrinks und wohl über (!) dem, was 20nm allein bringen wird. Denn der Schritt auf 20nm wird ein gutes Stück kleiner als jener auf 28nm.

Knuddelbearli
2014-07-03, 20:51:57
naja die vorteile durch maxwell werden ja auch nach 20nm mitgenommen ;-)

und sprach ja von der Vergangenheit.

Rohleistung der 480 ist nichtmal so mies aber der VRAM zwackt bei fast jedem AAA titel inzwischen.

Atma
2014-09-26, 00:42:54
Bethesda empfiehlt 4GB VRAM für The Evil Within

http://de.bethblog.com/2014/09/25/die-voraussetzungen-fuer-the-evil-within/

idTech 5 wirft mal wieder seine Schatten voraus ;D. Zum Glück wird diese lächerliche Engine bald begraben.

derguru
2014-09-26, 00:58:14
ich freu mich auf das spiel aber 4k ist nicht mehr drin wenn 4gb empfohlen werden für vermutliche 1080p^^

Hübie
2014-09-26, 07:15:41
Da fühlen sich Ti-Besitzer doch irgendwie in den Arsch gekniffen. Ich glaube dass bei Wolfenstein auch 4 GB empfohlen wurden, aber es lief auf 3-GB-Karten ebenfalls einwandfrei. Also warten wir mal.

ShinyMcShine
2014-09-26, 08:25:26
So langsam bin ich glücklich mit meiner Entscheidung, die GTX770 letztes Jahr mit 4GB VRAM gekauft zu haben.

VG
Shiny

Wake
2014-09-26, 08:28:42
Wer meint The Evil Within braucht viel RAM - Shadow of Mordor auf Ultra richtet seine Grüße aus ;).
http://i.imgur.com/qyyKHKr.jpg

ShinyMcShine
2014-09-26, 10:04:07
Wer meint The Evil Within braucht viel RAM - Shadow of Mordor auf Ultra richtet seine Grüße aus ;).
http://i.imgur.com/qyyKHKr.jpg

:eek:

derguru
2014-09-26, 11:39:13
zu releasezeiten wurde die Titan mit ihren 6gb belächelt aber so langsam kommen immer mehr spiele die davon profitieren, heftig was mordor bei 1080p an RAM verbrät.:eek:

aufkrawall
2014-09-26, 11:46:35
Das "or greater" bei den 6GB verheißt wohl auch nichts Gutes. :D
Bestimmt wieder so ne Vergewaltigung der uralt LighTech-Engine...

Hübie
2014-09-26, 12:14:35
Lithtech ist afair der Name... *hust*
Edit: debütierte glaub ich Anno 1998 mit shogo mobile armor division oder dem ersten Chrome. Erinnere mich nur dunkel daran. Kam später auch für No one lives forever zum Einsatz.

dildo4u
2014-09-26, 12:31:52
Wer meint The Evil Within braucht viel RAM - Shadow of Mordor auf Ultra richtet seine Grüße aus ;).
http://i.imgur.com/qyyKHKr.jpg
Specs für Mordor die Ultra Texturen scheinen 15GB zu belegen.

Systemvoraussetzungen

Minimum:
OS: 64-bit: Vista, Win 7, Win 8
Processor: Intel Core i5-750, 2.67 GHz | AMD Phenom II X4 965, 3.4 GHz
Memory: 3 GB RAM
Graphics: NVIDIA GeForce GTX 460 | AMD Radeon HD 5850
DirectX: Version 11
Network: Broadband Internet connection
Hard Drive: 25 GB available space

Recommended:
OS: 64-bit: Win 7, Win 8
Processor: Intel Core i7-3770, 3.4 GHz | AMD FX-8350, 4.0 GHz
Memory: 8 GB RAM
Graphics: NVIDIA GeForce GTX 660 | AMD Radeon HD 7950
DirectX: Version 11
Network: Broadband Internet connection
Hard Drive: 40 GB available space

aufkrawall
2014-09-26, 12:32:20
Typo. :frown:

Ex3cut3r
2014-09-27, 04:37:49
Evil Within, dieses Herr der Ringe Game, Ryse, Wolfenstein, Watch Dogs, ich glaube die 970/980 Käufer sollten lieber auf die 8GB Vram Versionen warten. :devil:

Wenn so weiter geht wird GTA 5 8GB VRAM benötigen :crazy:

akuji13
2014-09-27, 10:29:15
Auch wenn ich Titans habe sehe ich das nicht so kritisch.

Schon bei Fallout 3 kann ich mich an texture packs erinnern die die Karten (über)forderten.

Und der Unterschied war so minimal das selbst ich als Texture-Nerd den Unterschied mit der Lupe suchen musste.

Dank luma sharpen relativiert sich das auch für mich.

Gynoug MD
2014-09-27, 14:36:41
Bethesda empfiehlt 4GB VRAM für The Evil Within

http://de.bethblog.com/2014/09/25/die-voraussetzungen-fuer-the-evil-within/

idTech 5 wirft mal wieder seine Schatten voraus ;D. Zum Glück wird diese lächerliche Engine bald begraben.

Ich finde die Engine gar nicht so übel, aber, daß selbst bei einer GTX970 4GB noch immer eine halbe Sekunde Texturen geladen werden müssen, na ja...:rolleyes:

Pfuscher
2014-09-27, 15:58:59
Schon bei Fallout 3 kann ich mich an texture packs erinnern die die Karten (über)forderten.
Und der Unterschied war so minimal das selbst ich als Texture-Nerd den Unterschied mit der Lupe suchen musste.


@Akuji13: stop posting
http://static-2.nexusmods.com/15/mods/120/images/12056-4-1270558151.jpg
Warum sich eine Titan kaufen, wenn man das Geld eigentlich für eine Brille bräuchte.

Bei Shadows of Mordor sieht das gameplay aus als sollten 2 gb Vram mehr als ausreichen.
Wie schon hunderte vor mir unkten, da hat Nvidia wohl gezahlt, damit kein bischen optimiert wird.
Das soll dann in 4k 12gb vram brauchen oder was? Wird dann jede Textur 7 mal geladen?
Da sieht doch Crysis1 mal wieder besser aus

Dorn
2014-09-27, 18:27:37
Also irgendwie kom ich mir mit meiner 680GTX mit 2GB VRAM doof vor. Leistung hat die Grafikkarte noch mehr als genügend. Die Entwickler könnten ruhig mal besser optimieren, achne halt die neuen Konsolen sind ja draußen.

Raff
2014-09-27, 18:33:56
Nah. Ernsthaft: Die Texturqualität in Spielen stagniert seit mindestens fünf Jahren, es wird einfach Zeit für einen Sprung – die neuen Konsolen machen's möglich und sorgen anscheinend tatsächlich dafür, dass wir Fortschritte sehen. Endlich! Bin gespannt, was meine alte, aber arschtretende Titan zu den Ryse- und Mordor (http://www.pcgameshardware.de/Mittelerde-Mordors-Schatten-PC-258069/News/Mittelerde-Mordors-Schatten-Systemanforderungen-1116635/)-Texturen sagt. :naughty:

MfG,
Raff

dildo4u
2014-09-27, 18:38:44
Jup deine Titan entpuppt sich als die ewige Grafikkarte,ich kapier das Meckern auch nicht nie kann man den PCler recht machen.Crysis 2 bäh Konsolen port zu wenige Optionen jetzt gibt's extra PC Texturen und es ist wieder nicht recht.