PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Diskussion zur GTX970-Problematik: Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20] 21 22 23 24

The_Invisible
2015-05-27, 22:29:47
Wie oft denn noch... ES HAT eine Auswirkung siehe meine Links unten. Falls das Spiel nachgepatched wurde wegen der GTX970 mag das ja schön sein aber ist kein allheilbringer! Nebenbei sehe ich das Stuttering, auch wenn es gering ist in Shadow of Mordor. Wird halt teilweise unterdrückt durch das Streaming

Die Tests sind halt auch schon älter, vielleicht wurde was im Treiber optimiert, außerdem wurde ja explizit gesagt das über die 3,5gb belegt wurden laut captain_drink. Ich habe auch Wolfenstein + Addon in 1440p gespielt, Belegung manchmal auch längere Zeit über 3,5gb, je nach szene sogar die vollen 4GB und es gab kein zusäztliches Stuttering, das würde man ja gerade bei einem shooter stark bemerken.

Ich würde mich jedenfalls auch mal freuen wenn mir wer eine szene geben/sagen würde wo ich das mal mit eigenen augen sehen könnte, aber bitte nicht irgendwas was sowieso stuttert bzw. im unspielbaren bereich ist. Oder wie Witcher3 wo es random Frametimes gibt :freak:

aufkrawall
2015-05-27, 22:42:31
https://www.youtube.com/watch?v=fFbhTuAPm8E

Bei Dying Light in 4k wird das 2. Segment nicht genutzt. Kein seltsames Verhalten feststellbar.

Das kann man mit so kurzen Videos überhaupt nicht belegen, häufig wird der VRAM erst über mehrere Minuten vollgepuffert.

captain_drink
2015-05-28, 14:13:50
Das kann man mit so kurzen Videos überhaupt nicht belegen, häufig wird der VRAM erst über mehrere Minuten vollgepuffert.

Guter Einwand. Das Beste, was ich in der Hinsicht finden konnte, war das hier: https://www.youtube.com/watch?v=L52tnkSRGlc

VRAM-Belegung blieb dort konstant <3,5 GB.

aufkrawall
2015-05-28, 14:48:50
Das war nicht mit maximalen Details.
Er hier spielt in 1080p mit max Details auf einer 970 und es gibt deutlich Stocker zu sehen:
https://www.youtube.com/watch?v=ADssY5m-NB4

Zum Beispiel bei Beginn der Cutscene mit dem Doc und während dieser (typisch, weil dafür mehr auf einmal in den VRAM geladen werden muss), aber auch einfach so allgemein stottert es während des normalen Spielens gerne mal.

-> Frankenstein-Karte.

captain_drink
2015-05-28, 15:10:35
Dying Light ist da leider auch nicht wirklich aussagekräftig, wg. dem typischen Chome-Engine-Stuttering.

Hier Stuttering auf einer 970: https://www.youtube.com/watch?v=L52tnkSRGlc

Und hier auf einer 780 Ti: https://www.youtube.com/watch?v=AGvf2F4mBRg

Dasselbe kenne ich auch von Dead Island auf GK104. Was ist nun vom VRAM abhängig, was nicht?

Auf einer 290 hakt es zwischendrin ebenfalls in 970-Manier: https://www.youtube.com/watch?v=lOGTMXo6duM

kruemelmonster
2015-05-28, 15:32:13
Dasselbe kenne ich auch von Dead Island auf GK104. Was ist nun vom VRAM abhängig, was nicht?

Allein die Tatsache dass man Fragen wie diese stellen kann, oder die Frage in welchem Segment der Framebuffer eines weiteren Monitors landet, macht die 970 in meinen Augen absolut indiskutabel.

Wie ich schonmal schrieb, die Karte ist wie ein Rennpferd mit einer Prothese an einem Bein vom Knie abwärts. In einem Rennen würde ich mein Geld auf diesen Gaul nicht verwetten.

Es gab mal ein schönes Vergleichsvideo eines Youtubers zwischen iirc 770 4 GB und 970 in Shadow of Mordor, und da hatte die 970 gespiked wie blöde. Finde es nur leider grad nicht...

-/\-CruNcher-/\-
2015-05-28, 15:41:19
Dying Light ist da leider auch nicht wirklich aussagekräftig, wg. dem typischen Chome-Engine-Stuttering.

Hier Stuttering auf einer 970: https://www.youtube.com/watch?v=L52tnkSRGlc

Und hier auf einer 780 Ti: https://www.youtube.com/watch?v=AGvf2F4mBRg

Dasselbe kenne ich auch von Dead Island auf GK104. Was ist nun vom VRAM abhängig, was nicht?

Auf einer 290 hakt es zwischendrin ebenfalls in 970-Manier: https://www.youtube.com/watch?v=lOGTMXo6duM

Die Herkunft von Microstuttering aus Videos zu analysieren ist vergebene lebensmühe es gibt einfach zu viele Variabeln unter Windows die es hervorufen können.

Allein die Tatsache dass man Fragen wie diese stellen kann, oder die Frage in welchem Segment der Framebuffer eines weiteren Monitors landet, macht die 970 in meinen Augen absolut indiskutabel.

Wie ich schonmal schrieb, die Karte ist wie ein Rennpferd mit einer Prothese an einem Bein vom Knie abwärts. In einem Rennen würde ich mein Geld auf diesen Gaul nicht verwetten.

Es gab mal ein schönes Vergleichsvideo eines Youtubers zwischen iirc 770 4 GB und 970 in Shadow of Mordor, und da hatte die 970 gespiked wie blöde. Finde es nur leider grad nicht...

Das Problem hast du numal mit einer ineffizienten Engine die sich so gut wie nie weiterenwickelt hat ;)

kruemelmonster
2015-05-28, 16:04:24
Das Problem hast du numal mit einer ineffizienten Engine die sich so gut wie nie weiterenwickelt hat ;)

Und deine Erklärung warum die 770 4 GB wesentlich besser läuft ist dann was?

captain_drink
2015-05-28, 16:13:08
Die Herkunft von Microstuttering aus Videos zu analysieren ist vergebene lebensmühe es gibt einfach zu viele Variabeln unter Windows die es hervorufen können.

Am aussagekräftigsten sind noch Videos mit einem Echtzeitgraphen: https://www.youtube.com/watch?v=CpmuXd52Ce0

Das 970 SLI spikt dort in 4k am häufigsten, wobei auch der 980 anscheinend vereinzelt der VRAM ausgeht, zumindest in den entsprechenden Spielen. TX liefert dagegen sehr stabile Framerates.

The_Invisible
2015-05-28, 16:16:47
Und deine Erklärung warum die 770 4 GB wesentlich besser läuft ist dann was?

wo ist das video bzw. wie kann man das nachstellen bzw. welche detailstufe und wurden gleiche systeme verwendet?

ich glaube langsam nichts mehr wenn ich es nicht mit eigenen augen gesehen habe bzw. shadow of mordor ist sowieso so ein dauerstuttering kandidat

-/\-CruNcher-/\-
2015-05-28, 16:34:09
Am aussagekräftigsten sind noch Videos mit einem Echtzeitgraphen: https://www.youtube.com/watch?v=CpmuXd52Ce0

Das 970 SLI spikt dort in 4k am häufigsten, wobei auch der 980 anscheinend vereinzelt der VRAM ausgeht, zumindest in den entsprechenden Spielen. TX liefert dagegen sehr stabile Framerates.

Das größte Problem daran das man leider nicht die getesteten Visuellen resultate (outputs) auch mit Displayed sondern nur den Graphen an sich und ein Generisches Video Resultat einer Konfiguration wo du nichtmal weist von welcher eigentlich ;)
Das kreide ich Digitalfoundry immer noch an das man das nicht ändert und verstehen tu ich es absolut nicht, kanns einfach nicht nachvolziehen was das soll es führt das ganze teils ad absordum ;)

Wenn ich das ganze doch wirklich nachvolziehbar machen will was für einen impact die Frametime verluste wirklich haben dann Zeig ich doch auch jedes der Resultate im Vergleich, das passiert hier aber nicht es wird immer nur ein generisches Resultat präsentiert.

aufkrawall
2015-05-28, 16:45:14
Dying Light ist da leider auch nicht wirklich aussagekräftig, wg. dem typischen Chome-Engine-Stuttering.

Da stottert normalerweise fast nichts. Ich habe es auf einer 290X und 980 so gut wie ohne jedes Stottern gespielt.


Und hier auf einer 780 Ti: https://www.youtube.com/watch?v=AGvf2F4mBRg

Es mag stottern (warum auch immer), aber die fps brechen nicht ein wie mit der 970.


Dasselbe kenne ich auch von Dead Island auf GK104. Was ist nun vom VRAM abhängig, was nicht?

Das ist ja nun überhaupt nicht mehr vergleichbar...


Auf einer 290 hakt es zwischendrin ebenfalls in 970-Manier: https://www.youtube.com/watch?v=lOGTMXo6duM
Das ist nicht mit ShadowPlay aufgenommen. Wer weiß, was dort die genutzte Capture-Software verursacht.
Das ist auch nicht vergleichbar und hier hat es mit der 290X, wie gesagt, nicht gestottert.
Es hat auch mit der von mir verlinkten 970 nicht gestottert, sondern die fps sind kurz eingebrochen. Das ist etwas anderes, als wenn (regelmäßig) mal 1-2 Frames bei der Anzeigedauer herausstechen.

captain_drink
2015-05-28, 17:01:45
Hattest du mit der 970 noch Dying Light getestet? Das wäre im Direktvergleich dann natürlich optimal gewesen.

aufkrawall
2015-05-28, 17:04:20
Gute Frage. Ich glaube, ich hatte nur das Training auf der 970 gespielt, wo man noch nicht in der offenen Welt herumläuft (und dementsprechend die VRAM-Nutzung dort erst ansteigt).

Vielleicht auch nicht einmal das, ich hatte die Karte bereits Ende Januar verkauft (da erschien Dying Light):
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560533

TobiWahnKenobi
2015-05-29, 14:00:29
http://abload.de/thumb/dyinglightgame_2015_0zeql2.jpg (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10636359&postcount=4736)

2015-05-28 19:30:53 - DyingLightGame (1440p)
Frames: 41149 - Time: 712562ms - Avg: 57.748 - Min: 29 - Max: 123

2015-05-28 19:43:42 - DyingLightGame (1080p)
Frames: 68476 - Time: 716062ms - Avg: 95.629 - Min: 62 - Max: 178


(..)

mfg
tobi

aufkrawall
2015-05-29, 14:18:37
Das Spiel hatte einen Patch für die 970 bekommen.

Edit: Mir fällt gerade auf, dass ich auch selber von "stottern" sprach. Ausschließlich "stocken" triffts natürlich besser.

kruemelmonster
2015-06-03, 06:42:38
wo ist das video bzw. wie kann man das nachstellen bzw. welche detailstufe und wurden gleiche systeme verwendet?

ich glaube langsam nichts mehr wenn ich es nicht mit eigenen augen gesehen habe bzw. shadow of mordor ist sowieso so ein dauerstuttering kandidat

Das Originalvideo (https://www.youtube.com/watch?v=kLs6YJrP5xU) ist mittlerweile offline, zum Glück hatte Tomislav noch rechtzeitig einen Screenshot des Frametimevergleiches gemacht und hier gepostet (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10518118&postcount=3555).

http://abload.de/img/shadowofmordor670vs97x2p5h.jpg (http://abload.de/image.php?img=shadowofmordor670vs97x2p5h.jpg)

Zum Ablauf im Video: er hatte sich auf einem Turm positioniert und die Kamera kreisen lassen, ist dann runtergesprungen und ohne zu kämpfen ca 1min zum nächsten Turm gelaufen und dort hochgeklettert. Dann wieder die Kamera 2-3x 360° kreisen lassen und den gleichen Weg zurück. Der ganze Lauf wurde 2-3x wiederholt während MSI AB die fps, frametimes, VRAM etc angezeigt hat.
Mit der gleichen Methode wurden im gleichen System hintereinander GTX 670 4 GB und GTX 970 verglichen (das Video war insgesamt über 10min) und zum Schluß gab es diesen Direktvergleich den Tomislav in weiser Vorraussicht gespeichert hatte. :up:
Hatte mir auf YT schon n Wolf gesucht...

Embodier
2015-06-04, 13:49:24
shadow of mordor ist sowieso so ein dauerstuttering kandidat
Mittels Shadows of Mordor hatte ein ein Gamer die glorreiche Idee, die "Probleme" der 970er gegenenüber der 290x mit vollen 4 Gb zu demonstrieren.

Another Test for the GeForce GTX 970s 3,5 - 4 GB Issue. This time it is 1440p with ultra detail and live recorded with AMD GVR. You can see that the 970 card has more "performance drops" than the 290X when you run around and rotate the camera fast.
This Video is Radeon R9 290X -

https://youtu.be/QCeg6EQKYQo?t=127

Man achte auf 2:09 :D
290X 4 GB VRAM issue? ;D

Die ganze Debatte ist sinnlos, da die Praxisrelevanz seit jeher entzaubert wurde. Wer hier Probleme darstellen musste, hat künstlich inszenierte Benchmarks gebaut, heavy modded skyrim manuell vollgeschaufelt oder schlecht optimierte Games ausgewählt oder nahm 4K als "Beweis", was eine 1 % Nische darstellt und auf einer Single GPU des Leistungsspektrums 970/980/290x ohnehin nicht sinnvoll machbar ist.

Die lächerliche Stornoquote ist ein Beleg, die Benchmarks sind gleich.

aufkrawall
2015-06-04, 14:00:05
Natürlich kann Mordor auch auf Hawaii stocken, wenn dort der VRAM hoffnungslos vollgeknallt wird.
Das Spiel braucht viel mehr VRAM in WQHD Ultra Texturen als nur 4GB.

Ändert an den Problemen in Dying Light, Atilla, CoD: AW oder CoH2 aber nichts. Es wurde zwar manches per Patches verbessert, aber das bringt einem zum Launch erstmal gar nichts.

Embodier
2015-06-04, 22:07:18
Natürlich kann Mordor auch auf Hawaii stocken, wenn dort der VRAM hoffnungslos vollgeknallt wird.
Das Spiel braucht viel mehr VRAM in WQHD Ultra Texturen als nur 4GB.

Ändert an den Problemen in Dying Light, Atilla, CoD: AW oder CoH2 aber nichts. Es wurde zwar manches per Patches verbessert, aber das bringt einem zum Launch erstmal gar nichts.
Wenn man nun gerade die 0,1-1 % der Spieletitel auschließlich spielt, die zum launch holpern, mag das stören.Bleibt dann damit für 99 % der Spiele weiterhin praxisirrelevant. Ruckler entstehen hier nicht durch die 970 Architektur. Schlecht optimierte Titel betreffen alle GPUs.
Im Bereich von 3.5 GB bis 4GB VRAM belegung ruckeln auch die Karten mit "vollen" 4GB, das hat die PCGH in einem Testvideo schön dargestellt.
Wer durch gfx Settings ans Limit geht, bringt ja kalkuliert das System an die Grenze.
Nach dem PCGh Test waren irgendwie 50 % der PCGH PCs mit nvidia Karten zu 50% mit der 970 bestückt.
In der Spielerealität gab es also viel weniger Probleme (nochmals, man musste sie ja sogar gezielt inszenieren, um das überhaupt zu "erkennen") als auf dem Papier und mit der Lügenaktion an sich.

aufkrawall
2015-06-04, 22:10:25
Wenn man nun gerade die 0,1-1 % der Spieletitel auschließlich spielt, die zum launch holpern, mag das stören.Bleibt dann damit für 99 % der Spiele weiterhin praxisirrelevant. Ruckler entstehen hier nicht durch die 970 Architektur. Schlecht optimierte Titel betreffen alle GPUs.

Ich hab gar keine Lust, nach dem Stuss noch den Rest zu lesen...

Embodier
2015-06-04, 22:16:02
Ich hab gar keine Lust, nach dem Stuss noch den Rest zu lesen...
Weil es nicht in Dein Weltbild passt.
Ich habe Zweifler im Freundeskreis an meiner Kiste tweaken, Slider schieben und zocken lassen wie und was sie wollen.
Auf meiner Kiste sind die 3,5 Probleme irrelevant. Mein Bruder hat eine ähnliche Konfig: same non issues.
Wenn für Dich Attila und heavy modded skyrim repräsentativ sind und Du den PCGH Relevanz-Test ignorieren magst, ist das okay.
Mein Beitrag sollte ein Praxisbericht sein, der einiges entzaubert und alles mal ins Verhältnis setzt.
Ich habe alleine 330 steamtitel. Wenn die mit die 970er in den letzten 6 Monaten Probleme gemacht hätten, wären sie rausgeflogen. Ich übergehe sogar die 980TI, weil das 970er SLI Gespann einfach - immer noch - rockt.
Deal with it. :cool:

aufkrawall
2015-06-04, 22:20:19
Es hat nicht um Weltbilder zu gehen, kapier das doch endlich.
Es ist wirklich vergleichbar zur Plattentektonik damals. :frown:

Kann aber sein, dass es mit neueren Treibern zusätzlich zu den Patches noch etwas besser geworden ist, will ich gar nicht abstreiten (wobei dahingehend auch nichts belegt ist).

Ändert aber nichts am Beschiss, der ausgeuferten kriminellen Energie seitens Nvidia und der verbleibenden Unsicherheit für neue Spiele oder bestimmte Settings.

InsaneDruid
2015-06-04, 22:26:02
Ausgeuferte kriminelle Energie... klar.. Wenn ich dir nachts ein glühendes Eisen ins Auge bohre und es so hindrehe dass deine Frau dafür in den KNast wandert ist das ausufernde kriminelle Energie.

aufkrawall
2015-06-04, 22:29:49
Lass dir von aths nochmal erklären, wie die 970 technisch konzipiert ist.

kruemelmonster
2015-06-04, 22:29:51
@InsaneDruid:

Mit dem ersten und besonders dem letzten Punkt hat er nichtsdestotrotz Recht.

DerKleineCrisu
2015-06-04, 22:30:58
Ich habe Zweifler im Freundeskreis an meiner Kiste tweaken, Slider schieben und zocken lassen wie und was sie wollen.
Auf meiner Kiste sind die 3,5 Probleme irrelevant. Mein Bruder hat eine ähnliche Konfig: same non issues.

Dir sollte schon klar sein das der Treiber auf Teufel komm raus versucht unter 3,5 GB zu bleiben.

Und es wurde schon auch gesagt das bei einem Spiel nach einem Patch selbst bei AMD Karten auf einmal nur noch 3,5 GB belegt wurden.

Das einzige was hier gemacht wird ist Probleme zu kaschieren über den Treiber, nicht mehr nicht weniger.
Das man da dann mit " übertriebenen Einstellungen " zu werke gehen muss damit man diese Probleme die durch dieses feature mit den 512 MB
überhaupt zeigen kann.

Was passiert mit der Graka wenn es keine Optimierte Treiber für die 970er gibt, richtig die kompletten 4 GB werden benutzt.
Das einzige was da hilft wäre ein schieberegler im Treiber womit der user
es einstellen kann ob er 3,5 GB Graka oder feature 4,0 GB Graka haben will.

Grüße

Embodier
2015-06-04, 22:34:06
Ausgeuferte kriminelle Energie... klar.. Wenn ich dir nachts ein glühendes Eisen ins Auge bohre und es so hindrehe dass deine Frau dafür in den KNast wandert ist das ausufernde kriminelle Energie.

War sicher eine falsche Analogie. Ich bin allerdings ebenfalls aufkrawalls Meinung, dass nvidia hier vorsätzlich gelogen hat, es war Betrug. Die 970 wurde gezielt gegen die 290/xer gesetzt und schlug ja ein mit dem P/L Verhältnis.
Wäre das auch so gekommen, wenn man sie a priori als 3,5 + 05 GB VRAM Karte und einigen deaktivierten Shadern sowie beschnitter Bandbreite ganz offen deklariert hätte?

Ich differenziere seit jeher zwischen der Qualität der 970er in ihrem Einsatzspektrum (1080p superb; 1440p wunderbar, aber bei maxed settings nicht mehr in der Nähe von 60 fps bei triple A Titeln; für 4K ist sie untauglich) und dem, was nvidia abgezogen hat.

Dafür, dass sie so kastriert ist, liefert sie ja absurd gute Leistungswerte! Denn technsich ist sie der 980 und 290x weit unterlegen. In den Benchmarks merkt man davon fast nichts, was zu nvidias "the 970 works as intended" Aussage führte.
Dass sie derart beschnitten "trotzdem" so performt, hat nvidia gerettet.
Eben weil man - damit schließt sich meine Argumentation zum Eingangsargument - beim Zocken in der Praxis (mit den Ausnahmefällen, die aufkrawall angesprochen hat) von Problemen und "Speicherkrüppel" nix merkt.

Embodier
2015-06-04, 22:37:57
Dir sollte schon klar sein das der Treiber auf Teufel komm raus versucht unter 3,5 GB zu bleiben.

Ja, und wir sind uns einig. Faktisch ist es eine 3,5 GB VRAM Karte, durch softwareseitiges Optimieren macht die 970 ihren Job.

aufkrawall
2015-06-04, 22:47:32
War sicher eine falsche Analogie. Ich bin allerdings ebenfalls aufkrawalls Meinung, dass nvidia hier vorsätzlich gelogen hat, es war Betrug.
Die 970 wurde gezielt gegen die 290/xer gesetzt und schlug ja ein mit dem P/L Verhältnis.
Wäre das auch so gekommen, wenn man sie a priori als 3,5 + 05 GB VRAM Karte und einigen deaktivierten Shadern sowie beschnitter Bandbreite ganz offen deklariert hätte?
Ich bleibe bei meiner Formulierung, auf Grundlage von aths Erklärung des Produkts und der Marktstrategie für dieses:
Man wollte die 970 stärker von der 980 abgrenzen. Um nicht der 290X unterlegen zu sein, und da eh schon recht viel deaktiviert ist, hat man das auch über die Bandbreite gemacht (Segmentierung in 224 Bit + 32 Bit), anstatt nur über Shader/TMUs.

Gleichzeitig wollte man gegen die günstige 290 non-X nicht unterlegen beim Speicher erscheinen. Also hat man an den 32 Bit noch 512MB drangelassen.
Dass dieser Speicherblock weitestgehend unbrauchbar oder gar kontraproduktiv ist, hat man verschwiegen und stattdessen Speicher und Bandbreite als der 980 gleich dargestellt. Natürlich wohlwissend, dass das nicht so leicht auffliegt.

Es gab also die Täuschungsabsicht über die Produktentwicklung hinweg bis in den späteren Verkauf und Vermarktung, man kann sogar von einer versuchten Verschleierung des Betruges sprechen.
Was sonst liegt dem zugrunde, wenn nicht jede Menge kriminelle Energie?

Eine plausiblere Erklärung ist mir nicht bekannt.

Troyan
2015-06-04, 23:02:49
Ist doch quatsch. Man hat die GTX970 mit 4GB beworben. Welchen Sinn macht es dann die Karte "intern" stärker abzugrenzen, wenn die Leute die Leistung gesehen und dann gedacht haben:
200€ mehr für 15-20% und gleichem Speicher? Pah.

Verkaufstechnisch vollkommen sinnbefreit eine Leistungslimitierung einzubauen und den Leuten glauben zu lassen, dass der Speicher und Durchsatz exakt dem entspricht, was sie nur für 200€ mehr erhalten.

aufkrawall
2015-06-04, 23:05:00
Welchen Sinn macht es dann die Karte "intern" stärker abzugrenzen, wenn die Leute die Leistung gesehen und dann gedacht haben:
200€ mehr für 15-20% und gleichem Speicher? Pah.

290X Performance für weniger Geld mit viel besserer Effizienz natürlich.
Den Top Dog kann man immer gesondert positionieren. Selbst die 680 hatte sich gut verkauft, obwohl die 670 gerade mal 10% langsamer und viel günstiger war.

Troyan
2015-06-04, 23:12:22
Das ist wiederrum etwas anderes.
Die Abgrenzung gegenüber der GTX980 existierte bis in den Januar in den Köpfen nur in Form der SMM-Cluster. Ergo hätte man sich ja gleich doppelt selbst verarscht bei nVidia.

aufkrawall
2015-06-04, 23:17:44
Ich kann dir nicht folgen.
Hypothese ist, dass man einen 290X Killer (970) haben wollte, der nicht schneller ist als nötig. Gleichzeitig wollte man die 980 so attraktiv wie möglich durch eine höhere Performance machen, zu entsprechendem Alleinstellungsmerkmals-Preis.

So schwer zu verstehen? Was ist daran nicht plausibel?

The_Invisible
2015-06-05, 00:46:16
Mittels Shadows of Mordor hatte ein ein Gamer die glorreiche Idee, die "Probleme" der 970er gegenenüber der 290x mit vollen 4 Gb zu demonstrieren.



https://youtu.be/QCeg6EQKYQo?t=127

Man achte auf 2:09 :D
290X 4 GB VRAM issue? ;D

Die ganze Debatte ist sinnlos, da die Praxisrelevanz seit jeher entzaubert wurde. Wer hier Probleme darstellen musste, hat künstlich inszenierte Benchmarks gebaut, heavy modded skyrim manuell vollgeschaufelt oder schlecht optimierte Games ausgewählt oder nahm 4K als "Beweis", was eine 1 % Nische darstellt und auf einer Single GPU des Leistungsspektrums 970/980/290x ohnehin nicht sinnvoll machbar ist.

Die lächerliche Stornoquote ist ein Beleg, die Benchmarks sind gleich.

@kruemelmonster
naja, mordor läuft ja auf ultra sowieso erst ab 6gb richtig flüssig, zählt für mich daher nicht wirklich als praxisrevelant, wie sehen da überhaupt die fps aus, hilft ja auch nix wenn z.B. die 670 mehr gleichmäßige 15fps rendert und die 970er dafür 30fps

wie gesagt glaube ich auch das das je nach spiel abhängt, ich habe beide wolfensteinteile teilweise mit bis zu den vollen 4gb ohne spürbare mikroruckler gespielt, das sollte ja vor allem bei shooter auffallen.

jedenfalls hatte ich bis jetzt auch noch nie probleme das ein spiel dadurch unspielbar wird. deswegen möchte ich ja mal selber testen wie das aussieht, aber anscheinend nicht so einfach: entweder ruckelts sowieso schon oder es ist ein allgemeines frametimes problem. dann ist auch noch die frage ob diese zusätzlichen frametimesruckler wirklich den spielfluss revelant stören oder eben nur eben in graphen da sind.

naja, bis das alles geklärt ist habe ich wahrscheinlich eh schon meine nächste karte, mal abwarten was noch kommt.

DerKleineCrisu
2015-06-05, 17:14:14
Ja, und wir sind uns einig. Faktisch ist es eine 3,5 GB VRAM Karte, durch softwareseitiges Optimieren macht die 970 ihren Job.

Und da sehe ich das Problem das gerade bei der 970er noch mehr optimiert werden muss wenn
ein neues Spiel raus kommt das mehr als 3,5 GB haben will.
Was passiert also wenn diese Optimierung nicht mehr gemacht wird, richtig man weiß dann nicht woran das nun wirklich liegt.
Liegt es an der Graka oder an der CPU oder an beidem ?.

Zur Zeit macht es solange diese Optimierungen Zeitnah erfolgen keine Probleme
wenn aber dieser Aufwand nach Meinung Nvidia sich nicht mehr rentieren
schaut der Käufer in die röhre und NVidia liegt lachend in der ecke weil
sie wieder Geld vom User bekommen der ne neue Graka Braucht :biggrin: .
Win Win Situation für Nvidia.


Grüße

StefanV
2015-06-05, 17:34:37
Ja, aber genau dieser Zustand wird von den ganzen Leuten geleugnet!
DAS ist ja gerade das Problem.

Die GTX970 wird zum Alteisen gehören, sobald der Nachfolger auf der Matte steht...
Dann ists auch nichts mehr mit den Optimierungen...

Es wird ja sich immer dran aufgehängt, dass die Thermis ja immer noch unterstützt werden, also muss der Support ja super toll sein - Quantität vs. Qualität halt. Dass die Thermis aktuell immer noch verkauft werden (http://geizhals.de/?cat=gra16_512&xf=147_1~653_nVIDIA~354_40&sort=-eintr), wird dabei aber unter den Tisch gekehrt...

dildo4u
2015-06-05, 17:46:53
Ja, aber genau dieser Zustand wird von den ganzen Leuten geleugnet!
DAS ist ja gerade das Problem.

Die GTX970 wird zum Alteisen gehören, sobald der Nachfolger auf der Matte steht...
Dann ists auch nichts mehr mit den Optimierungen...

Wie kommst du zu dem Schluss? NV beweisst genau das Gegenteil und hat die Kepler Performance in Witcher 3 und Projekt Cars optemiert.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10653821&postcount=155

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10647926&postcount=342

N0Thing
2015-06-05, 18:45:13
Es wird ja sich immer dran aufgehängt, dass die Thermis ja immer noch unterstützt werden, also muss der Support ja super toll sein - Quantität vs. Qualität halt. Dass die Thermis aktuell immer noch verkauft werden (http://geizhals.de/?cat=gra16_512&xf=147_1~653_nVIDIA~354_40&sort=-eintr), wird dabei aber unter den Tisch gekehrt...

Bei der Liste würde ich jede Wette eingehen, dass es nur noch um Restposten bei den Händlern handelt. Zumindest wird das Angebot ganz schnell ganz dünn, wenn man in den Bereich der ursprünglich mal für Spiele geeigneten Grafiklösungen kommt.
Dass Nvidia z.B. heute noch Chips für die Produktion einer Point of View GeForce GTX 580 TGT Ultra Charged verkauft, halte ich für ausgeschlossen und wenn man bei deiner Liste mal nur die am Lager verfügbaren Produkte nimmt, sieht es gleich viel dünner aus: Link (http://geizhals.de/?cat=gra16_512&v=l&hloc=de&sort=-eintr&xf=147_1~653_nVIDIA~354_40) ;)

Winter[Raven]
2015-06-05, 21:40:10
Wie kommst du zu dem Schluss? NV beweisst genau das Gegenteil und hat die Kepler Performance in Witcher 3 und Projekt Cars optemiert.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10653821&postcount=155

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10647926&postcount=342

Von sich aus oder nur weil die Community Stress gemacht hat? :freak:

Leider deuten die Komments im NV Forum auf das Letzte hin....

uweskw
2015-06-10, 17:07:02
hatte hier nichts zu suchen......

aufkrawall
2015-06-10, 17:25:14
Da ist Sharpen und/oder negatives LOD-Bias am Werk. Ich möchte stark bezweifeln, dass das auf irgendeiner GPU gut aussehen kann.
Schalte Sharpen in den PP-Ooptionen ab, für LOD-Bias Clamp solltest du user.settings per Editor öffnen und dort TextureMipBias=0 setzen sowie die Datei danach schreibschützen. Im Treiber HQ-Filterung nutzen und 16:1 AF forcieren.

captain_drink
2015-06-10, 17:37:20
--

Schnoesel
2015-06-23, 20:49:28
Ups:

Besitzer der GTX 970 mit ihrer zweigeteilten Speicheranbindung sind hier außerdem nochmals stärker betroffen, die GTX 970 zeigt deutlich weniger Texturdetails, mehr Matsch und außerdem einen verstärkten Hang zu Nachladerucklern.

http://www.pcgameshardware.de/Batman-Arkham-Knight-PC-258399/Specials/Technik-Test-1162745/

dargo
2015-06-23, 21:00:52
Ein typischer Fall wieder von Softwaremüll. Wenn ich dann noch von einem 30fps Lock lese... :facepalm:, einfach nicht kaufen.

Botcruscher
2015-06-23, 21:06:13
Trotzdem zeigt sich die Zukunft der 970.

aufkrawall
2015-06-23, 21:11:51
Ich würde es eher Gegenwart nennen.

Ex3cut3r
2015-06-23, 21:40:28
GTX 970 halt, jeder der die behalten hat oder sogar auf die 980 aufgerüstet hat ist genau so ein Dummkopf.

Nicht für ungut @Krawall. ;)

Bei dir gehts ja noch, aber was manche andere machen ist schon krank, da frage ich mich manchmal wirklich, was geht bei denen vor? Von 780 auf 970 dann auf 980 und zum Schluss auf die 980 Ti. ;D

Eigentlich auch zum ziemlich traurig was am Markt momentan los ist, ab 980 ist bei Nvidia alles zu teuer, was noch "ok" wäre wenn sie wenigstens mit 8GB gleich gäbe. AMD verschläft alles und bringt einen Refresh viel zu spät, bei Fury muss noch warten auch wenn's bis jetzt ziemlich Positiv aussieht. Wenn die Preise da nicht zu hoch sind, könnte das wieder was werden.

Ansonsten gibt noch Gameworks, welches bis jetzt fast immer, wenn es zum Einsatz kam, mit größeren Problemen verbunden war. Und AMD machen wir uns da nichts vor, am Anfang des Release eines Games stark benachteiligt.

DX12 kommt auch nicht richtig in fahrt weil, da vieles noch unklar ist. Und gefühlt dauert es wohl noch ewig bis erste Games DX12 unterstützten.

So, das musste jetzt mal raus. Brauch keine Beantwortung. Danke

The_Invisible
2015-06-23, 21:55:49
Trotzdem zeigt sich die Zukunft der 970.

wenn so die zukunft aussieht werden nicht mehr viele pc gamer übrigbleiben. minimum 4gb für 1080p, in 1440p gehen schon die 6gb über. aus meiner sicht auf softwareschrott, wie es geht zeigt zb. witcher3. das game (batman) ist einfach ein disaster, da stimme ich dargo zu 100% zu

Shaft
2015-06-23, 21:58:38
Ein typischer Fall wieder von Softwaremüll. Wenn ich dann noch von einem 30fps Lock lese... :facepalm:, einfach nicht kaufen.

Ich denke das kann man so stehen lassen.

Batman hat auf allen Plattformen starke Probleme, wie dieverse Videos auf Youtube darlegen.

Nvidia wurde auch von meiner Seite zwecks 970 Politik stark angeprangert, würde aber sagen das es hier fehl am Platz ist.

Vermutlich wird hier wieder der Ram vollgehauen, bis zum geht nicht mehr.

PCGH will dies ja genauer analysieren.

Solch Software sollte man boykottieren, bis die Fehler behoben sind.


Edit: Sehe ich bin im falschen Thread gelandet, also hat die Diskussion hier ihren richtigen Patz.

Raff
2015-06-23, 22:00:52
GTX 970 halt, jeder der die behalten hat oder sogar auf die 980 aufgerüstet hat ist genau so ein Dummkopf

Ich find's bedenklich, wie viele "Opfer" es gibt: http://extreme.pcgameshardware.de/quickpolls/391646-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-juni-2015-a.html

Nach kurzem Einknicken explodiert die Verbreitung der GTX 970 wieder. :| Leute, kauft euch eine Radeon R9 290 oder, besser, eine 390.

MfG,
Raff

-/\-CruNcher-/\-
2015-06-23, 22:03:14
Wieso lernen viele erstmal richtig zu optimieren und das gezwungen sehr nice seit der Konsolenkonvergenz sind da viele ein bischen eingeschlafen hab ich so das Gefüh da kann man sehr schnell die spreu vom weizen trennen ;)

Rente
2015-06-23, 22:05:02
Ich find's bedenklich, wie viele "Opfer" es gibt: http://extreme.pcgameshardware.de/quickpolls/391646-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-juni-2015-a.html

Nach kurzem Einknicken explodiert die Verbreitung der GTX 970 wieder. Leute, kauft euch eine Radeon R9 290 oder, besser, eine 390.

MfG,
RaffDas ist aber auch keine richtige dauerhafte Lösung, Fury Nano bzw. ohne X wären da irgendwie toller (wobei das preislich wohl leider wieder zu teuer wird...).

Effe
2015-06-23, 22:06:21
Ich find's bedenklich, wie viele "Opfer" es gibt: http://extreme.pcgameshardware.de/quickpolls/391646-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-juni-2015-a.html

Nach kurzem Einknicken explodiert die Verbreitung der GTX 970 wieder. :| Leute, kauft euch eine Radeon R9 290 oder, besser, eine 390.

MfG,
Raff
Ihr verkauft in Euren PCGH-PCs die Dinger ja selber. In keinem Einzigen ist eine AMD drin. Dafür in 4 von 10 die 970. Die Verteilung ist daher kein Wunder bei treuen Lesern.

http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/Spiele-PC-fuer-Gaming-offizielle-PCGH-PCs-661819/

-/\-CruNcher-/\-
2015-06-23, 22:12:29
Ihr verkauft in Euren PCGH-PCs die Dinger ja selber. In keinem Einzigen ist eine AMD drin. Dafür in 4 von 10 die 970. Die Verteilung ist daher kein Wunder bei treuen Lesern.

http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/Spiele-PC-fuer-Gaming-offizielle-PCGH-PCs-661819/

Wieso denkst du machen die so eine Umfrage ;)

Azubi
2015-06-23, 22:13:17
Bei dir gehts ja noch, aber was manche andere machen ist schon krank, da frage ich mich manchmal wirklich, was geht bei denen vor? Von 780 auf 970 dann auf 980 und zum Schluss auf die 980 Ti. ;D

Ich persönlich kenne keinen der von 970 auf 980 gewechselt hat. Und glaube auch das diese Minderheit der Besitzer einer 970, die tauschten, unter "Performancefreaks" zu listen sind, Aber mit Sicherheit absolut ungeeignet sind um so eine Hypothese aufzustellen.

Raff
2015-06-23, 22:15:19
Ihr verkauft in Euren PCGH-PCs die Dinger ja selber. In keinem Einzigen ist eine AMD drin. Dafür in 4 von 10 die 970. Die Verteilung ist daher kein Wunder bei treuen Lesern.

http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/Spiele-PC-fuer-Gaming-offizielle-PCGH-PCs-661819/

Das Pferd wird mit dieser Argumentation von hinten, also falsch aufgezäumt. Wie schon mehrfach im PCGH-Forum geschrieben wurde, gab es diverse Versuche mit AMD-Hardware. Die hat aber niemand gekauft. Und ein Standbein funktioniert nur, wenn ... nun ja, wenn es steht. ;) Die Klientel der PCGH-PCs - und das sind gewiss nicht die, die regelmäßig Heft und Website lesen - will Nvidia und Intel. Fragt mich bitte nicht, warum.

Wieso denkst du machen die so eine Umfrage ;)

Dafür mit Gewissheit nicht. Ich weiß das, denn ich eröffne die ständig. ;)

Hier geht's übrigens nicht um PCGH, den Messenger, der ständig für Nvidia-Fehlverhalten gerügt wird, sondern um das Versagen und Herrschen die GTX 970.

MfG,
Raff

The_Invisible
2015-06-23, 22:16:27
Ich find's bedenklich, wie viele "Opfer" es gibt: http://extreme.pcgameshardware.de/quickpolls/391646-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-juni-2015-a.html

Nach kurzem Einknicken explodiert die Verbreitung der GTX 970 wieder. :| Leute, kauft euch eine Radeon R9 290 oder, besser, eine 390.

MfG,
Raff

Es gibt ja sonst nichts von nvidia zwischen 250 und 500 eur, so 300 bis 350eur dürfte der sweet spot sein den sich die meisten leisten können. die ~500eur für eine 980 mit auch nur 4gib sind halt auch viel zu teuer, und dann kommt man schon in den 700eur Bereich. vor einem halben jahr hat es noch düsterer ausgesehen.

amd kommt halt bei vielen nicht in frage da es wieder ganz andere probleme gibt bzw. wie ich auch auf andere betriebssysteme angewiesen sind wo die treiber nicht das gelbe vom ei sind.

bin ja gespannt wie batman auf ner fury mit nur 4gb rennt ; )

dargo
2015-06-23, 22:21:35
Ich find's bedenklich, wie viele "Opfer" es gibt: http://extreme.pcgameshardware.de/quickpolls/391646-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-juni-2015-a.html

Nach kurzem Einknicken explodiert die Verbreitung der GTX 970 wieder. :| Leute, kauft euch eine Radeon R9 290 oder, besser, eine 390.

Ich sags mal vorsichtig... wer nicht hören will muss eben fühlen. Das ändert aber nichts an schrottiger Software mit fragwürdigem Streaming.

Effe
2015-06-23, 22:22:27
Wieso denkst du machen die so eine Umfrage ;)
Weil die Umfrage das Besitztum abfragt und keinen Kaufwunsch.

@Raff: Wenn die Komplett-PC Käuferschicht so vernagelt ist, schade. Mit Fury könnte man aber leckere mitx- Systeme anbieten. Die sind ja angeblich im Trend.

StefanV
2015-06-23, 22:56:23
Ich find's bedenklich, wie viele "Opfer" es gibt: http://extreme.pcgameshardware.de/quickpolls/391646-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-juni-2015-a.html

Nach kurzem Einknicken explodiert die Verbreitung der GTX 970 wieder. :| Leute, kauft euch eine Radeon R9 290 oder, besser, eine 390.

MfG,
Raff
Das brauchst hier nicht wirklich sagen, sag das lieber mal in eurem Forum, wo jeder, der das Verhalten der GTX 970 erwähnt, gnadenlos nieder geflamt wird...

Oder aber im Mindfactory Forum..

Schnoesel
2015-06-23, 23:04:30
Das ist ja wohl kaum Raffs Aufgabe. Wer nach all den Tests nicht selbst drauf kommt, dem ist eh nicht zu helfen.

Thunder99
2015-06-24, 00:47:36
Da bin ich ja umso mehr zufrieden gewechselt gehabt zu haben :wink: . Dank auch dem kommenden Treiber steht meine Vapor-X gegenüber der nvidia noch besser da :naughty:

StefanV
2015-06-24, 01:25:36
Das ist ja wohl kaum Raffs Aufgabe. Wer nach all den Tests nicht selbst drauf kommt, dem ist eh nicht zu helfen.
Er hätte ja einen Beitrag zu dem Thema schreiben können, der in den entsprechenden Foren oben festgenagelt wird, mit Wichtig gekennzeichnet und so weiter.

Aber so lange die ganzen nV Fans diesen Zustand ignorieren und versuchen wegzureden, wird sich da nicht viel ändern...
Und wenn man dann auch noch angeflamt/angepflaumt wird, wenn man erwähnt, dass die GTX 970 ein paar Nachteile hat, noch weniger...

Knuddelbearli
2015-06-24, 04:25:16
Naja ich oute mich mal als Besitzer einer 970. Wurde aber schon letztes Jahr, vor aufkommen des 3,5GB mangels, gekauft. Hatte vorher noch eine 480 drin und hatte keinen Lust auf den ganzen Stress für ein Sidegrade. Habe aber zum Glück bei Amazon gekauft. Je mehr Spiele auf der 970 Probleme machen desto einfacher kann ich sie dann, zum vollen Kaufpreis, zurückgegeben sobald 14nm draußen ist ( hoffe da kommt was brauchbares vor Ende 2016 ^^ )

Wobei die Nano mich auch jucken würde mal gucken ob es wenn die erscheint erste Gerüchte zum 14/16nm Nachfolger gibt.
Aber mit Nano müsste ich halt auch meine Gehäuse wechseln ein mATX Board und Nano in einem TJ07 sieht einfach lächerlich aus ^^

Kladderadatsch
2015-06-24, 06:53:40
nach den letzten 10 seiten dieses threads liegt die lösung, miese frametimes in allen spielen verlässlich auszuschließen doch auf der hand: grafikkarten in zukunft gänzlich meiden.

Malabolge
2015-06-24, 07:10:07
Das Pferd wird mit dieser Argumentation von hinten, also falsch aufgezäumt. Wie schon mehrfach im PCGH-Forum geschrieben wurde, gab es diverse Versuche mit AMD-Hardware. Die hat aber niemand gekauft. Und ein Standbein funktioniert nur, wenn ... nun ja, wenn es steht. ;) Die Klientel der PCGH-PCs - und das sind gewiss nicht die, die regelmäßig Heft und Website lesen - will Nvidia und Intel. Fragt mich bitte nicht, warum.
MfG,
Raff

Gehört zwar nicht hierher , aber trotzdem:
Warum ? Warum ? Du willst uns doch hier Verkohlen , oder was?

Mal euren eigenen "980 TI Test" gelesen . mit was vergleicht ihr den die TI (mehrere Seiten Lang)?
na klar , mit einer 980 , einer 980 OC einer TI (!) OC usw
von 12 test (!?) wurden 10 mit NVidiakarten gemacht , und ihr fragt euch wieso die Leute nix von AMD wissen wollen ?

Vielleicht auch nur Vielleicht , solltet ihr euch mal an die eigene Nase fassen.

Botcruscher
2015-06-24, 09:47:16
wenn so die zukunft aussieht werden nicht mehr viele pc gamer übrigbleiben. minimum 4gb für 1080p, in 1440p gehen schon die 6gb über. aus meiner sicht auf softwareschrott, wie es geht zeigt zb. witcher3. das game (batman) ist einfach ein disaster, da stimme ich dargo zu 100% zu
Das 4GB für den Mainstream Minimum werden hab ich schon vor über einem Jahr gesagt. Die Qualität der Software orientiert sich an dem was(auf der Konsole) da ist.

Matrix316
2015-06-24, 10:00:17
Ich sags mal vorsichtig... wer nicht hören will muss eben fühlen. Das ändert aber nichts an schrottiger Software mit fragwürdigem Streaming.
Problem ist, wenn du eine Radeon 290 holst, dann musst du hören, weil der Lüfter so laut ist. :freak:

Ich hab zwar auch die 970 eingetauscht und bin (wieder) zur 290X gewechselt, aber fürn Sommer ist so eine Karte eher nix. ;) Und manchmal glaub ich wäre es vielleicht doch besser gewesen die 970 zu behalten, aber da gings ums Prinzip (und um den 1:1 umtausch gegen Bares ;)).

dargo
2015-06-24, 10:00:43
Das 4GB für den Mainstream Minimum werden hab ich schon vor über einem Jahr gesagt. Die Qualität der Software orientiert sich an dem was(auf der Konsole) da ist.
Und? Erstens stehen nicht die ganzen 8GB in Spielen zur Verfügung. Zweitens beansprucht die GPU bisher nicht mehr als 4GB für sich. Jedenfalls ist mir nichts bekannt. Wenn du mehr weißt nur her mit den Links. Es gibt schon einen guten Grund warum die Texturauflösung bei den Konsolen in der Regel eine Stufe tiefer als bei der PC-Version ist.

Dawn on Titan
2015-06-24, 10:22:58
Ich find's bedenklich, wie viele "Opfer" es gibt: http://extreme.pcgameshardware.de/quickpolls/391646-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-juni-2015-a.html

Nach kurzem Einknicken explodiert die Verbreitung der GTX 970 wieder. :| Leute, kauft euch eine Radeon R9 290 oder, besser, eine 390.

MfG,
Raff

Die 390 ist gerade raus. Bei den 290er gab es nicht eine, die ohne manuelle Optimierung ähnlich leise wie eine Strix, MSI Gaming oder EVGA ist. Es ist fast schwer viele 970 zu nennen, die lauter sind als eine leise 290X ohne händische Optimierung.

Lautstärke ist heute ein starkes Thema. Und selbst bei den 390ern sind die guten kaum auf 980 Referenz-Level also immer noch doppelt so laut wie die guten Eigendesigns der 970/980.

Raff
2015-06-24, 10:40:36
Die 390 ist gerade raus. Bei den 290er gab es nicht eine, die ohne manuelle Optimierung ähnlich leise wie eine Strix, MSI Gaming oder EVGA ist. Es ist fast schwer viele 970 zu nennen, die lauter sind als eine leise 290X ohne händische Optimierung.

Lautstärke ist heute ein starkes Thema. Und selbst bei den 390ern sind die guten kaum auf 980 Referenz-Level also immer noch doppelt so laut wie die guten Eigendesigns der 970/980.

Das stimmt zwar weitgehend (ich habe noch nicht genügend 300er-Karten gehört, um das final zu sagen), laute Grafikkarten kann man aber manuell optimieren, während sich eine volle Speicherschnittstelle nicht einfach "hintweaken" lässt.

MfG,
Raff

Dawn on Titan
2015-06-24, 10:45:07
Viele wollen aber nicht optimieren. Ist halt leider so. Und das viele Full-HD oft ohne MSAA zocken, wirkt sich der Speicherkrüppel halt auch nicht oft aus.

Aber ich bin auch auf meine 970 sitzen geblieben, weil ne 3 Lüfter 290X einfach keine Chance hätte ihren Lebensabend im HTPC zu erleben. Bis zur Nano wird die 970 bleiben.

Thunder99
2015-06-24, 10:48:17
eine höhere TDP bzw höherer Stromverbrauch muss halt mehr gekühlt werden. Die Aussage mit den guten 390er sind nicht auf 980 Referenz-Level kann ich so nicht teilen. Die Sapphire Nitro ist besser und die MSI auch. Beide sogar auf Niveau der GTX980 Custom Lösungen, (außer bei ASUS, MSI und EVGA). Es muss einfach mehr gemacht werden für eine ordentliche Kühlung

Aber in meinem Fall ist die R9 290 Vapor-X im Schnitt eher leiser! als eine Galax GTX970 EXOC. Nicht alle Herstellerdesigns sind so das gelbe vom Ei

Es gibt selbst bei mir Situationen wo eine GTX besser wäre, aber im Gesamtpaket fahre ich doch erstaunlich gut mit der AMD Karte und habe daher eher Vorteile als Nachteile :)

Back2Soul
2015-06-24, 15:06:41
Ein neuer Kandidat aber gleichzeitig auch ein wenig entwarnung für alle die sich die Frage mit ner 970 stellen:

Der neue Batman, 1776x1000 , alle Details inkl. Gameworks , samt aktuellen Game Ready Treiber:

Warum auch immer das Game die Einstellung Full HD im Rahmen (wie auch Rahmenlos) so dar stellt...

http://abload.de/thumb/unbenannt5duzc.jpg (http://abload.de/image.php?img=unbenannt5duzc.jpg)http://abload.de/thumb/unbenanntptsme.jpg (http://abload.de/image.php?img=unbenanntptsme.jpg)

Getestet auf einer Palit GTX 970 die hier im Zweitrechner wohnt.

Allerdings kein Stuttering feststellbar, läuft genauso bescheiden wie mit meiner 980.

Interessant finde ich daran, das trotz extra dafür gemachten Game Ready Treiber, die 970 wieder fleißig über 3,5 GB rennen darf ohne Treiber Limit.

TobiWahnKenobi
2015-06-24, 15:36:44
ich hatte auch in nix den eindruck, dass meine 980 irgendwas besser konnte als meine 970. das sind beides gurken, auch wenn 2 970er echt spass gemacht haben.


(..)

mfg
tobi

woodsdog
2015-06-24, 19:48:05
ich hatte auch in nix den eindruck, dass meine 980 irgendwas besser konnte als meine 970. das sind beides gurken, auch wenn 2 970er echt spass gemacht haben.


ahha.

970 <> 980 klar - aber die real 30-35% die GM200 mehr kann, machen dann aus den Gurken den Topknaller oder was?

Lächerlich.

TobiWahnKenobi
2015-06-24, 23:01:09
ahha.

970 <> 980 klar - aber die real 30-35% die GM200 mehr kann, machen dann aus den Gurken den Topknaller oder was?

Lächerlich.

wo bist du denn ausgebrochen?

http://abload.de/img/feierstreik_gtxen0nkf9.jpg

reihe 1 = ein brei
reihe 2 = spürbar schneller


(..)

mfg
tobi

Troyan
2015-06-25, 00:46:58
PCLab hat FCAT Messungen und einen Vergleich zwischen GTX970 und 290X in Batman:
http://pclab.pl/art64500.html

Sieht absolut identisch aus...

aufkrawall
2015-06-25, 01:14:48
Auf jeder Karte unspielbar. :freak:
Sollte man vielleicht erstmal zur Seite legen und dann wieder untersuchen, wenn es hoffentlich gefixt ist.

woodsdog
2015-06-25, 06:55:18
wo bist du denn ausgebrochen?

(..)

mfg
tobi

ja. um die 30%. Wie ich sagte.
Danke für die Bestätigung.

Liquaron
2015-06-25, 07:44:39
Ich sags mal vorsichtig... wer nicht hören will muss eben fühlen. Das ändert aber nichts an schrottiger Software mit fragwürdigem Streaming.

Würde AMD in der 390er Serie endlich mal eine Karte im Mini Format für mein Mini ATX anbieten, dann wäre das eine Überlegung wert.

So muss man doch zur die Gtx 970 greifen, oder eben auf die Nano warten.

Djudge
2015-06-25, 23:47:09
So muss man doch zur die Gtx 970 greifen, oder eben auf die Nano warten.

So sieht´s aus, hatte doch kein Bock mehr auf Keppler und 980 für 4Frames mehr bei 4Gb, neenee nicht mit mir Ti kam bsl spät und der Preis nö auch nix was mal so richtig entzückt.

Abseits meines letzten 970 bash muss ich die etwas revidieren, bei mir ruckelt noch nix und den Bf4 Bug hab ich mit Cpu runtertakten auf 4Ghz gelöst bekommen. Vom Preis her wie meine solide 670 mit mir genügender Power und 4K @120Hz muss halt noch warten. Und ein bsl 4k geht ja mit der auch, so als Teaser. :tongue:

Timbaloo
2015-06-26, 00:02:15
Das stimmt zwar weitgehend (ich habe noch nicht genügend 300er-Karten gehört, um das final zu sagen), laute Grafikkarten kann man aber manuell optimieren, während sich eine volle Speicherschnittstelle nicht einfach "hintweaken" lässt.

MfG,
Raff
Naja, erstens kannst du der Logik folgend eine leise 970 durch manuelle Optimierung auch noch leiser kriegen (die 970 Strix liegt glaube ich bei ~70°C unter Volllast, bei ~1100rpm...), zweitens kann ich durch Änderungen der Grafikeinstellungen auch das offensichtliche Problem der 970 durchaus umgehen bzw. entschärfen.

Thunder99
2015-06-26, 00:08:39
Also die Vapor-X ist schon ziemlich gut und so leise wie die meisten GTX970er ;). Es geht noch besser, keine Frage aber Sapphire hat schon die richtige Antwort gehabt Hawaii gut und leise zu kühlen. Und wenn man es dennoch händisch optimieren muss es ist besser als ein Speicherkrüppel wie die 970 zu haben (auch wenn die Probleme erst noch kommen).

Damit will ich sagen Hawaii ist mit richtiger Kühlung durchaus eine Alternative zur 970 welche abgesehen von ihrem Speicher eine wirklich gute Karte ist :)

aufkrawall
2015-06-26, 00:18:49
Die Lüfter meiner Palit JetStream sind schon nicht optimal, aber die von Sapphire sind noch viel schlechter.

Thunder99
2015-06-26, 00:23:15
Bezogen auf was genau? :confused: Auf 60% höre ich sie deutlich aber nicht extrem störend. Eher ein tieferes rauschen

aufkrawall
2015-06-26, 00:49:16
Bei niedrigen Drehzahlen oder dem Verändern der Drehzahl neigen sie gerne mal dazu, ein heulendes Geräusch zu machen.
Das hat die Palit auch, aber längst nicht so ausgeprägt. Vor allen Dingen muss der Lüfter bei Hawaii viel öfter die Drehzahl wechseln, wenn der Stromverbrauch durch Volllast gegenüber Teillast stark ansteigt.
Da gibts dann ständig das Geheule, z.B. auch bei madVR. Sehr nervtötend.

-/\-CruNcher-/\-
2015-06-26, 14:38:21
Ein neuer Kandidat aber gleichzeitig auch ein wenig entwarnung für alle die sich die Frage mit ner 970 stellen:

Der neue Batman, 1776x1000 , alle Details inkl. Gameworks , samt aktuellen Game Ready Treiber:

Warum auch immer das Game die Einstellung Full HD im Rahmen (wie auch Rahmenlos) so dar stellt...

http://abload.de/thumb/unbenannt5duzc.jpg (http://abload.de/image.php?img=unbenannt5duzc.jpg)http://abload.de/thumb/unbenanntptsme.jpg (http://abload.de/image.php?img=unbenanntptsme.jpg)

Getestet auf einer Palit GTX 970 die hier im Zweitrechner wohnt.

Allerdings kein Stuttering feststellbar, läuft genauso bescheiden wie mit meiner 980.

Interessant finde ich daran, das trotz extra dafür gemachten Game Ready Treiber, die 970 wieder fleißig über 3,5 GB rennen darf ohne Treiber Limit.

Das Passiert nun seit dem G-sync branch ich hatte schon bis 3.8 GB usage laut Afterburner in GTA 5


Mein bisheriger GTX 970 Treiber WDDM 1.1 Rekord ;)

http://abload.de/thumb/gta5_2015_06_10_08_54y4xnq.png (http://abload.de/image.php?img=gta5_2015_06_10_08_54y4xnq.png)

Back2Soul
2015-06-26, 15:03:25
Also zum Thema 290x.

Ich hatte seiner Zeit eine Gigabayte GTX 970 im Rechner, nach dem das Debakel aufkam habe ich die gegen Bares bei MF zurück gegeben.

Daraufhin hab ich mir dann die 8GB 290x Tri-X von Sapphire geholt mit der Option auf CF zu gehen.
Aus Performance sicht war ich mit der Karte für den Preis eigentlich zufrieden.

Jedoch hat die Karte mir die nerven geraubt.
Auch mit angepasster Lüfterkurve fiel das ding immer negativ mit seiner Geräuschkulisse aus meinem Case auf.

Also einen Acclero Xtreme 4 gekauft und montiert.
Damit war es dann schon wesentlich erträglicher aber immer noch nicht, wie von der GB 970 inkl. Angepasster kurve gewöhnt.

Dann konnte ich die umgebaute 290x zum Glück mit jemanden 1:1 gegen die 980 tauschen und bin wieder glücklich.

Auch diese hört man hier und da mal raus , klar.
Aber ich hab auch nichts dagegen wenn unter Last die Graka ETWAS zu hören ist, aber es kommt sehr viel auf das Laufgeräusch darauf an ob ich es als Störend empfinde oder nicht.

So angetan wie ich dann von der 980 JetStream von Palit war was die Temps und Lüfter sowie Laufgeräusch angeht , so endtäuscht bin ich von der 970 JetStream ebenso von Palit die jetzt hier im zweit Rechner wohnt.

Hatte sie sehr günstig bekommen, und da meine Frau nur ab und an am zweit Rechner mit zockt ist das Speicher Debakel an der Kiste nicht wirklich ein Drama und vernachlässigbar.

Allerdings wird die Karte im vergleich mit meiner alten GB 970 und aktuellen Palit 980 heißer und ist zu dem Störender vom Laufgeräusch.

Also ja, Sapphire hat das bei den 290x én echt am besten gelöst.
Aber auch das ist noch weit weg von einer laufruhigen 970/980.

Am Katastrophalsten ist da wohl Asus mit ihren nicht angeschlossenen Pipes bei der 290x xD

-------------

Trotzdem hat NV mir ein riesen Ei ins Nest gesetzt mit ihren mist mit der 970.

Ich hatte damals eine GTX 670, die rauchte ab, als übergang musste dann eine 270x 4GB herhalten.

Dann kam es endlich zur 970, hatte fest eingeplant die im SLI zu betreiben. Wobei ich da noch mit den 4GB gehadert habe, da mir da schon 6 oder 8 lieber gewesen wären. Angesichts der Performance und Preis hätte ich das aber hin genommen.

Und dann das Debakel. Von da aus dann zur 290x da MF ja die Rücknahme der 970 Zeitlich begrenzt angeboten hat und somit nicht groß Zeit war abzuwarten wie sich das entwickelt. Da die 290x mich nicht wirklich glücklich machen konnte, jetzt zur 980.

Die ich aber niemals für den vollen Preis gekauft hätte , hätte ich ihn denn zahlen müssen.

Hat einfach alles Zeit / nerven und arbeit gekostet was nicht hätte sein müssen.

Thunder99
2015-06-26, 15:13:30
Hatte auch ne Tri-X ins Auge gefasst aber dann für die Vapor-X entschieden. D.h. das beste gekauft was es gab zum fast 1:1 Preis wie die 970er. Und in der Tat, dank den neuen Treibern, ist sie im Durchschnitt ebenbürtig :)

Obwohl ich die 4GB nirgends bisher gebraucht hab (FarCry 4 max. Details mit SMAA und 1440p unter 3,5GB Verbrauch mit der 970/290 )ist mir das Risiko zu groß das ich später mich über den Speicher ärgere ;)

The_Invisible
2015-06-26, 15:26:57
Das Passiert nun seit dem G-sync branch ich hatte schon bis 3.8 GB usage laut Afterburner in GTA 5


Mein bisheriger GTX 970 Treiber WDDM 1.1 Rekord ;)

http://abload.de/thumb/gta5_2015_06_10_08_54y4xnq.png (http://abload.de/image.php?img=gta5_2015_06_10_08_54y4xnq.png)

was ist der gsync branch?

bei Wolfenstein hatte ich schon mal über 4000MB :wink:

Troyan
2015-06-27, 11:53:23
Vielleicht können wir die Fury X hier ja auch aufnehmen, wenn es um Stuttering bei Spielen mit hohen VRAM-Verbrauch geht:
GTA5: https://www.youtube.com/watch?v=8hnuj1OZAJs&feature=youtu.be&t=136
Shadow: https://www.youtube.com/watch?v=k_wNEOviaeE

/edit: Wow. Die VRAM-Anzeige springt fröhlich hin und her. Bei GTA 5 wird einfach mal 1GB rausgeworfen, wenn es zum Stuttering kommt. Ist ja fast schlimmer als bei der GTX970...

Thunder99
2015-06-27, 12:54:34
Vielleicht können wir die Fury X hier ja auch aufnehmen, wenn es um Stuttering bei Spielen mit hohen VRAM-Verbrauch geht:
GTA5: https://www.youtube.com/watch?v=8hnuj1OZAJs&feature=youtu.be&t=136
Shadow: https://www.youtube.com/watch?v=k_wNEOviaeE

/edit: Wow. Die VRAM-Anzeige springt fröhlich hin und her. Bei GTA 5 wird einfach mal 1GB rausgeworfen, wenn es zum Stuttering kommt. Ist ja fast schlimmer als bei der GTX970...
Sieht mir nach einem Fehler aus zwischen Streaming des Spiels und was der Treiber macht. Ergo nicht zu vergleichen mit der GTX970 sondern behebbar damit es besser gelöst wird.

Undertaker
2015-06-27, 13:12:41
Laut Aussage im Video liegt der VRAM-Verbrauch wohl deutlich über 4 GB, da wird man nicht mehr viel machen können. Genau, wie wenn bei der GTX 970 mehr als 3,5 GB belegt werden... Fragt sich nur, welche Menge in Relation zur Rechenleistung öfter limitiert. ;)

Optimierungen hin oder her: Zaubern können weder AMD noch Nvidia. ;)

Thunder99
2015-06-27, 14:52:01
Die Detail Stufe wird doch durch die Angabe der VRAM Menge begrenzt das es kein so ein verhalten geben sollte. Entweder ist dies derzeit nicht funktionstüchtig oder wurde umgangen um die Fury X schlechter darzustellen als sie ist ;)

aufkrawall
2015-06-27, 15:01:07
Du siehst doch im Video, dass die Option aus ist und nichts begrenzt wird. Ansonsten könnte man gar nichts einstellen, wenn der vom Spiel prognostizierte Verbrauch höher ist als der vorhandene VRAM.

Thunder99
2015-06-27, 15:07:37
Ah OK. Dann ist es umso nichtssagender da jede 4GB Karte das verhalten hat. Egal ob nvidia oder AMD

aufkrawall
2015-06-27, 15:11:32
Er hätte zumindest das Reflexions-MSAA ausmachen können. Wenn der VRAM knapp zu wenig ist, sorgt das schon für zusätzliche Ruckler, ohne wirklichen Mehrwert bei der Optik.

Aber das Problem von Fiji wird deutlich: Man kann GTA mit den richtigen Einstellungen mit guter Grafik in 4k mit der Fiji/GM200-Leistung spielen, aber 4GB sind dafür zu wenig.
Fiji für 4k-Monitor kaufen ist eine völlig irrationale Entscheidung im Vergleich zur 980 Ti. Tut mir leid, ist aber so.

Undertaker
2015-06-27, 15:51:30
Ah OK. Dann ist es umso nichtssagender da jede 4GB Karte das verhalten hat. Egal ob nvidia oder AMD

Bei diesen Settings definitiv. Entscheidend ist aber auch, ob eine Karte denn prinzipiell zumindest die notwendige Rohpower hat, um auch Settings >4 GB VRAM-Bedarf zu meistern. Und Fury X ist zweifellos die Karte, bei der das am ehesten zutrifft.

aufkrawall
2015-06-27, 15:58:42
"Rohpower" ist doch keine relevante Größe fürs Gaming.
Bei Risen 3 verglühen die Fiji-ALUs fast, trotzdem ist die Performance hinter GM200.

Undertaker
2015-06-27, 16:01:36
Rohpower war vielleicht das falsche Wort, ja – sagen wir lieber ganz allgemein die notwendige Leistungsfähigkeit, Settings mit >4 GB VRAM-Bedarf zu meistern. Bei GM204 oder Hawaii könnte man sich imo schon eher streiten, ob Modelle mit mehr als 4 GB überhaupt sinnvoll sind.

Troyan
2015-06-27, 16:17:02
Man sieht in den Videos, dass der Treiber die Karte nichtmal bis an die 4GB Grenze bringt. Da wird schon wesentlich früher limitiert - genauso wie bei der GTX970. Dort ging es auch meisten nur bis 3,5GB.

Und in GTA5 ist die komplette Speicherallokation kaputt. Da werden fröhlich 1GB an Daten aus dem VRAM entfernt und wieder geladen, was zu den tollen Hängern führt...

/edit: Watch Dogs als Vergleich - sind 4000 - 4100MB auf der GTX980TI.
GTX980TI: https://www.youtube.com/watch?v=f30n07n9Q7Y
Fury X: https://www.youtube.com/watch?v=QEbVMUniJLM

Wenn das die Leistung des unoptimierten Treibers ist, dann muss einen ja Angst und Bange werden. Der Treiber dürfte die Karte nicht auf <=3600MB limitieren. Vor Allem das Entfernen und Neuladen von Daten in den VRAM ist komisch. Stand jetzt ist das exakt das gleiche Verhalten wie bei der GTX970...

-/\-CruNcher-/\-
2015-06-28, 08:28:12
was ist der gsync branch?

bei Wolfenstein hatte ich schon mal über 4000MB :wink:

Interessant :)

Der instabile G-Sync branch sind allen voran 353.06/353.12 aber 353.30 zeigt deutlich bessere Ergebnisse


Reviewer die die Spulenqualität bei Nvidia Karten testen möchten kann ich nur Nvidias eigene NRenderDX11 Gamma Calibration routine empfehlen (schnell gestartet und einfach manipulierbar) mit Limiter kann man dann das Max FPS Latency end der Hardware sehr einfach lokalisieren.


Fiept garantiert immer

http://abload.de/thumb/fieptesto8u5z.png (http://abload.de/image.php?img=fieptesto8u5z.png)
http://abload.de/thumb/fiepfiepfiepfdubd.jpg (http://abload.de/image.php?img=fiepfiepfiepfdubd.jpg)
http://abload.de/thumb/fiepmania4dr0r.jpg (http://abload.de/image.php?img=fiepmania4dr0r.jpg)
http://abload.de/thumb/fiepfieeepzms39.jpg (http://abload.de/image.php?img=fiepfieeepzms39.jpg)

Für GTX 970 user auf jedenfall den Batman Treiber probieren 353.30 WHQL es gibt enorme Latency Boosts die überall in Windows mit Maxwell V2 (GM204) auf einem AVG Multicore System durchscheinen vor allem bei WDDM 1.1 :)

Das ganze DWM Multitasking ist Performanter das sollten vor allem user mit AVG Hardware sofort merken :)

Die ganze Taskswitch Responsiveness (Latency) hat sich enorm verbessert mit diesem Branch auch die Stabilität mehrerer Parallel laufender Multithreaded Rendering Cores ist sichtbar improved.

BitJäger
2015-07-01, 17:07:44
EuGH: Versehentliche Falschauskunft ist abmahnfähig (http://www.heise.de/newsticker/meldung/EuGH-Versehentliche-Falschauskunft-ist-abmahnfaehig-2732914.html)

Das Urteil hätten die 970er Kunden gebraucht.

Mr. Lolman
2015-07-01, 17:09:30
Die ganze Taskswitch Responsiveness (Latency) hat sich enorm verbessert mit diesem Branch auch die Stabilität mehrerer Parallel laufender Multithreaded Rendering Cores ist sichtbar improved.

Hm? Inwiefern hats da eine Latenz gegeben?

StefanV
2015-07-01, 19:10:37
EuGH: Versehentliche Falschauskunft ist abmahnfähig (http://www.heise.de/newsticker/meldung/EuGH-Versehentliche-Falschauskunft-ist-abmahnfaehig-2732914.html)

Das Urteil hätten die 970er Kunden gebraucht.
Schon, das Problem ist nur, wer das ganze abmahnen kann...
Und gerade im elektronischem Bereich scheint es kaum jemanden zu interessieren...

Verbraucherschützer interessieren sich z.B. nur für Dinge, die auch PR wirksam sind.

Kriton
2015-07-01, 20:35:03
EuGH: Versehentliche Falschauskunft ist abmahnfähig (http://www.heise.de/newsticker/meldung/EuGH-Versehentliche-Falschauskunft-ist-abmahnfaehig-2732914.html)

Das Urteil hätten die 970er Kunden gebraucht.

Na ja, zum einen mahnst Du als Verbraucher nicht ab, zum anderen habe ich meines Erachtens nach oft genug dargestellt wie das meines Erachtens nach mit dem Sachmangel und der 970 ist. Und auch deutlich belegt mit den entsprechenden Ausführungen. Wenn Käufer welche sich da "getäuscht" sehen das ignorieren kann ich ihnen auch nicht helfen.

-/\-CruNcher-/\-
2015-07-03, 00:12:20
Hm? Inwiefern hats da eine Latenz gegeben?

Das Main improvement hat bei der DSR Latenz (4K) statgefunden gehe mal davon aus im Zuge der Notebook freigabe ;)
Aussreichende Performance für die Mobile Series das schlägt bei AVG systemen nun voll durch :)
Weniger Tearing, Suttering und stabilerer Framverläufe bei 33.3 ms alles erfassbar weit besser als selbst der I-Cafe treiber und dessen Branch :)

Mich würde sehr interessieren in wie weit dieser Branch die vergleiche zwischen Fury X und 980 TI mitbestimmt hat, wenn sie weitaus übergreifender sind so wie es den anschein hat könnten sie sich bei den ganzen Balkenorgien hier und da durchaus bemerkbar gemacht haben ;)

Aber ohne das selbst testen zu können ist das nur eine Vermutung in wie weit es dann ja die sehr guten Ergebnisse noch weiter nach vorne gepushed hat ist ja auch nochmal eine ganz andere Frage ;)

Kann "momentan" nur das berichten was ich auf meinem Testsystem mit dem GM204 an Treiber improvements aktiv erfasse ;)

Eine solch subjektiv immense Verbesserung dieses Ausmas zeigt sich sichtbar natürlich nur unten wirklich (Low Power) die Auswirkungen nach oben hin sind meistens dann Subjektiv nicht mehr so direkt erfassbar, aber bei balkenorgien sieht das dann ja anders aus ;)

dildo4u
2015-07-21, 19:48:26
Hab mal ein Test mit Win 10 gemacht scheint sich anders zu verhalten als Win 8.1 ich kann AC Unity mit 4.4GB Vram Belegung zocken.Leider behindert mich meine CPU,der alte AMDX6 hat manchmal Probleme die 970 zu füttern selbst unter 1440p.(CPU Last fast 100% auf allen 6 Cores)

Assassin's Creed Unity GTX970 Vram Test unter Win10

https://mega.nz/#!4RkkyJqY!vBvNuRCKS_NNf3Vg3xC2byud_04a0RIalrLcDGjuY_g

Watch_Dogs 1440p 4XMSAA Ultra Texturen über 5GB Vrambelegung

https://mega.nz/#!QZ1kGIIQ!-i9rbh24tx0Q6RwXuQ7ZKVroEx1IGBqEeFVoJdRNnq4

Farcry 4 1440p 2xTXAA

https://mega.nz/#!cVdB2DZR!6kEj10SvkpM84WbeiL_OWadNTF6oUCZUtiHFcKCjRVE

Shadow of Mordor Ultra Texturen und Downsampling

https://mega.nz/#!RZsXCJiZ!Pjy7APvUjk3Me72T7JUptimtITcdwSYiiWyH3MMf5CE

Ex3cut3r
2015-07-21, 20:34:10
Win 10 scheint wirklich was zu bringen bei Sprücherkrüppels? Dann könnte ich meine 2GB länger behalten bis z.B Pascal kommt....

Arcanoxer
2015-07-21, 21:13:33
Ich habe meine GTX460 auch wieder aus den Schrank geholt. :freak:

dildo4u
2015-07-21, 22:37:27
Hab noch ein Watch_Dogs Video hinzugefügt Vrambelegung über 5GB.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10714010&postcount=4860

dargo
2015-07-21, 22:50:02
Ist überhaupt schon sicher, dass die Auslesung der Vrambelegung unter Windows 10 fehlerfrei ist?

gedi
2015-07-21, 22:54:27
Die angezeigten Werte kommen mir auch etwas utopisch vor ...

dildo4u
2015-07-21, 22:58:04
Ich kanns nich gegentesten aber MSAA + Ultra Texturen verschlinkt massig Vram bei Watch Dogs 1440p + 4XMSAA ist auch unter 8.1 weit über 4Gb.

Nästes Video Farcry 4 1440p 2xTXAA

https://mega.nz/#!cVdB2DZR!6kEj10SvkpM84WbeiL_OWadNTF6oUCZUtiHFcKCjRVE

Musste die GPU ein wenig entlasten daher keine Godrays und HBAO+.

kruemelmonster
2015-07-23, 19:47:26
Ist überhaupt schon sicher, dass die Auslesung der Vrambelegung unter Windows 10 fehlerfrei ist?

Das Verhalten der UE4 KiteDemo und der Frametimevergleich zwischen Win8.1 und 10 lässt mich das annehmen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10711561#post10711561

N0Thing
2015-07-24, 00:45:22
Das Verhalten der UE4 KiteDemo und der Frametimevergleich zwischen Win8.1 und 10 lässt mich das annehmen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10711561#post10711561

Für mich sieht der Verlauf sehr ähnlich aus, wenn man die unterschiedliche Skalierung in Betracht zieht. Die Sprünge bei Win10 wirken geringer, erreichen aber nahezu die gleichen Latenzwerte wie unter 8.1. Dort geht die Y-Achse bis 360ms, bei dem Graph zu Win10 bis 540ms.

Also eher weniger Min. FPS bei Win10 mit den gleichen oder gar stärkeren Spikes im Vergleich zu Win 8.1.

aufkrawall
2015-07-24, 01:22:26
Seltsam ist, dass die fps mit der mit WDDM 2.0 so viel niedriger sind.
Könnte einfach ein Treiber-Bug sein, ansonsten würde das andere Auslagerungsverhalten arg viel Performance kosten. Die Varianz erscheint mir optisch bei Win X aber besser.

Wie gesagt, kann ich für mich bei Win 8 vs. Win 10 keinen Unterschied feststellen.
Die Kite-Demo läuft im ersten Durchgang auch immer besser als in nachfolgenden, der RAM (8GB) ist hier einfach zu voll.

Wir bräuchten noch ein besseres Beispiel. Am besten eines, das unter Idealbedingungen gar nicht stockt.
GTA V ohne Anti-Cheat könnte sich dafür eignen.

kruemelmonster
2015-07-24, 02:09:28
Mit GTA5 kann ich wie mit AC Unity oder CoD AW leider nicht dienen, nach meinem kleinen Testparcours im Win10 Preview Thread halte ich Company of Hereos 2 für geeignet: unter Win8.1 waren (sowohl im integrierten Benchmark als auch InGame) nur Texturen auf Medium möglich, High hat bereits geruckelt. Unter Win10 liefen auch hohe Texturdetails vernünftig und analog zur KiteDemo ohne die starken Nachladeruckler welche im 8.1 Diagramm imo auch gut zu erkennen sind.
Frametimes unter Win10 kann ich morgen posten, 8.1 muss ich erst wieder auf eine weitere Platte installieren.

Weitere Meßwerte sind natürlich immer willkommen. ;)

Knuddelbearli
2015-07-24, 17:17:33
gibt es schon Neuigkeiten von der Sammelklage aus der USA?

dildo4u
2015-07-26, 17:52:27
Letzter Win 10 GTX 970 Test Shadow of Mordor Ultra Texturen und Downsampling


https://mega.nz/#!RZsXCJiZ!Pjy7APvUjk3Me72T7JUptimtITcdwSYiiWyH3MMf5CE

aufkrawall
2015-08-27, 22:57:54
Company of Heroes 2 gibts gerade free2play auf Steam. Mag sich das mal jemand mit einer 970 anschauen?

Timbaloo
2015-08-27, 23:09:26
Speziell unter Win10?

aufkrawall
2015-08-28, 15:00:32
Windows 8 dürfte besser sein, weil das wohl eher zu Stockern neigt, Windows 10 hingegen zu fps-Einbrüchen.

Knuddelbearli
2015-08-28, 15:08:13
Das Hauptproblem das ich atm sehe ist DX der12 Spieleprogrammierer muss sich selbst, mehr ,um den Speicher kümmern und wieviele andere 3,5Gb Karten gibt es oder gar Karten mit so einer Aufteilung?
Spätestens mit dx12 wird es vermutlich zu massiven Problemen kommen. Noch behalte ich sie aber, aber hoffe die ersten größeren Probleme kommen noch innerhalb der Garantiefrist und nicht kurz danach.

Timbaloo
2015-08-28, 15:24:17
Windows 8 dürfte besser sein, weil das wohl eher zu Stockern neigt, Windows 10 hingegen zu fps-Einbrüchen.
Mit Win7 könnte ich dienen. Das sollte gegenüber Win8 ja keinen Unterschied machen...

aufkrawall
2015-08-28, 22:57:11
Klar, Win 7 wäre auch interessant.

AnnoDADDY
2015-08-28, 23:20:44
Das Hauptproblem das ich atm sehe ist DX der12 Spieleprogrammierer muss sich selbst, mehr ,um den Speicher kümmern und wieviele andere 3,5Gb Karten gibt es oder gar Karten mit so einer Aufteilung?
Spätestens mit dx12 wird es vermutlich zu massiven Problemen kommen. Noch behalte ich sie aber, aber hoffe die ersten größeren Probleme kommen noch innerhalb der Garantiefrist und nicht kurz danach.

bis das wirklich relevant wird, scheitert die 970 eh an der Rohleistung, als das der Speicher bremst.

Timbaloo
2015-08-28, 23:45:34
Klar, Win 7 wäre auch interessant.
Was willst denn haben? Bin bei der ganzen Bencherei irgendwie raus. Fraps hab ich drauf, kann man damit sauber frametimes aufnehmen? Ich hab das was im Hinterkopf, dass das nicht mehr sauber ging?

Knuddelbearli
2015-08-28, 23:56:32
bis das wirklich relevant wird, scheitert die 970 eh an der Rohleistung, als das der Speicher bremst.

also ich hatte bis zur 970 ne 480 drinn ...
und DX "Spiele" gibt es ja schon 3
hätte ich damals nur doch zur 290X gegriffen ...

The_Invisible
2015-09-07, 12:48:12
also ich hatte bis zur 970 ne 480 drinn ...
und DX "Spiele" gibt es ja schon 3
hätte ich damals nur doch zur 290X gegriffen ...

Laut PCGH Hefttest läuft eine 970er sogar "smoother" als ne 290 im Praxistest. Und ob 3,5GB oder 4GB Speicher ist auch schon egal, siehe COD:BO3 Benchmarks, das läuft mit jeder 4GB Karte unsauber.

Monty
2015-09-07, 20:21:55
Liegt halt daran, dass Nvidia im Treiber extra den Speicher der 970 im Zaum hält ;)
Das machts meiner Meinung nach aber nicht besser ;)

Schaffe89
2015-09-07, 20:30:43
Ja und nun ist es auch noch ne Directx11 Karte.

Grestorn
2015-09-07, 20:57:40
:rolleyes:

dildo4u
2015-09-07, 21:18:53
Ja und nun ist es auch noch ne Directx11 Karte.

AMD: “There’s no such thing as “full support” for DX12 today”, Lists Missing DX12 Features For FuryX


http://www.dsogaming.com/news/amd-theres-no-such-thing-as-full-support-for-dx12-today-lists-missing-dx12-features-for-furyx/

aufkrawall
2015-09-07, 21:21:43
Tragt diesen unnützen Battle doch bitte in einem gesonderten idiotischen Thread aus.

Tamagothi
2015-09-08, 18:36:05
http://www.pcgameshardware.de/Batman-Arkham-Knight-Spiel-54131/Specials/Benchmarks-Interim-Patch-Test-1170419/

Schon Lustig diese GTX 970 unter 1440p :biggrin:

dargo
2015-09-08, 18:42:26
Und das in einem Gameworks Titel. X-D

Kartenlehrling
2015-09-08, 18:43:30
wieso testen sie mit 2x R9280-3gb , aber keine R9285-2gb bzw. R9380-4gb ?

Nakai
2015-09-08, 18:49:46
:freak::freak::freak:

Oh mann, ich befürchte, dass die GTX970 Treiberanpassungen benötigt, welche derzeit nicht mehr vorgenommen werden, aus Gründen von DX12, VR, etc.

aufkrawall
2015-09-08, 18:53:27
Wieso kommen immer alle darauf, dass da jemals viel getan wurde seitens NV?
Dafür gibts überhaupt keinen Nachweis. Eher scheint mir die Problematik fast rein zufällig aufzutreten, wenn die Grenze überschritten wird.

Tamagothi
2015-09-08, 18:53:43
Man sieht sehr schon was passiert sobald Pascal da ist und Maxwell links liegen gelassen wird.

Beispiel?

GTX 770 4G vs. R9 280X @ Full HD -->> AMD +20%

dargo
2015-09-08, 18:55:17
:freak::freak::freak:

Oh mann, ich befürchte, dass die GTX970 Treiberanpassungen benötigt, welche derzeit nicht mehr vorgenommen werden, aus Gründen von DX12, VR, etc.
Och... die Keplers stehen da auch nicht besonders gut, habe ein Déjà-vu an Witcher 3. ;) Allerdings möchte ich nicht zu voreilig sein, schließlich hat Kepler max. 3GB Speicher. Schade, dass keiner mit 6GB dazu genommen wurde.

Man sieht sehr schon was passiert sobald Pascal da ist und Maxwell links liegen gelassen wird.

Beispiel?

GTX 770 4G vs. R9 280X @ Full HD -->> AMD +20%
Ups... das ist mir auf den ersten Blick gar nicht aufgefallen. Dann dürfte der Fall klar sein. ;)

captain_drink
2015-09-08, 19:00:34
Peinlicherweise ist da erstmals der Effekt zu sehen, dass die 780 Ti mit 3 GB schneller ist als die segmentierte 970.
Und das, obwohl Kepler ohnehin unterdurchschnittlich abschneidet.

Man sieht sehr schon was passiert sobald Pascal da ist und Maxwell links liegen gelassen wird.

Beispiel?

GTX 770 4G vs. R9 280X @ Full HD -->> AMD +20%

Geht das schon wieder los...

Schau dir mal die Benches zu Mad Max an, das widerlegt deine These krachend.

@aufkrawall: Es gibt schon einige Videos zu FC4 z.B., wo die Grenze ständig überschritten wird, ohne dass es losruckelt.
Ob das einer niedrigen Auslastung der Bandbreite oder speziellen Anpassungen geschuldet ist, weiß man natürlich nicht,

-/\-CruNcher-/\-
2015-09-08, 19:01:08
http://www.pcgameshardware.de/Batman-Arkham-Knight-Spiel-54131/Specials/Benchmarks-Interim-Patch-Test-1170419/

Schon Lustig diese GTX 970 unter 1440p :biggrin:

Abwarten wenn Nvidia ihr neues AA präsentiert für DX 12 ;)

Diese Engine ist auch nicht wirklich was man State of the Art nenen würde es gibt ein paar schöne sachen die recht ordentlich draufgesetzt wurden aber das Gerüst wackelt ;)

dargo
2015-09-08, 19:02:37
Peinlicherweise ist da erstmals der Effekt zu sehen, dass die 780 Ti mit 3 GB schneller ist als die segmentierte 970.
Und das, obwohl Kepler ohnehin unterdurchschnittlich abschneidet.
Stichwort... besondere Treiberpflege für die GTX970. :wink:

aufkrawall
2015-09-08, 19:05:15
hahaa die ganzen Trottel, die von der 970 auf die 980 "upgegradet".. Moment mal.. :uponder:
scnr... :freak:

Für die 970 könnte eine Art Heuristik im Treiber existieren, auf die die Spiele-Entwickler hin optimieren müssen, damit es möglichst wenig Probleme gibt.

Machen sie das nicht (kein Bock, kein Geld, keine Zeit, keine Priorität...), hat man mit der 970 die Arschkarte.
Und das schon in 1080p ohne MSAA. :cool:

dildo4u
2015-09-08, 19:06:26
Peinlicherweise ist da erstmals der Effekt zu sehen, dass die 780 Ti mit 3 GB schneller ist als die segmentierte 970.
Und das, obwohl Kepler ohnehin unterdurchschnittlich abschneidet.

Die Karten sind nicht vergleichbar einfach mal den Artikel lesen das Game zeigt mehr Detail's je mehr Vram die Karte hat.

fondness
2015-09-08, 19:07:19
Und das in einem Gameworks Titel. X-D

Gameworks-Titel zeichnen sich vor allem dadurch aus, dass die Entwickler knapp bei Kasse sind und zusätzliche Spenden dankend entgegennehmen. Deshalb auch der ganze verbuggte Spiele und diverse äußerst bescheiden implementierte Features. Ausnahmen bestätigen da höchstens die Regel. Batman setzt dem ganzen dann noch die Krone auf. AMD würde dafür geteerte und gefedert werden, aber bei NV prallt das alles ab.

captain_drink
2015-09-08, 19:09:18
Die Karten sind nicht vergleichbar einfach mal den Artikel lesen das Game zeigt mehr Detail's je mehr Vram die Karte hat.

Ja, aber dort steht nichts dazu, dass und in welchem Ausmaß die 780 Ti später streamt als die 970.
Eventuell ist der Unterschied von 780 Ti zu 970 wie der von 970 zu 980, d.h. vernachlässigbar.
Außerdem sind Texturen eher speicher- als leistungsrelevant.

-/\-CruNcher-/\-
2015-09-08, 19:09:37
Die Karten sind nicht vergleichbar einfach mal den Artikel lesen das Game zeigt mehr Detail's je mehr Vram die Karte hat.

Es ist von mehr abhängig als nur das das Streaming hier ist jedenfalls nicht das Beste man merkt sehr deutlich wo es seinen Ursprung hat ;)

Ja, aber dort steht nichts dazu, dass die 780 Ti später streamt als die 970.


latenz ist PCGH oft ein fremdwort die kennen nur Balken ;)

dargo
2015-09-08, 19:10:05
Abwarten wenn Nvidia ihr neues AA präsentiert für DX 12 ;)

Öhm... das Game verwendet doch bloß Post-AA. Das frisst weder nenneswert Leistung noch Speicher.

captain_drink
2015-09-08, 19:14:00
Gameworks-Titel zeichnen sich vor allem dadurch aus, dass die Entwickler knapp bei Kasse sind und zusätzliche Spenden dankend entgegennehmen. Deshalb auch der ganze verbuggte Spiele und diverse äußerst bescheiden implementierte Features. Ausnahmen bestätigen da höchstens die Regel. Batman setzt dem ganzen dann noch die Krone auf. AMD würde dafür geteerte und gefedert werden, aber bei NV prallt das alles ab.

Deine letzten Postings waren eigentlich i.O., aber das ist undifferenziertes Gewäsch vom Feinsten.
Man denke nur an den in exquisitem Zustand releasten Gaming-Evolved-Titel Battlefield 4...

Blediator16
2015-09-08, 19:16:16
Deine letzten Postings waren eigentlich i.O., aber das ist undifferenziertes Gewäsch vom Feinsten.
Man denke nur an den in exquisitem Zustand releasten Gaming-Evolved-Titel Battlefield 4...

Noch mehr Beispiele, als das Paradebeispiel BF4? :rolleyes:

fondness
2015-09-08, 19:17:15
Alleine schon das er ein Spiel aus 2013 heraus kramen muss zeigt das ich nicht so falsch liege. Natürlich ist es pauschalisiert, das habe ich ja auch erwähnt, Ausnahmen gibt es keine Frage. Aber eine Häufung an Bugs ist kaum zu leugnen, und ein Zusammenhang mit der entsprechenden Unterstützung durch NV, welche gerade solche Studios dankend annehmen wohl nicht rein zufällig. Man denke nur an den ganzen UbiSchrott.

aufkrawall
2015-09-08, 19:23:53
Der Vergleich hinkt schon deshalb, weil in den letzten Monaten fast kein Spiel mit AMD-Features erschienen ist. Auf was soll er sich dann sonst beziehen?

dildo4u
2015-09-08, 19:27:16
Alleine schon das er ein Spiel aus 2013 heraus kramen muss zeigt das ich nicht so falsch liege. Natürlich ist es pauschalisiert, das habe ich ja auch erwähnt, Ausnahmen gibt es keine Frage. Aber eine Häufung an Bugs ist kaum zu leugnen, und ein Zusammenhang mit der entsprechenden Unterstützung durch NV, welche gerade solche Studios dankend annehmen wohl nicht rein zufällig.

Das hat viel mehr damit zu tun das die PC Versionen oft nur 10% von den Gesamtverkäufen ausmachen,daher bekommen sie kein vernünftiges Budget.
Was natürlich Unsinn ist da gerade die PC Version wegen den vielfältigen Konfigurationen viel mehr Geld für die Qualitätskontrolle braucht.

captain_drink
2015-09-08, 19:27:47
Noch mehr Beispiele, als das Paradebeispiel BF4? :rolleyes:

Nein, weil es ohnehin idiotisch ist, Spiele nach ihrer IHV-Kooperation gegeneinander aufzurechnen. Allein schon aufgrund der höheren Anzahl an Kooperationen mit NV steigt die statistische Wahrscheinlichkeit, dass ein Ausfall dabei ist.
Ein schlechter Releasezustand kann zig Gründe haben, die Zusammenarbeit mit einem IHV ist schlicht keiner, der auf den vordersten Plätzen zu finden ist.

dargo
2015-09-08, 19:28:34
hahaa die ganzen Trottel, die von der 970 auf die 980 "upgegradet".. Moment mal.. :uponder:
scnr... :freak:

Ich denke es ging damals eher darum, dass du den Hersteller der dich beschissen hatte nochmal mit einem höheren Preis belohnt hast. ;) Aber lassen wir das Thema, schließlich muss niemand seine Einkäufe rechtfertigen. :)

Das hat viel mehr damit zu tun das die PC Versionen oft nur 10% von den Gesamtverkäufen ausmachen,daher bekommen sie kein vernünftiges Budget.

Wieder so ein Blödsinn ohne Belege. Wann kapierst du endlich, dass gerade am PC der digitale Vertrieb boomt und kein Publisher (mit wenigen Ausnahmen) sich bei den Verkaufszahlen in die Karten sehen lassen will? Ubisoft spricht bsw. bei der PC-Version von Watch Dogs von 70% @digital während beide neuen Konsolen nur auf 10% kommen.
http://www.pcgameshardware.de/Watch-Dogs-Spiel-41939/News/Watch-Dogs-Verkaufsanteile-bekannt-gegeben-PC-mit-12Prozent-1128480/

aufkrawall
2015-09-08, 19:29:58
Das meiste vom Shitstorm kommt häufig einfach daher, dass das Streaming zu beschissen für mehr als gelockte 30fps wie auf den Konsolen ist.
Da hat der Publisher einfach auf maximalen Profit ohne Rücksicht auf die technische Qualität gedrückt.
Zusammenhang mit GW = null
Die kassieren genau so, wenn die IHVs ihre Logo-Videos ins Spiel integrieren dürfen...

-/\-CruNcher-/\-
2015-09-08, 19:34:00
Alleine schon das er ein Spiel aus 2013 heraus kramen muss zeigt das ich nicht so falsch liege. Natürlich ist es pauschalisiert, das habe ich ja auch erwähnt, Ausnahmen gibt es keine Frage. Aber eine Häufung an Bugs ist kaum zu leugnen, und ein Zusammenhang mit der entsprechenden Unterstützung durch NV, welche gerade solche Studios dankend annehmen wohl nicht rein zufällig. Man denke nur an den ganzen UbiSchrott.

Schrott also junge du musst zum Zahnartzt deine Kopfschmerzen scheinen dir schon mächtig auf die Zellen zu gehen ;)

aufkrawall
2015-09-08, 19:36:08
Aber dir gehts gut?
Ubisoft hat selbst eingestanden, dass ihre QA in der Vergangenheit zu schlecht war.

Megamember
2015-09-08, 19:36:16
Ich hab kein Plan was PCGH da in Batman gebenched hat aber die Werte der 970 stimmen absolut nicht!!!
Hab grad mal nachgebenched mit deren settings:

970@STock boost (1354), UHD, max. Details, Gameworks off:

http://abload.de/thumb/batmanak_2015_09_08_1ycki2.jpg (http://abload.de/image.php?img=batmanak_2015_09_08_1ycki2.jpg)

Wahrscheinlich haben sie bei dem bench Gameworks Einstellungen angelassen, dann kommts hin.

aufkrawall
2015-09-08, 19:37:56
Das ist nur WQHD, nicht UHD.

dargo
2015-09-08, 19:38:01
Schrott also junge du musst zum Zahnartzt deine Kopfschmerzen scheinen dir schon mächtig auf die Zellen zu gehen ;)
Nunja... Watch Dogs und Assassin’s Creed Unity glänzten beim Release nicht gerade mit Qualität. ;)

Ich hab kein Plan was PCGH da in Batman gebenched hat aber die Werte der 970 stimmen absolut nicht!!!
Hab grad mal nachgebenched mit deren settings:

970@STock boost (1354), UHD, max. Details, Gameworks off:

http://abload.de/thumb/batmanak_2015_09_08_1ycki2.jpg (http://abload.de/image.php?img=batmanak_2015_09_08_1ycki2.jpg)

Wahrscheinlich haben sie bei dem bench Gameworks Einstellungen angelassen, dann kommts hin.
Eigentlich sieht man bei der PCGH die verwendeten Einstellungen sehr gut. :confused:

captain_drink
2015-09-08, 19:39:19
PCGH bencht auch eine eigene Szene, nicht den internen Parcours.

Megamember
2015-09-08, 19:40:03
Das ist nur WQHD, nicht UHD.

Naja 2560x1440 halt...

Nakai
2015-09-08, 19:40:28
Eure Verbissenheit in allen Ehren. Dem typischen User interessiert es nicht und er erfährt es auch nicht. Also wayne.

-/\-CruNcher-/\-
2015-09-08, 19:41:46
Aber dir gehts gut?
Ubisoft hat selbst eingestanden, dass ihre QA in der Vergangenheit zu schlecht war.

Entschuldige mal das ist etwas ganz anderes ich rede von Ubisofts R&D und nicht von irgendwelchen Logik problemen.
Fondness tut ja so als hätte Ubisoft nichts eigenes erreicht innerhalb ihrer Studios und ist bettelnd zu Nvidia gerannt ;)

Nunja... Watch Dogs und Assassin’s Creed Unity glänzten beim Release nicht gerade mit Qualität. ;)


Eigentlich sieht man bei der PCGH die verwendeten Einstellungen sehr gut. :confused:

Je höher die Komplexität je mehr Zeit die man meistens nicht hatt das sind aber meistens Management Fehlentscheidungen

aufkrawall
2015-09-08, 19:53:15
Naja 2560x1440 halt...
Siehe captain_drinks Post.

dildo4u
2015-09-08, 19:54:57
Ja, aber dort steht nichts dazu, dass und in welchem Ausmaß die 780 Ti später streamt als die 970.
Eventuell ist der Unterschied von 780 Ti zu 970 wie der von 970 zu 980, d.h. vernachlässigbar.
Außerdem sind Texturen eher speicher- als leistungsrelevant.
Das ergibt kein Sinn wäre sie nicht Leistungsrelevant wäre die 970 nicht so viel langsamer.

aufkrawall
2015-09-08, 19:58:12
Wut? Entnehme ich deinem Post, dass du die VRAM-Verkrüppelung der 970 immer noch nicht realisiert hast?

dargo
2015-09-08, 20:01:47
Wut? Entnehme ich deinem Post, dass du die VRAM-Verkrüppelung der 970 immer noch nicht realisiert hast?
Du liegst goldrichtig, aber keine Sorge dildo ist nicht der Einzige. ;)

dildo4u
2015-09-08, 20:28:41
Mich wundert es nur das es da noch keine Anpassung gab angeblich arbeitet ja NV mit am Game aber vielleicht ist das noch geplant noch wird das Game ja nicht wieder verkauft.Zur Zeit wird bei mir Ingame bis zu 4 GB als ok eingestuft.Die Engine ist ja eigentlich in der Lage dynamisch den Verbrauch zu regulieren siehe die Werte der 780 Ti.

aufkrawall
2015-09-08, 20:30:54
Meine Theorie (ist noch nicht so alt):
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10771704&postcount=4898
Bei dem Spiel wird so viel kaputt gewesen sein, dass das Rücksichtnehmen auf eine Scheiß-Karte halt nicht als das Wichtigste erschien...

dildo4u
2015-09-08, 20:32:56
Die Karte ist die mit Abstand meist verkaufte zur Zeit,wird kein Zufall sein das das Game noch nicht freigegeben wird.

aufkrawall
2015-09-08, 20:37:24
Die Karte ist die mit Abstand meist verkaufte zur Zeit
Das ändert an den technischen Realitäten allerdings gar nichts.
Ist ja nicht das erste Spiel, bei dem man mit der 970 die A-Karte hatte (mit Glück gabs dann halt Patches, was meine Theorie mit den Anpassungen für eine Treiber-Heuristik stützt).

Nur mal zu Erinnerung: Watch Dogs war auch ein Gameworks-Spiel. Trotzdem lief das mit dem häufig geringeren VRAM der damaligen NV-Karten nochmal wesentlich schlechter, als es das wegen des kaputten Streamings eh schon tat.

Botcruscher
2015-09-08, 20:43:26
Wieso kommen immer alle darauf, dass da jemals viel getan wurde seitens NV?
Dafür gibts überhaupt keinen Nachweis. Eher scheint mir die Problematik fast rein zufällig aufzutreten, wenn die Grenze überschritten wird.

Indizien. Zum Beispiel das Update bei Farcry 4 was erst mal die Ramauslastung aller Karten auf das Level der 970 gedrückt hat.

dildo4u
2015-09-08, 20:47:09
Wie gesagt wenn sie das Game für die 780Ti auf 3GB beschränken können sollte es auch für 3.5GB gehen,das ist keine mehr Arbeit extra für die 970 wenn die Funktion eh schon vorhandenen ist.Da müssen sie nur die korrekten Werte für die 970 nutzen.

aufkrawall
2015-09-08, 20:47:11
Indizien. Zum Beispiel das Update bei Farcry 4 was erst mal die Ramauslastung aller Karten auf das Level der 970 gedrückt hat.
Mein Quote, auf das du dich beziehst, handelte von Anpassungen auf der Treiber-Seite (!) bei NV, um das Problem möglichst zu umschiffen.
Die ich eben für begrenzt halte, weshalb die Spiele-Entwickler wahrscheinlich ebenso Anpassungen vornehmen müssen (du hast das FC4-Beispiel ja jetzt selbst gebracht).

aufkrawall
2015-09-08, 20:49:58
Wie gesagt wenn sie das Game für die 780Ti auf 3GB beschränken können können sollte es auch für 3.5GB gehen,das ist keine mehr Arbeit extra für die 970 wenn die Funktion eh schon vorhandenen ist.Da müssen nur die korrekten Werte für die 970 genutzt werden.
Tja, dann kann NV das ja gleich im Treiber anbieten.
Meine Vermutung ist, dass NV das nicht will (auch nicht optional und vielleicht auch absichtlich nicht von den Spielen selbst, zumindest nicht sichtbar), weil dann jeder Idiot checken würde, wie kaputt die 970 by design ist.

MartinRiggs
2015-09-08, 20:51:00
Wie lange probieren einige Helden eigentlich noch die Krüppelkarte schön zu reden?:rolleyes:

dargo
2015-09-08, 20:55:05
Wie lange probieren einige Helden eigentlich noch die Krüppelkarte schön zu reden?:rolleyes:
Hey... was sich super verkauft muss doch gut sein. ;)

von Richthofen
2015-09-08, 20:58:09
Schon der dritte komplette Benschmarklauf für Batman seitens der PCGH - gefällt mir.
Nach dem erneuten Patch sehen die Ergebnisse auch weitaus stimmiger aus. Die MinFPS sind freundlicher und auch so Kuriositäten wie 290X 8G schneller als 390X gehören der Vergangenheit an. Langsam wird das Spiel kaufbar.

Die 970 kriegt in den hohen Auflösungen richtig eins drübergebraten. Eine 980 enteilt satte 40+ Prozent - weit mehr als der Hardwareunterschied rechtfertigen ließe. Die nV Speicherkrüppel stolpern sich nun schon durch ihre eigenen Spiele.
Ich glaube, dass man in Zukunft weiterhin Extra-Würste für die 970 braten muss. Gerade wenn die Speicheranforderungen steigen wird das unabdingbar. Die Karte hat eine immense Verbreitung gefunden und steht bei vielen nach wie vor auf dem Wunschzettel. Zudem dürfte sie, nicht zuletzt ihres Alters wegen, noch eine ganze Weile weiterproduziert werden.

Megamember
2015-09-08, 21:01:55
In 99% der Fälle leistet die 970 gute Arbeit. Nur weil jetzt ein beta Spiel was noch garnicht offiziell draussen ist Probleme macht (die übrigens erst mit dem Patch kamen und sicher ganz einfach gefixt werden kann) ist sie jetzt natürlich wieder völlig kacke, klar. ;)

aufkrawall
2015-09-08, 21:01:59
Bei dem allgemeinen Druck auf die Studios wird das häufig weiter hinten anstehen, und dann gibts halt ein paar Wochen oder Monate später mit etwas Glück einen Patch.
Die Zukunft der 970 sieht beschissen aus. Windows 10 scheint die Schwäche ja auch in Balken durch den größeren fps-Verlust anstatt harter Ruckler sichtbarer zu machen, das wird noch lustig. :popcorn:

Effe
2015-09-08, 21:08:40
wieso testen sie mit 2x R9280-3gb , aber keine R9285-2gb bzw. R9380-4gb ?
Text lesen eventuell?
Doch auch mit den Radeons gibt es einige Probleme, eines davon ist das nun ebenfalls schon wiederholte Auffallen der R9 380 beziehungsweise R9 285. Weder die eine, noch die andere GPU ließ sich benchen - wir probierten mehrere verschiedene Karten aus, ohne Erfolg. Zwar startete das Spiel, stürzte bei unserem Benchmark allerding reproduzierbar ab. Dieser Fehler trat nur und wiederholt mit der Radeon R9 285 und R9 380 auf, weshalb wir auf einen Treiberfehler tippen. Und schon in unserem Beta-Test zu Ashes of the Singularity trat die R9 380 unter Direct X 12 in den Streik.

MartinRiggs
2015-09-08, 21:11:17
Ja redet euch die Karte ruhig schön, ihr habt sie ja auch von Nvidia geschenkt bekommen:ulol:

von Richthofen
2015-09-08, 21:15:42
In 99% der Fälle leistet die 970 gute Arbeit. Nur weil jetzt ein beta Spiel was noch garnicht offiziell draussen ist Probleme macht (die übrigens erst mit dem Patch kamen und sicher ganz einfach gefixt werden kann) ist sie jetzt natürlich wieder völlig kacke, klar. ;)

Das mag schon annähernd stimmen, nur kommt eben auch kein gutes Gefühl für die Zukunft auf.

aufkrawall
2015-09-08, 21:21:18
Ab wann ist die Karte eigentlich schlecht?
Ab einem durch die Verkrüppelung vermurksten Spiel? Zwei, drei...?

Für mich ist ja die Beantwortung der Frage klar...

Peter Gräber
2015-09-08, 21:29:06
http://ht4u.net/news/31426_praxis_erste_gehversuche_mit_dem_patch_fuer_batman_arkham_knight/

Volle Details, keine NVIDA Gameworks-Features aktiv. Ein System (Spiele-Testrechner) mit GTX 970 und 2560er Auflösung weit problemloser als HTPC mit FullHD und GTX 970. Vorteil Spiele-Test-Rechner: SSD - im zweiten Gerät nur Caching. Der "Krüppel" bewältigt das also unter 2560-Auflösung relativ problemlos - selbst mit vom Spiel geforderten 3800 MByte.

Kartenlehrling
2015-09-08, 21:37:02
Werden die Texturen schnell genug nachgeladen, schon bei ersten Test wurden einige Texturen erst garnicht auf HighQualität geladen, selbst bei einer Gtx980?

-/\-CruNcher-/\-
2015-09-08, 21:42:00
Ja redet euch die Karte ruhig schön, ihr habt sie ja auch von Nvidia geschenkt bekommen:ulol:

Langsam wird das ganze echt langweilig das einzige problem der GTX 970 ist der shadercount und die fehlenden Geometrie einheiten das ist am problematischsten vor allem mit Gameworks ;)
deshalb sollte man bei Batman am besten enhanced light shafts und den Smoke abschalten, enhanced Rain kann man ohne probleme nutzen.

Und ich rede hier auschlieslich von 4K

aufkrawall
2015-09-08, 21:43:17
Aha, deshalb erhöht sich der Abstand zwischen 970 und 980 von 1080p auf WQHD auch von 10 auf 40%. Ist ja völlig normal, schon klar. :smile:

-/\-CruNcher-/\-
2015-09-08, 21:49:39
Dir ist schon klar das das PP je höher die Auflößung mehr Shader Power verlangt oder da mehr Pixel ?

Aus Spaß mal alles PP abschalten kann man ja jetzt auch als otto normal ;)

Der unterschied zwischen GTX 980 und 970 sind eigentlich immer so ~10 FPS die kann man oft mit takt ausgleichen aber bei Gameworks bringt das so gut wie nichts ;)

aufkrawall
2015-09-08, 21:57:31
Nicht dermaßen, dass der Abstand zwischen beiden Karten explodiert.
Bei Hawaii Pro vs. Hawaii Xt sind es auch nur 7 vs 8% Unterschied.
Wenn der VRAM-Beschiss nicht zum tragen kommt, beträgt der Abstand zwischen 970 und 980 nie mehr als 25% und nicht selten sind es in WQHD auch nur 15%.
Die vorliegenden 40% sind abormal und dem VRAM-Beschiss geschuldet. Wie kann man sich nur so hartnäckig der Realität verweigern...
Abgesehen davon steht im Artikel auch, dass mit der 970 die Texturen leicht schlechter aussehen als mit der 980.

-/\-CruNcher-/\-
2015-09-08, 22:07:00
Man muss auf 1500 Mhz kommen mit der GTX 970 um auszugleichen aber wie gesagt bei Gameworks bringt es nicht sonderlich viel da ist so gut wie nur der reine Shadercount entscheidend


Was ich da über den Patch lese ist katastrophe ich spiel den garantiert nicht ein weil ich diese probleme so auf der GTX 970 nicht habe mit dem Juli Patch state und momentan 355.84

Die Batmobil sequenzen gehen minimal auf 25 fps runter ohne Weight Blended Interactive Smoke und ohne Streaming anpassungen

Allerdings nutze ich Windowed Borderless Mode Pre Render limit 1 kein Vsync kein Aero Glass

Persönlich finde ich den internen Benchmark auch garnicht soweit weg der eigentlichen AVG Engine Performance wie hier immer gesagt wird, spiegelt sich auch so ziemlich in den Cutscenes wieder


Min = 26.00 Max = 44.51 Avg = 31.44
DisplayMode: Windowed Fullscreen
Resolution: 3840X2160
V-Sync: Off
Anti-Aliasing: On
Level of Detail: High
Shadow Quality: High
Texture Resolution: Normal
Interactive Smoke/Fog: Off
Interactive Paper Debris: Off
Enhanced Rain: On
Enhanced Light Shafts: Off

-/\-CruNcher-/\-
2015-09-08, 22:23:10
Sorry dblpost

Pappenheimer
2015-09-09, 00:09:45
ich sage nur skyrim und mods...bis 3,6gb läuft es noch sehr gut aber etwas drüber hinaus unspielbar. 3 sekunden flüssiges laufen und dann 1 sekunde standbild, 3sek laufen und usw.

hatte extra ein upgrade von der 7950 mit 3gb gemacht um mehr fps und vram zu haben tja arschkarte. die wahl lag bei mir zwischen der 290x oder der 970gtx.

hätte ich das vorher gewußt wäre es eine 290x geworden aber dank der ehrlichen politik von nvidia habe ich zur 970gtx gegriffen da auch 4gb vram...haha.

durch täuschung hat nvidia das geld eingesackt und nicht amd.

hat mich stunden gekostet um rauszufinden warum es solche probleme macht naja und ein paar tage später kamen die erste berichte darüber tja für mich leider zu spät.

woodsdog
2015-09-09, 06:59:49
ich sage nur skyrim und mods...bis 3,6gb läuft es noch sehr gut aber etwas drüber hinaus unspielbar. 3 sekunden flüssiges laufen und dann 1 sekunde standbild, 3sek laufen und usw.

hatte extra ein upgrade von der 7950 mit 3gb gemacht um mehr fps und vram zu haben tja arschkarte. die wahl lag bei mir zwischen der 290x oder der 970gtx.

hätte ich das vorher gewußt wäre es eine 290x geworden aber dank der ehrlichen politik von nvidia habe ich zur 970gtx gegriffen da auch 4gb vram...haha.

durch täuschung hat nvidia das geld eingesackt und nicht amd.

hat mich stunden gekostet um rauszufinden warum es solche probleme macht naja und ein paar tage später kamen die erste berichte darüber tja für mich leider zu spät.

dann verkauf sie doch!
Sich jetzt damit abzufinden ist doch Käse.... und wenn es wirklich SO schlimm ist, versteh ich nicht warum du sie immer noch hast. :confused:

StefanV
2015-09-09, 08:10:02
dann verkauf sie doch!
Sich jetzt damit abzufinden ist doch Käse.... und wenn es wirklich SO schlimm ist, versteh ich nicht warum du sie immer noch hast. :confused:
Ja und was ist mit dem Verlust, den er dabei hat?!
Das auch mit eingerechnet?!

Natürlich könnte man trotzdem noch die Karte einschicken, reklamieren und sich dann mit dem Händler rumschlagen...

Wenn man sich nicht ganz doof anstellt, besteht durchaus die Chance, dass man da was machen könnte...

Alter Sack
2015-09-09, 08:19:03
Wie lange probieren einige Helden eigentlich noch die Krüppelkarte schön zu reden?:rolleyes:

Für mich funktioniert die Karte an meinem WQHD-G-Sync TFT perfekt.
Dank WQHD kann ich fast komplett auf AA verzichten, was die Karte entlastet und schwankenden Framerates begegne ich mit GSync. Habe bisher auch Spiele wie FC4, etc. drauf gezockt und war top zufrieden mit der Leistung. Vielleicht habe ich aber mit meiner 23 jährigen PC-Gamingerfahrung auch einfach nur keine Ahnung :freak: .

Unfassbar, wie einige Leute hier ihren Hate auf ein Produkt projezieren (was sie oft noch nicht mal selber besitzen oder nur kurz antesten konnten)!!!
Mehr ist dazu nicht zu sagen (außer von euch Hatern, die jetzt gleich erstmal ne Seite shitstorm starten werden...inklusive persöhnlicher Beleidungen, etc.).
Egal, hau rein, interessiert sowieso nur die anderen Hater, aber nicht mich :biggrin: .

dargo
2015-09-09, 08:23:32
ich sage nur skyrim und mods...bis 3,6gb läuft es noch sehr gut aber etwas drüber hinaus unspielbar. 3 sekunden flüssiges laufen und dann 1 sekunde standbild, 3sek laufen und usw.

hatte extra ein upgrade von der 7950 mit 3gb gemacht um mehr fps und vram zu haben tja arschkarte. die wahl lag bei mir zwischen der 290x oder der 970gtx.

hätte ich das vorher gewußt wäre es eine 290x geworden aber dank der ehrlichen politik von nvidia habe ich zur 970gtx gegriffen da auch 4gb vram...haha.

durch täuschung hat nvidia das geld eingesackt und nicht amd.

hat mich stunden gekostet um rauszufinden warum es solche probleme macht naja und ein paar tage später kamen die erste berichte darüber tja für mich leider zu spät.
Konntest du die damals nicht zurückgeben beim Händler? Mein Händler hatte zum Glück nach langem hin und her eingenickt und ich hatte die volle Summe erstattet bekommen obwohl ich die Karte ca. 6 Monate benutzt habe.

Alter Sack
2015-09-09, 08:26:41
Aha, deshalb erhöht sich der Abstand zwischen 970 und 980 von 1080p auf WQHD auch von 10 auf 40%. Ist ja völlig normal, schon klar. :smile:

Der Preis der GTX980 ist by the way (zumindest als ich gekauft habe) 200€ über der GTX970 gewesen.
Wow, dass sind ja sogar 50% mehr Euros (um mal bei Prozenten zu bleiben)!

Ich verate dir was: die 200€ hab ich schonmal in der Tasche, wenn es ein lohnenswertes Upgrade zur GTX970 gibt.

Genauso wie zum Kaufzeitpunkt reicht mir aktuell reicht die Leistung der GTX970 vollkommen aus, wenn man wie ich in WQHD/GSync zockt ... und nein, ich brauche nicht zwingend die letzten (oft sowieso unsichtbaren) Ultra-Extra-High-Details beim zocken. AA kann ich mir dank WQHD auf 27" sowieso schenken, da bei der Retina-like Auflösung sowieso keine nennenswerten Treppchen-Effekte auftreten und das wichtigste: mich interessieren die meisten Spiele, die für Konsolen/Pads entwickelt wurden sowieso nicht. Wenn also Batman mies für den PC hingeballert wird, scheiß ich drauf und zocke weitere meine firstperson-Shooter, Strategiespiele, Rollenspiele und Hack´n´Slays.

Hacki_P3D
2015-09-09, 10:31:50
Ich habe meine Gigabyte GTX 970 Gaming G1 für 300€ gekauft, und nach einem Jahr mit 30€ Verlust wieder verkauft. Kann mich nicht beklagen :)

Jetzt werkelt eine 280x im Rechner, bis dann 2016 die neuen Karten vorgestellt werden...

Megamember
2015-09-09, 10:42:32
Unfassbar, wie einige Leute hier ihren Hate auf ein Produkt projezieren (was sie oft noch nicht mal selber besitzen oder nur kurz antesten konnten)!!!
Mehr ist dazu nicht zu sagen (außer von euch Hatern, die jetzt gleich erstmal ne Seite shitstorm starten werden...inklusive persöhnlicher Beleidungen, etc.).
Egal, hau rein, interessiert sowieso nur die anderen Hater, aber nicht mich :biggrin: .

Genau, ich hatte vor der 970 ne 290(x), mit vollen 4GB!!!!1111. Die hat Puff gemacht und ich habe als Direkttausch ne 970 Phantom bekommen. Und ich kann nur sagen das die 970 in allen meinen Hauptgames die ich im Moment spiele eine bessere Performance liefert. GTA V, WItcher 3, BF4, SHadow of Mordor....). Das ist die Realität. Da kann die AMD Fraktion noch so lange mit Krüppelspeicher etc kommen, ich merke davon nichts!!! MAl abgesehen das man die 290PCS+ nur mit Kopfhörern ertragen konnte ;). Über 1500 ohne Spannungserhöhung gabs dann noch als Bonus.

Pirx
2015-09-09, 11:07:42
Der Preis der GTX980 ist by the way (zumindest als ich gekauft habe) 200€ über der GTX970 gewesen.
Wow, dass sind ja sogar 50% mehr Euros (um mal bei Prozenten zu bleiben)!

Ich verate dir was: die 200€ hab ich schonmal in der Tasche, wenn es ein lohnenswertes Upgrade zur GTX970 gibt.
...
Wenn du dich da mal mit der Krüppel- und Betrugskarte, die bald keiner mehr haben will, nicht verkalkuliert hast.:lol:
Wie kann man so eine Verarschung nicht kritisieren?

Bis heute stehen auf der nvidia-Seite die falschen Daten. http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

Alter Sack
2015-09-09, 11:32:16
Genau, ich hatte vor der 970 ne 290(x), mit vollen 4GB!!!!1111. Die hat Puff gemacht und ich habe als Direkttausch ne 970 Phantom bekommen. Und ich kann nur sagen das die 970 in allen meinen Hauptgames die ich im Moment spiele eine bessere Performance liefert. GTA V, WItcher 3, BF4, SHadow of Mordor....). Das ist die Realität. Da kann die AMD Fraktion noch so lange mit Krüppelspeicher etc kommen, ich merke davon nichts!!! MAl abgesehen das man die 290PCS+ nur mit Kopfhörern ertragen konnte ;). Über 1500 ohne Spannungserhöhung gabs dann noch als Bonus.

Mal ganz davon ab, dass die AMD Karten leider noch nen Ratenschwanz mit sich bringen, weil der Stromverbrauch so heftig ist: größeres Netzteil, deutlich bessere Gehäusebelüftung, teil instabil (wie man liest, wegen unzureichender Kühlung). Ne danke, dann doch lieber eine GTX970, bei der alles IN DER PRAXIS bestens funktioniert und ausreichende Framerates produziert (COD-AW zocke ich z.B. in WQHD mit 90-100 FPS).
Aber den Hatern hier geht´s nicht darum, ob die Karte (mehr als) ausreicht, um auch in WQHD glücklich zu werden... NEIN: hier geht´s um Füllmengen des VRAMs und wie schrecklich beschissen NVidia hier doch mal wieder war (wobei ich letzterem nicht wiederspreche, den gelogen ist gelogen).

Praktisch jedoch betrachtet sind GTX980 und GTX980Ti einfach für das gebotene viel zu teuer und auch auch PowerGamer wie ich (zocke jährlich ca. 1500 Stunden geschätzt) investieren ihren Geld dann doch lieber in sinnvollere Sache wie einen 700€ 27 Zoll WQHD Bildschirm mit 144hz und GSync :biggrin: . Geld war bei mir nicht das Thema, aber ich finde es unlogisch 200€ oder deutich mehr für ein paar wenige Prozent mehr Leistung auszugebenm wobei ich dabei gerne auf Ultra-Settings verzichte, die man beim zocken sowieso kaum bis gar nicht wahrnimmt.
Auch AMD-Karten kamen für mich als Ultrasilent-PC´ler nicht in Frage. Mein PC auf Silent getrimmt und komplett gedämmt. Die riesigen 140x140 Lüfter drehen so langsam, dass diese nciht wahrnehmbar sind. Wenn ich jetzt beim zocken aktuell nur 200 Watt (+-50Watt) verbrauche, passt alles und es bleibt kühl. Mit ber AMD-Karte oder ner GTX980(Ti) müsste ich stärker belüften (daher ohne riesigen Aufwand auch hörbar lauter) und müsste auch noch alles wegen eines größeren Netzteil auseinanderbauen... nein Danke! Die 200€ liegen hier schon parat, wenn Grakas in 14nm verfügbar sind.

Alter Sack
2015-09-09, 11:44:07
Wenn du dich da mal mit der Krüppel- und Betrugskarte, die bald keiner mehr haben will, nicht verkalkuliert hast.:lol:
Wie kann man so eine Verarschung nicht kritisieren?

Bis heute stehen auf der nvidia-Seite die falschen Daten. http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

Darum geht´s nicht. Hinter der Verarschung stehe ich nicht, bin jedoch logisch genug in meinem Handeln, nicht noch mind. 200€ oder deutlich mehr Nvidia hinterherszuschmeißen, zumal die GTX970 in der Praxis ne wirklich sehr gute und ausgereifte Karte ist, wenn man mal Preis, Leistung, Wärmeentwicklung betrachtet.
"In der Praxis" habe ich die Karte bereits seit ca. 6 Monaten im Einsatz...gekauft also lange nachdem die 3,5 GB Problematik (inkl. Shitstorm) bekannt wurde. Trotzdem habe ich mir diese Karte gekauft, weil ich keinen Sinn darin sehe, weitere 200€ in das Upgrade auf GTX980 sehe. In 1-2 Jahren juckt es doch sowieso absolut niemanden mehr, ob´s ne 970 oder 980 ist, wenn dann Grakas in 14nm auf dem Markt sind und bei gleicher thermischer Verlustleistung ggf. doppelt so schnell sind.

Wer die (Grafikkarten)Welt vermeintlich verbessern will, greift halt zur AMD-Karte...lebt mit teils schlechteren Performance-Werten und heizt damit im Winter noch wunderbar sein Zimmer mit dem Teil. Wer NVidia für den Shit noch belohnen woll, holt sich ne GTX980. So gesehen von NVidia gar nicht schlecht gemacht! Erst 400€ für den GTX970 Kauf kassieren und danach nochmal 200€ ein paar Monate später für´s Upgrade auf 980 vom Deppenkäufer abkassieren. Wer das gemacht hat, hat nicht bis zum Ende gedacht.

N0Thing
2015-09-09, 12:02:02
Mal ganz davon ab, dass die AMD Karten leider noch nen Ratenschwanz mit sich bringen, weil der Stromverbrauch so heftig ist: größeres Netzteil, deutlich bessere Gehäusebelüftung, teil instabil (wie man liest, wegen unzureichender Kühlung).



Unfassbar, wie einige Leute hier ihren Hate auf ein Produkt projezieren (was sie oft noch nicht mal selber besitzen oder nur kurz antesten konnten)!!! .

:biggrin:


Aber du hast es ja selber gesagt, die Karte war für ihren Preis ein absoluter Hammer und die Benchmarkergebnisse haben sich nach Bekanntwerden der falschen technischen Angaben nicht verändert. Aber gelogen ist gelogen und vielleicht kommen nun weitere Spiele hinzu, die auch schon in einem normalen Benchmarkparcours das Speicherproblem der GTX 970 aufzeigen und damit von praxisfernen Settings im Alltag angekommen sind.
Somit darf man durchaus das Verhalten von Nvidia kritisieren und auch auf die Fehler der GTX 970 hinweisen. Wie sehr es einen persönlich betrifft, ist gar nicht so wichtig, bei meinem Monitor wäre ich mit der 970 auch in allen Lebenslagen glücklich. Ändert aber nichts an den technischen Daten und den möglichen Folgen für Andere.

StefanV
2015-09-09, 12:37:43
Mal ganz davon ab, dass die AMD Karten leider noch nen Ratenschwanz mit sich bringen, weil der Stromverbrauch so heftig ist: größeres Netzteil, deutlich bessere Gehäusebelüftung, teil instabil (wie man liest, wegen unzureichender Kühlung).
Kannst du mit dem FUD Bullshit aufhören?!
Das, was du hier schreibst stimmt erstens nicht wirklich und zweitens hat das bei dem ersten Fermi Versuch auch niemanden interessiert. Warum ist das jetzt also so wichtig?!

-/\-CruNcher-/\-
2015-09-09, 12:53:55
Darum geht´s nicht. Hinter der Verarschung stehe ich nicht, bin jedoch logisch genug in meinem Handeln, nicht noch mind. 200€ oder deutlich mehr Nvidia hinterherszuschmeißen, zumal die GTX970 in der Praxis ne wirklich sehr gute und ausgereifte Karte ist, wenn man mal Preis, Leistung, Wärmeentwicklung betrachtet.
"In der Praxis" habe ich die Karte bereits seit ca. 6 Monaten im Einsatz...gekauft also lange nachdem die 3,5 GB Problematik (inkl. Shitstorm) bekannt wurde. Trotzdem habe ich mir diese Karte gekauft, weil ich keinen Sinn darin sehe, weitere 200€ in das Upgrade auf GTX980 sehe. In 1-2 Jahren juckt es doch sowieso absolut niemanden mehr, ob´s ne 970 oder 980 ist, wenn dann Grakas in 14nm auf dem Markt sind und bei gleicher thermischer Verlustleistung ggf. doppelt so schnell sind.

Wer die (Grafikkarten)Welt vermeintlich verbessern will, greift halt zur AMD-Karte...lebt mit teils schlechteren Performance-Werten und heizt damit im Winter noch wunderbar sein Zimmer mit dem Teil. Wer NVidia für den Shit noch belohnen woll, holt sich ne GTX980. So gesehen von NVidia gar nicht schlecht gemacht! Erst 400€ für den GTX970 Kauf kassieren und danach nochmal 200€ ein paar Monate später für´s Upgrade auf 980 vom Deppenkäufer abkassieren. Wer das gemacht hat, hat nicht bis zum Ende gedacht.

Naja so einfach ist es dann auch wieder nicht der etwas höhere Stromverbrauch kann ja auch effizienter genutzt werden momentan ist das aber noch nicht so wirklich der Fall aber das kommt noch wir sehen ja die ersten Performance Feedbacks der Konsolen optimierten AMD Ports schon durchscheinen vor allem bei den neueren HBM Karten gleicht sich der Stromverbrauch wenn man den Sweetspot erreicht ordentlich aus das wird man bei den Nano Reviews ja auch sehen ;)

Und man muss davon ausgehen das auch True Audio so langsam fahrt auf nehmen wird vor allem bei VR wobei das noch etwas in den Sternen steht ;)

So gesehen bin ich optimistisch das man Bald sehen wird das der Stromverbrauch bei AMD auch ordentlich in Performance umgesetzt wird vor allem mit DX 12, dieses Ziel wird AMD sicher mit dieser Generation Software/Hardware erreichen.

Die nächste AMD Generation könnte dann auch Preislich sehr viel Atraktiver werden wenn die HBM kosten erstmal durch die jetzigen Adopter etwas eingefahren worden sind ;)

Grestorn
2015-09-09, 14:15:34
Bis heute stehen auf der nvidia-Seite die falschen Daten. http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

Weil diese rechtlich, wie ich mehrfach geschrieben habe, wohl nicht angreifbar sind. Aber mir wollte ja keiner glauben und man hat mich lieber in Grund und Boden geflamed. Aber wenn sie angreifbar wären, wäre das sicher bereits längst passiert. In Deutschland wird man wegen jedem Scheiß abgemahnt... Und eine Massenabmahnung gegen Händler würde sich richtig rentieren.

Alter Sack
2015-09-09, 14:51:05
Kannst du mit dem FUD Bullshit aufhören?!
Das, was du hier schreibst stimmt erstens nicht wirklich und zweitens hat das bei dem ersten Fermi Versuch auch niemanden interessiert. Warum ist das jetzt also so wichtig?!

Mein Voltmeter sagt mir was anderes!
Hatte in meinem System (siehe Signatur) zuerst ne GTX285-2GB drin... dann auf GTX660-2GB das Upgrade. Dabei viel der Lastverbrauch beim zocken dramatisch auf 170-200 Watt (hier das Beweisvideo (https://www.youtube.com/watch?v=SYPczf5Y1RA)... ja ich weiß, auch echte Fakten können Hater nicht von der Wahrheit überzeugen).
Mit der GTX970 hat sich der Verbrauch nur sehr unwesentlich erhöht, aber die Leistungsdifferenz zwischen GTX660 und GTX970 ist dafür enorm gestiegen!

Deswegen gebe ich einen Dreck auf Hater, die hier Wind gegen die GTX970 machen, weil ihnen in ihrem Kopf was nicht passt.
Ob hier irgendwelche Benchmarks mit für mich unrelevanten Einstellungen für euch herhalten müssen, ist doch euer Problem und nicht meins.
Bisher hat mich die GTX970 in WQHD nicht enttäuscht, wohingegen ich von einer GTX980 aufgrund des 200€ Aufpreises wahrscheinlich wahre (und nicht erfüllbare) Wunder erwartet hätte.

Hatet schön weiter, wärend ich die GTX970 in Verbindung mit dem ROG-Switft GSync TFT feiere :biggrin: .

dargo
2015-09-09, 14:58:40
Was gibts bei TN zu feiern? :devil:

Alter Sack
2015-09-09, 15:05:23
Was gibts bei TN zu feiern? :devil:

144 Hz WQHD und GSync...
Keine Angst, nichts für so 60Hz VSync Typen wie dich :wink: .

dargo
2015-09-09, 15:12:07
Lol. ;D
http://geizhals.de/asus-mg279q-90lm0103-b01170-a1215454.html?hloc=at&hloc=de

;)

Pirx
2015-09-09, 15:20:11
Weil diese rechtlich, wie ich mehrfach geschrieben habe, wohl nicht angreifbar sind. Aber mir wollte ja keiner glauben und man hat mich lieber in Grund und Boden geflamed. Aber wenn sie angreifbar wären, wäre das sicher bereits längst passiert. In Deutschland wird man wegen jedem Scheiß abgemahnt... Und eine Massenabmahnung gegen Händler würde sich richtig rentieren.
Das ist eine Argumentation aus nv-Sicht, wie du vielleicht nicht bemerkst.
Wen interessiert von uns Usern, was rechtlich möglicherweise gerade so noch durchgeht?

(del)
2015-09-09, 15:25:30
Kleiner Vorschlag zur Güte:
Trennt doch bitte zwischen Usern, die über ein Produkt schreiben, es aber nicht besitzen und denen, die es täglich nutzen und somit aus eigener Erfahrung schreiben. Nachts sind alle Katzen grau und die gleichfarbige Theorie nur solange schön, wie man im heimeligen Kaffekränzchen Gleichgesinnter darüber trefflich fachsimpeln kann.

Mal abgesehen davon, was ich persönlich über den Speichermurks und die total schief gelaufene PR-Masche denke, denn nichts anderes ist es ja letztendlich - man muss trotz allem schon ein wenig arg nachhelfen, um wirklich plausibel wirkende Szenarien für einen Overkill zu schaffen. Ob dies dann jedoch den Alltag der Mehrheit der tatsächlichen Anwender wiederspiegelt und zudem eine wirklich verallgemeinerungsfähige Aussage für alle darstellt, das sei mal dahingestellt.

Aus meiner eigenen, täglichen Praxis und dem ganzen Benchmarken der unterschiedlichsten Karten kann ich für meinen Teil nur von sehr selten auftretenden Problemen berichten, die vor allem dann bemerkbar werden, wenn ich in Ausnahmen mal den einen oder anderen Titel ordentlich gemodded habe und/oder in einigen wenigen Szenen auf Dinge gestoßen bin, die wirklich nach dem prognostizierten GAU aussehen. Zumal NV ganz offensichtlich mittlerweile auch über den Treiber besser verwaltet, was in welchen Teil der Ablage wandert. Nicht-spielrelevante Daten gibt es nämlich ebenfalls. Und wenn wir mal ganz ehrlich sind, auch 4GB sind in solchen ausgewählten Szenen dann schnell zu wenig ;)

Das Problem muss man offen angehen und kommunizieren, darf es aber auch nicht überbewerten, denn der Alltag mit seinen unzähligen Userprofilen ist noch viel fragmentierter als der ganze zugewucherte Androidmarkt. Wenn jemand mit der Karte klar kommt, weil seine Anforderungen die der Karte nicht übersteigen, dann sollte man ihn in Ruhe lassen und auch sein Urteil akzeptieren. Immerhin kann er aus dem Alltag berichten und nicht nur theoretischen Senf ablassen.

Es gibt per se keine bessere oder schlechtere Karte, sondern nur eine, die für Kunde A oder B besser oder weniger sinnvoll erscheint. Der Rest ist nur eine theoretische Gewitterfront, um Foren wie diesem mehr Leben einzuhauchen :P

@Alter Sack:
Wir kennen uns mittlerweile ja eine Weile schon aus Foren. Erstaunlich für mich, dass Du Dich überhaupt mal so weit emotional aus dem Fenster wirfst. Nur - es bringt einfach nichts. Wenn Du mit der Karte zufrieden bist, was ich aus deinen Zeilen herauslese, dann zeigt es doch nur, dass man schon mit der Nase drauf gestoßen werden muss, um es überhaupt zu bemerken. Vielleicht kommt ja auch mal der Moment, wo deiner 970 das 3,5GB-Groß- und das 0.5GB-Kleinhirn wegfliegen - wer weiß. Bis dahin hast Du zumindest für Dein eigenes Wohlbefinden alles richtig gemacht, denn es war ja schließlich auch nur Dein eigenes Geld :D Wenn es denn aber wirklich mal passieren sollte, dann passt es als echte Lebenserfahrung genau in diesen Thread. Vorher glaubt Dir einfach keiner :D

Birdman
2015-09-09, 15:29:48
Kannst du mit dem FUD Bullshit aufhören?!
Das, was du hier schreibst stimmt erstens nicht wirklich und zweitens hat das bei dem ersten Fermi Versuch auch niemanden interessiert. Warum ist das jetzt also so wichtig?!
Kannst du mit dem FUD Bullshit aufhören?!
Fermi ist wieviel genau? 8 Jahre her und der Stromverbrauch hat damals schon interessiert nur Dich vielleicht noch nicht. Deine damalige Ignoranz auf heutige Ansprüche zu projezieren ist hier mal wieder ziemlich dreist.

Async Compute hat damals auch keinen interessiert, warum ist das jetzt also so wichtig?!

-/\-CruNcher-/\-
2015-09-09, 15:45:21
Kleiner Vorschlag zur Güte:
Trennt doch bitte zwischen Usern, die über ein Produkt schreiben, es aber nicht besitzen und denen, die es täglich nutzen und somit aus eigener Erfahrung schreiben. Nachts sind alle Katzen grau und die gleichfarbige Theorie nur solange schön, wie man im heimeligen Kaffekränzchen Gleichgesinnter darüber trefflich fachsimpeln kann.

Mal abgesehen davon, was ich persönlich über den Speichermurks und die total schief gelaufene PR-Masche denke, denn nichts anderes ist es ja letztendlich - man muss trotz allem schon ein wenig arg nachhelfen, um wirklich plausibel wirkende Szenarien für einen Overkill zu schaffen. Ob dies dann jedoch den Alltag der Mehrheit der tatsächlichen Anwender wiederspiegelt und zudem eine wirklich verallgemeinerungsfähige Aussage für alle darstellt, das sei mal dahingestellt.

Aus meiner eigenen, täglichen Praxis und dem ganzen Benchmarken der unterschiedlichsten Karten kann ich für meinen Teil nur von sehr selten auftretenden Problemen berichten, die vor allem dann bemerkbar werden, wenn ich in Ausnahmen mal den einen oder anderen Titel ordentlich gemodded habe und/oder in einigen wenigen Szenen auf Dinge gestoßen bin, die wirklich nach dem prognostizierten GAU aussehen. Zumal NV ganz offensichtlich mittlerweile auch über den Treiber besser verwaltet, was in welchen Teil der Ablage wandert. Nicht-spielrelevante Daten gibt es nämlich ebenfalls. Und wenn wir mal ganz ehrlich sind, auch 4GB sind in solchen ausgewählten Szenen dann schnell zu wenig ;)

Das Problem muss man offen angehen und kommunizieren, darf es aber auch nicht überbewerten, denn der Alltag mit seinen unzähligen Userprofilen ist noch viel fragmentierter als der ganze zugewucherte Androidmarkt. Wenn jemand mit der karte klar kommt, weil seine Anforderungen die der Karte nicht übersteigen, dann sollte man ihn in Ruhe lassen und auch sein Urteil akzeptieren. Immerhin kann er aus dem Alltag berichten und nicht nur theoretischen Senf ablassen.

Es gibt per se keine bessere oder schlechtere Karte, sondern nur eine, die für Kunde A oder B besser oder weniger sinnvoll erscheint. Der Rest ist nur eine theoretische Gewitterfront, um Foren wie diesem mehr Leben einzuhauchen :P

Jo und man kann sehr schnell sehr effizient loads verteilen wenn es die optionen des Spiels zulassen entlastet man einfach die Shader also ich vermisse sachen wie Motion Blur in den meisten titel nicht wirklich aber das ist auch wieder subjektiv ;)
Problematisch wird es wenn man den usern eben keine Möglichkeit gibt das PP und dessen Verteilung und Nutzung ihren Gewohnheiten und ansprüchen entsprechend selbst bestimmen zu lassen und das war ein großer Kritikpunkt z.b an Batman den der Patch fixed.

Und wenn das Streaming effizient umgesetzt ist bekommt die GTX 970 auch keine großen Probleme, es sind meistens nur Spiele betroffen die sich auf der Konsolen Effizienz beim Streaming ausruhen und wenig bis garnichts in die PC Optimierung in ihrem Streaming part stecken.
Ein gut funktionierendes Streaming ist nunmal das A und O und wenn man das nicht mit 3.5 GB und 8 GB System Ram von z.b USB 3 in einer vernünftigen Art und weise nichtmal unter Win 8.1 PCIE 3.0 hinbekommt hier flüssige 33.3ms zu liefern dann sollte man nicht mehr für den PC releasen und sich weiterhin auf der Konsole ausruhen und sich aber vor allem mal ernsthaft Fragen wo man als ex Windows PC Entwickler hier versagt hat und vielleicht auch mal seine Resourcenverteilung und deren eigentlichen Nutzen überdenken ;)

aufkrawall
2015-09-09, 15:48:36
Kleiner Vorschlag zur Güte:
Trennt doch bitte zwischen Usern, die über ein Produkt schreiben, es aber nicht besitzen und denen, die es täglich nutzen und somit aus eigener Erfahrung schreiben.

Ich hatte die 970 und es hat mir die Frametimes in zwei Spielen verdorben: CoD und Dragon Age mit Downsampling. Ich hab aber erst später gecheckt, dass es an der Karte lag, und nicht an den Spielen selbst.
Hier gibts mehrere solcher Berichte. Warum wird da drauf geschissen?


man muss trotz allem schon ein wenig arg nachhelfen, um wirklich plausibel wirkende Szenarien für einen Overkill zu schaffen.

WQHD 1xAA nahe 60fps ist kein Overkill.


Aus meiner eigenen, täglichen Praxis und dem ganzen Benchmarken der unterschiedlichsten Karten

Genau das ist das Problem: Benchmarks und wirklich Spielen sind etwas verschiedenes.
Bei langen Spielsessions wird häufig mehr in den VRAM gecached, was das Problem begünstigt.
Nur weils dann mitunter keine harten Freezes geben muss, sondern "nur" allgemein mal über eine Zeit lang schlechtere Frametimes, ist das noch lange nicht etwas, das man herunterspielen müsste.

Wie viele Benchmarks müssen eigentlich noch kommen, bis einige hier das Problem anerkennen?
Ist ja nicht so, dass mittlerweile die Zahlen nicht auf dem Tisch lägen.
Ich gehe erstmal nicht davon aus, dass sich mit den Batman und CoD Finals etwas an der Problematik ändern wird.

Korfox
2015-09-09, 16:02:00
Kleiner Vorschlag zur Güte:
Trennt doch bitte zwischen Usern, die über ein Produkt schreiben, es aber nicht besitzen und denen, die es täglich nutzen und somit aus eigener Erfahrung schreiben. Nachts sind alle Katzen grau und die gleichfarbige Theorie nur solange schön, wie man im heimeligen Kaffekränzchen Gleichgesinnter darüber trefflich fachsimpeln kann.
Du wirst wahrscheinlich wenige Menschen finden, die für X (viel) Geld ausgegeben haben und dann zugeben, dass sie mit X nicht zufrieden sind, solange X irgendwie passabel läuft... unabhängig davon, ob X jetzt eine 970 ist, oder ein iPhone ;)

Ich selbst habe mir auch (schon mit dem Wissen um das Speicherdesaster) eine 970 gekauft. Einfach mit dem Hintergrund, dass sie für meine Anwendungsfälle (bin eher Gelegenheitsspieler) zum aktuellen Zeitpunkt das beste P/L bietet. Bisher bin ich ein Mal ins (für mich wahrnehmbare) ruckeln gekommen und das war bei einem hochgemoddeten Skyrim. Keine Ahnung, ob es der Speicher war, aber ich vermute es. Ob 512MB mehr geholfen hätten? Ich bezweifle es.

Weiterer Hintergrund für den Kauf war, dass mir auch bewusst ist, dass "bald" eh neue Architekturen oder zumindest ein Shrink kommen werden. Wozu also dann massiv Geld in eine potentiell zukunftssicherere Karte stecken, wenn sie in einem Jahr locker überrundet wird?

Was jetzt etwas anfängt zu nagen ist die Async Compute-Geschichte, aber die ist noch nicht vollends aufgeklärt. Sollte sowohl die Vermutung sich bewahrheiten, dass die Architektur kein Async Compute zulässt, alsauch der Spielemarkt in kurzer Zeit einen Haufen DX12-Titel aufweisen, die ich spiele (unwahrscheinlich) und in denen ich durch die fehlende Eigenschaft spürbare Einbußen habe, dann bin ich auch unzufrieden mit der Karte. Aber ich gehe eigentlich davon aus, dass ich, bis das soweit sein sollte, schon längst über eine neue Karte nachdenke.

-/\-CruNcher-/\-
2015-09-09, 16:09:02
Ja ihr dürft alle happy sein Nvidia wird die Devs zwingen etwas Effizienter zu werden sie haben keine andere wahl mit dem Marktanteil von GM204 und vor allem der GTX 970 ;)

Ich find das toll nur die besten und inovativsten werden die besten Ratings bekommen die anderen Shitstorms die sie verdienen ;)

aufkrawall
2015-09-09, 16:11:41
Bisher bin ich ein Mal ins (für mich wahrnehmbare) ruckeln gekommen und das war bei einem hochgemoddeten Skyrim. Keine Ahnung, ob es der Speicher war, aber ich vermute es. Ob 512MB mehr geholfen hätten? Ich bezweifle es.

Sowohl ich als auch andere User konnten eindeutig das Problem u.a. in gemoddeten Skyrims nachweisen. Bei mehr als 3,5GB belegtem VRAM fing es dann unerträglich an zu stocken.
Ich hatte mir daraufhin eine 290X bestellt, mit welcher 4GB ohne diese Stocker gefüllt werden konnten.
Und du hast scheinbar auch noch nicht mitbekommen, dass es mitunter mit der "3,5GB" 970 teilweise üblere VRAM-Stocker geben kann als mit der 3GB 780 Ti.
Bei letzterer gibts bei Skyrim mit vollem VRAM nur relativ geringe Nachladeruckler bei schnellen Kameradrehungen. Nicht die üblen Hänger wie bei der 970.
Ja, richtig. Du hast eine tickende Zeitbombe im Rechner. Jedes neue Spiel kann dadurch ruiniert werden (muss aber nicht).

Cruncher, übertakte doch einfach deine 970 auf 2000Mhz und nimm bitte nicht mehr an diesem Thread teil...
Und nimm am besten Stefan gleich mit...

Korfox
2015-09-09, 16:14:18
Und du hast scheinbar auch noch nicht mitbekommen, dass es mitunter mit der "3,5GB" 970 teilweise üblere VRAM-Stocker geben kann als mit der 3GB 780 Ti.
Doch, doch. Durchaus.
Bei letzterer gibts bei Skyrim mit vollem VRAM nur relativ geringe Nachladeruckler bei schnellen Kameradrehungen. Nicht die üblen Hänger wie bei der 970.
Ja, richtig. Du hast eine tickende Zeitbombe im Rechner. Jedes neue Spiel kann dadurch ruiniert werden (muss aber nicht).

Wenn man meinen gesamten Beitrag liest wird man feststellen, dass diese Zeitbombe wahrscheinlich nicht bei mir explodieren wird. Auch die Ruckler bei Skyrim waren dann Effekte, auf die ich durchaus verzichten kann. Klar. Nicht toll, aber auch nicht bösartigst ärgerlich.
Es ist einfach die Frage der persönlichen Bewertung.

-/\-CruNcher-/\-
2015-09-09, 16:17:52
Nein es ist eine Frage der Streaming Effizienz und wie viel man dort investiert auf einer nicht Low Latency Systemarchitektur wie dem PC ;)
Microsoft selbst hat hier ein Angebot gemacht mit Tiled Resources wenn man das richtig umsetzt gibt es diese Probleme in dieser Form nicht ;)

Nvidia hat hier kalkuliert das die Effizienz steigen wird ;)

Je innefizienter umso besser läuft das ganze auf der R390x mit ihren Proll 8 GB ;)

aufkrawall
2015-09-09, 16:21:04
TR soll Abwärtskompatibilität zu einem extremen Aufwand machen.
Bei der häufig geringen Texturauflösung auf der PS4 scheint das ja noch nicht mal für die bisherigen Exclusives dort genutzt worden zu sein.
Ist also ein reines Luftschloss deinerseits.

Pirx
2015-09-09, 16:23:26
Nein es ist eine Frage der Streaming Effizienz ...
Warum geht man dann nicht gleich wieder auf 256 MB VRAM oder noch weniger?:biggrin:

-/\-CruNcher-/\-
2015-09-09, 16:24:59
Abwarten wie gesagt Marktanteil ;)

aufkrawall
2015-09-09, 16:25:35
Sind ja völlig weltfremde Forderungen. Es wird möglichst günstig auf den PC portiert. Und wenn das bedeutet, dass eben viel im VRAM gehalten wird, dann ist das eben so.
Als ob da zehn- oder hunderttausende Euro für die dämliche 970 eingeplant werden...

Kartenlehrling
2015-09-09, 16:29:32
Kann man dieses +0,5gb Rucklen auch bei einer Gtx960-4gb feststellen?
Ich glaub das viele Käufer ein Biosupdate aufspielen würden wenn der Karte danach nur 3,5gb Vram übrigbleibt und dafür das Ruckeln weg ist.

Schnoesel
2015-09-09, 16:43:46
Ich bin auf DX 12 Titel gespannt deren Speicherverwaltung bei den Spieleentwickler liegt. Imo ein zusätzlicher Unsicherheitsfaktor. Keine Ahnung ob der Treiber hier noch regeln kann.

-/\-CruNcher-/\-
2015-09-09, 16:45:22
Sind ja völlig weltfremde Forderungen. Es wird möglichst günstig auf den PC portiert. Und wenn das bedeutet, dass eben viel im VRAM gehalten wird, dann ist das eben so.
Als ob da zehn- oder hunderttausende Euro für die dämliche 970 eingeplant werden...

Du magst es kaum glauben aber es gibt noch so sachen wie Persönlicher Ehrgeiz unter Entwicklern da wird auch schonmal @ Home gebastellt ;)

aufkrawall
2015-09-09, 17:07:02
Kann man dieses +0,5gb Rucklen auch bei einer Gtx960-4gb feststellen?

Wieso sollte man?

Alter Sack
2015-09-09, 17:07:12
Kleiner Vorschlag zur Güte:
Trennt doch bitte zwischen Usern, die über ein Produkt schreiben, es aber nicht besitzen und denen, die es täglich nutzen und somit aus eigener Erfahrung schreiben. Nachts sind alle Katzen grau und die gleichfarbige Theorie nur solange schön, wie man im heimeligen Kaffekränzchen Gleichgesinnter darüber trefflich fachsimpeln kann.

Mal abgesehen davon, was ich persönlich über den Speichermurks und die total schief gelaufene PR-Masche denke, denn nichts anderes ist es ja letztendlich - man muss trotz allem schon ein wenig arg nachhelfen, um wirklich plausibel wirkende Szenarien für einen Overkill zu schaffen. Ob dies dann jedoch den Alltag der Mehrheit der tatsächlichen Anwender wiederspiegelt und zudem eine wirklich verallgemeinerungsfähige Aussage für alle darstellt, das sei mal dahingestellt.

Aus meiner eigenen, täglichen Praxis und dem ganzen Benchmarken der unterschiedlichsten Karten kann ich für meinen Teil nur von sehr selten auftretenden Problemen berichten, die vor allem dann bemerkbar werden, wenn ich in Ausnahmen mal den einen oder anderen Titel ordentlich gemodded habe und/oder in einigen wenigen Szenen auf Dinge gestoßen bin, die wirklich nach dem prognostizierten GAU aussehen. Zumal NV ganz offensichtlich mittlerweile auch über den Treiber besser verwaltet, was in welchen Teil der Ablage wandert. Nicht-spielrelevante Daten gibt es nämlich ebenfalls. Und wenn wir mal ganz ehrlich sind, auch 4GB sind in solchen ausgewählten Szenen dann schnell zu wenig ;)

Das Problem muss man offen angehen und kommunizieren, darf es aber auch nicht überbewerten, denn der Alltag mit seinen unzähligen Userprofilen ist noch viel fragmentierter als der ganze zugewucherte Androidmarkt. Wenn jemand mit der Karte klar kommt, weil seine Anforderungen die der Karte nicht übersteigen, dann sollte man ihn in Ruhe lassen und auch sein Urteil akzeptieren. Immerhin kann er aus dem Alltag berichten und nicht nur theoretischen Senf ablassen.

Es gibt per se keine bessere oder schlechtere Karte, sondern nur eine, die für Kunde A oder B besser oder weniger sinnvoll erscheint. Der Rest ist nur eine theoretische Gewitterfront, um Foren wie diesem mehr Leben einzuhauchen :P

@Alter Sack:
Wir kennen uns mittlerweile ja eine Weile schon aus Foren. Erstaunlich für mich, dass Du Dich überhaupt mal so weit emotional aus dem Fenster wirfst. Nur - es bringt einfach nichts. Wenn Du mit der Karte zufrieden bist, was ich aus deinen Zeilen herauslese, dann zeigt es doch nur, dass man schon mit der Nase drauf gestoßen werden muss, um es überhaupt zu bemerken. Vielleicht kommt ja auch mal der Moment, wo deiner 970 das 3,5GB-Groß- und das 0.5GB-Kleinhirn wegfliegen - wer weiß. Bis dahin hast Du zumindest für Dein eigenes Wohlbefinden alles richtig gemacht, denn es war ja schließlich auch nur Dein eigenes Geld :D Wenn es denn aber wirklich mal passieren sollte, dann passt es als echte Lebenserfahrung genau in diesen Thread. Vorher glaubt Dir einfach keiner :D

Genauso ist es!
Ich habe, als es bei mir im Februar/März um einen Graka-Tausch ging (die GTX660 wurde zu langsam) auch auf die GTX970 abgezogen und im Einkaufswagen lag auch schon ne GTX980. Hatte mich aber kurz vorher noch umentschieden und wie man hier lesen kann die Entscheidung in keinster Weise bereut.

Ich finde es lustig, wie hier (von offensichtlichen "nicht-GTX970-Besitzer") diese Karte auf Basis von theoretischen Benchmarks (und nicht selbst gemachter Erfahrung in den Spielen mit dieser Karte) runtergemacht wird und denen Leuten anscheinend einer abgeht, wenn sie grunddessen NVidia runtermachen.

Für mich war vor dem Kauf bereits klar, dass jede in 2015 gekaufte 28nm Graka nur eine Übergangslösung wird (zumal meine in 2012 gekaufte GTX660 ebenfalls in 28nm gefertiogt wurde), die man keine 3-4 Jahre im Rechner hat.
Sobald 14nm (oder 16nm) in der Graka-Welt einzug hält und bei gleicher Verlustleistung die GPU-Leistung massiv ansteigen wird (Spekulation), wird eine GTX970/980/980Ti komplett uninteressant. Es wird dann bei standardmäßigen 6-8 GB VRAM auch sch*** egal sein, ob die alte Karte 3,5 oder 4 GB drin hatte. Beides alter Kram.

Bei AMD/NVidia soll der Wechsel auf kleinere Strukturen ja irgendwann in 2016 starten. Ich bin gespannt, wie bald ich die gesparten 200€ in die nächste Graka sinnvoll investieren werde.


Und wenn das Streaming effizient umgesetzt ist bekommt die GTX 970 auch keine großen Probleme, es sind meistens nur Spiele betroffen die sich auf der Konsolen Effizienz beim Streaming ausruhen und wenig bis garnichts in die PC Optimierung in ihrem Streaming part stecken.


Also genau die Art von Spielen, die ich sowieso nicht spiele.

Ich hatte die 970 und es hat mir die Frametimes in zwei Spielen verdorben: CoD und Dragon Age mit Downsampling. Ich hab aber erst später gecheckt, dass es an der Karte lag, und nicht an den Spielen selbst.
Hier gibts mehrere solcher Berichte. Warum wird da drauf geschissen?


Ich zocke selber extrem viel COD(AW) und das mit durchschnittlich 90-100 FPS auf dem WQHD-GSync-TFT.
Seitdem ich auf GTX970 und dem beschriebenen Bildschirm umgestiegen bin, ist mein K/D wirklich massiv angestiegen. Ich gehe seitdem in DOM-Hardcore eigentlich immer als bester Player aus dem Spiel und darf mir in jedem zweiten Match an den Kopf werfen lassen, dass ich cheate... und das seit ziemlich exakt dem Umstieg auf GTX970 und 144Hz-GSync Bildschirm.

Sowas wie Downsampling ist bei meinem Bildschirm nicht notwendig. Der WQHD hat ja bei ca. 70% mehr Bildpunkte als FullHD und auf meinem 27 Zöller hat das einen ähnlichen Effekt wie damals bei den ersten Retina-Display-iPhones: keine Pixel mehr erkennbar... demnach kein AA notwendig und downsampling schonmal garnicht.


Wie viele Benchmarks müssen eigentlich noch kommen, bis einige hier das Problem anerkennen?
Ist ja nicht so, dass mittlerweile die Zahlen nicht auf dem Tisch lägen.
Ich gehe erstmal nicht davon aus, dass sich mit den Batman und CoD Finals etwas an der Problematik ändern wird.

Das "Problem" ist, dass ich keine Benchmarks spiele, sondern die eigentlichen Spiele und da erkenne ich selbst auf diversen Vergleichs-Fotos bei Tests keinen Unterschied zwischen Medium und Ultra-Settings mehr. Beim zocken geht´s mir ähnlich... ich sehe bei aktuellen Spielen teils kaum Unterschiede zwischen Medium und Ultrasettings.
Deshalb interessieren mich Benchmarks, die irgendwelche theoretischen Schwächen aufzeigen sollen auch nicht, weil sie in meinem Spielealltag völlig irrelevant sind.

aufkrawall
2015-09-09, 17:14:58
Es wird dann bei standardmäßigen 6-8 GB VRAM auch sch*** egal sein, ob die alte Karte 3,5 oder 4 GB drin hatte. Beides alter Kram.

Nein, die Frametimes werden mit dem 3,5GB Müll wesentlich schlechter sein.
Dann darf man wirklich schön niedrigste Texturdetails einstellen, um die Marke ja nicht zu stark zu überschreiten. Bei echten 4Gb wird dann häufig gar nichts passieren (wie halt jetzt schon).
Du scheinst die technischen Folgen der Segmentierung nicht zu verstehen.

Bei Batman erhöht sich von WQHD -> 4k der Abstand übrigens noch von 42% auf 54%, obwohl da auch bei der 980 der VRAM knapp ist. Also nix unbedingt mit annähern.

Alter Sack
2015-09-09, 17:37:32
Nein, die Frametimes werden mit dem 3,5GB Müll wesentlich schlechter sein.
Dann darf man wirklich schön niedrigste Texturdetails einstellen, um die Marke ja nicht zu stark zu überschreiten. Bei echten 4Gb wird dann häufig gar nichts passieren (wie halt jetzt schon).
Du scheinst die technischen Folgen der Segmentierung nicht zu verstehen.

Bei Batman erhöht sich von WQHD -> 4k der Abstand übrigens noch von 42% auf 54%, obwohl da auch bei der 980 der VRAM knapp ist. Also nix unbedingt mit annähern.

Kommt bei Batman sicherlich auf die Settings an. Wie ich schon schrieb, lege ich keinen gesteigerten Wert auf Settings, die ich kaum bis gar nicht beim zocken wahrnehme....und ja: eine GTX980 wird in vermutlich mit der nächsten Graka-Generation, die in 14/16nm gefertigt wird, genauso alt aussehen, wie eine GTX970. Das 0,5 GB RAM wird diese Karten auch nicht retten, wenn 8 GB zum standard werden.
Aus heutiger Sicht wäre es doch auch egal, ob ne GTX680 nur 1,5 GB oder 2 GB hat, oder?!
Auch ist es beim PC egal, ob 3 oder 4 GB RAM drinstecken... beides zu wenig.

Nochmal: mich interessieren keine theoretischen Benchmarks, bei denen genau auf den Speicherpunkt 3,5 GB hin gebencht wird. Wenn ein dämmliches Konsolenspiel nicht anständig für den PC angepasst wird, kann es mir sowieso gestohlen bleiben.
Auch sind für mich irgendwelche Skyrim-Mods uninteressant. Wenn ich die perfekte Optik haben will, schaue ich aus dem Fenster ;) .

(del)
2015-09-09, 17:38:48
Nein, die Frametimes werden mit dem 3,5GB Müll wesentlich schlechter sein.
Dann darf man wirklich schön niedrigste Texturdetails einstellen, um die Marke ja nicht zu stark zu überschreiten. Bei echten 4Gb wird dann häufig gar nichts passieren (wie halt jetzt schon).
Du scheinst die technischen Folgen der Segmentierung nicht zu verstehen.
Bei Batman erhöht sich von WQHD -> 4k der Abstand übrigens noch von 42% auf 54%, obwohl da auch bei der 980 der VRAM knapp ist. Also nix unbedingt mit annähern.

Batman ist übelster Konsolenschund, selbst nach dem "Patch" :)

Gerade mal Witcher 3 in QHD auf max. Details laufen lassen. Das ist kein synthetischer Benchmark, sondern ich habe nach reichlich 20 Minuten einen Speicherpunkt als Start für eine Messung gesetzt. Danach bin ich immer den gleichen Weg abgelaufen (Wald, Fluss, Dorf - 61 sec.).

GTX 970 Mini OC: 39,7 fps (34 fps min)
http://media.bestofmicro.com/K/T/525629/original/01-Witcher-3-GTX-970-OC.png

GTX 980 OC: 46,7 fps (41 fps min)
http://media.bestofmicro.com/K/S/525628/original/02-Witcher-3-GTX-980-OC.png

R9 390X OC: 42,9 fps (35 fps min)
http://media.bestofmicro.com/K/R/525627/original/03-Witcher-3-R9-390X-OC.png

Es gibt also auch Situationen, wo einem die 8GB gar nichts bringen. Je nach Titel und dessen möglicher Nvidia-Lastigkeit ;)
Und: nicht jeder steht auf CoD und Batman oder modded sich die Platte mit Pixeltapeten voll :D

StefanV
2015-09-09, 17:40:40
Du wirst wahrscheinlich wenige Menschen finden, die für X (viel) Geld ausgegeben haben und dann zugeben, dass sie mit X nicht zufrieden sind, solange X irgendwie passabel läuft... unabhängig davon, ob X jetzt eine 970 ist, oder ein iPhone ;)
Richtig, mich zum Beispiel ;)
Damals, mit dem ASUS A7V hab ich richtig ins Klo gegriffen. Das Board habe ich gehasst, aufgrund des nicht abschaltbaren Promise IDE Chips...
Später konnte man immerhin das BIOS von dem Teil abschalten...

Oh und natürlich die Epox KT133(A) Boards, die voll von der Datenkorruption betroffen waren. Alle 4 Wochen Windows 2k neu installieren, yeah...

In letzter Zeit war auch die HIS Radeon HD 7970GHz Edition 'nen Griff ins Klo, aufgrund der Lüfter.
Aber die Gigabyte Radeon HD7970GHz ist da nicht wirklich besser - nur ist sie im idle relativ leise, dafür unter Last nicht (bei der HIS wars umgekehrt, die war unter Last weniger störend und dafür im idle umso mehr)...

Gibt eigentlich 'ne ganze Latte von Dingen, die mir nicht so wirklich gefallen, mit denen ich aber irgendwie leben muss...

Der größte Griff ins Klo war aber mit Abstand der Core i7-3820...
Aber auch nur, weil das Board 'ne Macke hatte und binnen weniger Minuten Betriebes abgefackelt ist...

Und über die ganzen nVidia Karten, die ich mir mal gekauft habe, reden wir mal lieber nicht...
Die haben mich oft so dermaßen genervt, dass ich sie irgendwann rausgeschmissen habe...

Aber eines der Dinge mit denen ich am zufriedensten (bisher) bin ist ein (gebrauchtes) Gehäuse für 23€ -> FSC Celsius M460 Dingsda. Ist leider optisch nicht so toll...

Ich selbst habe mir auch (schon mit dem Wissen um das Speicherdesaster) eine 970 gekauft. Einfach mit dem Hintergrund, dass sie für meine Anwendungsfälle (bin eher Gelegenheitsspieler) zum aktuellen Zeitpunkt das beste P/L bietet. Bisher bin ich ein Mal ins (für mich wahrnehmbare) ruckeln gekommen und das war bei einem hochgemoddeten Skyrim. Keine Ahnung, ob es der Speicher war, aber ich vermute es. Ob 512MB mehr geholfen hätten? Ich bezweifle es.
Irgendwie habe ich das Gefühl, dass du hier irgendwie krampfhaft versuchst, dir die Karte "schön zu saufen" bzw schön zu reden...
Verstehe nicht, warum du einerseits davon sprichst, dass kaum jemand eingestehen kann, Mist gekauft zu haben...

Warum verteidigst du dann jetzt deine Entscheidung so wehement, wo du doch von dem Gegenteil redest?


Weiterer Hintergrund für den Kauf war, dass mir auch bewusst ist, dass "bald" eh neue Architekturen oder zumindest ein Shrink kommen werden. Wozu also dann massiv Geld in eine potentiell zukunftssicherere Karte stecken, wenn sie in einem Jahr locker überrundet wird?
und warum kaufst du dir eine Karte, bei der du eigentlich übern Tisch gezogen bzw verarscht wurdest?
Das ist die eigentliche Frage...

Warum hast du nicht etwas anderes gekauft, was dieses Geschmäckle nicht gehabt hätte...

Verstehe ich nicht...

Da muss ich dich ganz ehrlich mal fragen, ob du überhaupt AMD Karten jemals in Betracht gezogen hast?!
Deinen Ausführungen nach zu urteilen wohl eher nicht...


Was jetzt etwas anfängt zu nagen ist die Async Compute-Geschichte, aber die ist noch nicht vollends aufgeklärt. Sollte sowohl die Vermutung sich bewahrheiten, dass die Architektur kein Async Compute zulässt, alsauch der Spielemarkt in kurzer Zeit einen Haufen DX12-Titel aufweisen, die ich spiele (unwahrscheinlich) und in denen ich durch die fehlende Eigenschaft spürbare Einbußen habe, dann bin ich auch unzufrieden mit der Karte. Aber ich gehe eigentlich davon aus, dass ich, bis das soweit sein sollte, schon längst über eine neue Karte nachdenke.
Hast du die Geschichte mit den DX9 Geforces und Radeons mitbekommen?!

Warum wundert dich das denn wieder?!

Das ist durchaus vergleichbar mit damals, denn nVidia hat damals auch mit irgendwelchen Features geworben, Shader und TMUs waren aber NICHT unabhängig voneinander, bei ATi waren sie das aber schon bei der R300...

Diese Sache scheint sich zu widerholen, dass AMD 'hintenraus' die bessere Wahl ist - aber war das jemals anders?!
(gut, bei der X800 Serie kann man drüber streiten.)...

aufkrawall
2015-09-09, 17:43:55
Batman ist übelster Konsolenschund, selbst nach dem "Patch" :)

Gerade mal Witcher 3 in QHD auf max. Details laufen lassen. Das ist kein synthetischer Benchmark, sondern ich habe nach reichlich 20 Minuten einen Speicherpunkt als Start für eine Messung gesetzt. Danach bin ich immer den gleichen Weg abgelaufen (Wald, Fluss, Dorf - 61 sec.).

GTX 970 Mini OC: 39,7 fps (34 fps min)
http://media.bestofmicro.com/K/T/525629/original/01-Witcher-3-GTX-970-OC.png

GTX 980 OC: 46,7 fps (41 fps min)
http://media.bestofmicro.com/K/S/525628/original/02-Witcher-3-GTX-980-OC.png

R9 390X OC: 42,9 fps (35 fps min)
http://media.bestofmicro.com/K/R/525627/original/03-Witcher-3-R9-390X-OC.png

Es gibt also auch Situationen, wo einem die 8GB gar nichts bringen. Je nach Titel und dessen möglicher Nvidia-Lastigkeit ;)
Das bestreitet niemand. Es geht aber um VRAM hungrige Spiele. Kaum ein modernes Spiel gemehmigt sich so wenig wie Witcher 3.
Sind die starken Spikes mit der 970 reproduzierbar, mit der 980 nicht?

Dass AMD bei den Frametimes mit DX11 häufiger nicht gut dasteht, stimmt leider, ist aber nicht das Thema.

maguumo
2015-09-09, 17:48:56
Zur 970 in The Witcher 3 stand zu den schlechten Frametimes auch was im Technik Test von PCGH, die meinten das da wohl Teile der Vegetation in's langsame Segment ausgelagert werden. Ob das stimmt weiß ich nicht...

http://www.pcgameshardware.de/screenshots/original/2015/05/Framtimes_The_Witcher_3_GTX_970-pcgh.pnghttp://www.pcgameshardware.de/screenshots/original/2015/05/Framtimes_The_Witcher_3_GTX_980-pcgh.png
http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/Grafikkarten-Benchmarks-1159196/

Mir persönlich ist in dem Spiel mit meiner 290 was die Frametimes betrifft nichts aufgefallen. Wobei ich da aber anscheinend auch nicht wirklich empfindlich bin.

(del)
2015-09-09, 17:49:45
Das bestreitet niemand. Es geht aber um VRAM hungrige Spiele. Kaum ein modernes Spiel gemehmigt sich so wenig wie Witcher 3.
Sind die starken Spikes mit der 970 reproduzierbar, mit der 980 nicht?

Dass AMD bei den Frametimes mit DX11 häufiger nicht gut dasteht, stimmt leider, ist aber nicht das Thema.

Reproduzierbar, aber bei Witcher 3 nicht VRAM-bedingt. Hier ist einfach die GPU am Ende (Moves, Vegetation) - es geht nämlich nach den Drops/Spikes stabil weiter. Es sieht in vielen anderen (ungemoddeten) Spielen ähnlich aus, wo selbst gewisse hochmoderne AMD-Karten diverse Spikes abliefern, die nicht wirklich appetitlich aussehen. ;)

Mr. Lolman
2015-09-09, 17:50:00
Eh. GTAV mit 1440p und 4xAA wär da weit interessanter.

aufkrawall
2015-09-09, 17:51:50
Reproduzierbar, aber bei Witcher 3 nicht VRAM-bedingt. Hier ist einfach die GPU am Ende (Moves, Vegetation). Es sieht in vielen anderen (ungemoddeten) Spielen ähnlich aus, wo selbst gewisse hochmoderne AMD-Karten diverse Spikes abliefern, die nicht wirklich appetitlich aussehen. ;)
Hm, ich würd nicht ausschließen, dass die Spikes nicht auch von der Verkrüppelung kommen. Da müsste man mit einer Mobile GM204 GPU gegentesten, die auch teildeaktiviert ist, aber nicht die Verkrüppelung aufweist.
So einen Test hat übrigens noch niemand gemacht. ;)

Edit: Wobei es ja zwischen 980 Ti und Titan X eigentlich keine Unterschiede bei den Frametimes gibt. Das deutet schon auf die Verkrüppelung der 970 als Ursache.

Eh. GTAV mit 1440p und 4xAA wär da weit interessanter.
Nicht wirklich, weil das MSAA weltfremd teuer ist.

von Richthofen
2015-09-09, 17:52:14
Ich finde es lustig, wie hier (von offensichtlichen "nicht-GTX970-Besitzer") diese Karte auf Basis von theoretischen Benchmarks (und nicht selbst gemachter Erfahrung in den Spielen mit dieser Karte) runtergemacht wird und denen Leuten anscheinend einer abgeht, wenn sie grunddessen NVidia runtermachen.


Na klar, dann brauchen wir auch keine Redaktionen mehr, die uns Bildraten, Frametimes, die Bildquali etc. pp. durchprüfen - alles reine Theorie (zudem kommen die Mehrzahl der Tests mittlerweile aus der Spielpraxis)
Besorgt sich halt jeder einen Stapel Karten und prüft das selbst nach...dann kann er sich für eine entscheiden.

Wenn die 970 für dich so hervorragend läuft - na wunderbar.
Warum dann diese wiederholt energischen Versuche, Leute mit anderen Erfahrungen oder gar veröffentlichte Fakten, beispielsweise wie die in der bis zuletzt noch sachlich geführten Diskussion um das Abschneiden der 970 und anderer Karten im Batman Bench der PCGH, vom Gegenteil zu überzeugen? Aber das spielst du bestimmt eh nicht.


Edit:
Übrigens The Witcher läuft auf der 390 gefühlt wie Butter. Selten so eine gleichmäßige Bildraten gehabt. Im krassen Gegensatz zu z.B Watch Dogs und in der Beziehung unsäglichen FC4.

dargo
2015-09-09, 17:56:25
Gerade mal Witcher 3 in QHD auf max. Details laufen lassen. Das ist kein synthetischer Benchmark, sondern ich habe nach reichlich 20 Minuten einen Speicherpunkt als Start für eine Messung gesetzt. Danach bin ich immer den gleichen Weg abgelaufen (Wald, Fluss, Dorf - 61 sec.).

GTX 970 Mini OC: 39,7 fps (34 fps min)
http://media.bestofmicro.com/K/T/525629/original/01-Witcher-3-GTX-970-OC.png

GTX 980 OC: 46,7 fps (41 fps min)
http://media.bestofmicro.com/K/S/525628/original/02-Witcher-3-GTX-980-OC.png

R9 390X OC: 42,9 fps (35 fps min)
http://media.bestofmicro.com/K/R/525627/original/03-Witcher-3-R9-390X-OC.png

Wie hoch waren eigentlich die beiden "Standbilder" der 970? Leider hast du die Skala mit max. 50ms zu klein gewählt.

aufkrawall
2015-09-09, 17:57:35
Die sollten eigentlich die Skala definiert haben, so etwas darf man nicht abschneiden.

dargo
2015-09-09, 18:00:03
Naja... ich wundere mich halt etwas weil alle drei Karten exakt bei 50ms liegen.