PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Diskussion zur GTX970-Problematik: Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24

Freed
2015-02-06, 22:29:08
So, die 970 ist ausgebaut, die alte 6850 wieder drin. So bewusst verarschen lass ich mich nicht, egal ob Karte "performant" oder nicht, morgen geht die Karte zurück!

Wenn der Treiber versucht, die Speicherbelegung unter 3,5GB zu halten, dann galt das schon für die Tests bei Release, die 0,5GB extra waren also reines Marketing und somit die ganze Geschichte so gewollt. Die Ausrede "Fehlkommunikation zwischen Marketing und Technik" ist albern und das Sahnehäubchen ist dann, dass die 980M zeigt, dass die Karte nicht kastriert werden musste, sondern, dass man es mit Absicht gemacht hat, zumal, s.o. der Treiber ja auch drauf ausgelegt wurde.

Und das pseudoelitäre Gesabbel "wer nur (!) 350€ für ne Graka ausgeben will, der darf halt nicht so viel erwarten" - eines darf ich zumindest erwarten und zwar, dass der Hersteller mich nicht belügt!

Mal hoffen, dass AMD mal die Hufe schwingt und effizientere Karten bringt, die nicht Wakü brauchen um leise gekühlt zu werden...

Dank an die Händler, hier Arlt, dass sie so kulant sind!

PHuV
2015-02-06, 22:35:12
Und ich frage mich, ob ich nun die 750 TI gegen eine 960 oder 970, die wohl demnächst billig rumrutschen, tausche. Ich brauch eine Karte mit 2 DP-Anschlüssen.

Freed
2015-02-06, 22:39:22
Absolut, und so wäre mir die Karte ganz in Tradition früherer Salvage-Chips auch lieber gewesen.



Dem kann ich jetzt auch nicht unbedingt widersprechen, nur: nichts genaues weiß man nicht. Und in solchen Fällen halte ich mich gern an Ockham: Tools wie AIDA64 zeigten von Anfang an gerundete 1,8 MB L2 an, auch die Füllratentests von Damien Triolet waren seit Oktober allgemein im Netz (http://techreport.com/blog/27143/here-another-reason-the-geforce-gtx-970-is-slower-than-the-gtx-980) als auch hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10372319#post10372319) im 3DC bekannt und zeigten einen größeren Leistungsunterschied als allgemein angenommen. Es ist also nicht so dass etwas aufwändig versteckt wurde, es wurde nur nach dem Launch nicht investigativ genug nachgehakt.

Im GameWorks-Thread wurde schonmal herausgearbeitet, dass nur weil ein IHV-Artist zeitweise beim ISV Unterstützung leistet, deswegen der IHV-Treiberentwickler noch lange keinen Einblick in den Sourcecode des Spiels hat.
Ich möchte (bis dato) auch in diesem Fall annehmen dass die PR-Abteilung nicht wusste an was die Treiberentwickler konkret arbeiten, dass diese Information durch menschliche Fehler ohne Arglist zum Launch verschleppt wurde und anschließend totgeschwiegen werden sollte. Meiner Interpretation des Rasiermessers nach ist das die einfachere Erklärung, ansonsten hätte auch jeder Externe von AIDA64 über CUDA-Z bis SiSoft Sandra mitmachen müssen um erst gar keine Verdachtsmomente aufkommen zu lassen.
Irgendwo hier im Forum war auch zu lesen dass unter DX12 die App wohl nur die erste 3,5 GB Partition einer GTX 970 zu sehen bekäme, wenn es denn so kommt spräche auch das gegen eine argliste Täuschung (der DX12 Patch für 3DMark13 soll noch dieses Quartal kommen, die Aktualität ist also gegeben).

Ist aber alles imho, auch deine Schlußfolgerung kann ich nachvollziehen.

Soso, also alle die bei nvidia sitzen gucken nicht auf ihre eigene Webseite, sehen dort die Spezifikationen nicht, und haben sich auch nie einen einzigen Test einer Hardwareseite angeguckt, wo 2MB L2 Cache, 64 ROPs angegeben werden (auch in den weitergeleiteten offiziellen Specs) und nirgends die 3,5+0,5 Situation angesprochen wird. Spätestens dann hätte doch jmd die Handbremse ziehen müssen und es wäre Zeit für die PR Abteilung gewesen, oder nicht?

Auch ziehen die Marketingleute die techn. Specs einfach aus dem Hut und haben nie mit einer Person der Technikabteilung darüber gesprochen - oder es war der Praktikant!

Wenn Du Ockhams Rasiermesser anwenden willst, dann ist geplanter Beschiss, mindestens ab dem Punkt, dass nicht regaiert wurde, als die Reviews draussen waren, aber sicher wahrscheinlicher, als dass die Hardware-Seite keinen Bock hatten nachzuforschen!

Dawn on Titan
2015-02-06, 22:44:58
Das würde ich auch als sinnvolles Line-up ansehen. Vielleicht abgesehen von den 8GB bei der 980Ti. Da würde ich eher die alte 980 beibehalten und die GM200 Derivate durch mehr Speicher in den Vordergrund stellen.

Momentan würden mich 12GB bei der Titan nicht wundern. 980ti könnte mit hoher Wahrscheinlichkeit ein GM204 Aufguss werden und wenn man die entsprechend positionieren will, finde ich 8GB gerade richtig.

Ich erwarte die Ablösung der 970 im März. Die Boardpartner sind ziemlich stinkig. und wenn man dieses Problem lösen will, ohne den Fehler bei der 970 zu zugeben, wird man eine neue Karte brauchen. Ich kann mir also 980ti - 975 - 960ti gut vorstellen und die Karten würden von der Leistung + VRAM gut gestaffelt sein.

Sollte AMD sie zwingen GM200 sofort als GeForce zu bringen, dann ist die 980ti sicher mit 8GB nicht passend.

aths
2015-02-06, 23:20:56
Absolut, und so wäre mir die Karte ganz in Tradition früherer Salvage-Chips auch lieber gewesen.

Dem kann ich jetzt auch nicht unbedingt widersprechen, nur: nichts genaues weiß man nicht. Und in solchen Fällen halte ich mich gern an Ockham: Tools wie AIDA64 zeigten von Anfang an gerundete 1,8 MB L2 an, auch die Füllratentests von Damien Triolet waren seit Oktober allgemein im Netz (http://techreport.com/blog/27143/here-another-reason-the-geforce-gtx-970-is-slower-than-the-gtx-980) als auch hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10372319#post10372319) im 3DC bekannt und zeigten einen größeren Leistungsunterschied als allgemein angenommen. Es ist also nicht so dass etwas aufwändig versteckt wurde, es wurde nur nach dem Launch nicht investigativ genug nachgehakt.

Im GameWorks-Thread wurde schonmal herausgearbeitet, dass nur weil ein IHV-Artist zeitweise beim ISV Unterstützung leistet, deswegen der IHV-Treiberentwickler noch lange keinen Einblick in den Sourcecode des Spiels hat.
Ich möchte (bis dato) auch in diesem Fall annehmen dass die PR-Abteilung nicht wusste an was die Treiberentwickler konkret arbeiten, dass diese Information durch menschliche Fehler ohne Arglist zum Launch verschleppt wurde und anschließend totgeschwiegen werden sollte. Meiner Interpretation des Rasiermessers nach ist das die einfachere Erklärung, ansonsten hätte auch jeder Externe von AIDA64 über CUDA-Z bis SiSoft Sandra mitmachen müssen um erst gar keine Verdachtsmomente aufkommen zu lassen.
Irgendwo hier im Forum war auch zu lesen dass unter DX12 die App wohl nur die erste 3,5 GB Partition einer GTX 970 zu sehen bekäme, wenn es denn so kommt spräche auch das gegen eine argliste Täuschung (der DX12 Patch für 3DMark13 soll noch dieses Quartal kommen, die Aktualität ist also gegeben).

Ist aber alles imho, auch deine Schlußfolgerung kann ich nachvollziehen.
Ich bin mir relativ sicher, dass die Leute welche direkt Kontakt zu Presse hatten, es zum Launch nicht wussten (vielleicht mit einigen sehr wenigen Ausnahmen.) Es ist jedoch klar, dass in der Entscheidung, wie die 970 zurechtgestutzt wird, einige Leute beteiligt waren. In der Umsetzung müssen noch deutlich mehr Leute involviert gewesen sein. Die meisten dürften längst, auch vor Nvidias Eingeständnis, mitbekommen haben, dass dies falsch gegenüber der Öffentlichkeit kommuniziert wurden.

Hätte Nvidia ursprünglich geplant, die User ehrlich zu informieren, hätten sie kaum die Mühe auf sich genommen, trotz Speicherinterfache-Beschneidung noch 4 GB adressierbar zu machen.

aths
2015-02-06, 23:32:28
Wird er doch sowieso wenn 980ti und der neue Titan auflaufen. Warum also nicht neustrukturieren?

980ti Vollausbau + Takt + 8GB
980 - läuft aus
975 - 14SMM - voller L2 + volle 4GB
970 läuft aus
960ti - 12SMM - 1,5MB - 192Bit + 3GB
GM200 kommt möglicherweise mit 12 GB als Titan, wobei ich darauf nicht wetten würde, ich rechne hier eher mit 6 GB. Bei der Gamingversion sind 6 GB fast schon sicher. Insofern dürfte es die 980 mit 8 GB, wenn überhaupt, nur vereinzelt geben, aber kaum als offizielles Modell. Wer mehr Speicher braucht, dürfte in der Regel auch mehr Leistung brauchen.

kruemelmonster
2015-02-06, 23:51:46
Spätestens dann hätte doch jmd die Handbremse ziehen müssen und es wäre Zeit für die PR Abteilung gewesen, oder nicht?


Wie gesagt:
...nachdem NV es dann intern bemerkte gab es zwei Möglichkeiten: Full Disclosure (und damit einen bis dato sehr erfolgreichen Launch eigenhändig verhageln) oder aussitzen und hoffen dass niemand darüber stolpert.

Hättest du als Verantwortlicher ein "Oops" verlautbaren lassen obwohl bis dahin noch kein Externer drüber gestolpert ist?
Als es dann über die Foren bekannt wurde und hochkochte kam auch die Gegenreaktion in Form dreier Gespräche mit großen Seiten am Sonntag Abend durch NVs Senior VP of Hardware Engineering, und nicht irgendeinen Tech-PR-Fuzzi.
Das alles sieht mir nicht nach einer im vorraus kalkulierten Exit-Strategie aus, aber ich bin hier auch nicht des Teufels Advokat.

@aths:

Da bin ich komplett bei dir.

Die Motivation für das Stillschweigen erkläre ich mir momentan mit "wo kein Ankläger da kein Richter und kein Henker". Insofern begrüße ich die Warnhinweise bei Geizhals auch, wie damals beim AF der GF7 muss das ein Denkzettel für NV werden der so schnell nicht vergessen wird.
Das meinte ich schonmal hier in diesem Thread mit (lustigerweise auch an dich gerichtet gewesen):
Die Spec-Schindluderei bei Highend SKUs geht gar nicht und ärgert mich ebenfalls am meisten; die GTX 970 ist nur 1 Produkt, die Gedankengänge dahinter reichen aber meist etwas weiter.

Daher: Wehret den Anfängen!
Unabhängige Berichterstattung, ihr Auftritt...

Zum edit:

Dann hätte man sich auch gleich die komplette Entwicklung des Buddy Link sparen können.
Wie gesagt, ich kann deine Schlußfolgerungen nachvollziehen, teile sie aber (noch) nicht.

Für mich bleibt es bisher bei der ersten Inkarnation eines Features (einzelne L2 abschalten und mittels Buddy Link kompensieren), welches mindestens unzureichend intern und extern kommuniziert wurde, evtl vergleichbar mit der damaligen Frage "hat der Lynnfield nun QPI oder nicht?", da gab es ja auch gewisse Meinungsunterschiede (ja das hinkt gewaltig, ist aber wenigstens kein Autovergleich :smile:).

BlacKi
2015-02-07, 05:46:28
wegen dem 384 SI des gm200 tippe ich eher auf 6gb wenns eine 990/ti wird, oder mit 12 gb als titan X
bei letzterem werden wohl 1k€ nicht reichen und bei ner 990 mit 6gb wohl mindestens 700€
ich denke beides wird genug sein^^

Grumbart
2015-02-07, 13:38:49
Auch ziehen die Marketingleute die techn. Specs einfach aus dem Hut und haben nie mit einer Person der Technikabteilung darüber gesprochen - oder es war der Praktikant!

Ich bin mir, vor allem nach der derzeitigen Reaktion von Nvidia, absolut sicher, daß man ganz bewusst die 970 in den Spezifikationen näher an die 980 "gebracht" hat.
Überlegt doch mal wie lange das Ganze unentdeckt geblieben ist, das ist kein Zufall sondern das Produkt des aktiven Verschleierns.

ChaosTM
2015-02-07, 14:07:36
Das Schweigen seitens Nvidia spricht leider Bände - das hätte ich so nicht erwartet!

Man scheint das tatsächlich kommentarlos aus-sitzen zu wollen, nach dem Motto.:
Diese Idioten (Die werten Kunden) vergessen unseren bewussten Betrug sowieso in ein paar Wochen - halten wir einfach den Mund.

Absolut unterste Schublade ..

edit.: ..auto correct s..

MartinRiggs
2015-02-07, 14:12:01
Das Schweigen seitens Nvidia spricht leider Bände - das hätte ich so nicht erwartet!

Man scheint das tatsächlich kommentarlos aufsitzen zu wollen, nach dem Motto.:
Diese Idioten (Die werten Kunden) vergessen unseren bewussten Betrug sowieso in ein paar Wochen - halten wir einfach den Mund.

Absolut unterste Schublade ..

Tja das "Kaufvieh" gibt ihnen ja recht, die Rücklaufquote ist gering also haben sie alles richtig gemacht.

Screemer
2015-02-07, 14:26:57
und die verkaufzahlen der 980 gehen noch dazu nach oben. was will man mehr.

dargo
2015-02-07, 14:29:27
Tja das "Kaufvieh" gibt ihnen ja recht, die Rücklaufquote ist gering also haben sie alles richtig gemacht.
Mit den Rücklaufquoten sollte man noch etwas warten. Viele Händler in DE nehmen die Karten nicht zurück (wie sieht das eigentlich außerhalb DE aus?) und die wenigsten schalten den Anwalt ein. Hier gibts ne kleine Übersicht dazu.
http://www.computerbase.de/forum/showthread.php?t=1440825

Dawn on Titan
2015-02-07, 15:14:59
Dazu kommen die insgesamt hohen Preise für Hardware im Moment.

dildo4u
2015-02-07, 15:23:37
Kein wirkliches Argument wenn um AMD Karten geht 290 gibt für 250€ nur will die keiner.

https://geizhals.de/vtx3d-radeon-r9-290-x-edition-v2-vxr9-290-4gbd5-dhx-a1062788.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&v=l#filterform

Exxtreme
2015-02-07, 15:53:15
und die verkaufzahlen der 980 gehen noch dazu nach oben. was will man mehr.
Tja, die Alternative zur gtx 970 ist die gtx 980. Ist leider so. Ich hoffe, AMD kommt mit der R3xx endlich in die Pötte.

von Richthofen
2015-02-07, 17:10:41
Tja das "Kaufvieh" gibt ihnen ja recht, die Rücklaufquote ist gering also haben sie alles richtig gemacht.

Man ist doch bereits über den Berg, hat also den Peak der Entrüstung hinter sich.
Der Trend inerhalb der Geizhals-Graka Top10, in der sich in den letzten Tagen überraschend viele 290er eingefunden hatten, läuft nun auch schon wieder etwas in Richtung "business as usual". Wenn nicht noch was gröberes (vllt. Klage in den USA) nachkommt könnt es das schon gewesen sein.

x-force
2015-02-07, 18:08:59
mir fällt da grade noch was zum märchen ein, daß kein spiel unter normalen settings mehr als 3,5gb ram brauchen soll.

ac:u braucht bei 1920x1080 mit allen settings auf max/nvidia und nur 2xmsaa schon über 3500mb mit txaa liegt man über 4gb.

einfach nur fail, was die redakteure sich geleistet haben.

Peter Gräber
2015-02-07, 18:33:11
Keine Ahnung ob die Videos von TweakPC hier schon gepostet wurden.
Die zeigen deutlich das Problem.
Zu sehen am besten bei den schnellen Drehungen.

GTX970: Speicher geht über 3,5Gb -> üble Slowdowns
http://youtu.be/diqbwxkqfTQ


GTX980: bleibt flüssig
http://youtu.be/4jORmixC6uw

Bei Roberts Video mit der GTX 970 stimmt aber leider irgendwas nicht. Der GPU-Takt wird mit lediglich 540 MHz gefahren. Bei der 980 sind es über 1300.

Isen
2015-02-07, 18:39:16
Weils nen Auslesefehler ist...(bei dem Takt wäre die dort gezeigte Leistung gar nicht möglich ) hol jetzt bloß nicht diese alte Kamelle wieder hoch, da kriegt man dicke Eier.:biggrin:

DarknessFalls
2015-02-07, 18:40:11
Er erläutert das in den Kommentaren, laut ihm ist das ein Auslesefehler.

Edit: Ah. Zu langsam.

x-force
2015-02-07, 20:22:51
testet doch mal lieber ac:u

da sprengt wie gesagt schon fullhd die 3,5gb mit 2xmsaa(3700) und erstrecht mit txaa(>4000) auf ner 980.

poiu
2015-02-07, 20:59:39
Bei Roberts Video mit der GTX 970 stimmt aber leider irgendwas nicht. Der GPU-Takt wird mit lediglich 540 MHz gefahren. Bei der 980 sind es über 1300.


Hallo Peter
Auslesefehler von afterburner ist doch normal

Weils nen Auslesefehler ist...(bei dem Takt wäre die dort gezeigte Leistung gar nicht möglich ) hol jetzt bloß nicht diese alte Kamelle wieder hoch, da kriegt man dicke Eier.:biggrin:

Dito

Dawn on Titan
2015-02-07, 21:41:36
Kein wirkliches Argument wenn um AMD Karten geht 290 gibt für 250€ nur will die keiner.

https://geizhals.de/vtx3d-radeon-r9-290-x-edition-v2-vxr9-290-4gbd5-dhx-a1062788.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&v=l#filterform

Bei den meisten Händlern eher 280-350 und damit im Preisrahmen der 970 (zumindest für viele Altkäufer). Abgesehen davon NV den Mittelfinger zu zeigen, bringt der Tausch eigentlich keine Vorteile.

Isen
2015-02-07, 21:50:09
380x wäre zu dem Zeitpunkt genial gewesen.. naja...Wunschdenken

BlacKi
2015-02-07, 21:50:31
testet doch mal lieber ac:u

da sprengt wie gesagt schon fullhd die 3,5gb mit 2xmsaa(3700) und erstrecht mit txaa(>4000) auf ner 980.

ich denke auch das es dort starke ruckler gibt, aber wie anstatt der 970 den schwarzen peter zuzuschieben sehe ich die probleme eher das die 960 mit nur 2gb genau wie die 285 eigentlich viel mehr probleme haben obwohl die preisdifferenz garnicht so gravierend ist.

das man bei der 970 früher details reduzieren muss ist allen vor dem kauf klar gewesen. mal sehen wann die 960 mit 4gb kommen und zu welchen preisen.

wer kauft sich ne 960 mit echten 4gb für 250-270 wenn er für 310-330 eine 3,5 gb 970 bekommt. wer das macht muss eine an der klatsche haben.

fondness
2015-02-08, 09:25:17
Mindfactory hat wieder bei alle GTX970 ganz normal 4GB VRAM stehen, das mit den 3,5+512 wurde also gestrichen:
http://www.mindfactory.de/Hardware/Grafikkarten+%28VGA%29/GeForce+GTX+fuer+Gaming/GTX+970.html

Air Force One
2015-02-08, 09:29:15
Da haben sich bestimmt die Grünen eingeschaltet.

RoughNeck
2015-02-08, 09:30:48
Nvidia versucht im Moment echt alles um Kunden zu vergraulen und das Speicherproblem klein zu reden bzw. zu verheimlichen.

dargo
2015-02-08, 09:39:22
Mindfactory hat wieder bei alle GTX970 ganz normal 4GB VRAM stehen, das mit den 3,5+512 wurde also gestrichen:
http://www.mindfactory.de/Hardware/Grafikkarten+%28VGA%29/GeForce+GTX+fuer+Gaming/GTX+970.html
Nein, wurde nicht. Steht im Produktdatenblatt.

mironicus
2015-02-08, 09:43:52
Nein, wurde nicht. Steht im Produktdatenblatt.

Wird bestimmt auch noch geändert, hat NVidia aber noch nicht bemerkt. :freak:

Ich warte noch auf die ersten Meldungen, dass NVidia Abmahnungen verschickt, wenn jemand behauptet, dass die GTX 970 keine echten 4 GB hat. :D

BitJäger
2015-02-08, 09:46:10
Interessant finde ich das ASUS bei den Grafikkarten und bei den MBs (Sockel 1155) nicht mehr gelistet wird. Die haben sich wohl nicht mehr lieb:biggrin:

fondness
2015-02-08, 09:46:44
Nein, wurde nicht. Steht im Produktdatenblatt.

Okay stimmt, vorher stand es aber direkt im Titel.

labecula
2015-02-08, 09:57:48
Interessant finde ich das ASUS bei den Grafikkarten und bei den MBs (Sockel 1155) nicht mehr gelistet wird. Die haben sich wohl nicht mehr lieb:biggrin:

Ja, die Meldung dazu gab es aber schon ein paar Tage zuvor. Eine Bestätigung dafür auch. Nur äußern wollen sich beide dazu nicht genauer.

http://www.computerbase.de/2015-02/mindfactory-nimmt-asus-aus-dem-sortiment/

BZ
2015-02-08, 11:09:34
Mindfactory hat wieder bei alle GTX970 ganz normal 4GB VRAM stehen, das mit den 3,5+512 wurde also gestrichen:
http://www.mindfactory.de/Hardware/Grafikkarten+%28VGA%29/GeForce+GTX+fuer+Gaming/GTX+970.html

Nö. :smile:

http://www.mindfactory.de/product_info.php/4096MB-Gigabyte-GeForce-GTX-970-Windforce-3X-OC-Aktiv-PCIe-3-0-x16--Retai_978515.html

Datenblatt

Grösse des Grafikspeichers: 4096MB
Aufteilung des Grafikspeichers: 3584MB + 512MB
Grafikspeichertyp: GDDR5
Grafikspeicher Taktfrequenz: 1750MHz (7000MHz GDDR5)
Grafikspeicher Anbindung: 256Bit (224Bit + 32Bit)

von Richthofen
2015-02-08, 12:16:04
Mindfactory hat wieder bei alle GTX970 ganz normal 4GB VRAM stehen, das mit den 3,5+512 wurde also gestrichen:
http://www.mindfactory.de/Hardware/Grafikkarten+%28VGA%29/GeForce+GTX+fuer+Gaming/GTX+970.html
Nein, wurde nicht. Steht im Produktdatenblatt.


Geht schon wieder alles in Richtung "awesome". Hier (http://www.mindfactory.de/product_info.php/4096MB-MSI-GeForce-GTX-970-OC--Nvidia-Layout--Aktiv-PCIe-3-0-x16--Retail-_978585.html)ist gar zu lesen:

....Und dank des 4 GB GDDR5 Grafikspeicher sind Ihnen keine Grenzen gesetzt.

Disco_STFU
2015-02-08, 13:29:14
Und dank des 4 GB GDDR5 Grafikspeicher sind Ihnen keine Grenzen gesetzt.

Doch, 3,5

*badum ts*

:freak:

No.3
2015-02-08, 13:29:23
Geht schon wieder alles in Richtung "awesome". Hier (http://www.mindfactory.de/product_info.php/4096MB-MSI-GeForce-GTX-970-OC--Nvidia-Layout--Aktiv-PCIe-3-0-x16--Retail-_978585.html)ist gar zu lesen:

....Und dank des 4 GB GDDR5 Grafikspeicher sind Ihnen keine Grenzen gesetzt.

LOL ;D

das ist wohl der mega-fail 2015! Gerade wegen der 4 GB Speicher sind der Karte ärgste Grenzen gesetzt! :rolleyes:

-/\-CruNcher-/\-
2015-02-08, 13:38:04
Hallo Peter
Auslesefehler von afterburner ist doch normal



Dito

Normal ist das sicher nicht wenn die reaktionszeit schnell genug ist kann man den boost gut verfolgen also ich hab solche hänger auf meinem system nicht.

Die NVAPI macht da eigentlich wenig probleme.

LOL ;D

das ist wohl der mega-fail 2015! Gerade wegen der 4 GB Speicher sind der Karte ärgste Grenzen gesetzt! :rolleyes:

Dann erläutere uns dochmal diese Grenzen und wer da hauptsächlich abhilfe schaffen könnte ;)

Wenn die Entwickler bei Nvidia effizienter arbeiten als wie bei so manchem Spiele Entwickler ist das nicht Nvidias Problem und ein guter Entwickler passt sich den neuen Hardware gegebenheiten besser an ;)

DarknessFalls
2015-02-08, 14:05:10
Wenn die Entwickler bei Nvidia effizienter arbeiten als wie bei so manchem Spiele Entwickler ist das nicht Nvidias Problem und ein guter Entwickler passt sich den neuen Hardware gegebenheiten besser an ;)

Genau. Bringen wir doch als nächstes eine 2GB GTX970 raus - und wenn die nicht gescheit läuft, sind halt die Entwickler schuld. Was passen die sich auch nicht an die neue Hardware an. :freak:

Geht's noch? Oder hab ich Ironie-Tags übersehen?

aths
2015-02-08, 16:04:31
Genau. Bringen wir doch als nächstes eine 2GB GTX970 raus - und wenn die nicht gescheit läuft, sind halt die Entwickler schuld. Was passen die sich auch nicht an die neue Hardware an. :freak:

Geht's noch? Oder hab ich Ironie-Tags übersehen?
Die Ironie war auch ohne Tags eigentlich nicht zu übersehen.

DarknessFalls
2015-02-08, 17:57:29
Dann: Mea culpa, mea maxima culpa. ;)

dargo
2015-02-08, 19:45:59
Die erste(?) "Beschwerde" von einem Händler über das Verhalten von Nvidia.
http://www.computerbase.de/forum/showthread.php?t=1440060&page=201&p=16987680#post16987680

Matrix316
2015-02-08, 20:28:57
Die Händler können ja auch nix dafür. Jetzt denen den schwarzen Peter zu geben, wenn sie nicht zurücknehmen wollen, oder erstmal die Antwort von Nvidia abwarten wollen ist IMO auch nicht richtig. Die sind am wenigsten Schuld und würden bei einer Rückgabe erstmal die Hauptlast tragen. Normalerweise muss Nvidia den Händlern grünes Licht für eine Rückgabe der Karte geben und dass man die Ausfälle kompensieren wird.

Finanzamt
2015-02-08, 20:49:54
Einfach Nvidia mal aus dem Sortiment nehmen, dann würde auch bewegung in die Sache kommen. Aber das traut sich keiner....

EvilTechno
2015-02-08, 21:25:24
Weil man dann der Hälfte der 970-Rückgeber keine 980 verkaufen kann.

Ich bin ja eher AMD Fan und von daher kommt mir die Affäre gar nicht so schlimm vor. Die Leute verarscht? Das hat der ADAC auch. Ein Achtel weniger schneller RAM, was macht das schon für einen Unterschied.

Aber wenn ich mir vorstelle, die Karte eingebaut zu haben und bei jedem (Nachlade)Ruckler gleich zu denken es könnte der VRAM sein... das würde mir die Freude an der Karte gründlich versauen.

Wenn aber die 970 Käufer nicht auf die Barrikaden gehen und mit ihrem Geldbeutel ein Zeichen setzen, dann kann es ja nicht so schlimm sein. Bin wohl nur übersensibel.

Knuddelbearli
2015-02-08, 21:45:56
Einfach Nvidia mal aus dem Sortiment nehmen, dann würde auch bewegung in die Sache kommen. Aber das traut sich keiner....
wird niemals passieren und sobald man bei der 970 die Wahrheit in den angaben schreibt kommt sicher ein Anwaltschreiben von NV jede 970 aus dem Sortiment zu nehmen bzw. jede wo der Hersteller nicht kooperiert wäre aber wohl möglich

Skysnake
2015-02-08, 22:59:46
Das bestreite ich doch auch gar nicht. Klar hätten die das tun sollen. Trotzdem hätte das jemand, der aufmerksam und sauber testet, feststellen müssen.

Wenn ich mir überlege, wie im Consulting-Bereich oftmals gelogen wird, bis sich die Balken biegen, und dem Kunden sonstwas versprochen wird...
Die Händler können ja auch nix dafür. Jetzt denen den schwarzen Peter zu geben, wenn sie nicht zurücknehmen wollen, oder erstmal die Antwort von Nvidia abwarten wollen ist IMO auch nicht richtig. Die sind am wenigsten Schuld und würden bei einer Rückgabe erstmal die Hauptlast tragen. Normalerweise muss Nvidia den Händlern grünes Licht für eine Rückgabe der Karte geben und dass man die Ausfälle kompensieren wird.
Doch genau die sind die richtigen, denn mit ihnen hat man einen Kaufvertrag geschlossen. Zudem haben DIE auch die Macht nVidia richtig ans Bein zu pissen, also so das sich bei nVidia auch was tut. Zwar bitter für die Händler, dass Sie quasi als Prellbock herhalten müssen, aber ihnen steht ja ohne weiteres frei, sich den Empörung der Kunden an zu schließen, und nVidia Feuer unterm Arsch zu machen.

Thunder99
2015-02-09, 01:15:00
Vapor-X ist unterwegs, ab Dienstag geht dann die GTX 970 zurück. So verarschen lasse ich mich nicht! Danke geht da natürlich an meinen Händler welcher eine Rückgabe möglich gemacht hat

x-force
2015-02-09, 01:22:11
Doch genau die sind die richtigen, denn mit ihnen hat man einen Kaufvertrag geschlossen. Zudem haben DIE auch die Macht nVidia richtig ans Bein zu pissen, also so das sich bei nVidia auch was tut. Zwar bitter für die Händler, dass Sie quasi als Prellbock herhalten müssen, aber ihnen steht ja ohne weiteres frei, sich den Empörung der Kunden an zu schließen, und nVidia Feuer unterm Arsch zu machen.

genau so ist es.

Malabolge
2015-02-09, 07:06:14
...
Wenn die Entwickler bei Nvidia effizienter arbeiten als wie bei so manchem Spiele Entwickler ist das nicht Nvidias Problem und ein guter Entwickler passt sich den neuen Hardware gegebenheiten besser an ;)


Yeah Right - The Way it Is meant to be Played !

ROFL - Wird immer besser.

BlacKi
2015-02-09, 09:09:27
Einfach Nvidia mal aus dem Sortiment nehmen, dann würde auch bewegung in die Sache kommen. Aber das traut sich keiner....

es ist eigentlich nicht deren krieg. und wer schießt sich für nichts und wieder nichts ins eigene standbein?

man könnte vl eine woche lang darauf verzichten nvidia zu verkaufen um ein statement abzuliefern, aber 60-70% aller karten sind nvidiakarten. das hält kein händler dauerhaft durch.

Blediator16
2015-02-09, 13:57:43
https://www.youtube.com/watch?v=kLs6YJrP5xU

Den ein oder anderen mag es aktuell nicht jucken. Falls man allerdings jedes Jahr eine neue Karte kauft, dann dürfte das wirklich egal sein. Wenn man die Karte länger behalten möchte, dann sollte man sich im klaren sein, dass alles möglich ist speziell mit DX12. Wenn man bereits jetzt Fälle hat, wo die Krüppelkarte ins Stocken gerät, dann sieht das in Zukunft sicher nicht besser aus.

Dural
2015-02-09, 14:25:16
aber auch da sieht man wieder, wenn 3,5GB nicht reichen sind auch oft die 4GB zu wenig.

Tomislav
2015-02-09, 14:31:15
Hallo
aber auch da sieht man wieder, wenn 3,5GB nicht reichen sind auch oft die 4GB zu wenig.
Dann hast du aber ein anderes Video gesehen oder das Video nicht zu Ende gesehen, die Frametimes sind auf High (unter 3,5GB) identisch und auf Ultra (über 3,5GB) bei der 970 deutlich schlechter als bei der 670.
Screenshot von https://www.youtube.com/watch?v=kLs6YJrP5xU
http://fs1.directupload.net/images/150209/temp/2vlwds4w.jpg (http://www.directupload.net/file/d/3893/2vlwds4w_jpg.htm)

Grüße Tomi

Thunder99
2015-02-09, 15:38:37
Weiterer Punkt wo das Marketing deutlich übertrieben hat ist die Energieeffizienz. Geworben wird mit 100% real sind es ~54%
Siehe http://www.3dcenter.org/news/energieeffizienz-der-geforce-gtx-980-marketing-anspruch-benchmark-wirklichkeit

Air Force One
2015-02-09, 17:23:37
Wie ist das eig... bisher war es ja nie ei Problem oder?
Also nicht das die eine 960er mit 4GB bringen und das Ding riegelt z.B ab 3GB wieder ab?
Wäre zwar dämlich und peinlich aber....

Thunder99
2015-02-09, 19:20:00
Bei der GTX960 wird es von Partnern 4GB Versionen geben, d.h. nvidia gibt die frei. Da sollte nichts beschnitten sein sonst wäre ja nicht mal 2GB performant nutzbar

Schnoesel
2015-02-09, 21:44:19
Mal ne doofe Frage. Mit den Low Level Apis ist doch die Speicherverwaltung komplett in der Hand der Spieleentwickler. Wird da eine Treiberbegrenzung auf 3,5 GB überhaupt funktionieren?

Isen
2015-02-09, 23:49:15
Nope....

blaidd
2015-02-10, 00:02:40
@Schnoesel: Ich glaube nicht, dass das eine dumme Frage ist... hab ich mir auch schon gestellt. Ich sehe da jedenfalls in der Theorie Probleme, wenn ein Dev davon ausgeht, dass er vier GiByte zur Verfügung hat und diese dann auch nutzt. Kann natürlich sein, dass der Treiber das noch irgendwie unterbinden kann oder dass nur 3,5 GiByte als verwendbar gemeldet werden...

Coda sieht da offenbar auch Schwierigkeiten:
Übrigens wird das mit DX12 dann auch lustig, da muss man den Speicher nämlich selber verwalten. Da können sie dann gar keine 4GB mehr an die Applikation weitergeben, wenn ich nicht was übersehe. (Post) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10507860&postcount=2608)

Ex3cut3r
2015-02-10, 00:06:52
Hallo

Dann hast du aber ein anders Video gesehen oder das Video nicht zu Ende gesehen, die Frametimes sind auf High (unter 3,5GB) identisch und auf Ultra (über 3,5GB) bei der 970 deutlich schlechter als bei der 670.
Screenshot von https://www.youtube.com/watch?v=kLs6YJrP5xU
http://fs1.directupload.net/images/150209/temp/2vlwds4w.jpg (http://www.directupload.net/file/d/3893/2vlwds4w_jpg.htm)

Grüße Tomi

Das Bild mit den Frametimes schmerzt, eine arschlahme GTX 670 produziert eine smootheres Gameplay als eine hochmoderne GTX 970. :freak:

PHuV
2015-02-10, 00:23:03
Bei der GTX960 wird es von Partnern 4GB Versionen geben, d.h. nvidia gibt die frei. Da sollte nichts beschnitten sein sonst wäre ja nicht mal 2GB performant nutzbar
Hier wird doch noch mehr abgeschaltet werden, wie soll daß dann funktionieren? So etwa?

http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/
Bei der Geforce GTX 970 ist das im Prinzip ebenfalls möglich, jedoch gibt es einen Bereich, in dem der L2-Block abgeschaltet ist. Während in früheren Geforce-Generationen gleich auch der zugehörige Speichercontroller deaktiviert werden musste, ist es bei Maxwell möglich, dass ein L2-Block zwei Speichercontroller versorgt. Solange eine niedrige Last auf dem Speichersystem anliegt, funktioniert das auch problemlos. Wenn jedoch viele Zugriffe anstehen und die Controller überbeschäftigt sind, stauen sich die Anfragen ("Requests") in den Warteschlangen ("Queues") der L2-Blöcke.
Dann passiert doch genau das, was mit den letzten 0,5 GB bei der 970er passiert, mit den zusätzlichen 2 GB der 960er. Will das jemand etwa so haben?

kruemelmonster
2015-02-10, 03:48:14
Warum sollte das passieren? Die GTX 960 hat ein volles 128bit Interface wie die 980 ein volles 256bit Interface hat. Ob man daran 1, 2, 4 oder 8 GB betreibt hängt in erster Linie von der Modulgröße ab.

Hier nichts verwechseln, es gibt kein generelles Maxwellgate sondern nur den GTX 970 Speicherkrüppel, welchen ich mit einem Gewehr in der Hand in den Wald führen würde. Drei Beine hat der Gaul noch komplett, das vierte Bein ist vom Knie abwärts ne Prothese.

Ab in die Lasagne damit. :freak:

-/\-CruNcher-/\-
2015-02-10, 06:39:27
https://www.youtube.com/watch?v=kLs6YJrP5xU

Den ein oder anderen mag es aktuell nicht jucken. Falls man allerdings jedes Jahr eine neue Karte kauft, dann dürfte das wirklich egal sein. Wenn man die Karte länger behalten möchte, dann sollte man sich im klaren sein, dass alles möglich ist speziell mit DX12. Wenn man bereits jetzt Fälle hat, wo die Krüppelkarte ins Stocken gerät, dann sieht das in Zukunft sicher nicht besser aus.

Nope und genau das ist ein großer denkfehler.

Das Bild mit den Frametimes schmerzt, eine arschlahme GTX 670 produziert eine smootheres Gameplay als eine hochmoderne GTX 970. :freak:

Das ist momentan noch korrekt das hätte man aber bei Watch_Dogs und Far Cry 4 viel einfacher feststellen können Shadow of Mordor ist da sehr suboptimal für eher noch verhamlosend. ;)

Am besten siehst du das eben daran das man dieses Problem in den Griff bekommen kann ohne große Auswirkungen, es gibt andere Probleme die die GTX 670 eben nicht mehr so gut in den Griff bekommen wird demnächst die auch schwerer kompensierbar sein werden ;)

Und weitaus mehr Auswirkungen haben als wie die Einbrüche die du da gerade in diesem Szenario wahrnimst ;)

mustrum
2015-02-10, 12:36:45
Warum sollte das passieren? Die GTX 960 hat ein volles 128bit Interface wie die 980 ein volles 256bit Interface hat. Ob man daran 1, 2, 4 oder 8 GB betreibt hängt in erster Linie von der Modulgröße ab.

Hier nichts verwechseln, es gibt kein generelles Maxwellgate sondern nur den GTX 970 Speicherkrüppel, welchen ich mit einem Gewehr in der Hand in den Wald führen würde. Drei Beine hat der Gaul noch komplett, das vierte Bein ist vom Knie abwärts ne Prothese.

Ab in die Lasagne damit. :freak:

;D Schön gesagt. :)

Matrix316
2015-02-10, 12:51:30
Am Ende ist eine 960 mit 4 GB besser als die 970 in manchen Szenarien... wobei die 128 Bit schon reinhauen dürften. Ist sowieso eine Schande, dass man 2015 noch Karten mit weniger als 512 Bit SI bauen darf. Die 280 GTX hatte schon 512 und dann geht man wieder runter... scheiß Sparmaßnahmen da...;-)

Thunder99
2015-02-10, 13:24:52
Das SI hat überhaupt nichts mit Sparmaßnahmen zu tun sondern ist eine Kombination von benötigter Anbindung, Geschwindigkeit/Bandbreite, Chip Design und verfügbarer RAM Technologie.

Nebenbei ist das 512bit Interface laut AMD billiger als ein 384bit für die benötigte Bandbreite ;)

Knuddelbearli
2015-02-10, 13:29:38
naja das 512Bit SI von hawaii ist billiger als das 384 von Thaitii

Da es für niedrigere Frequenzen gebaut ist

Toki
2015-02-10, 14:31:29
Hallo,

lese hier immer: Schick ich zurück....
Mein Händler Alternate sieht das so:


Die Grafikkarten mit einem Nvidia Chip Geforce GTX 970 weisen keinen Defekt
auf, der einen Sachmangel i.S.d. Gewährleistungsrechtes begründen würde.

Das Produkt bringt in der Praxis die Leistung für die vorgesehene Verwendung
und weist
damit die gewöhnliche Beschaffenheit, die bei Grafikkarten der gleichen Art
üblich ist, auf.
Nvidia bestätigte darüber hinaus, dass die Geforce GTX 970 derzeit so arbeitet
wie vorgesehen.

Sollten Sie weitere Fragen zu Ihre Grafikkarte mit einem Nvidia Chip Geforce
GTX 970 haben, wenden Sie sich bitte direkt an den jeweiligen Hersteller Ihrer
Grafikkarte.


Muss wohl auf dem Rechtsweg entschieden werden.

Gruß,

Toki

Hobby
2015-02-10, 14:50:13
Zitat Alternate
Das Produkt bringt in der Praxis die Leistung für die vorgesehene Verwendung
und weist damit die gewöhnliche Beschaffenheit, die bei Grafikkarten der gleichen Art üblich ist, auf.
Zitat Ende

"Der gleichen Art üblich" - da würde ich bei "Alternate" nachfragen, ob sie noch mehr Grafikkarten mit dieser Speicherbesonderheit im Angebot haben und wo sie die Praxisvergleiche her haben?

Denrusl
2015-02-10, 15:17:30
Zitat Alternate
"Der gleichen Art üblich" - da würde ich bei "Alternate" nachfragen, ob sie noch mehr Grafikkarten mit dieser Speicherbesonderheit im Angebot haben und wo sie die Praxisvergleiche her haben?


Freundlich bleiben ;) aber ja damit sollte man jemanden mal zu einer kleinen Antwort dort bringen können.

Hobby
2015-02-10, 15:31:21
Freundlich bleiben ;) aber ja damit sollte man jemanden mal zu einer kleinen Antwort dort bringen können.

Bleibe ich sowieso - fast immer ;)

Aber man sollte "Alternate" einmal ein wenig kitzeln, da ich glaube, dass da nur ein vorgefertigter "Nvidia-Spruch" nachgeplappert wird, der mir wenig durchdacht erscheint!

Denrusl
2015-02-10, 15:33:51
Bleibe ich sowieso - fast immer ;)

Aber man sollte "Alternate" einmal ein wenig kitzeln, da ich glaube, dass da nur ein vorgefertigter "Nvidia-Spruch" nachgeplappert wird, der mir wenig durchdacht erscheint!

wohl wahr :D

vorallem:

Hier nichts verwechseln, es gibt kein generelles Maxwellgate sondern nur den GTX 970 Speicherkrüppel, welchen ich mit einem Gewehr in der Hand in den Wald führen würde. Drei Beine hat der Gaul noch komplett, das vierte Bein ist vom Knie abwärts ne Prothese.

Ab in die Lasagne damit.

Trifft auf jedenfall ZU! :freak:

Byteschlumpf
2015-02-10, 15:46:08
Am Ende ist eine 960 mit 4 GB besser als die 970 in manchen Szenarien... wobei die 128 Bit schon reinhauen dürften. Ist sowieso eine Schande, dass man 2015 noch Karten mit weniger als 512 Bit SI bauen darf. Die 280 GTX hatte schon 512 und dann geht man wieder runter... scheiß Sparmaßnahmen da...;-)
Da sollte aber eine GTX670 mit 4GB VRAM auch nicht schlechter Unterwegs sein, als eine GTX960 mit ebenfalls 4GB.

Mark3Dfx
2015-02-10, 15:46:25
Ist doch logo.
Alternate versucht per nV Bullshit Statement die renitenten User abzuwimmeln.
Dazu noch der Witz dem dem "wenden sie sich an der Hersteller der Karte" ;D

Ich habe bei Alternate gekauft und nicht bei xyz ChinaBöllerwörks.
Also weiter stressen und nicht abwimmeln lassen!

Toki
2015-02-10, 15:48:26
Zitat Alternate
Das Produkt bringt in der Praxis die Leistung für die vorgesehene Verwendung
und weist damit die gewöhnliche Beschaffenheit, die bei Grafikkarten der gleichen Art üblich ist, auf.
Zitat Ende

"Der gleichen Art üblich" - da würde ich bei "Alternate" nachfragen, ob sie noch mehr Grafikkarten mit dieser Speicherbesonderheit im Angebot haben und wo sie die Praxisvergleiche her haben?

Hallo,

ich habe mal freundlich angefragt. Antwort steht noch aus und wird nach meinen jetzigen Erfahrungen wohl auch nicht so bald eintreffen. ;)

Gruß,

Toki

DerKleineCrisu
2015-02-10, 15:48:41
Hallo,

lese hier immer: Schick ich zurück....
Mein Händler Alternate sieht das so:



Muss wohl auf dem Rechtsweg entschieden werden.

Gruß,

Toki

du musst es anders angehen bei ihnen, sie haben wie auch andere Händler
die Speicheranbingung angepasst.
SIe haben vor dem Fall auf 256 Bit auf ihre Seite verwiesen nun auf:
Speicheranbindung 3584 MB (224 Bit) + 512 MB (32 Bit).

Könnte sein das sie darüber zu einer Rückgabe überreden kannst ;) .

Sie haben ja wie alle anderen mit einer Speicheranbindung von
256 Bit geworben was ja Einzelt nicht stimmt :biggrin: .

Ansonst über Anwaltschreiben :rolleyes:

Grüße

mike49
2015-02-10, 15:55:53
Interessanterweise sind bei Alternate auch alle Kundenbewertungen für die 970er verschwunden... :wink:

DerKleineCrisu
2015-02-10, 15:59:35
Interessanterweise sind bei Alternate auch alle Kundenbewertungen für die 970er verschwunden... :wink:

Bzw sind nur noch die da die sie hoch loben, aber auffällig ist es schoin das
Teilweise mehrere Tage fehlen . ;D

Wie ich schon mal gesagt habe , es kristallisiert sich raus das man das " Problem " einfach wie Kohl aus sitzt.
Ein hoch auf die Anbieter die von sich aus die Karten zurücknehmen.

BgF
2015-02-10, 16:26:17
Habe soeben eine E-Mail von Mindfactory bekommen in der steht, dass ich eine Gutschrift erhalte. Leider stand in der E-Mail kaum Infortmationen dazu wie die einzulösen ist.
Naja, bin erstmal froh die Karte los zu sein.

x-force
2015-02-10, 16:52:42
aus eigener erfahrung kann ich euch sagen, daß alternate einlenkt, sobald sie den ersten brief vom anwalt bekommen, also nur mut!

Hobby
2015-02-10, 20:11:34
Habe soeben eine E-Mail von Mindfactory bekommen in der steht, dass ich eine Gutschrift erhalte. Leider stand in der E-Mail kaum Infortmationen dazu wie die einzulösen ist.
Naja, bin erstmal froh die Karte los zu sein.


Machst du mit der nächsten Bestellung, indem du unter Hinweis auf die Bearbeitungs- und Kundennummer die Gutschrift abziehst! War jedenfalls bei "Caseking" so. Ich hatte auch "nur" eine Mail mit dem Hinweis auf die Gutschrift bekommen. Habe dann angerufen und nachgefragt. Wurde dann so bestätigt, wie ich es beschrieben habe.

BgF
2015-02-10, 20:16:43
Machst du mit der nächsten Bestellung, indem du unter Hinweis auf die Bearbeitungs- und Kundennummer die Gutschrift abziehst! War jedenfalls bei "Caseking" so. Ich hatte auch "nur" eine Mail mit dem Hinweis auf die Gutschrift bekommen. Habe dann angerufen und nachgefragt. Wurde dann so bestätigt, wie ich es beschrieben habe.
Achso, danke für den Hinweis.

redfirediablo
2015-02-10, 20:23:10
Interessant finde ich das so ziemlich alle Händler angefangen haben die Beschreibung der technischen Daten anzupassen. L2 und ROP wurde ja meistens ohnehin nicht angegeben aber vor allem das jetzt der Speicher explizit als aufgeteilt "X + Y" angegeben wird, ist doch mal richtig Interessant:

Dadurch führen Sie sich selber ad absurdum bzw. ist es ein Schuldeingeständnis, dass die Angaben vorher falsch waren. Somit brauch man sich nicht auf einen Nvidia Reviewers Guide bezüglich L2 und ROP beziehn, die Angaben des Händlers an sich bezüglich 4GB 256 bit waren schon falsch. So sollte es eigentlich ein leichtes sein renitente Händler mit einem Anwalt unter Druck zu setzen oder sogar vor Gericht Recht zu bekommen.

Knuddelbearli
2015-02-10, 20:27:09
CB Evolve test zeigt schön wie "zukunftsicher" diese 3,5/0,5GB sind ...

. Die GeForce GTX 970, die nur über 3,5 Gigabyte schnell angebundenen GDDR5-Speicher verfügt, gerät bei den ohnehin unspielbaren Einstellungen in Schwierigkeiten. Auch wenn der FPS-Abstand zur GeForce GTX 980 im gewohnten Bereich liegt, stockt das Bild des Öfteren

Spätestens mit SLi also sicher richtig lustig ...

Hobby
2015-02-10, 20:33:36
Mein ( vielleicht ) finaler Senf zum Thema:

Was mich immer wieder nachdenklich stimmt, dass bei all den vielen - bestimmt aufwendigen - Reviews zu der Karte, niemandem dieser in der Leistung beschnittene Speicher aufgefallen ist.

Da kommt einer, schreibt nur ein kleines Programm und schon wird ein "Kommunikationsversäumnis" ;) seitens Nvidia enttarnt.

Vielleicht fehlt mir auch irgendwo eine Info - aber seltsam ist das schon. Zumindest wird es diesen "Fehler" seitens Nvidia nicht mehr geben dürfen, da bei allen zukünftigen Tests dieses kleine Programm mit zum Einsatz kommen dürfte!

Ich habe fertig :biggrin:

Nachtrag:
Man stelle sich vor, der "beschnittene Speicher" wäre schon in den Reviews aufgefallen. Ob die Karte dann in der Stückzahl und zu dem Preis verkauft worden wäre?

Hobby
2015-02-10, 20:57:09
Auch Snogard hat die Werbung für die GTX 970 inzwischen angepasst:

Zitat
Speicher: 4GB (3.5GB bei maximaler Geschwindigkeit nutzbar)
http://www.snogard.de/produkte/Asus/VGAP40-AS9700/4GB+ASUS+STRIX-GTX970-DC2OC-4GD5+GeForce+GTX+970+%2890YV07F0-M0NA00%29.html
Zitat Ende

Thunder99
2015-02-10, 22:53:17
@Hobby: Bestimmt nicht ;)

Botcruscher
2015-02-10, 23:10:57
http://www.computerbase.de/2015-02/evolve-benchmarks-14-grafikkarten-im-vergleich/

Nur die GeForce GTX 970 fällt nun negativer auf. Das schlechtere Spielgefühl und häufige Stocken zeigt sich auch in den Frametimes. Die Abweichungen zwischen den Frames sind messbar deutlich größer als bei den anderen Grafikkarten. Das Spiel belegt dabei auf der GeForce GTX 970 nicht mehr als 3,5 Gigabyte Speicher (auf den beiden anderen Modellen rund 3,8 Gigabyte). Bei genauerer Betrachtung zeigt sich jedoch, dass die GTX 970 immer wieder Daten aus dem Speicher löscht, um neue Daten zu laden. Genau dann kommt es zu den störenden Rucklern.

Frametimes zeigen klar was phase ist.

Hobby
2015-02-10, 23:19:27
@Hobby: Bestimmt nicht ;)

Genau das wollte ich hören - besser lesen! :biggrin:

- und jetzt gehe ich in die Heia und träume von Grafikkarten mit unbeschnittenem Speicher!

dildo4u
2015-02-10, 23:55:25
http://www.computerbase.de/2015-02/evolve-benchmarks-14-grafikkarten-im-vergleich/



Frametimes zeigen klar was phase ist.
In 4k bei 20fps dieses Selektive posten ist Mist.

-/\-CruNcher-/\-
2015-02-11, 08:37:51
Q:Ryse son of Rome on Maxwell gpu's runs terrible with any newer drivers than 344.11 to much fps slowdowns random fluctuations, can this be logged ManuelG?

A:There is nothing we can do here for this game. It would require changes in the game by the developer

Hab ichs doch gewusst Cryteks AMD Fokusierung ist schuld buhh buhh buhhhh *auf coda zeig* ;)

Dawn on Titan
2015-02-11, 08:44:24
Evolve zeigt sehr schön das berüchtigte mikroruckeln der 970, selbst in 1980 only. Die Karte ist imho nicht zum Spielen nutzbar.

-/\-CruNcher-/\-
2015-02-11, 08:51:33
Codas schuld offiziel von Nvidia bestätigt alle Beschwerdebriefe bitte nach Frankfurt z.hd Herrn Cevat Yerli : Betreffend (Bugreport) der suboptimalen Performance von neueren CryEngine Spielen auf Nvidia Maxwell Hardware (Codas schuld) *g*

Denrusl
2015-02-11, 08:54:43
Machst du mit der nächsten Bestellung, indem du unter Hinweis auf die Bearbeitungs- und Kundennummer die Gutschrift abziehst! War jedenfalls bei "Caseking" so. Ich hatte auch "nur" eine Mail mit dem Hinweis auf die Gutschrift bekommen. Habe dann angerufen und nachgefragt. Wurde dann so bestätigt, wie ich es beschrieben habe.


Meine Gutschrift wird mir auf mein Konto überwiesen. :biggrin:

Hobby
2015-02-11, 09:10:34
Meine Gutschrift wird mir auf mein Konto überwiesen. :biggrin:

Da brauchste gar nicht zu dicke grinsen ;) - die Möglichkeit gab es bei mir auch. Nur da ich direkt neu bestellt habe, machte so eine Aktion keinen Sinn - bei mir! :D

Dimitri Mayakovsky
2015-02-11, 09:20:42
Frametimes zeigen klar was phase ist.
Bewertung von CB: "unspielbar" - und zwar für JEDE Grafikkarte.

Von daher schlicht irrelevant, ich muss die GPU-Last reduzieren für spielbare Frames.

Denrusl
2015-02-11, 09:23:12
Da brauchste gar nicht zu dicke grinsen ;) - die Möglichkeit gab es bei mir auch. Nur da ich direkt neu bestellt habe, machte so eine Aktion keinen Sinn - bei mir! :D

habe ich auch... nur keine Lust 7-14 Werktage zu warten bis sie bewertet haben ob sie mir bei der 970 noch Geld abzoehen können...

Botcruscher
2015-02-11, 09:27:02
Bewertung von CB: "unspielbar" - und zwar für JEDE Grafikkarte.

Von daher schlicht irrelevant, ich muss die GPU-Last reduzieren für spielbare Frames.

Was ihr euch an den 4K aufhängt. Unter 1080 ist es doch genau so beschissen. Die Unterschiede zur 980 sind doch klar zusehen.

Dawn on Titan
2015-02-11, 09:31:13
Das ist Mikorruckeln ala 970 bei 1080.

Hobby
2015-02-11, 09:33:22
habe ich auch... nur keine Lust 7-14 Werktage zu warten bis sie bewertet haben ob sie mir bei der 970 noch Geld abzoehen können...

Das versteh ich nicht ganz. Was wollten sie dir denn noch abziehen, wenn du die schriftliche Zusage hast, dass dir eine Gutschrift in voller Höhe des Einkaufspreises erstattet wird?

Denrusl
2015-02-11, 09:37:30
Das versteh ich nicht ganz. Was wollten sie dir denn noch abziehen, wenn du die schriftliche Zusage hast, dass dir eine Gutschrift in voller Höhe des Einkaufspreises erstattet wird?

:::>
Wir werden die eingehende Sendung prüfen und entsprechend der mit Ihnen getroffenen Vereinbarung den bzw. die Artikel austauschen oder gutschreiben.

Bitte beachten Sie, dass Sie alle Artikel mit komplettem Lieferumfang (Zubehörteile, Handbücher, Garantieunterlagen; wie im Zustand bei der Auslieferung an Sie) zurücksenden.

Weiterhin möchten wir darauf hinweisen, dass Sie laut Fernabgabegesetz bei Rücktritt vom Vertrag Wertersatzleisten müssen, wenn bei der zurückgesandten Ware eine Verschlechterung eingetreten ist. Mit freundlichen Gruessen

Ihr Cyberport-Team <:::

Lowkey
2015-02-11, 09:49:02
Das ist normal. Bei der damaligen Intel-Umtausch-Aktion war es ebenfalls sehr wichtig, dass die Ware unbeschädigt sei. Die Karten werden ja schließlich weiterverkauft und falls ein dicker Kratzer auf dem PCB die Leistung bzw. den Wiederverkauf beeinflußt, dann braucht der Händler eine gewisse Handhabe für den Fall.

Dimitri Mayakovsky
2015-02-11, 09:49:14
Was ihr euch an den 4K aufhängt.
Du hast 4K zitiert, nicht wir.

Unter 1080 ist es doch genau so beschissen. Die Unterschiede zur 980 sind doch klar zusehen.
Und unter 1600p ist es genau umgekehrt.

Was stimmt denn nun?

Da scheint mir CB völligen Mist gebencht zu haben oder die falschen Daten hochgeladen.

Ach, die nehmen laut Forum einfach fraps. Naja.

Hobby
2015-02-11, 09:58:30
:::>
Wir werden die eingehende Sendung prüfen und entsprechend der mit Ihnen getroffenen Vereinbarung den bzw. die Artikel austauschen oder gutschreiben.

Bitte beachten Sie, dass Sie alle Artikel mit komplettem Lieferumfang (Zubehörteile, Handbücher, Garantieunterlagen; wie im Zustand bei der Auslieferung an Sie) zurücksenden.

Weiterhin möchten wir darauf hinweisen, dass Sie laut Fernabgabegesetz bei Rücktritt vom Vertrag Wertersatzleisten müssen, wenn bei der zurückgesandten Ware eine Verschlechterung eingetreten ist. Mit freundlichen Gruessen

Ihr Cyberport-Team <:::

Alles klar. - Ich ging davon aus, dass die Ware schon geprüft beim Händler vorlag und du dann die Mail bekommen hast! So war es bei mir.

Denrusl
2015-02-11, 10:24:46
Alles klar. - Ich ging davon aus, dass die Ware schon geprüft beim Händler vorlag und du dann die Mail bekommen hast! So war es bei mir.


Nene, hab dreimal im online-Chat nachgefragt, ob es den schon etwas neues gibt und dann wurde mir die Retoure angeboten ;)

Thunder99
2015-02-11, 10:40:06
Du hast 4K zitiert, nicht wir.


Und unter 1600p ist es genau umgekehrt.

Was stimmt denn nun?

Da scheint mir CB völligen Mist gebencht zu haben oder die falschen Daten hochgeladen.

Ach, die nehmen laut Forum einfach fraps. Naja.
Wenn du auf den 970er Analyse Test anspielst, dort haben die mit Sicherheit keinen Stuss gebencht. Siehe auch das Vergleichsvideo :)

Schnoesel
2015-02-11, 10:46:14
Der wievielte Nvidia Jünger ist das jetzt eigentlich der sich in letzter Zeit angemeldet hat um hier die GTX 970 zu verteidigen, von der wir doch mittlerweile wissen, dass sie amazing ist?

Selbst wenn die GTX 970 jetzt noch nicht viele Probleme offenbart, weniger werden es in Zukunft definitv nicht werden. Evtl wäre es wirklich sinniger, die letzten 512 MB einfach abzuschalten.

Dimitri Mayakovsky
2015-02-11, 10:51:14
Wenn du auf den 970er Analyse Test anspielst, dort haben die mit Sicherheit keinen Stuss gebencht. Siehe auch das Vergleichsvideo :)
Warum spikt die 980 in 1600p deutlich mehr als die 970 und in 1080/2160p ist es genau andersherum?

Thunder99
2015-02-11, 11:03:58
Warum spikt die 980 in 1600p deutlich mehr als die 970 und in 1080/2160p ist es genau andersherum?
Ein MEGA Spike da etwas nachgeladen wurde, der Verlauf sagt aber eine andere Sprache (AC:U)

Und sonst wenn beide ähnlich spiken liegt es an der Engine. Man kann sich echt alles ins rosige legen :down:

Wenn du zufrieden bist, gerne. Aber erzähle keinen Stuss wenn es darum geht dass das 970er Problem nicht jetzt schon spürbar ist :mad:

Neuster Test mit Evolve bestätigt dies bei (spätestens) 4k!

MartinRiggs
2015-02-11, 11:07:10
Das sind lauter Nvidia-Bots die losgeschickt wurden den 970er Dreck schönzureden. ;D

Jeder der nur etwas Ahnung und keine grüne Brille hat, für den wird die GTX970 immer eine der beschissensten Karten ever sein.

Dimitri Mayakovsky
2015-02-11, 11:13:20
Ein MEGA Spike da etwas nachgeladen wurde, der Verlauf sagt aber eine andere Sprache (AC:U)
Ich rede vom verlinkten Evolve Frameverlauf:

http://www.computerbase.de/2015-02/evolve-benchmarks-14-grafikkarten-im-vergleich/#diagramm-frametimes-2560-1600

Und sonst wenn beide ähnlich spiken liegt es an der Engine. Man kann sich echt alles ins rosige legen :down:
Nein, tun sie ja nicht.

In 1080p spikt die 970 in den obigen Frameverläufen, in 1600p plötzlich die 980 und in 2160p wieder die 970.

Musst du doch zugeben, dass das mehr als nur merkwürdig ist und keinen Sinn macht, oder?

Wenn du zufrieden bist, gerne. Aber erzähle keinen Stuss wenn es darum geht dass das 970er Problem nicht jetzt schon spürbar ist :mad:
Müsste ich erstmal eine 970 haben, um damit zufrieden zu sein ;D

Ach herrlich, wie schnell die Hater sich selbst entblösen, nur weil man mal nachfragt, warum drei Benchmarks sich dermaßen merkwürdig widersprechen.

Thunder99
2015-02-11, 11:27:04
Den Grund des Frametimeverlauf haben sie im Text erklärt ;). Daher ist es zwar etwas merkwürdig aber die Aussage wie es wirklich sich auswirkt ist ja erst nach der Szene wo man selbst spielt und keine automatische Sequenz abläuft ja wichtig

Warum da die GTX970 besser als die 980er ist kann man nur mutmaßen (wenige Tests, Anomali des Treibers ect).

Klar ist auch wenn du 3 Messungen durchführst und 3x mal der Verlauf kacke anders ist sollte man sich über die Testmethodik und deren Aussage Gedanken machen.

dildo4u
2015-02-11, 11:32:43
Ich find die CB Test nich schlecht vorallem zeigen sie auf das Leute mit schlechter CPU keine AMD's kaufen sollte immer noch erzeugt der Treiber massiven CPU Overhead.Eigentlich Absurd wenn man überlegt was für Gurken AMD als CPU verkauft.Komisch das es dazu kein Thread mit 1000 Seiten gibt.

Dimitri Mayakovsky
2015-02-11, 11:35:17
Den Grund des Frametimeverlauf haben sie im Text erklärt ;). Daher ist es zwar etwas merkwürdig aber die Aussage wie es wirklich sich auswirkt ist ja erst nach der Szene wo man selbst spielt und keine automatische Sequenz abläuft ja wichtig
Naja, erklärt wird da nix. Zumal behaupten sie, die 980 wäre in 1600p besser als die 970:

"Alle drei Grafikkarten zeigen in 2.560 × 1.600 Schwierigkeiten [...] gefolgt von der GeForce GTX 980 und der GeForce GTX 970."

Dabei sieht man in der Grafik eindeutig, dass die 970 einen besseren Verlauf hat als die 980.

Warum da die GTX970 besser als die 980er ist kann man nur mutmaßen (wenige Tests, Anomali des Treibers ect).
Graphen vertauscht? ;D

Sehr merkwürdig, was CB da misst und auch bewertet.

MechWOLLIer
2015-02-11, 11:41:58
Unnötiger Text

Botcruscher
2015-02-11, 11:42:36
Ich find die CB Test nich schlecht vorallem zeigen sie auf das Leute mit schlechter CPU keine AMD's kaufen sollte immer noch erzeugt der Treiber massiven CPU Overhead.Eigentlich Absurd wenn man überlegt was für Gurken AMD als CPU verkauft.Komisch das es dazu kein Thread mit 1000 Seiten gibt.

Weil hier in der Progamergruppe seit Sandy fast jeder mit mindestens einer 4Kern CPU unterwegs ist und die BD Ableger kein Schwein interessiert. Einzig in der grünen Ecke gibt es Phantomschmerzen, wobei die vermutlich einer der wenigen mit wirklichen Symptomen bist. Das "Problem" existiert einfach nicht. Mit DX12 ist es dann ganz weg.
Gleichzeit lassen wir uns auch nicht über das katastrophale Abschneiden einer NV Karte mit 2 Kerner aus. Einfach weil das hier keine Sau interessiert.

Thunder99
2015-02-11, 11:43:24
Ich find die CB Test nich schlecht vorallem zeigen sie auf das Leute mit schlechter CPU keine AMD's kaufen sollte immer noch erzeugt der Treiber massiven CPU Overhead.Eigentlich Absurd wenn man überlegt was für Gurken AMD als CPU verkauft.Komisch das es dazu kein Thread mit 1000 Seiten gibt.
Ihre Antwort war Mantle, aber nvidia hat gezeigt das man sehrwohl auch unter DX11 den Overhead reduzieren kann. Wieso AMD das nicht auch macht wissen nur sie ;(

Dimitri Mayakovsky
2015-02-11, 11:47:52
Gleichzeit lassen wir uns auch nicht über das katastrophale Abschneiden einer NV Karte mit 2 Kerner aus. Einfach weil das hier keine Sau interessiert.
980 mit zwei Kernen: 80,6 fps, 8% weniger als mit Quad
290X mit zwei Kernen: 54,8 fps, 30% weniger als mit Quad

http://www.computerbase.de/2015-02/evolve-benchmarks-14-grafikkarten-im-vergleich/

Thunder99
2015-02-11, 11:52:26
Unnötiger Text
Wenn es einen Bezug hatte zu meinem Beitrag, ich hab es etwas abgeändert bzw korrigiert :)

Sonst warum die 980er in 1600p mehr Spikes hat als die 970er könnt nur ihr in Erfahrung bringen :)

Kriton
2015-02-11, 12:46:52
Die Händler können ja auch nix dafür. Jetzt denen den schwarzen Peter zu geben, wenn sie nicht zurücknehmen wollen, oder erstmal die Antwort von Nvidia abwarten wollen ist IMO auch nicht richtig. Die sind am wenigsten Schuld und würden bei einer Rückgabe erstmal die Hauptlast tragen. Normalerweise muss Nvidia den Händlern grünes Licht für eine Rückgabe der Karte geben und dass man die Ausfälle kompensieren wird.

Auch die Händler können gegenüber ihrem Verkäufer einen Sachmangel geltend machen.

Nope und genau das ist ein großer denkfehler.

In diesem Fall wäre es ja mal hilfreich gewesen diesen "großen Denkfehler" mal auszuführen, damit der arme Mann mal die Wahrheit erkennen kann. :rolleyes:


Am besten siehst du das eben daran das man dieses Problem in den Griff bekommen kann ohne große Auswirkungen, es gibt andere Probleme die die GTX 670 eben nicht mehr so gut in den Griff bekommen wird demnächst die auch schwerer kompensierbar sein werden ;)

Und weitaus mehr Auswirkungen haben als wie die Einbrüche die du da gerade in diesem Szenario wahrnimst ;)

Ach so, weil die 670 älter ist und deswegen bei neuen Spielen künftig mehr Probleme haben wird/könnte als die 970 ist es nicht so schlimm, dass die 970 schlechtere Frametimes hat als die 670. :freak:

Hallo,

lese hier immer: Schick ich zurück....
Mein Händler Alternate sieht das so:



Muss wohl auf dem Rechtsweg entschieden werden.

Gruß,

Toki

434 Abs. 1 S. 3 BGB. Viel Glück.

Matrix316
2015-02-11, 12:48:53
Auch die Händler können gegenüber ihrem Verkäufer einen Sachmangel geltend machen.

[...]
Schon, aber nicht unbedingt sofort. Der Kunde will gleich sein Geld und da müssen die Händler erstmal vorlegen.

Händler wie Alternate die keine Rückgabe machen wollen, hätten ja aber wenigstens eine reduzierte Upgragemöglichkeit auf eine andere Karte anbieten können.

Kriton
2015-02-11, 12:50:44
aber auch da sieht man wieder, wenn 3,5GB nicht reichen sind auch oft die 4GB zu wenig.

Oft ist nicht immer. Und außerdem: Die Frage wie oft das Problem auftaucht ist kein Teil der Frage ob ein Sachmangel im Rechtssinne vorliegt.

Q:Ryse son of Rome on Maxwell gpu's runs terrible with any newer drivers than 344.11 to much fps slowdowns random fluctuations, can this be logged ManuelG?

A:There is nothing we can do here for this game. It would require changes in the game by the developer

Hab ichs doch gewusst Cryteks AMD Fokusierung ist schuld buhh buhh buhhhh *auf coda zeig* ;)

Hast du mal ´nen Quellenlink?

Dimitri Mayakovsky
2015-02-11, 12:58:12
Hast du mal ´nen Quellenlink?
https://www.google.de/search?q=%22There+is+nothing+we+can+do+here+for+this+game.+It+would+require+chan ges+in+the+game+by+the+developer+%22&hl=de&gl=de&gws_rd=ssl

Knuddelbearli
2015-02-11, 12:58:28
Ich find die CB Test nich schlecht vorallem zeigen sie auf das Leute mit schlechter CPU keine AMD's kaufen sollte immer noch erzeugt der Treiber massiven CPU Overhead.Eigentlich Absurd wenn man überlegt was für Gurken AMD als CPU verkauft.Komisch das es dazu kein Thread mit 1000 Seiten gibt.

Wo siehst du das? ich sehe da nur das AMD keine 2 Threads CPUs mag und die gibt es bei AMD eh nicht.
Ansonsten würde ja auch der FX8- nicht "sogut" abschneiden.

Aber schön das du es dir mal wieder so zurechtlegen konntest um AMD zu bashen ...

Kriton
2015-02-11, 13:02:15
Ihre Antwort war Mantle, aber nvidia hat gezeigt das man sehrwohl auch unter DX11 den Overhead reduzieren kann. Wieso AMD das nicht auch macht wissen nur sie ;(

Wenn ich nicht irre hat Nvidia doch im Wesentlichen nur die CPU-Last des eigenen Treibers auf einen eigenen Thread verlagert. Reduktion würde ich das insoweit nicht nennen, nur eine (wenn auch sinnvolle) Verlagerung.

starsnake
2015-02-11, 13:03:43
Langsam wird es wirklich albern, dass NV sich zu keinerlei Statement bereit erklärt. Unglaubliche Arroganz.
Ich habe das gestern Abend mal erlebt bei DAI Inquisition, wie sich das anfühlt, wenn da irgendwas im Speicher umgeschichtet wird. Nicht wirklich schön, das Spiel bleibt ja fast stehen. Ich meine das kam in den 2 Stunden Spielen danach nicht wieder vor, aber das ist so nicht okay mit dem Speichermanagement.
Da muss doch eine Firma mal was dazu sagen können.

Auflösung Full HD, 2x MSAA, MFAA aktiviert. Die meisten Sachen auf max.
Seltsam ist , dass die Speicherbelegung laut GPU-Z nur bis maximal 2700-2800 MB hochfährt. Eigentlich würde ich da ja gar keine Ruckler erwarten.

Irgendwie ist das alles sehr seltsam.
Ich schrieb ja schon, dass ich sie trotzdem behalte, weil sie letztendlich doch gut in meinen derzeitigen Aufbau passt und ich , wenn auch etwas säuerlich mit 15 Sekunden Ruckeln bei 2-3 Stunden Spielzeit leben kann.

Wenn aber wirklich mal was Neues ansteht, ist NV nicht mehr mein Liebling.

PS
Die ganzen Benches sind absolut mit Vorsicht zu genießen finde ich. Wenn denen schon die Ruckelei vorher nicht aufgefallen ist, was soll man dann davon halten, dass sie es jetzt auf einmal sehen. Außerdem sind die Engines offenbar alle doch recht unterschiedlich. ( leider )

eXodia
2015-02-11, 13:10:05
Ich find die CB Test nich schlecht vorallem zeigen sie auf das Leute mit schlechter CPU keine AMD's kaufen sollte immer noch erzeugt der Treiber massiven CPU Overhead.Eigentlich Absurd wenn man überlegt was für Gurken AMD als CPU verkauft.Komisch das es dazu kein Thread mit 1000 Seiten gibt.

:eek: Das Einzige was dieser Benchmark zeigt, ist dass es relativ egal ist welche CPU man nutzt. Die Intels sind irgendwo von 0-10% schneller. Schwamm drüber. Ein FX-8350 kostet 150€ und ein 4470k 300€. Da brauch' ich doch, bei dem Leistungsunterschied, nicht drüber nachdenken.

Regards

von Richthofen
2015-02-11, 13:11:14
Ich find die CB Test nich schlecht vorallem zeigen sie auf das Leute mit schlechter CPU keine AMD's kaufen sollte immer noch erzeugt der Treiber massiven CPU Overhead.Eigentlich Absurd wenn man überlegt was für Gurken AMD als CPU verkauft.Komisch das es dazu kein Thread mit 1000 Seiten gibt.

Ersteres ist wohl auch hier der Wermutstropfen an einem für AMD-Grakas sonst durchweg positiven Testergebnis. NV hat wenn es um die CPU-Belastung geht, nicht nur hier ersichtlich, wirklich gute Arbeit geleistet.
Jeder IHV hat wohl so sein persönliches Rezept die eigenen Produkte bessser dastehen zu lassen: AMD entlastet mit Mantle (seine eigenen) schwache(n) CPUs und nV mittels MFAA seine bandbreiten- und speicherschwachen GPUs. Ob letzteres nur plausibel klingt oder aber (in Teilen) der Wahrheit entspricht kann jeder für sich selbst entscheiden.

Fakt ist allerdings die 2 GB nV-Modelle bekommen auch in FullHD schon Speicherschluckauf. In AC:U sieht es dagegen eher andersherum aus.

Schön aber auch mal zu sehen, dass nicht jeder aktuelle Top-Titel auch gleichzeitig eine Top-Graka benötigt.

Und zu den Frametimemessungen:
CB schreibt "Allerdings fühlt sich das Spiel auf allen drei 3D-Beschleunigern sehr flüssig an." (970 980 290X) Damit kann doch auch mal gut sein.

Gimmick
2015-02-11, 13:20:34
:eek: Das Einzige was dieser Benchmark zeigt, ist dass es relativ egal ist welche CPU man nutzt. Die Intels sind irgendwo von 0-10% schneller. Schwamm drüber. Ein FX-8350 kostet 150€ und ein 4470k 300€. Da brauch' ich doch, bei dem Leistungsunterschied, nicht drüber nachdenken.

Regards

Gibt sehr viel CPU intensiviere Stellen, da wird man das schon merken.

Denrusl
2015-02-11, 15:38:23
Gibt sehr viel CPU intensiviere Stellen, da wird man das schon merken.


ganz Ehrlich, ich besitze nen I7 2600K es ist alles vorbereitet diesen zu übertakten aber er läuft immernoch im Baseclock und wenn ich gerade nicht 3D-Animationen Rendere bekomme ich diesen im Altag auch nicht beim Zocken über die 55% Auslastung. Wenn du natürlich so Geschichten wie Dying Light [what is multithreading? :confused:] als referenz benutzen würdest. Dann ja dann solltest du auf jedenfall ne besser CPU kaufen... so ein geschmarre. ganz Ehrlich das ist so OT aber wir kriegen im Alltag unsere 4Kerner nicht ausgelastet und in 1-2 Jahren kommen die 10-12 Kerner Sockel aufn Markt die einzigen die das Juckt sind Filmstudios und Entwickler die entsprechend CPU-Lastig vor sich hinrechnen.

mironicus
2015-02-11, 15:59:09
Das Computerbase und PCGH jetzt in neuen Spielen (Evolve) auf die Thematik detaillierter eingehen und der GTX 970 ein nachteiliges Spielgefühl (Mikroruckler) bescheinigen, dürfte NVidia nicht schmecken. :D

Denrusl
2015-02-11, 16:06:54
Das Computerbase und PCGH jetzt in neuen Spielen (Evolve) auf die Thematik detaillierter eingehen und der GTX 970 ein nachteiliges Spielgefühl (Mikroruckler) bescheinigen, dürfte NVidia nicht schmecken. :D


ich vermute ja ratzfatz den zweiten Patch dazu, sollte das eingrenzen und das werden die solange machen bis Ruhe um das Thema 970 herrscht...:mad:

Gimmick
2015-02-11, 16:16:14
ganz Ehrlich, ich besitze nen I7 2600K es ist alles vorbereitet diesen zu übertakten aber er läuft immernoch im Baseclock und wenn ich gerade nicht 3D-Animationen Rendere bekomme ich diesen im Altag auch nicht beim Zocken über die 55% Auslastung. Wenn du natürlich so Geschichten wie Dying Light [what is multithreading? :confused:] als referenz benutzen würdest. Dann ja dann solltest du auf jedenfall ne besser CPU kaufen... so ein geschmarre. ganz Ehrlich das ist so OT aber wir kriegen im Alltag unsere 4Kerner nicht ausgelastet und in 1-2 Jahren kommen die 10-12 Kerner Sockel aufn Markt die einzigen die das Juckt sind Filmstudios und Entwickler die entsprechend CPU-Lastig vor sich hinrechnen.

Wollte jetzt nicht irgendwas mit Multithreading oder Gesamtauslastung oder sonst was lostreten. Nur angemerkt: In dem Spiel gibt es bedeutend CPU lastigere Momente.
Warum ist ein anderes Thema.

aths
2015-02-11, 16:28:20
Dann passiert doch genau das, was mit den letzten 0,5 GB bei der 970er passiert, mit den zusätzlichen 2 GB der 960er. Will das jemand etwa so haben?
Dann würde jeder Memorycontroller einfach einen doppelt so großen Adressbereich ansprechen. Am Interleaving der Daten und damit an der verfügbaren Bandbreite ändert sich jedoch nichts.

Marodeur
2015-02-11, 17:20:56
Nunja, der Evolve Test hat mich jetzt in der Entscheidung bestärkt. Ich hab noch überlegt was ich jetzt mit den 970 mache. Habe sie halt auch vorrangig für Star Citizen gekauft. Somit für eine bis an die Grenzen belastete Cryengine. Daher geht jetzt zumindest eine davon zurück.

Dafür dann eben 290x 8G.

Die ollen Kamellen zock ich dann halt auf dem Zweitrechner...

DerKleineCrisu
2015-02-11, 17:41:13
ich vermute ja ratzfatz den zweiten Patch dazu, sollte das eingrenzen und das werden die solange machen bis Ruhe um das Thema 970 herrscht...:mad:

So wird es auch kommen .

Thunder99
2015-02-11, 17:51:12
Nunja, der Evolve Test hat mich jetzt in der Entscheidung bestärkt. Ich hab noch überlegt was ich jetzt mit den 970 mache. Habe sie halt auch vorrangig für Star Citizen gekauft. Somit für eine bis an die Grenzen belastete Cryengine. Daher geht jetzt zumindest eine davon zurück.

Dafür dann eben 290x 8G.

Die ollen Kamellen zock ich dann halt auf dem Zweitrechner...
Meine ist seit heute zurück und es werkelt eine sehr gute R9 290 Vapor-X drinne :)

Etwas lauter unter idle und Last aber das ist ok da meine Gehäuselüfter den meisten Radau machen ^^

Marodeur
2015-02-11, 18:21:15
Da wo ich bestellt hatte (drivecity) gibts nur die MSI und XFX. Mal schaun wie das mit der Gutschrift abläuft, hatte damals per Paypal bezahlt.

Das lauteste in meinem System ist aktuell die olle Eheim 1048

Isen
2015-02-11, 18:27:02
Das lauteste an der Vapor und Tri-X - ist das immer wieder kurze Aufbrausen unter Last...
das kann man aber mit eigener Kurve schnell beheben. Denke mal, dass dieses Verhalten bei der " NEW Edition " von Haus aus bereits behandelt wurde.
Hat die schon irgendwer ?

horn 12
2015-02-11, 20:36:30
Hätte ich schon,aber noch bissi zu Teuer :-(
307 Euro bei uns in Italien

Falls diese Tage auf 260 bis 280 Euro fällt eine Überlegung wert...

Thunder99
2015-02-11, 23:57:20
Vom aufbrausen merke ich nichts. Das Geräusch fügt sich gut in den Geräuschpegel der Gehäuselüfter ein.

Bin froh die GTX los zu sein. Die R9 macht eine verdammt gute Figur bei mir

Air Force One
2015-02-12, 00:36:52
Richtig hässlich wird es eig. nur wenn man auf GW Titel kommt wo man Effekte vollständig deaktivieren muss um auf gute fps zu kommen.
Wobei mir da bisher nur 2 Titel bisher untergekommen sind.

Bei einem muss man auf Schatteb vollständig verzichten, beim anderen auf Rauch.

Schrotti
2015-02-12, 01:27:54
Eine Riesen Diskussion und kaum Rückläufer seitens der Händler.

Aber es besteht Redebedarf in diesem Thread. OK.

N0Thing
2015-02-12, 02:10:15
Die geringe (geschätzte) Rücklaufquote finde ist verständlich. Nicht jeder GTX 970 Besitzer hat etwas davon mitbekommen. Nicht jeder, der von den falschen technischen Daten erfahren hat, sieht ein Problem darin. Nicht jeder, der ein Problem mit den falschen Daten hat hat, schickt seine Karte zurück.

Dass gerade hier viel Gesprächsbedarf besteht, liegt für mich in der Natur dieses Forums.

ezzemm
2015-02-12, 06:47:58
Du hast vergessen zu erwähnen, daß nicht jeder Händler die Karte zurücknimmt :frown:

Dorn
2015-02-12, 07:02:40
Dafür schließt Nvidia Geschäftsjahr mit einem Rekordumsatz^^. Dank GTX Linie.

Bei soviel Gewinn ist es nicht schlimm wenn das Image einen kleinen Kratzer bekommt.

http://www.computerbase.de/2015-02/nvidia-schliesst-geschaeftsjahr-mit-rekordumsatz/

BitJäger
2015-02-12, 07:27:27
Du hast vergessen zu erwähnen, daß nicht jeder Händler die Karte zurücknimmt :frown:

Es sind wohl weltweit eher nur so ca. 5% der Händler welche die Karte zurück nehmen.

Undertaker
2015-02-12, 08:57:39
Eine Riesen Diskussion und kaum Rückläufer seitens der Händler.

Aber es besteht Redebedarf in diesem Thread. OK.

Erstmal muss man überhaupt unterscheiden, wem es hier ums Thema geht und wem um die Verbreitung eigener Hersteller-Präferenzen... Da fällt schon einmal so einiges hier weg. ;) Dominieren tut mMn aber ein anderer Punkt: Kunden kaufen eine GPU nach der Performance, nicht nach den technischen Daten auf dem Papier. Erstere hat sich nicht verändert, darum geht das Thema vermutlich >95% der informierten GTX970-Besitzer am Allerwertesten vorbei.

Exxtreme
2015-02-12, 09:02:37
Eine Riesen Diskussion und kaum Rückläufer seitens der Händler.

Aber es besteht Redebedarf in diesem Thread. OK.
Eben. Die Karte läuft genauso gut/schlecht wie davor auch. Und ich unterstelle den allerwenigsten Leuten, dass sie eine Karte nach technischen Merkmalen kaufen. Da wird eher nach Benchmarks gekauft und die ändern sich dadurch ja nicht.

Matrix316
2015-02-12, 09:22:44
Du hast vergessen zu erwähnen, daß nicht jeder Händler die Karte zurücknimmt :frown:
Genau DAS. Zumal Nvidia auch nicht gerade auf die Händler und Käufer zugeht, sondern sagt: Was wollt ihr denn? Die Karte läuft doch genau so (wie wir es wollen). :rolleyes:

Außerdem habe ich keine Lust einem Händler mit dem Anwalt zu drohen, der ja nichts dafür kann, dass Nvidia sich stur stellt, zumal ich da ja vielleicht auch noch später was kaufen will. :rolleyes:

Thunder99
2015-02-12, 09:39:19
Richtig hässlich wird es eig. nur wenn man auf GW Titel kommt wo man Effekte vollständig deaktivieren muss um auf gute fps zu kommen.
Wobei mir da bisher nur 2 Titel bisher untergekommen sind.

Bei einem muss man auf Schatteb vollständig verzichten, beim anderen auf Rauch.
Rauch ist mir klar (PhysX) aber was meinst du mit Schatten und dann wo? Edit: weiche Schatten in FC4 sehen einfach besser aus, ziehen aber gut Performance ^^. Von 50fps auf ca.22-30fps

Marodeur
2015-02-12, 11:04:50
Eben. Die Karte läuft genauso gut/schlecht wie davor auch. Und ich unterstelle den allerwenigsten Leuten, dass sie eine Karte nach technischen Merkmalen kaufen. Da wird eher nach Benchmarks gekauft und die ändern sich dadurch ja nicht.

Wobei ich für mich schon sagen muss das ich bei mehr Tests der Frameverläufe, auch in Extremsituationen, schon etwas stutzig geworden wäre. Auch deshalb weil ich die Karte ja unter anderem für Extremsituationen wollte. Obwohl ich mich au diesem Gebiet eher als Laie sehe. Für mich war die 970 auch eine etwas langsamere 980 aber mit voll (nutzbarem) Speicherausbau damit ich neuen Spielen und/oder Texturmods möglichst ohne Nachladeruckler frönen kann.

Air Force One
2015-02-12, 11:14:45
Rauch ist mir klar (PhysX) aber was meinst du mit Schatten und dann wo? Edit: weiche Schatten in FC4 sehen einfach besser aus, ziehen aber gut Performance ^^. Von 50fps auf ca.22-30fps

Bezüglich rauch, weiß ich den Titel nicht mehr aber dort wurde wohl der Rauch dann wohl aus Schächten deaktiviert und do und kein alternativer eingefügt wie z.B damals bei AC...

Schatten: The Crew...ich hab hier einen Thrrad offen.
Ich muss im Spiel den Schatten KOMPLETT abschalten oder die Sichtweite der Schatten reduzieren Um auf 60 fps zu kommen.
Komisch nur das es mir auffällt. ..

Habe es mit zwei verschiedenen 290X AMD Karten getestet.
Da gibts dann lausige 45-50fps.
Mit nvidia 60 (fps limit)

Aber gut..ist OT..

PS: Weiche Schatten...ich mag die nicht :)

Hobby
2015-02-12, 11:22:47
Eben. Die Karte läuft genauso gut/schlecht wie davor auch. Und ich unterstelle den allerwenigsten Leuten, dass sie eine Karte nach technischen Merkmalen kaufen. Da wird eher nach Benchmarks gekauft und die ändern sich dadurch ja nicht.

Man kann den meisten Leuten nur unterstellen, dass sie nach den vielen positiven Reviews gekauft haben, da sie sich darauf und die Herstellerangaben verlassen haben. Wäre der beschnittene Speicher schon in den Reviews aufgefallen, bezweifele ich, dass sich die Karte in dem Maß verkauft hätte. Ich hätte sie ( zu dem Preis ) nicht gekauft.

In allen zukünftigen Reviews wird es bestimmt ein noch größeres Augenmerk seitens der Tester auf wirklich vorhandene "technische Merkmale" geben!

Nachtrag:

Soweit im Augenblick ersichtlich, gibt es nur wenig Rückläufer. Interessant wäre es zu erfahren, ob und wie sich die Karte in den nächsten drei Monaten noch weiterverkauft! Mal den Preis beobachten.

Thunder99
2015-02-12, 11:28:04
Bezüglich rauch, weiß ich den Titel nicht mehr aber dort wurde wohl der Rauch dann wohl aus Schächten deaktiviert und do und kein alternativer eingefügt wie z.B damals bei AC...

Schatten: The Crew...ich hab hier einen Thrrad offen.
Ich muss im Spiel den Schatten KOMPLETT abschalten oder die Sichtweite der Schatten reduzieren Um auf 60 fps zu kommen.
Komisch nur das es mir auffällt. ..

Habe es mit zwei verschiedenen 290X AMD Karten getestet.
Da gibts dann lausige 45-50fps.
Mit nvidia 60 (fps limit)

Aber gut..ist OT..

PS: Weiche Schatten...ich mag die nicht :)
Ah ok, das mit den Schatten in The Crew müsste ein Bug mit der Engine sein, da kann AMD nicht wirklich was soweit ich das verfolgt habe :(

Zu dem Rauch, das sind die Batman Spiele...

-/\-CruNcher-/\-
2015-02-12, 12:50:49
Rauch ist mir klar (PhysX) aber was meinst du mit Schatten und dann wo? Edit: weiche Schatten in FC4 sehen einfach besser aus, ziehen aber gut Performance ^^. Von 50fps auf ca.22-30fps

Also die Soft Shadows in FC 4 kann man total vergessen das lohnt sich von der Performance/Visual Balance kein stück.

Es sind von 1080p 60 FPS glatt mal auf 45 FPS runter mit Frametime fluktuationen in manchen szenen die nicht ertragbar sind ;)

Bei 30 FPS ist das noch einigermasen ok da korrespondieren die Fluktuationen sehr synchron wie auch bei Goodrays schon, aber ab über 30 FPS wird es zu unausgewogen.

Man merkt die Gesamtoptimierung hin auf 30 FPS als Konsolenziel schon enorm auch Nvidias effekte performen in der Region am effektivsten auf der GTX 970 ;)

qEJFAviTWnI

Denrusl
2015-02-12, 14:28:53
Nvidias effekte performen in der Region am effektivsten auf der GTX 970

http://youtu.be/qEJFAviTWnI


Bekommt ja auch derzeit eine gnaz große Portion extra-Liebe solange bis die kake ausgesessen ist und dann kann man schön das Verfallsdatum durchdrücken ;)

Knuddelbearli
2015-02-12, 19:16:10
Erstmal muss man überhaupt unterscheiden, wem es hier ums Thema geht und wem um die Verbreitung eigener Hersteller-Präferenzen... Da fällt schon einmal so einiges hier weg. ;) Dominieren tut mMn aber ein anderer Punkt: Kunden kaufen eine GPU nach der Performance, nicht nach den technischen Daten auf dem Papier. Erstere hat sich nicht verändert, darum geht das Thema vermutlich >95% der informierten GTX970-Besitzer am Allerwertesten vorbei.

Naja sagen wir es genauer.
man kauft nicht die technischen Daten ausgenommen den Arbeitsspeicher da genau das das ist was eine Karte zukunftsfähiger macht.

Seit Dx10 flog jede meiner Grafikkarten wegen zuwenig VRAM raus. Und auch in Nachtests alter Karten sieht man das Phänomen immer wieder das die mit mehr VRAM teils! deutlich davon ziehen

aths
2015-02-12, 21:37:56
Naja sagen wir es genauer.
man kauft nicht die technischen Daten ausgenommen den Arbeitsspeicher da genau das das ist was eine Karte zukunftsfähiger macht.

Seit Dx10 flog jede meiner Grafikkarten wegen zuwenig VRAM raus. Und auch in Nachtests alter Karten sieht man das Phänomen immer wieder das die mit mehr VRAM teils! deutlich davon ziehen
Das ist das Garstige: Bei 4 GB denkt man, wenigstens das Texturdetail in zukünftigen Spielen noch schön hochdrehen zu können. Bei 3,5 GB könnte es genau die Stufe zum nächsten Texturdetail sein, das man sich nun nicht mehr performant leisten kann.

M4xw0lf
2015-02-12, 21:45:15
Das ist das Garstige: Bei 4 GB denkt man, wenigstens das Texturdetail in zukünftigen Spielen noch schön hochdrehen zu können. Bei 3,5 GB könnte es genau die Stufe zum nächsten Texturdetail sein, das man sich nun nicht mehr performant leisten kann.
Besonders wenn Karten mit echten 4GB als Optimierungsziel vorhanden sind.

Raff
2015-02-12, 22:38:51
Das ist IMO das Hauptproblem: die Zukunft. Nicht die Gegenwart.

MfG,
Raff

Isen
2015-02-12, 23:07:22
Gab es hier ja noch nicht, gell?

http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-970/news-artikel/nvidias_verhalten_im_gtx_970_skandal,861,3082916.html

Gouvernator
2015-02-13, 00:30:20
Ich war ja auf und dran gleich ein Quad-SLI mit GTX970 aufzubauen. Und die innere Stimme hat mir damals befohlen, ich soll erst testen wie die sich bei schwerer Last in meinen Auflösungen+SSAA verhält. Das Resultat war durchgehend das die Performance am Ende der Fahnenstange irgendwie überdurchschnittlich eingeknickt ist. Jetzt wissen wir warum. Für die Zukunft muss man denke ich grundsätzlich immer erst mit Einzelkarten testen, egal ob NV oder AMD...

-/\-CruNcher-/\-
2015-02-13, 06:31:33
Sehr schöne analyse des High Speed Streamings von Gamestar :)

http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-970/news-artikel/gtx_970_vram_problematik,861,3082694,4.html


Während die Bilder pro Sekunde recht normal ausfallen, sieht es bei den Frametime-Verläufen etwas anders aus. In 1920x1080 sind die Schwankungen der GTX 970 zwar nur minimal höher als im Falle der GTX 980, in 4K wird der Unterschied aber sichtbar größer. Weitgehend ähnlich verlaufen die Kurven nur im dritten Viertel Der Benchmark-Sequenz, wo wir gerade durch ein Bergdorf laufen und den Blick kaum in die Ferne schweifen lassen. Während der sonst größtenteils stattfindenden Fahrt durch die offene Spielwelt ist die GTX 970 dagegen klar im Nachteil gegenüber der GTX 980.

Die 60 FPS brechen auf der GTX 970 weitaus heftiger zusammen im Verlauf als wie bei der GTX 980 ein direkter vergleich mit der GTX 960 wäre nicht schlecht :)

Am besten 3 gleiche Systeme nebendeinander mit gleichem setup und eine Highspeed Videoaufzeichnung von allen 3 Simultan ;)

Dawn on Titan
2015-02-13, 07:14:09
Wobei ich wirklich Zweifel habe, dass die 970 die Power hat um regelmäßig von ihren 3,5GB beschnitten zu werden. Ich meine wir reden von 780ti Leistung und die hat 3GB. Ich finde jetzt von 970 auf 980 zu wechseln ist sinnlos, da ist man schlauer die 200 Euro für die nächste GPU zu sparen. Ich bin mir relativ sicher, dass es, wenn die 970 auch bei spielbaren FPS öfter Probleme bekommt, für 350-400 Euro neue Karten geben wird, die sowohl 970 als 980 (als auch 290(X)) in allen Belangen überlegen sein werden.

Kladderadatsch
2015-02-13, 07:34:33
Wobei ich wirklich Zweifel habe, dass die 970 die Power hat um regelmäßig von ihren 3,5GB beschnitten zu werden. Ich meine wir reden von 780ti Leistung und die hat 3GB. Ich finde jetzt von 970 auf 980 zu wechseln ist sinnlos, da ist man schlauer die 200 Euro für die nächste GPU zu sparen. Ich bin mir relativ sicher, dass es, wenn die 970 auch bei spielbaren FPS öfter Probleme bekommt, für 350-400 Euro neue Karten geben wird, die sowohl 970 als 980 (als auch 290(X)) in allen Belangen überlegen sein werden.
das hört sich nach dem lesen der letzten seiten irgendwie viel zu vernünftig an;)

-/\-CruNcher-/\-
2015-02-13, 07:36:40
Wobei ich wirklich Zweifel habe, dass die 970 die Power hat um regelmäßig von ihren 3,5GB beschnitten zu werden. Ich meine wir reden von 780ti Leistung und die hat 3GB. Ich finde jetzt von 970 auf 980 zu wechseln ist sinnlos, da ist man schlauer die 200 Euro für die nächste GPU zu sparen. Ich bin mir relativ sicher, dass es, wenn die 970 auch bei spielbaren FPS öfter Probleme bekommt, für 350-400 Euro neue Karten geben wird, die sowohl 970 als 980 (als auch 290(X)) in allen Belangen überlegen sein werden.

Meine nächste Karte wird definitiv eine von AMD angesiedelt im GTX 970 preisbereich eine Karte aus der R9 3xx serie die werd ich dann im kompletten ökosystem gegen Maxwell testen und mein Fazit daraus ziehen wo AMD nun steht nach ihrem VLIW abgang und aufhol orgie auch bei den Treibern und mit SU nun an der Spitze ;)

Hawai ist mir noch zu unbalanciert gewesen (das heranwachsende Kind) da war mein interesse noch sehr gering aber seit Tonga siehts anders aus ;)

AMD scheint die Daten die sie aus den Konsolen gewinnen auch effizient zu verwerten :)

Isen
2015-02-13, 08:08:30
Die neue Kompression hat AMD doch erstmalig bei Tonga angewandt, korrekt?
Darauf bin ich mal gespannt, speziell bei der 300er Serie.....

2015/16 ist das Jahr, wo AMD wirklich auf die Kacke hauen muss, ich hoffe ich schraube meine Erwartung nicht zu hoch ;)

Dawn on Titan
2015-02-13, 08:40:31
Für 970 Besitzer ist es imho wichtig das Verhalten von NV nicht zu vergessen. Meine 970 jetzt einzutauschen macht für mich keinen Sinn (980 zu teuer, leise 290 zu groß und kurz vor der Ablösung), aber beim nächsten Kauf wird das Verhalten gegen eine NV GPU sprechen.

Wobei ich hier persönlich ehrlich bin und der Boardpartner da eine Rolle spielen wird. Sollte EVGA wirklich meine 970 auch für ein Step-Up auf heute noch unreleaste Karten akzeptieren, dann wäre das ein starkes Argument pro EVGA und somit leider pro NV.

-/\-CruNcher-/\-
2015-02-13, 08:49:55
@Dawn on Titan
Das ist nicht nur für mich seit GTX 970 wichtig seit dem ich von ATI weg bin hab ich soviele sachen in diesem berreich von Nvidia gesehen aber die GTX 970 sache topt momentan alles das hätte ich so nicht erwartet bin zwar viel von Nvidias PR gewohnt was ich auch Wirtschaftlich verstehen konnte aber das hier war over the top, soweit darf es definitiv nicht gehen.

Dawn on Titan
2015-02-13, 09:10:38
Bin ich bei Dir, ich habe jetzt schon die 970 nur gekauft weil EVGA NV Partner ist und deren Karte kurz, schmal und leise ist. Dazu deren toller Service und schnelle RMA Abwicklung + 5 Jahre Garantie (zum Kaufzeitpunkt) + Free Backplate, das war ein Argument für EVGA. Leider hat AMD imho keinen exklusiv Partner der einen ähnlichen Service bietet. :(

Exxtreme
2015-02-13, 09:22:09
Sehr schöne analyse des High Speed Streamings von Gamestar :)

http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-970/news-artikel/gtx_970_vram_problematik,861,3082694,4.html



Die 60 FPS brechen auf der GTX 970 weitaus heftiger zusammen im Verlauf als wie bei der GTX 980 ein direkter vergleich mit der GTX 960 wäre nicht schlecht :)

Am besten 3 gleiche Systeme nebendeinander mit gleichem setup und eine Highspeed Videoaufzeichnung von allen 3 Simultan ;)
Wobei man nicht unterschlagen sollte, dass die Einstellungen, die man fahren muss um dieses Verhalten zu provozieren diese Grafikkarte sowieso praktisch immer überfordern. Ich glaube nicht, dass das Spielgefühl ohne diese Beschneidung sehr viel besser geworden wäre.

Matrix316
2015-02-13, 09:33:53
Ok, was ICH da jetzt nicht verstehe, dass bei Dying Light unter FullHD die GTX 980 3,4 GB nimmt und die 970 nur 3,1 GB: http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-970/news-artikel/gtx_970_vram_problematik,861,3082694,3.html

Da ist doch die 3,5 GB Grenze noch garnicht erreicht und trotzdem nimmt die 970 weniger RAM. Hä?

-/\-CruNcher-/\-
2015-02-13, 09:34:27
Wobei man nicht unterschlagen sollte, dass die Einstellungen, die man fahren muss um dieses Verhalten zu provozieren diese Grafikkarte sowieso praktisch immer überfordern. Ich glaube nicht, dass das Spielgefühl ohne diese Beschneidung sehr viel besser geworden wäre.

Da stimme ich dir zu nur Nvidia selbst definiert diese Settings 1 zu 1 für die GTX 970 als optimal in ihrem Guide, da stimme ich nicht zu ;)

Der unterschied wird nur beim TXAA gezogen von 2 auf 4, vor allem am Anfang war das unhaltbar vor Nvidias Treiber Optimierungen

Halte nicht viel von überzogenen user Erwartungen bei 2K und 4K von der GTX 970 zu viele Faktoren, dazu brauchte es nicht erst diesen Skandal per se das war aus vielen daten schon zu erfassen die von guten reviewern released worden.

http://www.geforce.com/sites/default/files-world/attachments/geforce-dot-com-far-cry-4-graphics-performance-and-tweaking-guide-optimal-playable-settings-table-gtx-900-and-700-series-3.png

Diese Daten bassieren allerdings auf ein Nvidia Ziel von 1080p 40 FPS was auch realstisch ist allerdings der ganze Gameworks overhead das war von Anfang an nicht realistisch mit der damaligen Treiber Performance schon garnicht 40 FPS "optimal playable" auf der GTX 970 zu halten.

Beim Exploring ja aussreichend aber nicht beim High Speed Streaming

Isen
2015-02-13, 09:55:47
um dieses Verhalten zu provozieren diese Grafikkarte sowieso praktisch immer überfordern.

Du sagst es ja schon selbst.... man kann auch anders dazu sagen: Zu Veranschaulichen.
Ich frage mich, ob dir Bewusst ist, dass auch unter normalen Bedingungen diese Probleme vorhanden sind. Gerade im SLI.
(Ist es dir! Du magst es wohl nur nicht aussprechen? )

Hinzu kommt einfach, dass jeder unterschiedlich auf das Nachladen reagieren.

Frametimes, die auf dem Papier sich nur marginal von der 980 unterscheiden, lösen bei einigen bereits Würgreflexe aus, was die Spielbarkeit betrifft, trotz +60fps.

Und sowieso... das Geplänkel darüber, ob etwas ruckelt oder nicht, ist der reinste Kindergeburtstag.

Das Verhalten von NV ist eher vordergründig, alles andere führt nur im Kreis.

P.S

ohne diese Beschneidung sehr viel besser geworden wäre.

doch, wäre es in der Tat.
Zumindest wäre jegliche Kritik gegenüber den Entwicklern, worauf man zunächst vermutete bei jenen die sich über derartige Probleme äußerten, berechtigt.
Die Jenigen haben das ganze ja auch erst zu dem gemacht, was Nvidia nun " Schweigen " nennt.

Das weißt du aber sowieso... verstehe daher nicht, wie du nach 184 Seiten noch immer so argumentierst. Ziemlich einseitig, wie ich finde, oder wieso sprichst du bereits von Unterschlagung von angeblichen Tatsachen, die nicht existieren? Wäre dem so, gäbe es auch keine " Kunden " die das ganze zum rollen brachten.

Die Relativierung vieler interpretiere ich: " Mach mir die Sintflut - bei mir ruckelt nicht, also ruckelt es bei dir und all den anderen auch nicht. "
Ruckeln tut es ja nur dann, wenn man es Provoziert, gell.....:mad:

dargo
2015-02-13, 09:57:49
Wobei man nicht unterschlagen sollte, dass die Einstellungen, die man fahren muss um dieses Verhalten zu provozieren diese Grafikkarte sowieso praktisch immer überfordern. Ich glaube nicht, dass das Spielgefühl ohne diese Beschneidung sehr viel besser geworden wäre.
Jein.

Ich konnte mich davon in Unity selbst überzeugen. Mit 2xMSAA+MFAA ist noch alles ziemlich im grünen Bereich @Full-HD. Mit 4xMSAA+MFAA wirds stellenweise langsam kritisch was Frametimes angeht. Und mit 8xMSAA wirds dann ganz ungemütlich. Letzteres ist natürlich von den Frames eh zu tief, jedenfalls für mich. 4xMSAA+MFAA könnte man aber durchaus mit einem G-Sync Bildschirm verwenden. Immerhin habe ich damit noch Frameraten zwischen ~35 und 50fps. Man sollte bei den ganzen Benchmarks nicht vergessen... das sind alles nur kurze Szenen die nicht fürs ganze Spiel repräsentativ sein müssen. Die müssen nicht unbedingt Worst Cases darstellen.

Dawn on Titan
2015-02-13, 09:58:59
Wenn ich mir da bei manchen Spielen die Frametimes der R290 Serie ansehe, dann dürfte man wohl nur ne 980 kaufen?

dargo
2015-02-13, 10:06:01
Wenn ich mir da bei manchen Spielen die Frametimes der R290 Serie ansehe, dann dürfte man wohl nur ne 980 kaufen?
Auch das ist Unsinn. Nochmal... alle Benchmarks die du siehst sind nur kurze Szenen von einigen Sekunden. Du selbst spielst aber mehrere Stunden ein Game bis du durch bist. Es gab mal eine Video von DF (leider kein Link gerade parat) wo mit FCAT die Frametimes einer GTX 970/980 und R9 290/290X über verschiedene Spiele aufgenommen wurden. Dort sieht man wunderbar, dass auch die Nvidia Karten Szenen haben wo sie wie blöde spiken, die Radeons in der gleichen Szene deutlich weniger. Genauso ist es auch umgekehrt. Die Radeons spiken wie blöde, die Nvidias nicht.

PS: ich mache echt drei Kreuze im Kalender wenn wir endlich dieses DX11 loswerden und Richtung low Level API gehen. Alles andere sind nur Baustellen die die IHVs/Spieleentwickler je nach Game mehr oder weniger gut im Griff haben.

Lard
2015-02-13, 10:06:20
Techspot Evolve Test (Very High FXAA) (http://www.techspot.com/review/962-evolve-benchmarks/page4.html)
Increasing the resolution to 2560x1600 dragged every single-GPU solution below 60fps, with the R9 290X falling just short with 57fps while the GTX 980 was slightly slower at 55fps.
Disappointingly, the GTX 970 averaged just 44fps, being only marginally faster than the old HD 7970 GHz at 41fps. We believe this massive reduction in performance is due to the GTX 970's partitioned memory configuration.

BlacKi
2015-02-13, 10:08:04
Sehr schöne analyse des High Speed Streamings von Gamestar :)

http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-970/news-artikel/gtx_970_vram_problematik,861,3082694,4.html



Die 60 FPS brechen auf der GTX 970 weitaus heftiger zusammen im Verlauf als wie bei der GTX 980 ein direkter vergleich mit der GTX 960 wäre nicht schlecht :)

Am besten 3 gleiche Systeme nebendeinander mit gleichem setup und eine Highspeed Videoaufzeichnung von allen 3 Simultan ;)

fazit ganz hinten:

"Bei all dem muss man allerdings auch berücksichtigen, dass die GTX 980 und die GTX 970 bei unseren Tests in Full HD gleichermaßen für ein sehr flüssiges Spielerlebnis sorgen, während in 4K und hohen Details mit keiner der beiden Karten genug fps für komplett ruckelfreien Spielspaß erreicht werden."

"Unterm Strich bestätigen unsere Benchmarks damit die von vielen geäußerte Vermutung, dass der beschnittene VRAM in der Praxis momentan nur für wenige Spieler nennenswerte Auswirkungen hat."

tipp für die 970 user in der zukunft, einfach ne reglerstufe runterdrehen wenn der speicher voll läuft. ach warte ihr kennt das verfahren schon von euren vorherigen karten? sowas aber auch.

ich finds auch ne sauerei, aber bei der alternativlosigkeit z.Z...

Isen
2015-02-13, 10:12:09
@Dawn on Titan,

für das Problem bei den 970ern reichen die kurzen Frametimes, gerade, weil man es ja provoziert um es zu veranschaulichen.

Will man aber nun, die 290x und 980 gesamt darin Vergleichen, sollten die Aufzeichnungen zumindest ein Start und Ende haben, und über einen längeren Zeitraum laufen.

Dann kristallisiert sich, dass sich beide kaum etwas schenken. Mal hier, dann dort... bei der 970 hast du dann das mal hier und dann dort zzgl. noch die Nachladeruckler.
Ruck zuck entsteht das Gefühl einer Ruckelorgie, speziell wenn man Anfällig dafür ist. Hat man dann noch SLI erinnert man sich an die frühen Zeiten zurück, wo AMD das Mikroruckler @CF Problem hatte.

VooDoo7mx
2015-02-13, 10:14:20
Wenn ich mir da bei manchen Spielen die Frametimes der R290 Serie ansehe, dann dürfte man wohl nur ne 980 kaufen?

ATi Karten scheinen bei vielen Spielen allgemein schlechtere Frametimes als nVidia Karten zu haben und das trotz gleicher fps Werte. Teilweise hat eine 290X schlechtere Frametimes als eine 970 und dies trotz der "3,5 GiB Problematik". Bei so etwas sieht man, dass die Treiber immer noch weit von nV entfernt sind.

Ein weiterer Grund auf einer langen Liste der für mich gegen AMD spricht.


tipp für die 970 user in der zukunft, einfach ne reglerstufe runterdrehen wenn der speicher voll läuft. ach warte ihr kennt das verfahren schon von euren vorherigen karten? sowas aber auch.

ich finds auch ne sauerei, aber bei der alternativlosigkeit z.Z...

Ja ich empfinde es auch als absolute Sauerei und Frechheit das mit einer beschnittenen 300€ Karte die neuesten Spiele nicht vernünftig in 4K spielen kann. nVidia sollte man dafür in Grund und Boden auf Schmerzensgeld und Schadensersatz verklagen! :up:

fondness
2015-02-13, 10:17:13
ATi Karten scheinen bei vielen Spielen allgemein schlechtere Frametimes als nVidia Karten zu haben und das trotz gleicher fps Werte. Teilweise hat eine 290X schlechtere Frametimes als eine 970 und dies trotz der "3,5 GiB Problematik". Bei so etwas sieht man, dass die Treiber immer noch weit von nV entfernt sind.

Ein weiterer Grund auf einer langen Liste der für mich gegen AMD spricht.

Einfach mal irgendwelche an den Haaren herbei gezogenen Gerüchte in den Raum stellen ist wirklich unterste Schublade. Jüngstes Beispiel Evolve, die besten Frametimes hat - oh Wunder - die 290X: http://www.computerbase.de/2015-02/evolve-benchmarks-14-grafikkarten-im-vergleich/

Dawn on Titan
2015-02-13, 10:21:28
Auch das ist Unsinn. Nochmal... alle Benchmarks die du siehst sind nur kurze Szenen von einigen Sekunden. Du selbst spielst aber mehrere Stunden ein Game bis du durch bist. Es gab mal eine Video von DF (leider kein Link gerade parat) wo mit FCAT die Frametimes einer GTX 970/980 und R9 290/290X über verschiedene Spiele aufgenommen wurden. Dort sieht man wunderbar, dass auch die Nvidia Karten Szenen haben wo sie wie blöde spiken, die Radeons in der gleichen Szene deutlich weniger. Genauso ist es auch umgekehrt. Die Radeons spiken wie blöde, die Nvidias nicht.

PS: ich mache echt drei Kreuze im Kalender wenn wir endlich dieses DX11 loswerden und Richtung low Level API gehen. Alles andere sind nur Baustellen die die IHVs/Spieleentwickler je nach Game mehr oder weniger gut im Griff haben.

Das meine ich. Man kann sehr schön zeigen wann die 970 Problem kriegt, aber außerhalb dieser Situationen sind die Frametimes sehr vom Spiel abhängig. Bei manchen ruckelt die eine, bei dem anderen die andere.

-/\-CruNcher-/\-
2015-02-13, 10:23:09
Auch das ist Unsinn. Nochmal... alle Benchmarks die du siehst sind nur kurze Szenen von einigen Sekunden. Du selbst spielst aber mehrere Stunden ein Game bis du durch bist. Es gab mal eine Video von DF (leider kein Link gerade parat) wo mit FCAT die Frametimes einer GTX 970/980 und R9 290/290X über verschiedene Spiele aufgenommen wurden. Dort sieht man wunderbar, dass auch die Nvidia Karten Szenen haben wo sie wie blöde spiken, die Radeons in der gleichen Szene deutlich weniger. Genauso ist es auch umgekehrt. Die Radeons spiken wie blöde, die Nvidias nicht.

PS: ich mache echt drei Kreuze im Kalender wenn wir endlich dieses DX11 loswerden und Richtung low Level API gehen. Alles andere sind nur Baustellen die die IHVs/Spieleentwickler je nach Game mehr oder weniger gut im Griff haben.

Reicht meistens aber schon die Worst cases zu nehmen ;)

hier kommen endlich neuere AMD treiber zum Einsatz und die Richtung in die man mit Tonga wandert (wie erwartet noch sehr unoptimiert) leider spiegelt es nirgends Perf/W wieder ;)

Vor allem das Crysis 4 result ;)

sPX6JPKizls

Botcruscher
2015-02-13, 10:25:59
PS: ich mache echt drei Kreuze im Kalender wenn wir endlich dieses DX11 loswerden und Richtung low Level API gehen. Alles andere sind nur Baustellen die die IHVs/Spieleentwickler je nach Game mehr oder weniger gut im Griff haben.

Du erwartet da echt zu viel. Das mehr oder weniger trifft es doch bei day1 updates für lange bekannte Fehler.

...hohen Details mit keiner der beiden Karten genug fps für komplett ruckelfreien Spielspaß erreicht werden."

"Unterm Strich bestätigen unsere Benchmarks damit die von vielen geäußerte Vermutung, dass der beschnittene VRAM in der Praxis momentan nur für wenige Spieler nennenswerte Auswirkungen hat."[/I]

4K läuft mit kleinen Tweaks mit der Leistung einer 290/980 bestens. Gerade wenn man solchen Bullshit wie Unschärfe entsorgt. Aber NV steuert ja schon gegen. Mehr als 3.5GB gibt es für keine Karte mehr und damit gibt es auch kein Problem mit der 970 bei FC4.

Isen
2015-02-13, 10:26:02
Was du meinst, meint er aber nicht....
In einem Spiel, im gesamten Spielverlauf von A bis Z Spiken mal die NV wo die AMDs ruhig bleiben, und umgekehrt. Das Problem ist nicht nur bei unterschiedlichen Spielen zu beobachten, sondern innerhalb eines Spiels über einen längeren Spielverlauf und schenken sich unterm Strich nicht viel.

@-/\-CruNcher-/\-,

meinst du? ... gerade bei Story-Beginn gehts erstmal eine Zeitlang ruhiger von statten. Wie ein Film halt.
Bei FC4 im mittlerem Spielverlauf sind ein paar heftigere Stellen dabei, als die Szene mit dem Auto...

Dawn on Titan
2015-02-13, 10:34:29
Aj0bZgTq1x4

Finde ich ja immer noch sehr bemerkenswert. Eigentlich sollten alle Karten sauber laufen, in der Realität sieht man aber das bei der Mehrzahl der problematischen Stellen alle Karten ruckeln.

Isen
2015-02-13, 10:37:47
Legt nahe, dass am Spiel selbst ein Problem vorherrscht.
Interessant ist das aber nicht, wenn man alleine mal zu Ubi rüber schielt :D

edit:

dein yt-link ist entweder falsch, oder yt mag mich Heute nicht :)

dargo
2015-02-13, 10:48:04
Reicht meistens aber schon die Worst cases zu nehmen ;)

Natürlich reicht das, aber welche Redaktion will diesen Aufwand betreiben? Ich glaube viele unterschätzen diesen enormen Aufwand. Zumal wir schon lange kein freies Speichern mehr in Spielen vorfinden. Was ich bei der ganzen Frametime Geschichte auch mittlerweile in Frage stelle sind FCAT Messungen (also das was Digital Foundry betreibt).
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10520743&postcount=318

Dawn on Titan
2015-02-13, 10:54:05
Das ist ne gute Frage. Genauso wie man halt die Szene vorher nach Stellen untersuchen müsste bei denen das Spiel ein Ruckeln erzeugt. Bei Kamerawechseln usw. ist das nämlich extrem häufig, weil der kurze Blackout gewollt ist.

Kriton
2015-02-13, 10:55:23
Was ich bei der ganzen Frametime Geschichte auch mittlerweile in Frage stelle sind FCAT Messungen (also das was Digital Foundry betreibt).

Ich sehe Skysnake gerade zufrieden vor sich hin grinsen.

dargo
2015-02-13, 10:56:43
Du erwartet da echt zu viel. Das mehr oder weniger trifft es doch bei day1 updates für lange bekannte Fehler.

Saubere Frametimes (keine spürbaren Ruckler/Miniruckler) über das gesamte Spiel ist also im Jahre 2015 zu viel verlangt? Ich bitte dich. Und von welchen Fehlern sprichst du? Ein Watch Dogs läuft selbst heute immer noch nicht sauber beim Fahren mit Ultra Texturen. Wie armselig ist das bitte? Ein FC4 ruckelt auch immer noch hier und da. Das sind alles Sachen die mich einfach nur noch ankotzen.

Matrix316
2015-02-13, 11:06:19
Saubere Frametimes (keine spürbaren Ruckler/Miniruckler) über das gesamte Spiel ist also im Jahre 2015 zu viel verlangt? Ich bitte dich. Und von welchen Fehlern sprichst du? Ein Watch Dogs läuft selbst heute immer noch nicht sauber beim Fahren mit Ultra Texturen. Wie armselig ist das bitte? Ein FC4 ruckelt auch immer noch hier und da. Das sind alles Sachen die mich einfach nur noch ankotzen.
Am Ende hilft nichts als auf die Playstation 4 umzusteigen. ;) Da sieht es zwar schlechter aus und läuft u.u. noch langsamer, aber dafür überall gleich. ;)

Dural
2015-02-13, 11:27:29
Einfach mal irgendwelche an den Haaren herbei gezogenen Gerüchte in den Raum stellen ist wirklich unterste Schublade. Jüngstes Beispiel Evolve, die besten Frametimes hat - oh Wunder - die 290X: http://www.computerbase.de/2015-02/evolve-benchmarks-14-grafikkarten-im-vergleich/

Ein Beispiel, Toll!

Es ist Fakt das NV schon länger aktiv gegen die Mikroruckler vorgeht, auch bei SLI.
Und die ganzen Videos die man jetzt wegen dem 970 Problem erstellt hat bestätigen auch ganz klar das die 980 das "schönste" Bild hat.


Interessant finde ich das die 290 oft deutlich schlechter aussieht als die 290X, obwohl es ja fast die selbe Karte ist. Da haben wohl die Deaktivierten-Einheiten auch einen grösseren Einfluss. :confused:

Denrusl
2015-02-13, 11:29:23
Am Ende hilft nichts als auf die Playstation 4 umzusteigen. ;) Da sieht es zwar schlechter aus und läuft u.u. noch langsamer, aber dafür überall gleich. ;)


:D Stimmt wenn man sich über inkonsistenz aufregt sollte man konstant den selben schrott haben dann kann sich drüber aufregen wenn es dort drops gibt weil die sind dann richtig scheiße :freak:

ganz ehrlich aber das ergibt keinen Sinn ;D


Ein Beispiel, Toll!

Es ist Fakt das NV schon länger aktiv gegen die Mikroruckler vorgeht, auch bei SLI.

Und die ganzen Videos die man jetzt wegen dem 970 Problem erstellt hat bestätigen auch ganz klar das die 980 das "schönste" Bild hat.

Und das macht ATI nicht? o.O Wer jetzt wann als erstes den Sirup vom Kuchen schleckt ist egal. Wenn beide sauber sache nach ca nen Monat( mittlerweile mindestens Standard bis dich schwersten bugs in titeln behoben wurde bei den Beta-Releases die man uns ins Gesicht rotzt) abliefern is doch alles super. Vorher würde ich gefühlt nicht testen...

Matrix316
2015-02-13, 12:03:26
Vielleicht ist das Problem mit den Frametimes einfach, dass die Konsolen diesen relativ großen Speicher haben. Wie viel wird denn für die GPU verwendet? Auf dem PC hab ich halt nur mal nur X GB an VRAM während die Konsolen mal 2 oder mal 4 oder mal 6 nutzen können, oder?

Dawn on Titan
2015-02-13, 12:22:56
Denke ich auch. Imho könnte es sich sogar zeigen, dass 3,5 oder 4GB irgendwann egal ist und man eher Richtung 6-8GB gehen muss um sicher zu sein. Immerhin liegen beide eben über 4GB bei der praktisch für die Anwendung verfügbaren RAM Menge, auch wenn es dort RAM + VRAM ist.

dargo
2015-02-13, 12:33:19
Am Ende hilft nichts als auf die Playstation 4 umzusteigen. ;) Da sieht es zwar schlechter aus und läuft u.u. noch langsamer, aber dafür überall gleich. ;)
Ich wüsste jetzt nicht was daran für mich besser wäre (mal davon abgesehen, dass ich mir nie eine Konsole kaufen werde). Nur weils überall schlecht läuft bin ich noch lange nicht zufrieden.

Matrix316
2015-02-13, 12:36:38
Ich wüsste jetzt nicht was daran für mich besser wäre (mal davon abgesehen, dass ich mir nie eine Konsole kaufen werde). Nur weils überall schlecht läuft bin ich noch lange nicht zufrieden.
Wenn die Spiele scheiße sind, kannst du sie wenigstens wieder verkaufen (es sei denn du nimmst die Downloadversion). ;D

dargo
2015-02-13, 12:41:31
Vielleicht ist das Problem mit den Frametimes einfach, dass die Konsolen diesen relativ großen Speicher haben. Wie viel wird denn für die GPU verwendet? Auf dem PC hab ich halt nur mal nur X GB an VRAM während die Konsolen mal 2 oder mal 4 oder mal 6 nutzen können, oder?
Das hat doch nichts mit der Speichermenge zu tun. Zum x-ten Male... die neuen Konsolen haben zwar 8GB, können davon aber nur 5,5-6,5GB nutzen. Und "Systemspeicher" für Spiele brauchen die genauso wie der PC auch. Also bleibt von diesem Speicherpool auch weniger für die GPU übrig.

Ein Stottern in Watch Dogs @Ultra Texturen wirst du am PC auch nicht mit einer 8GB Karte los. Irgendwas limitiert da... entweder die API, der Treiber oder die Streamingengine ist einfach Grütze für höchste Texturauflösung. Als Anwender kann man das gar nicht genau bestimmen.

PS: manche Probleme lassen sich nicht einfach durch mehr Speicher lösen.

Denrusl
2015-02-13, 12:50:28
Der größte Flaschenhals bleibt die Software :freak:

Botcruscher
2015-02-13, 12:52:31
Saubere Frametimes (keine spürbaren Ruckler/Miniruckler) über das gesamte Spiel ist also im Jahre 2015 zu viel verlangt? Ich bitte dich.

EA hält doch nicht mal mehr eine funktionierende Steuerung für nötig(DA:I). Bei Bugfield ist der Name einfach nur Programm. Wer da noch so Mist baut merke ich mir schon nicht mehr. Mit DX wird auf jeden Fall nicht viel besser.

Matrix316
2015-02-13, 12:56:16
Der größte Flaschenhals bleibt die Software :freak:
Der größte Flaschenhals sind die Festplatten. ;)

Denrusl
2015-02-13, 13:11:18
Der größte Flaschenhals sind die Festplatten. ;)


In Zeiten von SSD und derartigen GB/S Verbindungen halte ich das für relativ unwahrscheinlich. Ich besitze selbst zwar eine sehr alte Festplatte wo ich das bestätigen kann aber bei keiner meiner neueren Festplatten würde ich diese als Flaschenhals bestätigen. Am ende ist die Frage, wie gut ist deine Software optimiert, du kannst mit noch so viel Rechenpower auf ein Programm einschlagen, wenn dieses nicht mehr Output erzeugen kann, wirst du au nicht mehr rausbekommen.

Der Treiber der 970 ist auch ein gutes Beispiel. Du wirst keine Ruckler bekommen wenn der seinen Job richtig tut die frage ist wann es NVidia relativ wurscht sein wird ...

Matrix316
2015-02-13, 13:15:08
In Zeiten von SSD und derartigen GB/S Verbindungen halte ich das für relativ unwahrscheinlich. Ich besitze selbst zwar eine sehr alte Festplatte wo ich das bestätigen kann aber bei keiner meiner neueren Festplatten würde ich diese als Flaschenhals bestätigen. Am ende ist die Frage, wie gut ist deine Software optimiert, du kannst mit noch so viel Rechenpower auf ein Programm einschlagen, wenn dieses nicht mehr Output erzeugen kann, wirst du au nicht mehr rausbekommen.

Der Treiber der 970 ist auch ein gutes Beispiel. Du wirst keine Ruckler bekommen wenn der seinen Job richtig tut die frage ist wann es NVidia relativ wurscht sein wird ...

Die normalen SSDs sind aber nur bei 500MB/s, im Raid 1 GB/s, ebenso die schnellen PCIe SSDs.

Speicherbandbreite bei GDDR5 ist aber bei 200 GB/s. Faktor 400 oder 200, je nach dem, schneller.

Wenn selbst normaler RAM zu langsam für Grafikkarten ist, wie soll dann eine Festplatte oder SSD mit den Datenmengen nachkommen?

Denrusl
2015-02-13, 13:17:25
Die normalen SSDs sind aber nur bei 500MB/s, im Raid 1 GB/s, ebenso die schnellen PCIe SSDs.

Speicherbandbreite bei GDDR5 ist aber bei 200 GB/s. Faktor 400 oder 200, je nach dem, schneller.

Wenn selbst normaler RAM zu langsam für Grafikkarten ist, wie soll dann eine Festplatte oder SSD mit den Datenmengen nachkommen?

ist ein Argument. Wobei ich bezweifle ob wir Grafikoperationen mit den Infos für diese in einen Topf werfen können.

Matrix316
2015-02-13, 13:21:30
ist ein Argument. Wobei ich bezweifle ob wir Grafikoperationen mit den Infos für diese in einen Topf werfen können.
Keine Ahnung, ich bin da kein Experte. ;) Aber werden die Texturen nicht auf der Festplatte gespeichert? Oder liegen da nur Zahlenwerte und die GPU bastelt sich die Texturen on the fly? ;)

Denrusl
2015-02-13, 13:24:50
Keine Ahnung, ich bin da kein Experte. ;) Aber werden die Texturen nicht auf der Festplatte gespeichert? Oder liegen da nur Zahlenwerte und die GPU bastelt sich die Texturen on the fly? ;)


Das kommt ganz auf die Engine an aber auf jedenfall ist egal wie oft du einen schnipsel benutzt dieser auch nur einmal hinterlegt(in der entsprechenden auflösung alias texturedetails etc). Die GPU puzzelt dir dein Bild dann zusammen aber ich denke ma das is nu etwas arg OT :rolleyes:

von Richthofen
2015-02-13, 13:44:56
Ok, was ICH da jetzt nicht verstehe, dass bei Dying Light unter FullHD die GTX 980 3,4 GB nimmt und die 970 nur 3,1 GB: http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-970/news-artikel/gtx_970_vram_problematik,861,3082694,3.html

Da ist doch die 3,5 GB Grenze noch garnicht erreicht und trotzdem nimmt die 970 weniger RAM. Hä?

Der Test der Gamestar fällt angenehm umfangreich aus.
Unabhängig von Spiel und Auflösung fällt die höhere VRAM-Belegung der 980 auf. Nutzt man das vllt. für einen runderen Frametimeverlauf oder wird gar die Bilddarstellung beeinflusst (schneller eingreifendes LOD)? Das wäre wohl sehr schwierig nachzuprüfen. Der Treiber sollte ja auch auf solche Anwendungsinterna keinen Einfluss haben dürfen.

Außer dem Abfall der Min-FPS kann man der 970 diesem Test zufolge nicht viel vorwerfen.

Disco_STFU
2015-02-13, 14:01:32
Von der Gamestar hätte ich das wirklich mit am wenigsten erwartet. Alle anderen Großen scheinen ja vor Nvidia zu buckeln.

Nvidias Verhalten im GTX 970-Skandal - Arroganz statt Rückgrat

http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-970/news-artikel/nvidias_verhalten_im_gtx_970_skandal,861,3082916.html

Noebbie
2015-02-13, 14:32:50
Ich kaufe, glaub ich, mal wieder einfach so ein Gamestar Heft! :)

Dawn on Titan
2015-02-13, 14:46:23
Der Test der Gamestar fällt angenehm umfangreich aus.
Unabhängig von Spiel und Auflösung fällt die höhere VRAM-Belegung der 980 auf. Nutzt man das vllt. für einen runderen Frametimeverlauf oder wird gar die Bilddarstellung beeinflusst (schneller eingreifendes LOD)? Das wäre wohl sehr schwierig nachzuprüfen. Der Treiber sollte ja auch auf solche Anwendungsinterna keinen Einfluss haben dürfen.

Außer dem Abfall der Min-FPS kann man der 970 diesem Test zufolge nicht viel vorwerfen.

Ich glaube auch bei 780/780ti 3GB wird man nicht am LoD spielen. Im Zweifel wird man als User eben eher eine MSAA- / Texturdetailstufe runter müssen als bei der 980, wobei ich irgendwie glaube, dass das meist auf Grund fehlender Rechenleistung sowieso gemacht werden würde.

Schön wäre aber wenn NV es im Treiber ermöglicht nur 3,5GB zu nutzen und die 0,5GB völlig zu deaktivieren. Das kann eben für manchen Anwendungen praktischer sein.

Eigentlich ist es behindert. Mit 3,5GB wäre die 970 wahrscheinlich für die meisten Käufer genauso attraktiv wie jetzt, da die meisten üblichen Benchmarks genauso aussehen würden. Zusätzlich hätte man wahrscheinlich einige Kunden gehabt die eher zur 980 gegriffen hätten. Ich persönlich glaube nicht, dass die 0,5GB einen Unterschied im Kampf mit der 290/290X gemacht hätten, die Karten sind schon vor dem 980/970 Launch so lange auf dem Markt gewesen. Wer die noch nicht hatte, wollte sie wahrscheinlich auch nicht unbedingt.

derF
2015-02-13, 14:48:24
Heise hatte auch schon ein bisschen kritisiert. Habe sonst leider auch nichts von anderen gelesen. Scheint doch auf die Finanzen zu gehen, wenn man sich nicht mit dem Fast-Monopolisten gut stellt. ;)

InsaneDruid
2015-02-13, 14:58:51
So, back on GTX 275 :)

Alternate angerufen, sie nehmen meine 970 zurück!

RIPchen
2015-02-13, 15:33:07
Hallo zusammen,

ich weiß, dass gerade zur GTX970 eine Umfrage lief. Wenn ich aber derzeit andauernd lese, wie niedrig die Rücklaufquote sein soll, was sich mit meinem beschränkten Überblick (ich kenne vier Personen mit einer GTX970, welche alle die Karte zurückgegeben haben) nicht in Übereinstimmung bringen lässt, würde mich eine Umfrage hier zu interessieren. Und wenn man in anderen Foren unterwegs ist, geht dies den meisten gleichermaßen so.

Von daher wäre eine Umfrage interessant, wer tatsächlich eine GTX970 hat/hatte, ob er überhaupt und wenn ja wann er Kenntnis von dem Mangel erfahren hat und wie er darauf reagiert hat und warum.

Natürlich kann man nicht verhindern, dass dann Leute antworten, die tatsächlich überhaupt keine GTX970 haben. Vielleicht kann man das irgendwie absichern, wobei das natürlich einen gewissen Aufwand bedeutet?
Vielleicht könnte man für alle anderen auch ein paar Fragen dazu machen, z.B. hypothetisch wie man sich verhalten würde wenn man eine hätte. So hält man zumindest die ab, die um jeden Preis immer etwas sagen wollen, weil sie es dann auch können.

Was ich bei dieser Gelegenheit loswerden möchte ist, dass Leonidas einer der wenigen ist, der den Mut hat, die Fakten auch auf den Tisch zu legen. Bis heute haben viele Medien nicht ausdrücklich gesagt, dass die GTX970 kein 256bit breites Speicherinterface, sondern nur eins mit 224bit hat und dass die Angabe von 224GB/s Speicherdurchsatz nach wie vor irreführend und falsch ist, weil die Karte diesen Durchsatz niemals erreichen kann. Ganz zu Anfang haben eigentlich alle Medien nach klärenden Telefonaten mit Nvidia-Mitarbeitern noch verbreitet, dass die Angabe "256bit" nicht falsch sei und Ähnliches. Leonidas hat das ausdrücklich klargestellt und dafür sage ich "Hut ab"! Und natürlich danke.

RIPchen
2015-02-13, 15:37:51
Schön wäre aber wenn NV es im Treiber ermöglicht nur 3,5GB zu nutzen und die 0,5GB völlig zu deaktivieren. Das kann eben für manchen Anwendungen praktischer sein.


Ein guter Ansatz, der auch schon öfter verbreitet wurde, wäre wahrscheinlich auch der, die lahmen 512MB für verhältnismäßig unwichtige Daten zu nehmen, Multimonitoring, Betriebssystem etc, damit die 3,5GB dann für das Spiel frei bleiben. So könnte man die 4GB immerhin einigermaßen nutzen, also über eine Verteilung auf die beiden Speicherbereiche nach Priorität.

Aber Nvidia wird den Treiber sicher bereits weitestgehend optimiert haben. Zum einen hat man hierzu bereits Erfahrung mit der GTX660er, zum anderen sieht man ja bereits bei Vergleichen mit der GTX980, dass die GTX970 auf effektiv 3,5GB beschränkt ist, wo die GTX980 und die 290X auf 3,8 - 4,0GB stehen unter identischen Bedingungen. Was die aus meiner Sicht hohe Qualität der Treiber von Nvidia angeht, gehe ich davon aus, dass diese bereits weitestgehend auf die Unzulänglichkeiten der GTX970 optimiert sind.

von Richthofen
2015-02-13, 15:49:52
Schön wäre aber wenn NV es im Treiber ermöglicht nur 3,5GB zu nutzen und die 0,5GB völlig zu deaktivieren. Das kann eben für manchen Anwendungen praktischer sein.

Aktuell ist die Sache noch zu frisch - nV wird da wohl, gemäß ihrer derzeitigen Strategie, kein weiteres Gesprächsthema anbieten und weiteren Staub aufwirbeln wollen.
Wenn das Ganze später weniger Thema ist, kann man immer noch (stillschweigend zum "Kundenvorteil":freak:) eine entsprechende Änderung am Treiberverhalten auf den Weg bringen.

PuppetMaster
2015-02-13, 16:05:33
Schön wäre aber wenn NV es im Treiber ermöglicht nur 3,5GB zu nutzen und die 0,5GB völlig zu deaktivieren. Das kann eben für manchen Anwendungen praktischer sein.

Rein aus Interesse: Für welche Situationen kann das besser sein?

Die 980 versucht, die Speicherbelegung unter 4 GB zu halten. Klappt das wegen zu hoher Settings nicht, wird gelöscht oder in den RAM ausgelagert und es ruckelt.

Bei der 970 verhält sich der Treiber jetzt schon wie bei einer 3,5-GB-Karte. Wird mehr Speicher als 3,5 GB benötigt, wird gelöscht oder auf die letzten 500 MB zugegriffen und es ruckelt. Welchen Vorteil bringt es, diese 500 MB wegzunehmen und auf den noch langsameren RAM zu verweisen?

N0Thing
2015-02-13, 16:39:37
Es gibt einige Tests, bei denen das Bild beim Zugriff auf die letzten 512MB für längere Zeit einfriert als bei einem üblichen Nachladeruckler. Dieses Problem würde man wohl umgehen, wenn für die Anwendung nur 3,5GB sichtbar/verfügbar wären und die langsamen 512MB nie angesprochen werden würden.

Schnoesel
2015-02-13, 16:53:04
Und hier immer noch meine Frage wie das der Treiber erledigen soll bei DX 12, wenn der Speicherzugriff auf Entwicklerseite liegt und der Treiber hier gar nicht eingreifen kann.

InsaneDruid
2015-02-13, 16:59:23
Ein guter Ansatz, der auch schon öfter verbreitet wurde, wäre wahrscheinlich auch der, die lahmen 512MB für verhältnismäßig unwichtige Daten zu nehmen, Multimonitoring, Betriebssystem etc, damit die 3,5GB dann für das Spiel frei bleiben. So könnte man die 4GB immerhin einigermaßen nutzen, also über eine Verteilung auf die beiden Speicherbereiche nach Priorität.

Das dachte ich auch, bis rauskam dass beim Verwendung dieses Speicherbereiches nur noch 3GB des Vrams schnell sind. Somit wäre eine völlige Deaktivierung eher besser. Das ist wohl auch der Grund, warum der Treiber sich so dermaßen wehrt, und auch NV selbst ihr sehr früh geäußertes "Na dann nehmen wir deisen Speicher für performanceunkritische Sachen" sehr schnell zurücknahm.

Blediator16
2015-02-13, 17:18:45
Und hier immer noch meine Frage wie das der Treiber erledigen soll bei DX 12, wenn der Speicherzugriff auf Entwicklerseite liegt und der Treiber hier gar nicht eingreifen kann.

Das habe ich mich auch gefragt. Es gibt seit vielen Jahren eben gestaffelte VRAM größen und aktuell liegen diese bei 2 4 6 8 gb ram. Keine krummen Sachen wie die 3,5 der 970. Wer weiß vielleicht ist meine 2gb 660oc auch von dem Mist betroffen und ich habe nur 1,5:rolleyes:

Tomislav
2015-02-13, 18:11:45
Hallo
Das dachte ich auch, bis rauskam dass beim Verwendung dieses Speicherbereiches nur noch 3GB des Vrams schnell sind.
Wann und wo ist das rausgekommen ?
Bisher hieß es immer das entweder 3,5GB mit 224Bit oder 0,5GB mit 32Bit angesprochen werden können und das ein Mischbetrieb dieser beiden Blöcke nicht möglich ist.

Wenn aus den letzten 0,5 GB was gelesen wird, darf mindestens aus dem nebenstehenden Speicherchip nichts gelesen werden. Meine Rechnung weiter oben geht davon aus, dass dann sogar gar nichts anderes gelesen werden kann. Selbst dann kommt man noch auf gemittelte 200 Bit für das Speicherinterface.
HT4U sieht meine Vermutung genau so das bei Benutzung des letzten 0,5GB Blocks der vorletzte 0,5GB Block ebenfalls langsamer wird, weil sich beide 0,5GB Blöcke die Bandbreite von 32Bit teilen.

Zitat von: http://ht4u.net/reviews/2015/nvidia_maxwell_gtx_970_kommentiert/index4.php
"Auf der GTX 970 sind nur sieben Cacheblöcke aktiv. Der 3,5-GiByte-Speicher ist also mit nur 7x32 = 224 Bit pro Takt angebunden.
Der achte Speichercontroller, für das letzte halbe GiByte RAM, müsste einen anderen Cacheblock mitbenutzen, was wiederum dessen Speichercontroller ausbremsen würde. Deshalb wird er nach Möglichkeit gar nicht genutzt, und wenn doch, stehen ihm nur 32 Bit pro Takt zur Verfügung."

Die neue Aussage die GTX 970 hat 224Bit + 32Bit ist meiner Meinung nach falsch, die GTX 970 hat insgesamt 7x32Bit=224Bit und von den 224Bit werden die letzten 32Bit von den beiden letzten 0,5GB Speicherblöcken zusammen benutzt.
Es gibt also zwei Möglichkeiten:
3,5GB werden mit 7x32Bit=224Bit oder 0,5GB wird mit 32Bit angesteuert.
oder
3GB werden mit 6x32Bit=192Bit angesteuert und 2x 0,5GB werden mit 32Bit angesteuert.

Meiner Vermutung diesbezüglich...
Bishin zur Verwendung von 3,5 GB wird der Inhalt interleaved auf sieben RAM-Bausteine verteilt. Hat man mehr, geht der Rest linear in den letzten Chip. Der Zugriff auf den achten Chip blockiert den gleichzeitigen Zugriff auf den siebten.

Deshalb kann man zu der Zeit nichts aus den unteren 3,5 GB lesen, weil man nicht auf alle sieben notwendigen RAM-Chips Zugriff hat.


Das offizielle Bild von Nvidia ist konsistent mit den Beobachtungen und erlaubt zu keinem Zeitpunkt einen Datendurchsatz über alle 256 Datenleitungen.


...hat aths immer widersprochen bzw. sich für die 3,5GB oder 0,5GB Variante ausgesprochen.

Grüße Tomi

Dawn on Titan
2015-02-13, 18:28:07
Ein guter Ansatz, der auch schon öfter verbreitet wurde, wäre wahrscheinlich auch der, die lahmen 512MB für verhältnismäßig unwichtige Daten zu nehmen, Multimonitoring, Betriebssystem etc, damit die 3,5GB dann für das Spiel frei bleiben. So könnte man die 4GB immerhin einigermaßen nutzen, also über eine Verteilung auf die beiden Speicherbereiche nach Priorität.

Aber Nvidia wird den Treiber sicher bereits weitestgehend optimiert haben. Zum einen hat man hierzu bereits Erfahrung mit der GTX660er, zum anderen sieht man ja bereits bei Vergleichen mit der GTX980, dass die GTX970 auf effektiv 3,5GB beschränkt ist, wo die GTX980 und die 290X auf 3,8 - 4,0GB stehen unter identischen Bedingungen. Was die aus meiner Sicht hohe Qualität der Treiber von Nvidia angeht, gehe ich davon aus, dass diese bereits weitestgehend auf die Unzulänglichkeiten der GTX970 optimiert sind.

Bei älteren Spielen + HD-Textures bin ich mir nicht sicher, dass der Treiber immer richtig optimiert. Manche scheinen den VRAm ohne direkte Not zu füllen. Skyrim läuft teilweise auf ner 3GB 780 besser als wenn meine 970 die oberen 0,5GB nutzt.

dargo
2015-02-13, 19:10:58
Man oh man, was da teilweise bei einzelnen Händlern los ist. :freak:
http://www.computerbase.de/forum/showthread.php?t=1440825&page=108&p=17013795#post17013795

So viel zum Thema 5%. Und wir wissen immer noch nicht wie das ganze außerhalb DE abläuft.

eratte
2015-02-13, 19:27:07
Da ich sehr viel in einem Atelcoshop kaufe (auch viel Hardware für Bekanntschaft etc) hätte ich die GTX970 gegen Erstattung zurück geben können dort - der Freund der sie von mir im Dezember gekauft hat will aber nicht. Mehr konnte ich für ihn dann nicht tun den er muss es selber wissen.

Blediator16
2015-02-13, 19:32:22
Man oh man, was da teilweise bei einzelnen Händlern los ist. :freak:
http://www.computerbase.de/forum/showthread.php?t=1440825&page=108&p=17013795#post17013795

So viel zum Thema 5%. Und wir wissen immer noch nicht wie das ganze außerhalb DE abläuft.

Da gab es zur Belohnung dann eine 980 gegen Aufpreis natürlich :freak:

aths
2015-02-13, 19:58:22
Hallo

Wann und wo ist das rausgekommen ?
Bisher hieß es immer das entweder 3,5GB mit 224Bit oder 0,5GB mit 32Bit angesprochen werden können und das ein Mischbetrieb dieser beiden Blöcke nicht möglich ist.

Meiner Vermutung diesbezüglich...

...hat aths immer widersprochen bzw. sich für die 3,5GB oder 0,5GB Variante ausgesprochen.

Grüße Tomi
Man hätte 3 GB mit 192 Bit und 1 GB mit 32 Bit.

Stattdessen ist es besser, 3,5 GB mit 224 Bit anzusprechen. Mehr Speicher mit mehr Bandbreite.

Tomislav
2015-02-13, 20:18:46
Hallo
Bishin zur Verwendung von 3,5 GB wird der Inhalt interleaved auf sieben RAM-Bausteine verteilt. Hat man mehr, geht der Rest linear in den letzten Chip. Der Zugriff auf den achten Chip blockiert den gleichzeitigen Zugriff auf den siebten.

Deshalb kann man zu der Zeit nichts aus den unteren 3,5 GB lesen, weil man nicht auf alle sieben notwendigen RAM-Chips Zugriff hat.

Das offizielle Bild von Nvidia ist konsistent mit den Beobachtungen und erlaubt zu keinem Zeitpunkt einen Datendurchsatz über alle 256 Datenleitungen.

Hier schreibst du das ein Zugriff auf den achten 0,5GB Block den Zugriff auf den siebten 0,5GB Block blockiert und man den gesamten 3,5GB Block nicht benutzen kann weil man keinen Zugriff auf alle notwendigen sieben Ram Blöcke hat.
Man hätte 3 GB mit 192 Bit und 1 GB mit 32 Bit.

Stattdessen ist es besser, 3,5 GB mit 224 Bit anzusprechen. Mehr Speicher mit mehr Bandbreite.
Jetzt schreibst du es ist möglich 3GB mit 192Bit anzusprechen und 1Gb mit 32Bit anzusprechen.


Woher kommt der Sinneswandel bzw. wie kann man 1GB (Block 7 + Block 8) mit 32Bit ansprechen wenn der Zugriff auf den achten Block den Zugriff auf den siebten Block blockiert ?

Also gibt es doch diese zwei Möglichkeiten:

3,5GB werden mit 7x32Bit=224Bit oder 0,5GB wird mit 32Bit angesteuert.
oder
3GB werden mit 6x32Bit=192Bit angesteuert und 2x 0,5GB werden mit 32Bit angesteuert.


Grüße Tomi

Dimon
2015-02-13, 20:23:36
Sagtmal ist es wirklich so schlimm mit den 3,5GB?

Die kriegt man doch nicht immer voll, oder sind soviele freaks unterwegs die gleich alle 4 GB Vollballern? :biggrin:

Mfg

Tomislav
2015-02-13, 20:33:50
Hallo

Sagtmal ist es wirklich so schlimm mit den 3,5GB?

Ich finde ja.


Die kriegt man doch nicht immer voll, oder sind soviele freaks unterwegs die gleich alle 4 GB Vollballern?

NVidia und viele Nutzer argumentieren jetzt das die 3,5GB für die FullHD Auflösung 1920x1080 ausreichend ist aber NVidia hätte dann DSR nicht so puschen sollen.
Ich z.B. benutze gerne 4x DSR anstelle von AA (bei alten Spielen auch beides zusammen) und da hat man auch mit einem 1920x1080 Monitor das Problem mit dem Speicher wenn auf 3840x2160 hoch gerechnet wird.

Grüße Tomi

Peter Gräber
2015-02-13, 20:39:06
Die ist nicht nur für FullHD ausreichend, in aller Regel durch die Bank auch für 1440p. Aber in den allermeisten Fällen ist eine GTX 980 nicht einmal für 4K ausreichend. Wie kommst du darauf, dass die GTX 970 dafür geeignet wäre?

Tomislav
2015-02-13, 20:44:06
Hallo

Aber in den allermeisten Fällen ist eine GTX 980 nicht einmal für 4K ausreichend.

Bei älteren Spielen geht das wunderbar z.B. Duke Forever, Ghostbusters, UT3, GTA4, Flat Out, Pure, Dirt2 sehen grandios mit 4x DSR aus (+4x AA wo es geht) und rennen wie die Feuerwehr.

Grüße Tomi

x-force
2015-02-13, 21:13:03
den aktuellen alien isolation und metal gear nicht versgessen boarderlands geht mit ner 980 sogar splitscreen auf 2(!) bilschrimen. also coop an einem pc! assetto corsa mit minimal reduzierten details. alle konstant > 60fps mit 4k dsr

aber selbst hier fehlen bestimmt noch einige kandidaten.

TobiWahnKenobi
2015-02-13, 21:20:02
Hallo

Bei älteren Spielen geht das wunderbar z.B. Duke Forever, Ghostbusters, UT3, GTA4, Flat Out, Pure, Dirt2 sehen grandios mit 4x DSR aus (+4x AA wo es geht) und rennen wie die Feuerwehr.

Grüße Tomi

spiele wie der duke oder flat out brauchen @4k nichtmal 2GiB. grandios.. naja..


(..)

mfg
tobi

Birdman
2015-02-13, 23:56:21
Woher kommt der Sinneswandel bzw. wie kann man 1GB (Block 7 + Block 8) mit 32Bit ansprechen wenn der Zugriff auf den achten Block den Zugriff auf den siebten Block blockiert ?
Natürlich geht das und dies hat Aths auch nie widersprochen.
Was aber NICHT geht, ist das "umschalten" vom 3.5+0.5GB in den 3+1GB Modus zur Laufzeit, weil man dazu alle bereits im RAM befindlichen 3.5GB an Daten zuerst komplett löschen und anschliessend neu reinladen müsste.
DAS gäbe dann wirklich Nachladeruckler...

Alternativ könnte auch von Anfang an die Karte nur im 3+1GB Modus betrieben werden, das ist dann aber für 99% der aktuellen Anwendungszwecke die schlechtere und langsamere Lösung. (weil nur 192bit)

Tomislav
2015-02-14, 00:10:55
Hallo

Woher kommt der Sinneswandel bzw. wie kann man 1GB (Block 7 + Block 8) mit 32Bit ansprechen wenn der Zugriff auf den achten Block den Zugriff auf den siebten Block blockiert ?


Natürlich geht das und dies hat Aths auch nie widersprochen.

Doch hat er...

Bishin zur Verwendung von 3,5 GB wird der Inhalt interleaved auf sieben RAM-Bausteine verteilt. Hat man mehr, geht der Rest linear in den letzten Chip. Der Zugriff auf den achten Chip blockiert den gleichzeitigen Zugriff auf den siebten.

Deshalb kann man zu der Zeit nichts aus den unteren 3,5 GB lesen, weil man nicht auf alle sieben notwendigen RAM-Chips Zugriff hat.

Das offizielle Bild von Nvidia ist konsistent mit den Beobachtungen und erlaubt zu keinem Zeitpunkt einen Datendurchsatz über alle 256 Datenleitungen.

...hier.

Was aber NICHT geht, ist das "umschalten" vom 3.5+0.5GB in den 3+1GB

Einen 3,5GB und 0,5GB Modus gibt es nicht, es gibt einen 3,5GB oder 0,5GB Modus weil Block 7 + Block 8 nicht gemeinsam betrieben werden können.
Siehe hier http://www.3dcenter.org/artikel/nvidia-raeumt-das-35-gb-problem-der-geforce-gtx-970-ein
http://fs1.directupload.net/images/150129/temp/hme6quf7.jpg (http://www.directupload.net/file/d/3882/hme6quf7_jpg.htm)
Siehe dazu hier: http://www.3dcenter.org/news/das-speicherinterface-der-geforce-gtx-970-erreicht-nirgendwann-mehr-als-224-bit-ddr

3,5GB werden mit 7x32Bit=224Bit oder 0,5GB wird mit 32Bit angesteuert.
oder
3GB werden mit 6x32Bit=192Bit angesteuert und 2x 0,5GB werden mit 32Bit angesteuert.

Wenn ich mir das Diagramm zur Anbindung der GTX 970 ansehe dann sind das die 2 Möglichkeiten.

Alternativ könnte auch von Anfang an die Karte nur im 3+1GB Modus betrieben werden, das ist dann aber für 99% der aktuellen Anwendungszwecke die schlechtere und langsamere Lösung. (weil nur 192bit)

Das ist die Frage die ich schon vor langem gestellt habe, was ist schneller ?
3,5GB werden mit 7x32Bit=224Bit oder 0,5GB wird mit 32Bit angesteuert.
oder
3GB werden mit 6x32Bit=192Bit angesteuert und 2x 0,5GB werden mit 32Bit angesteuert.

Bei Möglichkeit 1 kann ich 3,5GB schnell benutzen und sobald ich die langsamen 0,5GB benutze stehen die 3,5GB still.
Bei Möglichkeit 2 kann ich 3GB schnell und gleichzeitig 1GB langsam benutzen.

Grüße Tomi

von Richthofen
2015-02-14, 00:17:40
Was aber NICHT geht, ist das "umschalten" vom 3.5+0.5GB in den 3+1GB Modus zur Laufzeit, weil man dazu alle bereits im RAM befindlichen 3.5GB an Daten zuerst komplett löschen und anschliessend neu reinladen müsste.
Alternativ könnte auch von Anfang an die Karte nur im 3+1GB Modus betrieben werden, das ist dann aber für 99% der aktuellen Anwendungszwecke die schlechtere und langsamere Lösung. (weil nur 192bit)

Was gibt es denn jetzt plötzlich noch alles für Modi?
Hier im Thread stehen zich plausibel dargelegte Erklärungen zu dem Problem bzw. der Arbeitsweise der Speicheranbindung.
Vllt. solltest du eine solche nochmal hernehmen und verinnerlichen.

Birdman
2015-02-14, 00:32:05
Bei Möglichkeit 2 kann ich 3GB schnell und gleichzeitig 1GB langsam benutzen.
Und wie soll der Treiber die Daten sinnvoll in diese zwei Bereiche reinschreiben?!?
Es gibt keine Möglichkeit diese zwei Bereiche sinnvoll interleaved zu nutzen.
Also müsste der Treiber "raten" wie er die Daten aufteilen soll dass etwa ein 6:1 Verhältnis bzgl. der Häufigkeit von Read/Write Requests auftritt, dabei ABER gleichzeitig im langsamen Bereich im Verhältnis doppelt so viele Daten ablegen wie in den andern Blöcken. (sonst würden die letzten zwei 0.5GB Blöcke nur gleich schnell gefüllt wie die andern sechs und wären damit nur halb voll wenn die andern sechs voll sind ---> wir sind wieder bei 3.5GB Memory Usage)

Das macht die Sache daher vier mal so schwierig und ist imho sinnlos überhaupt zu versuchen.

Tomislav
2015-02-14, 00:38:49
Hallo

Und wie soll der Treiber die Daten sinnvoll in diese zwei Bereiche reinschreiben?!?

Das weiß ich nicht...

Das dachte ich auch, bis rauskam dass beim Verwendung dieses Speicherbereiches nur noch 3GB des Vrams schnell sind.

...deswegen habe ich doch gefragt wann und wo das rausgekommen sein soll.

Es gibt keine Möglichkeit diese zwei Bereiche sinnvoll interleaved zu nutzen.

Das ist die Frage...

Man hätte 3 GB mit 192 Bit und 1 GB mit 32 Bit.

...die ich mir auf diese Aussage gestellt habe.

Es gibt also zwei Möglichkeiten:
3,5GB werden mit 7x32Bit=224Bit oder 0,5GB wird mit 32Bit angesteuert.
oder
3GB werden mit 6x32Bit=192Bit angesteuert und 2x 0,5GB werden mit 32Bit angesteuert.

Bei Möglichkeit 1 würden die 3,5GB still stehen wenn die 0,5GB benutzt werden und in der Zeit hätte man nur mit 32Bit Speicherzugriff.
Bei Möglichkeit 2 würde man immer gleichzeitig mit 192Bit die 3GB und mit 32Bit die 1GB ansprechen und man würde nie auf 32Bit alleine runter fallen.

Grüße Tomi

Pentium M
2015-02-14, 01:22:12
Fragen über Fragen.

Maorga
2015-02-14, 01:51:42
Es kann ja nur 192bit +32bit sein. So sollte sich die 'offizielle' Speicheranbindung nennen.
Wenn Block 7 oder 8 angesprochen wird (32 bit) können gleichzeitig Block 1-6 192bit angesprochen werden.
Leider kann man die Daten nicht optimal speichern wenn die vollen 4GiB ausgenutzt werden. Weil die Blöcke 7 und 8 eben nicht gleichzeitig angesprochen werden. Entweder sind 7 und 8 nur zur Hälfte befüllt, während die Blöcke 1-6 schon voll sind. Es gibt da keine saubere Lösung außer nur mit 128 bit zu schreiben also 1-6 machen das selbe was 7 und 8 machen.

nVidia nutzt also schon die beste Möglichkeit, um den Speicher 'effektiv' zu nutzen damit die Bandbreite nicht zu gering wird.


Zu den Vermutungen wie es sein kann, dass die Specs falsch raus gegeben worden sind ist ganz einfach. Marketing sagt wir brauchen 4 GB und 256bit Speicherinterface. R&D beschneidet den Chip - CEO bemerkt hey viel zu viel Power müss'n ma was machen. Cheff der Entwicklung - An den 4 GB und den 256bit dürfen sie ja nichts mehr ändern, also zerschneidet man den L2 mit angeschlossen MC damit hier ein Nadelöhr entsteht.

CEO vergleicht 970 mit der 980 sagt zum gut gemacht zur Entwicklung.

Produkt geht raus. Marketing macht bla bla und Entwicklung denkt sich nix dabei hat ja 256bit und 4 GB. Kommunikationsfehler naja nicht wirklich.

aths
2015-02-14, 02:52:39
Hallo

Hier schreibst du das ein Zugriff auf den achten 0,5GB Block den Zugriff auf den siebten 0,5GB Block blockiert und man den gesamten 3,5GB Block nicht benutzen kann weil man keinen Zugriff auf alle notwendigen sieben Ram Blöcke hat.

Jetzt schreibst du es ist möglich 3GB mit 192Bit anzusprechen und 1Gb mit 32Bit anzusprechen.

Woher kommt der Sinneswandel bzw. wie kann man 1GB (Block 7 + Block 8) mit 32Bit ansprechen wenn der Zugriff auf den achten Block den Zugriff auf den siebten Block blockiert ?

Also gibt es doch diese zwei Möglichkeiten:

Grüße Tomi
Wenn du die ersten sechs RAMs als einen Block immst, bleiben für die letzten beiden weiterhin nur 32 Bit. Das ganze Gigabyte muss linear angesprochen werden, ohne Interleaving (Interleaving bringt nichts durch den 32-Bit-Flaschenhals.)

Warum willst du 3 GB mit 192 Bit und 1 GB mit 32 Bit gleichzeitig ansprechen? Wenn man nur 3 GB braucht, was der Treiber vorher nicht weiß, wäre es noch immer günstiger, 3,5 GB mit 224 Bit einzustellen, anstatt 3 GB mit 192 Bit zu nutzen.

Man könnte nicht on the fly auf 3+1 umstellen. Es bringt auch nichts. Wenn du 4 GB belegst, musst du dann volle 1 GB mit langsamen 32 Bit auslesen. Die 3 GB können mit 192 Bit gelesen werden. Das ist zwar die dreifache Speichermenge, aber sechsfache Bandbreite. Bringt also nix, selbst wenn beide Bereiche gleichzeitig gelesen werden könnten. Das letzte GB bremst.



Es kann ja nur 192bit +32bit sein. So sollte sich die 'offizielle' Speicheranbindung nennen.
Es sind 224 Bit für 3,5 GB RAM. Oder 32 Bit für 0,5 GB.

Peter Gräber
2015-02-14, 09:21:10
Hallo

Bei älteren Spielen geht das wunderbar z.B. Duke Forever, Ghostbusters, UT3, GTA4, Flat Out, Pure, Dirt2 sehen grandios mit 4x DSR aus (+4x AA wo es geht) und rennen wie die Feuerwehr.

Grüße Tomi

Eben das ist der Punkt. Solange du in spielbaren Frame-Bereichen bleibst, rennt deine GTX 970 dort in 4K. Aber weder in FC4, oder ACU oder Shadows of Mordor oder eben sonstigen, aktuellen und fordernden Titeln. Da rennt nämlich auch keine GTX 980 ruckelfrei.

Thunder99
2015-02-14, 09:39:57
Eben das ist der Punkt. Solange du in spielbaren Frame-Bereichen bleibst, rennt deine GTX 970 dort in 4K. Aber weder in FC4, oder ACU oder Shadows of Mordor oder eben sonstigen, aktuellen und fordernden Titeln. Da rennt nämlich auch keine GTX 980 ruckelfrei.
SLI wäre da die einzige Lösung. Und da macht sich die andere Anbindung bemerkbar :(

Wer weiß ob ich überhaupt mit den Spielen wo kommen werden und ich haben möchte 4GB benötige. Der Umstand das aber das Produkt nicht das verspricht womit es beworben wurde (full speed bis 4GB) hat mich zum Tausch bewogen :wink:

Ich finde nvidia baut derzeit die besseren Produkte (und vor allem Gesamtpaket). Aber ehrlich gesagt schläft die Konkurrenz nicht so sehr wie einige evt glauben. AMD kann mehr als man glaubt. Z.b. geht der Takt dynamisch runter wenn ich am VSync 60fps klebe (spart Strom) ;)

Screemer
2015-02-14, 10:27:51
Eben das ist der Punkt. Solange du in spielbaren Frame-Bereichen bleibst, rennt deine GTX 970 dort in 4K. Aber weder in FC4, oder ACU oder Shadows of Mordor oder eben sonstigen, aktuellen und fordernden Titeln. Da rennt nämlich auch keine GTX 980 ruckelfrei.es ged dich explizit nicht nur um 4k. Jedem sollte bewusst sein, dass eine 970/80 schlicht zu kam dafür ist, auch wenn NV das im marketingmaterual anders darstellt. Es gibt spiele die die 970 auch anders zum straucheln bringen, die auf einer 980 wunderbar performen. Wurde doch jetzt schon zuhauf diskutiert. Coh2, skyrim mid mods, evolve, dying light, Ethan Carter, usw. Das sind Erfahrungswerte und nicht aus kurzen benchmarksequenzen und den damit verbundenen frametimes resultierende Schlussfolgerungen. Das man bei alten Titel noch zusätzlich DSR oder 4k-nativ und mit apielbaren fps nutzen kann ohne auf einer 980 Probleme und mit einer 970 eben stuttering zu haben, ist doch nur noch mal öl ins feuer.

Ich mag ja ht4u unglaublich gerne. Lese eure Tests immer sehr gerne. Derzeit frag ich mich aber warum Peter das Problem so zerreden muss.

Kriton
2015-02-14, 12:14:49
Berichtigt mich, wenn ich falsch liege, aber wird sich das Problem bei hochwertigeren Texturen nicht zeigen, ohne dass ich gleichzeitig entsprechend höhere Rohleistung benötige (Stichwort: Texturmods)?