PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Diskussion zur GTX970-Problematik: Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

Shaft
2015-01-24, 19:56:58
Moment Moment, die Benchmarks haben von Anfang an gezeigt, dass 4K selbst für eine GTX980 nicht unbedingt super toll ist. http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/8/#diagramm-watch-dogs-3840-2160


Ja, das kommt auf das Spiel, das WD AC:Unity usw nicht mehr Spielbar sind ist klar.


So, da wir jetzt wissen, dass es kein "Bug" ist, behalten die 970 Besitzer ihre Karte? Wechseln sie zu AMD? Oder gleich zu einer GTX980?

So eine 290X mit 8 GB würde ja schon ziemlich reizvoll sein, aber es gibt halt auch viele Benchmarks wo die GTX970 schneller ist. Außerdem weiß man nicht genau wie die Lautstärke ist, denn die AMDs sind schon Radaubrüder. Der Stromverbrauch sehe ich da jetzt nicht sooo kritisch.

GTX980 wäre klar schneller, aber auch eigentlich viel zu teuer in der Relation.

Oder einfach eine zweite 970, damit man die Performance aufwertet, wenn die 3,5 GB überschritten werden? ;)


Gute Frage, da ein Grafikkarten kauf ansteht. Moment sitze ich hier auf einer 260 GTX, Ersatzkarte, 560TI hat sich verabschiedet.

Für die 970 GTX spricht natürlich vorallen die hohe Leistung bei geringen Verbrauch. Und eigentlich die 4 GB Ram, was jetzt endlich eigentlich nur 3,5 sind.

Als Besitzer einer 970 würde ich sie wahrscheinlich behalten. Vermutlich wird es auch auf eine 970 bei hinauslaufen.


@Dargo, zwecks Stromverbrauch

Also da muss jeder für sich selbst entscheiden, für einige ist das ein Kriterium.

Birdman
2015-01-24, 19:57:27
:facepalm:
Ich kann diesen Blödsinn @Stromverbauch echt nicht mehr sehen. Ich hatte letztes Jahr 1260 KWh verbraucht. Und oh Wunder... da war noch Tahiti XT im Rechner. Wahnsinn, wieviel Strom die AMD-Karte zieht. :eek: :ucrazy:
Die Nebenkosten zahlt der Papa und die Ohren hab ich mir in der Disko eh kaputt gemacht.
Da kann ich auch problemlos zu AMD greifen, denn weder Strom noch Lautstärke interessieren mich.....auch nicht die 50€ die ich zusätzlich in ein stärkeres Netzteil investieren musste.

pr0g4m1ng
2015-01-24, 19:58:07
GTA V wird das nächste Game mit besseren Texturen sein und ob da 3GB reichen wage ich zu bezweifeln.

Bei Ram von "Reichen" zu sprechen ist immer so eine Sache. AFAIK war es doch bei GTAIV so, dass man mit weniger Grafikspeicher einfach standardmäßig weniger zu sehen bekam. Daher könnte die GTX 970 genau so schnell sein wie die GTX 980 oder eine Titan, wird halt "nur" weniger dargestellt. ;D

Grestorn
2015-01-24, 20:00:07
Aufkrawall: Mein Angebot Dir Deine GTX 970 abzukaufen steht immer noch... Mach mal ein Angebot!

tdon
2015-01-24, 20:02:22
Nicht immer nur auf 4k fokussieren, bei entsprechenden Texturen kann VRAM auch bei kleinen Auflösungen zum Mangel werden. In Unity sind die 3,5GB auf der 970 schon in 1080p schnell belegt.

dargo
2015-01-24, 20:02:39
Aufkrawall: Mein Angebot Dir Deine GTX 970 abzukaufen steht immer noch... Mach mal ein Angebot!
Guten Morgen. ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560533

In Unity sind die 3,5GB auf der 970 schon in 1080p schnell belegt.
Was immer noch nichts heißen muss.

Matrix316
2015-01-24, 20:03:47
Nicht immer nur auf 4k fokussieren, bei entsprechenden Texturen kann VRAM auch bei kleinen Auflösungen zum Mangel werden. In Unity sind die 3,5GB auf der 970 schon in 1080p schnell belegt.
Wobei das macht ja nix, weil bis inkl. 3,5 GB ist der Speicher ja noch schnell genug.

tdon
2015-01-24, 20:06:04
Wobei das macht ja nix, weil bis inkl. 3,5 GB ist der Speicher ja noch schnell genug.


Eine echte 4GB Karte nimmt sich 4GB. Muss trotzdem kein Problem sein, ist klar.

fondness
2015-01-24, 20:07:26
Edit: Zu spät.

Botcruscher
2015-01-24, 20:07:53
GTA V wird das nächste Game mit besseren Texturen sein und ob da 3GB reichen wage ich zu bezweifeln.

Nach leugnen sind wir jetzt bei beschwichtigen angekommen....

kruemelmonster
2015-01-24, 20:08:00
Das war zum Beispiel bei der GTX 660 Ti auch nicht der Fall. Nvidia gibt einen Ausbau von 2048 MB und eine Bandbreite 144.2 GB/sec an, obwohl nur 1.5 GB damit angesprochen werden und der Rest sich mit 48 GB/s zufriedengeben muss.

Bei der 660 Ti wurde es auch offen durch die Reviews kommuniziert, bei einer x70er SKU erwarte ich jedoch schlichtweg exakt das was auf dem Karton/im whitepaper steht. Wenn sich die letzten 0.5 GB nicht voll performant adressieren lassen hätte NV eben eine 3.5 GB GTX 970 rausbringen müssen, analog zur 896 MB GTX 260/275 damals.

Insofern bin ich da voll bei aufkrawall...

Nope, welcher HighEnd-Salvage (oder was dafür verkauft wird) konnte zuletzt den Speicher nicht genau so nutzen wie der Full-Chip mit gleicher Speichermenge?

...und auch froh über meine damalige Einstellung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10356622#post10356622) zum Launch.

Die große Sauerei ist imho letztendlich dass jetzt schon Spec-Schindluder mit der zweitgrößten SKU getrieben wird.

Grestorn
2015-01-24, 20:08:29
Guten Morgen. ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560533

Danke. Dass er immer noch mehr verlangt als für eine neue(!) R9 290 verlangt wird, kann ich aber nicht ganz verstehen. Stolzer Preis für eine solch extrem beschnittene Karte.

NemesisTN
2015-01-24, 20:09:16
:facepalm:

Ich kann diesen Blödsinn @Stromverbauch echt nicht mehr sehen. Ich hatte letztes Jahr 1260 KWh verbraucht. Und oh Wunder... da war noch Tahiti XT im Rechner. Wahnsinn, wieviel Strom die AMD-Karte zieht. :eek: :ucrazy:

Schön, ich hatte knapp 2000 kWh.
Und wenn du 3..4 solche Rechner rum stehen hast und da dran dauernd gedaddelt wird macht sich das schon bemerkbar.
Dir ist schon klar, dass ein HTPC auch mal länger an ist?
Blurays abspielen, TV aufnehmen, daddeln (klaro) und Blurays konvertieren kostet alles Zeit, in der der Rechner eben Strom zieht.

Da steht bei deinem Tahiti XT ca. 140 W gg. ca. 85 W bei der Wiedergabe von Filmen.
Beim daddeln sinds dann ca. 320 W zu 250 W.
(alles Gesamtsystem von den CB-Tests)

Strom sparen fängt auch bei kleinen Sachen an.
Psychologie spielt da eine große Rolle.

Ex3cut3r
2015-01-24, 20:10:35
Sehe ich genauso @ Krümel

Ich selber hab nicht zugegriffen bei der 970er, sonst wäre ich hier auch Stammgast, und wurde meine Wut hier kundtun.

Grestorn
2015-01-24, 20:15:23
Ich selber hab nicht zugegriffen bei der 970er, sonst wäre ich hier auch Stammgast, und wurde meine Wut hier kundtun.

Deine Wut über was? Performt die Karte auf einmal schlechter?

Was ich nicht verstehe: Ich kaufe doch eine Karte nicht auf der Basis der auf der Packung aufgedruckten Daten (das machen die Media Markt Käufer, die die Karte nach dem Namen und der Speichermenge auswählen) sondern ich schau mir die Tests an und entscheide dementsprechend.

Ist irgendeiner der Tests und Reviews auf einmal nicht mehr korrekt? Ist irgendwo gecheatet worden? Bekommen die Besitzer auf einmal eine schlechter funktionierende Karte als vor 2 Wochen, als noch alle zufrieden waren?

aufkrawall
2015-01-24, 20:16:28
Grestorns Einstellung hat sich wohl auch der japanische Konzern mit den defekten Airbags als Vorbild genommen.

Monsta
2015-01-24, 20:21:13
Ich finde es auch doof das nicht der volle Ram benutzt werden kann.
Aber da ich zwei 4k Displays habe gibt es leider keine richtige Alternative.
Außer die 980, für die ich aber zu geizig bin.

Kriton
2015-01-24, 20:22:27
Lesen und verstehen...

Das würde ich gern mal zurückgeben - siehe nachfolgend:

Als ich sagte:

Wenn Dein vermeintlicher 4k-Fernseher in Wirklichkeit beispielsweise nur 1920x1080 kann stört dich das eigentlich gar nicht, weil Du ja eh nur in 1920x1080 spielst.

bezog ich mich auf ein (fiktives) Szenario, in welchem Du einen vermeintlichen 4k-Fernseher gekauft hast, der aber in Wirklichkeit nur full HD kann (ich dachte das wäre ersichtlich, aber vielleicht hätte ich es besser erklären sollen). Was Dich aber nicht stören dürfte, da Du ja weiter in full HD spielen willst um annehmbare FPS zu haben.


Und 99,8 % aller (bewussten) Käufer der GTX970 denken wie ich...


Beliebte Aussage (im Internet): "(Fast) alle denken so wie ich."

Botcruscher
2015-01-24, 20:28:20
Performt die Karte auf einmal schlechter?
Ja. Jenseits der 3,5 GB auf jeden Fall.
Ist irgendeiner der Tests und Reviews auf einmal nicht mehr korrekt? Ist irgendwo gecheatet worden? Bekommen die Besitzer auf einmal eine schlechter funktionierende Karte als vor 2 Wochen, als noch alle zufrieden waren?
In den Tests ist es nicht aufgefallen und zur Zufriedenheit spar ich mir jetzt den Autovergleich. Vor 2 Wochen war man noch der Meinung den vollen Speicher richtig nutzen zu können.

Ex3cut3r
2015-01-24, 20:28:26
Deine Wut über was? Performt die Karte auf einmal schlechter?

Was ich nicht verstehe: Ich kaufe doch eine Karte nicht auf der Basis der auf der Packung aufgedruckten Daten (das machen die Media Markt Käufer, die die Karte nach dem Namen und der Speichermenge auswählen) sondern ich schau mir die Tests an und entscheide dementsprechend.

Ist irgendeiner der Tests und Reviews auf einmal nicht mehr korrekt? Ist irgendwo gecheatet worden? Bekommen die Besitzer auf einmal eine schlechter funktionierende Karte als vor 2 Wochen, als noch alle zufrieden waren?

Ja natürlich performt sie schlechter, oder willst du immer Stockler haben, sobald 3.5 GB rüber sind? :freak:

Da gibts gar nix zu diskutieren, dass so etwas einfach nicht geht. 4GB steht drauf, also erwarte ich als Kunde auch 4GB voll nutzbar und nicht 3,5.

Wer jetzt nicht einsieht, dass Nvidia hier großen Mist gemacht, ist ja wohl der ueber Fanboy...

kruemelmonster
2015-01-24, 20:30:38
@Grestorn:

Im Lowend wird seit jeher "kreativ" mit den Specs umgegangen, im oberen Produktsegment waren die Specs dagegen bisher immer wasserdicht. Das stört mich.

Auf dem Karton stehen 4 GB VRAM und 224 GB/sec, und meine Erwartungshaltung ist schlichtweg dass diese beiden Eigenschaften auch gemeinsam existieren.

Maorga
2015-01-24, 20:32:19
steht da nicht max. 224 GB/s?

Shaft
2015-01-24, 20:33:53
@Grestorn:

Im Lowend wird seit jeher "kreativ" mit den Specs umgegangen, im oberen Produktsegment waren die Specs dagegen bisher immer wasserdicht. Das stört mich.

Auf dem Karton stehen 4 GB VRAM und 224 GB/sec, und meine Erwartungshaltung ist schlichtweg dass diese beiden Eigenschaften auch gemeinsam existieren.


Ich denke das ist schon völlig indiskutabel.

Wenn ich eine Auto mit V8 kaufe, dann erwarte ich das der auch mit voller Leistung die 8 Zylinder nutzt und nicht aus irgendwelchen Gründen dann 2 Zylinder ausschaltet, weil der Hersteller mein es ist richtig so.

Vorallen den Kunden unwissen zu lassen.

Wieder schön der Autovergleich. :)

kruemelmonster
2015-01-24, 20:33:59
@Maorga:

Keine Ahnung, will jetzt auch nicht nachgucken.

Und genau DAS ist der Punkt: wenn ich die zweitgrößte SKU kaufe, habe ich nicht nachgucken zu müssen und das Kleingedruckte lesen zu müssen.

Maorga
2015-01-24, 20:38:20
Gibt es hier Leute mit einer Gigabyte 970 G1, anscheinend soll ein Biosupdate ein wenig helfen - kann dies jemand mal testen?

https://forums.geforce.com/default/topic/806255/geforce-900-series/psa-gigabyte-has-just-released-new-bios-update-for-all-gtx-970s/

Lurtz
2015-01-24, 20:40:44
Danke. Dass er immer noch mehr verlangt als für eine neue(!) R9 290 verlangt wird, kann ich aber nicht ganz verstehen. Stolzer Preis für eine solch extrem beschnittene Karte.
Warum sollte er weniger verlangen wenn der Marktpreis nunmal so liegt? :rolleyes: Immerhin erwähnt er die Problematik sogar explizit.

Kriton
2015-01-24, 20:52:16
Gute Frage, da ein Grafikkarten kauf ansteht. Moment sitze ich hier auf einer 260 GTX, Ersatzkarte, 560TI hat sich verabschiedet.


Musst du natürlich wissen, aber ich habe ein ähnliches Problem (mir war meine 4850 abgeraucht) und meine Ersatzkarte ist eine 560er, aber ich werde warten bis klar ist, welche Karten DX12 in HW unterstützen werden. Gerade wenn man seine Karten (so wie wir beide offenbar) länger nutzt würde ich mich ärgern wenn mir da auf Jahre hinweg der HW-Support fehlt.

steht da nicht max. 224 GB/s?

Nein. Nur auf der deutschen Website, aber der englischen kein max:

Memory Bandwidth (GB/sec) 224

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

Schnoesel
2015-01-24, 20:55:01
Ich mus schon sagen starkes Stück und das Statement das sie abgegeben haben ist also alles was sie sich seit einer oder 2 Wochen zu dem Thema haben einfallen lassen? SRSLY? Die haben echt gedacht es wird keiner checken, ich bin ehrlich gesagt erstaunt (hab ja eigentlich immer noch mit dem Treiberbug gerechnet).

Und es war wohl ein Fehler bei der GTX 660(ti) nicht auch schon auf die Barikaden zu gehen. Man kommt einmal davon ... man macht es wieder. Ich könnt lachen, wenn es für die ganze Branche nicht traurig wäre.

Nakai
2015-01-24, 20:55:05
Ich denke ein Grafiktreiber-Update kann da schon Linderung bringen, ansonsten lasst euch bei eure Shitstorm hier(ja, der Ton ist schon etwas verschärft worden) nicht stören. Woanders geht es deutlich krasser ab. :freak:

Seph
2015-01-24, 20:55:19
Bei der 660 Ti ist immerhin 1/4 des Speichers betroffen. Bei der 970 nur 1/8.

Ich hatte vor der 970 eine 660TI, im Vorfeld auch von dem Problem bei der Speicheranbindung gelesen, aber gekauft unter der Prämisse "Performance ist Performance" und hatte nie irgendwelche Probleme. Als die Karte dann die 60FPS bei hohen Einstellungen nicht mehr gepackt hat, habe ich halt neu gekauft. So wird es mit der 970 auch sein.

MartinRiggs
2015-01-24, 20:58:55
Ich denke ein Grafiktreiber-Update kann da schon Linderung bringen, ansonsten lasst euch bei eure Shitstorm hier(ja, der Ton ist schon etwas verschärft worden) nicht stören. Woanders geht es deutlich krasser ab. :freak:

Wo geht es denn krasser ab?

mironicus
2015-01-24, 21:03:44
Gibt es eigentlich ein paar GTX 980-Besitzer hier die ein wenig über diesen Thread schmunzeln können und dabei ein wenig Genugtuung empfinden? :D

MartinRiggs
2015-01-24, 21:05:29
Es sollte keiner Genugtuung empfinden, das ist einfach eine Sauerei.

Die NV-Fanboys spielen das jetzt runter und der Müll wird weiter empfohlen, das Statement von Nvidia ist für mich persönlich blabla.

NemesisTN
2015-01-24, 21:05:53
Das würde ich gern mal zurückgeben - siehe nachfolgend:

Korrektur


Verdammt, du hast Recht... =)

Und ja, selbst mit dem 4k-TV werde ich bei 1080p bleiben, weil es bisher keine Grafikkarte in der <200 W Klasse gibt, welche 4k flüssig bei max Details darstellen kann.

Der Desktop wird natürlich 4k sein und Videos in 4k spiele ich auch ab.
Primär geht es mir um mehr Platz fürs surfen bei einer UI-Skalierung > 120%
1080p ist da wie 800x600. -.-

Nakai
2015-01-24, 21:09:16
Wo geht es denn krasser ab?

https://forums.geforce.com/default/topic/806287/geforce-900-series/gtx-970-underperforms-by-nearly-30-/

https://forums.geforce.com/default/topic/806267/geforce-900-series/should-you-buy-a-gtx-970-short-answer-yes-/

https://www.reddit.com/r/pcmasterrace/comments/2tecja/all_gtx970s_have_a_huge_vram_issue_recall_may_be/

Wie gesagt, ich denke es wird eine Art Treiber/BIOS-Update geben, welche das Problem schonmal mildert. Ansonsten ist es eh derzeit ziemlich irrelevant, da es kaum Spiele gibt, die das Problem so richtig provozieren. Die Lebensdauer einer GTX970 könnte, wegen dem weniger gut nutzbarem RAM, etwas kürzer sein, als bei einer GTX980. Nochmal, die neuen Konsolen haben 8GB RAM, ergo kann es schon vorkommen, dass mehr als 4GB irgendwann benutzt werden. Die GTX970 sollte da etwas schlechter dann dastehen, auch wenn sich Auflösungen über FullHD und per Downsampling etablieren.

Matrix316
2015-01-24, 21:11:51
Zumindest sind die Karten nicht kaputt. ;)

Das heißt beim Verkaufen, kann man übliche Preise angeben...*g*

Ein Zitat vom Geforce Forum:
When will you refund the customers properly? Should be around 100€ per GTX 970.

Ist das eigentlich wirklich so? Sind Geforce Karten die 100 € weniger kosten (z.B. eine 770?) mit 4 GB VRAM wirklich gleich schnell oder schneller wie eine 970 in Settings wo 4 GB VRAM gebraucht werden?

Schaffe89
2015-01-24, 21:15:09
Jup man will Titan Performance für 300€ und jetzt wird geheult da der Chip beschnitten ist was bekannt war.


Du machst deinem Namen alle Ehre.
Bei einem derartigen AMD Problem gäbe es riesige Aufschreie, hier verteidigst du Nvidia sogar noch.
Das ist doch wirklich nicht begreifbar, wieviel Dummheit sich hier zusammenstaut, zieh dir den Dildo mal ausm Arsch.

von Richthofen
2015-01-24, 21:16:37
...das Statement von Nvidia ist für mich persönlich blabla.

Finde das ungewöhnlich zielgerichtet. Da hätte man noch mehr blabla befürchten müssen. Der Imageschaden wird wenn auch bestimmt nur gering sein. Dafür sitzt man aktuell zu fest im Sattel. Mal sehn was die Techseiten- Schreiberlinge am Mo. so loslassen.

aths
2015-01-24, 21:17:45
Bei der 660 Ti wurde es auch offen durch die Reviews kommuniziert, bei einer x70er SKU erwarte ich jedoch schlichtweg exakt das was auf dem Karton/im whitepaper steht. Wenn sich die letzten 0.5 GB nicht voll performant adressieren lassen hätte NV eben eine 3.5 GB GTX 970 rausbringen müssen, analog zur 896 MB GTX 260/275 damals.Ich habe es bei der 660 Ti so in Erinnerung, dass Nvidia von sich aus nichts dazu sagte. Einige Reviewer wiesen von sich aus darauf hin, dass das letzte halbe GB langsamer arbeiten müsste.

Die 970 hat 4 GB die sie offenbar auch ansprechen kann. Den einzigen Unterschied den ich zur 660 Ti sehe, ist, dass anhand des Speicherinterfaces (256 Bit) das Problem auch für technisch versiertere Reviewer nicht direkt ersichtlich ist.

Schaffe89
2015-01-24, 21:18:22
Naja, wenn ich 4GB bewerbe und nur 3,5gb wirklich anbiete, das ist schon ne Ecke bedenklicher als das fehlende Directx11.1.
Wenn das so ist werde ich meine GTX 970 jetzt zur RMA einsenden und eine r9 290x als Ersatz fordern.

aths
2015-01-24, 21:22:33
Gibt es eigentlich ein paar GTX 980-Besitzer hier die ein wenig über diesen Thread schmunzeln können und dabei ein wenig Genugtuung empfinden? :D
Ich schmunzele nicht. Einerseits ist auch die 980 nicht problemfrei, bei mir erkennt die Graka noch immer nicht zuverlässig beide Bildschirme beim Windows-Start. Ein Unding.

Dann hätte ich gerne flexibleres MFAA und kein künstlich eingeschränktes MFAA.

Die 970 sehe ich vom Preisleistungsverhältnis als die nach wie vor sinnvollere Karte, sofern es kein Spulenfiepen gibt.

aths
2015-01-24, 21:28:13
Es gibt einige Dinge, die mir noch nicht klar sind.

1. Die oberen 0,5 GB RAM. So wie ich Windows fahre (Aero, zwei Monitore) sind die oberen 0,5 GB in dem Nai-Tool auch auf der GTX 980 deutlich langsamer. Wenn man eine 970 so nutzt, verliert man dann noch mehr effektiven schnellen Speicher, oder setzt der Treiber das trotzdem ins obere halbe GB?

2. Die gemessene Bandbreite. Nur rund 80% der theoretischen Bandbreite misst das Tool. Ist der Overheav bei Cuda so groß?

3. Die Werte einer 970 liegen noch mal darunter. Es fehlen rund weitere 20%. Hat die 970 tatsächlich weniger nutzbare Bandbreite, auch in den unteren 3,5 GB?

tdon
2015-01-24, 21:34:59
Finde das ungewöhnlich zielgerichtet. Da hätte man noch mehr blabla befürchten müssen.


Ja nach dem die ersten Seiten es auf der Frontpage thematisiert haben, in diesem Fall englische Seiten. Vorher passierte nichts. Weder gab es eine Antwort auf die PCGH Nachfrage noch gab es eine Antwort im Forum, dort hatte sich ja schon vor 2 Wochen Nvidia nichtssagend geäußert (obwohl sie es wussten). Wie man sieht, kommt erst eine Reaktion nach genügend Druckaufbau zustande. Deutsche Medien haben versagt. Blauäugig auf eine Marketingantwort warten bringt nichts. Ohne dem Nai Tool hätten wir noch lange auf eine Antwort warten können, da hatten wir Glück. Es ist eine 3.5+0.5 GB Karte wenn man so will. Das muss Nvidia von Anfang an klarstellen.

DarknessFalls
2015-01-24, 21:37:16
Hatten wir das hier schon?

https://www.youtube.com/watch?v=ZQE6p5r1tYE

Die Grafikfehler sind wohl Shadowplay geschuldet, an den Stellen gab es Freezes. Sieht fies aus. Ist das bei Hitman und AC:U auch so?

tdon
2015-01-24, 21:38:24
2. Die gemessene Bandbreite. Nur rund 80% der theoretischen Bandbreite misst das Tool. Ist der Overheav bei Cuda so groß?



CUDA Takt liegt geringer, deswegen. 250 Mhz fehlen.

fondness
2015-01-24, 21:42:53
So einen Kunden wie dich kann sich jede Firma als Fanboy nur wünschen.

Ich habe ja nun reichlich Test incl Tabelle zur GTX970 und 980 gelesen, ausser das die 970 weniger Recheneinheiten stand da nirgendwo etwas das sie an anderen Stellen auch abgespeckt ist. Ja nun ist das aufgefallen. Das Verhalten sollte man klar verurteilen.

Und natürlich nimmst du nVidia in Schutz. Hinterfrage mal deine Aussagen wenn es ein anderer Hersteller wäre.

NV kann sich eben alles erlauben, es wird trotzdem gekauft. Kaputtes AF zum Launch wurde nicht mal bemerkt, diverse µRuckler-Problematiken die dargo thematisiert hat wurden nicht weiter beachtet, jetzt die Schweiner mit der GTX970. Ich möchte gar nicht wissen wie die Reaktionen ausgefallen wären, wenn sich AMD auch nur eines dieser Dinge geleistet hätte.

BitJäger
2015-01-24, 21:46:56
NV kann sich eben alles erlauben, es wird trotzdem gekauft. Kaputtes AF zum Launch wurde nicht mal bemerkt, diverse µRuckler-Problematiken die dargo thematisiert hat wurden nicht weiter beachtet, jetzt die Schweiner mit der GTX970. Ich möchte gar nicht wissen wie die Reaktionen ausgefallen wären, wenn sich AMD auch nur eines dieser Dinge geleistet hätte.

Ich glaube nicht das dieser Bug spurlos an Nvidia vorbei geht.

DarknessFalls
2015-01-24, 21:51:12
Ich glaube nicht das dieser Bug spurlos an Nvidia vorbei geht.

...wetten dass? ;)

Nakai
2015-01-24, 21:51:23
Ich frage mich eher, was die Auswirkungen auf GPGPU sind, weil es mich auch indirekt betreffen könnte. Derzeit gibt es noch keine professionellen Karten auf Maxwell-Basis, aber viele professionelle Karten sind immer schon beschnitten.
Wenn das Problem nur wegen dem beschnittenem L2-Cache vorherrscht, sollte das ja kein Problem sein, da ich nicht glaube, dass NV solch-beschnittene Karten für professionelle Zwecke missbraucht. Aber es wäre trotzdem sehr interessant, was bei realistischen GPGPU-Anwendungen passiert, wenn die GB-Schallmauer durchbrochen wird.

€:
...wetten dass? ;)

Es wird vorbeigehen, vor allem weil die meisten Hardware-Seiten das Problem eher abkochen, als aufkochen werden.

DarknessFalls
2015-01-24, 21:53:44
Es wird vorbeigehen, vor allem weil die meisten Hardware-Seiten das Problem eher abkochen, als aufkochen werden.

Das war die Intention meiner Antwort, ja. Wenn man mit cleverem Marketing, einer treuen Fangemeinde und hohem Marktanteil so an der Sonne sitzt, muss schon mehr passieren. Viel mehr.

Eigentlich bedauerlich, sowas gehört abgestraft. :(

Maorga
2015-01-24, 21:57:20
Ich denke mal man wird es mit einem Treiberupdate kaschieren können. Bessere Verteilung der Speicherbelegung sinkt zwar die Speicherbandbreite ein wenig sollte aber die Gemüter beruhigen.

Black-Scorpion
2015-01-24, 21:58:46
Ich glaube nicht das dieser Bug spurlos an Nvidia vorbei geht.
Bis jetzt ist noch alles an denen vorbei gegangen weil die Medien lieber den Arsch einziehen als auch nur ein schlechtes Wort zu schreiben.
Ich frage mich wie lange NV mit der Masche durchkommt. Kann ja sein das mal einer auf die Idee kommt die wegen vorsätzlichen Betrug zu verklagen. Gerade eine US Firma sollte das Risiko kennen.

dildo4u
2015-01-24, 22:02:46
Ich denke mal man wird es mit einem Treiberupdate kaschieren können. Bessere Verteilung der Speicherbelegung sinkt zwar die Speicherbandbreite ein wenig sollte aber die Gemüter beruhigen.
Der Treiber wurde schon optimal angepasst er versucht so lange wie möglich das Game in 3.5GB zu halten.Das selbe wurde bei der 660TI gemacht.

von Richthofen
2015-01-24, 22:04:19
Ich denke mal man wird es mit einem Treiberupdate kaschieren können. Bessere Verteilung der Speicherbelegung sinkt zwar die Speicherbandbreite ein wenig sollte aber die Gemüter beruhigen.

Gleich einen neuen Treiber mit bisher zurückgehaltener Performance oder Optimierung für einen speziellen (vllt. aktuellen) Titel bringen und erklären, das man die Speicherperformance aufgrund des herrschenden Missmutes weiter optimiert hat und die 970 nun eine noch schnellere Karte darstellt :eek:

Hübie
2015-01-24, 22:04:39
Die L2 Cache Slices sollten trotzdem einwandfrei funktionieren. Man muss sich da mal auf ein Tool einigen. Möglichst kein Datenbank-basiertes.

Grestorn
2015-01-24, 22:46:24
Ja. Jenseits der 3,5 GB auf jeden Fall. Deswegen performt sie schlechter als noch vor zwei Wochen?

Die Wunder der IT hören nie auf mich zu verblüffen :)


Ich glaube nicht das dieser Bug spurlos an Nvidia vorbei geht.
Es ist kein Bug. Wäre schön, wenn man aufhören würde, diesen Begriff falsch zu verwenden. Ein Bug ist ein *unfreiwilliger Fehler* und nicht eine bewusst in Kauf genommene technische Einschränkung.

Es ist aber zweifellos ein Mangel und ich bestreite keinesfalls, dass es für die Besitzer ein sehr ärgerlicher Mangel ist, weil man nicht davon ausgehen konnte, dass ein solcher Mangel vorhanden ist. Rechtlich wird man aber wohl nichts machen können, da ich kein rechtlich angreifbares Fehlverhalten von nVidia sehe. Denn die versprochenen und zugesicherten Eigenschaften sind alle vorhanden (insbesondere wenn die Speicherbandbreite mit "bis zu" angegeben sind).

Einen bösen Knick im Ruf und der Glaubswürdigkeit ist es dennoch, das bestreite ich bestimmt nicht. Und der Neuwert der Karten sollte sicher ein wenig sinken, so 10% wäre wohl zu erwarten. Mehr ist aber auch nicht gerechtfertigt.

maximus_hertus
2015-01-24, 23:01:03
Deswegen performt sie schlechter als noch vor zwei Wochen?

Die Wunder der IT hören nie auf mich zu verblüffen :)

Nein, sie performt nicht schlechter. Es ist schlicht ein Versäumnis der Reviewer die "Grenzen" auszutesten bzw. auf Probleme hinzuweisen.

Vielleicht performt die 970 ja in 1-2 Jahren nicht "nur" 20%, sondern deutlich schlechter als die 980. Speziell bei den min-fps. Das wäre eine schlechtere Performance "als vor 2 Wochen" in Bezug der Erwartungshaltung aufgrund der Werbung / Specs / Reviews.


Es ist kein Bug. Wäre schön, wenn man aufhören würde, diesen Begriff falsch zu verwenden.

Es ist zweifellos ein Mangel und ich bestreite keinesfalls, dass es für die Besitzer ein sehr ärgerlicher Mangel ist, weil man nicht davon ausgehen konnte, dass ein solcher Mangel vorhanden ist. Rechtlich wird man aber wohl nichts machen können, da ich kein rechtlich angreifbares Fehlverhalten von nVidia sehe. Denn die versprochenen und zugesagten Eigenschaften sind alle vorhanden (insbesondere wenn die Speicherbandbreite mit "bis zu" angegeben sind).

Einen bösen Knick im Ruf und der Glaubswürdigkeit ist es dennoch, das bestreite ich bestimmt nicht. Und der Neuwert der Karten sollte sicher ein wenig sinken, so 10% wäre wohl zu erwarten. Mehr ist aber auch nicht gerechtfertigt.

Nö, warum sollte der Preis sinken? Die GTX 970 verkauft sich extrem gut (für eine "High-End" Karte) und es ebbt nicht ab. Die breite Masse wird auch nichts von dem "VRAM-Problem" mitbekommen, also wird auch preislich nur eines tendenziell passieren: Der Preis wird leicht steigen (Euro/Dollar Kurs).

Edit: Ich sehe gerade, dass bei uns der Preis für die verfügbaren 970er im laufe der kommenden Woche um 10 Euro steigen wird. Im September hatten wir Gigabyte bzw. MSI Karten für 339 bzw. 349 Euro, in den kommenden Tagen stehen beide bei 399 Euro...

dildo4u
2015-01-24, 23:04:26
Vielleicht performt die 970 ja in 1-2 Jahren nicht "nur" 20%, sondern deutlich schlechter als die 980. Speziell bei den min-fps. Das wäre eine schlechtere Performance "als vor 2 Wochen" in Bezug der Erwartungshaltung aufgrund der Werbung / Specs / Reviews.


Dazu muss man keine 2 Jahre warten den Vram Heute zu füllen ist kein Problem.
Es ist genau wie bei der 680/670 770/760 davor,kackt die 670 ab bringt die 680 kein spielbares Ergebnis.

Grestorn
2015-01-24, 23:07:03
Dazu muss man keine 2 Jahre warten den Vram Heute zu füllen ist kein Problem.
Es ist genau wie bei der 680/670 770/760 davor,kackt die 670 ab bringt die 680 kein spielbares Ergebnis.

kein oder ein?

Blediator16
2015-01-24, 23:08:04
NV kann sich eben alles erlauben, es wird trotzdem gekauft. Kaputtes AF zum Launch wurde nicht mal bemerkt, diverse µRuckler-Problematiken die dargo thematisiert hat wurden nicht weiter beachtet, jetzt die Schweiner mit der GTX970. Ich möchte gar nicht wissen wie die Reaktionen ausgefallen wären, wenn sich AMD auch nur eines dieser Dinge geleistet hätte.

Natürlich werden sie das. Sämtliche "smoothness" Benchmarks und FCAT Messungen sind vollkommen von der Agenda verschwunden:freak:

Hübie
2015-01-24, 23:17:59
Das ist nicht richtig, Blediator16, und das weißt du. Wenn nicht bist du nicht in der Lage zu recherchieren. In diesem Falle gibt es Fachlektüre.

dildo4u
2015-01-24, 23:29:39
Natürlich werden sie das. Sämtliche "smoothness" Benchmarks und FCAT Messungen sind vollkommen von der Agenda verschwunden:freak:

Der Test ist 2 Tage alt:

www.pcper.com/image/view/51793?return=node%2F62176


970 4K Test

www.pcper.com/image/view/46459?return=node%2F61236

duzenko
2015-01-24, 23:36:43
Hier is ein Test fuer alle Karten (und Intel auch)
Der Test http://files.webfile.ru/eb5645b9596c5eb9b8c67214b65084c1
Delphi Program Text http://files.webfile.ru/7298ebd9dbebccd4a55a6079ff06f469
http://firepic.org/images/2015-01/25/6y7bpkbw5i10.png

M4xw0lf
2015-01-24, 23:37:43
Der Test ist 2 Tage alt:

www.pcper.com/image/view/51793?return=node%2F62176
Und wo ist da eine GTX 970?
Ah, jetzt.

HarryHirsch
2015-01-24, 23:44:44
Hier is ein Test fuer alle Karten (und Intel auch)
Der Test http://files.webfile.ru/eb5645b9596c5eb9b8c67214b65084c1
Delphi Program Text http://files.webfile.ru/7298ebd9dbebccd4a55a6079ff06f469
http://firepic.org/images/2015-01/25/6y7bpkbw5i10.png

Läuft hier nicht.

dildo4u
2015-01-24, 23:48:33
NV scheint zur Zeit eh das besser V-Ram Management zu haben,man sehe sich die Einbrüche der 285 gegenüber der 280 an.

http://youtu.be/CyYvoQPYPbs


Wer weiß ob man überhaupt das Szenario herstellen kann wo z.b die 290X die 970 deutlich abzieht.

HarryHirsch
2015-01-24, 23:59:07
NV scheint zur Zeit eh das besser V-Ram Management zu haben,man sehe sich die Einbrüche der 285 gegenüber der 280 an.

http://youtu.be/CyYvoQPYPbs


Wer weiß ob man überhaupt das Szenario herstellen kann wo z.b die 290X die 970 deutlich abzieht.

Link zum Testsystem?

AngelDust 32
2015-01-24, 23:59:50
Wer weiß ob man überhaupt das Szenario herstellen kann wo z.b die 290X die 970 deutlich abzieht.

http://www.computerbase.de/2014-10/ryse-benchmark-grafikkarten-vergleich-test/#diagramm-grafikkarten-benchmarks-1920-1080

hat aber nichts mit dem Thema zu tun.

keine Ahnung wiso das von dir immer wieder kommt.

Schnoesel
2015-01-25, 00:04:01
Jetzt auch im Geforce Forum:

https://forums.geforce.com/default/topic/803518/geforce-900-series/gtx-970-3-5gb-vram-issue/post/4432672/#4432672

tdon
2015-01-25, 00:05:52
Hier is ein Test fuer alle Karten (und Intel auch)
Der Test http://files.webfile.ru/eb5645b9596c5eb9b8c67214b65084c1
Delphi Program Text http://files.webfile.ru/7298ebd9dbebccd4a55a6079ff06f469
http://firepic.org/images/2015-01/25/6y7bpkbw5i10.png


Funktioniert nicht wenn ich CUDA auswähle.

duzenko
2015-01-25, 00:24:19
Läuft hier nicht.
Funktioniert nicht wenn ich CUDA auswähle.
Is there anything on the screen when you run the test from the command line?

tdon
2015-01-25, 00:27:26
Is there anything on the screen when you run the test from the command line?


It says using device GTX 970 and nothing happens.

http://fs2.directupload.net/images/150125/sjz5fqkh.png

HarryHirsch
2015-01-25, 00:30:32
Same here with Hawaii and OpenCL.
CPU-Test runs fine but only uses 1GB out of 16GB.

dildo4u
2015-01-25, 00:39:40
970 SLI Test Mordor in 4k 4GB V-Ram Belegt


www.neogaf.com/forum/showpost.php?p=148983887&postcount=281

duzenko
2015-01-25, 00:43:32
There is a file named membench.cl
Try to change int4 to float4 on lines 1 and 3. Maybe also 123 to 123, 123.0, or 123.0f.
I wonder if NVidia does not support integer data types

tdon
2015-01-25, 00:55:41
I've tried all of this this but no luck.

urbi
2015-01-25, 01:25:06
Bei den Benchmarks sind ja erhebliche Schwankungen bei den FPS erkennbar. Wie es zu erwarten war. Danke für den Post.

[...]Es ist kein Bug. Wäre schön, wenn man aufhören würde, diesen Begriff falsch zu verwenden. Ein Bug ist ein *unfreiwilliger Fehler* und nicht eine bewusst in Kauf genommene technische Einschränkung.

Es ist aber zweifellos ein Mangel und ich bestreite keinesfalls, dass es für die Besitzer ein sehr ärgerlicher Mangel ist, weil man nicht davon ausgehen konnte, dass ein solcher Mangel vorhanden ist. Rechtlich wird man aber wohl nichts machen können, da ich kein rechtlich angreifbares Fehlverhalten von nVidia sehe. Denn die versprochenen und zugesicherten Eigenschaften sind alle vorhanden (insbesondere wenn die Speicherbandbreite mit "bis zu" angegeben sind).

Einen bösen Knick im Ruf und der Glaubswürdigkeit ist es dennoch, das bestreite ich bestimmt nicht. Und der Neuwert der Karten sollte sicher ein wenig sinken, so 10% wäre wohl zu erwarten. Mehr ist aber auch nicht gerechtfertigt.

Auch dafür danke. Ich glaube damit hast du etwas Druck aus dem Karton genommen. Ich verstehe nicht wie man überhaupt nicht nachvollziehen kann, dass man sich als Käufer dieser Karten ärgert.

An einer Stelle möchte ich dir aber widersprechen: IMO stellt diese Besonderheit der GTX 970 sehr wohl einen Sachmangel dar. Der Speicher ist faktisch zwar vorhanden aber in seinem Nutzwert extrem beschränkt, was aus den technischen Daten nicht hervor geht. Damit dürfte ersteres kaum eine Rolle spielen. Der Sachmangelbegriff im deutschen Recht ist subjektiv, es kommt immer darauf an was die Parteien - also auch der Käufer - wollen und vereinbaren, nicht ob im technischen Sinne ein Defekt vorliegt. Bei der GTX 970 wird daher ganz regelmäßig ein Mangel nach § 434 Abs. 1 S. 2 Nr. 2 BGB in Verbindung mit S. 3 vorliegen, weil aus den "Technischen Daten" von NVIDIA und den Partnern die Einschränkung hinsichtlich des Rams nicht hervorgeht. Als Käufer muss man auf dieser Grundlage nicht damit rechnen. Noch ist es ja zum Glück auch eher unüblich, dass Highend-Grafikkarten derartig beschnitten sind.

aths
2015-01-25, 01:45:37
Die Nvidia-Beispielbenches zeigen bei den Settings "> 3.5 GB" auch bei der GTX 980 erhebliche Performance-Einbußen. Die Frage ist, was "> 3.5 GB" darstellt. Möglicherweise etwas wie 4.5 GB, wo beide Karten auslagern müssen?

Oder hat die 980 in gängigen Windows-Settings (Aero, möglicherweise mehrere Monitore) auch nur 3.5 "effektiv", da der Rest vom Windows-Fenstermanager belegt wird?

Grestorn
2015-01-25, 01:55:20
Die Settings > 3,5 GB in den Beispielbenchmarks haben ja auch eine höhere Auflösung (DSR, Supersampling) deswegen ist es kaum überraschend, dass sie deutlich geringere Frameraten als die < 3,5 GB Benches haben.

Der bemerkenswerte Unterschied ist aber, dass der Einbruch bei der GTX 970 etwas stärker als bei der GTX 980 ist.

Wenn der Unterschied aber immer so gering ist wie in diesen Beispielen, dann empfinde ich das eher als Sturm im Wasserglas. Es ist dringend notwendig, dass jemand eine ausführliche Testserie macht, um den praktischen, realen Verlust durch den Effekt nachzuweisen. Erst dann kann man objektiv eine Aussage treffen, wie schmerzhaft dieser technische Nachteil tatsächlich ist. Wegen einem 10% höheren Einbruch (verglichen mit der 980) bei Spielen, die mehr als 3,5 GB belegen, sollte man eigentlich kein großes Gedöns machen. Wenn es 50% wären, sieht die Sache aber anders aus.

-/\-CruNcher-/\-
2015-01-25, 02:10:12
6y_GEvObFRQ

Dieser beste Reviewer test basierte noch auf dem Review Launch treiber 344.07

Was ich bei diesem Test aber immernoch ankreide ist nur 1 Video result das darf nicht sein für einen ehrlichen FCAT bassierten test müssen alle Temporalen visuel sichtbaren Render Ergebnisse jeder getesteten Karte und des Treibers offengelegt werden vom Reviewer.

Die GTX 970 ist am Edge für 4K unter DX11 was man in verschiedenen Engines sehr deutlich an doch erheblichen einbrüchen erkennen kann und konnte ;)

Die Performance hat sich allerdings nachweislich seit dem Review Treiber verbessert sodas dieser test selbst nicht mehr aktuell ist und erstmal als obsolete angesehen werden kann.

Hübie
2015-01-25, 02:36:12
Willst du das durch einen Debugger jagen oder was willst du uns mitteilen? Ich versteh nicht immer was du genau sagst weil einfach schwammig irgendwelche Wörter benutzt die meist keinen Sinn ergeben :redface:

-/\-CruNcher-/\-
2015-01-25, 02:40:45
Nein zuerstmal würde ich gerne sehen das alle Reviewer Weg von dem Balkenschrott gehen ein für allemal und nur noch Realtime Video Results releasen mit Frametimes und wenn sie High Efficient genug sind mit gleichzeitigem Energieverbrauch.

Hübie
2015-01-25, 03:03:25
Ähm. Ich will dich deiner Illusion nicht berauben aber dieses overlay was man dort sieht ist hinein bearbeitet worden. Das sind wahrscheinlich frapswerte die halt auf einem Graphen abgebildet werden. Das kann man mit mathlab z. B. auch machen. Das zu programmieren sollte auch nicht schwer sein da man im Vorfeld nur die .csv-Datei abspulen muss und fertig.

-/\-CruNcher-/\-
2015-01-25, 03:12:13
Nein Digitalfoundry sind so ziemlich die einzigen die eine FCAT Benchmark methodology nutzen die mit gleichzeitigen visuellen ergebnissen auch sinn macht.

b6LUufXCPDM

Leider nutzt das nichts wenn nicht alle Render Ergebnisse auch gleichzeitig für den User sichtbar sind wie hier z.b der fall (wenn auch nicht exakt die selben)

ZFbLx9eaGTE

BitJäger
2015-01-25, 07:24:59
Linus Torvalds: Nvidia, Fuck You!

https://www.youtube.com/watch?v=iYWzMvlj2RQ#t=25

RoughNeck
2015-01-25, 08:14:49
Ich glaube nicht das dieser Bug spurlos an Nvidia vorbei geht.

Dieser BUG wird den Verkaufszahlen der 970 nicht schaden, da bin ich ganz sicher. Im PCGH Forum liest man schon das diverse User es herunterspielen.

Grestorn
2015-01-25, 08:46:16
Dieser BUG wird den Verkaufszahlen der 970 nicht schaden, da bin ich ganz sicher. Im PCGH Forum liest man schon das diverse User es herunterspielen.

Man kann auch sagen, dass diverse User hier (und anderswo) den Mangel (es ist kein Bug, verdammt nochmal) unglaublich dramatisieren und hochspielen. Als ob die Karte auf einmal nicht mehr nutzbar wäre.

Beides - bagatellisieren und dramatisieren - ist völlig unangebracht. Das Ergebnis dieser Sache sollte sein, dass die Hersteller in Zukunft auch mit Nachteilen einer Architektur von Anfang an offen umgehen. Hätte nVidia das gemacht, wäre überhaupt nichts passiert und die GTX 970 wäre fast genauso beliebt gewesen, wie sie vor der Entdeckung dieses Nachteils war - ohne den üblen Beigeschmack, den es jetzt hat.

BitJäger
2015-01-25, 08:54:16
Dieser BUG wird den Verkaufszahlen der 970 nicht schaden, da bin ich ganz sicher. Im PCGH Forum liest man schon das diverse User es herunterspielen.


Klar das sind Käufer welche unerschütterlich an ihrer Kaufentscheidung fest halten werden. Auch würde es mich nicht wundern wenn nun NV versucht mit "allen" Mitteln das "Problem" zu beschönigen und her runter zu spielen.

boxleitnerb
2015-01-25, 08:58:58
Weiß man inzwischen, wie langsam die 500 MB wirklich sind? Da Nais Benchmark nur 3,5 GB ansprechen kann so wie ich das verstanden habe und der Rest nicht im VRAM, sondern im System-RAM getestet wird, sind die Ergebnisse dazu ja eher fragwürdig.

Auch wäre ein ausführlicher Test von unabhängiger Seite wünschenswert, denn bzgl. der tatsächlichen Auswirkungen bei sowohl fps als auch Nachladerucklern bin ich nach der ganzen Diskussion noch verunsichert. Laut den NV-Tests sind zumindest die reinen mittleren fps praktisch nicht betroffen, über kleine Ruckler sagt das aber natürlich nichts aus.

Schnoesel
2015-01-25, 08:59:41
Beschönigen und relativieren machen schon die grünen Forumssoldaten keine Sorge. Aber was im Geforce Forum abgeht ist eine andere Qualität. Die sind wirklich angepisst.

fondness
2015-01-25, 09:40:01
Das Problem beginnt ja schon damit das man versucht ein solches "Problem" anhand der fps zu quantifizieren. Viel interessanter wären die Frametimes, anhand derer es ja auch aufgefallen ist. Wenn bei einem Frame ein teil der benötigten Daten im "schnellen" und ein Teil im "langsamen" VRAM liegt und beim nächsten wieder alles im "schnellen" VRAM führt das natürlich zwangsläufig zu unschönen Verzögerungen, ähnlich den Verhalten eines zu kleinen VRAM den man eh schon kennt. Die Frage ist - und die hat NV ja auch nicht beantwortet - wie schnell oder langsam die letzten 500MB jetzt sind. Offensichtlich sind sie langsam genug das es aufgefallen ist.

Dawn on Titan
2015-01-25, 09:50:48
Wer macht mit bei RMA wegen Sachmangel?

fondness
2015-01-25, 09:52:33
Also im Nvidia-Forum offenbar einige, da geht so manchen die Galle hoch.

BitJäger
2015-01-25, 10:22:35
... da geht so manchen die Galle hoch

Das kann ich sehr gut verstehen. Als 970er Kunde (oder heißt es Betroffener oder Opfer?) gänge mir das auch so.

Lowkey
2015-01-25, 10:30:28
Ich hoffe doch auf einen umfangreichen Test mit sämtlichen Nvidia Karten in absehbarer Zeit zu lesen.


100.000 User kaufen eine 970 und nach 3 Monaten wird ein dicker Bug gefunden. Wo steckt die Fachpresse wenn man sie braucht ;)

-/\-CruNcher-/\-
2015-01-25, 10:41:39
Das Problem beginnt ja schon damit das man versucht ein solches "Problem" anhand der fps zu quantifizieren. Viel interessanter wären die Frametimes, anhand derer es ja auch aufgefallen ist. Wenn bei einem Frame ein teil der benötigten Daten im "schnellen" und ein Teil im "langsamen" VRAM liegt und beim nächsten wieder alles im "schnellen" VRAM führt das natürlich zwangsläufig zu unschönen Verzögerungen, ähnlich den Verhalten eines zu kleinen VRAM den man eh schon kennt. Die Frage ist - und die hat NV ja auch nicht beantwortet - wie schnell oder langsam die letzten 500MB jetzt sind. Offensichtlich sind sie langsam genug das es aufgefallen ist.

Du spielst es aber auch ganz schön hoch vor allem in anbetracht dessen das es ziemlich wahrscheinlich ist das der jetzige VRAM verbrauch in Zukunft eher sinken wird selbst mit veraltetem texturformat.

aufkrawall
2015-01-25, 10:43:07
Es ging noch nie so gut wie nie um irgendwelche avg-fps, sondern um starke Ruckler aka Frametime-Spikes.
Warum sind einige hier so informationsresistent? Sich blödstellen als Agenda, wie NV?

-/\-CruNcher-/\-
2015-01-25, 10:48:18
Deswegen nehme ich diese basher schonmal überhaupt nicht ernst genug hier mitreden zu können, ganz einfach, die fallen gleich sowieso hinten durch.
Jeder der nur FPS erwähnt internal "Strike" ;)

Und ja ich bin ziemlich enttäuscht von Scott Wason was diese unkritische sichtweise auf Nvidias Statement angeht gerade er sollte es besser wissen wie unwichtig FPS resultate sind :(

horn 12
2015-01-25, 10:54:13
Jene schweigt oder spielt das Ganze einfach etwas mehr als runter
Man will NV ja nicht verärgen :-)
Wäre es AMD wäre das Netz voll von Berichten aller Hardwareseiten!

Wohl der Grund warum die GTX 970 so billig von Nvidia angeboten wurde (329 Euro als Release- Preis)
Somit ist NV aus dem Schneider und erzählt einer beschnittenen GPU inkl. Speicher!

Isen
2015-01-25, 11:00:31
Gab es in der DDR auch. Die war schnell weg. :P

-/\-CruNcher-/\-
2015-01-25, 11:01:07
Solch eine Verzerrung darf man nicht zu lassen wenn dann muss es fair bleiben und alle mit ihren Problemen gleichermasen konfrontiert werden egal ob IHV oder Entwickler.


Wohl der Grund warum die GTX 970 so billig von Nvidia angeboten wurde (329 Euro als Release- Preis)
Somit ist NV aus dem Schneider und erzählt einer beschnittenen GPU inkl. Speicher!


Das halte ich für legitim als Grund eine Kostensenkung deren Auswirkungen im Gesamten im Design sowie Preis/Leistung gut durchdacht ist momentan aber noch zu "kleineren" problemen führen kann je nach Anwendungszenario und Systemkonfiguration.

BitJäger
2015-01-25, 11:36:07
Die PCGH Redaktion äußert sich dazu. (http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/News/3-5-GiB-nutzbarer-VRAM-1147764/)

dargo
2015-01-25, 11:38:58
Die haben dort schon den 26.01.15? :tongue:

-/\-CruNcher-/\-
2015-01-25, 11:46:14
Spiele bei denen diese Einschränkung zu richtig übellen problemen führt sollte man eh erstmal meiden bzw den Entwickler ruihg darauf aufmerksam machen ;)

y33H@
2015-01-25, 12:01:58
Hier das Zitat und nicht nur den Link ;-)

The GeForce GTX 970 is equipped with 4GB of dedicated graphics memory. However the 970 has a different configuration of SMs than the 980, and fewer crossbar resources to the memory system. To optimally manage memory traffic in this configuration, we segment graphics memory into a 3.5GB section and a 0.5GB section. The GPU has higher priority access to the 3.5GB section. When a game needs less than 3.5GB of video memory per draw command then it will only access the first partition, and 3rd party applications that measure memory usage will report 3.5GB of memory in use on GTX 970, but may report more for GTX 980 if there is more memory used by other commands. When a game requires more than 3.5GB of memory then we use both segments.

We understand there have been some questions about how the GTX 970 will perform when it accesses the 0.5GB memory segment. The best way to test that is to look at game performance. Compare a GTX 980 to a 970 on a game that uses less than 3.5GB. Then turn up the settings so the game needs more than 3.5GB and compare 980 and 970 performance again.51007
On GTX 980, Shadows of Mordor drops about 24% on GTX 980 and 25% on GTX 970, a 1% difference. On Battlefield 4, the drop is 47% on GTX 980 and 50% on GTX 970, a 3% difference. On CoD: AW, the drop is 41% on GTX 980 and 44% on GTX 970, a 3% difference. As you can see, there is very little change in the performance of the GTX 970 relative to GTX 980 on these games when it is using the 0.5GB segment.

http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/News/3-5-GiB-nutzbarer-VRAM-1147764/

Ätznatron
2015-01-25, 12:02:41
Spiele bei denen diese Einschränkung zu richtig übellen problemen führt sollte man eh erstmal meiden bzw den Entwickler ruihg darauf aufmerksam machen ;)

Die GTX 970 ist halt eine völlig überteuerte Karte für den wenig ambitionierten Gelegenheitsspieler.

Ätznatron
2015-01-25, 12:04:32
Hier das Zitat und nicht nur den Link ;-)

51007


http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/News/3-5-GiB-nutzbarer-VRAM-1147764/

@y33H@

Ist doch schon längst bekannt.

InsaneDruid
2015-01-25, 12:06:12
Leute.. 512MB! Wir sprechen hier nicht von +-2GB. Wenn die nächste Stufe des Verbrauchs kommt kann auch die 4GB Riege die Koffer packen. Plus dem Umstand dass die 512MB für Sachen wie den Window Manager etc noch genutzt werden können.

Ätznatron
2015-01-25, 12:08:59
Leute.. 512MB! Wir sprechen hier nicht von +-2GB. Wenn die nächste Stufe des Verbrauchs kommt kann auch die 4GB Riege die Koffer packen. Plus dem Umstand dass die 512MB für Sachen wie den Window Manager etc noch genutzt werden können.

Andere 4GB-Karten ohne die 3,5 GB-Kastration nutzen den "Window-Manager" etwa nicht?

DarknessFalls
2015-01-25, 12:12:13
Es ist doch irrelevant, von wie viel hier gesprochen wird. Es geht mir nicht in den Schädel, wie manche hier nV bis aufs Blut verteidigen und die Sache herunterspielen. Was ist so schwer daran zu verstehen, dass hier die Käuferschaft verarscht wurde? Wenn ich eine 4GB-Karte kaufe, kann ich doch wohl erwarten, dass diese 4GB auch vernünftig genutzt werden können und ich nicht mit Einschränkungen in diesem Szenario zu rechnen habe.

Spiele bei denen diese Einschränkung zu richtig übellen problemen führt sollte man eh erstmal meiden bzw den Entwickler ruihg darauf aufmerksam machen ;)

Ich hoffe, ich interpretiere den Smiley richtig als einen Hinweis auf Sarkasmus?

-/\-CruNcher-/\-
2015-01-25, 12:12:45
Die GTX 970 ist halt eine völlig überteuerte Karte für den wenig ambitionierten Gelegenheitsspieler.

Was soll man dazu großartig sagen als abwarten ;)

Es ist doch irrelevant, von wie viel hier gesprochen wird. Es geht mir nicht in den Schädel, wie manche hier nV bis aufs Blut verteidigen und die Sache herunterspielen. Was ist so schwer daran zu verstehen, dass hier die Käuferschaft verarscht wurde? Wenn ich eine 4GB-Karte kaufe, kann ich doch wohl erwarten, dass diese 4GB auch vernünftig genutzt werden können und ich nicht mit Einschränkungen in diesem Szenario zu rechnen habe.



Ich hoffe, ich interpretiere den Smiley richtig als einen Hinweis auf Sarkasmus?

Sorry aber ich habe schonmal versucht klar zu machen das die sich selber verarschen wenn sie nur auf FPS schauen und ihrer "Balkengeilheit" freien lauf lassen teils tragen auch die Reviewer eine nicht unerhebliche Mitschuld.

y33H@
2015-01-25, 12:14:36
Theoretisch sollen die L2-Partitionen an die einzelnen 64-Bit-Controller gekoppelt sein. Die 970 hat wie die 980 ja volle 256 Bit, d.h. auf dem Papier 2 MB L2. Hat NV die Möglichkeit, alle 64er Controller aktiv zu lassen, aber einen L2-Block zu deaktivieren? IMHO ja - sorry, falls das schon besprochen wurde ...

@ Ätznatron

Ja, aber nur als Link ohne Quote und Bild. IMHO besser, beides hier auch im Thread zu haben.

Isen
2015-01-25, 12:16:18
Spiele bei denen diese Einschränkung zu richtig übellen problemen führt sollte man eh erstmal meiden


Ja... soll ich dann auf die Gnade der Entwickler hoffen?
Nee.... wenn das Produkt (Graka) mir sagt du hast X und ich bekomme sie aber nicht, weswegen ich es nicht zocken kann, dann renn ich doch nicht zum Game-Entwickler und Heule da rum... wie unsinnig ist eine solche denke bitte.
Ich renn dann zum Händler und schiebe das Problem sofort ab, und lass mich nicht von irgendwelchen Furzköppen vertrösten, weil nvidia meint, es nicht vorher genannt zu haben :-)

Nakai
2015-01-25, 12:23:57
Theoretisch sollen die L2-Partitionen an die einzelnen 32-Bit-Controller gekoppelt sein. Die 970 hat wie die 980 ja volle 256 Bit, d.h. auf dem Papier 2 MB L2. Hat NV die Möglichkeit, alle 32er Controller aktiv zu lassen, aber einen L2-Block zu deaktivieren? IMHO ja - sorry, falls das schon besprochen wurde ...


Darüber wird ja auch spekuliert. IMO kann es nicht der Aufbau sein, der in den Reviews dargestellt wurde. Bei AMD ist der L2-Cache an den MCs gekoppelt(Hawaii: 64KB pro 32Bit). Bei NV wissen wir nicht viel. Wir wissen nur, dass es "ROP-Partitionen" gibt. Um ehrlich zu sein, macht es keinen Sinn, dass der L2-Cache an den ROPs gekoppelt wäre, aber wer weiß. Eigentlich sollte alles durch den L2-Cache gehen bzw. direkter Speicherzugriff eher nicht möglich sein.

Eventuell sollte die Redakteure da mal deutlich besser nachfragen.

Langenscheiss
2015-01-25, 12:30:39
Haben die bei NV ernsthaft damit gerechnet, dass das keinem auffallen wird? Wenn eine langsamere Speicheranbindung für einen Teil des VRAMS zu schlecht zu vermarkten ist, dann verbaut/aktiviert halt nur 3.5 GB! Aber sowas ist übelste Kundenverarsche, ganz gleich in welcher Situation (Game) und in welcher Form (avg vs. spikes) sich das Problem äußert.

aufkrawall
2015-01-25, 12:34:47
Habe nun den Vergleich zwischen 290X und 970 bei Skyrim mit Mods im selben System:
Die 290X kann sich problemlos 3,8GB genehmigen, dabei stockt es nicht.
Die 970 versucht ständig, unter 3,5GB zu bleiben. Da der VRAM nicht so sehr zu knapp ist (1440p, nur Post-AA), sind die Stocker meist nicht extrem, aber manchmal kann es auch kurz derbe hängenbleiben.

Monsta
2015-01-25, 12:36:11
Es ist doch irrelevant, von wie viel hier gesprochen wird. Es geht mir nicht in den Schädel, wie manche hier nV bis aufs Blut verteidigen und die Sache herunterspielen. Was ist so schwer daran zu verstehen, dass hier die Käuferschaft verarscht wurde? Wenn ich eine 4GB-Karte kaufe, kann ich doch wohl erwarten, dass diese 4GB auch vernünftig genutzt werden können und ich nicht mit Einschränkungen in diesem Szenario zu rechnen habe.



Ich hoffe, ich interpretiere den Smiley richtig als einen Hinweis auf Sarkasmus?

Weil ich zb. die 970 nicht wegen dem Ram gekauft habe, sondern wegen der Leistung, Features, Stromverbrauch, und das ich zwei 4k displays anschließen kann.
Letzteres kann nur noch die 980 oder die alte 280er Serie.
Ich hätte sie für den selben Kurs gekauft wenn sie nur 3.5gb hätte.
Deswegen ist mir das Fuck egal.

Kriton
2015-01-25, 12:39:11
Rechtlich wird man aber wohl nichts machen können, da ich kein rechtlich angreifbares Fehlverhalten von nVidia sehe. Denn die versprochenen und zugesicherten Eigenschaften sind alle vorhanden (insbesondere wenn die Speicherbandbreite mit "bis zu" angegeben sind).


Wenn Du meinen vorherigen Post gelesen hättest, dann wüsstest Du, dass die Angaben von Nvidia andere sind/waren. Auf der englischen Seite steht nichts von "bis zu", sondern "4 GB" und "224GB/sec".

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

-/\-CruNcher-/\-
2015-01-25, 12:40:41
Habe nun den Vergleich zwischen 290X und 970 bei Skyrim mit Mods im selben System:
Die 290X kann sich problemlos 3,8GB genehmigen, dabei stockt es nicht.
Die 970 versucht ständig, unter 3,5GB zu bleiben. Da der VRAM nicht so sehr zu knapp ist (1440p, nur Post-AA), sind die Stocker meist nicht extrem, aber manchmal kann es auch kurz derbe hängenbleiben.

das kurz derbe hängenbleiben siehst du mit der 290X im selben test szenario also nicht (reproduzierbar) ?
Weil das auch teils eine Eigenart des Threading der Creation Engine ist (random) das zu solchen kurzen aussetzern beim Tile Streaming führen kann und tut vor allem bei High Speed tests ;)
Und vergiss nicht du stehst hier mit deinem Namen ein für jede deiner Aussagen also teste lieber öfter als einmal zu wenig und mach dir über deine Tests ordentlich gedanken ;)

InsaneDruid
2015-01-25, 12:47:09
Andere 4GB-Karten ohne die 3,5 GB-Kastration nutzen den "Window-Manager" etwa nicht?

Natürlich tun sie das, und genau das ist der Punkt. Von den 4GB geht bei beiden Karten war für solche Sachen drauf, und damit ist der Unterschied im vm Game nutzbaren schnellen Vram noch geringer als 512MB.

AnarchX
2015-01-25, 12:52:54
Natürlich tun sie das, und genau das ist der Punkt. Von den 4GB geht bei beiden Karten war für solche Sachen drauf, und damit ist der Unterschied im vm Game nutzbaren schnellen Vram noch geringer als 512MB.
Bei einer Fullscreen-3D-Anwendung ohne weitere Displays mit Desktopfenstern, ist der vollständige VRAM zu Verfügung.
Und bei gleichzeitig Nutzung von DWM mag die GTX 980 zwar auch weniger als 4GiB für das Spiel zu Verfügung haben, muss aber nicht die Speichermanagement-Verenkungen der GTX 970 machen, die wohl zusätzlich Leistung kosten, da die 512MiB bei der GTX 970 eben nicht vollwertig angebunden sind.

y33H@
2015-01-25, 12:57:21
Eventuell sollte die Redakteure da mal deutlich besser nachfragen.Das wird getan, nur NV muss auch antworten.
Darüber wird ja auch spekuliert. IMO kann es nicht der Aufbau sein, der in den Reviews dargestellt wurde. Bei AMD ist der L2-Cache an den MCs gekoppelt(Hawaii: 64KB pro 32Bit). Bei NV wissen wir nicht viel. Wir wissen nur, dass es "ROP-Partitionen" gibt. Um ehrlich zu sein, macht es keinen Sinn, dass der L2-Cache an den ROPs gekoppelt wäre, aber wer weiß. Eigentlich sollte alles durch den L2-Cache gehen bzw. direkter Speicherzugriff eher nicht möglich sein.NVs offizielles Sprech hierzu liest sich wie folgt (GTX 980 Whitepaper):
The GM204 features four 64-bit memory controllers (256-bit total). Tied to each memory controller are 16 ROP units and 512KB of L2 cache. The full chip ships with a total of 64 ROPs and 2048KB of L2 cache (this compared to 32 ROPs and 512K L2 on GK104).Wobei die 64er wiederum gesplittet sind AFAIK, weil 32 Bit pro GDDR5-Baustein.

AnarchX
2015-01-25, 13:01:27
Das wird getan, nur NV muss auch antworten.
NVs offizielles Sprech hierzu liest sich wie folgt (GTX 980 Whitepaper):
Wobei die 64er wiederum gesplittet sind AFAIK, weil 32 Bit pro GDDR5-Baustein.
Laut dem Reviewer Guide soll die GTX 970 2MiB L2 haben: http://www.hardocp.com/image.html?image=MTQxMTk3NjU5NW5pdEZaMTFFZzFfMV8yX2wuZ2lm

Da könnte man natürlich wieder argumentieren, wie bei den ROPs, dass der L2-Cache da ist, aber "gewisse Ressourcen" fehlen bei der 970 um ihn vollständig anzusprechen.

Schnoesel
2015-01-25, 13:01:43
Das wird getan, nur NV muss auch antworten.

Ich denke in dieser Situation muss erstmal alles von einer Schar von Anwälten abgesegnet werden. Das könnte jetzt ganz knifflig werden für Nvidia, vor allem in den USA. Daher auch diese nichtssagende Aussage an die Presse, aber hat man wirklich gedacht damit könnte man die Leute/Presse zufriedenstellen?

Am übelsten finde ich die Situation ja auch für die Sidegrader z.B. von einer GTX 780 TI die wegen dem + an einem GB mehr VRAM umgestiegen sind und jetzt erkennen müssen, dass es lediglich 512 MB waren.

aufkrawall
2015-01-25, 13:04:12
Streu noch Salz rein. :redface:
Da sieht man aber, wie viel schon die nur zusätzlichen 512MB gebracht haben.

Shaft
2015-01-25, 13:09:57
So, wo, wie erkenne ich beim kauf, welche 970 nun vollen L2 Cache besitzt und welche nichtwahrscheinlich gar nicht?

-/\-CruNcher-/\-
2015-01-25, 13:10:15
Eine Blöde situation wenn das Marketing überall unbedingt 4GB abdrucken will, da frag ich mich wieviele Engineers bei Nvidia da den Kopf geschüttelt haben ;)
Nur wie willst du den leuten das auch klar machen ohne das das doch gute produkt balancing nicht akzeptiert wird wenn die competition da 4 GB auf der Packung stehen hat du dafür aber die Kosten senken und die Effizienz steigern konntest ;)

BZ
2015-01-25, 13:11:36
Dann hat das Ding womöglich gar keine 256-bit Bus? Einen anderen Grund warum es nicht mit vollen Speed gehen sollte wüsste ich sonst jedenfalls nicht. Oder es ist doch nur irgend ein Bug.

Also ich komme mit AIDA immer nur auf eine Speicherbandbreite von 187,8 GB/Sek
statt der 224,4 GB/Sek Werksangabe.
Gemessen mit aida system stability test.
Gigabyte GTX970.
Was gibts noch so an Programmen zum messen?

Kriton
2015-01-25, 13:11:51
Das wird getan, nur NV muss auch antworten.


Ich kann das Problem nachvollziehen. IMHO wäre es dann ggfs. Aufgabe deutlich zu machen, dass da ein Problem existiert (inzwischen wissen wir es ja) zu dem Nvidia nicht (ausreichend) Stellung nimmt und was sich dahinter verbergen könnte (fachlich fundierte Spekualtion, natürlich hinreichend als solche gekennzeichnet) und damit den Druck auf Nvidia zu erhöhen eine vernünftige Information zu veröffentlichen und das Thema in das Bewusstsein der Leser/(potentiellen) Käufer der Karte(n von Nvidia) zu bringen.

y33H@
2015-01-25, 13:12:30
Laut dem Reviewer Guide soll die GTX 970 2MiB L2 haben. Laut dem RG supporten die GM204 auch "fully" DX12, laut Blog sogar alle Maxwells, d.h. inklusive dem GM107. Ich bin bei sowas immer ein wenig skeptisch.

Rente
2015-01-25, 13:13:15
So, wo, wie erkenne ich beim kauf, welche 970 nun vollen L2 Cache besitzt und welche nichtwahrscheinlich gar nicht?
In dem du schaust ob GTX980 drauf steht, bei der 970 gibt es keine Möglichkeit das zu erkennen (falls es überhaupt welche abseits von Testsamples gab).
Also ich komme mit AIDA immer nur auf eine Speicherbandbreite von 187,8 GB/Sek
statt der 224,4 GB/Sek Werksangabe.
Gemessen mit aida system stability test.
Gigabyte GTX970.
Was gibts noch so an Programmen zum messen?
Die Karte taktet in diesem Test nicht vollständig hoch, entweder du erzwingst P0 oder setzt den Speichertakt in den anderen Performance Level (vor allem P2) hoch.

Ich kann das Problem nachvollziehen. IMHO wäre es dann ggfs. Aufgabe deutlich zu machen, dass da ein Problem existiert (inzwischen wissen wir es ja) zu dem Nvidia nicht (ausreichend) Stellung nimmt und was sich dahinter verbergen könnte (fachlich fundierte Spekualtion, natürlich hinreichend als solche gekennzeichnet) und damit den Druck auf Nvidia zu erhöhen eine vernünftige Information zu veröffentlichen und das Thema in das Bewusstsein der Leser/(potentiellen) Käufer der Karte(n von Nvidia) zu bringen.
Es steht doch bei Anandtech schon der passende Abschnitt dazu:
For the moment with so few answers in hand we’re not going to spend too much time trying to guess what it is NVIDIA has done, but from NVIDIA’s statement it’s clear that there’s some additional investigating left to do. If nothing else, what we’ve learned today is that we know less than we thought we did, and that’s never a satisfying answer. To that end we’ll keep digging, and once we have the answers we need we’ll be back with a deeper answer on how the GTX 970’s memory subsystem works and how it influences the performance of the card.
Es kommt garantiert noch mehr, von mehreren Webseiten/Redaktionen, es ist nur aktuell nun mal Wochenende.

Nakai
2015-01-25, 13:13:20
Das wird getan, nur NV muss auch antworten.
NVs offizielles Sprech hierzu liest sich wie folgt (GTX 980 Whitepaper):
Wobei die 64er wiederum gesplittet sind AFAIK, weil 32 Bit pro GDDR5-Baustein.

Ja, das Whitepaper habe ich gelesen...*hust* "Whitepaper".

Es sind immer 2*32Bit pro ROP-Partition. Man kann nur die ROP-Partitionen skalieren. Jedenfalls weiß man nicht, wie diese nach innen organisiert sind.
16 ROPs klingen schonmal nach 4*4 ROP-Blöcken. Bei 512KB L2-Cache kann ich mir vorstellen, dass diese für jeden 32Bit MC in 256KB-Blöcken aufgeteilt sind, oder eben in 128KB-Slices für jeweils 4 ROPs. Dass die SMMs an den ROPs mit 128Bit direkt gekoppelt ist, ist ja mittlerweile klar. Wenn NV hier direkt schreibt,

However the 970 has a different configuration of SMs than the 980, and fewer crossbar resources to the memory system.

,klingt das für mich, dass es zwei Sachen sind. Weniger SMs und weniger crossbar resources. Womöglich hat man noch ein paar ROP-Blöcke deaktiviert. Das müssten bei 1,75MB L2-Cache zwei ROP-Blöcke sein. Durch die drei weniger SMMs fällt das weniger ins Gewicht, dafür wird das gesamte Backend unausgewogen. Ahja, an den 256Bit hat man nichts geändert, die sind ja verbaut.

Shaft
2015-01-25, 13:15:24
In dem du schaust ob GTX980 drauf steht, bei der 970 gibt es keine Möglichkeit das zu erkennen (falls es überhaupt welche abseits von Testsamples gab).


Könnte auch R9 290 drauf stehen?!?!

Kriton
2015-01-25, 13:17:42
Eine Blöde situation wenn das Marketing überall unbedingt 4GB abdrucken will, da frag ich mich wieviele Engineers bei Nvidia da den Kopf geschüttelt haben ;)
Nur wie willst du den leuten das auch klar machen ohne das das doch gute produkt balancing akzeptiert wird wenn die competition da 4 GB auf der Packung stehen hat du dafür aber die Kosten senken und die Effizient steigern konntest ;)

Ja, ja, das böse Marketing. Dieser vollkommen eigenständige Teil von Nvidia (eigentlich der böse Zwilling), der die heroischen Bemühungen des Rests der Firma ständig ad absurdum führt. :ulol3:

Und Kostensenkung ist nur dann für mich (als Kunde) interessant wenn das auch weitergegeben wird. Das ist bei der 970/980 IMHO nicht der Fall (wie auch schon bei der 670/680 begonnen). Natürlich ist ein Ansatz zur Kostensenkung aus betriebsiwrtschaftlichen Gründen für Nvidia prinzipiell erst einmal legitim, die falsche Darstellung von technischen Merkmalen um ein Produkt möglicherweise teurer oder häufiger zu verkaufen als wenn ich ehrliche Angaben mache ist es aber nicht.


Es steht doch bei Anandtech schon der passende Abschnitt dazu:

Finde ich (noch) nicht aggressiv genug. Man müsste nunmehr auch explizit darauf hinweisen, dass Nvidia falsche Angaben gemacht hat (siehe englische website). Die Frage wie groß die Folgen für den Endverbraucher sind, ist davon IMHO (erst einmal) losgelöst.

Ätznatron
2015-01-25, 13:20:33
Eine Blöde situation wenn das Marketing überall unbedingt 4GB abdrucken will, da frag ich mich wieviele Engineers bei Nvidia da den Kopf geschüttelt haben ;)
Nur wie willst du den leuten das auch klar machen ohne das das doch gute produkt balancing nicht akzeptiert wird wenn die competition da 4 GB auf der Packung stehen hat du dafür aber die Kosten senken und die Effizienz steigern konntest ;)

Ah ja.

Und sowas saugt sich das Marketing dann auch aus den Fingern, ganz ohne Ingenieure befragt zu haben:

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

DarknessFalls
2015-01-25, 13:20:43
Weil ich zb. die 970 nicht wegen dem Ram gekauft habe, sondern wegen der Leistung, Features, Stromverbrauch, und das ich zwei 4k displays anschließen kann.
Letzteres kann nur noch die 980 oder die alte 280er Serie.
Ich hätte sie für den selben Kurs gekauft wenn sie nur 3.5gb hätte.
Deswegen ist mir das Fuck egal.

Mit der Begründung kann ich das für Dich nachvollziehen, das ist völlig in Ordnung. Aber für die "Gesamtsituation" kannst Du so nicht argumentieren, denn gegenüber dem Otto-Normal-Verbraucher ist und bleibt es eine Verarsche. Bewusst und gewollt. Für DICH ist es okay, deshalb kann man trotzdem zugeben, dass es objektiv gesehen kein feiner Zug von nV war.

y33H@
2015-01-25, 13:21:02
Weniger SMs und weniger crossbar resources. Womöglich hat man noch ein paar ROP-Blöcke deaktiviert. Das müssten bei 1,75MB L2-Cache zwei ROP-Blöcke sein. Durch die drei weniger SMMs fällt das weniger ins Gewicht, dafür wird das gesamte Backend unausgewogen. Ahja, an den 256Bit hat man nichts geändert, die sind ja verbaut.So würde ich es auch interpretieren. Weniger Shader als die GTX 980 (81 %), aber noch weniger L2 (75 %). Laut RG haben beide jedoch 64 (aktive) ROPs.

Thunder99
2015-01-25, 13:21:09
Eventuell können sie das aber noch per Treiber optimieren.

Darüber hinaus gibt es jetzt immerhin mal eine Aussage, mal sehen was noch kommt.
Schön ist die Aktion aber definitiv nicht, ich werde mir jedenfalls in Zukunft 3x überlegen eine Salvage-Variante einer nVidia-Karte zu kaufen.
Sehe es auch so. Es wurde schlicht nicht kommuniziert das es Einschränkungen gibt, anders wie bei der GTX660(ti) :(

BZ
2015-01-25, 13:26:59
Haben die bei NV ernsthaft damit gerechnet, dass das keinem auffallen wird? Wenn eine langsamere Speicheranbindung für einen Teil des VRAMS zu schlecht zu vermarkten ist, dann verbaut/aktiviert halt nur 3.5 GB! Aber sowas ist übelste Kundenverarsche, ganz gleich in welcher Situation (Game) und in welcher Form (avg vs. spikes) sich das Problem äußert.

Das sehe ich ganz genauso!
So ist das ein Mogelpackung.

Rente,
danke für Deine Antwort.

Nakai
2015-01-25, 13:30:46
So würde ich es auch interpretieren. Weniger Shader als die GTX 980 (81 %), aber noch weniger L2 (75 %). Laut RG haben beide jedoch 64 (aktive) ROPs.

Mehr als 52 ROPs sind doch gar nicht messbar?

http://www.hardware.fr/articles/928-3/performances-theoriques-pixels.html

http://techreport.com/blog/27143/here-another-reason-the-geforce-gtx-970-is-slower-than-the-gtx-980

-/\-CruNcher-/\-
2015-01-25, 13:36:16
Ah ja.

Und sowas saugt sich das Marketing dann auch aus den Fingern, ganz ohne Ingenieure befragt zu haben:

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

Ja bei Nvidias Marketing läuft seit jahren schon etwas schief das muss endlich konsequenzen nach sich ziehen und ein umdenken stattfinden, aber viele Marketing Abteilungen egal wo du hinschaust in der Wirtschaft übertreiben es zunehmend.

Die Krieren teils unter einem enormen Wettbewerbsdruck extreme blasen die ihnen dann später selbst um die Ohren fliegen.

Wobei ich diesen vorfall nicht als solch eine Extreme blase bezeichnen würde "unglückliche" Entscheidung trift es hier wohl besser.

Matrix316
2015-01-25, 13:36:59
Also laut Sisoft Sandra sinds auch nur 1,8 MB:


NVIDIA GeForce GTX 970 (13CU 1664SP SM5.0 1.16GHz/1.5GHz, 1.8MB L2, 3.9GB 6GHz/7GHz 256-bit, PCIe 3.00 x16) (D3D 11)

von Richthofen
2015-01-25, 13:37:39
Bei etwaigen Prüfungen des VRAM-Verhaltens der 970 im Vergleich zur 980 könnte man die 660 Ti gleich noch gegen die "volle" 680/770 gegentesten. Bzw. ist das ja in den damaligen Reviews schon geschehen.
CB schrieb (http://www.computerbase.de/2012-08/test-nvidia-geforce-gtx-660-ti/)hierzu:


Auf der neuen Karte sind von den vier 64-Bit-Speichercontrollern nur noch drei übrig geblieben, was ein 192 Bit breites Speicherinterface ergibt. Im gleichen Atemzug ist ein ROP-Cluster verloren gegangen. Es sind also noch drei ROP-Cluster mit je acht ROPs (24 ROPs insgesamt) aktiviert.

Als Speichergröße hat sich Nvidia für einen 2.048 MB großen VRAM entschieden, sodass auf der GeForce GTX 660 Ti ein kleiner „Speichertrick“ zum Einsatz kommen muss. So ist nicht wie gewöhnlich an jedem Controller dieselbe Speichergröße angeschlossen, sondern stattdessen 1.024 MB an 128 Bit und die andere Hälfte an 64 Bit. Der GDDR5-Speicher arbeitet mit 3.004 MHz – erneut gleich schnell wie bei der GeForce GTX 670. Es wird darüber hinaus auch Partnerkarten mit einem 3.072 MB großen Speicher geben.



Das Ganze wertet (abgesehen von Sonderversionen) nachträglich andere Lösungen auf:

GTX Titan: 6 GB FullSpeed VRAM since 02/2013
R9 290(X): 4 GB FullSpeed VRAM since 11,10/2013 zum fairen Preis



Am übelsten finde ich die Situation ja auch für die Sidegrader z.B. von einer GTX 780 TI die wegen dem + an einem GB mehr VRAM umgestiegen sind und jetzt erkennen müssen, dass es lediglich 512 MB waren.


Das ist ja wirklich blöd. (keine Ironie)

AnarchX
2015-01-25, 13:40:49
Also laut Sisoft Sandra sinds auch nur 1,8 MB:
Ja, das ist die Aufälligkeit die man schon seit Launch beobachten konnte.
Und die 1,8MB (aufgerundete 1,75MB) entsprechen eben den 87,5% welchen die GTX 970 von ihren 4GiB als priorisierten Speicherbereich nutzen kann.

BZ
2015-01-25, 13:44:14
Die PCGH Redaktion äußert sich dazu. (http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/News/3-5-GiB-nutzbarer-VRAM-1147764/)

Zweifelsfrei handelt es sich hierbei also um eine Hardware-Limitierung. Die letzten 500 MiByte VRAM können somit schlichtweg nicht so effektiv gefüttert werden, wie der 3,5-GiB-Bereich.

Ich melde meine GTX970 morgen bei meinem Händler an, :mad:
um mir Ansprüche zu sichern.
Mal sehen was die unternehmen.

BitJäger
2015-01-25, 13:48:28
Zweifelsfrei handelt es sich hierbei also um eine Hardware-Limitierung. Die letzten 500 MiByte VRAM können somit schlichtweg nicht so effektiv gefüttert werden, wie der 3,5-GiB-Bereich.

Ich melde meine GTX970 morgen bei meinem Händler an. :mad:
Mal sehen was die unternehmen.


Versuche es mal mit Nacherfüllung (http://de.wikipedia.org/wiki/Nacherf%C3%BCllung).

horn 12
2015-01-25, 13:51:46
Dadurch auch ein geringerer Verbrauch ?
Zwecks der nicht voll ausnutzbaren 500 MB, oder doch nur ein Fehler meinerseits?
Dies dürfte den Absatz der R9 290 (X) Karten doch nicht unwesentlich ankurbeln!
Gut für AMD und weniger für NV

y33H@
2015-01-25, 13:59:46
Mehr als 52 ROPs sind doch gar nicht messbarRichtig, deswegen sagte ich ja "laut RG", was aber den Messungen widerspricht. Laut RG sind es ja auch 2 MB L2 und nicht 1,75 ;-)

Hübie
2015-01-25, 14:05:41
Omg. PCGH schreibt die 970 habe nur 13 SIMD X-D Peinlich, peinlich wie der Artikel geschrieben wurde. Die scheinen aber ne Karte zu haben wo zwei SMM nebeneinander deaktiviert wurden, wenn die Theorie von Nakai und mir stimmt. Können wir mal eben zusammenfassen welche Tools 1,75 MB und welche 2 MB anzeigen? Ich denke dass alle 2 MB haben nur sind die eben nicht genau gleichmäßig nutzbar.

aufkrawall
2015-01-25, 14:06:54
Für keine Desktop-970 wurden per CUDA 2MB ausgelesen.

BZ
2015-01-25, 14:08:11
Versuche es mal mit Nacherfüllung (http://de.wikipedia.org/wiki/Nacherf%C3%BCllung).

Danke, guter Tip.
Nun muss ich nur noch wissen ob diese Karte davon betroffen ist.

http://www.mindfactory.de/product_info.php/4096MB-Gigabyte-GeForce-GTX-970-Windforce-3X-OC-Aktiv-PCIe-3-0-x16--Retai_978515.html

aufkrawall
2015-01-25, 14:10:00
Nur weil irgendein Redakteur meint, es gäbe 970s, die 4GB ohne Abstriche nutzen können, muss das noch lange nicht so sein.
Kann auch einfach gelogen sein, um vom eigenen Versagen abzulenken (hart ausgedrückt).

Ich hab immer noch kein Indiz gesehen, dass irgendeine Desktop-970 nicht betroffen wäre.

TobiWahnKenobi
2015-01-25, 14:17:38
Danke, guter Tip.
Nun muss ich nur noch wissen ob diese Karte davon betroffen ist.

http://www.mindfactory.de/product_info.php/4096MB-Gigabyte-GeForce-GTX-970-Windforce-3X-OC-Aktiv-PCIe-3-0-x16--Retai_978515.html

Schildere deinem Händler doch einfach, in welchen Szenarien du mit der Karte unzufrieden bist bzw Probleme hast.



(..)

mfg
tobi

Nakai
2015-01-25, 14:18:14
Für keine Desktop-970 wurden per CUDA 2MB ausgelesen.

Meinst du damit Nais Benchmark?

Richtig, deswegen sagte ich ja "laut RG", was aber den Messungen widerspricht. Laut RG sind es ja auch 2 MB L2 und nicht 1,75 ;-)

Das ist so eine komische Sache. Ich kann mir sehr schwer vorstellen, dass die den L2-Cache extra deaktiviert haben, weil man damit direkt ROPs bzw. MCs wohl deaktivieren muss. IMO macht es keinerlei Sinn zwischen ROPs und den MCs eine Art Crossbar für den Cache zu liefern. Der L2-Cache wird irgendwo dran gekoppelt sein. Ist es an den ROPs gekoppelt und Teile des L2-Caches deaktiviert, dann sollten ROPs mit deaktiviert sein. Vice versa für die MCs, welche aber zu 100% da sind. Eigentlich macht es keinen Sinn den L2-Cache an die ROPs zu koppeln!

Nur so nebenbei, eventuell können die ganzen Benches nicht mehr als 1,75MB L2-Cache sehen, weil der Treiber nicht mehr zeigt, eben wegen NVs Fixes im Treiber diebezüglich.

Ich denke, NV hat die Architektur dramatisch abstrahiert, vor allem im Backend, um Komplexität zu sparen. Da wird kein vollständiger Crossbar sein, sondern was anderes.

-/\-CruNcher-/\-
2015-01-25, 14:18:18
Nur weil irgendein Redakteur meint, es gäbe 970s, die 4GB ohne Abstriche nutzen können, muss das noch lange nicht so sein.
Kann auch einfach gelogen sein, um vom eigenen Versagen abzulenken (hart ausgedrückt).

Ich hab immer noch kein Indiz gesehen, dass irgendeine Desktop-970 nicht betroffen wäre.


Also wenn die Reviewer hier testsamples erhalten hätten die modifiziert waren sprich dieses problem durchweg nicht hatten dann aber halo.
Jo ich glaube aber auch hier wird eher wieder abgelenkt von der schlechten unzureichenden test methodik, die man immernoch aufs blut verteidigt und sich nicht eingestehen will das man damit gescheitert ist die Probleme zu erkennen.

oN1
2015-01-25, 14:23:53
Ich glaube nicht dass es bei den Karten Unterschiede gab. Die PCGH hatte doch z.B. ein Testsample der MSI Gaming und dann noch fünf(?) Serienkarten und damit einen Langzeittest mit fünf Redakteuren gemacht. Da wären Unterschiede bestimmt aufgefallen, oder nicht?!

Hübie
2015-01-25, 14:28:33
Für keine Desktop-970 wurden per CUDA 2MB ausgelesen.

Welche Tools konkret? Device-query, CUDA-Z?

-/\-CruNcher-/\-
2015-01-25, 14:28:57
Also beim Spulenfiepen hat man ja gesehen was denen allen auffällt darauf musten sie durchweg auch erstmal alle aufmerksam gemacht werden und nur THG war kompetent genug zu verstehen was da Low Level in der Hardware von statten geht und boost 2.0 in einer sehr hohen Auflößung sichtbar zu machen ;)

Matrix316
2015-01-25, 14:29:43
Naja, man hat ja in allen Benchmarks gesehen, dass in 4K und besonders dann mit AA die 970 zum Teil hinter die 290X Karten zurückfällt, obwohl man in kleineren Auflösungen vorne liegt. Eventuell ist dass genau der Grund, weil der Speicher dort nicht optimal angesprochen wird.

Diese Ruckler und Stuttering könnte ja mal näher untersuchen wie sich die Karten in gleichen Settings verhalten.

BitJäger
2015-01-25, 14:32:53
Ein weiterer Artikel bei PCGH.

VRAM bei GTX 970: Kommt jetzt eine Welle von Rückläufern auf die Händler zu? (http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/VRAM-GTX-970-Welle-von-Ruecklaeufern-Haendler-1148924/)

BZ
2015-01-25, 14:37:00
Schildere deinem Händler doch einfach, in welchen Szenarien du mit der Karte unzufrieden bist bzw Probleme hast.



(..)

mfg
tobi

Ganz ehrlich,
das wird man doch erst dann merken,
wenn Spiele erscheinen die 4GB und mehr brauchen.
Ps. ich zweifle auch die Speicherbandbreite an,
ich komme maximal bis 219,8 GB
Firestrike Ultra.

BZ
2015-01-25, 14:49:32
Ohnehin dürften nur die frühen Käufer einer GTX 970 davon betroffen sein.
Was ist das denn für eine Aussage?
Nvidia sollte die Karten in den ersten 6 Monaten nach dem Kauf ohne
wenn und aber umtauschen!

Skysnake
2015-01-25, 15:02:20
Das ist schon ein ziemlicher Hammer. Ich hätte nVidia nicht zugetraut, dass Sie eine deartige Beeinträchtigung des OnChip-Interconnects einfach verheimlichen...

Ich bin ehrlich davon ausgegangen, dass das eher nur ein Software Problem ist, weil irgend ne Schlafmütze was versaubeutelt hat. Sowas kann immer mal passieren. Bei derartigen Hardwaredefekten muss aber auf JEDEN Fall klar gewesen sein, was das bedeutet, und die Tatsache, dass der Treiber ja auch versucht unter 3.5GB zu bleiben zeigt ja auch eindeutig, das sich nVidia des Problems bewusst war.

Oh man... ich werde ja teils als nVidia Hater hingestellt, was definitiv nicht der Fall ist, aber solche Aktionen, die selbst ich, der sehr kritisch ist aufgrund schlechter Erfahrungen, denen nicht zugetraut hätte, bin geschockt. Da weiß man doch, warum man so skeptisch ist bei nVidia...

aths
2015-01-25, 15:03:20
Sehe es auch so. Es wurde schlicht nicht kommuniziert das es Einschränkungen gibt, anders wie bei der GTX660(ti) :(
Wo gibt es Nvidia-seitige Erklärungen zu den Einschränkungen bei der 660 Ti? Ich habe das so in Erinnerung, dass die offiziellen Angaben nirgends preisgeben, dass das obere halbe GB mit nur 64 Bit angebunden ist.

Haben die bei NV ernsthaft damit gerechnet, dass das keinem auffallen wird? Wenn eine langsamere Speicheranbindung für einen Teil des VRAMS zu schlecht zu vermarkten ist, dann verbaut/aktiviert halt nur 3.5 GB! Aber sowas ist übelste Kundenverarsche, ganz gleich in welcher Situation (Game) und in welcher Form (avg vs. spikes) sich das Problem äußert.
Bei der 660 Ti hat es offenkundig keinen interessiert, dort war sogar 1/4 des Speichers langsam. Jetzt bei der 970 ist 1/8 des Speichers langsam und alle wollen die Karte zurückgeben?

Natürlich ist es arm von NV, das nicht von vornherein klar geäußert zu haben. Leute hätten die 970 trotzdem gekauft, wenn man von Beginn ehrlich gewesen wäre. Den Aufruhr jetzt haben sie sich alleine zuzuschreiben. Erst versuchen sie, die 970 wie eine lediglich bei den Shadern gekürzte 980 darzustellen, womit die 970 auf dem Papier ein exzellentes Teil ist. Jetzt kommt raus dass auch die Bandbreite und sogar der sinnvoll nutzbare RAM etwas kleiner ist.

OC_Burner
2015-01-25, 15:04:58
Zitat Computerbase: (http://www.computerbase.de/forum/showthread.php?t=1435408&p=16914229#post16914229)
@Nidvhegg DWM nun aus und iGPU als primary im Bios gesetzt.

Sieht nun etwas Fragwürdig aus. Zwischen 1600-1800 ist nun ein Einbruch zu sehen.

Folgend der Nachtest (GTX670, 2GB, Treiber 347.09):
http://abload.de/thumb/670gtx_2gb_347.09_2o1u98.png (http://abload.de/image.php?img=670gtx_2gb_347.09_2o1u98.png)

Na wenn das nicht schon länger Praxis bei Nvidia ist und keiner hats gemerkt.;D

mike49
2015-01-25, 15:05:38
Ohnehin dürften nur die frühen Käufer einer GTX 970 davon betroffen sein.
Was ist das denn für eine Aussage?

Eine sehr logische.

Die 970 ist noch keine 6 Monate auf dem Markt und wer die jetzt erst kauft weiß was er bekommt.

-/\-CruNcher-/\-
2015-01-25, 15:14:57
Wo gibt es Nvidia-seitige Erklärungen zu den Einschränkungen bei der 660 Ti? Ich habe das so in Erinnerung, dass die offiziellen Angaben nirgends preisgeben, dass das obere halbe GB mit nur 64 Bit angebunden ist.


Bei der 660 Ti hat es offenkundig keinen interessiert, dort war sogar 1/4 des Speichers langsam. Jetzt bei der 970 ist 1/8 des Speichers langsam und alle wollen die Karte zurückgeben?

Natürlich ist es arm von NV, das nicht von vornherein klar geäußert zu haben. Leute hätten die 970 trotzdem gekauft, wenn man von Beginn ehrlich gewesen wäre. Den Aufruhr jetzt haben sie sich alleine zuzuschreiben. Erst versuchen sie, die 970 wie eine lediglich bei den Shadern gekürzte 980 darzustellen, womit die 970 auf dem Papier ein exzellentes Teil ist. Jetzt kommt raus dass auch die Bandbreite und sogar der sinnvoll nutzbare RAM etwas kleiner ist.

Da ist das Marketing der Arsch sicherlich auf Grundeis gelaufen das hat Nvidia sich teils selber zuzuschreiben durch ihre Gamerfication kreirung des Nvidia Super Gamers ;)

"Die Geister die ich Rief"

Erklär denen mal das 4 GB zwar schön sind aber das andere wichtiger ;)

aths
2015-01-25, 15:24:51
Was mich bei der ganzen Sache wirklich wundert, ist die Unverfrorenheit seitens NV, die Ergebnisse schönzuzeichnen.

Beispiel ROPs: Ja, die 970 hat irgendwie 64 davon. Aber bei Single-Texturing dann doch nur 52.

Beispiel VRAM: Ja, die 970 hat physikalisch 4 GB verbaut. Aber voll nutzbar sind nur 3,5 GB. Das obere halbe GB ist deutlich langsamer.

Beispiel Bandbreite: Die scheint auch in den unteren 3,5 GB geringer zu sein als bei der 980. Das hätte man kommunizieren können. Die 970 hat weniger Shader und braucht die 980-Bandbreite nicht, um ihre Leistung abrufen zu können.

ROP- und Bandbreiten-Verringerung sind völlig unproblematisch, da die 970 ohnehin weniger Rohleistung hat. Man hat im Ergebnis noch immer eine ausgewogene Karte mit gutem Preisleistungsverhältnis.

Wirklich spürbar ist nur die Begrenzung auf nutzbare 3,5 GB. Hätte NV die 3,5-GB-Beschränkung kommuniziert, hätte das vielleicht einige vom Kauf abgehalten. Andere hätte es zur teureren 980 getrieben.

Für den Preis wäre die 970 auch mit 52 ROPs, ca. 190 GB/s Bandbreite und 3,5 + 0,5 GB VRAM eine Karte gewesen die sich verkauft hätte. Echt, wie kann man so blöde sein? "Geforce-Specs lügen" – das bleibt in Erinnerung. Was sich Nvidia hier an mühsam aufgebauten Vertrauen (nach den Eskapaden wie "8 Pipelines" bei der 5800 FX) wieder kaputtgemacht hat, und das auch noch ohne jede Not.

Screemer
2015-01-25, 15:26:45
@crunsher: Du glaubst doch nicht ernsthaft selbst, dass der Bockmist nur von der marketing alte Ölung verzapft wurde?!

Ich frag mich wirklich, wie es hier auch nur noch einen geben kann der sowas gutheißt. Wenn ich meinen Gästen 256g filet zu einem preis x anbietw und ich dann nur 212g auf den grill packe, dann gibts mächtig ärger.

Bin mal gespannt was da noch raus kommt.

Nakai
2015-01-25, 15:26:49
Wenn man ganz krass sein möchte, ist jegliche NV-Karte deutlich stärker beschnitten. Pro SM das deaktiviert ist, verlieren die ROPs an Bandbreite.

Eine GTX 970 hat eigentlich nur 52 ROPs. Eine GTX 760 nur 24 ROPs.

http://techreport.com/blog/27143/here-another-reason-the-geforce-gtx-970-is-slower-than-the-gtx-980

Und reinher von der Füllrate ist bei jedem deaktivierten SM weniger Füllrate zur Verfügung.

€: Naja irgendwie zu spät.^^

€2:

Für den Preis wäre die 970 auch mit 52 ROPs, ca. 190 GB/s Bandbreite und 3,5 + 0,5 GB VRAM eine Karte gewesen die sich verkauft hätte. Echt, wie kann man so blöde sein? "Geforce-Specs lügen" – das bleibt in Erinnerung. Was sich Nvidia hier an mühsam aufgebauten Vertrauen (nach den Eskapaden wie "8 Pipelines" bei der 5800 FX) wieder kaputtgemacht hat, und das auch noch ohne jede Not.

Ah, stimmt, jetzt verstehe ich einige Kommentare, welche das mit dem FX-Fiasko verglichen haben.

Naja selbst für mich, wo ich mittlerweile einigermaßen etwas mit GPGPU zu tun habe, werden nicht mehr auf beschnittene Nvidia-Karten schielen. Naja dass Maxwell derzeit im Compute-Bereich ziemlich rar ist, mildert die Probleme etwas ab. Naja ein Schelm wer Böses denkt.^^

Schnoesel
2015-01-25, 15:29:35
Das perfide daran ist, dass es schwer zu entdecken ist. Angenommen du hast diesen Fall dass der VRAM limitiert. Was macht man, schaut sich das ganz mit OSD an und merkt hmm ok Speicher kann ich schon mal ausschließen das Spiel benötigt nicht mehr wie 3,5 GB und meine Karte hat ja 4GB. Also weitersuchen. Da kommst doch nie drauf dass der Treiber ab 3,5 zumacht. Im Guru3d Forum hats der eine doch nur bemerkt weil er mit einer GTX 980 vergleichen konnte.

Nakai
2015-01-25, 15:36:38
Ich habe mich schon über die Redakteure von gewissen Hardwareseiten aufgeregt. Ich hoffe mal, dass da ab jetzt wieder etwas besser nachgefragt wird. Kann nicht sein, dass die Endnutzer die Arbeit der Redakteure machen müssen.^^

BZ
2015-01-25, 15:40:03
Ich habe mich schon über die Redakteure von gewissen Hardwareseiten aufgeregt. Ich hoffe mal, dass da ab jetzt wieder etwas besser nachgefragt wird. Kann nicht sein, dass die Endnutzer die Arbeit der Redakteure machen müssen.^^

Danke!

"Lustig" wirds wohl erst werden wenn mehr Spiele mit Ram verbrauch über 3,5GB rauskommen,
dann geht das gestottere und ruckeln los.
Das kann ja wohl nicht sein.

http://www.guru3d.com/news-story/does-the-geforce-gtx-970-have-a-memory-allocation-bug.html

aufkrawall
2015-01-25, 15:48:17
Meinst du damit Nais Benchmark?

Ich dachte eher an die Auslese-Tools wie AIDA oder SiSoft. Ich habe nicht mitbekommen, dass irgendeine Desktop-970 dort angeblich über die vollen 2MB verfügen würde (GPGPU).

kruemelmonster
2015-01-25, 15:49:49
Wo gibt es Nvidia-seitige Erklärungen zu den Einschränkungen bei der 660 Ti? Ich habe das so in Erinnerung, dass die offiziellen Angaben nirgends preisgeben, dass das obere halbe GB mit nur 64 Bit angebunden ist.

Jedem technisch halbwegs interessierten war klar dass bei 192 bit keine geraden 2 GB VRAM rauskommen können, das lag mehr oder weniger auf der Hand.

Ich brauche keine Marketingabteilung die mir 0.5 GB TurboCache (http://www.nvidia.com/page/turbocache.html) VRAM als Trostplaster dazulötet (ich bin schon groß und kann mit bewußt gewählten Einschränkungen wie 3.5 GB VRAM umgehen), und mir ist unerklärlich wie NV scheinbar der Meinung sein konnte dass sie diesen Mangel vor der Zielgruppe der 970 versteckt halten könnten.

Diesen Bumerang hat sich NV selbst an den eigenen Kopf geworfen.

-/\-CruNcher-/\-
2015-01-25, 15:56:52
Dafür werden wohl auch die Schalter für die verschiedenen Memory management Modes sein die das verhalten des Turbocache Management beinflussen können im Inspector ;)

A TurboCache Manager (TCM), which dynamically allocates memory for maximum system performance
Intelligent software algorithms that maximize application performance

Den Marketing begriff haben sie schon lange nicht mehr verwendet fast untergegangen bis heute :D

Eingeführt mit Vista und WDDM damals

Isen
2015-01-25, 15:57:37
Ohnehin dürften nur die frühen Käufer einer GTX 970 davon betroffen sein.



Meine beiden habe ich vor 11 Tagen gekauft....

fdsonne
2015-01-25, 15:57:52
Weiß man inzwischen, wie langsam die 500 MB wirklich sind? Da Nais Benchmark nur 3,5 GB ansprechen kann so wie ich das verstanden habe und der Rest nicht im VRAM, sondern im System-RAM getestet wird, sind die Ergebnisse dazu ja eher fragwürdig.

Es kann aber eigentlich bei ausgegebenen ~22GB/sec nicht über den PCIe Slot gemessen worden sein. Denn selbst bei 16x Ausführung und 3.0er Standard hast du nur ~16GB/sec Durchsatz. :cool: (und das ist dann auch "nur" die Theorie -> Real wohl sogar was weniger)

Darüber wird ja auch spekuliert. IMO kann es nicht der Aufbau sein, der in den Reviews dargestellt wurde. Bei AMD ist der L2-Cache an den MCs gekoppelt(Hawaii: 64KB pro 32Bit). Bei NV wissen wir nicht viel. Wir wissen nur, dass es "ROP-Partitionen" gibt. Um ehrlich zu sein, macht es keinen Sinn, dass der L2-Cache an den ROPs gekoppelt wäre, aber wer weiß. Eigentlich sollte alles durch den L2-Cache gehen bzw. direkter Speicherzugriff eher nicht möglich sein.

Hat denn wer überhaupt mal die Werte genauer analysiert? Ich habe mal ein paar Berechnungen aufbauend auf den ~150GB/sec der 970er und ~178GB/sec der 980er von Nais Bench gemacht.

- ~178 auf ~150GB/sec entspricht 18,75% weniger
- 16 SMM auf 13 SMM entspricht 18,75% weniger
-> das klingt für mich in erster Linie danach, dass der Durchsatz hier nicht am SI limitiert, sondern zwischen den SMMs und über die "Crossbar" in Richtung Speicherbausteine. Also weniger SMMs = weniger Durchsatz.

Wenn allerdings pro ROP Partition je vier SMMs gebunden sind. Und pro ROP Partition = 64Bit MC je 1GB VRAM gebunden ist, würde das bedeuten, dass es drei Mögliche Kombinationen gibt, die SMMs zu cutten.
- 3x SMM der selben ROP Partion
- 2x SMM der einen, 1x SMM einer anderen ROP Partition
- 1x SMM bei drei ROP Partitions

-> hier kommt die Theorie allerdings ins Straucheln... Denn 22GB/sec sind mehr wie der PCIe Durchsatz bei 16x und 3.0 Ausführung. Es muss also "auf" der Karte passieren.
-> 22GB/sec sind allerdings doppelt so viel wie ein viertel des möglichen Durchsatzes pro ROP Cluster!
-> Wenn also der Flaschenhals zwischen den SMMs und den ROP Partitions sein würde, dürfte der obere Speicherbereich nur mit ~11,5GB/sec Durchsatz laufen und nicht mit ~22GB/sec

Einzige logische Erklärung dazu wäre, es wurden 2x SMMs der einen und 1x SMM einer andere ROP Partition gelasert.
Damit wäre der Bereich 0MB - 3328MB mit "vollem" Speed ansprechbar. Der Bereich 3328MB - 3840MB mit besagten 22GB/sec. Und das letzte bisschen von 256MB mit nur noch 11,5GB/sec.
Nais Bench misst allerdings nicht den vollständigen Bereich, stand heute. Sondern nur bis zu 3840 - 3968MB, wenn ich die Ergebnisse richtig deute. -> sprich der letzte Block fällt schon gar nicht mehr auf.


PS: und noch was ganz anderes dazu. Im Luxx Forum hat Jemand Werte einer GTX 670 mit GK104 veröffentlicht. Diese Karte zeigt zwar nicht den massiven Einbruch obenrum, aber sie liefert auch weniger Bandbreite als sie eigentlich sollte. -> was dafür spricht, dass auch der GK104 schon irgendwo intern einen Flaschenhals zwischen den SMXs und dem SI hatte...
- 7/8tel SMXs für die 670er gegen die 680er
- ~155GB/sec Bandbreite nach Nais Bench für die 670er -> passt exakt auf die 12,5% weniger SMX und ist damit Deckungsgleich der GTX 980 abzgl. 12,5%.
- 155GB/sec (670) zu ~150GB/sec (970) ist damit der Unterschied von 7/8tel SMX zu 16/13tel SMM "Deaktivierung".

-> Auffallend bei der 670er ist aber, dass diese obenraus scheinbar nicht einbricht! Zumindest bis 1920MB bleibt die 670er auf dem 155GB/sec Durchsatz, auch wenn man in 64MB anstatt 128MB Blöcken misst.
Somit müsste der Kepler GK104 keine 1:1 Zuordnung der Speicher zu den SMXen haben, wärend der GM204 dies offenbar hat!?


-> für mich ist eine Sache allerdings noch unklar, eine GK110 GPU (780TI) erreicht ~10% unter dem theoretischen Durchsatz in Nais Bench (ich messe 300GB/sec bei theoretischen 330GB/sec). Eine GM204 GPU erreicht nur ~20% Durchsatz unter dem theoretischen Durchsatz. Und die GK104 kommt ebenso auf nur ~80% des Durchsatzes. Hübies GTX 770 Messungen mit der 4GB Karte zeigen für den GK104 allerdings auch ~200GB/sec -> was dann wiederum ebenso ~10% unter der Theorie wären?? 2x GK104 und zwei verschiedene Werte?
Bleibt dazu noch die Frage, wenn das Verhalten schon mit dem GK104 so war, warum ist das A) nicht aufgefallen? Und B) warum hat NV sich beim GM204 dazu entschieden, die Speicher scheinbar 1:1 gegen die SMMs zu mappen? (wohlwissentlich, dass es damit Probleme geben kann/wird)


PPS: eine GTX 980M müsste mit default 2506er RAMs und 256Bit SI durch den Lasercut auf gerade mal reale ~95-100GB/sec Durchsatz nach Nais Bench kommen... Wenn auch sie durch 4x deaktivierte SMMs nicht vom Problem der mauen Bandbreite im oberen Speicherbereich betroffen sein dürfte. Es sei denn, man lasert eine ungleiche Verteilung der SMMs je ROP Partition da raus!
Die GTX 970M mit 192Bit SI und 6x deaktiviertem SMMs hingegen müsste das Verhalten wiederum aufzeigen... Da 3x4 SMMs = 12 aktive SMMs wären und die 970er nur 10 aktive SMMs hat. Bleiben zwei über. Also bei einem oder zwei ROP Partitionen wäre das Bandbreitenproblem ebenso gegeben. Heist bei 3GB VRAM der 970M, dass 2,5GB "voll" nutzbar sind und 512MB nur mit maximal ~22GB/sec. Wenn beide SMMs vom der gleichen ROP Partion gecuttet wurden sogar nur mit ~11,5GB/sec...

Mag sich wer dazu äußern? Passt so oder nicht?
Gibt es Werte von Nais Bench mit der GTX 970M?

HarryHirsch
2015-01-25, 16:07:33
Meine beiden habe ich vor 11 Tagen gekauft....

SLI macht mit den Dingern ja richtig sinn! :freak:
Mein Beileid.

AngelDust 32
2015-01-25, 16:08:14
@fdsonne (auch hier :D)

Gibt es Werte von Nais Bench mit der GTX 970M?


ja von einer 970M oder 980M (irgendwo in den 60 Seiten)

-/\-CruNcher-/\-
2015-01-25, 16:12:42
Es kann aber eigentlich bei ausgegebenen ~22GB/sec nicht über den PCIe Slot gemessen worden sein. Denn selbst bei 16x Ausführung und 3.0er Standard hast du nur ~16GB/sec Durchsatz. :cool: (und das ist dann auch "nur" die Theorie -> Real wohl sogar was weniger)



Hat denn wer überhaupt mal die Werte genauer analysiert? Ich habe mal ein paar Berechnungen aufbauend auf den ~150GB/sec der 970er und ~178GB/sec der 980er von Nais Bench gemacht.

- ~178 auf ~150GB/sec entspricht 18,75% weniger
- 16 SMM auf 13 SMM entspricht 18,75% weniger
-> das klingt für mich in erster Linie danach, dass der Durchsatz hier nicht am SI limitiert, sondern zwischen den SMMs und über die "Crossbar" in Richtung Speicherbausteine. Also weniger SMMs = weniger Durchsatz.

Wenn allerdings pro ROP Partition je vier SMMs gebunden sind. Und pro ROP Partition = 64Bit MC je 1GB VRAM gebunden ist, würde das bedeuten, dass es drei Mögliche Kombinationen gibt, die SMMs zu cutten.
- 3x SMM der selben ROP Partion
- 2x SMM der einen, 1x SMM einer anderen ROP Partition
- 1x SMM bei drei ROP Partitions

-> hier kommt die Theorie allerdings ins Straucheln... Denn 22GB/sec sind mehr wie der PCIe Durchsatz bei 16x und 3.0 Ausführung. Es muss also "auf" der Karte passieren.
-> 22GB/sec sind allerdings doppelt so viel wie ein viertel des möglichen Durchsatzes pro ROP Cluster!
-> Wenn also der Flaschenhals zwischen den SMMs und den ROP Partitions sein würde, dürfte der obere Speicherbereich nur mit ~11,5GB/sec Durchsatz laufen und nicht mit ~22GB/sec

Einzige logische Erklärung dazu wäre, es wurden 2x SMMs der einen und 1x SMM einer andere ROP Partition gelasert.
Damit wäre der Bereich 0MB - 3328MB mit "vollem" Speed ansprechbar. Der Bereich 3328MB - 3840MB mit besagten 22GB/sec. Und das letzte bisschen von 256MB mit nur noch 11,5GB/sec.
Nais Bench misst allerdings nicht den vollständigen Bereich, stand heute. Sondern nur bis zu 3840 - 3968MB, wenn ich die Ergebnisse richtig deute. -> sprich der letzte Block fällt schon gar nicht mehr auf.


PS: und noch was ganz anderes dazu. Im Luxx Forum hat Jemand Werte einer GTX 670 mit GK104 veröffentlicht. Diese Karte zeigt zwar nicht den massiven Einbruch obenrum, aber sie liefert auch weniger Bandbreite als sie eigentlich sollte. -> was dafür spricht, dass auch der GK104 schon irgendwo intern einen Flaschenhals zwischen den SMXs und dem SI hatte...
- 7/8tel SMXs für die 670er gegen die 680er
- ~155GB/sec Bandbreite nach Nais Bench für die 670er -> passt exakt auf die 12,5% weniger SMX und ist damit Deckungsgleich der GTX 980 abzgl. 12,5%.
- 155GB/sec (670) zu ~150GB/sec (970) ist damit der Unterschied von 7/8tel SMX zu 16/13tel SMM "Deaktivierung".

-> Auffallend bei der 670er ist aber, dass diese obenraus scheinbar nicht einbricht! Zumindest bis 1920MB bleibt die 670er auf dem 155GB/sec Durchsatz, auch wenn man in 64MB anstatt 128MB Blöcken misst.
Somit müsste der Kepler GK104 keine 1:1 Zuordnung der Speicher zu den SMXen haben, wärend der GM204 dies offenbar hat!?


-> für mich ist eine Sache allerdings noch unklar, eine GK110 GPU (780TI) erreicht ~10% unter dem theoretischen Durchsatz in Nais Bench (ich messe 300GB/sec bei theoretischen 330GB/sec). Eine GM204 GPU erreicht nur ~20% Durchsatz unter dem theoretischen Durchsatz. Und die GK104 kommt ebenso auf nur ~80% des Durchsatzes. Hübies GTX 770 Messungen mit der 4GB Karte zeigen für den GK104 allerdings auch ~200GB/sec -> was dann wiederum ebenso ~10% unter der Theorie wären?? 2x GK104 und zwei verschiedene Werte?
Bleibt dazu noch die Frage, wenn das Verhalten schon mit dem GK104 so war, warum ist das A) nicht aufgefallen? Und B) warum hat NV sich beim GM204 dazu entschieden, die Speicher scheinbar 1:1 gegen die SMMs zu mappen? (wohlwissentlich, dass es damit Probleme geben kann/wird)


PPS: eine GTX 980M müsste mit default 2506er RAMs und 256Bit SI durch den Lasercut auf gerade mal reale ~95-100GB/sec Durchsatz nach Nais Bench kommen... Wenn auch sie durch 4x deaktivierte SMMs nicht vom Problem der mauen Bandbreite im oberen Speicherbereich betroffen sein dürfte. Es sei denn, man lasert eine ungleiche Verteilung der SMMs je ROP Partition da raus!
Die GTX 970M mit 192Bit SI und 6x deaktiviertem SMMs hingegen müsste das Verhalten wiederum aufzeigen... Da 3x4 SMMs = 12 aktive SMMs wären und die 970er nur 10 aktive SMMs hat. Bleiben zwei über. Also bei einem oder zwei ROP Partitionen wäre das Bandbreitenproblem ebenso gegeben. Heist bei 3GB VRAM der 970M, dass 2,5GB "voll" nutzbar sind und 512MB nur mit maximal ~22GB/sec. Wenn beide SMMs vom der gleichen ROP Partion gecuttet wurden sogar nur mit ~11,5GB/sec...

Mag sich wer dazu äußern? Passt so oder nicht?
Gibt es Werte von Nais Bench mit der GTX 970M?

Könnte Asic Quality wert plötzlich wieder eine rolle spielen in wie stark die Probleme bei den unterschiedlichen Werten ausfallen und somit auch sichtbar werden könnten ;) ?

Isen
2015-01-25, 16:13:06
@HarryHirsch,

hey, für 500 Steine hättest sicher auch nicht nein gesagt :D
Vom gesparten war halt nen Fullcover drin für beide. Naja kann ich jetzt eh knicken.
Egal. Weg und nicht weiter aufregen... nicht gut für meinen Blutdruck.

Kriton
2015-01-25, 16:15:22
Schildere deinem Händler doch einfach, in welchen Szenarien du mit der Karte unzufrieden bist bzw Probleme hast.


Welchen Sinn soll dies haben? Damit man darüber diskutiert ob der objektiv vorhandene Mangel auch aus Sicht des Händlers relevant ist? :|

Ohnehin dürften nur die frühen Käufer einer GTX 970 davon betroffen sein.
Was ist das denn für eine Aussage?
Nvidia sollte die Karten in den ersten 6 Monaten nach dem Kauf ohne
wenn und aber umtauschen!

Der Gewährleistungsanspruch ist übrigens gegenüber dem Händler, nicht gegenüber Nvidia (wobei die das durchreichen). Und er besteht 2 Jahre. In den ersten 6 Monate hast Du nur eine Beweislastumkehr, dass der Mangel bereits bei Gefahrübergang vorhanden war (das ist hier aber irrelevant).
Wir reden hier (meinerseits) von Verbraucher-Unternehmer-Käufen.


Die 970 ist noch keine 6 Monate auf dem Markt und wer die jetzt erst kauft weiß was er bekommt.

Möglicherweise, aber nicht unbedingt. Und die damit verbundene Unwissenheit kannst Du nicht dem Käufer entlasten, da Nvidia entsprechende Angaben auf ihrer homepage hat.

Jedem technisch halbwegs interessierten war klar dass bei 192 bit keine geraden 2 GB VRAM rauskommen können, das lag mehr oder weniger auf der Hand.


Ist halt nicht jeder technisch halbwegs interessiert. Aber wenigstens war es prinzipiell erkennbar. Ich habe durchaus Leute im Bekanntenkreis, die sind da beratungsresistent.

Blediator16
2015-01-25, 16:19:25
Welchen Sinn soll dies haben? Damit man darüber diskutiert ob der objektiv vorhandene Mangel auch aus Sicht des Händlers relevant ist? :|


Er möchte die Diskussion in Richtung "aktuell keine Probleme" lenken. Dass es evtl. später Probleme geben könnte, ist den Liebesjungs doch scheiss egal kaufen sowieso alles von dem Hulkverein.

Sir Silence
2015-01-25, 16:19:32
meine 970 geht morgen zurück, zum glück noch innerhalb des widerrufsrechts :D ich bastel meine 570 wieder rein, lehn mich zurück und schalt halt auf medium. mal abwarten was amd bringt bzw. wie nvidia die story wieder gerade biegt.

montey
2015-01-25, 16:21:34
Hi Leute,

Habe meine GTX670 von Gigabyte (Windforce 3x) auch mal vermessen.
Ergebnis:
http://abload.de/img/gtx6709zq31.jpg

Die letzten beiden Chunks scheinen hier auch extrem langsam angebunden zu sein.

Wie sieht das denn bei den Radeons aus? Sind nur die beschnittenen Geforces betroffen?

EDIT: Treiber ist der 347.25

Gruß,
Nils

-/\-CruNcher-/\-
2015-01-25, 16:23:30
Er möchte die Diskussion in Richtung "aktuell keine Probleme" lenken. Dass es evtl. später Probleme geben könnte, ist den Liebesjungs doch scheiss egal kaufen sowieso alles von dem Hulkverein.

Du kennst Nvidia user kein Stück das sind nicht alles irrglaubende Gamer und die können dir z.b auch sagen das es keine probleme geben wird ;)

N0Thing
2015-01-25, 16:25:02
Weiß man inzwischen, wie langsam die 500 MB wirklich sind? Da Nais Benchmark nur 3,5 GB ansprechen kann so wie ich das verstanden habe und der Rest nicht im VRAM, sondern im System-RAM getestet wird, sind die Ergebnisse dazu ja eher fragwürdig.

Wo hast du diese Information denn her? Verwechselst du vielleicht Tests mit und ohne DWM?
Denn die GTX 980 schafft ohne DWM durchgehend volle Geschwindigkeit bei Nais Benchmark. Wäre ja nicht möglich, wenn dort generell ab 3,5GB auf den RAM ausgewichen werden müsste. ;)

tdon
2015-01-25, 16:27:12
Hi Leute,

Habe meine GTX670 von Gigabyte (Windforce 3x) auch mal vermessen.
Ergebnis:



Was sagt GPUz bei memory usage bevor du den Bench startest?

N0Thing
2015-01-25, 16:27:52
Hi Leute,

Habe meine GTX670 von Gigabyte (Windforce 3x) auch mal vermessen.
Ergebnis:
http://abload.de/img/gtx6709zq31.jpg

Die letzten beiden Chunks scheinen hier auch extrem langsam angebunden zu sein.

Wie sieht das denn bei den Radeons aus? Sind nur die beschnittenen Geforces betroffen?

EDIT: Treiber ist der 347.25

Gruß,
Nils

Das gleiche Ergebnis habe ich auch mit einer GTX 770 ohne deaktivierten DWM (http://en.wikipedia.org/wiki/Desktop_Window_Manager). Deaktiviere mal den DWM und teste erneut.

boxleitnerb
2015-01-25, 16:34:09
Wo hast du diese Information denn her? Verwechselst du vielleicht Tests mit und ohne DWM?
Denn die GTX 980 schafft ohne DWM durchgehend volle Geschwindigkeit bei Nais Benchmark. Wäre ja nicht möglich, wenn dort generell ab 3,5GB auf den RAM ausgewichen werden müsste. ;)

Ich hab das im Geforce-Forum gelesen. Muss aber zugeben, ich habe hier nicht den ganzen Thread gelesen, immer nur stückweise.

Wenn Blaidd/Raff hier mitlesen: Seid ihr an einem Test dran? Zum Glück ist meine 970 nur eine Übergangskarte, die bei GM200/Fiji rausfliegt. Toll, dass der Wiederverkaufswert die letzte Woche durch das Problem gesunken ist...:freak:

Botcruscher
2015-01-25, 16:34:21
Ist für AMD auch schon ein Tool vorhanden?

PS: Wenn es bei Kepler Karten auch auftritt, dann verarscht NV die Kundschaft schon etwas länger...

urbi
2015-01-25, 16:34:36
Meine beiden habe ich vor 11 Tagen gekauft....

Von mir gibt es kein Mitleid sondern Neid. So einfach wie durch einen Widerruf werden fühere Käufer nicht an ihr Geld kommen.

Ich z.B: habe meine beiden Anfang Dezember gekauft um im Januar GTAV und über Weihnachten Far Cry 4 spielen zu können. :freak:
Nachdem ich die Probleme mit dem Spulenfiepen elegant weitestgehend umschifft hatte arbeite ich jetzt seit kurz vor Weihnachten daran Far Cry 4 durch Ubisoft aktivieren zu lassen - das geht nämlich nicht. ;D

Radeonfreak
2015-01-25, 16:40:42
Wie kann man denn DWM unter Windows 8.1 deaktivieren. Will auch mal testen.

Exxtreme
2015-01-25, 16:41:04
Ja, diese Einschränkung hätte man kommunizieren müssen. Und Notiz an mich: keine krumm beschnittenen Karten kaufen.

montey
2015-01-25, 16:47:38
Hi Leute,

Habe das Ganze nochmal ohne DWM.exe laufen lassen und siehe da:

http://abload.de/img/gtx670ohnedwmn8qrr.jpg

Unter Win7 dwm.exe deaktivieren:

cmd als Admin öffnen, "net stop uxsms" eingeben.

Gruß,
Nils

kruemelmonster
2015-01-25, 16:48:09
Wie kann man denn DWM unter Windows 8.1 deaktivieren. Will auch mal testen.

Wurde hier schonmal gepostet: https://osu.ppy.sh/forum/t/141175
This is to disable desktop composition in windows 8 and 8.1.

This does not apply to:
Fullscreen users (not windowed borderless)
Other operating systems (Desktop composition is a lot easier to disable in other operating systems)

Use Process Explorer and run it as Administrator

Do the following steps in order:

KILL explorer.exe

SUSPEND winlogon.exe
[This is so you can do the next step without it re-opening automatically]

KILL dwm.exe
[This is what you don't want to be running, it's the desktop windows manager and has desktop composition. this gets in the way]

RUN explorer.exe
[File > Run... in Process Explorer, allows opengl to be used and basic OS navigations excluding metro start menu]

RESUME winlogon.exe when you want dwm.exe back (or restart)
[You may have to kill explorer again and suspend winlogon.exe again to get it to be resumeable]

The benefit to doing this is a dramatic reduction in cursor latency.
The downfall is the start menu goes to black and can't be used at all.

This has actually become very safe and easier to do. Now I really do recommend it to anyone on Windows 8 / 8.1

Gigabyte GTX 670 WF3 OC @ Z68 Chipsatz:

Ohne DWM, ohne iGPU
http://abload.de/img/gtx670dwmdisabled44yp2.jpg (http://abload.de/image.php?img=gtx670dwmdisabled44yp2.jpg)

Mit iGPU, mit DWM
http://abload.de/img/gtx670igpulcl3p.jpg (http://abload.de/image.php?img=gtx670igpulcl3p.jpg)

BZ
2015-01-25, 16:48:34
Nai's Benchmark
Allocating Memory . . .
Chunk Size: 128 MiByte
Allocated 30 Chunks
Allocated 3840 MiByte
Benchmarking DRAM
DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte):148.19 GByte/s
DRAM-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte):148.34 GByte/s
DRAM-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte):148.42 GByte/s
DRAM-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte):148.53 GByte/s
DRAM-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte):147.88 GByte/s
DRAM-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte):148.50 GByte/s
DRAM-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte):147.64 GByte/s
DRAM-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte):148.19 GByte/s
DRAM-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte):148.65 GByte/s
DRAM-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte):148.87 GByte/s
DRAM-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte):148.87 GByte/s
DRAM-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte):148.84 GByte/s
DRAM-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte):148.77 GByte/s
DRAM-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte):148.98 GByte/s
DRAM-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte):148.79 GByte/s
DRAM-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte):149.04 GByte/s
DRAM-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte):149.15 GByte/s
DRAM-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte):149.11 GByte/s
DRAM-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte):148.47 GByte/s
DRAM-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte):148.77 GByte/s
DRAM-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte):149.36 GByte/s
DRAM-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte):149.17 GByte/s
DRAM-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte):148.92 GByte/s
DRAM-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte):148.92 GByte/s
DRAM-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte):66.56 GByte/s
DRAM-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte):22.35 GByte/s
DRAM-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte):22.35 GByte/s
DRAM-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte):22.35 GByte/s
DRAM-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte):17.29 GByte/s
DRAM-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte):15.86 GByte/s
Benchmarking L2-Cache
L2-Cache-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte):389.42 GByte/s
L2-Cache-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte):389.57 GByte/s
L2-Cache-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte):389.36 GByte/s
L2-Cache-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte):389.33 GByte/s
L2-Cache-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte):389.38 GByte/s
L2-Cache-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte):389.42 GByte/s
L2-Cache-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte):389.52 GByte/s
L2-Cache-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte):389.45 GByte/s
L2-Cache-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte):389.34 GByte/s
L2-Cache-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte):389.55 GByte/s
L2-Cache-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte):389.32 GByte/s
L2-Cache-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte):389.35 GByte/s
L2-Cache-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte):389.48 GByte/s
L2-Cache-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte):389.40 GByte/s
L2-Cache-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte):389.32 GByte/s
L2-Cache-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte):389.33 GByte/s
L2-Cache-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte):389.45 GByte/s
L2-Cache-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte):389.33 GByte/s
L2-Cache-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte):389.32 GByte/s
L2-Cache-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte):389.43 GByte/s
L2-Cache-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte):389.40 GByte/s
L2-Cache-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte):389.45 GByte/s
L2-Cache-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte):389.28 GByte/s
L2-Cache-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte):389.55 GByte/s
L2-Cache-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte):194.63 GByte/s
L2-Cache-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte):69.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte):69.80 GByte/s
L2-Cache-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte):69.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte):25.30 GByte/s
L2-Cache-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte):16.06 GByte/s
Drücken Sie eine beliebige Taste . . .


Meine Gigabyte 970

Eraneva
2015-01-25, 16:49:18
Mir Platzt echt die Galle bei sowas!
Ich war bisher immer zufrierender Kunde von Nvidia aber das....



Kann mir jemand den Link zum Test bechmark geben ? Hab dem iwie hier nicht gefunden

urbi
2015-01-25, 16:52:02
Ja, diese Einschränkung hätte man kommunizieren müssen. Und Notiz an mich: keine krumm beschnittenen Karten kaufen.

Ich finde dass die Karte krumm beschnitten wurde ist an und für sich kein Problem. Man hätte es konsequent machen müssen: 3,5GiB, keine 512MiB Kackram dazu und dann eben auch als 3,5GiB Karte vermarkten. Gab es bei NVIDIA doch vor einigen Generationen standardmäßig...

GTX 970 "4GiB" 330€
GTX 970 "4GiB" OC 370€
GTX 980 4GiB 540€
Radeon R9 290 X 4GiB 320€
Radeon R9 290 X OC 8GiB 360€

Ungefähr so sah es Ende 2014 aus preislich - wie stark hätte man drehen müssen um die Karten attraktiv zu machen? IMO nicht viel, die Geforce GTX 970 mit 3,5GiB und ihr OC-Pendant vielleicht um 5-10% günstiger machen damit sie unter die normalen R 290 X kommen und dann vielleicht doch mal eine 7GiB / 8GiB Version der NVIDIA-Karten bringen für den bei AMD üblichen Aufpreis. Bei 50€ hätte die OC-Version einer 7GiB GTX 970 also etwa 420€ gekostet, 120€ Abstand zur 4GiB GTX 980, 170€ Abstand zur GTX 980 mit 8 GiB. Hätte alles gepasst. Würde IMO auch jetzt noch passen.

Knuddelbearli
2015-01-25, 17:03:03
Im Prinzip hat das NV vermutlich ja nur gemacht um gegen die 290X im Vram nicht "abzustinken". Und damit dürfte es dann auch eine bewusste Täuschung sein.

Kartenlehrling
2015-01-25, 17:05:09
Aber mit den neuen Komprimierverfahren brauch man doch keine 4gb,
da wird man selbst mit 4k-gaming keine 4gb vdram brauchen.

-/\-CruNcher-/\-
2015-01-25, 17:06:03
Wie lange wird sich unser Tom Petersen jetzt wohl erstmal nicht mehr in Interviews blicken lassen ;)
Oder ist er so beinhart zu sagen "Jetzt sag ich auch mal was dazu" ;)

AnarchX
2015-01-25, 17:07:47
Im Prinzip hat das NV vermutlich ja nur gemacht um gegen die 290X im Vram nicht "abzustinken". Und damit dürfte es dann auch eine bewusste Täuschung sein.
Ja, 3.5GiB+ wäre wohl keine Option gegen die R9 290er gewesen.

Mal sehen, ob AMD sich für den Sachverhalt interessiert und hier eine Benachteiligung ihrerseits feststellt.

Radeonfreak
2015-01-25, 17:09:19
Ohne jetzt 61 Seiten nachzuholen...die GTX 980 ist nicht betroffen, oder?

Thunder99
2015-01-25, 17:09:43
Zweifelsfrei handelt es sich hierbei also um eine Hardware-Limitierung. Die letzten 500 MiByte VRAM können somit schlichtweg nicht so effektiv gefüttert werden, wie der 3,5-GiB-Bereich.

Ich melde meine GTX970 morgen bei meinem Händler an, :mad:
um mir Ansprüche zu sichern.
Mal sehen was die unternehmen.
Berichte bitte dann, ich überlege noch was ich mache (obwohl ich kein Bock und nicht wirklich das Geld habe für eine 980er...)

-/\-CruNcher-/\-
2015-01-25, 17:10:44
Ja, 3.5GiB+ wäre wohl keine Option gegen die R9 290er gewesen.

Mal sehen, ob AMD sich für den Sachverhalt interessiert und hier eine Benachteiligung ihrerseits feststellt.

It's time for Huddy

Der trötet bestimmt was von "You see we are for Gamers no compromises there" ;)

Kriton
2015-01-25, 17:11:23
Ein weiterer Artikel bei PCGH.

VRAM bei GTX 970: Kommt jetzt eine Welle von Rückläufern auf die Händler zu? (http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/VRAM-GTX-970-Welle-von-Ruecklaeufern-Haendler-1148924/)

IMHO ist der Artikel nicht richtig was die Einschätzung der Erfolgswahrscheinlichkeit angeht.

Ich will das mal kurz skizzieren:

§ 434 BGB definiert nicht den Sachmangel, sondern die Sachmangelfreiheit.

§ 434 Abs. 1 Nr. 1 BGB ist vorranging, hier wohl üblicherweise aber nicht einschlägig (soweit richtig dargestellt). Daher kommen wir zu § 434 Abs. 1 Nr. 2 BGB.

Für eine Sachmängelfreiheit nach § 434 Abs. 1 Nr. 2 BGB müssen kumulativ 2 Voraussetzungen gegeben sein:

- Die Sache muss sich für die gewöhnliche Verwendung eignen und
- sie muss eine Beschaffenheit aufweisen, die bei Sachen der gleichen Art üblich ist und die der Käufer nach Art der Sache erwarten kann.

Es müssen also beide Voraussetzungen gegeben sein, damit kein Sachmangel vorliegt. Sollte eine der beiden nicht erfüllt sein, bedeutet dies, dass ein Sachmangel vorliegt.

§ 434 Abs. 1 S. 3 Alt. 2 BGB definiert dann, dass zu der Beschaffenheit auch Eigenschaften gehören, die der Käufer nach den öffentlichen Äußerungen des Herstellers insbesondere in der Werbung oder bei der Kennzeichnung über bestimmte Eigenschaften der Sache erwarten kann, es sei denn, dass der Verkäufer die Äußerung nicht kannte und auch nicht kennen musste, dass sie im Zeitpunkt des Vertragsschlusses in gleichwertiger Weise berichtigt war oder dass sie die Kaufentscheidung nicht beeinflussen konnte.

Die englische Webseite von Nvidia spricht von 4 GB RAM und einer Speicherbandbreite von 224 GB/sec. Insoweit haben wir eine öffentliche Äußerung des Herstellers. In Anbetracht des Umstands, dass diese bei der Produktbeschreibung der Herstellerseite zu finden ist könnten wir dies vermutlich gedanklich der Werbung zuordnen, jedenfalls aber wohl der Kennzeichnung über bestimmte Eigenschaften der Sache. Im Übrigen bedeutet das insbesondere, dass die Aufzählung dieser beiden Äußerungen nicht abschließend ist. Im Ergebnis dürfte insoweit eine relevante Aussage des Herstellers im Sinne von § 434 Abs. 1 S. 3 Alt. 2 BGB vorliegen.

Bleibt die Frage ob der Verkäufer sie nicht kannte und er sie auch nicht kennen musste (wiederum eine kumulative Anforderung). Ich denke wir können uns ohne größere Diskussion darauf einigen, dass der 2. Teil wohl zu verneinen ist - die normalen Produktangaben des Herstellers auf dessen Webseite sind vom Verkäufer zu kennen.
Eine Berichtigung liegt auch nicht vor. Und ob sie die Verkaufsentscheidung beeinflussen konnten lässt sich wohl nur im Einzelfall klären. Die Darlegungs- und Beweislast liegt insoweit jedoch beim Verkäufer - das dürfte faktisch darauf hinauslaufen, dass es diesem nicht möglich ist, da es schwer sein dürfte die Motivlage des Käufers insoweit zu kennen (es sei denn dieser sagt etwas dazu).

Im Ergebnis ist der 2. Punkt der oben genannten kumulativen Voraussetzungen aus § 434 Abs. 1 Nr. 2 BGB nicht gegeben. Damit liegt üblicherweise keine Sachmängelfreiheit vor, so dass ein Gewährleistungsanspruch in diesem Fall gegeben sein dürfte.

Sofern das jemand gerichtlich durchsetzen will, rate ich aber natürlich zu einem Anwalt.

Exxtreme
2015-01-25, 17:14:25
Ich finde dass die Karte krumm beschnitten wurde ist an und für sich kein Problem. Man hätte es konsequent machen müssen: 3,5GiB, keine 512MiB Kackram dazu und dann eben auch als 3,5GiB Karte vermarkten. Gab es bei NVIDIA doch vor einigen Generationen standardmäßig...

Ist hier wiederum die Frage ob eine GTX 970 mit 3,5 GB das bessere Angebot wäre. Ich kann mir gut vorstellen, dass die 0,5 GB "Kack-RAM" immer noch beträchtlich schneller sind als fehlende 0,5 GB über den PCIe-Bus auszulagern.

Aber wie schon geschrieben, Kommunikation ist stark verbesserungswürdig. Andererseits scheint der Vertrieb bei NV wohl doch recht viel Paranoia zu schieben wenn sie sowas unter dem Tisch kehren.

Schaffe89
2015-01-25, 17:22:18
http://abload.de/img/nvidiameetingmduti.jpg

Ich verstehe nach wie vor nicht, was hier das große Problem wäre, die Karte mit 3,5GB und etwas günstiger anzupreisen.

tdon
2015-01-25, 17:22:24
Da Nais Benchmark nur 3,5 GB ansprechen kann so wie ich das verstanden habe und der Rest nicht im VRAM, sondern im System-RAM getestet wird, sind die Ergebnisse dazu ja eher fragwürdig.




Das halte ich für unwahrscheinlich. Zwischen 8GB Dualchannel DDR3-2133 und 4GB Singlechannel DDR3-1600 weicht es nur ganz leicht ab, und das auch nur im letzten Chunk. Dedicated Usage zeigt es 3854MB an mit Treiber 347.25. Wenn das so wäre, müsste es deutlich abweichen und Singlechannel DDR3-1600 nicht bei über 20 GB/s liegen, was deutlich über dem theoretischen Maximum vom System RAM liegt.

http://fs2.directupload.net/images/150125/t2nmdffk.png

http://fs1.directupload.net/images/150125/uv6owntq.png

urbi
2015-01-25, 17:27:12
[...]Aber wie schon geschrieben, Kommunikation ist stark verbesserungswürdig. Andererseits scheint der Vertrieb bei NV wohl doch recht viel Paranoia zu schieben wenn sie sowas unter dem Tisch kehren.

Wenn sich die Gerüchte dass das ganze auch die GTX 670 betrifft bewahrheiten frage ich mich auch: Was hat die Geritten? Bei der GTX 570 hatte man doch auch "krumme" Zahlen. War das wirklich ein Problem? Oder braucht man glatte 2/4GiB weil Spieleentwickler darauf optimieren?

aufkrawall
2015-01-25, 17:29:00
Für die 670 gibts kaum Ergebnisse und teilweise widersprechen sie sich wohl auch.
Da kann man noch gar nichts draus ableiten. Tests ohne Angabe von DWM-Status sind auch relativ wertlos.

N0Thing
2015-01-25, 17:31:35
Wenn sich die Gerüchte dass das ganze auch die GTX 670 betrifft bewahrheiten frage ich mich auch: Was hat die Geritten? Bei der GTX 570 hatte man doch auch "krumme" Zahlen. War das wirklich ein Problem? Oder braucht man glatte 2/4GiB weil Spieleentwickler darauf optimieren?


Die GTX 670 scheint es nicht zu betreffen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10499742#post10499742

kruemelmonster
2015-01-25, 17:31:49
Nur den DWM abschiessen reicht scheinbar nicht (immer), mit der iGPU jedoch komme ich mit meiner GTX 670 auf korrekte Ergebnisse. Siehe meinen edit auf voriger Seite.

Exxtreme
2015-01-25, 17:31:55
Wenn sich die Gerüchte dass das ganze auch die GTX 670 betrifft bewahrheiten frage ich mich auch: Was hat die Geritten? Bei der GTX 570 hatte man doch auch "krumme" Zahlen. War das wirklich ein Problem? Oder braucht man glatte 2/4GiB weil Spieleentwickler darauf optimieren?
Ich glaube nicht, dass Spieleentwickler auf gerade GB-Zahlen optimieren. Macht auf dem PC keinen Sinn. Ich kann mir gut vorstellen, dass das zutrifft was ich weiter oben geschrieben habe: Die 0,5 GB "Kack-RAM" sind schneller als gar kein RAM. Und wenn der RAM recht billig ist dann hat man trotzdem einen Mehrwert.

AnarchX
2015-01-25, 17:32:53
Das halte ich für unwahrscheinlich. Zwischen 8GB Dualchannel DDR3-2133 und 4GB Singlechannel DDR3-1600 weicht es nur ganz leicht ab, und das auch nur im letzten Chunk. Dedicated Usage zeigt es 3854MB an mit Treiber 347.25. Wenn das so wäre, müsste es deutlich abweichen und Singlechannel DDR3-1600 nicht bei über 20 GB/s liegen, was deutlich über dem theoretischen Maximum vom System RAM liegt.

http://fs2.directupload.net/images/150125/t2nmdffk.png

http://fs1.directupload.net/images/150125/uv6owntq.png

Wenn man die Bandbreiten mit der GTX 980 vergleicht, ergibt sich die Vermutung.
3,5GiB @ 224-Bit + 0,5GiB @ 32-Bit

Die theoretischen 28GB/s der 0,5GiB wären natürlich schneller als RAM via PCIe. Aber genaue Tests sollten hier wohl nochmal untersuchen, ob NVs Mechanismus, wirklich so unkompliziert funktioniert, als wenn eine GTX 980 von ihrem VRAM in den Hauptspeicher auslagert.

OC_Burner
2015-01-25, 17:33:04
Wurde hier schonmal gepostet: https://osu.ppy.sh/forum/t/141175
This is to disable desktop composition in windows 8 and 8.1.

This does not apply to:
Fullscreen users (not windowed borderless)
Other operating systems (Desktop composition is a lot easier to disable in other operating systems)

Use Process Explorer and run it as Administrator

Do the following steps in order:

KILL explorer.exe

SUSPEND winlogon.exe
[This is so you can do the next step without it re-opening automatically]

KILL dwm.exe
[This is what you don't want to be running, it's the desktop windows manager and has desktop composition. this gets in the way]

RUN explorer.exe
[File > Run... in Process Explorer, allows opengl to be used and basic OS navigations excluding metro start menu]

RESUME winlogon.exe when you want dwm.exe back (or restart)
[You may have to kill explorer again and suspend winlogon.exe again to get it to be resumeable]

The benefit to doing this is a dramatic reduction in cursor latency.
The downfall is the start menu goes to black and can't be used at all.

This has actually become very safe and easier to do. Now I really do recommend it to anyone on Windows 8 / 8.1

Gigabyte GTX 670 WF3 OC @ Z68 Chipsatz:

Ohne DWM, ohne iGPU
http://abload.de/img/gtx670dwmdisabled44yp2.jpg (http://abload.de/image.php?img=gtx670dwmdisabled44yp2.jpg)

Mit iGPU, mit DWM
http://abload.de/img/gtx670igpulcl3p.jpg (http://abload.de/image.php?img=gtx670igpulcl3p.jpg)

Bei Heinz2001 (http://www.computerbase.de/forum/showthread.php?t=1435408&p=16914229#post16914229) brechen trotz iGPU und DWM off, weiterhin Chunks ein. Was stimmt denn jetzt?

kruemelmonster
2015-01-25, 17:37:10
Er hat den alten Benchmark unter Win7 und DWM=off, bei mir ist es der aktualisierte Bench unter Win8.1 und DWM=on. Zu viele Variablen.

/e: und 347.09 vs 347.25

tdon
2015-01-25, 17:39:34
Bei Heinz2001 (http://www.computerbase.de/forum/showthread.php?t=1435408&p=16914229#post16914229) brechen trotz iGPU und DWM off, weiterhin Chunks ein. Was stimmt denn jetzt?


Ich habe auch schon jemanden gesehen, der trotz iGPU angeblich mit der 980 Einbrüche erleidet, obwohl die bekanntlich nicht betroffen ist. Die meisten Resultate sind schlichtweg Müll, da muss man schon sehr vorsichtig sein. Fast zu jeder Karte lassen sich Einbrüche finden in den Foren, es wird leider fast nur Müll getestet.

Pitman
2015-01-25, 17:39:45
Ich glaube nicht, dass Spieleentwickler auf gerade GB-Zahlen optimieren. Macht auf dem PC keinen Sinn. Ich kann mir gut vorstellen, dass das zutrifft was ich weiter oben geschrieben habe: Die 0,5 GB "Kack-RAM" sind schneller als gar kein RAM. Und wenn der RAM recht billig ist dann hat man trotzdem einen Mehrwert.

Geht es nicht auch darum das es Miniruckler dabei gibt ? Der Treiber versucht hier schließlich irgendwie Einfluss zu nehmen. Das würde mich tatsächlich von einem Kauf der 970er abhalten.

Grüße
Pitman

captain_drink
2015-01-25, 17:40:49
Drei Dinge sind mir noch unklar:

1.) Warum ist die 980M (anscheinend) nicht betroffen, trotz deaktivierter SMM?

2.) Wäre die Belegung von >3,5 GB VRAM bei 970ern ohne Stuttering, Einbruch o.ä. dadurch zu erklären, dass der Treiber auch danach partitioniert, mit welcher Geschwindigkeit Daten in den VRAM geschrieben werden? Wenn die niedrigere Bandbreite ausreicht, werden die langsameren 500 MiB genutzt, andernfalls auf 3,5 GB begrenzt.

3.) Sollte auch bei Kepler ein direkter Zusammenhang zwischen SM und Füllrate bzw. Bandbreite bestehen, ließe sich dadurch erklären, weshalb NV bei hohen Auflösungen gg. AMD meist das Nachsehen hat? Ließe sich das mit nicht teildeaktivierten GPUs verifizieren?

aufkrawall
2015-01-25, 17:48:01
1.) Warum ist die 980M (anscheinend) nicht betroffen, trotz deaktivierter SMM?

Offenbar anders deaktiviert, die 980M hat laut Tools auch die vollen 2MB L2.


3.) Sollte auch bei Kepler ein direkter Zusammenhang zwischen SM und Füllrate bzw. Bandbreite bestehen, ließe sich dadurch erklären, weshalb NV bei hohen Auflösungen gg. AMD meist das Nachsehen hat? Ließe sich das mit nicht teildeaktivierten GPUs verifizieren?
Radeons arbeiten traditionell effektiver, wenn es mehr Pixel zu füllen gibt.
Das ist schon lange so und wird wohl auch erst dadurch verschwinden, dass sich höhere Auflösungen durchsetzen (aka niedrige Auflösungen interessieren niemanden mehr).
NV hat keine HiRes-Schwäche, sondern AMD eine LowRes-.

-/\-CruNcher-/\-
2015-01-25, 17:53:20
http://abload.de/img/nvidiameetingmduti.jpg

Ich verstehe nach wie vor nicht, was hier das große Problem wäre, die Karte mit 3,5GB und etwas günstiger anzupreisen.


„Die Selbsterkenntnis gibt dem Menschen das meiste Gute, die Selbsttäuschung aber das meiste Übel.“
―Sokrates

Botcruscher
2015-01-25, 17:55:05
3,5GB waren schon vom Marketing kein Thema.

PS: Das 256Bit Interface braucht es schon wenn nicht immer die gleichen SM abgeschaltet werden. Für einen Restechip wäre das äußerst unpraktisch.

Exxtreme
2015-01-25, 17:55:58
Geht es nicht auch darum das es Miniruckler dabei gibt ? Der Treiber versucht hier schließlich irgendwie Einfluss zu nehmen. Das würde mich tatsächlich von einem Kauf der 970er abhalten.

Grüße
Pitman
Der Treiber versucht offenbar zuallererst die ersten 3,5 GB zu belegen und erst wenn es nicht anders geht, benutzt er auch den Rest. Ob es hier zu Mikroruckeln kommt das müsste man ausmessen. Und wenn es dazu kommt dann könnte man das durch ein besseres Speichermanagement im Treiber minimieren/beseitigen.

tdon
2015-01-25, 17:57:32
Wenn man die Bandbreiten mit der GTX 980 vergleicht, ergibt sich die Vermutung.
3,5GiB @ 224-Bit + 0,5GiB @ 32-Bit

Die theoretischen 28GB/s der 0,5GiB wären natürlich schneller als RAM via PCIe. Aber genaue Tests sollten hier wohl nochmal untersuchen, ob NVs Mechanismus, wirklich so unkompliziert funktioniert, als wenn eine GTX 980 von ihrem VRAM in den Hauptspeicher auslagert.


Wie hoch kommt Gen1 x16 PCIe? Dann teste ich jetzt noch das.

BZ
2015-01-25, 17:57:47
Richtig ist das 256Bit RAM Anbindung nicht stimmt . Es sind nur 13x8 also 208 Bit evtl auch nur 192Bit
Richtig ist auch das ab 3,3 GB der RAM nicht mit voller Bandbreite angesprochen wird.


Wenn dem so ist wurden da doch auch falsche Angaben gemacht.

http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/373918-vram-bei-gtx-970-kommt-jetzt-eine-welle-von-ruecklaeufern-auf-die-haendler-zu-16.html

aths
2015-01-25, 18:00:55
Offenbar anders deaktiviert, die 980M hat laut Tools auch die vollen 2MB L2.


Radeons arbeiten traditionell effektiver, wenn es mehr Pixel zu füllen gibt.
Das ist schon lange so und wird wohl auch erst dadurch verschwinden, dass sich höhere Auflösungen durchsetzen (aka niedrige Auflösungen interessieren niemanden mehr).
NV hat keine HiRes-Schwäche, sondern AMD eine LowRes-.
Alternative Erklärung: NV-Treiber brauchen weniger CPU-Leistung.

Nakai
2015-01-25, 18:01:38
Hi Leute,

Habe das Ganze nochmal ohne DWM.exe laufen lassen und siehe da:

http://abload.de/img/gtx670ohnedwmn8qrr.jpg

Unter Win7 dwm.exe deaktivieren:

cmd als Admin öffnen, "net stop uxsms" eingeben.

Gruß,
Nils

Kepler hat auch ein vollständiges Crossbar hinter den SMXs.

Warum die GTX 980M und andere Mobile-Konsorten nicht betroffen sind? Entweder ist hier etwas nicht beschnitten oder so beschnitten, dass es keinen Nachteil bringt. Eventuell sind alle GTX970 oder nahezu alle GPUs bei welchen zwei SMMs nebeneinander bzw. welche auf einen Backend-Block zugreifen, wodurch der Interconnect weniger stark angesprochen werden kann.

€: Ihr glaubt doch nicht selber, dass defekter L2-Cache deaktiviert wird. Eventuell ist der reduzierte L2-Cache nur ein Nebeneffekt der Treiberanpassung. Nochmal, diese 0,5 GB langsamerer Speicher ist einfach ein Speicherchip, welcher als Einzelner angesprochen wird. Wenn CUDA bzw. der Treiber nur die 3,5GB zur Verfügung stellt, dann wird dieser 3,5GB Speicher nur von 1,75MB L2-Cache gecachet. Die Tools sehen einfach nicht mehr.

aufkrawall
2015-01-25, 18:04:07
Alternative Erklärung: NV-Treiber brauchen weniger CPU-Leistung.
Das spielt da natürlich auch mit rein, aber es war schon vor dem großen Thema Overhead so.

Schaffe89
2015-01-25, 18:05:27
Wie? Jetzt nurnoch 3,3GB V-ram?

-/\-CruNcher-/\-
2015-01-25, 18:07:30
im Borderless 3.2 GB + overhead ca 2xx MB DWM ;)

HBAO+/TXAA4

http://www.ld-host.de/uploads/images/f2c7523b2977eff1f167b8ee425cdb8f.jpg

captain_drink
2015-01-25, 18:11:24
Der Treiber versucht offenbar zuallererst die ersten 3,5 GB zu belegen und erst wenn es nicht anders geht, benutzt er auch den Rest. Ob es hier zu Mikroruckeln kommt das müsste man ausmessen. Und wenn es dazu kommt dann könnte man das durch ein besseres Speichermanagement im Treiber minimieren/beseitigen.

Speichermanagment wird da nicht viel helfen bzw. hilft bereits so gut es geht. Es kommt wohl zwangsläufig immer dann zu (Mikro-)Rucklern, wenn mehr als 3,5 GB die volle Bandbreite benötigen. Das ist natürlich genau das Umgekehrte davon, was man eigentlich will, denn so liegt die Grenze, bei der bereits ausgelagert wird, bei 3,5 GB, insofern die restlichen 500 MB nur dann genutzt werden, wenn es ohnehin überflüssig ist, sprich eine niedrige Bandbreite genügt, oder Speichermanagment aus irgendeinem Grund verhindert wird, wodurch die FPS massiv absacken. GK106 all over again.

AnarchX
2015-01-25, 18:11:53
Kepler hat auch ein vollständiges Crossbar hinter den SMXs.

Warum die GTX 980M und andere Mobile-Konsorten nicht betroffen sind? Entweder ist hier etwas nicht beschnitten oder so beschnitten, dass es keinen Nachteil bringt. Eventuell sind alle GTX970 oder nahezu alle GPUs bei welchen zwei SMMs nebeneinander bzw. welche auf einen Backend-Block zugreifen, wodurch der Interconnect weniger stark angesprochen werden kann.

Da könnte man nun auch Vermutungen über die 128-Bit bei der GTX 960 anstellen. :ulol:


€: Ihr glaubt doch nicht selber, dass defekter L2-Cache deaktiviert wird. Eventuell ist der reduzierte L2-Cache nur ein Nebeneffekt der Treiberanpassung. Nochmal, diese 0,5 GB langsamerer Speicher ist einfach ein Speicherchip, welcher als Einzelner angesprochen wird. Wenn CUDA bzw. der Treiber nur die 3,5GB zur Verfügung stellt, dann wird dieser 3,5GB Speicher nur von 1,75MB L2-Cache gecachet. Die Tools sehen einfach nicht mehr.
Das ist durchaus denkbar. Aber damit ergäbe sich wohl in der Tat nun ein 224-Bit Speicherinterface für die GTX 970.

Nakai
2015-01-25, 18:15:06
Da könnte man nun auch Vermutungen über die 128-Bit bei der GTX 960 anstellen. :ulol:


;)

Weißt du, ich wollte dir auch damals sehr schwer glauben, dass GM206 mehr als 8 SMMs hat, genau deswegen.^^

tdon
2015-01-25, 18:18:50
Jetzt mit Gen1 PCIe. Der letzte Chunk wird ausgelagert, weil deutlich niedriger jetzt. GPUz zeigt auch knapp 100 MB bei dynamic usage an. Das dürfte der letzte Chunk sein. Chunk 25-28 wird nicht ausgelagert so wie es aussieht.

http://fs2.directupload.net/images/150125/zohfd96b.png


http://fs2.directupload.net/images/150125/7m64ikyg.png


Mit 344.11 sieht das übrigens so aus:

http://fs2.directupload.net/images/150125/8uu59dp2.png

Weniger dynamic Usage im Nai Test, wahrscheinlich deswegen läuft 344.11 etwas besser im Nai Test.

fdsonne
2015-01-25, 18:19:19
Wenn sich die Gerüchte dass das ganze auch die GTX 670 betrifft bewahrheiten frage ich mich auch: Was hat die Geritten? Bei der GTX 570 hatte man doch auch "krumme" Zahlen. War das wirklich ein Problem? Oder braucht man glatte 2/4GiB weil Spieleentwickler darauf optimieren?

Die GTX 670 betrifft es dahingehend nicht, weil bei dieser der scheinbar volle Speicherbereich mit der gleich hohen Speicherbandbreite ansprechbar ist.

Es sind aber im Grunde zwei Probleme. Denn der zweite Part ist, dass die GTX 670 -> analog zur GTX 970, weniger Bandbreite liefert als sie eigentlich liefern müsste. Nämlich bei der 670er fehlt 1/8tel der Bandbreite von der 680er und bei der 970er fehlen 3/16tel der Bandbreite.
Bei ersterer ~155GB/sec vs. 178GB/sec. Und bei letzterer ~150GB/sec vs. 178GB/sec.
Auffallend dabei ist scheinbar, dass die Bandbreite einer vollen GK104 GPU (nicht der 770er! die scheint mehr zu leisten) ziemlich genau dem entspricht, wie die volle GM204 GPU liefert....

Von Problem A) -> Nachladeruckler, dauerhaft einbrechende FPS ist die 670er NICHT! betroffen, von Problem B) -> eigentlich zu wenig Durchsatz, allerdings schon.

Geht es nicht auch darum das es Miniruckler dabei gibt ? Der Treiber versucht hier schließlich irgendwie Einfluss zu nehmen. Das würde mich tatsächlich von einem Kauf der 970er abhalten.

Nicht Miniruckler... Das schimpft sich Nachladeruckler. Und diese sind zwangsweise immer vorhanden, wenn der Karte der VRAM ausgeht. Oder sie, wie bei der 970er, gezwungen wird, mehr VRAM zu belegen, als ihr real zugestanden wird.
Das ist aber kein wirkliches Problem, denn dieses Verhalten zeigen ALLE! Grafikkarten jeglicher Ausstattung und Anbindung. Man muss nur den VRAM Überbuchen und die Karte somit dazu zwingen, dieses Verhalten zu erzeugen...

1.) Warum ist die 980M (anscheinend) nicht betroffen, trotz deaktivierter SMM?
Wie oben schon erwähnt, offenbar hat die 980M vier SMMs weggelasert bekommen. Das sind im günstigsten Fall je einer pro ROP Partition. Damit kann wiederum die komplette Speichermenge mit der gleichen Geschwindigkeit angesprochen werden.
Allerdings müsste die 970M das gleiche Verhalten zeigen wie die 970er Desktop Karte. Nur sollte es dort im Bereich 2560MB bis 3072MB auftreten. Und je nachdem, was weggelasert wurde, bleiben hinten 1/4 oder 1/2 des Durchsatzes eines 64Bit MCs multipliziert mit dem Speichertakt über...

3.) Sollte auch bei Kepler ein direkter Zusammenhang zwischen SM und Füllrate bzw. Bandbreite bestehen, ließe sich dadurch erklären, weshalb NV bei hohen Auflösungen gg. AMD meist das Nachsehen hat? Ließe sich das mit nicht teildeaktivierten GPUs verifizieren?

Möglich, zumindest liegt die Bandbreite nach Nais Benchmark bei der 670er niedriger als bei anderen GK104 GPUs, die voll(er) beschalten sind. Und auffallend passt das Verhältniss überein...

aths
2015-01-25, 18:34:27
Jedem technisch halbwegs interessierten war klar dass bei 192 bit keine geraden 2 GB VRAM rauskommen können, das lag mehr oder weniger auf der Hand.

Ich brauche keine Marketingabteilung die mir 0.5 GB TurboCache (http://www.nvidia.com/page/turbocache.html) VRAM als Trostplaster dazulötet (ich bin schon groß und kann mit bewußt gewählten Einschränkungen wie 3.5 GB VRAM umgehen), und mir ist unerklärlich wie NV scheinbar der Meinung sein konnte dass sie diesen Mangel vor der Zielgruppe der 970 versteckt halten könnten.

Diesen Bumerang hat sich NV selbst an den eigenen Kopf geworfen.
Die 660 Ti war eine Marketing-Architektur. Man wollte moderne 2 GB bieten und hat ein halbes GB extra draufgepappt obwohl es nach Möglichkeit nicht genutzt werden sollte. Praktisch wie der vierte Schornstein der Titanic.

Bei der 970 scheint es eine Schwäche der Architektur zu sein, dass die Deaktivierung von SMX auch andere Parameter beeinflusst. Das ist ja eigentlich auch nicht schlimm, wenn die Maxwell-Effizienz an anderer Stelle Nachteile hat. Der Salvage-Part performt ja trotzdem gut.

Was mich wirklich wurmt, ist der Umgang. Als wären wir blöd. Wichtig ist, was die Karte praktisch leistet. Es ergibt keinen Sinn, die Specs geschönt darzustellen.

Die 980 hat weniger Shader, weniger Textureinheiten, weniger Speicherbandbreite als der Vorgänger und ist trotzdem schneller. Also vergleicht Nvidia lieber mit dem Vor-Vorgänger :bonk:

aufkrawall
2015-01-25, 18:37:49
Bei der 970 scheint es eine Schwäche der Architektur zu sein, dass die Deaktivierung von SMX auch andere Parameter beeinflusst. Das ist ja eigentlich auch nicht schlimm, wenn die Maxwell-Effizienz an anderer Stelle Nachteile hat. Der Salvage-Part performt ja trotzdem gut.

Da muss ich dir widersprechen, der 970-Salvage performt eben in bestimmten, aber real auftretenden Szenarien, durch die Frametime-Spikes beschissen.
Ich hab nicht den AFR-Müll weggeschmissen, den 3GB-Krüppel 780 Ti in Rente geschickt, nur um eklige Ruckler wahrnehmen zu müssen, die nicht sein müssten.

-/\-CruNcher-/\-
2015-01-25, 18:42:06
Sorry ich sehe keine und das bei Watch_Dogs heist schon etwas

meine Real resultate findet man teils im Video Thread genauso wie Dargos Ryse results :)

Meines sind echte NVenc lossy Realtime Borderless resultate NVIFR (kein Shadowplay NVFBC), Dargo bevorzugt Fraps lossless mit rekompression x264 lossy

Matrix316
2015-01-25, 18:45:57
Da muss ich dir widersprechen, der 970-Salvage performt eben in bestimmten, aber real auftretenden Szenarien, durch die Frametime-Spikes beschissen.
Ich hab nicht den AFR-Müll weggeschmissen, den 3GB-Krüppel 780 Ti in Rente geschickt, nur um eklige Ruckler wahrnehmen zu müssen, die nicht sein müssten.
Hast du mit der 290X keine Ruckler? Ich meine nämlich vom Gefühl her, dass WD auf der 970 gefühlt spielbarer ist als vorher mit meiner 290X. Vielleicht nicht in Ultra-Brezel-4K-4xMSAA Details, aber in Einstellungen wo man gut spielbare FPS bekommt.

Hab gerade mal nach 780 mit 6 GB gesucht und folgendes Zitat gefunden:
http://www.computerbase.de/forum/showthread.php?t=1396497&page=2
In Watchdogs ist es ein bekanntes Problem das es ruckelt bei zu wenig V-Ram und bei dem neuen HdR-Spiel weis man es auch:
"Nachdem wir naiv "Ultra"-Texturen in Zusammenspiel mit unserer Radeon R9 290X/4G eingestellt haben, wurden wir schnell eines Besseren belehrt: Der VRAM lief regelmäßig über, sodass es zu Nachladerucklern kam. Die Grafikkarte wurde also kurzerhand durch eine GTX Titan "Classic" mit 6 GiByte ausgetauscht, deren VRAM-Auslastung in GPU-Z auf knapp 5,3 GiByte beziffert wurde. Wechselt man von Full- auf Ultra HD sind es gut und gerne auch schon 5,8. Die anderen angegebenen Werte kommen ebenfalls hin, sodass man mit "High" auf die 3,5 GiByte kommt und mit "Medium" auf 2,5."

captain_drink
2015-01-25, 18:49:45
Da muss ich dir widersprechen, der 970-Salvage performt eben in bestimmten, aber real auftretenden Szenarien, durch die Frametime-Spikes beschissen.
Ich hab nicht den AFR-Müll weggeschmissen, den 3GB-Krüppel 780 Ti in Rente geschickt, nur um eklige Ruckler wahrnehmen zu müssen, die nicht sein müssten.

Schlechte Frametimes durch VRAM können bei der 970 im Prinzip drei Quellen haben:
-Partitionieren der Daten, um die 3,5 GB mit voller Bandbreite ansprechen zu können
-Auslagern von Daten in das langsamere Segment bei nötiger hoher Bandbreite (Lag-Spikes im einstelligen FPS-Bereich)
-Auslagern von Daten, wenn Nutzung der langsamen 500 MB nicht möglich ist (traditionelles "Überlaufen")

Beim Vollausbau oder Hawaii gibt es nur den letzten Faktor, der in Bezug auf VRAM die Frametimes negativ beeinflussen kann, und auch den erst ab 4 und nicht bereits 3,5 GB. FCAT-Messungen in einem passenden Szenario wären da sicher erhellend.

aths
2015-01-25, 18:51:36
Aber mit den neuen Komprimierverfahren brauch man doch keine 4gb,
da wird man selbst mit 4k-gaming keine 4gb vdram brauchen.
Die Framebufferkomprimierung spart Bandbreite, keinen Speicherplatz.

Black-Scorpion
2015-01-25, 18:52:10
Es ist ein Unterschied ob der Ram überläuft weil er voll belegt ist oder die Nachladeruckler auftreten obwohl der Ram noch gar nicht voll ist.

aths
2015-01-25, 19:01:45
Das spielt da natürlich auch mit rein, aber es war schon vor dem großen Thema Overhead so.
Aus meiner Sicht ergibt es keinen Sinn, andere Ursachen als CPU-Abhängigkeit zu sehen. Wenn viele Pixel gezeichnet werden müssen, ist es erst mal egal, ob es viele Pixel durch viele Bilder pro Sekunde, oder durch viele Pixel pro Bild sind. Die CPU hat für jedes Bild Extra-Arbeit zu verrichten. Da ATI-Karten traditionell in sehr hohen Auflösungen besser dastehen gegenüber NV-Karten wenn man mit kleineren Auflösungen vergleicht, müssen die ATI-Karten für sich genommen über die entsprechende Leistung verfügen. Bliebe aus meiner Sicht vorrangig die CPU-Auslastung als Variable.



Da muss ich dir widersprechen, der 970-Salvage performt eben in bestimmten, aber real auftretenden Szenarien, durch die Frametime-Spikes beschissen.
Ich hab nicht den AFR-Müll weggeschmissen, den 3GB-Krüppel 780 Ti in Rente geschickt, nur um eklige Ruckler wahrnehmen zu müssen, die nicht sein müssten.Wenn man an die 3,5-GB-Grenze kommt, was mir aufgrund der Windows-Fenstermananger-Nutzung allerdings auch mit der 980 und vermutlich jeder anderen 4-GB-Graka passieren würde, hast du Recht. Ingesamt scheint es nicht allzu viele solche Szenarien zu geben. Die meisten Spiele kommen mit 2 oder 3 GB gut aus. Ausgehend von der 780 Ti bietet die 970 natürlich kaum nutzbaren Mehrspeicher; allerdings frage ich mich dann wieso nicht gleich zur 980 greifen? Die hat bis zu 20% mehr Wumms als die 970. Wenn es hingegen auf den Speicher ankommt, hätte man damals eine 6-GB-Edition der 780 kaufen können.

Verglichen mit 960 als auch 980 bietet die 970 ordentliche Leistung zu einem vernünftigen Preis.

-/\-CruNcher-/\-
2015-01-25, 19:11:32
Und die Leistung wird sich sogar 1 jahr kostenlos steigern lassen (switch Windows 10) wenn gebraucht für die neue DX12 Lower Level Engine Generation und man kann sich dann entscheiden ob man das in Performance steckt oder lieber seine Grafik features aufwerten möchte wie z.b VXGI da das streaming bis dahin eh effizienter sein wird bei den meisten macht man absolut nichts falsch selbst nicht mit 3.5 GB ;)

Es sei denn Nvidia zündet auch hier noch eine Mega Bombe ;)

aufkrawall
2015-01-25, 19:18:08
Wenn viele Pixel gezeichnet werden müssen, ist es erst mal egal, ob es viele Pixel durch viele Bilder pro Sekunde, oder durch viele Pixel pro Bild sind.

Nope, Gipsel hatte den Sachverhalt mal technisch fundiert erklärt.


Ingesamt scheint es nicht allzu viele solche Szenarien zu geben. Die meisten Spiele kommen mit 2 oder 3 GB gut aus.

Mit 3GB sind mehrere neue Spiele am stocken in 1440p, häufig auch ohne MSAA.
Bitte nicht mit 1080p argumentieren, das ist nur noch Entry-Level für Displays.
Ich bins auch langsam leid, immer solche Spiele aufzählen zu sollen (schon so oft gemacht).
Guckt doch mal über den Tellerrand hinaus.


hätte man damals eine 6-GB-Edition der 780 kaufen können.

Die ist zu langsam für 1440p.
Maßstab ist für mich BF4 MP ohne MSAA.


Verglichen mit 960 als auch 980 bietet die 970 ordentliche Leistung zu einem vernünftigen Preis.
Ja, wären die Angaben ehrlich gewesen.

kruemelmonster
2015-01-25, 19:21:10
@aths:

Die Spec-Schindluderei bei Highend SKUs geht gar nicht und ärgert mich ebenfalls am meisten; die GTX 970 ist nur 1 Produkt, die Gedankengänge dahinter reichen aber meist etwas weiter.

Daher: Wehret den Anfängen!
Unabhängige Berichterstattung, ihr Auftritt...

...

Die 970 ist imho genauso ein Produkt wo das Marketing sich durchgesetzt hat, wo "Form follows Function" nicht beachtet wurde. Die technisch saubere Lösung wäre eine 3.5 GB Karte gewesen, so wie es in der Vergangenheit ebenfalls 640/896/1280 MB Salvage Karten ggü dem 768/1024/1536 MB Vollausbau gegeben hat.
Wenn durch die SMX Deaktivierung bei Maxwell gewisse Nebeneffekte auftreten und man keine 4 GB mit voller Bandbreite ansprechen kann, und trotzdem 4 GB verbaut werden ist es genauso eine Marketing Architektur.
Denn mun muss sich der Treiber mit dem zusätzlichen Management des halben GB TurboCache beschäftigen, und falls das dann zu Rucklern welcher Art auch immer führt (weil angefragte Daten entweder länger brauchen oder zwischendurch schon umsortiert werden) welche auf 980ern oder einer 3.5 GB Karte naturgemäß nicht vorhanden wären, hat man die Arschkarte gezogen die das Marketing einem ausgeteilt hat.

Die GTX 670 war (und ist) eine tolle Karte, eine Vernunftskarte wie du kürzlich sagtest, aber die GTX 970 kann imho jetzt eingestampft und durch eine vernünftige GTX 975 (Erinnerungen an die GTX 260-216 werden wach) ersetzt werden. Bisherigen Käufern kann man dann einen Spielegutschein als Kompensation in die Hand drücken.

Botcruscher
2015-01-25, 19:22:59
Streaming oder DX12 bringt dir bei Speicher voll überhaupt nichts. Die Ruckler kommen dann zwangsläufig. Da braucht man nichts schon reden. Mit dem Ende der Crossgentitel auf den Konsolen werden die 4GB normal am Anschlag laufen. Bis jetzt war alles nur ein Vorgeschmack. Aber schön wie das Problem relativiert wird.