PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Diskussion zur GTX970-Problematik: Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

urbi
2015-01-26, 17:26:34
Die GTX 780 wäre nicht die bessere Wahl gewesen. Die GTX 970 ist performance mäßig eine 780 mit 1 GB (oder halt eben 512 MB) mehr VRAM.

Genau darum ärgert es mich ja auch. :mad:

Nakai
2015-01-26, 17:27:37
Ich hab Nails Benchmark mal auf meiner 460GTX mit 1GB laufen lassen:
Entweder ein Bug oder mein RAM kommt aus der fernen Zukunft :D
Und warum erkennt er nur 896MB?

http://www.nvidia.de/object/product-geforce-gtx-460-de.html

Welche hast du denn?

Thunder99
2015-01-26, 17:27:49
Ja, Fenster ist Fenster, egal ob mit Rand oder ohne

Also nochmal, 40% mehr löhnen für 10-20% mehr Performance und 512MB mehr Ram? Oder mit dem Fehler leben und evt hoffen das es besser gemanaged wird?

HarryHirsch
2015-01-26, 17:28:38
der openCL-Tester hier:

http://abload.de/img/2015-01-26_17260154bub.png (http://abload.de/image.php?img=2015-01-26_17260154bub.png)

3GB

y33H@
2015-01-26, 17:29:03
Werden SMMs beschnitten, dann wird das Backend weniger gut angesprochen. Ich hoffe man kann es erkennen, worauf ich hinaus will. Ich habs einfach mal schnell hingeklatscht!Ja, das sieht ganz plausibel aus - muss aber eben nicht :(

Nakai
2015-01-26, 17:32:29
Ja, das sieht ganz plausibel aus - muss aber eben nicht :(

Naja vielleicht hilft es, dass NV mal aus der Reserve gelockt wird. Ich hoffe, wir sehen noch einen etwas genaueren Blick auf Maxwell. Ich bin kein Redakteur, das sollen andere machen.^^

Skysnake
2015-01-26, 17:33:02
Jup, aber ohne echte Whitepaper haben wir eben keine echte Chance, etwas besseres zu erstellen, als solche Schüsse ins Blaue.

BitJäger
2015-01-26, 17:33:47
In dem Artikel von HardewareLuxx (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/34026-limitierte-speichergeschwindigkeit-bei-der-geforce-gtx-970.html) gibt es einen, wie ich finde, einen sehr interessanten Absatz über ein VGA BIOS von MSI.


MSI hat uns in einer Mail mitgeteilt, dass man ein BIOS für die GeForce GTX 970 Gaming 4G veröffentlicht habe, die das Problem beheben soll. Auf Rückfrage konnte man uns noch nicht sagen, wie dies der Fall sein soll. NVIDIA bestreitet außerdem, dass es einen direkten Zusammenhang gibt. Die langsamere Adressierung des 512-MB-Bereichs lässt sich laut NVIDIA nicht durch ein BIOS-Update beheben, da dies eine Limitierung der Architektur sein, die sich mit Software nicht aufheben lässt.

2. Update:

MSI hat inzwischen auf unsere Nachfrage reagiert: "[Das BIOS-Update] sorgt nur für eine korrekte Erkennung von 4 GB Grafikspeicher in verschiedene Applikationen. Hier kam es z.T. auf Grund der Speicheraufteilung zu falschen Anzeigen des Gesamtspeichers."

Dies würde zumindest erklären, warum so viele unterschiedliche Ergebnisse zur Auslastung des Speichers im Umlauf sind. Offenbar sorgen verschiedenen Implementationen der Erkennung dafür, dass hier unterschiedliche Angaben gemacht werden. Unklar ist noch, welche weiteren Modelle betroffen sind bzw. welche bereits ohne BIOS-Update korrekt auslesen.

Mars81
2015-01-26, 17:34:38
http://www.nvidia.de/object/product-geforce-gtx-460-de.html

Welche hast du denn?

Eine von Gigabyte:
http://www.gigabyte.de/products/product-page.aspx?pid=3530#sp

Edit:
Ach, jetzt weis ich worauf du hinaus willst. Es ist der vollausgebaute GF104 mit einer nominellen Bandbreite von 115,2 GB/s.

kruemelmonster
2015-01-26, 17:39:11
Der Hersteller ist egal, mit Fermi kommen nur unrealistisch hohe Werte raus, das habe ich bei meiner GTX 470 ebenfalls.

Dawn on Titan
2015-01-26, 17:50:53
GM204 hat ja 16 ROPs pro GPC. Die nutzen ja wohl 64 Einheiten um auf den L2 Cache zu gehen.
Gehen wir jetzt mal davon aus, dass 16 jeweils eine GPC bedienen. Schaltet man eine SMM ab, verschwinden diese Verbindungen. Wenn nun die SMMs nicht völlig frei verbunden sind, sondern jeweils zu zweit, dann hätte man 4SMM + 3SMM und 3SMM + 3SMM.

Bei der 4+3 gibt es keine Probleme, bei der 3+3 sind 8 Einheiten praktisch überflüssig, wenn man da Daten durchlassen will müssen die von einem anderen SMM kommen und über den L2 Cache geleitet werden.

Macht 8 weniger.

4096/64 * 56 = 3584

2048/64 * 56 = 1792

Erklärt auch warum man 12 SMM kein Problem zeigen, wenn diese als 2x 3+3 kommen und erklärt auch warum man keine 14 SMM genommen hat, weil dort eine Karte mit 4+3 und 4+3 unauffällig wäre, während 4+4 und 3+3 auffällig wäre. man hätte also weniger Freiheit bei der Teildeaktivierung gehabt.

woodsdog
2015-01-26, 18:02:03
der openCL-Tester hier:

http://abload.de/img/2015-01-26_17260154bub.png (http://abload.de/image.php?img=2015-01-26_17260154bub.png)

3GB

Hawaii mit 3GB? :confused:

Thunder99
2015-01-26, 18:02:07
mittlerweile ist es auf Geizhals verlinkt das nur 3,5GB mit voller Geschwindigkeit genutzt werden können

aths
2015-01-26, 18:03:13
Ich überlege auch ne 980 zu holen. Schade, dass mein Step-up einige Tage vor dem Bekanntwerden des Problems auslief... Auf der anderen Seite habe ich von den Problemen bisher auch nichts gemerkt.
Du wirst von Nvidia genatzt und überlegst eine 980 zu kaufen?

Weiss nicht ob das was bringt. Die Grafikkarte erfüllt eigentlich alle zugesicherten Eigenschaften.
Das ist das Problem. Irgendwie kommen díe Angaben hin: 4 GB – vorhanden. 256-Bit-SI: Wahrscheinlich sind die 256 Datenleitungen verbaut und können alle auch genutzt werden. 64 ROPs: Je nach Antialiasing-Level hat man eine entsprechende ROP-Leistung.


Mich wurmt es halt schon 370€ für eine GTX 970 gezahlt zu haben. Hätte für 110€ weniger eine GTX 780 OC bekommen können. Die habe ich wegen dem einen Gigabyte mehr Ram nicht genommen. Für nur 500MB mehr hätte ich diesen Aufpreis nicht bezahlt.
Ich wollte erst fragen, wenn schon 370 Euro für eine GTX 970, wieso nicht gleich 530 Euro für eine GTX 980. Im Vergleich zu einer GTX 780 für 260 Euro ist aber klar, dass die 970 lockt. Wenn man mit voll nutzbaren 4 GB rechnet.

aths
2015-01-26, 18:15:52
Richtig - aber selten naiv von Nvidia anzunehmen, dass Marketing-Tricksereien nicht an das Licht kommen.

Die Karte hätte mit hoher Wahrscheinlichkeit nicht den bisherigen Verkaufserfolg, wenn von Anfang an auf der Verpackung - nicht 4 GB, sondern 3.5 GB und bei bestimmten Anwendungen zusätzlich 512 MB - gestanden hätte.
Ich vermute, dass viele denen der Speicher nicht ausreicht, dann eben zur 980 gegriffen hätten. Natürlich nicht alle, einige hätten gar nichts gekauft.

Jetzt ist der Image-Schaden da. Ich überlege schon fast, einen kritischen Artikel zu Maxwell zu schreiben, um es der Nachwelt zu erhalten.

Nakai
2015-01-26, 18:23:36
GM204 hat ja 16 ROPs pro GPC. Die nutzen ja wohl 64 Einheiten um auf den L2 Cache zu gehen.
Gehen wir jetzt mal davon aus, dass 16 jeweils eine GPC bedienen. Schaltet man eine SMM ab, verschwinden diese Verbindungen. Wenn nun die SMMs nicht völlig frei verbunden sind, sondern jeweils zu zweit, dann hätte man 4SMM + 3SMM und 3SMM + 3SMM.

Bei der 4+3 gibt es keine Probleme, bei der 3+3 sind 8 Einheiten praktisch überflüssig, wenn man da Daten durchlassen will müssen die von einem anderen SMM kommen und über den L2 Cache geleitet werden.

Macht 8 weniger.

4096/64 * 56 = 3584

2048/64 * 56 = 1792

Erklärt auch warum man 12 SMM kein Problem zeigen, wenn diese als 2x 3+3 kommen und erklärt auch warum man keine 14 SMM genommen hat, weil dort eine Karte mit 4+3 und 4+3 unauffällig wäre, während 4+4 und 3+3 auffällig wäre. man hätte also weniger Freiheit bei der Teildeaktivierung gehabt.

Ich habe meine Bildchen mal aufgebläht:


As the last one, just a guess.

GTX 980:
http://s13.postimg.org/4yb1eoj53/GTX980.png
GTX 970(Example):
http://s2.postimg.org/3rzewj3ll/GTX970.png
GTX 980M(Example):
http://s27.postimg.org/nuujlan4z/GTX980_M.png


Meinst du das so?

duzenko
2015-01-26, 18:25:03
Hawaii mit 3GB? :confused:
Probably R9 280(X)

Thunder99
2015-01-26, 18:27:29
Wie wahrscheinlich ist es das nvidia den Fehler korrigiert und Karten mit voll ansprechbaren 4GB auf den Markt bringt? :confused: :redface:

urbi
2015-01-26, 18:30:16
Es ist ja kein echter Fehler sondern logische Folge der Beschneidung des Chips. Ergo stehen die Chancen denke ich nicht so toll. Vielleicht irgendwann eine 8/7GB Version oder so.

Air Force One
2015-01-26, 18:30:16
Wie wahrscheinlich ist es das nvidia den Fehler korrigiert und Karten mit voll ansprechbaren 4GB auf den Markt bringt? :confused: :redface:

Gibt es doch... GTX980! :tongue:

BitJäger
2015-01-26, 18:31:00
Wie wahrscheinlich ist es das nvidia den Fehler korrigiert und Karten mit voll ansprechbaren 4GB auf den Markt bringt? :confused: :redface:

Das wird die GTX 975 mit vollen 4GB und ein paar MHz mehr und die kann dann wirklich DX12. Kommt zu Win10.

Dawn on Titan
2015-01-26, 18:33:26
Ich habe meine Bildchen mal aufgebläht:


As the last one, just a guess.

GTX 980:
http://s13.postimg.org/4yb1eoj53/GTX980.png
GTX 970(Example):
http://s2.postimg.org/3rzewj3ll/GTX970.png
GTX 980M(Example):
http://s27.postimg.org/nuujlan4z/GTX980_M.png


Meinst du das so?

Ich vermute eher, dass in Verbindung mit den L2 steht.

urbi
2015-01-26, 18:33:42
Das wird die GTX 975 mit vollen 4GB und ein paar MHz mehr und die kann dann wirklich DX12. Kommt zu Win10.

Wahrscheinlich nennen sie die dann aber wenigstens GTX 1070, wahrscheinlicher ist, dass die ihr Namensschema wieder mal umwerfen. :D

BZ
2015-01-26, 18:35:04
Ich vermute, dass viele denen der Speicher nicht ausreicht, dann eben zur 980 gegriffen hätten. Natürlich nicht alle, einige hätten gar nichts gekauft.

Jetzt ist der Image-Schaden da. Ich überlege schon fast, einen kritischen Artikel zu Maxwell zu schreiben, um es der Nachwelt zu erhalten.

Mach ruhig,
denn das was Nvidia da macht ist Betrug oder Rosstäuschen.

MadManniMan
2015-01-26, 18:42:59
*Thread abonniert*

Das ist mal ne unerwartete Wendung. Ich habe das Ganze nie Weile lang nicht verfolgt - wie ist das Problem denn offenbar geworden?

fondness
2015-01-26, 18:50:43
Es hatte zufällig jemand der eine GTX970 und GTX980 besitzt das unterschiedliche Speicher-Verhalten bemerkt.

bertramfx
2015-01-26, 18:51:01
Unglaublich, was für eine elendige Sauerei von Nvidia. Ich habe eine Gtx 970 gekauft und bin einfach fassungslos.

Mit Hardware muss man nun wohl dasselbe wie mit AAA-Titeln machen: Ein Jahr warten, dann für den halben Preis das gepatchte/gefixte Produkt kaufen.
Eine Wiedergutmachung von Seiten Nvidia wäre wohl angebracht.
Übrigens finde ich es unglaublich, dass es noch Leute gibt die das runterspielen.

fdsonne
2015-01-26, 18:53:40
Eventuell so:

This is just a guess and does NOT necessarily need to represent the truth!
http://s10.postimg.org/nnbbg0krt/NV_GM204.png


Werden SMMs beschnitten, dann wird das Backend weniger gut angesprochen. Ich hoffe man kann es erkennen, worauf ich hinaus will. Ich habs einfach mal schnell hingeklatscht!

Nakai, das klingt zwar passend, wenn man "nur" 980 gegen 970 vergleicht.
Kommt die 980M und die 970M aber mit ins Spiel, passt es nicht mehr...

Eine 980M erreicht in Nais Bench einen Durchsatz von 128GB/sec. Was ziemlich exakt dem entspricht, wenn man einer 980 Desktop Karte den Speichertakt auf 2506MHz runter kürzt. Und die 980M hat nur 12 von 16 SMMs aktiv.
http://www.hardwareluxx.de/community/f14/angebliches-problem-mit-gtx-970-und-4gb-grafikspeicher-allozierung-1057250-11.html#post23109300

Eine 970M erreicht in Nais Bench einen Durchsatz von 108GB/sec. Was ebenso ziemlich exakt dem entspricht, wenn man einer 970 Desktop Karte den Speichertakt auf 2506MHz runter kürzt. -> und diese hat nur noch 10 von 16 SMMs aktiv.
http://abload.de/img/does5qui0.png

Stellt sich die Frage, wie schafft die 980M trotz deaktivierung der SMMs den Durchsatz analog zur 980er Desktop Karte? Und wieso schafft die 970M nur den der 970er Desktopkarte? (jeweils abzgl. des Speichertakts bei der "M" Version)

Der einzige Punkt, der mit dazu einfällt wäre der, dass man der 980M einen ganzen Shaderblock mit allen vier SMMs deaktiviert hat. Und der Durchsatz zwischen einem solchen Shaderblock deutlich über dem liegt, was eigentlich benötigt wird. -> ergo die dann noch drei aktiven SMM-Blöcke gleichen das durch ihre Anbindung vollständig aus.
Das müsste dann aber im Umkehrschluss bedeuten, dass teildeaktivierte Shaderblöcke mit allem unter vier aktiven SMMs irgendwie limitieren. Nur warum?? Das erschließt sich mir nicht... :confused:

Nakai
2015-01-26, 18:55:45
Ich vermute eher, dass in Verbindung mit den L2 steht.

Siehe Hardwareluxx, welche anscheinend etwas mehr Infos bekommen haben:

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/34026-limitierte-speichergeschwindigkeit-bei-der-geforce-gtx-970.html

Auch der angeblich nur 1.792 kByte große L2-Cache, obwohl die GM204-GPU 2.048 kByte zur Verfügung hat, ist offenbar ein Auslesefehler eben dieser CUDA-Tools. Laut NVIDIA verfügt die GeForce GTX 970 über voll adressierbare 4 GB GDDR5-Grafikspeicher und 2 MB L2-Cache. Das die 4 GB Grafikspeicher bei der GeForce GTX 970 in 3.548 3.584 MB und 512 MB Bereiche aufgeteilt sind, bestätigte man noch einmal offiziell. Gründe für ein langsameres Ansprechen des 512-MB-Bereichs nennt man nicht konkret, sondern spricht nur davon, dass das fehlen von SMM dafür verantwortlich sei. Aufgrund der Zeitverschiebung beginnt das US-Team gerade erst mit der Arbeit und vielleicht wird man weitere technische Hintergründe liefern.

€: @Fdsonne:
Ich habe eine aufgeblähte Version erstellt. Mir ist sehr wohl bewusst, dass es sich hierbei niemals um die vollständige Realität handeln sollte, ich aber vermute, dass ein Interconnect-Problem bzw. ein vereinfachter Interconnect, die Probleme indirekt verursacht.

Erst wenn zwei parallele SMMs deaktiviert werden, wird ein hinterliegende ROP-Block mit L2-Cache und einem 32Bit MC nicht mehr richtig angesprochen. Der L2-Cache und die MCs sind vorhanden und wahrscheinlich auch ansprechbar. Für die GPU bzw. deren Recheneinheiten, die SMs, ist ein Teil des Backends nicht mehr nutzbar.

-/\-CruNcher-/\-
2015-01-26, 19:00:01
Diesen Abschnitt finde ich besonders geil. ;D

Schön zu sehen, dass sich der IHV und die Partner einig sind. :freak:


Find ich viel geiler


Wünschenswert wäre außerdem eine genaue technische Erläuterung der grundsätzlichen Problematik, allerdings verweist NVIDIA darauf, dass man eventuell nicht weiter ins Detail gehen könne, da sonst spezielle Funktionsweisen der Architektur verraten würden.

Nvidia hat die ganze vorgehensweise jetzt anscheinend zum Trade Secret erhoben ;)

Dieses billigen doch aussreichend effizienten vorgehens mit spezieler treiber und Engine Anpassung ;)

Wie jemand schon richtig sagte das ist jetzt ein feature der GTX 970 und dessen driver paths ;)

Jetzt muss man es erst recht ausseinenanderpflücken auf low level ebene und sich anschauen was passiert unter gleichen vorausetzungen zwischen GTX 980 und GTX 970 da reichen FPS nicht mehr

Weil hier werden ja auch explizit Entscheidungen der Entwickler (quasi umgeroutet) und Nvidia sagt von sich das hat keinen sichtbaren effekt und man merkt den unterschied nicht.


Also da verschlägt es einem fast den Atem :D

The error, as NVIDIA explains it, is that in creating the GTX 970 reviewer’s guide, the technical marketing team was unaware of Maxwell’s aforementioned and new “partial disable” capabilities when they filled out the GTX 970 specification table. They were aware that the GTX 970 would have the full 256-bit memory bus, and unaware of the ability to independently disable ROPs they assumed that all 64 ROPs and the full 2MB of L2 cache was similarly available and wrote the specification table accordingly. This error then made it into the final copy of the guide, not getting caught even after being shared around various groups at NVIDIA, with that information finally diffused by press such as ourselves.


Fingerzeig auf den Tech Azubi "er wars" der kleine da hinten in der Ecke der hat die scheise gebaut :D

Wir anderen haben das alle nur unglücklich überlessen "shit happens"

Wir sind alles nur Menschen "angaben alle ohne Gewähr" das hat uns auch total überrascht was wir da plötzlich in den Reviewern ihren Specs gelesen haben ;)

tdon
2015-01-26, 19:04:49
Siehe Hardwareluxx, welche anscheinend etwas mehr Infos bekommen haben:

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/34026-limitierte-speichergeschwindigkeit-bei-der-geforce-gtx-970.html



Dann liegt Anandtech falsch? Es gibt so viel Widersprüche, echt nicht mehr feierlich.


As a result GTX 970 only has 56 of 64 ROPs and 1.8MB of 2MB of L2 cache enabled
http://www.anandtech.com/show/8935/geforce-gtx-970-correcting-the-specs-exploring-memory-allocation

Nakai
2015-01-26, 19:06:26
Nein, es sollten sogar nur 52 ROPs messbar sein.

http://techreport.com/blog/27143/here-another-reason-the-geforce-gtx-970-is-slower-than-the-gtx-980

Anandtech labert, IMO, Unsinn. Erstmal wird ein L2-Cache pro MC angebunden. Wird L2-Cache deaktiviert, wäre ein MC vollkommen ungecacht, was ich mir sehr schwer vorstellen kann.
Die bei Anandtech denken wohl, dass, wenn gesagt wird, dass "GTX 970 has a 256-bit memory bus, but 1 of the 4 ROP/memory controller partitions was partially disabled, not fully enabled like we were originally told", dass eine ROP-Partition halbiert ist. Ich kann mir sehr schwer vorstellen, dass eine ROP-Partiton aus 2*8 ROPs, 512KB L2-Cache und ein 64Bit MC besteht. Ich denke es ist eher so, dass eine ROP-Partition aus 4*4ROPs besteht(macht Sinn, wenn eine SMM eine ROP-Anschlussbreite von 128Bit hat), 2*256KB L2-Cache und 2*32 Bit MC hat. Es werden ja immer noch Pixel-Quads(2*2 Pixel) betrachtet, wodurch 4er ROPs in Blöcken mehr Sinn machen sollten. Für mich sieht das nach einem kleinerem Interconnect zwischen SMs und ROP-Partitionen aus. Ich habe bereits eine Theorie in Bilder gegossen, was aber nicht stimmen muss.

€: Andere Erklärung, welche aus sehr schlüssig klingt.
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970

Thunder99
2015-01-26, 19:15:17
Mag sein das physikalisch 64 ROP vorhanden sind sowie 2MB L2 Cache, aber wenn nur 52 ROP messbar sind, dann können halt wirklich nur diese angesprochen werden. Damit lesen die Tools es indirekt schon richtig aus auch wenn nvidia sagt das stimmt nicht (um deren Entscheidung der Beschneidung des Chips den Shitstorm zu nehmen...), meine Meinung

fondness
2015-01-26, 19:17:02
AnandTech erklärt das Zeug ganz gut:
http://www.anandtech.com/show/8935/geforce-gtx-970-correcting-the-specs-exploring-memory-allocation

fdsonne
2015-01-26, 19:17:07
Erst wenn zwei parallele SMMs deaktiviert werden, wird ein hinterliegende ROP-Block mit L2-Cache und einem 32Bit MC nicht mehr richtig angesprochen. Der L2-Cache und die MCs sind vorhanden und wahrscheinlich auch ansprechbar. Für die GPU bzw. deren Recheneinheiten, die SMs, ist ein Teil des Backends nicht mehr nutzbar.

Das dache ich auch erst... Mich wundert aber die Höhe des Einbruchs in der Bandbreite allgemein. Nach dem Bench von Nai sind das 18,75%. Das ist 3/16tel weniger als die 980 in voller Beschaltung liefert.
Nimmt man nun an, dass "nur" der Block mit zwei deaktivierten SMMs betroffen wäre, dann müsste theoretisch die Bandbreite aber nicht um 3/16tel einknicken, sondern nur um 1/8tel. Wenn man allerdings annimmt, dass alle nicht voll beschaltenen Blocke von SMMs einen Teil der Bandbreite liegen lassen, dann müsste normal auch die 980M einknicken -> was sie nicht macht.

Mir fällt spontan keine Rechenkonstellation ein, in der man alle Werte unter einen Hut bringt... Irgend eine Messung tanzt aus der Reihe. -> was darauf schließen lässt, das da noch was entscheidendes in der Theorie fehlt... Nur was?


PS: auch auffallend dabei ist (ja es passt nicht ganz zum Thema), dass eine GTX 670, also Kepler GK104 im Verhältnis 1/8tel weniger Bandbreite in Nais Bench aufzeigt als eine GTX 680 in voller Beschaltung ;)

Xploder270
2015-01-26, 19:19:10
Hier jetzt die komplette Stellungnahme von NVidia auf pcper: http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970

Es sind tatsächlich nur 52 ROPs.

fondness
2015-01-26, 19:20:41
Tja das sind dann 32Gb/s für die letzten 512MB:

Let's be blunt here: access to the 0.5GB of memory, on its own and in a vacuum, would occur at 1/7th of the speed of the 3.5GB pool of memory.

Schaffe89
2015-01-26, 19:21:23
Betrug! Aarrghhh :D

-/\-CruNcher-/\-
2015-01-26, 19:28:09
AnandTech erklärt das Zeug ganz gut:
http://www.anandtech.com/show/8935/geforce-gtx-970-correcting-the-specs-exploring-memory-allocation

Es zeigt mal wieder das leben ist echt unberechenbar schicksal zufälle immer wieder faszinierend ;)

Kriton
2015-01-26, 19:30:19
Weiss nicht ob das was bringt. Die Grafikkarte erfüllt eigentlich alle zugesicherten Eigenschaften.

Ich zeige das jetzt zum 3. Mal:

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

Standard memory Config 4 GB
Memory Interface Width 256-bit
Memory Bandwidth (GB/sec) 224

Diese 3 Werte werden erfüllt?

Blediator16
2015-01-26, 19:30:43
Ich habe darmals mein P67 Mainboard auch eingeschickt. Mir war egal, ob zu dem Zeitpunkt alles ok war. Hier wäre es der selbe Fall. Egal wo es ist komplett unverständlich wieso es die Hulkforce vorzieht Nvidia in der Sache noch zu verteidigen.

Dawn on Titan
2015-01-26, 19:32:13
http://www.anandtech.com/show/8935/geforce-gtx-970-correcting-the-specs-exploring-memory-allocation/4

Also einfach 8 ROPs tot. Das ist nicht schlimm da die SMMs ja sowieso nur 52ROPs auslasten können. Der MC ist natürlich eine dumme Lüge.

Nakai
2015-01-26, 19:33:33
Hier jetzt die komplette Stellungnahme von NVidia auf pcper: http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970

Es sind tatsächlich nur 52 ROPs.

Klingt besser als die Erklärung von Anandtech.

AnarchX
2015-01-26, 19:34:43
Hier jetzt die komplette Stellungnahme von NVidia auf pcper: http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970

Es sind tatsächlich nur 52 ROPs.
Das NV-Diagramm zeigt, dass es nun doch am fehlenden L2-Cache liegt. Sofern man dem glauben will.:upara: ;D

BitJäger
2015-01-26, 19:34:57
NVIDIA says (http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970) this was an error in the reviewer’s guide and a misunderstanding between the engineering team and the technical PR team on how the architecture itself functioned.

Ohne Worte.

NemesisTN
2015-01-26, 19:38:54
Wenigstens haben sie nicht komplett auf stur geschaltet.
Der Artikel von PcPer war sehr erhellend.

Kriton
2015-01-26, 19:40:35
Jetzt ist der Image-Schaden da. Ich überlege schon fast, einen kritischen Artikel zu Maxwell zu schreiben, um es der Nachwelt zu erhalten.

:up:

Das wird die GTX 975 mit vollen 4GB und ein paar MHz mehr und die kann dann wirklich DX12. Kommt zu Win10.

Nur die "wichtigen" Features... Wer braucht schon die Unterstützung eines kompletten Standards. :rolleyes:

-/\-CruNcher-/\-
2015-01-26, 19:41:02
Das NV-Diagramm zeigt, dass es nun doch am fehlenden L2-Cache liegt. Sofern man dem glauben will.:upara: ;D

Hehe oder sie versuchen von etwas abzulenken was noch schutzwürdiger ist ;)

Blediator16
2015-01-26, 19:42:43
:up:



Nur die "wichtigen" Features... Wer braucht schon die Unterstützung eines kompletten Standards. :rolleyes:

Das wird dann wie mit 11.1 und "wer brauch den Quatsch denn schon" abgehakt.

Skysnake
2015-01-26, 19:43:28
Hier jetzt die komplette Stellungnahme von NVidia auf pcper: http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970

Es sind tatsächlich nur 52 ROPs.
Also das Bild macht noch immer nicht wirklich 100% Sinn.

Wenn ich das richtig sehe, dann müsste die GTX970 IMMER weniger RAM-Bandbreite liefern als die GTX980. Also zumindest, wenn die Bandbreite des Links nicht unnötig hoch gewählt ware, wovon ich nicht ausgehe. Ist dem so?

Was ich aber an sich noch nicht verstehe ist, warum man überhaupt da einen Link zwischen den L2 Slices hat, bzw dem MC. Das macht nicht wirklich Sinn.

Der L2 würde aber auf jeden Fall fehlen, und das ist schon nen ziemlicher hammer...

Also für mich hört sich das noch immer nach ziemlichen FUD an. DAs macht nicht wirklich Sinn, was ich da auf dem Bild sehe.

EDIT:
Ok, man sollte einfach doch alles im Detail lesen.

Das scheint doch Hand und Fuß zu haben. Die GTX970 hat wohl wirklich immer! ne niedrigere BAndbreite, weil man das 256 Bit Interface aufgrund des fehlenden CAches einfach nicht voll ausnutzt :ugly:

WTF! Sind die dumm im Kopf. Gerade bei Compute, richtet man sich ja gern an der SI-Breite aus. Das kann der absolute Performancekiller sein...

fdsonne
2015-01-26, 19:44:35
Also die Erklärung von NV bei PCP haut mich nicht vom Hocker... Denn sie lässt trotzdem Fragen offen.

- Warum wurde das eine "Bein" zum 8. MC eingekürzt bei der 970 und 970M und bei der 980M eben nicht?
- Warum spricht NV von "even if that 1/8th is 4x faster than system memory over PCI Express." -> PCIe 16x 3.0 Durchsatz ist bei mir 16GB/sec... x4 faster wäre nach meinem Verständnis also 64GB/sec. Ich sehe aber "nur" 22GB/sec? Es sieht also eher nach 1.375x faster than system memory over PCIe aus.
- der Part mit den 4-6% weniger Performance ist ebenso "abenteuerlich" -> die Leute beklagen doch eher die Nachladeruckler, die durch das Softlimit von 3,5GB entstehen...

Auch passt die Erklärung von 1/8tel weniger Anbindung zu den MCs durch wegkürzen des einen Beins nicht zu den Messwerten. Dort ists nicht 1/8tel, sondern es sind 3/16tel weniger Bandbreite... Und das ziemlich exakt. -> 1/8tel weniger wären 155GB/sec ausgehend von 178GB/sec bei der 980er. Das habe ich in KEINER Messung der 970er Modelle bis jetzt gesehen. Diese lag quasi IMMER bei 149-150GB/sec.


Mich dünkt, man verheimlicht da nach wie vor irgendwas...

Nakai
2015-01-26, 19:45:56
Also das Bild macht noch immer nicht wirklich 100% Sinn.

Wenn ich das richtig sehe, dann müsste die GTX970 IMMER weniger RAM-Bandbreite liefern als die GTX980. Also zumindest, wenn die Bandbreite des Links nicht unnötig hoch gewählt ware, wovon ich nicht ausgehe. Ist dem so?

Was ich aber an sich noch nicht verstehe ist, warum man überhaupt da einen Link zwischen den L2 Slices hat, bzw dem MC. Das macht nicht wirklich Sinn.

Der L2 würde aber auf jeden Fall fehlen, und das ist schon nen ziemlicher hammer...

Also für mich hört sich das noch immer nach ziemlichen FUD an. DAs macht nicht wirklich Sinn, was ich da auf dem Bild sehe.

Ja, und bei dem MCs wo der L2-Cache fehlt, übernimmt der andere L2-Cache dessen Funktionalität? Aber sehr schön, dass man einen Crossbar hinzeichnet und nicht erklärt, wie dieser aufgebaut ist.

AffenJack
2015-01-26, 19:48:32
Ich zeige das jetzt zum 3. Mal:

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

Standard memory Config 4 GB
Memory Interface Width 256-bit
Memory Bandwidth (GB/sec) 224

Diese 3 Werte werden erfüllt?

1 und 2 ja, denn es sind 4GB und wohl auch 256Bit bei den Memorycontrollern;). Die Geschwindigkeit ist in den Punkten noch egal. 3 wird dann nicht mehr erfüllt, da 224Gb/sec nicht erreicht werden können. Wenn wer ne Retoure machen will solltes aber einfacher sein sich auf die ROPs zu konzentrieren, denn da entspricht das Produkt definiv nicht den genannten Spezifikationen und man wird nen Umtausch verlangen können. Mit der Meldung von Nvidia sollte das doch bei Händlern auch kein Problem mehr sein, da Nvidia selbst zugibt das Produkt falsch angepreist zu haben.

fdsonne
2015-01-26, 19:50:15
Wenn ich das richtig sehe, dann müsste die GTX970 IMMER weniger RAM-Bandbreite liefern als die GTX980. Also zumindest, wenn die Bandbreite des Links nicht unnötig hoch gewählt ware, wovon ich nicht ausgehe. Ist dem so?

offenbar ja. Alle Messungen aus Nais Bench inkl. dem guru3d Mod davon zeigen weniger Durchsatz bei der 970er als bei der 980er. Das gleiche gilt für 970M vs. 980M.
Ebenso ist die GTX 670 im Test langsamer als eine voll beschaltene GTX 680 ;)
Warum letzteres so ist, keine Ahnung.

Das Verhältnis, was die 970er Modelle (inkl. M) langsamer als die 980 (inkl. M) ist, liegt bei 3/16tel. Bei der 670 vs. 680 liegts bei 1/8tel.
Auffallend dabei -> der 970er fehlen 3/16tel Shader. Der 670er fehlt 1/8tel Shader.
Zufall?

AnarchX
2015-01-26, 19:50:48
Ja, und bei dem MCs wo der L2-Cache fehlt, übernimmt der andere L2-Cache dessen Funktionalität? Aber sehr schön, dass man einen Crossbar hinzeichnet und nicht erklärt, wie dieser aufgebaut ist.
Vielleicht hängen beide IMCs am gleichen L2-Cache, der aber mit der Beschneidung hier nicht vollständig alle Speicherzugriffe verarbeiten kann.

Xploder270
2015-01-26, 19:54:30
Video von PcPer zum Thema:
https://www.youtube.com/watch?v=b74MYv8ldXc

-/\-CruNcher-/\-
2015-01-26, 19:56:44
Hier wird nur von

A GTX 970 without this memory pool division would run 4-6% faster than the GTX 970s selling today in high memory utilization scenarios.

Aber was ist mit Latency ?

Skysnake
2015-01-26, 20:00:08
Ja, und bei dem MCs wo der L2-Cache fehlt, übernimmt der andere L2-Cache dessen Funktionalität? Aber sehr schön, dass man einen Crossbar hinzeichnet und nicht erklärt, wie dieser aufgebaut ist.
Also an sich macht das nicht wirklich Sinn. Ne Cacheline wird sicherlich 64 Bit breit sein. Dann kannste das nämlich einfach an den MC dranhängen. An sich fehlt da also dann nichts, und man überkreuzt da auch nichts.

Dass der Cache da die Daten auch über Kreuz cachen können soll, kann ich mir nicht vorstellen. Das wäre mal nen riesen großer Mehraufwand! Man muss dann ja immer prüfen, von welcher Seite es kommt, und eben dafür zusätzliche Bits parat halten.... Zudem müsste man Raceconditions vermeiden usw usw usw. Die Idee dahinter hört sich für mich völlig banane an...

Wenn kann ich mir eher vorstellen, das man den L2 Cache für den RAM-Bereich "einfach" umgeht. Gibt ja bei AMD auch Fastpath usw.

Das man den Crossbar nicht erklärt, finde ich aber nicht schlimm. Das sollte einfach ein Crossbar sein. Also eine N:M Verbindung und gut ist. Was anderes würde ich auch auf gar keinen Fall erwarten, weil dass die Nutzbarkeit extrem einschränken würde.

blaidd
2015-01-26, 20:02:23
Ich frage mich, wie sich dieser ganze Speicher-Clusterfuck auswirkt, wenn erstmal per DX12 ein Low-Level-Zugriff auf diesen möglich wird? Kann man dann die Problematik vielleicht umgehen? Oder könnte hier zusätzlicher Ärger entstehen? Und wie viel Kontrolle kann dann noch der Treiber übernehmen, falls ein Entwickler beispielsweise davon ausgeht, dass vier GiByte verbaut sind und diese dann auch adressiert?

M4xw0lf
2015-01-26, 20:06:41
Für belastbare und hintergründige Informationen zu dieser Frage wendet euch doch am besten an Nvidia. Ooooder.... nicht.

Rente
2015-01-26, 20:07:19
Gibt es jetzt eigentlich schon Tests mit Frametime-Messungen? Ich konnte in den ganzen Ausführungen bei Anand und pcper dazu nichts finden, dabei stellt das doch das eigentliche Problem dar.

dildo4u
2015-01-26, 20:09:06
pcper will's Heute noch testen die machen immer Frametime Messungen.

(Side note: we are going to try to do some of our own testing this afternoon.)

www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970

-/\-CruNcher-/\-
2015-01-26, 20:09:36
Should NVIDIA have been more upfront about the changes this GPU brought compared to the GTX 980? Absolutely and emphatically. But does this change the stance or position of the GTX 970 in the world of discrete PC graphics? I don’t think it does.

Das wird hier verdammt philosophisch


AMD macht endlich hinne ich will weg von denen ;)

tdon
2015-01-26, 20:14:54
Gibt es jetzt eigentlich schon Tests mit Frametime-Messungen? Ich konnte in den ganzen Ausführungen bei Anand und pcper dazu nichts finden, dabei stellt das doch das eigentliche Problem dar.


Nicht viel.

http://www.extremetech.com/extreme/198223-investigating-the-gtx-970-does-nvidias-penultimate-gpu-have-a-memory-problem/2


Solche Fehler bei den Specs der zweitgrößten Karte ist kaum zu glauben. Umso lächerlicher, dass sich Nvidia 2 Wochen lang unwissend getan hat. Als wenn Nvidia ihren GTX 970 Aufbau nicht kennt. Da hat wohl das Marketing zu lange gebraucht, um ein Text aufzusetzen. Im neuen Artikel ist die Rede plötzlich von 4-6%. Wie ernst kann man Nvidia Statements noch nehmen frage ich mich.

blaidd
2015-01-26, 20:32:20
Gibt es jetzt eigentlich schon Tests mit Frametime-Messungen? Ich konnte in den ganzen Ausführungen bei Anand und pcper dazu nichts finden, dabei stellt das doch das eigentliche Problem dar.

Carsten hat fleißig Überstunden geschoben, um heute noch was auf die Beine zu stellen, ein paar Frametimes von Watch Dogs sind auch dabei. Mehr kommt Morgen.

http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/

Birdman
2015-01-26, 20:45:42
Die eine Aussage von Alben ist so lustig wie hypothetisch:
To those wondering how peak bandwidth would remain at 224 GB/s despite the division of memory controllers on the GTX 970, Alben stated that it can reach that speed only when memory is being accessed in both pool

man könnte zwar 224GB/s erreichen, der Treiber verhindert das aber aktiv, da er quasi eh nur den ersten Memoryblock verwendet....
;)

-/\-CruNcher-/\-
2015-01-26, 20:46:07
Carsten hat fleißig Überstunden geschoben, um heute noch was auf die Beine zu stellen, ein paar Frametimes von Watch Dogs sind auch dabei. Mehr kommt Morgen.

http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/

Der test überzeugt mich nicht 5 sekunden

Zumal es auch interessanter ist hier zu testen was Nvidia verändert hat um die Latency einigermasen stabil zu bekommen durch die Treiber hinweg

Ein Frameverlauf ist ein witz vor allem einer ohne erkennbares Ziel

Schnoesel
2015-01-26, 20:47:42
Alter Falter das wird ja immer besser, jetzt fehlt sogar schon was vom L2 Cache?! Haben wohl nach dem Maxwell launch zu viel in die Champagnerdose geschaut oder wie erklärt man das, dass diese "miscommunication" 4 MOnate lang nicht aufgefallen ist und man dann nochmal 2 Wochen brauchte um eine halbseidene Erklärunge abzugeben.

Ich bin wirklich erstaunt, dass hätte echt nicht für möglich gehalten. :eek:

PS: Oh und bei der Gelegnheit ist wohl auch noch Bandbreite verloren gegangen?! eieiei

tdon
2015-01-26, 20:49:25
Tja das sind dann 32Gb/s für die letzten 512MB:


Nicht ganz.


GTX 970 can read the 3.5GB segment at 196GB/sec (7GHz * 7 ports * 32-bits), or it can read the 512MB segment at 28GB/sec
http://www.anandtech.com/show/8935/geforce-gtx-970-correcting-the-specs-exploring-memory-allocation/2

blaidd
2015-01-26, 20:51:27
Der test überzeugt mich nicht 5 sekunden

Zumal es auch interessanter ist hier zu testen was Nvidia verändert hat um die Latency einigermasen stabil zu bekommen durch die Treiber hinweg

Ein Frameverlauf ist ein witz vor allem einer ohne Ziel

Wenn du das ein bisschen präzisieren würdest, könnte ich das gern weiterleiten. Mehr Messungen sind außerdem in der Mache. Es ist nun mal gar nicht so leicht, erst einmal ein vernünftiges Szenario zu finden.

dildo4u
2015-01-26, 20:51:40
Alter Falter das wird ja immer besser, jetzt fehlt sogar schon was vom L2 Cache?! Haben wohl nach dem Maxwell launch zu viel in die Champagnerdose geschaut oder wie erklärt man das, dass diese "miscommunication" 4 MOnate lang nicht aufgefallen ist und man dann nochmal 2 Wochen brauchte um eine halbseidene Erklärunge abzugeben.

Ich bin wirklich erstaunt, dass hätte echt nicht für möglich gehalten. :eek:

PS: Oh und bei der Gelegnheit ist wohl auch noch Bandbreite verloren gegangen?! eieiei
Natürlich ist das Ding Überall beschnitten warum kostet es sonst wohl 300 statt 500€?Das Design ist halt noch besser als Kepler was das abschalten gewisser Einheiten angeht,daher hat man bessere Yields beim Salvage Part was zu den für NV Verhältnissen guten Preis führt.

Rente
2015-01-26, 20:51:44
Carsten hat fleißig Überstunden geschoben, um heute noch was auf die Beine zu stellen, ein paar Frametimes von Watch Dogs sind auch dabei. Mehr kommt Morgen.

http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/
FPS-Verlaufdiagramme sind zwar nett, genaue Frametimes (also nicht nur eine gemittelte Angabe pro Sekunde) aber aus meiner Sicht für die genaue Analyse deutlich interessanter.
Mit der aktuellen Variante würde man nur große Unregelmäßigkeiten sehen - die eben auch nicht sichtbar sind.

Falls ihr über genauere Daten (z.B. in CSV-Form) verfügt, wäre es super wenn ihr diese auch visualisieren könntet oder zu mindestens zusätzlich zum Download anbieten könntet.
Natürlich trotzdem schon einmal vielen Dank für eure Arbeit. :)

Flusher
2015-01-26, 20:53:53
Tja ich würde sagen, da kann man von einem Maxwell-Gate sprechen

Ätznatron
2015-01-26, 20:54:01
Carsten hat fleißig Überstunden geschoben, um heute noch was auf die Beine zu stellen, ein paar Frametimes von Watch Dogs sind auch dabei. Mehr kommt Morgen.

http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/

Prima.

Carsten meint: Im Zweifel für den Angeklagten wollen wir Nvidia einstweilen Glauben schenken, dass es sich hierbei um ein Versehen handelt.

:freak:

blaidd
2015-01-26, 20:54:19
Whoops, ihr hat natürlich recht, dass sind ja bloß die Frameverläufe -.- Ja, in der Tat, Frametimes wären aufschlussreicher. Mal sehen, was sich da machen lässt.

EDIT: Carsten meint... das eventuell ein wenig ironisch. Er hat manchmal einen etwas komplizierten Humor.

dargo
2015-01-26, 20:55:56
Whoops, ihr hat natürlich recht, dass sind ja bloß die Frameverläufe -.- Ja, in der Tat, Frametimes wären aufschlussreicher. Mal sehen, was sich da machen lässt.
Und ich wundere mich schon die ganze Zeit wo die Frametimes sein sollen, dachte ich wäre blind. :freak:

Effe
2015-01-26, 20:56:22
Der Kaufpreis der 970 beim Launch war auch zu schön, um wahr zu sein. Irgendwo musste da ein Haken versteckt sein.
Bizzar und lächerlich ist die Ausrede, sie haben "vergessen" die Konsumenten zu informieren. Ich bin mal gespannt, wie nachhaltig der Imageschaden von Nvidia ist.

-/\-CruNcher-/\-
2015-01-26, 20:56:36
Whoops, ihr hat natürlich recht, dass sind ja bloß die Frameverläufe -.- Ja, in der Tat, Frametimes wären aufschlussreicher. Mal sehen, was sich da machen lässt.

EDIT: Carsten meint... das eventuell ein wenig ironisch. Er hat manchmal einen etwas komplizierten Humor.

Vor allem müsst ihr endlich mal anfangen das ganze zu visualisieren und gebrauch von dem Medium bewegtes Bild machen ;)

Komischerweise konntet ihr das früher ja so toll wo ihr die Aussetzer noch beim Ultra Streaming aufgezeigt habt und gerade jetzt geht es um echtzeit ergebnisse keine nicht greifbaren Charts oder Balkendiagrame und vor allem nicht Frameverläufe in dieser Darstellung.

kruemelmonster
2015-01-26, 20:59:30
Ich kaufe NV die Miscommunication-Geschichte sogar ab, das ist hier imho die bessere Erklärung als eine Verschwörung die eh zwangsläufig ans Tageslicht kommen musste.

Das macht die konkrete Situation aber auch nicht besser:

GTX 970 can read the 3.5GB segment at 196GB/sec (7GHz * 7 ports * 32-bits), or it can read the 512MB segment at 28GB/sec, but not both at once; it is a true XOR situation. Furthermore because the 512MB segment cannot be read at the same time as the 3.5GB segment, reading this segment blocks accessing the 3.5GB segment for that cycle, further reducing the effective memory bandwidth of the card. The larger the percentage of the time the crossbar is reading the 512MB segment, the lower the effective memory bandwidth from the 3.5GB segment.

:facepalm:

Hätten technische Grunde dagegen gesprochen den achten MC ebenfalls zu deaktivieren (mit dem L2 klappts ja auch) und eine ehrliche 224bit Karte mit 7x 512 MB rauszubringen?
Mir wäre ein solches Hardlimit lieber gewesen als dieses schwammige Softlimit welches nun für Kuddelmuddel sorgt wie hier (http://www.neogaf.com/forum/showpost.php?p=149081753&postcount=700) schön zu sehen ist.

dargo
2015-01-26, 20:59:50
Vor allem müsst ihr endlich mal anfangen das ganze zu visualisieren und gebrauch von dem Medium bewegtes Bild machen ;)
Wofür? Ob die jetzt Frameverläufe liefern oder ein Video wie von DF mit nen Framecounter im Bild ist Jacke wie Hose.

Hübie
2015-01-26, 21:00:24
Ich habe meine Bildchen mal aufgebläht:


As the last one, just a guess.

GTX 980:
http://s13.postimg.org/4yb1eoj53/GTX980.png
GTX 970(Example):
http://s2.postimg.org/3rzewj3ll/GTX970.png
GTX 980M(Example):
http://s27.postimg.org/nuujlan4z/GTX980_M.png


Meinst du das so?

Ich dachte eher an das:

http://abload.de/thumb/gtx970_memory_error86rjb.png (http://abload.de/image.php?img=gtx970_memory_error86rjb.png)

Ob der L2 tatsächlich inaktiv ist (also elektrisch) oder nicht is schwer zu sagen. Für gewöhnlich haben L2 eigene PLL und auch Spannungsversorgung. Es macht keinen Sinn die Spannungsversorgung mit dem SMM zu koppeln - ODER? :|

y33H@
2015-01-26, 21:01:02
Tja, dann haben die Tools doch den richtigen L2 ausgelesen und die niedrigere Bandbreite.

51021

Skysnake
2015-01-26, 21:01:16
Man kann die Frametimes ja im Endeffekt rausrechnen aus dem Frameverlauf, sofern die Auflösung hoch genug ist :tongue:;D

Botcruscher
2015-01-26, 21:02:59
Und ich wundere mich schon die ganze Zeit wo die Frametimes sein sollen, dachte ich wäre blind. :freak:

Heise fand ich mit der Aussage durchschnittlich 4-8% langsamer besser. Wenn juckt der Nachladeruckler...

Angiesan
2015-01-26, 21:06:42
Carsten hat fleißig Überstunden geschoben, um heute noch was auf die Beine zu stellen, ein paar Frametimes von Watch Dogs sind auch dabei. Mehr kommt Morgen.

http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/

Danke und damit ist dann auch der letzte Knoten raus es ist wie schon von vielen gedacht, die GTX 9xx hat keine 4*64 Bit SI -Controller sondern 2*32*4 Bit SI Controller, so wie es jetzt gelöst ist kann man im aller besten Fall von einer 224+32 Bit Si reden, dann hätte man aber auch bei der GK 106 von einer 192+32 Bit SI reden dürfen.
Was NV da macht ist nun die totale Verarsche und die Karte hat zwar physisch die volle Bandbreite, kann sie aber so gar nicht nutzen, faktisch haben wir hier ein 224 Bit SI vorliegen:eek:
Das sollte man noch mit aufnehmen, damit es später nicht heißt hoppla haben wir in der ganzen Aufregung vergessen explizit zu erwähnen :freak:
Und natürlich ist rein mathematisch 224+32= 256 :biggrin:

(del676)
2015-01-26, 21:13:46
Leo wird sicher einen Grund finden, warum doch ATI an der Sache schuld hat. ;)

-/\-CruNcher-/\-
2015-01-26, 21:14:36
Nvidia sollte die Möglichkeit bieten via Treiber die 0.5 GB komplett zu ignorieren wie gesagt vielleicht ist einer ihrer Memory Management modes dafür gedacht.

Szudri
2015-01-26, 21:17:18
Zitat:
NVIDIA says (http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970) this was an error in the reviewer’s guide and a misunderstanding between the engineering team and the technical PR team on how the architecture itself functioned.
Ohne Worte.

Jetzt mal ernsthaft... die Karte ist seit September auf dem Markt und den Technikern von nvidia lesen keine Reveiws der eigenen Karten? Die wollen mir jetzt ernsthaft verkaufen dass denen das nicht aufgefallen ist, dass da son fetter Bockmist auf allen Reviewer Seiten herscht?

Werden die bei nVidia nicht raus gelassen oder was? Die Aussage da halte ich für totalen Blödsinn. Die haben 4 Monate an einer gefeilten Ausrede gearbeitet bis es aufpoppt....

Hübie
2015-01-26, 21:20:36
Danke und damit ist dann auch der letzte Knoten raus es ist wie schon von vielen gedacht, die GTX 9xx hat keine 4*64 Bit SI -Controller sondern 2*32*4 Bit SI Controller, so wie es jetzt gelöst ist kann man im aller besten Fall von einer 224+32 Bit Si reden, dann hätte man aber auch bei der GK 106 von einer 192+32 Bit SI reden dürfen.
Was NV da macht ist nun die totale Verarsche und die Karte hat zwar physisch die volle Bandbreite, kann sie aber so gar nicht nutzen, faktisch haben wir hier ein 224 Bit SI vorliegen:eek:
Das sollte man noch mit aufnehmen, damit es später nicht heißt hoppla haben wir in der ganzen Aufregung vergessen explizit zu erwähnen :freak:
Und natürlich ist rein mathematisch 224+32= 256 :biggrin:


*Hust*

Ich bin mir nicht sicher, aber denke es wird mit den ROP-Partitionen (oder zumindest mit etwas am backend) zusammenhängen. Diese sind laut Infos direkt an einem L2$-Slice welcher wiederum an 2*32Bit IMC ist. Ein slice is 128 KByte und ist wohl über ne crossbar mit allen SMMs verknüpft / verdrahtet. Wenn jetzt also die selber Datenmenge versucht L2 Hits zu landen dann muss sequenziert werden. So meine Theorie.
Leider gibt es immer noch keine dieshots frei verfügbar, sonst könnte man mehr sagen. Was nVidia whitepaper nennt, nenne ich Info-Broschüre. Null Infos zur MMU, MMIO etc.

Edit: Na nu der User GTX980 ist gesperrt? :| So schlimm war der Typ nun auch wieder nicht. X-D

Das ist keine neue Erkenntnis und ist physikalisch bedingt. :wink:

Menace
2015-01-26, 21:22:10
EDIT: Carsten meint... das eventuell ein wenig ironisch. Er hat manchmal einen etwas komplizierten Humor.

Nein. Da kann man selbst mit besten guten Willen keine Ironie (und erst Recht kein Sarkasmus) erkennen.

urbi
2015-01-26, 21:24:23
Danke und damit ist dann auch der letzte Knoten raus es ist wie schon von vielen gedacht, die GTX 9xx hat keine 4*64 Bit SI -Controller sondern 2*32*4 Bit SI Controller, so wie es jetzt gelöst ist kann man im aller besten Fall von einer 224+32 Bit Si reden, dann hätte man aber auch bei der GK 106 von einer 192+32 Bit SI reden dürfen.
Was NV da macht ist nun die totale Verarsche und die Karte hat zwar physisch die volle Bandbreite, kann sie aber so gar nicht nutzen, faktisch haben wir hier ein 224 Bit SI vorliegen:eek:
Das sollte man noch mit aufnehmen, damit es später nicht heißt hoppla haben wir in der ganzen Aufregung vergessen explizit zu erwähnen :freak:
Und natürlich ist rein mathematisch 224+32= 256 :biggrin:

Naja sie schreiben ja: Was die zwischenzeitlich heiß diskutierten, vermeintlichen Sachmängel angeht, dürfte die Lage kompliziert werden. De facto sind sowohl 4 GiByte Grafikspeicher als auch ein 256-Bit-Speicherinterface vorhanden und können auch genutzt werden. Natürlich würde ein Käufer normalerweise erwarten, dass die vier GiByte (und vor allem die acht Speichercontroller) wie üblich voll parallel arbeiten. Auch die Angabe von 2 MiB L2-Cache ist falsch.

Die ganze "Sachmängel"-Geschichte wurde im Vergleich zum Ursprungsartikel sehr verkürzt und ist äußerst vorsichtig verfasst. Man könnte auch sagen: NVIDIA-freundlich. Wie ich finde unberechtigt.

BZ
2015-01-26, 21:25:14
Nvidia sollte die Möglichkeit bieten via Treiber die 0.5 GB komplett zu ignorieren wie gesagt vielleicht ist einer ihrer Memory Management modes dafür gedacht.

Nvidia sollte die Möglichkeit bieten die Karten ohne wenn und aber
zurückzugeben.

-/\-CruNcher-/\-
2015-01-26, 21:28:08
Naja sie schreiben ja:

Die ganze "Sachmängel"-Geschichte wurde im Vergleich zum Ursprungsartikel sehr verkürzt und ist äußerst vorsichtig verfasst. Man könnte auch sagen: NVIDIA-freundlich. Wie ich finde unberechtigt.

Als der Anwalt von Computec den Artikel gelesen hat vor dem editing ist der sicherlich fast vom Stuhl gefallen, naja zumindestens sein Latte landete nicht da wo er hin sollte ;)

blaidd
2015-01-26, 21:29:44
Nein. Da kann man selbst mit besten guten Willen keine Ironie (und erst Recht kein Sarkasmus) erkennen.

Wie gesagt: Es ist nicht immer ganz leicht, seine Absicht hinter einer Formulierung zu erkennen. Ich vermute hinter seiner Aussage allerdings schon eine gewisse Mehrdeutigkeit. Das kann er dir vielleicht selbst nahelegen (http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/374137-geforce-gtx-970-und-der-3-5-gibyte-modus-eine-zu-spaete-aufklaerung-post7130495.html#post7130495).

Ätznatron
2015-01-26, 21:30:17
Nvidia sollte die Möglichkeit bieten die Karten ohne wenn und aber
zurückzugeben.

Solange du keine Erstattung erwartest, steht dir das doch frei. :)

@blaidd

Den - völlig unnötigen - Satz hätte er sich verkneifen sollen. So muss er halt mit den Konsequenzen leben.

M4xw0lf
2015-01-26, 21:31:42
Nein. Da kann man selbst mit besten guten Willen keine Ironie (und erst Recht kein Sarkasmus) erkennen.Ironie ist dann, wenn einem die eigentliche Aussageabsicht nicht mit dem Arsch ins Gesicht springt. ;)

Cubitus
2015-01-26, 21:35:05
Iss schon iwie Betrug --> die perfide Art :naughty:

Menace
2015-01-26, 21:40:00
Ok, geben wir PC Carsten und seine Kollegen noch etwas Zeit (auch für ihn soll erst einmal im Zweifel... gelten).

Exxtreme
2015-01-26, 21:41:25
Mal schauen wie die Preise für die 970 gtx purzeln. Vielleicht schlage ich zu. Zu meiner 670 gtx ist das ein gutes Upgrade.

Screemer
2015-01-26, 21:41:51
Klingt besser als die Erklärung von Anandtech.

Pcper verkommt zu einem reinen Sprachrohr der marketing Abteilung von NV.

AnarchX
2015-01-26, 21:43:43
Mal schauen wie die Preise für die 970 gtx purzeln. Vielleicht schlage ich zu. Zu meiner 670 gtx ist das ein gutes Upgrade.

Auf Grund der Euro-Schwäche wird da eher nichts purzeln und Nvidia ist in Europa in der bequemen Situation, dass viele Kunden wohl ihre Karte nicht zum Kaufpreis zurückgeben wollen.

Ätznatron
2015-01-26, 21:44:50
Pcper ist verkommt zu einem reinen Sprachrohr der marketing Abteilung von NV.

Ist mächtig peinlich, was die da veröffentlichen, nicht wahr?!

dildo4u
2015-01-26, 21:46:06
Die Karten werden teurer der Wichter 3 Hype wird die Verkäufe nur weit ankurbeln,da man nur so gute Day 1 Performance erwarten kann dank Gameworks.

y33H@
2015-01-26, 21:46:39
Nein. Da kann man selbst mit besten guten Willen keine Ironie (und erst Recht kein Sarkasmus) erkennen.Das ist Carsten, ein wunderbarer Zyniker und ein technisch verdammt versiertes Kerlchen, der den Job schon weit über ein Jahrzehnt macht.

Exxtreme
2015-01-26, 21:48:19
Auf Grund der Euro-Schwäche wird da eher nichts purzeln und Nvidia ist in Europa in der bequemen Situation, dass viele Kunden wohl ihre Karte nicht zum Kaufpreis zurückgeben wollen.
Dafür dürfte die Nachfrage nach dieser Karte erstmal absacken. ;)

aths
2015-01-26, 21:52:43
€: Andere Erklärung, welche aus sehr schlüssig klingt.
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970
Ich habe eine neue Spekulation.

Wenn die 970 3,5 GB schnell und 0,5 ultralahm angebunden hat, wäre das insgesamt nicht schlimm: 7/8 des RAM-Transfers gehen ja noch schnell.

Das ist konsistent mit der Speicherbandbreite. Vielleicht nutzt die 970 alle 8 RAM-Bausteine, wobei 7 schnell und 1 langsam angebunden sind. Jeder Chip wird nach Möglichkeit nur nur 7/8 des Adressbereichs pro RAM-Chip genutzt, weil es irgendwelche Limits gibt.

Edit: Mein Posting ist Schwachsinn, das von PCPer verlinkte NV-Bild ist sinnvoller.

Ätznatron
2015-01-26, 21:53:49
Die Karten werden teurer der Wichter 3 Hype wird die Verkäufe nur weit ankurbeln,da man nur so gute Day 1 Performance erwarten kann dank Gameworks.

Zur Not wird die BQ so weit runtergeschraubt, dass auch die VRAM-schwache GTX 970 gut dasteht.

TWIMTBP halt.

aths
2015-01-26, 21:56:38
Also das Bild macht noch immer nicht wirklich 100% Sinn.

Wenn ich das richtig sehe, dann müsste die GTX970 IMMER weniger RAM-Bandbreite liefern als die GTX980.Weil dafür von allen 64-Bit-Interfaces gleichzeitig gelesen weden muss. Die 970 hat an einer Stelle einen Eingpass, so dass pro Takt nur nicht 4x64, sondern 3x64 + 1x32 Bit rübergehen (sofern man das PCPer-Bild für richtig hält. Ich bin mir bislang nicht sicher.)

Kartenlehrling
2015-01-26, 21:56:49
ich muss jetzt immer unweigerlich an den Film die "Die nackte Kanone 33⅓" denken ich weiss nicht warum.

Armaq
2015-01-26, 21:59:03
Das war klares Kalkül.

Coda
2015-01-26, 22:12:19
kann an sich nicht sein, weil ja jeder SMM auf jeden Adressbereich zugreifen können muss.
Lesend ja, aber die ROPs sind bestimmten Speicherbereichen zugeordnet. Zwischen SMMs und ROPs gibt's ja eine Crossbar und deren Bandbreite hängt wohl von der SMM-Anzahl ab.

Ist echt alles bisschen unklar. Ich wünschte NVIDIA würde das besser dokumentieren. Das ist ja auch als Entwickler ärgerlich, wenn man Blackboxes hat.

hq-hq
2015-01-26, 22:26:43
also hab ich jetzt drei Speicher für Texturen,
1x 3,5GByte mit 196GB/s
1x 0,5GByte mit 28GB/s
1x x GByte Systemram mit 15GB/s

:freak:

was ist das nur für ein Mist... die 512 Krüppel-MByte sind doch ein reiner PR
- Gag damits runde 4 GByte werden. Wieso macht man nur so einen Scheiß,
und verarscht alle. Um die GTX 980 auf Abstand zu bringen so einen
Bockmist bauen versteh ich net... :mad:
Allein schon die Idee das so komisch lösen begreif ich garnet :uwave:

Nakai
2015-01-26, 22:29:07
Lesend ja, aber die ROPs sind bestimmten Speicherbereichen zugeordnet. Zwischen SMMs und ROPs gibt's ja eine Crossbar und deren Bandbreite hängt wohl von der SMM-Anzahl ab.


War das nicht schon immer so? Selbst bei Kepler hatten alle SMs einen 128Bit Pfad zu ROPs. Wurden SMs deaktiviert, dann waren dementsprechend weniger ROPs messbar bzw. die Füllrate ging runter. Womöglich wurde das bei Maxwell nochmal verschärft.

Wenn ich aber nun bestimmte SMs deaktiviere und dadurch eine Unausgeglichenheit ins Design bringe, wodurch mir eine halbe ROP-Partition bzw 12 ROPs und 256KB L2-Cache wegfallen, ist das schon ziemlich...interessant. :freak:

€:

was ist das nur für ein Mist... die 512 Krüppel-MByte sind doch ein reiner PR
- Gag damits runde 4 GByte werden. Wieso macht man nur so einen Scheiß,
und verarscht alle. Um die GTX 980 auf Abstand zu bringen so einen
Bockmist bauen versteh ich net... :mad:

Füllratentechnisch ist selbst eine GTX 780 weiter hinter einer GTX 780 Ti, als es die Specs andeuten. Man kann davon halten was man will, aber es bringt Salvage-Parts auf eine Linie.^^

hq-hq
2015-01-26, 22:38:20
na wenigstens gibt das jetzt eine kleine PR Katastrophe (hoffe ich!),
in allen(?) Reviews sind falsche Angaben :biggrin: und die müssen jetzt
wohl korrigiert werden :freak: Das wird bestimmt toll :smile:

- die Idee die 512MByte ganz abzuschalten gefällt mir, erscheint erstmal wie ein dritter Daumen :biggrin: ;)

redfirediablo
2015-01-26, 22:40:50
Die Sache ist doch ganz einfach:

zuerst kann es wirklich ein Kommunikationsfehler gewesen sein.

So spätestens nach 1-2 Wochen ist dann aber jemand aufgefallen das sie da große scheiße gebaut haben.

Entweder er war direkt daran schuld (was ja der anandtech Erklärung entspricht da ja nur oh so wenige Ingenieure von Nvidia sich überhaupt damit auskennen was da so tatsächlich auf den Markt kommt) und hatte schiss davor das seinem Vorgesetzten zu beichten

ODER

das Ganze wurde intern gemeldet und nach Rücksprache mit der Rechtsabteilung hat man sich entschieden das ganze unter den Teppich zu Kehren denn:

1. Vielleicht fällt es ja keinem auf (und es hat ja über 4 Monate gedauert)

2. Teuer (Klage in den USA) wird es so oder so wenn die Geschichte öffentlich wird, so hat man wenigstens eine Chance das man Glück hat (Augen zu und durch)

3. Solange es keinem auffällt prima Verkaufszahlen

Rein wirtschaftlich war es die richtige Entscheidung die Klappe zu halten und nichts zu sagen und da die meisten Nvidia Jünger sowieso (genauso wie Apple) alles verzeihen, wird es auch kein großen Imageschaden geben. Auch weil man große Teile der Presse unter Kontrolle hat (Anandtech) und der andere Teil sich nicht traut (PCGH) aus Haftungsrisiken kritisch über die Geschichte zu berichten.

svk
2015-01-26, 22:42:34
ich hab bissel glück gehabt da ich von ner gtx 670 zu ner 980er gewechselt bin.

grund war der neue monitor mit 2560er auflösung(+gsync)
mit der 670er hatte ich in einigen spielen nur noch 40-45fps > mit g-sync noch angenehm zu spielen aber trotzdem merklich reaktionslahmer als mit dem alten monitor und ner 1650er auflösung (vsync 80-120 FPS)

in meiner aktuellen konfig hab ich die fps verdoppelt > die 980er läuft mit 125% PT meist stabil mit 1303MHz ohne weiteres rumgetakte

ich hab allein aus nem gefühl heraus ne karte mit vollausbau genommen da ich irgenwie versteckte beschränkungen vermutet hab die in meiner auflösung auftauchen könnten

war bis jetzt die teuerste graka und ich hoffe die hält 3-4 jahre

ich vermute mal ganz einfach dass in der 970er defekte chips verwurstet sind mit ner zusatzanbindung welche den defekten bereich umgeht > wäre ja nix neues :wink:

hq-hq
2015-01-26, 22:44:40
"Rein wirtschaftlich war es die richtige Entscheidung die Klappe zu halten und nichts zu sagen"

:uwoot: das wär echt bitter wenn sich das nicht rächen wird

labecula
2015-01-26, 22:52:15
"Rein wirtschaftlich war es die richtige Entscheidung die Klappe zu halten und nichts zu sagen"

:uwoot: das wär echt bitter wenn sich das nicht rächen wird

wird es nicht. Die Zahl der Unwissenden DAUs ist um Längen größer als die Zahl der "not amused" user.

hq-hq
2015-01-26, 22:56:39
aber die lesen Reviews und alle müssen richtiggestellt werden, zum Glück ist
die Karte noch nicht so lange auf dem Markt :freak:

GTX 970 beschnitten und behindert :uclap:

nagut, mal sehen was es nun wirklich an Spielbarkeit kostet wenn der RAM langsam ausgeht...

Shaft
2015-01-26, 22:57:16
Nach der Stellungsnahme von Nvidia, kommt man sich schon bissl verarscht und dumm verkauft vor.

Nein, ich kann das nicht glauben, dass das niemaden aufgefallen ist.

urbi
2015-01-26, 23:02:57
[...]nagut, mal sehen was es nun wirklich an Spielbarkeit kostet wenn der RAM langsam ausgeht...

Das Problem ist doch, dass die Probleme schwer erkennbar sein werden.

Erstens gibt es ja schon einige Beiträge von Leuten die behaupten die Probleme bei AC5, Watch_Dogs und Far Cry 4 seien darauf zurück zu führen. Tatsächlich gab es bei all diesen Spielen Probleme mit der GTX 970 die durch neuere Treiber abgemildert wurden. Ob sich NVIDIA die Mühe auch macht wenn die GTX 970 zur letzten Generation gehört? Man darf gespannt sein.
Zweitens gibt es ja Spiele wie GTA IV, die einfach unabhängig von den Grafikeinstellungen des Nutzers die Objektanzahl und Details je nach verfügbarem Grafikspeicher variiert.
Ich bin sehr gespannt ob die GTX 970 bei GTA V diesbezüglich wirklich die Darstellungsqualität einer GTX 980 erreichen wird. Ich denke da ist ein gesundes Maß an Skepsis angebracht!

DerKleineCrisu
2015-01-26, 23:05:46
Wieso macht man nur so einen Scheiß,
und verarscht alle.

Wahrscheinlich um das Produkt technisch etwas auf zu hübschen
wurde halt etwas manche Sachen einfach weggelassen.

Das die nun PR Technisch versuchen esrunter zu Spielen ist normal.

wenn sie die Karte gleich als 3,5 GB Karte beworben hätten , wäre sie wahrscheinlich zwar erfolgreich aber nicht so erfolgreich wie sie war gewesen.

4 GB hören sich halt besser an als nur 3,5 GB +512 MB Slow Ram.
Zudem die Spieler vergessen es eh nach einem Jahr wenn eine Neue Karte auf den Markt kommt die Besser, Schneller & Schöner ist.

Die Medien werden das Tema im Moment zwar aufgreifen aber so schnell
wie möglich versuchen das in der Tiefe des I-Netz zu vergraben.
Es geht hier einfach um das Geschäft, um die Chance Testmuster zu bekommen und auch um Werbeeinnahmen.


Grüße

Ätznatron
2015-01-26, 23:09:27
Wahrscheinlich um das Produkt technisch etwas auf zu hübschen
wurde halt etwas manche Sachen einfach weggelassen.

Das die nun PR Technisch versuchen esrunter zu Spielen ist normal.

wenn sie die Karte gleich als 3,5 GB Karte beworben hätten , wäre sie wahrscheinlich zwar erfolgreich aber nicht so erfolgreich wie sie war gewesen.

4 GB hören sich halt besser an als nur 3,5 GB +512 MB Slow Ram.
Zudem die Spieler vergessen es eh nach einem Jahr wenn eine Neue Karte auf den Markt kommt die Besser, Schneller & Schöner ist.

Die Medien werden das Tema im Moment zwar aufgreifen aber so schnell
wie möglich versuchen das in der Tiefe des I-Netz zu vergraben.
Es geht hier einfach um das Geschäft, um die Chance Testmuster zu bekommen und auch um Werbeeinnahmen.


Grüße


Wenn es wirklich so sein sollte wie du es beschreibst, sind das mafiöse Strukturen. Eine Hand wäscht die andere...

Ich hoffe sehr, dass es nicht so ist.

labecula
2015-01-26, 23:17:42
Wenn es wirklich so sein sollte wie du es beschreibst, sind das mafiöse Strukturen. Eine Hand wäscht die andere...

Ich hoffe sehr, dass es nicht so ist.

War niemals anders und wer dies behauptet lügt schlichtweg aus Selbstschutz (oder Naivität). Natürlich wäscht eine Hand die andere. Unabhängiger Journalismus und Berichterstattung sind so selten wie ein Sechser im Lotto. Glaub mir, gerade im Printing-Bereich und den Online Medien will man genauso wenig wissen was dort abgeht wie hinter der Theke von Burger King. Ich musste diese Erkenntnis im Laufe meiner vergangenen Berufserfahrung am eigenen Leibe erleben!

hq-hq
2015-01-26, 23:18:53
Glaub auch, dass die 970 besonders auf optimierte Treiber angewiesen sein wird.

Aber so eine spezielle Behinderung bei einer Grafikkarte wird man bestimmt nie vergessen, die GTX 970 wird für immer als "die Behinderte" im Gedächtnis bleiben die mit Falschangaben beworben wurde.

Ätznatron
2015-01-26, 23:20:29
War niemals anders und wer dies behauptet lügt schlichtweg aus Selbstschutz. Natürlich wäscht eine Hand die andere. Unabhängiger Journailsmus und Berichterstattung sind sol selten wie sechser im Lotto.

Trotzdem gibt's Sechser. Noch weniger geht "alle über einen Kamm".

Isen
2015-01-26, 23:21:32
Nach den Sechsern musst du aber graben und diese werden Medial fertig gemacht und in Lager gesteckt, wo man Leute eben hin verfrachtet, wenn sie unliebsam werden.
Das leben ist scheiße, und die Grafik ist Illusion.

Ätznatron
2015-01-26, 23:26:23
Nach den Sechsern musst du aber graben und diese werden Medial fertig gemacht und in Lager gesteckt, wo man Leute eben hin verfrachtet, wenn sie unliebsam werden.
Das leben ist scheiße, und die Grafik ist Illusion.

Ich muss nicht graben, die Sechser erlebe ich auch so, und meinetwegen ist die Realität meine Illusion oder umgekehrt...

urbi
2015-01-26, 23:29:27
Welche Hardwaremagazine möchte man denn in dieser Affäre lobend erwähnen? Für mich wären es zwei: Heise und PCGH. Heise hat dem ganzen heute die Headline gewidmet und deutliche Worte gefunden, die PCGH hat die Story als erste aufgegriffen und am Wochenende viel darüber berichtet. Selbst gegen diese beiden kann man jedoch einiges vorbringen: Warum hat Heise solange gewartet und im Prinzip nur die NV-Meldung weitergegeben? Warum hat die PCGH den Artikel zur Mangelfrage wieder aus dem Netz genommen und jetzt nur noch einen eher schwammigen kurzen Abschnitt zu diesem Thema?

Ich denke das ganze zeigt einfach wie abhängig die Magazine von NVIDIA sind...

Isen
2015-01-26, 23:31:32
@Ätznatron,

ja... ich wollte dir damit ja in keins der Weise widersprechen oder in Abrede stellen...
Die Masse hat aber nach diesem Schema zu handeln/denken. Tut man es nicht, eckt man überall an, das will keiner, also wird gekuscht.

Nach ein paar Wochen, ich sage mal spätestens wenn AMD und Nvidia ihre top dogs vorstellen, wird es höchstens ein paar verwirrte geben, die in den Threads sich gegenseitig mit dem " Behinderte 970er " gegenseitig die Bash-Fresse polieren, aber Grundlegend wird sich deswegen nichts ändern.

Die Redaktionen sind mir bei Problemen in der Vergangenheit ebenso negativ aufgefallen, was die Formulierungen betrifft ( Speichellecker ) und das hat sich in den 10 Jahren nicht geändert.
Das liegt aber auch am Konsumenten selbst, der alles Gratis haben will. Unabhängigkeit ist teuer....genauso teuer, wie die Freiheit des freien Denkens.

E: Jenige die sich bei Beanstandungen noch verteidigen wollen, geben genau das Gegenteil preis... man hat sich bereits zur Bückmich des Systems dahinter gemacht und da kommst du nicht mehr raus, wenn du noch deine Miete bezahlen willst.
Von daher... wayne... ich wähle jeden Tag damit, indem ich grabe und dann entsprechend kaufe. Lebe gut damit. Gut fürs Karma gegen den Strom zu schwimmen :)


@hq-hq,

ja, eine Arme Sau wird es genauso treffen... wo ja die kaputte Hand ja die " Arbeiter Hand " Symbolisiert, die wird gebrochen - nettes Bild :-)

Genug OT, sorry. Gute Nacht zusammen.

hq-hq
2015-01-26, 23:37:05
so schauts aus :ugly2:

http://abload.de/img/gtx970_980mkfr8.png

Schnoesel
2015-01-26, 23:37:18
Ich denke PCGH kann man hier keinen Vorwurf machen. Als der Bericht online ging von wegen Sachmangel habe ich auch gedacht, mein lieber Herr Gesangsverein, das kann böse enden. PCGH kann es sich nicht leisten juristisch angreifbar zu werden, ne Verleumdunsklage hat man schnell am Hals. So einen Text würde ich ehrlich gesagt auch nicht ohne Rechtsbeistand rausgeben, das muss wasserdicht sein.

Ätznatron
2015-01-26, 23:57:06
Ich denke PCGH kann man hier keinen Vorwurf machen. Als der Bericht online ging von wegen Sachmangel habe ich auch gedacht, mein lieber Herr Gesangsverein, das kann böse enden. PCGH kann es sich nicht leisten juristisch angreifbar zu werden, ne Verleumdunsklage hat man schnell am Hals. So einen Text würde ich ehrlich gesagt auch nicht ohne Rechtsbeistand rausgeben, das muss wasserdicht sein.

Also ich hatte den Eindruck, das der ursprungliche Artikel einer Sachmängelgewährleistung eher skeptisch gegenüberstand.

Der Wind scheint sich mittlerweile eher in die andere Richtung gedreht zu haben.

Thunder99
2015-01-27, 00:05:17
Klar könnt ihr nun die Karte zurück geben, aber was ist die Alternative?

Ich werde sie eher behalten, aber bin gespannt auf die Aussage von nv bezüglich Schadensersatz. Das wird noch (danke PCGH für die Anfrage) geklärt.

Der beste Ausgleich wäre ja eine GTX980 zum Preis der alten GTX970 ;D

Schaffe89
2015-01-27, 00:13:27
Werden die bei nVidia nicht raus gelassen oder was? Die Aussage da halte ich für totalen Blödsinn. Die haben 4 Monate an einer gefeilten Ausrede gearbeitet bis es aufpoppt....

Bei der PCGH lassen die deswegen auch die Unschuldsvermutung gelten.
Die Quacksalber von dort haben bei mir wirklich einen Nerv getroffen. Verkaufen sich wohl selbst für dumm, sowas zu formulieren.

Dann hätte man vielleicht lieber mal nix geschrieben.:facepalm:

BlacKi
2015-01-27, 00:14:52
@ BlacKi: Genau das ist die Einstellung die NV ermuntert so etwas zu machen, herzlichen Glückwunsch.

Es zeigt aber auch, dass NV faktisch schon auf dem Weg zum Monopolisten ist, denn in der Tat gibt es keinen wirklichen Konkurrenten zur GTX 970, zumindest nicht wenn man die Summe der Eigenschaften nimmt: Schnell, leise stromsparend und preiswert.
Daran ändert auch die 3,5 GB nicht wirklich was.
NV kann sich zur Zeit in dem Bereich nur selbst schlagen.


tut mir leid aber das ist gang und gäbe, ich sehe es ja nicht so das das ok ist von nv, aber was soll man tun?

ich hab mir die 970 wegen des 670 referenz designs gekauft (ITX) der preisleistung und des perf. watt verhältnisses. das nun in voller geschwindigkeit nur 3,5gb adressierbar sind ist zwar nicht toll, aber eine alternative gibts leider nicht.

Schnoesel
2015-01-27, 00:17:36
Also ich hatte den Eindruck, das der ursprungliche Artikel einer Sachmängelgewährleistung eher skeptisch gegenüberstand.



Eigentlich nicht. Der Artkel hat sogar aufgezeigt wie man gegenüber dem Händler argumentieren könnte, jedoch hat der Artikel in Zweifel gestellt ob der Anspruch 1. so ohne weiteres durchgeht und 2. dass viele Nutzer dies auch versuchen werden (was auch offensichtlich der Fall ist).

Nach meiner Erinnerung war der Artikel eindeutig pro Gewährleistung.

PS: Hört bitte auf den Jean Luc zu verwenden. Wisst ihr eigentlich wie lange ich gebraucht habe um herauszufinden, dass es sich dabeinicht um einen Penis handelt der auf nem Stein steht.

Schaffe89
2015-01-27, 00:22:01
Man kann imho eine r9 290 kaufen. Ist so finde ich aktuell die günstigere und bessere Alternative, aber jedem das seine.

Schnoesel
2015-01-27, 00:23:45
Nope wenns ein ITX ist gibts keine Alternative.

aths
2015-01-27, 00:26:04
PS: Hört bitte auf den Jean Luc zu verwenden. Wisst ihr eigentlich wie lange ich gebraucht habe um herauszufinden, dass es sich hierbei nicht um einen Penis handelt der auf nem Stein steht.
:facepalm:

Schaffe89
2015-01-27, 00:35:08
Ich würde über dieses Thema allzugerne mal ein Interview sehen und keinen Fließtext.

Thunder99
2015-01-27, 00:37:08
Das wäre 1min ;D

Hübie
2015-01-27, 00:47:32
Am besten mit Petersen. Der kann Fragen am besten nicht beantworten ;D Ein bissl mit den Händen fuchteln, Buzzwords springen lassen und die Amis sind buff.
"This whooole scence get completly rendered in three and a half gig of VRAM without using the last half gig in order to ensure the savings for your bill" :eek:

Schaffe89
2015-01-27, 01:04:09
Je suis GTX 970. * schwarzer Humor*

BlacKi
2015-01-27, 01:19:14
welche speichermenge wird pascal 2016 mit sich bringen? 6 oder 8gb?

2016 sind 3,5gb immernoch ausreichend und lassen sich gut verkaufen. ebay zahlt zum glück die tatsächliche leistung. ich freue mich auf pascal, aber ich bin mir unsicher obs ne kastrierte wird...

Kartenlehrling
2015-01-27, 01:24:35
Ich glaube nicht das wir mehr Speicher sehen werden.

aths
2015-01-27, 01:57:02
welche speichermenge wird pascal 2016 mit sich bringen? 6 oder 8gb?

2016 sind 3,5gb immernoch ausreichend und lassen sich gut verkaufen. ebay zahlt zum glück die tatsächliche leistung. ich freue mich auf pascal, aber ich bin mir unsicher obs ne kastrierte wird...
Schätze Big Max bringt 6, Pascal 8.

Die 970 ist auch mit der 3,5+0,5-Konfig eine gute Karte für den Preis.

Heute wissen wir aber, dass das Speicherproblem eben nicht Folge der SM-Cluster-Deaktivierung ist, sondern ein zusätzlicher bewusster Eingriff. Bei dem Preis er 970 auch völlig in Ornung. Die Hardware wurde so designt, der Treiber darauf eingestellt.

Nur in den offiziellen Specs findet man dazu nix.

Erst nachdem es nicht mehr von der Hand zu weisen ist und mehrere bedeutende Publikationen das Thema anspreichen, gibt Nvidia das zu. Und erst eine weitere Woche später wird zugegeben, dass es eben nicht an deaktiverten SMX liegt.

x-force
2015-01-27, 03:03:01
Die Redaktionen sind mir bei Problemen in der Vergangenheit ebenso negativ aufgefallen, was die Formulierungen betrifft ( Speichellecker ) und das hat sich in den 10 Jahren nicht geändert.


die meisten scheitern schon daran ihre quelle zu nennen und dabei den urheber nicht unter den tisch zu kehren.

alle seiten, die ich bisher besucht habe und die nais bench-ergebnisse als screenshot verwendet haben, beziehen sich auf die von mir als gtx980 erstellten screenshots, ohne mich oder das 3dcenter dabei zu nennen.
das wären z.b. guru3d, extremetech, lazygamer und pcper.
ausnahmen bestätigen die regel(falls jemand spitzfindiges hier ne ausnahme findet;))

eindeutig zu erkennen am farbigen fensterrahmen, den ich beim screenshot nicht weggeschnitten habe und den exakt gleichen ermittelten werten.
pcper gibt sogar fälschlicherweise lazygamer als urheber an.
extremetech eignet sich das bild sogar komplett an.

zuerst habe ich es auf guru3d gesehen, aber wollte nichts sagen. nachdem aber einfach der komplette thread geschlossen wurde, hatte ich den hals voll.... thread ist btw wieder offen nach meiner mail an hilbert ;)

die affäre ist nicht nur für nvidia peinlich, sondern auch für die "freie" nvidia-hörige presse.
auch hier bestätigen ausnahmen die regeln.
ich werde jedenfalls in zukunft die ergüsse der system(grün)presse wie meldungen der bild"zeitung" behandeln.
ich werde denen da aber auch keinen strick draus drehen, da ich erstens das urheberrecht in seiner jetzigen form komplett ablehne und mir auch etwas an der aufklärung des skandals gelegen ist.

hier nochmal zum nachschlagen belegt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10492341&postcount=553

im weiteren verlauf habe ich hier übrigens auch als erster vermutet, daß es kein 256bit interface sein kann. (ihr wisst was gemeint ist.)
aufgrund von nicht ganz sauberen ergebnissen und mangelndem hintergrundwissen habe ich jedoch etwas daneben gelegen und eher 208bit anstelle 224bit vermutet.

falls hier wer daran interessiert ist, meine rechte an dem bild für symbolhafte 1cent zu kaufen, darf er dann gerne die verletzungen verfolgen :D

edit: links hinzugefügt

http://www.guru3d.com/news-story/does-the-geforce-gtx-970-have-a-memory-allocation-bug.html
http://www.pcper.com/news/Graphics-Cards/NVIDIA-Responds-GTX-970-35GB-Memory-Issue
http://www.lazygamer.net/general-news/nvidias-gtx970-has-a-rather-serious-memory-allocation-bug

und zum schluß die krönung von extremetech inkl aneignung

http://www.extremetech.com/extreme/198223-investigating-the-gtx-970-does-nvidias-penultimate-gpu-have-a-memory-problem

w0mbat
2015-01-27, 04:24:11
http://www.wkrb13.com/markets/468447/nvidia-cao-david-m-shannon-sells-21400-shares-nvda/

Hm, da wusste jemand bescheid... In den USA wird schon geklagt und die Verbraucherzentrale wird sich hier wohl auch einschalten.

Dawn on Titan
2015-01-27, 06:53:07
Das wäre sicher gut.

Ailuros
2015-01-27, 07:39:28
Ιch hab gerade Anandtech's Artikel zum Thema gelesen. Ich bin nicht im geringsten ueberzeugt dass es ein Ausrutscher war dass NV's marketing falsche Spezifikationen fuer die 970 beim launch angegeben hat. Gut ich akzeptiere dass das Marketing-Personal keine so tiefe Einsicht in technische Einzelheiten hat, aber es ist auch nicht so dass engineers Sachen wie whitepapers zu einer Architektur vor der Veroeffentlichung durchlesen wuerden.

Vor dem 970/980 launch viel es mir schwer zu glauben dass die beiden SKUs die genau gleiche Bandbreite haben werden, aber als ich nach dem launch sah dass es einen relativ gesunden Leistungs-Unterschied zwischen den beiden gibt hab ich auch nicht weiter darueber nachgedacht.

Fuer mich ist dieses "memorygate" weder Hals noch Beinbruch fuer den Endverbraucher; fuer NV's image aber dann schon und das sogar egal was sie an moeglichen Entschaedigungen goennen.

BitJäger
2015-01-27, 07:56:34
Ιch hab gerade Anandtech's Artikel zum Thema gelesen. Ich bin nicht im geringsten ueberzeugt dass es ein Ausrutscher war dass NV's marketing falsche Spezifikationen fuer die 970 beim launch angegeben hat. Gut ich akzeptiere dass das Marketing-Personal keine so tiefe Einsicht in technische Einzelheiten hat, aber es ist auch nicht so dass engineers Sachen wie whitepapers zu einer Architektur vor der Veroeffentlichung durchlesen wuerden.

Vor dem 970/980 launch viel es mir schwer zu glauben dass die beiden SKUs die genau gleiche Bandbreite haben werden, aber als ich nach dem launch sah dass es einen relativ gesunden Leistungs-Unterschied zwischen den beiden gibt hab ich auch nicht weiter darueber nachgedacht.

Fuer mich ist dieses "memorygate" weder Hals noch Beinbruch fuer den Endverbraucher; fuer NV's image aber dann schon und das sogar egal was sie an moeglichen Entschaedigungen goennen.


Nach meiner persönlichen Meinung hat Nvidia wissentlich gehandelt. Das wird jetzt nicht zu gegeben um eventuellen Klagen so wenig Raum wie möglich zu geben.

Für mich zeigt der Vorgang welches Verhältnis, welche Wertschätzung Nvidia seiner Kundschaft entgegen bringt und das wird sich kurzfristig nicht ändern.

Nun bleibt es der Kundschaft überlassen wie sie darauf reagiert.

An der Stelle passen die Worte von Erich Kästner:

Nie dürft Ihr so tief sinken,
von dem Kakao,
durch den man euch zieht,
auch noch zu trinken.

Matrix316
2015-01-27, 08:49:27
Ich frage mich nur, warum da KEIN Reviewer irgendwie mal mit der Speicherauslastung was getestet hat. Das hätte doch irgendwie auffallen müssen, wenn die 970er weniger Speicher alloziert als die 980er.

derguru
2015-01-27, 08:54:21
glaub ich nicht das das klar auffällt, z.b. gestern beim zocken mal screen gemacht und und ein wenig beobachtet, klar gefüllt und das ohne nachladeruckler, auch keine merklichen performanceeinbrüche. ich weiß auch nicht was ich davon halten soll, mal füllt es den speicher und dann wiederum nicht.

http://abload.de/thumb/dragonageinquisition_rbu66.jpg (http://abload.de/image.php?img=dragonageinquisition_rbu66.jpg)

Marodeur
2015-01-27, 08:56:59
Finds immer noch schade das man es nicht irgendwie drehen kann das Windows den langsamen Teil nutzt und Spiele/Anwendungen nur den schnellen. Wenn man schon "partitioniert".... ^^

Freed
2015-01-27, 09:04:02
Was mich irritiert - aus dem Schaubild von nvidia mit dem SM Cores, Crossbar, L2-Cache, MC und Speicher - am rechten Ende ist ein L2-Speicherblock verantwortlich für 2 MC, jeder MC ist verantwortlich für 0,5GB; solang wir unter 3,5GB bleiben passt alles, aber wenn für über 3,5 GB gehen, werden dann nicht auch die 0,5GB mit verlangsamt, deren L2 Cache den MC den "langsamen" Speicherbereich mitversorgen müssen?

Haben wir dann nicht vielleicht die Situationen

Unter 3,5GB Belegung -> schnelle 3,5 GB + 0,5 langsame GB, die nach Möglichkeit ignoriert werden

Über 3,5GB Belegung -> schnelle 3 GB + 1 langsames GB

beruht nur auf Spekulation aufgrund des Schaubildes von nvidia

http://www.pcper.com/files/imagecache/article_max_width/review/2015-01-25/GM204_arch_0.jpg

Exxtreme
2015-01-27, 09:04:30
Ich frage mich nur, warum da KEIN Reviewer irgendwie mal mit der Speicherauslastung was getestet hat. Das hätte doch irgendwie auffallen müssen, wenn die 970er weniger Speicher alloziert als die 980er.
Sie alloziert nicht weniger Speicher. Deshalb fällt es auch nicht auf.

derguru
2015-01-27, 09:08:57
doch macht sie aber halt nicht immer, was meinst du warum das aufgefallen ist.

Thunder99
2015-01-27, 09:12:03
glaub ich nicht das das klar auffällt, z.b. gestern beim zocken mal screen gemacht und und ein wenig beobachtet, klar gefüllt und das ohne nachladeruckler, auch keine merklichen performanceeinbrüche. ich weiß auch nicht was ich davon halten soll, mal füllt es den speicher und dann wiederum nicht.

http://abload.de/thumb/dragonageinquisition_rbu66.jpg (http://abload.de/image.php?img=dragonageinquisition_rbu66.jpg)
Wenn die Texturen mal drin sind dann geht es aber ich konnte Nachladeruckler feststellen bei meinen FC4 Tests, dass sind richtige Aussetzer

derguru
2015-01-27, 09:20:35
fc4 kann ich nicht beurteilen weil bei mir nie mehr als 3,6gb zustande kam bei meinen settings mit smaa/ ultra details in 3440*1440 und damit lief es smooth.

Thunder99
2015-01-27, 09:28:09
fc4 kann ich nicht beurteilen weil bei mir nie mehr als 3,6gb zustande kam bei meinen settings mit smaa/ ultra details in 3440*1440 und damit lief es smooth.
Geht mit 4k und TXAA2/4 oder evt mit 2880x1620 sowie TXAA2/4, sonst bekomme ich ebenfalls nicht mehr Speicher voll als du :)

Aber ich verstehe immer noch nicht warum nach meinen Messungen es den Anschein hat das eher über den PCI-E Bus ausgelagert wird (Pagefile) als dann sofort die letzten 0.5GB zu nutzen :confused:

Marty98
2015-01-27, 09:31:14
Man kann imho eine r9 290 kaufen. Ist so finde ich aktuell die günstigere und bessere Alternative, aber jedem das seine.

Die leiseste 290 ist leider mehr als 10db lauter als die leiseste 970 und somit für viele keine Alternative. Ein stärkeres Netzteil braucht man auch.


Haben wir dann nicht vielleicht die Situationen

Unter 3,5GB Belegung -> schnelle 3,5 GB + 0,5 langsame GB, die nach Möglichkeit ignoriert werden

Über 3,5GB Belegung -> schnelle 3 GB + 1 langsames GB

beruht nur auf Spekulation aufgrund des Schaubildes von nvidia


So sehe ich es auch.

Mark3Dfx
2015-01-27, 09:37:47
Wenn es nicht schon gepostet wurde...

http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970

Embodier
2015-01-27, 09:44:46
Hallo, Leute und 3DCenter Foristen,
bevor meine Kumpels, denen ich allen die 970er Karten "aufgeschwatzt" habe mich teeren und federn wollen, möchte ich das Problem nochmal schildern, wie ich es verstanden habe:

Der Unmut und der Rage kommt zustande bei den Lasttests und Spielsituationen in 4K Auflösungen, weil die 970er und 980er Karten als "4K tauglich" beworben wurden.
Bei diesen Auflösungen werden aber effektiv mehr als 4 GB VRAM alloziert, und dann kommt es zu den Einbrüchen; dabei sind die Tests aber völlig irreführend durch die Adressmimik.

Ist es nicht so:
Die nvidia Karten haben 3,5 und 0,5 GB DDR5 VRAM Speicherpartitionen adressierbar, dabei fokussieren sich die Treiber nur auf den 3,5 GB Block.
Der 0,5 DDR5 VRAM Block ist nutzbar, aber nicht "sichtbar" für Tools/Benchmarks.

Benötigt ein Spiel 3,9 GB VRAM, werden die 3,5 GB alloziert und 0,4 GB der zweiten DDR5 Partition --> Die Benchmarks sehen nur 3,5 GB alloziert.

Benötigt ein Spiel 4,2 GB VRAM, sind 3,5 GB und 0,5 GB Blöcke adressiert und 0,2 GB des Systemspeichers bzw. RAMs. Dieser ist nun wesentlich langsamer als das DDR5 RAM. --> In den Monitoring Tools werden aber nur 3,7GB als adressiert angegeben, und das erkläre die ganzen Einbrüche und Irritationen der letzten Wochen in den Benchmarks! Und dadurch "wirkt" es so, als seinen die 0,5 GB eine "Bremse".

Sprich, die nvidia Karten funktionieren, "they work as intended" bis zu 4 GB aber die intransparente Adressierung ist ein Problem?
Wie hier shcon geschrieben, versuchen die nvidia Treiber so lange wie möglich auf die 3.5GB Partition zu begrenzen.

1.) Habe ich das komplett falsch verstanden?
2.) Ist das eine "Luxusdebatte" für 4K Auflösungen? Unter 1440p sollten die 3,5 GB für das Spielejahr 2015 und ggf. auch 2016 ausreichen? Mein 970er SLI System mit i7-5930K@4,3 GHz oc beflutet einen ASUS RoG Swift via G-Sync mit bis zu 144 Hz auf 2560*1440 Auflösung; ich spiele alle neuen Triple A Titel mit 80 - 140 frames aus Maxsettings, ich habe noch *nichts* gemerkt an irgendwelchen Performanceeinbußen. Mein Rig habe ich für GTA V explizit gekauft. Muss die Tischkante dran glauben oder beiße ich genüßlich in mein Brötchen jetzt?
3.) Kann ich meine Kumpels beruhigen und weiter behaupten, dass die 970er karten für 1080p und 1440p die - derzeit - immer noch besten P/L Karten auf dem Markt sind, oder ist das eine kühne Behauptung?

r-or
2015-01-27, 10:01:28
OK -

PCGH geben an, dass als Resultat die 970 ein 224bit Interface besitzt.
Anandtech (http://anandtech.com/show/8935/geforce-gtx-970-correcting-the-specs-exploring-memory-allocation) gibt weiterhin 256bit an,
The memory controllers themselves remain unchanged, with all four controllers active and driving 4GB of VRAM over a combined 256-bit memory bus.

pcper (http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970) ebenfalls, wobei eine Fussnote eingefuegt wird:
*To those wondering how peak bandwidth would remain at 224 GB/s despite the division of memory controllers on the GTX 970, Alben stated that it can reach that speed only when memory is being accessed in both pools.

"combined 256-bit", "both pools".
D.h. PCGH erwaehnen als Einzige klar, dass die max. Anbindung 224bit betraegt? Und somit die 3.5GB mitnichten eben jene 224GB/s besitzen. Meh.

x-force
2015-01-27, 10:03:35
3.) Kann ich meine Kumpels beruhigen und weiter behaupten, dass die 970er karten für 1080p und 1440p die - derzeit - immer noch besten P/L Karten auf dem Markt sind, oder ist das eine kühne Behauptung?

fakt ist jedenfalls, daß selbst eine 980@ 1470/4000 nur so grade für mindestens 60fps@1080 und max details reicht. in fc4 muss man dann z.b. auf smaa anstatt txaa gehen.
in ac:u auf fxaa.
in aktuell fordernden spielen(metal gear solid 5, oder alien isolation wären z.b. weniger fordend) ist man bereits mit der 980oc am limit.
wie das in der zukunft aussieht kann man sich denken.

wenn man mit schwankenden frametimes kein problem hat, oder einen g-sync monitor hat, oder mit 30fps leben kann, ist auch mehr drin.

Ätznatron
2015-01-27, 10:06:14
Eine Luxusdebate ist es sicher nicht, es geht um falsch beschriebene Spezifikationen.

Bei der GTX 970 beginnen ab 3,6 GB die Leistungseinbrüche, da die oberen 0,5 GB erheblich langsamer angesprochen werden.

Werden mehr als 4 GB belegt, wird es nochmals langsamer (ruckliger), was aber ein übliches Verhalten bei allen Grafikkarten ist, deren physikalischer Speicher nicht mehr reicht.

Als P/L-König würde ich die Karte nicht mehr empfehlen.

robbitop
2015-01-27, 10:06:27
http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/

PCGH hat die GTX980 auf das Rohleistungsniveau der GTX970 heruntergetaktet und fps Verlauf aufgenommen in Watch Dogs mit MSAA.

Bei Sekunde 25 bis 41 (Diagramm) bricht die GTX970 weg (@4xMSAA). Carsten erwähnt das aber leider mit keinem Wort.

Aber offenbar scheint der Treiber ganz clever die wichtigsten Dinge in die 3,5 GiB Partition zu werfen und bei Bedarf (Überschreitung 3,5 GiB) die eher weniger kritischen in die langsamere Partition. Diese ist immerhin noch etwas schneller als über den PCIe. (50 % mehr Bandbreite und deutlich kürzere Latenzen)

Das Endergebnis ist offenbar etwas besser als eine reine 3,5 GiB Karte. (also wenn man die Analogie zu früheren Beschneidungen sieht. Dort hat man ja (zuletzt bei Fermi) dann auch Speicher komplett weggelassen).

Thunder99
2015-01-27, 10:12:00
@Embodier Wie was ausgelagert wird kann nicht genau gesagt werden. Aber die Geschwindigkeit passt für 1080p bis nahe 4k oder sogar 4k (ältere Games) hervorragend. GTA V wird sich zeigen ob es einen visuellen Unterschied gibt oder nicht (Einbrüche der fps/frametimes ebenso)
Allem in allem kannst du deine Kumpels beruhigen. Was den meisten hier aufregt ist die Art und Weise wie nvidia mit seinen Kunden umgeht, nicht generell die Geschwindigkeit der GTX970. Nur im Randbereich kann es zu Nachladerucklern kommen.

@r-or PCGH hat schon Recht. Es sind effektiv 224bit die mit voller Geschwindigkeit angesprochen werden können. Wenn 4GB genutzt werden sind es 224+32bit ;)

Exxtreme
2015-01-27, 10:13:42
http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/

PCGH hat die GTX980 auf das Rohleistungsniveau der GTX970 heruntergetaktet und fps Verlauf aufgenommen in Watch Dogs mit MSAA.

Bei Sekunde 25 bis 41 (Diagramm) bricht die GTX970 weg (@4xMSAA). Carsten erwähnt das aber leider mit keinem Wort.

Mir scheint, dass dieses Diagramm falsch beschriftet ist. Oben kann man zwischen den AA-Modi umschalten aber irgendwie sind da immer die gleichen Beschriftungen.

Thunder99
2015-01-27, 10:16:57
Bestimmt auf die Schnelle ein Copy-Paste Fehler :)

Sonst ist der Vergleich schon mal ein Indiz für einen kurzen Aussetzer/Nachladeruckler wenn die GTX980 einen geraden Frame-Verlauf hat und die GTX970 dort kurz einbricht. Da müsste die Frametime ja nach oben gehen, oder?

Exxtreme
2015-01-27, 10:22:23
Wobei es merkwürdig ist, dass dieser Einbruch offenbar bei deaktiviertem AA auftritt. Stellt sich jetzt die Frage ob dieses Spiel auch schon ohne AA mehr als 3,5 GB VRAM benötigt. Wenn nicht dann ist die Ursache für diesen Einbruch wohl eine andere.

kevsti
2015-01-27, 10:24:43
fc4 kann ich nicht beurteilen weil bei mir nie mehr als 3,6gb zustande kam bei meinen settings mit smaa/ ultra details in 3440*1440 und damit lief es smooth.
Hast du SLI? Also @4K/UHD (was natürlich ein bisschen mehr als 3440*1440 ist), bricht meine Karte völlig weg unter den Einstellung. die FPS ist irgendwo im unteren einstelligen Bereich, d.H. <5fps, gefühlt sind es eher 1fps...

dargo
2015-01-27, 10:25:52
http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/

PCGH hat die GTX980 auf das Rohleistungsniveau der GTX970 heruntergetaktet und fps Verlauf aufgenommen in Watch Dogs mit MSAA.

Bei Sekunde 25 bis 41 (Diagramm) bricht die GTX970 weg (@4xMSAA). Carsten erwähnt das aber leider mit keinem Wort.

Dummerweise sucht man sich für so ein "empfindliches" Problem die schlimmsten Spiele aus. :freak: Watch Dogs @Ultra Texturen liefert keine sauberen Frametimes was sich auch in den Frameraten abgeschwächt bzw. gemittelt wiederspiegelt. Gleiches gilt für Farcry 4 unter bestimmten Situationen. Ich weiß nicht, aber die Spielewahl ist imho suboptimal.

PS: die exakte Reproduzierbarkeit in Watch Dogs ist auch etwas fraglich.

Dawn on Titan
2015-01-27, 10:35:04
Ich würde es so sagen. Wenn beide flüssige FPS liefern ist es nicht schlimm, wenn es schlimm wird befindet man sich im besten Falle in niedrigen 30FPS Bereichen.

Für 970SLI User ist das natürlich echt schlecht, wer nur eine Karte nutzt, dürfte in der Regel weniger betroffen sein.

derguru
2015-01-27, 10:35:23
Hast du SLI? Also @4K/UHD (was natürlich ein bisschen mehr als 3440*1440 ist), bricht meine Karte völlig weg unter den Einstellung. die FPS ist irgendwo im unteren einstelligen Bereich, d.H. <5fps, gefühlt sind es eher 1fps...

hatte 4k aber kein sli, in 4k lagen die fps nie im einstelligen bereich aber vernünftig spielbar war es mit ~20fps auch nicht.:biggrin:

BlacKi
2015-01-27, 10:36:22
Dummerweise sucht man sich für so ein "empfindliches" Problem die schlimmsten Spiele aus. :freak: Watch Dogs @Ultra Texturen liefert keine sauberen Frametimes was sich auch in den Frameraten abgeschwächt bzw. gemittelt wiederspiegelt. Gleiches gilt für Farcry 4 unter bestimmten Situationen. Ich weiß nicht, aber die Spielewahl ist imho suboptimal.

PS: die exakte Reproduzierbarkeit in Watch Dogs ist auch etwas fraglich.

sehe ich genauso, soweit ich weiß läuft fc4 nicht ganz sauber, warum sich die leute darauf so fixieren und die karte einbrechen sehen wollen.

Eine Luxusdebate ist es sicher nicht, es geht um falsch beschriebene Spezifikationen.

Als P/L-König würde ich die Karte nicht mehr empfehlen.

ich finds auch ne sauerrei das die karte falsch angepriesen wurde, aber die benches durch die die karten liefen haben sie zum pl könig gemacht, nicht die spezifikationen. und die leistung ist so geblieben...

Ätznatron
2015-01-27, 10:44:58
sehe ich genauso, soweit ich weiß läuft fc4 nicht ganz sauber, warum sich die leute darauf so fixieren und die karte einbrechen sehen wollen.



ich finds auch ne sauerrei das die karte falsch angepriesen wurde, aber die benches durch die die karten liefen haben sie zum pl könig gemacht, nicht die spezifikationen. und die leistung ist so geblieben...

Wenn man sich auf Spiele und Settings mit <3,5 GB VRAM-Nutzung beschränkt, ist die Karte ja auch okay.

Dummerweise geht der Trend deutlich Richtung mehr VRAM.

Man muss sich lediglich damit abfinden, gegebenenfalls nicht mehr in der BQ-Oberliga mitspielen zu können.

Jetzt ist sie weniger zukunftstauglich und für SLi sogar beinahe untauglich.

robbitop
2015-01-27, 10:49:28
Nunja heute muss man mit der Brechstange ran, um das Problem in RL nachstellen zu können. In 1-2 Jahren kann das anders aussehen, wenn der VRAM Bedarf der Spiele steigt.
Ein Teil des VRAM Bedarfes ist, wie dargo schonmal dargestellt hat, eine Art Vorladen von nicht hoch priorisiertem Content. Für den Fall, dass man es braucht. Der Priorisierte Content im VRAM findet also höchstwahrscheinlich noch locker Platz in den 3,5 GiB, obwohl die VRAM Belegung das nicht widerspiegelt.

Mit steigendem VRAM Bedarf könnte sich das ändern. 8 GiB Versionen der GM204 wären was feines gewesen. :)

Palpatin
2015-01-27, 10:55:14
2.) Ist das eine "Luxusdebatte" für 4K Auflösungen? Unter 1440p sollten die 3,5 GB für das Spielejahr 2015 und ggf. auch 2016 ausreichen? Mein 970er SLI System mit i7-5930K@4,3 GHz oc beflutet einen ASUS RoG Swift via G-Sync mit bis zu 144 Hz auf 2560*1440 Auflösung; ich spiele alle neuen Triple A Titel mit 80 - 140 frames aus Maxsettings, ich habe noch *nichts* gemerkt an irgendwelchen Performanceeinbußen. Mein Rig habe ich für GTA V explizit gekauft. Muss die Tischkante dran glauben oder beiße ich genüßlich in mein Brötchen jetzt?

Das weiß nur die Glaskugel. Bei 1080p würde ich jetzt sagen trifft dich nur beim Downsampling, bei 1440p kann es natürlich schon sein das kommende Titel da genau in den 3,5-4 GB bereich reinfallen der betroffen ist. Bei 4k gehe ich davon aus das für die kommenden Titel auch die 980 mit den vollen 4GB unterdimensioniert ist. Aber wie gesagt Glaskugel.

Ätznatron
2015-01-27, 10:58:04
Nunja heute muss man mit der Brechstange ran, um das Problem in RL nachstellen zu können. In 1-2 Jahren kann das anders aussehen, wenn der VRAM Bedarf der Spiele steigt.
Ein Teil des VRAM Bedarfes ist, wie dargo schonmal dargestellt hat, eine Art Vorladen von nicht hoch priorisiertem Content. Für den Fall, dass man es braucht. Der Priorisierte Content im VRAM findet also höchstwahrscheinlich noch locker Platz in den 3,5 GiB, obwohl die VRAM Belegung das nicht widerspiegelt.

Mit steigendem VRAM Bedarf könnte sich das ändern. 8 GiB Versionen der GM204 wären was feines gewesen. :)

Es gibt nie zu viel Speicher. :wink:

Mit der Brechstange muss man auch nicht unbedingt ran, ein wenig Downsampling, etwas bessere Texturen, hohe Settings, alles das kann ohne Aufwand viele GB an Speicher bereits heute und in populären Spielen füllen.

Für was sonst kauft man sich eine relativ teure Oberklasse-Karte?

Um dann die Settings nach unten zu schrauben, möglicherweise auf das Niveau einer ganzen Kartenklasse darunter? Hm, da hätte man viel Geld verschleudert...

dargo
2015-01-27, 11:04:30
Es gibt nie zu viel Speicher. :wink:

Mit der Brechstange muss man auch nicht unbedingt ran, ein wenig Downsampling, etwas bessere Texturen, hohe Settings, alles das kann ohne Aufwand viele GB an Speicher bereits heute und in populären Spielen füllen.

Für was sonst kauft man sich eine relativ teure Oberklasse-Karte?

Um dann die Settings nach unten zu schrauben, möglicherweise auf das Niveau einer ganzen Kartenklasse darunter? Hm, da hätte man viel Geld verschleudert...
Ernst gemeinte Frage jetzt. Welches Spiel muss ich nehmen bei dem ich mindestens 50fps (das ist mein persönliches Mindestmaß wegen min. 50Hz) noch habe und trotzdem den Vram "überfülle"? Und jetzt kommt mir nicht mit irgendwelchen hirnrissigen Auslesetools was den Vram angeht. Mir ist bisher kein solches Spiel bekannt.

PS: wobei ich für 50 gesyncte Frames eigentlich eher 55-56fps brauche. Aber ich bin ja großzügig. ;)

Dural
2015-01-27, 11:07:16
Manche übertreiben es aber wirklich etwas. Wem 3,5GB zu wenig sind, dem sind 4GB ziemlich sicher auch zu wenig und er hätte eine 6GB+ Karte kaufen müssen.

Zudem die 970 schon immer erstaunlich günstig war, man konnte (oder musste) davon aus gehen das mehr deaktiviert ist als allgemein bekannt. Das wegen dem Cache und ROPs ist seit einer kleinen Ewigkeit in der Gerüchte Küche, sogar bevor es die 970 zu kaufen gab.

Wie so NV dies jedoch so nicht mitgeteilt hat verstehe ich ehrlich gesagt auch nicht wirklich, das bei einer solchen Karte mal ROPs fehlen war ja früher komplett normal und ist quasi Standard. Wie so NV das mit dem 3,5 + 0,5GB nicht nannte kann ich aus NV Sicht nachvollziehen. Die abstriche bei ROPs und Cache wie gesagt jedoch überhaupt nicht.

dargo
2015-01-27, 11:09:37
Zudem die 970 schon immer erstaunlich günstig war, man konnte (oder musste) davon aus gehen das mehr deaktiviert ist als allgemein bekannt.
Das ist jetzt aber ziemlich dreist von dir.

Dawn on Titan
2015-01-27, 11:11:06
Bei den ROPs habe ich es mir auch gedacht, wenn nur 52 beschäftigt werden können wozu 64 haben?

Ätznatron
2015-01-27, 11:11:41
Ernst gemeinte Frage jetzt. Welches Spiel muss ich nehmen bei dem ich mindestens 50fps (das ist mein persönliches Mindestmaß wegen min. 50Hz) noch habe und trotzdem den Vram "überfülle"? Und jetzt kommt mir nicht mit irgendwelchen hirnrissigen Auslesetools was den Vram angeht. Mir ist bisher kein solches Spiel bekannt.

X-Plane kann mit entsprechenden Texturen leicht jeden Speicher füllen.

Wenn man dann noch die CPU-Last weitestgehend minimiert (bspw. die Anzahl der zu berechnenden Objekte runtersetzt), kannst du locker das Ganze bei relativ hohen Framerates erleben.

Solange der Videospeicher ausreicht...

edit: Und ich habe mal Skyrim auf über 4 GB gebracht und auch mit meiner 6GB-Karte um die 50-60 FPS halten können.

http://abload.de/img/tesv_2014_10_23_13_17i4s5x.jpg

Dural
2015-01-27, 11:11:47
kann man so sehen wie man will, ich weis aber noch genau wie wir hier im Forum darüber diskutiert haben wie so Sandra nur 1,7MB Cache Anzeigt, und zu diesem Zeitpunkt war die 970 noch nicht mal auf dem Markt.

dargo
2015-01-27, 11:14:03
X-Plane kann mir entsprechenden Texturen leicht jeden Speicher füllen.

Ich spreche nicht vom füllen sondern überfüllen. Ergo extreme Einbrüche aufgrund von zu wenig Speicher. Hast du mal paar Links mit Tests dazu? Ich kenne das Spiel nicht.

Edit:

edit: Und ich habe mal Skyrim auf über 4 GB gebracht und auch mit meiner 6GB-Karte um die 50-60 FPS halten können.

http://abload.de/img/tesv_2014_10_23_13_17i4s5x.jpg
Das ist aber nicht Vanilla oder?

BZ
2015-01-27, 11:15:39
Ernst gemeinte Frage jetzt. Welches Spiel muss ich nehmen bei dem ich mindestens 50fps (das ist mein persönliches Mindestmaß wegen min. 50Hz) noch habe und trotzdem den Vram "überfülle"? Und jetzt kommt mir nicht mit irgendwelchen hirnrissigen Auslesetools was den Vram angeht. Mir ist bisher kein solches Spiel bekannt.

PS: wobei ich für 50 gesyncte Frames eigentlich eher 55-56fps brauche. Aber ich bin ja großzügig. ;)

Ich habe Farcy4 gerade mit 2880x1620 TXAA2/4 getestet.
Ich benutze adaptive sync im Treiber,also in der Regel 60FPS
Das spiel nimmt Ram bis 3400-3499MB 60FPS,ab dann ist Feierabend und die FPS
gehen auf 27-29FPS runter.
Also die restlichen 500MB kann man in die Tonne kloppen.
Der Treiber versucht wirklich immer im bereich 3500MB zu bleiben.
Wenn es mehr wird fängt die Festplatte an zu rödeln und es wird ausgelagert denke ich.

derF
2015-01-27, 11:17:08
Schade, dass nichtmal das die Fanboys beeindruckt. Es wird weiter das gekauft was subjektiv das bessere Produkt ist. Dass das Firmengebahren dem Wettbewerb und damit den Kunden in jeder Hinsicht schadet, wird ausgeblendet.
Ist wie in der Politik, es geht einfach weiter wie immer, egal was die Marionetten sich für verbrecherische Aktionen leisten.

Thunder99
2015-01-27, 11:19:35
Wenn du bei FC4 in manchen Gebieten unterwegs mit mit grandioser Aussicht dann können auch 3,7-3,9GB belegt werden, sofern der Treiber es zulässt, siehe auch meine Tests http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10500555&postcount=1356

Ätznatron
2015-01-27, 11:22:44
Ich spreche nicht vom füllen sondern überfüllen. Ergo extreme Einbrüche aufgrund von zu wenig Speicher. Hast du mal paar Links mit Tests dazu? Ich kenne das Spiel nicht.

X-Plane ist ein Flugsimulator. Ohne dich damit wirklich intensiv auseinandergesetzt zu haben, kommst du nicht weit.

Ich bin von einer 3GB-Karte, deren VRAM mit meinen Settings völlig überfüllt war (FPS <20) auf eine 6GB-Karte gewechselt und erlebe das Spiel jetz bei für mich angenehmen ~40FPS und um die 5 GB Speicherfüllung.

In meinem Beitrag oben habe ich noch ein Skyrim-Beispiel angeführt.

Karten mit weniger als 6GB produzierern da nur noch Ruckelorgien.

r-or
2015-01-27, 11:23:04
Ernst gemeinte Frage jetzt. Welches Spiel muss ich nehmen bei dem ich mindestens 50fps (das ist mein persönliches Mindestmaß wegen min. 50Hz) noch habe und trotzdem den Vram "überfülle"? Und jetzt kommt mir nicht mit irgendwelchen hirnrissigen Auslesetools was den Vram angeht. Mir ist bisher kein solches Spiel bekannt.

PS: wobei ich für 50 gesyncte Frames eigentlich eher 55-56fps brauche. Aber ich bin ja großzügig. ;)
Skyrim mit ordentlichen Texturen. Ich bin froh, mich damals fuer eine 3GB Karte entschieden zu haben, und es lagt trotzdem ordentlich, wenn man in verschiedene Richtungen blickt. 4GB vollzukriegen bei 50fps duerfte kein Thema sein.

Aber es ist natuerlich recht nervig, die ganzen Mods zu installieren, das geb ich zu.

Rancor
2015-01-27, 11:29:00
Also das ist definitiv Betrug was Nvidia da getan hat, völlig unabhängig davon, wie relevant dieses Problem nun in der Praxis ist.

dargo
2015-01-27, 11:31:11
Wenn du bei FC4 in manchen Gebieten unterwegs mit mit grandioser Aussicht dann können auch 3,7-3,9GB belegt werden, sofern der Treiber es zulässt, siehe auch meine Tests http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10500555&postcount=1356
Wie ich schon einmal sagte haben solchen Tests für mich persönlich wenig Aussagekraft da schon lange unspielbar. :)

Marty98
2015-01-27, 11:32:24
Schade, dass nichtmal das die Fanboys beeindruckt. Es wird weiter das gekauft was subjektiv das bessere Produkt ist. Dass das Firmengebahren dem Wettbewerb und damit den Kunden in jeder Hinsicht schadet, wird ausgeblendet.
Ist wie in der Politik, es geht einfach weiter wie immer, egal was die Marionetten sich für verbrecherische Aktionen leisten.

Man hat leider keine Alternative. Die 290 ist mindestens doppelt so laut wie eine 970 und dazu noch langsamer. Ich steige deshalb diese Woche von einer 7970 auf eine 970 um. Will nicht mehr warten ob vielleicht von AMD irgendwas neues kommt. Und wenn wird es fast garantiert wieder deutlich lauter als bei NVidia.

Ätznatron
2015-01-27, 11:33:01
Das ist aber nicht Vanilla oder?

Natürlich nicht. Es ist ein wenig gemoddet, mit etwas DSR, und was man halt so macht, wenn man viel Geld für eine Grafikkarte ausgegeben hat und die Investition sich in BQ auszahlen soll. :wink:

BZ
2015-01-27, 11:34:16
Also das ist definitiv Betrug was Nvidia da getan hat, völlig unabhängig davon, wie relevant dieses Problem nun in der Praxis ist.

Richtig,
die Karte ist nicht das was sie vorgibt zu sein.

PS.ich besitze die Gigabyte GV-N970WF3OC-4GD und ich habe den verdacht das nur
3000MB voll angebunden sind.
Zumindest sagt die REC.exe das.

dargo
2015-01-27, 11:35:17
X-Plane ist ein Flugsimulator. Ohne dich damit wirklich intensiv auseinandergesetzt zu haben, kommst du nicht weit.

Ich bin von einer 3GB-Karte, deren VRAM mit meinen Settings völlig überfüllt war (FPS <20) auf eine 6GB-Karte gewechselt und erlebe das Spiel jetz bei für mich angenehmen ~40FPS und um die 5 GB Speicherfüllung.

Ok... das sind dann die wenigen Ausnahmen, ist halt nicht mein Genre. Aber ganz ehrlich... mit den 4GB der GTX980 wirst du in solchen Spielen dann auch kaum glücklicher.

In meinem Beitrag oben habe ich noch ein Skyrim-Beispiel angeführt.

Karten mit weniger als 6GB produzierern da nur noch Ruckelorgien.
Spiele mit Mods sind nicht wirklich repräsentativ. Klar... wer es dennoch gerne nutzt muss halt zu anderen Karten greifen.

Ich habe Farcy4 gerade mit 2880x1620 TXAA2/4 getestet.
Ich benutze adaptive sync im Treiber,also in der Regel 60FPS
Das spiel nimmt Ram bis 3400-3499MB 60FPS,ab dann ist Feierabend und die FPS
gehen auf 27-29FPS runter.
Also die restlichen 500MB kann man in die Tonne kloppen.
Der Treiber versucht wirklich immer im bereich 3500MB zu bleiben.
Wenn es mehr wird fängt die Festplatte an zu rödeln und es wird ausgelagert denke ich.
Ich glaube langsam mit DSR hat sich NV keinen Gefallen getan. :D

Ätznatron
2015-01-27, 11:40:26
Ok... das sind dann die wenigen Ausnahmen, ist halt nicht mein Genre. Aber ganz ehrlich... mit den 4GB der GTX980 wirst du in solchen Spielen dann auch kaum glücklicher.


Spiele mit Mods sind nicht wirklich repräsentativ. Klar... wer es dennoch gerne nutzt muss halt zu anderen Karten greifen.

Im Zweifel ist es natürlich nie repräsentativ....

Mit einer echten 4GB-Karte wirst du halt glücklicher als mit einem 3,5GB-Abriegler. Vielleicht nur etwas glücklicher, aber immerhin.

Screemer
2015-01-27, 11:42:06
Richtig,
die Karte ist nicht das was sie vorgibt zu sein.

PS.ich besitze die Gigabyte GV-N970WF3OC-4GD und ich habe den verdacht das nur
3000MB voll angebunden sind.
Zumindest sagt die REC.exe das.wie komst du auf die Idee? Dwm deaktiviert

Mr. Lolman
2015-01-27, 11:44:32
wie komst du auf die Idee? Dem deaktiviert?

Dem?

Thunder99
2015-01-27, 11:47:58
Gigabyte und MSI haben ein BIOS Update bereitgestellt was die korrekte Größe des VRAMs meldet. Evt hilft es ja bei dir BZ

N0Thing
2015-01-27, 11:49:58
Dem?

Vermutlich Tippfehler und es sollte DWM gemeint sein.

BZ
2015-01-27, 11:52:32
wie komst du auf die Idee? Dem deaktiviert?

Hier mal der Test.

http://www.computerbase.de/forum/attachment.php?attachmentid=469922

BZ
2015-01-27, 11:55:33
Gigabyte und MSI haben ein BIOS Update bereitgestellt was die korrekte Größe des VRAMs meldet. Evt hilft es ja bei dir BZ

Danke Dir, aber bei meiner Karte ist nichts dabei,
da ich Samsung Ram habe.

http://www.gigabyte.de/products/product-page.aspx?pid=5212#bios

Screemer
2015-01-27, 11:57:24
Vermutlich Tippfehler und es sollte DWM gemeint sein.
Korrekt. Handyautokrrektur.

derF
2015-01-27, 12:01:31
Man hat leider keine Alternative. Die 290 ist mindestens doppelt so laut wie eine 970 und dazu noch langsamer. Ich steige deshalb diese Woche von einer 7970 auf eine 970 um. Will nicht mehr warten ob vielleicht von AMD irgendwas neues kommt. Und wenn wird es fast garantiert wieder deutlich lauter als bei NVidia.
Genau das mein ich. Wo ist denn eine 290 mit gutem Kühler doppelt so laut und wobei soll das stören. Meine Heizkörper sind lauter als die Grafikkarte und stören nicht. Und niedrige einstellige Leistungsunterschiede merkst du woran? Ich merke eher die besseren Frametimes in Mantle-Titeln. Das ist Innovation die es wert ist gefördert zu werden, schließlich profitiert auch nVidia dank DX12 irgendwann davon. Genauso wie sie von Adaptive Sync profitieren werden, nachdem sie die proprietäre GSync-Kuh gemolken haben.

Tellion
2015-01-27, 12:29:13
Erinnert mich an http://www.nvidia.de/page/turbocache.html
Warum sollte Nvidia die Karten denn nicht auch damit versehen?
Ist ja nur kein werbewirksames Feature mehr...

Desweiteren kam die Karte nicht für Spiele mit derartiger Speicherfüllrate auf den Markt.
Das die 970 hier beschnitten wurde ist lediglich dem geschuldet sich hier von der 980 abzuheben.

Meiner Meinung nach ist die Karte vollkommen iO.
Die nächsten Karten sind dann eben eher für derartige Füllraten gemacht.
Ich tippe darauf, dass die Spiele hier einfach mal hungriger sind wie die Hardware es erlaubt.

Weiterhin spart man dadurch natürlich auch Strom und Produktionskosten.
Ich denke es ist reine Preispolitik und kalkuliert.
Das Problem ist nicht, dass diese Thematik existiert...das Problem ist, dass sich hohe Speichernutzung schneller durchgesetzt hat.

Hardwareprofi bin ich nicht...also seht mir die oberflächliche Betrachtungsweise bitte nach.

user77
2015-01-27, 12:38:05
hast du eine GTX970? sonst würdest du wahrscheinlich anders denke ;-)

Thunder99
2015-01-27, 12:40:40
Doch, sie kamen auf dem Markt für die derartiger Speicherfüllrate. Für Ultra Settings von heute da ja schon davor Grafikkarten auf dem Markt waren mit mehr als 3GB VRAM (R9 290er sowie Titan) welches die Entwickler für ihre Effekte genutzt hatten. Weiter hat DSR ebenso dazu geführt schon heute mehr als 3GB zu belegen.
Die 3,5-4GB Belegung ist eine Randbetrachtung welche weiter untersucht werden muss in wie weit die langsame Anbindung hier effektiv in das Spielgefühl eingreift

urbi
2015-01-27, 12:49:27
Es scheint ja jetzt erste Informationen zu Wiedergutmachungen zu geben:

1. Bei Geforce.com wurde gestern von einem User behauptet NVIDIA würde eine Art von "compensation" anbieten und noch diese Woche Details nennen.
2. Außerdem hat ein Thread in dem jemand vorgeschlagen hat GTX 970 Nutzern die Möglichkeit eines Upgrades zur GTX 980 zu einem reduzierten Preis einzuräumen viel Zuspruch erhalten. EVGA hat dem folgend wohl bei Nutzern die sich an den Support gewandt haben Step Up wieder freigeschaltet.
3. In Deutschland haben mehre große Händler gestern (noch vor dem zweiten NVIDIA Statement) zunächst ablehnend reagiert, jetzt gibt es aber Berichte von Käufern die den vollen Kaufpreis erstattet bekamen oder den Kaufpreis um 50€ mindern konnten.

Das hört sich doch soweit ganz gut an.

dargo
2015-01-27, 12:56:53
Es scheint ja jetzt erste Informationen zu Wiedergutmachungen zu geben:

1. Bei Geforce.com wurde gestern von einem User behauptet NVIDIA würde eine Art von "compensation" anbieten und noch diese Woche Details nennen.
2. Außerdem hat ein Thread in dem jemand vorgeschlagen hat GTX 970 Nutzern die Möglichkeit eines Upgrades zur GTX 980 zu einem reduzierten Preis einzuräumen viel Zuspruch erhalten. EVGA hat dem folgend wohl bei Nutzern die sich an den Support gewandt haben Step Up wieder freigeschaltet.
3. In Deutschland haben mehre große Händler gestern (noch vor dem zweiten NVIDIA Statement) zunächst ablehnend reagiert, jetzt gibt es aber Berichte von Käufern die den vollen Kaufpreis erstattet bekamen oder den Kaufpreis um 50€ mindern konnten.

Das hört sich doch soweit ganz gut an.
Das hört sich in der Tat gut an.

MartinRiggs
2015-01-27, 12:57:33
Es scheint ja jetzt erste Informationen zu Wiedergutmachungen zu geben:

1. Bei Geforce.com wurde gestern von einem User behauptet NVIDIA würde eine Art von "compensation" anbieten und noch diese Woche Details nennen.
2. Außerdem hat ein Thread in dem jemand vorgeschlagen hat GTX 970 Nutzern die Möglichkeit eines Upgrades zur GTX 980 zu einem reduzierten Preis einzuräumen viel Zuspruch erhalten. EVGA hat dem folgend wohl bei Nutzern die sich an den Support gewandt haben Step Up wieder freigeschaltet.
3. In Deutschland haben mehre große Händler gestern (noch vor dem zweiten NVIDIA Statement) zunächst ablehnend reagiert, jetzt gibt es aber Berichte von Käufern die den vollen Kaufpreis erstattet bekamen oder den Kaufpreis um 50€ mindern konnten.

Das hört sich doch soweit ganz gut an.

Hört sich echt gut an, hast du dazu Links?

DarknessFalls
2015-01-27, 12:57:34
Man hat leider keine Alternative. Die 290 ist mindestens doppelt so laut wie eine 970 und dazu noch langsamer. Ich steige deshalb diese Woche von einer 7970 auf eine 970 um. Will nicht mehr warten ob vielleicht von AMD irgendwas neues kommt. Und wenn wird es fast garantiert wieder deutlich lauter als bei NVidia.

Gut, dass es keine 290er Custom-Designs gibt. Sapphire Tri-X oder VaporX anyone? :eek:

Thunder99
2015-01-27, 12:58:56
Ein Schritt in die richtige Richtung :)

BitJäger
2015-01-27, 13:00:56
..... und der Heise Verlag legt heute noch mal einen drauf.

Nvidia-Grafikkarten: GeForce GTX 970 hat auch weniger Rasterendstufen und L2-Cache als behauptet (http://www.heise.de/newsticker/meldung/Nvidia-Grafikkarten-GeForce-GTX-970-hat-auch-weniger-Rasterendstufen-und-L2-Cache-als-behauptet-2529302.html)

Thunder99
2015-01-27, 13:03:32
..... und der Heise Verlag legt heute noch mal einen drauf.

Nvidia-Grafikkarten: GeForce GTX 970 hat auch weniger Rasterendstufen und L2-Cache als behauptet (http://www.heise.de/newsticker/meldung/Nvidia-Grafikkarten-GeForce-GTX-970-hat-auch-weniger-Rasterendstufen-und-L2-Cache-als-behauptet-2529302.html)
Aber dafür performend sie erstaunlich gut (unterhalb von 3,5GB) ;)

Matrix316
2015-01-27, 13:09:13
Es scheint ja jetzt erste Informationen zu Wiedergutmachungen zu geben:

1. Bei Geforce.com wurde gestern von einem User behauptet NVIDIA würde eine Art von "compensation" anbieten und noch diese Woche Details nennen.
2. Außerdem hat ein Thread in dem jemand vorgeschlagen hat GTX 970 Nutzern die Möglichkeit eines Upgrades zur GTX 980 zu einem reduzierten Preis einzuräumen viel Zuspruch erhalten. EVGA hat dem folgend wohl bei Nutzern die sich an den Support gewandt haben Step Up wieder freigeschaltet.
3. In Deutschland haben mehre große Händler gestern (noch vor dem zweiten NVIDIA Statement) zunächst ablehnend reagiert, jetzt gibt es aber Berichte von Käufern die den vollen Kaufpreis erstattet bekamen oder den Kaufpreis um 50€ mindern konnten.

Das hört sich doch soweit ganz gut an.

Muss man bei EVGA die Karte in dem bestimmten Zeitraum registriert haben, oder geht das jetzt auch noch, wenn man die Karte schon etwas länger hat? (so 2 Monate)?

Meint ihr die Händler nehmen solche Karten auch noch zurück (z.B. Alternate)?

Oder müsste man dann auf die "Kompensation" von Nvidia hoffen?

x-force
2015-01-27, 13:13:04
der händler muss die karte zurücknehmen.
du hast die karte ja schließlich nicht bei nvidia gekauft, sondern einen vertrag mit einem shop.
egal ob nvidia den shop entschädigt oder nicht, der shop muss dir gegenüber nacherfüllung leisten, was er nicht kann, also kannst du die ware zurückgeben.


Repeating the test on High resulted in zero pop-in and VRAM usage that topped out at 3.3GB, though during longer gameplay sessions usage of nearly 4GB has been observed.

With so many variables it's impossible to draw any definitive conclusions, so all we can suggest is that you try High and see how you fare. If there's heavy stuttering it suggests you've hit the limits of your GPU and need to use a lower setting.


damit sagt nvidia offenbar selbst, daß man mit 3,5 gig nicht wirklich auf high spielen kann.

urbi
2015-01-27, 13:20:37
Hört sich echt gut an, hast du dazu Links?

Ich suche mal.

1. Stammt aus dem Thread zum Vram-Problem bei Geforce.com. Ich habe das original Posting auf die schnelle nciht gefunden, aber hier wird es (nahezu) komplett zitiert:

https://forums.geforce.com/default/topic/803518/geforce-900-series/gtx-970-3-5gb-vram-issue/post/4435653/#4435653

2. War ein Thread im Geforce 900 Series Hauptforum. Vielleicht dieser, aber ich dachte eigentlich da wäre noch ein größerer zu dem Thema:

https://forums.geforce.com/default/topic/806827/geforce-900-series/allow-gtx-970-owners-to-upgrade-to-the-980-at-a-reduced-price-/

Was EVGA angeht findet man die Rückmeldung im entsprechenden Thread im EVGA-Forum:

http://forums.evga.com/FindPost/2285916

3. Kommt noch. Die Info habe ich aus dem Hardwareluxx, stammt aber angeblich ursprünglich aus dem Gamestar-Forum.

urbi
2015-01-27, 13:25:28
Muss man bei EVGA die Karte in dem bestimmten Zeitraum registriert haben, oder geht das jetzt auch noch, wenn man die Karte schon etwas länger hat? (so 2 Monate)?

Meint ihr die Händler nehmen solche Karten auch noch zurück (z.B. Alternate)?

Oder müsste man dann auf die "Kompensation" von Nvidia hoffen?

Zu Abs. 1:

Eigentlich muss man sie in einem bestimmten Zeitraum registrieren und dann kann man in einem bestimmten Zeitraum "aufrüsten". Hier hat EVGA wohl zumindest letztere Bedingung gestrichen, ich gehe davon aus das die erste dann auch nicht das Problem ist.

Zu Abs. 2:
Die ersten Erfahrungen mit dem Händler waren negativ. Vielleicht hat sich etwas daran geändert nachdem NVIDIA gestern eingeräumt hat falsche Daten zu verbreiten. Rechtlich ist man als Käufer wohl im Recht. Die Frage ist nur ob man ohne Weiteres zu seinem Recht kommt. :)

Zu Abs. 3:
Ich würde ein paar Tage abwarten. Wenn man diese Woche nichts von NVIDIA hört oder das Angebot sich als Lachnummer erweist (ein weiteres Ubisoft-Spiel wäre z.B. für mich eine) kann man ja noch immer den Stress auf sich nehmen, aber vielleicht wird NVIDIA dem ganzen ja souverän und kundenfreundlich begegnen und ein Upgrade/ Erstattungsprogramm ins Leben rufen.

Tellion
2015-01-27, 13:26:25
der händler muss die karte zurücknehmen.
du hast die karte ja schließlich nicht bei nvidia gekauft, sondern einen vertrag mit einem shop.
egal ob nvidia den shop entschädigt oder nicht, der shop muss dir gegenüber nacherfüllung leisten, was er nicht kann, also kannst du die ware zurückgeben.
damit sagt nvidia offenbar selbst, daß man mit 3,5 gig nicht wirklich auf high spielen kann.

Nacherfüllung eines nicht vorhandenen Mangels?
Ich denke hier muss der Mangel auch erst offen kommuniziert werden.
Ich sehe da keine offene Kommunikation eines Mangels, seitens des Herstellers. Erst wenn Nvidia hier eine "Abwicklung" anbietet, können die Händler auch damit arbeiten.

Eine bloße Behauptung ist leider noch kein Mangel.

BZ
2015-01-27, 13:28:30
Ich habe meine Karte eben bei Mindfactory angemeldet,
sowas geht gar nicht.

urbi
2015-01-27, 13:29:14
Nacherfüllung eines nicht vorhandenen Mangels?
Ich denke hier muss der Mangel auch erst offen kommuniziert werden.
Ich sehe da keine offene Kommunikation eines Mangels, seitens des Herstellers. Erst wenn Nvidia hier eine "Abwicklung" anbietet, können die Händler auch damit arbeiten.

Eine bloße Behauptung ist leider noch kein Mangel.

Ein Mangel im Rechtssinne erfordert nicht das Vorliegen eines technischen Fehlers. NVIDIA hat falsche Daten zu den Grafikkarten rausgegeben. Damit liegt ein Abweichen der Ist- von der Soll-Beschaffenheit und damit ein Mangel im Rechtssinne vor.

Ich habe meine Karte eben bei Mindfactory angemeldet,
sowas geht gar nicht.

Klappt das? Die ersten Rückmeldungen von gestern bei MF waren ebenfalls negativ!

Marty98
2015-01-27, 13:33:59
Genau das mein ich. Wo ist denn eine 290 mit gutem Kühler doppelt so laut und wobei soll das stören. Meine Heizkörper sind lauter als die Grafikkarte und stören nicht. Und niedrige einstellige Leistungsunterschiede merkst du woran? Ich merke eher die besseren Frametimes in Mantle-Titeln. Das ist Innovation die es wert ist gefördert zu werden, schließlich profitiert auch nVidia dank DX12 irgendwann davon. Genauso wie sie von Adaptive Sync profitieren werden, nachdem sie die proprietäre GSync-Kuh gemolken haben.

Gut, dass es keine 290er Custom-Designs gibt. Sapphire Tri-X oder VaporX anyone? :eek:

Laut Computerbase ist die leiseste 290er 46,5db unter Last (http://www.computerbase.de/2014-04/sapphire-radeon-vapor-x-r9-290-luefter-aus-lautstaerke-test/4/). Die MSI 4G 970 ist 36,5db (http://www.computerbase.de/2014-10/nvidia-geforce-gtx-970-test-roundup-vergleich/4/). Damit ist die leiseste 290er exakt doppelt so laut wie die MSI 970er (die Zotac Extreme ist noch etwas leiser). Für dich mag das akzeptabel sein, für mich sind aber schon die 36,5 Grenzwertig (leise ist alles unter 0.5 Sone, besser unter 0.3 wie meine CPU Lüfter unter Vollast). Eine 290er mit 36db würde ich kaufen (trotz der sonstigen AMD Nachteile).

BZ
2015-01-27, 13:35:57
Ein Mangel im Rechtssinne erfordert nicht das Vorliegen eines technischen Fehlers. NVIDIA hat falsche Daten zu den Grafikkarten rausgegeben. Damit liegt ein Abweichen der Ist- von der Soll-Beschaffenheit und damit ein Mangel im Rechtssinne vor.



Klappt das? Die ersten Rückmeldungen von gestern bei MF waren ebenfalls negativ!

Richtig,
die halten wohl erst Rücksprache mit Nvidia.
Zumindest habe ich aber erst mal meinen Anspruch angemeldet.

x-force
2015-01-27, 13:38:10
NVIDIA hat falsche Daten zu den Grafikkarten rausgegeben. Damit liegt ein Abweichen der Ist- von der Soll-Beschaffenheit und damit ein Mangel im Rechtssinne vor.


so siehts aus.
theoretisch kann man da noch andere sachlagen konstruieren, aber mit den rops und l2 cache bist du auf der sicheren seite.

Tellion
2015-01-27, 13:54:24
Ein Mangel im Rechtssinne erfordert nicht das Vorliegen eines technischen Fehlers. NVIDIA hat falsche Daten zu den Grafikkarten rausgegeben. Damit liegt ein Abweichen der Ist- von der Soll-Beschaffenheit und damit ein Mangel im Rechtssinne vor.


Ist generell sicherlich nicht ganz falsch.
Aber es muss hier auch tatsächlich ein Ist und ein Soll vorliegen.
Soll es so sein, dann Ist es eben so.

Also keine Gewährleistungsansprüche...

N0Thing
2015-01-27, 14:09:02
Laut Computerbase ist die leiseste 290er 46,5db unter Last (http://www.computerbase.de/2014-04/sapphire-radeon-vapor-x-r9-290-luefter-aus-lautstaerke-test/4/). Die MSI 4G 970 ist 36,5db (http://www.computerbase.de/2014-10/nvidia-geforce-gtx-970-test-roundup-vergleich/4/). Damit exakt doppelt so laut (die Zotac Extreme ist noch etwas leiser). Für dich mag das akzeptabel sein, für mich sind schon aber die 36,5 Grenzwertig (leise ist alles unter 0.5 Sone, besser unter 0.3 wie meine CPU Lüfter unter Vollast). Eine 290er mit 36db würde ich kaufen (trotz der sonstigen AMD Nachteile).

Es mag vielleicht nichts daran ändern, dass eine R290 lauter als eine GTX 970 ist, aber zwischen den beiden Tests hat afaik CB die Testmethode für die Lautstärke umgestellt und nutzt nun andere Gehäuse für den Lautstärketest.

Da dürfte die Tabelle von HT4U.net bei einem Direktvergleich aussagekräftiger sein: http://ht4u.net/reviews/2015/nvidia_geforce_gtx_960_msi_gtx_960_gaming_2g_im_test/index15.php

w0mbat
2015-01-27, 14:10:57
Klappt das? Die ersten Rückmeldungen von gestern bei MF waren ebenfalls negativ!

Das kann MF nicht selber entscheiden. Wenn sie 4GB GDDR5 mit 224GB/s Bandbreite und 64 ROPs angegeben haben gibt es einen eindeutigen Sachmangel.

Palpatin
2015-01-27, 14:17:28
Da dürfte die Tabelle von HT4U.net bei einem Direktvergleich aussagekräftiger sein: http://ht4u.net/reviews/2015/nvidia_geforce_gtx_960_msi_gtx_960_gaming_2g_im_test/index15.php
Das ist richtig, wenn allerdings die Lautstärke das wichtigste Kriterium ist und selbst die super Leise MSI schon grenzwertig ist dann führt imo nur ein Weg zur 290 und der ist selbst Hand anlegen an der Kühlung oder eben mit der Krüppelkarte glücklich werden.

fondness
2015-01-27, 14:17:53
Es mag vielleicht nichts daran ändern, dass eine R290 lauter als eine GTX 970 ist, aber zwischen den beiden Tests hat afaik CB die Testmethode für die Lautstärke umgestellt und nutzt nun andere Gehäuse für den Lautstärketest.

Da dürfte die Tabelle von HT4U.net bei einem Direktvergleich aussagekräftiger sein: http://ht4u.net/reviews/2015/nvidia_geforce_gtx_960_msi_gtx_960_gaming_2g_im_test/index15.php

Da fehlt leider die beste 290. IMO gibt es keine Herstellerkarte auf dem Markt mit einer besseren Kühlung wie bei der Vapor-X 290.

derF
2015-01-27, 14:18:44
Es mag vielleicht nichts daran ändern, dass eine R290 lauter als eine GTX 970 ist, aber zwischen den beiden Tests hat afaik CB die Testmethode für die Lautstärke umgestellt und nutzt nun andere Gehäuse für den Lautstärketest.
Bei Techpowerup sinds 37 dB bei der Sapphire Vapor-X 290 vs. 30 dB bei der MSI 970.
Ich glaub da spielt jemand im Schallschutzbunker ohne Spielsounds und ohne Tasten/Knöpfe. ;)

Dural
2015-01-27, 14:19:58
Ich habe mir gerade eine zweite 290X 4GB für 250.- Bestellt, sind die bei euch auch im Preis gefallen?

urbi
2015-01-27, 14:20:03
Ist generell sicherlich nicht ganz falsch.
Aber es muss hier auch tatsächlich ein Ist und ein Soll vorliegen.
Soll es so sein, dann Ist es eben so.

Also keine Gewährleistungsansprüche...

Du hast das falsch verstanden. Der Mängelbegriff im deutschen Recht ist subjektiv, hängt also regelmäßig davon ab was die Parteien vereinbart haben. Ob ein technischer Fehler vorliegt ist vollkommen unerheblich. Die Geforce GTX 970 funktioniert genau wie vorgesehen, trotzdem liegt ein Mangel vor weil Nvidia mit falschen Daten geworben hat und diese falschen Daten in Datenblättern usw. verbreitete, sodass sie ihren Weg in alle möglichen Tests, aber auch auf Preisvergleichs- und Händlerseiten fanden. Wenn ein Händler auf Geizhals gelistet ist wird er nicht behaupten können, dass ihm diese Daten gänzlich unbekannt waren.

Das kann MF nicht selber entscheiden. Wenn sie 4GB GDDR5 mit 224GB/s Bandbreite und 64 ROPs angegeben haben gibt es einen eindeutigen Sachmangel.

Ja, aber Recht haben und Recht bekommen sind zwei verschiedene Paar Schuhe. Vielleicht muss man erst den Anwalt drohen lassen. ;)

Marty98
2015-01-27, 14:20:55
Es mag vielleicht nichts daran ändern, dass eine R290 lauter als eine GTX 970 ist, aber zwischen den beiden Tests hat afaik CB die Testmethode für die Lautstärke umgestellt und nutzt nun andere Gehäuse für den Lautstärketest.

Da dürfte die Tabelle von HT4U.net bei einem Direktvergleich aussagekräftiger sein: http://ht4u.net/reviews/2015/nvidia_geforce_gtx_960_msi_gtx_960_gaming_2g_im_test/index15.php

HT4U hat bei der Lautstärkemessung immer komplett andere Ergebnisse als Computerbase und PCGH. Ich vertraue auf die letztgenannten.

Matrix316
2015-01-27, 14:22:02
Es mag vielleicht nichts daran ändern, dass eine R290 lauter als eine GTX 970 ist, aber zwischen den beiden Tests hat afaik CB die Testmethode für die Lautstärke umgestellt und nutzt nun andere Gehäuse für den Lautstärketest.

Da dürfte die Tabelle von HT4U.net bei einem Direktvergleich aussagekräftiger sein: http://ht4u.net/reviews/2015/nvidia_geforce_gtx_960_msi_gtx_960_gaming_2g_im_test/index15.php


Naja trotzdem. Eine der leisesten 290X die Sapphire Tri-X R9 290X OC hat 3,55 Sone und eine EVGA GTX 980 (!) SC ACX 2.0 hat nur 2.11 Sone. Leider fehlt die Vapor-X 290 (x) im Vergleich, weil die 280X scheint ähnlich leise zu sein.

Marty98
2015-01-27, 14:26:23
Da fehlt leider die beste 290. IMO gibt es keine Herstellerkarte auf dem Markt mit einer besseren Kühlung wie bei der Vapor-X 290.

Die Vapor-X 290x hat doch den gleichen Kühler wie die 290, oder? (schaut auf Bild gleich aus) und ist laut PCGH 01/2015 unter Spielelast mit 4,5 Sone sehr laut. Hab leider die Ausgabe nicht in der die 290 getestet wurde.

http://i.imgur.com/6gpKJEl.png

dildo4u
2015-01-27, 14:27:16
AMD ist keine Alternative da sowas ständig passiert:

Miese Performance in Dying Light
www.forum-3dcenter.org/vbulletin/showpost.php?p=10502220&postcount=94

Das selbe wars bei Watch Dogs,FC4,AC Unity.

www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/

www.pcgameshardware.de/Far-Cry-4-PC-256888/Specials/Technik-Test-Benchmark-1143026/

www.pcgameshardware.de/Assassins-Creed-Unity-PC-258436/Specials/Test-Technik-Benchmarks-1142550/

Day One Performacne ist zu Häufig Abfall liegt daran das der Treiber zu hohe CPU Last erzeugt daher betrifft es hauptsächlich Open World Games.

Mehr Beispiele mit zu hoher CPU Last.
www.eurogamer.net/articles/2015-01-24-nvidia-gtx-960-vs-r9-280-285-on-core-i3-tech-gallery

Ätznatron
2015-01-27, 14:30:03
AMD ist keine Alternative da sowas ständig passiert:

Miese Performance in Dying Light
www.forum-3dcenter.org/vbulletin/showpost.php?p=10502220&postcount=94

Das selbe wars bei Watch Dogs,FC4,AC Unity.

www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/

www.pcgameshardware.de/Far-Cry-4-PC-256888/Specials/Technik-Test-Benchmark-1143026/

www.pcgameshardware.de/Assassins-Creed-Unity-PC-258436/Specials/Test-Technik-Benchmarks-1142550/

Day One Performacne ist zu Häufig Abfall liegt daran das der Treiber zu hohe CPU Last erzeugt daher betrifft es hauptsächlich Open World Games.

Mehr Beispiele mit zu hoher CPU Last.
www.eurogamer.net/articles/2015-01-24-nvidia-gtx-960-vs-r9-280-285-on-core-i3-tech-gallery

Schlimm, schlimm.

Aber irgendwie nicht halb so schlimm wie TechSpec-Täuschung.

Armaq
2015-01-27, 14:30:59
Die Vapor-X 290x hat doch den gleichen Kühler wie die 290, oder? (schaut auf Bild gleich aus) und ist laut PCGH 01/2015 unter Spielelast mit 4,5 Sone sehr laut. Hab leider die Ausgabe nicht in der die 290 getestet wurde.

http://i.imgur.com/6gpKJEl.png
Also die 290 VaporX hörst du unter Vollast nicht aus meinem Antec P200. Diese ganzen Themen sind alle Quatsch mit Soße.

derF
2015-01-27, 14:31:24
Weil verbuggte Ubisoft-Gameworks-Spiele - zu Release eh nicht ohne Ärgerei spielbar - zufälligerweise auf AMD schlechter performen... Überraschung.

Ansonsten:
http://www.3dcenter.org/news/die-grafikkarten-performance-unter-assetto-corsa

eratte
2015-01-27, 14:32:49
Bei AC Unity stimmt das denke ich gar nicht mehr das AMD da schlechter aussieht.

derguru
2015-01-27, 14:33:26
und das nächste spiel das ein guten batzen an ram belegt und das schon bei 1080p.mit der gtx970 wird wohl versucht die 3,5gb zu halten, ich wette die gtx 980 macht die 4gb voll. bei 1080p finde ich es schon heftig ,wird wohl zur normalität.

dying light

http://abload.de/thumb/dyinglightgame_2015_0uwqol.jpg (http://abload.de/image.php?img=dyinglightgame_2015_0uwqol.jpg)

fondness
2015-01-27, 14:35:07
Die Vapor-X 290x hat doch den gleichen Kühler wie die 290, oder? (schaut auf Bild gleich aus) und ist laut PCGH 01/2015 unter Spielelast mit 4,5 Sone sehr laut. Hab leider die Ausgabe nicht in der die 290 getestet wurde.

http://i.imgur.com/6gpKJEl.png

Nein hat sie nicht, der Vapor-X-Kühler ist wesentlich höher (2,5 Slot vs. 2 Slot) und auch leicht anders aufgebaut. Der andere hat glaube ich nicht mal einen Vapor-Chamber.

dildo4u
2015-01-27, 14:35:24
Bei AC Unity stimmt das denke ich gar nicht mehr das AMD da schlechter aussieht.
Ich hab doch ausdrücklich von day one Performance gesprochen gibt Leute die nicht Wochen auf ein fix warten wollen.

Marty98
2015-01-27, 14:38:05
Also die 290 VaporX hörst du unter Vollast nicht aus meinem Antec P200. Diese ganzen Themen sind alle Quatsch mit Soße.

Das ist eben alles subjektiv. Gibt so einige die nichts hören und für mich ist es unglaublicher Lärm. Meine 560 Ti hatte ich damals gekauft weil sie sehr leise in allen Tests war. Ich hörte sie noch aus 5m deutlich. Hab dann den Accelero drauf und mit 0.6 Sone war es akzeptabel, aber nicht superleise. Die Sapphire 7970 die ich jetzt drin hab ist bestimmt 3 mal lauter und somit störend, aber Preis/Leistung stimmte und so habe ich mit dem Lärm gelebt. Nun soll es aber wieder leise sein. Hab deshalb erstmal die Asus 970 bestellt. Die soll je nach Test die leiseste überhaupt sein (0.7 Sone bei PCGH) oder richtig laut (3.x Sone bei HT4U). Da bin ich mal gespannt. Wenn sie zu laut ist, teste ich die Zotac Extreme.

eratte
2015-01-27, 14:39:03
Die sind dann selber schuld, und wer bei Day one besser da steht hängt meist vom "Sponser" des Spiels ab. Selber schuld wer sich da zum Sklaven macht und sich die Rosine rauspickt.

Angiesan
2015-01-27, 14:40:28
@Tellion. es ist müssig mit jemanden zu diskutieren der nur sagt, ne geht nicht ;-)
Es ist sio wie es ist ein klarer Sachmangel, da Produkt entspricht nicht den Eigenschaften in der Gänze die beworben und publiziert wurden.
Als Unternehmen und aus Verbrauchersicht gibt es da keinen Interpretationsspielraum.
Auf was Du heraus möchtest ist Gebrauchsmöglichkeit, alla es ist eine Grafikkarte und sie liefert ein Bild also halt den Mund....so einfach ist das schon lange nicht mehr auch bei Elektronik-Bauteilen und das wissen auch die Händler und Hersteller ;-)

Es wäre was anderes wenn man daraus keinen Nachteil für die Zukunft ableiten könnte oder es ausschließen kann, dass sich ein Nachteil über die durchschnittliche Nutzungsdauer einstellen wird.
Das Versucht NV ja gerade mit den wenigen Benchmarks zu belegen und die entsprechende Erreichung der Leistung von den HW Faktoren abzukoppeln.

Getreu nach dem Motto: Es ist nicht wichtig wie viel Transistoren ich investiere oder Speicher verbaue das Ergebnis ist wichtig und die GTX 970 hat ein ansprechendes Leistungsverhältnis zu dem Vollausbau GTX 980 wenn da nicht mehr kommt wird es schwer.
Dann kann man sagen in diesem Bereich wird nach nutzbarer Leistung gekauft und nicht nach Hardwaregewicht oder ....Tec.Specs ;-)
Aktuell muss aber der Hersteller noch den Beweis liefern , dass es kein Nachteil ist wie die GPU jetzt wirklich gebaut ist.

Das hat NVidia auch sehr schnell gemacht.
Ob dies jedoch als Beweis ausreicht hmm da müsste man wirklich jemanden fragen der sowas jeden Tag auf dem Tisch hat.