PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Diskussion zur GTX970-Problematik: Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24

MadManniMan
2015-02-24, 23:44:31
Bilderrätsel: Gleicher Benchmark, 45 Sekunden, 1080p, max. Detail, keine(!) Kantenglättung, aktuelle Treiber. GTX 980, GTX 970 und R9 290X sind die Teilnehmer. Wer ist wer? ;-)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51265&stc=1&d=1424817437

Den krassen Performance-Abfall am Ende würde ich jetzt instinktiv der 970 zuschreiben - aber was machen die regelmäßigen Spikes davor für einen Sinn?

Isen
2015-02-24, 23:46:08
Würde auch Raten:

1. 980
2. 290x
3. 970

Aber schöne Falle - welches Game?

samm
2015-02-24, 23:48:26
Bilderrätsel: Gleicher Benchmark, 45 Sekunden, 1080p, max. Detail, keine(!) Kantenglättung, aktuelle Treiber. GTX 980, GTX 970 und R9 290X sind die Teilnehmer (und wer das Spiel nicht herauskriegt, muss sich eventuell nicht zu Äußerungen hingerissen fühlen). Wer ist wer? ;-)Na die Frage wäre witzlos, wenn der grosse Ruckler nicht die 290X wäre - also: 980, 970, 290X. Andererseits geht es vielleicht ja doch um's Topic, und die 970 weist hier Mikroruckler und einen merwürdigen Rückfall auf die halbe Framerate auf?

N0Thing
2015-02-25, 00:03:36
Bilderrätsel: Gleicher, real-ingame Benchmark, 45 Sekunden, 1080p, max. Detail, keine(!) Kantenglättung, aktuelle Treiber. GTX 980, GTX 970 und R9 290X sind die Teilnehmer (und wer das Spiel nicht herauskriegt, muss sich eventuell nicht zu Äußerungen hingerissen fühlen). Wer ist wer? ;-)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51265&stc=1&d=1424817437

Dann würde ich mal auf GTX 980, R9 290X und dann GTX 970 tippen (von oben nach unten).

Kartenlehrling
2015-02-25, 00:09:41
CB hat doch so ein framemeter geposte :) ...

http://www.computerbase.de/2015-02/total-war-attila-12-grafikkarten-im-benchmark/
Total War: Attila und die Frametimes

In 1.920 × 1.080 und dem Quality-Preset zeigt die AMD Radeon R9 290X die besten Frametimes.
Es gibt zwar mehr „Spikes“ als bei den 3D-Beschleunigern von Nvidia, dafür sind die Frametimes meistens konstanter.

Im Duell GeForce GTX 970 gegen GeForce GTX 980 gibt es nur minimale Unterschiede zu Gunsten der schnellsten Version.
In der Praxis sind die Unterschiede zwischen den drei Grafikkarten nicht zu spüren.

hq-hq
2015-02-25, 00:11:52
Total War - Attila ?

980
970
290x

?

blaidd
2015-02-25, 00:49:56
Total War Attila - 1080p, max. Details (Vignette aus), kein AA (auch kein MLAA, ect.)

GTX 980
R9 290X
GTX 970

Das ist ein eigener Benchmark ohne schnellen Szenenwechsel (die Frametimes bei CB lassen mich vermuten, dass sie den integrierten genutzt haben), zudem mit der aktuellen Release-, nicht der Review-Version (in der beispielsweise auch noch eine Extra-Option für Alpha-To-Coverage enthalten ist). Der Bench läuft händisch auf einer einzelnen Map während und kurz nach dem Aufstellen der (umfangreichen) Truppen. In 1080p pendelt die Speicherbelegung knapp um die 3,5 GiByte, also gerade so an dem Punkt, wo es für die GTX 970 interessant werden könnte... Die kleinen Ausschläge sind Microstuttering, wenn kleine Teile des 0,5 GiByte-Segments belegt werden.

Sowas sieht man, wenn man gleichmäßige, hohe Fps gewohnt ist in jedem Fall (ich werde auch mal versuchen, dass in einem Video zu zeigen, obgleich da wiederum andere Faktoren wie Wackelausgleich etc, der Videosoftware dazwischen grätschen können). "Normalen" Spielern wird das wahrscheinlich nur wenig auffallen. Der heftige Drop am Ende der Messung signalisiert wohl den Umstand, dass die letzten 0,5 GiByte nun auch beständig benötigt werden. Daraufhin gibt es einen starken Einbruch in den Frametimes, der sich sogar sehr deutlich in den minimalen Fps zeigt (was eher weniger häufig der Fall ist). Dieser fällt dann allerdings wiederum nur auf, wenn man einen bestimmten Punkt (z.B Einheit) genau im Blick hat oder aber den Gesamtüberblick und merkt, dass das Spiel plötzlich langsamer läuft. So krass wie der Frametime-Einbruch suggeriert, zeigt sich der Umstand jedenfalls nicht.

Zumindest Letzteres könnte wohl von geschickten Treiberprogrammierern behoben bzw. verborgen werden - Ersteres wahrscheinlich nicht in vollem Maße. Was ich mit den Diagrammen einmal darlegen wollte, ist das Verhalten der GTX 970 bei der Überschreitung der 3,5 GiByte-Marke und keinen oder nur wenigen Treibereingriffen ;-)

redfirediablo
2015-02-25, 00:52:54
Na da können wir uns ja schon auf einen schönen Artikel der PCGH freuen, gell?

Thunder99
2015-02-25, 00:57:02
Bei deinen Ansprüchen (nur auf Settings bezogen) wärst du auch mit einer 980er nicht glücklich sondern nur mit einer Titan (Black) oder deren Nachfolger.

Der CEO versucht einen Fehler als einen Vorteil zu verkaufen. Soll er es mal offiziell als Pressestatement raus lassen... Shit Storm wäre perfekt ;D

MadManniMan
2015-02-25, 00:57:41
blaidd,

selbstgemacht?

aths
2015-02-25, 01:02:20
Invented? Und ohne diese "Erfindung" wären es nur 3 GB?

Es wird immer absurder.

Nakai
2015-02-25, 01:08:46
http://www.computerbase.de/2015-02/nvidia-ceo-macht-gtx-970-limitierung-zur-neuen-funktion/

Obwohl es schon gepostet wurde, aber bin ich der Einzige der das nicht wirklich rafft?

Original:
We invented a new memory architecture in Maxwell. This new capability was created so that reduced-configurations of Maxwell can have a larger framebuffer – i.e., so that GTX 970 is not limited to 3GB, and can have an additional 1GB.

Verstehe ich das richtig. Werden SMs deaktviert, wird auch das Backend beschnitten? Das ist erstmal völlig bescheuert, außer man hat die SMs an die ROP-Partitionen gekoppelt und man kann nur ganze Blöcke deaktvieren. Dann sollten bei allen reduzierten Varianten eine Backend Beschneidungen eintreten. Verstehe ich das richtig?
Oder geht es um die Beschneidungen im Backend(:devil:Backend Beschneidungen harrharr :freak:)? Also L2-Cache Reduzierungen. Ich verstehe die Aussage nicht ganz.

€: Egal wie man es interpretiert ich erkenne nur Bool Shit. Für mich wirkt das eher wie der Stinkefinger direkt ins Gesicht.

Dural
2015-02-25, 01:12:07
viele X70 karten hatten vor der 970 eine speicher einschränkung.

langsamm verstehe ich den aufschrei nicht mehr, den meisten scheint wohl für das selbe geld eine 3GB/192bit oder 3,5GB/224bit lieber gewesen zu sein...

blaidd
2015-02-25, 01:12:58
...

Das macht Sinn... Wenn man von dem Ausgangspunkt ausgehen würde, dass die GTX 970 ansonsten nur 3 GiByte Speicher bekommen hätte ;-)

Nightspider
2015-02-25, 01:12:59
Damit hat sich Huan echt lächerlich gemacht. Das wird noch böse Folgen haben und nicht so schnell vergessen werden.

Dural
2015-02-25, 01:17:50
ja die folge wird sein das die nächste X70 wie früher üblich einfach weniger speicher als die X80 haben wird. toll

blaidd
2015-02-25, 01:27:59
@Dural: Ich kann mir nicht vorstellen, dass sowas passieren würde. Jedenfalls nicht für eine Grafikkarte wie die GTX 970, die zumindest preislich im High-End-Bereich angesiedelt ist (basierend auf den momentan performantesten Grafikkarten, nicht absolut gesehen - falls jemand auf die Idee kommen würde ;-))
Das wäre jedenfalls ein deutlicher und offensichtlicher Rückschritt und man müsste außerdem gegen die ähnlich schnelle und preislich ziemlich aggressiv platzierte R9 290 Non-X mit "echten" 4 GiByte bestehen. Ich kann mir nicht vorstellen, dass das im Sinne von Nvidia wäre.

[EDIT:] Gecheckt. Aber das Argument ist zumindest momentan valide, also lass ich's mal da stehen ;)

@Thunder: Ich achte nun eben absichtlich besonders genau darauf (und ja, ähnliches wie beispielsweise Microstuttering bei mGPU-Systemen sehe ich auch, das spinnste ich mir also nicht einfach so ein. Nur ist es eben auch recht unauffällig, wenn man nicht genau darauf achtet - Und dass ich diese Umstände besonders aufmerksam beachte, hat sich wiederum Nvidia mit ihrer "alles-ist-im-Grunde-amazing"-Taktik eingefangen, woraufhin ich mich wiederum genötigt fühle darzulegen, dass im Leben eben das allermeiste nicht ganz so amazing ist - auch und wahrscheinlich ganz sicher AMD nicht, bevor mir wieder eine Meinung unterstellt wird, die ich nicht teile). Auf diesen Umstand achte sicher nicht nur ich, weswegen der ganze Trubel auch ein wenig überdramatisiert werden könnte (daher u.A. auch die vollmundige Bekundung meinerseits, dass es den meisten Spieler wohl nicht auffallen würde - In diesem Forum hielt ich aber Frametimes und klare Sache für angebrachter ;) ). Falls ihr euch als Kunden veräppelt vorkommt, fragt euch mal, wie es euch gehen würde, wenn ihr das Produkt abertausend anderen empfohlen hättet... Ich kann jedenfalls ganz sicher nicht behaupten, dass ich von der Vermarktungs-Strategie der GTX 970 besonders beeindruckt wäre - im Nachhinein, wohlgemerkt. Ich habe in einem Gespräch mit Scott Herkelmann tatsächlich gefragt, warum die GTX 970 so "billig" ist. Von den Specs her hätte ich sie eher bei ungefähr 400 - 450 Euro eingeschätzt. Anfangs war ich wirklich angetan von dem Produkt - was sich später ein wenig revidiert hat, nachdem ich die Real-World-Performance gesehen hatte. Und sich der Eindruck dann nochmals - diesmal eher deutlich - zurechtgerückt hat, nachdem ich die Hintergründe verstanden habe.

DerKleineCrisu
2015-02-25, 06:09:59
This is a good design

Hat der das wirklich geschrieben , das es ein gutes Design ist :freak:.

Grüße

Dorn
2015-02-25, 07:02:46
Damit hat sich Huan echt lächerlich gemacht. Das wird noch böse Folgen haben und nicht so schnell vergessen werden.

Nicht nur lächerlich. Der verarscht mal den Käufer richtig schön bzw. alle.

Auszug aus CB:

Nvidia-CEO Jen-Hsun Huang äußert sich in einem Blog-Eintrag über die Limitierung des Grafikspeichers der GeForce GTX 970. Dabei erklärt er, dass Kunden begeistert gewesen wären, dass Nvidia einen Weg gefunden habe, die Grafikkarte mit mehr VRAM auszustatten, wenn es nur richtig von Nvidia kommuniziert worden wäre.

Nicht richtig kommuniziert, es wurde garnicht kommuniziert.

kruemelmonster
2015-02-25, 07:29:10
Was erwartet ihr denn, soll der Firmenchef sein eigenes Produkt in der Öffentlichkeit auf Worst-Case-Grundlagen kritisch bewerten? Welche Firma hat jemals so gehandelt?

Bleibt realistisch. Jensen betreibt Öffentlichkeitsarbeit für die Masse, und da soll die Message "trotzdem amazing" sein und nicht das Bild der TWA Benchmarks von blaidd ( :up: ) zeigen.

gnomi
2015-02-25, 07:34:21
Total War Attila - 1080p, max. Details (Vignette aus), kein AA (auch kein MLAA, ect.)

GTX 980
R9 290X
GTX 970

Das ist ein eigener Benchmark ohne schnellen Szenenwechsel (die Frametimes bei CB lassen mich vermuten, dass sie den integrierten genutzt haben), zudem mit der aktuellen Release-, nicht der Review-Version (in der beispielsweise auch noch eine Extra-Option für Alpha-To-Coverage enthalten ist). Der Bench läuft händisch auf einer einzelnen Map während und kurz nach dem Aufstellen der (umfangreichen) Truppen. In 1080p pendelt die Speicherbelegung knapp um die 3,5 GiByte, also gerade so an dem Punkt, wo es für die GTX 970 interessant werden könnte... Die kleinen Ausschläge sind Microstuttering, wenn kleine Teile des 0,5 GiByte-Segments belegt werden.

Sowas sieht man, wenn man gleichmäßige, hohe Fps gewohnt ist in jedem Fall (ich werde auch mal versuchen, dass in einem Video zu zeigen, obgleich da wiederum andere Faktoren wie Wackelausgleich etc, der Videosoftware dazwischen grätschen können). "Normalen" Spielern wird das wahrscheinlich nur wenig auffallen. Der heftige Drop am Ende der Messung signalisiert wohl den Umstand, dass die letzten 0,5 GiByte nun auch beständig benötigt werden. Daraufhin gibt es einen starken Einbruch in den Frametimes, der sich sogar sehr deutlich in den minimalen Fps zeigt (was eher weniger häufig der Fall ist). Dieser fällt dann allerdings wiederum nur auf, wenn man einen bestimmten Punkt (z.B Einheit) genau im Blick hat oder aber den Gesamtüberblick und merkt, dass das Spiel plötzlich langsamer läuft. So krass wie der Frametime-Einbruch suggeriert, zeigt sich der Umstand jedenfalls nicht.

Zumindest Letzteres könnte wohl von geschickten Treiberprogrammierern behoben bzw. verborgen werden - Ersteres wahrscheinlich nicht in vollem Maße. Was ich mit den Diagrammen einmal darlegen wollte, ist das Verhalten der GTX 970 bei der Überschreitung der 3,5 GiByte-Marke und keinen oder nur wenigen Treibereingriffen ;-)

Also ich bin gespannt, wie stark die Sache mit der 970 jetzt hochkocht.
Ich verstehe aber auch nicht, was sich nvidia überhaupt von der ganzen Sache versprochen hat. :confused:
Hat man wirklich PR mäßig gepennt und kann nun nicht über den Treiber den VRAM beschneiden, weil man rechtliche Konsequenzen fürchten müsste?
Was versprach man sich überhaupt von dem Design? War man wirklich der Meinung, 3,5GB mit 500MB segmentiertem Speicher wären eine gute Idee, wenn man doch weiß, dass die Spiele schlimmstenfalls angepasst werden müssen und im VRAM Limit bereits jetzt bei einigen Games unbestreitbar Probleme machen?
Bei aller berechtigten Kritik ist es schon eine an sich schnelle Karte, die gut in ihrem Marktsegment bestehen kann und im Grunde genommen doch auch besser als eine 780TI ist.
Ginge es nach mir, muss über die Experience jetzt wenigstens versteckt die Texturstufe reguliert werden, um auf der sicheren Seite zu sein und bessere Frametimes sicherzustellen.

Edit: Wieso ist die 980 mit klassischem MSAA um 50% vorne und in spielbaren FPS Regionen?

john carmack
2015-02-25, 08:20:07
HAHAHAHAHA!!!

! ! ! It´s not a Bug - It´s a feature ! ! !


http://www.computerbase.de/2015-02/nvidia-ceo-macht-gtx-970-limitierung-zur-neuen-funktion/

"Nvidia-CEO Jen-Hsun Huang äußert sich in einem Blog-Eintrag über die Limitierung des Grafikspeichers der GeForce GTX 970. Dabei erklärt er, dass Kunden begeistert gewesen wären, dass Nvidia einen Weg gefunden habe, die Grafikkarte mit mehr VRAM auszustatten, wenn es nur richtig von Nvidia kommuniziert worden wäre."


:freak: OMG - Wie tief kann man noch sinken?:eek::mad:

Mir fehlen die Worte - Allerdings muss man Nvidia zugestehen das deren Marketing Abteilung einfach fähig ist. Gute Leute die dort arbeiten!
Jeder würde es genau so machen. Jeder möchte in seinem Laden den Schaden so gering wie möglich halten. ;)

Einfach nur zu gut! :D
https://www.youtube.com/watch?feature=player_embedded&v=spZJrsssPA0

Traxx
2015-02-25, 08:27:33
Wenn die Karte mit dem super Feature besser funktionieren würde als eine 3.5Gig Karte wär's ja noch verständlich, das so gerade biegen zu wollen. Aber so :crazy2:
Eine 970er mit 3.5G normal angebundenem Speicher wäre für meinen 2. Rechner echt eine Option gewesen. Aber verkrüppelt mit völlig unsicherem Verhalten mit dem Speichergewusel? Nö...

Mark3Dfx
2015-02-25, 08:31:45
Einem ins Gesicht pinkeln und dann erzählen es würde regnen ;D
„Anstatt begeistert zu sein, dass wir eine Methode erfunden haben, wie wir den Speicher der GTX 970 von 3 auf 4 GB erhöhen können, waren einige enttäuscht darüber, dass wir die Segmentierung des letzten Gigabytes nicht besser beschrieben haben.“

Echtmal, undankbares Pack!

sTSA_sWGM44

john carmack
2015-02-25, 08:37:07
NEIN - DAS IST EINDEUTIG ZU VIEL:
http://www.computerbase.de/2015-02/nvidia-ceo-macht-gtx-970-limitierung-zur-neuen-funktion/


Denkt immer an die zehn nVidianischen Gebote:
1. Ich bin Jen-Hsun Huang, dein GPU-Gott. Du sollst keinen anderen GPU-Gott neben mir haben.
2. Du sollst den Namen Huangs nicht mißbrauchen
3. Du sollst nVidia heiligen
4. du sollst Kepler und Maxwell ehren
5. du sollst nicht Hawai kaufen
6. du sollst nicht auf Fiji warten
7. du sollst nicht wegen angeblich zu wenig vRam meckern
8. du sollst nicht falsches Zeugnis über angeblichen Beschiss durch nVidia wider deinen Nächsten ablegen
9. du sollst nicht begehren eines anderen Herstellers GPU
10. du sollst nicht begehren deines nächsten Händlers Hawai, Tahiti, Pitcairn Fiji noch alles, was dein nächster Händler sonst an Konkurrenzprodukten hat und haben wird.

Malabolge
2015-02-25, 08:39:10
NVIDIA CEO Jen-Hsun Huang clarifies the memory architecture of the GTX 970.
http://blogs.nvidia.com/blog/2015/02/24/gtx-970/

Da scheint sich mittlerweile wohl doch einiges an Druck aufgebaut zu haben wenn sich seine Majestät zu Wort meldet. ;)
Allerdings keinerlei Wiedergutmachung oder dergleichen.


Vieleicht sollte der gute Mann , lieber an seine Laubsäge zurückkehren
davon scheint er mehr zu verstehen als von Public Relations ;-)

Gott , Das reale Leben ist mal wieder besser als man denkt !


Dafür muss NVIDIA belohnt werden , mit einer Kaufempfehlung und höheren Verkaufszahlen.
Jetzt MUSS sich das Ding doch verkaufen wie geschnitten Brot.
970 Leistung "unplugged"

Dazu noch als gratis MP3 zugabe diese "Ansprache an alle TREUEN Kunden" unterlegt mit Rammstein : "Bück dich!"


PS: AN Jensen , Dieses Design anschauen , SO geht das mit den 4GB unkastriert
http://www.bit-tech.net/hardware/graphics/2013/11/05/amd-radeon-r9-290-review/1

y33H@
2015-02-25, 09:11:52
Mit Kepler-Technik wäre es wie bei der 660 Ti gelaufen, aber mit 4 statt 2 GByte ... d.h. 3 schnelle und 1 lahmes GByte ... so gesehen ist 3,5+0,5 besser als 3+1, da hat Huang Recht ;D noch besser wäre aber einfach 4 GB und halt den Chip mehr drosseln, siehe 290(X) ...

Botcruscher
2015-02-25, 09:31:06
Es sind aber nicht 3,5+0,5. Bei der Bandbreite sind es 3,5 oder 0,5.
langsamm verstehe ich den aufschrei nicht mehr, den meisten scheint wohl für das selbe geld eine 3GB/192bit oder 3,5GB/224bit lieber gewesen zu sein...

Erstens war die Beschneidung des L2 überflüssig, da hätte man auch woanders kürzen können und zweitens dürfte die Karte ohne die 512MB deutlich besser laufen.

fondness
2015-02-25, 09:33:29
langsamm verstehe ich den aufschrei nicht mehr, den meisten scheint wohl für das selbe geld eine 3GB/192bit oder 3,5GB/224bit lieber gewesen zu sein...

Der Punkt ist, dass die Karte mit 3GB/192bit bei weitem nicht diese Verkaufszahlen erreicht hätte. Nur weil NV die Kunden gelinde gesagt nicht die ganze Wahrheit gesagt hat, waren alle so verrückt danach, wenn sowas dann nach dem Kauf heraus kommt fühlt man sich natürlich verarscht.

gnomi
2015-02-25, 09:33:54
Das ist eben die Frage.
Eine schöne Custom 970 kann ja schon sehr schnell sein, wenn es bei Full HD bleibt und der VRAM reicht.
Texturstufe High statt Ultra muss auch nicht schlimm sein.
Insbesondere bei Spielen, die verschwenderisch mit umgehen und Probleme beim Streaming machen.
im Gegenzug können Dank mehr Rohleistung andere Dinge dann schneller berechnet werden.
Ich wehre mich dagegen, immer nur Benchmarks mit über den Kamm gescherten Settings zu fahren. 4k und 1440P ist außerdem nichts für die Karte. Da muss ja auch die GTX 980 schon entfesselt werden und der Monitor GSync haben. Sonst macht das keinen Spaß.
Man muss jetzt einfach mal gucken, wie sich die Karte im Alltag schlägt und wie die Sache bei neueren Engines & DX 12 aussieht.
Momentan ist die Diskussion ja lachhaft emotional aufgeladen...

Matrix316
2015-02-25, 09:38:45
Mit Kepler-Technik wäre es wie bei der 660 Ti gelaufen, aber mit 4 statt 2 GByte ... d.h. 3 schnelle und 1 lahmes GByte ... so gesehen ist 3,5+0,5 besser als 3+1, da hat Huang Recht ;D noch besser wäre aber einfach 4 GB und halt den Chip mehr drosseln, siehe 290(X) ...

Mit Keplertechnik hätte man der 980 auch 6 GB mit 384 Bit Speicherinterface (GTX 780) und der 970 dann 256 mit 4 GB (GTX 770) geben können.

Die 960 TI hätte man dann so wie die 970 beschneiden können. Dann hätte man schön eine Reihe mit 960, 960 TI, 970 und 980 gehabt.

Melbourne, FL
2015-02-25, 09:47:05
Also ich persoenlich als 970 Besitzer finde die rein technische Seite der Angelegenheit jetzt gar nicht sooo schlimm (mal sehen ob sich das in Zukunft aendert) aber die Kommunikation von Nvidia geht echt gar nicht. Die sollen doch einfach mal den Arsch in der Hose haben, zu sagen, dass sie da Mist gebaut haben und es nicht als groesstes Ding seit Erfindung des Rades verkaufen.

Alexander

Botcruscher
2015-02-25, 09:48:07
Es gibt genug Spiele wo die Rohleistung reicht egal ob 4K oder 1440p. Zumal das Argument totaler Käse ist. Das ist die zweit schnellste Karte von NV. Im High-End wird man wohl auch selbiges erwarten können! Mit der geteilten Bandbreite ist man in keiner Auflösung sicher. Da von emotional aufgeladen zu sprechen ist Selbstbetrug.
Die 970 wäre hier zum Start zerrissen worden.

Spasstiger
2015-02-25, 09:50:20
Die Beschneidung des L2-Cache war offenbar fest geplant. Ist ja auch sehr vorteilhaft für die Yieldraten, weil man Chips mit einem Defekt im Cachebereich nicht wegwerfen muss. Nur wurde die Beschneidung nicht dem Marketing kommuniziert. Der Vorteil von Maxwell gegenüber Kepler bei dieser Art der Beschneidung ist, dass man statt 3 GiB @192 Bit nun 3,5 GiB @ 224 Bit anbinden kann und in speziellen Szenarien auch 256 Bit breite Zugriffe stattfinden können. D.h. bis zu 1 GiB/33% mehr an schnellem Speicher gegenüber Kepler bei gleichen Hardwareaufwand. Hätte man das so von Anfang an kommuniziert, wäre die GTX 970 weiterhin positiv aufgenommen worden.

Botcruscher
2015-02-25, 09:54:39
Das so viele Chips mit defektem Speicher aus der Produktion fallen glaubst du doch selber nicht. Nichts kann man so redundant auslegen wie Speicher. Der L2 wurde mit voller Absicht kastriert. PS: Und das mit den bestimmten Szenarien für den Bestfall kannst du auch vergessen, wenn dafür auch mal nur 1/8 der Bandbreite anliegt. Der Frameverlauf oben zeigt doch was los ist.

Mark3Dfx
2015-02-25, 09:56:41
It's not a bug, it's a feature!
Nie war das Zitat passender ;D

Dimitri Mayakovsky
2015-02-25, 10:01:44
http://www.bit-tech.net/hardware/graphics/2013/11/05/amd-radeon-r9-290-review/1
Wer soll denn 2015 noch so ein veraltetes Modell kaufen? Zumal es doch bald als R9 380 ein Comeback feiern wird und dann noch viel, viel besser ist ;D

fondness
2015-02-25, 10:03:48
Wenn er einfach gesagt hätte wir haben scheiße gebaut, das wird nicht wieder vorkommen und jeder GTX970-Käufer bekommt ein gratis Spiel oder was auch immer wäre die Sache vermutlich gegessen gewesen, aber so reitet man sich nur noch weiter hinein.

Botcruscher
2015-02-25, 10:06:08
Ich bin ja noch immer für den 50% Rabat für den Aufpreis beim Wechsel zu einer 980 GTX. ;D

Isen
2015-02-25, 10:07:07
@fondness,
das wäre ein Zugeständnis und öffnet jedem Kläger Tür und Tor.

gnomi
2015-02-25, 10:09:09
Es gibt genug Spiele wo die Rohleistung reicht egal ob 4K oder 1440p. Zumal das Argument totaler Käse ist. Das ist die zweit schnellste Karte von NV. Im High-End wird man wohl auch selbiges erwarten können! Mit der geteilten Bandbreite ist man in keiner Auflösung sicher. Da von emotional aufgeladen zu sprechen ist Selbstbetrug.
Die 970 wäre hier zum Start zerrissen worden.

Ok, das ging wohl an mich. ;D
Man gebe mir so eine Karte und ich teste sie gerne gegen die 980. ;)
Wenn es doch so auffällt, warum hat es dann lange keiner gemerkt?
Und selbst jetzt mit den Frametimes Graphen muss ich die Situation doch immer noch irgendwo erzwingen und kann auch keine völlige Unspielbarkeit feststellen. :confused:
Wenn du also nicht gerade wie dargo da sehr empfindlich bist und die Einstellungen überreizt, dürfte in der Tat wenig passieren.
Jedenfalls lese ich das auch mal bei Computerbase so heraus und das kann nvidia ja über den Treiber und Geforce Experience denke ich mal sicherstellen.
Was der Firmenboss sagt ist Quark, aber man könnte tatsächlich mal einen Gang zurückschalten oder zumindest mal eine gemäßigtere Einstellung akzeptieren.

Isen
2015-02-25, 10:19:55
@gnomi,

dir ist entgangen, dass der Stein eben durch Jene ins rollen kam, die es bemerkten nachdem sie ausschließen konnten ( Vergleich mit 980 ) ob es am Spiel liegt.

Dass du trotzdem, noch so Argumentierst legt nahe das du dich gern verarschen lässt!?

gnomi
2015-02-25, 10:38:57
Die abweichenden Meinungen bei den Eindrücken in Spielen sind mir beiläufig aufgefallen, aber die ließen sich ja ohne Karte und wegen der sehr hohen Erwartungen hinsichtlich der Frametimes und Einstellungen bei manchen jetzt schlecht überprüfen.
Wenn du die Karte nicht hast und dich für die 980, da Umstieg auf 1440P und zudem GSync entschieden hast, ist es dir zugegeben aber halt auch egal! Da bin ich ehrlich.
Und jetzt mal Klartext.
Ist hier jetzt nur der Stolz verletzt, weil es keine 980 in leicht langsamer mit identischem Featureset ist, oder denkt ihr wirklich, die Karte taugt zu wenig für's Geld und die von AMD ist tatsächlich besser?

Matrix316
2015-02-25, 10:51:58
Die abweichenden Meinungen bei den Eindrücken in Spielen sind mir beiläufig aufgefallen, aber die ließen sich ja ohne Karte und wegen der sehr hohen Erwartungen hinsichtlich der Frametimes und Einstellungen bei manchen jetzt schlecht überprüfen.
Wenn du die Karte nicht hast und dich für die 980, da Umstieg auf 1440P und zudem GSync entschieden hast, ist es dir zugegeben aber halt auch egal! Da bin ich ehrlich.
Und jetzt mal Klartext.
Ist hier jetzt nur der Stolz verletzt, weil es keine 980 in leicht langsamer mit identischem Featureset ist, oder denkt ihr wirklich, die Karte taugt zu wenig für's Geld und die von AMD ist tatsächlich besser?
Beides. ;)

Erstens mal hast du Probleme in Szenarien wo tatsächlich mehr als 3,5 GB verwendet werden, aber zweitens geht es auch ums Prinzip.

Was wäre, wenn Intel sich denkt: Hmmm, der i5 ist zu nahe am i7. Deaktivieren wir doch mal was, so dass der vierte Kern nur 10% der Leistung bieten kann, aber wir sagen es nicht. Immerhin sind ja 4 Kerne verbaut. Und drei reichen doch auch für das meiste. Also sagen wir keinem was davon und jeder denkt, es ist ein Quadcore.

InsaneDruid
2015-02-25, 10:53:57
Jetzt ist es eine "sehr hohe Erwartung", wenn man halbwegs ruckelfreie Spiele erleben will? Hallo? 2015 anyone? Wozu dann Gsync und Freesync, wo gute Frametimes doch nur "sehr hohe Erwartungen" sind. Warum eigentlich 4K? 320*200 hat doch auch gereicht. Sollte man abschaffen, sind doch überzogene Erwartungen. Auch dieser ganze Kram mit "in Häusern wohnen" Also echt. Die längste Zeit hats für die Menschheit doch auch neben der Bärenpisse im Dreck ausgereicht. Aber nein, immer diese Erwartungshaltung hinsichtlich "nicht vom Wolf gefressen werden".

Dural
2015-02-25, 10:58:19
also manche übertreiben wirklich einfach zu sehr.

klar hätte NV dies so von Anfang an sagen müssen.

aber die Cache Beschneidung ist nur eine logische Schlussfolgerung da in den heutigen GPUs einfach immer wie mehr davon drin ist.

bei CPUs wird dies schon seit Jahren so gemacht, einerseits um volle Produkte teurer verkaufen zu können, anderseits weil man so Ausschuss doch (günstiger) verkaufen kann und ja die 970 wahr für NV Verhältnisse ziemlich günstig.



Was wäre, wenn Intel sich denkt: Hmmm, der i5 ist zu nahe am i7. Deaktivieren wir doch mal was, so dass der vierte Kern nur 10% der Leistung bieten kann, aber wir sagen es nicht. Immerhin sind ja 4 Kerne verbaut. Und drei reichen doch auch für das meiste. Also sagen wir keinem was davon und jeder denkt, es ist ein Quadcore.

GENAU das macht Intel und AMD mit ihren CPUs, die Kerne können mit mehr Cache sicherlich mehr Leisten als wenn dieser zum teil Deaktiviert wurde :rolleyes:

InsaneDruid
2015-02-25, 11:03:10
Es war die teuerste NV die ich bislang hatte. Ich mag ja auch die Grünen mehr als die Roten. Aber sich so abspeisen lassen? Ich hatte die Karte. Und sie lief in einem Jahre alten Game in 1920 unsauber. Sorry, ist ein unterschied einer "kleinen Karte", die naturgemäß nicht mit der großen identisch sein kann, aber das hier ist einfach ein Graus.

Dural
2015-02-25, 11:10:17
so unspielbar das es keinem Tester und keinem Endverbraucher ca. 3 Monate lang aufgefallen ist? :wink:

Jetzt würde ich mich noch Wunder nehmen was das für ein Spiel ist und mit welchen Einstellungen?

Hobby
2015-02-25, 11:12:25
HAHAHAHAHA!!!

! ! ! It´s not a Bug - It´s a feature ! ! !

http://www.computerbase.de/2015-02/nvidia-ceo-macht-gtx-970-limitierung-zur-neuen-funktion/



Jetzt habe ich es endlich schwarz auf weiß, dass ich einfach zu blöd war, die Genialität dieses Features zu erkennen. Schämt auch ihr euch alle :biggrin:

Ich will meine "MSi GTX 970 Gaming 4 G Speicher-Castrato" sofort wieder haben.

InsaneDruid
2015-02-25, 11:14:59
so unspielbar das es keinem Tester und keinem Endverbraucher ca. 3 Monate lang aufgefallen ist? :wink:

Jetzt würde ich mich noch Wunder nehmen was das für ein Spiel ist und mit welchen Einstellungen?

CoH2. Und wegen "auffallen": zwischen "hmm das läuft irgendwie nicht" und "achja, das sind die verkrüppelten Rams" liegt logischerweise eine gewisse Zeit.

Matrix316
2015-02-25, 11:18:12
[...]

GENAU das macht Intel und AMD mit ihren CPUs, die Kerne können mit mehr Cache sicherlich mehr Leisten als wenn dieser zum teil Deaktiviert wurde :rolleyes:

Nein, weil ein intel Quadcore ein intel Quadcore ist und nicht ein 3 Kerner mit Turbominikernchen, der nur ergänzend wirken kann.

Klar wird Cache deaktiviert, aber damit wird eigentlich nicht die Spezifikation der CPU geändert und es steht auch in den Daten dabei wie viel Cache die CPU hat.

Von mir aus kann Nvidia auch so viel Cache beim Speicher deaktivieren wie sie wollen, aber ich hätte gerne 4 GB mit 256 Bit, wenn das so angeben wird. :) Ob da jetzt 1, 2 oder 50 MB Cache verbaut sind, ist mir dann auch egal, so lange man nicht sagt sie habe 2 MB aber dann sind es nur 1,75 oder so.

Air Force One
2015-02-25, 11:20:36
Tolles Feature.
1. Nie Beworben
2. Komisch das die 980 das geile Feature nicht hat

Hobby
2015-02-25, 11:30:10
Tolles Feature.
1. Nie Beworben
2. Komisch das die 980 das geile Feature nicht hat

Richtig - genau genommen müssten jetzt die Besitzer einer "GTX 980" auf die Barrikaden gehen, da ihnen wesentliche und geniale Merkmale der "GTX 970" nicht zur Verfügung stehen und vorenthalten wurden - bei dem Preis.

Mit dem letzten Statement von "Nvidia" wird es albern - aber ich habe herzlich gelacht - und von daher ....

Ich wage einmal eine Prognose:

1. - ein Mitarbeiter wird bei "Nvidia" den Kopf hinhalten müssen!
2. - "Nvidia" macht - noch rechtzeitig - einen Rückzieher!
3. - Frage der Wiedergutmachung seitens "Nvidia" wird noch geklärt und muss sehr schnell kommen!

Die Möglichkeit, dass "Nvidia" ein ganz dickes Fell hat, schließe ich nicht ganz aus - erscheint mir aber eher unwahrscheinlich - da sich die miese Propaganda - die ein Prozess mit sich bringt - bestimmt nicht für "Nvidia" rechnen wird. Da laufen jetzt bestimmt im Hintergrund die Drähte heiß, zumal "Gigabyte" auch mit betroffen ist.

-----------------
Habe mich hier nachstehend gerade einmal durchgewühlt. Ich kann mir nicht vorstellen, dass das für "Nvidia" und "Gigabyte" gut ausgeht. Auch der zeitliche Ablauf ist interessant.

http://de.scribd.com/doc/256406451/Nvidia-lawsuit-over-GTX-970

Dimitri Mayakovsky
2015-02-25, 11:46:41
Wo auch immer jetzt der Vorteil darin liegen soll eine Karte, die ab 3,5Gb anfängt gelegentlich zu ruckeln, noch weiter zu "kastrieren" und sie ab 3Gb garantiert ruckeln zu lassen.

Muss man nicht verstehen, gibt wahrscheinlich auch nichts zu verstehen. Hauptsache mal wieder geflamt.

Isen
2015-02-25, 11:52:49
@Dural,

bei den Qualitativen " Games " - ubi hust ... kommt man schwer auf den Gedanken, dass die Karte daran Schuld ist. Das Thema wurde hier schon breit getreten.... unfassbar.

Matrix316
2015-02-25, 11:58:48
Wo auch immer jetzt der Vorteil darin liegen soll eine Karte, die ab 3,5Gb anfängt gelegentlich zu ruckeln, noch weiter zu "kastrieren" und sie ab 3Gb garantiert ruckeln zu lassen.

Muss man nicht verstehen, gibt wahrscheinlich auch nichts zu verstehen. Hauptsache mal wieder geflamt.
Wobei ich gerne wissen würde, wie das "Ruckeln" bei einer 780TI mit 3 GB im Vergleich ist. Laut Benchmarks ist die ja doch manchmal sogar schneller.

Botcruscher
2015-02-25, 12:05:28
Die ruckelt vermutlich weniger. Zum einen liegt immer die gesamte Bandbreite an und zum anderen wird die richtige Speichermenge angegeben. Ohne Tests aber alles Speku. Die Fachpresse zeigt ja auch wenig Lust...

dildo4u
2015-02-25, 12:06:33
Wobei ich gerne wissen würde, wie das "Ruckeln" bei einer 780TI mit 3 GB im Vergleich ist. Laut Benchmarks ist die ja doch manchmal sogar schneller.
Eine 780 kackt genau so ab und hat miese Frametimes so bald man über PCI-E auslagern muss.


www.pcper.com/reviews/Graphics-Cards/ASUS-Strix-GTX-780-6GB-Review-Nearly-Silent-Gaming/Bioshock-Infinite

Eine TI wird nix daran ändern.

dargo
2015-02-25, 12:42:51
Eine 780 kackt genau so ab und hat miese Frametimes so bald man über PCI-E auslagern muss.


www.pcper.com/reviews/Graphics-Cards/ASUS-Strix-GTX-780-6GB-Review-Nearly-Silent-Gaming/Bioshock-Infinite

Eine TI wird nix daran ändern.
Schlechtes Beispiel. Afaik hat Nvidia generell ein Problem mit Bioshock: Infinite. Jedenfalls haben das meine Beobachtungen gegenüber Tahiti gezeigt.

N0Thing
2015-02-25, 13:02:49
viele X70 karten hatten vor der 970 eine speicher einschränkung.

langsamm verstehe ich den aufschrei nicht mehr, den meisten scheint wohl für das selbe geld eine 3GB/192bit oder 3,5GB/224bit lieber gewesen zu sein...

Ja, das wäre wie bei der früheren GTX 260/275/470/570 Karten besser gewesen, weil es a) für den Kunden transparent war und b) scheinbar sogar die schnellere Lösung gewesen, weil der gesamte Speicher durchgehend nutzbar war.

Volle 4GB und mehr deaktiviertre SMMs wären wie auch eine Reduzierung auf eine Konfiguration mit 3GB/192bit oder 3,5GB/224bit die bessere Wahl gewesen, als die Lösung, für die sich Nvidia im Endeffekt entschieden hat.

Aber selbst das wäre ja noch okay gewesen, aber bei absichtlich falscher Darstellung der Tatsachen, da hört dann einfach endgültig das Verständnis auf.

Matrix316
2015-02-25, 13:08:32
viele X70 karten hatten vor der 970 eine speicher einschränkung.

langsamm verstehe ich den aufschrei nicht mehr, den meisten scheint wohl für das selbe geld eine 3GB/192bit oder 3,5GB/224bit lieber gewesen zu sein...

Der Witz ist ja: es IST fürs gleiche Geld eine 3,5 GB / 224 Bit Karte. :freak:

Nur auf der Packung bzw. in den Specs steht 4 GB / 256 Bit.

Hätte man damals gewusst, was man fürs Geld bekommt, hätte es NIE so einen Aufschrei gegeben, selbst wenn die gleiche Karte das gleiche gekostet hätte.

ABER: WENN die Karte offiziell nur eine 3,5 224 Bit Karte gewesen wäre - fürs gleiche Geld - wären die Radeon 290 Karten vielleicht nicht so stark im Preis gefallen. Und das ist zum Beispiel der Schaden den AMD davon hat - oder die, die damals eine 290 Karte verkauft haben, nach dem 970 Release, die dafür wesentlich weniger Geld bekommen haben, als wenn die 290er noch teurer gewesen wären.

aths
2015-02-25, 13:17:03
Neu ist es schon, dass sie wohl nun die Speicheranbinung in 32Bit Einheiten skalieren können. Toll ist es nicht.
Ich sags mal so:

Eine Aufteilung in 32-Bit-Interfaces hatte schon die Geforce 3.

Die Deaktivierung von 1/8 des Interfaces hatten wir schon bei der GTX 260 und 275.

Trotz einem Nichtzweierpotenz-Speicherinterfaces einen Zweierpotenz-Speicherkapazität hatten wir schon bei der GTX 660 Ti.

Trotzdem schreibt Huang "We invented a new memory architecture in Maxwell". Das einzige was Nvidia invented hat, sind falsche Spezifikationen. Die noch immer unkommentiert offiziell online stehen: http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

Blediator16
2015-02-25, 13:34:01
Das geilste ist ja die Logik, dass man froh sein sollte, dass Nvidia sich erbarmt hat eine "300€" Karte auf den Markt zu werfen. Das wird wirklich als Argument gebracht. So weit sind wir schon gekommen:freak: Im Grunde hat Nvidia fast alles richtig gemacht. Preise einzelner Karten absurd hoch, damit die Fanatiker dann mit Argumenten wie dieser in Foren kostenfrei Propagieren können. Ach ja mittlerweile ist es wiedermal Midragnge gegen Highend. Als Hawaii mal locker fast 100mm² kleiner war gegen die GK100, da wars Highend gegen Highend :D

Dicker Igel
2015-02-25, 13:51:12
Bei der 660TI waren die "letzten" 512MB ja auch für den Arsch. Es sieht wohl einfach besser aus, wenn auf der Verpackung 2048 und 4096 steht, statt 1024 und 2048. Jedenfalls würde ich mir schon in den Arsch beißen, wenn ich mir 'ne 970 gekauft hätte. NV würde es wohl auch stören, wenn man nur ¾ vom Preis bezahlt - aber die Preise werden ja immer korrekt angegeben ^^

TobiWahnKenobi
2015-02-25, 13:59:19
Ich sags mal so:

Eine Aufteilung in 32-Bit-Interfaces hatte schon die Geforce 3.

Die Deaktivierung von 1/8 des Interfaces hatten wir schon bei der GTX 260 und 275.

Trotz einem Nichtzweierpotenz-Speicherinterfaces einen Zweierpotenz-Speicherkapazität hatten wir schon bei der GTX 660 Ti.

Trotzdem schreibt Huang "We invented a new memory architecture in Maxwell". Das einzige was Nvidia invented hat, sind falsche Spezifikationen. Die noch immer unkommentiert offiziell online stehen: http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

"neu" für maxwell. bei welchen anderen maxwell-GPUs gab es das sonst?

anyway.. ich würde so einen crap jedenfalls nicht kaufen.


(..)

mfg
tobi

Dimitri Mayakovsky
2015-02-25, 14:02:54
ABER: WENN die Karte offiziell nur eine 3,5 224 Bit Karte gewesen wäre - fürs gleiche Geld - wären die Radeon 290 Karten vielleicht nicht so stark im Preis gefallen. Und das ist zum Beispiel der Schaden den AMD davon hat - oder die, die damals eine 290 Karte verkauft haben, nach dem 970 Release, die dafür wesentlich weniger Geld bekommen haben, als wenn die 290er noch teurer gewesen wären.
Unwahrscheinlich, dagegen ist die 970er im Vergleich zur 290er einfach eine zu gute und zu runde Karte.

Selbst trotz des massiven Shitstorms mit sehr, sehr viel FUD hat es an den Verkaufszahlen der 970 nichts geändert (oder nur minimal), dito bei den 290ern.

Wer, wie AMD, mit dem BigBlock-V8 zur Verbrauchsmessung fährt, der darf sich nicht wundern, wenn er gegen die 4-Zylinder keine Chance gibt - auch wenn die bei 45°C etwas an Leistung verlieren, das ist nur für 99% der Anwendungsfälle irrelevant.

Trotzdem schreibt Huang "We invented a new memory architecture in Maxwell". Das einzige was Nvidia invented hat, sind falsche Spezifikationen.
Falsch, neu ist die Möglichkeit der Deaktivierung eines halben Speicherclusters. Sonst hätte man die Wahl zwischen 256 oder 192 bit.

Und ja, ggü einer 3GB-Karte sind die 4 definitiv die bessere Wahl.

john carmack
2015-02-25, 14:18:40
HAHAHAHAHA!!!
! ! ! It´s not a Bug - It´s a feature ! ! !
http://www.computerbase.de/2015-02/nvidia-ceo-macht-gtx-970-limitierung-zur-neuen-funktion/

"Nvidia-CEO Jen-Hsun Huang äußert sich in einem Blog-Eintrag über die Limitierung des Grafikspeichers der GeForce GTX 970. Dabei erklärt er, dass Kunden begeistert gewesen wären, dass Nvidia einen Weg gefunden habe, die Grafikkarte mit mehr VRAM auszustatten, wenn es nur richtig von Nvidia kommuniziert worden wäre."

:freak: OMG - Wie tief kann man noch sinken?:eek::mad:

Mir fehlen die Worte - Allerdings muss man Nvidia zugestehen das deren Marketing Abteilung einfach fähig ist. Gute Leute die dort arbeiten!
Jeder würde es genau so machen. Jeder möchte in seinem Laden den Schaden so gering wie möglich halten. ;)

Einfach nur zu gut! :D
https://www.youtube.com/watch?feature=player_embedded&v=spZJrsssPA0



Jetzt habe ich es endlich schwarz auf weiß, dass ich einfach zu blöd war, die Genialität dieses Features zu erkennen. Schämt auch ihr euch alle :biggrin:
Ich will meine "MSi GTX 970 Gaming 4 G Speicher-Castrato" sofort wieder haben.



Richtig - genau genommen müssten jetzt die Besitzer einer "GTX 980" auf die Barrikaden gehen, da ihnen wesentliche und geniale Merkmale der "GTX 970" nicht zur Verfügung stehen und vorenthalten wurden - bei dem Preis.
Mit dem letzten Statement von "Nvidia" wird es albern - aber ich habe herzlich gelacht - und von daher ....

Ich wage einmal eine Prognose:

1. - ein Mitarbeiter wird bei "Nvidia" den Kopf hinhalten müssen!
2. - "Nvidia" macht - noch rechtzeitig - einen Rückzieher!
3. - Frage der Wiedergutmachung seitens "Nvidia" wird noch geklärt und muss sehr schnell kommen!

Die Möglichkeit, dass "Nvidia" ein ganz dickes Fell hat, schließe ich nicht ganz aus - erscheint mir aber eher unwahrscheinlich - da sich die miese Propaganda - die ein Prozess mit sich bringt - bestimmt nicht für "Nvidia" rechnen wird. Da laufen jetzt bestimmt im Hintergrund die Drähte heiß, zumal "Gigabyte" auch mit betroffen ist.



Die machen es so wie Apple
Die schweigen das Thema tot oder versuchen wie man es hier gerade sehen kann - alles schön zu reden.
:freak::eek:
Und warum - weil sie es können - Sie können es sich leisten!

starsnake
2015-02-25, 14:34:54
Das geht immer hin und her, weil manche hier rein technisch argumentieren und manche eben moralisch.
Ich finde aber in diesem Fall ist das moralische Argument das Stärkere.

NV macht sich die Unwissenheit der Nutzer , für die 4GB eben 4GB sind, zu Nutze, um Marktvorteile zu generieren.


Insgeheim sind es aber nicht 4GB sondern 3 + 1, oder 3 +0,5 +0,5 oder was immer, das spielt in diesem Zusammenhang überhaupt keine Rolle.
Sie verschweigen etwas und nehmen dem Kunden damit sein ureigenes, wichtiges Recht, aufgrund wahrer Fakten eine Entscheidung zu treffen.

Dabei ist es ganz unerheblich, ob die Leistung am Ende des Tages doch sehr gut ist oder nicht ganz so gut. Das muss man einfach mal festhalten.

Danach kann meinetwegen die Diskussion um ROP´s, Cache usw. beginnen.
Deswegen denke ich auch, dass das Ding in den USA noch keineswegs ausgestanden ist.

Dass sich der CEO jetzt hinstellt und sagt, "eigentlich ist das ja eine 3GB Karte, die wir intelligent auf 4GB bringen", seid uns doch dafür dankbar, ist schon recht dreist, auch wenn er damit sachlich wohl sogar die Wahrheit sagt, wobei er aber die schwache Leistung des letzen GB wieder unter den Tisch fallen lässt.
Deswegen hätte nicht 4GB auf der Verpackung stehen dürfen....
So, jetzt sind wieder die Techniker dran:wink:

von Richthofen
2015-02-25, 14:46:41
Wer, wie AMD, mit dem BigBlock-V8 zur Verbrauchsmessung fährt, der darf sich nicht wundern, wenn er gegen die 4-Zylinder keine Chance gibt - auch wenn die bei 45°C etwas an Leistung verlieren, das ist nur für 99% der Anwendungsfälle irrelevant.

Genau. Der AMD-Verbrauch macht sich nämlich ebenfalls in den Speicherkuriositäten der 970 bemerkbar.


...
Sie verschweigen etwas und nehmen dem Kunden damit sein ureigenes, wichtiges Recht, aufgrund wahrer Fakten eine Entscheidung zu treffen.

Dabei ist es ganz unerheblich, ob die Leistung am Ende des Tages doch sehr gut ist oder nicht ganz so gut. Das muss man einfach mal festhalten.
...
Dass sich der CEO jetzt hinstellt und sagt, "eigentlich ist das ja eine 3GB Karte, die wir intelligent auf 4GB bringen", seid uns doch dafür dankbar, ist schon recht dreist, auch wenn er damit sachlich wohl sogar die Wahrheit sagt, wobei er aber die schwache Leistung des letzen GB wieder unter den Tisch fallen lässt...

Der Meinung möchte ich mich direkt anschließen.

Blediator16
2015-02-25, 14:56:44
Das geht immer hin und her, weil manche hier rein technisch argumentieren und manche eben moralisch.
Ich finde aber in diesem Fall ist das moralische Argument das Stärkere.

NV macht sich die Unwissenheit der Nutzer , für die 4GB eben 4GB sind, zu Nutze, um Marktvorteile zu generieren.


Insgeheim sind es aber nicht 4GB sondern 3 + 1, oder 3 +0,5 +0,5 oder was immer, das spielt in diesem Zusammenhang überhaupt keine Rolle.
Sie verschweigen etwas und nehmen dem Kunden damit sein ureigenes, wichtiges Recht, aufgrund wahrer Fakten eine Entscheidung zu treffen.

Dabei ist es ganz unerheblich, ob die Leistung am Ende des Tages doch sehr gut ist oder nicht ganz so gut. Das muss man einfach mal festhalten.

Danach kann meinetwegen die Diskussion um ROP´s, Cache usw. beginnen.
Deswegen denke ich auch, dass das Ding in den USA noch keineswegs ausgestanden ist.

Dass sich der CEO jetzt hinstellt und sagt, "eigentlich ist das ja eine 3GB Karte, die wir intelligent auf 4GB bringen", seid uns doch dafür dankbar, ist schon recht dreist, auch wenn er damit sachlich wohl sogar die Wahrheit sagt, wobei er aber die schwache Leistung des letzen GB wieder unter den Tisch fallen lässt.
Deswegen hätte nicht 4GB auf der Verpackung stehen dürfen....
So, jetzt sind wieder die Techniker dran:wink:

Im Grunde stellen sich die Leute, die Nvidia verteidigen jetzt hin und sagen, ist doch 4gb, alles bleibt wie vorher, die Karte ist doch immernoch so gut und raffen einfach nicht, dass wenn man keinen Shitstorm verursacht, Nvidia damit weitermachen wird und evtl. sogar Schlimmeres anstellt. Man lotet aus wie weit man gehen kann ob mit Lügerei oder Preisen. Wenn man das als Konsument nicht abstraft, dann wird weiterhin gemacht, was getan wurde und evtl. noch schlimmeres.

Dicker Igel
2015-02-25, 14:59:50
Sie verschweigen etwas und nehmen dem Kunden damit sein ureigenes, wichtiges Recht, aufgrund wahrer Fakten eine Entscheidung zu treffen.
An sich ist das doch eine gängige Masche(und niemand regt sich auf). Auf Lebensmitteln steht auch öfters 'gesund', 'Bio', 'Natur', oder 'nach Hausfrauenart' ... und man bekommt letztlich trotzdem nur "Chemie". Im Klagefall können die Hersteller diese Begriffe dehnen und ich denke, dass NV das in dem Fall auch machen kann. Denn immerhin ist ja wenigstens "mehr als die Hälfte" "echt" und man rundet in den Specs "nur" etwas auf. Ich denke NV juckt das nicht die Bohne.

N0Thing
2015-02-25, 15:09:32
An sich ist das doch eine gängige Masche(und niemand regt sich auf). Auf Lebensmitteln steht auch öfters 'gesund', 'Bio', 'Natur', oder 'nach Hausfrauenart' ... und man bekommt letztlich trotzdem nur "Chemie". Im Klagefall können die Hersteller diese Begriffe dehnen und ich denke, dass NV das in dem Fall auch machen kann. Denn immerhin ist ja wenigstens "mehr als die Hälfte" "echt" und man rundet in den Specs "nur" etwas auf. Ich denke NV juckt das nicht die Bohne.

In der Werbung sind Firmen immer sehr kreativ, um ihr Produkt besser aussehen zu lassen. Trotzdem regen sich Kunden zurecht auf, wenn nicht das im Essen drin ist, was drauf steht. Die gefälschten Bio-Produkte aus Italien und die Pferde in der Lasagne wurden ja auch nicht von Jubelpersern der verantwortlichen Firmen mit "awesome" und "new inventiuon" verteidigt. ;)

http://www.marketingfish.de/fileadmin/artikelbilder/Bilder/aktuell/Facebook_Mini_Lasagne.jpg


Die GTX 970 ist eine gute Karte und wäre ohne den zusätzlichen Krüppelspeicher auch ohne Mangel.

Godmode
2015-02-25, 15:18:36
Die machen es so wie Apple
Die schweigen das Thema tot oder versuchen wie man es hier gerade sehen kann - alles schön zu reden.
:freak::eek:
Und warum - weil sie es können - Sie können es sich leisten!

Also auch wenn ich keine GTX 970 habe, finde ich die Sache einfach nur beschämend. Wie kann man bitte nur so dumm sein? Ein paar Spielegutscheine und die Sache wäre schnell aus der Welt geschafft, aber nein, man muss noch mehr Bullshit verzapfen.

Mich nerven schon länger einige Sachen bei NV, aber das ist einfach die Höhe. GM200 können sie auch gleich behalten.

Dawn on Titan
2015-02-25, 15:39:22
Der Krüppelspeicher ist kein Mangel, der Mangel ergibt sich nur aus der falschen Produktbeschreibung.

aths
2015-02-25, 15:58:58
Unwahrscheinlich, dagegen ist die 970er im Vergleich zur 290er einfach eine zu gute und zu runde Karte.

[...]

Falsch, neu ist die Möglichkeit der Deaktivierung eines halben Speicherclusters. Sonst hätte man die Wahl zwischen 256 oder 192 bit.

Und ja, ggü einer 3GB-Karte sind die 4 definitiv die bessere Wahl.
Man fragt sich manchmal, warum es die User sind die sich erst vor Kurzem angemeldet haben, welche in dieser Tour unterwegs sind.

Die Speicherinterface-Granularät wurde verfeinert, auf 32 Bit. Wie zu Geforce-3-Zeiten. Es wäre möglich gewesen, eine 3,5-GB-Karte zu bauen. Wäre Herr Huang ehrlich, hätte er ausgehend von 3,5 GB argumentiert. Aber was soll man von jemandem halten, der auch eine Attrappe in die Kameras hält.

Das Problem der 970 ist nicht die Teildeaktivierung. Sondern die falsche Beschreibung. Die Stand heute noch online ist.


An sich ist das doch eine gängige Masche(und niemand regt sich auf). Auf Lebensmitteln steht auch öfters 'gesund', 'Bio', 'Natur', oder 'nach Hausfrauenart' ... und man bekommt letztlich trotzdem nur "Chemie". Im Klagefall können die Hersteller diese Begriffe dehnen und ich denke, dass NV das in dem Fall auch machen kann. Denn immerhin ist ja wenigstens "mehr als die Hälfte" "echt" und man rundet in den Specs "nur" etwas auf. Ich denke NV juckt das nicht die Bohne.
Das ist doch kein Argument. Wir wollen ehrliche technische Spezifikationen, egal ob die Lebensmittelhersteller mit fragwürdiger Werbung arbeiten oder nicht.

M4xw0lf
2015-02-25, 16:08:12
Man fragt sich manchmal, warum es die User sind die sich erst vor Kurzem angemeldet haben, welche in dieser Tour unterwegs sind.
Vielleicht handelt es sich ja um wieder angemeldete User... :eek: :upara:

Dicker Igel
2015-02-25, 16:08:34
Das ist doch kein Argument.
Sollte es auch nicht sein.

Thunder99
2015-02-25, 16:14:50
Mit Kepler-Technik wäre es wie bei der 660 Ti gelaufen, aber mit 4 statt 2 GByte ... d.h. 3 schnelle und 1 lahmes GByte ... so gesehen ist 3,5+0,5 besser als 3+1, da hat Huang Recht ;D noch besser wäre aber einfach 4 GB und halt den Chip mehr drosseln, siehe 290(X) ...

Wie meinst du es bei der R9 290? Verstehe dich da nicht was du meinst. Die non X hat doch nur weniger Shader und TMU, wie eigentlich üblich sowie weniger Takt

Botcruscher
2015-02-25, 16:25:59
Das sollte(Wunsch) für die 970 ja auch so sein.
Bisher war es ja auch immer der Fall. Etwas weniger Rohleistung und fertig war die "Günstigversion".

Dimitri Mayakovsky
2015-02-25, 16:29:56
Man fragt sich manchmal, warum es die User sind die sich erst vor Kurzem angemeldet haben, welche in dieser Tour unterwegs sind.
Bewertung der Meinung über die Menge der Posts/Anmeldedauer? Als Mod? Wirklich? Sonst keine Gegenargumente?

Ich kann dir hier auch zig User zeigen, die meiner Meinung sind und hier seit Jahren angemeldet sind. Machst du die auch an, wie mich?

Die Speicherinterface-Granularät wurde verfeinert, auf 32 Bit. Wie zu Geforce-3-Zeiten. Es wäre möglich gewesen, eine 3,5-GB-Karte zu bauen. Wäre Herr Huang ehrlich, hätte er ausgehend von 3,5 GB argumentiert. Aber was soll man von jemandem halten, der auch eine Attrappe in die Kameras hält.
Nein, es wäre - mit Kepler - ja gerade nicht möglich gewesen eine 3,5GB Karte zu bauen. Das ist seine Argumentation.

Mal ehrlich, wenn du nicht mal den Blogpost von Huang und die technischen Hintergründe verstehst, dann saug mich nicht an, weil ich hier nicht seit 10 Jahren rumhänge, sondern lies dir lieber entsprechendes Wissen an.

Das Problem der 970 ist nicht die Teildeaktivierung. Sondern die falsche Beschreibung. Die Stand heute noch online ist.
Nein, die Beschreibung ist immer noch korrekt. Wie gesagt, lies es lieber mal nach, als hier andere Leute anzuflamen, nur weil du keine Argumente hast.

Dural
2015-02-25, 16:30:12
Das sollte(Wunsch) für die 970 ja auch so sein.
Bisher war es ja auch immer der Fall. Etwas weniger Rohleistung und fertig war die "Günstigversion".


stimmt nicht, bei grösseren Chips hat NV die Speicheranbindung in der "x70" Serie immer zum teil deaktiviert:

G80
GT200
GT200b
GF100
GF110

:rolleyes::rolleyes:

Dimitri Mayakovsky
2015-02-25, 16:32:09
stimmt nicht, bei grösseren Chips hat NV die Speicheranbindung in der "x70" Serie immer zum teil deaktiviert:
Bitte störe sie nicht beim Haten mit Fakten! Fakten stören da nur! Huang vergeht sich auch an kleinen Kindern, wenn das dem guten Kampf für AMD dient.

Dural
2015-02-25, 16:38:44
naja ich finde es auch nicht OK wie NV damit umgeht, ich finde es aber auch nicht richtig wenn man diverse Fakten und Technische Hintergründe einfach verdrängen will.

-/\-CruNcher-/\-
2015-02-25, 16:47:06
Man fragt sich manchmal, warum es die User sind die sich erst vor Kurzem angemeldet haben, welche in dieser Tour unterwegs sind.

Die Speicherinterface-Granularät wurde verfeinert, auf 32 Bit. Wie zu Geforce-3-Zeiten. Es wäre möglich gewesen, eine 3,5-GB-Karte zu bauen. Wäre Herr Huang ehrlich, hätte er ausgehend von 3,5 GB argumentiert. Aber was soll man von jemandem halten, der auch eine Attrappe in die Kameras hält.

Das Problem der 970 ist nicht die Teildeaktivierung. Sondern die falsche Beschreibung. Die Stand heute noch online ist.



Das ist doch kein Argument. Wir wollen ehrliche technische Spezifikationen, egal ob die Lebensmittelhersteller mit fragwürdiger Werbung arbeiten oder nicht.

Jep und wir haben bei weitem noch nicht die Transparenz bei Lebensmitteln erreicht die richtig wäre die Industrie will sowas nicht egal welche und Lobien immer schön gegen Transparenz (nicht machbar, zu Aufwendig, Kosten) ;)

Schau dir mal ein Produkt heute bei den Discountern an da siehst du nur noch "Geprüft von der XXX Gruppe" oder Hergestellt für die XXX sonst nix mehr, das kann heute sonstwo herkommen ;)

Dimitri Mayakovsky
2015-02-25, 16:49:59
naja ich finde es auch nicht OK wie NV damit umgeht, ich finde es aber auch nicht richtig wenn man diverse Fakten und Technische Hintergründe einfach verdrängen will.
Dito.

Aber halt, darf ich nicht. Noch nicht lange genug angmeldet :(

eratte
2015-02-25, 16:51:08
ROFL @Dimitri Mayakovsky

Ex3cut3r
2015-02-25, 16:54:48
Mich hat die Sache auch sehr abgeschreckt von Nvidia, Huangs "Kommentar" war ja dann noch die Höhe. In Zukunft hoffe ich einfach das AMD was "vernünftiges" bringt, d.h. für mich akzeptabler Stromverbrauch und Leistung genug VRAM, DX11 overhead senken, DX12 Full support. Dann wurde ich mir, auch mal wieder ne AMD Graka kaufen.

starsnake
2015-02-25, 16:55:29
Bitte störe sie nicht beim Haten mit Fakten! Fakten stören da nur! Huang vergeht sich auch an kleinen Kindern, wenn das dem guten Kampf für AMD dient.
Ich möchte nur mal bescheiden anfragen, wie der Kunde, der bei Nvidia nachguckt und schöne 4 GB haben möchte, aus der folgenden Beschreibung erkennen soll, dass nicht der gesamte Speicher mit voller Geschwindigkeit angebunden ist, so wie es der interessierte PC Gamer in diesem Fall erwartet, weil er für die nächsten großen Titel gerüstet sein möchte.
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications
deshalb hier das Wort Haten zu verwenden, ist schon ziemlich daneben...

Hobby
2015-02-25, 16:55:31
... auch ganz nett geschrieben!

http://www.au-ja.de/rdfnews.phtml?cat=news&shownews=1&headline=6418452217afcbb89e25f214118f5ef0

Und eines muss man sich bei der ganzen Geschichte immer wieder vor Augen halten. Es geht um eine Produkt, das umgerechnet über 600,-DM kostet und nicht um ein Allerweltskärtchen für ein paar Euronen, das man sich gelegentlich mal als Testkarte in den Rechner steckt und nach einem halben Jahr verschenkt, weil das Ding keinen Wert mehr hat.

Bei "Luxusware" - und das sollte die "GTX 970" bei dem Preis sein, nimmt man solch ein mangelhaft und nachweislich falsch beworbenes Produkt zurück, besonders dann, wenn man nicht nachbessern kann!

Ich habe wieder mal fertig!:biggrin:

Marodeur
2015-02-25, 17:02:41
Ich möchte nur mal bescheiden anfragen, wie der Kunde, der bei Nvidia nachguckt und schöne 4 GB haben möchte, aus der folgenden Beschreibung erkennen soll, dass nicht der gesamte Speicher mit voller Geschwindigkeit angebunden ist, so wie es der interessierte PC Gamer in diesem Fall erwartet, weil er für die nächsten großen Titel gerüstet sein möchte.
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications
deshalb hier das Wort Haten zu verwenden, ist schon ziemlich daneben...

Als ich mir damals die GTX 570 gekauft habe war halt alles klar. Das Teil hatte halt nur eine 320-bit Anbindung statt einer 384-bit und eben nur 1,25 GB VRAM statt 1,5 GB. Da wusste man wenigstens genau auf was man sich einlässt.

Klar wurden früher Karten schon beschnitten aber dann wurdens eben auch so dargestellt und keiner hatte ein Problem damit.

Dimitri Mayakovsky
2015-02-25, 17:02:55
Ich möchte nur mal bescheiden anfragen, wie der Kunde, der bei Nvidia nachguckt und schöne 4 GB haben möchte, aus der folgenden Beschreibung erkennen soll, dass nicht der gesamte Speicher mit voller Geschwindigkeit angebunden ist, so wie es der interessierte PC Gamer in diesem Fall erwartet, weil er für die nächsten großen Titel gerüstet sein möchte.
Der gesamte Speicher ist mit voller Geschwindigkeit angebunden, was nicht mit voller Geschwindigkeit für den Speicherbus angebunden ist, ist der Memory Controller mit dem L2-Cache.

Von daher sind die Angaben, die du da verlinkt hast, auch per se erstmal korrekt.

aths
2015-02-25, 17:03:30
Bewertung der Meinung über die Menge der Posts/Anmeldedauer? Als Mod? Wirklich? Sonst keine Gegenargumente?

Ich kann dir hier auch zig User zeigen, die meiner Meinung sind und hier seit Jahren angemeldet sind. Machst du die auch an, wie mich?Seit Beginn trittst du in diesem aggressiven Tonfall auf. Da braucht man sich nicht wundern, wenn die Rückmeldungen entsprechend ausfallen.

Nein, es wäre - mit Kepler - ja gerade nicht möglich gewesen eine 3,5GB Karte zu bauen. Das ist seine Argumentation.

Mal ehrlich, wenn du nicht mal den Blogpost von Huang und die technischen Hintergründe verstehst, dann saug mich nicht an, weil ich hier nicht seit 10 Jahren rumhänge, sondern lies dir lieber entsprechendes Wissen an.

Nein, die Beschreibung ist immer noch korrekt. Wie gesagt, lies es lieber mal nach, als hier andere Leute anzuflamen, nur weil du keine Argumente hast.
Es ist trotzdem nichts "invented" worden. Wie gesagt gab es 32-Bit-Granularität bereits bei der Geforce 3. Da geht Maxwell wieder zurück. Da die 970 auf Maxwell basiert, stand eben nicht die Frage ob 3 oder 4 GB, sondern ob 3,5 oder 4 GB. Und 1/8 des Speicherinterfaces zu deaktivieren ist auch nicht neu, das hat Nvidia schon bei der GTX 260 gemacht.

Die GTX-970-Beschreibung mit 224 GB/s ist nicht korrekt. Da 1/8 des Caches fehlt, fehlt auch 1/8 der GPU-zu-L2-Bandbreite. Ebenso fehlt 1/8 der L2-zu-RAM-Bandbreite.

Im gleichen Zuge ist die Angabe des Speicherinterfaces mit 256 Bit falsch. Zwar gibt es 256 Datenleitungen, doch diese sind nicht gleichzeitig nutzbar.

Jetzt bin ich auf deine Argumente gespannt.

Exxtreme
2015-02-25, 17:06:15
stimmt nicht, bei grösseren Chips hat NV die Speicheranbindung in der "x70" Serie immer zum teil deaktiviert:

G80
GT200
GT200b
GF100
GF110

:rolleyes::rolleyes:
Das hatten sie aber auch exakt so hingeschrieben, dass da was deaktiviert ist und was es ist. Das ist bei der gtx 970 nicht so. Die gtx 970 ist viel stärker teildeaktiviert als es aus der Beschreibung ersichtlich ist.

Thunder99
2015-02-25, 17:11:04
Der gesamte Speicher ist mit voller Geschwindigkeit angebunden, was nicht mit voller Geschwindigkeit für den Speicherbus angebunden ist, ist der Memory Controller mit dem L2-Cache.

Von daher sind die Angaben, die du da verlinkt hast, auch per se erstmal korrekt.
Es sind physikalisch 4GB komplett angebunden aber elektrisch nur 3,5GB am 224bit Bus und 0,5GB am 32bit Bus dank der dahinter stattfindenden Anbindung.

Alle Karten die vorher eine Beschneidung hatten war die Beschneidung korrekt ausgeführt das nicht mehr belegt werden konnten. eine 470/570 jeweils konnte maximal 1280MB adressieren. Eine GTX970 kann aber 3,5GB sowie weitere 0,5GB aber mit drastisch reduzierter Geschwindigkeit ansprechen. Wären nur wirklich 3,5 adressierbar wäre es viel besser gewesen. Die 0,5 Lösung jetzt bringt 0 da es immer wieder ruckelt beim Austausch der Daten!

aths
2015-02-25, 17:12:10
... auch ganz nett geschrieben!

http://www.au-ja.de/rdfnews.phtml?cat=news&shownews=1&headline=6418452217afcbb89e25f214118f5ef0Huang hat sein Ziel erreicht: Viele reden jetzt von 1 GB RAM extra. Es geht jedoch um 0,5 GB RAM extra.

Dimitri Mayakovsky
2015-02-25, 17:14:39
Seit Beginn trittst du in diesem aggressiven Tonfall auf. Da braucht man sich nicht wundern, wenn die Rückmeldungen entsprechend ausfallen.
Sehr "aggressiv" von mir:
Unwahrscheinlich, dagegen ist die 970er im Vergleich zur 290er einfach eine zu gute und zu runde Karte.

[...]

Falsch, neu ist die Möglichkeit der Deaktivierung eines halben Speicherclusters. Sonst hätte man die Wahl zwischen 256 oder 192 bit.

Und ja, ggü einer 3GB-Karte sind die 4 definitiv die bessere Wahl.
Unglaublich von mir, ich hoffe du musstest nicht weinend zu deiner Mama laufen?

Es ist trotzdem nichts "invented" worden. Wie gesagt gab es 32-Bit-Granularität bereits bei der Geforce 3. Da geht Maxwell wieder zurück. Da die 970 auf Maxwell basiert, stand eben nicht die Frage ob 3 oder 4 GB, sondern ob 3,5 oder 4 GB. Und 1/8 des Speicherinterfaces zu deaktivieren ist auch nicht neu, das hat Nvidia schon bei der GTX 260 gemacht.
Es hat exakt null mit der Granularität zu tun, sondern mit der Möglichkeit einen defekten L2 abzuschalten, ohne direkt den zugehörigen MemoryController, sowieso den daneben liegenden L2-Cache und Memory-Controller abschalten zu müssen.

Das ging eben bei Kepler nicht, und auch nicht bei einer GeForce3. Könntest du bei der Gelegenheit mal so ein GeForce3-Modell nennen, bei dem 32bit des Speicherbuses deaktivert waren?

Und Huang vergleicht auch nicht mit einer GeForce3, sondern mit Kepler. Und ja, gegenüber der Kepler-Möglichkeit einer 3GB-Karte sind die 3,5 definitiv ein Fortschritt. Woran es gemangelt hat war die Kommunikation der Limitierung. Und das sagt er auch und hat sich dafür entschuldigt. Hast du dich schon bei AMD über ihre Es-wird-kein-DX12-geben-Lüge beschwer? Nein? Ach! Nein! Doch!

Die GTX-970-Beschreibung mit 224 GB/s ist nicht korrekt. Da 1/8 des Caches fehlt, fehlt auch 1/8 der GPU-zu-L2-Bandbreite. Ebenso fehlt 1/8 der L2-zu-RAM-Bandbreite.
Die Bandbreite des Speichers wird aber gemeinhin als MemoryController<->Speicherbaustein bezeichnet und nicht der dahinter liegende Teil. Alleine deswegen, weil ab dort "Bandbreite" ziemlich relativ ist.

Im gleichen Zuge ist die Angabe des Speicherinterfaces mit 256 Bit falsch. Zwar gibt es 256 Datenleitungen, doch diese sind nicht gleichzeitig nutzbar.
Selbstverständlich sind die 256 Datenleitungen nutzbar, nicht aber sind die Daten, die über alle 256 Datenleitungen gleichzeitig reinkommen, gleichzeitig im L2-Cache und der Crossbar verfügbar. Das ist ein Unterschied und Danke, dass du meine Behauptungen über deinen Wissensstand aus dem letzten Posting nochmal fett rot unterstreichst.

Lies dich also doch bitte erstmal ein, bevor du mich hier anmachst. Zumal es auch eine Grafik gibt, falls das bei dir mit dem Lesen nicht so klappen sollte.

Jetzt bin ich auf deine Argumente gespannt.
Jetzt bin ich mal auf deine Entschuldigung gespannt ;)

Dimitri Mayakovsky
2015-02-25, 17:17:04
Es sind physikalisch 4GB komplett angebunden aber elektrisch nur 3,5GB am 224bit Bus und 0,5GB am 32bit Bus dank der dahinter stattfindenden Anbindung.
Nein, auch elektrisch sind 256bit an den entsprechenden MemoryControllern angebunden. Und das ist die Definition von "Speicherbandbreite".

Der Flaschenhals liegt HINTER den MemoryControllern.

Alle Karten die vorher eine Beschneidung hatten war die Beschneidung korrekt ausgeführt das nicht mehr belegt werden konnten. eine 470/570 jeweils konnte maximal 1280MB adressieren. Eine GTX970 kann aber 3,5GB sowie weitere 0,5GB aber mit drastisch reduzierter Geschwindigkeit ansprechen. Wären nur wirklich 3,5 adressierbar wäre es viel besser gewesen. Die 0,5 Lösung jetzt bringt 0 da es immer wieder ruckelt beim Austausch der Daten!
Doch, die 0,5GB sind schneller anzusprechen (ca. Faktor 2) als entsprechende DMA-Auslagerungen über den PCIe-Bus. Das wäre die Alternative.

Und die Alternative wäre nun mal eine (Kepler-)3GB gewesen. Wäre also eine bei 3GB ruckelnde Karte "besser", als bei 3,5? Wirklich? Nur weil euch die technischen Specs besser gefallen und diese "ehrlicher" sind? Sonst keine Argumente?

starsnake
2015-02-25, 17:26:00
Der gesamte Speicher ist mit voller Geschwindigkeit angebunden, was nicht mit voller Geschwindigkeit für den Speicherbus angebunden ist, ist der Memory Controller mit dem L2-Cache.

Von daher sind die Angaben, die du da verlinkt hast, auch per se erstmal korrekt.

Okay, genau diese Feinheiten sind es, die dem nicht so kenntnisreichen User Sand in die Augen streuen, was ich nicht okay finde. Ich bleibe dabei. NVIDIA betritt hier vermintes Gelände, wenn sie durchaus relevante Fakten so stark vereinfacht darstellen, dass man, ich will es mal vorsichtig formulieren, an absichtliche Täuschung denken könnte.
Aber damit soll es auch gut sein von meiner Seite. Ich hatte mir die Karte gekauft, weil ich dachte, ich bekomme volle 4GB ohne wenn und aber. Dem ist nun nicht so ganz so. Warum ich sie trotzdem behalte, habe ich anderer Stelle hier dargelegt. Wie die Gamer Kundschaft in Zukunft auf NVIDIA Produkte reagiert, wird man sehen, ist letztendlich auch deren Problem.
Verschnupft bin ich dennoch, ich hab extra etwas länger gewartet, bis ich mir die Karte gekauft habe, ganz billig ist sie ja auch nicht, und dann diese Geschichte. Wer mir auch ein bisschen leid tut, sind die Partnerfirmen, EVGA, Zotac und natürlich die Händler, die jetzt ordentlich malochen müssen, um den ganzen Schlamassel wieder einzufangen. Dass sich NVIDIA nicht zu einem Goodie bereit erklärt, statt dessen die Innovationskraft rühmt, na ja,
starke Behauptungen waren noch immer erfolgreicher als schwache Beweise.

Dawn on Titan
2015-02-25, 17:26:04
Die Alternative war ne 3.5GB Karte.

Hobby
2015-02-25, 17:28:24
Huang hat sein Ziel erreicht: Viele reden jetzt von 1 GB RAM extra. Es geht jedoch um 0,5 GB RAM extra.

Das wird ja immer schlimmer ...;) - jetzt sind es schon 1 GB.

Aber ich bin wirklich mal gespannt, was in "Amiland" bei der Sammelklage herauskommt. In einem Land, wo in Handbüchern davor gewarnt werden muss, dass man sich an einem Toaster auch die Hände verbrennen kann, sehe ich für "Nvidia" schwarz.

aths
2015-02-25, 17:30:06
Sehr "aggressiv" von mir:

Unglaublich von mir, ich hoffe du musstest nicht weinend zu deiner Mama laufen?Und schon wieder aggressiv.


Es hat exakt null mit der Granularität zu tun, sondern mit der Möglichkeit einen defekten L2 abzuschalten, ohne direkt den zugehörigen MemoryController, sowieso den daneben liegenden L2-Cache und Memory-Controller abschalten zu müssen.

Das ging eben bei Kepler nicht, und auch nicht bei einer GeForce3. Könntest du bei der Gelegenheit mal so ein GeForce3-Modell nennen, bei dem 32bit des Speicherbuses deaktivert waren?Nein. Die Granularität dafür ist jetzt erst wieder bei Maxwell so fein, dass es jetzt geht. Die Feinheit der Abschaltbarkeit ist die Granularität.

Und Huang vergleicht auch nicht mit einer GeForce3, sondern mit Kepler. Und ja, gegenüber der Kepler-Möglichkeit einer 3GB-Karte sind die 3,5 definitiv ein Fortschritt. Woran es gemangelt hat war die Kommunikation der Limitierung. Und das sagt er auch und hat sich dafür entschuldigt. Hast du dich schon bei AMD über ihre Es-wird-kein-DX12-geben-Lüge beschwer? Nein? Ach! Nein! Doch!

Die Bandbreite des Speichers wird aber gemeinhin als MemoryController<->Speicherbaustein bezeichnet und nicht der dahinter liegende Teil. Alleine deswegen, weil ab dort "Bandbreite" ziemlich relativ ist.Es geht hier nicht um AMD. Auch nicht um meine Mama. Es hat bei Nvidia nicht an der Kommunikation "gemangelt". Der Versuch einer Täuschung ist keine "mangelnde" Kommunikation.

Selbstverständlich sind die 256 Datenleitungen nutzbar, nicht aber sind die Daten, die über alle 256 Datenleitungen gleichzeitig reinkommen, gleichzeitig im L2-Cache und der Crossbar verfügbar. Das ist ein Unterschied und Danke, dass du meine Behauptungen über deinen Wissensstand aus dem letzten Posting nochmal fett rot unterstreichst.

Lies dich also doch bitte erstmal ein, bevor du mich hier anmachst. Zumal es auch eine Grafik gibt, falls das bei dir mit dem Lesen nicht so klappen sollte.

Jetzt bin ich mal auf deine Entschuldigung gespannt ;)
Noch mal: Die GPU-zu-L2-Bandbreite ist um 1/8 geringer als bei der 980. Die L2-zu-RAM-Bandbreite auch. Anders gesagt: Die Bandbreite von der CPU zum RAM ist um 1/8 geringer. Damit hat die 970 keine 224 GB/s, sondern 1/8 weniger. Extra dafür wurde der ganze Aufwand ja gemacht.

Könnte die 970 ihre 256 Bit gleichzeitig nutzen, dann nur interleaved über alle acht Chips. Dann gäbe es keine 3,5+0,5-Konfiguration. Weil ein L2-Block fehlt, kann sie eben nicht alle acht Chips gleichzeitig ansprechen, sondern nur sieben.

aths
2015-02-25, 17:34:56
Okay, genau diese Feinheiten sind es, die dem nicht so kenntnisreichen User Sand in die Augen streuen, was ich nicht okay finde. Die 970 hat nicht die ausgewiesenen 224 GB/s. Sondern 196 GB/s. Und das auch über nur 3,5 GB RAM.

Dimitri Mayakovsky
2015-02-25, 17:36:29
Okay, genau diese Feinheiten sind es, die dem nicht so kenntnisreichen User Sand in die Augen streuen, was ich nicht okay finde. Ich bleibe dabei. NVIDIA betritt hier vermintes Gelände, wenn sie durchaus relevante Fakten so stark vereinfacht darstellen, dass man, ich will es mal vorsichtig formulieren, an absichtliche Täuschung denken könnte.
Was hat es mit Täuschung zu tun, wenn die technisch relevante Seite da ist?

Wenn du diese Problematik bei jeder Architektur in den technischen Spezifikationen erläutern müsstest, kämst du nirgendwo mehr mit unter 500 Seiten Dokumentation aus. Das ist schlichtweg nicht möglich.

Und dass die Kommunikation dieses Detail betreffend falsch war, hat NVIDIA ja nun zugegeben. Und nur darum geht es. Der Rest ist tatsächlich "works as intended".

Aber damit soll es auch gut sein von meiner Seite. Ich hatte mir die Karte gekauft, weil ich dachte, ich bekomme volle 4GB ohne wenn und aber. Dem ist nun nicht so ganz so. Warum ich sie trotzdem behalte, habe ich anderer Stelle hier dargelegt.
Bekommst du ja auch. Das "aber" liegt in der Architektur, bei der jede GPU irgendwo, irgendwann, irgendwie einen Flaschenhals hat. Die Flaschenhals-lose GPU muss halt erst noch erfunden werden.

Aber ich bin wirklich mal gespannt, was in "Amiland" bei der Sammelklage herauskommt. In einem Land, wo in Handbüchern davor gewarnt werden muss, dass man sich an einem Toaster auch die Hände verbrennen kann, sehe ich für "Nvidia" schwarz.
Die Leute kriegen 20US$ und gut ists. Mit Körperverletzung ist was zu holen, aber nicht dem "seelischen Schaden", dass dir NVIDIA keine volle Crossbar verkauft hat.

Und schon wieder aggressiv.
Du darfst dich darüber nicht beschweren. Du brüllst in den Wald hinein, jetzt ruft es zurück.

Deal with it.

Nein. Die Granularität dafür ist jetzt erst wieder bei Maxwell so fein, dass es jetzt geht. Die Feinheit der Abschaltbarkeit ist die Granularität.
Die Granularität bei der GeForce3 war null, denn es gab keine einzige GeForce3 mit teil-deaktiviertem Speicherinterface.

Es geht hier nicht um AMD. Auch nicht um meine Mama. Es hat bei Nvidia nicht an der Kommunikation "gemangelt". Der Versuch einer Täuschung ist keine "mangelnde" Kommunikation.
Dann belege doch erstmal, dass es eine gezielte Täuschung von NVIDIA ist. Ansonsten ist das nur eine Verleumdung und als Moderator des laut Admin "neutralen Forums" machst du dich damit ziemlich zum Affen.

Noch mal: Die GPU-zu-L2-Bandbreite ist um 1/8 geringer als bei der 980. Die L2-zu-RAM-Bandbreite auch. Die Bandbreite von der CPU zum RAM ist um 1/8 geringer. Damit hat die 970 keine 224 GB/s, sondern 1/8 weniger.
Wie kann denn der L2-Cache als Teil der GPU eine Bandbreite zur GPU haben? Du verrennst dich hier gerade ziemlich heftig in deiner selbst-gebrabenen Grube. Die Speicherbandbreite ist definiert als Bandbreite zwischen MemoryController und Speicherchip. Was dahinter kommt spielt schlichtweg keine Rolle.

Die 970 wurde gerade am Speicherinterface beschnitten und als 224-Bit-Karte entwickelt, aber fälchlicherweise als 256-Bit-Karte bezeichnet. Könnte die 970 ihre 256 Bit gleichzeitig nutzen, dann nur interleaved über alle acht Chips. Dann gäbe es keine 3,5+0,5-Konfiguration. Weil ein L2-Block fehlt, kann sie eben nicht alle acht Chips gleichzeitig ansprechen, sondern nur sieben.
Die Karte kann alle Chips gleichzeitig ansprechen, nur können die Daten nicht alle gleichzeitig vom MemoryController über den L2-Cache zur Crossbar gelangen. Das ist ein Unterschied, immer noch. Und auch wenn du den noch 100x wiederholst wird deine falsche Behauptung nicht richtiger, und auch nicht, wenn du sie hier mit irgendeiner Mod-Gewalt durchdrücken willst. Deine Behauptung ist technisch falsch, ganz einfach.

eratte
2015-02-25, 17:40:58
Don't feed the troll.

Botcruscher
2015-02-25, 17:47:14
stimmt nicht, bei grösseren Chips hat NV die Speicheranbindung in der "x70" Serie immer zum teil deaktiviert:
:rolleyes::rolleyes:
Weniger Rohleistung durch weniger Hardware. Das stand dann auch so in den Spezifikationen.

Hobby
2015-02-25, 17:47:25
Dann belege doch erstmal, dass es eine gezielte Täuschung von NVIDIA ist. Ansonsten ist das nur eine Verleumdung und als Moderator des laut Admin "neutralen Forums" machst du dich damit ziemlich zum Affen.



Hat "Aths" nicht von einer "gezielten Täuschung" geschrieben , sondern von einer "Täuschung". Ohne mich in eure Hardwarediskussion einmischen zu wollen und zu können, gibt es einen himmelweiten juristischen (?) Unterschied zwischen einer "Täuschung" und einer "gezielten Täuschung". Das nur, bevor du dich zu dem von dir genannten Affen machst.

bertramfx
2015-02-25, 17:54:07
Nein, auch elektrisch sind 256bit an den entsprechenden MemoryControllern angebunden. Und das ist die Definition von "Speicherbandbreite".

Der Flaschenhals liegt HINTER den MemoryControllern.


Doch, die 0,5GB sind schneller anzusprechen (ca. Faktor 2) als entsprechende DMA-Auslagerungen über den PCIe-Bus. Das wäre die Alternative.

Und die Alternative wäre nun mal eine (Kepler-)3GB gewesen. Wäre also eine bei 3GB ruckelnde Karte "besser", als bei 3,5? Wirklich? Nur weil euch die technischen Specs besser gefallen und diese "ehrlicher" sind? Sonst keine Argumente?
Dein Geschwätz ist so fehlerhaft und unerträglich. Wer hat da noch Lust das zu widerlegen? Ich nicht.

Thunder99
2015-02-25, 17:57:03
Nein, auch elektrisch sind 256bit an den entsprechenden MemoryControllern angebunden. Und das ist die Definition von "Speicherbandbreite".

Der Flaschenhals liegt HINTER den MemoryControllern.


Doch, die 0,5GB sind schneller anzusprechen (ca. Faktor 2) als entsprechende DMA-Auslagerungen über den PCIe-Bus. Das wäre die Alternative.

Und die Alternative wäre nun mal eine (Kepler-)3GB gewesen. Wäre also eine bei 3GB ruckelnde Karte "besser", als bei 3,5? Wirklich? Nur weil euch die technischen Specs besser gefallen und diese "ehrlicher" sind? Sonst keine Argumente?
Du verstehst es/mich nicht. Eine physikalisch 3,5 und elektrisch 3,5GB Karte wäre BESSER gewesen als diese Lösung. Oder meinst du die Analysen lügen? Klar ist das 4GB angebunden sind aber nicht so das dieser mit voller Geschwindigkeit genutzt werden können.

Deine Argumente mit 3 vs 3,5 sind nicht zutreffend nach meiner Ansicht. Und ja eine 192bit 3GB wäre besser gewesen von den Auswirkungen wenn bei der jetztigen Lösung doch die 0,5GB benötigt werden (z.B. Hitman) ;)

Kann sein das wir auch aneinander vorbei reden...

-/\-CruNcher-/\-
2015-02-25, 18:00:30
Hat "Aths" nicht von einer "gezielten Täuschung" geschrieben , sondern von einer "Täuschung". Ohne mich in eure Hardwarediskussion einmischen zu wollen und zu können, gibt es einen himmelweiten juristischen (?) Unterschied zwischen einer "Täuschung" und einer "gezielten Täuschung". Das nur, bevor du dich zu dem von dir genannten Affen machst.

Wie wo was eine Täuschung bleibt eine Täuschung wenn der Anwalt in seinem Jurasprech jetzt damit kommen würde es "war ja aber keine gezielte Täuschung" würde ich ihn erstmal fragen ob er während seines Studiums zu viel zwischendurch gekifft hat ;)

Er könnte ja auch so kommen "Es war eine nicht beabsichtigte Täuschung meines Klienten die durch eine Verkettung unglücklicher interner Fehlinformation enstanden ist die dann letztendlich und natürlich vollkommen unbeabsichtigt unglücklicher weise den Weg hinaus in die Presse gefunden haben, daher plediere ich auf nicht schuldig"

Wir sind alles nur Menschen und Menschen machen Fehler wo keine Fehler passieren wird nicht gearbeitet Herr Richter das wissen sie doch selbst.

Das größte Problem ist ja eher das Nvidia es so hat laufen lassen und den anschein erwecken möchte das da niemand ihre Presse Reviews verfolgt, der in der Lage dazu gewesen wäre die Fehler in den Daten zu erkennen und darauf aufmerksam zu machen hier muss man dann sogar unterstellen das sie es garnicht korriegeren wolten sondern einfach so haben laufen lassen bis zum big bang.

Matrix316
2015-02-25, 18:03:23
Die Alternative war ne 3.5GB Karte.
Oder man hätte die 4 GB so lassen können wie sie war und den Preis um 50 Euro erhöhen. Hätte sich auch keiner beschwert, da AMDs 290 auch so um die 400 Euro gekostet hat (bevor die 970 kam).

Schnoesel
2015-02-25, 18:08:06
Was diskutiert ihr auch mit einem der typischen Nvidia Forumssoldaten, kommt immer die gleiche Grüze bei raus. Unserem Lieblings CEO merkt man aber schon an, dass Nvidia sich bereits in der Position eines Monopolisten wähnt. Wenn die schon ihre eigenen Kunden verarschen, möchte ich mir gar nicht mehr ausmalen welchen Schindluder sie mit der Gameworks Blackbox treiben.

RoughNeck
2015-02-25, 18:21:57
Entweder bist du doof, oder du willst es einfach nicht verstehen. :freak:

Oder er ist einfach nur ein Fanboy der Nvidia auf Teufel komm raus verteidigt.
Wenn ich mir die ganzen Foren so durchlese, dann bin ich immer wieder erstaunt wie viele es gibt die Nvidia bis aufs Blut verteidigen.
Klar dass da Nvidia denkt, unseren "dummen" Kunden können wir alles verkaufen und wie man sieht, funktioniert das auch sehr gut.

Ich für meinen Teil werde Nvidia in Zukunft den Rücken kehren, was zum Großteil an der dumm/dreisten Aussage des Realitätsfernen CEO liegt. Ich möchte nicht dass der auch nur einen Cent von mir bekommt und hoffe die Klage in den USA geht durch, denn irgendwann müssen die merken dass es so nicht mehr weiter gehen kann.

N0Thing
2015-02-25, 18:28:03
Der Krüppelspeicher ist kein Mangel, der Mangel ergibt sich nur aus der falschen Produktbeschreibung.

Nein, der Mangel besteht darin, dass ohne die zusätzlichen 512MB nicht ein Eiertanz von Treiber und Anwendung notwendig wäre, was sich dann in manchen Situationen in Mikro- und Makroruckler bei der GTX 970 niederschlägt, die bei GTX 980, R9 290 und 780Ti bei gleichen Settings nicht auftreten.

Dazu kommt dann noch die Verhaltensweise von Nvidia, die der gesamten Kundschaft den Mittelfinger zeigen und deutlich machen, dass sie derer alle für Trottel und Narren halten.


Und die Alternative wäre nun mal eine (Kepler-)3GB gewesen. Wäre also eine bei 3GB ruckelnde Karte "besser", als bei 3,5? Wirklich? Nur weil euch die technischen Specs besser gefallen und diese "ehrlicher" sind? Sonst keine Argumente?

Die Argumente reichen für den Anfang, denn eine 3GB, 3,5GB oder auch eine echte 4GB-Karte wäre für den Kunden das bessere Angebot gewesen. Es wäre transparent gewesen, was die Karte hat und kann, zudem wäre man von den unnötigen Rucklern und Freezes verschont geblieben, die nur durch den mir 32Bit angebundenen extra RAM auftreten.
Auf gute Argumente von Nvidia warten alle noch bis heute.

Dawn on Titan
2015-02-25, 18:39:59
Nein, der Mangel besteht darin, dass ohne die zusätzlichen 512MB nicht ein Eiertanz von Treiber und Anwendung notwendig wäre, was sich dann in manchen Situationen in Mikro- und Makroruckler bei der GTX 970 niederschlägt, die bei GTX 980, R9 290 und 780Ti bei gleichen Settings nicht auftreten.

Dazu kommt dann noch die Verhaltensweise von Nvidia, die der gesamten Kundschaft den Mittelfinger zeigen und deutlich machen, dass sie derer alle für Trottel und Narren halten..

Dies aber nur ein Mangel, weil es so nicht beschrieben wurde. Es ist ein technisch sinnlose und sogar schädliche Lösung, die die Karte für die typische Nutzung ungeeignet macht, aber ein Mangel wird es nur weil es so nicht beschrieben wurde. Du kannst auch einen LKW mit 50kg Zuladung auf den Markt bringen, was dann ein völlig sinnloses Produkt wäre, aber sofern es so im Prospekt steht, wäre das Produkt mängelfrei, wenn es genau diese 50k zuladen kann. Dass der Käufer ein Idiot ist, steht auf einem anderen Blatt, aber ich habe nun ja auch verstanden, dass NV ihre Käufer für Idioten hält.

Hobby
2015-02-25, 18:41:14
Wie wo was eine Täuschung bleibt eine Täuschung wenn der Anwalt in seinem Jurasprech jetzt damit kommen würde es "war ja aber keine gezielte Täuschung" würde ich ihn erstmal fragen ob er während seines Studiums zu viel zwischendurch gekifft hat ;)

Er könnte ja auch so kommen "Es war eine nicht beabsichtigte Täuschung meines Klienten die durch eine Verkettung unglücklicher interner Fehlinformation enstanden ist die dann letztendlich und natürlich vollkommen unbeabsichtigt unglücklicher weise den Weg hinaus in die Presse gefunden haben, daher plediere ich auf nicht schuldig"

Wir sind alles nur Menschen und Menschen machen Fehler wo keine Fehler passieren wird nicht gearbeitet Herr Richter das wissen sie doch selbst.

Das größte Problem ist ja eher das Nvidia es so hat laufen lassen und den anschein erwecken möchte das da niemand ihre Presse Reviews verfolgt, der in der Lage dazu gewesen wäre die Fehler in den Daten zu erkennen und darauf aufmerksam zu machen hier muss man dann sogar unterstellen das sie es garnicht korriegeren wolten sondern einfach so haben laufen lassen bis zum big bang.

Jo, jo ;)- wenn eine "gezielte Täuschung" nachgewiesen werden könnte, wäre es ja Vorsatz von "Nvidia", da sich Marketing und Technik abgesprochen hätten, um uns Käufer über die wahren Specs im Unklaren zu lassen.

Wenn man das beweisen könnte, wäre die Sammelklage hundertprozentig erfolgreich.

Da es sich aber um ein internes Kommunikationsproblem seitens "Nvidia" handelt, kann es sich nur um eine - wie wir inzwischen ja auch wissen - gut gemeinte "Täuschung" handeln, die uns als neues Feature dieser Karte nur nicht richtig verkauft wurde.:biggrin:

Es bleibt spannend ...

N0Thing
2015-02-25, 18:46:56
Dies aber nur ein Mangel, weil es so nicht beschrieben wurde. Es ist ein technisch sinnlose und sogar schädliche Lösung, die die Karte für die typische Nutzung ungeeignet macht, aber ein Mangel wird es nur weil es so nicht beschrieben wurde. Du kannst auch einen LKW mit 50kg Zuladung auf den Markt bringen, was dann ein völlig sinnloses Produkt wäre, aber sofern es so im Prospekt steht, wäre das Produkt mängelfrei, wenn es genau diese 50k zuladen kann. Dass der Käufer ein Idiot ist, steht auf einem anderen Blatt, aber ich habe nun ja auch verstanden, dass NV ihre Käufer für Idioten hält.

Ich habe den Begriff Mangel nicht in einem juristischen Sinn verwendet, sondern in dem Sinn, wie ihn auch ein Produkttester nutzen würde, also eher in Richtung sinnvoll/nützlich. Und in der Hinsicht sind die 512MB extra nunmal eher ein Nachteil als ein Vorteil.

Abgesehen davon wurde die GTX 970 ja nur deshalb so wie sie ist konstruiert, damit man sie auch so irreführend beschreiben kann.

aths
2015-02-25, 18:47:22
Du darfst dich darüber nicht beschweren. Du brüllst in den Wald hinein, jetzt ruft es zurück.

Deal with it.

Die Granularität bei der GeForce3 war null, denn es gab keine einzige GeForce3 mit teil-deaktiviertem Speicherinterface.
Sie hatte trotzdem vier Speichercontroller mit jeweils 32 Bit.

Dann belege doch erstmal, dass es eine gezielte Täuschung von NVIDIA ist. Ansonsten ist das nur eine Verleumdung und als Moderator des laut Admin "neutralen Forums" machst du dich damit ziemlich zum Affen."Gezielte Täuschung" habe ich nicht geschrieben.

Die Annahme, dass Nvidia nach den vielen Monaten der Vorbereitung sowie in den Monaten nach dem Launch den "Fehler" nicht bemerkte, wäre die krassere Unterstellung als die Annahme, dass jemand bei Nvidia entgegen besseres Wissens festgelegt hat, das GTX-970-Speichersystem als gleich zur GTX 980 zu beschreiben.

Wie kann denn der L2-Cache als Teil der GPU eine Bandbreite zur GPU haben? Du verrennst dich hier gerade ziemlich heftig in deiner selbst-gebrabenen Grube. Die Speicherbandbreite ist definiert als Bandbreite zwischen MemoryController und Speicherchip. Was dahinter kommt spielt schlichtweg keine Rolle.

Die Karte kann alle Chips gleichzeitig ansprechen, nur können die Daten nicht alle gleichzeitig vom MemoryController über den L2-Cache zur Crossbar gelangen. Das ist ein Unterschied, immer noch. Und auch wenn du den noch 100x wiederholst wird deine falsche Behauptung nicht richtiger, und auch nicht, wenn du sie hier mit irgendeiner Mod-Gewalt durchdrücken willst. Deine Behauptung ist technisch falsch, ganz einfach.Die SMX gehen zur Crossbar, diese zum Cache, und der Cache geht zum Speicher. Man kann Bandbreiten zwischen den Komponenten angeben.

Die GTX-970-Speicherbandbreite gibt Nvidia mit 224 GB/s an. Die erreicht sie jedoch nicht, sondern nur 196 GB/s. Weil von den 256 Datenpfaden nur 224 Bit gleichzeitig aktiv sein können. Das hat nichts mit Mod-Gewalt zu tun, das sind bestätigte Fakten.

Huang schreibt: "GTX 970 is a 4GB card. However, the upper 512MB of the additional 1GB is segmented and has reduced bandwidth." Das ist nicht falsch, aber er verschweigt, dass auch die unteren 3,5 GB geringere Bandbreite haben und nicht die spezifizierten 224 GB/s erreichen.

Er verschweigt auch, dass bereits mit dem Kepler und einem 192-Bit-Interface das "additional 1GB" möglich gewesen wäre. (Ohne 512-MB-Segmentierung natürlich.)

aths
2015-02-25, 18:48:32
Oder man hätte die 4 GB so lassen können wie sie war und den Preis um 50 Euro erhöhen. Hätte sich auch keiner beschwert, da AMDs 290 auch so um die 400 Euro gekostet hat (bevor die 970 kam).
Damit wäre die 970 für das angepeilte Marktsegment zu teuer gewesen.

starsnake
2015-02-25, 18:52:18
Abgesehen davon wurde die GTX 970 ja nur deshalb so wie sie ist konstruiert, damit man sie auch so irreführend beschreiben kann.

Das glaube ich auch langsam....

Dawn on Titan
2015-02-25, 18:54:13
Ich denke niemand zweifelt noch daran.

maximus_hertus
2015-02-25, 19:00:33
Damit wäre die 970 für das angepeilte Marktsegment zu teuer gewesen.

Jein, eher nein. Aktuell liegen die belibtesten GTX Karten bei ca. 40 - 60 Euro über(!) der UVP. Und bei uns im Laden gehen die GTX 970 Karten für 399 Euro über die Ladentheke, "ungebremst". Wichtig ist halt die "3" am Anfang, also 3xx Euro.

Hätte man nicht einfach die Leistung per Powertarget limitieren können? Das ganze mit einem Bioslock und fertig. Dann hat man *immer* den gewünschten Abstand zur GTX 980.

aths
2015-02-25, 19:07:44
Jein, eher nein. Aktuell liegen die belibtesten GTX Karten bei ca. 40 - 60 Euro über(!) der UVP. Und bei uns im Laden gehen die GTX 970 Karten für 399 Euro über die Ladentheke, "ungebremst". Wichtig ist halt die "3" am Anfang, also 3xx Euro.

Hätte man nicht einfach die Leistung per Powertarget limitieren können? Das ganze mit einem Bioslock und fertig. Dann hat man *immer* den gewünschten Abstand zur GTX 980.
Da die 970 für Boardpartner freigegeben wurde, wäre das nicht lange so gegangen. Eigene Boards brauchen teilweise ein eigens modifiziertes BIOS. Die 970 wäre auch nicht in der gewünschten Vielfalt gebaut worden, hätte Nvidia auf diese Art versucht, einen Riegel vorzuschieben.

Mit der 970 wollte Nvidia zur 980 keine 670 zur 680 rausbringen, sondern weiter nach unten abstufen: Auf absehbare Zeit käme unter die 970 nur noch die 960. Insofern ist es günstig, die bestehende Produktpalette zu spreizen.

Rente
2015-02-25, 19:08:11
Jein, eher nein. Aktuell liegen die belibtesten GTX Karten bei ca. 40 - 60 Euro über(!) der UVP. Und bei uns im Laden gehen die GTX 970 Karten für 399 Euro über die Ladentheke, "ungebremst". Wichtig ist halt die "3" am Anfang, also 3xx Euro.

Hätte man nicht einfach die Leistung per Powertarget limitieren können? Das ganze mit einem Bioslock und fertig. Dann hat man *immer* den gewünschten Abstand zur GTX 980. Dann hätten sich mindestens genau so viele Leute beschwert und sie hätte sich wohl kaum besser verkauft.

Knuddelbearli
2015-02-25, 20:22:20
Frage ist auch ob AMD tätig wird. Sollte die Klage erfolgreich sein, steht einer Klage von Seiten AMDs nichts mehr im Weg. Jetzt sollte aber auch klar sein warum bei Nvidia offiziell alles ins Ordnung bzw. amazing ist. Jegliches Entgegenkommen wäre ein Schuldeingeständnis und würde Ihnen bei Klagen auf die Füsse fallen. Die Sache ist für Nvidia noch lange nicht ausgestanden.

Nicht ganz wenn sie den Fehler sofort eingestanden hätte wäre eine Klage schwer. Mit ihrem Läuft wie vorgesehen sagen sie aber ja selbst das alles wie geplant ist und es nur falsch kommuniziert wurde, ebenso damit das sie die Technischen Daten immer noch nicht geändert haben.
Wenn jetzt vor Gericht NV ein Fehler nachgewiesen wird war das somit Absicht von NV

redfirediablo
2015-02-25, 20:29:18
Je länger ich darüber nachdenke, umso mehr glaube ich das es sogar von Anfang an geplant war die falschen technischen Daten an die Presse zu geben (und nicht 4 Monate "aus versehen" vergessen wurde die falschen Daten zu korrigieren)

Stellen wir uns folgende Situation vor:

Eine Redaktion testet 3 Highend Grafikkarten. GTX980 GTX970 und 290X.

Alle haben volle 4GB die voll angebunden sind (laut technischen Daten).

Welcher Redakteur investiert dann seine Zeit um aufwändig Unterschiede bei Auslastungen nahe 4GB "auszutesten"?

KEINER! Weil sowieso keine Unterschiede zu erwarten sind und entsprechend der Redakteur seine knappe Zeit für andere Tests verwendet.

Jetzt die alternative Situation:

Eine Redaktion testet 3 Highend Grafikkarten. GTX980 GTX970 und 290X.

Zwei haben volle 4GB die voll angebunden sind und eine hat so ein merkwürdiges kombinierten System das man nicht so richtig einschätzen kann.

Worauf wird der Redakteur auf jeden Fall einige Zeit verwenden? Natürlich genau auf den Aspekt das ein Teil des Speichers nicht richtig angebunden ist! Hier wird er versuchen herauszufinden was genau im Grenzbereich 3,5GB - 4GB passiert.

Ja und was wird er da finden? Genau das in diesem Bereich Probleme auftreten.

Daraufhin werden alle Reviews mit dem "Haken" bzw. bitteren Beigeschmack abgeschlossen, dass die Karte an sich zwar schnell ist aber bei hoher Speicherbelastung zu starkem Ruckeln neigt während die Konkurrenz diese Probleme nicht hat.

Aus der supergünstigen eierlegenden Wollmilchsau die von allen in höchsten Tönen gelobt wird, wird auf einmal ein Produkt das zwar gut ist aber auch einen klaren Schönheitsmakel hat.

Durch die korrekte Bekanntgabe der technischen Daten wäre also sogar richtig der Finger in die Wunde bei der GTX970 gelegt worden. Erst dadurch das man die technischen Daten nicht richtig angegeben hat, konnte die GTX970 erst zu so einer "Hype" Karte werden, mit entsprechend hohen Verkaufszahlen natürlich.

Yavion
2015-02-25, 21:32:15
(..)

Durch die korrekte Bekanntgabe der technischen Daten wäre also sogar richtig der Finger in die Wunde bei der GTX970 gelegt worden. Erst dadurch das man die technischen Daten nicht richtig angegeben hat, konnte die GTX970 erst zu so einer "Hype" Karte werden, mit entsprechend hohen Verkaufszahlen natürlich.

Man hätte die Karte auch ganz einfach mit 3.5 GB Speicher vermarkten können. Und die 512MB dann eben als geheimnisvollen "Turbo Cache".

Nvidia ist da ja durchaus kreativ. Das wäre immer noch anständiger gewesen, als diese Mogelpackung.

Isen
2015-02-25, 21:35:20
@redfirediablo,

ja... ich sagte ja vor einiger Zeit, die Reviewer wurden als Spielball Missbraucht.

Schaffe89
2015-02-25, 22:40:50
Dein Geschwätz ist so fehlerhaft und unerträglich. Wer hat da noch Lust das zu widerlegen? Ich nicht.

Ich vermute mal irgendein Nvidiamitarbeiter, offenbar hat er doch ein bisschen Ahnung und versucht durch selektives weglassen von Fakten den Karren für NV aus dem Dreck zu ziehen.
Kann man auch machen, aber was ergibt das für einen Sinn?

Der Drops ist gelutscht, die Specs stehen immernoch falsch auf der Nvidiaseite.

Kriton
2015-02-26, 01:54:55
Ich habe Zweifel ob man da überhaupt rechtlich was machen kann, Fakt ist das die Karte mit 4GB beworben wird, Fakt ist aber halt eben auch das die 4GB verbaut sind.

Wie die 4GB Nutzbar sind und wie sie angebunden werden hat rechtlich bei der Angabe "4GB" keinen Einfluss.

Ja, ich würde es auch über die ROP / Cache probieren, da wurden definitiv falsche Angaben gemacht.

In den USA ist vor Gericht ja fast alles möglich.

Bei Dir klingt das so als hätten wir im deutschen Recht kein Problem damit was dort gemacht wurde. Ich betone es gern noch einmal: Das ist IMHO ein eindeutiger Gewährleistungsfall.

Ich finde es immer noch sche..., dass in DE der Händler dafür gerade stehen muss. Hoffentlich können die Händler das irgendwie Nvidia in Rechnung stellen.

Händler können die Gewährleistung ebenso gegenüber ihrem Händler geltend machen und werden insoweit sogar privilegiert wenn die Gewährleistung ihnen gegenüber von einem Verbraucher geltend gemacht wurde.

Na da können wir uns ja schon auf einen schönen Artikel der PCGH freuen, gell?

ja klar, wie dieser ***** "Artikel" zu den Gewährleistungsthemen. Zu dem sage ich lieber nichts mehr, sonst verfalle ich noch in einen Tonfall den ich bei anderen ankreiden würde.

Dies aber nur ein Mangel, weil es so nicht beschrieben wurde. Es ist ein technisch sinnlose und sogar schädliche Lösung, die die Karte für die typische Nutzung ungeeignet macht, aber ein Mangel wird es nur weil es so nicht beschrieben wurde.

Eigentlich ist es ein Mangel, weil anders beschrieben wurde. :biggrin:
Aber unabhängig davon: Zivilrechtlich ist das egal. Ein Mangel ist ein Mangel, egal welche der Alternativen zum Tragen kommt.

Und das Thema der Täuschung ist (vor allem) strafrechtlich relevant. Zivilrechtlich nur dann, wenn der Händler diese (dann bitte auch arglistige) Täuschung kannte oder kennen musste (vgl. § 123 Abs. 2 BGB). Aber diesen Weg wird wohl keiner gehen. Das Thema der Gewährleistung ist "einfacher".

Kriton
2015-02-26, 01:56:46
Huang wird böswillig missverstanden. Oder weil ihr alle kein Englisch könnt. http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/372063-gtx-970-berichte-ueber-nur-3-5-gibyte-nutzbarer-vram-post7204915.html#post7204915

Nur dumm von Grestorn, dass die Nutzung der letzten 0,5 GB die vorherigen 3,5 GB blockiert und damit das Argument mit "schneller als PCIe" sofort zunichte macht.

viele X70 karten hatten vor der 970 eine speicher einschränkung.

langsamm verstehe ich den aufschrei nicht mehr, den meisten scheint wohl für das selbe geld eine 3GB/192bit oder 3,5GB/224bit lieber gewesen zu sein...

Eine 3,5GB/224bit Karte wäre besser! Denn dann würde die Nutzung der letzten 0,5 GB nicht die vorherigen 3,5 GB blockieren!

Ich zitiere hier gern noch einmal:

Hinzu kommt die Exklusivität des Zugriffs: Solange der achte RAM-Baustein Daten transferiert, blockiert er seinen Nachbar-RAM, da sich beide einen L2-Cacheblock teilen. Um auf den schnellen 3,5-GB-Bereich zuzugreifen, muss man jedoch aus allen seinen sieben RAMs lesen. Da darf kein Chip blockiert sein. (Hervorhebung durch mich)

http://www.3dcenter.org/artikel/kommentar-nvidia-interessiert-sich-nicht-fuer-geforce-kaeufer

Das hat aths auch schon im Forum geschrieben. Ich verstehe nicht, warum dieser (wichtige) Punkt immer wieder untergeht! :uconf3:
Lest doch mal den Abschnitt: Der wahre Aufbau der GTX 970

Es sind aber nicht 3,5+0,5. Bei der Bandbreite sind es 3,5 oder 0,5.


Erstens war die Beschneidung des L2 überflüssig, da hätte man auch woanders kürzen können und zweitens dürfte die Karte ohne die 512MB deutlich besser laufen.

Endlich noch jemand!

Der Vorteil von Maxwell gegenüber Kepler bei dieser Art der Beschneidung ist, dass man statt 3 GiB @192 Bit nun 3,5 GiB @ 224 Bit anbinden kann und in speziellen Szenarien auch 256 Bit breite Zugriffe stattfinden können.

Da beide Speicherbereiche nur exklusiv angesprochen werden können sind 256 Bit breite Zugriffe unmöglich, Es sind 224 oder 32 Bit!

Der Witz ist ja: es IST fürs gleiche Geld eine 3,5 GB / 224 Bit Karte. :freak:


Nein, ist sie nicht. Sie ist schlechter. Durch die exklusive RAM-Nutzung von 3,5 oder 0,5 GB ist sie immer dann schlechter wenn sie auf die 0,5 GB zugreift.

Das geht immer hin und her, weil manche hier rein technisch argumentieren und manche eben moralisch.
Ich finde aber in diesem Fall ist das moralische Argument das Stärkere.


Auch wenn ich Deine Auffassung prinzipiell teile: Die technischen Argumente sind vielfach fehlerhaft, weil die Exklusivität der Speichernutzung nicht betrachtet wird.

Man hätte die Karte auch ganz einfach mit 3.5 GB Speicher vermarkten können. Und die 512MB dann eben als geheimnisvollen "Turbo Cache".

Nvidia ist da ja durchaus kreativ. Das wäre immer noch anständiger gewesen, als diese Mogelpackung.

Auch das wäre eine Mogelpackung gewesen - wegen der Exklusivität (Cobra aths, bitte übernehmen sie!).

Palpatin
2015-02-26, 08:13:15
Sehr gutes Post von Kriton, die Karte hat einfach ein riesen Problem wenn mehr als 3,5 GB VRAM gebraucht werden. Eine 780 hat diese Probleme im Fall das mehr als 3GB VRAM beansprucht werden eben nicht in gleichem Maß. Ich selbst hab eine 780ti und betreibe diese mit einem 4K Monitor und konnte das von vielen Usern hier beschriebene Verhalten der 970 sobald diese mehr als 3,5 GB VRAM braucht eben nicht feststellen. Also auch wenn der VRAM ausgeht läuft in der Regel noch alles sehr flüssig solang die Frames brav über 30 bleiben (Gsync).
Es bleibt natürlich die Hoffnung das NV über Bios Update oder Treiber es hinbekommt die 0,5 GB Crap Speicher komplett zu deaktivieren, dann wäre die 970 eine ganz normale 3,5 GB VRAM Karte und für viele auch eine Kaufempfehlung, so ist sie einfach Crap und Broken by Design.

aths
2015-02-26, 10:02:33
Wie groß die Probleme bei > 3,5 GB RAM sind, hängt davon ab. Nehmen wir den Fall, dass ein Spiel knapp 4 GB belegt, und dass der obere Bereich von 0,5 GB lediglich ein mal beim Laden des Levels beschrieben wird. Dann ist die 970-Lösung einer reinen 3,5-er Lösung vorzuziehen.

aufkrawall
2015-02-26, 10:04:53
Das ist unberechenbar.
Dieses Video schon vergessen?
http://www.computerbase.de/videos/2015-01/gtx-970-vs-gtx-980-the-talos-principle/

Thunder99
2015-02-26, 10:05:21
Nach dem Aufbau Schema von nvidia wäre es nicht 3+1GB anstelle von 3,5+0,5 wenn der letzte Bereich benötigt wird? D.h. der Controller kann entweder 224bit und 3,5GB voll ansprechen oder 3GB mit 192/224bit und dann nur 1GB mit 32bit durch die Anbindung an den L2 Cache, welcher ja nur zur Hälfte da ist und 2x32bit Blöcke ansprechen kann/muss?

Spasstiger
2015-02-26, 10:22:54
Da beide Speicherbereiche nur exklusiv angesprochen werden können sind 256 Bit breite Zugriffe unmöglich, Es sind 224 oder 32 Bit!

Ein NV-Ingenieur hat doch ausgesagt, dass auch bei dem teildeaktivierten Back-End-Block aufgrund der vorhandenen Datenpfade ein gleichzeitiger Zugriff auf beide Speicherchips möglich ist.
Logischerweise ist das dann kein reiner Lese- oder Schreibzugriff über den Cache.

/EDIT: Laut Jonah Alben - Nvidia Senior Vice President of GPU Engineering - ist die Peak-Bandbreite von 224 GB/s theoretisch erreichbar.

Botcruscher
2015-02-26, 10:25:07
Wie groß die Probleme bei > 3,5 GB RAM sind, hängt davon ab. Nehmen wir den Fall, dass ein Spiel knapp 4 GB belegt, und dass der obere Bereich von 0,5 GB lediglich ein mal beim Laden des Levels beschrieben wird. Dann ist die 970-Lösung einer reinen 3,5-er Lösung vorzuziehen.

Dazu müsste der Treiber auf jede Anwendung und jede Situation darin intelligent reagieren. Das halte ich für schlicht unmöglich. Die jetzige Lösung nicht mehr als 3,5GB zu belegen spricht auch dafür.
Das dann bei einem FC4 Update ganz rein Zufällig ein Bug mit max. 3,5GB Speicherbelegung auftritt...

Ein NV-Ingenieur hat doch ausgesagt, dass auch bei dem teildeaktivierten Back-End-Block aufgrund der vorhandenen Datenpfade ein gleichzeitiger Zugriff auf beide Speicherchips möglich ist.
Logischerweise ist das dann kein reiner Lese- oder Schreibzugriff über den Cache.
Was nützt uns das?! Wenn die Nachteile nicht deutlich überwiegen würden, dann gäbe es den Eiertanz mit den Speichersegmenten nicht.

Spasstiger
2015-02-26, 10:53:32
Was nützt uns das?! Wenn die Nachteile nicht deutlich überwiegen würden, dann gäbe es den Eiertanz mit den Speichersegmenten nicht.
Es geht darum, dass - vorausgesetzt Jonah Alben belügt uns nicht - die Angabe der "max. Speicherbandbreite" von 224 GB/s legitim ist. Hier beharren ja einige darauf, dass NV weiterhin falsche Spezifikationen auf ihrer Homepage angibt. Es sind aber offenbar als Peak-Spezifikationen eben doch legitime Angaben.
Präzisere Angaben würden wir uns alle wünschen, aber die gabs z.B. auch bei der GTX 660 Ti nicht, welche ebenfalls mit segmentiertem Speicher operiert.

Ich versuche doch nur zu erklären, wie NV zu den getätigten Aussagen kommt, ohne sich in ein Lügengerüst zu verstricken. Dass das Geschäftsgebahren unter aller Kanone ist, streite ich doch gar nicht ab, und ich würde im Moment auch keine GTX 970 mehr kaufen oder weiterempfehlen. Eigentlich sehe ich aus P/L- und Image-Sicht derzeit überhaupt keine Option von Nvidia. Dazu gehört erstmal das Portfolio aufgeräumt. Wie wäre es z.B. mit einer ehrlichen GTX 960 Ti mit 3 GiB (optional 6 GiB) und GM204 für 200€?

MadManniMan
2015-02-26, 11:03:17
Hm, die reinen Specs sind so lange sekundär, wie wir nur aus deren einfacher Nennung nicht auf konkretes Verhalten im Alltag schließen können. Wenn so ein Scheiß wie beim Video weiter oben beim Talos Principle auftritt oder blaidds Micro Stuttering, dann ist mir völlig Wurscht, ob die eine Anbindung an die nächste so oder so ausgeführt ist, weil es tatsächlich Praxisprobleme gibt.

john carmack
2015-02-26, 11:08:26
Je länger ich darüber nachdenke, umso mehr glaube ich das es sogar von Anfang an geplant war die falschen technischen Daten an die Presse zu geben (und nicht 4 Monate "aus versehen" vergessen wurde die falschen Daten zu korrigieren)

Stellen wir uns folgende Situation vor:

Eine Redaktion testet 3 Highend Grafikkarten. GTX980 GTX970 und 290X.

Alle haben volle 4GB die voll angebunden sind (laut technischen Daten).

Welcher Redakteur investiert dann seine Zeit um aufwändig Unterschiede bei Auslastungen nahe 4GB "auszutesten"?

KEINER! Weil sowieso keine Unterschiede zu erwarten sind und entsprechend der Redakteur seine knappe Zeit für andere Tests verwendet.

Jetzt die alternative Situation:

Eine Redaktion testet 3 Highend Grafikkarten. GTX980 GTX970 und 290X.

Zwei haben volle 4GB die voll angebunden sind und eine hat so ein merkwürdiges kombinierten System das man nicht so richtig einschätzen kann.

Worauf wird der Redakteur auf jeden Fall einige Zeit verwenden? Natürlich genau auf den Aspekt das ein Teil des Speichers nicht richtig angebunden ist! Hier wird er versuchen herauszufinden was genau im Grenzbereich 3,5GB - 4GB passiert.

Ja und was wird er da finden? Genau das in diesem Bereich Probleme auftreten.

Daraufhin werden alle Reviews mit dem "Haken" bzw. bitteren Beigeschmack abgeschlossen, dass die Karte an sich zwar schnell ist aber bei hoher Speicherbelastung zu starkem Ruckeln neigt während die Konkurrenz diese Probleme nicht hat.

Aus der supergünstigen eierlegenden Wollmilchsau die von allen in höchsten Tönen gelobt wird, wird auf einmal ein Produkt das zwar gut ist aber auch einen klaren Schönheitsmakel hat.

Durch die korrekte Bekanntgabe der technischen Daten wäre also sogar richtig der Finger in die Wunde bei der GTX970 gelegt worden. Erst dadurch das man die technischen Daten nicht richtig angegeben hat, konnte die GTX970 erst zu so einer "Hype" Karte werden, mit entsprechend hohen Verkaufszahlen natürlich.



Offiziell wurde an den Techinschen-Daten immer noch nichts geändert!
http://www.nvidia.de/object/geforce-gtx-970-de.html#pdpContent=2
:mad::facepalm::rolleyes:

Botcruscher
2015-02-26, 11:08:33
NV wird da nichts ändern. Die warten die Klagen in US ab.
---
Wenn die 224 GB/s in irgend einem realistischen Fall anliegen, dann wäre das im Vergleich zur 980 deutlich sichtbar.
Die 3DC Artikel haben sich darüber schon ausgelassen. Ich will dem NV.Ing da auch nicht über die Möglichkeit widersprechen. Über die Nebenwirkungen hat aber kein Wort verloren.

aths
2015-02-26, 11:15:23
Ein NV-Ingenieur hat doch ausgesagt, dass auch bei dem teildeaktivierten Back-End-Block aufgrund der vorhandenen Datenpfade ein gleichzeitiger Zugriff auf beide Speicherchips möglich ist.
Logischerweise ist das dann kein reiner Lese- oder Schreibzugriff über den Cache.

/EDIT: Laut Jonah Alben - Nvidia Senior Vice President of GPU Engineering - ist die Peak-Bandbreite von 224 GB/s theoretisch erreichbar.
Für wie lange? Hast du einen Link?

Spasstiger
2015-02-26, 11:25:37
Für wie lange? Hast du einen Link?
Irgendwo hier im Thread gabs mal ein Zitat über afair 2 Sätze direkt von einem NV-Mitarbeiter (vermutlich Alben), in dem auch Fachbegriffe genannt wurden und irgendwas von multiplen Datenpfaden stand.
Auf die Schnelle finde ich nur das:
To those wondering how peak bandwidth would remain at 224 GB/s despite the division of memory controllers on the GTX 970, Alben stated that it can reach that speed only when memory is being accessed in both pools.
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970

john carmack
2015-02-26, 11:29:11
würde mich auch interessieren wo das steht...
Danke

john carmack
2015-02-26, 11:36:11
Ein NV-Ingenieur hat doch ausgesagt, dass auch bei dem teildeaktivierten Back-End-Block aufgrund der vorhandenen Datenpfade ein gleichzeitiger Zugriff auf beide Speicherchips möglich ist.
Logischerweise ist das dann kein reiner Lese- oder Schreibzugriff über den Cache.

/EDIT: Laut Jonah Alben - Nvidia Senior Vice President of GPU Engineering - ist die Peak-Bandbreite von 224 GB/s theoretisch erreichbar.


Ich pfeiff drauf was Nidia Ingenieure sagen!
;D
https://www.youtube.com/watch?v=spZJrsssPA0

Leonidas
2015-02-26, 11:39:17
Es geht darum, dass - vorausgesetzt Jonah Alben belügt uns nicht - die Angabe der "max. Speicherbandbreite" von 224 GB/s legitim ist.


Wenn ich nur eine Möglichkeit habe, etwas anzugeben, dann entscheide ich mich eher für die praktisch anliegenden 196 GB/sec als die nur theoretisch erreichbaren 224 GB/sec.

Skysnake
2015-02-26, 11:47:02
Ein NV-Ingenieur hat doch ausgesagt, dass auch bei dem teildeaktivierten Back-End-Block aufgrund der vorhandenen Datenpfade ein gleichzeitiger Zugriff auf beide Speicherchips möglich ist.
Logischerweise ist das dann kein reiner Lese- oder Schreibzugriff über den Cache.

/EDIT: Laut Jonah Alben - Nvidia Senior Vice President of GPU Engineering - ist die Peak-Bandbreite von 224 GB/s theoretisch erreichbar.
Aha, dann sollte nVidia aber mal einen Benchmark/testcase rausbringen, in dem die auch wirklich erreichbar sind.

Nach allem, was man bisher gesehen hat, verhindert der Treiber eben das man die 224GB/s erreicht. Sorry, aber da bleibt nVidia erstmal in der Bringschuld, dass das auch wirklich stimmt. :P

aths
2015-02-26, 11:47:55
Irgendwo hier im Thread gabs mal ein Zitat über afair 2 Sätze direkt von einem NV-Mitarbeiter (vermutlich Alben), in dem auch Fachbegriffe genannt wurden und irgendwas von multiplen Datenpfaden stand.
Auf die Schnelle finde ich nur das:

http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970
Das ist leider kein wörtliches Zitat. Wenn wir die Wiedergabge genau lesen (ohne exakt zu wissen, was gesagt wurde) "Alben stated that it can reach that speed only when memory is being accessed in both pools" folgt daraus noch nicht, dass die Karte auf beide Pools gleichzeitig zugreifen kann.

Wenn sie es könnte, könnte man die Daten interleaved über 8 Chips ablegen und hätte ein 256-Bit-SI. Da es 1/8 weniger L2 gibt, durch den die Daten aber müssen, ist das witzlos.

Matrix316
2015-02-26, 11:49:20
Ich pfeiff drauf was Nidia Ingenieure sagen!
;D
https://www.youtube.com/watch?v=spZJrsssPA0
Aaaaaaaaaaaaaaaaaalt... aber immer noch geil! ;D

Ich finde auch, ehrlich währt am längsten. Hätte man die Beschneidung des Speichers von Anfang an klar dargelegt, wären vielleicht einige zu AMD gewechselt (oder auch nicht) oder hätten stattdessen gleich die 980 (oder eine 780 ) geholt und so oder so hätte Nvidia sogar vielleicht insgesamt MEHR eingenommen.

captain_drink
2015-02-26, 12:17:09
Das ist leider kein wörtliches Zitat. Wenn wir die Wiedergabge genau lesen (ohne exakt zu wissen, was gesagt wurde) "Alben stated that it can reach that speed only when memory is being accessed in both pools" folgt daraus noch nicht, dass die Karte auf beide Pools gleichzeitig zugreifen kann.

Wenn sie es könnte, könnte man die Daten interleaved über 8 Chips ablegen und hätte ein 256-Bit-SI. Da es 1/8 weniger L2 gibt, durch den die Daten aber müssen, ist das witzlos.

In der folgenden Passage wird sich dazu noch so geäußert:

UPDATE 1/27/15 @ 5:36pm ET: I wanted to clarify a point on the GTX 970's ability to access both the 3.5GB and 0.5GB pools of data at the same. Despite some other outlets reporting that the GPU cannot do that, Alben confirmed to me that because the L2 has multiple request busses, the 7th L2 can indeed access both memories that are attached to it at the same time.

Birdman
2015-02-26, 12:33:12
zwei request busses, einer für lesen und einer für schreiben?
Also könnte man beide memory blöcke gleichzeitig ansprechen, wenn man auf den einen liest und dem andern schreibt....nur dass dies selten bis nie sinnvoll gemacht werden kann, zumindest nicht mit dem "Wissen" was der Grafiktreiber hat.

Marodeur
2015-02-26, 12:50:30
Erinnert einen frapierend and die Verbrauchsangaben von PKW Herstellern...

Dicker Igel
2015-02-26, 12:58:19
Eine Redaktion testet 3 Highend Grafikkarten. GTX980 GTX970 und 290X.

Alle haben volle 4GB die voll angebunden sind (laut technischen Daten).

Welcher Redakteur investiert dann seine Zeit um aufwändig Unterschiede bei Auslastungen nahe 4GB "auszutesten"?

KEINER! Weil sowieso keine Unterschiede zu erwarten sind und entsprechend der Redakteur seine knappe Zeit für andere Tests verwendet.
Das ist in meinen Augen aber eben pure Schlamperei! Egal was angegeben wird: Wenn man etwas testet, sollte man es auch richtig machen. Dazu gehört eben auch, dass man den VRAM ausreizt, um zu bestimmen, wie sich die jeweilige Karte im entsprechenden Limit verhält. Da gibt es auch nix zu entschuldigen, von wegen keine Zeit etc pp ... das kanns einfach nicht sein.

aths
2015-02-26, 13:09:41
In der folgenden Passage wird sich dazu noch so geäußert:
Dann stünde die Frage, warum der Speicher in 3,5+0,5 segmentiert wird. Wäre gleichzeitiger Zugriff möglich, ließen sich Daten 8x interleaved ablegen und die 970 hätte durchweg 4 GB.

"Multiple request busses" – gehen darüber nur der Request, oder auch die Daten? Soll jeder L2-Block multiple busses haben? Im Gegensatz zum Nvidia-Schaubild wirft das indirekte Zitat mehr Fragen auf, als beantwortet werden.

starsnake
2015-02-26, 13:14:10
@Dicker Igel
da bin ich schon bei Dir.
Auch wenn es hier um nichts Lebenswichtiges geht, so ist sorgfältige und genaue Testung auf alle Fälle zu fordern.
Argumente wie "wenn wir da zu kritisch sind, dann geben uns die Sachen nicht mehr ,oder erst später" dürfen nicht gelten.
Das gebietet auch die Verantwortung gegenüber dem Leser, der ja, zumindest was es die Printmedien angeht, auch für die Recherche bezahlt.
Da war auch wenig Selbstkritik zu lesen. Bitte korrigiert mich, wenn ich da falsch liegen sollte.
Ein wenig zu Gute halten muss man den Reviewern vielleicht, dass sie so eine Konstruktion weder kennen noch wirklich erwarten konnten. Und man kann ja nur das erkennen, was man im Prinzip auch schon kennt.
Ich hoffe sehr, dass man für die Zukunft daraus lernt und nicht mit der Industrie ins Bett steigt. ( Dann darf man sich auch nicht wundern, wenn man plötzlich Läuse im Pelz hat:biggrin: )

aths
2015-02-26, 13:23:20
Das ist in meinen Augen aber eben pure Schlamperei! Egal was angegeben wird: Wenn man etwas testet, sollte man es auch richtig machen. Dazu gehört eben auch, dass man den VRAM ausreizt, um zu bestimmen, wie sich die jeweilige Karte im entsprechenden Limit verhält. Da gibt es auch nix zu entschuldigen, von wegen keine Zeit etc pp ... das kanns einfach nicht sein.
Hier würde ich ein wenig nachsichtiger sein. Es stand nicht zu erwarten, das die Karte sich zwischen 3,5 und 4 GB anders verhält als normale Karten. Man kann nur eine begrenzte Auswahl an Szenarien testen.

Da würde ich mich für Settings entscheiden, die so in der Praxis auftreten (alles Max, verschiedene Auflösungen.) Es gäbe sehr viel synthetisch zu testen: Farbfüllrate, Texturfüllrate, Z-Füllrate, alles in unterschiedlichen Multisampling-Settings und so weiter.

Ein synthetischer Speicherbandbreitentest hätte natürlich gezeigt, dass die 970 nicht die spezifizierten 224 GB/s hat. Es war in der Vergangenheit nicht notwendig, sowas nachzumessen, da die Herstellerangaben bisher ehrlich waren.

Dawn on Titan
2015-02-26, 14:47:07
Dann stünde die Frage, warum der Speicher in 3,5+0,5 segmentiert wird. Wäre gleichzeitiger Zugriff möglich, ließen sich Daten 8x interleaved ablegen und die 970 hätte durchweg 4 GB.

"Multiple request busses" – gehen darüber nur der Request, oder auch die Daten? Soll jeder L2-Block multiple busses haben? Im Gegensatz zum Nvidia-Schaubild wirft das indirekte Zitat mehr Fragen auf, als beantwortet werden.

Die Unterteilung kann ja Sinn machen, weil sonst der 7. L2 Block mit der doppelten Menge Daten beaufschlagt wird und so der Cache überlaufen würde. Es kann aber durchaus sein, dass der 7. L2 Block mit Daten aus VRAM 7+8 gleichzeitig gefüttert werden könnte.

Spasstiger
2015-02-26, 14:56:18
"Multiple request busses" – gehen darüber nur der Request, oder auch die Daten? Soll jeder L2-Block multiple busses haben? Im Gegensatz zum Nvidia-Schaubild wirft das indirekte Zitat mehr Fragen auf, als beantwortet werden.
Vielleicht kann man auch einfach nur parallel das Senden oder Empfangen und Auswerten von Testdaten anfordern, was vermutlich von jedem Speichercontroller unabhängig von den Daten im Cache unterstützt wird. So eine Funktion macht für Validierungszwecke ja durchaus Sinn (BER-Messung mit einem Pattern Checker, Augendiagramme definierter PRBS am Oszi anzeigen lassen). Wäre aber nix, womit der Nutzer jemals etwas anfangen kann oder was man auch nur in Benchmarks festhalten kann.
Als Reviewer würde ich auf jeden Fall bei der segmentierten Darstellung der Speicherbandbreite bleiben. Die 224 GB/s sind eher akademischer Natur.

Ein Request Bus ist meinem Verständnis nach übrigens kein Datenbus, sondern ein Steuerbus. Woher die Daten zur Versorgung des achten Speichercontrollers im Parallelbetrieb kommen bzw. wo sie hin fließen, bleibt offen.

Isen
2015-02-26, 15:04:07
Das Thema wird richtig schön verkompliziert, sodass man stets sagen kann: Neeeein. Das hast du falsch verstanden...

Matrix316
2015-02-26, 15:54:54
Erinnert einen frapierend and die Verbrauchsangaben von PKW Herstellern...
Würde ich nicht sagen, weil der Verbrauch unter bestimmten Umständen diese Angaben sogar erfüllen kann, aber hier ja trotzdem Leistung fehlt, die laut Spezifikationen da sein sollten. Das ist eher so, wie wenn ein Auto 130 PS haben soll, aber ab 3000 Umin oder 120 KM/h plötzlich nur noch 10 PS da sind, oder so. ;) Quasi wie eine Abregelung.

Marodeur
2015-02-26, 16:07:38
Würde ich nicht sagen, weil der Verbrauch unter bestimmten Umständen diese Angaben sogar erfüllen kann...

Ging dabei um die Übertragungsgeschwindigkeit die ja eventuell in irgendwelchen speziellen Szenarien erreicht wird. Da kam mir eben der komische Normverbrauch in den Sinn... ;)

Matrix316
2015-02-26, 16:21:59
Ging dabei um die Übertragungsgeschwindigkeit die ja eventuell in irgendwelchen speziellen Szenarien erreicht wird. Da kam mir eben der komische Normverbrauch in den Sinn... ;)
Naja, mir fällts nur schwer eine analogie auf Basis von Leistung (Karte) vs Verbrauch (Auto) zu machen. Zumal die Karten ja auch einen (Strom) Verbrauch haben und die Autos eine (PS/KW/NM) Leistung. ;)

Wobei die Verbrauchswerte schon auch unrealistisch sind, weil sie nur im Labor vorkommen. So gesehen, sind die Angaben bei der 970 auch ähnlich glaubwürdig. ;)

aths
2015-02-26, 16:46:06
Die Unterteilung kann ja Sinn machen, weil sonst der 7. L2 Block mit der doppelten Menge Daten beaufschlagt wird und so der Cache überlaufen würde. Es kann aber durchaus sein, dass der 7. L2 Block mit Daten aus VRAM 7+8 gleichzeitig gefüttert werden könnte.
Da gäbe es das nächste Problem: Würden sich im siebten L2-Block Daten aus dem 7. und 8. RAM befinden, bringen die vollen 256 KB der anderen sechs L2-Blöcke nicht so viel, eben wegen des 7x-Interleave-Datenzugriffs auf den 3,5-GB-Block.

Das indirekte Zitat des Nvidia-Mitarbeiters hat auch nur vom Request Bus gesprochen.

Dawn on Titan
2015-02-26, 17:13:59
Das meine ich. Wenn man den 7. Block für 2 Speichersteine nutzt, dann könnte man sinnvoll bei allen anderen nur 50% des L2 nutzen, was sicher böse auf die Leistung gehen würde. Es könnte aber theoretisch technisch möglich sein, was dann eben auch theoretisch die angegebene Bandbreite ermöglichen würde.

aths
2015-02-26, 17:57:22
Das meine ich. Wenn man den 7. Block für 2 Speichersteine nutzt, dann könnte man sinnvoll bei allen anderen nur 50% des L2 nutzen, was sicher böse auf die Leistung gehen würde. Es könnte aber theoretisch technisch möglich sein, was dann eben auch theoretisch die angegebene Bandbreite ermöglichen würde.
Da ich nicht weiß, wie die Daten im Cache verwaltet werden, ist mir nicht klar, ob ein L2-Block mit Daten aus unterschiedlichen Pools überhaupt umgehen kann.

Dass jeder L2-Block einen doppelt so breiten Bus hat, damit einer von ihnen zwei Memorycontroller bedienen kann, erscheint mir auch unwahrscheinlich. Dass nur der siebte L2-Block einen doppelt so breiten Bus hat, ebenfalls.

Das Nvidia-Schaubild zeigt Verbindungen zwischen je zwei L2-MC-Verbindungen. Ich vermute, dass diese bei der GTX 980 nutzlos sind, aber bei der 970 zum Einsatz kommen, um einen beliebigen L2-Block abschalten zu können. (Salvage-Gedanke; wobei wahrscheinlich die allermeisten Chips funktionsfähige acht Blöcke haben und ein heiler Block deaktiviert wird.)

Der Nvidia-Mitarbeiter, von dem wir leider selbst bisher nichts erfahren haben sondern nur wissen was er anderen gesagt haben soll, spricht von Request-Bussen aber nicht von Datenpfaden.

Selbst wenn sich beim Zugriff auf beide Pools 256 Bit nutzen lassen, werden die unteren 3,5 GB mit nur 224 Bit angesprochen. Und so lange der nicht voll ist, werden die oberen 0,5 GB nicht belegt.

Wenn die oberen 0,5 gleichzeitig genutzt werden könnten, ist A) der Zugriff darauf noch immer langsam und B) würde es die Cache-Effizienz auch des 3,5-GB-Bereiches beeinträchtigen.

starsnake
2015-02-26, 18:10:14
Da ich nicht weiß, wie die Daten im Cache verwaltet werden, ist mir nicht klar, ob ein L2-Block mit Daten aus unterschiedlichen Pools überhaupt umgehen kann.

Dass jeder L2-Block einen doppelt so breiten Bus hat, damit einer von ihnen zwei Memorycontroller bedienen kann, erscheint mir auch unwahrscheinlich. Dass nur der siebte L2-Block einen doppelt so breiten Bus hat, ebenfalls.

Das Nvidia-Schaubild zeigt Verbindungen zwischen je zwei L2-MC-Verbindungen. Ich vermute, dass diese bei der GTX 980 nutzlos sind, aber bei der 970 zum Einsatz kommen, um einen beliebigen L2-Block abschalten zu können. (Salvage-Gedanke; wobei wahrscheinlich die allermeisten Chips funktionsfähige acht Blöcke haben und ein heiler Block deaktiviert wird.)

Der Nvidia-Mitarbeiter, von dem wir leider selbst bisher nichts erfahren haben sondern nur wissen was er anderen gesagt haben soll, spricht von Request-Bussen aber nicht von Datenpfaden.

Selbst wenn sich beim Zugriff auf beide Pools 256 Bit nutzen lassen, werden die unteren 3,5 GB mit nur 224 Bit angesprochen. Und so lange der nicht voll ist, werden die oberen 0,5 GB nicht belegt.

Wenn die oberen 0,5 gleichzeitig genutzt werden könnten, ist A) der Zugriff darauf noch immer langsam und B) würde es die Cache-Effizienz auch des 3,5-GB-Bereiches beeinträchtigen.

Ich bin dann mal raus......:D, das wird mir zu hoch

aths
2015-02-26, 18:19:51
Ich bin dann mal raus......:D, das wird mir zu hoch
Bei der GTX 980, mit acht Speicherchips, wird es so gemacht, dass alles (Framebuffer, Texturen, und so weiter) verteilt über acht Speicherchips geschrieben wird.

Wenn du eine unkomprimierte 2048x2048-Textur mit 32 Bit pro Pixel hast, nimmt die 16 MiB Speicher ein. Das heißt, in jeden Chip kommen jeweils 2 MiB dieser Textur. Wird sie gebraucht, kann man aus allen acht Chips lesen und erreicht damit die entsprechende Speicherbandbreite.

Die 970 arbeitet komplizierter. Sie nutzt 1x einen 7-Chip-Verbund, der entsprechend 3.5 GB groß ist. Auf den kann man rein physikalisch mit nur 7x 32 Bit = 224 Bit zugreifen. Entsprechend puffern die L2-Caches solche Daten. Da ein L2-Block sowohl für den 3.5-er Block, als auch für die 0.5 GB Extra-RAM zuständig ist, möchte man den Zugriff auf den 0.5-er Block vermeiden. Schon deshalb, um keine Daten aus diesem doppelt verwendbaren L2-Block zu verlieren.

Dawn on Titan
2015-02-26, 18:22:55
aths, ich stimme Dir zu. Mir ging es nur um eine theoretische Möglichkeit, dass die volle Bandbreite in synthetischen Szenarien erreichbar sein könnte.

aths
2015-02-26, 18:29:08
aths, ich stimme Dir zu. Mir ging es nur um eine theoretische Möglichkeit, dass die volle Bandbreite in synthetischen Szenarien erreichbar sein könnte.
Jonah Alben wird zitiert mit "can indeed access both memories". Er schreibt nicht, dass dabei auch Daten fließen :D

Doch man kann es drehen und wenden wie man will: Zunächst werden nur bis zu 3,5 GB belegt. Mit 224 Bit. Wenn man die oberen 0,5 GB gleichzeitig nutzen kann und ab dann praktisch ein 256-Bit-Interface hat, ergibt es gewichtet gemittelt ein 228-Bit-Interface. Bei schlechterer Cache-Effizienz. Glückwunsch, Mister Alben.

aufkrawall
2015-02-26, 19:01:51
Bisher deutet kein Benchmark darauf hin, dass jemals mehr als 224Bit verfügbar sind bzw. spricht alles dafür, dass die letzten 32 Bit die reale Bandbreite extrem drücken.
Eher müsste man sie also abziehen als draufrechnen, und selbst das wird der Symptomatik mit den Freezes kein Bisschen gerecht.

Ergo kann man sich die ganze Diskussion schenken und was wie juristisch zu gewichten ist, sollten wir den Profis überlassen.

Botcruscher
2015-02-26, 21:26:13
...ergibt es gewichtet gemittelt ein 228-Bit-Interface.

Leider spiegelt ein gewichtetes Mittel nicht die Realität wieder. 9 von 10 Sec. war es super und dann hat es geruckelt. Das ist wie der Witz mit der Kuh und dem durchschnittlich 10cm tiefen See.

bertramfx
2015-02-27, 07:57:02
Statt der 4 Gigabyte hätte Nvidia doch gleich 16 Gigabit sagen können 😁

labecula
2015-02-27, 08:10:30
Da rechne nochmal nach....

bertramfx
2015-02-27, 12:29:56
Da rechne nochmal nach....
Danke für den Hinweis :-)
32 Gigabit sinds sogar! Dann ists ja noch besser :-)

rysalf
2015-02-28, 11:24:25
Hallo, kann mir jemand Uploaden diesen Tool zum testen der GPU, die exe Datei und die 2 dll Datei? kann sie nicht finden, und ich will testen die gtx970m mit 3gb,
Danke in voraus.

maffle
2015-02-28, 16:41:22
Hallo! Ich weiß nicht, ob das schon gefragt wurde, sorry falls ja, aber was hat es mit den vielen kleinen "micro rucklern" auf sich bei der GTX970? Dass sie am Ende absackt, gut, aber wieso sind da diese ganzen Spitzen/spikes vorhanden, die bei den andern beiden nicht so extrem auftauchen? Hat das einfluss auf fps auch bei Spielen, die nicht an die 3,5gb Grenze stoßen?

aufkrawall
2015-02-28, 16:46:26
Das sollte dann natürlich keinen Einfluss haben. Wenn die Spiele sich wirklich nicht mehr als 3,5GB nehmen wollen, performt die 970 so gut wie ursprünglich immer angenommen.
Letztlich ein schwacher Trost.

-/\-CruNcher-/\-
2015-02-28, 16:50:29
Das sollte dann natürlich keinen Einfluss haben. Wenn die Spiele sich wirklich nicht mehr als 3,5GB nehmen wollen, performt die 970 so gut wie ursprünglich immer angenommen.
Letztlich ein schwacher Trost.

In Zukunft absolut aussreichend da bringt auch AMDs Marketing geblubse von wir haben 4GB real nichts ;)

Wie gesagt die Wirtschaftliche Entscheidung bei der GTX 970 war absolut richtig die Umsetzung das aufzwingen der User auf diesen Kurs oder sollten wir lieber sagen das vorbereiten vor allem der Nvidia (Gruppe) Gamer die immer höher mehr = weiter gewohnt sind nicht ;)

Die GTX 970 punktet wegen ihrer Balance das dafür nur 3,5 GB zur verfügung stehen würde auch keinen Unterschied in der gesamten Rechnung Nvidias machen ;)

maffle
2015-02-28, 16:52:38
Ich dachte, die Grafik zeigt quasi, dass am rechten Ende (höhere Auflösung) die 3,5 Grenze überschritten wird, und ab dort sackt es dann ab in den frames, oder irre ich mich hier? Was zeigen jedoch die vielen kleinen Spitzen bis hoch zu 80ms durchgehend von Anfang an, die bei den andern beiden Karten nicht auftauchen? Oder ist die gesamte Grafik schon über 3,5GB und die Spitzen zeigen an, dass er an den stellen immer kurzzeitig auf Bereiche im 512 Speicher zugreift? Was er jedoch nicht machen sollte, der Treiber dürfte das doch "clever" belegen, und nicht random Daten in die gesamten 4gb packen? Wenn es direkt von Anfang an über die 3,5gb geht, wieso sackt es dann noch zusätzlich am Ende ab?

aufkrawall
2015-02-28, 16:52:47
In Zukunft absolut aussreichend da bringt auch AMDs Marketing geblubse von wir haben 4GB real nichts ;)
Du bist echt witzig.

-/\-CruNcher-/\-
2015-02-28, 17:01:46
Ich dachte, die Grafik zeigt quasi, dass am rechten Ende (höhere Auflösung) die 3,5 Grenze überschritten wird, und ab dort sackt es dann ab in den frames, oder irre ich mich hier? Was zeigen jedoch die vielen kleinen Spitzen bis hoch zu 80ms durchgehend von Anfang an, die bei den andern beiden Karten nicht auftauchen? Oder ist die gesamte Grafik schon über 3,5GB und die Spitzen zeigen an, dass er an den stellen immer kurzzeitig auf Bereiche im 512 Speicher zugreift? Was er jedoch nicht machen sollte, der Treiber dürfte das doch "clever" belegen, und nicht random Daten in die gesamten 4gb packen? Wenn es direkt von Anfang an über die 3,5gb geht, wieso sackt es dann noch zusätzlich am Ende ab?

Das ist momentan noch extreme der Fall in Zukunft wird sich das aber ausbalancieren ohne Nachteile auch entwickelt Nvidia hier permament um resourcen zu optimieren an effizienteren lösungen ;)

In Zukunft wird ein Nvidia GTX 970 user dieses Problem nicht mehr tangieren es ist momentan eine übergansphase die schlecht erwischt wurde und sich viele Entwickler noch nicht aussreichend angepasst haben weil sie zu sehr mit AMD only optimierungen (GCN) beschäftigt sind seit der Konsolen Konvergenz ;)

Blediator16
2015-02-28, 17:04:06
Das ist momentan noch extreme der Fall in Zukunft wird sich das aber ausbalancieren ohne Nachteile auch entwickelt Nvidia hier permament um resourcen zu optimieren an effizienteren lösungen ;)

Gäbe es da eine Versicherung drauf, dann könnte man diesem Mist wenigstens glauben...

edit

aufkrawall
2015-02-28, 17:06:05
Gäbe es da eine Versicherung, dann drauf könnte man diesem Mist wenigstens glauben...
Er spricht doch immer im Fiebertraum, das zu lesen tut wirklich weh.
Ich bin leider Masochist und muss immer auf "Beitrag anzeigen" klicken.

DerKleineCrisu
2015-02-28, 17:08:17
Das ist momentan noch extreme der Fall in Zukunft wird sich das aber ausbalancieren ohne Nachteile auch entwickelt Nvidia hier permament um resourcen zu optimieren an effizienteren lösungen ;)

Nur solange es sich wirtschaftlich für Sie rechnet,
sobald die Verkaufszahlen im Keller sind wird da sicher nicht´s mehr " Optimiert ".

Also in sagen wir mal in max 1,5 Jahre ist die Karte für Sie nicht mehr interessant und dann haben die "Käufer " die auf einen Wundertreiber hoffen
die A-Karte. ;)

Die sollten Lieber im Treiber einen Schalter einbauen wo man die letzten
0,5 GB softwaremäßig abschalten kann.
Würde mehr bringen.

Oder hat vielleicht ein USER da schon was gebastelt ?.

Grüße

aufkrawall
2015-02-28, 17:10:17
Würde größtenteils von allgemeinen Heuristiken im Treiber ausgehen.

-/\-CruNcher-/\-
2015-02-28, 17:16:19
Würde größtenteils von allgemeinen Heuristiken im Treiber ausgehen.

Siehe meinen Inspector post aber egal aufkrawall du verstehst anscheinend eh nicht worauf ich hinaus will du bist so ein springender Fanboy scheint mir mal hops hier hin mal hops da hin zu kritischer Betrachtung fehlt dir einfach die Erfahrung ;)
Lieber alles gleich mal wie die dumme Presse in den Dreck ziehen ohne intentionen zu verstehen und fähig zur reflektion zu sein ;)

Hauptsache 4GB drauf und denken das ist effizienter als wie die GTX 970 Designed und Balanciert ist.

Knuddelbearli
2015-02-28, 17:16:38
Ich dachte, die Grafik zeigt quasi, dass am rechten Ende (höhere Auflösung) die 3,5 Grenze überschritten wird, und ab dort sackt es dann ab in den frames, oder irre ich mich hier? Was zeigen jedoch die vielen kleinen Spitzen bis hoch zu 80ms durchgehend von Anfang an, die bei den andern beiden Karten nicht auftauchen? Oder ist die gesamte Grafik schon über 3,5GB und die Spitzen zeigen an, dass er an den stellen immer kurzzeitig auf Bereiche im 512 Speicher zugreift? Was er jedoch nicht machen sollte, der Treiber dürfte das doch "clever" belegen, und nicht random Daten in die gesamten 4gb packen? Wenn es direkt von Anfang an über die 3,5gb geht, wieso sackt es dann noch zusätzlich am Ende ab?


Nur eine Vermutung:

Eventuell versucht das Spiel da mehr als 3,5GB zu nutzen ( die es aber nicht wirklich braucht aber es will eben die 4gb ausnutzen ) der Treiber verbietet es aber wodurch das Bild paar Takte länger braucht

aufkrawall
2015-02-28, 17:18:42
Siehe meinen Inspector post aber egal aufkrawall du verstehst anscheinend eh nicht worauf ich hinaus will du bist so ein springender Fanboy scheint mir mal hops hier hin mal hops da hin zu kritischer Betrachtung fehlt dir einfach die Erfahrung ;)
Lieber alles gleich mal wie die dumme Presse in den Dreck ziehen ohne intentionen zu verstehen und fähig zur reflektion zu sein ;)
Richtig, ich bin der Fanboy und hype mich selber.

MartinRiggs
2015-02-28, 17:30:00
Das ist momentan noch extreme der Fall in Zukunft wird sich das aber ausbalancieren ohne Nachteile auch entwickelt Nvidia hier permament um resourcen zu optimieren an effizienteren lösungen ;)

In Zukunft wird ein Nvidia GTX 970 user dieses Problem nicht mehr tangieren es ist momentan eine übergansphase die schlecht erwischt wurde und sich viele Entwickler noch nicht aussreichend angepasst haben weil sie zu sehr mit AMD only optimierungen (GCN) beschäftigt sind seit der Konsolen Konvergenz ;)

Meinst du das ernst oder trollst du:eek:
Wenn mich ein unbedarfter anspricht das seine nagelneue GTX970 nach längerer Spielzeit bei AC: Unity ruckelt wie blöde, dann ist es sehr wohl ein Problem im hier und jetzt, da gibt es nix wegzuoptimieren und es gibt mehrere Spiele die genau in dieses Problem "reinlaufen".

Dawn on Titan
2015-02-28, 18:10:44
Gibt es ein neues Spiel, das auf der 970 nicht ruckelt?

aufkrawall
2015-02-28, 18:21:47
AC: U lief in 1440p mit einer 970 klar besser als mit einer 780 Ti. Man muss schon differenzieren.
Nicht, weil man sonst der armen Firma oder dem Produkt Unrecht tut, sondern, weil sich sonst irgendjemand der Relativierer-Fraktion das zu Nutze macht beim Verzerren der Tatsachen.

Kriton
2015-02-28, 19:19:45
In Zukunft absolut aussreichend da bringt auch AMDs Marketing geblubse von wir haben 4GB real nichts ;)

Wie gesagt die Wirtschaftliche Entscheidung bei der GTX 970 war absolut richtig die Umsetzung das aufzwingen der User auf diesen Kurs oder sollten wir lieber sagen das vorbereiten vor allem der Nvidia (Gruppe) Gamer die immer höher mehr = weiter gewohnt sind nicht ;)

Die GTX 970 punktet wegen ihrer Balance das dafür nur 3,5 GB zur verfügung stehen würde auch keinen Unterschied in der gesamten Rechnung Nvidias machen ;)

Das ist momentan noch extreme der Fall in Zukunft wird sich das aber ausbalancieren ohne Nachteile auch entwickelt Nvidia hier permament um resourcen zu optimieren an effizienteren lösungen ;)

In Zukunft wird ein Nvidia GTX 970 user dieses Problem nicht mehr tangieren es ist momentan eine übergansphase die schlecht erwischt wurde und sich viele Entwickler noch nicht aussreichend angepasst haben weil sie zu sehr mit AMD only optimierungen (GCN) beschäftigt sind seit der Konsolen Konvergenz ;)

Siehe meinen Inspector post aber egal aufkrawall du verstehst anscheinend eh nicht worauf ich hinaus will du bist so ein springender Fanboy scheint mir mal hops hier hin mal hops da hin zu kritischer Betrachtung fehlt dir einfach die Erfahrung ;)
Lieber alles gleich mal wie die dumme Presse in den Dreck ziehen ohne intentionen zu verstehen und fähig zur reflektion zu sein ;)

Hauptsache 4GB drauf und denken das ist effizienter als wie die GTX 970 Designed und Balanciert ist.

51286

Monsta
2015-02-28, 19:57:59
Was ne Frechheit ist, das Nvidia immer noch 256Bit angibt. Aber mann kann entweder 224 oder 32bit nutzen.
Das ist als ob VW den Golf GTI mit 250km/h verkauft. Er aber entweder Vorwärts 230 oder rückwärts mit 20km/h zu fahren ist. Einfach addieren und gut.
Vw würde mal richtig nen Einlauf für so ne Lüge bekommen.

kevsti
2015-02-28, 20:27:56
Joah ich verstehe es auch einfach nicht, warum es da nicht mal vom Staat bzw. der EU oder der USA her eins auf die Rübe gibt.
Sonst sind sie ja so fixe, wenn sie nur riechen, dass irgendwo ein Kunde übers Ohr gehauen werden könnte... Aber sind wohl halt auch alles Leute die 0 Ahnung von Technik haben und sich daher für den Fall nicht interessieren.... Wir als Kunden können eh nix machen und das weiß nVidia... das ist der Mist an einem faktischen Monopol. Und gerade da sollten ja die Augen von gewissen staatlichen Instituten besonders Scharf schauen...

Naja, ich schicke nun meine 970 zurück, hole mir erst mal ne 960 (brauch halt HDMI2.0...) und hoffe das AMD bald was gutes bringt...

Schnoesel
2015-02-28, 20:47:44
Naja Fix. Ich denke daran wie lange man gebraucht hat um nach Jahren Intel auf die Füße zu treten wegen der Marktmanipulation. Das hat Jahre gedauert. Jahre!!!:

http://www.spiegel.de/wirtschaft/missbrauch-von-marktmacht-intel-entgeht-kartell-prozess-in-den-usa-a-710044.html

Ich korrigiere 10 !!! Jahre. Auf die EU oder sonstwen brauchst nicht hoffen. 10 Jahre in denen Sie AMD systematisch aus dem Markt gedrängt haben, ich könnt mich jedesmal so aufregen...

kevsti
2015-02-28, 23:47:35
Ja, ich sage ja - wenns um Hardware/Technik geht... ;)

Disco_STFU
2015-03-01, 11:22:48
Mit der 1 Mrd. Strafe ist Intel sowas von gnädig davongekommen. Die hätten mindestens 5 zahlen müssen für das was sie da abgezogen haben...

Evil Ash
2015-03-01, 11:42:28
Was ne Frechheit ist, das Nvidia immer noch 256Bit angibt. Aber mann kann entweder 224 oder 32bit nutzen.
Das ist als ob VW den Golf GTI mit 250km/h verkauft. Er aber entweder Vorwärts 230 oder rückwärts mit 20km/h zu fahren ist. Einfach addieren und gut.
Vw würde mal richtig nen Einlauf für so ne Lüge bekommen.

Es ist genau andersrum. Angegeben waren 150 PS und 10 Sekunden von 0 auf 100. Der Wagen hat aber "nur" 130 PS, aber die Beschleunigung ist geblieben.
Also ist die Karte im Prinzip "aufgewertet" worden.
Gibt es eigentlich einen konkreten Fall, wie ich das nachvollziehen kann? Oder trollt ihr alle? Nach einer Stunde Skyrim mit max. Settings und Downsampling (2560) keine Ruckler ...

Auch nach stundenlangem Star Citizen (Hangar + Arena Commander) mit Downsampling keine Ruckler.

Schnoesel
2015-03-01, 12:03:00
Soweit mir bekannt gibts Probleme bei:

COH2
COD advanced warfare
Evolve
Total War Attila
Dying Lite
Skyrim mit bestimmten Mods
Shadows of Mordor

Aber die Leute trollen bestimmt alle nur ;-)

Botcruscher
2015-03-01, 12:06:29
Also ist die Karte im Prinzip "aufgewertet" worden.


Herrlich. Bitte mehr! Die Realsatire sollte als best-off gesammelt werden.

Ihr solltet froh sein wenn NV euch fickt. Weil das ist ein aufgewertetes Extra! Was beschwert ihr euch? Ohne wäre euer After so trocken und leer. Denkt doch mal einer an das grandiose Design. Ihr habt eigentlich noch viel mehr bekommen als geplant.

Kriton
2015-03-01, 12:15:30
Es ist genau andersrum. Angegeben waren 150 PS und 10 Sekunden von 0 auf 100. Der Wagen hat aber "nur" 130 PS, aber die Beschleunigung ist geblieben.
Also ist die Karte im Prinzip "aufgewertet" worden.


51294

Evil Ash
2015-03-01, 12:16:10
Soweit mir bekannt gibts Probleme bei:

COH2
COD advanced warfare
Evolve
Total War Attila
Dying Lite
Skyrim mit bestimmten Mods
Shadows of Mordor

Aber die Leute trollen bestimmt alle nur ;-)

Hab ich alle nicht ...
Außer halt Skyrim ohne Mods.

Gimmick
2015-03-01, 12:16:18
Autovergleiche sind einfach immer toll.

Es ist genau andersrum. Angegeben waren 150 PS und 10 Sekunden von 0 auf 100. Der Wagen hat aber "nur" 130 PS, aber die Beschleunigung ist geblieben.
Also ist die Karte im Prinzip "aufgewertet" worden.


Dafür spielt die Zündung ab 101km/h verrückt.
Klar auf der Landstraße merkste das nicht, gibt aber auch Leute, die gerne Autobahn fahren.

aufkrawall
2015-03-01, 12:17:07
Hab ich alle nicht ...
Merry Christmas.

Evil Ash
2015-03-01, 12:18:16
Autovergleiche sind einfach immer toll.



Dafür spielt die Zündung ab 101km/h verrückt.
Klar auf der Landstraße merkste das nicht, gibt aber auch Leute, die gerne Autobahn fahren.

Aber nur auf bestimmten Autobahnen, die sind mir aber noch nicht untergekommen.
Gibt es denn keinen "Schnelltest" ...? Irgendein Tool, das den Speicher mal schnell auf 3.8 GB füllt und dabei die fps anzeigt?

Mir unverständlich, oder das Thema wird nur hier so hochgepusht.

Evil Ash
2015-03-01, 12:45:37
Ich möchte doch nur verstehen, worum es da geht und wie man das nachvollziehen kann.
Wenn ich das hier in einem speziellen Forum nicht kann, wie soll das dann ein Richter können?

"Mein Shooter fängt nach einer Stunde an, etwas zu ruckeln ..."
Dem Richter wird zweimal kurz das Augenlid zucken und er wird sich denken ... WTF?!?

AngelDust 32
2015-03-01, 12:55:06
Gibt es denn keinen "Schnelltest" ...? Irgendein Tool, dass den Speicher mal schnell auf 3.8 GB füllt und dabei die fps anzeigt?

Mir unverständlich, oder das Thema wird nur hier so hochgepusht.

Test weiß ich keinen

gibt aber genug Spiele bei denen das Problem schon auftritt

z.B. (auch schon bei 1080P)

http://www.pcgameshardware.de/Total-War-Attila-PC-259548/Specials/Test-Benchmarks-1151602/

Evil Ash
2015-03-01, 13:02:41
Test weiß ich keinen

gibt aber genug Spiele bei denen das Problem schon auftritt

z.B. (auch schon bei 1080P)

http://www.pcgameshardware.de/Total-War-Attila-PC-259548/Specials/Test-Benchmarks-1151602/

Würd ich mir gerne anschauen, habe das Spiel aber leider nicht.

"In der Praxis fällt die Problematik allerdings nur auf, wenn man sehr aufmerksam auf die Regelmäßigkeit der Frameausgabe achtet."
Ob das einen Richter überzeugen würde?

Ich dachte, hier geht es um sekundenlange Ruckler ...?

Schnoesel
2015-03-01, 13:14:53
Nun manche stellen eben Ansprüche an eine 350€ Grafikkarte. Wenn es dich nicht stört, dass du aufgrund eines nicht kommunizierten "Features" Ruckler in einigen Spielen hast ist das schön für dich, aber das ist deine Meinung. Hochgepusht wird hier gar nix denn die Probleme sind erwiesenermaßen da!

DarknessFalls
2015-03-01, 13:16:31
Es gibt von CB hübsche Videos z.B. mit Far Cry 4 und The Talos Principle. Da sieht man's richtig fein, jeweils so ab knapp ner Minute.

Exxtreme
2015-03-01, 13:17:38
Test weiß ich keinen

gibt aber genug Spiele bei denen das Problem schon auftritt

z.B. (auch schon bei 1080P)

http://www.pcgameshardware.de/Total-War-Attila-PC-259548/Specials/Test-Benchmarks-1151602/
In 1080p und ohne AA? Das ist echt krass. Und da muss ich meine früheren Aussagen zum Teil revidieren, dass das offenbar nur in speziell konstruierten Situationen auftritt. 1080p und kein AA ist eine gewöhnliche Situation. Was den Wert der gtx 970 dann doch sehr arg schmälert.

Thunder99
2015-03-01, 13:22:47
Gescheites LOD kostet VRAM, und gescheites möchte ich :D. Gut bei DivingLight oder so wurde durch die Verringerung auch die CPU Last reduziert aber wenn sollte das als Option angeboten werden und nicht fest vorgesetzt.

dargo
2015-03-01, 13:36:38
In 1080p und ohne AA? Das ist echt krass. Und da muss ich meine früheren Aussagen zum Teil revidieren, dass das offenbar nur in speziell konstruierten Situationen auftritt. 1080p und kein AA ist eine gewöhnliche Situation. Was den Wert der gtx 970 dann doch sehr arg schmälert.
Interessant finde ich bei diesem Test vorallem, dass sich aufgrund der sehr kurzen Abstände zwischen den Fluktuationen bei den Frametimes jenes auch in den Frameraten gut wiederspiegelt. Bei den min.fps ist die GTX980 schon mal 32% schneller (gefühlt natürlich deutlich mehr, diese Ausschläge der GTX970 sind schon richtige Bildstopper). Diese sehr kurzen Abstände müssen nicht immer im gleichen Ausmaß vorkommen was sich wiederum besser auf die Frameraten auswirkt. Womit wir wieder beim Thema Framerate wären. Ich hoffe zukünftig wird jede Redaktion auch in Frametimes messen.

Troyan
2015-03-01, 14:03:51
Im den Test steht folgendes, was mich verwirrt:

Den Abfall der Leistung gegen Ende der Messung ist dagegen schon zu bemerken, offenbar muss die GTX 970 hier auch ihren langsam angebundenen 0,5-GiByte-Part nutzen, was sich in einem starken Leistungsverlust bemerkbar macht. Dieser fällt so stark aus, dass er sich auch in unseren Benchmarks zeigt, eine zweite Messung im Anschluss an eine erste lässt gegenüber dieser die Fps um fast die Hälfte einbrechen - bereits in 1080p ohne Kantenglättung, wohlgemerkt. Im Frametime-Vergleich lässt sich das Verhalten der Karte besser einschätzen, wobei das Bild in der Praxis wohlgemerkt nicht ganz so dramatisch ausfällt. Das Problem mit einbrechenden Bildraten und Speicherruckeln zeigen übrigens alle GPUs mit nur 3 GiByte oder weniger Speicher und auch GTX 780 Ti oder R9 280X brechen nach der ersten Messung stark ein. Wir haben daher nach jeder Messung das Spiel komplett neu gestartet.

In den Benchmarks dagegen erreicht eine GTX780TI mit 3GB 37 FPS, eine GTX960 mit 2GB 33 FPS, eine 280X mit 3GB 34 FPS und eine 285 mit 2GB 31 FPS. All diese Karten haben weniger Speicher, aber gleiche oder bessere Minimumframes als die GTX970.

Der Text widerspricht den Ergebnissen in der Tabelle, da die anderen Karten erst im zweiten Lauf einbrechen. Eine GTX960 müsste doch mit 2GB selbst im ersten Lauf schon längst im unspielbaren Bereich sein...

Angiesan
2015-03-01, 14:10:09
Soweit mir bekannt gibts Probleme bei:

COH2
COD advanced warfare
Evolve
Total War Attila
Dying Lite
Skyrim mit bestimmten Mods
Shadows of Mordor

Aber die Leute trollen bestimmt alle nur ;-)
Also zumindest in 2560x1440 und alles auf Vollgas kann ich sagen gibt es keine Probleme mit Dying Light und Shadow of Mordor.
Beide Spiele laufen sehr gut mit der 970er.
Was mir aber auffällt, ist das DSR ab und zu Schluckauf verursacht, stellt man eine DSR Auflösung ein muss man immer wieder mal entweder vom Vollbild zum rahmenlosen Vollbild wechseln oder aber Alt/tab oder wenn es ganz dicke kommt, raus und neu starten. Das war zumindest damals mit der GTX 780 ti irgendwie geschmeidiger, kann aber auch an den neuen Treibern liegen. Mit dem "alten" DS habe ich das Problem definitiv nicht. Ich bin gerade DL am Testen da man es da recht gut reproduzieren kann und das sieht und fühlt sich dann wirklich schlimm an...ich meinen den Schluckauf der GTX 970, ich kann mir vorstellen, dass einige Videos die wir uns angucken dürfen genau so entstanden sind. Komischerweise ist das mit der herkömmlichen DS Methode nicht der Fall!? Zumindest konnte ich es damit noch nicht erzwingen, bin aber noch nicht ganz fertig mit den Tests.

aufkrawall
2015-03-01, 14:13:37
Dying Light hat ja auch eine "Optimierung" für die 970 per Patch erhalten. Wie auch immer diese aussieht.

Angiesan
2015-03-01, 14:18:41
Das war FC4 :freak::biggrin: zumindest habe ich von DL dazu noch nix gehört

Schnoesel
2015-03-01, 14:21:42
@Angiesan

Shadows of Mordor mit Ultra Texturen läuft bei dir auf 1440p flüssig ohne Nachladeruckler? Schwer vorstellbar.

Birdman
2015-03-01, 14:24:31
Der Text widerspricht den Ergebnissen in der Tabelle, da die anderen Karten erst im zweiten Lauf einbrechen. Eine GTX960 müsste doch mit 2GB selbst im ersten Lauf schon längst im unspielbaren Bereich sein...
Ich sehe es aktuell auch so dass viel so oft und zu schnell auf den "nur" 3.5GB der GTX970 rumgehackt wird.

Dass etwas im Argen liegt ist ganz klar, es sind aber ziemlich sicher nicht die fehlenden 0.5GB, sondern irgendein Treiberscheiss seitens nVidia welcher den Spielen eine 4GB Karte vorgaukelt und dann intern das ganze auf 3.5 + 0.5GB runterzaubert.
Damit scheinen viele neuere Spiele gar nicht zurechtzukommen, ausser die bekommen einen expliziten Patch spendiert.

Daher verlange ich als 970 Besitzer von nVidia eigentlich nur dass Sie mir "als Entschuldigung" zumindest eine Option geben, die Karte fix als 3.5GB Modell laufen zu lassen.
Ich bin überzeugt dass damit so gut wie alle Probleme aus der Welt geschafft wären.....aber evtl. ist ja auch genau diese Treiberoptimierung der Punkt, welche es nVidia erlaubt die Karte in der Performance hinter der GTX980 zu halten, und gar nicht die physische Limitierung selbst.

aufkrawall
2015-03-01, 14:25:41
Das war FC4 :freak::biggrin: zumindest habe ich von DL dazu noch nix gehört
Nein, bei Dying Light stand es offiziell im Changelog.
Bei FC4 wurde dazu nicht informiert.

Kriton
2015-03-01, 14:33:18
Ich möchte doch nur verstehen, worum es da geht und wie man das nachvollziehen kann.
Wenn ich das hier in einem speziellen Forum nicht kann, wie soll das dann ein Richter können?

"Mein Shooter fängt nach einer Stunde an, etwas zu ruckeln ..."
Dem Richter wird zweimal kurz das Augenlied zucken und er wird sich denken ... WTF?!?

Wird er nicht. Weil die Auswirkung gar nicht die juristische Fragestellung ist wenn Du in Angaben das eine stehen hast und in der Realität etwas anderes vorhanden ist. Das ist zivilrechtlich sehr einfach.

aim.star
2015-03-01, 15:08:21
Gibt es denn keinen "Schnelltest" ...? Irgendein Tool, das den Speicher mal schnell auf 3.8 GB füllt und dabei die fps anzeigt?

Ich hatte mal ein Program "geschrieben", dass sich moeglicherweise dafuer eignet. War eigentlich dazu gedacht zu zeigen, dass man den VRAM auch bei niedriger Aufloseung voll bekommt bzw. bei hoher VRAM-Auslastung auch noch hohe FPS haben kann.
Ist zwar absolut keine Code-Meisterleistung und schmiert ab sobald der VRAM dicht ist (kann nicht in den RAM swappen) aber erfuellt die von mir gestellte Fragestellung (also 95% VRAM Auslastung bei einer Aufloesung von 800x600 mit >2000 FPS).

Habe es mal hochgeladen (zusammen mit GPU-Z das auch automatisch einen Log erstellt), Herunterladen und Ausfuehren auf eigene Gefahr. Falls sich euer PC dann Skynet nennt habe ich nichts damit zu tun.
http://www39.zippyshare.com/v/Z4iN2A6C/file.html

Edit:
Es ist fuer die VRAM-Problematik der GTX 970 jedoch zu beachten das die ausgegebenen FPS Mittelwerte sind und die Symptome der unregelmaessigen Einzelframes dann nicht erkennbar ist. Ausserdem ist die Szene statisch, d.h. da wird man auch keine Mikroruckler erkennen (was ohnehin aufgrund der hohen Framerate praktisch nicht moeglich ist).

Knuddelbearli
2015-03-01, 15:23:39
Mit der 1 Mrd. Strafe ist Intel sowas von gnädig davongekommen. Die hätten mindestens 5 zahlen müssen für das was sie da abgezogen haben...

selbst 5 Milliarden wären noch weit zuwenig gewesen für den Vorteil den Intel daraus gezogen hat. Mit echter Konkurenz wäre der Gewin von Intel heute vermutlich nur ein Bruchteil. Statt 20-60% Gewinnspanne wären es Branchenübliche 5-7%. pro Quartal! wären es also ca 2 Milliarden.

Wobei Strafe ja nicht das wichtige ist sondern der Wettbewerb und da ist das Hauptproblem das es solange dauert. Antitrust Urteile müssten! eigentlich wenigen Monate bis sogar Wochen nach dem Vorfall abgeschlossen sein.

Troyan
2015-03-01, 15:53:33
@Angiesan

Shadows of Mordor mit Ultra Texturen läuft bei dir auf 1440p flüssig ohne Nachladeruckler? Schwer vorstellbar.

Nachladeruckler gibt es mit jeder Karte, die weniger als 6GB haben:
http://pclab.pl/art61614-5.html

Sogar mit FCAT gemessen.

Ich sehe es aktuell auch so dass viel so oft und zu schnell auf den "nur" 3.5GB der GTX970 rumgehackt wird.

Dass etwas im Argen liegt ist ganz klar, es sind aber ziemlich sicher nicht die fehlenden 0.5GB, sondern irgendein Treiberscheiss seitens nVidia welcher den Spielen eine 4GB Karte vorgaukelt und dann intern das ganze auf 3.5 + 0.5GB runterzaubert.
Damit scheinen viele neuere Spiele gar nicht zurechtzukommen, ausser die bekommen einen expliziten Patch spendiert.

Daher verlange ich als 970 Besitzer von nVidia eigentlich nur dass Sie mir "als Entschuldigung" zumindest eine Option geben, die Karte fix als 3.5GB Modell laufen zu lassen.
Ich bin überzeugt dass damit so gut wie alle Probleme aus der Welt geschafft wären.....aber evtl. ist ja auch genau diese Treiberoptimierung der Punkt, welche es nVidia erlaubt die Karte in der Performance hinter der GTX980 zu halten, und gar nicht die physische Limitierung selbst.

Lässt der Treiber perse am Anfang nicht nur das erste Segment zu? Im Geforce.com Forum hat jemand ein 10 minutiges Videos aus Modor mit Ultra-Texturen gepostet. Dort geht es erst auf 3,5GB und dann darüber:
https://www.youtube.com/watch?v=q5DLH5HEZNE

Alter Sack
2015-03-01, 18:06:42
Muss mich jetzt doch mal zu Wort melden.
Habe den Attila Frametime-Screenshot gesehen und muss sagen, dass ich mittelmäßig geschockt bin. Die GTX970 kostet derzeit mind. 360€ und dafür bekommt man ein Produkt, welches wohl echte Probleme haben wird, wirklich halbwegs zukunftsfähig zu sein.

Ich habe mich auf der NVidia-Seite schlau gemacht. Dort steht:
GTX980 - 4 GB 256bit
GTX970 - 4 GB 256bit

Korrekt wäre jedoch:
GTX970 - 3,5 GB 224bit & 0,5 GB 32bit
Würde das dort so stehen, käme wohl niemand auf die Idee, sich sowas für 360€ zu kaufen, oder?!
Anfangs war mir das nicht so bewusst, aber wenn man sich das genau betrachtet, kann das nur zur Konsequenz haben, dass man bei NVidia-Produkten zukünftig sehr vorsichtig sein muss.

Wäre die Thematik nicht vorhanden, hätte ich sicherlich seit ca. 2 Wochen eine GTX970 (trotz des wie ich finde hohen Preises) im PC stecken, da Dying Light und COD-AW mit meiner GTX660-2GB einfach VRAM-technisch "verhungern".
Ich hätte also vor allem wg. 4 GB VRAM aufgerüstet (und nur 3,5 GB bekommen).

Für mich steht dieses Jahr evtl. doch noch ein Upgrade auf mind. 4 GB VRAM an und da würde es derzeit wie folgt aussehen:
GTX980 für 600€ 4 GB - 256 bit
R290X für 400€ 8GB - 512bit
GTX970 für 360€ 3,5 GB - 224bit
R290X für 350€ 4GB - 512bit
R290 für 300€ 4GB - 512bit

Da es keine GTX970 werden kann und mir 600€ für die GTX980 einfach zu teuer sind (bin kein AA/AF oder Ultra-SuperDuper-Details Freak), wäre eine R290 für "nur" 300€ eigentlich die derzeit sinnvollste Investion (wenn man so wie ich von einer GTX660 aus upgraden würde).

Final kann ich nur sagen: DANKE NVIDIA !!!
Durch dieses Verarschung und vor allem auch Presse-Mitteilung (ja wir Käufer dürfen froh sein, dass ihr diese Wunderkarten überhaupt verkauft und nicht gleich für euch selbst behaltet) habe ich mich vom bequemen Sofa erhoben und auch mal über den Tellerrand geschaut.
Das was ich da auf AMD-Seite gesehen habe, macht doch einen brauchbaren Eindruck und da investiere ich lieber nochmal 20-30€ in neue Gehäuselüfter und bekommen für deutlich unter 400€ auch eine VRAM-Anbindung, die angenehmes Spielen ermöglicht!

Aktuell würde ich ehern zur R290x greifen, etwas an der Gehäuselüftung optimieren und mir den Aufpreis von 250€ zur GTX980 sparen, bzw. als Anzahl/Kauf für die nächste (non-Nvidia)-Graka zur Seite legen.
Ich könnte auch die R290x mit 8 GB VRAM (echt und komplett in 512bit angebunden) kaufen. Die liegt bei 400€ und ist damit immer noch 200€ günstiger, als die GTX980 (4GB).

Mit einer R290X 8GB wäre dann vielleicht sogar 4K-Gaming überlegenswert.
8 GB VRAM.... da wird NVidia wohl erst in ein paar Jahren sein ;) .

Grüße,
Ein ehemaliger NVidia-Fannboy

Dawn on Titan
2015-03-01, 18:12:47
Bei Attila dürfte der Treiber den Zugriff auf die lahmen 0,5GB noch nicht richtig kontrollieren.

Alter Sack
2015-03-01, 18:18:12
Bei Attila dürfte der Treiber den Zugriff auf die lahmen 0,5GB noch nicht richtig kontrollieren.

Na das ist doch bestens, denn dadurch sieht man, wie scheiße diese Mischung 3,5 + 0,5 GB (32bit) ist.

aufkrawall
2015-03-01, 18:24:21
Die neue Tri-X von Sapphire ist auch alles andere als problematisch von der Kühlung her.
Der Hawaii-"Hitzkopf" wird nur 74°C warm, mit Raum nach oben für seichtere Lüfterkurve. Im Idle auch mit 900rpm recht leise und TDP ist 250W (kann man evtl noch auf -10% per manuellem PowerTune-Limit einstellen).

Troyan
2015-03-01, 18:25:23
Bei Attila dürfte der Treiber den Zugriff auf die lahmen 0,5GB noch nicht richtig kontrollieren.

Der Treiber kontrolliert es perse als Standardeinstellung:

Eine Sonderrolle nimmt indes die GTX 970 mit ihrem zweigleisig angebundenen Speicher ein. In unserem Benchmark belegt Total War: Attila um die 3,5 GiByte, also genau jene Grenze, bei der es für die 970 unter Umständen kritisch werden könnte.


Und hier im Video: https://www.youtube.com/watch?v=o_rhJl6yDiY

3,5GB ist der erste Pool. Ansonsten würde hier >3,5GB stehen.

Exxtreme
2015-03-01, 19:13:49
Bei Attila dürfte der Treiber den Zugriff auf die lahmen 0,5GB noch nicht richtig kontrollieren.
Wenn man für jedes halbwegs fordernde Spiel eine extra Treiberanpassung braucht dann hat man den gleichen Mist wie bei Sli/Cf auch, dass man permanent aktualisieren muss. Und sobald ein Spiel etwas unbekannter ist ...

Nein, die Lösung ist echt dämlich.

Dawn on Titan
2015-03-01, 19:20:55
Damit ist zu rechnen, weswegen imho die Halbwertzeit der 970 kurz sein wird. Spätestens mit dem nächsten Refesh wird man sich den Aufwand weniger intensiv antun.

aufkrawall
2015-03-01, 19:23:43
Ich bezweifle, dass der Treiber jemals ohne große Nachteile so dermaßen im Speichermanagement, quasi gegen die Anwendung, rumpfuschen kann.

Sind wir dann jetzt vielleicht mal fertig? :redface:
Ja, das Problem ist schlimm. Kann man nichts machen, außer Karte loswerden oder versuchen zu klagen.

Und es sollte selbstverständlich nie die 970 empfohlen werden (Wink mit dem Zaunpfahl@Leonidas!).

MartinRiggs
2015-03-01, 19:37:09
Oder gar in nem offiziellen PCGH-Produkt verbaut:rolleyes:
http://extreme.pcgameshardware.de/pcgh-e-commerce-produkte/356938-pcgh-enthusiast-pc-gtx970-edition-asus-strix-gtx970-dc2oc-i7-4790k-anzeige-3.html#post7216644

Schnoesel
2015-03-01, 19:47:08
Na das kann man PCGH ja jetzt nicht zum Vorwurf machen. Bei Release gab es bei weitem nicht so viele Games die jetzt Probleme verursachen können und die Reviewseiten wurde auch angeschmiert umso erstaunlicher, dass man so wenig Kritik von Seiten der Reviewer hört. Wenigstens ein "Redaktion intern: Das meinen PCGH-Redakteure" hätte iczh erwartet aber noch nicht mal das. Leider drängt sich dann eben das berühmte "Wes Brot ich ess des Lied ich sing" auf. Sehr schade.

MartinRiggs
2015-03-01, 19:52:11
Klar war das damals nicht bekannt, aber jetzt sollte PCGH doch reagieren, grade bei einem "Enthusiast-PC":freak:
Wenn ich mir die Palette von PCs angucke mit GTX970 dann könnte ich nur noch lachen, der Enthusiast-PC kostet über 1600€ und hat ne GTX970 drin
:crazy::hammer:

Botcruscher
2015-03-01, 19:59:23
Dafür wird eine AMD Alternative nicht mal angeboten.

Evil Ash
2015-03-01, 20:00:26
Was ist denn mit den Videos da oben? Seh da nichts auffälliges ...?

aufkrawall
2015-03-01, 20:02:19
Dafür wird eine AMD Alternative nicht mal angeboten.
Der arme Phil muss sich echt für seine Kollegen schämen.

Kartenlehrling
2015-03-01, 20:11:01
Wer es mal live in Dying Light, COD-AW, Schatten von Mordor oder dergleichen gesehen hat der wird es wohl kaum als Luxus-Problem abstempeln,
dort passiert es schon bei ganz normalen Einstellungen nach einer gewissen Spielzeit.

Aber das ist ja das problem und das kann man auch den ganzen Testseiten nicht ankreiden,
man kann doch nicht von ihnen verlangen das die 30-60min normals Spielgeschehen ablaufen lassen und erst dann anfangen zu testen.
Es ist ja schon toll das die meisten Seiten die Grafikkarten "vorglühen" weil das hatten die Hersteller auch damal ausgenutzt um die Test durch ihre Boost-temperaturen besser dastehen zu lassen.

Wenn erst mit zunehmen Spielgeschehen der gDRAM volläuft,
kann man das zwar nachstellen aber erst muss ein Verdacht da sein.

Botcruscher
2015-03-01, 20:17:11
Die Tester sollten aber konsequent sein und die 970 groß als Nicht Empfehlenswert betiteln.

Wer sich da hinstellt und behauptet 99% sind eh zu doof was zu merken macht sich zum Handlanger.

MartinRiggs
2015-03-01, 20:20:49
Wenn erst mit zunehmen Spielgeschehen der gDRAM volläuft,
kann man das zwar nachstellen aber erst muss ein Verdacht da sein.

Der Beweis ist doch jetzt schon lange erbracht und es redet keiner davon das es damals halt nicht aufgefallen ist.
Es ist schon krass das eine seriöse Zeitung "ihre" PCs bewirbt wo reihenweise eine beschissene Grafikkarte verbaut ist zu Preisen die nicht grade günstig sind.

N0Thing
2015-03-01, 20:21:54
Hallo, kann mir jemand Uploaden diesen Tool zum testen der GPU, die exe Datei und die 2 dll Datei? kann sie nicht finden, und ich will testen die gtx970m mit 3gb,
Danke in voraus.

The author of the program (Nai's Benchmark) has removed the download links to his tool. Maybe you'll find a copy at the guru3d.com forum.

You can find the necessary cuda.dlls here:
https://mega.co.nz/#!Eh0GzT4D!Kjhqzljt-i-MtHV82ktDQ8RY002JT7VIhVNpUaVpN6U
https://mega.co.nz/#!5g8DzA7T!FZzZf9n5pXLRp4jMvm7GAhNJ7FDF4Sj0-CpBADtFr5o

If you need files from visual studio, you can find them here:
http://www.file-upload.net/download-10162766/dll.zip.html

Tomislav
2015-03-01, 20:41:08
Hallo

Es ist schon krass das eine seriöse Zeitung "ihre" PCs bewirbt wo reihenweise eine beschissene Grafikkarte verbaut ist zu Preisen die nicht grade günstig sind.
Diese seriöse Zeitung ist aber kein Wohlfahrtsverein sondern ein wirtschaftlich denkendes Unternehmen und mit dem alleinigen Verkauf von Zeitschriften kommst du heutzutage nicht mehr weit.
Zitat von Incredible Alk: http://extreme.pcgameshardware.de/pcgh-e-commerce-produkte/356938-pcgh-enthusiast-pc-gtx970-edition-asus-strix-gtx970-dc2oc-i7-4790k-anzeige-3.html#post7216644
"Weiterhin hat die Erfahrung gezeigt, dass unsere PCs mit AMD-Grafikkarten einen sehr sehr viel kleineren Absatz hatten als die mit NV-Karten - die unabgespeckte GTX980 ist aber schlicht zu teuer und vom P/L her aber recht mies, da bleibt nur die 970 übrig."

Grüße Tomi

-/\-CruNcher-/\-
2015-03-01, 20:44:32
Klar war das damals nicht bekannt, aber jetzt sollte PCGH doch reagieren, grade bei einem "Enthusiast-PC":freak:
Wenn ich mir die Palette von PCs angucke mit GTX970 dann könnte ich nur noch lachen, der Enthusiast-PC kostet über 1600€ und hat ne GTX970 drin
:crazy::hammer:

Die PCGH (Computec Media GMBH) ist ein wirtschaftlich agierendes Unternehmen hast du vielleicht vergessen ;)

man461
2015-03-02, 06:51:14
Nai`s Benchmark gibts hier:

http://www.computerbase.de/forum/showthread.php?t=1440618

Die 4 Dateien downloaden
1. Seite durchlesen
Dann direkt starten.

MfG
man461

Egoim
2015-03-03, 12:32:52
Der arme Phil muss sich echt für seine Kollegen schämen.

lustig ist dann die Aussage: "Incredible Alk hat das schon richtig gesagt. Nur wegen dem PR-Debakel ist die GTX 970 noch lange keine schlechte Karte. Es gibt einfach keine Preis-Leistungs-Alternative die man nehmen könnte. Von daher werden wir den PC auch weiterhin so anbieten, da die Benchmarks sind ja nicht ändern."

(http://extreme.pcgameshardware.de/pcgh-e-commerce-produkte/356938-pcgh-enthusiast-pc-gtx970-edition-asus-strix-gtx970-dc2oc-i7-4790k-anzeige-post7220480.html#post7220480)

Also tut mir leid... sowas von jemandem der in einem Technikmagazin arbeitet ist doch echt einfach die Härte oder? ;D

gruß Egoim

MadManniMan
2015-03-03, 12:41:16
Ich bin selbst viel zu skeptisch, mir SELBST eine 970 zu kaufen, aber welche konkreten praktischen Probleme sind denn aktuell quantifizierbar?

Thunder99
2015-03-03, 13:00:48
Dying Light (vor dem 1.2.1 Patch), Evolve, Skyrim mit Textur Mods, Attilar War (das neue Road to Rome), weiter werden sicher folgen

TobiWahnKenobi
2015-03-03, 13:12:22
Dying Light (vor dem 1.2.1 Patch), Evolve, Skyrim mit Textur Mods, Attilar War (das neue Road to Rome), weiter werden sicher folgen

also eigentlich nicht der rede wert, was?! eher mystisch angehaucht.. das spiel A ohne updates.. spiel B mit besonderen inoffiziellen texturen und natürlich die ganzen version 1.0 spiele, die irgendwann noch erscheinen..

und, ist da was dran? hab gehört zukünftig werden spiele keine updates und patches mehr bekommen, damit gurkenkarten schlecht performen.. besonders die des herstellers mit 70% marktanteil. *gg*


(..)

mfg
tobi

MartinRiggs
2015-03-03, 13:16:00
lustig ist dann die Aussage: "Incredible Alk hat das schon richtig gesagt. Nur wegen dem PR-Debakel ist die GTX 970 noch lange keine schlechte Karte. Es gibt einfach keine Preis-Leistungs-Alternative die man nehmen könnte. Von daher werden wir den PC auch weiterhin so anbieten, da die Benchmarks sind ja nicht ändern."

(http://extreme.pcgameshardware.de/pcgh-e-commerce-produkte/356938-pcgh-enthusiast-pc-gtx970-edition-asus-strix-gtx970-dc2oc-i7-4790k-anzeige-post7220480.html#post7220480)

Also tut mir leid... sowas von jemandem der in einem Technikmagazin arbeitet ist doch echt einfach die Härte oder? ;D

gruß Egoim

tja, ich glaub ich kündige mein Abo, so eine Scheisse will ich einfach nicht unterstützen.
Die PCGH-PCs kosten richtig Geld und PCGH fühlt sich scheinbar NV verpflichtet und nicht dem "dummen" Kunden.

Thunder99
2015-03-03, 13:36:26
also eigentlich nicht der rede wert, was?! eher mystisch angehaucht.. das spiel A ohne updates.. spiel B mit besonderen inoffiziellen texturen und natürlich die ganzen version 1.0 spiele, die irgendwann noch erscheinen..

und, ist da was dran? hab gehört zukünftig werden spiele keine updates und patches mehr bekommen, damit gurkenkarten schlecht performen.. besonders die des herstellers mit 70% marktanteil. *gg*


(..)

mfg
tobi
So war das nicht gemeint, aber wenn im Beispiel FarCry4 aufgrund der Problematik der GTX970 alle anderen Grafikkarten darunter leiden wenn ich das sehr bedenklich. Dagegen sind Performance Updates gerne gesehen wenn die Optik nicht darunter leidet :)