PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Diskussion zur GTX970-Problematik: Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24]

Blase
2016-07-15, 09:16:38
Anstatt dass sich die HW-Tester und Foristen auf den Fehler stürzen und Szenarien hervorheben in denen es Probleme gibt, haben FAST alle Szenarien gewählt in denen kaum ein Nachteil entsteht.

Ich oute mich gleich mal vorab als 970 Besitzer der ersten Stunde. Ich hätte auch lieber ne vollwertige 4GB Karte und warte in Zukunft auch ab, bevor ich mir noch mal was von NV "blind" kaufe (oder kaufe generell AMD, wenn die was konkurrenzfähiges auf die Beine stellen), aber...

... Ist es nicht so, dass nicht "bewusst" Szenarien beim Testen gewählt worden sind, die die Probleme nicht zeigen, sondern vielmehr, dass bei so ziemlich ALLEN gängigen Szenarien dieses Problem schlicht nicht auftritt!? Es ist doch vielmehr umgekehrt sogar so, dass man sehr genau hier überwiegend sehr spezielle Szenarien schaffen muss, damit das Problem offensichtlich wird. Oder etwa nicht?! Klar, sehr sehr vereinzelt mag es hier Ausnahmen und Ausreißer geben, aber die allgemeinen Tests, die du hier bemängelst, spiegeln schlicht die Szenarien wieder, wie sie auch zu 9x+ Prozent der User "da draußen" betreffen wird. Und das "erklärt" dann auch die sehr geringe Retourquote der Karte. Weil nach wie vor sehr explizit nach Szenarien gesucht werden muss, wo das Problem überhaupt bemerkbar auftritt. In allen anderen Szenarien freut sich jeder 970 Benutzer - so auch ich - über massig Leistung für kleines Geld (meine hat vor knapp 2 Jahren 299 Euro inkl. Versand gekostet)...

Also ja, das Ding ist designtechnisch ne Krücke und man sollte zukünftig bei nVidia genauer hinschauen, bevor man dort Karten kauft...

... aber gleichzeitig ist sie TROTZDEM für das kleine Geld seinerzeit ein absolut unschlagbares Angebot gewesen.

Ich würde fast soweit gehen und behaupten, dass die Karte sich ähnlich gut verkauft hätte - in der breiten Masse - wenn nVidia diese Karte als 3.5 GB Karte verkauft hätte. Warum? Ganz einfach weil die Praxis - die du hier ansprichst - ja zeigt, dass sie trotzdem sauschnell für das geforderte Geld ist/war. Und das ist es letztlich, was "da draußen" zählt. Ein paar mehr "Enthusiasten" wären vielleicht abgeschreckt - aber ganz bestimmt nicht die "breite Masse"...

MfG Blase

aths
2016-07-15, 09:22:28
Wir reden hier nicht ganz über die gleiche Sache. Nicht so ganz koscher war natürlich, dass der Vergleich mit der 980 beabsichtigt war. Die 970 ist dann etwas langsamer, aber bei den damaligen Tests war nicht abzusehen dass die 970 schneller veraltet als der Performance-Unterschied damals anzeigte.

Das wäre auf Aufgabe der Fachpresse gewesen, die hier allerdings auf korrekte Information vom Hersteller angewiesen ist. Presse und Kunden wurden falsch informiert, die falschen Specs sind bis heute online.

Ich kann Nvidia nicht vorschreiben, wie sie ihre Produkte entwickeln, aber ich kann darauf pochen, dass die offiziellen Angaben korrekt sind. Das sind sie aber nicht.

Arcanoxer
2016-07-15, 09:25:14
Ich kann Nvidia nicht vorschreiben, wie sie ihre Produkte entwickeln, aber ich kann darauf pochen, dass die offiziellen Angaben korrekt sind. Das sind sie aber nicht.Da nehmen sich nVidia und AMD beide nicht viel.
Die 150W der RX480 sind auch glatt gelogen.

http://www.amd.com/de-de/products/graphics/radeon-rx-series/radeon-rx-480

Ätznatron
2016-07-15, 09:57:19
Da nehmen sich nVidia und AMD beide nicht viel.
Die 150W der RX480 sind auch glatt gelogen.

http://www.amd.com/de-de/products/graphics/radeon-rx-series/radeon-rx-480


Was wird den gearschten Käufer mehr ärgern:

Eine wegen Speichermangels zunehmend zu teurem Elektronikschrott werdende GTX 970 oder eine um ein paar Watt höhere Leistungsaufnahme als angegeben?

BlacKi
2016-07-15, 09:59:52
Speicherkrüppel + Design-Problem? Teilweise ist die RX480 deutlich schneller.
https://www.youtube.com/watch?v=AOACge8JhNo

Scheint am Speicher zu liegen wenn ich mir die Auslastung anschaue.
zieh doch erstmal vergleiche zur 980 bevor du alles auf die 0,5gb schiebst.

selbst ohne übertaktung ist die 480 12% schneller als eine 980.
http://ht4u.net/reviews/2016/amd_radeon_rx_480_review/index26.php

Arcanoxer
2016-07-15, 10:51:17
Was wird den gearschten Käufer mehr ärgern:

Eine wegen Speichermangels zunehmend zu teurem Elektronikschrott werdende GTX 970 oder eine um ein paar Watt höhere Leistungsaufnahme als angegeben?
Wenn die RX480 abfackelt hast du dein Elektronikschrott, dass hat mit der GTX970 nichts zu tun.

Ätznatron
2016-07-15, 11:31:27
Wenn die RX480 abfackelt hast du dein Elektronikschrott, dass hat mit der GTX970 nichts zu tun.

Wenn das Wörtchen wenn nicht wär...

Es existiert auch eine gewisse Wahrscheinlichkeit, von einem herabfallenden Dachziegel erschlagen zu werden...oder vom Blitz. Kann passieren, muss aber nicht.

Den Mängelspeicher der GTX 970 habe ich dagegen sofort ab Kauf.

BlacKi
2016-07-15, 11:45:15
Den Mängelspeicher der GTX 970 habe ich dagegen sofort ab Kauf.

naja, bisher leistet sie gute dienste, das hätten die meisten so nicht erwartet. das wird wohl mindestens noch ein jahr dauern bis da ein problem entsteht. solange werde ich die karte aber nicht behalten(zumindest im hauptsystem).

Blase
2016-07-15, 11:51:43
Den Mängelspeicher der GTX 970 habe ich dagegen sofort ab Kauf.

Auch in dieser Aussage steckt ein "wenn". Wenn nämlich ein Szenario genutzt wird, wo der "Mängelspeicher" an seine Grenzen kommt.

Scheint mir bisher nach wie vor kein wirkliches Szenario aus der allgemeinen Praxis zu sein. Ja, klar. Du wirst sicherlich (sehr vereinzelte) Beispiele nennen können, wo man das reproduzieren kann. Dem gegenüber steht aber ganz sicher eine sehr breite Basis an 970 Besitzern, die mit eben dieser Karte auch heute noch überhaupt kein Problem haben. Wo die 970 nach wie vor den selben (geringen) Abstand zur 980 hat, wie sie es auch Anno 2014 hatte. Von wegen "schneller altert" und so...

Warum wird überhaupt noch so breit und in dieser Intensität ("Elektroschrott" - ist klar...) darüber gesprochen. Es dürften sich doch eigentlich wirklich "alle" einig sein.

nVidia hat diese Information bewusst zurück gehalten und damit zurecht den Unmut der Käuferschaft auf sich gezogen. Sie sind halt - zu deren Glück - mit weniger als einem blauen Auge davon gekommen, obwohl sie dafür "härter" abgestraft gehört hätten. Aber viele werden sich das merken und bei zukünftigen Käufen berücksichten...

Aber dennoch war und ist die 970 TROTZDEM eine sehr flotte Karte - für 300 Euro Anno 2014 sogar ziemlich konkurrenzlos. Es hat ja einen Grund, weswegen die Karte wie geschnitten Brot weg ging. Und wie schon geschrieben, das wäre auch der Fall gewesen, wenn das vorab bekannt geworden wäre. Sie ist / war schnell - unabhängig vom Speicherdesign...

Mr.Magic
2016-07-15, 11:56:34
Aber dennoch war und ist die 970 TROTZDEM eine sehr flotte Karte - für 300 Euro Anno 2014 sogar ziemlich konkurrenzlos.

So stimmt es. Jetzt ist sie nur noch eine Midrange-Karte.

Ätznatron
2016-07-15, 11:57:41
Es hat ja einen Grund, weswegen die Karte wie geschnitten Brot weg ging. Und wie schon geschrieben, das wäre auch der Fall gewesen, wenn das vorab bekannt geworden wäre. Sie ist / war schnell - unabhängig vom Speicherdesign...

Nein, denke ich nicht. Die Karte hätte sich bei Weitem schlechter verkauft, wenn die tatsächliche Problematik und ihre Konsequenz von vornherein bekannt gewesen wäre.

UnderTheRock
2016-07-15, 12:05:06
Nein, denke ich nicht. Die Karte hätte sich bei Weitem schlechter verkauft, wenn die tatsächliche Problematik und ihre Konsequenz von vornherein bekannt gewesen wäre.
Nein, die Karte war ja exakt so schnell wie vorher. Und besser die 3,5GB als nur 3GB.

Wäre AMD ehrlich gewesen, hätte man die RX480 auf <=150W eingebremst. Hätte damit aber auch 5-10% an Leistung verloren und hätte damit eingestehen müssen, dass man die Reviewer ziemlich verschaukelt hat.

Blase
2016-07-15, 12:34:25
So stimmt es. Jetzt ist sie nur noch eine Midrange-Karte.

Einverstanden :wink:

Die Karte hätte sich bei Weitem schlechter verkauft, wenn die tatsächliche Problematik und ihre Konsequenz von vornherein bekannt gewesen wäre

Schwierig sich über diesen theoretischen Ansatz zu "streiten". Die "Konsequenzen" sind ja auch heute, zwei Jahre später, nicht wirklich zu Tage getreten. Klar, wird noch kommen (denken wir zumindest), aber wann...

Naja - ich für meinen Teil schiele ohnehin bereits nach etwas neuem. Und aus meiner Perspektive war die 970 auf jeden Fall kein Fehlkauf. Hätte ich eine 980 Stand heute, hätte ich in den Situationen, in denen mir die 970 nicht mehr reicht (zB Witcher 3 @1440p) auch mit der 980 Probleme. Ich hätte also mindestens 150+ Euro mehr investiert und würde heute trotzdem nach etwas neuem Ausschau halten...

StefanV
2016-07-15, 12:41:13
Und besser die 3,5GB als nur 3GB.
Nein, besser 3GiB als den Mist, den nVidia mit der 970 gemacht hat...

Denn dann würde sich die Karte auch wie eine normale verhalten, und nVidia hätte auch keine Hebel, um die Karte völlig unbrauchbar zu machen, wie es bei der 970 der Fall ist.

Blase
2016-07-15, 13:16:00
Ich weiß, ist nämlich sein ewiges Mantra, dass NVIDIA alte Karten gezielt ausbremst. Dabei wurde das schon drölftausendmal widerlegt.

Hmm, ok. Das hätte ich dann wiederum nicht mitbekommen.

Würde ich aber auch nicht annehmen wollen. Das wäre aus Sicht nVidias sogar ziemlich dämlich. Denn dann würde alte nVidia Karten im Vergleich zu alten AMD Karten ja - über die Dauer gesehen - immer stärker abbauen. Und das wiederum würde ja noch stärker auffallen, als das ohnehin schon der Fall ist (AMD neigt ja dazu, das Speicherinterface idR breiter zu gestalten oder die Karten mit mehr RAM auszustatten - im Vergleich zu NV - was die Langlebigkeit positiv beeinflusst). Ergo würden sicherlich über die Zeit mehr und mehr potenzielle Käufer im AMD Lager kaufen, weil einfach augenscheinlich "zukunftssicherer". Das kann nicht im Sinne von nVidia sein und entsprechend werden die nen Teufel tun und deren alte Karten künstlich ausbremsen.

Denn auch in aktuellen Benchmarks aktueller Karten tauchen die alten Vertreter ja auf. Und hier würde es (mehrfach negativ) auffallen, wenn auf einmal eine vermeintlich schwächere AMD Karte die nVidia Karte der selben Generation überholt...

Schnoesel
2016-07-15, 13:32:55
Genau das ist aber der Fall und nicht zu übersehen:

https://www.computerbase.de/2016-06/radeon-rx-480-test/5/#diagramm-far-cry-primal-1920-1080

Kannst gerne selbst nachsehen wie sich eine GTX 770 gegenüber der damals gleichschnellen R280X verhält oder wie sich eine GTX 780ti gegenüber einer damals wesentlich langsameren R9290 (R9 290X als eigentliche Konkurrenz leider nicht aufgeführt). Du wirst Augen machen.

Über alle gestesten Spiele hinweg ist die GTX 770 mittlerweile 12% hinter einer R9 280X und eine vormals schnellere GTX 780ti liegt mittlerweile sogar 5% hinter einer R9290, die damals wesentlich günstiger war. In einigen Spielen wird die GTX770 sogar regelrecht deklassiert von einer damals gleich schnellen R9 280X.

Imo gibt es da nix zu dikutieren, dass die Nividia Karten über die Zeit gegenüber den damaligen Konkurrenzkarten verliert. Ob das nun daran liegt dass Nvidia für diese nicht mehr optimiert oder größere Architekturveränderungen beinhaltet darüber kann man sich streiten.

Nur zum Vergleich. Damals bei Release lag eine GTX 780ti in 1080p noch satte 20% vor einer R9 290:
https://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/4/
und eine GTX 770 lag bei Release exakt gleich auf mit einer R9 280X:
https://www.computerbase.de/2013-10/amd-radeon-r7-260x-r9-270x-und-280x-test/6/#abschnitt_leistungsratings_spiele

Sicher sind das andere Spiele und die Menge an VRAM spielt hier auch rein aber es ist imo unzweifelhaft dass die AMDs hier besser altern.

Blase
2016-07-15, 14:01:51
Sicher sind das andere Spiele und die Menge an VRAM spielt hier auch rein aber es ist imo unzweifelhaft dass die AMDs hier besser altern.

Dieser Punkt ist mehr oder minder unstrittig - oder?!

Wie ich aber schon erwähnt habe, könnte das auch direkt mit der verbauten Hardware zusammen hängen - hier ist AMD auf dem Papier (und damit vielleicht langfristig auch in der Praxis??!?) besser aufgestellt:

Speicherinterface:

780 Ti: 3 GB @384 Bit
R9 290: 4 GB @ 512 Bit

GTX 770 2 GB @256 Bit
R9 280 3 GB @384 Bit

Hier ist AMD in jeder Disziplin in der Hardware besser aufgestellt. Gut möglich, dass das dann in zukünftigen (speicherintensiven) Titeln deutlicher ins Gewicht fällt, als das beim Erscheinungstermin der Fall war.

Und ob und wie hier die Treiberarbeit noch 100 prozentig für die älteren Karten im Zusammenhang mit aktuellen Spielen voran gebracht wird, weiß man auch nicht.

Es wird wohl ein "Mix" aus beiden Punkten sein.

Aber ich würde hier nVidia "schlimmstenfalls" Faulheit (=> Kostenersparnis) unterstellen wollen, was die Treiberpflege älterer Karten angeht, als ernsthaft zu behaupten, sie würden bewusst die älteren Karten ausbremsen.

Letzteres wäre zumindest für mein Dafürhalten ziemlich dämlich. Man sieht zwar mit der aktuellen nVidia Karte (noch) sehr viel besser aus gegenüber des älteren nVidia Modells - aber gleichzeitig steht die ältere nVidia Hardware auf einmal ziemlich schlecht gegenüber der vergleichbaren AMD Hardware da. Das würde potenzielle "Langzeitkäufer" ganz sicher ins AMD Lager treiben - und das kann nVidia unmöglich wollen...

Schnoesel
2016-07-15, 14:06:39
An was es letzendlich liegt wird man nie klären können, dennoch hinterlassen Aktionen wie der neue Treiber um Kepler bei Witcher 3 nach den Protesten zu pushen einen faden Beigeschmack:

https://www.computerbase.de/2015-06/geforce-353.06-leistung-kepler-witcher-3/

Nividia könnte sicher mehr tun für die älteren Karten aber warum sollten sie? 1. Ist es unwirtschaftlich. Die Karten sind bereits verkauft. 2. Scheint es die Leute oftmals nicht zu stören. 3. Der Erfolg gibt Ihnen recht.

Pirx
2016-07-15, 14:45:23
Die Leute wird es schon stören, die Protagonsten/Meinungsmacher in den Foren, die anscheinend zu viel Geld haben, angeblich nicht. Schlimmer ist, daß es die Presse nicht juckt.

N0Thing
2016-07-15, 14:51:36
Genau das ist aber der Fall und nicht zu übersehen:

https://www.computerbase.de/2016-06/radeon-rx-480-test/5/#diagramm-far-cry-primal-1920-1080

Kannst gerne selbst nachsehen wie sich eine GTX 770 gegenüber der damals gleichschnellen R280X verhält oder wie sich eine GTX 780ti gegenüber einer damals wesentlich langsameren R9290 (R9 290X als eigentliche Konkurrenz leider nicht aufgeführt). Du wirst Augen machen.

Über alle gestesten Spiele hinweg ist die GTX 770 mittlerweile 12% hinter einer R9 280X und eine vormals schnellere GTX 780ti liegt mittlerweile sogar 5% hinter einer R9290, die damals wesentlich günstiger war. In einigen Spielen wird die GTX770 sogar regelrecht deklassiert von einer damals gleich schnellen R9 280X.

Imo gibt es da nix zu dikutieren, dass die Nividia Karten über die Zeit gegenüber den damaligen Konkurrenzkarten verliert. Ob das nun daran liegt dass Nvidia für diese nicht mehr optimiert oder größere Architekturveränderungen beinhaltet darüber kann man sich streiten.

Nur zum Vergleich. Damals bei Release lag eine GTX 780ti in 1080p noch satte 20% vor einer R9 290:
https://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/4/
und eine GTX 770 lag bei Release exakt gleich auf mit einer R9 280X:
https://www.computerbase.de/2013-10/amd-radeon-r7-260x-r9-270x-und-280x-test/6/#abschnitt_leistungsratings_spiele

Sicher sind das andere Spiele und die Menge an VRAM spielt hier auch rein aber es ist imo unzweifelhaft dass die AMDs hier besser altern.

Wenn ich das CB-Ranking aus der Kaufempfehlung mit heran ziehe, sind die Unterschiede zu damals eher recht klein: https://www.computerbase.de/thema/grafikkarte/rangliste/

Die GTX 770 lag damals 1-2% vor der R9 280X, inzwischen liegt sie 3% dahinter. Das ist nicht die Welt und macht in keinen Unterschied zwischen spielbar und nicht spielbar aus.
Ähnlich sieht es bei R9 290 und GTX 780 aus. Damals im Ranking gleichauf, inzwischen ist die R9 290 4% vorne.

Die AMD Karten stehen heute im Vergleich besser dar als damals. Die Ursachen dafür könnten die Speicherbandbreite, die shaderlastigeren Spiele und Arbeit an den Treibern sein. Bis auf Ausnahmen muss sich aber niemand besonders freuen oder ärgern, weil er damals zu einem Modell von AMD oder Nvidia gegriffen hat. Dafür sind die Unterschiede zum Release einfach zu gering.

Das Problem an der GTX 970 sehe ich auch weniger in möglichen Problemen bei der Performance, sondern am Verhalten von Nvidia. Im Prinzip haben sie mit ihrem Statement, die Karte sei so wie sie ist gewollt und awesome den enttäuschten Kunden, die eine 4GB-Karte mit 224GB/s Speicherbandbreite haben wollten anstatt den 3,5GB@196GB/s + 512MB @ 28GB/s, den Mittelfinger gezeigt.

Der Einwurf, AMD mache mit der Angabe von 150W bei der RX 480 ebenfalls fehlerhafte Angaben, ist berechtigt, mir fehlt da nur von den gleichen Leuten die wiederholte Erwähnung der fehlerhaften DX12 Angabe zu den Fermi-Karten.

Schnoesel
2016-07-15, 14:59:03
In Anbetracht der Tatsache das man z.B. mit der R9 290 nicht auf normaler Qualität spielen muss bei 1080p (daher der geringere Unterschied im Ranking) die Nvidia Pendants zu der Zeit teurer waren und wir hier noch gar nicht von Auflösungen jenseits von 1080p reden komme ich zu einer ganz anderen Einschätzung.

Auf PCGH sieht es ähnlich aus:

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/

Im Verhältnis verlieren die Nvidia gegenüber den AMD Pendants die auch noch günstiger waren (R9290X 2% vor einer GTX 780ti, R9290 10% vor einer GTX 780, R9 280X 12% vor einer GTX 770). Wie gesagt woran es liegt ist im Endeeffekt egal. Der Erfolg gibt Nvidia recht. Hinzu kommt natürlich noch das größere OC Potential das will ich gar nicht verneinen.

captain_drink
2016-07-15, 19:59:03
Das Treiber-Argument gilt übrigens für beide Seiten. NV muss seine Grafikkarten der letzten Generation nicht langsamer gemacht haben, AMD könnte seine entsprechenden Konkurrenzprodukte auch einfach schneller gemacht haben (was tatsächlich wahrscheinlicher ist, wenn man sich die Entwicklungsgeschwindigkeit der AMD-Treiber über die Jahre ansieht).

Dass Kepler auch hinsichtlich der Architektur schlicht schon bei Erscheinen "älter" (d.h. mit anderen Schwerpunkten) als GCN war, kommt ebenso wie der VRAM-Unterschied hinzu. GCN und Maxwell stehen sich diesbezüglich näher, weshalb ich nicht glaube, dass sich die Unterschiede zwischen ehemaligen Konkurrenzkarten übermäßig vergrößern werden.

Knuddelbearli
2016-07-15, 20:14:10
Das "Problem" ist das das nicht das erste mal so ist
Den letzten Absatz von dir kann man also Streichen

aths
2016-07-15, 21:31:10
Da nehmen sich nVidia und AMD beide nicht viel.
Die 150W der RX480 sind auch glatt gelogen.

http://www.amd.com/de-de/products/graphics/radeon-rx-series/radeon-rx-480
Das ist nicht das gleiche und ich denke, du weißt das auch. Die "Kartenleistung" ist zu ungenau, um die RX 480 hier festnageln zu können.

Auch in dieser Aussage steckt ein "wenn". Wenn nämlich ein Szenario genutzt wird, wo der "Mängelspeicher" an seine Grenzen kommt.Mir geht es weniger um den Speicher, sondern vor allem um die Speicherbandbreite. Die GTX 970 hat kein 256-Bit-Speicherinterface, sie erreicht keine 224 GB/s Speicherbandbreite. Das ist auch nachgemessen, das die GTX 970 weniger Speicherbandbreite erreicht als die 980.

Die 970 war für ihren Preis zu ihrer Zeit eine gute Karte. Trotzdem darf es nicht sein, dass ein Entwickler mit klaren Falschangaben durchkomt.

StefanV
2016-07-15, 21:34:33
Das "Problem" ist das das nicht das erste mal so ist
Korrekt.

Wenn du die Suche bemühst, wirst du irgendwo in den Tiefen des Forums ein Statement von mir finden, bei dem ich das auch bei der Geforce 4 Serie gesagt hab, als aths davon redete, dass einige Dinge bei der GF4 nicht mehr gingen.

Und jetzt - fast 20 Jahre später, schaut es nicht anders aus...

Das schlimme daran ist, dass es anscheinend niemand interessiert, warum auch immer...

Die 970 war für ihren Preis zu ihrer Zeit eine gute Karte. Trotzdem darf es nicht sein, dass ein Entwickler mit klaren Falschangaben durchkomt.
This is Fermi?!

Das schlimme an der Sache ist, dass es auch niemanden interessiert, dass nVidia auch den DX12 Treiber für die Fermi Generation nicht liefert - obwohl sie bei M$ sich dafür eingesetzt haben, DX12 so hinzubiegen, dass das möglich wäre...

Es ist nicht das erste mal, dass nVidia uns nach Strich und Faden belogen hat...
Und es wird wohl auch nicht das letzte mal sein.

Das nächste scheint sich auch wieder anzubahnen: Shaderzahl der 3GiB GTX 1060 im Vergleich zu der 6GiB Version - die 3GiB hat 'nen bisserl weniger, ohne auch nur mit einem Wort anders bezeichnet zu sein.

aths
2016-07-15, 21:41:59
Über alle gestesten Spiele hinweg ist die GTX 770 mittlerweile 12% hinter einer R9 280X und eine vormals schnellere GTX 780ti liegt mittlerweile sogar 5% hinter einer R9290, die damals wesentlich günstiger war. In einigen Spielen wird die GTX770 sogar regelrecht deklassiert von einer damals gleich schnellen R9 280X.

Das ist ein anderes Problemfeld. Bei der 6800 und auch 7800/7900 war es ähnlich, die NV-Karten erschienen zum Launch als ein Angebot mindestens so gut wie das von ATI/AMD, später zeigten sich die anfangs als vergleichbar eingestuften ATI/AMD-Karten als klar überlegen.

Hier könnte man lange philosophieren, jedenfalls zeigt die Vergangenheit in zumindest einigen Fällen, dass Geforce-Modelle schneller altern als ATI/AMD-Karten. Das sind alles Dinge, die Interpretationsspielraum lassen. Eine Speicherbandbreitenangabe von 224 GB/s für die GTX 970 belässt keinen Spielraum. Die Zahl ist falsch. Es sind 196 GB/s (für die unteren 3,5 GB RAM.) Ende, aus. Nvidia gibt Zahlen an, die undeutbar falsch sind. Das kann nicht hingenommen werden, dass uns Marketingabteilungen mit Fantasiezahlen veralbert.

Schrotti
2016-07-15, 22:10:59
Korrekt.

Wenn du die Suche bemühst, wirst du irgendwo in den Tiefen des Forums ein Statement von mir finden, bei dem ich das auch bei der Geforce 4 Serie gesagt hab, als aths davon redete, dass einige Dinge bei der GF4 nicht mehr gingen.

Und jetzt - fast 20 Jahre später, schaut es nicht anders aus...

Das schlimme daran ist, dass es anscheinend niemand interessiert, warum auch immer...


Fast 20 Jahre. Komm, jetzt übertreibe nicht so maßlos.


This is Fermi?!

Das schlimme an der Sache ist, dass es auch niemanden interessiert, dass nVidia auch den DX12 Treiber für die Fermi Generation nicht liefert - obwohl sie bei M$ sich dafür eingesetzt haben, DX12 so hinzubiegen, dass das möglich wäre...

Es ist nicht das erste mal, dass nVidia uns nach Strich und Faden belogen hat...
Und es wird wohl auch nicht das letzte mal sein.


Wozu bitte noch DX12 auf Fermi? Die 1060 steht vor der Tür und macht alles besser als Fermi.


Das nächste scheint sich auch wieder anzubahnen: Shaderzahl der 3GiB GTX 1060 im Vergleich zu der 6GiB Version - die 3GiB hat 'nen bisserl weniger, ohne auch nur mit einem Wort anders bezeichnet zu sein.

Kannst du das auch belegen? Quelle?

BlacKi
2016-07-15, 22:14:56
Über alle gestesten Spiele hinweg ist die GTX 770 mittlerweile 12% hinter einer R9 280X und eine vormals schnellere GTX 780ti liegt mittlerweile sogar 5% hinter einer R9290, die damals wesentlich günstiger war.
Das mag auf höchste einstellungen absolut zutreffen, wenn aber die textur regler angepasst werden, dann siehst du das der abstand nur auf die jeweils 1gb speicher mehr zurückzuführen sind und die karten meist schon 2 oder 3 besitzer haben.

alte kammellen, diesen joker ziehen doch nur leute damit sie 2 jahre später ihren kauf rechtfertigen können.

Schnoesel
2016-07-15, 22:18:50
Wenigstens können die ihre Texturregler nach rechts stellen. Ich werds in Zukunft immer weniger können also wenn das kein Nachteil ist...

Wozu bitte noch DX12 auf Fermi?
Evtl weil es angekündigt wurde und Nvidia damit Werbung gemacht hat und dafür auch abgefeiert wurde?

Kannst du das auch belegen? Quelle?

News auf der Hautptseite schon mal gelesen?

BlacKi
2016-07-15, 22:22:38
Wenigstens können die ihre Texturregler nach rechts stellen. Ich werds in Zukunft immer weniger können also wenn das kein Nachteil ist...

mag sein, aber erstens interessiert es niemanden wenn eine 4 jahre alte karte nun 10 ode 15% langsamer ist als die konkurenz, und wenn sich jemand für die 2gb entschieden hat, dann hat er sie schon vor 1-2 jahren verkauft.

wie gesagt alte kammellen die keinen mehr interessierren.

Pirx
2016-07-15, 22:29:28
mag sein, aber erstens interessiert es niemanden wenn eine 4 jahre alte karte nun 10 ode 15% langsamer ist als die konkurenz, und wenn sich jemand für die 2gb entschieden hat, dann hat er sie schon vor 1-2 jahren verkauft.

wie gesagt alte kammellen die keinen mehr interessierren.
Dochdoch, das interessiert Diejenigen, die nicht mit dem goldenen Löffel im Mund geboren wurden, die die Karte für teuer Geld gekauft haben und nun feststellen, daß auf den Konkurrenzkarten fröhlich weiter gespielt werden kann, während sie langsam wieder Geld ausgeben sollen.

Schnoesel
2016-07-15, 22:30:45
@Blacki

Deine Meinung ich denke darüber anders. Darüber braucht man auch nicht zu diskutieren. Für den einen isses wichtig für den anderen eben nicht. Fakt isses dennoch.

BlacKi
2016-07-15, 22:33:45
Dochdoch, das interessiert Diejenigen, die nicht mit dem goldenen Löffel im Mund geboren wurden, die die Karte für teuer Geld gekauft haben und nun feststellen, daß auf den Konkurrenzkarten fröhlich weiter gespielt werden kann, während sie langsam wieder Geld ausgeben sollen.
ich kann da leider nicht mitreden(meine karten hab ich immer selbst getötet)^^ aber normalerweiße verkaufe ich meine karte nach 2 spätestens 3 jahren.

zudem gabs auch 770 4gb versionen und 6gb 780 versionen. die halten bisheute mit, nur werden sie nie gestestet, da sie kaum markanteil haben. entweder weil der käufer die karte nach 2 jahren verscherbelt oder es ihr einfach nicht gejuckt hat.

@Blacki

Deine Meinung ich denke darüber anders. Darüber braucht man auch nicht zu diskutieren. Für den einen isses wichtig für den anderen eben nicht. Fakt isses dennoch.
da wird leider immer über den chip gelästert, dabei ist der garnicht daran schuld, jaberdie 770 ist so langsam... das hat doch nichts generell mit der karte zu tun, doch meist nur mit der speichermenge. beschwert euch doch darüber, das die meinsten nur 2-3 gb mitbekamen. wirkt gleich nichtmehr so falsch!

Schnoesel
2016-07-15, 22:36:18
Oder weil sie einfach nur unverschämt teuer waren. Es wurde auch offiziell von EVGA eine 6GB GTX 780ti angekündigt die dann doch nicht gekommen ist. Warum ist ja klar. Hätte GM 204 mitunter alt aussehen lassen.

Übrigens soviel zur Werbung:

http://www.legitreviews.com/nvidia-highlights-directx-12-strengths-amd_138178

BlacKi
2016-07-15, 22:41:47
Übrigens soviel zur Werbung:

http://www.legitreviews.com/nvidia-highlights-directx-12-strengths-amd_138178
echt lächerlich,

aber amd machts genauso...

Oder weil sie einfach nur unverschämt teuer waren.
ich hätte mir schon eine 1070 geholt, aber mit sind die einfach zu teuer für das was sie bieten, da bleib ich bei meiner 970 noch ein paar monate.

Schnoesel
2016-07-15, 22:49:25
Ich denke nicht dass es ausschließlich am Speicher hängt, siehe mein Beispiel nach den Witcher 3 Protesten. Ein + von 10%-12% ist schon ne Hausnummer.

Es wird wie immer eine Kombination aus verschiedenen Faktoren sein.

Ich bin gerade ganz froh dass die Big Dogs erst 2017 kommen. Dann gibt es ein großes Update mit 4k Monitor, Zen (falls er was taugt) und einer 4K fähigen Karte.

PS: Und ja AMD bekleckert sich auch nicht mit Rum: Overclockers Dream, less than 150 watt und PCIE gate lassen grüßen. Eigentore kann AMD eben wie kein 2ter ;-)

tech noir
2016-07-15, 22:56:11
Das interessiert soviele Kunden nicht, da doch die Mehrheit der Käufer unter Post-purchase rationalisation oder einem niedrigen Informationsstand leidet. Erfolg macht ja auch sexy, und jemand Erfolgloses würde doch nicht so eine Jacke anziehen, oder? Soll sich auch übertragen. Kauf einfach Intel und Geforce hat sich tief eingefressen und wird sich, wenn überhaupt erst langsam abbauen wegen all der trägen Köpfe da draußen.

Das hat mit marktpsychologischen Synergien zu tun, die sich da zwischen Händlern, PC Fritzen und Käufern gegenseitig verstärken. Voreingenommene Blogs wie Tom's Hardware oder ähnliche ergänzen das dann.
Da mit "Zukunftssicher muss Nvidia doch aussehen wollen" zu kommen ist grundsätzlich falsch. Auch wenn es in seinem Segment ein ziemlicher Platzhirsch ist und seine Angestellten während der Arbeit zocken dürfen ist das ein typisches Unternehmen mit all den typischen volkswirtschaftlichen Mechanismen die da dran hängen: es muss verkaufen. immer und immer wieder. Und der ganze 3d Beschleuniger Markt ist doch ein ideales Becken für so einen Fisch ;)
Am Ende hat der Kunde was er wollte, eine Geforce und flüssige Spiele.

https://de.wikipedia.org/wiki/Nvidia
https://de.wikipedia.org/wiki/Post-purchase_rationalisation

captain_drink
2016-07-15, 23:20:48
Ich denke nicht dass es ausschließlich am Speicher hängt, siehe mein Beispiel nach den Witcher 3 Protesten. Ein + von 10%-12% ist schon ne Hausnummer.

Es hängt oft auch an den Spielen bzw. Engines.
Man vgl. z.B. Mad Max: http://www.pcgameshardware.de/Mad-Max-Spiel-13115/Tests/Test-Benchmarks-1169934/

Eine 780 Ti hängt bequem eine 390X und 390 ab, die 770 eine 280X und eine 960. Die Engine von Mad Max liegt den Stärken von Kepler ganz offensichtlich, so dass dann solche Ergebnisse auch mal vorkommen können. Diese sind zwar die Ausnahme von der Regel, Pauschalisierungen der Marke "NV pflegt die alten Generationen nicht", "NV geht schneller die Puste aus" usw. werden der (komplexeren) Wirklichkeit nicht gerecht.

Ätznatron
2016-07-16, 10:53:38
Interessante Tabelle hier auf der Startseite (http://www.3dcenter.org/):

Konnte der Ersteindruck noch bei 52,4% für die GTX 970 Kaufinteresse wecken, brach selbiges beim Zweiteindruck auf 6,1% ein.

Was, wenn die Redakteure aufmerksamer gewesen wären und die Speicherproblematik gleich zum Launch erkannt und benannt hätten?

Die Karte wäre gefloppt.

StefanV
2016-07-16, 11:56:38
...und nVidia hätte eine 970v2 oder gar 975 gebracht, die 'ehrlicher' vermarktet worden wäre...

Das ist ein Punkt, den die meisten vergessen, dass man bessere Hardware bekommen hätte, wenn man sich die GTX 970 nicht gekauft hätte und auch alles getan hätte, um dieses Teil zu boykottieren...

Aber schaun wir mal, wie sich das weiter entwickelt...
NOCH haben viele Leute eine 970, aber bei DOOM@Vulkan sieht man schon einige Auswirkungen der Speicherarchitektur...

y33H@
2016-07-16, 11:59:22
Was sieht man denn da und was macht dich sicher, dass man bessere Hardware bekommen hätte?

Ätznatron
2016-07-16, 12:34:51
...und nVidia hätte eine 970v2 oder gar 975 gebracht, die 'ehrlicher' vermarktet worden wäre...


Die wäre zu nahe an der GTX 980 gewesen, die ja die "bessere" Hardware hat.

Das war ja wohl auch die Hauptmotivation, die GTX 970 heimlich derart zu verstümmeln.

dargo
2016-07-16, 12:36:53
Die wäre zu nahe an der GTX 980 gewesen, die ja die "bessere" Hardware hat.

So ist es. Die Alternative wäre zwar 3GB @192Bit SI. Aber damit würde man auch auf dem Papier schlechter gegenüber dem Konkurrenten stehen.

captain_drink
2016-07-28, 22:31:15
US-Käufer der 970 erhalten ein Recht auf finanzielle Entschädigung: https://www.computerbase.de/2016-07/nvidia-geforce-gtx-970-entschaedigung/

StefanV
2016-07-29, 00:45:49
Schade, dass der Prozess nicht zuende gebracht wurde und man sich mit solch einem eher lächerlichen Betrag hat abspeisen lassen...

dargo
2016-07-29, 06:23:50
Der Betrag ist wirklich lächerlich. Seltsamerweise muss ich dabei gleich an den VW-Konzern denken. Warum wieder nur die USA? Was ist mit dem Rest der Welt? Gab es sonst keine Sammelklagen?

Dorn
2016-07-29, 07:45:14
Der Betrag ist wirklich lächerlich. Seltsamerweise muss ich dabei gleich an den VW-Konzern denken. Warum wieder nur die USA? Was ist mit dem Rest der Welt? Gab es sonst keine Sammelklagen? 30 Dollar würde ich auch mitnehmen.

Nightspider
2016-07-29, 07:47:36
Also ich finde 30 Dollar für 500MB okay. :usad:

dargo
2016-07-29, 08:09:49
30 Dollar würde ich auch mitnehmen.
Es gab vereinzelt 30€ (oder was es sogar mehr?) von Amazon.de afaik.

Also ich finde 30 Dollar für 500MB okay. :usad:
Als ob die 0,5GB das einzige Problem wäre. :tongue:

StefanV
2016-07-29, 09:35:29
Gab es sonst keine Sammelklagen?
Die sind in vielen Ländern gar nicht vorgesehen.

AFAIR gehört Deutschland dazu...

Pirx
2016-07-29, 11:52:53
Das Fazit kann für nV nur lauten: Weiter so!

Die falschen Angaben stehen auch weiterhin auf der Webseite. Ist schon ne tolle Firma.

aths
2016-07-29, 19:11:28
Die falschen Angaben sind das, was mich nervt. An eine Karte mit 3,5 GB @224 Bit noch die 0,5 GB ranflanschen finde ich zwar nicht so elegant, aber Nvidia designt die Produkte, nicht ich. Aber nicht mal im Nachhinein die Karte korrekt zu spezifizieren, ist unerträglich arrogant.

nalye
2016-07-29, 19:13:42
Kann man hier ja auch mal verlinken, dass Amazon wohl kulanterweise Karten zurueck nimmt (Kann klappen, muss aber nicht): https://www.forum-3dcenter.org/vbulletin/showthread.php?t=575017

StefanV
2016-07-30, 00:48:56
Aber nicht mal im Nachhinein die Karte korrekt zu spezifizieren, ist unerträglich arrogant.
Waren die jemals anders?!

Das beste Beispiel, was mir im Hirn geblieben ist, ist die Unterstüzung von eternen TV Out Chips wie z.B. dem Philips SAA7104 und 7108 bzw dem entsprechendem Conexant/Brooktree Pendant, bei dem irgendwer bei nVidia gesagt hat, dass für die Unterstützung dieser Chips der Hersteller der Karte verantwortlich ist, auch wenn das Teil im Referenzdesign vorgesehen ist und es auch bei anderen Herstellern üblich war, diese Chips zu unterstützen...

Außerdem wäre es kein Problem gewesen, die unterstützten Chips zu spezifizieren, was man aber auch nicht gemacht hat...

Stattdessen musste man sich ein 3rd Party kaufen, wenn man den TV Ausgang bei nVidia nutzen wollte...

Ist also eigentlich nichts neues, dass sie furchtbar arrogant agieren und die User mit Füßen treten...

Achill
2016-07-30, 01:02:20
Die falschen Angaben sind das, was mich nervt. An eine Karte mit 3,5 GB @224 Bit noch die 0,5 GB ranflanschen finde ich zwar nicht so elegant, aber Nvidia designt die Produkte, nicht ich. Aber nicht mal im Nachhinein die Karte korrekt zu spezifizieren, ist unerträglich arrogant.

Daraus wäre ja klar eine falsche Angabe (wenn auch versehendlich) von Leistungsdaten ersichtlich und Forderungen/Klagen wahrscheinlich viel leichter - wäre das Klug aus Sicht des Rechts - wurde bestimmt durchgerechnet?

OT: Die Lösung ist aber ganz einfach und schon erprobt, einfach mit "Bis zu" Angaben arbeiten. sprich:
- Bis zu 4GB VRAM
- Bis zu 1234 Cuda Cores
=> Das würde auch ungemein der Salvage-Ausbeute erhöhen ... ;)

aths
2016-07-30, 02:20:22
Daraus wäre ja klar eine falsche Angabe (wenn auch versehendlich) von Leistungsdaten ersichtlich und Forderungen/Klagen wahrscheinlich viel leichter - wäre das Klug aus Sicht des Rechts - wurde bestimmt durchgerechnet?

OT: Die Lösung ist aber ganz einfach und schon erprobt, einfach mit "Bis zu" Angaben arbeiten. sprich:
- Bis zu 4GB VRAM
- Bis zu 1234 Cuda Cores
=> Das würde auch ungemein der Salvage-Ausbeute erhöhen ... ;)
Mir geht es weniger um den RAM. 4 GB RAM sind ja irgendwie auch verbaut, aber klar falsch sind Angaben um Speicherinterfacebreite und Bandbreite. Die Karte kann keine 224 G/s schaffen wie angegeben. Es sind 196 GB/s.

Jetzt nach einem Vergleich könnten die Specs geändert werden. Hätte NV den Kunden nicht bewusst täuschen wollen, wäre eine schnelle Entschuldigung (direkt nach der Entlarvung) und Korrektur wohl günstiger gewesen, als noch nicht so viele 970-er verkauft waren. Das Narrativ, dass die Karte ihr Geld wert ist, hätte weiter bestehen können.

Noch immer enttäuscht mich das Verhalten der Presse. Ein paar Artikel, oft mit breitem Raum für Nvidias Darstellung welche den Sachverhalt unnötig verwirrend präsentierte, ein paar Kolumnen. Es hätte breite Kritik geben müssen, damit die Presse ihre Kontrollfunktion klar macht. Stattdessen haben sich die großen Fachmedien ein Arm des Produktvertriebs angedient. Jede Publikation darf für ihre Leser die Produktvorstellung mit eigenen Schwerpunkten aufbereiten. Die gesamte, globale Fachpresse hat es nicht hinbekommen, den Hersteller zur Herausgabe von korrigierten White-Papers zu bewegen oder allerwenigstens die Specs auf der offiziellen Website der Realität anzupassen.

Foobar2001
2016-07-30, 02:53:08
Die Presse testet jetzt ja auch keine AF- oder AA-Qualitaet mehr. Dauert nicht mehr lange bis die Schummeleien da alle wieder zurueckkommten.

Nightspider
2016-07-30, 03:11:18
Als ob die 0,5GB das einzige Problem wäre. :tongue:

Was meinst du? Das Täuschungsdelikt an sich?

Screemer
2016-07-30, 03:40:18
Das beste ist ja mal wieder, dass die Summe nach oben gedeckelt ist. Wollen viele ne Entschädigung und die max Summe wird erreicht, dann kannst auch blöd läuft und jeder bekommt $5. Zweimal verarscht :ugly: Nv wird's freuen.

Nightspider
2016-07-30, 03:45:25
Das beste ist ja mal wieder, dass die Summe nach oben gedeckelt ist. Wollen viele ne Entschädigung und die max Summe wird erreicht, dann kannst auch blöd läuft und jeder bekommt $5. Zweimal verarscht :ugly: Nv wird's freuen.

Das Gegenteil scheint der Fall zu sein:

In welcher Höhe die Gesamtkosten für den GPU-Hersteller liegen, sei nicht veröffentlicht worden. Nvidia habe aber angedeutet, dass es keine Grenze für die Zahlungen geben wird. Entsprechend richtet sich die Summe allein danach, wie viele der betroffenen Kunden Anspruch auf Entschädigung erheben.

VooDoo7mx
2016-07-30, 07:01:48
Das Fazit kann für nV nur lauten: Weiter so!

Die falschen Angaben stehen auch weiterhin auf der Webseite. Ist schon ne tolle Firma.

Dann hat nVidia wohl dich als treuen Kunden verloren.
Das ist sehr schade.
Waren die jemals anders?!

Das beste Beispiel, was mir im Hirn geblieben ist, ist die Unterstüzung von eternen TV Out Chips wie z.B. dem Philips SAA7104 und 7108 bzw dem entsprechendem Conexant/Brooktree Pendant, bei dem irgendwer bei nVidia gesagt hat, dass für die Unterstützung dieser Chips der Hersteller der Karte verantwortlich ist, auch wenn das Teil im Referenzdesign vorgesehen ist und es auch bei anderen Herstellern üblich war, diese Chips zu unterstützen...

Außerdem wäre es kein Problem gewesen, die unterstützten Chips zu spezifizieren, was man aber auch nicht gemacht hat...

Stattdessen musste man sich ein 3rd Party kaufen, wenn man den TV Ausgang bei nVidia nutzen wollte...

Ist also eigentlich nichts neues, dass sie furchtbar arrogant agieren und die User mit Füßen treten...

Ja ich finde das auch schlimm, dass du vor 18 Jahren, einen TV-Out auf einer Grafikkarte nicht richtig nutzen konntest, die du nicht gekauft hast.
Hast du denn mitlerweile von nVidia eine Entschädigung erhalten?

Mir geht es weniger um den RAM. 4 GB RAM sind ja irgendwie auch verbaut, aber klar falsch sind Angaben um Speicherinterfacebreite und Bandbreite. Die Karte kann keine 224 G/s schaffen wie angegeben. Es sind 196 GB/s.

Es sind auch nicht 196GiB/s sondern 196GiB/s + 28 GiB/s also 224GiB/s :hammer:
AMD bewirbt auf der eigenen Internetseite auch die Radeon Pro Duo mit 8096 MiB Speicher und 8192 Cores wobei dies schlicht und ergreifend falsch ist.
Und ganz ehrlich: wayne?
Wenn man danach geht werden so gut bei allen produkten nicht hundert prozent richtige bzw geschönte Angaben gemacht. Das betrifft nicht nur Grafikkarten.

dargo
2016-07-30, 08:12:33
Was meinst du? Das Täuschungsdelikt an sich?
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/34026-limitierte-speichergeschwindigkeit-bei-der-geforce-gtx-970.html

Vor allem Update 3 beachten.

Skysnake
2016-07-30, 08:44:43
Es sind auch nicht 196GiB/s sondern 196GiB/s + 28 GiB/s also 224GiB/s :hammer:

Wie oft denn noch, es sind 196GiB/s ODER! 28GiB/s. Aber NIE 224 GiB/s....


AMD bewirbt auf der eigenen Internetseite auch die Radeon Pro Duo mit 8096 MiB Speicher und 8192 Cores wobei dies schlicht und ergreifend falsch ist.
Und ganz ehrlich: wayne?
Wenn man danach geht werden so gut bei allen produkten nicht hundert prozent richtige bzw geschönte Angaben gemacht. Das betrifft nicht nur Grafikkarten.
Das ist ja auch richtig, weil du alles parallel nutzen kannst theoretisch. Bei der GTX 970 geht es aber noch nicht einmal theoretisch... :down:

-/\-CruNcher-/\-
2016-07-30, 09:06:05
Das ist ein anderes Problemfeld. Bei der 6800 und auch 7800/7900 war es ähnlich, die NV-Karten erschienen zum Launch als ein Angebot mindestens so gut wie das von ATI/AMD, später zeigten sich die anfangs als vergleichbar eingestuften ATI/AMD-Karten als klar überlegen.

Hier könnte man lange philosophieren, jedenfalls zeigt die Vergangenheit in zumindest einigen Fällen, dass Geforce-Modelle schneller altern als ATI/AMD-Karten. Das sind alles Dinge, die Interpretationsspielraum lassen. Eine Speicherbandbreitenangabe von 224 GB/s für die GTX 970 belässt keinen Spielraum. Die Zahl ist falsch. Es sind 196 GB/s (für die unteren 3,5 GB RAM.) Ende, aus. Nvidia gibt Zahlen an, die undeutbar falsch sind. Das kann nicht hingenommen werden, dass uns Marketingabteilungen mit Fantasiezahlen veralbert.

Vor allem hatte das ganze Auswirkungen man könnte nachweisen das viele Spiele extra gepatched werden mussten um Performant zu laufen vor allem was mittelmäßige Streaming Engine angeht mussten teils texturen in der Qualität leiden.

Auf der anderen seite hat dieser Zwang nun auch dazu geführt das Streaming stabilität mehr im Vordergrund steht trotz Konsolen Speicher Effizienz :)

Wir sahen und sehen noch wie im Gesammtdesign Streaming innerhalb des Threading Models doch mehr Aufmerksamkeit zu kommt vor allem mit Low Level APIs :)

Vor allem sollte man sich die Daten der DCE einheiten beider anschauen dort wird sehr deutlich wo noch viel ineffizienz ausgeglichen wird und wo das nicht mehr wirklich effekte zeigt :)

Die DCE und deren Entwicklungsfortschrit ist hauptsächlich das was es Nvidia ermöglicht nun mit 6 GB gegen 8 GB anzutretten ohne noch wirklich schlecht dabei auszusehen und dabei sogar noch Energie und Hardware Kosten im Gesammtdesign zu sparen ;)

Trotzdem die GTX 1060 bleibt ein auf die kanten hin Komprimiert optimiertes Design und sowas ist meistens nicht wirklich langlebig mit den Nachteilen die sich daraus irgendwan einmal ergeben mit fortschreitender Software Entwicklung.

Keine Frage die Balance ist sichtlich besser was das Speicher Subsystem angeht als das unseres Problemkind GTX 970 und damit auch die Wahrscheinlichkeit das die Probleme sehr schnell auffällig sichtbar werden geringer :)

dargo
2016-07-30, 09:11:26
Was ist DCE? Es heißt DCC (Delta Color Compression). Und diese rettet dich nicht vor Speichermangel. Es spart nur Bandbreite.

-/\-CruNcher-/\-
2016-07-30, 09:36:10
Delta Compression Engine, alles zusammenhängende Faktoren dargo wenn schon weniger speicher ansich vorhanden ist die Auswirkungen bei der GTX 970 waren kritischer wobei es hier auch wiederum auf die Gesammtsystem Balance ankommt wie stark sie denn letztendlich sichtbar werden und ab wann :)

So gesehen ist die GTX 1060 wieder eine schön Designede Balance im Vergleich zur GTX 960/GTX 970

Wo Nvidia ja nur forcierte doch bitte zur x70 serie zu wechseln und die ja auch noch auf kante Designed und das ganze dann auch noch versteckt vorm Kunden (Wir können die x70 so billig anbieten da wir einfach 980 teil deaktivieren in berreichen die wir vorher nicht konnten, das bringt gewisse Software Nachteile aber wir haben da kalkuliert das das spätestens erst ende 2016 ins Gewicht fallen wird).

GTX 1060 ist nicht auf extra wirtschaftlichkeit ausgelegt wie das damals mit der GTX 960 ablief und vor allem nicht so extreme unbalanciert wie GTX 960 zu 970 zu 980 :)

Dennoch halte ich vor allem das VR Limit Nvidias auf der GTX 970 für eine totale user Katastrophen Situation zu wenig Shader Power zu hohe latenz overhead immer höher ;)
Da muss man schon kreativ sein :D

StefanV
2016-07-30, 10:28:59
Ja ich finde das auch schlimm, dass du vor 18 Jahren, einen TV-Out auf einer Grafikkarte nicht richtig nutzen konntest, die du nicht gekauft hast.
Spar dir deine billigen Flames. Im Gegensatz zu dir, habe/hatte ich auch einige Karten aus dem anderen Lager.

Und wenn ich niemals sowas hatte, warum hab ich sowas denn hier zum Tausch/Verkauf angeboten?!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=46148&highlight=Geforce

Ich meine, dass meine 128MiB GF4 TI4200, AFAIR eine Pixelview, damals an Thowe ging...
ELSA GF3 hatte ich auch einige btw...
Und auch 'ne Menge GF4 Karten...

Aber hey, wann hattest du das letzte mal eine ATi/AMD Karte?!
Meinereiner hat gerade seine GTX 570er verkauft, beide...

dargo
2016-07-30, 10:47:32
Delta Compression Engine, alles zusammenhängende Faktoren dargo...
Zeig mir bitte wo steht dass DCE oder halt DCC bei zu wenig Speicher hilft. Denn genau das hattest du im vorigen Post behauptet.

Screemer
2016-07-30, 12:26:42
Das Gegenteil scheint der Fall zu sein:
oha. ich hatte eben genau diesen satz gelesen und statt keine eine gelesen. so schnell kommt man da zu ner völlig anderen bedeutung. sorry.

aths
2016-07-30, 14:56:04
Es sind auch nicht 196GiB/s sondern 196GiB/s + 28 GiB/s also 224GiB/s :hammer:
AMD bewirbt auf der eigenen Internetseite auch die Radeon Pro Duo mit 8096 MiB Speicher und 8192 Cores wobei dies schlicht und ergreifend falsch ist.
Und ganz ehrlich: wayne?
Wenn man danach geht werden so gut bei allen produkten nicht hundert prozent richtige bzw geschönte Angaben gemacht. Das betrifft nicht nur Grafikkarten.
Es gibt Angaben, die man (leider) so oder so auslegen kann. Die 970 hat bis heute offizielle Angaben, die man auch bei gutmütigster Auslegung nicht vertreten kann. Das ist nicht wayne, das ist wichtig.

Botcruscher
2016-08-02, 00:25:11
Wie oft denn noch, es sind 196GiB/s ODER! 28GiB/s. Aber NIE 224 GiB/s....

Sag ich schon lange aber dank der Presse sind vor allem die lächerlichen 3,5GB hängen geblieben.

So akkurat wie NV da raus kommt haben sie echt alles richtig gemacht. Mich würde im Moment nicht mal eine Speicherbremse in Treiber verwundern. Bei Texturdetails kann man so schön schummeln.
Mit den 30$ für einen glatten Betrug hätte der Vergleich auch nicht besser ausgehen können.

Isen
2016-08-02, 02:19:02
Abwarten. Einige Kollegen in den USA haben dem Vergleich nicht zugestimmt und gehen weiter.

bnoob
2016-08-25, 14:08:25
Es ist schön, Hawaii und die 970 in aktuellen Benchmarks zu vergleichen :)

Das ging jetzt doch schneller, als von vielen vermutet.

Shaft
2016-08-25, 14:13:15
Ich habe darauß meine Konsequenzen gezogen, nächste Graka wird eine AMD.

Allerdings fließen da auch andere Gründe mit ein.

dildo4u
2016-08-25, 14:28:05
Es ist schön, Hawaii und die 970 in aktuellen Benchmarks zu vergleichen :)

Das ging jetzt doch schneller, als von vielen vermutet.

Sie scheint bei Deus Ex wie die 290 zu laufen,scheint kein Unterschied zwischen 3.5 und 4GB zu geben.Leider testen viele Seiten nur noch die 390,die zum 970 Launch nicht verfügbar war.

http://www.pcgameshardware.de/Deus-Ex-Mankind-Divided-Spiel-55470/Specials/Benchmarks-Test-DirectX-12-1204575/

bnoob
2016-08-25, 14:33:29
Joa, aber sie war mal schneller oder gleichauf mit der 290X 4GB

Wenn mich das Spiel interessieren würde würde ich mal benchen :D

dildo4u
2016-08-25, 14:34:38
Du scheint's verpasst zu haben das das ein AMD Game ist,die Engine ist verwandt mit Hitman was auch deutlich besser auf AMD läuft.

https://community.amd.com/community/gaming/blog/2016/08/23/eidos-square-enix-and-amd-collaborate-on-deus-ex-mankind-divided-feature

bnoob
2016-08-25, 14:36:41
Dafür ist dann aber die Fury X überraschend langsam (PCGH-Werte)

dildo4u
2016-08-25, 14:45:56
Zu wenig Vram für die vorhandene Leistung,die 480 8GB schafft fast die selben min FPS.

Palpatin
2016-08-25, 15:09:17
Wäre intressant zu wissen ob die 470 8gb die 20% Vorsprung auf die 470 4gb hier wegen der deutlich höheren Bandbreite oder wegen des + an VRAM hat, ich würde ja bei 1080p eher auf die Bandbreite wetten.

dargo
2016-08-25, 15:12:43
Kann nicht hinkommen bei +14% Bandbreite.

The_Invisible
2016-10-16, 19:04:50
Also wenn man sich aktuelle Spielebenchmarks anschaut schlägt sich die "verkrüppelte" 970er noch ganz gut. Eher ist es so das schön langsam die Rechenleistung limitiert ab 1440p.

Also doch wieder zuviel Wind gemacht für nichts? :D

grobi
2016-10-16, 19:06:49
Es kommt aufs Spiel an. Meinst du bestimmte Spiele?

aufkrawall
2016-10-16, 19:10:24
Also wenn man sich aktuelle Spielebenchmarks anschaut
Hier liegt der Fehler. ;)

Beispiel: Die VRAM-Verbrauchsangaben bei den GameGPU.ru-Tests sind auch völlig unsinnig, weil sie sich nur auf die kurze Benchmarksequenz beziehen, die getestet wird.
In echt ist der Verbrauch (und damit häufig auch Bedarf) nach gewisser Spieldauer häufig wesentlich höher.
Und es gibt ja auch kaum noch Tests, die die Frametimes der 970 im Vergleich zur 980 in aktuellen Spielen beleuchten.

mdf/markus
2016-10-16, 19:21:58
Wenn man mit 1080p & auch mal High statt Max Settings leben kann, reicht die Karte noch aus meiner Erfahrung für gefühlt 95 % aller aktuellen Games.

Ich selbst war kein Fan von der Vermarktungstaktik, allerdings waren die Konsequenzen daraus für den Midrange PC Spieler, für den die Karte wohl auch gedacht war, keineswegs so tragisch wie befürchtet.

Ab 1440p oder wenn Max Settings in allen Titeln gewünscht werden siehts sicher anders aus. Mit der nächsten Generation steht dann wohl bei mir ein Wechsel an, allerdings werde ich sicher auf die 970er positiv zurückblicken dürfen, denk ich mal.

Schaffe89
2016-10-16, 19:35:48
Also wenn man sich aktuelle Spielebenchmarks anschaut schlägt sich die "verkrüppelte" 970er noch ganz gut. Eher ist es so das schön langsam die Rechenleistung limitiert ab 1440p.

Also doch wieder zuviel Wind gemacht für nichts? :D

Ich hätte ehrlichgesagt deutlich mehr Probleme erwartet, es war daher schon zuviel Wind, zumindest hinsichtlich der zu erwartenden Problematik.

TheGood
2016-10-16, 20:53:14
Nein der Wind war noch viel zu wenig, weil die Firma schlichtweg betrogen hat. Das ist und bleibt ein Fakt.

AnnoDADDY
2016-10-16, 21:15:42
Es war viel Wind um praktisch nichts. Die Auswirkungen sind praktisch lächerlich bis nicht vorhanden aber nur selten wirklich spürbar. Schön ist es nicht. Aber der shitstorm arg übertrieben :D

StefanV
2016-10-16, 21:27:02
Also wenn man sich aktuelle Spielebenchmarks anschaut schlägt sich die "verkrüppelte" 970er noch ganz gut. Eher ist es so das schön langsam die Rechenleistung limitiert ab 1440p.

Also doch wieder zuviel Wind gemacht für nichts? :D
Nu hör doch mal mit deinem Whitewashing auf!
Muss man einen alten Thread wg. so einem Kommentar wirklich hoch holen und so tun, als ob das alles nur halb so schlimm ist?!

Und was sagst du denn dazu?!
https://www.computerbase.de/forum/showthread.php?t=1625694

Scheint ja wohl in diese Kerbe zu schlagen....

Nein der Wind war noch viel zu wenig, weil die Firma schlichtweg betrogen hat. Das ist und bleibt ein Fakt.
Dem kann man sich nur anschließen.

Es ist schon sehr merkwürdig, wie sehr einige Herren hier in diesem Thread partout nicht einsehen wollen, dass das, was hier gemacht wurde, ziemlich daneben ist und der Shitstorm, den es dafür gab auch viel zu gering war...

Die ganzen Auswirkungen werden sich auch jetzt erst zeigen...
Und das sieht man dann auch in dem von mir verlinktem Thread aus dem Netzteilbereich, wenn du dir den anschaust, siehst, dass das genau in diese Kerbe schlägt. Und dass er mit einer anderen Karte außer der GTX 970 deutlich besser gefahren wäre...

Schaffe89
2016-10-16, 21:34:43
Nein der Wind war noch viel zu wenig, weil die Firma schlichtweg betrogen hat. Das ist und bleibt ein Fakt.

Darum meinte ich ja den Wind um die zu erwartende Problematik in der Praxis und nicht den des Betruges.:wink:

Nu hör doch mal mit deinem Whitewashing auf!
Muss man einen alten Thread wg. so einem Kommentar wirklich hoch holen und so tun, als ob das alles nur halb so schlimm ist?!

Es ist imho schon interessant was die konkreten Folgen sind, bzw. wie lange die Karte noch einwandfrei funktioniert.
Hätte ich nicht gedacht dass die Karte immernoch relativ problemfrei zu nutzen ist, jedenfalls konnte ich mich auf der letzten LAN wieder davon überzeugen.

Scheint ja wohl in diese Kerbe zu schlagen....


Black Ops 3 läuft mit etwas niedrigeren Settings auf ner GTX 970 definitiv ohne Ruckler zudem ist es nur eine Vermutung von dir, die du hier wieder als Fakt zu verkaufen versuchst.

Es ist schon sehr merkwürdig, wie sehr einige Herren hier in diesem Thread partout nicht einsehen wollen, dass das, was hier gemacht wurde, ziemlich daneben ist und der Shitstorm, den es dafür gab auch viel zu gering war...

Das liegt daran dass man sich auch um die konkreten Folgen unterhalten kann und nicht über den Betrug den sich Nvidia geleistet hat, aber manche können halt nicht differenzieren.
Ich würde die Karte gegenüber einer 4GB rx470 sogar vorziehen für die Titel die ich spiele, ja jetzt hab ich was ganz böses gesagt.

Die ganzen Auswirkungen werden sich auch jetzt erst zeigen...

Ich denke kaum dass sich da groß was zeigen wird, der V-ram wird ab und zu vollaufen und das behebst du dann mit niedrigeren Textureinstellungen.

Und das sieht man dann auch in dem von mir verlinktem Thread aus dem Netzteilbereich, wenn du dir den anschaust, siehst, dass das genau in diese Kerbe schlägt. Und dass er mit einer anderen Karte außer der GTX 970 deutlich besser gefahren wäre...


Ja wenn man nach PippiLangstrumpf verfährt dann schon, denn ich hab den Thread gelesen und es ist gar nicht klar was das Problem im Endeffekt ist.
Black Ops 3 läuft definitiv mit einer GTX 970 schnieke, aber sicherlich nicht mit den Textureinstellungen auf Anschlag, damit lief es auf meiner Nano auch beschissen.

bnoob
2016-10-17, 09:20:13
Ich führe als Beispiel gerne Need for Speed 2015 1440p@Ultra an. Ob scheiße optimiert oder nicht sei mal dahingestellt, es ist ein Mainstreamspiel mit Settings wie sie im Alltag auftreten, und damit nicht rein akademisch.

Da läuft mir schon auf meiner 290X 4GB bei längeren Autobahnfahrten sofort der Speicher komplett zu, sobald es dann zu einem Crash kommt habe ich eine Gedenksekunde weil das Spiel die Grafikassets dafür schon längst aus dem Speicher geworfen hat.

Das passiert mir nicht in der Innenstadt wenn die VRAM-Belegung eher auf 80-90% ist.

Auf einer 970 könnte ich das komplett vergessen, da mir auch für Innenstadt der Speicher fehlt.

In Benchmarksequenzen wird sowas aber normalerweise nicht abgebildet.

BlacKi
2016-10-17, 09:56:48
Ich führe als Beispiel gerne Need for Speed 2015 1440p@Ultra an. Ob scheiße optimiert oder nicht sei mal dahingestellt, es ist ein Mainstreamspiel mit Settings wie sie im Alltag auftreten, und damit nicht rein akademisch.

Da läuft mir schon auf meiner 290X 4GB bei längeren Autobahnfahrten sofort der Speicher komplett zu, sobald es dann zu einem Crash kommt habe ich eine Gedenksekunde weil das Spiel die Grafikassets dafür schon längst aus dem Speicher geworfen hat.

Das passiert mir nicht in der Innenstadt wenn die VRAM-Belegung eher auf 80-90% ist.

Auf einer 970 könnte ich das komplett vergessen, da mir auch für Innenstadt der Speicher fehlt.

In Benchmarksequenzen wird sowas aber normalerweise nicht abgebildet.
nur weil es bei einer 4gb 290x treiberseitig zum problem kommt, muss es bei einer 970 die einen anderen treiber hat, ebenfalls zum problem führen.

nv hat den treiber so angepasst, sodass es eben nicht zu den besagten poblemen führt, sondern die fps einfach nur geringer werden. das konnte man in anderen spielen ebenfalls beobachten.

da eine 970 nichtmehr allzu frisch ist, und die meisten leute in 1080p zocken, wird es eh keine großen auswirkungen haben. krass finde ich das man trotz des "mangels" man für eine 970 deutlich mehr bekommt als für einer 290. trotz echter 4gb.

gnomi
2016-10-17, 10:13:27
Aus Enthusiasten Sicht ist die Karte einfach arg limitiert, da sie wegen der Speicherproblematik extrem gut eingestellt werden muss.
Und auch wenn man das passende Preset wie in Gears of War 4 gleich geliefert bekommt, man sehe sich trotzdem mal den Unterschied zur vollwertigen 980 an, die weit höhere Qualität und bessere Frametimes mit mehr Einstellungen zustande bringt.
Dieses Verhalten lässt sich auf jedes neuere Game übertragen. Zum Beispiel wird Deus Ex noch problematischer laufen und händisch eingestellt werden müssen. (ist schon mit der 980 nicht so ohne)
Auf der anderen Seite stemmt die Karte das meiste locker. Das liegt natürlich daran, dass die Rohleistung eben stimmt und weit über Konsolen Niveau ist.
Wer also tatsächlich kompromisslos auch auf den Preis geguckt hat und zumeist bei Full HD und High Settings bliebt, kam immerhin im Ergebnis gut davon. Aber das war eh sonnenklar.
Nur, der Megadeal war die Karte eben nicht. Die für die meisten der 970er Interessenten zu teure 980 ist - wie man bei jedem anspruchsvollerem Game oder Setting bei den Frametimes sehen kann - im Spielgefühl drückend überlegen.
Und das ist eben wichtig auch herauszustellen. Denn wenn das alles kein Problem war, dann wird nvidia das genauso wieder machen. Und in dem Segment ist das einfach nur unanständig. Nvidia wollte Mainstream Gamer quasi teurere Karten mit dieser Aktion andrehen, und es hat leider funktioniert. Beinahe nie lief eine Karte besser und ich will nicht wissen, wie viele zum ersten Mal in der Preisregion gekauft haben...

BlacKi
2016-10-17, 11:56:06
Und das ist eben wichtig auch herauszustellen. Denn wenn das alles kein Problem war, dann wird nvidia das genauso wieder machen. Und in dem Segment ist das einfach nur unanständig. Nvidia wollte Mainstream Gamer quasi teurere Karten mit dieser Aktion andrehen, und es hat leider funktioniert. Beinahe nie lief eine Karte besser und ich will nicht wissen, wie viele zum ersten Mal in der Preisregion gekauft haben...
das problem waren die high end verwöhnten kunden.

niemand hat es bei der 660ti gestört, plötzlich war es bei der 970 ein thema. klar, spezifikationstechnisch war nur die 970 ein betrug weil falsch beworben, das geht einfach mal garnicht. aber performance technisch unterscheidet sich die art wie man den speicher beschnitten hat praktisch garnicht von der 660ti.

niemand hats bemerkt, niemand hat gestört, und trotzdem bleibt es ein problem mit der 970. die 660ti hat weiterhin 2gb speicher, die 970 nur noch 3,5gb.

es ist diese scheinheiligkeit was mich an den leuten stört.

dargo
2016-10-17, 12:12:42
niemand hat es bei der 660ti gestört, plötzlich war es bei der 970 ein thema.
Die 660TI war doch ein anderes Kaliber als die 970, was die Beschneidungen angeht.


die 660ti hat weiterhin 2gb speicher, die 970 nur noch 3,5gb.

Du hast die Probleme der 970 immer noch nicht verstanden... unglaublich.

BlacKi
2016-10-17, 13:07:52
Du hast die Probleme der 970 immer noch nicht verstanden... unglaublich.
zumindest sind dort die letzten 512gb langsamer angebunden als die restlichen mem chips. die letzten 512mb haben statt 144gb/s nur noch 48gb/s.

"The best case scenario is always going to be that the entire 192bit bus is in use by interleaving a memory operation across all 3 controllers, giving the card 144GB/sec of memory bandwidth (192bit * 6GHz / 8). But that can only be done at up to 1.5GB of memory; the final 512MB of memory is attached to a single memory controller. This invokes the worst case scenario, where only 1 64-bit memory controller is in use and thereby reducing memory bandwidth to a much more modest 48GB/sec."
http://www.anandtech.com/show/6159/the-geforce-gtx-660-ti-review/2

dargo
2016-10-17, 13:13:32
zumindest sind dort die letzten 512gb langsamer angebunden als die restlichen mem chips. die letzten 512mb haben statt 144gb/s nur noch 48gb/s.

Und jetzt vergleiche das Mal in jedem Detail mit der 970.

BlacKi
2016-10-17, 23:03:58
Und jetzt vergleiche das Mal in jedem Detail mit der 970.
warum muss ich das? es kam in beiden fällen manchmal zu fps einbrüchen. sag du mir mal welchen unterschied das nun macht.

dargo
2016-10-18, 06:24:20
Willst du mich verkackeiern? Worüber wird hier seit Monaten diskutiert? Alles nötige steht schon mehrfach in diesem Thread!

StefanV
2016-10-18, 09:05:36
zumindest sind dort die letzten 512gb langsamer angebunden als die restlichen mem chips. die letzten 512mb haben statt 144gb/s nur noch 48gb/s.
Richtig und hier kann man auf den gesamten Speicher zugreifen.

Das kann man bei der GTX 970 eben NICHT!
Da kannst du _ENTWEDER_ auf die gecachten 3,5GiB zugreifen ODER auf die ungecachten 512MiB.

Sorry, aber du solltest einfach mal mit dem nVidia Whitewashing von deiner Seite aus aufhören, insbesondere wenn du ein Problem nicht mal ansatzweise verstanden hast.

Schrotti
2016-10-18, 09:51:03
Verwunderlich das Ihr mit diesem Thema noch nicht zu einem Ende gekommen seid.

BlacKi
2016-10-18, 09:58:10
Richtig und hier kann man auf den gesamten Speicher zugreifen.

Das kann man bei der GTX 970 eben NICHT!
Da kannst du _ENTWEDER_ auf die gecachten 3,5GiB zugreifen ODER auf die ungecachten 512MiB.

Sorry, aber du solltest einfach mal mit dem nVidia Whitewashing von deiner Seite aus aufhören, insbesondere wenn du ein Problem nicht mal ansatzweise verstanden hast.
sry aber du hast es nicht verstanden...

du siehst doch hier die transferrate oder nicht? 0 ist 0, und 72, ist etwas. https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Discloses-Full-Memory-Structure-and-Limitations-GTX-970

man kann die 3,5gb performant nutzen und die 512mb garnicht, oder 3gb schnell und die letzten 1024mb nur mit halber geschwindigkeit.

Birdman
2016-10-18, 12:58:22
man kann die 3,5gb performant nutzen und die 512mb garnicht, oder 3gb schnell und die letzten 1024mb nur mit halber geschwindigkeit.
ähh, nein

kruemelmonster
2016-10-18, 14:51:09
sry aber du hast es nicht verstanden...

Wer im Schlachthaus sitzt sollte nicht mit Schweinen werfen.

Du hast es nicht verstanden; Lektüre bietet dieser Thread mehr als ausreichend.

StefanV
2016-10-19, 10:14:11
man kann die 3,5gb performant nutzen und die 512mb garnicht, oder 3gb schnell und die letzten 1024mb nur mit halber geschwindigkeit.
Es wäre schön, wenn du aufhören würdest, dir irgendwelche Dinge zusammenphantasieren würdest und du bei der Realität bleiben würdest.

Denn was du hier sagst, ist, wie schon von einigen vor mir gesagt, völliger Quatsch. Du kannst NICHT auf die letzten 512MiB zugreifen, solange noch Daten im Cache sind!
Aths hat das mal gut beschrieben, AFAIR noch andere.

Noch einmal für dich:
BEVOR man auf die letzten 512MiB zugreifen kann, muss der Cache geleert werden.
DAS ist auch der Grund, warum das ganze so stark ruckelt...

BlacKi
2016-10-19, 12:48:05
Noch einmal für dich:
BEVOR man auf die letzten 512MiB zugreifen kann, muss der Cache geleert werden.
DAS ist auch der Grund, warum das ganze so stark ruckelt...
danke!

Kriton
2017-01-24, 22:13:20
Besonders stark ist die GTX 970 mit ihrem 3,5 + 0,5 GiByte segmentiertem Speicher betroffen, die eine gegenüber anderen "echten" 4-GiByte-Grafikkarten eine sehr unausgegorene Performance liefert und in hohen Auflösungen aufgrund des im Ganzen nur sehr langsam ansprechbaren RAMs sogar hinter eigentlich deutlich langsamere und mit weniger Speicher ausgestattete GPUs wie etwa die R9 280X zurückfällt.

http://www.pcgameshardware.de/Resident-Evil-7-Biohazard-Spiel-57353/Specials/Benchmark-PC-Anforderungen-1219005/

Troyan
2017-01-24, 22:15:29
PCGH und "Realität". Das selbe wie mit The Division, wo man Fake-Benchmarks veröffentlicht hat. :lol:

aufkrawall
2017-01-24, 22:17:41
Das waren keine Fake-Benchmarks, sondern leicht unsaubere Bedingungen, die der 970 dann den Rest gegeben hatten.

Troyan
2017-01-24, 22:21:00
Es waren Fakebenchmarks. Niemand außer PCGH hat die Werte bestätigen können.

Das man weiterhin den Nonsense verbreiten will, dass eine 3,5GB Karte hinter einer 3GB fällt, ist mir unbegreiflich.

aufkrawall
2017-01-24, 22:24:10
Es waren Fakebenchmarks. Niemand außer PCGH hat die Werte bestätigen können.

Erzähl keinen Unfug. Es lag an der Auflösungsänderung ohne Spielneustart, PCGH hatten sich dann nachträglich korrigiert.


Das man weiterhin den Nonsense verbreiten will, dass eine 3,5GB Karte hinter einer 3GB fällt, ist mir unbegreiflich.
Dürfte niemanden überraschen, dass dir das unbegreiflich ist.

dildo4u
2017-01-24, 22:31:55
Ich kapier das Fazit nich wen jucken die avg FPS?Die min fps sind nur 3 von der 470 weg,vermutlich laden 4GB Karten einfach mehr Details,daher ist die 280X so dicht an der 470.Dann passen auch die schlechten Werte der 1060 die wiederum mehr Details lädt als die 980,die dort viel zu schnell ist.

Kriton
2017-01-24, 22:35:39
Das man weiterhin den Nonsense verbreiten will, dass eine 3,5GB Karte hinter einer 3GB fällt, ist mir unbegreiflich.

Falls Du tatsächlich insoweit an einem Erkenntnisgewinn interessiert sein solltest, dann würde ich noch einmal einen Blick auf das Thema der Speicheranbindung und der damit verbundenen Speicherbandbreite der 970 werfen, damit Du keinen Unsinn (mehr) erzählst. Allein Deine zitierte Verkürzung des Sachverhalts ist bereits entweder vorsätzlich oder von (deutlichem) Unverständnis geprägt.

Ich kapier das Fazit nich wen jucken die avg FPS?Die min fps sind nur 3 von der 470 weg,vermutlich laden 4GB Karten einfach mehr Details,daher ist die 280X so dicht an der 470.Dann passen auch die schlechten Werte der 1060 die wiederum mehr Details lädt als die 980,die dort viel zu schnell ist.

Und was hat das mit dem Thread zu tun?

Troyan
2017-01-24, 22:48:04
So, du kommst also mit "Alternativen Fakten" - ja?
3,5GB sind immer noch mehr als 3GB. Reichen 3,5GB nicht, reichen auch 3GB nicht. Simple technische Erklärung für die Fakebenchmarks.

Achja, PCGH will auch weiß machen, dass die GTX980 in 1080p 40% schneller als die GTX970 ist.

AnnoDADDY
2017-01-24, 22:50:22
Ist bei der speicheranbindung kein Wunder. Bandbreite ist das Zauberwort und davon hat die 970 zu wenig!

Und PCGH faked gar nichts sondern ist einfach nur anspruchsvoller beim testen und finden von Flaschehälsen!

Troyan
2017-01-24, 22:53:43
Bandbreite? GTX980 hat bis zu 3,5GB nur 15% mehr.

Die 280X zeigt, dass 3GB vollkommen ausreichend sind.

Kriton
2017-01-24, 22:54:49
Wenn Du nicht verstehst, oder verstehen willst, wie das ist, wenn die 970 auf ihre 0,5 GB zugreift, dann solltest Du einfach nichts mehr schreiben. Könntest natürlich auch die Erklärungen in diesem Thread von kundiger Hand lesen...

Aber eigentlich zeigt Dein letzter Post, dass Du verstanden hast, sonst hättest Du nicht "bis zu 3,5 GB" geschrieben. Also willst Du offensichtlich tatsächlich nur "alternative Fakten" verbreiten.

Troyan
2017-01-24, 23:07:34
Ach und wenn die 280X auf ihre 0,5GB 0,5GB bis 1GB zugreifen will, dann tut sie das genau wie? Magie?

AnnoDADDY
2017-01-24, 23:12:49
Schau dir noch mal die blockbilder zum speicherzugriff an! Die Tests zeigen nur die Tatsachen was aufgrund der komischen speicheranbindung voraussehbar war...

Screemer
2017-01-24, 23:20:13
tahiti muss nicht die caches flushen um auf irgendwelche speicherbereiche zu zu greifen. die 970 schon. das wird in zukunft noch ein spaß.

aths
2017-01-25, 01:29:48
Ist bei der speicheranbindung kein Wunder. Bandbreite ist das Zauberwort und davon hat die 970 zu wenig!
Solange nur die unteren 3,5 GB genutzt werden, ist die Bandbreite in Bezug auf die Shader- und Texturleistung ziemlich großzügig dimensioniert.

MechWOLLIer
2017-01-25, 09:55:20
Es waren Fakebenchmarks. Niemand außer PCGH hat die Werte bestätigen können.

Das man weiterhin den Nonsense verbreiten will, dass eine 3,5GB Karte hinter einer 3GB fällt, ist mir unbegreiflich.
Doch, das kann durchaus passieren. Das habe ich hier auch schon ein paar Mal gesehen. Das Problem ist eben, wen die GTX 970 dann versucht, wie nen Berserker den Speicher freizukriegen und gleichzeitig alles mögliche neu rein lädt. Dabei kann sich die GPU offenbar verheddern.

Ich kapier das Fazit nich wen jucken die avg FPS?Die min fps sind nur 3 von der 470 weg,vermutlich laden 4GB Karten einfach mehr Details,daher ist die 280X so dicht an der 470.Dann passen auch die schlechten Werte der 1060 die wiederum mehr Details lädt als die 980,die dort viel zu schnell ist.
Ja, die guten Min-FPS. Die mochte ich noch nie:D
Das kann bei Min-FPS eben passieren, ohne dass das was zu sagen hat.

Complicated
2017-01-25, 10:10:24
Das Problem ist einfach der gemeinsam genutzte L2 Cache der letzten 0,5 GB. Bei jedem "Wechsel" des "Speicherpools" muss der L2 neu gefüllt werden da die Daten nicht mehr passen. Das sind 1/7 garantierte misses beim 3,5 GB Pool und 100% Cache Miss beim Wechsel auf den 0,5 GB Pool. Da sind nun mal 3 GB die ihre Daten zu 90% aus dem L2 holen können eben schneller. Man muss halt auch verstehen wo die Bremse ist und nicht immer auf der Speichermenge herum reiten.

Troyan
2017-01-25, 11:18:57
Und nachdem PCGH ihre Werte mit der GTX780 aktualisiert haben, kann man sagen: Ich habs euch ja gesagt. ;D

Vielleicht sollte man aber genauer überprüfen, wieso AMD mit weniger Speicher angeblich besser zurecht kommt. Das die GTX780 mit 3GB die selben Frames erreicht wie die 270X mit 2GB ist schon ziemlich abstrus.

AnnoDADDY
2017-01-25, 11:22:00
Nöö, Kepler wird einfach nicht optimiert. Das ist das Problem!

Troyan
2017-01-25, 11:59:28
Die GTX970 ist deutlich schneller als die GTX1060/3GB in 1440p.
So, now what? :cool:

Deswegen sollte die liebe PCGH einfach aufhören Bewertungen zu schreiben, bevor man das komplette Bild hat. AMD Karten verhalten sich vollkommen anders als nVidia-Hardware.

deekey777
2017-01-25, 12:01:21
Wenn RE7 zu blöd ist zu kapieren, dass die GTX970 nur 3,5 plus 0,5 GB Speicher hat, und den Speicher der Grafikkarte wie volle 4 GB betrachtet, so dass die Leistung verhältnismäßig schlecht ist, dann kann doch die GTX970 nichts dafür.

AnnoDADDY
2017-01-25, 12:06:20
Die GTX970 ist deutlich schneller als die GTX1060/3GB in 1440p.
So, now what? :cool:

Deswegen sollte die liebe PCGH einfach aufhören Bewertungen zu schreiben, bevor man das komplette Bild hat. AMD Karten verhalten sich vollkommen anders als nVidia-Hardware.

Maxwell und Kepler ist ein deutlicher Unterschied! Und eben, es verhält sich jede Karte anders!

BlacKi
2017-01-25, 12:12:38
Wenn RE7 zu blöd ist zu kapieren, dass die GTX970 nur 3,5 plus 0,5 GB Speicher hat, und den Speicher der Grafikkarte wie volle 4 GB betrachtet, so dass die Leistung verhältnismäßig schlecht ist, dann kann doch die GTX970 nichts dafür.
die karte versucht meistens die letzten 512mb nicht zu verwenden, dazu gibts ausreichend nachweise. also verhält sie sich zuerst wie eine 3,5gb karte. erst wenn garnichts mehr geht, verhält sie sich komisch.

Megamember
2017-01-25, 12:13:50
Kaum kommt ein SPiel raus was unter bestimmten Einstellungen den Speicher vollrotzt wird auf die arme 3 Jahre alte 970 eingedroschen. Jedes mal dasselbe.;D

Troyan
2017-01-25, 12:15:30
Deswegen ist die GTX1060/3GB auch deutlich langsamer, gell?

Wie wäre es einfach damit: PCGH hat mal wieder Propaganda für ihre Zielgruppe verbreitet ("3,5GB der GTX970 langsamer als 3GB der 280X. Speicherinterface zeigt wieder seine hässliche Fratze").

Realität ist: 3,5GB der GTX970 sind besser als 3GB der GTX1060. Vergleich zwischen nVidia und AMD sind nicht verwertbar, da die Karten sich komplett anders verhalten.

M4xw0lf
2017-01-25, 12:20:13
Kaum kommt ein SPiel raus was unter bestimmten Einstellungen den Speicher vollrotzt wird auf die arme 3 Jahre alte 970 eingedroschen. Jedes mal dasselbe.;D
Wenn man sich den armen 5 Jahre alten Tahiti nebendran anschaut, dann ist das auch völlig gerechtfertigt.

Schaffe89
2017-01-25, 12:25:46
Deswegen ist die GTX1060/3GB auch deutlich langsamer, gell?

Wie wäre es einfach damit: PCGH hat mal wieder Propaganda für ihre Zielgruppe verbreitet ("3,5GB der GTX970 langsamer als 3GB der 280X. Speicherinterface zeigt wieder seine hässliche Fratze").

Realität ist: 3,5GB der GTX970 sind besser als 3GB der GTX1060. Vergleich zwischen nVidia und AMD sind nicht verwertbar, da die Karten sich komplett anders verhalten.

So leid es mir tut, aber hier muss ich dir mal zustimmen. Die Hexenjagdt gegen die GTX 970 dauert jetzt wirklich lange und nie konnte man wirklich´belastendes Material finden, ich war überzeugt dass die Karte absaufen wird, aber bisher hält sie sich noch recht gut.

Die GTX 660 ist allerdings leistungsmäßig abgesoffen, dauert bei der GTX 970 wohl noch 1 bis 2 Jahre. Dann interessierts aber auch keinen mehr.

Raff
2017-01-25, 12:30:44
Bitte lesen, anstatt zu überinterpretieren. Bei der PCGH sind zwei Dinge zu sehen:

– Die GTX 980 ist in FHD 39 Prozent schneller als die GTX 970 – bei gleichem Takt
– Die GTX 980 ist in WQHD 88 Prozent schneller als die GTX 970 – bei gleichem Takt
– Die GTX 980 ist in UHD 178 Prozent schneller als die GTX 970 – bei gleichem Takt

Da steht nirgends, dass 3,5+0,5 GiB schlechter sind als 3 GiB. Wobei man das angesichts der UHD-Werte durchaus sagen könnte, denn hier sind die steinalte GTX 780/3G und die GTX 1060/3G schneller als die GTX 970.

MfG,
Raff

fondness
2017-01-25, 12:36:34
Und nachdem PCGH ihre Werte mit der GTX780 aktualisiert haben, kann man sagen: Ich habs euch ja gesagt. ;D

Vielleicht sollte man aber genauer überprüfen, wieso AMD mit weniger Speicher angeblich besser zurecht kommt. Das die GTX780 mit 3GB die selben Frames erreicht wie die 270X mit 2GB ist schon ziemlich abstrus.

AMD geht eben effizienter mit dem Speicher um.

Troyan
2017-01-25, 12:38:19
Da steht nirgends, dass 3,5+0,5 GiB schlechter sind als 3 GiB.

Nein, natürlich nicht:
Besonders stark ist die GTX 970 mit ihrem 3,5 + 0,5 GiByte segmentiertem Speicher betroffen, die eine gegenüber anderen "echten" 4-GiByte-Grafikkarten eine sehr unausgegorene Performance liefert und in hohen Auflösungen aufgrund des im Ganzen nur sehr langsam ansprechbaren RAMs sogar hinter eigentlich deutlich langsamere und mit weniger Speicher ausgestattete GPUs wie etwa die R9 280X zurückfällt.
http://www.pcgameshardware.de/Resident-Evil-7-Biohazard-Spiel-57353/Specials/Benchmark-PC-Anforderungen-1219005/

Natürlich schreibt ihr es. Es ist billige Propaganda. Steht doch einfach dazu. :rolleyes:

M4xw0lf
2017-01-25, 12:40:49
Nein, natürlich nicht:

http://www.pcgameshardware.de/Resident-Evil-7-Biohazard-Spiel-57353/Specials/Benchmark-PC-Anforderungen-1219005/

Natürlich schreibt ihr es. Es ist billige Propaganda. Steht doch einfach dazu. :rolleyes:
Das ist genau was die Benchmarks belegen. Dein Anti-PCGH Kreuzzug ist äußerst lächerlich.

AnnoDADDY
2017-01-25, 12:41:44
Tja troyan das ist keine Propaganda sondern Fakt, der mit Messwerten belegt ist!

Linmoum
2017-01-25, 12:44:21
Nein, natürlich nicht:

http://www.pcgameshardware.de/Resident-Evil-7-Biohazard-Spiel-57353/Specials/Benchmark-PC-Anforderungen-1219005/

Natürlich schreibt ihr es. Es ist billige Propaganda. Steht doch einfach dazu. :rolleyes:
Lesen und verstehen scheint wohl keine deiner Stärken zu sein.
PCGH schreibt nicht, dass 3,5GB+0,5GB schlechter sind, als 3GB. PCGH schreibt, dass in diesem gebenchten Spiel die 970 trotz mehr Speicher z.B. hinter eine 3GB 280X zurückfällt. Das ist anhand der Benchmarks schlicht ein Fakt, den man so festhalten muss.

Du kannst allerdings gerne selbst nachprüfen, bevor du hier auf lächerliche Art und Weise über weitere 5 Seiten der PCGH Propaganda oder ähnlichen Humbug vorwirfst.

Edit: Achja, leider verstehst du die genaue Problematik der 970 immer noch nicht, wenn du die ganze Zeit stumpf nur auf der VRAM-Größe rumreitest.

Troyan
2017-01-25, 12:44:28
Das ist genau was die Benchmarks belegen. Dein Anti-PCGH Kreuzzug ist äußerst lächerlich.

"Alternative Fakten".

Die Realität ist: 3,5GB der GTX970 sind besser als die 3GB der GTX1060. Die GTX970 fällt nicht hinter weniger Speicher ausgestattete GPUs zurück.

Der Vergleich mit AMD ist doch vollkommen sinnlos, da bei AMD 3GB reichen, wenn bei nVidia 4GB benötigt werden. :rolleyes:

M4xw0lf
2017-01-25, 12:48:33
"Alternative Fakten".

Die Realität ist: 3,5GB der GTX970 sind besser als die 3GB der GTX1060. Die GTX970 fällt nicht hinter weniger Speicher ausgestattete GPUs zurück.

Der Vergleich mit AMD ist doch vollkommen sinnlos, da bei AMD 3GB reichen, wenn bei nVidia 4GB benötigt werden. :rolleyes:
Wenn die 970 versucht, 4GB zu verwenden, dann wird sie langsamer als alles.
Das ist die Natur ihrer Speicheranbindung, handle mit es.

Sollte Nvidia Treiberanpassungen für die 970 bringen, die dafür sorgen, dass sie nur 3,5GB addressiert, dann wird sie auch normal performen. Für den Moment tut sie das aber offensichtlich nicht.

blaidd
2017-01-25, 13:03:11
Nein, natürlich nicht:

http://www.pcgameshardware.de/Resident-Evil-7-Biohazard-Spiel-57353/Specials/Benchmark-PC-Anforderungen-1219005/

Natürlich schreibt ihr es. Es ist billige Propaganda. Steht doch einfach dazu. :rolleyes:

Stimmt, das steht da. Die Karte performt in diesem Spiel nun mal auffällig mies. Das ist keine Propaganda (das wäre es, wenn wir das jedes Mal, in jedem Spiel auch bei offensichtlich nicht zutreffender Faktenlage schreiben würden), sondern eine Feststellung. Und die ist für dich nicht nur billig sondern sogar kostenfrei.

Aber stell dir doch einfach mal eine simple Frage: Was sollen wir denn bitteschön davon haben, die Karte "schlecht zu benchen"? Das ist lächerlich. Weder bewirft und Nvidia dafür dankbar mit Titan X's noch AMD mit irgendwas. Die schreiben ja nicht mal eine E-Mail. Bestenfalls bekommen wir Stress mit Besitzern dieser Karte, die sich an die Klöten gegriffen fühlen... du hast nicht zufällig auch eine?

Es gibt auch seitenweise Userberichte (ich klaub dir mal einen Post mit einigen Zitaten raus (http://www.neogaf.com/forum/showpost.php?p=229055264&postcount=544)), die über Probleme mit der GTX 970 klagen. Musst ja nicht uns glauben.

Btw. Ich sitze grad an einem Tuning-Artikel, der sich auch mal spezifisch mit der GTX 970 auseinandersetzt. Die ist immerhin noch weit verbreitet und es ist schon unschön, dass Spieler Probleme mit RE7 haben. Ich werd mal versuchen, die durch Tuning zu lösen; wobei ich natürlich nix gegen die zugrunde liegende Problematik der Hardware machen kann... aber ich denke mal, man bekommt das Spiel schon irgendwie flüssig.

EDIT: Falls nur das hier der Stein deines Anstoßes war:

Besonders stark ist die GTX 970 mit ihrem 3,5 + 0,5 GiByte segmentiertem Speicher betroffen, die eine gegenüber anderen "echten" 4-GiByte-Grafikkarten eine sehr unausgegorene Performance liefert und in hohen Auflösungen aufgrund des im Ganzen nur sehr langsam ansprechbaren RAMs sogar hinter eigentlich deutlich langsamere und mit weniger Speicher ausgestattete GPUs wie etwa die R9 280X zurückfällt.

Bitteschön:
Besonders stark ist die GTX 970 mit ihrem 3,5 + 0,5 GiByte segmentiertem Speicher betroffen, die eine gegenüber anderen "echten" 4-GiByte-Grafikkarten eine sehr unausgegorene Performance liefert und in hohen Auflösungen sogar hinter eigentlich deutlich langsamere und mit weniger Speicher ausgestattete GPUs wie etwa die R9 280X zurückfällt.

Schaffe89
2017-01-25, 13:07:35
"Alternative Fakten".

Die Realität ist: 3,5GB der GTX970 sind besser als die 3GB der GTX1060. Die GTX970 fällt nicht hinter weniger Speicher ausgestattete GPUs zurück.

Der Vergleich mit AMD ist doch vollkommen sinnlos, da bei AMD 3GB reichen, wenn bei nVidia 4GB benötigt werden. :rolleyes:

So ähnlich würde ich das unterschreiben, PCGH sollte es vielleicht ein bisschen umformulieren, damit klarer wird, was es bedeutet.

Allerdings glaube ich nicht ganz dran dass hier die Segmentierung der ausschlaggebende Faktor ist. 4K interessiert sowieso nicht die Bohne, interessant sind ´WHQD und Full HD und in WHQD ist die 3,5GB GTX 970 sicherlich vor der GTX 1060 3GB, aber recht weit hinter der GTX 980. Woran das nun genau liegt kann man doch gar nicht sagen, könnte die Segmentierung sein, allerdings auch lediglich die Speichermenge oder ein Treiberproblem bei sämtlichen Nvidiakarten unter 4GB, zudem ist die Nvidia Leistung recht niedrig in dem Game. Naja jedenfalls wieder worüber man sich unterhalten kann. Einfach die Settings bisschen runterschrauben und gut.

Schaffe89
2017-01-25, 13:11:44
Wenn die 970 versucht, 4GB zu verwenden, dann wird sie langsamer als alles.
Das ist die Natur ihrer Speicheranbindung, handle mit es.

Auch langsamer als mein Taschenrechner? Ne Spaß beiseite. Man sollte schon bisschen bei den Fakten bleiben und nicht irgendwelche Spekulationen als Fakten hindrehen. Ich hab schon oft mehr als 3,5GB belegt gesehen und die Performance ging trotzdem nicht messbar down.
Trotz dieser komischen Beschneidung performt die GTX 970 in 99,99% der Titel reibungslos. Und hier ist es auch nicht klar woran es liegen mag, offensichtlich ist dass Nvidia in diesem Titel viel mehr Ram belegt als AMD, da wird der Hund begraben liegen.

mkh79
2017-01-25, 13:45:30
Unwahrscheinlich, da die 1060/3G augenscheinlich vor der 970 liegt.
War doch klar, dass sich die Entscheidung von nvidia bei der GTX970 bezüglich der Art der Speicherausstattung im Speziellen irgendwann mal rächt, wurde doch schon vor Ewigkeiten prophezeit.
Das ist insofern ärgerlich, als dass 970- Käufer seinerzeit ja nicht bewusst die Entscheidung getroffen haben, eine Karte mit 3,5+05GB Speicher zu kaufen. Also kann man nur hoffen, dass sich ein solches Verhalten nicht oft wiederholt bei zukünftigen Titeln.

captain_drink
2017-01-25, 15:28:14
Im Fall von RE7 scheint bei NV generell irgendwas kaputt zu sein, entweder auf Treiber- oder auf App-Seite. Die unterdurchschnittliche Leistung lässt sich noch erklären, der Umstand, dass 3- und 4-Gigabyte-Karten von NV gnadenlos einbrechen, während sich solche von AMD gänzlich unbeeindruckt zeigen, hingegen nur schwerlich, zumal in der Vergangenheit (https://www.computerbase.de/2015-12/2gb-4gb-gtx-960-r9-380-vram-test/3/) das Umgekehrte der Fall war.
Daher würde ich mich mit Schlüssen auf die Auswirkungen einer Segmentierung o.ä. vorerst auch zurückhalten.

aufkrawall
2017-01-25, 15:35:28
Zumindest stottert es auch mit "normalen" 3GB NV-Karten in 1080p schon unerträglich.

Achill
2017-01-25, 16:54:26
Ich tippe einfach mal auf den Treiber-/Speicher-/Was-auch-Immer Overhead bei NV ... :devil: :weg:

---
Sry ;)

Troyan
2017-01-25, 17:18:07
PCGH hat ja einen Screenshot mit der Schattenqualität. Das selbe "Problem" wie in Hitman: Ineffiziente Techniken für ineffiziente Hardware.

Kein Bildqualitätsgewinn aber ein massiver Leistungsverlust, weil man einfach die Compute-Berechnungen in eine x-fache Schleife schickt, um ein paar Kanten höher aufzulösen. Exakt den selben Quatsch gibt es auch in Hitman. Da diese Effekte "Full-Screen"-Effekte sind, die immer auf das komplette Bild ampliziert werden, kosten sie Leistung und Speicher, selbst wenn nichts im Frame optisch verändert wird.

Schaffe89
2017-01-25, 20:01:59
Hitman läuft unheimlich schnell auf AMD Hardware, auch in Directx11. Die Vermutung liegt nahe dass AMD wie Nvidia damals mit Gameworks ein bisschen "cheatet" um mehr Performance vorzugaukeln und den anderen einzubremsen.

von Richthofen
2017-01-25, 20:04:35
AMD hat gar keine Gameworks-like Blackbox.

aufkrawall
2017-01-25, 20:17:42
Es scheint, je erdrückender die Faktenlage, desto wahnwitziger wird die Schönfärberei. :eek:
Schwachsinnstheorie über Schwachsinnstheorie...

r-or
2017-01-25, 20:38:00
Kein Bildqualitätsgewinn aber ein massiver Leistungsverlust
ungefähr so wie Tesselation die ersten paar Jahre? Oder eher so wie die meisten physx Effekte

aufkrawall
2017-01-25, 20:44:18
Nein, überhaupt nicht so. Er denkt sich einfach Dinge aus.

LDNV
2017-01-26, 02:04:03
Na ja, er ist nicht doof, er denkt nur anders ;D

aths
2017-01-27, 17:27:34
Das Problem ist einfach der gemeinsam genutzte L2 Cache der letzten 0,5 GB. Bei jedem "Wechsel" des "Speicherpools" muss der L2 neu gefüllt werden da die Daten nicht mehr passen. Das sind 1/7 garantierte misses beim 3,5 GB Pool und 100% Cache Miss beim Wechsel auf den 0,5 GB Pool. Da sind nun mal 3 GB die ihre Daten zu 90% aus dem L2 holen können eben schneller. Man muss halt auch verstehen wo die Bremse ist und nicht immer auf der Speichermenge herum reiten.
Beim Zugriff auf die oberen 512 MB ist mir nicht klar, ob sie den betreffenden Baustein mit 256 KB komplett flushen. Wahrscheinlich ja. Die anderen sechs Bausteine könnten ihren Inhalt behalten. Die Frage ist allerdings, ob der noch nützlich ist wenn die Karte wieder auf die unteren 3,5 GB zugreift. Vor allem müsste Baustein Nummer 7 erst mal neu befüllt werden.

Mr. Lolman
2017-01-28, 13:57:52
Wenn RE7 zu blöd ist zu kapieren, dass die GTX970 nur 3,5 plus 0,5 GB Speicher hat, und den Speicher der Grafikkarte wie volle 4 GB betrachtet, so dass die Leistung verhältnismäßig schlecht ist, dann kann doch die GTX970 nichts dafür.

Meinst du das Ernst oder check ich bloß deinen Sarkasmus nicht?

DarknessFalls
2017-01-28, 13:59:25
...also, ich empfange da eine sehr starke Portion Sarkasmus. :D

labecula
2017-01-28, 14:12:37
Ich glaub manche wollen es einfach nicht einsehen, dass sie damals Scheiße angedreht bekommen haben. Das diese Scheiße von nvidia verbockt wurde und nicht von den HErstellern des Spiels, scheint einigen nicht ins Hirn gehen zu wollen. Entweder man hat Glück und seine Krüppelkarte läuft mir einem Spiel oder man hat Pech. Das dann nicht nvidia ankreiden zu wollen zeugt von ziemlichem Realitätsverlust imho.

Effe
2017-01-28, 14:21:49
Aber Nvidia ist doch unfehlbar!!! Das trommelt doch ein Herr Troyan hier immer gerne. Nicht die Karte ist schuld, sondern die Benchmarks, die böse PCGH Redaktion, AMD, der Spieleentwickler...

StefanV
2017-01-28, 18:16:43
Stimmt, das steht da. Die Karte performt in diesem Spiel nun mal auffällig mies. Das ist keine Propaganda (das wäre es, wenn wir das jedes Mal, in jedem Spiel auch bei offensichtlich nicht zutreffender Faktenlage schreiben würden), sondern eine Feststellung.
Stimmt und damit wären wir beim Thema Told you so!

Schon damals, als die 970 raus kam, war genau dieser Zustand das, was einige Leute schon behauptet haben. Und wie es scheint, hatten die Recht...

Botcruscher
2017-01-28, 19:33:37
Warte mal ab bis die Treiberunterstützung auf normalen Umfang zurückgefahren wurde. Bis jetzt betreibt NV ja noch Schadensbegrenzung.

aufkrawall
2017-01-28, 19:37:11
Das ist zwar plausibel. Wie viel Nvidia aber wirklich macht oder nicht macht, können wir überhaupt nicht ermessen. Ich plädiere dafür, diese Spekulation einfach mal stecken zu lassen.
Problemfälle gab es von Anfang an und es gibt afaik keinen einzigen nachgewiesenen Fall, wo neuere Treiberversionen diese verbessert hätten. Wohl aber Spiel-Updates.

Kriton
2017-01-29, 13:23:49
Was streng genommen kein Argument pro 970 ist. Sicher gibt es entwicklerseitig die Möglichkeit beispielsweise speziell für die 970 auf 3,5 GB zu begrenzen - aber das ist wohl kaum der Sinn einer Karte, die mit 4 GB vermarktet wurde.

Schaffe89
2017-01-29, 13:43:46
Stimmt und damit wären wir beim Thema Told you so!



Bisher ist der Sachverhalt noch gar nicht ausreichend geklärt in diesem Spiel.
Kann das eine wie das andere sein. Die GTX 970 ist nach wie vor ne gute Karte, trotz des Speichers, die Probleme hielten sich erstaunlich in Grenzen, hätte ich anders erwartet.

deekey777
2017-01-29, 14:15:35
Meinst du das Ernst oder check ich bloß deinen Sarkasmus nicht?
Such dir eins aus. ;D

Ich find die Aussage symptomatisch für manche hier: So lange der Speicherbedarf unter 3,5 GB liegt, ist alles in Ordnung, steigt dieser, wird's problematisch. Aber es gibt kein Problem mit der GTX 970 4 GB, alles Propaganda.

Ex3cut3r
2017-01-29, 18:44:45
Naja wie man es nimmt, die 290X war damals imo vor allem nach der 3.5 GB Wahrheit, die bessere Karte.

https://abload.de/img/amd4gb-640x400q2u4q.jpg

AnarchX
2017-01-29, 19:16:10
Bitte lesen, anstatt zu überinterpretieren. Bei der PCGH sind zwei Dinge zu sehen:

– Die GTX 980 ist in FHD 39 Prozent schneller als die GTX 970 – bei gleichem Takt
– Die GTX 980 ist in WQHD 88 Prozent schneller als die GTX 970 – bei gleichem Takt
– Die GTX 980 ist in UHD 178 Prozent schneller als die GTX 970 – bei gleichem Takt

Da steht nirgends, dass 3,5+0,5 GiB schlechter sind als 3 GiB. Wobei man das angesichts der UHD-Werte durchaus sagen könnte, denn hier sind die steinalte GTX 780/3G und die GTX 1060/3G schneller als die GTX 970.

MfG,
Raff
Man muss sich in WHQD selbst einer OC 960 4G geschlagen geben.:freak:
Da fällt wohl die effektive Bandbreite durch Verwendung beider Segmente deutlich unter 100GB/s. Nvidia hätte da einen 3,5GiB Schalter in den Treiber implementieren sollen, so bliebe man wenigstens bei 224-BIt und 196GB/s.

RLZ
2017-01-29, 19:32:11
Naja wie man es nimmt, die 290X war damals imo vor allem nach der 3.5 GB Wahrheit, die bessere Karte.
Nope. Sicherlich nicht für jeden.

BlacKi
2017-01-29, 19:42:01
Naja wie man es nimmt, die 290X war damals imo vor allem nach der 3.5 GB Wahrheit, die bessere Karte.

https://abload.de/img/amd4gb-640x400q2u4q.jpg
vl ist sie heute die bessere karte, aber damals war sie es nicht, ob mit oder ohne x. von der 290, die ich mir letztes jahr günstig geschossen habe als meine 970 hops ging, war ich etwas enttäuscht. die performance war durchschnittlich deutlich schlechter auf meinem 1080p monitor. im nachhinein habe ich den kauf der 970 nie bereut.

aufkrawall
2017-01-29, 19:50:52
Ist ein valider Punkt. Je nah Nutzung hat man das Problem bis jetzt mitunter wirklich nicht selbst zu spüren bekommen.
Wenn man, so wie ich, extra wegen den vermeintlich 4GB für WQHD von einer 780 Ti gewechselt war, nun ja...
Aua & Wut. Radeon eingebaut, wieder ausgebaut, 980 gekauft. :D

dildo4u
2017-02-28, 03:52:50
970 Nachtest mit aktuellen Games:


https://youtu.be/fLKtdA7Ezyk

dargo
2018-02-18, 09:29:12
Liegts an der Applikation oder kommen hier die tollen Features der GTX970 zum Vorschein?

Ttmtc37Agus

Der Anzeige nach Applikation oder?

dildo4u
2018-02-18, 09:37:33
Das Game benötigt nich sonderlich viel Vram hat auch relativ schlechte Texturen es läuft einfach ranzig auf Mid Range Hardware.

Die 99th Frametimes sind im Bereich der 1060.

https://www.computerbase.de/2018-02/kingdom-come-deliverance-benchmark-test/2/

Gameplay auf der 1060 ca 2.6GB belegt.

https://youtu.be/yOrZD8dNjro

BlackBirdSR
2018-02-18, 10:59:25
Bei Star Citizen trifft es mich aktuell.
40% gpu auslastung, 13fps und konstant 3999MB VRam belegt...
Bisher habe ich keine Möglichkeit gefunden, das du beeinflussen.

Achill
2018-02-18, 11:13:06
970 Nachtest mit aktuellen Games:

https://youtu.be/fLKtdA7Ezyk

Ich verstehe den Sinn der Auswahl an Spielen nicht (hab mir aber auch nicht das Vid in voller Länge gegeben). Die Spiele sind schon alle etwas älter und sofern einmal Optimierungen für die 970 nötig waren, wird die NV doch nicht aus den Treiber schmeißen.

Wenn dann werden die Treiber bei aktuelle / zukünftige Spiele nicht mehr die gleiche Aufmerksamkeit auf die Besonderheit von 3.5+0.5 VRAM im Treiber bekommen - ob und wann wir man sehen.

Bei Star Citizen trifft es mich aktuell.
40% gpu auslastung, 13fps und konstant 3999MB VRam belegt...
Bisher habe ich keine Möglichkeit gefunden, das du beeinflussen.

Da ja auf CryEngine basierend, solltest du mit r_TexturesStreamPoolSize darauf Einfluss nehmen können.

Versuch mal r_TexturesStreamPoolSize = 2048 oder 1024 in einer eigenen user.cfg für SC. Mehr gern per PN oder in SC Thread?

gnomi
2018-02-22, 10:37:10
Habe den Nachtest glatt übersehen.
Ist ja mal ziemlich interessant. :wink:

Also die Karte ist sicher für den Preis und wegen der Rohleistung jetzt nicht voll das Desaster gewesen. (wenn man sich halt auf ein paar reduzierte Textur Details einlassen konnte oder das Spiel nicht gerade aufmuckte)
Aber verglichen mit der 980 wurde man schon etwas verschaukelt und hat qualitativ den kürzeren gezogen. (die war im Grunde genommen auch schon ein effizientes oberes Midrange Produkt zum damals stolzen Preis)
Und gerade bei neuen Spielen, die einfach dynamisch den verfügbaren Speicher einteilen, ist diese + 0,5 Lösung ohne Limitierung/Treiberanpassung halt Schrott.
Man spielt quasi vor sich hin mit B Ware...

Also die Gewinne von nvidia kommen ja nicht von ungefähr. Die pressen etwa seit 2-3 Generationen schon extrem viel raus, auch weil AMD zu spät halbwegs konkurrenzfähig ist.
Mal sehen, wie das so weiter läuft.
Na ja, zumindest wurde diese Sache dann doch aufgedeckt und immer mal wieder im Gespräch gehalten.
Bei den besseren GPU's, die von entsprechend anspruchsvollen Spielern gekauft werden, darf sowas nicht vorkommen!
Nvidia scheint zwar immer teurer zu werden, sich das aber immerhin gemerkt zu haben. ;)

G3cko
2018-03-07, 12:16:35
Nvidia scheint zwar immer teurer zu werden, sich das aber immerhin gemerkt zu haben. ;)

Nur weil es mal bis auf die GTX1060 mit 3GB eine weitestgehend unauffällige Generation gab muss man nicht gleich in Euphorie verfallen. Ich bin sicher nvidia hat bestimmt auch bereits den nächsten fragwürdigen "Kartentrick" im Ärmel.

Jede zweite Generation reicht ja auch und die Lemminge haben alles wieder vergessen.

=Floi=
2018-03-11, 07:30:21
umgedreht wäre es eine idee. 512MB exclusiv für (2D und) das OS langsam anbinden und den rest mit teuremVRAM bestücken.

Mortalvision
2018-03-11, 07:43:10
Klaro, aber leider kannst du der Karte nicht sagen, welchen Teil sie zuerst mit was vollmachen soll. Da kommen die schlechten 0,5GB immer zum Schluss...

gbm31
2018-04-20, 12:46:15
Ich weiss immer noch nicht ob ich jetzt aufrüsten soll oder nicht...

dildo4u
2018-04-20, 12:48:40
Lohnt sich nicht mehr da Pascal im Sommer abgelöst wird,noch dazu kosten 1070 um 500€ zur Zeit.Volta wird vermutlich nicht billiger aber natürlich deutlich schneller.

TwoBeers
2018-04-20, 14:32:29
Ich weiss immer noch nicht ob ich jetzt aufrüsten soll oder nicht...

Geht mir genauso. Aber es ist wohl wirklich gerade eine Zeit, wo sich warten mal "lohnt".
Wir müssen auf Volta/Turing warten und schauen wie dann die Preislage ist. Und wie es aussieht, dann gleich am Anfang zugreifen. :D

Am liebsten hätte ich ja ne AMD Karte, weil Nvidia zu sehr Monopolist wird .. aber wenn Nvidia irgendwann auch mal Freesync unterstützt, könnte ich schwach werden. ;)

aths
2018-04-20, 15:21:00
Habe den Nachtest glatt übersehen.
Ist ja mal ziemlich interessant. :wink:

Also die Karte ist sicher für den Preis und wegen der Rohleistung jetzt nicht voll das Desaster gewesen. (wenn man sich halt auf ein paar reduzierte Textur Details einlassen konnte oder das Spiel nicht gerade aufmuckte)
Aber verglichen mit der 980 wurde man schon etwas verschaukelt und hat qualitativ den kürzeren gezogen. (die war im Grunde genommen auch schon ein effizientes oberes Midrange Produkt zum damals stolzen Preis)
Und gerade bei neuen Spielen, die einfach dynamisch den verfügbaren Speicher einteilen, ist diese + 0,5 Lösung ohne Limitierung/Treiberanpassung halt Schrott.
Man spielt quasi vor sich hin mit B Ware...
Man hätte die 0,5 GB weglassen und ehrliche Angaben machen können, oder wenn dieses seltsame Konstrukt veröffentlicht wird, natürlich ehrliche Angaben machen müssen. Es gibt zum Beispiel kein 256-Bit-Interface, da zu einem Zeitpunkt nur bis zu 224 Bit genutzt werden können. Entsprechend ist die Bandbreite geringer.

Die Idee war offenkundig, die Karte bewusst früher altern zu lassen, also für eine Zeit in der die 4 GB gebraucht werden, die Performance zu reduzieren und damit die Kunden zum Kauf einer neuen Karte zu bewegen. Ist für den Preis auch zulässig gewesen, wenn die Architektur kommuniziert worden wäre. Aber im Gegenteil, es stand im Whitepaper, dass die 970 das gleiche Memory-System wie die 980 habe. Da gab es nie eine korrigierte Version von.

Offenbar wusste Nvidia, dass die Presse das mit sich machen lässt. Insgesamt sehe ich die Medien in der Pflicht, hier schonungslos aufzuklären und Nvidia-Mitarbeiter so lange immer wieder darauf anzusprechen, bis sie sich öffentlich und deutlich korrigieren.

Spasstiger
2018-04-21, 12:02:27
Insgesamt sehe ich die Medien in der Pflicht, hier schonungslos aufzuklären und Nvidia-Mitarbeiter so lange immer wieder darauf anzusprechen, bis sie sich öffentlich und deutlich korrigieren.
Tatsächlich sind die technischen Daten auf der Homepage nach wie vor falsch:
http://www.nvidia.de/object/geforce-gtx-970-de.html#pdpContent=2

Die Angabe "Max. Bandbreite 224 GB/s" kann angesichts der weltweiten Berichterstattung zu dem Thema und der Kenntnis von NV darüber nur als dreiste Lüge bezeichnet werden.
/EDIT: Es steht ja im Raum, dass das Speicherinterface kurzzeitig tatsächlich 224 GB/s liefern kann, wenn man die Speicheranfragen asymmetrisch auf die ROPs verteilt werden. Das habe ich aber bis heute durch keinen Benchmark bestätigt gesehen. Die GTX 970 erreicht in allen mir bekannten Benchmarks stets niedrigere Speicherbandbreiten als die GTX 980.

Eigentlich hätte die Presse als Reaktion auf die GTX 970 verzichten sollen, die Peak-Spezifikationen von Nvidia zu rezitieren, und stattdessen reale Messwerte heranziehen sollen.

amdfanuwe
2018-04-21, 15:27:32
Hallo,

wir haben eine Windows Mixed Reality Brille an einer Asus 970 betreiben wollen.
Kam immer die Fehlermeldung: Video Kabel anschließen.
Über einen DP - HDMI Adapter funktioniert es.
An einer RX 480 auch keine Probleme.

Betrieb eines Monitors über den HDMI Port an der 970 klappt auch.

Warum kann ich die WMR nicht native über HDMI an der 970 betreiben? Jemand damit erfahrung?

=Floi=
2018-04-22, 06:03:39
https://support.microsoft.com/de-de/help/4039260/windows-10-mixed-reality-pc-hardware-guidelines

hier wird auch mit einem adapter gearbeitet

Veeegie
2018-04-22, 18:41:57
JA wann wechseln.
Das Problem sind nicht nur die Preise der Graka´s, sondern ebenfalls dass es keine 24" 144hz IPS gibt. Möchte man den Qualitätsschub, dann kommt nur 27" WQHD in Frage und schon ist man vor nem Berg voll kosten.

Ich habe gehofft das gute TN Panel des LG 24GM79G-B wäre eine Alternative aber mich hat er nicht überzeugt. Turing könnte Abhilfe schaffen, wenn in Folge dessen paar günstige 1080ti´s in der Bucht landen, aber mit den aufsteigenden Coin-Kursen schwindet bei mir die Hoffnung.

gnomi
2018-04-23, 08:41:28
Jo, nicht so einfach.
Zum Glück bieten Spiele heutzutage auch oft ganz gute Erklärungen bei den Grafikoptionen. Und noch wichtiger, der VRAM Verbrauch wird des öfteren angezeigt.
Die 970 hat ja durchaus für Full HD noch ganz gut Power.
Fast alle AAA Entwickler berücksichtigen bei den Voraussetzungen ohnehin, dass diese Karte überall noch im Einsatz ist.
Nur alles mal eben auf Very High bis Ultra Preset stellen ist etwas problematisch...
Will man was wirklich besseres, müsste man schon auf WQHD mit GSync / FreeSync und eine 1070 oder besser/vergleichbar gehen finde ich, was echt teuer kommt.

The_Invisible
2019-01-18, 14:12:47
Wie ist der Stand heute bzw. hat noch wer eine 970er im Rechner?

Laut PCGH Bench hier http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Specials/Benchmark-Performance-Analysis-1272805/2/ hält sie ja noch ganz wacker mit. :)

robbitop
2019-01-18, 14:27:55
Textur und Schattendetails ne Stufe runter und dann ist sie in 1080p schon noch ziemlich ok - habe eine gut übertaktete im 2. PC. Man sollte halt drauf achten, dass der vram nicht mehr als 3.5 gb voll ist.
Aus Faulheit butze uch mittlerweile oft die Optimierungsfunktion der Gegorce Experience. Funktioniert ziemlich gut (wenn man selbst hand anlegt sicher aber etwas besser - aber mittlerweile ist Freizeit ein knappes Gut).

Arcanoxer
2019-02-05, 06:02:55
Wie ist der Stand heute bzw. hat noch wer eine 970er im Rechner?

Laut PCGH Bench hier http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Specials/Benchmark-Performance-Analysis-1272805/2/ hält sie ja noch ganz wacker mit. :)
Aber Hallo, mir ist gestern beim entsorgen von Elektronik OVP die Rechnung der GTX970 Strix von Asus in die Hände gefallen, vom 19.09.2014! :eek:
Die Karte verrichtet noch immer ihre Arbeit ohne jegliche Probleme in mein PC.
So lange hat es noch keine GPU am Stück in ein Rechner bei mir durchgehalten.

Totgesagt lebt wohl wirklich länger. ;)

Korfox
2019-02-05, 07:33:41
Meine läuft auch nach wie vor. Auch seit Ende 2014, denke ich.
Ich habe damit nach wie vor keine Probleme, was ich spielen will schmeißt sie mir auch hinreichend flüssig auf den Bildschirm.

downforze
2019-02-20, 08:36:57
Dann setzt mal Anti Aliasing ordentlich hoch. Das war es dann mit 3,5 GB. Wobei hier die Frage ist, ob hier nicht bereits in den langsamen Speicherbereich addressiert wird.

dildo4u
2019-04-09, 14:54:46
Nachtest mit aktuellen Games gegen 290 4GB.


nty9Hcy1jaU

][immy
2019-04-09, 15:51:32
Nachtest mit aktuellen Games gegen 290 4GB.


https://youtu.be/mVnWPvufIuo
wie schon so häufig in der Vergangenheit. Nvidia hat gleich zum start quasi schon die Top-Performance, während AMD über die Zeit mit Treiberoptimierungen nachlegt.

Naja, die 0,5GB langsamer Vram dürften wohl kaum noch ein Problem sein, immerhin sollte es nach wie vor schneller sein, als wenn etwas von der Platte nachgeladen werden muss. Zudem liegt die Grenze bei Ultra-Details bei aktuellen titeln wohl irgendwo bei 3,x GB, denn die 1060er 3GB lässt hier relativ schnell federn. Aber nunja, Ultra Details und 1060er passt dann auch nicht so wirklich zusammen. Genauso wie Ultra Details und eine 5 Jahre alte Karte. Aber schön zu sehen, wie gut die noch mithalten können.

gbm31
2019-04-09, 16:06:37
[immy;11968032']wie schon so häufig in der Vergangenheit. Nvidia hat gleich zum start quasi schon die Top-Performance, während AMD über die Zeit mit Treiberoptimierungen nachlegt.

Naja, die 0,5GB langsamer Vram dürften wohl kaum noch ein Problem sein, immerhin sollte es nach wie vor schneller sein, als wenn etwas von der Platte nachgeladen werden muss. Zudem liegt die Grenze bei Ultra-Details bei aktuellen titeln wohl irgendwo bei 3,x GB, denn die 1060er 3GB lässt hier relativ schnell federn. Aber nunja, Ultra Details und 1060er passt dann auch nicht so wirklich zusammen. Genauso wie Ultra Details und eine 5 Jahre alte Karte. Aber schön zu sehen, wie gut die noch mithalten können.

Ich weiss nicht ob es die Treiberoptimierungen sind... Eher dass die AMD-Karten auf neuere Funktionen und Engines ausgelegt sind, und eben über Hubraum und nicht über Drehzahl punkten.

Deswegen stand für mich auch nicht zur Debatte ob ich zur VII oder zur 2080 greife. :-)

Ex3cut3r
2019-04-09, 17:44:29
Checke ich nicht, im Video gibt es genug Spiele, wo die 970 schneller rechnet als die 290er, hält sich imo die Waage, aber hier wird es so verkauft, als ob die 290 jedesmal immens scheller wäre. :confused:

Aber ist mal wieder typisch. Nur wenn ich gegen Ryzen anstinke kommt gleich die Meute, einfach nur herrlich. ;D

Monsta
2019-04-09, 18:16:52
Checke ich nicht, im Video gibt es genug Spiele, wo die 970 schneller rechnet als die 290er, hält sich imo die Waage, aber hier wird es so verkauft, als ob die 290 jedesmal immens scheller wäre. :confused:

Aber ist mal wieder typisch. Nur wenn ich gegen Ryzen anstinke kommt gleich die Meute, einfach nur herrlich. ;D


Die 290er Serie ist aber von 2013 und stand in Konkurenz zur 780er und 770er Serie. Die 770er hatte einen ähnlichen Preis wie die 290er. Hatte aber nur halben Ram, und sieht heute garantiert kein Land gegen diese mehr.

Von daher, wer ne 290er gekauft hatte, hatte alles richtig gemacht. Die 770er war ja nur ne umgelabelte 680er.

crux2005
2019-04-09, 18:20:47
Wenn ich es überspitzt sagen wollte. Es ist überraschend das nVidia mithalten kann wo AMD doch ein Konsolen Monopol hat und so viele Spiele (auf PC) portiert werden.

Ex3cut3r
2019-04-09, 18:22:25
Hawaii kam doch Ende 2013 auf den Markt und war Amds „neue Gen“ hatte zum rls. aber Probleme gegen Kepler, stimmt. Maxwell war doch Nvidia Antwort auf Hawaii? Wenn nicht, was war Amds Antwort auf Maxwell? Fiji? die erst 2015 mit 4GB HBM kam?

IMO war AMD schon damals vollkommen abgehängt, es ist löblich das Sie bei den CPUs wieder gut dabei sind, und die Radeon 7 ist auch wieder gut dabei, ich fürchte allerdings das Nvidias 7nm Gen wieder voll einschlagen wird.

Ex3cut3r
2019-04-09, 18:26:13
Löschen bitte. (Blödes Handy)

Monsta
2019-04-09, 18:54:15
Maxwell kam ende 2014, und war zu release deutlich besser als Hawai. Aber jetzt 2019 ist die 290er im Schnitt besser als die 970er.

Amd hat dann die 390er released. Ist ja nur ein Rebrand. Aber mit optional 8Gb
Ram.

Da würde ich ne 390x mit 8Gb ner 980er vorziehen.

Pirx
2019-04-09, 19:12:20
die allermeisten 390er haben doch 8 GB, oder?

aufkrawall
2019-04-09, 19:24:41
Afair gab es die 390er nie mit weniger als 8GB. Hatte auch optimierte Speichertimings vs. 290er.
Trotzdem ist Hawaii halt einfach alt. Mehr Performance-Ausfälle nach unten als Polaris, grottige VPU und wackeliger Linux-Support. Hätte die 970 nicht den Krüppel-VRAM, wärs mit 1,4GHz immer noch eine richtig gute 1080p-Karte und sogar noch bedingt WQHD-tauglich.

LDNV
2019-04-10, 13:55:11
Maxwell kam ende 2014, und war zu release deutlich besser als Hawai. Aber jetzt 2019 ist die 290er im Schnitt besser als die 970er.

Amd hat dann die 390er released. Ist ja nur ein Rebrand. Aber mit optional 8Gb
Ram.

Da würde ich ne 390x mit 8Gb ner 980er vorziehen.

Ist ein ähnliches Bild wie jetzt.
Zu Release der Vega Karten lagen die fast überall hinter 1070 / 1080.
Schaut man sich die Benches der jetzt in 2019 erschienenen Spiele an sieht das schon teils deutlich anders aus.

Habe mir den Spaß auch mal gegönnt und gegen einen sehr sehr geringen Aufpreis meine 1070 Strix gegen eine Vega 64 Strix getauscht. Meine 1070 war ja auch optimiert mittels UV und lief bei 2000 / 4600.

Bin trotzdem sehr beeindruckt wie viel sich da raus holen lässt mittels UV und wie das Ding performt.

Hier darf man wohl wieder mal von:

https://abload.de/thumb/6x6nmnsf36pzvzjnc.jpg (http://abload.de/image.php?img=6x6nmnsf36pzvzjnc.jpg)

reden :freak:

BlacKi
2019-04-10, 15:17:07
Da würde ich ne 390x mit 8Gb ner 980er vorziehen.
kommt drauf an, bei esport titeln @144hz auch heute definitiv nicht. notfalls texturen runter, auf die kommts dort eh nicht an.

Ex3cut3r
2019-04-10, 15:17:14
Jep, Finewine oder auch verschenkte Leistung zum Rls. :freak:

Blediator16
2019-04-10, 15:48:53
Jep, Finewine oder auch verschenkte Leistung zum Rls. :freak:

Hör doch auf mit dieser verbitterten Denkweise. Was ist denn los mit dir.
Wenn jemand sich eine dementsprechende Karte zu dem Zeitpunkt gekauft hat für x €, dann geschah dies im vollen Bewusstsein der aktuellen Leistung. Wenn man nun eine sehr stabile Leistung in 2018/2019 Titeln hat, dann ist dies nun negativ? :rolleyes:

Ex3cut3r
2019-04-10, 15:52:06
Nein, wäre aber wünschenswert wenn AMD auch mal zum Rls. die Leistung auf die Straße bringt, wäre das nicht auch mal toll? :rolleyes:

LDNV
2019-04-10, 18:28:43
Afair gab es die 390er nie mit weniger als 8GB. Hatte auch optimierte Speichertimings vs. 290er.
Trotzdem ist Hawaii halt einfach alt. Mehr Performance-Ausfälle nach unten als Polaris, grottige VPU und wackeliger Linux-Support. Hätte die 970 nicht den Krüppel-VRAM, wärs mit 1,4GHz immer noch eine richtig gute 1080p-Karte und sogar noch bedingt WQHD-tauglich.

Das ist sie tatsächlich auch heute noch.
Ich hab hier eine MSI Gaming X 970 im zweit System mit Custom Bios auf 1400 / 3900 mit UV laufen, die ein Full HD Monitor befeuert. Das sie dazu noch flüsterleise ist und verhältnismäßig kühl bleibt versteht sich von selbst :)

Aktuelle Games, sofern bereit ist die schieberegler zu bedienen, und auch den Textur Regler (leider) befeuert sie durchaus noch mit ansehnlichen Details bei 60 FPS. Denke bis nächstes Jahr wird sie ihren Dienst noch verrichten dürfen.

Neue GPU sieht das System erst wenn ich mir wieder eine neue kaufe.

(Ist so die übliche Rotation zwischen meinen PC und dem meiner Frau ;D )

Benutzername
2019-04-10, 21:59:47
Nein, wäre aber wünschenswert wenn AMD auch mal zum Rls. die Leistung auf die Straße bringt, wäre das nicht auch mal toll? :rolleyes:


Dann bezahl mehr Treiberprogrammierer und Tester und so Volk für AMD. nVidia hat einfach mehr Leute die den Treiber schreiben.

BlacKi
2019-04-11, 05:34:12
Dann bezahl mehr Treiberprogrammierer und Tester und so Volk für AMD. nVidia hat einfach mehr Leute die den Treiber schreiben.
ach mit dem ganzen geld das amd mit ryzen macht, liegt es nun an amd zu zeigen ob sie sich verbessern können.

basix
2019-04-11, 06:58:36
Vermutlich sind es nicht nur die Treiber die sich verbessern, sondern was eher grösseren Einfluss hat dass sich die Spiele ändern. Es wird immer Shader- und Compute lastiger und da hatte AMD mit Ausnahme Turing einen Vorteil. Dazu noch der üppigere Speicherausbau.

SKYNET
2019-04-11, 11:37:24
ach mit dem ganzen geld das amd mit ryzen macht, liegt es nun an amd zu zeigen ob sie sich verbessern können.

das fliesst nun vornehmlich erstmal wieder in die entwicklung der CPUs und GPUs... wird nur ein "bruchteil" sein was für neue treiberlinge rausgehauen wird, die kriegskasse muss erstmal wieder gefüllt werden.

gnomi
2019-04-14, 11:09:04
Bin auch eher leicht überrascht, was die 970 noch abliefert. =)
Schade, dass keine 980 OC sowie Frametimes und Texturstufen Vergleiche mit getestet wurden.
Da ich so eine Karte habe, diese jedoch auch teurer in der Anschaffung war, hätte ich gerne die genauen Unterschiede über die Jahre dokumentiert gesehen. (wäre jedoch enormer Aufwand, und kümmert eh kaum einen ;))
Die 290 gefällt mir auch gut muss ich sagen. Gerade in neuen Spielen sehr beeindruckend.
Verschweigen darf man jedoch nicht, dass verbreitete Sachen wie E Sports Games oder UE4 teils scheinbar nicht ganz so gut laufen.
Ich kann mich gut erinnern, dass gerade mit DX 11 und Intel CPU's immer sehr gute Performance bei nvidia geboten wurde.
Anders als bei der 680 hat nvidia bei der 980 leider keine 8GB Karte mehr nachgeschoben. Die gegen die 390 getestet wäre wieder spannend.
Alles in allem wundert mich nicht, dass sich nvidia klar besser verkauft.
Okay. Es ist auch total so ein Image und Marken Ding mittlerweile. (bis auf FX Serie erste Auflage kann ich mich jedoch auch an keinen Totalausfall erinnern)
AMD ist imho eher in Foren und Retail Markt beliebt. Manchmal erscheinen mir die Karten auf längere Sicht überzeugender. Aber ich bin auch so ein Käufer, den das Null interessiert. Geärgert habe ich mich erst exakt einmal. (keine 9700 gekauft; die GPU hat nvidia wegen performantem Shader 2.0 Support alt aussehen lassen!)

dildo4u
2020-03-27, 11:12:54
Aktueller Test mit Doom 2020.
GTX 970 schneidet imo besser als erwartet ab,Low scheint immer noch rein zuhauen was Vram angeht,die 570 mit 8GB ist deutlich besser als die 570 mit 4GB die fällt unter die 970.


https://youtu.be/pm9awf5ceJ0

unl34shed
2020-03-27, 12:26:40
Ich glaub nicht, dass es in den Settings wirklich die 3GB reißt.
Die 4GB 5500XT, juckt es überhaupt nicht, genauso wie die Fury mit 4GB.
1060 steht auch recht solide da.

Die 700er bekommen wohl gar kein Support mehr -> 780ti sollte ja so schnell sein wie die 970, hier aber nicht mal halb so schnell.

Benutzername
2020-03-27, 12:37:06
Ich glaub nicht, dass es in den Settings wirklich die 3GB reißt.
Die 4GB 5500XT, juckt es überhaupt nicht, genauso wie die Fury mit 4GB.
1060 steht auch recht solide da.

Die 700er bekommen wohl gar kein Support mehr -> 780ti sollte ja so schnell sein wie die 970, hier aber nicht mal halb so schnell.

Wird wohl am Treiber liegen. Die 700er sind end-of-life bei nvidia.

SKYNET
2020-03-27, 19:35:07
Wird wohl am Treiber liegen. Die 700er sind end-of-life bei nvidia.


nur die mobile, die desktop werden offiziell noch supported

Raff
2020-03-27, 22:21:31
Bei der nächsten "Runde" dürfte das aber durch sein. Kepler ist gerade acht Jahre alt geworden und selbst die alt-ehrwürdige Titan "Classic" (Baujahr 2013) reißt trotz 6 GiByte keine Bäume mehr aus.

MfG
Raff

Ex3cut3r
2020-03-28, 00:07:47
Bei der nächsten "Runde" dürfte das aber durch sein. Kepler ist gerade acht Jahre alt geworden und selbst die alt-ehrwürdige Titan "Classic" (Baujahr 2013) reißt trotz 6 GiByte keine Bäume mehr aus.

MfG
Raff

Schon so alt? Boah wie die Zeit vergeht hatte selbst nur einen Full GK104 Chip.

FdEse4I7UuM

:biggrin:

Raff
2020-03-28, 00:25:28
Leichenschänder! :biggrin:

Apropos, wenn auch hart offtopic, ich habe gerade meine "accelerierte" HD 7970 im Rechner. 1.200/3.000 MHz aus dem Stand. Ob die 1.250/3.600 MHz von damals (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=9360780&postcount=359) noch gehen - und was damit 2020 geht? Ich werd's rausfinden. Die Titan @ quasi-gleichem Takt folgt. :naughty:

MfG
Raff

SKYNET
2020-03-28, 00:52:15
Bei der nächsten "Runde" dürfte das aber durch sein. Kepler ist gerade acht Jahre alt geworden und selbst die alt-ehrwürdige Titan "Classic" (Baujahr 2013) reißt trotz 6 GiByte keine Bäume mehr aus.

MfG
Raff

mal den teufel nicht an die wand... bin froh das ich grad die lösung für meine 880M gefunden habe aktuelle treiber zu installieren :freak:

SKYNET
2020-03-28, 00:58:42
Leichenschänder! :biggrin:

Apropos, wenn auch hart offtopic, ich habe gerade meine "accelerierte" HD 7970 im Rechner. 1.200/3.000 MHz aus dem Stand. Ob die 1.250/3.600 MHz von damals (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=9360780&postcount=359) noch gehen - und was damit 2020 geht? Ich werd's rausfinden. Die Titan @ quasi-gleichem Takt folgt. :naughty:

MfG
Raff


lass mal ne 760 mit durchlaufen, die ist normal gleich schnell wie ne 880M...

zumindest solange man die 880M nicht auf 1250/6000 laufen lässt ;D

=Floi=
2020-03-28, 13:12:07
Wird wohl am Treiber liegen. Die 700er sind end-of-life bei nvidia.
immer das gleiche gelaber. was soll denn der treiber groß ändern?!

Die 780ti hat eben nur 3gb
Die 7xx serie beherrscht das culling noch nicht so gut wie die nachfolger generationen. (den unterschied merkt man bei crysis extrem!)
der GPGPU bereich ist auch noch nicht so schnell und gut ausgebaut wie bei den moderneren generationen. Es gibt auch kein DX12 auf der serie!
Die TF sind nur auf dem papier.

SKYNET
2020-03-28, 16:11:39
immer das gleiche gelaber. was soll denn der treiber groß ändern?!

Die 780ti hat eben nur 3gb
Die 7xx serie beherrscht das culling noch nicht so gut wie die nachfolger generationen. (den unterschied merkt man bei crysis extrem!)
der GPGPU bereich ist auch noch nicht so schnell und gut ausgebaut wie bei den moderneren generationen. Es gibt auch kein DX12 auf der serie!
Die TF sind nur auf dem papier.

also die 880M kann DX12... und ist nen GK104(=GTX 770)

seaFs
2020-03-28, 22:26:16
also die 880M kann DX12... und ist nen GK104(=GTX 770)
Ja, DirectX12 mit Feature Level 11, weil DX11 ein Subset von DX12 ist. Die neuen DX12-Funktionen sind deshalb trotzdem nicht verfügbar.

Ex3cut3r
2020-03-29, 16:04:18
Genau, erst ab Maxwell 2 gibt es DirectX 12 FL 12_1. Ab Turing dann bald auch DirectX 12 Ultimate