PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Diskussion zur GTX970-Problematik: Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24

aufkrawall
2015-09-09, 18:03:18
Etwas verwirrend finde ich "lower is better", aber es gibt auch extreme Ausreißer ins Negative. Mag mir jemand erklären, was es damit auf sich hat?

(del)
2015-09-09, 18:23:16
Die sollten eigentlich die Skala definiert haben, so etwas darf man nicht abschneiden.

Erkläre mir bitte, wie ich quasi gedropte Frames so über die Achse darstellen kann, dass der Rest nicht als gerader Strich in der Mitte übrig bleibt - dann mache ich es natürlich. :D

Etwas verwirrend finde ich "lower is better", aber es gibt auch extreme Ausreißer ins Negative. Mag mir jemand erklären, was es damit auf sich hat?
Die Überschift beinhaltet das Wort "Variance", also Differenz. Und die kann vorzeichenunabhängig kleiner oder größer sein. Es sind ja keine Renderzeiten in der Verlaufskurve, sondern es wird die Glätte des Verlaufs dargestellt. Es wird dafür stets die Differenz zwischen zwei Frames bewertet. Sicher könnte man es als Absolutwert ohne Vorzeichen darstellen, nur empfindet man den Übergang zum langsameren Frame störender, als zum schneller gerenderten. Deshalb gibt es die tatsächlichen Differenzwerte mit gemeinsamer Nulllinie als Idealwert. Im bald anstehenden Launchartikel zu einer sehr kurzen Karte habe ich sogar drei Auswertungen für jeden Benchmark und Auflösung im Angebot. Die absoluten Renderzeiten jedes einzelnen Frames als Verlauf, die zum eigenen Durchschnitt normalisierten (und damit übereinander liegenden) Verläufe und diese Differenz-Kurven hier mit der Bewertung der Glätte. Allerdings dann nicht als Einzelbild pro Karte, sondern als Vergleich aller beteiligten Karten. :)

Naja... ich wundere mich halt etwas weil alle drei Karten exakt bei 50ms liegen.
Ich habe die Koordinaten identisch gewählt, damit man es besser vergleichen kann. Die 980 liegt deutlich darunter. Nur dass die R9 390X mit ihren fetten 8GB kaum besser aussieht als die 970. ;)

dargo
2015-09-09, 18:38:36
Ich habe die Koordinaten identisch gewählt, damit man es besser vergleichen kann. Die 980 liegt deutlich darunter. Nur dass die R9 390X mit ihren fetten 8GB kaum besser aussieht. ;)
Das brauchst du mir nicht erzählen. Ich kenne Witcher 3 ganz gut und weiß auch, dass Spikes in diesem Spiel szenenabhängig sind. ;) Zudem gehts hier auch um die Höhe der Ausschläge. Es ist ein riesen Unterschied ob etwas im Breich von 10-15ms spiked oder mit 50+ms.

PS: wie hoch waren jetzt die ms bei der 970 bei den besagten zwei Stellen? Die Werte müsstest du noch auf Platte haben oder alles schon weg?

aufkrawall
2015-09-09, 18:40:48
Kannst du mit der 970 mal prerenderlimit 1 per Treiber testen?

-/\-CruNcher-/\-
2015-09-09, 18:55:28
Batman ist übelster Konsolenschund, selbst nach dem "Patch" :)

Gerade mal Witcher 3 in QHD auf max. Details laufen lassen. Das ist kein synthetischer Benchmark, sondern ich habe nach reichlich 20 Minuten einen Speicherpunkt als Start für eine Messung gesetzt. Danach bin ich immer den gleichen Weg abgelaufen (Wald, Fluss, Dorf - 61 sec.).

GTX 970 Mini OC: 39,7 fps (34 fps min)
http://media.bestofmicro.com/K/T/525629/original/01-Witcher-3-GTX-970-OC.png

GTX 980 OC: 46,7 fps (41 fps min)
http://media.bestofmicro.com/K/S/525628/original/02-Witcher-3-GTX-980-OC.png

R9 390X OC: 42,9 fps (35 fps min)
http://media.bestofmicro.com/K/R/525627/original/03-Witcher-3-R9-390X-OC.png

Es gibt also auch Situationen, wo einem die 8GB gar nichts bringen. Je nach Titel und dessen möglicher Nvidia-Lastigkeit ;)
Und: nicht jeder steht auf CoD und Batman oder modded sich die Platte mit Pixeltapeten voll :D

nimm mal bitte die komplete PP last von der GTX 970 und 390X das wirkt wunder bei mir in 4K ;)

Witcher 3 Red Engine 3 hat ein sehr sauberes Menü und die sachen sind genau da wo sie sein sollen da hat einer ordentlich aufgeteilt, so sollte es nur noch Standard sein bei PC Games das PP muss auf jedenfall den usern zugänglich gemacht werden egal ob der Light/Enviroment artist seine vision gefährdet sieht wie das Egebnis von jedem gleich empfunden werden soll, der PC ist einfach keine Konsole die Polen kapieren das ;)

Aber der Druck ist schon so enorm was das Angeht ich bin zuversichtlich das niemand das mehr verpasst und die Zeit investiert wird sonst hagelts wieder Shitstorms *g*

(del)
2015-09-09, 19:11:39
Das brauchst du mir nicht erzählen. Ich kenne Witcher 3 ganz gut und weiß auch, dass Spikes in diesem Spiel szenenabhängig sind. ;) Zudem gehts hier auch um die Höhe der Ausschläge. Es ist ein riesen Unterschied ob etwas im Breich von 10-15ms spiked oder mit 50+ms.

PS: wie hoch waren jetzt die ms bei der 970 bei den besagten zwei Stellen? Die Werte müsstest du noch auf Platte haben oder alles schon weg?

bei mir kommt NICHTS weg, vor allen schon wegen der möglichen Nachfragen :D

http://media.bestofmicro.com/L/P/525661/original/01-Witcher-3-GTX-970-OC-II.png

http://media.bestofmicro.com/L/S/525664/original/01-Witcher-3-GTX-970-OC-III.png

Frames total: 2669
Time total: 67218 ms
FPS min: 34.3
FPS max: 46.1
FPS avg: 39.7

Frame time min: 7.84 ms
Frame time max: 85.46 ms
Frame time avg: 25.24 ms

-/\-CruNcher-/\-
2015-09-09, 19:18:39
bei mir kommt NICHTS weg, vor allen schon wegen der möglichen Nachfragen :D

http://media.bestofmicro.com/L/P/525661/original/01-Witcher-3-GTX-970-OC-II.png

http://media.bestofmicro.com/L/S/525664/original/01-Witcher-3-GTX-970-OC-III.png

Frames total: 2669
Time total: 67218 ms
FPS min: 34.3
FPS max: 46.1
FPS avg: 39.7

Frame time min: 7.84 ms
Frame time max: 85.46 ms
Frame time avg: 25.24 ms


könntest du die Szene bitte erklären in einem Video,das sie nachvolziehbarer wird ;) ?
Da muss ich sagen muss ich auch mal PCGH loben das ist Standard bei ihnen ;)

Deine Frametime Messmethodik ist noch OS Intern über Fraps logs richtig ?

aufkrawall
2015-09-09, 19:22:33
Die Überschift beinhaltet das Wort "Variance", also Differenz. Und die kann vorzeichenunabhängig kleiner oder größer sein. Es sind ja keine Renderzeiten in der Verlaufskurve, sondern es wird die Glätte des Verlaufs dargestellt. Es wird dafür stets die Differenz zwischen zwei Frames bewertet. Sicher könnte man es als Absolutwert ohne Vorzeichen darstellen, nur empfindet man den Übergang zum langsameren Frame störender, als zum schneller gerenderten.

Aus dem Render-Stall ergibt sich eine verkürzte Anzeige eines darauffolgenden Frames?


Ich habe die Koordinaten identisch gewählt, damit man es besser vergleichen kann. Die 980 liegt deutlich darunter. Nur dass die R9 390X mit ihren fetten 8GB kaum besser aussieht als die 970. ;)
Wie gesagt, ist der VRAM-Verbrauch des Spiels gering.
Eigentlich ist das ohne weitere Erklärungen schon wieder irreführend, weil das impliziert, 8GB wären bei aktuellen Spielen selbst gegenüber dem Krüppel-Interface der 970 überhaupt nicht von Vorteil...

dargo
2015-09-09, 19:31:41
bei mir kommt NICHTS weg, vor allen schon wegen der möglichen Nachfragen :D

http://media.bestofmicro.com/L/P/525661/original/01-Witcher-3-GTX-970-OC-II.png

http://media.bestofmicro.com/L/S/525664/original/01-Witcher-3-GTX-970-OC-III.png

Frames total: 2669
Time total: 67218 ms
FPS min: 34.3
FPS max: 46.1
FPS avg: 39.7

Frame time min: 7.84 ms
Frame time max: 85.46 ms
Frame time avg: 25.24 ms
Danke. :)


Wie gesagt, ist der VRAM-Verbrauch des Spiels gering.
Eigentlich ist das ohne weitere Erklärungen schon wieder irreführend, weil das impliziert, 8GB wären bei aktuellen Spielen selbst gegenüber dem Krüppel-Interface der 970 überhaupt nicht von Vorteil...
Erstens das und zweitens ist mir gerade folgendes eingefallen.
Die Frametime-Messungen zeigen dabei eine merkwürdige Eigenheit. Denn das Spiel hat die Angewohnheit, bei der gleichen Szene nicht nachvollziehbar unterschiedliche Frametimes zu erzeugen. Beim ersten Programmstart sind die Frametimes mitunter gut, beim zweiten dann plötzlich nicht mehr, während beim dritten Versuch wieder alles in Ordnung ist. Dies geschieht sowohl auf GeForce- als auch auf Radeon-Karten. Die in den Diagrammen gezeigten Frametimes stellen deshalb notgedrungen nur eine Momentaufnahme dieser Messung dar.
http://www.computerbase.de/2015-05/witcher-3-grafikkarten-test-benchmark-prozessoren-vergleich/2/

Ich würde also sagen das Game ist nicht gerade gut für solche Vergleiche geeignet. Wobei ich nicht sagen kann ob das mit V1.08 immer noch so ist. Ich habe das Spiel nicht seit Release.

-/\-CruNcher-/\-
2015-09-09, 19:37:02
Übrigens ich finde es immer besser nach zielen der Entwickler zu testen und das waren hier 33.3 ms ;)

bei 1080p kann man schon 16.6 ms ansetzen ;)

Mit Gameworks overhead sollte man realistisch bei 33.3 ms bleiben vor allem auf DX 11 bei über 1080p ;)

ansonsten muss man einfach tiefer in die Tasche greifen

Die Shader/CPU zu entlasten bringt mehr Stabilität als auf die 9 FPS als improvement im overall zu hoffen ohne G-sync oder Free Sync kosten ;)

dargo
2015-09-09, 19:40:08
33,33ms oder 16,66ms ist Steinzeit seitdem es VRR gibt. :P

(del)
2015-09-09, 19:42:16
könntest du die Szene bitte erklären in einem Video,das sie nachvolziehbarer wird ;) ?
Da muss ich sagen muss ich auch mal PCGH loben das ist Standard bei ihnen ;)
Deine Frametime Messmethodik ist noch OS Intern über Fraps logs richtig ?

Ich habe das jetzt mal schnell zwischen Frühstück und Gänsebraten hingedengelt. Für Videos habe ich jetzt echt keinen Bock mehr ;)

Ja, es ist Fraps, denn das FCAT-System steht noch in den Staaten und UHD ist eh ein Problem ab einer gewissen Länge. Ich baue demnächst um, aber ich kann auch nicht zaubern.

Wie gesagt, ist der VRAM-Verbrauch des Spiels gering. Eigentlich ist das ohne weitere Erklärungen schon wieder irreführend, weil das impliziert, 8GB wären bei aktuellen Spielen selbst gegenüber dem Krüppel-Interface der 970 überhaupt nicht von Vorteil...

Ich wollte damit nur zeigen, dass es situations- und spielebendingt nicht per se Mist ist, weniger RAM zu haben :)

joe kongo
2015-09-09, 19:46:05
Edit:
Übrigens The Witcher läuft auf der 390 gefühlt wie Butter. Selten so eine gleichmäßige Bildraten gehabt. Im krassen Gegensatz zu z.B Watch Dogs und in der Beziehung unsäglichen FC4.

wegen FC4
Coreparking über die Registry ausschalten, kein Vergleich zu vorher

-/\-CruNcher-/\-
2015-09-09, 19:54:43
33,33ms oder 16,66ms ist Steinzeit seitdem es VRR gibt. :P

Du vergleichst zwei total verschiedene sachen aber über downgrades beschweren ;)

aufkrawall
2015-09-09, 19:56:41
Ich wollte damit nur zeigen, dass es situations- und spielebendingt nicht per se Mist ist, weniger RAM zu haben :)
Im Zweifel ist es aber immer besser, zu viel VRAM als zu wenig zu haben.
Wenn man das bald erscheinende CoD spielen will (warum auch immer, aber soll es geben), werden die "3,5GB" (ich schreib das in Anführungszeichen, weil es halt nicht berechenbar wie echte 3,5GB sind) ein riesiger Nachteil sein zu einer R9 390 mit 8.
Bei Batman offenbar ähnlich, Ark Survival ist wahrscheinlich auch schrecklich mit der 970.

Ich würd es selbst nicht für kommende Frostbite-Spiele in WQHD für ausgeschlossen halten, dass die 970 bei normalerweise spielbaren fps rumspacken wird (oder mit Windows 10 die avg-fps mal wieder einkacken).
Dragon Age: Inquisition hat schon wesentlich mehr VRAM als vorige Spiele damit gezogen und hier in 4k mit der 970 (kann man mit niedrigen fps spielen, man hält das Gameplay in Kämpfen eh alle paar Sekunden an) nach Cutscenes übel rumgestockt, weil er erstmal wieder auf 3,5GB "ausmisten" musste.

Da bei DX12 die Anwendung für frametime-kritische Optimierungen zuständig ist und nicht mehr der Treiber, wird da wahrscheinlich auch ein Nachteil der 390 wegfallen (der Catalyst dürfte für die Frametime-Probleme bei DX11 verantwortlich sein).
Der letzte Hitman-Teil hatte auch während des Spielens den VRAM immer weiter vollgeknallt.
Da bin ich ja mal bei dem Nachfolger im Dezember auf das Abschneiden der 970 mit DX12 gespannt... :cool:

Wer jetzt noch die 970 kauft und die mindestens ein Jahr nutzen will, muss echt den Schuss nicht gehört haben.

-/\-CruNcher-/\-
2015-09-09, 19:58:30
Ich habe das jetzt mal schnell zwischen Frühstück und Gänsebraten hingedengelt. Für Videos habe ich jetzt echt keinen Bock mehr ;)

Ja, es ist Fraps, denn das FCAT-System steht noch in den Staaten und UHD ist eh ein Problem ab einer gewissen Länge. Ich baue demnächst um, aber ich kann auch nicht zaubern.



Ich wollte damit nur zeigen, dass es situations- und spielebendingt nicht per se Mist ist, weniger RAM zu haben :)

Trotzdem ordentlich wie du vorangehst übriegens bei einigen titeln lohnt es sich das Interne Engine Debuging zu nutzen das ist meist effizienter als wie mit Fraps oder selbst RTSS sich Gewaltsam in den Prozess zu hooken in vielen fällen ist der overhead und die präzision auch weitaus besser und man verursacht weniger interferenzen die dann plötzlich das Ergebnis beinflussen ;)

Sehr vorbildlich sind hier Frostbite titel

genauso sollte man auch Engine internes FCAT Signaling bevorzugen ;)

dargo
2015-09-09, 20:08:43
Also ich nehme immer noch gerne den Afterburner. Keine Ahnung warum sich so viele auf Fraps versteifen.

aufkrawall
2015-09-09, 20:12:56
Man muss halt sehr vorsichtig sein, weil die Hook-Tools Probleme bei den Frametimes auch erst verursachen können.
Da muss man den Run mehrmals mit und ohne laufen lassen und schauen, ob subjektiv ein Unterschied besteht. Das dürfte am besten mit variablem vBlank gehen (wobei das natürlich wieder neue Bugs mitsich bringen kann).
Am besten halt immer noch FCAT.

-/\-CruNcher-/\-
2015-09-09, 20:13:33
Unwinder sein code ist wesentlich effizienter keine Ahnung wie sich Fraps durchsetzen konnte, das bleibt mir immernoch ein rätsel ;)

dargo
2015-09-09, 20:15:08
Man muss halt sehr vorsichtig sein, weil die Hook-Tools Probleme bei den Frametimes auch erst verursachen können.

Bis jetzt ist das bei mir @Afterburner noch nie der Fall gewesen. Soll jetzt natürlich nicht heißen, dass dies für alle Systeme der Welt gelten muss.

aufkrawall
2015-09-09, 20:15:24
Weil es es schon viel länger gibt, RivaTuner hatte damals afair überhaupt keine Inject-Fähigkeiten.

-/\-CruNcher-/\-
2015-09-09, 20:21:34
Nur weil es etwas länger gibt ändert es nichts an seiner Effizienz sobald etwas effizienteres da ist nutze ich das auch jetzt wird Nvidia immer effizienter alles direkt im Treiber zu integrieren AMD hat da auch nachgeholt ;)

aufkrawall
2015-09-09, 20:23:41
Mit DX12 muss eh etwas neues her, und so schlecht ist Fraps auch nicht.
Übrigens hat die von dir oftmals geschmähte PCGH afaik schon mehrmals Afterburner für Frametime-Messungen verwendet.

(del)
2015-09-09, 21:00:00
Ich habe ja schon eine Software selbst programmiert, die z.B. die Frametimes automatisch aus den Log-Files der gängigen Programme ausliest und auch mehrere Runs (derzeit bis zu 5) übereinander legen und einmalige Ausrutscher filtern bzw. den Verlauf tendenziell interpretieren kann. Es sind halt noch ein paar Feinarbeiten nötig, bis es wirklich verlässlich funktioniert. Excel ist keine Lösung :)

Korfox
2015-09-10, 08:19:19
[...]

Irgendwie war mir klar, dass du auf meinen Post anspringst. Nunja, wenn ich jetzt noch ein Mal "Nvidia" schreibe, dann stehen die Chancen gut, dass du mich als Fanboy bezeichnest.

Irgendwie habe ich das Gefühl, dass du hier irgendwie krampfhaft versuchst, dir die Karte "schön zu saufen" bzw schön zu reden...
Verstehe nicht, warum du einerseits davon sprichst, dass kaum jemand eingestehen kann, Mist gekauft zu haben...

Warum verteidigst du dann jetzt deine Entscheidung so wehement, wo du doch von dem Gegenteil redest?

Ich saufe sie mir nicht schön. Die Entscheidung traf ich, wie erwähnt, mit dem Wissen um die VRAM-Problematik. Ich suchte eben eine Karte, die für 1-2 Jahre ein für mich optimales P/L bietet. Und da kam ich nach mittellanger Recherche auf der 970 raus.

und warum kaufst du dir eine Karte, bei der du eigentlich übern Tisch gezogen bzw verarscht wurdest?
Das ist die eigentliche Frage...

Da zu dem Zeitpunkt die gesamte Problematik schon bekannt war kann man nicht von 'über den Tisch ziehen' sprechen. Ich kaufte mir eine Karte, bei der ich bewusst diese Einschränkung in Kauf nahm.

Warum hast du nicht etwas anderes gekauft, was dieses Geschmäckle nicht gehabt hätte...

Verstehe ich nicht...

Da muss ich dich ganz ehrlich mal fragen, ob du überhaupt AMD Karten jemals in Betracht gezogen hast?!
Deinen Ausführungen nach zu urteilen wohl eher nicht...

Oh, doch.
Ich sehe es nicht ein, mich 7 Tage damit zu beschäftigen, welche karte und vor allem welches Customdesign wo am Markt steht. Meine Historie berücksichtigt alle aktuell aktiven Hersteller von GPUs gleichermaßen, in letzter Zeit ausschließlich Intel in Laptops, da ich keinen Desktop mehr hatte.
Ich recherchiere so, wie es sich für mich rechnet, wenn ich bedenke, dass Zeit entweder Geld, oder Freizeit/Familienzeit bedeutet. Dabei kam ich zu dem Schluss, dass in dem Budget, das ich mir auferlegt hatte, die 970 eben die sinnvollste Wahl ist.
Die AMD Karten, die mir in dem Leistungspunkt unter die Augen kamen (ich erhebe nicht den Anspruch, den gesamten Markt abgeklappert zu haben) und ins Budget passten hätte ich viel schwieriger verteidigen können. Wieso habe ich denn sämtliche Beleuchtung auf LED umgerüstet, wenn ich mir eine Grafikkarte anschaffe, die auf ähnliche Leistung häufig (nein, ich sage nicht immer und ich möchte jetzt auch kein Cherrypicking von dir) mehr Leistung umsetzt? Zusätzlich: Da der Spiele-PC im Wohnzimmer steht und ich da selten alleine bin war auch die Lautstärke der Karte von Belang.

Ich habe keine der Alternativen selbst getestet, der Schnitt der Reviews, die ich gelesen habe, bescheinigte aber, dass die Karte, die ich letzendlich Kaufte den besten Kompromiss zwischen Leistungsumwandlung, Lautstärke und Spielbarkeit für die kurze Zeit (und seltenen Gelegenheiten) darstellt, die ich sie zu nutzen gedenke.

Ansonsten tendiere ich eigentlich sogar eher zu AMD - vor allem, wenn es um langfristig genutzte Karten (sprich für den aktuellen Stand: den Nachfolger der 970) geht.


Hast du die Geschichte mit den DX9 Geforces und Radeons mitbekommen?!

Ja.

Warum wundert dich das denn wieder?!

Schrieb ich was von wundern? Wenn ich von wundern schrieb, dann schreibst du, dass du die Hardware mitentwickelt hast und weißt, dass das Thema schon fix ist.

Das ist durchaus vergleichbar mit damals, denn nVidia hat damals auch mit irgendwelchen Features geworben, Shader und TMUs waren aber NICHT unabhängig voneinander, bei ATi waren sie das aber schon bei der R300...

Richtig. Bisher schon.

Diese Sache scheint sich zu widerholen, dass AMD 'hintenraus' die bessere Wahl ist - aber war das jemals anders?!
(gut, bei der X800 Serie kann man drüber streiten.)...
Das kann man noch nicht sagen und ich schreibe ja, dass ich in dem Fall auch nicht begeistert wäre, wenn dazu käme, dass mir Nachteile entstehen.

Nimm einfach Mal hin, dass jede Entscheidung eh subjektiv ist und nicht jeder die selben Argumente genauso gewichtet, wie du.

Skysnake
2015-09-10, 09:06:55
Ich habe ja schon eine Software selbst programmiert, die z.B. die Frametimes automatisch aus den Log-Files der gängigen Programme ausliest und auch mehrere Runs (derzeit bis zu 5) übereinander legen und einmalige Ausrutscher filtern bzw. den Verlauf tendenziell interpretieren kann. Es sind halt noch ein paar Feinarbeiten nötig, bis es wirklich verlässlich funktioniert. Excel ist keine Lösung :)
R + GNUPlot sind dein Freund ;)

Schaus dir mal an, damit machste verdammt schnell derartige Auswertungen, wenn du die Daten als CSV oder etwas in der Art hast.

Das Problem ist eher, was ist ein "Messfehler" und was ist keiner. Das ist schon viel interessanter, kann man aber bei den kurzen Testsequenzen an sich völlig vergessen. Wenn müsste man eher schauen, das man >30min einfach den gleichen Abschnitt spielt, und sich anschaut, wie es halt overall aussieht, aber wer hat dafür schon Zeit?

Ist halt echt nicht so einfach wirklich gut die Sachen zu messen und Einmaleffekte von echten Problemen zu unterscheiden.

(del)
2015-09-10, 09:31:25
R + GNUPlot sind dein Freund ;)

Nach über 17 Jahren, die ich als Programmierer in der Industrie (CAD/3D-Visialisierung, Elementierung und Maschinensteuerung) gearbeitet habe, programmiere ich mir so etwas lieber selbst. Das Teil kommt mit den Log-Files der gängigsten Tools und auch den Game-Logs (u.a. Ashes of the Singularity) zurecht und packt mir das automatisch in generierte Excel-Templates. Inklusive Logos, Legenden und Gedöns :)

Messfehler, ja.... Da hilft Dir eigentlich die Mathematik weiter (u.a. Stochastik). Wenn man Verläufe übereinander legt, Gemeinsamkeiten und Abweichungen gegen den Zufall setzt, dann kommt man da schon weiter. Da ich fast immer 3-5 Runs mache (bei vielen synthetischen Durchläufen reichen auch drei), kommt man da auch schon deutlich der Sache näher.

Der Trick des Programmes besteht ja auch in erster Linie darin, unterschiedlich schnelle Karten, die ja auch unterschiedlich viele Frames in so einem Durchlauf rendern, auf eine einheitliche und gemeinsame Zeitebene umzurechnen. Wenn eine lahme Karte z.B. 2000 Frames pro Durchlauf schafft und eine doppelt so schnelle 4000, dann möchte ich den sehen, dem es mit Excel ohne weiteres Zutun gelingt, dies deckungsgleich und vor allem plausibel in einem gemeinsamen Diagramm hinzubekommen.

Ohne mich in Details zu verlieren: ich breche alles erst einmal auf Zehntelsekunden um und lasse bereits dort vermeintliche Ausreißer und eben Messfehler(unwahrscheinliche Ereignisse) verschwinden bzw. mache nachvollziehbare Abweichungen (wahrscheinliche Ereignisse) auch für noch folgende Stauchungen auch der Achse fix. Das ist nicht ganz ohne, aber eigentlich läuft es schon ganz ordentlich. Denn nur dann kann man verschiedene Verläufe der unterschiedlichsten Grafikkarten sauber übereinander legen. Das jedenfalls habe ich bisher noch nirgendwo mathematisch einigermaßen sauber gelöst gesehen :)

aufkrawall
2015-09-30, 17:50:08
Bestimmt auch so ein gekaufter AMD-Fanboy (der auf eine 980 Ti aufrüstet):
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10796877&postcount=2431

(del)
2015-09-30, 19:38:44
Naja, verbale Aufrüstung, wie meistens. Ich glaube nur Dinge, die ich selbst gesehen habe, sagte der Blinde....

aufkrawall
2015-09-30, 19:55:00
Das war nicht auf dich bezogen...

The_Invisible
2015-10-01, 10:21:09
Jammern kann man bei VRAM Menge immer, egal ob GTX980 oder 980Ti bis man bei einer TitanX angekommen ist. Ob man dafür wirklich so 700 bis 1000EUR ausgeben will ist jeden seine Sache.

Hatte bis jetzt jedenfalls noch keine schwerwiegenden Probleme, sonst wäre meine Karte eh schon rausgeflogen. Bin allerdings auch nicht so der DSR oder FSAA Fetischist. Habe auch schon versucht die sekundenlangen Hänger nachzustellen, bisher ohne Erfolg (selbst bei Talos Principle bei 5k+AA und vollen 4GB RAM nicht).

Jedenfalls gebe ich derzeit für einzelne Zuckler bei Frametimesmessungen sicher keine 700EUR aus, obwohl ich es auch schon überlegt habe. Da müsste schon ein super Angebot kommen oder die 970 wirklich unspielbar werden.

Lurtz
2015-10-01, 18:59:51
Jammern kann man bei VRAM Menge immer, egal ob GTX980 oder 980Ti bis man bei einer TitanX angekommen ist. Ob man dafür wirklich so 700 bis 1000EUR ausgeben will ist jeden seine Sache.
Immer noch nicht verstanden dass es nicht um die Menge geht?

Grestorn
2015-10-01, 19:31:27
Immer noch nicht verstanden dass es nicht um die Menge geht?

Letztlich tut es das durchaus. Wenn der Treiber das Spiel nicht kennt, sollte er die Finger von den oberen 500 MB lassen. Und dann wird die Karte auch nicht ausgebremst.

Mancko
2015-11-07, 20:21:50
Übrigens nicht nur Nvidia hat in den USA eine Klage wegen der GTX970 Geschichte am Hals. Seit neuestem ist auch AMD in diesem erlauchten Kreis angekommen.

http://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/37113-amd-wegen-irrefuehrender-cpu-kernangabe-verklagt.html

DarknessFalls
2015-11-08, 14:27:02
...und das hat was genau mit diesem Thema zu tun? McDonalds wurde drüben auch schon verklagt, weil der Kaffee heiß war und das nicht auf dem Becher stand.

Hier geht's um die 970.

StefanV
2015-11-08, 16:20:51
Wo wir gerade dabei sind:
Schon sehr erstaunlich, dass sich die GTX 970 bei neuesten Spielen immer weniger von der R9-280X absetzen kann und oft nur noch 10% vor dieser liegt.

Zum Beispiel im neuen COD Black Ops 3...

Megamember
2015-11-08, 16:26:03
Wo wir gerade dabei sind:
Schon sehr erstaunlich, dass sich die R390 bei neuesten Spielen immer weniger von der GTX 960 absetzen kann und kaum vor dieser liegt.

Zum Beispiel im neuen Anno 2205...

Schaffe89
2015-11-08, 16:43:47
StefanV sieht doch immer alles selektiv.
Keine Ahnung wo sich eine GTX 970 nicht mehr behaupten könne.
Die Spiele wo die mal langsamer ist, sind doch wirklich sehr selten, was umgekehrt genauso auf die 390 zutrifft, die bei Anno erheblich langsamer ist - solange man die Shader nicht voll ausfährt.

dildo4u
2015-11-08, 16:48:44
Wo wir gerade dabei sind:
Schon sehr erstaunlich, dass sich die GTX 970 bei neuesten Spielen immer weniger von der R9-280X absetzen kann und oft nur noch 10% vor dieser liegt.

Zum Beispiel im neuen COD Black Ops 3...

Das Game ist noch zu buggy um daraus Schlüsse zu ziehen.

So the results you see today are INDICATIVE and not precise. This game is a mess to measure. We found a sweet spot setting that works pretty good and measure in a level (In Darkness Quarantine Zone, Singapore) that allows fairly consistent frame-rates. However the number you see WILL change even your GTX 980 TI or Fury X at one point will drop to 30 FPS These means that the results shown today are indicative, not a precise measurement by any standard.

http://www.guru3d.com/articles_pages/call_of_duty_black_ops_iii_vga_graphics_performance_benchmark_review,1.html

That's it for this first iteration on graphics card performance. This game is a bitch to test ... seriously framerates are never consistent and can bounce 100% up and down in a jiffy. So the numbers that you see can vary big-time per level, heck even per scene. As stated in the intro, there are many things odd and off. As such we recommend you to look at the performance benchmarks you've just read with a grain of salt as I have been at the verge and threshold of asking myself the question whether or not to post these results. One test run will result on 50 FPS, the second 46 FPS and another 56 FPS. This means that the results shown today are indicative, not a precise measurement. Another problem was that some levels average out at say 40 FPS, yet there are a handful of scenes where the framerate will crumble down to say 25 FPS or where running a luxurious 60 FPS all of the sudden. But hey, 80% of the game plays with OK framerates if you use our image quality settings.

http://www.guru3d.com/articles_pages/call_of_duty_black_ops_iii_vga_graphics_performance_benchmark_review,9.html

Schaffe89
2015-11-08, 16:52:11
Das Game ist noch zu buggy um daraus Schlüsse zu ziehen.


Alle Games die neu erscheinen, sind in irgendeiner Form "buggy".
Oder ist es normal dass Maxwell in Anno derart schnell ist? Nein.
Genauso wie es nicht normal ist, dass eine Nvidia GPU im CPU Limit in Black Ops liegt.

Wenn ein Game auf Nvidia schnell läuft ist es ausgereift und wenn es auf Nvidia kacke läuft ist es buggy, das kennen wir doch jetzt schon, genau die gegenteilie Argumentation von StefanV.

dildo4u
2015-11-08, 16:58:28
Anno's Performance ist ziemlich konstant,da die CPU weniger eine Rolle spiel.Call of Duty schwankt hingegen extrem Guru hat Nvidia vorne dank 8 Core CPU bei PCGH hingegen ist mit ihrem Quad Core im CPU Limit.
Ein Skylake müsste locker über 120 fps raushauen wenn man überlegt was für CPU's in den Konsolen sind.Da hakt es noch gewaltig.

Schaffe89
2015-11-08, 17:38:10
Du wirst den Fehler in deiner Argumentation nie bemerken.
Du hast auch gesagt, dass Ryse kaputt ist, weil es nicht so schnell auf NV Karten läuft. ( obwohl es da wenige Prozent sind )
Du änderst doch bei jedem Game immer dein Fähnchen.

Bei Anno hingegen, wo die Unterschiede von Maxwell zu Tahiti/Hawai/Fury/Kepler massiv sind ( bis zu 50%)
ist das Spiel dann sauber.

Dass du das nicht selber merkst, wie blödsinnig das ist.

dargo
2015-11-08, 17:45:25
Das ist die typische Dildo-Argumentationskette. Wenn ein Game auf NV, pardon... auf Maxwell einwandfrei läuft ist alles in Ordnung. Wenn ein Game auf AMD-Hardware schlecht läuft ist AMD schuld. ;)

Mancko
2015-11-08, 19:29:07
Das mag schon annähernd stimmen, nur kommt eben auch kein gutes Gefühl für die Zukunft auf.

Von welcher Zukunft redest Du? Die Karte muss maximal 2 Jahre durchhalten. Danach wird die doch sowieso ersetzt. Bis dahin läuft die Mehrzahl der Spiele ohne Probleme. Das P/L Verhältnis passt da einwandfrei.

Mancko
2015-11-08, 19:33:03
Kannst du mit dem FUD Bullshit aufhören?!
Das, was du hier schreibst stimmt erstens nicht wirklich und zweitens hat das bei dem ersten Fermi Versuch auch niemanden interessiert. Warum ist das jetzt also so wichtig?!

Weil es von AMD thematisiert wurde. Hat sich AMD selber zuzuschreiben. Sie haben letztlich selber auf kleinere, effiziente Chips hingearbeitet und im Endeffekt Nvidia dazu gebracht die gleiche Richtung einzuschlagen. Im Endeffekt muss sich nun leider AMD daran messen. Es hat sie ja keiner gezwungen solche GPUs zu bauen. Die Medien und die Kundschaft fordern das jetzt halt ein.

Schnoesel
2015-11-08, 19:34:23
Wer definiert die max Lebensdauer eine GPU? Du sicher nicht! Einen Blick auf die neueste Umfrage wird dich eines besseren belehren.

dargo
2015-11-08, 19:38:42
Von welcher Zukunft redest Du? Die Karte muss maximal 2 Jahre durchhalten.
Also doch ein schnelles Verfallsdatum?

Evil Ash
2015-11-08, 19:43:28
2 Jahre sind doch lang.

dargo
2015-11-08, 19:57:17
Ja... bei Nvidia schon.

Mancko
2015-11-08, 20:01:26
Wer definiert die max Lebensdauer eine GPU? Du sicher nicht! Einen Blick auf die neueste Umfrage wird dich eines besseren belehren.

Die Umfragen des 3DCenters ignoriere ich konsequent. Nvidia ist Weltmeister darin den Bedarf zu wecken. Insofern lehne ich mich gemütlich zurück, markiere mir das Posting hier und werde dich zu gegebener Zeit wieder daran erinnern, wenn die Leute, insbesondere hier im Forum, reihenweise ihre Hardware replacen. Die GTX970 ist eine FullHD Karte und dafür reicht die mehr als aus über die normale Nutzungsdauer. Im Flächenmarkt reicht die wahrscheinlich sogar länger aus, da dort nur die allerwenigsten AA und ähnliche Spielerreien aktivieren.

Mancko
2015-11-08, 20:03:57
Ja... bei Nvidia schon.
2 Jahre sind doch wirklich lang. SmartPhones halten in der Regel auch nicht länger durch. Bei AMD scheitert es doch oft schon an der Software. Da kaufst ein Produkt und darfst dich dann nach 1 Jahr mal freuen, dass es weniger Probleme gibt. Sorry aber ich will meinen Spass hier und jetzt. In 2 Jahren kann ich vom Auto überfahren worden sein oder die Graka ist bei eBay oder im Zweitrechner.

Im Endeffekt können wir die Diskussion hier eh beenden. Der Markt hat sich schon lange entschieden und zwar für die GTX970 und vor allem für Nvidia und gegen AMD. Das zeigen die Zahlen ganz eindeutig und wenn AMD seine Vorgehensweise nicht radikal ändert, dann werden die den wohlverdienten Ehrentod sterben, so leids mir tut.

Schnoesel
2015-11-08, 20:04:40
Nvidia selbst sieht Ihren Sweetspot zwar bei 1440p aber wie du meinst. Ein großer Teil jedenfalls ,auch wenn du das ignorierst und dich damit jeder Diskussion entziehst, nutzen Ihre Karte defnitiv länger. Mich brauchst auch daran nicht zu erinnern, denn ich behalte keine meiner Karten 2 Jahre sehe mich aber auch nicht in der Mehrheit der Käufer also ganz und gar nicht. Die meisten halten meine Wasserkühlung für Boxen ;-)

dargo
2015-11-08, 20:35:53
2 Jahre sind doch wirklich lang. SmartPhones halten in der Regel auch nicht länger durch.
Wen interesieren hier Smartphones? Ich hab nicht mal eins und brauche auch keins.

dildo4u
2015-11-08, 21:33:11
Das ist die typische Dildo-Argumentationskette. Wenn ein Game auf NV, pardon... auf Maxwell einwandfrei läuft ist alles in Ordnung. Wenn ein Game auf AMD-Hardware schlecht läuft ist AMD schuld. ;)

Unter Update 3
Die Probleme mit der extrem hohen CPU-Last verschwanden allerdings nicht, die Performance im Spiel änderte sich nicht. Zudem probierten wir Black Ops 3 auf einem auf 4,2 GHz übertakteten i7-5820K mit 32 GiByte DDR4, Radeon R9 290X und Win 10 x64 aus. Hier lag die CPU-Last auf einem normalen Level. Allerdings lag die Framerate im Vergleich zu unserem Testsystem in der Redaktion weitaus niedriger: Wir kamen mit den gleichen Settings und gleichen Treibern in 1440p auf 35,3 Durchschnitts- und 29 minimalen Fps - ein mit dem Ergebnis des Testsystems kohärenter Wert läge bei rund 60 Durchschnitts-Fps. Hier wie dort stießen wir also auf Performance-Probleme, aber in zwei unterschiedlichen Formen.


http://www.pcgameshardware.de/Call-of-Duty-Black-Ops-3-Spiel-55478/Specials/Test-Benchmarks-1176980/

Das Game taugt zur Zeit nicht zum benchen egal mit welcher Hardware.

StefanV
2015-11-09, 02:06:24
Ich verstehe nicht, warum immer so sehr die Fails von nVidia weggeredet werden müssen.
Und die von 'den anderen' immer so hervorgehoben werden müssen...

Und warum soll es akzeptabel sein, wenn eine moderne, aktuelle 350€ Karte von einer Karte geschlagen wird (bzw sich nicht nennenswert absetzen kann), die man aktuell gebraucht für unter 150€ bekommen kann?
Die damals, vor 3-4 Jahren das gleiche gekostet hat?!

Verstehe ich nicht...

Dass die Performance schwankt und, je nachdem welche Absichten der Entwickler hatte, mal auf dem einen, mal auf dem anderen besser läuft, sollte klar sein.

Aber SRYSLY; eine GTX 970 nur ~10% vor 'ner R9-280X?!
Sollte die nicht eigentlich deutlich besser sein???

Schaffe89
2015-11-09, 03:33:52
Unter Update 3
Das Game taugt zur Zeit nicht zum benchen egal mit welcher Hardware.

Anno mit hoher Shaderlast auch nicht, wenn auf ultra die AMD Karten dann offenbar wieder minimal stärker sind.:rolleyes:

Ist offenbar ein ganz böses GPU Limit.:rolleyes:

Und wieso taugts nicht? COD mag halt keinen 6Kerner.

BlacKi
2015-11-09, 04:41:37
die ergebnisse sind aber mal ne absolute katastrophe...

wenn man den blick von der 970 abwendet sieht man das auch andere karten probleme haben.

beispiel: 380, wird von der 280x übelst vermöbelt. die 980ti kann sich auch kaum absetzen.

die minimum fps kann man wohl getrost ignorieren, da scheint irgendwas unregelmäßig die performance runter zu ziehen.

die benches sehe nicht wirklich relevant um die performance einer karte zu messen.

StefanV
2015-11-09, 07:17:30
Also die Sache mit 380 vs. 280X ist doch mehr oder minder logisch....
Die auf dem Papier stärkere Karte ist hier einfach schneller., Tonga kann hier die Vorteile des verbesserten Frontends eben nicht ausspielen...
Das hat man öfter mal, auch früher schon war die 280X öfter mal flotter als die 280/380, das ist also kein Argument.

Aber was spricht jetzt dagegen, dass dieser Zustand eigentlich der 'normale' ist?!
Sprich normal im Sinne von: wenn nVidias Treibervoodoo mal nicht aktiv ist/funktioniert.

An GK204 vs. Tahiti sollte einem doch auch ein wenig ein Licht auf gehen und man zu dem Schluss kommen, dass nVidia Karten nur durch dieses 'Treibervoodoo' so stark sind, unter der Haube aber die z.T. deutlich schlechteren Karten sind...

Such dir mal einige neue Spiele aus und schau mal, wie gewaltig der Abstand von den Tahitis zum GK104 ist. Die Tahitis sind da nicht selten meilenweit vor GK104!

Wie bei Fable Legends darf sich die GTX 770 mit der Radeon HD7870/R9-270X rumschlagen...
Ebenso is die 780Ti auch nicht soo viel toller/schneller als die R9-280X - auch das hatten wir letztens schon mal bei Witcher 3, Fable Legends zum Beispiel.

Schaut also auf den ersten Blick eher so aus, als ob hier nVIdias Treiberoptimierungen nicht wirklich greifen...

Arcanoxer
2015-11-09, 07:50:39
Das hat man öfter mal, auch früher schon war die 280X öfter mal flotter als die 280/380, das ist also kein Argument.
Das Argument ist kein Argument.
Das grenzt doch schon an Kundenverarschung.

Nicht das AMD deshalb auch noch verklagt wird wie bei der Bulldozer Affäre mit den irreführenden CPU-Kernangabe.

/topic
Laut Phoronix ist die GTX970 zur Zeit die Karte mit der besten Preis Leistung auf den Markt, um mal wieder zur topic zu kommen.

Air Force One
2015-11-09, 08:30:16
Naja die 970er ist schon eine nette Karte, nur leider falsch verkauft.

Nur eine Frage weil ich es oft in zwei Versionen lese.

Ist diese eine native 3.50GB Karte mit 512MB "Cache" oder eine 3.00GB Karte mit weiteren 1GB und davon sind 512MB Technikbedingt langsam angebunden.

Letzteres habe ich irgendwo gelesen in den update News. KANN PCGH gewesen sein...muss aber nicht.

maximus_hertus
2015-11-09, 08:33:29
/topic
Laut Phoronix ist die GTX970 zur Zeit die Karte mit der besten Preis Leistung auf den Markt, um mal wieder zur topic zu kommen.

Unter Linux? Mit Windows als OS ist sie deutlich von diesem Titel entfernt.

Im eigenen Lager z.B. Die GTX 960: Die 970 ist knapp 50% schneller, aber rund 70% teurer.

Bei AMD nehmen wir mal dir R9 380: Die 970 ist knapp 45% schneller, aber rund 80% teurer.

Es ist jedoch klar, dass die Grafikkarten im Bereich <300 Euro noch nie ein solch miserables P/L-Verhältnis hatten.

StefanV
2015-11-09, 08:48:38
Naja die 970er ist schon eine nette Karte, nur leider falsch verkauft.
Naja, bei _DEM_ Preis und _DEM_ Abstand zur R9-280X in neueren Titeln - ähm, nein.

Da scheint die Alternative vom Mittbewerber doch die bessere Wahl zu sein - insbesondere wenn man das Kärtel etwas länger nutzen möchte...

Eine neue Karte in _DEM_ Preisbereich sollte eigentlich leichtes Spiel mit den ollen Tahitis haben und meilenweit von denen weg liegen - das ist hier aber leider nicht immer der Fall...

Mancko
2015-11-09, 09:58:41
Naja, bei _DEM_ Preis und _DEM_ Abstand zur R9-280X in neueren Titeln - ähm, nein.

Da scheint die Alternative vom Mittbewerber doch die bessere Wahl zu sein - insbesondere wenn man das Kärtel etwas länger nutzen möchte...

Eine neue Karte in _DEM_ Preisbereich sollte eigentlich leichtes Spiel mit den ollen Tahitis haben und meilenweit von denen weg liegen - das ist hier aber leider nicht immer der Fall...

In der Mehrheit der Spiele ist es augenscheinlich der Fall und das wird über die normale Nutzungsdauer ausreichend sein. Lass es 10 Spiele sein wo es nicht der Fall ist. Da gibt es 100erte wo es der Fall ist. Wahrscheinlich gibt's genauso viele wie die 10 wo die 970 arg an der teureren AMD Konkurrenz aus höheren Preissegmenten kratzt. Da sind dann auch mal Spiele dabei wo eine GTX960 plötzlich weit oben ist. Insofern passt das bei der 970 völlig und teurer als die Konkurrenz darf sie auf jeden Fall sein. AMD ist keine Brand ganz einfach. Jede Nvidia Karte darf teurer als das AMD Pendant sein. Das ist nun mal die Wahrnehmung des Marktes. Ich weiß gefällt Dir nicht aber so ist es nunmal. AMD als Unternehmen ist einfach nur noch Junk Status. Überleben nicht garantiert. Somit in jedem Fall nur mit Preisabschlag attraktiv.

dargo
2015-11-09, 11:17:48
Unter Update 3



http://www.pcgameshardware.de/Call-of-Duty-Black-Ops-3-Spiel-55478/Specials/Test-Benchmarks-1176980/

Das Game taugt zur Zeit nicht zum benchen egal mit welcher Hardware.
Warum nicht gleich so? :)

Nicht immer liegt die Schuld beim IHV. Ein weiteres Beispiel nach Batman für Schrottsoftware. Auch hier wäre es angebracht das Game zurück geben zu können.

AMD ist keine Brand ganz einfach. Jede Nvidia Karte darf teurer als das AMD Pendant sein. Das ist nun mal die Wahrnehmung des Marktes. Ich weiß gefällt Dir nicht aber so ist es nunmal. AMD als Unternehmen ist einfach nur noch Junk Status. Überleben nicht garantiert. Somit in jedem Fall nur mit Preisabschlag attraktiv.
Du könntest mal zur Abwechslung eine andere Schallplatte auflegen. Dein ständiges virales Marketing langweilt schon lange.

maguumo
2015-11-09, 12:51:34
Nur eine Frage weil ich es oft in zwei Versionen lese.

Ist diese eine native 3.50GB Karte mit 512MB "Cache" oder eine 3.00GB Karte mit weiteren 1GB und davon sind 512MB Technikbedingt langsam angebunden.

Letzteres habe ich irgendwo gelesen in den update News. KANN PCGH gewesen sein...muss aber nicht.
Soweit ich weiß ist beides möglich. Du kannst über den L2$ Block an dem die zwei 32b Interfaces hängen entweder in die XOR Situation gehen was eben dann in 3.5+0.5GB resultiert in der du nicht von beiden Segmenten gleichzeitig lesen oder schreiben kannst, oder du spaltest das ganze in ein 3 und ein 1GB Segment, dann hast du aber eben 1GB lahmen VRAM.

Ich weiß leider auch nicht mehr wo ich das gelesen habe, die Artikel die ich später gelesen habe beschreiben alle nur die 3.5 +0.5GB Version.

BlacKi
2015-11-09, 15:59:44
letztendlich sind die letzten 512mb für die katz. ich hoffe die machen das nie wieder so. lieber voller ram zugang und etwas teurer als dieser käse. mit der 670 war ich echt zufrieden. hoffentlich machen die das wieder wie bei der 670.

Pirx
2015-11-09, 16:10:24
ein paar ROPS sind auch noch für die Miez und vllt. noch ein bisschen mehr

normal macht nV weiterhin falsche Angaben, was auch einklagbar sein müsste (in den US of A)

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

StefanV
2015-11-09, 18:34:04
ich hoffe die machen das nie wieder so.
Tja, dank der erfolgreichen Retoureaktion durch die ganzen Händler, der wirklich sehr erfolgreiche Boykott dieser Karte, ist es sehr wahrscheinlich, dass nVidia solch eine Aktion wieder machen wird...

Das 'schöngerede' der GTX 970 durch diverse Leute führt nämlich genau zu dieser Situation...
Nämlich, dass derjenige, welche die Karte so sehr verteidigt hat, sich letztendlich selbst in den Fuß geschossen hat, da es eben doch gar keine Auswirkungen für den Hersteller hat.

Dafür gibt iese Speicherarchitektur dem Hersteller der Karte unglaublich viel Macht!
Er knan nämlich einfach die 'Optimierungen' für diesen Zustand abstellen. Dass die jetzigen GTX 970 Besitzer dann eine Pilgerfahrt zum nächsten Dealer unternehmen, um sich die neuste 'Tschiforze' zu kaufen, sollte auch klar sein, oder? ;)

-/\-CruNcher-/\-
2015-11-09, 19:02:02
Unter Linux? Mit Windows als OS ist sie deutlich von diesem Titel entfernt.

Im eigenen Lager z.B. Die GTX 960: Die 970 ist knapp 50% schneller, aber rund 70% teurer.

Bei AMD nehmen wir mal dir R9 380: Die 970 ist knapp 45% schneller, aber rund 80% teurer.

Es ist jedoch klar, dass die Grafikkarten im Bereich <300 Euro noch nie ein solch miserables P/L-Verhältnis hatten.

Wenn man auf so einem beschränkten Level die Hardware vergleicht kann nichts gutes dabei rauskommen.

Es gibt weitaus mehr als nur Gamer features aber das stimmt teils auch nicht mehr weil viele features auch Gamer relevanter geworden sind.

So ein reduzierter Vergleich ist absolut hirnrissig

Schon alleine weil du die Vorherige AMD Generation mit der neusten Nvidia Generation vergleichst

Nun wird dir auffallen momemt mal ich bekomme von AMD ja garnicht die neuste Generation in diesem selben Preissegment, sondern die Alte.

Und das hat Auswirkungen die du überhaupt nicht mit einbeziehst.

Aber mach dir keine sorgen da bist du nicht allein ;)

BlacKi
2015-11-09, 19:43:53
Tja, dank der erfolgreichen Retoureaktion durch die ganzen Händler, der wirklich sehr erfolgreiche Boykott dieser Karte, ist es sehr wahrscheinlich, dass nVidia solch eine Aktion wieder machen wird...

Das 'schöngerede' der GTX 970 durch diverse Leute führt nämlich genau zu dieser Situation...
Nämlich, dass derjenige, welche die Karte so sehr verteidigt hat, sich letztendlich selbst in den Fuß geschossen hat, da es eben doch gar keine Auswirkungen für den Hersteller hat.

Dafür gibt iese Speicherarchitektur dem Hersteller der Karte unglaublich viel Macht!
Er knan nämlich einfach die 'Optimierungen' für diesen Zustand abstellen. Dass die jetzigen GTX 970 Besitzer dann eine Pilgerfahrt zum nächsten Dealer unternehmen, um sich die neuste 'Tschiforze' zu kaufen, sollte auch klar sein, oder? ;)
das eine hat mit dem anderen doch garnichts zu tun.

selbst wenn man leute im forum umgestimmt hätte, dann hätte sich an der reklamierverhalten nichts bewegt. daher werde ich auch weiterhin meine meinung kundtun wenn ich die sache anders sehe.

wenn du die verkaufszahlen der 970 ansiehst merkst du schnell das einzelne personen garnichts erreichen können.

wenn raff das schärfer in seinen artikeln angeprangert hätte, dann hätte sich mehr bewegt als wir hier im forum je bewirkt hätten.

und mal davon abgesehen hätte ich mir trotzdem die 970 gekauft, ganz einfach, weil sie sexy ist wenn man aufs geld schaut.

das ist kein schönreden, es ist halt so.

trotzdem hoffe ich das sie es bei pascal nicht wieder tun auch wenn ich es befürchte.

StefanV
2015-11-09, 20:53:28
Sehen hätte ich mir trotzdem die 970 gekauft, ganz einfach, weil sie sexy ist wenn man aufs geld schaut.
Auch wenn sie bei der letzten Charge an Games nur knapp 10-15% flotter als 'nen alter voller Tahiti ist? ;)

Schaffe89
2015-11-09, 21:22:02
Naja, bei _DEM_ Preis und _DEM_ Abstand zur R9-280X in neueren Titeln - ähm, nein.



Apropos neuere Titel, schau dir mal an die AMD bei Fallout 4 untergeht.
Sieht nach einem CPU Limit Problem aus.:redface:

Keine Ahnung was du mit "letzter" Charge meinst, aber wie es immer so bei dir sein wird, ist es mit genaueren Belegen nicht weit her.

BlacKi
2015-11-10, 07:00:58
Auch wenn sie bei der letzten Charge an Games nur knapp 10-15% flotter als 'nen alter voller Tahiti ist? ;)
bitte aufzählen,denn ich sehe das anders.
BO3 brauchste nicht nennen da liegts eindeutig am spiel.

maximus_hertus
2015-11-10, 09:19:32
Wenn man auf so einem beschränkten Level die Hardware vergleicht kann nichts gutes dabei rauskommen.

Es gibt weitaus mehr als nur Gamer features aber das stimmt teils auch nicht mehr weil viele features auch Gamer relevanter geworden sind.

So ein reduzierter Vergleich ist absolut hirnrissig

Schon alleine weil du die Vorherige AMD Generation mit der neusten Nvidia Generation vergleichst

Nun wird dir auffallen momemt mal ich bekomme von AMD ja garnicht die neuste Generation in diesem selben Preissegment, sondern die Alte.

Und das hat Auswirkungen die du überhaupt nicht mit einbeziehst.

Aber mach dir keine sorgen da bist du nicht allein ;)

Bitte Sachlich bleiben. Ich habe niemanden persönlich beleidigt und erwarte das auch von anderen.

Sorry, ich habe vergessen, dass Tonga zwei Wochen zu früh auf den Markt gekommen ist (vor Maxwell 2). Daher gilt sie als Old-Gen und ein Vergleich ist daher nicht zulässig.

Natürlich sind nicht nur fps wichtig und so manche Features kann man nicht in Zahlen zusammenfassen. PhysX, 3DV, Gameworks und Co. sind zwar nett, aber für den großen Teil der Endkunden irrelevant. Sie haben schlicht keine Wahl (schau dir mal die verbaute Grafiklösung in Komplettrechnern / Notebooks an), als nV zu kaufen.

Selbst im Retail-Verkauf gibt es häufig nur ein Argument pro Geforce: Sie sind sofort verfügbar, die AMDs müssen erst beim Distri bestellt werden. Ich rede nicht von den Onlineshops, sondern von echten PC-Läden.

audiatur altera pars
2015-12-14, 16:37:53
Also ich bin der Meinung, dass der hauptgrund für das Verhalten nvidias ist, dass nicht alle karten gleich schwer von dem, bzw. durch den fehlenden cachespeicher eines Memorycontrollers betroffen sind.
Die größte neuerung beim GM200 chip ist doch die vielfallt seiner bechneidungsmöglichkeiten.
Bis heute habe ich noch keinen gecutteteten GTX 970 chip in realo gesehen.
Es wird ja wohl aller wahrscheinlichkeit dort gecuttet weden, wo der chip schadhaft ist. bei maxwell kann bei einem SMM mit 128 cudacores, wenn mich nicht alles täuscht, bis auf 8 vollwertig arbeitende cudas gecuttet werden.8 vielleicht sinds auch 16 oder 32, aber in einem SMM block können quasi die funktionioierenden cores, solange 8 zusammenhängende funzen, volwertig über, die ROP´S, die l2cache-Crossbar,... 100% Leistung abliefern.
Also wenn ich immer diese 3 verschiedenen Mögichkeiten der beschneidung bei eine GTx 970 sehe, sieht das so aus als würden die nur vollwertige chips cutten.
Quatsch. durch das neue verfahren ist es möglich, fast die gesamte produktion " vollwertig" zu verkaufen. Das müssen doch tausende verschiedene Möglichkeiten von cuttingmustern sein, + 8 verschiedene Möglichkeiten bei der l2-crossbar.
Kann mir doch keiner erzählen, dass dann nicht bestimmte cuttingmuster+bestimmte Stellen des cuts bei den l2 cache Crossbars, mehr oder weniger gut und viel V-ram adresieren können.
Wahrscheinlich gibt es wenige karten bei denen das problem so gut wie gar nicht auftritt, bis 3512MB=von 224Bit auf 8Bit mit Vollbremsung.
Genau das ist der eigentliche Grund. wären alle karten gleich betroffen, hätte nvidia offen damit kommuniziert.
aber erzähl mal den kunden" ja manch habens fast gar nicht , manche weniger bis absolut, das könnt ihr aber erst nach dem kauf sehen. Erstens würde sowas keine Versicherung abdecken, und zweitens würde niemand irgendjemandem auch nur 1MB, 1BIT schneller gönnen.
Deshalb hat nvidia auch jetzt per Treiber versucht , alle karten mit dem worstcase auszustatten.
Also ich weiß in meinem Bekanntenkreis, vor allem bei karten die kurz nach dem release gekauft wurden, dass diese 4096 MB adressieren können, mit über 250BIT Anbindung.
meine z.B.:P beweist das in jedem tool der dazu zu zeigenfähig ist.
das gemeine ist, das ich gleich 2 davon habe. eine 3., später gekauft, das absolute gegenteil:confused:
die beiden sahnestücke habe aber noch andere vorteile asic-werte von 78,8 und 83,7. 1600MHZ+ GPU-Takt ohne Spannungserhöhung. Keinerlei lüfterbugs.
unter einem treiber trat mal bei >300frames spulenfiepen auf, war aber mit dem nächsten treiber wieder weg. Das Netzteil ist da mitentscheidend.
V-Ram übertakte ich grund. erst, wenn die nächste karten bestellt sind.:smile:

vinacis_vivids
2015-12-26, 20:11:25
Ist doch gut für Nvidia wenn das Cutting so gut funktioniert. Bedeutet auch, dass Abfall oder Wafer mit höhere Fehlerquoten trotzdem teuer verkauft werden können. Und da der Markt nichts mehr hergibt, bleibt den meisten Leuten nichts übrig als das Zeugs zu holen.

(del)
2015-12-26, 21:51:16
Bei der ganzen Aktion finde ich es nur lustig, dass die meisten ganz urplötzlich erst dann das Speicherproblem als solches gefunden bzw. bemerkt haben wollen, nachdem es als Sau medienwirksam durchs Dorf getrieben und dann in den Foren genüsslich filetiert wurde. Unschön und hinterfotzig von NV ist die Sache allemal, aber man kann es auch echt übertreiben.

Tonga war seinerzeit übrigens auch so eine Zangengeburt, bei der sich das Marketing von AMD fast noch für die eigene Tahiti-Mutation geschämt hat. Anders lässt sich das extrem zurückhaltende Vermarkten der Karte einfach nicht erklären.

aufkrawall
2015-12-26, 23:50:41
Bei der ganzen Aktion finde ich es nur lustig, dass die meisten ganz urplötzlich erst dann das Speicherproblem als solches gefunden bzw. bemerkt haben wollen, nachdem es als Sau medienwirksam durchs Dorf getrieben und dann in den Foren genüsslich filetiert wurde.
Du machst es dir zu einfach.

y33H@
2015-12-27, 00:11:54
Igor hat aber nicht Unrecht: Die GTX 970 wurde ja nicht langsamer oder schneller durch die Bekanntgabe der echten Specs.

Es wurde eben nur dediziert der Schwachpunkt analysiert (so wie zuvor schon bei der GTX 660 Ti).

aufkrawall
2015-12-27, 00:33:37
Mir hatte es Kopfzerbrechen bereitet und ich hatte die Probleme dann auf die Spiele geschoben.
Das kann man zahlenmäßig überhaupt nicht erfassen, da sollte man lieber ruhig sein.

-/\-CruNcher-/\-
2015-12-27, 00:54:04
Was auch teils immernoch zutrifft es zeigt halt sehr schön auf wo ordentlich investiert wird und wo eher geschlampt oder formulieren wir es netter sich "ausgeruht" wird ;)

Raff
2015-12-27, 01:32:36
das eine hat mit dem anderen doch garnichts zu tun.

selbst wenn man leute im forum umgestimmt hätte, dann hätte sich an der reklamierverhalten nichts bewegt. daher werde ich auch weiterhin meine meinung kundtun wenn ich die sache anders sehe.

wenn du die verkaufszahlen der 970 ansiehst merkst du schnell das einzelne personen garnichts erreichen können.

wenn raff das schärfer in seinen artikeln angeprangert hätte, dann hätte sich mehr bewegt als wir hier im forum je bewirkt hätten.

und mal davon abgesehen hätte ich mir trotzdem die 970 gekauft, ganz einfach, weil sie sexy ist wenn man aufs geld schaut.

das ist kein schönreden, es ist halt so.

trotzdem hoffe ich das sie es bei pascal nicht wieder tun auch wenn ich es befürchte.

PCGH rät seit vielen Monaten dazu, eine R9 390 zu kaufen und prangert die GTX 970 bzw. Nvidias Gebaren bei jeder sich bietenden Gelegenheit an. Die AMD-Karte scheint gut zu gehen, aber die Verbreitung der GTX 970 ist größer und nicht aufzuhalten. Die Karte ist für den Moment und für die meisten Einsatzzwecke ja auch attraktiv, doch sollte sich jeder Käufer darüber im Klaren sein, dass die Treiberliebe schon in einem halben Jahr aufhören wird (-> Pascal) und kommende Speicherfresser die Kiste überfordern werden. Wer dann sagt, man habe ihn nicht gewarnt, der ist wohl mit sehr engen Scheuklappen und tauben Ohren durch die Welt gelatscht. Eine R9 390 wird dann mit an Sicherheit grenzender Wahrscheinlichkeit noch dufte laufen.

MfG,
Raff

x-force
2015-12-27, 02:01:48
Bei der ganzen Aktion finde ich es nur lustig, dass die meisten ganz urplötzlich erst dann das Speicherproblem als solches gefunden bzw. bemerkt haben wollen, nachdem es als Sau medienwirksam durchs Dorf getrieben und dann in den Foren genüsslich filetiert wurd

etwas lächerlich... cruncher und ich haben u.a. elementar dazu beigetragen.
mein screenshot war auf etlichen newsseiten zu finden.

erzähl die story lieber in irgendwelchen kinderforen, oder deinen redakteur-kumpels!

die 970 ist und war ein krüppel und war schon von geburt dazu designed.

daß "ihr" fachleute das habt so lange unendeckt gelassen habt, wirft auf keinen einzelnen redakteur ein gutes licht.
ich erinnere mich nur an den hardware.fr typen positiv... damien glaube ich.

du magst elektronik wie netzteile vielleicht gut testen können, und auch anständige wärmebilder von den karten machen können,
aber was grafikkarten in kombination mit spielen angeht, solltest du lieber etwas ruhiger sein.
oder warum hast du uns damals darüber nicht informiert? ;)

macht euren job mal lieber ordentlich und guckt während des prozederes mal ein bisschen mehr auf osd anzeigen,
solltet ihr sie überhaupt installiert haben.
die kritik ist damals wie heute absolut begründet und zeigt, daß es nicht darum geht mit theoretischen begriffen um sich zu werfen,
sondern aufmerksam seine arbeit zu machen.
das tun 99% der "journalisten" heute leider nicht mehr.

BlacKi
2015-12-27, 02:12:30
die 970 ist und war ein krüppel und war schon von geburt dazu designed.
die kritik ist damals wie heute absolut begründet und zeigt, daß es nicht darum geht mit theoretischen begriffen um sich zu werfen,
sondern aufmerksam seine arbeit zu machen.
das tun 99% der "journalisten" heute leider nicht mehr.

gut gebrüllt löwe...

tut mir leid, fürn krüppel läuft meine karte ziemlich gut.

ob sie das in einem jahr noch tut muss sich erst zeigen, derzeit habe ich keinerlei schwierigkeiten, genau wie alle anderen 970 nutzer.

nach den patches anfang des jahres sind die auswirkungen nicht mehr nachweißbar.

x-force
2015-12-27, 02:15:46
als betroffener gestehe ich dir natürlich höchste objektivität zu. :)

-/\-CruNcher-/\-
2015-12-27, 02:50:46
du solltest unbedingt einen kakao mehr trinken das beruihgt ungemein ;)

keiner von uns hier war auch der der die bombe zum platzen gebracht hat und diesen Effizienzgewinn Nvidias bei der Ausbeute von Maxwell hier Final sichtbar machte so das Nvidia hier Produktions Internas preisgeben musste das Lob gebührt jemand ganz anderem :)

x-force
2015-12-27, 03:08:16
bin doch auch ganz locker, kakao ist auch im becher :D

ich konnte es nur nicht unkommentiert lassen, daß er einem hier vorwirft auf den zug aufgesprungen zu sein bzw das problem nicht wahrgenommen zu haben, obwohl das gegenteil der fall ist und die "professionellen" herren hier ziemlich versagt haben.

das kommt dann so ein bisschen von oben herab, obwohl man selbst in der hinsicht nichts vorzuweisen hat und diese kritik in diesem forum absolut falsch ist.

edit:
was meinst du mit effizienzgewinn?
leistung/stromverbrauch wohl nicht...

=Floi=
2015-12-27, 04:13:29
kann man nicht einnfach mal die zwei chips größeren chips entfernen oder ein spezielles bios flashen mit dem die karte nur ihre 3,5gb hat um zu testen, wie sauber dann die frametimes im vergleich sind?

(del)
2015-12-27, 06:51:28
etwas lächerlich... cruncher und ich haben u.a. elementar dazu beigetragen.
mein screenshot war auf etlichen newsseiten zu finden.
erzähl die story lieber in irgendwelchen kinderforen, oder deinen redakteur-kumpels!

Die ersten 970, die wir teilweise von den Boardpartnern schon vor dem NV Event bzw. dem Launch hatten (August/September), wiesen auf den ersten und zweiten Blick keine Auffälligkeiten auf.

Noch einmal, weil sich hier manche als Rächer der Enterbten hochstilisieren:
Es ist nicht korrekt, was abgelaufen ist und wie darauf reagiert wurde (letzteres finde ich sogar noch deutlich schlimmer). Das will ich hier auch klargestellt sehen. Ich bin mir allerdings sehr sicher, dass 90% der Nutzer oder mehr davon gar nichts mitbekommen hätten und bis heute auch haben, weil deren technischer Unterbau schlecht genug ist, um vorher zu limitieren bzw. die Frametimes auch mit einer 980 genauso beschissen sind oder gewesen wären. Durch sehr enge Kontakte zu Shops und einigen Boardpartnern ist auch deutlich geworden, dass die RMA-Quoten nach den ganzen Enthüllungen kaum nennenswert und auf Dauer gestiegen sind. Ich kenne auch Spieler, denen es sogar egal ist - weil sie eben nicht die ganzen Blockbuster in hochaufgelöst oder gemoddet spielen bzw. Anwender sind, denen der Speicher programmbedingt von Haus aus egal ist. Bei letzteren stehen dann noch andere Dinge wie Leistungsaufnahme oder Geräuschentwicklung im Focus. Für eine GTX 970 gibt es im SI-Business nun mal NICHTS Vergleichbares von AMD und die ganzen forenheimsuchenden Spieler sind eben auch NICHT die größte Gruppe der Käufer/Abnehmer. Das sollte man auch im Blick behalten.

Mich kotzen an dieser Geschichte zwei Dinge mordsmäßig an:
Das erste ist Nvidia selbst, weil man versucht hat, alle für dumm zu verkaufen und auch im Nachhinein so getan hat, als wären sie die Unschuld vom Lande. Das zweite sind die Leute, die das Propagieren ihrer Screenshots als einzigartige Lebensleistung betrachten und es jedem der es (nicht mehr) hören will oder kann gebetsmühlenartig immer wieder aufs Ohr drücken. Es haben doch alle mittlerweile begriffen, das Ganze ist ausgelutscht ohne Ende und Skandale und Skandälchen gibt es jede Woche.

@x-force:
Wenn ich mit jedem Scheiß, der mir bei meiner täglichen Arbeit auffällt, einen egozentrischen Bühnenauftritt hinlegen würde, dann käme ich vor lauter Forenposts nicht mehr zum arbeiten. Die Beurteilung meiner Arbeit solltest Du schon besser meinem Chefredakteur oder den Kunden meines Labors überlassen. Bei Letzterem handelt es interessanterweise auch um Grafikkarten. Die Problematik zur 970 hatten wir übrigens auch online, nur hasse ich nichts mehr als redundante Inhalte. Unsere Schwesterseite Anandtech hat es seinerzeit im Detail veröffentlicht und wir haben es aufgegriffen und in DE zusammengefasst nachgereicht. Einmal ist genug, denn die Leser sind ja nun wirklich nicht dement. Cruncher hat da deutlich mehr Stil als Du :)

=Floi=
2015-12-27, 08:08:43
die problematik des zu vollen VRAM ist auch für profis eine nicht leicht zu findende feherquelle. (wenn es nur ein paar mb sind!)
moderne streaming engines sind auch so extrem variabel, dass man hier auch nicht direkt verlässliche messungen vornehmen kann. Beim einen ist textur x im VRAM und beim anderen ist sie ausgelagert...
Der ottonormalo wird bei problemen entweder einfach die einstellungen runterdrehen oder das ruckeln nicht wirklich bemerken.


naja, was der normalkunde alles kauft dürfte auch problemlos einen eigenen thread füllen.
was nützen einem 64bit karten, (selbst mit GDDR5) welche die power des chips hinten und vorne nicht auf den boden bringen? Dafür kann NV mehr verlangen UND der größere chip braucht mehr strom.

x-force
2015-12-27, 08:14:42
Ich bin mir allerdings sehr sicher, dass 90% der Nutzer oder mehr davon gar nichts mitbekommen hätten und bis heute auch haben, weil deren technischer Unterbau schlecht genug ist, um vorher zu limitieren bzw. die Frametimes auch mit einer 980 genauso beschissen sind oder gewesen wären. Durch sehr enge Kontakte zu Shops und einigen Boardpartnern ist auch deutlich geworden, dass die RMA-Quoten nach den ganzen Enthüllungen kaum nennenswert und auf Dauer gestiegen sind. Ich kenne auch Spieler, denen es sogar egal ist - weil sie eben nicht die ganzen Blockbuster in hochaufgelöst oder gemoddet spielen bzw. Anwender sind, denen der Speicher programmbedingt von Haus aus egal ist.

für mich ist das hier, ich schätze mal begründet durch aths frühe kritische artikel, eine seite, die im deutschsprachigen raum keine alternive hat

du sprichst hier als zielgruppe imo eher den mainstream an.
der mainstream kann aber wie du ja schon selbst festgestellt hast dazu gar keine fundierte meinung haben, weil außerhalb der wahrnehmung :)


Mich kotzen an dieser Geschichte zwei Dinge mordsmäßig an:
Das erste ist Nvidia selbst, weil man versucht hat, alle für dumm zu verkaufen und auch im Nachhinein so getan hat, als wären sie die Unschuld vom Lande. Das zweite sind die Leute, die das Propagieren ihrer Screenshots als einzigartige Lebensleistung betrachten und es jedem der es (nicht mehr) hören will oder kann gebetsmühlenartig immer wieder aufs Ohr drücken. Es haben doch alle mittlerweile begriffen, das Ganze ist ausgelutscht ohne Ende und Skandale und Skandälchen gibt es jede Woche.

der erste punkt ist sicherlich derjenige, der einen volkswirtschaftlichen schaden verursacht und uns alle betrifft.

den zweiten punkt lass ich dir als persönlichen eifer durchgehen.
ich kann ja verstehen, daß man sich in seinem eigenen anspruch als professioneller etwas komisch vorkommt, wenn amateure im gleichen lokal speisen ;)
der punkt den du dabei übersiehst ist aber mehr ein etwas weitsichtigerer und moralischer.
mir ist egal, wer das rausgefunden hat, nur etwas schade, daß es die community selbst war.
ich hab dich an diesem punkt lediglich darauf hingewiesen, daß wir hier nicht auf irgendwelche züge aufspringen und das gleich mit fakten hinterlegt :rolleyes:

wenn man nvidia für das verhalten nicht überhart bestraft und anprangert, haben wir bald ein monopol bei den spielegrafikkarten und müssen 2k für eine titan x hinlegen. mag ja sein, daß du damit kein problem hast. ich schon und deswegen erinnere ich gerne daran.
ich komme mir auch indirekt natürlich selbst verarscht vor, da ich als 980er käufer ebenfalls die 970er im auge hatte.


Einmal ist genug, denn die Leser sind ja nun wirklich nicht dement.

und doch denke ich handelt es sich bei der mehrheit um leute, die daran nicht mehr denken sobald das pascal kastrat rauskommt, geschweige denn nvidia dafür kritisiert.
man hört nur immer ICH habe keine probleme, obwohl man gar nicht in der lage ist diese wahrzunehmen.
das hat etwas von seinen ablassbrief zu kaufen und sich dann aufrichtig für das überteurte stück papier zu bedanken.:freak:

(del)
2015-12-27, 08:40:52
ich kann ja verstehen, daß man sich in seinem eigenen anspruch als professioneller etwas komisch vorkommt, wenn amateure im gleichen lokal speisenSicher nicht, im Gegenteil. Ich weiß die Community sehr zu schätzen. Aber ich finde es reichlich albern, wenn sich der Koch stets ständig selbst lobt, obwohl es noch nicht einmal sein eigenes Rezept ist. Egal ob nun hobbymäßiger Freizeitbrater oder Gourmet-Filetierer. Der Profi macht seine Arbeit und ist zufrieden, wenn das Ergebnis zur Kenntnis genommen wird. One-Hit-Wonder gibt es immer wieder mal. Was zählt, sind Kontinuität und Ausdauer.

Den einzigen Anspruch, den ich mir stelle, ist der an mich selbst. Jeden Morgen, so wie heute auch, denn ich sitze trotz des freien Tages schon wieder im Labor und hinterfrage gerade Marketingsaussagen eines CPU-Kühlerblockherstellers. Ohne Tamtam, denn manchmal ist es besser, bestimmte Dinge erreichen erst gar nicht den Handel, bevor aufmerksame Beobachter ihre Screenshots machen können. Das ist zwar nicht so spektakulär, aber oft genug hilfreicher für all diejenigen, die nicht in Foren abhängen. ;)

auti
2015-12-27, 12:40:38
Durch sehr enge Kontakte zu Shops und einigen Boardpartnern ist auch deutlich geworden, dass die RMA-Quoten nach den ganzen Enthüllungen kaum nennenswert und auf Dauer gestiegen sind.

Hallo,
ich habe meine Karte damals nicht zurueck geschickt, weil ich mit meinem Haendler eine Preisminderung ausmachen konnte. Damit war das Thema fuer mich erstmal erledigt. Allerdings sollte NVidia nicht glauben, dass ich in den naechsten 5-10 Jahren nochmal eine Karte mit gruenem Logo kaufen werde. :rolleyes:

sg
auti

BlacKi
2015-12-27, 13:33:54
als betroffener gestehe ich dir natürlich höchste objektivität zu. :)
naja, als meine 970 ende sommer kaputtgegangen ist, stand ich erneut vor der wahl. rate mal welche es geworden ist. daher stehe ich dem ganzen als ex nutzer, als neukunde und als aktueller user gegenüber.

und warum wird in jedem der spiele tests die 970 mitgetestet, aber in keinem wird mehr extreme framtimes mehr gemessen oder auf "unspielbarkeit" der 970 hingewiesen?

ich hab farcry 4 durchgespielt, watchdogs und die spiele liefen bei mir immer sauber.

immer muss ich hier aber lesen wie schlecht meine karte performen soll, von leuten die sich vor 10 monaten an game bugs und schlechten treibern aufgeregt haben, die gar nicht mehr vorhanden sind.

-/\-CruNcher-/\-
2015-12-27, 13:37:37
Es ist einfach übertrieben wird gute Arbeit geleistet wird der user nichts spüren die limietierung liegt somit mehr in der Compute und Shader power gegenüber der GTX 980 als alles andere und da kann es eben sehr ausschlaggebend werden je nach dem an welchem Limit man sich befindet vor allem mit GameWorks ;)

Deswegen kann ich es auch einfach nicht verstehen wenn Reviewer Aufgrund von einem Spiel das die Shader pro frame nicht extreme belastet sagen "Hier wird die gleiche Performance der GTX 980 für niedriegeren Preis erreicht" das ist genauso bullshit, vor allem weil es sich eben auch immer weiter verschieben wird.

Dennoch kann man immer so skalieren das man mit einer dezenten am Sweetspot liegeenden GTX 970 ein verdammt ordentliches Ratio hat sprich eine verdammt gute overall Hardware Balance/Output zu dem Preis bekommt dazu muss man aber alle Punkte und das Gesammte Featureset Bewerten und Gegenüberstellen das macht kein Game Reviewer, der einzige der das eben wirklich mal sehr tief hinterfragt hat war Format_C in seinen Reviews damals.

Mit diesem wissen ist er dann genauso Ambitioniert an den Fury test gegangen :)

Sicherlich umfasst auch Format_C sein Review nicht das gesammt bild aber es deckt schon einen verdammt wichtigen Teil ab :)

Ob es letztendlich eine schlechte Balance Entscheidung gewesen ist werden wir bei VR sehen wenn das problem subjektiv von Belang ist wird es dort explodieren auf der GTX 970 im Zusammenhang mit den Async eigenschaften gegen die R390

Immerhin market Nvidia die GTX 970 mit Oculus zusammen als das Minimum was eben dann subjektiv gegen das AMD Minimum antretten wird beim User ;)

dargo
2015-12-27, 13:45:49
ich hab farcry 4 durchgespielt, watchdogs und die spiele liefen bei mir immer sauber.

Dann hast du schon 2x gelogen. Oder wir beide verstehen was völlig anderes unter sauber. WD hatte ich selber lange genug mit ner 970 gespielt. Es hatte lange gedauert bis es einigermaßen mit einem Treiber brauchbar lief. Von sauber konnte aber auch da keine Rede sein. Ich konnte es nur unterdrücken indem ich ein fps Limit von 50fps @50Hz genommen habe. Mit Ultra Texturen ist es bis heute unspielbar. FC4 läuft ebenfalls nicht sauber.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10800287&postcount=1634

Und das sogar mit einer 980TI.

Edit:
Hier kann man übrigens die ganze Leidensgeschichte mit der 970 und Watch Dogs von mir verfolgen (ab #3599).
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=528525&highlight=watch+dogs&page=180

Auf der nächsten Seite sieht man dann die Besserung mit dem FW347.09.

BlacKi
2015-12-27, 14:10:00
ich hab mir WD nicht zum release gekauft sondern später für 5€ oder so, um mir die 970 performance anzusehen. es lief zb. mit nem 2600k viel sauberer als mit dem 2500k. mit HT keine framedrops ohne HT heftige framedrops.

mordors schatten hat man selbst in videos gesehen wie schlecht das lief, aber selbst in dem spiel hat die 970 keine probleme mehr, obwohl 4gb voll ausgelastet sind.

das die karte jetzt noch diese probleme hat stimmt halt einfach nichtmehr.

-/\-CruNcher-/\-
2015-12-27, 14:10:54
Dann liegen die Probleme aber eher im System selbst als sonst wo sorry unspielbar ist absoluter quatsch subjektiv nicht der fall selbst nicht bei UHD.

Das Mukltithreading der Disrupt ist Anfangs absolut weitab von Optimal gewesen und ist es immernoch lange nicht optimal aber unspielbar ist einfach nicht der Fall.

Hab selbst Benchmarkszenen entwickelt die ich immer wieder teste und ich bin verdamt Temporal Distortion empfindlich.

Das größte Problem der Engine sind die Drawcalls das ist sehr oft am Limit pro Frame.

Das selbe hast du z.b bei Nba2k16 das Crowd Rendering ist auch am Limit der 2K Engine und verursacht die meisten subjektiven Probleme pro Frame.

Wo die GTX 970 sehr oft subjektiv einbricht das sind eher Cuda lastige sachen wie PCCS und HBAO+ wobei PCCS 10x schlimmer ist und je höher der Cuda load umso schlimmer wird es pro frame.

Megamember
2015-12-27, 14:38:36
Die Sache ist doch auch das man in settings wo die 970 noch gut performed entweder so gut wie nie über 3,5GB kommt und wenn dann hat es kaum AUswirkungen auf irgendwas.Gta V (mit Brechstange) und BAtman AK waren bei mir die einzigsten Beispiele wo ich es geschafft habe über 4GB Rambelegung zu erreichen. Von Rucklern, framedrops etc war aber selbst dann weit und breit nix zu sehen.

aufkrawall
2015-12-27, 14:41:58
Wo die GTX 970 sehr oft subjektiv einbricht das sind eher Cuda lastige sachen wie PCCS und HBAO+ wobei PCCS 10x schlimmer ist und je höher der Cuda load umso schlimmer wird es pro frame.
Beide von dir genannten Features nutzen kein Cuda.

-/\-CruNcher-/\-
2015-12-27, 14:47:01
Jo bei Batman Arkham Night haut vor allem die Weighted Blended Smoke implementation pro frame so dermasen rein das es einfach idiotisch ist das jetzt schon zu bringen.

BlacKi
2015-12-27, 14:50:31
Die Sache ist doch auch das man in settings wo die 970 noch gut performed entweder so gut wie nie über 3,5GB kommt und wenn dann hat es kaum AUswirkungen auf irgendwas.Gta V (mit Brechstange) und BAtman AK waren bei mir die einzigsten Beispiele wo ich es geschafft habe über 4GB Rambelegung zu erreichen. Von Rucklern, framedrops etc war aber selbst dann weit und breit nix zu sehen.
nichtmehr, da meiner meinung nach die treiber angepasst wurden. das könnte man aber gegentesten indem man einen alten treiber installiert.

-/\-CruNcher-/\-
2015-12-27, 15:00:08
Beide von dir genannten Features nutzen kein Cuda.
Ob du das nun CS oder CUDA nenen willst spielt keine große rolle läuft auf den selben Units.

aufkrawall
2015-12-27, 15:04:19
Ob du das nun CS oder CUDA nenen willst spielt keine große rolle läuft auf den selben Units.
Das tun DX9 und 12 auch.

EvilTechno
2015-12-27, 15:06:51
Die Sache ist doch auch das man in settings wo die 970 noch gut performed entweder so gut wie nie über 3,5GB kommt und wenn dann hat es kaum AUswirkungen auf irgendwas.Gta V (mit Brechstange) und BAtman AK waren bei mir die einzigsten Beispiele wo ich es geschafft habe über 4GB Rambelegung zu erreichen. Von Rucklern, framedrops etc war aber selbst dann weit und breit nix zu sehen.

Als Laie bin ich regelmässig irritiert in diesem Forum. Die schnellen Radeon (Fury X ?) sind wegen der 4GB nicht zu empfehlen. Soviel habe ich beim rumsurfen hier mitbekommen. Die 970 ist aber problemfrei außer in Extremfällen. Ich nehme an, da ist von anderen Auflösung die Rede, aber ... bei mir bleibt hängen dass Produkt rot ein fail by design ist und Produkt grün selbst bei übervollem VRAM nicht ruckelt oder dropped. :freak:

Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs stand nicht auf der Packung. Der Plan seitens NV muss gewesen sein, das auch niemals bekanntzumachen.

Wie kann das denn sein? Wieso wird der VW Abgasskandal nicht früher bekannt, wenn doch die Konkurrenz die Autos sofort nach Verkaufstart seziert? Sollte AMD wirklich nicht mitbekommen haben was da passiert? Erpresst man sich da gegenseitig?

Und die user hier greifen sich gegenseitig an. Und Menschen die sonst Blut spucken wenn in der TicTac Schachtel eines fehlt haben auf einmal kein Problem damit, wenn VRAM bezahlt wurde und dann fehlt.

Mein Vertrauen schwindet. Der 3dcenter erklärte mir was Microruckler sind und damals wurde noch zusammengestanden und Druck gemacht bis sich etwas geändert hat. Heute will man nur in Ruhe sein Produkt genießen (s.o. Keine Ruckler auch bei mehr als 4GB VRAM Belegung).
Wenn das so weitergeht wird jeder der Hardwareprobleme aufdeckt als Nestbeschmutzer beschimpft.

Ja, die PCGH hat mehrfach auf die 970er Probleme hingewiesen, aber in der Regel in einem sehr konzillianten Ton. Und auch dann wird die 970 immernoch als Tipp bei bestimmten Spielen angepriesen.
Da müsste im Artikel stehen:"Mit den beworbenen Specs wäre die 970 unser Spartipp, aber in dieser Form und weil wir unmöglich ein betrügerisches Produkt bewerben können steht hier nun die XY."

Raff
2015-12-27, 15:15:15
Ja, die PCGH hat mehrfach auf die 970er Probleme hingewiesen, aber in der Regel in einem sehr konzillianten Ton. Und auch dann wird die 970 immernoch als Tipp bei bestimmten Spielen angepriesen.
Da müsste im Artikel stehen:"Mit den beworbenen Specs wäre die 970 unser Spartipp, aber in dieser Form und weil wir unmöglich ein betrügerisches Produkt bewerben können steht hier nun die XY."

Das wäre in diesem Kontext Unsinn. Wenn eine GTX 970 beispielsweise in UT schneller rechnet und dabei weniger Strom säuft als eine R9 390, dann ist das so und entsprechend kann man die Karte für dieses Spiel empfehlen. Ähnliches gilt bei Fallout 4 und einer Handvoll anderen Spielen. Am großen Ganzen – dass Nvidias Kartenhaus bei Erschütterungen drumherum einstürzt und die Konkurrenz dann besser dasteht – ändert das nichts. Viele Leute leben in der Gegenwart und schauen nicht groß nach vorn. Die kaufen 2016, wenn die GTX 970 ruckelt, dann einfach eine GTX 1070, als wäre nix gewesen. Es ist Aufgabe der Medien, Leute aufzuklären, nicht sie aufzuhetzen.

MfG,
Raff

BlacKi
2015-12-27, 15:27:46
@evil

du mischst hier zuviel durcheinander. niemand freut sich über die nur halb angebundenen 1024mb oder voll belastbaren 3,5gb. aber es gibt nunmal keine andere attraktive karte von nvidia in diesem preissegment. mir persönlich ist es egal mit welchen werten die karte angepriesen wird, denn ich hab die tests gelesen und wusste wie die karte performt.

die 4gb der fury x sind eigentlich noch halbwegs ausreichend bis auf extremfälle, hier gehts aber darum das die 980ti eben einfach 6gb bietet udn zwar mehr oder weniger zum selben preis. und falls man in der zukunft wenn die 4gb nicht mehr reichen die auflösung reduziert, dann fallen die fiji karten in ihren schwachen bereich zwischen 1080p und 1440p. in diesen bereichen liegt sie fast gleich auf mit der 980 welche deutlich günstiger ist. dafür schafft man sich doch keine teure karte an.

dildo4u
2015-12-27, 15:33:56
Man muss nix Neues kaufen da die PS4 vorgibt was für Content erstellt wird und die bekommt nicht aufeinmal mher Ram.
Star Wars ist ein reines PS4/XBox One Game mit einer sehr modernen Engine und das läuft excellent auf meiner 970.Die Details werden mit Tesselation und Pom dargestellt und es ist realtiv sparsam was Vram angeht,macht wesentlich mher Sinn damit die Details darzustellen,da man so zusätzliche Schattenwürfe bekommt.

Driveclub hat auch grad Pom nachgerüstet bekommen.

https://forum.beyond3d.com/posts/1885279/

Schnoesel
2015-12-27, 15:36:43
Ein typischer dildo. Ich nehme ein Spiel das gut läuft und münze das auf alle anderen Spiele um. Wer spielt schon COD :biggrin:

Unabhängig davon ob der Krüppelram jetzt für den einen reicht oder nicht. Die Geschichte um ein GTX 970 sendet ein Signal an Nvidia: Wir verzeihen euch alles. Aber Nvidia wird bestimmt in Zukunft immer die Wahrheit sagen. Liegt denen sozusagen in den Genen.

aufkrawall
2015-12-27, 15:37:38
In Dying Light sind hier manchmal 4GB in WQHD belegt und ich sehe bei manchen Decals Texturenstreaming...
Mit einer 980 wohlgemerkt. Möchte ich mit einer 970 davon noch wesentlich mehr haben oder gar Stocker? Nö...

-/\-CruNcher-/\-
2015-12-27, 15:47:10
Techland muss halt besser werden *g*

Wobei sie einen 1A Linux Port abgeliefert haben :)

du kannst ein BC6H,BC7 Workflow auch schlecht mit einem BC5 (S3TC,DXT) Wokflow vergleichen ;)

Das eine ist State of the Art das andere Oldschool ;)

maximus_hertus
2015-12-27, 15:50:30
dann fallen die fiji karten in ihren schwachen bereich zwischen 1080p und 1440p.

Ist das so? Die Spiele werden mehr GPU Leistung selbst in 1080p fordern, da kann sich dann durchaus das ein oder andere verschieben. Nur weil man eine Zeit lang dieses beobachtet hat, gilt das doch nicht für immer?

aufkrawall
2015-12-27, 15:51:09
Techland muss halt besser werden *g*

Nein, sie haben insgesamt einen extrem guten Job abgeliefert.
Perfekte Frametimes und der VRAM-Bedarf ist schon für die Optik und das sehr großzügige LOD absolut angemessen.

Arcanoxer
2015-12-27, 15:51:24
PCGH rät seit vielen Monaten dazu, eine R9 390 zu kaufen und prangert die GTX 970 bzw. Nvidias Gebaren bei jeder sich bietenden Gelegenheit an. Die AMD-Karte scheint gut zu gehen, aber die Verbreitung der GTX 970 ist größer und nicht aufzuhalten.
Habe ich auch schon beobachtet, was für ein Trauerspiel für ein Hardwaremagazin.

Das war es dann wohl mit den neutralen Journalismus.

The_Invisible
2015-12-27, 15:59:36
Fängt der "Zirkus" hier wieder an? :biggrin:

Nach knapp einem Jahr hatte ich noch keine spielrevelanten Probleme in WQHD, ist aber mein eigenes Spielbefinden. Auch in den sogenannten GTX970 VRAM-Killerspielen konnte ich das nie nachstellen (wie lange ich da in Talos Principle herumgerannt bin um diese sekundenlangen hänger mal mit eigenen Augen zu sehen)

Mich würde da eher mehr mal eine technische Aussage von Nvidia interessieren wie genau das treibermäßig gelöst wurde/wird bzw. was da in Zukunft passiert wenn Pascal draußen ist.

BlacKi
2015-12-27, 16:11:11
Ist das so? Die Spiele werden mehr GPU Leistung selbst in 1080p fordern, da kann sich dann durchaus das ein oder andere verschieben. Nur weil man eine Zeit lang dieses beobachtet hat, gilt das doch nicht für immer?
und die 970 muss auch in 2-3 jahren nicht unspielbare frameraten haben. but who knows.

Lurtz
2015-12-27, 16:17:26
Man muss nix Neues kaufen da die PS4 vorgibt was für Content erstellt wird und die bekommt nicht aufeinmal mher Ram.
Star Wars ist ein reines PS4/XBox One Game mit einer sehr modernen Engine und das läuft excellent auf meiner 970.Die Details werden mit Tesselation und Pom dargestellt und es ist realtiv sparsam was Vram angeht,macht wesentlich mher Sinn damit die Details darzustellen,da man so zusätzliche Schattenwürfe bekommt.

Driveclub hat auch grad Pom nachgerüstet bekommen.

https://forum.beyond3d.com/posts/1885279/
Jetzt kommt das Märchen wieder. Ich dachte die Blu-ray limitiert, nicht der RAM? ;D

Nicht jedes Spiel läuft so gut wie Battlefront.

Habe ich auch schon beobachtet, was für ein Trauerspiel für ein Hardwaremagazin.

Das war es dann wohl mit den neutralen Journalismus.
Jeder neutrale Berater empfiehlt momentan eine R390 statt einer GTX 970, beinharte Fanboys ausgenommen ;) Sonderfälle wie Spielen unter Linux ausgenommen.

Raff
2015-12-27, 16:35:41
Arcanoxer bezieht sich gewiss genau auf seinen Linux-Standpunkt (ohne es hier explizit zu sagen). Der hat bei 99 Prozent der Spieler aber keine Relevanz und daher gelten da die Empfehlungen. Wie so oft gibt es keine Empfehlung, die für jedes Anwendungsszenario und jeden Nutzer optimal ist.

MfG,
Raff

(del)
2015-12-27, 17:39:00
Arcanoxer bezieht sich gewiss genau auf seinen Linux-Standpunkt (ohne es hier explizit zu sagen). Der hat bei 99 Prozent der Spieler aber keine Relevanz und daher gelten da die Empfehlungen. Wie so oft gibt es keine Empfehlung, die für jedes Anwendungsszenario und jeden Nutzer optimal ist.
MfG,
Raff

Genau das ist ja der Punkt, wo man nicht einfach pauschaliseren kann und darf, um wenigstens einigermaßen objektiv und neutral zu bleiben. Emotionen sind stets der schlechteste Ratgeber, bei den Medien ja erst recht. Sicher - Spiel A performt vielleicht besser als Spiel B, die Anwendung C leidet mehr als die Anwendung D - aber für das, was der jeweilige User mit sich selbst und seinem Software-Mikrokosmos ausmachen muss, kann man nur die Richtung aufzeigen, ihm jedoch am Ende die endgültige Entscheidung nicht abnehmen. Vieles ist zudem eine Momentaufnahme und kann sich mit dem nächsten Treiber schon wieder ändern. Zum Positiven, aber eben auch ins negative Gegenteil. Wer sich über die mangelnde Deutlichkeit der Journalisten beschwert, sollte sich auch im Klaren sein, dass Boulevard und sachliche Berichterstattung zwei Paar Schuhe sind. Womit wir wieder bei der kolportierten Sau, dem Dorf und meinem Eingangspost angekommen wären. Solange der Umstand mit dem RAM in einem Szenario nicht auffällt oder stört, hat er in diesem Bericht auch nichts zu suchen. Ich würde mir blöd vorkommen, den Lesern Demenz zu unterstellen und ständig auf dem rumzureiten, was gerade mal nicht von Relevanz ist.

Tja, und was man wohl mit den 512 MB macht, die so lahm rumbaumeln? Hier ist mal ein kleiner Denkanstoß zum Treibermodell unter Windows 7 aus einem meiner älteren Artikel. Allein die Hin- und Herblenderei von Inhalten zwischen dem Grafikspeicher und Aperture Memory kann locker in den langsamen Part. Der gesamte Desktop läuft war mittlerweile über D3D, aber eben in 2.5D (der Z-Buffer ist nur die Hilfskrücke, um sich die Z-Order der Fenster zu merken).
http://media.bestofmicro.com/2D-ati-Nvidia-Acceleration,N-D-236713-13.png
Das macht es dem Treiber sehr einfach, Inhalte zu trennen und separat zuzuweisen. Da auch der Desktopinhalt komplett im Speicher liegt (auch der Desktop ist ein Fenster), lohnt sich das durchaus. Es ist leider auch so, dass eigentlich kein Tool wirklich exakt die Speicherbelegung des Grafikspeichers unbereinigt ausgeben kann, weil viele Desktopinhalte hintenüber fallen und die Bereiche, die von RAM und Videospeicher im gemeinsamen Zugriff genutzt werden, nicht getrennt werden können. Traue keinem OSD, denn der angezeigte "Verbrauch" oder die "Belegung" hat nichts mit dem Gesamtvolumen des gerade vom System genutzten Umfangs zu tun. Das ist übrigens auch der Punkt, warum Nvidia das anfangs so gelassen gesehen hat, denn allein die intelligente Zuweisung von Speicherinhalten kann schon dafür sorgen, was in den schnellen oder langsamen Bereich ein- bzw. ausgelagert wird. Einzig die 2D-Performance des GDI/GDI+ sinkt nachweislich. Nur merkt es keiner, ob ein Fenster nun 2ms schneller aufbaut, oder nicht. ;)

Kriton
2015-12-27, 19:11:31
Als Laie bin ich regelmässig irritiert in diesem Forum. Die schnellen Radeon (Fury X ?) sind wegen der 4GB nicht zu empfehlen. Soviel habe ich beim rumsurfen hier mitbekommen. Die 970 ist aber problemfrei außer in Extremfällen. Ich nehme an, da ist von anderen Auflösung die Rede, aber ... bei mir bleibt hängen dass Produkt rot ein fail by design ist und Produkt grün selbst bei übervollem VRAM nicht ruckelt oder dropped. :freak:

stand nicht auf der Packung. Der Plan seitens NV muss gewesen sein, das auch niemals bekanntzumachen.

Wie kann das denn sein? Wieso wird der VW Abgasskandal nicht früher bekannt, wenn doch die Konkurrenz die Autos sofort nach Verkaufstart seziert? Sollte AMD wirklich nicht mitbekommen haben was da passiert? Erpresst man sich da gegenseitig?

Und die user hier greifen sich gegenseitig an. Und Menschen die sonst Blut spucken wenn in der TicTac Schachtel eines fehlt haben auf einmal kein Problem damit, wenn VRAM bezahlt wurde und dann fehlt.

Mein Vertrauen schwindet. Der 3dcenter erklärte mir was Microruckler sind und damals wurde noch zusammengestanden und Druck gemacht bis sich etwas geändert hat. Heute will man nur in Ruhe sein Produkt genießen (s.o. Keine Ruckler auch bei mehr als 4GB VRAM Belegung).
Wenn das so weitergeht wird jeder der Hardwareprobleme aufdeckt als Nestbeschmutzer beschimpft.

Ja, die PCGH hat mehrfach auf die 970er Probleme hingewiesen, aber in der Regel in einem sehr konzillianten Ton. Und auch dann wird die 970 immernoch als Tipp bei bestimmten Spielen angepriesen.
Da müsste im Artikel stehen:"Mit den beworbenen Specs wäre die 970 unser Spartipp, aber in dieser Form und weil wir unmöglich ein betrügerisches Produkt bewerben können steht hier nun die XY."

:up:

aufkrawall
2015-12-27, 19:19:59
Wenn ich nur HotS oder WoW zocke, hole ich mir auch keine Radeon.
Das NV-Management gehört zwar eingewiesen, aber mit AMD-Produkten ist man nun mal auch nicht unbedingt immer gut gewappnet.
Problem ist insbesondere, dass sich gerade DX12 auf den Sanktnimmerleinstag verabschiedet. Vielleicht, um gleich durch Vulkan abgelöst zu werden. Vielleicht dauert es aber auch noch ein Jahr, bis es endlich ein paar Titel damit gibt...

Kriton
2015-12-27, 19:21:37
Techland muss halt besser werden *g*

Wobei sie einen 1A Linux Port abgeliefert haben :)

du kannst ein BC6H,BC7 Workflow auch schlecht mit einem BC5 (S3TC,DXT) Wokflow vergleichen ;)

Das eine ist State of the Art das andere Oldschool ;)

Spielt das eine Rolle? Nein. Mich k**** das an, dass (gefühlt) immer wenn ein Problem speziell mit der 970 auftaucht es (gerade von Dir) auf schlechte Programmierung herunter gebrochen wird.
Selbst wenn das so wäre: Dort läuft sie eben nicht so sauber wie mit einer richtigen 4 GB-Karte - und das ist kein Fail der SW-Entwicker, sondern Nvidias.
Ich verstehe auch die Leute, die sagen, dass sie die Karte trotzdem in Ordnung finden.
Man kann das so machen (auch wenn der (rein) technische Sinn mindestens fragwürdig ist), aber Tatsache ist eben auch, dass Nvidia bei den Specs schlicht gelogen hat. Tun sie auf ihrer englischen Webseite übrigens immer noch (siehe die dortige Bandbreitenangabe).
Und wie jemand einige Posts vorher erwähnte: Wir werden sehen wie der Treibersupport der 970 mit Pascal sein wird, und wie ist er eigentlich momentan abseits der Benchmarkspiele?

-/\-CruNcher-/\-
2015-12-27, 19:40:30
Genau das ist ja der Punkt, wo man nicht einfach pauschaliseren kann und darf, um wenigstens einigermaßen objektiv und neutral zu bleiben. Emotionen sind stets der schlechteste Ratgeber, bei den Medien ja erst recht. Sicher - Spiel A performt vielleicht besser als Spiel B, die Anwendung C leidet mehr als die Anwendung D - aber für das, was der jeweilige User mit sich selbst und seinem Software-Mikrokosmos ausmachen muss, kann man nur die Richtung aufzeigen, ihm jedoch am Ende die endgültige Entscheidung nicht abnehmen. Vieles ist zudem eine Momentaufnahme und kann sich mit dem nächsten Treiber schon wieder ändern. Zum Positiven, aber eben auch ins negative Gegenteil. Wer sich über die mangelnde Deutlichkeit der Journalisten beschwert, sollte sich auch im Klaren sein, dass Boulevard und sachliche Berichterstattung zwei Paar Schuhe sind. Womit wir wieder bei der kolportierten Sau, dem Dorf und meinem Eingangspost angekommen wären. Solange der Umstand mit dem RAM in einem Szenario nicht auffällt oder stört, hat er in diesem Bericht auch nichts zu suchen. Ich würde mir blöd vorkommen, den Lesern Demenz zu unterstellen und ständig auf dem rumzureiten, was gerade mal nicht von Relevanz ist.

Tja, und was man wohl mit den 512 MB macht, die so lahm rumbaumeln? Hier ist mal ein kleiner Denkanstoß zum Treibermodell unter Windows 7 aus einem meiner älteren Artikel. Allein die Hin- und Herblenderei von Inhalten zwischen dem Grafikspeicher und Aperture Memory kann locker in den langsamen Part. Der gesamte Desktop läuft war mittlerweile über D3D, aber eben in 2.5D (der Z-Buffer ist nur die Hilfskrücke, um sich die Z-Order der Fenster zu merken).
http://media.bestofmicro.com/2D-ati-Nvidia-Acceleration,N-D-236713-13.png
Das macht es dem Treiber sehr einfach, Inhalte zu trennen und separat zuzuweisen. Da auch der Desktopinhalt komplett im Speicher liegt (auch der Desktop ist ein Fenster), lohnt sich das durchaus. Es ist leider auch so, dass eigentlich kein Tool wirklich exakt die Speicherbelegung des Grafikspeichers unbereinigt ausgeben kann, weil viele Desktopinhalte hintenüber fallen und die Bereiche, die von RAM und Videospeicher im gemeinsamen Zugriff genutzt werden, nicht getrennt werden können. Traue keinem OSD, denn der angezeigte "Verbrauch" oder die "Belegung" hat nichts mit dem Gesamtvolumen des gerade vom System genutzten Umfangs zu tun. Das ist übrigens auch der Punkt, warum Nvidia das anfangs so gelassen gesehen hat, denn allein die intelligente Zuweisung von Speicherinhalten kann schon dafür sorgen, was in den schnellen oder langsamen Bereich ein- bzw. ausgelagert wird. Einzig die 2D-Performance des GDI/GDI+ sinkt nachweislich. Nur merkt es keiner, ob ein Fenster nun 2ms schneller aufbaut, oder nicht. ;)

Du verstehst den DWM compositing/presentation Aufbau seit NT 6 nice :D

The_Invisible
2015-12-27, 19:56:23
Genau das ist ja der Punkt, wo man nicht einfach pauschaliseren kann und darf, um wenigstens einigermaßen objektiv und neutral zu bleiben. Emotionen sind stets der schlechteste Ratgeber, bei den Medien ja erst recht. Sicher - Spiel A performt vielleicht besser als Spiel B, die Anwendung C leidet mehr als die Anwendung D - aber für das, was der jeweilige User mit sich selbst und seinem Software-Mikrokosmos ausmachen muss, kann man nur die Richtung aufzeigen, ihm jedoch am Ende die endgültige Entscheidung nicht abnehmen. Vieles ist zudem eine Momentaufnahme und kann sich mit dem nächsten Treiber schon wieder ändern. Zum Positiven, aber eben auch ins negative Gegenteil. Wer sich über die mangelnde Deutlichkeit der Journalisten beschwert, sollte sich auch im Klaren sein, dass Boulevard und sachliche Berichterstattung zwei Paar Schuhe sind. Womit wir wieder bei der kolportierten Sau, dem Dorf und meinem Eingangspost angekommen wären. Solange der Umstand mit dem RAM in einem Szenario nicht auffällt oder stört, hat er in diesem Bericht auch nichts zu suchen. Ich würde mir blöd vorkommen, den Lesern Demenz zu unterstellen und ständig auf dem rumzureiten, was gerade mal nicht von Relevanz ist.

Tja, und was man wohl mit den 512 MB macht, die so lahm rumbaumeln? Hier ist mal ein kleiner Denkanstoß zum Treibermodell unter Windows 7 aus einem meiner älteren Artikel. Allein die Hin- und Herblenderei von Inhalten zwischen dem Grafikspeicher und Aperture Memory kann locker in den langsamen Part. Der gesamte Desktop läuft war mittlerweile über D3D, aber eben in 2.5D (der Z-Buffer ist nur die Hilfskrücke, um sich die Z-Order der Fenster zu merken).
http://media.bestofmicro.com/2D-ati-Nvidia-Acceleration,N-D-236713-13.png
Das macht es dem Treiber sehr einfach, Inhalte zu trennen und separat zuzuweisen. Da auch der Desktopinhalt komplett im Speicher liegt (auch der Desktop ist ein Fenster), lohnt sich das durchaus. Es ist leider auch so, dass eigentlich kein Tool wirklich exakt die Speicherbelegung des Grafikspeichers unbereinigt ausgeben kann, weil viele Desktopinhalte hintenüber fallen und die Bereiche, die von RAM und Videospeicher im gemeinsamen Zugriff genutzt werden, nicht getrennt werden können. Traue keinem OSD, denn der angezeigte "Verbrauch" oder die "Belegung" hat nichts mit dem Gesamtvolumen des gerade vom System genutzten Umfangs zu tun. Das ist übrigens auch der Punkt, warum Nvidia das anfangs so gelassen gesehen hat, denn allein die intelligente Zuweisung von Speicherinhalten kann schon dafür sorgen, was in den schnellen oder langsamen Bereich ein- bzw. ausgelagert wird. Einzig die 2D-Performance des GDI/GDI+ sinkt nachweislich. Nur merkt es keiner, ob ein Fenster nun 2ms schneller aufbaut, oder nicht. ;)

:up:

Genau das würde mich auch im Detail interessieren.

aufkrawall
2015-12-27, 20:03:56
Spiele im exklusiven Vollbildmodus sollte der DWM nicht stören, seit Windows 8 klaut der dabei auch kaum noch (gar nicht?) VRAM.

-/\-CruNcher-/\-
2015-12-27, 20:07:23
Windows 7 ist das immernoch der Fall deswegen spürst du da ja auch eben jede noch so kleine optimierung in jeder Software ;)

Den Latenzboost in Nvidias DSR optimierung hat man sofort erfassen können den latenzunterschied zwischen 1080p und DSR UHD erfasst man zwar immernoch aber weitaus weniger problematisch als wie noch am Anfang zum Maxwell release ;)

=Floi=
2015-12-27, 21:44:39
machst du es dir mit den "langsamen 512mb @2D speicher" nicht zu einfach?
imho mach er die ja auch in 3d trotzdem voll und führt so zu mikroruckeln. Würde der treiber ehrlich und transparent mit dem öangsamen speicher umgehen, dann wäre es ja auch wieder etwas anderes.

(del)
2015-12-27, 22:18:07
Es ist nicht einfach und es ist logischerweise schon gar keine 100%-ige Lösung. Soweit ich aber in Erfahrung bringen konnte, hat man sehr wohl versucht, die Kuh ein wenig vom Eis zu ziehen, indem man das Speichermanagement dahingehend optimert hat. Das klappt von OS zu OS und den jeweiligen Treibermodellen unterschiedlich gut, so dass wenigstens ein oder zwei Beine wieder auf festem Boden stehen. Solange aber Spiele glauben, die volle Dröhnung nutzen zu können, geht es im Grenzbereich weiterhin den Bach hinunter. NV sollte einfach per Treiber die albernen 512 MB ausblenden, meinetwegen auch über hinterlegte Profile für bestimmte, kritische Spiele - dann hätte man weniger Stress mit den Spielen, dafür wohl aber Ärger mit dem Marketing. :P

captain_drink
2015-12-28, 01:58:28
Ganz egal, ob und ggf. wie die VRAM-Segmentierung in der Praxis ohne sichtbare Probleme funktioniert, effektive 3,5 GB VRAM sind im Jahr 2016 schlicht ebenso mickrig, wie es 4 GB wären.
Mäßige Ports wird es auch weiterhin geben, und sofern man auf diese nicht verzichten will, kann man deren RAM-Hunger nur mit 6GB+ begegnen.
Für Neukäufe disqualifiziert sich die 970 daher unabhängig von der Segmentierung, early adopter können sich wenigstens auf ~15 Monate Nutzung mit vereinzelten (oder gar keinen) Problemen berufen.

anddill
2015-12-28, 02:26:03
Ganz egal, ob und ggf. wie die VRAM-Segmentierung in der Praxis ohne sichtbare Probleme funktioniert, effektive 3,5 GB VRAM sind im Jahr 2016 schlicht ebenso mickrig, wie es 4 GB wären.
....

LOL, wisst Ihr was die Leute aktuell so zB. zu Weihnachen kaufen? GTX750Ti für einen Gaming-Rechner. Immerhin mit 2GB.

gedi
2015-12-28, 02:34:47
Ob jetzt 3.5G oder 4G: Das Ding ist schlicht und ergreifend zu langsam um sich nahe "Highend-" nennen zu dürfen! Das Teil ist nichts weiteres als (besseres) Midrange - und nichts weiter!

Witzig auch der Testaufbau sämtlicher Sites - wenig bis auf keine Angabe über den Takt, Uncore-Bereich , Latenzen usw.

Mit einer Ti ~ 1.6G landet man in solchen Bereichen wo 16xHQAF nicht mehr mit o.g. Angaben nicht mehr in Einklang zu geben sind - sprich den Bereichen wo 1.56G manchmal schneller sind als 1.6G unabhängig dem Verbrauch (!) - - oder aber "CPU"-Limit ahoi.

Keine Seite hat bis dato aufgeführt welche Auswirkungen die oben genannten Dinge die jeweilige Architektur besser anspricht! Wen wollt ihr eigentlich ansprechen - den 0815-User?

Und wenn jetzt Format_C sagt sie hätten viel zu tun:

Ich/wir haben das Mehr-/Vielfache von euch zu tun - sowohl intellektuell als auch körperlich!

=Floi=
2015-12-28, 03:48:44
LOL, wisst Ihr was die Leute aktuell so zB. zu Weihnachen kaufen? GTX750Ti für einen Gaming-Rechner. Immerhin mit 2GB.

das funktioniert dann auch nicht sauber! (bezogen auf aktuelle games)
http://www.computerbase.de/2015-12/2gb-4gb-gtx-960-r9-380-vram-test/

man könnte auch mal einen extra thread aufmachen, wie viel es bringt, wenn das spiel erheblich mehr texturen als es aktuell benötigt cachen darf.


http://store.steampowered.com/hwsurvey
970er on top
Bei den core gamern sind schon leistungsstarke karten zu finden.

(del)
2015-12-28, 06:22:46
Und wenn jetzt Format_C sagt sie hätten viel zu tun:
Ich/wir haben das Mehr-/Vielfache von euch zu tun - sowohl intellektuell als auch körperlich!

Dann übernimm dich bloß nicht dabei. Ein Vielfaches liefe ja mindestens auf eine 120- bis 140-Stunden-Woche raus. Da wünsche ich Dir viel Spaß und ein schönes Wetter. Mit so einer arroganten Einstellung disqualifizierst Du Dich gerade selbst. Woher willst Du eigentlich einschätzen, was andere so machen? Ich bin z.B. schließlich kein Redaktionsknecht :D

BTW:
Da Du ja so ein intellektuelles Schwergewicht bist: definiere bitte das Mehrfache und bringe es in den passenden Kontext. Daran scheitert sogar der Duden (wie so oft) ;)

The_Invisible
2015-12-28, 09:01:20
Frametimes sind den meisten "nur Spielern" die ich kenne egal, die wissen nicht mal was das ist. Komischerweise haben sie von der VRAM-Fragmentierung gehört und das was langsamer laufen könnte, das wird aber wenn Sie Balken oder Marketing sehen können wieder schön ausgeblendet.

Leute, manche hier haben anscheinend keine Ahnung welche kleine Gruppe von 3D-Nerds wir hier sind und mit welchen ruckligen und grausigen Einstellungen da "draußen" gespielt wird. Das hat damals ja schon manchmal mit der nicht nativen Bildschirmauflösung angefangen.

=Floi=
2015-12-28, 10:29:58
bei BO3 ist default eine 50-60%ige skalierung der auflösung aktiv. da sieht wie auf den alten konsolen aus...
Das feature an sich ist super, nur default an um die schwachen karten nicht schlecht dastehen zu lassen und brei auf den monitor zu zaubern kann es ja auch nicht sein. Darüber regt sich auch keiner auf, nur macht man mit soetwas auch viel kaputt. Es ist ja oft auch die komplexität der themen und der versteckten hürden.

x-force
2015-12-28, 10:40:09
jetzt lasst doch mal die bauern wieder bauern sein und lenkt den fokus auf kernthemen.
das zieht doch immer nur wieder das niveau nach unten.

was interessiert es 970 und 980 nutzer wenn die default einstellungen verstellt sind?
wer von diesen leuten ist ernsthaft zu doof um das einzustellen?

diese elendigen verweise auf den pöbel... meine güte, meldet euch bei gamestar oder pc games an. :crazy:

(del)
2015-12-28, 11:02:53
Vergiss nicht, der "Pöbel" spielt den Herstellern die echte Kohle ein, nicht die Nerds. :)

x-force
2015-12-28, 11:33:42
ich find den spruch von ix ja auch zu geil
"Versteht nicht jeder – ist auch besser so"

@format_c

vollkommen klar, aber nvidia und amd bezahlen nicht mein gehalt.
ich bin hier, weil ich pc gaming liebe und damit groß geworden bin.
nicht weil ich das leiden von hans wurst mit seiner gt 720 ddr3 beheben möchte :)
wer billig will, bekommt das nunmal, gilt auch für den pc.

problematisch wirds halt wenn man 300 euro ausgibt und dafür verarscht wird.
meine erste richtige grafikkarte nach 3dfx addon war ne geforce 256. das teil hat 500dm gekostet, man wurde nicht verarscht und hatte die schnellste grafik. heute löhnst du mehr für gehobene mittelklasse und musst erstmal checken, ob du nicht verarscht wurdest.

(del)
2015-12-28, 11:56:30
heute löhnst du mehr für gehobene mittelklasse und musst erstmal checken, ob du nicht verarscht wurdest. Ja mei, ein bissi was muss der Kunde halt auch zum Business beitragen, dafür ist er halt Kunde :D

Wenn es danach geht, dürfte man auch keinen Schummel-VW/Audi/Skoda/Seat mehr kaufen, trotzdem gehen die Stinker weg wie warme Semmeln. Ich sehe da so gewisse Parallelen. :)
Irgendwie sehe ich nur nur noch Beschiss um mich herum. Ich brauche wohl langsam einen Alu-Hut. Gas-Abzocke, Strom-Beschiss, Lebensmittel-Skandale, Ekel-Restaurants... Die bekloppten Geißens immer mittendrin und an der Fleischtheke statt Kalbsschnitzel heute nur noch Lamm-Lachse. Das ist der Untergang des Abendlandes. ;)

Wobei der Robert echt auch in die Nvidia Werbung passen würde...
"Je mehr de weglässt, umso mehr sparste..."

BlacKi
2015-12-28, 12:37:58
meine erste richtige grafikkarte nach 3dfx addon war ne geforce 256. das teil hat 500dm gekostet, man wurde nicht verarscht und hatte die schnellste grafik. heute löhnst du mehr für gehobene mittelklasse und musst erstmal checken, ob du nicht verarscht wurdest.
du kriegst doch für 650 die schnellste karte auf dem markt, also hat sich preislich nichts geändert. und ne tx ist nicht wirklich schneller als eine ti.

ich könnte mir dagegen für den consumer bereich durchaus vorstellen das man langsamer angebundenen speicher bald auf allen karten sehen wird, aus kostentechnischen gründen, aus stromspargründen(wodurch die karte dann mehr verbrauchen kann), und weil nicht alles was im speicher liegt auch schnell angebunden sein muss.
wäre aber mit hbm erstmal wieder komplizierter.

x-force
2015-12-28, 12:50:59
@format_c
ich denke man kann da durchaus ernsthafte parallelen zum verfall entdecken.
aber andererseits auch richtig, man kanns nur mit humor nehmen, weil mans eh nicht ändern kann.

du kriegst doch für 650 die schnellste karte auf dem markt, also hat sich preislich nichts geändert. und ne tx ist nicht wirklich schneller als eine ti.

1. ne tx ist schneller

2. 500dm enstprechen 250 euro. 15 Jahre 2% inflation machen weniger als 35% erhöhung aus.
hättest du annähernd richtig gerechnet, würde tx jetzt 250x1,35= 337,5 euro kosten.
leider kostet selbst die ti, wie du vielleicht korrekt ausrechnen kannst, das doppelte. :)

-/\-CruNcher-/\-
2015-12-28, 13:44:58
Ob jetzt 3.5G oder 4G: Das Ding ist schlicht und ergreifend zu langsam um sich nahe "Highend-" nennen zu dürfen! Das Teil ist nichts weiteres als (besseres) Midrange - und nichts weiter!

Witzig auch der Testaufbau sämtlicher Sites - wenig bis auf keine Angabe über den Takt, Uncore-Bereich , Latenzen usw.

Mit einer Ti ~ 1.6G landet man in solchen Bereichen wo 16xHQAF nicht mehr mit o.g. Angaben nicht mehr in Einklang zu geben sind - sprich den Bereichen wo 1.56G manchmal schneller sind als 1.6G unabhängig dem Verbrauch (!) - - oder aber "CPU"-Limit ahoi.

Keine Seite hat bis dato aufgeführt welche Auswirkungen die oben genannten Dinge die jeweilige Architektur besser anspricht! Wen wollt ihr eigentlich ansprechen - den 0815-User?

Und wenn jetzt Format_C sagt sie hätten viel zu tun:

Ich/wir haben das Mehr-/Vielfache von euch zu tun - sowohl intellektuell als auch körperlich!

Nein Mid Range war und bleibt die GTX x60 serie die GTX 970 ist ein direkter konkurenz Angriff für einen Nvidia relativ unerhört niedriegen Preis gewesen ;)

Und sie hatten Mega erfolg damit AMDs HSA spreading zu minimieren :)

Mit einer sehr gut durchdachten Strategie :)

Nvidia weiss ganz genau was sie tun in hinsicht auf die APIs wie gesagt die GTX 970 ist nun das Minimum für VR sie können sich ein subjektives versagen nicht leisten :D

Sie wollten diese Karte als Quasi Skalierungsstandard für Maxwell durchsetzen das haben sie so gut wie Geschaft wie damals mit der GTX 460 :)

vinacis_vivids
2015-12-28, 13:58:12
Wenn Kundentäuschung schon als Megaerfolg gefeiert wird, wird Unwissen zur Macht.

BlacKi
2015-12-28, 13:59:46
leider kostet selbst die ti, wie du vielleicht korrekt ausrechnen kannst, das doppelte. :)
erwischt... danke für die richtigstellung

Wenn Kundentäuschung schon als Megaerfolg gefeiert wird, wird Unwissen zur Macht.
wird die karte wegen der falschen angaben gefeiert die nvidia macht, oder wegen des guten performance/preis verhältnisses? soviel zum unwissen, ich muss mir nicht selbst schaden um eine änderung auf nvidias specs auf der website zu erwirken.

BlacKi
2015-12-28, 14:02:44
sry doppelpost

Schnoesel
2015-12-28, 14:15:01
Gas-Abzocke, Strom-Beschiss, Lebensmittel-Skandale, Ekel-Restaurants... Die bekloppten Geißens immer mittendrin und an der Fleischtheke statt Kalbsschnitzel heute nur noch Lamm-Lachse. Das ist der Untergang des Abendlandes.

Das ist nur eines nämlich traurig. Für mich nichts anderes als eine gepflegte Opferkultur, dabei ist der Geldbeutel das Einzige mit dem die Verbraucher noch Einfluss nehmen können, eure Shitstorms könnt ihr euch dabei getrost sparen das interessiert niemanden. Aber man ist ja heutzutage nicht mehr bereit auf etwas zu verzichten also kauft man eben wieder beim gleichen Hersteller und darf hoffen, dass man diesmal nicht beschissen wird. Nur weiter so!

@ Blacki

und klar schadet sich der Verbraucher damit selbst aber das wird ja ignoriert. Nvidia kann alles mit euch machen ihr werdet es schlucken. Wenn das kein Schaden ist weiß ich auch nicht mehr.

Ex3cut3r
2015-12-28, 14:29:24
Mich hat die GTX 970 Sache schon etwas nachdenklich gemacht und ich wurde AMD kaufen, aktuell überlege ich eine 390X mit 8GB zu kaufen, als ersatz für meine GTX 770 2GB. Nur irgendwie sind mir alle Custom Designs der 390X zu laut, bin da etwas verwöhnt vom iChill Kühler. :freak:

EvilTechno
2015-12-28, 14:44:43
+1 Schnösel

Wobei die Anwesenden Nerds offenbar schlimmer sind als der Durchschnittsschlumpf. Üblicherweise sind Menschen bereit einen Nachteil zu akzeptieren um eine grobe Ungerechtigkeit zu verhindern.

Hier scheint der Gedanke auf "Verzicht", also dem Auslassen einer Grafikkartengeneration, schon mit einem Grundrechtverstoß gleichzuziehen.

Dass die Masse nach einem anstrengenden Tag auf der Arbeit oder vor dem Fernseher zu träge ist um sich mit organisiertem Beschiss oder data mining auseinanderzusetzen ist beklagenswert.

Dass die nerdige Elite hier aber so abgestumpft ist tut mir weh. Wenn das 3dcenter kollektiv handelt und in andere Foren abstrahlt, in Zeitschriften aufgegriffen wird, ect, was ja bereits passiert ist, dann könnte man wirklich Einfluss nehmen.

Wenn sich bei den Laien herumspricht, dass die 3d-pros kein SLI mehr benutzen, kein Steam und kein Win10, wenn der Spiegel darüber berichtet, dann wird es vielleicht cool, kein Schaf zu sein.

Tatsächlich aber trauen sich manche hier zu erklären dass ihre 970 nie ruckelt (darüber bin ich immer noch nicht hinweg) und dass sie aus Bequemlichkeit lieber bei Steam als bei gog kaufen.

Das ist wieder viel zu lang, sorry.

Das wäre in diesem Kontext Unsinn. Wenn eine GTX 970 beispielsweise in UT schneller rechnet und dabei weniger Strom säuft als eine R9 390, dann ist das so und entsprechend kann man die Karte für dieses Spiel empfehlen. Ähnliches gilt bei Fallout 4 und einer Handvoll anderen Spielen. Am großen Ganzen – dass Nvidias Kartenhaus bei Erschütterungen drumherum einstürzt und die Konkurrenz dann besser dasteht – ändert das nichts. Viele Leute leben in der Gegenwart und schauen nicht groß nach vorn. Die kaufen 2016, wenn die GTX 970 ruckelt, dann einfach eine GTX 1070, als wäre nix gewesen. Es ist Aufgabe der Medien, Leute aufzuklären, nicht sie aufzuhetzen.


Dann weiß ich nicht mehr warum ich die PCGH kaufen soll. Wenn ich mir einen neuen PC habe zusammenstellen lassen, dann wurde eine PCGH gekauft und geschaut was Sinn macht, gerade in den hinteren Listen. Das war (und ist) sein Geld wert, zumindest für jemanden der nicht sowieso in der Materie steckt. Und der bekommt eben nicht mit, dass er da verarscht wird und dass ab der nächsten Generation wohl keine Rücksicht mehr genommen wird, auf die besonderen Bedürfnisse seiner Karte.

Als ob ich mich in der ADAC Motorenwelt (OK, der Vergleich war fies) schlau mache und einen neuen VW Diesel kaufe bei dem nicht drauf hingewiesen wird, dass er die Grenzwerte nicht einhält und den der TÜV beim nächsten Besuch stilllegt.

Wenn IHR (Meinungsverstärker) nicht kritischer seid als die Kunden, dann ... danke... seid ihr Teil des Problems.

[Dass Raff und die PCGH es abbekommen liegt daran dass mein Horizont so beschränkt ist und ich nicht viel anderes kenne. Tatsächlich seid ihr die einzigen kritischen Stimmen die ich im Blätterwald mitbekomme, daher ist die Kritik unfair, wenn man euch mit anderen vergleicht. Aber dann müsste deine Antwort auch nicht sein: "Die 970 tut doch was sie soll", sondern "Wenn wir einen Zwergenaufstand machen bestrafen uns die Industrie UND die Leser".]

dargo
2015-12-28, 14:50:14
Mich hat die GTX 970 Sache schon etwas nachdenklich gemacht und ich wurde AMD kaufen, aktuell überlege ich eine 390X mit 8GB zu kaufen, als ersatz für meine GTX 770 2GB. Nur irgendwie sind mir alle Custom Designs der 390X zu laut, bin da etwas verwöhnt vom iChill Kühler. :freak:
Warum versteifst du dich so sehr auf die X? Eine non X ist nur unwesentlich langsamer und es gibt durchaus leise Exemplare.

=Floi=
2015-12-28, 14:58:56
dabei ist der Geldbeutel das Einzige mit dem die Verbraucher noch Einfluss nehmen können,

was soll man denn kaufen? 980, 980Ti oder eine Titan X. In jedem fall nimmt NV mehr geld ein.
Die kleineren karten verkaufen sie auch zu mondpreisen.


Dass die nerdige Elite hier aber so abgestumpft ist tut mir weh.
diese fehlkonstruktion wird einfachn icht empfohlen oder gar selbst gekauft. Ich ignorier das ding und fertig.


SLI ist und bleibt einfach eine baustelle. zu den aktuellen preisen ist es auch purer luxus und die skalierung ist auch nicht optimal für 2100€!

BlacKi
2015-12-28, 16:04:09
Tatsächlich aber trauen sich manche hier zu erklären dass ihre 970 nie ruckelt (darüber bin ich immer noch nicht hinweg) und dass sie aus Bequemlichkeit lieber bei Steam als bei gog kaufen.
solange du dir das einredest wirst du darüber nie hinwegkommen. in der tat hat sie am anfang reruckelt teils gefreezed.

das ist aber derzeit einfach nicht der fall.

ich hab jetzt über ein jahr lang eine 970, hatte aber noch nie solche szenen gesehen wie sie in den extrembeispielen zu sehen ist live erlebt. mir bleibt doch garnichts anderes übrig als den leuten zu widersprechen.

ich finde es nach wie vor nicht in ordnung sie mit einem 256bit SI einzupreisen, aber eine 780ti war langsamer und teurer und eine amd karte kam mir wegen der cpu overhead nicht in die tüte.

Ex3cut3r
2015-12-28, 17:13:10
Warum versteifst du dich so sehr auf die X? Eine non X ist nur unwesentlich langsamer und es gibt durchaus leise Exemplare.

Da ist mir die Leistung schon wieder zu gering, spiele in 3440x1440. ;)

(del)
2015-12-28, 17:20:40
Da ist mir die Leistung schon wieder zu gering, spiele in 3440x1440. ;)

Schöne Auflösung.:uup: Ich ertappe mich auch immer öfters, am Office-PC mit dem 21:9 zu zocken, als am Gaming-Tisch mit dem 16:9. Aber ohne 980 Ti macht das schon fast keinen Spaß mehr.

Raff
2015-12-28, 17:24:55
Dann weiß ich nicht mehr warum ich die PCGH kaufen soll. Wenn ich mir einen neuen PC habe zusammenstellen lassen, dann wurde eine PCGH gekauft und geschaut was Sinn macht, gerade in den hinteren Listen. Das war (und ist) sein Geld wert, zumindest für jemanden der nicht sowieso in der Materie steckt. Und der bekommt eben nicht mit, dass er da verarscht wird und dass ab der nächsten Generation wohl keine Rücksicht mehr genommen wird, auf die besonderen Bedürfnisse seiner Karte.

Als ob ich mich in der ADAC Motorenwelt (OK, der Vergleich war fies) schlau mache und einen neuen VW Diesel kaufe bei dem nicht drauf hingewiesen wird, dass er die Grenzwerte nicht einhält und den der TÜV beim nächsten Besuch stilllegt.

Wenn IHR (Meinungsverstärker) nicht kritischer seid als die Kunden, dann ... danke... seid ihr Teil des Problems.

[Dass Raff und die PCGH es abbekommen liegt daran dass mein Horizont so beschränkt ist und ich nicht viel anderes kenne. Tatsächlich seid ihr die einzigen kritischen Stimmen die ich im Blätterwald mitbekomme, daher ist die Kritik unfair, wenn man euch mit anderen vergleicht. Aber dann müsste deine Antwort auch nicht sein: "Die 970 tut doch was sie soll", sondern "Wenn wir einen Zwergenaufstand machen bestrafen uns die Industrie UND die Leser".]

Hinten, im von dir gern betrachteten Einkaufsführer, ist der Hinweis mit der geteilten Speicherschnittstelle ebenso prominent sichtbar wie im Leistungsindex. Viel mehr geht nicht, etwas hirnische Eigenleistung muss der Leser auch mitbringen, ansonsten kommt er mit diversen Artikeln auch nicht klar. ;)

Da ist mir die Leistung schon wieder zu gering, spiele in 3440x1440. ;)

Fünf Prozent Fps-Differenz sind gewiss nicht der Tropfen, der das Fass zum Überlaufen bringt. Das kriegst du locker wieder rein, wenn du die 390 auf 1.100 MHz ziehst. Tipp: Powercolor 390 PCS+ oder Sapphire Nitro.

MfG,
Raff

(del)
2015-12-28, 17:34:38
...Tipp: Powercolor 390 PCS...
MfG,
Raff
Besser nicht. Habe hier einen Totalausfall und eine, die nur noch mit fest eingestellter Lüfterdrehzal nicht freezt. Die Nitro ist ok.

Megamember
2015-12-28, 17:36:35
Besser nicht. Habe hier einen Totalausfall und eine, die nur noch mit fest eingestellter Lüfterdrehzal nicht freezt. Die Nitro ist ok.

Meine 290 PCS+ hat auch das Zeitliche gesegnet. Zudem hat der vrm Kühler nicht alle Chips abgedeckt, total Banane...

dargo
2015-12-28, 17:52:27
Da ist mir die Leistung schon wieder zu gering, spiele in 3440x1440. ;)
Bei der Auflösung wirst du auch mit einer 390X kaum glücklich.

aufkrawall
2015-12-28, 17:54:42
Weil der Overhead mit Radeons in 21:9 noch mehr nervt als mit 16:9? :D

-/\-CruNcher-/\-
2015-12-28, 18:18:47
Schöne Auflösung.:uup: Ich ertappe mich auch immer öfters, am Office-PC mit dem 21:9 zu zocken, als am Gaming-Tisch mit dem 16:9. Aber ohne 980 Ti macht das schon fast keinen Spaß mehr.

Auf der GTX 970 ist das ein beachtlicher boost :)

3x HD schaufelt eine menge resourcen frei im Ratio sehr effizient auf der GTX 970 :)

(del)
2015-12-28, 18:32:17
Ich mag 21:9, auch wenn mein IPS nicht das schnellste ist. Ist halt nicht zum Zocken gedacht gewesen, sondern als Excel-Breitwandveranstaltung :P

Interessanterweise hat man bei 21:9 wirklich gewisse Vorteile beim Spielen. Fällt mir immer öfter auf. :)

Im HTPC habe ich eine Nano, vorher wars die 970 OC Mini von Gigabyte (SI Version). In FHD bringt die Nano kaum spürbare Vorteile, nur in UHD und QHD. Wobei beide Karten für UHD reichlich ungeeignet sind, die Nano ist halt anders langsam. Dann lieber QHD und den TV als "upscaler". Die R9 380 Compact vom Sapphire ist zu laut, heiß und langsam. Ich hatte ja unlängst mal ein mini-ITX-Special mit meinen ganzen kleinen Karten (http://www.tomshardware.de/mini-itx-grafikkarten-benchmarks-kuhlung-airflow,testberichte-241965.html).

-/\-CruNcher-/\-
2015-12-28, 18:49:45
Neee also wenn ich ein Fanboy sein sollte dann auf jedenfall Samsung Fanboy ;)

Noch nie ein Samsung Produkt oder Entwickelte Technologie besessen die mich entäuscht hat im Value ;)

Ex3cut3r
2015-12-28, 18:50:13
Bei der Auflösung wirst du auch mit einer 390X kaum glücklich.

Hab mir schob gedacht, dann muss halt auf die nächste Gen gewartet werden. :)

MFG und nen Guten Rutsch!

Schöne Auflösung.:uup: Ich ertappe mich auch immer öfters, am Office-PC mit dem 21:9 zu zocken, als am Gaming-Tisch mit dem 16:9. Aber ohne 980 Ti macht das schon fast keinen Spaß mehr.

Danke :up: War ein Weihnachtsgeschenk, komme von einem 1080p Bildschrim. Muss/Werde auf die nächste Gen warten, das ist kein Problem.

(del)
2015-12-28, 18:54:13
Neee also wenn ich ein Fanboy sein sollte dann auf jedenfall Samsung Fanboy ;)
Noch nie ein Samsung Produkt oder Entwickelte Technologie besessen die mich entäuscht hat im Value ;)

Ich habe die weiße Ware von Samsung (Waschmaschine, Trockner). War halt günstig für die Features, mehr aber auch nicht. Und die Kack-Musik lässt sich leider auch nicht abstellen. Wenn die Garantie um ist, zwacke ich den Quäker ab. :D

Raff
2015-12-28, 19:42:06
Besser nicht. Habe hier einen Totalausfall und eine, die nur noch mit fest eingestellter Lüfterdrehzal nicht freezt. Die Nitro ist ok.

Doppelt Pech ist zwar kurios, das können aber einfach "Montagskarten" sein, ohne dass man damit auf die ganze Serie oder eine bestimmte Charge schließen kann. Im Zweifel hilft eine kurze Suchmaschinenrecherche.

Weil der Overhead mit Radeons in 21:9 noch mehr nervt als mit 16:9? :D

In der Auflösung hat man gewöhnlich andere Probleme als CPU-Last. Bei 2.560 × 1.080 könnte es hingegen stören (neben den groben Riesenpixeln natürlich).

Wir sind übrigens hart offtopic. ;)

MfG,
Raff

phoenix887
2015-12-28, 19:43:37
Schöne Auflösung.:uup: Ich ertappe mich auch immer öfters, am Office-PC mit dem 21:9 zu zocken, als am Gaming-Tisch mit dem 16:9. Aber ohne 980 Ti macht das schon fast keinen Spaß mehr.

Das 21:9 Format 3840x1632 ist noch besser :D und auch mit einer GTX 980 Ti sehr gut spielbar. Zumindest solange man keine First Person Shooter spielt und keine Probleme mit einem Controller am PC hat.

Ja spiele im Moment auch Talos Principle so, aber da muss ich ja keine Headshots ansetzen:freak:

(del)
2015-12-28, 23:03:30
Doppelt Pech ist zwar kurios, das können aber einfach "Montagskarten" sein, ohne dass man damit auf die ganze Serie oder eine bestimmte Charge schließen kann. Im Zweifel hilft eine kurze Suchmaschinenrecherche...
MfG,
Raff
Ohne ins Detail zu gehen - die Lüfterkurve und die Erwärmung einiger Komponenten im Dauerbetrieb passen bei der PCS+ nicht wirklich zusammen. Es sind übrigens Retail-Karten, keine selektierten Presse-Samples.
Ich brauche dafür auch keine Suchmaschine, dafür gibt es Telefone ;) TUL macht nette Sachen, aber diesmal haben sie es etwas übertrieben (oder besser untertrieben).

Aber das wird jetzt wirklich OT. Wobei - was soll auf Seite 259 noch Neues kommen? :P

=Floi=
2015-12-29, 05:44:12
ein spezielles bios oder eine in hardware veränderte karte, welche nur 3,5gb anspricht und mit der man einen frametime vergleich anstellen könnte. :)


so ganz klar ist zumindest mir noch immer nicht, ab wann die limitierung der karte in der praxis einsetzt. Sind es jetzt genau 3,5gb oder doch 3,6, 3,8 oder geht es noch unter umständen bis 4gb vram.

Mr. Lolman
2015-12-29, 08:36:27
Schöne Auflösung.:uup: Ich ertappe mich auch immer öfters, am Office-PC mit dem 21:9 zu zocken, als am Gaming-Tisch mit dem 16:9. Aber ohne 980 Ti macht das schon fast keinen Spaß mehr.

Najo, ganz so schlimm ists ja auch nicht. Ich spiel auf 40" in 3840x1640 mit einer 4GB 290X@1100/1475 und ja - alles @Max geht häufig nicht. Aber dann verzicht ich halt auf HBAO+ (ist eh meistens hässlich) und nehm normales SSAO (zB AC:U oder Farcry 4), schalte die Schatten ein bisschen runter (GTAV) oder verringer tw. ein wenig die Sichtweite (Witcher 3: Grasdistanz über ini zwischen Ultra und High, GTAV:High). Tessellation ist eh immer auf 8x limitiert und schon rennt eigentlich alles mit knappen max Details. Die letzte Qualitätsstufe kostet häufig ohnehin unverhältnismäßg viel und bringt auch meistens nicht viel zusätzliche Qualität. Zumindest auf dem ersten Blick ist kein Unterschied zu Max erkennbar und im Spiel sowieso nicht. (Gras@High war mit bei Witcher bspw zu wenig, @Ultra aber zu teuer, Hairworks wollt ich dann doch nicht auschalten)

Das bringt dann so zwischen 35 und 50 fps auf den Schirm. Mit geringem Inputlag ist das absolut ausreichend und schafft auf dem riesigen Bildschirm eine imo bis dato nicht dagewesene Immersion. Und das alles auf einem ~2 Jahre alten Grafikkärtchen, was auch damals schon deutlich weniger als 650€ gekostet hat.

Weil der Overhead mit Radeons in 21:9 noch mehr nervt als mit 16:9? :D

Mit dieser Auflösung ist man eher nicht mehr CPU-limitiert. Und wenn schon, fährt man komische Settings oder hat eine seltsam zusammengestellte Peripherie.

(del)
2015-12-29, 11:26:30
Ich zocke gerade Fallout 4 mit diversen Mods und maximalen Pixeltapeten. Da ist sogar die Fury X eine Bremse. Natürlich ist das Spiel definitiv nicht repräsentativ, aber es ist nun mal geil. Ich habe dafür aktuell die Quadro M6000 reingesteckt, weil es ein guter Kompromiss zwischen Job und Vergnügen ist. Erstaunlich, wie gut Fallout 4 auf der Workstation rennt :)

Mr. Lolman
2015-12-29, 11:38:05
Auch da hilfts super den Tessellationsfaktor (@8x) zu limitieren. Die NV-Godrays kosten zT einfach abartig viel.

BlacKi
2015-12-29, 11:53:10
ein spezielles bios oder eine in hardware veränderte karte, welche nur 3,5gb anspricht und mit der man einen frametime vergleich anstellen könnte. :)


so ganz klar ist zumindest mir noch immer nicht, ab wann die limitierung der karte in der praxis einsetzt. Sind es jetzt genau 3,5gb oder doch 3,6, 3,8 oder geht es noch unter umständen bis 4gb vram.
wenn nvidia das wollte köntne nvidia das auch treiberseitig machen, bzw. manches spiel hat am anfang bei 3,5gb abgeriegelt.

die letzten beiden ram bausteine müssen sich eine anbindung teilen, und immer wenn beide ram klötze sich eine leitung teilen müssen, dann können probleme entstehen.

aths
2015-12-29, 23:37:44
wenn nvidia das wollte köntne nvidia das auch treiberseitig machen, bzw. manches spiel hat am anfang bei 3,5gb abgeriegelt.

die letzten beiden ram bausteine müssen sich eine anbindung teilen, und immer wenn beide ram klötze sich eine leitung teilen müssen, dann können probleme entstehen.
Das Problem ist eben nicht, dass sich nur zwei RAMs eine Leitung teilen. Die ersten sieben RAM-Chips wirken wie ein Block. Wenn der achte RAM-Chip angesprochen wird, stehen damit die anderen sieben RAM-Chips still.

samm
2015-12-30, 00:30:57
Neee also wenn ich ein Fanboy sein sollte dann auf jedenfall Samsung Fanboy ;)

Noch nie ein Samsung Produkt oder Entwickelte Technologie besessen die mich entäuscht hat im Value ;)Echt? Ich könnte deinen Horizont erweitern, indem ich dir mein altes Samsung Galaxy Spica I5700 zukommen lasse - bis auf Versandkosten gratis! Das wäre massig Value, aber auch eine garantierte Enttäuschung das Krüppelteil :D

-/\-CruNcher-/\-
2015-12-31, 17:19:26
Neue Fiep Test Referenz

3D Center Filtertester

Erlaubt es sogar die Frequenz (hörbare(wahrnembare) Intensität) der Spulen alleine blos durch die Kamera Bewegung (Maus Bewegung) in Echtzeit zu verändern ohne das man die Render FPS manuel anpassen muss ;)

aufkrawall
2015-12-31, 18:03:32
Zu einseitige Last -> geringer Stromverbrauch und damit nicht maximale Lautstärke der Spulengeräusche.
Und warum postest du das in diesem Thread...

-/\-CruNcher-/\-
2015-12-31, 18:22:45
Das ist schon klar damit lässt sich dadurchr selhr leicht das minimum und maximum seiner Karte in wenigen sekunden bestimmen und auch die Frequenzen dazwischen von minimum zu maximum und das eben in Echtzeit (innerhalb seiner individuelen System Konfiguration) das ganze scheint sehr gezielt zu funktionieren :)

Die momentanen Reviewer tests beziehen sich nur auf einzel Szenarios die Variable sind, hier kann man von 0% zu 100% sehr einfach den unterschied in stufen feststellen, funktioniert hier jedenfalls perfekt auch ein Grund warum ich es nicht in den Spulenfiepen thread poste da ich nicht weiss ob es auch auf andere Hardware genauso zutrifft als wie hier auf die GTX 970 Galaxy Karte (Design) und genau so effizient auf anderen als test funktioniert :)

Das war sozusagen ein post nach Feedback ;)

Schaffe89
2016-01-01, 02:44:39
Fünf Prozent Fps-Differenz sind gewiss nicht der Tropfen, der das Fass zum Überlaufen bringt. Das kriegst du locker wieder rein, wenn du die 390 auf 1.100 MHz ziehst. Tipp: Powercolor 390 PCS+ oder Sapphire Nitro.

MfG,
Raff

Wieso wird eigentlich immer die PCS+ empfohlen? Die wird nach wie vor mit sacklautem Bios ausgeliefert und die Nitro ist auch deutlich lauter als eine 390 His, die so ziemlich die leiseste Karte auf dem Markt ist.
Warum wird die von keiner Seite außer der C´T getestet?

(del)
2016-01-01, 09:20:37
Wieso wird eigentlich immer die PCS+ empfohlen? Die wird nach wie vor mit sacklautem Bios ausgeliefert und die Nitro ist auch deutlich lauter als eine 390 His, die so ziemlich die leiseste Karte auf dem Markt ist.
Warum wird die von keiner Seite außer der C´T getestet?

Das "sacklaute" BIOS ist die Folge dessen, was ich bereits als frühzeitigen Tod bezeichnet hatte, wenn man zufällig die erste Batch geliefert bekommt. Der Kühler ist eine Fehlkonstruktion, da bei zu niedrigen Drehzahlen die Hotspots zu schleichenden Schäden führen können. Das BIOS trägt dem Rechnung und ich würde auch keinem raten, das wieder zu ändern. Die HIS wurde nicht offiziell besampelt, die Gründe sind eher geschäftlicher Natur ;)

captain_drink
2016-01-01, 14:08:08
Wieso wird eigentlich immer die PCS+ empfohlen? Die wird nach wie vor mit sacklautem Bios ausgeliefert und die Nitro ist auch deutlich lauter als eine 390 His, die so ziemlich die leiseste Karte auf dem Markt ist.
Warum wird die von keiner Seite außer der C´T getestet?

Die PCS+ war eine Zeit lang das günstigste noch brauchbare Design, was sich mittlerweile aber relativiert hat.
Die HIS dreht dafür im Idle unverhältnismäßig hoch.
Insgesamt ist die Nitro immer noch die beste Custom, wenngleich es durchaus ein Witz ist, dass Sapphire hierzulande nicht mal Garantie anbietet, sondern nur gesetzliche Gewährleistung mit Beweislastumkehr nach sechs Monaten.

dargo
2016-01-01, 15:04:08
Die HIS dreht dafür im Idle unverhältnismäßig hoch.

Das "Problem" lässt sich für unter 2€ beheben. Wenn mal einer das hier übersetzen würde:
http://www.overclock.net/t/1561372/hawaii-bios-editing-290-290x-295x2-390-390x

würde es auch mit einem angepassten Bios gehen.

captain_drink
2016-01-01, 15:26:05
Ich weiß, aber für die meisten Käufer zählt eben nur das, was man OOTB erhält.

dargo
2016-01-01, 15:52:03
Also wenn ich so den 980TI Thread verfolge habe ich manchmal so meine Zweifel daran. :D

Knuddelbearli
2016-01-01, 16:56:44
Das gilt dann nur für NV Karten

-/\-CruNcher-/\-
2016-01-01, 17:07:06
Mein Lod Drawcall Test in Witcher 3 Red Engine 3 + Umbra geupdated mit neuer extreme Test Szene ;)

http://i1.sendpic.org/t/lw/lwzNCRhlrkNqzBKz3uSc2KUHMLB.jpg (http://sendpic.org/view/1/i/q6EusBdcNHDnm4BNcebfbK4xY3h.png)

Frohes neues allen miteinand

Und unser Watch_Dogs mit 30 FPS Konsolenziel dessen Streaming Engine dadrüber schlapp macht vor allem weil dias CPU MT in die Knie geht darf nicht fehlen ;)

http://i2.sendpic.org/t/qq/qq4RiTBkMMEDK7uyZcQdHHXETvB.jpg (http://sendpic.org/view/2/i/AjC6eYBGY4L8rLOEwfYWi826RRx.png)

Ein schlechter start und dann mit achen und krachen so gerade die Performance ihres Vorbilds gepackt am Ende bei ihrem 30 FPS ziel ;)

http://i2.sendpic.org/t/rl/rlv91XMSJe5610i4oPO0ttOpuDc.jpg (http://sendpic.org/view/2/i/oX2QN8qoX2kmerzG3As6MQ5ls9C.png)

captain_drink
2016-01-02, 17:53:24
Um mal wieder auf das Thema 970 zurückzukommen: Hat sich eigentlich schon mal jemand die Mühe gemacht, einige der populären Überlauf-Fälle von letztem Jahr mit WDDM 2.0 zu reproduzieren?
Wäre ggf. interessant, ob und wie die 970 unter W10 anders reagiert.

AnarchX
2016-01-17, 11:24:42
Ob das wohl ein Grund sein könnte, die GTX 970 weiter "zu pflegen": http://store.steampowered.com/hwsurvey/videocard/

aufkrawall
2016-01-17, 11:29:58
Um mal wieder auf das Thema 970 zurückzukommen: Hat sich eigentlich schon mal jemand die Mühe gemacht, einige der populären Überlauf-Fälle von letztem Jahr mit WDDM 2.0 zu reproduzieren?
Wäre ggf. interessant, ob und wie die 970 unter W10 anders reagiert.
Evtl. gibt es anstatt der Stocker eine allgemein schlechtere Performance, zumindest war das bei PCGH mit Batman der Fall.

Kriton
2016-01-17, 11:51:56
Ob das wohl ein Grund sein könnte, die GTX 970 weiter "zu pflegen": http://store.steampowered.com/hwsurvey/videocard/

Warum? Wenn sie es nicht mehr packt, dann kaufen die Leute eine neue. Passt doch alles...:freak:

MartinRiggs
2016-01-19, 19:41:53
https://www.facebook.com/NVIDIADeutschland/?fref=nf

An Dreistigkeit kaum zu überbieten, es wird Zeit das AMD ne gescheite Karte hinbekommt......

Atma
2016-01-19, 19:45:40
https://www.facebook.com/NVIDIADeutschland/?fref=nf

An Dreistigkeit kaum zu überbieten, es wird Zeit das AMD ne gescheite Karte hinbekommt......
Ja, das ist schon sehr provokant :D

Seth
2016-01-19, 20:12:39
Bin immer noch sehr froh dass ich damals die Krüppelkarte wieder zurückgeben konnte.

Schrotti
2016-01-19, 20:52:40
Und ich bin immer noch froh gleich die 980 gekauft zu haben (2x).

Lurtz
2016-01-19, 21:30:52
https://www.facebook.com/NVIDIADeutschland/?fref=nf

An Dreistigkeit kaum zu überbieten, es wird Zeit das AMD ne gescheite Karte hinbekommt......
Ohne Worte. Aber den Kunden scheints ja tatsächlich zu gefallen, die 5% bei Steam für die Karte sagen alles. Alles richtig gemacht nVidia :up:

TheGood
2016-01-19, 21:58:22
Wie ich gesagt habe. Die Leute wollen beschissen werden und jetzt setzen Sie noch eines obendrauf!!! Wahnsinn. Auf Leute kauft weiter die 970 Nvidia liebt euch dafuer....

Kartenlehrling
2016-01-20, 12:29:45
mittlerweile ist der Beitrag entfernt, aber das Internet vergisst nie !! (http://extreme.pcgameshardware.de/attachments/875353d1453240825-steam-umfrage-kuert-gtx-970-zur-beliebtesten-gpu-nvidia.jpg)

dildo4u
2016-01-20, 12:54:22
Karte ist immer noch ein guter Kauf daher der Top Platz bei Steam,wenn man mal drüber nachdenkt hat eine 980TI weniger VRam für die GPU Power.Die Karte ist fast doppelt so schnell hat aber keine 7GB Vram.

Godmode
2016-01-20, 12:57:31
...wenn man mal drüber nachdenkt hat eine 980TI weniger VRam für die GPU Power.Die Karte ist fast doppelt so schnell hat aber keine 7GB Vram.

Was?

Raff
2016-01-20, 12:58:55
Die GTX 970 ist super, wenn man gewillt ist, heute und vor allem morgen nur mit mittleren Texturdetails zu spielen, damit der Speicher garantiert nicht vollläuft. :freak: Aber wer will das, wenn er 300+ Euro in eine Grafikkarte investiert? Ich verliere angesichts der Steam-Werte langsam den Glauben an die Menschheit, da fehlt einfach die Weitsicht. Nvidia freut sich natürlich darüber (und tut das auch noch süffisant grinsend kund).

MfG,
Raff

M4xw0lf
2016-01-20, 12:59:31
Selten dreiste und selten dumme Aktion.

dildo4u
2016-01-20, 13:17:29
Die GTX 970 ist super, wenn man gewillt ist, heute und vor allem morgen nur mit mittleren Texturdetails zu spielen, damit der Speicher garantiert nicht vollläuft. :freak: Aber wer will das, wenn er 300+ Euro in eine Grafikkarte investiert? Ich verliere angesichts der Steam-Werte langsam den Glauben an die Menschheit, da fehlt einfach die Weitsicht. Nvidia freut sich natürlich darüber (und tut das auch noch süffisant grinsend kund).

MfG,
Raff
Die Vorgänger wie z.b 670,760 hatten immer weniger Vram gegenüber dem AMD Gegenstücken 7950/280 und haben sich super verkauft.Diesmal war die 970 sogar dichter an der 290 was das angeht.

Was die Verkäufe weiter boosten wird sind die ganzen VR Artikel überall wird die 970 erwähnt,da sie als Basis angegeben wird.

MartinRiggs
2016-01-20, 13:25:02
Karte ist immer noch ein guter Kauf daher der Top Platz bei Steam,wenn man mal drüber nachdenkt hat eine 980TI weniger VRam für die GPU Power.Die Karte ist fast doppelt so schnell hat aber keine 7GB Vram.

Du solltest langsam mal aus deiner Knetgummiwelt ausbrechen ;D

dildo4u
2016-01-20, 13:29:16
Hä eine 980 Ti wird als 4k Karte vermarktet braucht 4k nich 4?mal so viel Vram wie 1080p?Da find ich 6GB für 650€ bissel dürftig.

aufkrawall
2016-01-20, 13:31:17
Was erzählst du hier für einen Quatsch zusammen? Es ist nicht der VRAM bei der 980 Ti, der für 4k limitiert, sondern die Rechenleistung.

dildo4u
2016-01-20, 13:32:59
Wie soll dann die 970 durch Vram limitiert sein wenn sie halb so viel Leistung hat aber 3.5GB Vram?

maguumo
2016-01-20, 13:34:09
Wie soll dann die 970 durch Vram limitiert sein wenn sie halb so viel Leistung hat aber 3.5GB Vram?
Weil das nicht linear skaliert?

MartinRiggs
2016-01-20, 13:35:10
Stellst du dich absichtlich so "unschlau" oder bist du es wirklich?

Die 6GB reichen in 4K eigentlich immer, vorher geht eh die GPU in die Knie.

aufkrawall
2016-01-20, 13:38:05
Weil das nicht linear skaliert?
Und weil sie nicht normale 3,5GB hat. Das weiß dildo auch.

N0Thing
2016-01-20, 13:42:44
Wie soll dann die 970 durch Vram limitiert sein wenn sie halb so viel Leistung hat aber 3.5GB Vram?

Das ist das Problem. Die 970 hat leider keinen 3,5GB großen VRAM, sondern 3,5+0,5.
Die ganze Thematik wäre hinfällig, wenn Nvidia die Karte zur preislichen Absetzung zur 980 ohne den Krüppelanteil heraus gebracht hätte.

Wahrscheinlich hat die Mehrheit von dem Marketingbeschiss nie etwas mitbekommen oder im Kopf behalten. Wenn ich sehe, wie selektiv das Wissen über Hardware in meinem Zockerfreundeskreis ausfällt, wundert mich die Steamstatistik leider gar nicht.

Disco_STFU
2016-01-20, 13:46:05
Arbeitet dildo bei NV in der Marketingabteilung?

dildo4u
2016-01-20, 13:50:39
Es gab kein Auffschrei weil es in der Praxis fast nie zum Faktor wird.Die Masse wird keine 970 für ein 1440p Display kaufen,1080p wird im dem Bereich immer noch mit Abstand das Gebräuchliste sein.Den einzigen Trend den ich sehe ist, das Nvidia immer mher Effkte in die PC Versionen schleust,die so viel GPU Leistung fressen,das man mit der 970 eh auf 1080p berschränkt ist.

Godmode
2016-01-20, 14:05:10
Hä eine 980 Ti wird als 4k Karte vermarktet braucht 4k nich 4?mal so viel Vram wie 1080p?Da find ich 6GB für 650€ bissel dürftig.

Wenn es so wäre, würde eine TX in 4K, Kreise um die 980 Ti ziehen, ist es aber nicht. Ich bin jetzt sehr verwundet, über deine Aussage.

Kriton
2016-01-20, 14:22:38
Die GTX 970 ist super, wenn man gewillt ist, heute und vor allem morgen nur mit mittleren Texturdetails zu spielen, damit der Speicher garantiert nicht vollläuft. :freak: Aber wer will das, wenn er 300+ Euro in eine Grafikkarte investiert? Ich verliere angesichts der Steam-Werte langsam den Glauben an die Menschheit, da fehlt einfach die Weitsicht. Nvidia freut sich natürlich darüber (und tut das auch noch süffisant grinsend kund).

MfG,
Raff

Ich glaube Du überschätzt einfach die Technikaffinität der Menschen. Die meisten verstehen das Problem nicht.
Hattet ihr das z.B. mal in einem eigenständigen Artikel thematisiert (so für die Laien)? Wo ist eine solch deutliche Aussage z.B. von euch mal getroffen worden (ggf. sogar regelmäßig wenn man die 970 erwähnt)? Trifft andere Publikationen natürlich genauso.

Und über einen gewissen Onlineartikel zu den Rechtsfragen sage ich auch mal lieber nichts. Wenn da falsche Sachen stehen und die Leute dann denken sie haben keine Möglichkeiten, dann behalten sie das Ding natürlich auch eher als ihre Rechte zu nutzen...

Die Vorgänger wie z.b 670,760 hatten immer weniger Vram gegenüber dem AMD Gegenstücken 7950/280 und haben sich super verkauft.Diesmal war die 970 sogar dichter an der 290 was das angeht.

Und was hat das mit der 3,5 + 0,5 Problematik zu tun? Natürlich nichts, aber Hauptsache mal wieder pro Nvidia schreiben. :rolleyes:

Lurtz
2016-01-20, 14:27:55
Hä eine 980 Ti wird als 4k Karte vermarktet braucht 4k nich 4?mal so viel Vram wie 1080p?Da find ich 6GB für 650€ bissel dürftig.
Gut vom Thema abgelenkt.

Ich glaube Du überschätzt einfach die Technikaffinität der Menschen. Die meisten verstehen das Problem nicht.
Hattet ihr das z.B. mal in einem eigenständigen Artikel thematisiert (so für die Laien)? Wo ist eine solch deutliche Aussage z.B. von euch mal getroffen worden (ggf. sogar regelmäßig wenn man die 970 erwähnt)? Trifft andere Publikationen natürlich genauso.
Die Wenigsten, man kann es sich ja nicht mit nVidia verscherzen.

Die meisten lesen sowas aber auch nicht, bzw. haben es selbst dann nicht verstanden. Selbst in Foren, wo tendenziell recht informierte Leute unterwegs sind, gibts jede Menge Falschaussagen zur GTX 970.

MartinRiggs
2016-01-20, 14:32:06
Selbst hier im Forum gibt es mehr als genug GTX970, manche wollen halt einfach beschissen werden.

Kriton
2016-01-20, 14:34:11
Die Wenigsten, man kann es sich ja nicht mit nVidia verscherzen.

Bin ich bei Dir. Aber dann darf man nicht auf die Nutzer (Leser) "schimpfen", das ist Hybris. Wobei ich denke, dass Raff vermutlich schon meint, dass sie darauf hingewiesen haben. Aber ich glaube (mindestens), dass das gemessen am tatsächlichen Verständnis der Leser (und mit Blick auf die sonstige Berichterstattung zur 970) nicht einmal im Ansatz ausreichend war, um die eigenen Leser nachhaltig über das Problem zu informieren. Da vermisse ich manchmal eine gewisse Reflexion (im Gegensatz zu einer (verständlichen) Verteidigungshaltung.


Die meisten lesen sowas aber auch nicht, bzw. haben es selbst dann nicht verstanden. Selbst in Foren, wo tendenziell recht informierte Leute unterwegs sind, gibts jede Menge Falschaussagen zur GTX 970.

Ich glaube, dass Foren aber weniger glaubwürdig sind (jedenfalls für Außenstehende), da dort eben noch Diskussionen stattfinden und ggf. die Expertise der einzelnen Poster gerade für Außenstehende nicht erkennbar ist. Eine renommierte Webseite/Zeitung lässt sich besser als Beleg anführen (berechtigt oder nicht).

Raff
2016-01-20, 14:34:42
Ich glaube Du überschätzt einfach die Technikaffinität der Menschen. Die meisten verstehen das Problem nicht.
Hattet ihr das z.B. mal in einem eigenständigen Artikel thematisiert (so für die Laien)? Wo ist eine solch deutliche Aussage z.B. von euch mal getroffen worden (ggf. sogar regelmäßig wenn man die 970 erwähnt)? Trifft andere Publikationen natürlich genauso.

PCGH nennt das Problem ständig, man muss als Leser die Info aber auch verarbeiten. :) Ein paar Beispiele aus der nahen Vergangenheit: in Jahresrückblicken (1 (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Grafikkarten-Rueckblick-2015-1181541/), 2 (http://www.pcgameshardware.de/Spiele-Thema-239104/Specials/Rueckblick-2015-Aufreger-1181548/)), in der GPU-Kaufberatung (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Grafikkarten-Test-Bestenliste-Radeon-und-Geforce-678322/) sowie bei jedem kontextgegebenen Anlass im Heft (Marktübersicht High-End-Grafikkarten, u. a.). Die Redaktion rät dementsprechend zu "echten" 4G-Karten bzw. passenderweise zur Radeon R9 390. Hinzu kommt, dass das Thema in vielen der regelmäßigen Spiele-Tests hochkocht und, so viel kann ich schon verraten, in einem kommenden Dual-GPU-Test. Insofern denke ich, dass das Problem primär außerhalb der PCGH-Reichweite zu wenig als solches genannt wird.

MfG,
Raff

Kriton
2016-01-20, 14:41:51
Aus dem 2. Link:

In der Praxis stellte sich die Problematik allerdings bislang als relativ unauffällig dar, auch wenn es in einigen Spielen jenseits von 1080p oder mit hohen Kantenglättungsfaktoren zu Performance-Einbrüchen kam oder gegenüber dem Schwestermodell GTX 980 weniger hoch aufgelösten Texturen angezeigt wurden - oft aber erst dann, wenn die Bildraten schon zu niedrig für flüssiges Spielen ausfielen.

Aus dem 3. Link:

Wer jedoch nur in Full HD oder höchstens 2.560 x 1.440 Pixeln spielt, der muss sich auf absehbare Zeit keine Sorgen machen.

Wie passt das zu:

Die GTX 970 ist super, wenn man gewillt ist, heute und vor allem morgen nur mit mittleren Texturdetails zu spielen, damit der Speicher garantiert nicht vollläuft. :freak: Aber wer will das, wenn er 300+ Euro in eine Grafikkarte investiert? Ich verliere angesichts der Steam-Werte langsam den Glauben an die Menschheit, da fehlt einfach die Weitsicht. Nvidia freut sich natürlich darüber (und tut das auch noch süffisant grinsend kund).

MfG,
Raff

BlacKi
2016-01-20, 14:44:44
Die GTX 970 ist super, wenn man gewillt ist, heute und vor allem morgen nur mit mittleren Texturdetails zu spielen, damit der Speicher garantiert nicht vollläuft. :freak: Aber wer will das, wenn er 300+ Euro in eine Grafikkarte investiert? Ich verliere angesichts der Steam-Werte langsam den Glauben an die Menschheit, da fehlt einfach die Weitsicht. Nvidia freut sich natürlich darüber (und tut das auch noch süffisant grinsend kund).

MfG,
Raff
wo muss man denn heute die texturen runterdrehen mit einer 970? ja es gibt einzelne spiele die lassen den speicher überlaufen, das bedeutet aber nicht automatisch das es zu rucklern kommt, wie viele meinen.

was nächstes jahr angeht stimme ich aber zu, niemand kann sagen wie die spiele performen werden.

der kommentar von nvidia ist sowas von überflüssig gewesen. aus sicht nvidias sollte so jemand sowas nie wieder posten dürfen...

Raff
2016-01-20, 14:46:35
Das große Problem am Problem ;) ist, dass man es nicht klar umreißen kann. Es kann auftreten, muss aber nicht. In jedem Fall wird es in Zukunft nicht besser. Wann genau, werden wir sehen. Insofern: Lasst uns in zwei Jahren nochmal diskutieren, denn vermutlich ist die GTX 970 dann völlig am Ende, während man auf einer 390 noch ordentlich spielen können wird. Das ist natürlich nur eine gewagte These, aber wie gesagt: abwarten. Die Kepler-GPUs mit 2 GiB sind auch nicht gut gealtert, während Tahiti noch gut mitkommt.

MfG,
Raff

BlacKi
2016-01-20, 14:53:56
Die Karte ist fast doppelt so schnell hat aber keine 7GB Vram.

vom "preis pro gb vram" gesehen, ja, da hast du recht, aber so kann man das nicht sehen, und konnte man auch noch nie.

eigentlich wirkt eine 980ti gegenüber der 980 sogar wie ein schnäpchen, klar vom vram vergleich her, aber auch von der performance her.

sich über die ti zu beschweren halte ich für falsch. ich sehe es sogar so, das wenn man eine karte zwischen 200 und 650 euro sucht eigentlich nur 2 empfehlungen machen kann. die 960 und die 980ti, die 970 hat den krüppelspeicher, die 980 zu teuer für die performance und die menge an vram. amd fällt raus, denn amd treiber lassen die cpu performance vom übertakteten i7 auf den wert eines i3 fallen.

Pirx
2016-01-20, 15:08:36
... ich sehe es sogar so, das wenn man eine karte zwischen 200 und 650 euro sucht eigentlich nur 2 empfehlungen machen kann. die 960 und die 980ti, die 970 hat den krüppelspeicher, die 980 zu teuer für die performance und die menge an vram. amd fällt raus, denn amd treiber lassen die cpu performance vom übertakteten i7 auf den wert eines i3 fallen.
Na klar, bspw. fällt die 390X raus, da sie ja nur die Performance der 980 zum günstigeren Preis liefert und nur die doppelte Menge an VRAM hat.:uhammer: Was für ein Blödsinn.

aufkrawall
2016-01-20, 15:10:29
Der Treiber schreckt mich ab, sonst hätte ich schon längst die 980 verkauft mir eine 390X stattdessen geholt.
Ich hab mit den 4GB der 980 die meiste Zeit bessere Frametimes als mit den 8GB der 390X. Einfach absurd.

BlacKi
2016-01-20, 15:10:42
Na klar, bspw. fällt die 390X raus, da sie ja nur die Performance der 980 zum günstigeren Preis liefert und nur die doppelte Menge an VRAM hat.:uhammer: Was für ein Blödsinn.
was?

Der Treiber schreckt mich ab, sonst hätte ich schon längst die 980 verkauft mir eine 390X stattdessen geholt.
Ich hab mit den 4GB der 980 die meiste Zeit bessere Frametimes als mit den 8GB der 390X. Einfach absurd.
und selbst der highend polaris chip fällt für mich deshalb flach(interessant bleibt das thema aber), denn die meisten games werden auch 2017 nicht dx12 oder vulkan unterstützen.

Kriton
2016-01-20, 15:31:46
amd fällt raus, denn amd treiber lassen die cpu performance vom übertakteten i7 auf den wert eines i3 fallen.

Das belege bitte doch einmal... (ich glaube nicht, dass es Dir gelingen wird).

BlacKi
2016-01-20, 15:39:00
Das belege bitte doch einmal... (ich glaube nicht, dass es Dir gelingen wird).
mein satz war eine anspielung auf diesen test, speziell auf diesen dirt rally test.

http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#abschnitt_prozessorbenchmarks

aber auch andere spiele

http://www.computerbase.de/2015-11/fallout-4-benchmarks/2/#abschnitt_prozessorbenchmarks

in diesen prozessor benchmarks liegt kein gpu limit an sondern nur cpu limit. die cpu und der grafiktreiber sind hier für die höhe der fps verantwortlich.

bei 4k mag es keine rolle spielen, aber bei kleinen prozssoren sollte man vorsichtig sein wenn man zu amd karten rät, was bei nvidia absolut problemlos geht.

N0Thing
2016-01-20, 15:55:37
mein satz war eine anspielung auf diesen test, speziell auf diesen dirt rally test.

http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#abschnitt_prozessorbenchmarks

aber auch andere spiele

http://www.computerbase.de/2015-11/fallout-4-benchmarks/2/#abschnitt_prozessorbenchmarks

in diesen prozessor benchmarks liegt kein gpu limit an sondern nur cpu limit. die cpu und der grafiktreiber sind hier für die höhe der fps verantwortlich.

bei 4k mag es keine rolle spielen, aber bei kleinen prozssoren sollte man vorsichtig sein wenn man zu amd karten rät, was bei nvidia absolut problemlos geht.


In den Benchmarks die du verlinkt hast, gibt es kaum einen Unterschied zwischen AMD und Nvidia. Beide verlieren fast das gleiche bei den Prozentpunkten beim Wechsel von dem 3,5Ghz 4 Kerner zum emulierten Dual Core. AMD verliert sogar etwas weniger im Vergleich zwischen dem Vierkerner mit 3,5GHz und 2,5GHz.

Da hab ich schon mal Benchmarks gesehen, bei denen AMD mit einem dual core schlechter abgeschnitten hat.

Kriton
2016-01-20, 16:02:21
mein satz war eine anspielung auf diesen test, speziell auf diesen dirt rally test.

http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#abschnitt_prozessorbenchmarks

aber auch andere spiele

http://www.computerbase.de/2015-11/fallout-4-benchmarks/2/#abschnitt_prozessorbenchmarks

in diesen prozessor benchmarks liegt kein gpu limit an sondern nur cpu limit. die cpu und der grafiktreiber sind hier für die höhe der fps verantwortlich.

Basierend auf Deinem 1. Link:

1. Ich sehe keine Angaben mit welchen Settings gebencht wurde. Nur weil da Prozessorbenchmarks steht muss das nichts heißen. Die Diskussionen zu dem Thema (wie man da richtig bencht) gibt es hier im Forum ja immer wieder.

2. Derselbe Takt und 4 (reale) Kerne sind nicht dasselbe wie 2 Kerne + HT.

3. Zur Emulation generell verweise ich auf Format_C: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10919038#post10919038

4. Selbst wenn ich das alles außen vor lassen würde... wären wir bei 88% Leistung seitens des i3, wenn ich den (schlecht - siehe Nr. 2) simulierten i3 inkl. 980Ti gegen den übertakteten i7 inkl. AMD vergleiche. Innerhalb Nvidias knapp 67%.

5. Verweise ich auf NOThing.

aufkrawall
2016-01-20, 16:02:49
und selbst der highend polaris chip fällt für mich deshalb flach(interessant bleibt das thema aber), denn die meisten games werden auch 2017 nicht dx12 oder vulkan unterstützen.
In der Tat. Wenn DX11 mit dem Polaris-Release nicht besser als bisher laufen wird, wird das leider ein ziemliches Argument gegen einen Kauf sein.

Low Level wird wohl noch eine ganze Zeit lang enige Entwickler vor größere Probleme stellen. Man muss sich nur anschauen, wie gut/schlecht viele Spiele auf den Konsolen laufen, und das dann mit der Maxwell DX11 Performance vergleichen.

BlacKi
2016-01-20, 16:41:26
Basierend auf Deinem 1. Link:

1. Ich sehe keine Angaben mit welchen Settings gebencht wurde. Nur weil da Prozessorbenchmarks steht muss das nichts heißen. Die Diskussionen zu dem Thema (wie man da richtig bencht) gibt es hier im Forum ja immer wieder.

2. Derselbe Takt und 4 (reale) Kerne sind nicht dasselbe wie 2 Kerne + HT.

3. Zur Emulation generell verweise ich auf Format_C: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10919038#post10919038

4. Selbst wenn ich das alles außen vor lassen würde... wären wir bei 88% Leistung seitens des i3, wenn ich den (schlecht - siehe Nr. 2) simulierten i3 inkl. 980Ti gegen den übertakteten i7 inkl. AMD vergleiche. Innerhalb Nvidias knapp 67%.

zu punkt 1: 1080p
zu 2. dann schau dir den unterschied zwischen nvidia und amd bei 4kerne und 2,5 ghz an, 66fps vs 92fps. nur der simulierte i3 ist noch krasser im unterschied! da brauch ich aber keinen i3 vergleich bemühen das bei amd was im argen liegt, da brauch ich auch keinen format c der den kompletten test schlecht redet weil ihm eine sache nicht passt. ich würde mir wünschen das er so einen cpu limit mit framtime messungen mal aufsetzt, aber auf einen am boden liegenden (amd) tritt man nicht, das macht man nicht.

Kriton
2016-01-20, 16:46:56
zu punkt 1: 1080p

Du willst mir jetzt aber nicht sagen, dass das eine ausreichende Beschreibung wäre?


zu 2. dann schau dir den unterschied zwischen nvidia und amd bei 4kerne und 2,5 ghz an, 66fps vs 92fps.

Die Aussage ist sinnlos, da Du (wir NOThing geschrieben hat), das jeweilige Verhältnis betrachten musst. Ansonsten sagst Du nur, dass die Nvidia-Karte stärker ist als die von AMD. Das wiederum ist keine Aussage über CPU-Last.

Im Übrigen kann ich nicht erkennen, dass Du meinen Aussagen mit Gegenargumenten begegnet wärst. Du bringst bisher nur neue Punkte an (auf die ich hier eingehe).

aufkrawall
2016-01-20, 17:00:42
Ich hatte bereits erläutert, warum es sich bei dem CB-Test von Dirt: Rally um ein CPU-Limit handelt und die GPU-Leistung damit relativ unwichtig ist.

BlacKi
2016-01-20, 17:02:11
Die Aussage ist sinnlos, da Du (wir NOThing geschrieben hat), das jeweilige Verhältnis betrachten musst.
wieso sollte man?

die fps die durch die karte möglich wären sind nur durch die cpu limitiert. das die gpu einfluss auf die performance im cpu limit hat musst du erstmal belegen.
wenn du im cpu limit bist kannst du den takt der gpu verändern wie du willst, du wirst aber keinen effekt auf die fps haben, wohlgemerkt im cpu limit!

aufkrawall
2016-01-20, 17:04:33
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10876805&postcount=950
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10876811&postcount=952
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10876902&postcount=956

Djudge
2016-01-20, 17:28:19
Selbst hier im Forum gibt es mehr als genug GTX970, manche wollen halt einfach beschissen werden.

Ich wollte nicht beschissen werden und wusste des Umstandes :(
Leider gab es zu dem Zeitpunkt und auch jetzt fast noch, keine ernsthaft brauchbare Alternative. simple as that

fondness
2016-01-20, 17:39:20
Das ist doch eine faule Ausrede, gerade die 390 als Gegenpart der GTX970 ist alles anderen als unbrauchbar. Aber wenn man will findet man natürlich immer einen Grund.

(del)
2016-01-20, 17:44:00
Das ist doch eine faule Ausrede, gerade die 390 als Gegenpart der GTX970 ist alles anderen als unbrauchbar. Aber wenn man will findet man natürlich immer einen Grund.

Mal abgesehen davon, dass ich mir keine 970 kaufen würde, gibt es doch genügend Leute, die auf bestimmte proprietäre Features einfach nicht verzichten können oder wollen. Diese Leute wiederum würde ich nicht pauschal als Idioten abstempeln wollen, die nicht wissen, was sie tun. Nur mal so als Randnotiz :)

BlacKi
2016-01-20, 17:48:00
Das ist doch eine faule Ausrede, gerade die 390 als Gegenpart der GTX970 ist alles anderen als unbrauchbar. Aber wenn man will findet man natürlich immer einen Grund.
sag das mal den mmo spielern die meistens nur im cpu limit sind, oder arma3 oder DayZ, alle kritischen fps sind im cpu limit, alles kritisch mit amd karten.

fondness
2016-01-20, 17:51:51
Mal abgesehen davon, dass ich mir keine 970 kaufen würde, gibt es doch genügend Leute, die auf bestimmte proprietäre Features einfach nicht verzichten können oder wollen. Diese Leute wiederum würde ich nicht pauschal als Idioten abstempeln wollen, die nicht wissen, was sie tun. Nur mal so als Randnotiz :)

Sagt ja niemand, dass diese Leute Idioten sind. Aber wenn jemand sagt es gibt keine brauchbare Alternative, sorry dann sehe ich das anders.

sag das mal den mmo spielern die meistens nur im cpu limit sind, oder arma3 oder DayZ, alle kritischen fps sind im cpu limit, alles kritisch mit amd karten.

Ich frage mich, wie diese MMO-Spieler nur vor Mantle spielen konnten.

Kriton
2016-01-20, 17:55:42
Ok, sagen wir also, CPU-Limit liegt vor. Dann sehe ich immer noch nicht den Beleg für die Aussage (und darum ging es):

amd fällt raus, denn amd treiber lassen die cpu performance vom übertakteten i7 auf den wert eines i3 fallen.

Die bisherigen Ausführungen belegen das nicht.

zu 2. dann schau dir den unterschied zwischen nvidia und amd bei 4kerne und 2,5 ghz an, 66fps vs 92fps.

Ich sage nicht, dass AMD nicht mehr overhead hat. Deine o.g. Aussage halte ich nur für übertrieben. Wenn Deine Aussage richtig wäre, dann müsstest Du einen CPU-Bench haben, indem eine AMD-Karte auf einem übertakteten i7 nur genausoviel Leistung hat, wie Nvidia mit einem i3. Deine bisher geposteten Benches liefern dies nicht.


zu 2. dann schau dir den unterschied zwischen nvidia und amd bei 4kerne und 2,5 ghz an, 66fps vs 92fps. nur der simulierte i3 ist noch krasser im unterschied! da brauch ich aber keinen i3 vergleich bemühen das bei amd was im argen liegt,

Den Vergleich hast Du bemüht, nicht ich. Ich habe ihn ja für falsch (übertrieben) gehalten, genau darum ging unsere Diskussion. Wenn wir uns einfach nur darauf einigen, dass AMD mehr overhead hat als nvidia können wir hier aufhören.

Übrigens hatte ich hier einen Fehler. Ich hatte die i3 bei 2,5 GHz gesehen. Verstehe allerdings nicht, wenn Du von den 3,5 GHz Angaben bei CB ausgegangen bist: die i3 haben doch HT. Das fehlt bei CB bei dem Test.

da brauch ich auch keinen format c der den kompletten test schlecht redet weil ihm eine sache nicht passt.

Er argumentiert jedenfalls warum er das nicht für richtig hält. Du sagst einfach nur: "Nein!" Wer steht in einer Diskussion potentiell besser da?

sag das mal den mmo spielern die meistens nur im cpu limit sind, oder arma3 oder DayZ, alle kritischen fps sind im cpu limit, alles kritisch mit amd karten.

Ein (CPU-)Limit scheint mir nur dann interessant, wenn es unterhalb der Wiedergabemöglichkeiten meines Monitors liegt. Will sagen: 70 fps Limit interessieren mich bei einem 60Hz Monitor nicht.

Pirx
2016-01-20, 18:04:53
Das ist doch eine faule Ausrede, gerade die 390 als Gegenpart der GTX970 ist alles anderen als unbrauchbar. Aber wenn man will findet man natürlich immer einen Grund.
jupp, es wird sich an Kleinigkeiten hochgezogen und Haare gespalten, oder der eigene extreme Anspruch als allgemeingültig dargestellt - um eine 3,5+0,5 GB Krüppel-970 der 8 GB 390 nicht nur vorziehen zu können, sondern diese gleich als nicht zu gebrauchen hinzustellen. Unnormal, was hier eingerissen ist.

BlacKi
2016-01-20, 18:26:16
Den Vergleich hast Du bemüht, nicht ich. Ich habe ihn ja für falsch (übertrieben) gehalten, genau darum ging unsere Diskussion. Wenn wir uns einfach nur darauf einigen, dass AMD mehr overhead hat als nvidia können wir hier aufhören.

Ein (CPU-)Limit scheint mir nur dann interessant, wenn es unterhalb der Wiedergabemöglichkeiten meines Monitors liegt. Will sagen: 70 fps Limit interessieren mich bei einem 60Hz Monitor nicht.
ich wollte einfach nur darauf hinweisen das der overhead imens ist. ob der simulierte i3 jetzt 2 oder 5% vom echten abweicht ist mir dabei ziemlich wurst.

in fallout4 sind es beim 4k@2,5ghz nur noch 17% unterschied zwischen nv und amd. aber gerade der sprung vom i5 zum i7 muss teuer bezahlt werden, und die mehrleistung durch das upgrade bringt oft nichtmal die 17% zurück!

in dayz zb. (ja ich weiß alpha und so) spielen die leute mit 20-25 fps in den städten, da sind weitere 5 fps mehr ein segen. nicht anders siehts in mmo´s aus, gerade wenn massen an menschen zusammenlaufen geht das ordentlich auf die cpu. ich rede hier nicht von 60fps +

jupp, es wird sich an Kleinigkeiten hochgezogen und Haare gespalten, oder der eigene extreme Anspruch als allgemeingültig dargestellt - um eine 3,5+0,5 GB Krüppel-970 der 8 GB 390 nicht nur vorziehen zu können, sondern diese gleich als nicht zu gebrauchen hinzustellen. Unnormal, was hier eingerissen ist.
findest du? als übergangskarte könnte man sie in betracht ziehen. so ist meine planung was die 970 angeht.

Gipsel
2016-01-21, 00:15:34
Ich würde es begrüßen, wenn die Diskussion zumindest in Sichtweite des Themas verbleibt.

Danke.

ezzemm
2016-01-21, 06:47:31
Wie sicher viele Leute habe ich die GTX970 gekauft, bevor das mit den 3.5GB rauskam. Ob ich sie trotzdem gekauft hätte? Weiß ich nicht.

Aber als jemand der sein 1440p-Panel mit dreistelligen FPS-Zahlen befeuern will, drehe ich die Details eh runter und das 3.5GB-Problem war bisher keines in der Praxis.

Wenn die nächste GraKa-Generation rauskommt wird eh aufgerüstet. Für mich wird der (wohl niedrigere) Gebrauchtpreis (als ohne Bug) die schlechteste Eigenschaft der 970 sein.

dllfreak2001
2016-01-24, 18:50:18
Ist ja immer noch so, dass die 970 leider in ihrem Segment dominiert.
Meine Karte kriege ich bei meinem Händler immer noch für den gleichen Preis wie vor einem Jahr.


Schon irgendwie traurig, die Leistung im Grafikkartenmarkt stagniert mittlerweile genauso wie bei den den Prozessoren.

AnarchX
2016-01-24, 19:02:08
Eine R9 390 8GiB für ~250€ könnte da etwas Bewegung rein bringen. Verdienen sollte man noch daran können, wenn auch nicht viel. Die GTX 260 für <150€ hat es schon mal vorgemacht.
Eine ~400mm² 28nm GPU sollte wohl bei ~$70 liegen, die Karte gesamt ~$150. Aber eine Situation wie 2008/9 ist wohl nicht im Interesse beider Hersteller.

Hier könnte wohl ein Registry-Key dabei sein, der Einfluss auf das 3,5+0,5-Verhalten hat: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10921836#post10921836

Thunder99
2016-01-25, 02:01:51
Ist ist eine gute Karte, wenn da nicht das 3,5+0,5 Problem wäre. Nur wird es bei den meisten wohl kaum in Erscheinung treten

Savay
2016-01-25, 11:14:04
Das Problem ist kein technisches...Performance und Effizienz/Lautstärke ist wirklich gut...aber das eigentliche Problem ist die bewusste Kundenverarsche und die Tatsache das sie noch dazu NICHTS daraus gelernt haben und auch noch stolz darauf sind (3,5+0,5=Herz?!...Ernsthaft?! :mad:) ...und noch schlimmer ist...obendrein gibt das Kaufverhalten der leute gibt denen auch noch "recht". :down:

Ich finde es einfach nur unmöglich...und bin mehr als nur enttäuscht.

Ausserdem haben alle 900er Karten die ich kenne offensichtlich ein Katastrophales EMV verhalten...das Soundkarten Ein und Ausgänge gestört werden ist fast schon Standard bei den Karten!

Meine 970 hätte ich in manchen momenten gerne aus dem Rechner gerupft und mit nem Vorschlaghammer bearbeitet so angefressen bin ich über diesen Sauverein.

dllfreak2001
2016-01-26, 17:19:08
Die MSI GTX970 ist nicht auffälliger als meine alte ASUS GTX670 mini
wenn es um die Soundkarte geht... leider beide genauso scheiße.

War noch eine alte PCI-Soundkarte mit der neuen PCIE-Karte ist es weg.

anddill
2016-01-26, 17:29:56
Das ist eine Nebenwirkung des aggressiven Powermanagements, für das Maxwell so gelobt wird.

y33H@
2016-01-26, 17:35:37
Wer lobt die denn dafür? Am gruseligsten ist für Soudkarten derzeit übrigens die R9 Nano.