PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 980 und GTX 970: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20

dildo4u
2015-02-07, 22:26:49
Also mit meiner 290X habe ich keine Probleme?
Oder geht es nur um die 285?
Die 285 hat das Problem das sie zu neu ist und vermutlich das Game selber extra für die Karte gepatcht werden muss.Jedenfalls hat es AMD bis Heute nicht mit Treiber Update's hinbekommen,das die 285 normale Werte unter Mantle liefert.

Air Force One
2015-02-07, 22:28:49
Rate mal warum er 285 geschrieben hat. ;)

:redface:

Ist ja gut, dachte halt nur das es ein Beispiel sein sollte. :P :D

@dildo4u:
Ok gut...evtl. tut sich ja was am neuen Omega Treiber dann.
Wobei ich da nicht von ausgehe.... müsste aber..wobei sobald die 3er Karten erscheinen die 285er ja so gesehen EOL ist...

HarryHirsch
2015-02-07, 22:29:19
Weil Mantle buggy ist und z.b auf der R9 285 immer noch wie Mist Performt und das auf der neusten Generation der GCN Architektur.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10499429&postcount=332

Dadurch muss man mit DX11 zocken und dort sieht es unter 1080p Ultra so aus R9 285 36fps GTX 960 57fps.

benchmarks mit da:i und mantle zeigen das gegenteil.

dildo4u
2015-02-07, 22:33:17
Dann zeigt es erst recht das Mantle schnell in den Mülleimer gehört,nur wenn das Game nach der Karte kommt ist es angepasst willste ordentlich Performance mit der 285 in BF4 musste auf ein Game Patch extra für die Karte hoffen.

dargo
2015-02-08, 18:24:03
Dann zeigt es erst recht das Mantle schnell in den Mülleimer gehört,nur wenn das Game nach der Karte kommt ist es angepasst willste ordentlich Performance mit der 285 in BF4 musste auf ein Game Patch extra für die Karte hoffen.
Hmm... nach der Logik müsste DX12 auch in den Mülleimer. :uponder:

Blediator16
2015-02-08, 18:26:41
Hmm... nach der Logik müsste DX12 auch in den Mülleimer. :uponder:

Bin unglaublich gespannt wie sich die Sache mit der 970 und dx12 entwickelt und inwieweit sich der Verbrauch auf die Maxwells auswirken wird.

kruemelmonster
2015-02-10, 12:28:28
Der Benchmark wurde von Nvidia initiiert, dreimal darfst du also raten wer eine optimierten Treiber hatte und wer nicht.

Starswarm war doch als synthetischer Haus-und-Hof-Benchmark für Mantle immer recht und billig solange NV verdroschen wurde. Nur jetzt wo gezeigt wird das man auch hier vergleichbare Leistung unter DX bieten kann ohne die Abwärtskompatibilität zu brechen (siehe R9 285 & BF4) ist der Bench auf einmal grün? :crazy2:
Die Bereitstellung der Treiber erfolgte übrigens durch beide IHV, aber sowas weiß man halt nur wenn man den Artikel auch liest und nicht nur reflexartig rumpflaumt. :rolleyes:

...während AMD keinen Grund hatte unter DX auch tätig zu werden.

Und auch für GCN-Besitzer sollte es im eigenen Interesse sein im Falle eines Mantle-Bugs auf einen möglichst performanten DX-Pfad wechseln zu können.


...oder etwa nicht?

Im übrigen: falls das gezeigte Leistungsverhältnis zwischen DX12 und Mantle so auch in der Praxis auftreten wird, wird sich Mantle wohl nur durch Marketingdollar seitens AMD am Leben halten lassen.
Welcher Publisher finanziert schon eigenhändig eine sinnfreie doppelte Entwicklung welche zudem bei HW-Neuerscheinungen auch noch nachgepatcht werden müsste?


Bin unglaublich gespannt wie sich die Sache mit der 970 und dx12 entwickelt und inwieweit sich der Verbrauch auf die Maxwells auswirken wird.

Was soll schon passieren? Die Auslastung steigt, der Verbrauch ist allerdings durchs Bios gedeckelt, also wird der Boost wohl weniger hoch ausschlagen als unter DX11.
Interessant wird es eher für die 290er im Referenzdesign, ~700 MHz Baseclock ahoi.

Knuddelbearli
2015-02-10, 13:11:36
Umgekehrt ist es aber noch schlimmer.

War bisher von der Nv Fraktion starswarm als unbrauchbare techdemo verschrien ist es auf einmal sau aussagekräftig ^^

Abgesehen davon das es fondness nicht um das programm starswarm ging sondern um die Treiber. Glaubst du echt NV initiert ein review wo sie davor den treiber nicht aufs maximum getweakt haben? Auch wenn es nicht schön ist dämlich wären sie wenns nicht so wäre ^^

Erinnert mich damals an die tests wo rein zufällig fast alle großen seiten einen Test brachten der massiv die NV Vorzüge zeigten und alle behaupteten NV habe nix damit zu tun ^^

dildo4u
2015-02-10, 13:16:41
Umgekehrt ist es aber noch schlimmer.

War bisher von der Nv Fraktion starswarm als unbrauchbare techdemo verschrien ist es auf einmal sau aussagekräftig ^^


Hast du dich überhaupt mit der Demo beschäftigt bevor NV den DX11 Treiber optimiert hat lief das Ding bei mir auf 3 von auf 6 Cores jetzt sind 80-90%.Daher war es verschrienen es sollte zeigen wie schlecht DX11 gegenüber Mantle ist,dabei wurde DX11 nicht korrekt ausgenutzt.Es lief am Anfang so schlecht wie es jetzt noch mit den AMDs unter DX11 läuft.

kruemelmonster
2015-02-10, 21:19:05
Glaubst du echt NV initiert ein review wo sie davor den treiber nicht aufs maximum getweakt haben?

Wo kommt dieser Quark eigentlich her? Einer von uns kann nicht richtig lesen, und ich bins nicht:
For today’s DirectX 12 preview, Microsoft and Oxide Games have supplied us with a newer version of Oxide’s Star Swarm demo. Originally released in early 2014 as a demonstration of Oxide’s Nitrous engine and the capabilities of Mantle

For today’s preview Microsoft, NVIDIA, and AMD have provided us with the necessary WDDM 2.0 drivers to enable DirectX 12 under Windows 10. The NVIDIA driver is 349.56 and the AMD driver is 15.200.

Oder hat Anandtech den total unoptimierten AMD-Treiber etwa von NV erhalten?

Manchmal kann man sich nur wundern über so viel geschriebenen Stuss.

Blediator16
2015-02-10, 21:21:31
Was hängt ihr euch an so einem unbedeutendem Benchmark geschweige denn alpha bzw. beta Test auf?

Thunder99
2015-02-10, 22:50:45
Der Bench zeigt doch was DX bringt. Es ist vergleichbar mit Mantle und die Geforce sind etwas schneller. (Wie sonst meistens)

Dimitri Mayakovsky
2015-02-11, 09:12:40
Im übrigen: falls das gezeigte Leistungsverhältnis zwischen DX12 und Mantle so auch in der Praxis auftreten wird, wird sich Mantle wohl nur durch Marketingdollar seitens AMD am Leben halten lassen.
Welcher Publisher finanziert schon eigenhändig eine sinnfreie doppelte Entwicklung welche zudem bei HW-Neuerscheinungen auch noch nachgepatcht werden müsste?
Genau meine Rede, die im anderen Thread als "stuss" und "Blödsinn" abgetan wurde:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10519350&postcount=908
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10519496&postcount=917

Gut zu sehen, dass es hier auch Leute ohne die dicke rote Brille gibt :)

Thunder99
2015-02-11, 10:34:58
Extra Wurst auf beiden Seiten ist immer schlecht, siehe G-Sync. AMD hat halt vorgelegt und Microsoft hat gemerkt, dass es sinnvoll ist es zu integrieren

Die Arbeit wo aber nvidia gemacht hat um den Overhead im DX 11 Treiber zu reduzieren ist schon beachtlich. Sollte AMD mal nachlegen ;)

kruemelmonster
2015-02-11, 11:20:46
@Dimitri:

Und ich hab eine dünnglasige grüne Brille auf, das machts objektiv betrachtet auch nicht besser.

Zumal Mantle eh nicht "sterben" wird in dem Sinne wie es Glide getan hat. Glide war eine auf 3dfx-HW optimierte Teilmenge des schon bestehenden OpenGL Standards, daher gab es nach dem (viel zu frühen) Ende von 3dfx auch keinen Bedarf mehr für Glide.
Mantle wird dagegen wohl zu mehr oder weniger großen Teilen in DX12 und glNext aufgehen, so wie AMD64 in jedem Intel Prozessor zu finden ist.

Btw, ziehe mich bitte nicht in deine Diskussion mit Unicous herein. Du darfst bisher noch nichtmal in den Marktplatz reingucken, also los, verdien' dir deine Sporen. Zweite Bitte: kein zeilenweises Zitate beantworten.

...Ende des OT meinerseits.

Knuddelbearli
2015-02-14, 15:00:25
Sehr schöner Test

http://ht4u.net/reviews/2015/watt_vs_frames_amd_r9_290x_und_nvidia_gtx_980_im_effizienztest/

dildo4u
2015-02-14, 21:33:04
Noch ein Evolve Test auch hier wurde vermutet das die 970 Vram limitiert ist aber komischerweise ist die 780TI mit 3GB schneller.Eher ein Problem mit der Bandbreite?

www.techspot.com/review/962-evolve-benchmarks/page6.html

It was recently exposed that the GTX 970's memory configuration has a 3584MB primary partition with a smaller 512MB partition. This significantly reduces performance once more than 3.5GB of VRAM is required and this would typically occur at 4K resolutions but it appeared at 2560x1600 in Evolve, which called for up to 4074MB of VRAM in our testing.
That said, the GTX 780 Ti only has a 3GB VRAM buffer yet it was much faster than the GTX 970. We aren't sure why that is. What we can say is that you'll need some serious horsepower at 2560x1600 or higher, and although the GTX 980 and R9 290X can deliver playable performance at 2560x1600, you'll definitely want to double up for 4K.

Botcruscher
2015-02-14, 23:25:26
Da steht ja auch noch mehr: Disappointingly, the GTX 970 averaged just 44fps, being only marginally faster than the old HD 7970 GHz at 41fps. We believe this massive reduction in performance is due to the GTX 970's partitioned memory configuration.

aufkrawall
2015-02-16, 18:03:00
Ich habs noch nicht genau überprüfen können, aber es scheint wie bei Ryse wieder das idiotische Profil aktiv zu sein, das die sGPU-Frametimes für bessere AFR-Skalierung killt.

Setzt mit dem Inspector einfach mal alle Profile unter undefined auf 0 (kann man ja per Klick wiederherstellen) und schaut, ob das die Frametimes verbessert (am besten mit einer 980, 970 disqualifiziert sich für den Vergleich wegen der VRAM-Sache).

[dzp]Viper
2015-02-16, 18:24:22
Noch ein Evolve Test auch hier wurde vermutet das die 970 Vram limitiert ist aber komischerweise ist die 780TI mit 3GB schneller.Eher ein Problem mit der Bandbreite?

www.techspot.com/review/962-evolve-benchmarks/page6.html
Da stimmte was beim Benchmark nicht.

Ich habe mit der GTX 970 in 2560x1440 mit maximalen Details eigentlich sogut wie immer deutlich über 55-60fps. Ich liege im Schnitt weit über den avg. 44fps

dildo4u
2015-02-16, 18:28:33
Viper;10525636']Da stimmte was beim Benchmark nicht.

Ich habe mit der GTX 970 in 2560x1440 mit maximalen Details eigentlich sogut wie immer deutlich über 55-60fps. Ich liege im Schnitt weit über den avg. 44fps



Es wurde ja 2560x1600 gebencht.

[dzp]Viper
2015-02-16, 18:34:48
Nagut...

Meine Benchmark (selbe Map, selben Settings, selben Benchmarkvorgaben wie in dem vorgegeben Review, nur eben 1440x)

Min, Max, Avg
44, 75, 56.356

Selbst wenn es 2560x1600 wäre würden die fps mit Sicherheit nicht um zusätzliche 12 fps abfallen ;)
Mit 1600 statt 1440 wären es vielleicht 3-4fps weniger. Wären aber immer noch locker 50fps im Schnitt.

[dzp]Viper
2015-02-16, 18:41:06
Der 1080p Benchmark passt aber. Dort habe ich ebenfalls ungefährt die selbe fps (87fps).

Min, Max, Avg
64, 121, 86.989


Irgendwas ist also beim 2560x1600er Benchmark nicht

aufkrawall
2015-02-16, 18:43:35
Prüf es mit 1600p custom res genau nach.

[dzp]Viper
2015-02-16, 18:44:51
Geht nicht... kann ich mit DSR nicht aktivieren. Ich kann höchstens eine allgemein höhere Auflösung mal nehmen, eine du über 2560x1600 liegt ;)

Aber wie gesagt.. man verliert niemals 12-13fps wenn die Verticale Auflösung von um 160p steigt.

[dzp]Viper
2015-02-16, 18:51:06
2880x1620

Min, Max, Avg
34, 59, 44.856

Keine Ruckler oder ähnliches bemerkbar.

Raff
2015-02-16, 18:51:59
Viper;10525659']Aber wie gesagt.. man verliert niemals 12-13fps wenn die Verticale Auflösung von um 160p steigt.

Doch, wenn man eine knapp dreistellige Bildrate hatte, passiert das bei so einem Wechsel. *clevershit* :biggrin:

aufkrawall meinte übrigens wirklich eine Custom Resolution (benutzerdefinierte Auflösung). Die laufen nur, wenn man DSR deaktiviert und vice versa. Wenn du ein 1440er-LCD hast, kannst du dort gewiss 2.560 x 1.600 eintragen, testen und übernehmen.

Static Custom Resolutions > Dynamic Super Resolution :cool:

MfG,
Raff

[dzp]Viper
2015-02-16, 19:07:27
Doch, wenn man eine knapp dreistellige Bildrate hatte, passiert das bei so einem Wechsel. *clevershit* :biggrin:
:ubash2:
Ich wusste, dass sowas noch kommt :freak:


aufkrawall meinte übrigens wirklich eine Custom Resolution (benutzerdefinierte Auflösung). Die laufen nur, wenn man DSR deaktiviert und vice versa. Wenn du ein 1440er-LCD hast, kannst du dort gewiss 2.560 x 1.600 eintragen, testen und übernehmen.

Static Custom Resolutions > Dynamic Super Resolution :cool:

MfG,
Raff
Könnte ich wahrscheinlich machen.
Aber wenn ich selbst in einer deutlich höheren Auflösung (2880x1620) schon 44fps im Schnitt habe, ist es sehr wahrscheinlich, dass ich mit 2560x1600 irgendwo zwischen 50-52fps landen würde ;)

aufkrawall
2015-02-16, 19:13:01
Bei GameGPU.ru sinds typische 18,6% zwischen 970 und 980:
http://gamegpu.ru/action-/-fps-/-tps/evolve-test-gpu.html

dargo
2015-02-16, 19:13:06
Viper;10525636']Da stimmte was beim Benchmark nicht.

Ich habe mit der GTX 970 in 2560x1440 mit maximalen Details eigentlich sogut wie immer deutlich über 55-60fps. Ich liege im Schnitt weit über den avg. 44fps
War es nicht so, dass deine MSI stark übertaktet ist?

Viper;10525655']Der 1080p Benchmark passt aber. Dort habe ich ebenfalls ungefährt die selbe fps (87fps).

Min, Max, Avg
64, 121, 86.989


Irgendwas ist also beim 2560x1600er Benchmark nicht
Hier könnte 1080p für starkes CPU-Limit sprechen.

[dzp]Viper
2015-02-16, 19:17:59
War es nicht so, dass deine MSI stark übertaktet ist?
Aktuell nicht mehr als die Gigabyte 970 GTX aus dem Test, welche ja auch schon von Haus aus stärker übertaktet ist.

Raff
2015-02-16, 19:19:45
Die dürften beide im Bereich um 1.350 MHz liegen (bei gleichem Speichertakt), ergo wird's nicht daran liegen.

MfG,
Raff

dargo
2015-02-16, 19:22:53
Viper;10525705']Aktuell nicht mehr als die Gigabyte 970 GTX aus dem Test, welche ja auch schon von Haus aus stärker übertaktet ist.
Welche haben die genommen? Theoretisch könnte es auch diese sein. :D
http://geizhals.de/gigabyte-geforce-gtx-970-mini-gv-n970ixoc-4gd-a1185383.html?hloc=at&hloc=de

Und wer weiß ob die den Boosttakt überhaupt halten kann? Deine MSI läuft doch afaik mit ca. 1,5Ghz oder?

TobiWahnKenobi
2015-02-16, 19:36:39
scheint ein anspruchsloses spiel zu sein. spielt sich irgendwie wie shadowrun mit bf4-frameraten auf cry engine..

2015-02-15 23:13:11 - Evolve (1080p Very High +FXAA)
Frames: 27036 - Time: 275954ms - Avg: 97.973 - Min: 72 - Max: 117


(..)

mfg
tobi

[dzp]Viper
2015-02-16, 20:23:04
Und wer weiß ob die den Boosttakt überhaupt halten kann? Deine MSI läuft doch afaik mit ca. 1,5Ghz oder?
Wäre schön. In der neuen Wohnung mit Fussbodenheizung nicht mehr. Momentan sind es so 1400 MHz im Boost. Aber Fussbodenheizung ist so toll :ugly:
Mit mehr Spannung würden die 1500 MHz wahrscheinlich gehen. Aber die 3-4fps mehr sind es mir nicht wert.

aths
2015-02-19, 18:57:11
Viper;10525773']Wäre schön. In der neuen Wohnung mit Fussbodenheizung nicht mehr. Momentan sind es so 1400 MHz im Boost. Aber Fussbodenheizung ist so toll :ugly:
Mit mehr Spannung würden die 1500 MHz wahrscheinlich gehen. Aber die 3-4fps mehr sind es mir nicht wert.
Meine 980 lässt sich mit zusätzlicher Spannung nicht höher takten, nur die Grafikfehler werden stärker.

Matrix316
2015-02-20, 20:13:16
Gibt es eigentlich schon Erfahrungen und Tests mit diesem neuen Plastikkühler bei der 980???

http://geizhals.de/msi-gtx-980-4gd5-ocv1-v317-005r-a1175541.html?hloc=de

http://abload.de/img/1175541m0qmg.jpg (http://abload.de/image.php?img=1175541m0qmg.jpg)

quantus
2015-02-21, 14:36:08
Kenne nur einen Usertest der 970'er der gleichen Bauart. In seinem Test erwähnt der User, dass es sich bei der 970'er auch um die 980 GTX Referenz handeln soll.

siehe -> http://extreme.pcgameshardware.de/grafikkarten/366164-big-review-msi-970-4gd5-dhe-msi-970-4gd5t-axial-sli.html

fondness
2015-02-21, 15:32:30
Gibt es eigentlich schon Erfahrungen und Tests mit diesem neuen Plastikkühler bei der 980???

http://geizhals.de/msi-gtx-980-4gd5-ocv1-v317-005r-a1175541.html?hloc=de

http://abload.de/img/1175541m0qmg.jpg (http://abload.de/image.php?img=1175541m0qmg.jpg)

IMO viel zu kleiner Luftauslass an der Slotblende für eine brauchbare DHE-Kühlung.

Knuddelbearli
2015-02-27, 19:16:00
Da aufkrawall nicht fähig ist seine Behauptungen mit Fakten zu unterlegen. Welche 980 haben ein, deutlich, erhöhtes PT? Wenn Möglich bitte mit Bios Beweis und natürlich ohne Modding! ;-)

aufkrawall
2015-02-27, 20:44:21
Ich denke, ich bin da schon fähig zu.
Offenbar bist du aber nicht fähig, entsprechende 980 Reviews zu sichten. Meine Mutter hat mit Google aber auch so ihre Probleme.

Hübie
2015-02-27, 20:45:28
Du kannst dir auch selber die Mühe machen und recherchieren wenn es dich so sehr interessiert, statt hier zu tr0llen :P
Ich behaupte jetzt einfach mal dass es die üblichen sind: MSI Gaming, Gigabyte Windforce, Inno3D Herculez usw... Ich weiß es aber nicht. Ist also ein Fingerzeig auf eine Stelle des Globus :biggrin:

Macht ja auch nur bei Karten Sinn die entsprechend potentes Kühlsystem aufweisen.

Edit: Zu langsam...

Raff
2015-02-27, 20:54:19
Aus dem Kopf: Gigabyte G1 Gaming, Palit Super Jetstream, Gainward Phantom GLH. Diese Karten operieren ab Werk an einem 250-Watt-Limit (jeweils PCGH-Messungen). Die Evga Classified scheint sogar noch mehr zu bieten – jeweils ohne das Limit per Tool anzuheben. Meine MSI Gaming 4G, mit der ich diesen Text darstelle, bietet ab Werk "nur" eine TDP von 200 Watt. Die Komplettübersicht gibt's übrigens hier: PCGH 04/2015: Kaspersky Anti-Virus 2015 (6 Monate, 3 PCs), 50+ Grafikkarten im Test, Wie viel RAM für Spiele?, Dauertest Curved- & 4k-LCDs (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-04-2015-Magazin-DVD-Download-PDF-1151655/) :tongue:

MfG,
Raff

captain_drink
2015-02-27, 20:59:57
http://ht4u.net/news/30101_geforce_gtx_970_grafikkarten_-_ein_derzeitiger_marktueberblick_mit_details/

Knuddelbearli
2015-02-27, 21:13:14
http://ht4u.net/news/30101_geforce_gtx_970_grafikkarten_-_ein_derzeitiger_marktueberblick_mit_details/

Die Liste habe ich selber verfasst, ich weiß also wie verdammt Schwer es ist rauszufinden wie die Powertargets gesetzt sind ( Die Liste hat 2 stellige Stundenzahlen an Recherche benötigt und ist immer noch nicht ansatzweise komplett da sich Hersteller selbst bei Anschriften in Schweigen hüllen )
Die meisten Karten habe ich überhaupt nur herausgefunden indem ich mir die BIOS mühsam zusammengesucht habe und die dann ausgelesen habe.

Auch sonst welche Testseite gibt die Limits den an? Wüsste da keine. ( Deutsch und Italienischsprachige auf Englischen treibe ich mich kaum rum )

Abgesehen davon das aufkrawall mal wieder Sachen behauptet ohne dann, selbst auf Nachfrage, Quellen oder Beweise zu liefern ...
Wer behauptet muss Quellen vorweisen nicht umgekehrt ...

4 Poster und wir sind nicht einen Schritt weiter ...

hq-hq
2015-02-27, 21:32:17
Meine 980 lässt sich mit zusätzlicher Spannung nicht höher takten, nur die Grafikfehler werden stärker.

Das ist bei mir auch so, wenn man Artefakte sieht, dann hilft auch mehr
Spannung nix, eher scheint es dann noch schlimmer zu werden und viel
schneller abzustürzen.

Wenn man allerdings keine Artefakte hat aber ab und zu einen Treiberreset,
dann hilft mehr Spannung, dass es eben keine Resets mehr gibt.

Evtl. ist das aber mit einer hohen ASIC anderst :freak:

Ausserdem spielt die Temperatur wie immer eine große Rolle wenn man so
hoch taktet dass es grad keine Artefakte gibt. Bis 75 oder 76°C wars bei
GTX970 und 980 unproblematisch.

250Watt reichen aber auf keinen Fall um immer 1500MHz GPU Takt zu halten.
Es sei denn man hat vielleicht ne gaanz supergute GPU :-)

Aber meistens reichen 190-230 Watt aus :-D

aufkrawall
2015-02-27, 21:36:56
Macht ja nichts, wenns bei Spitzen 20-30Mhz weniger sind. Das merkt man nur daran, dass es leiser bleibt.

Knuddelbearli
2015-02-27, 21:37:42
Naja es hängt nicht nur am PT meine 970 hat 245W PL kommt nie auch nur annährend in die nähe der 100% und drosselt trotzdem bei 1480MHZ
Und temps sind auch um die 70C°

aufkrawall
2015-02-27, 21:39:59
Mein Gott, ich hab dir schon mal gesagt, dass das Zotac-Bios verbugt ist:
http://www.computerbase.de/2014-10/nvidia-geforce-gtx-970-test-roundup-vergleich/3/
Checks endlich mal...

hq-hq
2015-02-27, 21:42:35
jo, SkyDiver ist ganz gut zum Probieren, höhere Last als Firestrike. Vor allem
wenn alles gut vorgeheizt ist. Dann ist plötzlich der Kühler zu klein oder der
Lüfter zu langsam :biggrin:

btw, die 980er ZOTAC Amp Omega hat mit original Bios nur ein
max TDP/PT von 210 oder 220 Watt, da hilft es nix im Bios was auszulesen.
Mit dem Amp Extreme Bios werden es dann 300 Watt bis max 330Watt.

hq-hq
2015-02-27, 21:44:40
Mein Gott, ich hab dir schon mal gesagt, dass das Zotac-Bios verbugt ist:
http://www.computerbase.de/2014-10/nvidia-geforce-gtx-970-test-roundup-vergleich/3/
Checks endlich mal...

nicht verbugt, hat nur ein anderes PT/TDP als im Bios steht bzw auslesbar ist.

Für die GTX 970 AMP Omega gibts ein "offenes" Bios von JoeDirt

http://www.overclock.net/t/1521334/official-nvflash-with-certificate-checks-bypassed-for-gtx-970-980

mike49
2015-02-27, 21:45:38
250Watt reichen aber auf keinen Fall um immer 1500MHz GPU Takt zu halten.
Es sei denn man hat vielleicht ne gaanz supergute GPU :-)

Also meine 970 hält problemlos einen Boost 1.544 mit PT auf 110% (= max. 220W / bei 1.218V), Temps dabei max. 65C.

aufkrawall
2015-02-27, 21:45:52
nicht verbugt, hat nur ein anderes PT/TDP als im Bios steht.
Weißt du, wie das geht?

hq-hq
2015-02-27, 21:55:42
also ich hab keine Ahnung was Zotac da gemacht hat, die Werte der RAILS
und TDP mögen stimmen aber was man da als PT auslesen kann ist nicht richtig.

Mit OCCT war bei 210-220Watt Schluss mit original Bios, das "offene" Extreme
Bios drauf und zack warens sofort 300Watt @ 100% PT.
(occt so ähnlich wie Furmark: http://www.ocbase.com/)
Bei der 970 hab ich es nicht genau geprüft, ich wusste nicht das Zotac sein
eigenes Süppchen kocht (auch VRM Controller und OC+ Chip).


@mike49 Nimm doch mal die Anno 2070 Demo, stell einfach mal auf 4k und
zoome ein wenig aus der Karte und schau dir auf der ersten Map die Stadt an.
Dann reichen 220Watt bestimmt nicht :biggrin: (evtl. mit Wasserkühlung... hm)

-> 83% von 300Watt = 249 Watt und das schon nach kurzer Zeit :-D
http://abload.de/thumb/anno2070l1jwz.jpg (http://abload.de/image.php?img=anno2070l1jwz.jpg)

Knuddelbearli
2015-02-27, 22:11:50
Mein Gott, ich hab dir schon mal gesagt, dass das Zotac-Bios verbugt ist:
http://www.computerbase.de/2014-10/nvidia-geforce-gtx-970-test-roundup-vergleich/3/
Checks endlich mal...

Tja wie du inzwischen ja dank hq-hq gecheckt hast ist das nicht verbugt sondern wie ich bereits sagte gibt es noch andere Faktoren außer das PowerLimit im Bios, genau wie ich sagte ...

mike49
2015-02-27, 22:15:52
@mike49 Nimm doch mal die Anno 2070 Demo, stell einfach mal auf 4k und
zoome ein wenig aus der Karte und schau dir auf der ersten Map die Stadt an.
Dann reichen 220Watt bestimmt nicht :biggrin: (evtl. mit Wasserkühlung... hm)

Ausgerechnet der olle Schinken soll meine Grafikkarte mehr stressen als FC4, AC:U und Crysis 3 @qHD?

Da läuft das nämlich alles so mit konstantem Boost auf 1.544.

@Knuddelbaerli:

Falls Du die Liste noch pflegst:

EVGA GeForce GTX 970 SSC ACX 2.0+

PT: 201W bei 100%, max. 110 bzw. 115% (Dual-BIOS).
V-Core max. 1.263V (def. 1.218).

Knuddelbearli
2015-02-27, 22:18:58
Habe ich eigentlich aufgegeben ( da extrem aufwendig und Echo war kaum vorhanden obwohl das ne recht einzigartige liste war / ist ) aber ich leite es mal an Peter weiter

Und Anno hat schon immer massivst gestresst. Glaub das vorletzte Anno sogar noch mehr als Anno 2070 nur hat man da mit heutigen top GPUs Probleme mit CPU limit

hq-hq
2015-02-27, 22:20:07
mike49 - sehr wahrscheinlich ja :-D

da hilft dann auch kein VSync mehr die Leistung zu drosseln :-D

FC4 in FullHD braucht bei mir grad mal 130Watt, schätze qHD geht nicht über 190 :-D (mit VSync@60Hz)

Thunder99
2015-02-28, 02:53:39
@knuddel:

Hab/hatte die Liste sehr geschätzt da sie in der Tat einmalig ist, daher fettes Danke :) :up:

aufkrawall
2015-02-28, 09:16:51
Tja wie du inzwischen ja dank hq-hq gecheckt hast ist das nicht verbugt sondern wie ich bereits sagte gibt es noch andere Faktoren außer das PowerLimit im Bios, genau wie ich sagte ...
Es wird gedrosselt, obwohl das nicht der Fall sein sollte. Nenn es wie du willst, für mich ist es ein Bug.

-/\-CruNcher-/\-
2015-02-28, 09:49:05
Also die volle Auslastung erreiche ich in meinen test bis jetzt immer ohne extra OC wenn die last sich ordentlich von der CPU auf die GPU verteilt, am einfachsten mit DSR und Supersampling, dort schiftet die Lastverteilung meistens durch höhere frametimes die die CPU enorm (vor allem beim Streaming wichtig, genug CPU resourcen freizuhalten und locks zu vermeiden) entlasten bei DX 11 was dann wiederum stabilere frametimes und weniger fluktuationen zur folge hat über die Zeit.

Weniger fluktuationen bedeuten auch gleichzeitig ein stabileres Temp AA resultat, was theoretisch auch als aussetzer wahrgenommen werden könnte von einigen da es microrucklern ähnelt je nach dem vorliegenden Bewegungsablauf innerhalb der auftretenden fluktuationen ;)

OC halte ich für extrem kritisch da es innerhalb des Boost selbst zu fluktuationen kommen kann die zu aussetzern führen könnten im System (individuel), wenn man es selber gewichtet muss man sich dessen im klaren sein das Nvidia dort viel zeit investiert hat.

Raff
2015-03-06, 11:34:40
Es gibt übrigens immer wieder Fälle, wo Maxwell 2.0 eigenartig "langsam" arbeitet. Die Anführungszeichen deswegen, weil sie natürlich trotzdem flink sind, aber GK110-Karten teils gleich schnell oder schneller arbeiten. Neuestes Beispiel: Raven's Cry nach Patch 3: Technik-Test des Piraten-Abenteuers mit GPU- & CPU-Benchmarks (http://www.pcgameshardware.de/Ravens-Cry-PC-237022/Specials/Test-Benchmarks-Patch-3-1152456/)

Gemeint sind die Werte jenseits 1080p/1x AA, das ist CPU-limitiert. Die stark übertaktete 780 Ti setzt sich an die Spitze, danach folgt die übertaktete GTX 980. Titan und 780 OC kommen beide an der GTX 970 OC vorbei und die GTX 960 sieht trotz sehr hohen Kerntaks überhaupt kein Land (270X-Niveau). Nun wird hier mit (gut greifendem) MSAA getestet, was mittlerweile ein seltener AA-Modus ist. Ich frage mich, ob das nur an der geringen Brutto-Transferrate von Maxwell liegt oder ob in diesen Fällen die Kompression nicht so funktioniert, wie sie soll.

MfG,
Raff

Troyan
2015-03-06, 11:38:08
Deferred Renderer? Da bringt wohl die Kompression nicht soviel. Gibt ähnliche Fälle wie Hitman:Absolution: http://www.hardware.fr/articles/928-16/benchmark-hitman-absolution.html

MartinRiggs
2015-03-06, 11:40:49
Ich vermute die Transferrate, SMAA, TXAA und wie sie alle heißen belasten das Speicherinterface doch nicht sonderlich, oder bin ich da jetzt auf dem Holzweg?

Rente
2015-03-06, 11:41:19
Deferred Renderer? Da bringt wohl die Kompression nicht soviel. Gibt ähnliche Fälle wie Hitman:Absolution: http://www.hardware.fr/articles/928-16/benchmark-hitman-absolution.html Das würde dann aber fast alle modernen Engines betreffen, das kann es eigentlich nicht sein.

Troyan
2015-03-06, 11:44:57
Die Kombination aus DR und MSAA scheint der Kompression nicht zu liegen. Dazu kommt der hohe Bandbreitenbedarf.

Ähnliches Bild gibt es auch in Batman:AO - UE3 mit Deferred Renderer und MSAA: http://www.hardware.fr/articles/928-11/benchmark-batman-arkham-origins.html

Dural
2015-03-06, 12:03:20
war das nicht schon immer so? also wenn ich mich noch recht daran erinnern wahr meine übertakelte 780Ti in Grafik lastigen Einstellungen immer vor der 980. Sofern die 3GB gereicht haben.

Raff
2015-03-06, 12:22:33
war das nicht schon immer so? also wenn ich mich noch recht daran erinnern wahr meine übertakelte 780Ti in Grafik lastigen Einstellungen immer vor der 980. Sofern die 3GB gereicht haben.

"Grafiklastige Einstellungen" ist sehr dehnbar. Was ist grafiklastig, komplexe Shader, hohe Auflösungen oder ein hoher MSAA-Modus? Die Antwort: alles. ;) Die Architekturen haben aber spezifische Stärken und Schwächen. So ist Maxwell beispielsweise immer dann stark, wenn es um Shaderleistung und Geometrie-Durchsatz geht, schwächelt aber bei transferratenlastigen Einstellungen (z. B. 8x MSAA). Die GK110-Karten können im Vergleich in diesen Fällen auftrumpfen, da sie über einen höheren Brutto-Durchsatz verfügen, unterliegen aber bei der Netto-Shaderleistung. Die AMD-Karten drehen aufgrund der hohen Shaderleistung und einem verhältnismäßig schwachen Frontend traditionell erst in hohen Auflösungen auf. Bei Hawaii hilft die breite Speicherschnittstelle, dort und in bandbreitenlastigen Szenarien nicht abzusaufen.

Anscheinend ist es wohl echt der Cocktail aus Deferred Rendering und MSAA, der Maxwell zum Verhängnis wird. Ich bin gespannt, was GM200 zu solchen Fällen sagt. Die Titan X ist vermutlich genauso balanciert wie die GTX 980.

MfG,
Raff

PCGH_Carsten
2015-03-06, 12:46:51
Es gibt übrigens immer wieder Fälle, wo Maxwell 2.0 eigenartig "langsam" arbeitet.

An der Unkomprimierbarkeit von Engine/Buffern/Content kann es kaum liegen, das muss eher eine Maxwell-Eigenart sein, denn, Zitat „Zweitens kann die Radeon R9 285 nicht nur die R9 280 abhängen, sondern kommt einstellungsabhängig auch an der R9 280X vorbei.“

Wo Maxwell übrigens noch deutlich (und meist fast unbeachtet) schwächer abschneidet als Kepler ist die Texturfüllrate (die auch nicht mehr von einem separaten Texturcache unterstützt wird) - da hat die 980 Strix nur noch ~5% Vorsprung auf die R9 290 TriX-OC und erreicht in UHD nahezu dieselben Fps-Werte. Vielleicht ein Zufall.

Interessant wäre es daher, die non-MSAA-Werte außerhalb des CPU-Limits zu sehen.

aths
2015-03-06, 12:52:23
Gerade MSAA ist immer gut komprimierbar, schon seit vielen GPU-Generationen.

Dural
2015-03-06, 17:06:56
Ich habe das damals nicht genau angeschaut, jedoch konnte ich in ca. feststellen das der GM204 ca. 100-300MHz mehr Chip Takt als die 780Ti benötigt um sie zu schlagen.

Meine 780Ti lief mit 1250MHz, das macht in der Milchmädchen Rechnung für die 980 einen Chip Takt von 1350-1550MHz. Problem des GM204 ist bei so hohem Takt aber ziemlich sicher mal die Bandbreite, ab 1500MHz Skaliert meine 980 nicht mehr richtig schön nach oben, jedes MHz mehr Speicher Takt sieht man dann sehr gut in den FPS. Ich habe das Glück das meine 980 ziemlich gut geht, Benchtakt geht bis ca. 1650/2100MHz und so sieht man das halt einfach schön.

aufkrawall
2015-03-06, 17:18:22
Dafür geht prozentual meist mehr VRAM-OC als bei der 780 Ti.
Und es kommt halt aufs Spiel an. In Garden Warfare ist die 780 Ti auch ohne MSAA fast so schnell wie die 980.
In Trine 2 ist die 980 dann 20% schneller...

Die Unterschiede sind nicht so groß, der größere VRAM macht sich da viel stärker bemerkbar in 1440p.

dildo4u
2015-03-10, 16:38:10
Einige Shops verschicken jetzt Witcher 3 Key's mit GTX 900 Karten.

http://www.nvidia.de/object/the-witcher-wild-hunt-pc-game-de.html#gameContent=3

dildo4u
2015-03-14, 11:53:32
Nvidia GeForce GTX 970 Revisited

Does the cut-back spec and RAM set-up actually impact game performance?

Video
https://youtu.be/UtWL3D9ZL3Q

http://www.eurogamer.net/articles/digitalfoundry-2015-nvidia-geforce-gtx-970-revisited

Pumpi74
2015-03-14, 12:59:54
Nun ist ein Tri SLI aus GTX 960@4GB besser als eines aus zwei GTX 970 ?

aufkrawall
2015-03-14, 13:02:03
SLI mit zwei Karten ist schon häufig unangenehm, mit drei wirds mindestens exponentiell schlimmer.

aufkrawall
2015-03-14, 16:24:29
Die Tri-X New Lüfter haben mich zu sehr genervt, also hab ich noch einen Geldverbrennungsversuch mit einer 980 gestartet.
Die Palit 980 JetStream ist verbaut, und die Karte überzeugt ähnlich gut wie die MSI 970 Gaming (zur Erinnerung: bei der 980 Gaming lassen sich nicht beide Lüfter mit manueller Lüfterkurve steuern, was sie für mich unbrauchbar macht).

War erstmal ein bisschen geschockt, als ich das Lüfter-Anlaufverhalten der Palit gesehen hab. Beide drehen nach Erreichen der 60°C immer wieder kurz heftig an, was ein relativ lautes Geräusch erzeugt. Es braucht offenbar eine höhere Spannung, damit die Motoren nicht sofort wieder abschalten.
Zum Glück lassen sich die Lüfter per manueller Kurve mit unschlagbaren konstanten 550rpm betreiben (25% Einstellung), was so gut wie unhörbar ist.
Das Bios meint auch nicht, der manuellen Kurve irgendwie dazwischenfunken zu müssen (anders bei MSI 980 Gaming).
Es herrscht also definitiv Ruhe, auch bei steigenden Temperaturen.

Das Geräusch der Lüfter gefällt mir wesentlich besser als bei MSI Gaming, da diese bei MSI mit höheren Drehzahlen einen hohen Heul-Unterton erzeugen.
Bei JetStream ist es eher ein Rauschen (niedrig) oder ein tieffrequenteres Brummen (hohe Drehzahl, die man allerdings gar nicht braucht).

Bei Stresstest Trine 2 5k erreicht die Karte mit aufgedrehtem PT & OC (1440/3850) mit manueller Kurve 73°C bei 48% Lüfterdrehzahl.
Nicht mehr silent, aber die Lüfter nerven einfach nicht (1050rpm).

Spulenfiepen ist vorhanden und könnte leiser sein. Es ist mit Be Quiet Straight Power 10 hier aber definitiv noch moderat und stört mich beim Spielen überhaupt nicht. Ist ein gutes Stück leiser, als ich es von der 970 Gaming her in Erinnerung hab.
Mit Media Player Dot.NET bei 50% GPU-Auslastung gibt es kein Spulenfiepen und die Lüfter bleiben bei ca. 600rpm bei 58°C GPU-Temperatur. Perfekt.

dllfreak2001
2015-03-26, 21:18:45
Wann ist eigentlich ein Refresh geplant, falls man das schon weiß?

Schaufel789
2015-04-04, 00:40:47
Hey, welche 980 GTX würdet ihr emphehlen, wenn sie leise und dabei eine gute Kühlung haben soll? Performance seitig muss es sich nicht um die beste 980'er handeln die es momentan gibt, Hauptsache GTX 980, leise, wenn möglich mit guter Kühlung.

dildo4u
2015-04-04, 01:52:17
Hey, welche 980 GTX würdet ihr emphehlen, wenn sie leise und dabei eine gute Kühlung haben soll? Performance seitig muss es sich nicht um die beste 980'er handeln die es momentan gibt, Hauptsache GTX 980, leise, wenn möglich mit guter Kühlung.
Die MSI Gameing soll laut PCGH die Beste sein,gab dazu ein Test im Heft 4/2015.

Air Force One
2015-04-04, 08:56:08
Hatte ich auch hier, hat mich total überzeugt, nur die Spannungswandler Temperatur nicht. Aber die sind ja laut Specs im grünen Bereich, war auch der Grund warum nachher zu Gigabyte G1 gewechselt wurde. Dort waren die im Schnitt 20°C kühler.

Schaufel789
2015-04-04, 09:23:02
Die MSI Gameing soll laut PCGH die Beste sein,gab dazu ein Test im Heft 4/2015.

Hatte ich auch hier, hat mich total überzeugt, nur die Spannungswandler Temperatur nicht. Aber die sind ja laut Specs im grünen Bereich, war auch der Grund warum nachher zu Gigabyte G1 gewechselt wurde. Dort waren die im Schnitt 20°C kühler.

Besten Dank. :)

aufkrawall
2015-04-04, 10:59:39
Viel Spaß mit dem aufdrehenden zweiten Lüfter, der gerne auch mal fünf Minuten nachdreht.

Hübie
2015-04-04, 11:00:21
Gainward hat eine Karte mit drei Lüftern (http://www.geizhals.de/gainward-geforce-gtx-980-3385-a1177064.html?hloc=de) die ebenfalls extrem leise und agiert. Ich kenne das Design zwar nur von der GTX 770 aber eine 980 hat ja ähnliche TDP. Ich war so überrascht dass es mich wundert warum es nirgendwo Tests zu dieser Karte gibt.
Das ist mit Abstand das leiseste Design dass ich jemals nicht gehört habe :freak:
Leider ist wohl niemand bereit das Ding zu testen. Aber vielleicht liest Raff oder y33h@ mit =) *schubs*

Raff
2015-04-04, 11:27:03
Es gibt schon einen Test der Karte – in der PCGH 04/2015. Neben 51 weiteren Karten. (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-04-2015-Magazin-DVD-Download-PDF-1151655/) :naughty:

Das Modell ist in Ordnung, allerdings auf Sparsamkeit und Kosteneffizienz getrimmt, ist halt die kleine Schwester der Phantom. IIRC wie die Referenzkarte mit einer TDP von 165 Watt versehen und entsprechend boostschwach.

MfG,
Raff

aufkrawall
2015-04-04, 11:31:00
Würde bei der 980 mal zur Strix greifen, wenn der Preis egal ist. Eventuell sind deren Lüfter noch etwas laufleiser als die der JetStream. Ist aber nur eine Spekulation. Wandlertemps sollten nicht so wichtig sein.
Ansonsten ist die JS halt wesentlich günstiger und die Wandler sind offenbar an den Hauptkühlkörper angeschlossen.

Hübie
2015-04-04, 13:31:59
Es gibt schon einen Test der Karte – in der PCGH 04/2015. Neben 51 weiteren Karten. (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-04-2015-Magazin-DVD-Download-PDF-1151655/) :naughty:

Das Modell ist in Ordnung, allerdings auf Sparsamkeit und Kosteneffizienz getrimmt, ist halt die kleine Schwester der Phantom. IIRC wie die Referenzkarte mit einer TDP von 165 Watt versehen und entsprechend boostschwach.

MfG,
Raff

In Ordnung ist also nicht herausragend in puncto Lautstärke? Oder in Ordnung bezogen aufs Gesamtpaket? Google spuckt nix dazu aus als ich "Gainward GTX 980 Review" suchte.

dildo4u
2015-04-12, 15:12:24
Octo-Core Intel i7 5960X: One/Two/Three-Way GTX 980 SLI 1440p

https://youtu.be/c6CEszehmyQ

http://www.eurogamer.net/articles/digitalfoundry-2015-vs-extreme-frame-rate-pc-gaming

Commander Keen
2015-04-12, 16:01:07
Passt hier thematisch nur halb rein, aber egal: Wann kann man denn mit einem Nachfolger der GTX970 rechnen? Aktuell habe ich noch eine GTX770, jetzt noch eine 970 kaufen wäre imho dämlich (schon zu lange am Markt, dafür immer noch relativ teuer), die 960 wäre auch kein adäquater Ersatz, die Titan jenseits von gut und böse, die 980 ebenfalls schon zu lange am Markt.

Im Grunde bin ich mit der Leistung der 770 noch zufrieden (wobei schneller immer besser ist), aber 230W TDP und der nahende Sommer sowie mein neues Computerzimmer direkt unterm Dach könnten etwas nervig werden.

aufkrawall
2015-04-12, 16:05:06
Entweder PT/TT reduzieren, 980 kaufen oder anderen Kühler draufbauen.

Raff
2015-04-12, 16:08:07
Gegen eine GTX 980 spricht gar nichts, allein der Preis ist zu hoch. Im 3DC-Marktplatz ging gerade ein gutes Modell für 450 Euro weg. Schau dich einfach nach guten Deals um. Die kommen nicht sofort, man muss dran bleiben. :)

Ansonsten würde ich dir von einer GTX 970 abraten, die Speichergeschichte fängt gerade erst an. Eine verführerisch günstige R9 290(X) ist nichts für dich?

MfG,
Raff

Commander Keen
2015-04-12, 16:08:44
Entweder PT/TT reduzieren, 980 kaufen oder anderen Kühler draufbauen.

Es ist die Gigabyte Triple Windforce oder wie das Ding heisst (die mit den 3 Lüftern) - die ist schon so leise, wie eine 230W Karte eben sein kann. Und mit irgendwelchen Tools rummurksen hab ich keinen Bock mehr drauf. Ich gebe zu, das ist mir schlichtweg zu kompliziert und zeitaufwändig geworden. Seit 4770K und 770 (gekauft Oktober/November 2013, also nun auch schon wieder 1,5 Jahre alt) läuft mein System nur noch @default :redface:

edit: Eine andere Überlegung war auf eine 960 4GB zu gehen - aber bei der passt das P/L-Verhältnis einfach überhaupt nicht.

Daher bleibt die Frage: Wann kommt da was neues...?

dildo4u
2015-04-12, 16:08:53
Passt hier thematisch nur halb rein, aber egal: Wann kann man denn mit einem Nachfolger der GTX970 rechnen? Aktuell habe ich noch eine GTX770, jetzt noch eine 970 kaufen wäre imho dämlich (schon zu lange am Markt, dafür immer noch relativ teuer), die 960 wäre auch kein adäquater Ersatz, die Titan jenseits von gut und böse, die 980 ebenfalls schon zu lange am Markt.

Im Grunde bin ich mit der Leistung der 770 noch zufrieden (wobei schneller immer besser ist), aber 230W TDP und der nahende Sommer sowie mein neues Computerzimmer direkt unterm Dach könnten etwas nervig werden.
Was meinst du mit zu lange am Markt die Nachfolger kommen in 16nm was sich wenns Probleme gibt noch ewig verschieben kann.(Ende 2016)

http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/gtc2015/gtc2015-roadmap-1.jpg

aufkrawall
2015-04-12, 16:10:49
Bisher deutet nichts auf Probleme hin und womöglich kann man im März schon etwas doppelt so schnelles wie eine 980 kaufen.

dildo4u
2015-04-12, 16:13:46
Bisher deutet nichts auf Probleme hin und womöglich kann man im März schon etwas doppelt so schnelles wie eine 980 kaufen.
Unwahrscheinlich erst kommt der kleine Chip der in Bereich der Titan X ist.Auch 16nm muss gesteckt werden so lange es geht.

aufkrawall
2015-04-12, 16:15:05
Ja, und?
Die 680 war doppelt so schnell die die 560 Ti, obwohl es nur ein Winz-Chip war.
Falls GP104 über HBM verfügen sollte, sollten es sogar mehr als +100% zur 980 sein.

Commander Keen
2015-04-12, 16:17:14
Gegen eine GTX 980 spricht gar nichts, allein der Preis ist zu hoch. Im 3DC-Marktplatz ging gerade ein gutes Modell für 450 Euro weg. Schau dich einfach nach guten Deals um. Die kommen nicht sofort, man muss dran bleiben. :)

Sorry, aber ich gebe nicht 450€ für eine gebrauchte Karte aus. Da muß ich den Käufer schon persönlich kennen. OK, PHuV wäre mir gerade noch seriös genug (;)), aber dennoch verstiesse das gegen meine Prinzipien :freak:

Ansonsten würde ich dir von einer GTX 970 abraten, die Speichergeschichte fängt gerade erst an. Eine verführerisch günstige R9 290(X) ist nichts für dich?

Nope, AMD ist leider keine Alternative für mich.

Was meinst du mit zu lange am Markt die Nachfolger kommen in 16nm was sich wenns Probleme gibt noch ewig verschieben kann.(Ende 2016)

Naja, ein 3/4 Jahr finde ich halt schon ziemlich lang am Markt um jetzt noch zum quasi gleichen Preis (oder sogar teurer wegen Eurokurs) so eine Karte zu kaufen. Meistens kommt ja nach spätestens einem Jahr bereits der Refresh. High-end kauft man halt am besten zum Release, dann rechnet sich der Kaufpreis durch die längere Nutzungsdauer schon wieder. Sorry, ich kann nicht anders als das ganze zumindest ein wenig wirtschaftlich zu betrachten, auch wenns um ein Hobby geht :freak:

dildo4u
2015-04-12, 16:22:58
Eine 970 rechnet sich imo wenn man Witcher 3 zocken will,gibt's gerade dazu man muss auch nich zwingend eine teure 970 von MSI oder Asus kaufen.Ich bin mit meiner EVGA zufrieden.

Macht unter 300 für die Karte.
http://www.mindfactory.de/product_info.php/4096MB-EVGA-GeForce-GTX-970-ACX-2-0-Aktiv-PCIe-3-0-x16--Retail-_977896.html

aufkrawall
2015-04-12, 16:24:35
Erstmal den VRAM-Bedarf von Witcher und GTA 5 abwarten.
Wenn mit der 970 da wieder Mikroruckler oder schlimmes auftritt, beißt man sich in den Hintern.

Thunder99
2015-04-12, 16:24:40
Und wieso nicht AMD (interessiert mich wirklich). Ich wurde damals von der HD7950 enttäuscht (Treiber und meine Games die ich gespielt hatte), wurde aber positiv von der R9 290 überrascht. Viele Kritikpunkte von damals wurden beseitigt :)

aufkrawall
2015-04-12, 16:25:45
Die 290 ist eher ein VRAM-Upgrade. Je nach Titel merkt man von der Mehrperformance kaum was und außerdem will er ja eine Karte, die nicht grillt wie sonst was.

Commander Keen
2015-04-12, 16:29:30
Die 290 ist eher ein VRAM-Upgrade. Je nach Titel merkt man von der Mehrperformance kaum was und außerdem will er ja eine Karte, die nicht grillt wie sonst was.

Erstens das (so ca. 150W TDP wären nice) und zweitens nvidia Inspector und drittens downsampling im Treiber. Will ich nicht drauf verzichten.

PHuV
2015-04-12, 16:31:40
Sorry, aber ich gebe nicht 450€ für eine gebrauchte Karte aus. Da muß ich den Käufer schon persönlich kennen. OK, PHuV wäre mir gerade noch seriös genug (;)), aber dennoch verstiesse das gegen meine Prinzipien :freak:
Wow, wie komme ich zu der Ehre? :confused: Aber danke. :). Schade für die Prinzipien, die 980 ist wirklich eine feine Karte. Solange Du keine UHD-Ansprüche hast, wäre das eine Karte für die nächsten 3-4 Jahre.

Commander Keen
2015-04-12, 16:43:23
Wow, wie komme ich zu der Ehre? :confused: Aber danke. :). Schade für die Prinzipien, die 980 ist wirklich eine feine Karte. Solange Du keine UHD-Ansprüche hast, wäre das eine Karte für die nächsten 3-4 Jahre.

Nunja, nach dem Bild, welches du hier im Forum vermittelst, kann man davon ausgehen, dass du es nicht nötig hast jemanden übers Internet zu bescheissen oder eine völlig abgewichste Karte anzudrehen ;)

Aber dennoch: 980 schön und gut, aber da ist einfach der ideale Kaufzeitpunkt mMn schon lange vorbei. Freut mich ja für die Titan-Aufrüster, wenn ihr jetzt noch ordentlich Kohle dafür bekommt, aber ich denke eben einen Schritt weiter: Wenn es einen Nachfolger gibt (jenseits von Titan, also etwas "normales" à la "1070" oder "1080"), kann ich die 980 dann für 150€ am Gebrauchtmarkt verramschen - was bedeuten würde, dass die Karte dann effektiv 300€ gekostet hätte. Und das ist mir zu teuer. Da verramsch ich lieber noch meine 770 jetzt für 150€ und hole mir eine 960 4GB für 100€ Aufpreis und hätte damit zumindest was sparsames in der Kiste stecken - allerdings bin ich von der Leistung der 960 halt alles andere als überzeugt und downgraden will ich natürlich auch nicht...

aufkrawall
2015-04-12, 16:50:39
960 wär ein Downgrade, da kannst du auch gleich PT/TT mit der 770 limitieren.
Hast du zwar nur die Hälfte des VRAMs, kostet dich aber 0€ und keine Zeit.

Commander Keen
2015-04-12, 16:55:21
960 wär ein Downgrade, da kannst du auch gleich PT/TT mit der 770 limitieren.
Hast du zwar nur die Hälfte des VRAMs, kostet dich aber 0€ und keine Zeit.

Na gut, gibt es dafür irgendwo eine Anleitung für Dummies? 3 Klicks und 50W weniger bei nur 5% Leistungsverlust oder so? Ich hab, als die Karte noch neu im System war, natürlich mal mit dem Afterburner gespielt und ein, zwei Guides gelesen, aber dann für mich festgestellt, dass mir das Gedöns zu kompliziert geworden ist. Genauso wie den i7 zu übertakten...

Ja, Schande über mich... :freak:

PHuV
2015-04-12, 16:55:36
Kann ich verstehen. Es ist immer eine Ermessensfrage, was es einem Wert ist. Bis zu den 3x580ern habe ich mitgemacht, und das hat mir fast 4 Jahre ausgereicht. Und nun habe ich innerhalb von Monaten mehr GKs (750 TI, 960, 980, Titan X) gekauft als in 4 Jahren. :freak:

Du mußt eben wissen, wie lange die Karte ungefähr bei Dir halten würde. Wenn Du jetzt 450 € investierst, und das vier Jahre hält, oder ob Du nun 2-3x300 € ausgibst, und das innerhalb 4 Jahren. Ich würde mal sagen, es kommt auf das gleiche raus.

Die 580er habe damals auch für ca. 550 € gekauft, und dann für 90-99 € verkauft. Sind dann rein buchhalterisch 1650 €, mit 1370 €, verteilt auf 4 Jahre sind das ~363 € pro Jahr. Das ist dann so gerechnet gar nicht mehr so viel.

Commander Keen
2015-04-12, 17:10:42
Eben um das halbwegs einschätzen zu können, wollte ich ja ursprünglich nur wissen, wann man denn mit einem Nachfolger der 970/980 rechnen kann :ulol:

Ansonsten sah es bei mir seit Einführung von PCIe und SM3.0 so aus:

770
670
"470" (eigentlich eine 460, war aber so schnell wie die 470)
GTX280
8800GT
7900GX2
6800GS (die mit dem Ultra-PCB von Asus)

Macht 7 Karten in 11 Jahren oder anders gesagt eine durchschnittliche Nutzungsdauer von 1,5 Jahren pro Karte.

Also nein: Ich werde die 980 höchstwahrscheinlich NICHT 4-5 Jahre nutzen ;) Zumal ich die alten Karten mEn auch immer für > 100€ noch losgeworden bin, so dass sich der finanzielle Aufwand auf die Jahre gesehen im Grunde sehr in Grenzen hielt.

aufkrawall
2015-04-12, 17:18:22
Ja, Schande über mich... :freak:
Grooße Schande!

Ich würds einfach per Inspector machen, ist wirklich nur das Schieben von Reglern mit der Maus.
Da Temperatur auch immer durch Stromverbrauch beeinflusst ist, sollte auch ein strengeres PT allein schon den gewünschten Effekt haben können.
Einfach mal 90 oder 85% einstellen und schauen, ob es bei denen Spielaktivitäten jetzt großartig fühlbar oder messbar (Fraps) schlechter läuft.
That's it.

Thunder99
2015-04-12, 17:42:53
Erstens das (so ca. 150W TDP wären nice) und zweitens nvidia Inspector und drittens downsampling im Treiber. Will ich nicht drauf verzichten.
Ersteres kann ich verstehen, vermisse aber selber noch nicht den Inspector (hatte vorher ne GTX680, dann eine 970.
Zum 2. Punkt geht es bei AMD ja auch, zumindest fast in der Qualität wie bei nvidia. 4k Support wurde ja angekündigt und wird wohl demnächst entscheiden. Nebenbei gibt es da keine Filter zum einstellen, braucht es aber auch nicht :)

aufkrawall
2015-04-12, 17:48:19
VSR 2.0 sollte schon seit zwei Monaten erschienen sein. Dass das bald kommt, glaub ich auch erst, wenn es da ist (und dann mal sehen).
Und bei AMD kann man für D3D11 nicht die prerendered frames auf 1 limitieren oder (adaptives) Vsync über den Treiber erzwingen.
Auch ist man mitunter auf Mantle angewiesen (sofern denn vorhanden) und kann damit kein SweetFX nutzen.
Ne ganze menge Nachteile.

Mit einem 4k IPS A-Sync Monitor, der im praktischen Betrieb keine fps-Grenze nach unten hätte, wär AMD wieder interessant für mich. Vorher aber nicht.

StefanV
2015-04-12, 18:02:57
Erstens das (so ca. 150W TDP wären nice) und zweitens nvidia Inspector und drittens downsampling im Treiber. Will ich nicht drauf verzichten.
1. Kannst das notfalls auch fixen, auf kosten der Performance natürlich. Musst nur einen Regler nach links schieben...
2. ...was dir in Zeiten von DX10+, wo das, was du im Treiber einstellen kannst, meist eh ignoriert wird, genau was bringt? Oder was möchtest da genau einstellen?? Profile gibt es auch bei AMD...
3. Downsampling hat doch auch AMD!

Hübie
2015-04-12, 18:10:42
2. Bullshit 3. eingeschränkt

aufkrawall
2015-04-12, 18:11:00
1. Kannst das notfalls auch fixen, auf kosten der Performance natürlich. Musst nur einen Regler nach links schieben...

Ja, toll. Irgendwann muss der Takt aber massiv limitiert werden, um dann innerhalb der gesteckten Grenze zu bleiben.
Und rat mal, wie weit der runtergeht, wenn du von 250W auf 150W limitieren würdest. :freak:


2. ...was dir in Zeiten von DX10+, wo das, was du im Treiber einstellen kannst, meist eh ignoriert wird, genau was bringt? Oder was möchtest da genau einstellen?? Profile gibt es auch bei AMD...

Aber kein Limitieren der prerendered frames und keine funktionierenden Vsync-Optionen.


3. Downsampling hat doch auch AMD!
Hab ich nichts von gemerkt. Wahrscheinlich, weil es von AMD eben kein Downsampling für 1440p 75Hz gibt.
Nix, nüschte.
Hätte für 3200xnochwas bei 60Hz bleiben müssen...

Commander Keen
2015-04-12, 18:13:17
Ich bin nv-Fanboy, ok? Hatte zwar auch schon diverse Radeons in meinen Händen und diese bei Freunden und Bekannten auch gerne verbaut und finde die Karten für Normaluser auch absolut in Ordnung (Preis-/Leistung ist meistens sehr gut), aber selber bleibe ich lieber bei nvidia. Und das liegt zu 100% an der Software bzw. Treiber.

Thunder99
2015-04-12, 18:38:48
Das Beste was ein Kunde für sich machen kann ist kritisch beide IHVs zu begutachten und dann für sich das sinnvollere Produkt zu kaufen :wink:. War also nur gut gemeint :)

The_Invisible
2015-04-12, 18:39:03
Erstmal den VRAM-Bedarf von Witcher und GTA 5 abwarten.
Wenn mit der 970 da wieder Mikroruckler oder schlimmes auftritt, beißt man sich in den Hintern.

laut PCGH hat die Titan X bei Battlefield Hardline auch arge Probleme mit Frametimes, darum mal abwarten und nicht gleich alles auf VRAM schieben. eine 780ti hat auch nur 3gib, die wird man auch nicht von heute auf morgen auf low details mit frametimesproblemen degradieren.

bin jedefalls auch auf die ersten benchmarks mit gta5 gespannt, vor allem da man dort die details anscheinend ja schön an den VRAM anpassen kann. :smile:

aufkrawall
2015-04-12, 18:46:50
Ich habe bei Hardline überhaupt nichts auf den VRAM geschoben...

Ex3cut3r
2015-04-12, 19:08:43
770
670
"470" (eigentlich eine 460, war aber so schnell wie die 470)
GTX280
8800GT
7900GX2
6800GS (die mit dem Ultra-PCB von Asus)

Nichs für ungut aber von der GTX 280 auf die GTX 460 war quatsch genauso wie auf die 770 von der GTX 670 zu wechseln. Bei letzerem sogar schlimmer.

The_Invisible
2015-04-12, 19:10:40
ich meinte damit eigentlich das mickroruckler auch ohne vram problem auftreten können weil es eben auch viele andere faktoren gibt

aufkrawall
2015-04-12, 19:16:51
Trotzdem muss man ja nicht freiwillig das Risiko eingehen. Außerdem kann es mitunter ja auch hart freezen.

Commander Keen
2015-04-12, 20:00:19
Nichs für ungut aber von der GTX 280 auf die GTX 460 war quatsch genauso wie auf die 770 von der GTX 670 zu wechseln. Bei letzerem sogar schlimmer.

Von der 280 auf auf die 460 war ganz sicher kein Quatsch - die letztgenannte liess sich übertakten ohne Ende und war damit auf dem Leistungsniveau der 470. Hat sich also schon gelohnt.

670 auf 770 war Quatsch, das geb ich zu. Aber da ich zu dem Zeitpunkt sowieso ein komplett neues System aufgebaut habe (im alten war noch ein Phenom X6 1100T), hat sich das nunmal so ergeben. Als reines Upgrade, also nur die Karte wechseln, hätte ich das sicher nicht gemacht.

PHuV
2015-04-12, 22:51:13
Dann warte doch einfach, bis wieder oder anderswo wieder mal eine 970 gebraucht für 250 € angeboten wird. Wenn ich nicht schon früher eine neue Karte gebraucht hätte, wäre eine 970 für soviel als 2.Karte für den Anwendungsrechner eine gute Option gewesen.

Godmode
2015-04-12, 23:32:13
Sind von 980er und 970er eigentlich noch Versionen mit 8GB VRAM zu erwarten?

Air Force One
2015-04-13, 07:40:35
Würde das bei der 970 überhaupt Sinn machen? (kenne mich da nicht aus)
Also auf die Problematik bezogen.

Grestorn
2015-04-13, 08:37:21
Würde das bei der 970 überhaupt Sinn machen? (kenne mich da nicht aus)
Also auf die Problematik bezogen.

Bestenfalls 7 GB würde ich mal annehmen. Technisch müsste sie wohl 8 GB haben, von denen man aber am besten gleich nur 7GB nutzt und auch in den Technischen Daten angibt.

Ich glaube aber nicht, dass es 8GB Versionen des GM204 geben wird. Denn damit würde man einer 6 GB 980TI auf Basis des GM200 in die Quere kommen.

dargo
2015-04-13, 08:48:33
Ich glaube aber nicht, dass es 8GB Versionen des GM204 geben wird. Denn damit würde man einer 6 GB 980TI auf Basis des GM200 in die Quere kommen.
Bei Kepler hatte NV auch keiner gehindert 4GB Versionen rauszubringen obwohl es 3GB Versionen vom GK110 gab. Im Prinzip könnte sich alles wiederholen. Zuerst eine 980TI auf Basis von GM200 mit 6GB, danach eine mit 12GB und später GM204 mit max. 8GB. Die Salamitaktik von NV halt.

Edit:
Der einzige Unterschied bei der 980TI ist nur, dass mehr Einheiten nicht mehr gehen weil TitanX Vollausbau ist. Spielt aber keine Rolle. Einfach 100Mhz drauf und schon ist man mit 12GB und hohem Preis wieder im Gespräch. ;)

Hübie
2015-04-13, 10:12:06
Ich denke mal dass es Restriktionen diesbezüglich gibt ;) GM204 wird wohl nicht mit 8 GB den Markt erreichen.
EVGA hatte 6GB 780Ti welche nicht verkauft werden durften. Werkeln entweder bei Mitarbeitern oder vielleicht als BIOS-Cutdown (wenn überhaupt) mir 2304 ALUs.

dargo
2015-04-13, 11:25:32
Es gibt doch sowas hier:
http://geizhals.at/de/?cat=gra16_512&xf=1439_GTX+Titan+Black#xf_top

Namen sind Schall und Rauch. ;) ~100Mhz mehr, 12GB und schon hast du eine 980TI, Titan X Black oder weiß der Kuckuck was. Sowas ist natürlich nur denkbar wenn die Konkurrenz gefährlich nah kommt.

dildo4u
2015-04-13, 11:27:36
12GB saugen vom TDP,Sinnvoller sind 6GB dadurch erreicht man dann den höheren Takt ohne über 250Watt zu gehen.Der Kühler ist eh schon nich mehr Leise bei der Titan X bis 210Watt der Titan war er noch brauchbar.

dargo
2015-04-13, 11:29:48
Ein kastrierter GM200 bei der Rohleistung + 6GB kommt sowieso. Schließlich ist die Lücke zwischen Titan X und 980 zu groß. Es gibt zig verschiedene Varianten die da kommen könnten. Alles eine Frage der Abdeckung vom eigenen Portfolio und natürlich abhängig von der Konkurrenz.

dildo4u
2015-04-13, 11:33:51
Nvidia scheint nich wirklich auf AMD zu reagieren gibt z.b schon ewig 290X mit 8GB.

Palpatin
2015-04-13, 11:35:20
Könnt mir auch vorstellen das es stark von AMDs 3xx Lineup abhängt ob und was NV dagegen stellt.

dargo
2015-04-13, 11:43:23
Nvidia scheint nich wirklich auf AMD zu reagieren gibt z.b schon ewig 290X mit 8GB.
Genau... deshalb kam die Titan X gleich mit 12GB. :freak: Und was heißt hier ewig? Die 8GB bei AMD kamen afaik erst Anfang November 2014, also grob ein Jahr nach Release von Hawaii. Reaktionen gibt es immer bei beiden, vor allem beim Preis. Ist doch nichts Neues. Konkurrenz ist das wichtigste überhaupt, jedenfalls für den Kunden.

Godmode
2015-04-13, 11:55:41
Genau... deshalb kam die Titan X gleich mit 12GB. :freak: Und was heißt hier ewig? Die 8GB bei AMD kamen afaik erst Anfang November 2014, also grob ein Jahr nach Release von Hawaii. Reaktionen gibt es immer bei beiden, vor allem beim Preis. Ist doch nichts Neues. Konkurrenz ist das wichtigste überhaupt, jedenfalls für den Kunden.

6 GB wären einfach zu wenig gewesen, wenn die Titan Classic schon 6 GB hatte.

Dimitri Mayakovsky
2015-04-13, 12:21:29
6 GB wären einfach zu wenig gewesen, wenn die Titan Classic schon 6 GB hatte.
Jupp, eine Reaktion auf AMD war das nicht.

Da NVIDIA seine Karten jetzt schon 6 Monate am Markt hat, kann man sich locker einen Refresh mit z.B. höheren Taktraten leisten. Oder einfach den Preis nach unten korrigieren. Spielraum ist da mehr als genug vorhanden, vor allem wenn AMD tatsächlich mit jeder Karte außer dem HighEnd mit veralteten Rebrandchips antritt.

dildo4u
2015-04-13, 12:22:31
Genau... deshalb kam die Titan X gleich mit 12GB. :freak: Und was heißt hier ewig? Die 8GB bei AMD kamen afaik erst Anfang November 2014, also grob ein Jahr nach Release von Hawaii. Reaktionen gibt es immer bei beiden, vor allem beim Preis. Ist doch nichts Neues. Konkurrenz ist das wichtigste überhaupt, jedenfalls für den Kunden.
Die Titan X ist nicht da Gegenstück zur 290X sondern die 970.

dargo
2015-04-13, 12:27:43
Die Titan X ist nicht da Gegenstück zur 290X sondern die 970.
Das Gegenstück zu Hawaii war GK110. Das zur Titan X kommt erst. Den Krüppel @GTX970 kann NV behalten.

6 GB wären einfach zu wenig gewesen, wenn die Titan Classic schon 6 GB hatte.
Möglich... oder NV hat mitgekriegt, dass Fiji mit 8GB kommen soll und entsprechend gegengesteuert. Sieht dann etwas blöd auf dem Papier beim Topdog 6GB vs. 8GB der Konkurrenz.

Dimitri Mayakovsky
2015-04-13, 12:32:06
Das Gegenstück zu Hawaii war GK110.
War es mal, aktuell ist es der Salvage GM204.

Den Krüppel @GTX970 kann NV behalten.
Das sehen die meisten Kunden anders ;)

dargo
2015-04-13, 12:33:43
Das sehen die meisten Kunden anders ;)
Die meisten Kunden sind auch schmerzfrei, schau dich nur mal im Konsolenlager um.

Dimitri Mayakovsky
2015-04-13, 12:35:28
Die meisten Kunden sind auch schmerzfrei, schau dich nur mal im Konsolenlager um.
Oder sind so schlau, sich das bessere, rundere Produkt zu kaufen.

gnomi
2015-04-13, 12:38:25
Nvidia orientiert sich quasi gar nicht mehr an AMD.
Das wird sich aber hoffentlich jetzt mal ändern, wenn die nächste GPU Generation bei AMD auch für Aufsehen sorgt.

dildo4u
2015-04-13, 12:50:17
Die meisten Kunden sind auch schmerzfrei, schau dich nur mal im Konsolenlager um.
Die meisten haben kapiert das Hardware nicht alles ist ich lad nacher schön mein Nvidia Treiber für GTA5.

The_Invisible
2015-04-13, 12:57:28
Nvidia orientiert sich quasi gar nicht mehr an AMD.
Das wird sich aber hoffentlich jetzt mal ändern, wenn die nächste GPU Generation bei AMD auch für Aufsehen sorgt.

ja, hoffe ich auch, leider bin ich wegen treiber und linux auf nvidia angewiesen, früher hat es immer gute performance karten für 200 bis 300EUR gegeben, heute muss man mindestens 100eur drauflegen bzw. wenn man echtes highend möchte sogar > 1000eur, das ist eigentlich nur mehr krank

Arcanoxer
2015-04-13, 13:00:18
Die GTX970 wird in GTAV mit Sicherheit einer R290x Überlegen sein, wie nahezu in allen Spielen.
Mit den GameReady ForeWare habe ich da gar keine Zweifel.

@The_Invisible
Der Punkt wird von den meisten sowieso gekonnt ignoriert, unter Linux ist AMD weit ausserhalb der Konkurrenz.

fondness
2015-04-13, 13:01:10
Das wird sich aber hoffentlich jetzt mal ändern, wenn die nächste GPU Generation bei AMD auch für Aufsehen sorgt.

Nein, es wird sich erst dann ändern wenn der Kunde auch AMD-Hardware kauft und nicht nur darauf wartet bis NV den Preis senkt.

Die GTX970 wird in GTAV mit Sicherheit einer R290x Überlegen sein, wie nahezu in allen Spielen.


Weshalb sie ja auch im Schnitt ziemlich genau gleich schnell ist. :rolleyes:

Rampage 2
2015-04-13, 13:19:12
Ein kastrierter GM200 bei der Rohleistung + 6GB kommt sowieso. Schließlich ist die Lücke zwischen Titan X und 980 zu groß. Es gibt zig verschiedene Varianten die da kommen könnten. Alles eine Frage der Abdeckung vom eigenen Portfolio und natürlich abhängig von der Konkurrenz.

Ja, 30-35% ohne OC:facepalm: (nicht an dich sondern an Nvidia gerichtet;))

Ich hoffe weiterhin, dass die 6GB-Version im Vollausbau kommt - und wenn das Ding schneller wird als Titan X und ein paar Hundert Euro billiger, dann wird es sich verkaufen wie geschnitten Brot...

Das wäre in der Tat ein plausibler Grund warum die angebliche 980 Ti erst im Herbst 2015 erscheinen soll - damit man bis dahin die Kunden mit der Titan X melken kann:redface:

R2

Disco_STFU
2015-04-13, 13:31:03
Wer sagt denn dass der super spezielle GTA 5 Treiber überhaupt irgendwas bringt? Kann auch wieder nur Marketinggeschwätz sein... Hauptsache wieder ne Schlagzeile auf allen Newsseiten...

Ich will einen Vorher-Nachher Treibervergleich von Testern sehen.

aufkrawall
2015-04-13, 13:32:58
Ist nicht unwahrscheinlich, dass du auf NV wegen des geringeren Overheads und der Thread-Auslagerung wesentlich bessere CPU-Performance hast bei hoher Sichtweite von Verkehr und NPCs. War bei Dying Light auch so, bis die Sichtweite per Patch reduziert wurde sogar extrem.

dargo
2015-04-13, 15:23:10
Ja, 30-35% ohne OC:facepalm: (nicht an dich sondern an Nvidia gerichtet;))

Ich hoffe weiterhin, dass die 6GB-Version im Vollausbau kommt - und wenn das Ding schneller wird als Titan X und ein paar Hundert Euro billiger, dann wird es sich verkaufen wie geschnitten Brot...

Das wäre in der Tat ein plausibler Grund warum die angebliche 980 Ti erst im Herbst 2015 erscheinen soll - damit man bis dahin die Kunden mit der Titan X melken kann:redface:

R2
Es geht ja nicht nur um die Leistung, die Preisdifferenz zwischen GTX980 und Titan X ist einfach sehr groß. Da passt locker noch was zwischen.

Wer sagt denn dass der super spezielle GTA 5 Treiber überhaupt irgendwas bringt? Kann auch wieder nur Marketinggeschwätz sein... Hauptsache wieder ne Schlagzeile auf allen Newsseiten...

Ich will einen Vorher-Nachher Treibervergleich von Testern sehen.
Wie ich schon sagte... ein Game Ready Treiber muss vorallem für Single-GPU User nichts bedeuten. Aber dildo und Co geht da gleich einer ab. :D Obwohl... vielleicht ruckelt die GTX970 ohne diesen Treiber extrem weil noch was irrtümlicherweise in den lahmen 0,5GB landet. :tongue:

Edit:
Na wenn das alles ist? :uup:
Game Ready
Best gaming experience for Grand Theft Auto V, including support for SLI Technology and GeForce Experience one-click optimizations.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=562820

Knuddelbearli
2015-04-14, 07:57:44
Die meisten haben kapiert das Hardware nicht alles ist ich lad nacher schön mein Nvidia Treiber für GTA5.

so ein schönes Eigentor mit dem zeitgleichen AMD Treiber :biggrin:

Arcanoxer
2015-04-14, 11:16:40
so ein schönes Eigentor mit dem zeitgleichen AMD Treiber :biggrin:
:D

ist doch alles gut!?

derF
2015-04-14, 11:26:34
ist doch alles gut!?
Nix is gut, sitze hier auf Arbeit und zuhause steht der PC mit installiertem GTA V Treiber und installiertem GTA V und ist ganz traurig! :tongue:

Disco_STFU
2015-04-14, 11:36:32
Ich wüsste eine schnelle und effektive Methode dein Problem zu lösen. :wink:

Den Chef einfach freundlich grüßen :ufinger:

Arcanoxer
2015-04-14, 11:42:41
Nix is gut, sitze hier auf Arbeit und zuhause steht der PC mit installiertem GTA V Treiber und installiertem GTA V und ist ganz traurig! :tongue:
Vorfreude ist die schönste Freude :comfort:

dildo4u
2015-04-14, 11:45:04
CPU Limit bei 70 daher ist die Titan X nicht weiter vorne.

http://pclab.pl/zdjecia/artykuly/chaostheory/2015/04/gtav/charts2/gtav_vhigh_2560.png

http://pclab.pl/art57777.html

derguru
2015-04-14, 11:51:42
sind denen die 4k monitore ausgegangen? ich will 4k benchs sehen.

Arcanoxer
2015-04-14, 11:56:12
sind denen die 4k monitore ausgegangen? ich will 4k benchs sehen.4k ist Titan sache. ;)

M4xw0lf
2015-04-14, 12:08:20
Wenn pcper Nvidias Sprachrohr ist, dann ist pclab.pl Nvidias Benchmarkabteilung. Mal weitere Benchmarks aus seriöseren Quellen abwarten.

Raff
2015-04-14, 12:09:00
Seriöse Benchmarks dauern leider so ekelhaft lange. X-D

MfG,
Raff

dargo
2015-04-14, 12:28:29
Seriöse Benchmarks dauern leider so ekelhaft lange. X-D

Nicht schlimm, ich hoffe ihr schaut euch auch die Frametimes an.

Knuddelbearli
2015-04-14, 12:46:27
und eventuell noch 970 frametimes vor und nachm patch ^^

Disco_STFU
2015-04-14, 13:17:02
Seriöse Benchmarks dauern leider so ekelhaft lange. X-D

MfG,
Raff

http://www.hardwareluxx.de/index.php/artikel/software/spiele/34929-pc-version-von-gta-v-angespielt-inklusive-benchmarks.html?start=2 :P:tongue:

Was ist denn da mit der GTX 970 in 2.560 x 1.600 4xMSAA 16xAF los? :confused:

The_Invisible
2015-04-14, 13:22:19
http://www.hardwareluxx.de/index.php/artikel/software/spiele/34929-pc-version-von-gta-v-angespielt-inklusive-benchmarks.html?start=2 :P:tongue:

Was ist denn da mit der GTX 970 in 2.560 x 1.600 4xMSAA 16xAF los? :confused:

treiberprobleme oder irgendwas mit der speicherverwaltung passt nicht, die 780er mit 3gib sacken nämlich nicht so ab. bin gespannt was noch kommt.

dargo
2015-04-14, 13:27:21
http://www.hardwareluxx.de/index.php/artikel/software/spiele/34929-pc-version-von-gta-v-angespielt-inklusive-benchmarks.html?start=2 :P:tongue:

Was ist denn da mit der GTX 970 in 2.560 x 1.600 4xMSAA 16xAF los? :confused:
Das ist das neue Feature der GTX970. :whisper:

Isen
2015-04-14, 13:51:11
Absacker-Kneipen-Feature?

Zumindest ist der Test bei HW exakt so, wie es bei mir auch läuft...

dildo4u
2015-04-14, 15:20:20
PCGH GTA5 Test

http://www.pcgameshardware.de/GTA-5-Grand-Theft-Auto-5-PC-219948/Tests/GTA-5-PC-Test-Benchmark-1156215/

Gezockt wird ne Mission aus dem Game nich der Benchmark.Dort sieht man auch das selbst unter 1440p,die 2GB 770 nicht deutlich schlechter weg kommt als die 280 mit 3GB.Ist GPU und nicht Vram Limitiert.

Ex3cut3r
2015-04-14, 15:21:45
Sagt mal wurde DX12 bei dem Game nicht ne menge bringen? Wenn ja sollen die es mal nach patchen wenn DX12 erscheint. ^^

M4xw0lf
2015-04-14, 15:37:01
Sagt mal wurde DX12 bei dem Game nicht ne menge bringen? Wenn ja sollen die es mal nach patchen wenn DX12 erscheint. ^^
Würde es definitiv.

fondness
2015-04-14, 15:44:57
PCGH GTA5 Test

http://www.pcgameshardware.de/GTA-5-Grand-Theft-Auto-5-PC-219948/Tests/GTA-5-PC-Test-Benchmark-1156215/

Gezockt wird ne Mission aus dem Game nich der Benchmark.Dort sieht man auch das selbst unter 1440p,die 2GB 770 nicht deutlich schlechter weg kommt als die 280 mit 3GB.Ist GPU und nicht Vram Limitiert.

Das kann man ohne Frametimes gar nicht beurteilen.

dildo4u
2015-04-14, 16:01:36
Natürlich da PCGH min fps angibt gäbe es Böse ausschläge wären die min fps deutlich niedriger.

dargo
2015-04-14, 16:17:56
Natürlich da PCGH min fps angibt gäbe es Böse ausschläge wären die min fps deutlich niedriger.
Auch min.fps sind nur der Durchschnitt der Frametimes, nur eben bei der höchsten Last.

Die Ergebnisse der PCGH sind etwas seltsam. Die Titan X ist bei den min.fps quasi gleich schnell wie die GTX970 bereits in 1080p. :freak: Das deutet auf ein extremes CPU-Limit hin. Und wenn das so ist was ist aus dem Treiber-Overhead von NV geworden (siehe Ergebnisse von Hawaii)? :confused:

Edit:
Da passt so einiges nicht. Hawaii 25% im CPU-Limit schneller als die GTX780? GTX780 gleich schnell wie GTX770? Alles ziemlich merkwürdig.

Coda
2015-04-14, 16:18:14
Sagt mal wurde DX12 bei dem Game nicht ne menge bringen? Wenn ja sollen die es mal nach patchen wenn DX12 erscheint. ^^
DX12 ist kein Wundermittel. Damit das wirklich viel bringt muss man viele andere Dinge anfassen.

dildo4u
2015-04-14, 16:23:28
Auch min.fps sind nur der Durchschnitt der Frametimes, nur eben bei der höchsten Last.

Die Ergebnisse der PCGH sind etwas seltsam. Die Titan X ist bei den min.fps quasi gleich schnell wie die GTX970 bereits in 1080p. :freak: Das deutet auf ein extremes CPU-Limit hin. Und wenn das so ist was ist aus dem Treiber-Overhead von NV geworden (siehe Ergebnisse von Hawaii)? :confused:

Edit:
Da passt so einiges nicht. Hawaii 25% im CPU-Limit schneller als die GTX780? GTX780 gleich schnell wie GTX770? Alles ziemlich merkwürdig.
Vermutlich wurde der Treiber nicht mit den High Res Schatten optimiert HQ Schatten gehen massiv auf die CPU.

dargo
2015-04-14, 16:25:15
Vermutlich wurde der Treiber nicht mit den High Res Schatten optimiert HQ Schatten gehen massiv auf die CPU.
Das erklärt immer noch nicht warum NV im Vergleich zu AMD so schlecht im CPU-Limit steht. Also entweder hat AMD mit dem neuen Treiber extrem aufgeholt (das sollte man sich mal genauer anschauen) oder NV noch gar nicht optimiert. X-D

dildo4u
2015-04-14, 16:27:47
Die PCGH Benches sind im GPU Limit auf anderen Seiten kommen wie mit so einer CPU auf 70fps.

http://pclab.pl/zdjecia/artykuly/chaostheory/2015/04/gtav/charts4/gtav_vhigh_1920.png

Auch im Verkehr aufgenommen.
https://youtu.be/8AxCa1XQofg

dargo
2015-04-14, 16:39:24
Die Benches sind im GPU Limit...
Das ist doch Unsinn. Eine Titan X sollte grob 60-70% schneller als die GTX970 sein. Bei der PCGH sind es im schlimmsten Fall @Full-HD sagenhafte 2%. :freak:

dildo4u
2015-04-14, 16:46:57
Dein AMD hat im CPU Limit aufgeholt ist Unsinn darum gings,wie die anderen Benches zeigen das selbe Bild wie bei Watch Dog's.Bei den High-Res Schatten steht extra ne Warnung,das sie die Performance verschlechtern können vermutlich stehen sie deshalb nicht im normalen Menü.

aufkrawall
2015-04-14, 16:52:45
Vermutlich wurde der Treiber nicht mit den High Res Schatten optimiert HQ Schatten gehen massiv auf die CPU.
Wohl eher auf die GPU.

dargo
2015-04-14, 17:01:43
Dein AMD hat im CPU Limit aufgeholt ist Unsinn darum gings,wie die anderen Benches zeigen das selbe Bild wie bei Watch Dog's.Bei den High-Res Schatten steht extra ne Warnung,das sie die Performance verschlechtern können vermutlich stehen sie deshalb nicht im normalen Menü.
Ich werde das Gefühl nicht los du verstehst mich nicht. :freak:

Wenn deine High-Res Schatten extrem die CPU belasten dann gilt das auch für AMD. Ergo müsste der Abstand im CPU-Limit deutlich größer zwischen NV und AMD sein, Stichwort Treiberoverhead. Gehen die High-Res Schatten extrem auf die GPU (wie von aufkrawall angedeutet) ergeben die Ergebnisse der PCGH überhaupt keinen Sinn, siehe bsw. Ergebnis Titan X vs. GTX970. Womöglich klemmt noch Einiges in den Grafiktreibern und/oder dem Spiel selbst. Da müssen wir weitere Treiber/Patches abwarten.

The_Invisible
2015-04-14, 17:02:48
Das ist doch Unsinn. Eine Titan X sollte grob 60-70% schneller als die GTX970 sein. Bei der PCGH sind es im schlimmsten Fall @Full-HD sagenhafte 2%. :freak:

naja, 4k wird wohl nicht im cpu limit sein, da müsste der abstand ja viel größer werden. dürfte was anderes limitieren bzw. treiber/spiel müssen noch optimiert werden

fondness
2015-04-14, 17:30:14
Ich werde das Gefühl nicht los du verstehst mich nicht. :freak:

Wenn deine High-Res Schatten extrem die CPU belasten dann gilt das auch für AMD. Ergo müsste der Abstand im CPU-Limit deutlich größer zwischen NV und AMD sein, Stichwort Treiberoverhead. Gehen die High-Res Schatten extrem auf die GPU (wie von aufkrawall angedeutet) ergeben die Ergebnisse der PCGH überhaupt keinen Sinn, siehe bsw. Ergebnis Titan X vs. GTX970. Womöglich klemmt noch Einiges in den Grafiktreibern und/oder dem Spiel selbst. Da müssen wir weitere Treiber/Patches abwarten.


Nvidia muss ihre CPU-Overhead-Optimierungen für jedes Spiel separat anpassen/testn, da sie mit den Thread Auslagerungen die DX-Specs verletzen und nicht davon ausgehen können das jedes Spiel dann noch korrekt läuft. Womöglich funktioniert es bei GTA5 eben nicht.

Ex3cut3r
2015-04-14, 17:34:48
DX12 ist kein Wundermittel. Damit das wirklich viel bringt muss man viele andere Dinge anfassen.

Nagut ok, dann muss halt später bisschen Arbeit reingesteckt werden, nur die Frage ist ob sich für Rock* dann noch lohnt, scheint auch ganz ok mit DX11 zu laufen. ;)

GTX780 gleich schnell wie GTX770? Alles ziemlich merkwürdig.

Sowie ich das sehe, ist die 770er mit 1241 Mhz ziemlich übertaktet, während die 780 fast mit Standard Takt rechnet, dass wäre meine Erklärung.

Knuddelbearli
2015-04-14, 17:57:32
Womöglich klemmt noch Einiges in den Grafiktreibern und/oder dem Spiel selbst. Da müssen wir weitere Treiber/Patches abwarten.

Niemals!!! Nv Treiber sind doch perfekt!

dargo
2015-04-14, 18:13:44
Nvidia muss ihre CPU-Overhead-Optimierungen für jedes Spiel separat anpassen/testn...

Das ist mir alles klar. Mich wundert es halt sehr, dass man bei einem Titel wie GTA V jene Optimierungen noch nicht drin hat, wenn wir jetzt mal davon ausgehen, dass die Ergebnisse der PCGH korrekt sind.


Womöglich funktioniert es bei GTA5 eben nicht.
Warum nicht? In so vielen Games funktioniert es gut und gerade hier nicht? Wäre schon seltsam.

aufkrawall
2015-04-14, 18:57:26
Nvidia muss ihre CPU-Overhead-Optimierungen für jedes Spiel separat anpassen/testn,
Behauptest du einfach. Kein guter Stil...

dargo
2015-04-14, 19:02:50
Behauptest du einfach. Kein guter Stil...
Die Fakten sprechen schon dafür. Musst dir nur mal paar weniger bekannte Spiele oder noch nicht finale Games ansehen. Letztens konnte man das ganz gut in Star Citizen bei der CB beobachten.

aufkrawall
2015-04-14, 19:06:07
Cherry picking? Die haben auch andere early access Spiele getestet, wo es im CPU-Limit mitunter recht deutliche Unterschiede zugunsten NVs gab (Wreckfest, Assetto Corsa, Project Cars...).
Wenn schon bitte möglichst viele "Fakten" miteinbeziehen, und nicht nur ausgesuchte...

Troyan
2015-04-14, 19:06:42
Hier? http://www.computerbase.de/2014-12/early-access-spiele-benchmarks-test/3/#abschnitt_star_citizen

Das ist die Cryengine. Wer weiß, ob dort die Optimierungen überhaupt greifen.

aufkrawall
2015-04-14, 19:08:24
Wer weiß, ob bei so frühen Projektphasen nicht irgendwelche Threads mitunter im Loop Ressourcen für nichts verschwenden, sodass der Overhead gar nicht mehr limitiert...

dargo
2015-04-14, 19:08:43
Cherry picking? Die haben auch andere early access Spiele getestet, wo es im CPU-Limit mitunter recht deutliche Unterschiede zugunsten NVs gab (Wreckfest, Assetto Corsa, Project Cars...).

Weil da schon Optimierungen reingeflossen sind? :uconf2: 1 und 1 wird du wohl noch zusammen zählen können oder?

aufkrawall
2015-04-14, 19:12:24
Weil da schon Optimierungen reingeflossen sind? :uconf2: 1 und 1 wird du wohl noch zusammen zählen können oder?
Das ist genau so ein unbewiesenes Esoterik-Gelaber wie das von fondness.
Spekulationen sind als solche zu kennzeichnen, wenn man keinen BS erzählen will.

dildo4u
2015-04-14, 19:14:47
PCGH hat Titan x noch mal mit freiem boost gebencht und die 980 ist jetzt auch dabei.Interessant wäre wie es mit 1.3Ghz aussieht alle Maxwell Karten mit selbem Takt.

http://abload.de/img/titnaxboqwy.png

tdon
2015-04-14, 19:17:57
Nvidia muss ihre CPU-Overhead-Optimierungen für jedes Spiel separat anpassen/testn, da sie mit den Thread Auslagerungen die DX-Specs verletzen und nicht davon ausgehen können das jedes Spiel dann noch korrekt läuft.


Völliger Blödsinn. Du sinkst immer tiefer.

dargo
2015-04-14, 19:45:02
Das ist genau so ein unbewiesenes Esoterik-Gelaber wie das von fondness.

Bist du heute schwer von Begriff? Wenn die Optimierungen automatisch in jeder D3D11.x-Anwendung drin wären dann würden wir nicht sowas wie in Star Citizen sehen.

PCGH hat Titan x noch mal mit freiem boost gebencht und die 980 ist jetzt auch dabei.
http://abload.de/img/titnaxboqwy.png
Nanu... ich könnte schwören ich hatte vorher dort mit 1075Mhz nur 36 min.fps gesehen. Ist der PCGH da etwa ein Fehler unterlaufen den man ungern zugibt? +19% durch +25Mhz wäre nämlich Hexerei. :tongue:

Coda
2015-04-14, 19:51:38
Die Fakten sprechen schon dafür. Musst dir nur mal paar weniger bekannte Spiele oder noch nicht finale Games ansehen. Letztens konnte man das ganz gut in Star Citizen bei der CB beobachten.
Wer sagt das es der Treiber und nicht das Spiel ist? Das könnt ihr im Einzelfall von außen gar nicht sagen.

Generell kann man schon sagen, das die AMD-Treiber mehr Overhead haben. Das muss oder muss sich nicht bemerkbar machen.

kruemelmonster
2015-04-14, 19:52:40
Bist du heute schwer von Begriff? Wenn die Optimierungen automatisch in jeder D3D11.x-Anwendung drin wären dann würden wir nicht sowas wie in Star Citizen sehen.

Eine Schwalbe macht noch keinen Sommer.

Und, @fondness, für deine Behauptungen hätte ich auch gerne mal eine Quelle, so oft wie du das hier verbreitest.

tdon
2015-04-14, 19:53:53
Bist du heute schwer von Begriff? Wenn die Optimierungen automatisch in jeder D3D11.x-Anwendung drin wären dann würden wir nicht sowas wie in Star Citizen sehen.


Ich würde sagen du bist schwer von Begriff. Von automatisch jeder d3d11 Anwendung war nie die Rede. Generische Verbesserungen für die d3d11 API bringen nicht zwangsläufig in jedem d3d11 Spiel eine Verbesserung. Je nach dem was es für generische Verbesserungen sind, wie die Engine bzw. Spiel davon profitiert und wo die Flaschenhälse liegen. fondness hat seine Agenda im Blick (Stichwort virales Marketing). Typisch das du drauf reinfällst.

dildo4u
2015-04-14, 19:55:30
Eine Schwalbe macht noch keinen Sommer.

Und, @fondness, für deine Behauptungen hätte ich auch gerne mal eine Quelle, so oft wie du das hier verbreitest.
Jup das passt nich dazu das NV bei den Early Access Games vorne ist.

captain_drink
2015-04-14, 20:03:50
Nvidia muss ihre CPU-Overhead-Optimierungen für jedes Spiel separat anpassen/testn, da sie mit den Thread Auslagerungen die DX-Specs verletzen und nicht davon ausgehen können das jedes Spiel dann noch korrekt läuft. Womöglich funktioniert es bei GTA5 eben nicht.

2/10.

Ich vergaß: AMD hat ja ebenfalls Overhead-Optimierungen vorgenommen, die faktisch identische Auswirkungen wie diejenigen seitens NV haben, dort wurden allerdings keine DX-Specs verletzt und zudem gilt die Optimierung generell. Muss man wissen.

Knuddelbearli
2015-04-14, 20:07:52
fondness Behauptung mag zwar Spekulation sein das gegen teil was hier aber alle anderen als Fakt betrachten und verbreiten aber ebenso!

dargo
2015-04-14, 20:09:26
Generell kann man schon sagen, das die AMD-Treiber mehr Overhead haben.
Das weiß ich. Nur sind so Bereiche von sagen wir mal 10-20% für mich noch Mumpitz. Interessant wirds da erst bei 50+%. Teilweise sah man auch schon fast Faktor 2.

Coda
2015-04-14, 20:18:16
NVIDIA verletzt auch keine DX-Specs, woher kommt das Gerücht?

dargo
2015-04-14, 20:22:13
Keine Ahnung, von mir nicht. :)

Ups... sehe gerade, dass ich da wohl zuviel von fondness zitiert habe. Schon korrigiert, sorry. :usad:

Eine Schwalbe macht noch keinen Sommer.

Kannst auch gerne DayZ:
http://www.computerbase.de/2014-12/early-access-spiele-benchmarks-test/2/

und The Talos Priciple:
http://www.computerbase.de/2014-12/early-access-spiele-benchmarks-test/4/

dazu nehmen.

[/Klugscheißermodus Off]

Coda
2015-04-14, 22:32:40
Nagut ok, dann muss halt später bisschen extrem viel Arbeit reingesteckt werden, nur die Frage ist ob sich für Rock* dann noch lohnt, scheint auch ganz ok mit DX11 zu laufen. ;)
Ftfy.

Mit DX12 wird es seine Zeit brauchen bis es wirklich sein Potential erreicht.

Ex3cut3r
2015-04-14, 22:38:47
Ftfy.

Mit DX12 wird es seine Zeit brauchen bis es wirklich sein Potential erreicht.

Ok, hätte ich nicht gedacht, dass es doch so viel Arbeit benötigt. :)

Godmode
2015-04-19, 15:11:36
Lustig das man in Notebooks GTX 980 GPUs mit 8GB Speicher anbietet, auf dem Desktop aber nicht:
http://www.hardwareluxx.de/index.php/artikel/hardware/notebooks/34194-msi-gt80-titan-mit-mechanischem-keyboard-im-test.html?start=3

Raff
2015-04-19, 15:19:14
Die Mobil-Maxwells sind sowieso spannend. Dort gibt's mit der GTX 970M bereits eine "GTX 960 Ti" mit 192-Bit-Speicherschnittstelle. Die GTX 980M mag auch mit 8 GiB (und stets 256 Bit) verfügbar sein, hat aber nur 1.536 ALUs (GTX 970: 1.664) und wenig Takt. Nähme man die GPU-RAM-Kombination der GTX 980M und taktete sie auf 1.200 MHz Basistakt, wäre das die bessere GTX 970 ohne "Segmentation" gewesen.

MfG,
Raff

The_Invisible
2015-04-19, 20:07:36
ja das wärs, eine gtx970 mit 7+1gb und eine gtx980 mit 8gb für jeweils 50eur mehr ;D

Godmode
2015-04-19, 20:11:50
Die Mobil-Maxwells sind sowieso spannend. Dort gibt's mit der GTX 970M bereits eine "GTX 960 Ti" mit 192-Bit-Speicherschnittstelle. Die GTX 980M mag auch mit 8 GiB (und stets 256 Bit) verfügbar sein, hat aber nur 1.536 ALUs (GTX 970: 1.664) und wenig Takt. Nähme man die GPU-RAM-Kombination der GTX 980M und taktete sie auf 1.200 MHz Basistakt, wäre das die bessere GTX 970 ohne "Segmentation" gewesen.

MfG,
Raff

Die wissen schon warum sie das nicht anbieten. Die TX würde sich dadurch wohl schlechter verkaufen.

dargo
2015-04-19, 20:35:16
Die wissen schon warum sie das nicht anbieten. Die TX würde sich dadurch wohl schlechter verkaufen.
Bingo. ;)

aufkrawall
2015-04-19, 20:44:59
Würde sie das wirklich?
Hier läuft bisher alles in WQHD bei spielbaren fps (die für dargo schon 3x zu niedrig wären) völlig hakfrei auf den VRAM bezogen, sofern ich das beurteilen kann.
Bleibt der AFR-Crap und etwas mehr Zukunftstauglichkeit. Letzteres ist aber imho unklug, wenn man das übrige Geld dann stattdessen zeitiger in Pascal stecken würde.

Bleibt natürlich die Verkaufspsychologie: 12 sind viel mehr als 4, ob man das nicht doch gerne hätte?

bertramfx
2015-04-19, 21:21:37
Eben, der Kunde wird gemolken bis zum geht nicht mehr. Alles andere wäre aus Unternehmenssicht auch gar nicht sinnvoll.

Raff
2015-04-19, 21:48:01
Würde sie das wirklich?
Hier läuft bisher alles in WQHD bei spielbaren fps (die für dargo schon 3x zu niedrig wären) völlig hakfrei auf den VRAM bezogen, sofern ich das beurteilen kann.

Gutes Beispiel zum Dran-Aufhängen. :) Drei Nutzer, drei verschiedene Nutzgewohnheiten. Dargo ist der High-Fps-Spieler, worunter zwangsläufig die Auflösung leidet. Das drückt den Speicherbedarf. Du bist mit deinen 1440p schon recht weit oben dabei, gehörst aber auch nicht zur Kernklientel für die Titan X. Hier im Forum laufen ein paar Freaks herum, darunter ich, die noch viel weiter gehen als 1440p. Hätte ich eine Titan X, würde ich sie wieder für meine 3.840 × 2.400 Pixel bei 30-40 Fps nutzen, die ich 2013 und 2014 mit der Titan Classic etabliert habe. Seit Ende 2014 ist das mit dieser Karte aber nur selten möglich, da die neue Generation ganz schön fordert. Nur Speicher hat die Classic noch genug, es fehlt aber an Rechenleistung. Mit der Titan X können Hi-Res-Spieler (= UHD oder mehr) Settings fahren, die mehr als 4 und sogar mehr als 6 GiB belegen. Ob das sinnvoll oder wegen geringer Bildraten augenschmeichelnd ist, steht auf einem anderen Blatt. Für mich ist die Sache klar: Die Titan X ist das Produkt, das ich brauche. Dumm nur, dass Nvidia vergessen hat, dem enthusiastischen Preisschild auch entsprechende Möglichkeiten mit auf den Weg zu geben. Diese Powertarget-Verkrüpplung ab Werk ist einfach unwürdig. Hoffen wir, dass die Modmöglichkeiten dauerhaft bestehen bleiben.

MfG,
Raff

dargo
2015-04-19, 21:55:53
Dargo ist der High-Fps-Spieler, worunter zwangsläufig die Auflösung leidet.
Kleine Richtigstellung am Rande. :) High-FPS-Spieler, sprich 100+fps würde ich nur auf den MP und zwar Shooter beziehen. Im SP eher Medium-FPS-Spieler. Ich komme mit min. ~50fps noch gut klar.

aufkrawall
2015-04-19, 22:00:04
WQHD war nur auf die native Auflösung bezogen, ich nutze natürlich auch DSR und sonstiges AA (etwa 4k in Heroes of the Storm).
Bevor die 980 an zu stocken fängt, ist es eigentlich eh schon immer unspielbar langsam.
Beispiel AC: U: Mehr als WQHD FXAA ist von der Leistung her gar nicht drin, gleiches gilt für GTA V (außerhalb der Stadt keult es). usw. usw.
Bei Watch Dogs 4k kann ich nicht sagen, welche Stocker durch VRAM-Mangel kommen oder durch das Spiel selber, es läuft so oder so beschissen.
Für die Leistung der 980 (OC@1450) passen die 4GB imho ziemlich gut. Einzig Mordor scheint die Ausnahme zu sein (Texturenstreaming "vergessen"? :freak: ).

Godmode
2015-04-19, 22:22:31
Gutes Beispiel zum Dran-Aufhängen. :) Drei Nutzer, drei verschiedene Nutzgewohnheiten. Dargo ist der High-Fps-Spieler, worunter zwangsläufig die Auflösung leidet. Das drückt den Speicherbedarf. Du bist mit deinen 1440p schon recht weit oben dabei, gehörst aber auch nicht zur Kernklientel für die Titan X. Hier im Forum laufen ein paar Freaks herum, darunter ich, die noch viel weiter gehen als 1440p. Hätte ich eine Titan X, würde ich sie wieder für meine 3.840 × 2.400 Pixel bei 30-40 Fps nutzen, die ich 2013 und 2014 mit der Titan Classic etabliert habe. Seit Ende 2014 ist das mit dieser Karte aber nur selten möglich, da die neue Generation ganz schön fordert. Nur Speicher hat die Classic noch genug, es fehlt aber an Rechenleistung. Mit der Titan X können Hi-Res-Spieler (= UHD oder mehr) Settings fahren, die mehr als 4 und sogar mehr als 6 GiB belegen. Ob das sinnvoll oder wegen geringer Bildraten augenschmeichelnd ist, steht auf einem anderen Blatt. Für mich ist die Sache klar: Die Titan X ist das Produkt, das ich brauche. Dumm nur, dass Nvidia vergessen hat, dem enthusiastischen Preisschild auch entsprechende Möglichkeiten mit auf den Weg zu geben. Diese Powertarget-Verkrüpplung ab Werk ist einfach unwürdig. Hoffen wir, dass die Modmöglichkeiten dauerhaft bestehen bleiben.

MfG,
Raff

Seit ich die TX habe, bin ich auch zum Low-FPSler geworden, dafür ist die Auflösung dementsprechend angestiegen. Mit der 980 war das Aufgrund des etwas zu kleinen VRAMs oft nicht so gut möglich. Mit Single TX ist sogar 5K Spielbar, mit SLI flutscht es sogar. Du hast doch den Dell 5K in PCGH 1/2015 getestet. Würdest du mir den Monitor empfehlen, oder würdest du eher zu einem normalen 4K Gerät greifen?

Schaufel789
2015-04-22, 11:45:13
Kurze Rückmeldung .. ich habe nun meine Inno3D GTX 780 Ti durch die MSI GTX 980 Gaming 4G ersetzt und bin voll und ganz zufrieden. Die neue Karte ist für meine Zwecke quasi unhörbar leise (++) und zudem bin ich jetzt auch endlich mein Problem los, welches ich von Anfang an mit einer 780 Ti hatte (halbes Jahr ca.), dass in Spielen wie The Evil Within, Shadow of Mordor oder auch Metro 2033 Redux der PC immer via BlackScreen abgestürzt ist. Alles andere am PC hatte ich eh schon durch getestet, somit konnte es eh nur noch die Grafikkarte sein, was sich nun auch bewahrheitet hat. Die MSI eingebaut, sofort läuft alles wie am Schnürchen. :)

Scheint wohl echt so, als ob meine 780 Ti Karte ein Problem damit hat, wenn die 3gb vram volllaufen .. anders kann ich mir das nicht erklären. Diverse andere Spiele haben im Langzeittest nämlich wunderbar funktioniert (Fallout 3, Fallout New Vegas, Saints Row 3 & 4, Half-Life 2, Dishonored, und weitere..). Hoffe mal, da ich nun den direkten Beweis habe dass es die alte Grafikkarte gewesen ist, dass ich das reklamiert bekomme.

In jedem Fall, besten Dank für den Tipp mit der MSI GTX 980, ein tolles Teil. :)

Raff
2015-04-22, 12:03:58
Seit ich die TX habe, bin ich auch zum Low-FPSler geworden, dafür ist die Auflösung dementsprechend angestiegen. Mit der 980 war das Aufgrund des etwas zu kleinen VRAMs oft nicht so gut möglich. Mit Single TX ist sogar 5K Spielbar, mit SLI flutscht es sogar. Du hast doch den Dell 5K in PCGH 1/2015 getestet. Würdest du mir den Monitor empfehlen, oder würdest du eher zu einem normalen 4K Gerät greifen?

Um ehrlich zu sein: Mir ist 5K auf 27 Zoll einfach zu klein, weil ich mit einem Monitor idR mehr mache als Zocken. Zum Nur-Spielen ist das Ding natürlich sehr geil, allerdings mit Einschränkungen. Da wäre der fiese Preis. Und die Tatsache, dass man zwei DP-Kabel zum Betrieb braucht. Und er spiegelt. Insgesamt würde ich dir eher zum LG 31MU97 (http://www.lg.com/de/monitore/lg-31MU97-B) raten, der hat's mir angetan.

MfG,
Raff

Nightspider
2015-04-22, 12:26:18
Es ist doch sehr wahrscheinlich das Nvidia die GTX980 auch mit 8GB verkaufen wird, sobald AMDs R300 Serie auf den Markt kommt oder?

Chris Lux
2015-04-22, 12:29:32
Um ehrlich zu sein: Mir ist 5K auf 27 Zoll einfach zu klein, weil ich mit einem Monitor idR mehr mache als Zocken. Zum Nur-Spielen ist das Ding natürlich sehr geil, allerdings mit Einschränkungen. Da wäre der fiese Preis. Und die Tatsache, dass man zwei DP-Kabel zum Betrieb braucht. Und er spiegelt. Insgesamt würde ich dir eher zum LG 31MU97 (http://www.lg.com/de/monitore/lg-31MU97-B) raten, der hat's mir angetan.
Ich habe mir den Dell für die Arbeit angeschafft. Dafür finde ich 27" sehr gut, ich möchte den Kopf nicht drehen müssen beim coden ; ). Die Schärfe ist einfach zu gut und ich komme sogar mit kleineren Fonts beim Arbeiten besser zurecht (weil einfach scharf) und bekomme somit sogar mehr auf den Screen.

Chris Lux
2015-04-22, 12:30:48
Es ist doch sehr wahrscheinlich das Nvidia die GTX980 auch mit 8GB verkaufen wird, sobald AMDs R300 Serie auf den Markt kommt oder?
https://forum.beyond3d.com/threads/nvidia-maxwell-speculation-thread.50568/page-169#post-1838885

Wenn die 980Ti so kommt wird sie blind bestellt ; )

Hübie
2015-04-22, 12:36:51
Es ist doch sehr wahrscheinlich das Nvidia die GTX980 auch mit 8GB verkaufen wird, sobald AMDs R300 Serie auf den Markt kommt oder?

Nö. Und darauf kannst du ein lassen.

@Chris Lux: Geh mal eher von 699 aus ;)

Raff
2015-04-22, 12:53:17
Ich würde sogar eher von 799 ausgehen (lascher Euro und so). Gute 980er mit 4 GiB kosten schon 600 Euro, da werden sie die 980 Ti wohl kaum für 700 "verschenken".

MfG,
Raff

Godmode
2015-04-22, 12:58:15
Um ehrlich zu sein: Mir ist 5K auf 27 Zoll einfach zu klein, weil ich mit einem Monitor idR mehr mache als Zocken. Zum Nur-Spielen ist das Ding natürlich sehr geil, allerdings mit Einschränkungen. Da wäre der fiese Preis. Und die Tatsache, dass man zwei DP-Kabel zum Betrieb braucht. Und er spiegelt. Insgesamt würde ich dir eher zum LG 31MU97 (http://www.lg.com/de/monitore/lg-31MU97-B) raten, der hat's mir angetan.

MfG,
Raff

Danke. Hab eh schon den Asus PB279Q bestellt, der war ja bei euch Testsieger und auch auf andern Seiten hat er sehr gut abgeschnitten.

fondness
2015-04-22, 14:56:43
Um ehrlich zu sein: Mir ist 5K auf 27 Zoll einfach zu klein, weil ich mit einem Monitor idR mehr mache als Zocken.

Das ist dann höchstens eine OS-Einschränkung die mit Win10 hoffentlich verschwindet.

Coda
2015-04-22, 15:14:39
Was? Das DPI-Scaling? Da müssen auch die Applikationen mitmachen leider.

robbitop
2015-04-22, 15:15:55
Jap - da hat sich in Win10 praktisch nichts geändert.

phoenix887
2015-04-22, 15:29:18
https://forum.beyond3d.com/threads/nvidia-maxwell-speculation-thread.50568/page-169#post-1838885

Wenn die 980Ti so kommt wird sie blind bestellt ; )

Nette Karte. Dann bitte noch im Hybrid Design von Inno3D:freak:

@Raff

Danke an dir und dein Team für die gute Mod-Anleitung in der aktuellen PCGH. Bekomme meine Karte so stabil auf 1580mhz. Lasse sie aber auf 1550mhz laufen, als Puffer.

Raff
2015-04-22, 21:13:24
Bitte, gerne. :D

1.550 MHz, hm? Okay, dann ist das nur ein leichtes Downgrade ausgehend von der Black. ;)

MfG,
Raff

phoenix887
2015-04-22, 21:56:30
Würde gerne 1 VRAM Chip bei der Black abmachen und auf die GTX 980 kleben:D Aber das war es mir die Lautstärke wert. Wirkliche eine wohltat

die Spannung im Mod Bios habe ich nie angepasst, aber wie in eure Anleitung beschrieben durchgeführt, ist somit stabil. Wird ja 1,306 eingestellt. Im OSD wird mir aber 1,275 angeziegt. Was liegt jetzt wirklich an.


Aber ist ja nur eine Übergangskarte, bis Inno3D die in diesem Design die Titan X oder eine Ti rausbringt.

Raff
2015-04-23, 21:19:11
Mehr als 1,274 Volt werden nicht gefressen, egal was im BIOS steht. Die Info müsste aber auch irgendwo im Artikel und/oder Begleitvideo stecken. :)

MfG,
Raff

Air Force One
2015-04-23, 23:33:24
Und warum wird es eingestellt?
Nicht böse gemeint, nur interessiert.
Hab meine BIOS schon gemodet...
übertaktet und undervoltet.

Oder muss ich für diese Info das Heft kaufen? Hrhr

Hübie
2015-04-24, 03:06:49
Würde gerne 1 VRAM Chip bei der Black abmachen und auf die GTX 980 kleben:D Aber das war es mir die Lautstärke wert. Wirkliche eine wohltat

die Spannung im Mod Bios habe ich nie angepasst, aber wie in eure Anleitung beschrieben durchgeführt, ist somit stabil. Wird ja 1,306 eingestellt. Im OSD wird mir aber 1,275 angeziegt. Was liegt jetzt wirklich an.


Aber ist ja nur eine Übergangskarte, bis Inno3D die in diesem Design die Titan X oder eine Ti rausbringt.

Wie? Was? Ist die Black im Eimer? :frown:

Edit: Okay habe deinen Thread jetzt erst gesehen. Wenn du magst kannst mir die Karte schicken. Ich seh mal was ich machen kann. Bring die dann ins Labor und lass die von den Jungs mal checken. Falls interesse -> PN.

phoenix887
2015-04-24, 04:55:44
Mehr als 1,274 Volt werden nicht gefressen, egal was im BIOS steht. Die Info müsste aber auch irgendwo im Artikel und/oder Begleitvideo stecken. :)

MfG,
Raff

Im Artikel habe ich nichts gelesen. Video weiss ich nicht. Kaufe mir immer die Version ohne DvD. Muss ja jeden Euro für die Titan X sparen;D

@Hübie

Nein funktioniert ohne Probleme. Wurde mir nur in meinem neuen System zulaut. Da ich aber selber keinen Kühler mehr wechseln will, weil ich so damals meine Titan X geschrottet habe, habe ich mir eine GTX980 mit vorinstallierten AiO gekauft und bin begeistert.

Welches Labor? Welche Jungs?

Hübie
2015-04-24, 08:41:30
Ach es ging um die Titan X. Dann is ja alles gut :up: Wir haben ein gut ausgestattes Labor mit Bestückungsautomaten etc. Da hätte ich deinen Titanen zur Analyse und ggf. Reparatur abgegeben. ;)

phoenix887
2015-04-24, 10:16:42
Ach es ging um die Titan X. Dann is ja alles gut :up: Wir haben ein gut ausgestattes Labor mit Bestückungsautomaten etc. Da hätte ich deinen Titanen zur Analyse und ggf. Reparatur abgegeben. ;)

Ok. Werde ich im Hinterkopf behalten;)

F5.Nuh
2015-04-24, 23:28:19
Da ich ja ausschau halte nach einer neuen Grafikkarte tendierte ich zu einer GTX 980.

Ich habe es nicht eilig, da ich noch eine riesen Steam To-Zock Liste habe :freak: aber GTA 5 und Witcher 3 stehen auf der Liste und von Tag zu Tag wandern die beiden nach oben :freak:

Habe mich ein bischen über die GTX 980 Ti informiert. Die soll ja ca. Mitte - Ende Mai vorgestellt werden. Und die neue Radeon Serie Juni.

Hat einer von euch den Release der GTX 780Ti verfolgt und konnte ein Preisnachlass der vorherigen Karten sehen?

Hätte gerne die GTX 980... die waren mal ca. auf 450€ schwacher Euro sei dank inzwischen 500 - 550€.

Kann ich ein etwas stärkeren Nachlass erwarten mit der neuen GTX 980Ti und den neuen AMD Karten bei der GTX 980.

Raff
2015-04-24, 23:30:15
Ich denke nicht, dass die neuen Karten große Auswirkungen auf die Preise haben, da sie Segmente darüber bedienen werden (~700-800 Euro). Halte einfach Ausschau nach gebrauchten 980-ern. Es gehen immer wieder ordentliche Modelle um 450 Euro weg, auch hier im Forum vereinzelt.

MfG,
Raff

F5.Nuh
2015-04-26, 00:50:02
Nette Karte. Dann bitte noch im Hybrid Design von Inno3D:freak:

@Raff

Danke an dir und dein Team für die gute Mod-Anleitung in der aktuellen PCGH. Bekomme meine Karte so stabil auf 1580mhz. Lasse sie aber auf 1550mhz laufen, als Puffer.

Merkst du die Taktrate deutlich bei diversen Spielen.

Habe auf Raff gehört und mir eine MSI GTX 980 4G hier im Forum geholt. Denke jetzt schon nach ob ich die Karte übertakten sollte. :freak:

aufkrawall
2015-04-26, 01:03:30
Deine MSI taktet ja schon mit 13xx. Meist gehen da noch mindestens 100Mhz mehr + VRAM (ca. +350-500). Ist nicht die Welt, aber 10-15% mehr fps sind auch nicht zu verachten, zumal der Stromverbrauch ja immer noch sehr human ist.

F5.Nuh
2015-04-26, 01:06:33
Deine MSI taktet ja schon mit 13xx. Meist gehen da noch mindestens 100Mhz mehr + VRAM (ca. +350-500). Ist nicht die Welt, aber 10-15% mehr fps sind auch nicht zu verachten, zumal der Stromverbrauch ja immer noch sehr human ist.

Teste ich die Taktraten mit dem MSI-Afterburner? Bin schon raus aus der ganzen sache... seit ca. 2 jahren ist mein System aufgerüstet und läuft mit einer HD 5850 Toxic von Sapphire.

Ich blick ja schon nicht mehr durch bei den ganzen Einstellungen... MXSAA MAAH usw. :freak::uclap:

aufkrawall
2015-04-26, 01:11:33
Testen musst du mit Spielen. Setzen kannst du die Taktraten mit Afterburner, klar. Lass dir mit dessen OSD ruhig die Takraten in Spielen anzeigen und fuchs dich da am besten wieder rein (so schwer isses nicht).

phoenix887
2015-04-26, 12:13:03
Merkst du die Taktrate deutlich bei diversen Spielen.

Habe auf Raff gehört und mir eine MSI GTX 980 4G hier im Forum geholt. Denke jetzt schon nach ob ich die Karte übertakten sollte. :freak:

Ja merke ich schon. Aber nur wenn ich das OSD anhabe. Durch Gsnyc merke ich die Schwankungen, nicht mehr so sehr.

Kann dir nur die aktuelle PCGH empfehlen. Da wird sehr gut erklärt, wie das mit ModBios funktioniert. Dann haste die OC Werte im Bios und hast keine Programme mehr im Hintergund laufen. So kommste dann fast an eine Titan X im Standardtakt dran, laut PCGH. Aber bitte dann den ganzen Text lesen und nicht nur Bilder angucken.:biggrin:

Kannst aber auch das Heft mit DVD kaufen, da haben die ein halbstündiges Video drauf, indem sie nochmal alles erklären.

Denn manche Spiele, machen Probleme mit Afterburner.

Aber ich kenne den MSI Kühler nicht. Weiss dann nicht ob er die 1550 bei dir auch halten kann. Dank Hybrid S habe ich auch keine Temperaturlimitierung, da maximal 60 Grad auf dem GPU enstehen.

gnomi
2015-04-26, 12:28:53
Auf jeden Fall OC bei der 980.
Selbst die Referenz Versionen wirken total gedrosselt und bei den sehr guten Custom Karten geht ja noch einiges mehr.
Der Stromverbrauch explodiert imho auch nicht groß.
30-40 Watt für 15% Performance vielleicht.
Der Speicher muss aber auch sinnig mit hochgezogen werden und es darf halt zu keinen Fehlern kommen.
Damit ist man immer noch eher unter dem Niveau der letzten Generation. (680)

aufkrawall
2015-04-26, 13:54:55
Mod-Bios würd ich ohne WK nicht machen, lohnt sich nicht. Genau so wenig wie Spannungserhöhung. Wenn man mit dem Inspector übertaktet, läuft nichts im Hintergrund. Die MSI bietet mit dem Standard-Bios ein ausreichend hohes maximales Powertarget für OC.

phoenix887
2015-04-26, 15:27:27
Hattest Ja die MSI. Dann würde ich auf Aufkrawall hören. Bei mir ist es halt ein sonderfall mit AiO.

aufkrawall
2015-04-26, 16:53:48
Damit würd ich das auch auf jeden Fall machen.
Bei der MSI sind die VRMs auch nicht über den Hauptkühlkörper mitgekühlt, also nur per draufgeklebtem Gebrösel. Entsprechend heiß werden sie, was nicht zwangsweise schlimm sein müsste. Jedoch dreht das dämliche MSI-Bios den 2. Lüfter für die VRMs unschön auf.
Schade, dass die PCGH so etwas empfiehlt. MSI bräuchte eigentlich einen medialen Arschtritt dafür...

Raff
2015-04-26, 17:23:38
Schade, dass die PCGH so etwas empfiehlt. MSI bräuchte eigentlich einen medialen Arschtritt dafür...

Ich denke, dass du einfach zu anspruchsvoll hinsichtlich Herstellerdesigns bist, so lesen sich deine Kritiken zu ansich leisen Karten zumindest. Eventuell hattest du auch immer Pech mit Montagskarten, aber das ist unwahrscheinlich. Ich habe selbst eine MSI GTX 980 Gaming 4G im Zweitrechner und sie gefällt mir immer noch sehr gut. Das ist kein flüsterleiser PC (einige Gehäuselüfter), aber die Grafikkarte gehört zu den leisen Komponenten. Erstmals richtig gehört habe ich sie erst nach der BIOS-Modifikation: 1,274 Volt und nutzbare 1.550 MHz statt 1,243 Volt und 1.500 MHz führen in der Tat zu hörbaren Lüftern. Und? Trotzdem ist das eine der besten 980-Karten.

MfG,
Raff

aufkrawall
2015-04-26, 18:20:51
Ich erwarte, dass ich die Karte ähnlich leise wie die MSI 970 betrieben kann, und das ist um Längen nicht möglich.
Hat nichts mit Montagsmodell zu tun, es liegt am Bios. Hast du das Problem überhaupt verstanden?
Der zweite Lüfter dreht Minuten lang nach, wenn die VRMs einmal heiß waren, und das unangenehm hörbar.
Macht die 970 nicht, macht Asus nicht, macht Palit nicht, macht EVGA nicht.