PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Performanceunterschied 970 vs 980 zu gering


Mad-Marty
2014-10-13, 22:28:47
Hi,

wundert es eigentlich noch jemand,
das der Performanceunterschied nur 10 % sind obwohl die 970 nur 80 % der
Cores hat (1664 vs 2048).
Dazu noch weniger Takt ... warum also ist sie nicht wirklich um die 20 % langsamer ...

Gibts dazu schon irgendwelche erkenntnisse?
Irgendwie wäre das erste was mir einfällt, das die 980 stalled,
aber das wäre jetzt irgendwie unerwartet ...

Rebell
2014-10-13, 22:49:46
ich glaube nicht dass es immer nur diese 10% sind ;)

ChaosTM
2014-10-13, 22:54:11
Bei UHD oder 1440p mit DS ist die 980 auch ca. 20% schneller.

Gast
2014-10-14, 00:00:14
Hi,

wundert es eigentlich noch jemand,
das der Performanceunterschied nur 10 % sind obwohl die 970 nur 80 % der
Cores hat (1664 vs 2048).
Dazu noch weniger Takt ... warum also ist sie nicht wirklich um die 20 % langsamer ...

Gibts dazu schon irgendwelche erkenntnisse?
Irgendwie wäre das erste was mir einfällt, das die 980 stalled,
aber das wäre jetzt irgendwie unerwartet ...

- GTX980 (lohnt sich eig. nur als SLi) 1440p + SSAA
- GTX970 ist die 7970 Ghz Edition von Nvidia mit der Performance einer 290x

... beide haben aber eine mickrige Vram Ausstattung, die GTX970 + 4Gb vram duerfte schnell an ihre Grenzen stossen (siehe SoM and GTA5 next year, GTA5 1080p + 4x MSAA oder SSAA > hardware killer), die 980 hat auf Grund der extra Power mehr Spielraum...aber im Grunde sind beide bloss "Lueckenfueller", nur um schnell Kohle zu machen (wie mit der 265 - 280x/285 Reihe von AMD). Auf die richtigen Nachfolger (r9 390x, GM200 real one) muessen wir nicht mehr lange warten...

Gast
2014-10-14, 00:03:42
.... sind beide bloss "Lueckenfueller", nur um schnell Kohle zu machen (wie mit der 265 - 280x/285 Reihe von AMD).

Der Unterschied ist, dass AMD bereits Ende 2013? Anfangs 2014 ihre R9200 Reihe vorgestellt bzw. angeboten hat. Nvidia erst kuerzlich nachgezogen hat, eigentlich viel zu spät.

dildo4u
2014-10-14, 00:18:25
Sind genau 20% in kompletten GPU Limit.

http://www.computerbase.de/2014-10/3dmark-jetzt-mit-fire-strike-in-ultra-hd/

aufkrawall
2014-10-14, 00:49:56
Blödsinn, das schwankt von Anwendung zu Anwendung.

ChaosTM
2014-10-14, 00:55:09
Bei UHD sind es Immer ziemlich genau 20%.

aufkrawall
2014-10-14, 00:59:20
Nein:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980/21.html
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980/7.html
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980/8.html

Abgesehen davon ist kein Benchmark taktnormiert. Nicht vergessen, dass sich die 980 auch mehr Strom gönnen darf.

Sie skaliert außerdem etwas schlechter mit dem Takt und lässt sich offenbar auch etwas schlechter takten.

Gast
2014-10-14, 01:37:38
außerdem etwas schlechter mit dem Takt und lässt sich offenbar auch etwas schlechter takten.
Nein, als stärkste 970 Referenz dürfte die MSI gelten (OC=@1454, Boost 1504Mhz) die Standard 980 geht mit PT120% bis 1515Mhz, Boost höher.

Natürlich ist die 980 vom Preis-/Leistungsverhältnis her der 970 und das was sie letztendlich bietet unterlegen. Dürfte reine Enthusiastenware sein.

aufkrawall
2014-10-14, 01:50:47
Die 980 lässt sich offenbar meist weniger stark übertakten als die 970.

Thunder99
2014-10-14, 13:54:23
Jetzt werden schon 4GB als Krüppel bezeichnet :hammer:. Es ist genau die richtige Größe für die meisten kommenden Anwendungen! Die Entwickler werden wohl kaum massenhaft Spiele entwickeln die >4GB benötigen wenn du sehr wenige so eine Karte besitzen (Titan ect.)

robbitop
2014-10-14, 16:59:18
Watchdogs und Shadows of Mordor profitieren von 6 GiB. Erfahrungsgemäß wird VRAM Bedarf nicht besser. Historisch war es immer so, dass immer mehr Titel folgten, welche bei höchsten Textursettings profitieren.

dargo
2014-10-14, 17:20:11
Watchdogs würde ich da gar nicht bewerten, das Ding ist mit Ultra Texturen immer noch kaputt. Da helfen dir auch kein 8GB Vram. Die Stotterer bleiben.

aufkrawall
2014-10-14, 17:29:07
Shadows of Mordor ist übrigens bald auch für LastGen erhältlich, genau wie Watch Dogs.
Ob echte NextGen only-Titel wirklich so viel VRAM benötigen, muss sich erst noch zeigen. AC: U steht vor der Tür.

robbitop
2014-10-14, 20:49:43
Das wird schon so kommen. Es war bisher immer so. VRAM Bedarf stieg immer weiter. Da kann man in jede Generation zurückblicken. Vor einem Jahr hieß es noch, dass 2 GiB ausreichen. ;)

dargo
2014-10-14, 20:52:41
Das wird schon so kommen. Es war bisher immer so. VRAM Bedarf stieg immer weiter. Da kann man in jede Generation zurückblicken. Vor einem Jahr hieß es noch, dass 2 GiB ausreichen. ;)
Stell dir vor Ryse ist Next-Gen only und kommt dank sehr gutem Streaming mit nur 2GB in Full-HD aus laut Coda. Ich sehe das wie aufkrawall. Mit den neuen Konsolen kommen auch bessere Streamingalgorithmen dazu, schließlich ist die Leistung auch gestiegen und die Entwickler lernen immer dazu.

robbitop
2014-10-14, 21:40:45
Ich werde dich in einem Jahr erinnern, wenn 4 GiB in immer mehr Spielen nicht mehr für Ultra Texturen reichen wird. ;)

Sorry aber da kannst du sagen, was du willst. Es ist Generation für Generation und Jahr für Jahr das gleiche. VRAM Bedarf steigt. Und das seit dem es Grafikkarten gibt. Das wird diesmal nicht anders werden.

edit: zumal Ryse kein sinnvoller Vergleich ist. Das ist ein Schlauch. Open World benötigt mehr VRAM.

Max944
2014-10-15, 18:37:35
... als stärkste 970 Referenz dürfte die MSI gelten (OC=@1454, Boost 1504Mhz)

Die MSI throttled ab ca. 1500 MHz weil das power limit von 220 Watt erreicht wird. Die Gigabyte G1 ist nach dieser Tabelle (http://ht4u.net/news/30101_geforce_gtx_970_grafikkarten_-_ein_derzeitiger_marktueberblick_mit_details/) zur Zeit die stärkste 970, wegen der großzügigen TDP von 280 Watt (OC Boost = 1550Mhz bis 1580 MHz)

aufkrawall
2014-10-15, 18:46:17
Meine Asus wurde mit 196W PT@1,5Ghz in Spielen nur gering gedrosselt, da sollte es keine fühlbare Drosselung der MSI mit 220W bei Spielen geben.

Tzunamik
2014-10-16, 09:57:20
Wie lest ihr das Powertarget aus? Gibt es da schon tools?

Geldmann3
2014-10-16, 16:42:19
Ich werde dich in einem Jahr erinnern, wenn 4 GiB in immer mehr Spielen nicht mehr für Ultra Texturen reichen wird. ;)

Sorry aber da kannst du sagen, was du willst. Es ist Generation für Generation und Jahr für Jahr das gleiche. VRAM Bedarf steigt. Und das seit dem es Grafikkarten gibt. Das wird diesmal nicht anders werden.

edit: zumal Ryse kein sinnvoller Vergleich ist. Das ist ein Schlauch. Open World benötigt mehr VRAM.
Genau das ist das Problem, warum 2 GTX 980 für mich gerade nicht in Frage kommen. Habe darüber nachgedacht, meine 2 R9 290 zu tauschen. Von der Leistung her würde es mir zwar locker für Jahre genügen doch vor 8GB Vram tausche ich gar nix mehr. Und natürlich, weil es noch dazu sau teuer wäre. :wink:

robbitop
2014-10-16, 16:58:55
Ich habe seit kurzem ein Titan SLI System. Kurz gesagt: Ich würde jedem von SLI/CF abraten. Fürchterlich. Man ist ständig auf Profile angewiesen. Viele neuen Spiele unterstützen es entweder nicht oder es gibt keine Profile und es werden auch keine nachgeliefert. Die Community probiert dann irgendwelche SLI Bits aus und am Ende muss man oft einen Kompromiss aus Bildfehlern oder niedrigen Zugewinnen leben.

Beispiele: Watch Dogs oder Shadows of Mordor. Selbst Titel, die im NVIDIA Programm sind haben manchmal keine richtige SLI Unterstützung.

Alphatier und Coda haben ja aus Sicht der Entwickler mal aus dem Nähkästchen geplaudert, dass meist keine Zeit und kein Geld für mGPU Support eingeplant wird.

Und eine native Unterstützung wird mit zunehmender Komplexität der Renderpipelines immer wichtiger. Analog zu (echtem!) Antialiasing. Früher konnte man (echtes!) AA und auch AFR einfach so im Treiberpanel forcieren und es funktionierte in jedem Spiel. Die Zeiten sind vorbei.

Mein Fazit: Nie wieder AFR :down:

aufkrawall
2014-10-16, 17:02:53
Dit hatte ich hier mehrfach und lautstark postuliert, als ich vor nem halben Jahr mein AFR aufgelöst hab.
Es ist einfach nur noch kompletter Crap, rausgeworfenes Geld für Frust. Es ist immer schlimmer geworden.

dargo
2014-10-16, 17:05:52
@robbitop

Jetzt weißt du warum ich nie mehr als eine Karte verwende. ;) Und so rückt 4k noch stärker in weite Ferne. Aber danke für die Info, das sollte einige andere wachrütteln. :)

Geldmann3
2014-10-16, 17:08:37
Also ich bin mit meinen 2 R9 290 zufrieden. Habe aber wohl Glück mit den Sachen die ich zocke. Black Flag hat mich nur aufgeregt, da will CF bei mir überhaupt nicht. Zocke aber auch meist nicht das neueste. War eigentlich positiv überrascht, wie viele Games da mitmachen, auch wenn es manchmal zu Problemen kommt. 60% von dem was ich zocke ist noch DX9 oder niedriger...

Muss aber dazu anmerken, dass ich eigentlich immer mit Vsync + 30 oder 60 FPS cap zocke.

Seth
2014-10-16, 17:40:22
Du spielst alte games mit 60 oder gar 30fps lock? Wozu dann CF? :freak:

Geldmann3
2014-10-16, 18:21:23
Wenn die interne Auflösung hoch genug ist, kriegen auch alte Games mein System in die Knie. Dank GeDoSaTo funktioniert DS unter DX9 nun ja ziemlich gut. Auch Mods können ziemlich reinhauen.

Blaire
2014-10-16, 18:54:04
Ich habe seit kurzem ein Titan SLI System. Kurz gesagt: Ich würde jedem von SLI/CF abraten. Fürchterlich. Man ist ständig auf Profile angewiesen. Viele neuen Spiele unterstützen es entweder nicht oder es gibt keine Profile und es werden auch keine nachgeliefert. Die Community probiert dann irgendwelche SLI Bits aus und am Ende muss man oft einen Kompromiss aus Bildfehlern oder niedrigen Zugewinnen leben.

Beispiele: Watch Dogs oder Shadows of Mordor. Selbst Titel, die im NVIDIA Programm sind haben manchmal keine richtige SLI Unterstützung.

Sind keine wirklichen Kontra-Argumente , das AFR-SLI stets Profile erfordert, es nicht immer unproblematisch ist, sind nicht neu und hätte dir schon vor dem Kauf klar sein müssen. Entweder man kann sich damit engagieren oder nicht, so einfach ist das. Zumal es keine reinen SLI-Probleme sind. Ein WatchDogs ruckelt auf SingleGPU genauso, ein Ryse krankt ebenso an Grafik und weiteren Fehlern... alles SLI anzukreiden ist da ziemlich verfehlt. Stellt sich da nich eher die Frage, warum die Qualität insgesamt, am PC so stark nachgelassen hat, Schlampigkeit immer mehr Einzug hält (Termindruck?), die Möglichkeiten des PC nicht voll ausgeschöpft und nette bewährte Features auf der Strecke bleiben? Genau das! Die Konsolen sind der Hauptgrund warum der PC gebremst wird, lästige FPS-Caps, PP-AA oder beschränkte Einstellmöglichkeiten sind da nur ein paar Beispiele. Auch DX12 wird daran sehr wenig ändern, die Konsolen sind bis dahin längst weit überholt, welche sich sich dann langfristig erneut als technologischer Bremsklotz für den PC erweisen werden.

robbitop
2014-10-16, 19:07:55
Sind keine wirklichen Kontra-Argumente , das AFR-SLI stets Profile erfordert, es nicht immer unproblematisch ist, sind nicht neu und hätte dir schon vor dem Kauf klar sein müssen.
Das war mir klar. Aber ich bin davon ausgegangen, dass es für alle neuen Spiele von NV spätestens ein paar Monate nach Erscheinen ein Profil gibt.
Und das entspricht nicht der Realität.
Bei AMD ist es sicher nicht besser.

Aber IMO zählt halt der Nutzwert und das Erlebnis. Wenn ich viel Geld für mGPU ausgebe, erwarte ich, dass es (zumindest mittelfristig) bei jedem Spiel läuft.
Fix ein passendes Profil raussuchen ist kein Problem. Wenns aber kein vernünftiges gibt. Was dann?

Entweder man kann sich damit engagieren oder nicht, so einfach ist das. Zumal es keine reinen SLI-Probleme sind. Ein WatchDogs ruckelt auf SingleGPU genauso, ein Ryse krankt ebenso an Grafik und weiteren Fehlern... alles SLI anzukreiden ist da ziemlich verfehlt. Stellt sich da nich eher die Frage, warum die Qualität insgesamt, am PC so stark nachgelassen hat, Schlampigkeit immer mehr Einzug hält (Termindruck?), die Möglichkeiten des PC nicht voll ausgeschöpft und nette bewährte Features auf der Strecke bleiben? Genau das! Die Konsolen sind der Hauptgrund warum der PC gebremst wird, lästige FPS-Caps, PP-AA oder beschränkte Einstellmöglichkeiten sind da nur ein paar Beispiele. Auch DX12 wird daran sehr wenig ändern, die Konsolen sind bis dahin längst weit überholt, welche sich sich dann langfristig erneut als technologischer Bremsklotz für den PC erweisen werden.
Die Ursache liegt, wie sehr oft, am Studio bzw an den Vorgaben des Studios.
Die Studios geben einfach ungern Geld aus für etwas, was nur ein Kleinstanteil des Käufermarktes benutzt.

Von den IHVs erwarte ich, wenn sie schon Geld in die Studios pumpen (für die "Partnerprogramme"), dann bitte auch um deren Enthusiasttechnologien (mGPU) Unterstützung einzubauen. Aber leider Fehlanzeige. IMO vergrault man damit die Enthusiasten, die bereit sind, für Leistung auch richtig zu bezahlen. Gute Taktik. :eek:

Ich laste das nicht unbedingt NV an. Mir ist auch ehrlich gesagt für meine Aussage vollkommen egal, wer Schuld daran ist. Aber die Aussage, dass AFR nicht besonders gut ist, ziehe ich nicht zurück.
Ich bin nicht gerade ein unversierter User. Man stelle sich vor, wie Max Mustermann damit klar käme. ;)

Rebell
2014-10-16, 19:26:06
hab ja seit kurzem auch mein erstes SLI, die Profile könnten besser sein und viel schneller verfügbar sein, aber wenn man in Kauf nimmt, mit dem Inspector auch mal selbst Hand anzulegen, dann geht es schon in Ordnung.
Für "out of the box user" aber ein wirkliches Nogo, v.a wenn man aktuelle Spiele sofort nach Release spielen will.

Mir persönlich brachte es fast immer einen großen Vorteil. Habe eine recht hohe Auflösung von 3440x1440 und nutze auch gern DSR, oder viel AA, versuche aber primär 60fps zu bekommen im Vsync.

Zuletzt gespielt oder probiert:
MaxPayne3 -> perfekte SLI Skalierung
Mittelerde Shadow of.. -> nachhelfen müssen, aber mit Single Karte hätte ich 60fps vergessen können. Die hatte ich aber sehr oft, bis auf Framedrops in den Kämpfen

Alien -> hier kann ich DSR nutzen, spiele mit 5000er Auflösung, sieht perfekt aus, 60fps
Borderlands Pre.. -> Hier geht SLI sofort, gleiche Engine wie die Vorgänger

Fallout3 -> spiele ich mit 8x Supersampling


Ich bin nicht zufrieden, weil Nvidia die Profile ganz schön vernachlässigt in letzter Zeit, konnte aber aus den meisten Spielen bisher einen Mehrwert für mich ziehen.

robbitop
2014-10-16, 19:33:25
:rolleyes: Es geht nicht um den Inspector. Profile einzustellen ist schon ok. Es gibt bei neueren Spielen oftmals schlicht keine fehlerfreien.

Coda
2014-10-19, 15:03:26
Alphatier und Coda haben ja aus Sicht der Entwickler mal aus dem Nähkästchen geplaudert, dass meist keine Zeit und kein Geld für mGPU Support eingeplant wird.
Ich hatte nur gesagt, dass es sich eigentlich nicht lohnt. Es gibt noch andere Gründe.

Seph
2014-10-19, 18:22:15
Meine MSI läuft stable mit +140 und +500, also 8000mhz aufm Speicher. Wieviel mehr brauche ich noch, um auf 980er Niveau zu kommen? Firemark sind so 12600 Points.

-/\-CruNcher-/\-
2014-10-19, 18:28:24
Ich hatte nur gesagt, dass es sich eigentlich nicht lohnt. Es gibt noch andere Gründe.

Jo z.b leute die glauben mit Sli System im Mulitplayer ganz vorne zu stehen ;)

Grestorn
2014-10-19, 18:49:51
Jo z.b leute die glauben mit Sli System im Mulitplayer ganz vorne zu stehen ;)

Was Quatsch ist, da SLI eher zusätzliche Latenz erzeugt. Für die Extrem Online Sportler ein no-go...