PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 980 und GTX 970: (P)Review-Thread


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

aufkrawall
2014-09-20, 17:00:00
Er könnt schon sagen, was ihm nicht gefällt, anstatt substanzlos rumzumäkeln.

Was ist denn jetzt eigentlich mit der Tonga-Filterung?
Sonst sag ich auch was Unnettes. :D

dildo4u
2014-09-20, 17:02:07
Suche gerade irgendwie Gründe mir eine GtX 970 zu kaufen....

Mir fehlen nur ein bisl die Games, die de Power auch wirklich Brauchen in Full HD.

Oder zockt ihr schon alle in 4K?
Die Games kommen und ich glaub nicht das die 970 so schnell viel billiger wird.
Nvidia hat Far Cry 4 und AC Unity gezeigt die Tesselation für die Umgebung und Fell nutzen,das dürfte stark auf die GPU gehen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10356240&postcount=73

http://imagescdn.tweaktown.com/news/4/0/40236_11_nvidia_is_powering_far_cry_4_with_hbao_god_rays_fur_and_much_more.jpg

So arbeitet Hairworks.
NVIDIA HairWorks was used for the dynamic fur simulation of Riley and the wolves. Each fur asset has about 400-500K hair strands. Most of these hairs are dynamically created on the fly inside GPU from roughly 10K guide hairs that are simulated and provide basis for further tessellation.

https://developer.nvidia.com/hairworks

Marty98
2014-09-20, 17:02:32
Das ist echt ein cooles Feature.
Habe es mir gerade einmal durchgelesen.

Wann wird eigentlich MFAA verfügbar sein?

In 2 Wochen.

Liquaron
2014-09-20, 17:06:32
Mal eine richtig noobige Frage.... Dsr funktioniert doch auch mit meinem 21:9 Monitor, oder?

Checkt das der Treiber?

Nicht, dass er mir nur die regulären Auflösungen anzeigt.

Knuddelbearli
2014-09-20, 17:08:05
Gibt es spielepackete zu Maxwell?

derguru
2014-09-20, 17:15:19
Na wie viel FPS hast du denn nun bei 4K und 5K in Diablo 3?


selbst im Menü sind es nur um die ~30 fps.

Suche gerade irgendwie Gründe mir eine GtX 970 zu kaufen....

Mir fehlen nur ein bisl die Games, die de Power auch wirklich Brauchen in Full HD.

Oder zockt ihr schon alle in 4K?
nichts für ungut aber die power ist nicht grösser als bei der alten Generation, also alles bleibt beim alten. die positiven Merkmale sind verbrauch, preis , +1gb RAM und DSR.

Raff
2014-09-20, 17:18:57
Ich werd die Tage mal schauen, was eine GTX 980 @ 1.500/4.000 MHz gegen meine Titan @ 1.200/3.600 MHz ausrichten kann. Bis auf die Leistungsaufnahme sehe ich derzeit keinen Sieger, tendiere aber zur Titan. Mod-BIOSe für GM204 könnten den Spieß umdrehen. :naughty:

Was ist denn jetzt eigentlich mit der Tonga-Filterung?
Sonst sag ich auch was Unnettes. :D

Das plötzliche Auftauchen von GM204 hat alle Pläne umgeworfen.

MfG,
Raff

Nightspider
2014-09-20, 17:23:51
Gibt es spielepackete zu Maxwell?

Nein es gibt keine Spielepakete zu Maxwell.

dildo4u
2014-09-20, 17:25:41
Für 4k bei Diablo 3 braucht man whol ein bissel OC oder eine 980.260fps bei 1080p mit einer OC 970.

http://www.techpowerup.com/reviews/EVGA/GTX_970_SC_ACX_Cooler/13.html

Auch wieder ein gutes Beispiel wie sehr der AMD Treiber im CPU Limit saugt.

derguru
2014-09-20, 17:27:17
4k passt schon aber 5k halt nimmer.^^

Loeschzwerg
2014-09-20, 17:27:46
Kann einer der GM204 Besitzer mal die Main-Registry abziehen und hochladen? Danke.

http://abload.de/thumb/registrygvz0q.jpg (http://abload.de/image.php?img=registrygvz0q.jpg)

Raff
2014-09-20, 17:30:54
Kann einer der GM204 Besitzer mal die Main-Registry abziehen und hochladen? Danke.

http://abload.de/thumb/registrygvz0q.jpg (http://abload.de/image.php?img=registrygvz0q.jpg)

DSR-Hack incoming? :biggrin:

MfG,
Raff

Thunder99
2014-09-20, 17:32:27
Mal eine richtig noobige Frage.... Dsr funktioniert doch auch mit meinem 21:9 Monitor, oder?

Checkt das der Treiber?

Nicht, dass er mir nur die regulären Auflösungen anzeigt.

Klar. Gibt ja dieses Format nicht seit gestern :)

Nochmal die Frage: 2x 6 Pin oder einmal 8 ist latte für normales OC bis 1400/1500. Hab gerade keine Werte aus den Reviews zu Hand

mironicus
2014-09-20, 17:34:10
@Raff

Hast du auch die MSI Karte getestet und mit der Asus Strix verglichen? Welche ist lauter?

AffenJack
2014-09-20, 17:34:24
Ich werd die Tage mal schauen, was eine GTX 980 @ 1.500/4.000 MHz gegen meine Titan @ 1.200/3.600 MHz ausrichten kann. Bis auf die Leistungsaufnahme sehe ich derzeit keinen Sieger, tendiere aber zur Titan. Mod-BIOSe für GM204 könnten den Spieß umdrehen. :naughty:


Wäre cool wenn du dir auch die Leistungsaufnahme in GPGPU anschauen könntest, nach den Ergebnissen von THG wäre mal interessant wieviel zb Luxmark verbrät.

mironicus
2014-09-20, 17:46:57
Wenn ich auf die Herstellerseiten (z.B. MSI) gehe finde ich übrigens nur Unterstützung von HDMI 1.4a, nicht 2.0. Das scheint kein offizielles Features der neuen Karten zu sein.

Loeschzwerg
2014-09-20, 17:51:46
DSR-Hack incoming? :biggrin:

MfG,
Raff

Nur mal um zu gucken, evtl. stolpere ich über etwas. Namentlich findet man in den INFs nichts zu DSR, aber möglicherweise in der Registry.

Peicy
2014-09-20, 17:53:36
Ich glaube ich tausche meine 580 langsam mal aus, finde es nur etwas schade das die normale Ausführung der Karte nur mit 4GB kommt.
Weiß jemand welcher Hersteller bei der 980 die beste Kühllösung parat hat, abgesehen von Wakü?

Thunder99
2014-09-20, 18:03:17
MSI oder Asus oder Gigabyte oder Inno3D (werde ich berichten ^^)

Mr.Ice
2014-09-20, 18:05:56
Ich glaube ich tausche meine 580 langsam mal aus, finde es nur etwas schade das die normale Ausführung der Karte nur mit 4GB kommt.
Weiß jemand welcher Hersteller bei der 980 die beste Kühllösung parat hat, abgesehen von Wakü?

also bei der 780GTX war es Inno 3D mit ihrem Ichill Hercules x3 kühler, wäre gut möglich das die wieder die besten sind.

Jupiter
2014-09-20, 18:07:27
Nützt DSR auch etwas gegen Shader-Aliasing? Ich habe Ultra HD auch schon an einen Rechner plus passenden Bildschirm gesehen, und ohne Anti Aliasing flimmert es noch immer.

-/\-CruNcher-/\-
2014-09-20, 18:08:31
Virtuelle Auflösung sicherlich, ich weiß nicht wie es aktuell bei Maxwell implementiert wurde, bei Kepler und earlier Drivers war es so, das die Auflösungen auch auf Desktop funktionierten, da hieß DSR noch ganz anders. :D

Wird es auch unter Windows XP funktionieren ?

Auf so einen Mist reagiere ich nach den unzähligen Überstunden der vergangenen Wochen sehr säuerlich.

MfG,
Raff

Schuldigung ich werd mir mal die nächste print ausgabe anschauen als support sozusagen ;)

dildo4u
2014-09-20, 18:10:31
Nützt DSR auch etwas gegen Shader-Aliasing? Ich habe Ultra HD auch schon an einen Rechner plus passenden Bildschirm gesehen, und ohne Anti Aliasing flimmert es noch immer.
Es hilft kommt halt drauf an wie groß der Monitor ist auf einem 24 Zoll sieht's natürlich besser aus als auf einem 4K TFT mit 30 Zoll weil die PPI höher ist.

[dzp]Viper
2014-09-20, 18:14:06
Nützt DSR auch etwas gegen Shader-Aliasing? Ich habe Ultra HD auch schon an einen Rechner plus passenden Bildschirm gesehen, und ohne Anti Aliasing flimmert es noch immer.
Jup definitiv. Zusätzlich bietet DSR ja noch die "Smoothing" Funktion welche das ganze nochmal "glättet".

Das Shader-Aliasing ist bei Assetto Corsa in 4K @ 1920x1080 jedenfalls fast vollkommen verschwunden.

Beispielbild kommt gleich hier im Post.

http://abload.de/img/acs2014-09-2018-19-14fpjgp.jpg

dildo4u
2014-09-20, 18:15:26
Kannst ja ein Video mit Shadowplay machen und hier hochladen. http://www.gamersyde.com/community_en.html Bis 40Mibt ist erlaubt kann man bei Benutzerdefiniert im Shadowplay Menü einstellen.

[dzp]Viper
2014-09-20, 18:20:10
Wenn ich Zeit hätte ja... bin erstmal die nächsten 2-3 Stunden weg..

Jupiter
2014-09-20, 18:24:49
Es hilft kommt halt drauf an wie groß der Monitor ist auf einem 24 Zoll sieht's natürlich besser aus als auf einem 4K TFT mit 30 Zoll weil die PPI höher ist.

Nach meiner Ansicht hilft das bei Shader Aliasing nur teilweise. Bin hier aber kein Experte. ^^

Du sprachst hier davon, dass unter Verwendung von DSR auch ein Weichzeichner reguliert werden könne http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10358168&postcount=423

Möglicherweise hilft das zusätzlich.

Viper;10358717']Jup definitiv. Zusätzlich bietet DSR ja noch die "Smoothing" Funktion welche das ganze nochmal "glättet".

Das Shader-Aliasing ist bei Assetto Corsa in 4K @ 1920x1080 jedenfalls fast vollkommen verschwunden.

Beispielbild kommt gleich hier im Post.

Danke für die Antwort. Das DSR scheint sehr interessant zu sein. Besonders wenn ich ein paar ältere Spiele nachholen werde, kann das selbst mit einer GTX 970 von Nutzen sein. Für moderne Spiele bräuchte ich dann doch noch ein bisschen mehr Leistung.

EDIT:
Danke für das Bild. Wie zu sehen, ist das auch kein leichter Titel mit den hohen Kontrasten an den Subpixeln. Dafür ist die Qualität aus meiner Sicht super. Würde gerne so in Echtzeit spielen. Allerdings lässt sich das erst wie bekannt vollständig erst bei bewegten Inhalten klären, da beim verschieben der Frames unterschiedliche Pattern angewendet werden, weshalb sich das Bild meines Wissens im Subpixel-Bereich unregelmäßig verschiebt.

Loeschzwerg
2014-09-20, 18:29:39
@Raff und alle GM204 Besitzer: Seit dem Treiber 344.11 gibt es einen Einstellung die sich "NVIDIA Quality Upscaling" nennt, habe ich eben mit dem Nvidia Inspector entdeckt.

Bitte testet mal ob Änderungen hier zum gleichen Ergebnis führen wie aktives DSR im Treibermenü :)

Marty98
2014-09-20, 18:30:57
Wenn ich auf die Herstellerseiten (z.B. MSI) gehe finde ich übrigens nur Unterstützung von HDMI 1.4a, nicht 2.0. Das scheint kein offizielles Features der neuen Karten zu sein.

Doch, Computerbase hat extra bei NVidia nochmals nachgefragt und es gibt HDMI 2.0 (auch wenn die NVidia Webseite was anderes sagt).

-/\-CruNcher-/\-
2014-09-20, 18:42:28
Nach meiner Ansicht hilft das bei Shader Aliasing nur teilweise. Bin hier aber kein Experte. ^^

Du sprachst hier davon, dass unter Verwendung von DSR auch ein Weichzeichner reguliert werden könne http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10358168&postcount=423

Möglicherweise hilft das zusätzlich.



Danke für die Antwort. Das DSR scheint sehr interessant zu sein. Besonders wenn ich ein paar ältere Spiele nachholen werde, kann das selbst mit einer GTX 970 von Nutzen sein. Für moderne Spiele bräuchte ich dann doch noch ein bisschen mehr Leistung.

EDIT:
Danke für das Bild. Wie zu sehen, ist das auch kein leichter Titel mit den hohen Kontrasten an den Subpixeln. Dafür ist die Qualität aus meiner Sicht super. Würde gerne so in Echtzeit spielen. Allerdings lässt sich das erst vollständig bei bewegten Inhalten klären, da beim verschieben der Frames unterschiedliche Pattern angewendet werden, weshalb sich das Bild meines Wissens im Subpixel-Bereich unregelmäßig verschiebt.

hier bräuchten wir einen vernünftigen sachlichen test und nicht nur 1 frame erstaunlich wie du das bewertest im Vergleich zu anderen Möglichkeiten die Aseto Corsa vielleicht eben garnicht bietet :)

Aber es ist schon richtig für ältere Games so manipulative möglichkeiten zu haben oder z.b gerushde ältere Konsolenports ist das schon nice :)

mironicus
2014-09-20, 18:46:36
MSI GTX 970 (Video zeigt wie die Lüfter der Karte erst bei aktiver GPU-Belastung anspringen)
http://www.youtube.com/watch?v=-ZR_aGZppjg

-/\-CruNcher-/\-
2014-09-20, 18:52:27
Jo bei der Hitzeentwicklung ist es eigentlich ziemlich egal ob wie bei Galax nun ein lüfter weiterläuft oder beide ausgehen, schon krass welchen load die heatpipe hier passiv abfängt das erinnert an die 8800 GT mit Accelero S1.

Ich mag deren Gaming App und Afterburner ist sowieso ein must have und das ist ja MSI exclusive bei 64 bit jedenfalls noch :)

Mich würde brennend interessieren ob die Lüfter nach dem Power output anspringen (plötzlicher peak) oder ob die Hitzentwicklung wirklich so extreme schnell abläuft oder ob es purer zufall war (unwahrscheinlich), leider sieht man das nicht da der bildschirm zu lange nicht sichtbar ist :(

Was man da sieht find ich einfach total sexy, effizienz ist wieder in den Köpfen angekommen (danke Mobile industry danke danke danke) :D

von 50C° auf 65C° da irgendwo aus irgend einem Grund sind sie angesprungen aber verdammt plötzlich beim nächsten Scene Loading (kann auch Zufall sein) das muss ein Power Spike sein den sie als Indikator nutzen :D

Allerdings ist das auch eine gefährliche sache wenn Nvidia die möglichkeit hat diesen Steuerungsbefehl über den Treiber zu Manipulieren muss nur einmal einer scheisse bauen und wir haben das gleiche disaster wie damals nach dem Treiberupdate ;)

Am besten sie bauen noch einen sensor zusätzlich ein z.b eine lichtschranke die überprüft ob die lüfter drehen oder nicht währe von den kosten doch alles minimal und redundanzen sind doch immer eine gute sache :)

Liquaron
2014-09-20, 18:54:58
selbst im Menü sind es nur um die ~30 fps.


nichts für ungut aber die power ist nicht grösser als bei der alten Generation, also alles bleibt beim alten. die positiven Merkmale sind verbrauch, preis , +1gb RAM und DSR.

Das sind ja nun schon einige positive Merkmale. Besonders DSR reizt mich eben.

dildo4u
2014-09-20, 19:01:07
MSI GTX 970 (Video zeigt wie die Lüfter der Karte erst bei aktiver GPU-Belastung anspringen)
http://www.youtube.com/watch?v=-ZR_aGZppjg
Das Video lol warum nimmt er ein Game mit so einer Dreck Engine so dauerts ewig bis die Karte warm wird.

Hübie
2014-09-20, 19:03:03
@Raff und alle GM204 Besitzer: Seit dem Treiber 344.11 gibt es einen Einstellung die sich "NVIDIA Quality Upscaling" nennt, habe ich eben mit dem Nvidia Inspector entdeckt.

Bitte testet mal ob Änderungen hier zum gleichen Ergebnis führen wie aktives DSR im Treibermenü :)

Hab ich schon alles durch. DSR_Enabled 1 als DWORD in der Registry, aber das scheint nichts zu bringen. Ebenso wenig wie das Quality Upscaling. Jedenfalls bei Kepler nicht ohne weiteres aktivierbar. Vermutlich wird das in einer dll (nvcpluir.dll, nvgames.dll o.ä.) versteckt sein.

Aber wenn ein GM204-Besitzer mal seine registry zeigt wäre das schon hilfreich. Pfad wäre HKLM\Software\NVIDIA Corporation\ und dann noch mal unter HKCU\Software\NVIDIA Corporation\ und auch da wo die devices stehen könnte man reinschauen. Um herauszufinden wo die devices stehen sucht man am besten nach RMPcieLinkSpeed da dieser Eintrag nur dort ist (HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Class\{xxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx}\0000).
Vielleicht findet unser Loeschzwerg ja doch einen Weg. :smile:

@Blaire: Okay dann is das also nur ein Platzhalter über die NVAPI :(

-/\-CruNcher-/\-
2014-09-20, 19:22:27
Das Video lol warum nimmt er ein Game mit so einer Dreck Engine so dauerts ewig bis die Karte warm wird.

Die ruckler sind auch übelst, aber kommen wahrscheinlich eher vom Afterburner OSD

dildo4u
2014-09-20, 19:23:38
Asus Strix GTX970 Nvidia Maxwell Graphics Card

http://youtu.be/iM69B0X9BMo

Erstaunlich wie sauber das Board ist verbessert natürlich die Kühlung mit so wenigen bzw kleinen Bauteilen.

-/\-CruNcher-/\-
2014-09-20, 19:24:07
Hab ich schon alles durch. DSR_Enabled 1 als DWORD in der Registry, aber das scheint nichts zu bringen. Ebenso wenig wie das Quality Upscaling. Jedenfalls bei Kepler nicht ohne weiteres aktivierbar. Vermutlich wird das in einer dll (nvcpluir.dll, nvgames.dll o.ä.) versteckt sein.

Aber wenn ein GM204-Besitzer mal seine registry zeigt wäre das schon hilfreich. Pfad wäre HKLM\Software\NVIDIA Corporation\ und dann noch mal unter HKCU\Software\NVIDIA Corporation\ und auch da wo die devices stehen könnte man reinschauen. Um herauszufinden wo die devices stehen sucht man am besten nach RMPcieLinkSpeed da dieser Eintrag nur dort ist (HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Class\{xxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx}\0000).
Vielleicht findet unser Loeschzwerg ja doch einen Weg. :smile:

@Blaire: Okay dann is das also nur ein Platzhalter über die NVAPI :(

Könnte doch auch ein Upscaler für 1080p Video Content zu 4K sein ?

Hübie
2014-09-20, 19:26:15
Du meinst der registry Eintrag? Egal wofür der ist, der ist nicht dass was ich brauche ;D

Arcanoxer
2014-09-20, 19:26:26
Wenn ich auf die Herstellerseiten (z.B. MSI) gehe finde ich übrigens nur Unterstützung von HDMI 1.4a, nicht 2.0. Das scheint kein offizielles Features der neuen Karten zu sein.
Doch, laut des Updates von Computerbase schon.

"Auch wenn es einige Hersteller, Händler oder Preisvergleichsportale anders ausweisen, bieten GeForce GTX 980 und GTX 970 immer HDMI 2.0. Das hat Nvidia gegenüber ComputerBase bestätigt. Selbst Nvidia weist diesen Aspekt zurzeit online noch falsch aus."

http://www.computerbase.de/2014-09/geforce-gtx-970-980-partnerkarten-im-ueberblick/

edit:
Marty98 war eindeutig schneller.

-/\-CruNcher-/\-
2014-09-20, 19:34:11
Du meinst der registry Eintrag? Egal wofür der ist, der ist nicht dass was ich brauche ;D

Nein der Eintrag der NVAPI den Nvidia Inspector ausliest

Hübie
2014-09-20, 19:35:24
Kann auch nur ein Platzhalter sein, wie für das MFAA.

aufkrawall
2014-09-20, 19:35:56
GM204-User bitte mal diesen Benchmark starten:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10358816&postcount=175

-/\-CruNcher-/\-
2014-09-20, 19:37:07
Doch, laut des Updates von Computerbase schon.

"Auch wenn es einige Hersteller, Händler oder Preisvergleichsportale anders ausweisen, bieten GeForce GTX 980 und GTX 970 immer HDMI 2.0. Das hat Nvidia gegenüber ComputerBase bestätigt. Selbst Nvidia weist diesen Aspekt zurzeit online noch falsch aus."

http://www.computerbase.de/2014-09/geforce-gtx-970-980-partnerkarten-im-ueberblick/

edit:
Marty98 war eindeutig schneller.


Junge mein gott sowas ist peinlich ohne Ende

@derguru

Du brauchst deine Karte nicht mehr verscherbeln dein Port ist gerade zu einem HDMI 2.0 mutiert ;)

GM204-User bitte mal diesen Benchmark starten:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10358816&postcount=175


Genau gute idee codas raw compute test :)

dildo4u
2014-09-20, 19:40:45
Muss nicht sein auf der Zotac Website steht nur 4k@30hz ist halt ne Custom Karte die ganz andere Anschlüsse hat.

http://www.zotac.com/products/graphics-cards/geforce-900-series/product/geforce-900-series/detail/geforce-gtx-970/sort/starttime/order/DESC/amount/10/section/specifications.html


Die hat Referenz Specs was Anschlüsse angeht.
https://geizhals.de/palit-geforce-gtx-970-ne5x970014g2f-a1167957.html

-/\-CruNcher-/\-
2014-09-20, 19:42:08
Da steht doch "immer" ja nun was denn können die das nicht mal ordentlich kommunizieren ?

Dann sollen sie richtig schreiben das sich das nur auf alle Referenzkarten bezieht nicht aber die Custom Designs, also derguru geh mal davon aus das es wie in Zotac Specs doch HDMI 1.4a ist.


Und nun Coda Compute Ergebnise posten :D

Loeschzwerg
2014-09-20, 19:43:07
@Hübie: Stimmt, funktioniert bei mir mit dem GM107 auch nicht... hm... jetzt wären die Registry Einträge echt hilfreich.

Los Leute, kann doch nicht so schwer sein :freak:

Arcanoxer
2014-09-20, 19:46:13
Junge mein gott sowas ist peinlich ohne Ende
Peinlich ist eigentlich nur Gott klein zu schreiben und gänzlich auf Satzzeichen zu verzichten, "Junge". :ucrazy:

-/\-CruNcher-/\-
2014-09-20, 19:55:11
Solange du mich verstehst ist alles in Ordnung ;)

Hübie
2014-09-20, 20:06:32
@Hübie: Stimmt, funktioniert bei mir mit dem GM107 auch nicht... hm... jetzt wären die Registry Einträge echt hilfreich.

Los Leute, kann doch nicht so schwer sein :freak:

Vielleicht wissen die nicht wie :freak:

Nightspider
2014-09-20, 20:35:49
Gab es schon irgendwo die Bestätigung das beim ASUS SWIFT PG278Q DSR (4 oder 5K) in Verbindung mit 144Hz und G-Sync/ULMB funktioniert?

Sieht bestimmt verdammt gut aus 4 oder 5K mit 144Hz und G-Sync zu zocken. Quasi das derzeit perfekt mögliche Spielvergnügen.

dildo4u
2014-09-20, 20:42:24
Theoretisch geht das ja aber um 4k 144hz bei einem halbwegs aktuellen Spiel zu erreichen brauchste ca 20 TFlops also 4 Karten die Perfekt skalieren.

Hier 30fps bei High also nicht mal Very High Details ohne MSAA.

http://anandtech.com/show/8526/nvidia-geforce-gtx-980-review/14

aths
2014-09-20, 20:48:06
Mein Ersteindruck: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=557011

Nightspider
2014-09-20, 21:00:41
Theoretisch geht das ja aber um 4k 144hz bei einem halbwegs aktuellen Spiel zu erreichen brauchste ca 20 TFlops also 4 Karten die Perfekt skalieren.

Hier 30fps bei High also nicht mal Very High Details ohne MSAA.

http://anandtech.com/show/8526/nvidia-geforce-gtx-980-review/14

Als ob mich Crysis 3 in dem Zusammenhang interessiert. Mir gehts nicht um einen 7h SP Shooter. Du immer mit deinen Crysis 3 Benchmarks. :rolleyes:

Es gibt hunderte Spiele die da super laufen. Mir gehts um BF3/BF4, CS:GO, paar RTS (C&C, DOTA) Games, usw.

Abgesehen davon könnten sich Leute, die das Geld haben in 6 Monaten schon zwei GM200 einbauen und hätten damit die notwendige Leistung locker. (Müssen ja nicht gleich 120fps sein 90fps sind schon toll) ;)

Toll ist ja schon das es die Möglichkeit überhaupt erst mal gibt.

PHuV
2014-09-20, 21:20:05
Auf so einen Mist reagiere ich nach den unzähligen Überstunden der vergangenen Wochen sehr säuerlich.
Brauchste nicht, ich fand Euren Test gut, und deshalb bin ich noch am Freitag in den Laden gegangen und hab eine geholt. :tongue:

Die Leute sehen halt immer nicht, viele Arbeit in diesen Tests steckt.

Exxtreme
2014-09-20, 21:39:53
Das MFAA liest sich echt lecker. Dürfte wohl einer der effizientesten AA-Algorithmen sein weil er offenbar dynamisch ist.

Gouvernator
2014-09-20, 21:49:36
Also mein 720W NT hat 1400Mhz bei GTX970 eindeutig nicht mehr gepackt. Hab jetzt 1600W NT drin.

Mit Wasserkühler hab ich übrigens 1290Mhz Dauerboost. Übertaktet schwankt es zwischen 1450-1500Mhz ich nehme an es liegt an Powertarget. Weil GPU ist nur 45° C warm.

aths
2014-09-20, 21:56:54
Nützt DSR auch etwas gegen Shader-Aliasing? Ich habe Ultra HD auch schon an einen Rechner plus passenden Bildschirm gesehen, und ohne Anti Aliasing flimmert es noch immer.
Ja, DSR macht alles glatter. Zusätzlich hat man die Option, beim Herunterfiltern einen Glättungsgrad einzustellen.

Döner-Ente
2014-09-20, 22:00:00
Brauchste nicht, ich fand Euren Test gut, und deshalb bin ich noch am Freitag in den Laden gegangen und hab eine geholt. :tongue:

Die Leute sehen halt immer nicht, viele Arbeit in diesen Tests steckt.

Zumal, wenn so was vom infantilen Ober-Buzzword-Dummschwätzer des Forums kommt

aths
2014-09-20, 22:06:16
Mal eine richtig noobige Frage.... Dsr funktioniert doch auch mit meinem 21:9 Monitor, oder?

Checkt das der Treiber?

Nicht, dass er mir nur die regulären Auflösungen anzeigt.
Der Treiber scheint die native Monitor-Auflösung auszulesen und geht immer davon aus.

Shaft
2014-09-20, 22:46:45
Hat schon jemand MFAA und DSR(+Smooth) mit SMAA getestet?

Wie wirkt sich der Gauss Filter auf die BQ aus?

aths
2014-09-20, 22:53:32
Hat schon jemand MFAA und DSR(+Smooth) mit SMAA getestet?

Wie wirkt sich der Gauss Filter auf die BQ aus?
MFAA ist noch nicht freigeschaltet.

derguru
2014-09-20, 23:09:28
bin mal gespannt ob man mfaa mit sgssaa kombinieren kann.

alte schinken wie dead island rennen selbst bei 5k noch mit 60 fps und sieht klasse aus.:biggrin:

mfaa+2xsgssaa+dsr glatt wie ein babypopo^^

aufkrawall
2014-09-20, 23:19:24
Bei der blurrigen Filteroptik tat es auch 4xSGSSAA bei 1440p. ;)

PHuV
2014-09-20, 23:25:32
Habs korrigiert

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10357875&postcount=359

Hat sich von 5831 auf 6159 verbessert.
Durch Tausch der CPU (i7-4970k) und Mainboard (Gigabyte Z97X Gaming G1) auf 6067 im Standardtakt verbessert. (Und unter Win 8.1 Pro auf 6115)
Alles jetzt wieder Normaltakt für die SC-Version.

Cinebench R11.5 49,32 BpS. Ich habe am Spielerechner noch nie alle CPUs auf 100% gesehen. :eek:

http://i.imgur.com/eUkCJJ8.jpg

Cinebench R15 93,40 fps

http://i.imgur.com/SpiwSF9.jpg

Hier war die GPU gerade mal zu 62% ausgelastet, und der Takt stieg nicht mehr als 733 MHz.
Win 7 Ultimate
Cinebench R11.5 78,19 BpS
CPU 9,29

Win 8.1 Pro
Cinebench R11.5 81,79 BpS
CPU 9,40

Win 7 Ultimate
Cinebench R15 134,41 fps
CPU 838 cb

Win 8.1 Pro
Cinebench R15 142,02 fps
CPU 863 cb
Ja ist CPU limitiert ich komme auf 66fps mit einer 660TI.
Da hattest Du vollkommen recht. :up:

Da bin ich ja mal gespannt, was der Wechsel zu Win 8.1 bringt.

Wieso kommt AIDA bei mir eigentlich bei der GPU überhaupt nicht auf 100%? :confused:

Rancor
2014-09-21, 00:03:19
Beherrscht die Karte schon DX12?

aufkrawall
2014-09-21, 00:05:09
Man weiß nicht, ob alle Features, weil die noch nicht feststehen.

Marty98
2014-09-21, 00:05:30
Beherrscht die Karte schon DX12?

Es gibt noch kein DX12. MS hat noch nicht entschieden welche HW Features unterstützt werden.

dildo4u
2014-09-21, 00:06:14
Schon erstaunlich das NV so lange mit dem Treiber seitigen Downsampling gebraucht hat,das wäre das perfekte Mittel gewesen SLI zu verkaufen als die alten Konsolen den Ton angaben,vermutlich wird's jetzt massig Leute mit 970 SLI geben.

PHuV
2014-09-21, 00:27:37
Ich habe bisher ja nur SLI aus Notwendigkeit für 30" bzw. 3D-Vision betrieben. Wenn ich mir jetzt die Ruhe so anhöre, werde ich - glaube ich - erst mal bei nur einer bleiben. Na ja, für Oculus Rift (http://www.heise.de/newsticker/meldung/Nvidia-setzt-auf-Virtual-Reality-und-verspricht-halbierte-Latenz-2400067.html?wt_mc=rss.ho.beitrag.atom) braucht man dann vielleicht docht wieder 2. :freak:

PHuV
2014-09-21, 00:49:10
Es gibt noch kein DX12. MS hat noch nicht entschieden welche HW Features unterstützt werden.

Siehe auch

DirectX-11 wird parallel zu DirectX-12 weiterentwickelt (http://www.golem.de/news/spiele-api-directx-11-wird-parallel-zu-directx-12-weiterentwickelt-1409-109360.html)

OC_Burner
2014-09-21, 01:16:59
@Hübie: Stimmt, funktioniert bei mir mit dem GM107 auch nicht... hm... jetzt wären die Registry Einträge echt hilfreich.

Los Leute, kann doch nicht so schwer sein :freak:

Vielleicht wissen die nicht wie :freak:

In der Registry steht augenscheinlich auch erstmal nichts drin. In "CustomDisplay" werden nach wie vor die benutzerdefinierten Auflösungen gespeichert aber nicht die DSR-Auflösungen.

Hübie
2014-09-21, 01:32:32
Vielen Dank :smile:

Ich schau mir das mal an. Die Auflösungen werden auch nirgends gespeichert, mir gehts nur darum dass Feature freizuschalten. ;)

Edit: Ich sehe gerade dass du eine Titan hast. Das hilft uns nicht weiter. Es muss eine 980 oder 970 sein, da hier DSR funktioniert.

OC_Burner
2014-09-21, 02:08:58
In der Registry verbleiben auch weiterhin die älteren Grafikkarten wenn eine neue Karte eingebaut wird.

In {4d36e968-e325-11ce-bfc1-08002be10318}\0005 steckt die GTX980

DSR 2.25 und 4.00 bei einem Smoothness-Wert von 20%, war beim abspeichern der Registry aktiviert.

Gouvernator
2014-09-21, 07:11:02
Schon erstaunlich das NV so lange mit dem Treiber seitigen Downsampling gebraucht hat,das wäre das perfekte Mittel gewesen SLI zu verkaufen als die alten Konsolen den Ton angaben,vermutlich wird's jetzt massig Leute mit 970 SLI geben.
Scheint auch nicht unproblematisch zu sein. Ich hab bei DSR mit weniger als 4x in Metro 2033 überall Streifen oder schwarzes Bild.

Mein 720W Netzteil hat 1400Mhz eindeutig nicht mehr gepackt. Hab nun auf 1600W umgebaut.

Skinny12
2014-09-21, 07:45:35
Gab es schon irgendwo die Bestätigung das beim ASUS SWIFT PG278Q DSR (4 oder 5K) in Verbindung mit 144Hz und G-Sync/ULMB funktioniert?

Sieht bestimmt verdammt gut aus 4 oder 5K mit 144Hz und G-Sync zu zocken. Quasi das derzeit perfekt mögliche Spielvergnügen.


...es geht perfekt und für mich macht der Swift JETZT Sinn, da ich gezielt auf 50-60 frames gehen kann...:D

Gruss Nils

Lurtz
2014-09-21, 08:19:43
Schon erstaunlich das NV so lange mit dem Treiber seitigen Downsampling gebraucht hat,das wäre das perfekte Mittel gewesen SLI zu verkaufen als die alten Konsolen den Ton angaben,vermutlich wird's jetzt massig Leute mit 970 SLI geben.
Immerhin bieten sie es an. AMD performet unter hohen Auflösungen besser, kriegt es aber nicht hin das überhaupt ohne übermäßige Frickelei zu ermöglichen. Verstehe ich langsam wirklich nicht mehr, wenn nVidia es mittlerweile sogar im Treiber anbieten kann, braucht man auch nicht mehr mit "außerhalb der Spezifikationen" ankommen.

Ex3cut3r
2014-09-21, 08:48:06
Kann mir mal einer schätzen wie viel Prozent es sind von einer GTX 770 @ 1280/3850Mhz auf eine GTX 970 @ 1400/3900Mhz zu wechseln? :D

Pumpi74
2014-09-21, 08:53:02
Das kann man hier sehr gut sehen :

http://pclab.pl/art59688-24.html

Da wird dann auch klar gestellt das die 780 Ti auch im OC von der GTX 980 weggerockt wird.

BtW: Die Palit Jetstream 970 hat auch das 0db Feature @ Idle.

PHuV
2014-09-21, 08:53:51
Scheint auch nicht unproblematisch zu sein. Ich hab bei DSR mit weniger als 4x in Metro 2033 überall Streifen oder schwarzes Bild.

Mein 720W Netzteil hat 1400Mhz eindeutig nicht mehr gepackt. Hab nun auf 1600W umgebaut.
Watt? :eek: Du hast doch dort aktuell nur eine Karte drin?

Ex3cut3r
2014-09-21, 08:59:23
Das kann man hier sehr gut sehen :

http://pclab.pl/art59688-24.html

Da wird dann auch klar gestellt das die 780 Ti auch im OC von der GTX 980 weggerockt wird.

BtW: Die Palit Jetstream 970 hat auch das 0db Feature @ Idle.


Dank dir! :)

Watt? :eek: Du hast doch dort aktuell nur eine Karte drin?


Wird wird wohl ein Noname Netzteil sein.

uweskw
2014-09-21, 09:08:15
Das kann man hier sehr gut sehen :

http://pclab.pl/art59688-24.html

Da wird dann auch klar gestellt das die 780 Ti auch im OC von der GTX 980 weggerockt wird.

.......

naja.... die 780ti läuft nur mit 1025 MHz. Warum auch immer.

Greetz
U.S.

Ex3cut3r
2014-09-21, 09:14:12
naja.... die 780ti läuft nur mit 1025 MHz. Warum auch immer.

Greetz
U.S.

Also ich weiß nicht, ob sich das wirklich so für mich lohnt, von einer OC GTX 770 auf die 970 zu wechseln. Eigentlich ist nur eine 780ti mit 1GB VRAM mehr, paar neue Features und co. müsste um wirklich etwas zu merken, musste wohl eher, auf eine GTX 980 und die dann nochmal kräftig ocen.

Echt schwierig ;D

Am ende werdens wohl eher die 2GB vs 4GB entscheiden. ;D

Pumpi74
2014-09-21, 09:23:30
naja.... die 780ti läuft nur mit 1025 MHz. Warum auch immer..

Was dann knapp 1200Mhz real anliegenden Boosttakt ergibt. Das ist für eine durchschnittliche, Luftgekühlte, nicht BIOS gemoddete Karte sicher kein abnormer OC-Wert. Und man muss heute leider noch non BIOS-Mod Karten vergleichen. Eben so lange wie es noch keine Mod's für Maxwell 2.0 gibt. (Apple to Apple....)

Hübie
2014-09-21, 09:24:03
In der Registry verbleiben auch weiterhin die älteren Grafikkarten wenn eine neue Karte eingebaut wird.

In {4d36e968-e325-11ce-bfc1-08002be10318}\0005 steckt die GTX980

DSR 2.25 und 4.00 bei einem Smoothness-Wert von 20%, war beim abspeichern der Registry aktiviert.

Okay, noch mal vielen Dank. Ein erster Blick sagt mir: du hast ne Menge Treiberkuddelmuddel und einige Auflösungen X-D
Bisher fällt mein Verdacht auf die Sektion MMDMM wo bestimmte Bytes anders gesetzt sind. Ansonsten könnte ich meine anderen "Verdächtigen" ausschließen.
Loeschzwerg? :D

Gouvernator
2014-09-21, 09:30:33
Watt? :eek: Du hast doch dort aktuell nur eine Karte drin?
Dieses Netzteil schwächelt wenn man (irgend)einer GPU sehr hohen Takt gibt. Das Ding schaltete damals auch aus bei GTX480@900Mhz. Ist aber auch schon ein uraltes Teil aus X1900 Zeiten.
@Ex3cut3r
Nix noName. Ist ein Enermax Infinity 720W damals gehörte es zu den stärksten Netzteilen überhaupt. ;D
Mein LEPA1600W ist zwar jetzt "etwas" zu überdimensioniert, aber dafür kommt der Lüfter nie aus dem idle-Modus bei 277W Verbrauch. Ich glaube 4xGTX480 schluckten im Desktop-Betrieb mehr.^^

uweskw
2014-09-21, 09:34:48
Was dann knapp 1200Mhz real anliegenden Boosttakt ergibt. Das ist für eine durchschnittliche, Luftgekühlte, nicht BIOS gemoddete Karte sicher kein abnormer OC-Wert. Und man muss heute leider noch non BIOS-Mod Karten vergleichen. Eben so lange wie es noch keine Mod's für Maxwell 2.0 gibt. (Apple to Apple....)

ne 780ti hat ca.50-70 Boost. Kenne keine mit 175......

Pumpi74
2014-09-21, 09:41:27
ne 780ti hat ca.50-70 Boost. Kenne keine mit 175......

Laut Liste vielleicht. Meine 780Ti (Referencedesign) ging circa 130 Mhz im Boosttakt. 875Mhz zu gut 1000Mhz. Und mit OC war das Teil nur unter schwerstem Gebrüll @ 1200Mhz Boosttakt stabil zu kriegen.... (allerdings auch ohne Mod-BIOS !).

mironicus
2014-09-21, 09:59:05
Eine erste Kundenkritik zur Lautstärke der Palit-Karte.

http://www.mindfactory.de/product_info.php/tab/reviews/4096MB-Palit-GeForce-GTX-970-Aktiv-PCIe-3-0-x16--Retail-_977469.html#reviews

Gouvernator
2014-09-21, 10:07:05
Eine erste Kundenkritik zur Lautstärke der Palit-Karte.

http://www.mindfactory.de/product_info.php/tab/reviews/4096MB-Palit-GeForce-GTX-970-Aktiv-PCIe-3-0-x16--Retail-_977469.html#reviews
Hat wohl schlechten Lüfter erwischt. Meine Palit war eigentlich sehr erträglich vor dem WaKü Umbau.

Ex3cut3r
2014-09-21, 10:16:00
@Ex3cut3r
Nix noName. Ist ein Enermax Infinity 720W damals gehörte es zu den stärksten Netzteilen überhaupt. ;D
Mein LEPA1600W ist zwar jetzt "etwas" zu überdimensioniert, aber dafür kommt der Lüfter nie aus dem idle-Modus bei 277W Verbrauch. Ich glaube 4xGTX480 schluckten im Desktop-Betrieb mehr.^^

Na gut, dann ist es ein Netzteil, dass seine besten Jahre weit hinter sicht hat. ;)

desert
2014-09-21, 10:33:42
Irgendwie schade das die nicht mehr power haben, sehe leider keinen Grund meine Palit 780 SuperJetstream in Rente zu schicken. Muss ich leider auf den Vollausbau warten.

Der Vorteil ist das es für relativ schmales Geld verdammt viel Leistung gibt. Erinnert so ein bisschen an die 8800 GT. Kann nur gut sein wenn mehr menschen mehr grafikpower haben

Bringhimup
2014-09-21, 10:51:09
Irgendwie schade das die nicht mehr power haben, sehe leider keinen Grund meine Palit 780 SuperJetstream in Rente zu schicken. Muss ich leider auf den Vollausbau warten.

Der Vorteil ist das es für relativ schmales Geld verdammt viel Leistung gibt. Erinnert so ein bisschen an die 8800 GT. Kann nur gut sein wenn mehr menschen mehr grafikpower haben

Bei mir genau das gleiche. Die 970 ist schon echt eine geile Karte. Sehr viel Bang for the Buck. Die 980 wäre definitiv eine Überlegung wert, wenn ich nicht auch schon eine Palit 780 SuperJetstream hätte. Nur für DSR, Stromsparen, 1 GB Speicher und nen paar Prozent mehr Leistung lohnt es sich für mich leider nicht. Ich warte dann doch recht entspannt weiter.

basix
2014-09-21, 12:40:13
Irgendwie schade das die nicht mehr power haben, sehe leider keinen Grund meine Palit 780 SuperJetstream in Rente zu schicken. Muss ich leider auf den Vollausbau warten.

Der Vorteil ist das es für relativ schmales Geld verdammt viel Leistung gibt. Erinnert so ein bisschen an die 8800 GT. Kann nur gut sein wenn mehr menschen mehr grafikpower haben

8800GT trifft es so ziemlich auf den Punkt. Highend-Leistung zu relativ günstigem Preis. Nur haben wir jetzt 398mm2 vs. damals 270mm2 :biggrin:
Und wegen dem gesunkenen Wechselkurs Euro/CHF ist eine GTX970 in der Schweiz nur leicht teuerer wie damals die 8800GT und inflationsbereinigt in etwa gleich teuer ;D

Jedoch gab es damals halt leistungsmässig noch wirklich gar nichts vergleichbares zur 8800GTX, welche vom Preis her nicht sehr weit von einer Titan weg war (in der Schweiz; 8800GTX = 850CHF vs. Titan = 980CHF; da war eben der Euro/CHF Kurs noch >1.50 anstatt 1.20 :rolleyes:). Heute gibt es bereits 780er und 290er Partnerkarten mit ähnlicher Leistung zur GTX970 und "nur" +20% im Preis.

TurricanM3
2014-09-21, 13:04:50
Gibt es irgendwo einen Vergleich einer 780 TI ~1300 vs. 980 mit 1400+ in BF4?

Sollten nicht die Wasserkühler der 780ti passen, Lochabstand ist schließlich der selbe.


Der SpaWa Bereich passt nicht. Layout ist ganz anders.

Ich habe immer den (unbegründeten?) Verdacht, dass bei den Werks-OC-Versionen die etwas besseren Chips zum Einsatz kommen, was die ASIC-Werte angeht. Humbug?


ASIC sagt kaum was über OC aus. Ich weiß noch was im 780 Ti User Thread im Luxx darüber diskutiert wurde. Eine meiner Tis hat 1300 gepackt und das war die mit mittelmäßiger ASIC. Gibt viele andere die dieselbe Erfahrung gemacht haben.

Eisenoxid
2014-09-21, 13:56:07
Ok, bei mir wirds dann wohl die 970 EVGA ACX2.0 werden, da die Gigabyte leider ca. 1cm zu lang für mein Gehäuse ist. Die normale ist 10€ billiger als die SC und abgesehen vom Takt wohl identisch. Teilweise findet man bei der SC die Angabe von 1x6Pin 1x8Pin PCIe. Laut Hersteller sind es bei der SC aber auch nur 2x6Pin - dann kann ich auch die normale nehmen.

EVGA verlängert z.Z. die Garantie der Karten von 3 auf 5 Jahre nach Registrierung: http://eu.evga.com/articles/00877/EVGA-GeForce-GTX-980-970-FREE-5-Years-Warranty/

Ich weiß nur nicht, ob ich nun schon vorbestellen soll, oder warten, bis die Karte verfügbar wird :uponder:

n00b
2014-09-21, 14:00:04
Warum gerade die EVGA, gibt es dafür einen besonderen Grund? Die ACX Kühler sind laut, auch die neue Version (Mindestdrehzahl auch im idle über 1100 rpm), die würde ich persönlich nicht kaufen.

Eisenoxid
2014-09-21, 14:13:11
Primär, weil man bei EVGA den Kühler auch ohne Garantieverlust tauschen kann.
Zudem sind 5 Jahre Garantie nicht schlecht, da ich meine Karten doch immer recht lang verwende (die 560ti nun schon ~3,5 Jahre).

Die MSI & ASUS sind mir ehrlich gesagt zu teuer und wohl auch kurz-mittelfristig schwer zu bekommen. Zur Inno3D (http://geizhals.de/inno3d-geforce-gtx-970-herculez-x2-n97v-1sdn-m5dsx-a1168242.html) & Zotac (http://geizhals.de/zotac-geforce-gtx-970-zt-90101-10p-a1167955.html) findet man leider kaum Infos, was Lautstärke und Kühlleistung angeht. Die DHE-Modelle von Gainward und Palit scheiden eh aus.

Raff
2014-09-21, 14:14:59
Na wenn du den Kühler abrupfst, passt es - ansonsten würde ich wegen der Laustärke auch eher davon abraten.

MfG,
Raff

Eisenoxid
2014-09-21, 14:21:44
Welches Modell würdet ihr denn neben der ASUS & der MSI am ehesten empfehlen? Argh...vielleicht warte ich doch bis ich eine Strix abgreifen kann ;)

edit: Ich sehe gerade, dass die Strix ab morgen beim Gehäusekönig verfügbar sein soll. :up:

deepmac
2014-09-21, 14:31:36
Wird denn keine phantom kuehler von gainward rauskommen?

Die fande ich bei der 770er nicht schlecht.

@Raff die 560er ist doch zu langsam wenn man einmal aufn geschmack gekommen ist :)
muss da nochmal umruesten :)

lauft aber 1a, hast du noch im kopf, wie weit afterburner lief?

Hab jetzt 930 memory 2200, spannung abgesenkt, 0,95 v

Hat jemand infos zu den preisen der 960er im oktober?

Dawn on Titan
2014-09-21, 14:45:07
Wieso 5 Jahre EVGA gibt nur noch 3, wie ASUS auch.

Eisenoxid
2014-09-21, 14:47:33
Wieso 5 Jahre EVGA gibt nur noch 3, wie ASUS auch.


EVGA verlängert z.Z. die Garantie der Karten von 3 auf 5 Jahre nach Registrierung: http://eu.evga.com/articles/00877/EVGA-GeForce-GTX-980-970-FREE-5-Years-Warranty/
Die Aktion ist allerdings zeitlich bergrenzt.

Dawn on Titan
2014-09-21, 14:53:45
Die Aktion ist allerdings zeitlich bergrenzt.

Danke :)

Marty98
2014-09-21, 15:05:40
Na wenn du den Kühler abrupfst, passt es - ansonsten würde ich wegen der Laustärke auch eher davon abraten.

MfG,
Raff

Raff, in welcher Ausgabe der PCGH werden alle 970er getestet? Wird es auf zwei Ausgaben verteilt?

aths
2014-09-21, 15:05:51
@Raff und alle GM204 Besitzer: Seit dem Treiber 344.11 gibt es einen Einstellung die sich "NVIDIA Quality Upscaling" nennt, habe ich eben mit dem Nvidia Inspector entdeckt.

Bitte testet mal ob Änderungen hier zum gleichen Ergebnis führen wie aktives DSR im Treibermenü :)
Upscaling ist eigentlich das Gegenteil von Downsampling.

aufkrawall
2014-09-21, 15:08:55
Für das offizielle DS gab es auch vorzeitig Dummy-Optionen in der NVAPI.
Vielleicht ist es mit diesem Feature ähnlich. Ich könnte mir besseres Upscaling für 1080p auf 4k-Monitoren vorstellen. Dann per späterem Treiber.

Kann mal jemand ausprobieren, ob der Treiber abstürzt, wenn man bei Trine 2 max Details SGSSAA mit 0x000012C1 erzwingt?
Das tut es nämlich mit Kepler. In-game AA deaktivieren

mironicus
2014-09-21, 15:30:53
Bei den Preisvergleichen solltet ihr mal bei Vibu-Online achten, die versenden versandkostenfrei zum gleichen Preis wie Mindfactory. Der Preis ist dabei nicht immer gleich (mal 348 Euro, mal 362 Euro).

https://www.vibuonline.de/product_info.php?products_id=976941&pid=geizhals

PSXRacer
2014-09-21, 15:40:08
Upscaling ist eigentlich das Gegenteil von Downsampling.

seit dem Wechsel von crt auf Flachbildschirme ist ja alles andere als native Auflösung einfach schlecht, da lohnt es sich eher Grafik runterzudrehen um die native Auflösung zu schaffen. Könnte es da jetzt tatsächlich softwareseitig eine Lösung dafür geben? Oder ist das was uns die crts früher geboten haben mit den aktuellen Bildschirmen einfach nicht möglich?

aufkrawall
2014-09-21, 15:47:33
Es gibt natürlich wesentlich bessere Lösungen als der (bi)lineare Müll, etwa NNEDI3.
Ist die Frage, was man performant in Hardware packen kann.

Ex3cut3r
2014-09-21, 15:49:56
Raff, in welcher Ausgabe der PCGH werden alle 970er getestet? Wird es auf zwei Ausgaben verteilt?

Wurde mich auch interessieren! ;)

-/\-CruNcher-/\-
2014-09-21, 16:00:25
Selten sieht man durch die Bank weg so wiedersprüchliche Review Daten vor allen der AIB Karten und vor allem die unterschiedlichen IDLE werte sind krass da kann was nicht stimmen bei vielen Reviewern.

Es gibt bis jetzt nur 2 Reviewer wo ich sagen würde jup das scheint zu passen.

TurricanM3
2014-09-21, 16:06:12
Stock 980 gegen ~1200MHz Ti in BF4:

http://abload.de/img/unbenannt-1f4k42.png (http://abload.de/image.php?img=unbenannt-1f4k42.png)

Wenn das stimmt: :love:

Ich habe momentan eine normale 780 @1175 und das ist schon so ein enormer Unterschied zu der 1300MHz Ti vorher in BF4, hätte ich nie gedacht.

Skynet ist übrigens schon am Bios Mod dran (400W max.). :biggrin:

Raff
2014-09-21, 16:06:12
Wird denn keine phantom kuehler von gainward rauskommen?

Die gibt's schon. :) Hatte ich schon in den Flossen, aber keine Zeit für einen Test, der über eine "Macht ein Bild, astrein" hinausgeht.

@Raff die 560er ist doch zu langsam wenn man einmal aufn geschmack gekommen ist :)
muss da nochmal umruesten :)

lauft aber 1a, hast du noch im kopf, wie weit afterburner lief?

Hab jetzt 930 memory 2200, spannung abgesenkt, 0,95 v

Hehehe, ein klassisches Problem. :D Genau ausgelotet habe ich das nie, war ja nur eine Backup-Karte. Irgendwo zwischen 950 und 1.000 MHz war IIRC der "sweet spot", bei dem viel Spannung und Lautstärke nötig waren.

Raff, in welcher Ausgabe der PCGH werden alle 970er getestet? Wird es auf zwei Ausgaben verteilt?

Wurde mich auch interessieren! ;)

Vier 970-Designs werden in der PCGH 11/2014 getestet, welche offiziell ab dem 1. Oktober im Handel liegt, der Rest folgt in der Ausgabe danach. :)

In der 11 gibt's übrigens auch ein Gewinnspiel (14 Jahre PCGH), bei dem auch GTX-970-Karten verlost werden. :biggrin:

MfG,
Raff

mironicus
2014-09-21, 16:10:55
@Raff

Bleibt es dabei, was in der PCGH stand, dass die Asus Strix die leiseste GTX 970 (0,7 Sone) ist, weil Gamestar hat die MSI getestet und die kamen auf 0,6 Sone unter Last.

Raff
2014-09-21, 16:14:15
Ich bleibe dabei. :)

MfG,
Raff

mironicus
2014-09-21, 16:24:16
Hm... bei Computerbase war die Asus Strix (42 db) lauter als die Gigabyte 970 (38,5 db).

Testet PCGH ausschließlich mit einem Benchtable?

aths
2014-09-21, 16:24:18
seit dem Wechsel von crt auf Flachbildschirme ist ja alles andere als native Auflösung einfach schlecht, da lohnt es sich eher Grafik runterzudrehen um die native Auflösung zu schaffen. Könnte es da jetzt tatsächlich softwareseitig eine Lösung dafür geben? Oder ist das was uns die crts früher geboten haben mit den aktuellen Bildschirmen einfach nicht möglich?
Bei hoher Pixeldichte ist ein vergleichbarer Eindruck möglich. Die aus meiner Sicht bessere Lösung wäre allerdings eine spieleseitige Option, den eigentlichen Content in geringerer Auflösung zu rendern und dann hochzuskalieren, während HUD und Interface in nativer Auflösung mit gutem Font-Antialiasing gerendert wird.

-/\-CruNcher-/\-
2014-09-21, 16:25:32
Vor allem das hier schockiert etwas

http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html

bei allen anderen reviewern wird mal lapidar der Verbrauch durch die Bank weg mit 9W angegeben für so gut wie alle AIB Custom Designs ja ne ist klar.

Das sowas nicht aufregt das sind Abweichungen die sind heftig.

kunibätt
2014-09-21, 16:31:29
Ja 10 Watt mehr. Echt heftig...NICHT.

Loeschzwerg
2014-09-21, 16:34:01
@Hübie: Also die registry hilft mir auch nicht wirklich weiter :(

Jetzt versuche ich es so:
49619

Mit welchen Optionen schalte ich bei nvflash sämtlichen Schutz aus? -5 und -6 sind klar, da meckert nvflash aber immer noch... mit "--override level=3" noch?

AnarchX
2014-09-21, 16:34:58
Vor allem das hier schockiert etwas

http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html

bei allen anderen reviewern wird mal lapidar der Verbrauch durch die Bank weg mit 9W angegeben für so gut wie alle AIB Custom Designs ja ne ist klar.

Das sowas nicht aufregt das sind Abweichungen die sind heftig.

Was da THG gemessen hat, vor allem die 280W mit Compute, ist wohl nochmal genauer zu überprüfen.

Möglicherweise wurden da falsche Spannungen mit der Stromstärke multipliziert: http://forum.beyond3d.com/showpost.php?p=1875529&postcount=2272

aufkrawall
2014-09-21, 16:40:38
@Hübie: Also die registry hilft mir auch nicht wirklich weiter :(

Jetzt versuche ich es so:
49619

Mit welchen Optionen schalte ich bei nvflash sämtlichen Schutz aus? -5 und -6 sind klar, da meckert nvflash aber immer noch... mit "--override level=3" noch?
-4 -5 -6 schon probiert?

Arcanoxer
2014-09-21, 16:41:50
edit: Ich sehe gerade, dass die Strix ab morgen beim Gehäusekönig verfügbar sein soll. :up:
Ja, mit schätzungsweise ein paar Hundert vorbestellern. :freak:

Dawn on Titan
2014-09-21, 16:42:34
Raff, was taugt eigentlich die 980 Referenz - zu laut?

aths
2014-09-21, 16:44:12
Beim Downsampling hätte ich gerne die Option, die Skalierung pro Achse unabhängig einzustellen.

Grund: In vielen Spielen hat man mehr horizontal ausgerichtete Objekte. Da würde es sich lohnen, die Y-Achse höher aufzulösen als die X-Achse. Skyrim könnte sogar von 1x4-Upsampling profitieren. Gleiche Performance wie 2x2-Upsampling, aber die Qualität kommt da an, wo sie gebraucht wird.

aths
2014-09-21, 16:44:43
Raff, was taugt eigentlich die 980 Referenz - zu laut?


http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10358906#post10358906 :D (Wenn keine Zeit vorhanden, nur das Fazit lesen.)

-/\-CruNcher-/\-
2014-09-21, 16:47:47
Was da THG gemessen hat, vor allem die 280W mit Compute, ist wohl nochmal genauer zu überprüfen.

Möglicherweise wurden da falsche Spannungen mit der Stromstärke multipliziert: http://forum.beyond3d.com/showpost.php?p=1875529&postcount=2272

Das kann gut sein aber beim IDLE ist das definitiv nicht so und vor allem die AIB 970 Karten sollte man sich alle nochmal anschauen diese Abweichungen auf der 12 volt seite könnten meiner Meinung nach sehr wohl durchs pre Overclocking entstehen oder schlechte komponenten das es der Chip selbst ist hmm.

Auch die Lastverteilung scheint ziemlich proportional zu sein also bei 3D Last +xW scheint sich +xW auf den IDLE zu schieben

Mal sehen was die Ht4U daten ergeben werden in diesem Bezug.

AnarchX
2014-09-21, 16:49:19
Beim Downsampling hätte ich gerne die Option, die Skalierung pro Achse unabhängig einzustellen.

Grund: In vielen Spielen hat man mehr horizontal ausgerichtete Objekte. Da würde es sich lohnen, die Y-Achse höher aufzulösen als die X-Achse. Skyrim könnte sogar von 1x4-Upsampling profitieren. Gleiche Performance wie 2x2-Upsampling, aber die Qualität kommt da an, wo sie gebraucht wird.
Dazu braucht es aber wieder Unterstützung der Spiele. Bei GTA4 konnte man das Seitenverhältnis unabhängig vom Seitenverhältnis der Auflösung einstellen.

Loeschzwerg
2014-09-21, 16:52:43
-4 -5 -6 schon probiert?

Option 4 wird im nvflash für Windows nicht gelistet. Was macht die Option?

aufkrawall
2014-09-21, 16:54:05
Option 4 wird im nvflash für Windows nicht gelistet. Was macht die Option?
Weiß ich nicht mehr. afair war es das Einzige, womit ich damals in eine 9600 GT ein Bios eines anderen Kartenherstellers flashen konnte.
Wird schon nichts passieren.

kruemelmonster
2014-09-21, 17:00:12
Option 4 wird im nvflash für Windows nicht gelistet. Was macht die Option?

-4 ist einer dieser netten undokumentierten Schalter und war iirc für override boardid zuständig.

aths
2014-09-21, 17:03:27
Beim Downsampling sollte man, sofern man nicht gleich 4x nimmt, die krummen DSR-Werte nutzen. Grund:

DSR Multiplikator
1,20 1,0954
1,50 1,2247
1,78 1,3333 <———— glatter Wert (+1/3)
2,00 1,4142
2,25 1,5000 <———— glatter Wert (+1/2)
3,00 1,7321
4,00 2,0000 <———— glatter Wert (Faktor 2)

Loeschzwerg
2014-09-21, 17:06:19
-4 ist einer diesen netten undokumentierten Schalter und war iirc für override boardid zuständig.

Ok, danke.

Funktioniert trotzdem nicht, er meckert bei der Signature und Certificate Überprüfung...

PHuV
2014-09-21, 17:20:50
EVGA verlängert z.Z. die Garantie der Karten von 3 auf 5 Jahre nach Registrierung: http://eu.evga.com/articles/00877/EVGA-GeForce-GTX-980-970-FREE-5-Years-Warranty/
Von wegen frei.

http://i.imgur.com/m83EwzV.jpg

AnarchX
2014-09-21, 17:22:16
* Promotion valid from 19 September 2014 to 31 December 2014, or while supplies last in EU Region Only when purchased from a participating etailer.

Eventuell einfach mal bei EVGA nachfragen.

Arcanoxer
2014-09-21, 17:27:10
Mittlerweile ist nicht mehr eine einzige AMD Grafikkarte bei Geizhals in den Top10 gelistet. :freak:

http://geizhals.at/de/?o=8

BlacKi
2014-09-21, 17:29:27
Besonders krass scheint ja das die inno3d 970 auf den wasserkühler meiner referenz 670 passt.

wenn das so ist, werde ich mir vl tatsächlich eine 970 holen obwohl von mir garnicht geplant^^ das leistungspluss bei ähnlichem verbrauch ist krass, zusätzlich zukunftstauglich 4gb speicher^^

Blediator16
2014-09-21, 18:08:16
Mittlerweile ist nicht mehr eine einzige AMD Grafikkarte bei Geizhals in den Top10 gelistet. :freak:

http://geizhals.at/de/?o=8

Dich als Verbrauche kann dich doch einen Scheiss interessieren:rolleyes:

Loeschzwerg
2014-09-21, 18:20:58
So, der flash hat unter Dos funktioniert, aber zeigt immer noch 1380 an... der zieht sich die Dev ID irgendwo anders her. Jemand ne Idee?

Arcanoxer
2014-09-21, 18:24:23
Dich als Verbrauche kann dich doch einen Scheiss interessieren:rolleyes:
Bitte was? Lass das mal meine Sorge sein was mich interessiert oder nicht nicht.
Einige lassen sich hier aber auch wieder triggern, to easy. ;D

Ich bin aber so nett und versuche es dir zu erklären.
Wenn die Verbraucher keine Grafikkarten von AMD mehr kaufen, ist es für nVidia ein leichtes die Preise anzuheben.
Angebot und Nachfrage, schon mal von gehört?

Und das tangiert sehr wohl den Verbraucher.

Eisenoxid
2014-09-21, 18:32:33
Hab jetzt mal die Strix beim Gehäusekönig vorbestellt. Mal sehen, ob morgen genug bei denen eintreffen :freak:

Duplex
2014-09-21, 18:33:03
Mittlerweile ist nicht mehr eine einzige AMD Grafikkarte bei Geizhals in den Top10 gelistet. :freak:

http://geizhals.at/de/?o=8
Gerade die GTX970 macht alle 290er AMDs platt :smile:

Ex3cut3r
2014-09-21, 18:38:38
Die gibt's schon. :)

Vier 970-Designs werden in der PCGH 11/2014 getestet, welche offiziell ab dem 1. Oktober im Handel liegt, der Rest folgt in der Ausgabe danach. :)

In der 11 gibt's übrigens auch ein Gewinnspiel (14 Jahre PCGH), bei dem auch GTX-970-Karten verlost werden. :biggrin:

MfG,
Raff

Vielen Dank Raff! Ist gekauft! :)

Hübie
2014-09-21, 18:46:00
So, der flash hat unter Dos funktioniert, aber zeigt immer noch 1380 an... der zieht sich die Dev ID irgendwo anders her. Jemand ne Idee?

Ach Mist. Hast Post :)
Lies mal bitte das BIOS noch mal aus. Nicht dass da ein Backup-ROM das automatisch wieder korrigiert. Meldet irgendein Programm 13C0? Was steht im Hardwaremanager? Komme leider nicht an' PC > Weiber... :rolleyes:;D

Ex3cut3r
2014-09-21, 18:46:29
Gerade die GTX970 macht alle 290er AMDs platt :smile:

Wenn man die übertaktet kommt man imo sogar an einer standard GTX 980 vorbei.

aths
2014-09-21, 18:56:23
Wenn man die übertaktet kommt man imo sogar an einer standard GTX 980 vorbei.
In der Tat: Rechnerisch müsste die 970 auf 1386 MHz gezogen werden. (Nächstliegende einstellbarer Taktrate: 1380 oder 1395 MHz)

-/\-CruNcher-/\-
2014-09-21, 19:02:55
Bis jetzt kommen alle nur gerade RAN and die GTX 980 überholen hab ich in noch keinen Daten gesehen und für das rankommen steigt der verbrauch über die GTX 980 nicht erheblich allerdings wenn man den Daten trauen kann.

Ex3cut3r
2014-09-21, 19:06:10
Bis jetzt kommen alle nur gerade RAN and die GTX 980 überholen hab ich in noch keinen Daten gesehen und für das rankommen steigt der verbrauch über die GTX 980 nicht erheblich allerdings.

Ich habs aber schon gesehen, weiß bloß nicht mehr wo. ;D Nach gefühlten Tausend Reviews.

aths
2014-09-21, 19:10:31
Bis jetzt kommen alle nur gerade RAN and die GTX 980 überholen hab ich in noch keinen Daten gesehen und für das rankommen steigt der verbrauch über die GTX 980 nicht erheblich allerdings.
Die 980 lässt sich ja auch noch übertakten, und jedes MHz Mehrtakt macht dank der zusätzlichen Shader mehr aus als bei der 970 :)

Natürlich ist das Preisleistungsverhältnis bei der 970 natürlich deutlich besser.

derguru
2014-09-21, 19:12:33
970 ist im schnitt 10% langsamer, kann man ja erahnen wieviel oc nötig ist, 15% oc sollten genügen.

Raff
2014-09-21, 19:14:52
Mit 1.500/4.000 MHz, was gute 970-er mit etwas Glück schaffen, kommt man locker an einer GTX 980 @ typischem Boost (1.216 MHz) vorbei. Doch wie immer gilt: Letztere kann man auch übertakten. ;)

MfG,
Raff

-/\-CruNcher-/\-
2014-09-21, 19:15:13
Da kommt Gigabyte sehr nah ran

Loeschzwerg
2014-09-21, 19:15:47
Ach Mist. Hast Post :)
Lies mal bitte das BIOS noch mal aus. Nicht dass da ein Backup-ROM das automatisch wieder korrigiert. Meldet irgendein Programm 13C0? Was steht im Hardwaremanager? Komme leider nicht an' PC > Weiber... :rolleyes:;D

Gerätemanager und sonstige Software liest 1380, aber nvflash 13C0. Nachdem ich den, vermutlich zweiten, Dev ID Eintrag im Bios abgeändert habe funzt die Karte nicht mehr :freak: Habe zwar mittlerweile das original wieder drauf, aber jetzt bootet die Sau in meinem M920 Board nicht mehr...

Ex3cut3r
2014-09-21, 19:19:26
Mit 1.500/4.000 MHz, was gute 970-er mit etwas Glück schaffen, kommt man locker an einer GTX 980 @ typischem Boost (1.216 MHz) vorbei. Doch wie immer gilt: Letztere kann man auch übertakten. ;)

MfG,
Raff


Da haben wir die Bestätigung vom Meister :up:

Raff
2014-09-21, 19:20:26
Da kommt Gigabyte sehr nah ran

~1.350/3.506 MHz reichen nicht. ;)

MfG,
Raff

AnarchX
2014-09-21, 19:23:07
Gerätemanager und sonstige Software liest 1380, aber nvflash 13C0. Nachdem ich den, vermutlich zweiten, Dev ID Eintrag im Bios abgeändert habe funzt die Karte nicht mehr :freak: Habe zwar mittlerweile das original wieder drauf, aber jetzt bootet die Sau in meinem M920 Board nicht mehr...
Da hättest du mal besser die chinesische Kartenfälscher (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=556304) gefragt. ;D

-/\-CruNcher-/\-
2014-09-21, 19:25:44
~1.350/3.506 MHz reichen nicht. ;)

MfG,
Raff

Tja und da sagen wieder unterschiedliche Reviewer ihre Daten andere sachen aus und das verwirrt enorm

also aus meinen daten dich ich mir selbst zusammengewusstelt habe aus dem meer an Chaos sieht es für die MSI momentan am besten aus nur traue ich den ganzen IDLE daten von so ziemlich keinem Reviewer momentan


http://pclab.pl/zdjecia/artykuly/chaostheory/2014/09/gtx970_maxwell/charts/c3_oc.png

erste daten einer OC überholung die ich sehe

hiernach reichen 1328 MHz base clock + Boost was denke mal auf deine 1.500 MHz Boost hinausläuft allerdings gibt es hier weder last daten, idle daten oder temperaturdaten einfach nur ja geht das wars

bis auf die von THG der den idle der Gigabyte bei ihrem pre oc baseclock mit 20W angibt

http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html

Was bedeuten könnte das der pre OC von Gigabyte +10W mehr idle verbrauch kostet was sich so aber nicht bestätigen lässt ohne weitere daten von anderen AIBs

kruemelmonster
2014-09-21, 19:39:53
So, der flash hat unter Dos funktioniert, aber zeigt immer noch 1380 an... der zieht sich die Dev ID irgendwo anders her. Jemand ne Idee?

Da ich selber vor kurzem mit Device IDs rumgebastelt (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=557018) hab: Offset 0x58 - 0x67?

Godmode
2014-09-21, 19:48:18
Mit 1.500/4.000 MHz, was gute 970-er mit etwas Glück schaffen, kommt man locker an einer GTX 980 @ typischem Boost (1.216 MHz) vorbei. Doch wie immer gilt: Letztere kann man auch übertakten. ;)

MfG,
Raff

Also bei zwei 980 mit 1500 MHz könnte ich schon schwach werden. Die Frage ist wie viele schaffen dass?

Knuddelbearli
2014-09-21, 19:49:37
Ja 10 Watt mehr. Echt heftig...NICHT.


gibt sicher genug Leute wo die Kiste 24/7 läuft. dank guten Idle werten lohnt eine extra 24/7 kiste ja kaum mehr. und dann sind solche Unterschiede echt heftig.

Und auch sonst einfach Wert X angeben da man zu faul zum messen ist so oder so Schweinerei

Raff
2014-09-21, 19:52:07
Tja und da sagen wieder unterschiedliche Reviewer ihre Daten andere sachen aus und das verwirrt enorm

970-Karten mit erhöhtem Speichertakt brauchen natürlich etwas weniger auf dem Kern, um einer 980 gefährlich zu werden. Bei gleicher Transferrate, also einem fairen Vergleich, sind aber ~1.450 MHz nötig.

Also bei zwei 980 mit 1500 MHz könnte ich schon schwach werden. Die Frage ist wie viele schaffen dass?

Wahrscheinlich viele, sobald es Mod-BIOSe gibt, die mindestens 1,25 Volt plus ein offenes Powertarget erlauben. Das wird noch richtig spannend. Der Referenzkühler taugt für solche Spielchen aber nur noch bedingt.

MfG,
Raff

memoal
2014-09-21, 19:54:20
@Raff
Hast du dir ein Bios schon mal näher angeguckt? Was geht da und was nicht?

-/\-CruNcher-/\-
2014-09-21, 19:57:25
Hier sieht man auch die tendenz das sich die idle kosten erhöhen

bei der Gigabyte zumindest

Da kann man sich fragen was das mit dem PRE OC schrott eigentlich soll last die karten auf den Default Clocks und übertaktet dann on demand und nicht im voraus so ein schwachsinn wenn sich das bestätigt was hier gemacht wird

http://pclab.pl/zdjecia/artykuly/chaostheory/2014/09/gtx970_maxwell/charts/power_idle.png

kruemelmonster
2014-09-21, 20:03:38
Fettere Platine = höherer Stromverbrauch, das hat nichts mit den Taktraten an sich zu tun.

-/\-CruNcher-/\-
2014-09-21, 20:05:30
Fettere Platine = höherer Stromverbrauch, das hat nichts mit den Taktraten an sich zu tun.

Wie gesagt die komponenten spielen natürlich auch eine rolle und da bin ich absolut gespannt zwischen dem vergleich von ASUS,MSI und Zotac was den idle angeht und das OC was sie erreichen.

Bei diesem test bezieht sich der Idle verlust übgrigens wie man sehen kann auf ca 2W zur GTX 980 bei THG mit sau gutem equipment sind es 11W nochmal im Kopf behalten und zur referenz sind es 6W bei THG 4W ;)

Knuddelbearli
2014-09-21, 20:06:15
Wenn man die übertaktet kommt man imo sogar an einer standard GTX 980 vorbei.

Nur doof das man GK110 viel besser OCen kann und mit OC auch der Verbrauchsunterschied nicht mehr so enorm ist

Immer diese OC vs non OC Vergleiche ... :mad:

Knuddelbearli
2014-09-21, 20:11:25
970 ist im schnitt 10% langsamer, kann man ja erahnen wieviel oc nötig ist, 15% oc sollten genügen.

10% bist dir sicher das da nicht 980 Referenz mit Temp LImit vs 970 Custom getestet wurde?
Das macht grob 10% aus

Loeschzwerg
2014-09-21, 20:21:13
Da ich selber vor kurzem mit Device IDs rumgebastelt (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=557018) hab: Offset 0x58 - 0x67?

Danke!!! Das wird es sein :)

Da hättest du mal besser die chinesische Kartenfälscher (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=556304) gefragt. ;D

Stimmt, ich sollte mal mit denen in Kontakt treten :D

Jetzt darf ich aber eh erst mal bei mir in der Arbeit betteln gehen... ich bekomme meine 750Ti nicht wieder hin. Wird erkannt, gibt aber kein Bild aus. Irgendetwas hat es da komplett im ROM verbogen.

Ex3cut3r
2014-09-21, 20:22:16
Nur doof das man GK110 viel besser OCen kann und mit OC auch der Verbrauchsunterschied nicht mehr so enorm ist

Immer diese OC vs non OC Vergleiche ... :mad:

GK110 (780 Ti aka VRAM Krüppel) ist Schinken von gestern, selbst eine 1200Mhz Ti kommt nicht an eine standard GTX 980 ran.

Megamember
2014-09-21, 20:23:37
Sabber, die Gigabyte 980 G1 ausm guru3d review ging mal eben 1550 Boost out of the box.

dildo4u
2014-09-21, 20:26:51
Sabber, die Gigabyte 980 G1 ausm guru3d review ging mal eben 1550 Boost out of the box.
Jup die ist nett ohne OC im Bereich einer GTX 690.

http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_980_g1_gaming_review,15.html

http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_980_g1_gaming_review,17.html

Knuddelbearli
2014-09-21, 20:31:16
GK110 (780 Ti aka VRAM Krüppel) ist Schinken von gestern, selbst eine 1200Mhz Ti kommt nicht an eine standard GTX 980 ran.

aha auf einmal sind 3GB Krüppel :rolleyes:
abgesehen davon das da von der 970 die Rede war und ne 780TI ohne Fesseln ( also noch ohne OC ) bereits die 980 erreicht :wink:

Duplex
2014-09-21, 20:34:54
Für normale Settings, FullHD, 4AA & 16AF sollten 3GB noch ausreichend sein.

n00b
2014-09-21, 20:37:49
Können die neuen Maxwells eigentlich auch VP9 in Hardware beschleunigen, weiss das jemand von euch? :uponder:

dildo4u
2014-09-21, 20:38:22
aha auf einmal sind 3GB Krüppel :rolleyes:
abgesehen davon das da von der 970 die Rede war und ne 780TI ohne Fesseln ( also noch ohne OC ) bereits die 980 erreicht :wink:
Die 780 wird genau so absolut wie die GTX 580 wegen zu wenig vram,hier liefert ne 780 mit 6GB ne viel saubere FPS Ausgabe,als die mit 3GB und das bei spielbaren FPS raten über 60.

By far the biggest advantage for the ASUS Strix GTX 780 over the reference GTX 780, Bioshock Infinite is able to take advantage of the larger memory buffer and improve GeForce performance to basically the same level as the Radeon R9 290X. This is easily the biggest jump in performance and is likely a combination of hardware and software, but the result are interesting none the less.

http://www.pcper.com/reviews/Graphics-Cards/ASUS-Strix-GTX-780-6GB-Review-Nearly-Silent-Gaming/Bioshock-Infinite

TurricanM3
2014-09-21, 20:45:34
Sabber, die Gigabyte 980 G1 ausm guru3d review ging mal eben 1550 Boost out of the box.


Bei den Amis hat einer eine EVGA SC 980 auf 1600+ laufen - im Referenzdesign, also mit NVidia Kühler.

http://abload.de/img/v0uvx.jpg (http://abload.de/image.php?img=v0uvx.jpg)

Karte throttelt aber wohl schon etwas. :freak:
Glaube zwar nicht dass das stable ist aber aller Achtung.

dargo
2014-09-21, 20:46:05
Die 780 wird genau so absolut wie die GTX 580 wegen zu wenig vram,hier liefert ne 780 mit 6GB ne viel saubere FPS Ausgabe,als die mit 3GB und das bei spielbaren FPS raten über 60.



http://www.pcper.com/reviews/Graphics-Cards/ASUS-Strix-GTX-780-6GB-Review-Nearly-Silent-Gaming/Bioshock-Infinite
Das zeigt mir eher wie schlecht das Streaming bei diesem Spiel ist. Zumal die Texturen in Bioshock Infinite alles andere als knackig durchgehend sind. Ich hatte jedenfalls Null Probleme mit meinen 3GB Vram, allerdings in Full-HD. Aber ganz ehrlich... wen interessiert hier jetzt noch die UE3? Alles was jetzt als Next Gen kommt verwendet eh die UE4.

Bei den Amis hat einer eine EVGA SC 980 auf 1600+ laufen - im Referenzdesign, also mit NVidia Kühler.

http://abload.de/img/v0uvx.jpg (http://abload.de/image.php?img=v0uvx.jpg)

Karte throttelt aber wohl schon etwas. :freak:
Glaube zwar nicht dass das stable ist aber aller Achtung.
Ist das Ding mit den 3700RPM schon abgehoben? ;D

Knuddelbearli
2014-09-21, 20:48:09
ja 580 hat aber auch nur 1,5gb also 100% mehr jetzt sind es 33%
Hab ja selber noch ne 480 im PC stecken ^^

aber schon interessant wie es mal lieber abläuft. solange AMD 4gb hatte und nv nur 3gb war es den meisten ( nicht alle und bitte nicht angesprochen fühlen bin jetzt zu faul nachzugucken ) egal das es nur 3gb sind ^^
Jetzt werden 3GB als Krüppel bezeichnet ^^

dargo
2014-09-21, 20:49:37
aber schon interessant wie es mal lieber abläuft. solange AMD 4gb hatte und nv nur 3gb war es den meisten ( nicht alle und bitte nicht angesprochen fühlen bin jetzt zu faul nachzugucken ) egal das es nur 3gb sind ^^
Jetzt werden 3GB als Krüppel bezeichnet ^^
Sehr gut beobachtet. :tongue:

-/\-CruNcher-/\-
2014-09-21, 21:00:52
Eine interessante beobachtung eines Reviewer bezüglich Tonga und Maxwell im Prinzip ist es ein interessanter unterschied zwischen Nvidia und AMD generel :)

http://www.overclockersclub.com/reviews/nvidia_gtx_980/15.htm

das pre oc Nvidia karten schlechter im idle abschneiden scheint absolut kein zufall

dildo4u
2014-09-21, 21:11:33
ja 580 hat aber auch nur 1,5gb also 100% mehr jetzt sind es 33%
Hab ja selber noch ne 480 im PC stecken ^^

aber schon interessant wie es mal lieber abläuft. solange AMD 4gb hatte und nv nur 3gb war es den meisten ( nicht alle und bitte nicht angesprochen fühlen bin jetzt zu faul nachzugucken ) egal das es nur 3gb sind ^^
Jetzt werden 3GB als Krüppel bezeichnet ^^
Es ist einfach Realität sagen wir mal eine PS4 Version nutzt unter 1080p 3GB von ihrem Speicher für den Bildspeicher,dort haste dann Probleme mit der 780 auf 1440p zu gehen.Obwohl sie dafür genug Rohpower hätte,da manche Serien wie z.b BF und COD auf Konsole mit 60fps laufen.

PuppetMaster
2014-09-21, 21:13:46
Ich bleibe dabei. :)

MfG,
Raff


Die MSI bietet per Tool drei Optionen an:

1140MHz Core (Boost Clock:1279MHz) (OC Mode)
1114MHz Core (Boost Clock:1253MHz) (Gaming Mode)
1051MHz Core (Boost Clock:1178MHz) (Silent Mode)

http://www.msi.com//pic/image/vga/gaming/gamingapp_1.jpg

Werden hier alle Optionen getestet oder nur der Standardwert? Standardmäßig ist laut Geizhals wohl das mittlere Profil "Gaming Mode" voreingestellt.


Und btw., vielleicht weiß das jemand: ändern sich bei den unterschiedlichen Profilen nur die Taktraten oder auch die Spannungen? Das sollte deutlich mehr Auswirkung auf Temperatur und Lautstärke haben...

Knuddelbearli
2014-09-21, 21:17:12
"Dank" Boost ändert sich Spannung automatisch mit

PuppetMaster
2014-09-21, 21:19:11
Danke!

-/\-CruNcher-/\-
2014-09-21, 21:20:02
Das erklärt einiges die spannung wird also angehoben schon bevor der boost einsetzt ? :)
Das bedeutet also übertaktet man ändert sich sofort die Spannung und somit der idle verbrauch egal wie der loadstate aussieht ?

Knuddelbearli
2014-09-21, 21:24:31
nö aber mit dem Boost geht automatisch Spannungerhöhung mit ein

-/\-CruNcher-/\-
2014-09-21, 21:27:23
Ja aber dann sollte es wie bei AMD aussehen und sich der idle verbrauch nicht ändern sondern erst der Load verbrauch erhöhen.

Das die einfache Takterhöhung den idle verbrauch ändert ist etwas komisch.

OC_Burner
2014-09-21, 21:32:11
Ist das so?
Dann ist es aber merkwürdig, dass man an den Displaytiminigs herumstellen muss und teilweise den Takt der Ausgabeschnittstellen (Pixelclock) erhöhen musste. Das und der Fall, dass die Downsampling Ergebnisse von User zu User schwankten ist eher ein Indiz darauf, dass man die erhöhte Auflösung über die Videoschnittstelle geblasen hat.

Gibt es Indizien/Quellen/Belege, die etwas anderes sagen?

Es war schon immer merkwürdig das die Displaytimings abweichend eingestellt werden mussten um bessere Downsamplingergebnisse zu erlangen. Die frei änderbaren Subtimings die das Menü für benutzerdefinierte Auflösungen bei Nvidia enthält, haben aber keinen Einfluss auf die Ausgabeauflösung die der Monitor dann letztendlich annehmen muss. Diese ganzen Subtimings dienen zur Synchronisation und Abgrenzung der Bildsignale und haben ihren Ursprung noch aus der CRT-Ära. Die aktiven Pixel horizontal sowie vertikal (die das eigentliche Bild ausmachen), mussten auch beim Downsampling immer der nativen Auflösung des Displays entsprechen. Alle Monitore werden dir im OSD-Menü auch beim Downsampling weiterhin die Eingangsauflösung als native Auflösung ausweisen. Meine Capturekarte tut das ebenfalls und nimmt Pixelgenau das auf was bei aktive Pixel vertikal und horizontal angegeben wird.

memoal
2014-09-21, 21:33:19
Können die neuen Maxwells eigentlich auch VP9 in Hardware beschleunigen, weiss das jemand von euch? :uponder:
IMO offiziell bestätigt sicher bisher nicht. Vllt. mal im Spekulationsthread nachfragen.

hellibelli
2014-09-21, 21:45:41
Gibt es eigentlich von Gigabyte eine 980 GTX Version ohne den Windforce Kühler?
Ich frage, da diese bei Alternate doch recht günstig ist, oder?

http://www.alternate.de/Grafikkarten/PCIe-Karten-NVIDIA/GeForce-GTX-Gaming?cmd=change&order=null&lk=8406&tk=7&navId=1346&filter_5=&filter_4=GDDR5&filter_3=&filter_2=NVIDIA+GeForce+GTX+980&filter_1=GIGABYTE

Die oberste ist doch die mit dem Windforce Kühler quasi aus diesem Test hier:

http://www.guru3d.com/news-story/review-gigabyte-geforce-gtx-980-g1-gaming.html

Wenn ja, dann bin ich am überlegen mir diese zu holen. Scheint ja ganz gut zu sein das Teil! :D

dildo4u
2014-09-21, 22:01:03
Auf der Gigabyte Website gibt's nur diese Custom 980 könnte also sein das jede Gigabyte den Windforce Kühler hat.

blutrausch
2014-09-21, 22:01:38
Gibt es eigentlich von Gigabyte eine 980 GTX Version ohne den Windforce Kühler?
Ich frage, da diese bei Alternate doch recht günstig ist, oder?

http://www.alternate.de/Grafikkarten/PCIe-Karten-NVIDIA/GeForce-GTX-Gaming?cmd=change&order=null&lk=8406&tk=7&navId=1346&filter_5=&filter_4=GDDR5&filter_3=&filter_2=NVIDIA+GeForce+GTX+980&filter_1=GIGABYTE

Die oberste ist doch die mit dem Windforce Kühler quasi aus diesem Test hier:

http://www.guru3d.com/news-story/review-gigabyte-geforce-gtx-980-g1-gaming.html

Wenn ja, dann bin ich am überlegen mir diese zu holen. Scheint ja ganz gut zu sein das Teil! :D


http://geizhals.de/?cat=gra16_512&sort=artikel&xf=1439_GTX+980~1439_GTX+970~545_Gigabyte#xf_top

hellibelli
2014-09-21, 22:08:47
Ok habe Sie jetzt mal für den Preis bestellt.

Sollte ja dann diese sein. Bin ich mal gespannt!

Ex3cut3r
2014-09-21, 22:12:53
Ist OT aber ich hab schon immer gesagt, dass 3GB für eine 780Ti eine frechheit war/sind. Ich kenne viele die auf 6GB versionen warteten, leider vergebens.

Hübie
2014-09-21, 22:32:22
Es war schon immer merkwürdig das die Displaytimings abweichend eingestellt werden mussten um bessere Downsamplingergebnisse zu erlangen. Die frei änderbaren Subtimings die das Menü für benutzerdefinierte Auflösungen bei Nvidia enthält, haben aber keinen Einfluss auf die Ausgabeauflösung die der Monitor dann letztendlich annehmen muss. Diese ganzen Subtimings dienen zur Synchronisation und Abgrenzung der Bildsignale und haben ihren Ursprung noch aus der CRT-Ära. Die aktiven Pixel horizontal sowie vertikal (die das eigentliche Bild ausmachen), mussten auch beim Downsampling immer der nativen Auflösung des Displays entsprechen. Alle Monitore werden dir im OSD-Menü auch beim Downsampling weiterhin die Eingangsauflösung als native Auflösung ausweisen. Meine Capturekarte tut das ebenfalls und nimmt Pixelgenau das auf was bei aktive Pixel vertikal und horizontal angegeben wird.

Wie beurteilst du DRS denn überhaupt im Vergleich zu konservativem Downsampling? Und noch mal zum Verständnis: du aktivierst DRS und dann werden die im Menü der custom resolutions eingetragen jedoch ausgegraut? Denn dann sind die definitiv in dem Regschlüssel enthalten den du hier bereit gestellt hast.

aths
2014-09-21, 23:12:18
Auf der Gigabyte Website gibt's nur diese Custom 980 könnte also sein das jede Gigabyte den Windforce Kühler hat.
Meine Gigabyte 980 hat den Referenzkühler: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10358906#post10358906

hellibelli
2014-09-21, 23:35:07
Meine Gigabyte 980 hat den Referenzkühler: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10358906#post10358906


Ist aber nicht mit der Bezeichnung G1 Gaming, oder doch?

OC_Burner
2014-09-21, 23:35:07
Wie beurteilst du DRS denn überhaupt im Vergleich zu konservativem Downsampling? Und noch mal zum Verständnis: du aktivierst DRS und dann werden die im Menü der custom resolutions eingetragen jedoch ausgegraut? Denn dann sind die definitiv in dem Regschlüssel enthalten den du hier bereit gestellt hast.

Ich habe noch vor das genauer zu vergleichen hatte aber noch nicht so richtig die Zeit dafür aber der Ersteindruck bei 2880x1620@1920x1080 mit 30% smoothness scheint weniger zu flimmern ist aber auch unschärfer. 20% gefallen mir besser, unter 15% scheint die Glättung der Kanten auszusetzen, 0% sieht ziemlich übel aus.

Im Menü für custom resolutions wird überhaupt nichts eingetragen, dort kommt man bei aktivierten DSR überhaupt nicht mehr hin. Die DSR Auflösungen werden klassisch im selben scroll-down-Menü angeboten wie auch die normalen Auflösungen.

Hübie
2014-09-21, 23:44:05
Ah okay. Dann könnte das bei Monitor-capability drin stehen. Wie auch immer.

"Altes" Downsampling machte ja eh nur mit FXAA/SMAA wirklich Sinn. Kannst ja mal testen und vergleichen wie das bei 0% smoothness und postprocessing AA wirkt. Dann halt noch Performance vergleichen. Das wäre ein Downsampling-Porno ;D

qu3x^
2014-09-21, 23:46:18
Jup die ist nett ohne OC im Bereich einer GTX 690.

http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_980_g1_gaming_review,15.html

http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_980_g1_gaming_review,17.html
Kann das nicht als konzeptionelle Schwäche angesehen werden dass die 980er im Gegensatz zur 780er Serie keine Zugluftschlitze mehr an der Blende hat?

Fällt mir nun erst gerade auf

980
http://geizhals.at/p/1168440.jpg
780
http://geizhals.at/p/1041906.jpg

dildo4u
2014-09-21, 23:51:24
Macht vermutlich nicht viel aus das TDP ist halt auch geringer,der Kühler ist in der Lage die Karte mit 1.3Ghz leise auf 64° zu halten.Da haste also noch massig Luft den Kühler zu Drosseln,die Referenz Karten laufen mit 80.Was mich eher stört ist die Länge,die 970 sollte locker mit zwei Lüftern auskommen.Bei Asus und MSI scheitn's zu reichen.

Hübie
2014-09-21, 23:52:19
Na ja, wozu auch bei solch einem Konstrukt? Es geistert zwar immer noch der Quark rum man brauche für SLi DHE, aber ich erkenne hier keine wirkliche "Konstruktions-Schwäche".

Darlie
2014-09-21, 23:52:29
Ist aber nicht mit der Bezeichnung G1 Gaming, oder doch?
Ist das so schwer? Gigabyte hat zwei GTX980, eine davon ist die G1. Er hat dir im Spoiler sogar ein Bild seiner Referenzkarte gezeigt.
Hier bitteschön mundgerecht serviert :
http://geizhals.de/?cat=gra16_512&xf=1439_GTX+980~132_4096~653_nVIDIA~545_Gigabyte#xf_top

aths
2014-09-21, 23:54:42
Ist aber nicht mit der Bezeichnung G1 Gaming, oder doch?
Das ist die normale, nicht die G1. Im Moment sind den Partnern noch keine Eigendesigns erlaubt.

Godmode
2014-09-21, 23:56:23
Na ja, wozu auch bei solch einem Konstrukt? Es geistert zwar immer noch der Quark rum man brauche für SLi DHE, aber ich erkenne hier keine wirkliche "Konstruktions-Schwäche".

Kommt immer auf die Situation drauf an. 4 GK110 ohne DHE wäre nicht möglich. Bei 2x 980 ohne DHE brauchst du dann aber auch schon eine sehr gute Gehäusebelüftung.

hellibelli
2014-09-22, 00:02:47
Ist das so schwer? Gigabyte hat zwei GTX980, eine davon ist die G1. Er hat dir im Spoiler sogar ein Bild seiner Referenzkarte gezeigt.
Hier bitteschön mundgerecht serviert :
http://geizhals.de/?cat=gra16_512&xf=1439_GTX+980~132_4096~653_nVIDIA~545_Gigabyte#xf_top


Schwer ist daran absolut gar nichts.
Es hat mich nur irritiert, das in der Bezeichnung das "SOC" mal bei steht und mal fehlt. Dadurch hätte man ja auch annehmen können, dass es 3 Karten gibt. Eine mir Referenzlüfter und 2 mit Windforce..eine Standard und eine OC Version.

Aber nun weiß ich es ja.

Hübie
2014-09-22, 00:07:11
Kommt immer auf die Situation drauf an. 4 GK110 ohne DHE wäre nicht möglich. Bei 2x 980 ohne DHE brauchst du dann aber auch schon eine sehr gute Gehäusebelüftung.

Glaub ich nicht. Ich habe ein komplett geschlossenes NZXT H630 mit meinen beiden 770. Die verbraten ja gleich viel / etwas mehr. Aber gut. Ohne Test will ich dass jetzt natürlich nicht einfach in Stein meißeln. Denke aber dass man die Gigabyte-Karten sehr gut zusammen betreiben kann.

-/\-CruNcher-/\-
2014-09-22, 00:11:01
Die MSI bietet per Tool drei Optionen an:

1140MHz Core (Boost Clock:1279MHz) (OC Mode)
1114MHz Core (Boost Clock:1253MHz) (Gaming Mode)
1051MHz Core (Boost Clock:1178MHz) (Silent Mode)

http://www.msi.com//pic/image/vga/gaming/gamingapp_1.jpg

Werden hier alle Optionen getestet oder nur der Standardwert? Standardmäßig ist laut Geizhals wohl das mittlere Profil "Gaming Mode" voreingestellt.


Und btw., vielleicht weiß das jemand: ändern sich bei den unterschiedlichen Profilen nur die Taktraten oder auch die Spannungen? Das sollte deutlich mehr Auswirkung auf Temperatur und Lautstärke haben...

jo das find ich cool damit lässt sich der idle verbrauch senken da hat MSI mitgedacht :)

x-force
2014-09-22, 00:19:59
könnte hier jemand nochmal den zusammenhang zwischen idle verbrauch und oc erklären?
mir erschließt sich nicht, warum oc etwas an dem nicht boost verhalten ändert...

Melbourne, FL
2014-09-22, 00:43:57
Welche Herstellerdesigns der 970 sind denn jetzt bisher die besten? Wobei fuer mich die besten bedeutet, dass OC gut geht und die Lautstaerke nicht durch die Decke geht...aber es muss jetzt nicht die leiseste 970 am Markt sein. Also normale Lautstaerke + gutes OC.

Danke!

Alexander

x-force
2014-09-22, 00:51:11
Gigabyte GeForce GTX 970 Gaming G1, der Windforce Kühler ist richtig gut.

Die Zotac GeForce GTX 970 AMP! Extreme Edition ist nicht verfügbar und im Grunde zu teuer.

dildo4u
2014-09-22, 00:51:23
970 Gaming G1 ist leise und hat 1.3Ghz Boost Nachteil sie ist fast 32cm lang also wenn du genug Platz hast,ist sie die beste Option zur Zeit.Ansonsten halt MSI und Asus weniger Takt dafür schaltet sich bei den Karten der Lüfter im idle ab.

Hübie
2014-09-22, 01:01:14
Ich sage auch dass die G1 das beste Kühlkonstrukt hat, weils einfach total overkill ist :D :D MSI TwinFrozr V und ASUS Strix schalten unter 68°C die Lüfter ab. :up:

Da ich langjähriger ASUS-Kunde bin kenne ich deren Support (finde ich persönlich gut und war bisher immer akzeptabler Zeitraum von 3-4 Wochen max).
Ich musste jetzt eine meiner MSI-Karten tauschen und das war schon ne Lachnummer. Nach sechs Wochen hatte der Shop wohl immer noch nix von denen also machte ich Druck, woraufhin der Shop selber ausgetauscht hat. MSI pennt wohl immer noch.

Daher würde ich persönlich gerne mal die Gigabyte antesten. In der letzten "Runde" fand ich deren Lüfter nicht überzeugend (und die selber auch nicht, sonst würde es nicht zig Revisionen und BIOS-Versionen für viele Modelle geben).

just my 2 cents ;)

kruemelmonster
2014-09-22, 01:25:04
könnte hier jemand nochmal den zusammenhang zwischen idle verbrauch und oc erklären?
mir erschließt sich nicht, warum oc etwas an dem nicht boost verhalten ändert...

Tut es auch nicht, Cruncher hat dazu auch schon eine Antwort (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10360044#post10360044) bekommen welche er zwischen allen Buzzwords wohl überlesen hat weshalb er auch weiterhin zu Recht auf meiner Igno ist.

Der Zusammenhang ergibt sich indirekt; Werks OC Karten sind oft mit einer Referenzplatine mit zusätzlichen Phasen oder mit eigenen Platinen und eigenen VRM-Designs ausgestattet um eben ein übertaktungsfreundlicheres Design zu bieten, und das kann unabhängig der Boost Taktraten unter Last zu mehr Verbrauch im Leerlauf führen.

@Hübie: hab meine Gigabyte GTX 670 WindForce 3x OC seit Release und bin sehr zufrieden, sowohl mit der dickeren Platine (Referenz GTX 680 mit nochmal zusätzlicher Phase) als auch mit dem Kühlkonstrukt.

aths
2014-09-22, 01:30:45
Ist OT aber ich hab schon immer gesagt, dass 3GB für eine 780Ti eine frechheit war/sind. Ich kenne viele die auf 6GB versionen warteten, leider vergebens.
Dafür ist ja Titan Black gedacht. Laut Nvidia-Sichtweise noch immer die zweitbeste Geforce im Angebot (nach der Titan Z.)

Die nominale Rechenleistung der Titan Black wird in der Tat von der GTX 980 nicht ganz erreicht.

x-force
2014-09-22, 01:33:51
Tut es auch nicht, Cruncher hat dazu auch schon eine Antwort (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10360044#post10360044) bekommen welche er in seiner üblicher Art wohl überlesen hat weshalb er auch weiterhin zu Recht auf meiner Igno ist.

Der Zusammenhang ergibt sich indirekt; Werks OC Karten sind oft mit einer Referenzplatine mit zusätzlichen Phasen oder mit eigenen Platinen und eigenen VRM-Designs ausgestattet um eben ein übertaktungsfreundlicheres Design zu bieten, und das kann unabhängig der Boost Taktraten unter Last zu mehr Verbrauch im Leerlauf führen.


ok, danke.
doppelter idleverbrauch ist aber schon ne menge, könnte mir vorstellen, daß man auch auf einen höheren idle verbrauch kommt, wenn man bei den bauteilen spart.

gibts denn schon reviews mit demontierten kühler, damit man die stromversorgung mal begutachten kann?

kruemelmonster
2014-09-22, 01:44:20
Doppelt? Bin mir jetzt nicht sicher ob wir von den gleichen Werten sprechen, in Posting #664 stand es 56w Palit Referenz PCB vs 60w Gigabyte G1.

x-force
2014-09-22, 01:49:45
ich hab das glaube ich in mehreren reviews gelesen. tom ermittelt z.b. auch einen halben verbrauch bei der 980 im gegensatz zur 970. die testmethodik scheint mir bei denen auch am aufwendigsten.
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html
pcgh misst auch ne ganze ecke weniger auf der 980.

allgemein recht eigenartig, daß die deaktivierten einheiten in der 970 unterm strich nicht zu deutlich weniger stromverbrauch führen.

dildo4u
2014-09-22, 02:04:34
980 sind halt bessere Chip's,die für den gleichen Takt vermutlich weniger Vcore brauchen.Bei 500€ kannste halt wählerischer sein als beim 300€ Volumen Modell.

Techpowerup bestätigt das auch.

http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980/27.html

x-force
2014-09-22, 03:12:51
die bestätigen aber nur die beobachtung und nicht den schluß ;)

soweit ich weiß gabs das bei keinem modell mit abgeschalteten einheiten bisher!
amds 280x braucht z.b. ganz klassisch mehr strom als die 280.

Nightspider
2014-09-22, 05:10:23
Falls dann mal eine 980 Lightning rauskommt macht die bestimmt 1,8 Ghz mit. :ugly:

mischi
2014-09-22, 08:31:15
Hat es eigentlich jemand bisher geschafft, eine lieferbare Asus Strix 970 zu bestellen?

Nightspider
2014-09-22, 08:36:12
Wer mir erklären kann warum die nvidia Aktie heute fällt kriegt einen virtuellen Keks.

Dawn on Titan
2014-09-22, 08:37:51
AMD Launch 25/9

starsnake
2014-09-22, 08:49:49
Vielleicht ist das Geschäft mit Consumer Grafikkarten nicht so entscheidend im Vergleich mit anderen Projekten oder sie hatte schon angezogen und nun werden Gewinne realisiert. Ich weiß es auch nicht.

Aber ich wollte was anderes.
Offenbar sind ja NVIDIA mit den beiden neuen Modellen tolle GPU`s gelungen. Man muss aber natürlich auch sehen, dass der absolute Preis zwischen 308 und 360 Euro für die 970 auch keine kleine Summe ist, ( P/L mal außen vor ).
Ich selber bn bisher mit den *60er Modellen auch immer recht gut gefahren, auch von der Performance her. Zuletzt aktuell eine Gigabyte Windforce GTX 660 OC, 2 GB.
Nun bin ich zum ersten Mal wirklich am Überlegen, ob es nicht doch die 970 sein sollte.
( Auflösung Full HD, zunächst auch nichts Höheres geplant ). Vor allem wegen dieses neuen Features, das einem im Treiber integrierten Downsampling entspricht.
Die Frage ist nämlich, ob die Leistung des wohl noch kommenden *60 Modells wirklich ausreicht, um dieses Feature dann auch sinnvoll nutzen zu können.
Denn dass da noch was kommen wird, steht für mich außer Frage. Nach Abverkauf der 700er hätte NV sonst zwischen 200 und 300 Euro gar nichts anzubieten.

Godmode
2014-09-22, 08:54:39
Glaub ich nicht. Ich habe ein komplett geschlossenes NZXT H630 mit meinen beiden 770. Die verbraten ja gleich viel / etwas mehr. Aber gut. Ohne Test will ich dass jetzt natürlich nicht einfach in Stein meißeln. Denke aber dass man die Gigabyte-Karten sehr gut zusammen betreiben kann.

Tobi hatte mal mit zwei non DHE GTX 680 ein ziemliches Problem, vielleicht finde ich den Thread noch.

edit: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10007542&highlight=DHE#post10007542

M4xw0lf
2014-09-22, 10:13:16
Wer mir erklären kann warum die nvidia Aktie heute fällt kriegt einen virtuellen Keks.
Die Preise der neuen Karten sind einfach zu niedrig, die Anleger haben Angst um Nvidias Zukunft :frown:

Hübie
2014-09-22, 10:31:50
Tobi hatte mal mit zwei non DHE GTX 680 ein ziemliches Problem, vielleicht finde ich den Thread noch.

edit: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10007542&highlight=DHE#post10007542

Fünf Buchstaben: P-A-L-I-T :freak: Aber hey, das ist wohl echt stark abhängig welches Gehäuse ich wie belüfte und vor allem von welchen Karten wir reden. Palit ist ja nun echt unterirdisch (hatte ich selbst:biggrin:).

Obwohl mir ja nun auch schon eine MSI abgeraucht ist - wie kann dass denn bei military class nur passieren? :rolleyes: Ich habe mir übrigens mal diese Klassifizierung durchgelesen und die ist echt hart, aber betrifft halt nur (ich glaub) rund zehn Bausteine auf der Karte...

gnomi
2014-09-22, 10:33:21
Vielleicht ist das Geschäft mit Consumer Grafikkarten nicht so entscheidend im Vergleich mit anderen Projekten oder sie hatte schon angezogen und nun werden Gewinne realisiert. Ich weiß es auch nicht.

Aber ich wollte was anderes.
Offenbar sind ja NVIDIA mit den beiden neuen Modellen tolle GPU`s gelungen. Man muss aber natürlich auch sehen, dass der absolute Preis zwischen 308 und 360 Euro für die 970 auch keine kleine Summe ist, ( P/L mal außen vor ).
Ich selber bn bisher mit den *60er Modellen auch immer recht gut gefahren, auch von der Performance her. Zuletzt aktuell eine Gigabyte Windforce GTX 660 OC, 2 GB.
Nun bin ich zum ersten Mal wirklich am Überlegen, ob es nicht doch die 970 sein sollte.
( Auflösung Full HD, zunächst auch nichts Höheres geplant ). Vor allem wegen dieses neuen Features, das einem im Treiber integrierten Downsampling entspricht.
Die Frage ist nämlich, ob die Leistung des wohl noch kommenden *60 Modells wirklich ausreicht, um dieses Feature dann auch sinnvoll nutzen zu können.
Denn dass da noch was kommen wird, steht für mich außer Frage. Nach Abverkauf der 700er hätte NV sonst zwischen 200 und 300 Euro gar nichts anzubieten.

Du wechselt ja quasi die Käuferschicht.
970 & 980 sind genau die Nachfolger für die Launch Käufer von 670 & 680. (Performance bis High End nenne ich das jetzt mal)
660 ist Midrange und kam später.
Der Umstieg auf 970 lohnt sich aber definitiv, da dieser Chip jetzt günstiger als erwartet kommt.
Alles darunter dürfte noch mehr beschnitten und langsamer sein.

aths
2014-09-22, 10:57:18
Du wechselt ja quasi die Käuferschicht.
970 & 980 sind genau die Nachfolger für die Launch Käufer von 670 & 680. (Performance bis High End nenne ich das jetzt mal)
660 ist Midrange und kam später.
Der Umstieg auf 970 lohnt sich aber definitiv, da dieser Chip jetzt günstiger als erwartet kommt.
Alles darunter dürfte noch mehr beschnitten und langsamer sein.
Die letzten 70-er fand ich auch recht gut, 470, 570, 670 haben jeweils gute Leistung gebracht ohne preislich ins Extrem zu gehen. Die 80-er waren zu Release immer so teuer, für real vielleicht 15% Mehrleistung.

Die 570 war der Knüller, die hatten wir noch verkauft als die 600-er Serie draußen war.

Hübie
2014-09-22, 11:12:48
Nur aus Neugier: Bist du noch bei EVGA?

aths
2014-09-22, 11:13:16
Nee.

Nach EVGA (Zeit der 8880 Ultra bis GTX 480) war ich bei TGT (Zeit der 460, bis zur Titan die wir allerdings nicht mehr hatten.) Danach bei Point of View (Zeit der GTX 780.) Jetzt bin ich aus dem Graka-Geschäft raus.

Bei EVGA habe ich Support gemacht (E-Mail und Telefon – hatte sogar mal Kunden Tombman am Apparat) sowie RMA (also Test ob die Graka oder das Mobo defekt ist + Austausch.)

Bei TGT habe ich die Übertaktungsroutine geschrieben (Starten eines Nvidia-Tools in DOS (später Linux) und danach wird Windows zum Nachtest gebootet. In Windows hat mein Programm die Maus automatisch bewegt und alles eingestellt so dass man nicht mehr ständig rumgehen musste.) In Windows hatte ich mit einem eigenen Tool auch Temperatur und Lüfter überwacht, damit zu heiße oder zu laute Karten rausfallen. Da wir anfangs nur drei Mann waren (später vier Leute – allesamt von EVGA, der TGT-Chef war der ehemalige EVGA-Deutschland-Geschäftsführer) habe ich natürlich weiterhin auch RMA und Support gemacht.

Schwierigkeit: Anfangs wusste ich noch nicht, wie man eine feste Spannungserhöung ins BIOS setzt. Also habe ich viele einzelne BIOS-Dateien mit fester Spannung erstellt, dann von der GPU die Spannung ausgelesen und mit If-Abfragen in einer Bat-Datei die passende OV-BIOS-Datei gewählt.

Bei Point of View habe ich die OC-Routine noch mal neu geschrieben, inklusive Auswertung des Boost-Clocks. (Wird der Boost-Takt für mindestens 50% der Zeit gehalten? Mein Tool hat dazu ständig den aktuellen Takt ausgelesen und zur statistischen Verrechnung gespeichert.)

Schwierigkeit: Nvflash in Windows hat keine Möglichkeit mehr, auf die Eingabe von "y" (Bestätigung dass geflasht werden soll) zu verzichten. Also habe ich ein Nvidia-Tool genutzt, dass eine Flash-Exe erstellt. Diese konnte nämlich ohne manuelle Bestätigung flashen.

Melbourne, FL
2014-09-22, 11:15:32
Die letzten 70-er fand ich auch recht gut, 470, 570, 670 haben jeweils gute Leistung gebracht ohne preislich ins Extrem zu gehen. Die 80-er waren zu Release immer so teuer, für real vielleicht 15% Mehrleistung.

Die 570 war der Knüller, die hatten wir noch verkauft als die 600-er Serie draußen war.

Ich hab auch noch eine GTX570 die jetzt auf Abloesung durch eine 970 wartet. Die MSI und die Gigabyte scheinen ja am besten zu sein...nur wo bekommt man die aktuell noch?

Alexander

gnomi
2014-09-22, 11:20:59
@ aths
Es ist ja ganz oft bei Technik so, dass das kleinste Produkt aus der größten Produktlinie an und für sich am besten abschneidet.
Bei meiner GTX 680 hätte es im Nachhinein auch das nächst kleinere Modell getan.
Ich habe etwas mehr Reserven, aber beide Karten sind auch nach 2 1/2 Jahren ähnlich spieltauglich.
Insofern könnte ich mir jetzt vorstellen, bei der 970 zu bleiben.
Das Problem ist jedoch, dass ich auf 1440 P und GSync wechseln will.
Da steigen von Beginn an wieder die Ansprüche und dafür hätte ich dann doch gerne mehr Power mit einer guten 980 Custom Karte.

Hübie
2014-09-22, 11:21:38
Nee.

Nach EVGA (Zeit der 8880 Ultra bis GTX 480) war ich bei TGT (Zeit der 460, bis zur Titan die wir allerdings nicht mehr hatten.) Danach bei Point of View (Zeit der GTX 780.) Jetzt bin ich aus dem Graka-Geschäft raus.

Bei EVGA habe ich Support gemacht (E-Mail und Telefon – hatte sogar mal Kunden Tombman am Apparat.)

Gott habe seine Seele gnädig :smile: Dann bist du ja auch noch gar nicht so lang raus. Ich schätz mal dass man dort auch mit harten Bandagen kämpft.

Ich wollte abschließend noch mal bekannt geben dass wir die Untersuchungen ob man DSR auch Kepler schon zugänglich machen kann erfolglos abgeschlossen haben :freak: Danke an Loeschzwerg und OC_Burner. Jetzt heißt es warten (und auf die Gnade Jensens). :rolleyes:

ZapSchlitzer
2014-09-22, 11:54:18
Wer mir erklären kann warum die nvidia Aktie heute fällt kriegt einen virtuellen Keks.

Sieht nach völlig normalen Kurschwankungen aus.

Jetzt hadere ich schon damit meine 290 zu verkaufen.
Da die Treiber bei AMD doch nicht so prickelnd und Blackscreens keine Seltenheit sind, könnten man wirklich schwach werden.

yamo
2014-09-22, 11:57:29
Bei EVGA habe ich Support gemacht (E-Mail und Telefon – hatte sogar mal Kunden Tombman am Apparat) sowie RMA (also Test ob die Graka oder das Mobo defekt ist + Austausch.)


Dann hatte wir wohl auch mal Kontakt (tel./mail). Und dafür kann ich mich nur bedanken, Support/Kulanz war immer großartig ;)
Tombman möge in der höchst möglichen Auflösung zocken und Gott auf den Zeiger gehen (Ey, da geht aber noch was):smile:

Hat schon jemand hier die Inno3D GeForce GTX 970 OC, HerculeZ X2, 4096 MB DDR5 ? Wollte die 2x als wc Kingmod bei Gehäusekönich bestellen, aber ich krieg die immer nur ein mal in den Warenkorb...
Hab z. Zt. keinen Basteldrang, deshalb würde ich den Aufpreis inkl. Garantie gerne mitnehmen.

mironicus
2014-09-22, 12:05:42
Die Liefersituation ist momentan schlecht. Bei Mindfactory gibt es weit über 170 Vorbestellungen für die MSI GTX 970 und das Lieferdatum verschiebt sich jeden Tag aufs neue. Das kenne ich noch von früheren Launches. Manche Händler tricksen ganz schön mit den Lieferterminen, die EDV verschiebt den Liefer-Termin immer automatisch auf den nächsten Tag. Gestern war es heute, heute ist es morgen... :D

Mindfactory gibt bei der MSI GTX 980 auch als Liefertermin "den 23.09." an (gestern war es der 22.9) und bei Caseking erst in einem Monat... :)

Jupiter
2014-09-22, 12:08:59
Nicht das mich der Stromverbrauch so sehr interessieren würde, aber mich wundern die unterschiedlichen Messungen beim Stromverbrauch.

Auf zwei englischsprachigen Seiten benötigt die Gigabyte GTX 970 spührbar weniger Strom als die GTX 780. Auf der Deutschen braucht sie mehr als eine GTX 980 oder GTX 780.

Hier die Links zur Gigabyte GTX 970:
guru3d (englisch) http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_970_g1_gaming_review,7.html
techspot (englisch) http://www.techspot.com/review/885-nvidia-geforce-gtx-970-gtx-980/
pcwelt (deutsch) http://www.pcwelt.de/produkte/Gigabyte-Geforce_GTX_970_OC-Grafikkarte-Test-8908021.html

Die Gigabyte GTX 970 G1 interessiert mich momentan am meisten. Bei den Temperaturen gibt es auch Unterschiede. So kommt die deutsche Internetseite auf 10°K mehr.

mironicus
2014-09-22, 12:12:28
Jede Karte ist unterschiedlich, die Reviews sind also auch unterschiedlich was den Stromverbrauch/Lautstärke angeht.

Jupiter
2014-09-22, 12:17:50
Das sind nicht nur ein paar Prozent. 30 Watt und 10°K mehr sind für mich als Leien kein Ergebnis standardmäßiger Produktionsschwankungen. Ob eine R290 mit 92°C oder mit 102°C läuft, wäre aus meiner Sicht schon von Bedeutung.

Ich habe schon kalibrierte Fernseher verglichen und da verbrauchen beide Geräte in der gleichen Situation auch 320 Watt.

Melbourne, FL
2014-09-22, 12:35:32
Die Liefersituation ist momentan schlecht. Bei Mindfactory gibt es weit über 170 Vorbestellungen für die MSI GTX 970 und das Lieferdatum verschiebt sich jeden Tag aufs neue. Das kenne ich noch von früheren Launches. Manche Händler tricksen ganz schön mit den Lieferterminen, die EDV verschiebt den Liefer-Termin immer automatisch auf den nächsten Tag. Gestern war es heute, heute ist es morgen... :D

Mindfactory gibt bei der MSI GTX 980 auch als Liefertermin "den 23.09." an (gestern war es der 22.9) und bei Caseking erst in einem Monat... :)

Ich hoffe mal, dass sich das recht bald aendert. Immerhin ist es diesmal ja kein neuer Fertigungsprozess...da sollte nachproduzieren eigentlich kein grosses Problem sein, oder? Naja...ich werde es einfach abwarten...

Alexander

Marodeur
2014-09-22, 12:56:21
Taugen die Windforce Karten inzwischen was? Kenn die halt von den 570, da wurdens in Tests auch gelobt und ich hab welche gekauft.

Eine vom Kumpel ging kaputt, Ersatz machte son brutzelndes Geräusch und steckt aktuell bei mir drin weil bei mir das Geräusch nicht aus dem Gehäuse dringt. Er hat dafür meine GTX 570 bei der man aber den Takt senken musste denn im Auslieferungszustand stürzte sie bei hoher Last ab. 3x gesehen, 3x bedient.

Seitdem auch bei Rechnern für Bekannte nicht mal mehr mit der Kneifzange angefasst.


Schau auch grad welche 970 mir wohl am ehesten taugt. ;)

yamo
2014-09-22, 13:00:11
So, ich war fickrich und hab 2 Inno3d 970 bei Gehäusekönich bestellt.
Dazu 2
Alphacool NexXxoS NVXP Nvidia GTX670 - poliert - Kupfer + 2 Sli Nippel bei Aquatuning.
Leck, ich bin heiss auf was Neues zum heissen Preis.

N0Thing
2014-09-22, 13:03:06
Das sind nicht nur ein paar Prozent. 30 Watt und 10°K mehr sind für mich als Leien kein Ergebnis standardmäßiger Produktionsschwankungen. Ob eine R290 mit 92°C oder mit 102°C läuft, wäre aus meiner Sicht schon von Bedeutung.

Ich habe schon kalibrierte Fernseher verglichen und da verbrauchen beide Geräte in der gleichen Situation auch 320 Watt.

Die Redaktionen testen mit unterschiedlichen Anwendungen und auch dort an unterschiedlichen Stellen. Dazu kommen noch Unterschiede in der Testmethode (ganzes System ab der Steckdose oder nur die Grafikkarte) und die unterschiedlichen Meßsysteme und der Systemaufbau (offener Teststand oder geschlossenes Gehäuse, z.B. was Einfluß auf die Temperatur und damit auch wieder auf den Stromverbrauch hat). Echte Vergleichbarkeit wäre nur gegeben, wenn man diese Unterschiede beseitigen würde. Im Endeffekt fährt man am besten, wenn man mehrere Messungen einzelner GPUs gleichen Modells heran zieht und den Durchschnitt betrachtet und die Ausreißer nach oben und unten im Hinterkopf behält.

PHuV
2014-09-22, 13:14:08
So, ich war fickrich und hab 2 Inno3d 970 bei Gehäusekönich bestellt.
Dort sind aktuell alle 980/970-Karten ausverkauft. :eek:

Eisenoxid
2014-09-22, 13:20:02
Momentan sind so ziemlich alle 970er ausverkauft. Einzig die Inno und die Zotac sind noch bei einigen Shops lagernd.
Natürlich hat sich der Liefertermin für die Strix bei Caseking auch rausgeschoben :(
War vorherzusehen.

mekakic
2014-09-22, 13:23:57
Wann ist mit NVIDIA Karten inklusive DisplayPort 1.3 Connector zu rechnen? Wir das während der Lebenszeit der aktuellen 970/980er von den Herstellern nachgeflegt, oder brauch die GPU dafür Unterstützung und es wird erst was mit dem 20nm Refresh?

Ich würde mir gern das hoffentlich bald kommende (so den sich häufenden Gerüchten) Apple 5k Display holen und dort liest man was von Display Port 1.3 (was vor kurzem in der Spezifizierung finalisiert wurde).

Matrix316
2014-09-22, 13:33:57
Momentan sind so ziemlich alle 970er ausverkauft. Einzig die Inno und die Zotac sind noch bei einigen Shops lagernd.
Natürlich hat sich der Liefertermin für die Strix bei Caseking auch rausgeschoben :(
War vorherzusehen.
Hmmm, laut geizhals gibts noch einige:
http://geizhals.at/de/?cat=gra16_512&asuch=&bpmax=&v=l&plz=&dist=&mail=&sort=p&xf=132_4096~1439_GTX+970