PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 1080: (P)Review-Thread (Zusammenfassung in Post 1)


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17

scully1234
2016-06-12, 11:17:29
Hat man schon eine wie viele hier sind ~15 Minuten Arbeit für den Umbau und ~100€ für den Kühler bei einer solchen Karte kaum der Rede wert.

naja ich glaube 15 min sind vielleicht doch etwas knapp bemessen=)

Cubitus
2016-06-12, 11:39:50
Das Geräusch was der Lüfter im Idle von sich gibt?
Habe gestern eine 1080 FE beim Freund verbaut, so ab und hört man ein leichtes ich sag mal quietschen

Jaa das kann ich hier auch bestätigen zwischen 1100-1300 RPM kommt das.
Das ist ein hochfrequenter Ton, welcher sich über das Rauschen legt.

Wenn man sich mal drauf eingeschossen hat, ist das ein NoGo..
Könnte bei einem angemessen Preis eventuell drüber hinweg hören, aber bei ~750 Tacken, nein das soll alles zu 100% zufriedenstellend sein.

Blöd ist halt das, je leiser die anderen Komponenten sind, je mehr fällt das auf. Fairerweise muss ich sagen, dass die Karte allgemein nicht fiept.

Last wiederum ist mir soweit fast egal, da darf die Karte ruhig arbeiten.
Allerdings soll gerade auch unter der Last der ACX von EVGA besser sein.

Meine SC kommt ja morgen :D Werde berichten ob die Karte was taugt.

Kriegsgeier
2016-06-12, 12:02:59
Meine SC kommt ja morgen :D Werde berichten ob die Karte was taugt.
Wo hast du bestellt und wann?
Danke

scully1234
2016-06-12, 12:06:04
Meine SC kommt ja morgen :D Werde berichten ob die Karte was taugt.


Viel Spass beim Fummeln

http://forums.evga.com/Really-Evga-Acx-30-Fail-m2493637.aspx#2493662

BlacKi
2016-06-12, 12:08:49
Viel Spass beim Fummeln

http://forums.evga.com/Really-Evga-Acx-30-Fail-m2493637.aspx#2493662
darf man selbst hand anlegen am kühler? verliert man die garantie bei evga?

fubu
2016-06-12, 12:10:52
Viel Spass beim Fummeln

http://forums.evga.com/Really-Evga-Acx-30-Fail-m2493637.aspx#2493662

Genau das hat mich auch genervt. Habe bestimmt erstmal 15 Minuten die Folien abgeknibbelt.

Edit: Ist aber wirklich halb so schlimm. Es gibt weitaus Schlimmeres. 1st world problems eben...

Cubitus
2016-06-12, 12:43:46
Viel Spass beim Fummeln

http://forums.evga.com/Really-Evga-Acx-30-Fail-m2493637.aspx#2493662

Blöd, ja.. Gut habe passendes Werkzeug.
Ansonsten wird das eben 0815 mäßig runter gezogen.

Gehäuse ist eh zu.

darf man selbst hand anlegen am kühler? verliert man die garantie bei evga?

Bei EVGA darfst du den Kühler runter schrauben und unter Kulanz auch das Bios flashen..

scully1234
2016-06-12, 13:19:57
Zwei dieser Galax HOF im SLI Verbund

https://www.chiphell.com/thread-1601728-1-1.html

RoughNeck
2016-06-12, 15:19:12
Also hier quietscht nix. :confused:

Dürften auch nicht alle Karten haben.
Ich finde das Geräusch als störend, da es kurz hörbar und gleich wieder weg ist. Meinen Freund stört es nicht, der hatte noch eine GTX 460 von Palit welche einen Lüfter hatte, der extrem laut war im Idle.
Für ihn ist es ein Fortschritt, ich würde die Karte bei so einem Verhalten zurück schicken.


Jaa das kann ich hier auch bestätigen zwischen 1100-1300 RPM kommt das.
Das ist ein hochfrequenter Ton, welcher sich über das Rauschen legt.

Wenn man sich mal drauf eingeschossen hat, ist das ein NoGo..
Könnte bei einem angemessen Preis eventuell drüber hinweg hören, aber bei ~750 Tacken, nein das soll alles zu 100% zufriedenstellend sein.

Blöd ist halt das, je leiser die anderen Komponenten sind, je mehr fällt das auf. Fairerweise muss ich sagen, dass die Karte allgemein nicht fiept.

Last wiederum ist mir soweit fast egal, da darf die Karte ruhig arbeiten.
Allerdings soll gerade auch unter der Last der ACX von EVGA besser sein.

Meine SC kommt ja morgen :D Werde berichten ob die Karte was taugt.

Egal wie teuer, ich würde sowas sofort retournieren und fertig.
Aber gut, ich bau ja sowie so jede Karte um, daher habe ich selten die Original Kühler bzw. Lüfter gehört. Zumindest Spulenfiepen hat die Karte nicht, zumindest konnten wir die Karte noch nicht zum zirpen bringen.

HisN
2016-06-12, 16:06:09
Zwei dieser Galax HOF im SLI Verbund


Muss das Gehäuse ganz schön aufheizen^^

scully1234
2016-06-12, 16:15:12
darum auch der offene Aufbau, aber diese Karten kommen zu 90% ,sowieso wieder nicht nach good old Germany=)

dildo4u
2016-06-12, 16:40:32
Battlefront,BF4 und Overwatch in 4k auf Asus 1080 Strix.


https://youtu.be/r6Gjq7MEhU0

akuji13
2016-06-12, 17:02:07
naja ich glaube 15 min sind vielleicht doch etwas knapp bemessen=)

Nur für Leute die noch einen "special screw driver" besorgen müssen. :D

scully1234
2016-06-12, 17:02:21
Ob er wohl seinen Bandwidth Error bemerkt hat (x8x16 Slot)


Ich mein wenn ich schon so potente Karten teste steck ich die unterste doch nicht in ne x8 Verdrahtung =)

HisN
2016-06-13, 12:06:05
Ich mag die Leistung der 1080er in Witcher3 z.b. 3820x1648 (daran denken, die Aufnahme kostet gut 10% FPS)

YzmEbWtuqpI

Troyan
2016-06-13, 13:30:12
Die Mindfactory-Gruppe hat zur Zeit die Inno3d X2 GTX1080 für 699€ lagernd: http://geizhals.de/inno3d-geforce-gtx-1080-herculez-twin-x2-n1080-1sdn-p6dn-a1449284.html?v=k&hloc=de

Da eVGA anscheinend keine Standardkarten der ACX3.0 bis Mitte Juli liefern wird, habe ich mir die Karte mal bestellt.

TurricanM3
2016-06-13, 13:35:40
Und die X3 noch immer nicht. :/

PHuV
2016-06-13, 13:44:00
Viel Spass beim Fummeln

http://forums.evga.com/Really-Evga-Acx-30-Fail-m2493637.aspx#2493662
Das ist ja megapeinlich für EVGA. Da hat der QA wohl voll gepennt. :down:
Nur für Leute die noch einen "special screw driver" besorgen müssen. :D
Nö, wer ordentlich vorgeht, wird schon mal mit so einem Gefummel 30-60 min beschäftigt sein.

SamLombardo
2016-06-13, 13:47:34
Ich mag die Leistung der 1080er in Witcher3 z.b. 3820x1648 (daran denken, die Aufnahme kostet gut 10% FPS)

http://youtu.be/YzmEbWtuqpI
Sehr schön. Ist schon nochmal ein bisschen schneller als mit meiner übertakteten 980ti. Damit bin ich meist so zwischen 45 und 50 fps unterwegs in der Auflösung. (mit hairworks, ich weiss jezt nicht ob das bei dir an war.)
Aber: Du hast ja den Widescreen Patch für die Cutscenes gar nicht drauf. Ohne den ist das ganze doch nur halb so cool;).

HisN
2016-06-13, 13:55:10
Ganz hinten im Vid sind die Einstellungen.
Hairworks an, hohe Qualität, aber Antialiasing aus.

War das nicht ein Patch der die .exe ersetzt? Da bin ich skeptisch :-)

SamLombardo
2016-06-13, 14:49:09
War das nicht ein Patch der die .exe ersetzt? Da bin ich skeptisch :-)
Ja, es ist einfach nur eine bearbeitete .exe. Austauschen und du hast die Zwischensequenzen in perfektem 21:9. Ich nutze das seit ich letztes Jahr mit W3 angefangen habe und es gab nie Probleme. Probier es ruhig mal aus, die alte .exe kannst du ja vorher sichern. Wirst sehen, das Spiel wirkt so gleich viel schöner;)

http://www.wsgf.org/forums/viewtopic.php?f=95&t=29013&start=150 Ganz unten....funktioniert mit den 3840x16.. Auflösungen problemlos.


Sorry für OT die 1080 betreffend:redface:

phoenix887
2016-06-13, 15:06:06
richtig. nutze den 21:9 Patch auch seit letztes Jahr und keine Probleme unter Steam

HisN
2016-06-13, 15:54:59
^thx

VooDoo7mx
2016-06-13, 22:44:13
Ich mag die Leistung der 1080er in Witcher3 z.b. 3820x1648 (daran denken, die Aufnahme kostet gut 10% FPS)

http://youtu.be/YzmEbWtuqpI

Sorry abr das ist kein richtiges UHD. Durch die Mogeil mit der AUflösung sparst du dir fast 2Mio Pixel rechenaufwand für die Grafikkarte, also fast eine 1080p Auflösung.

Gynoug MD
2016-06-13, 23:29:32
Besitzt hier einer schon die MSI GeForce GTX 1080 GAMING X?
Scheint für mich die bisher hochwertigste "Custom"-Kühlung zu sein und nicht nur ein weiterer Blender, der fast genau so heiß wie die FE wird.

HisN
2016-06-13, 23:33:32
Sorry abr das ist kein richtiges UHD. Durch die Mogeil mit der AUflösung sparst du dir fast 2Mio Pixel rechenaufwand für die Grafikkarte, also fast eine 1080p Auflösung.


Dafür hast Du wundervolle 60 FPS fast durchgehend, und auf den Monitoren von mir und den beiden Vorpostern (wir haben alle den gleichen UHD-Monitor) sieht diese Auflösung spitzenmäßig aus. Nebenbei macht 21:9 einiges her.

WQHD isses leider auch nicht, Du ziehst Dich am Video-Titel hoch. Was soll ich Deiner Meinung nach denn am besten hinschreiben? *g* Möglichst kurz. 4 Buchstaben.

Cubitus
2016-06-13, 23:34:01
Also EVGA SC da und eingebaut. :D

Definitv besser als die FE.
EVGA (ACX 3.0) macht überhaupt einen hochwertigen Eindruck..

Zero Fan, auch unter Last deutlich leiser, etwas Spulenfiepen
aber okay.. Bei 38% Fan trifft Waschmaschine... Aber das haben die ACX Lüfter an sich. Ab 39% alles i.o
Temp max 80 Grad beim Dauer Test..

Karte macht respektable 2Ghz bei +250 Mhz Vram, rockstable. Takt wird gehalten, außer eben wenn ins PT.. Kommt mit dem setting hier selten vor..

https://abload.de/img/img_20160613_20262113zre6.jpg (http://abload.de/image.php?img=img_20160613_20262113zre6.jpg)

Awrack
2016-06-13, 23:48:24
Also EVGA SC da und eingebaut. :D

Definitv besser als die FE.
EVGA (ACX 3.0) macht überhaupt einen hochwertigen Eindruck..

Zero Fan, auch unter Last deutlich leiser, etwas Spulenfiepen
aber okay.. Bei 38% Fan trifft Waschmaschine... Aber das haben die ACX Lüfter an sich. Ab 39% alles i.o
Temp max 80 Grad beim Dauer Test..

Karte macht respektable 2Ghz bei +250 Mhz Vram, rockstable. Takt wird gehalten, außer eben wenn ins PT.. Kommt mit dem setting hier selten vor..

https://abload.de/img/img_20160613_20262113zre6.jpg (http://abload.de/image.php?img=img_20160613_20262113zre6.jpg)

Bei wieviel U/pm liegt die Karte dann?

Cubitus
2016-06-13, 23:58:50
Bei wieviel U/pm liegt die Karte dann?

Bei ~1140 rpm

Hübie
2016-06-14, 01:43:25
Und wieviel hat deine Waschmaschine? :biggrin:

SamLombardo
2016-06-14, 08:13:36
Sorry abr das ist kein richtiges UHD. Durch die Mogeil mit der AUflösung sparst du dir fast 2Mio Pixel rechenaufwand für die Grafikkarte, also fast eine 1080p Auflösung.
Ja klar 1080p Auflösung. Die 3840x1648 ist die dreifache(!) 1080p Auflösung (6,3 Millionen vs 2,07 Millionen) und liegen bei der Pixelanzahl deutlich über wqhd. Da die 21:9 Auflösung unskaliert wiedergegeben wird, hast du die volle UHD Schärfe, da nichts interpoliert werden muss. Man braucht halt nur einen entsprechend großen UHD Monitor;)

woodsdog
2016-06-14, 08:19:33
Du solltest noch mal lesen... er sprach davon das "Praktisch einmal full HD zu echtem UHD FEHLT".

desert
2016-06-14, 08:20:54
Pffft, ja klar 1080p Auflösung. Die 3840x1648 ist die dreifache(!) 1080p Auflösung (6,3 Millionen vs 2,07 Millionen) und liegen bei der Pixelanzahl deutlich über wqhd. Da die 21:9 Auflösung unskaliert wiedergegeben wird, hast du die volle UHD Schärfe, da nichts interpoliert werden muss. Man braucht halt nur einen entsprechend großen UHD Monitor;)

Und wo hat er unrecht, er sagte das du fast eine FullHD auflösung sparst, und genau das ist der Fall.

MartinRiggs
2016-06-14, 08:25:48
Also EVGA SC da und eingebaut. :D

Definitv besser als die FE.
EVGA (ACX 3.0) macht überhaupt einen hochwertigen Eindruck..

Zero Fan, auch unter Last deutlich leiser, etwas Spulenfiepen
aber okay.. Bei 38% Fan trifft Waschmaschine... Aber das haben die ACX Lüfter an sich. Ab 39% alles i.o
Temp max 80 Grad beim Dauer Test..


Sind trotz der 1080er Preislage die Ansprüche so gesunken :eek:
Spulenfiepen, Waschmaschinen-Lüfter(was auch immer das heißt, Schleifen?) und dann eiert die Grafikkarte auch noch bei 80 Grad rum?

Das Ding würde ich nach maximal einer Stunde wieder verpacken und Retour schicken.

SamLombardo
2016-06-14, 08:29:57
Du solltest noch mal lesen... er sprach davon das "Praktisch einmal full HD zu echtem UHD FEHLT".
Und wo hat er unrecht, er sagte das du fast eine FullHD auflösung sparst, und genau das ist der Fall.
Ups:redface:. Jaaa ihr habt natürlich recht. Sorry, mein Fehler. Wer lesen kann ist offensichtlich klar im Vorteil;)

phoenix887
2016-06-14, 08:43:51
Ja klar 1080p Auflösung. Die 3840x1648 ist die dreifache(!) 1080p Auflösung (6,3 Millionen vs 2,07 Millionen) und liegen bei der Pixelanzahl deutlich über wqhd. Da die 21:9 Auflösung unskaliert wiedergegeben wird, hast du die volle UHD Schärfe, da nichts interpoliert werden muss. Man braucht halt nur einen entsprechend großen UHD Monitor;)

genau. Da gibt es von der Schärfe keinen Unterschied zu der native Auflösung. 40 Zoll machen es möglich und der geniale Schwarzwert. Der ist so gut das ich in Witcher 3 in einer Höhle fast nie Katzenauge brauche:D

Raff
2016-06-14, 08:46:57
Ich kann mir vorstellen, dass das ziemlich geil aussieht – und keineswegs interpoliert, sondern zentriert. :) Ich spiele auch immer wieder in 4.096 × 1.714 statt 4.096 × 2.160, jedoch ist der Verlust an Bildfläche auf 31 Zoll meist schmerzhaft.

MfG,
Raff

mischi
2016-06-14, 09:19:44
Gibt es eigentlich abgesehen von den computerbase Tests schon Reviews, die auch mal auf den Idle Verbrauch der 1080 Custom Design eingehen?

Ich persönlich möchte eigentlich keine Graka haben, die wie die Asus ohne Mehrwert einfach 4W mehr braucht.

Entsteht der Mehrverbrauch eigentlich durch ein höhere Idle Taktfrequenz oder ist die geänderte Stromversorgung Schuld?

Raff
2016-06-14, 09:27:13
Beides. :)

Ich habe hier einen Haufen Werte diverser Custom-Designs, allerdings werden die erst Anfang Juli im Rahmen der PCGH 08/2016 publik.

MfG,
Raff

HisN
2016-06-14, 09:42:27
In Witcher3 auf 7680x4320 geht der Graka übrigens jämmlich das VRAM aus.
1 FPS ohne PT .. Graka langweilt sich, weil die Daten nicht schnell genug geliefert werden können.


http://abload.de/thumb/witcher3_2016_06_14_0w0uw7.jpg (http://abload.de/image.php?img=witcher3_2016_06_14_0w0uw7.jpg)

Raff, Du hast doch bestimmt Deine Titan X irgendwo noch rumzuschwirren, schon mal probiert ob das mit 12GB besser läuft? Ich hab meine beiden leider schon veräußert.

Raff
2016-06-14, 09:43:53
In Witcher 3 @ 8K haben aktuelle Grafikkarten noch ganz andere Probleme. :ugly: Aber klar, kann ich nachher gerne mal testen – meine TX schwirrt aber nicht, sie schnurrt. Bis Vega/GP102. =)

MfG,
Raff

mischi
2016-06-14, 10:20:51
Beides. :)

allerdings werden die erst Anfang Juli im Rahmen der PCGH 08/2016 publik.



na das ist doch ein Grund, das Heft zu kaufen, auch wenn mir die Zeit bis dahin endlos vorkommt.

scully1234
2016-06-14, 10:50:15
Also EVGA SC da und eingebaut. :D



https://abload.de/img/img_20160613_20262113zre6.jpg (http://abload.de/image.php?img=img_20160613_20262113zre6.jpg)

Holy Moly jetzt findeste bei Smog in der Bude sogar deinen Rechner wieder mit dem Fernscheinwerfen in der Karte=)

Geächteter
2016-06-14, 11:44:28
Holy Moly jetzt findeste bei Smog in der Bude sogar deinen Rechner wieder mit dem Fernscheinwerfen in der Karte=)
Angeblich laut Herstellern soll sich doch der RGB-Firlefanz mit Hilfe ihrer Tools deaktivieren lassen, bei EVGA dann mit Precision X 16?
Bei manchen kann man ja die Farbe der Christbaumbeleuchtung auch ändern?


Zero Fan, auch unter Last deutlich leiser, etwas Spulenfiepen
aber okay.. ]

Ist doch exakt FE-Referenzdesign mit 5+1?
Müsste das Spulenfiepen exakt so wie bei der FE sein?

Dr.Doom
2016-06-14, 11:54:58
Angeblich laut Herstellern soll sich doch der RGB-Firlefanz mit Hilfe ihrer Tools deaktivieren lassen, bei EVGA dann mit Precision X 16?
Bei manchen kann man ja die Farbe der Christbaumbeleuchtung auch ändern?Bei der Referenz-GTX 980 ist das LED-Brimborium ein spendiertes Feature von nVidia, nicht von EVGA&Co.
Dies kann man mit unser aller Lieblings-Tool "GeForce Experience" abschalten.

Wird vmtl. mit den Pascal-Dingern ähnlich bis gleich funktionieren.

scully1234
2016-06-14, 12:53:14
Der Preis der Karte ist viel zu hoch...

Nvidia partners insist they can sell as many cards as Nvidia can supply...
Boutique vendors including Origin PC, Maingear, Falcon Northwest, Velocity micro and a few others tell us they cannot get enough of the high end cards, as this is what their customers want (http://www.fudzilla.com/news/graphics/40901-nvidia-gp102-titan-coming-soon)

Aber irgendwie war es ja doch klar ,das es wieder so kommt


Es wird gejammert ,und dann wird trotzdem gekauft wie Bolle:wink:

Hat der Konzern also wieder mal bewiesen , das er den Wert seiner Produkte richtig eingeschaetz hat.

Godmode
2016-06-14, 13:45:14
Der Preis der Karte ist viel zu hoch...



Aber irgendwie war es ja doch klar ,das es wieder so kommt


Es wird gejammert ,und dann wird trotzdem gekauft wie Bolle:wink:

Hat der Konzern also wieder mal bewiesen , das er den Wert seiner Produkte richtig eingeschaetz hat.

Dem 970/980 User kann man einen Kauf nicht mal verübeln, dem 980 TI und Titan X User aber schon.

dildo4u
2016-06-14, 13:52:43
Hier scheinen die 8GB massiv was zu bringen selbst die 1070 ist deutlich schneller als die 980 Ti.


http://pclab.pl/art70140-9.html

Raff
2016-06-14, 13:54:40
Yep, wobei das Spiel nicht ganz koscher ist. Bitte hier die Prosa-Latte beachten: http://www.pcgameshardware.de/Mirrors-Edge-Catalyst-Spiel-55642/Specials/Benchmarks-Test-1197847/ ;)

MfG,
Raff

scully1234
2016-06-14, 14:06:29
Dem 970/980 User kann man einen Kauf nicht mal verübeln, dem 980 TI und Titan X User aber schon.


Muss jeder wie gesagt selber wissen, ich kann es nichtmal nen Titan X Kaeufer veruebeln ,wenn er mal was neues testen moechte.

Wobei ich nach den ganzen News jetzt doch erstmal abwarte wo die Titan bleibt

Cubitus
2016-06-14, 14:53:26
Sind trotz der 1080er Preislage die Ansprüche so gesunken :eek:
Spulenfiepen, Waschmaschinen-Lüfter(was auch immer das heißt, Schleifen?) und dann eiert die Grafikkarte auch noch bei 80 Grad rum?

Das Ding würde ich nach maximal einer Stunde wieder verpacken und Retour schicken.

Naja was heißt Ansprüche.
80 Grad max unter Last, im ITX, ist ganz okay.
Der Lüfter hat da noch nicht sein Maximum. Die FE war deutlich lauter und heißer ~90 Grad.

Waschmaschine, heißt das genau in diesem Drehzahlbereich der Lüfter sich wie eine anfahrende Waschmaschine im Schleudergang anhört.
Natürlich wesentlich leiser. Ist eine Eigenart der ACX Kühler, ist etwas schade das es mit der Version3 immer noch so ist. Aber nicht tragisch.
Unter Last liegt der Bereich eh höher.

Was Lautstärke allgemein angeht, ist die Gigabyte atm wohl die beste Wahl


Ist doch exakt FE-Referenzdesign mit 5+1?
Müsste das Spulenfiepen exakt so wie bei der FE sein?

Entspricht dem Referenz Design. Wobei meine FE kein Spulenfiepen hatte.
Die SC ein wenig. Denke das ist auch immer etwas Glück.


Holy Moly jetzt findeste bei Smog in der Bude sogar deinen Rechner wieder mit dem Fernscheinwerfen in der Karte

Finde cool wie die Karte jetzt durch die Lüftungschlitze leuchtet.
Über das Precision lässt sich das Licht dimmen, zumindest las ich das wo.

Bzw. Schon die FE Karten verkauften sich wie geschnitten Brot.
Wobei das eigl wirklich eine Frechheit ist. Man muss ganz klar sagen die Customs sind die bessere Wahl.

Dural
2016-06-14, 15:26:12
Hier scheinen die 8GB massiv was zu bringen selbst die 1070 ist deutlich schneller als die 980 Ti.


http://pclab.pl/art70140-9.html

Krass, eine 1080 ist hier 200% schneller als eine Fury X mit ihren 4GB :eek:

Dem 970/980 User kann man einen Kauf nicht mal verübeln, dem 980 TI und Titan X User aber schon.

Ich bin sehr Happy mit meiner 1080 :)

woodsdog
2016-06-14, 15:27:14
wow krass was ein wunder wenn der RAM alle ist.

trollpost.

Troyan
2016-06-14, 15:28:46
Laut AMD reichen 4GB für 4K aus. :lol:

Dural
2016-06-14, 15:36:08
Entspricht dem Referenz Design. Wobei meine FE kein Spulenfiepen hatte.
Die SC ein wenig. Denke das ist auch immer etwas Glück.


Meine 1080 hat extremes Spulenfiepen, so extrem wie keine andere NV Karte vor ihr! :rolleyes:

ChaosTM
2016-06-14, 15:46:44
Keine Ahnung, warum dieses Spiel mit gefühlten 3 Farben und null Details so viel Speicher frisst. Das weiß wohl nur der Entwickler..

Dural
2016-06-14, 15:55:48
also ich finde es krass, ich kann mich an kein anderes spiel erinnern wo ein doppelter speicher zwischen unspielbar mit unter 20FPS zu sehr gut spielbar mit 60FPS+ geführt hätte.

früher waren die abstände zwar auch gross, aber die karte mit dem grösseren speicher hatte oft auch keine wirklich guten FPS.

Troyan
2016-06-14, 16:02:32
Keine Ahnung, warum dieses Spiel mit gefühlten 3 Farben und null Details so viel Speicher frisst. Das weiß wohl nur der Entwickler..

Weil es Speicher benötigt? Die Schattenauflösung ist viel höher, die Texturen sind besser aufgelöst, es müssen mehr Daten für das verbesserte LoD vorgehalten werden etc.

Godmode
2016-06-14, 16:04:53
Ich bin sehr Happy mit meiner 1080 :)

Wieviel Prozent Mehrleistung bringt dir den die 1080 verglichen mit der Titan X? In meinem Fall wären es nur 5%, wenn die die 1080 mit 2,0 GHz laufen würde. Ist halt blöd wenn die aktuelle Karte so gut zum Übertakten geht.

TurricanM3
2016-06-14, 16:05:08
Meine 1080 hat extremes Spulenfiepen, so extrem wie keine andere NV Karte vor ihr! :rolleyes:


Ich hatte noch nie eine Karte in den letzten Jahren die frei von solchen Nebengeräuschen gewesen wäre. Wer meint seine Karte machte das nicht, bitte Handy 2cm neben Spulen halten während Heaven läuft und kurz die Lüfter stoppen. Da reichen auch unter 100fps. Das soll nur die Geräusche verdeutlichen, die andere schon so hören (wenn der Rest leise ist).
Meine jetzige 980 Leihkarte surrt in Division selbst bei 70fps problemlos für mich hörbar.

Dural
2016-06-14, 16:12:43
Wieviel Prozent Mehrleistung bringt dir den die 1080 verglichen mit der Titan X? In meinem Fall wären es nur 5%, wenn die die 1080 mit 2,0 GHz laufen würde. Ist halt blöd wenn die aktuelle Karte so gut zum Übertakten geht.

Gut du hast halt eine WaKü mit mod bios auf der TX.
Meine TX ist komplett stock, und da hat man bei 2GHz auf der 1080 schon ein spürbares plus. Minus ca. 80Watt weniger ;)

Zwar nicht die selbe CPU, aber die GPU mit max OC:

http://www.3dmark.com/fs/8793418

http://www.3dmark.com/fs/8751915

Das sind rund 15% mehr leistung, und in zukunft wird sich das noch erhöhen, da bin ich mir ziemlich sicher.


Ich hatte noch nie eine Karte in den letzten Jahren die frei von solchen Nebengeräuschen gewesen wäre. Wer meint seine Karte machte das nicht, bitte Handy 2cm neben Spulen halten während Heaven läuft und kurz die Lüfter stoppen. Da reichen auch unter 100fps. Das soll nur die Geräusche verdeutlichen, die andere schon so hören (wenn der Rest leise ist).
Meine jetzige 980 Leihkarte surrt in Division selbst bei 70fps problemlos für mich hörbar.

Meine hört man aber locker aus dem PC heraus bei 70% Lüfter. :eek: Hatte noch nie eine NV Ref. karte die so laut war, und ich hatte einige ;)

Godmode
2016-06-14, 16:19:15
Ich hatte noch nie eine Karte in den letzten Jahren die frei von solchen Nebengeräuschen gewesen wäre. Wer meint seine Karte machte das nicht, bitte Handy 2cm neben Spulen halten während Heaven läuft und kurz die Lüfter stoppen. Da reichen auch unter 100fps. Das soll nur die Geräusche verdeutlichen, die andere schon so hören (wenn der Rest leise ist).
Meine jetzige 980 Leihkarte surrt in Division selbst bei 70fps problemlos für mich hörbar.

Dito! Seit ich Wakü habe, höre ich das leider auch immer stark heraus. Das wäre dann noch ein besser gedämmtes Gehäuse eine Option.

Gut du hast halt eine WaKü mit mod bios auf der TX.
Meine TX ist komplett stock, und da hat man bei 2GHz auf der 1080 schon ein spürbares plus. Minus ca. 80Watt weniger ;)

Zwar nicht die selbe CPU, aber die GPU mit max OC:

http://www.3dmark.com/fs/8793418

http://www.3dmark.com/fs/8751915

Ok, das ist dann sein Argument.

Dural
2016-06-14, 16:42:02
Mein neues X99 Board ist heute gekommen, mein altes ist kaputt.

Habe in dem System noch eine 980 drin die extrem gut läuft, bis 1650MHz, eventuell baue ich in dort die 1080 ein, da kann ich dir schon jetzt versichern das ich mein TX System nur noch für Software Updates starten werde :freak:

TheCounter
2016-06-14, 17:30:58
Wasserkühler ist auch da und bereits alles eingebaut. Mache gerade eine Treiber-Neuinstallation :)

Das Mattschwarze PCB der 1080er sieht mal endgeil aus.

Godmode
2016-06-14, 17:48:16
OCing Ergebnisse möchten wir sehen. :naughty:

TheCounter
2016-06-14, 17:59:41
Gerne... allerdings erkennt Windows die Grafikkarte momentan nicht xD

Treiber lässt sich nicht installieren. Naja wollte Win10 eh mal neu installieren.

Dural
2016-06-14, 18:00:41
Mattschwarzes PCB? Die Ref. Karten von NV sind seit der 8800GTX schwarz, ausser die 8800Ultra die ein leichtes Braun hatte ;)

scully1234
2016-06-14, 18:02:11
Gerne... allerdings erkennt Windows die Grafikkarte momentan nicht xD

Treiber lässt sich nicht installieren. Naja wollte Win10 eh mal neu installieren.

Erkennt er gar kein Device, oder bringt er ne Fehlermeldung?

Manchmal ist das PCB auch leicht verkanntet/ mechanisch unter Spannung beim Wakueumbau (das loest auch Fehler in die Richtung aus)dann hilft es eventuell nochmal alle Schrauben zu loesen ,und sachte neu einzuschrauben

Dural
2016-06-14, 18:18:41
Ich habe mal auf einer XFX 8800Ultra XXX ein neuer Prototypen WaKü montiert, dieser hatte ein Design Fehler und hat einen Kurzschluss verursacht, die Karte war auf der stelle Tot. :freak:

Aber das sollte ja heut zu tage nicht mehr passieren.

TheCounter
2016-06-14, 18:24:27
Nach einem Update das Windows gerade gemacht hat, lässt sich der Treiber nun installieren ;)

Mattschwarzes PCB? Die Ref. Karten von NV sind seit der 8800GTX schwarz, ausser die 8800Ultra die ein leichtes Braun hatte ;)

Meine beiden GTX 780 waren zwar auch schwarz, aber hochglanz. Das Mattschwarz schaut schon Edler aus ;)

Thunderburne
2016-06-14, 18:25:58
Gestern mit meiner in 4K mal am Ram rumgespielt erste Grafikfehler ab 5960MHZ.
https://abload.de/thumb/doomx64_2016_06_13_21osudv.jpg (http://abload.de/image.php?img=doomx64_2016_06_13_21osudv.jpg) https://abload.de/thumb/doomx64_2016_06_13_21wxu2r.jpg (http://abload.de/image.php?img=doomx64_2016_06_13_21wxu2r.jpg) https://abload.de/thumb/doomx64_2016_06_13_21cxudx.jpg (http://abload.de/image.php?img=doomx64_2016_06_13_21cxudx.jpg)

FPS Skalierung bis 5900 noch vorhanden bei 2100GPU.
Doom läuft brutal gut in 4K max out.

Ich brauch mehr PT .

Outsider82
2016-06-14, 19:04:58
Zotac 1080 AMP! Extreme


Base: 1771 MHz
Boost: 1911 MHz
Speichertakt: 10.8 GHz

https://www.zotac.com/de/product/graphics_card/zotac-geforce-gtx-1080-amp-extreme#spec

... falls ihr es noch nicht gesehen haben solltet :-)

MiamiNice
2016-06-14, 19:16:28
Ich bin mit meiner 1080 nicht so ganz zufrieden da sie bei mehr als einem angeschlossenen Monitor total rum zickt. Mit einem Monitor ist alles bestens, Karte taktet auf 240/405Mhz und es gibt keine "Bildfehler" im Windows.
Aktiviere ich den 2. Monitor über DVI taktete die Karte die letzte Woche auf irgendwas um 1200/5005 im Windows und ich hatte auch keine Bildfehler.
Seit heute (nicht neues installiert oder geupdatet) versucht die Karte ständig runter zu takten und zerreißt mir dabei das Bild. Ich mein sie verbraucht auf 240/405 Mhz 30 Watt weniger laut Corsair Link im Idle aber das ist mir total ?wayne?. Ich möchte ein sauberes Bild im Windows haben und nicht jedesmal den Hustenanfall auf meinem Moni sehen wenn sich die Karte zu weit runter taktet.

Vorschläge?

Dr.Doom
2016-06-14, 19:26:33
Zotac 1080 AMP! Extreme


Base: 1771 MHz
Boost: 1911 MHz
Speichertakt: 10.8 GHz

https://www.zotac.com/de/product/graphics_card/zotac-geforce-gtx-1080-amp-extreme#spec

... falls ihr es noch nicht gesehen haben solltet :-)Und was passiert, wenn man hinten auf den Knopf drückt?

The Transformers..... more than meets the eye! :confused:

Outsider82
2016-06-14, 19:41:00
Das ist kein Knopf :-)

Zitat : "Mit dabei ist auch wieder Power Boost: Besonders große Kondensatoren, die für eine stabile Versorgung auch unter extremsten Bedingungen sorgen sollen."

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/39303-zotac-praesentiert-die-geforce-gtx-1080-amp-edition.html

Wird auch in einigen Videos auf Youtube erzählt von der Computex .... hier sieht man sie besser auf einer anderen Karte : http://static1.gamespot.com/uploads/original/917/9176928/2666799-img_0582.jpg

Ganz Unten Rechts ist auch glaub ich ein kleiner weißer Bios Switch zu sehen , also bei der 1080 AMP Extreme

TobiWahnKenobi
2016-06-14, 19:45:15
In Witcher3 auf 7680x4320 geht der Graka übrigens jämmlich das VRAM aus.
1 FPS ohne PT .. Graka langweilt sich, weil die Daten nicht schnell genug geliefert werden können.


http://abload.de/thumb/witcher3_2016_06_14_0w0uw7.jpg (http://abload.de/image.php?img=witcher3_2016_06_14_0w0uw7.jpg)

Raff, Du hast doch bestimmt Deine Titan X irgendwo noch rumzuschwirren, schon mal probiert ob das mit 12GB besser läuft? Ich hab meine beiden leider schon veräußert.

http://abload.de/img/10gibhek19.jpg
..nimmt sich in 8k um die 10GiB vom VRAM.

1440p (http://abload.de/image.php?img=witcher3_2016_tx-sli-vrkeb.jpg)
1620p (http://abload.de/image.php?img=witcher3_2016_tx-sli-g8j31.jpg)
UHD (http://abload.de/image.php?img=witcher3_2016_tx-sli-aljqe.jpg)
8K (http://abload.de/image.php?img=witcher3_2016_tx-sli-ocjev.jpg)



(..)

mfg
tobi

(del)
2016-06-14, 19:57:02
Ich finde es lustig, dass fast alle Customs im Idle auf 235 MHz laufen, während die Faule Edition auf 139 Mhz kommt. Immerhin 9 Watt vs. 16 Watt. Sowohl bei der GTX 1070 als eben auch bei der 1080.

Troyan
2016-06-14, 20:01:19
Ich finde es lustig, dass fast alle Customs im Idle auf 235 MHz laufen, während die Faule Edition auf 139 Mhz kommt. Immerhin 9 Watt vs. 16 Watt. Sowohl bei der GTX 1070 als eben auch bei der 1080.

Liegt am höhreren Takt. Wenn ich meine Karte übertakte, dann liegt der IDLE-Takt ebenfalls höher. War mit Boost 2.0 noch nicht so.

(del)
2016-06-14, 20:06:13
Das sollten die Karten mit Werks-BIOS @default eigentlich nicht haben, die Taktraten lassen sich ja normal in der Firmware eintragen. Was bei manuellem OC passiert, ist eine andere Geschichte. Aber MSI hat die 1070/80 eh etwas versemmelt, denn bei beiden ist das PT utopisch hoch, was zu ärgerlichen Nebeneffekten führen kann.

Troyan
2016-06-14, 20:16:32
Laut Computerbase hat das jede Karte: Asus, Gigabyte und Inno3D.

(del)
2016-06-14, 20:24:21
Ich wüsste gern den Grund dazu. 3 Hersteller sind nicht "jede". :)

TheCounter
2016-06-14, 20:25:38
So, funktioniert nun alles. Hab nur noch kurz einmal 3DMark Firestrike durchlaufen lassen (kostenlose Version; 23.503 Grafikpunkte).

Spulenfiepen ist minimal vorhanden, hört man aber so gut wie nicht.

Taktraten schwanken zwischen 1987MHz und 2050MHz. Die Tage werd ich mal ausführlich testen :)

x-force
2016-06-14, 20:28:23
Aber MSI hat die 1070/80 eh etwas versemmelt, denn bei beiden ist das PT utopisch hoch, was zu ärgerlichen Nebeneffekten führen kann.
ich finde das pt als übertakter eigentlich nicht hoch genug, so wie ich das verstanden habe ist die inno3d bisher mit 260w tdp am besten ausgestattet.
nebenher würde ich ein großes pt grundsätzlich immer begrüßen. dank der ausgefeilten curve einstellungen kann man so ganz einfach ein heruntertakten halbwegs gut abfangen, wenn man zumindest vom powerlimit in fordenden szenen nicht gebremst wird. bisher sieht es aber auch noch so aus, als würde die maximale stromstärke hardlocked sein. irgendwann hilft das powerlimit also leider nicht mehr und der chip drosselt sich anderweitig.

bei maxwell brauchte die 980 schon um die 280watt damit sie ihre ~1,45ghz und 4000 ram hält, eine 980ti liegt nach berichten dann bei guten 400w.

(del)
2016-06-14, 20:46:57
260W sind hirnfrei, die bis zu 300 Watt der MSI erst recht. Wenn Du weißt, wie Boost funktioniert, dann wirst Du auch merken, dass ein viel zu hohes PT definitiv nichts bringt. Ich messe exakt 237 Watt bei 2,2 GHz und Vollstress, die Spitzen gehen bis knapp 242 Watt. Mehr geht einfach nicht, egal was man als PT vorgibt. Nachteil der Aktion: immens gestiegene Leistungsaufnahme bei kaum noch adäquater Performancesteigerung. Siehe Grafik zur Shaderperformance letzte Seite.

Meine GTX 980 Ti schafft die 1.55 GHz bei knapp unter 300 Watt. Gemessen, nicht geschätzt ;)

phoenix887
2016-06-14, 20:52:17
ich finde das pt als übertakter eigentlich nicht hoch genug, so wie ich das verstanden habe ist die inno3d bisher mit 260w tdp am besten ausgestattet.
nebenher würde ich ein großes pt grundsätzlich immer begrüßen. dank der ausgefeilten curve einstellungen kann man so ganz einfach ein heruntertakten halbwegs gut abfangen, wenn man zumindest vom powerlimit in fordenden szenen nicht gebremst wird. bisher sieht es aber auch noch so aus, als würde die maximale stromstärke hardlocked sein. irgendwann hilft das powerlimit also leider nicht mehr und der chip drosselt sich anderweitig.

bei maxwell brauchte die 980 schon um die 280watt damit sie ihre ~1,45ghz und 4000 ram hält, eine 980ti liegt nach berichten dann bei guten 400w.

Quatsch 400W, Witcher 3 4K zieht bei meiner Ti maximal 350W. Siehe Signatur. Bei anderen Spielen noch um einiges weniger....

(del)
2016-06-14, 20:53:24
Die 350 Watt sind dann aber inklusive Spannungswandlerverlusten, oder?

Cubitus
2016-06-14, 21:04:33
260W sind hirnfrei, die bis zu 300 Watt der MSI erst recht. Wenn Du weißt, wie Boost funktioniert, dann wirst Du auch merken, dass ein viel zu hohes PT definitiv nichts bringt. Ich messe exakt 237 Watt bei 2,2 GHz und Vollstress, die Spitzen gehen bis knapp 242 Watt. Mehr geht einfach nicht, egal was man als PT vorgibt. Nachteil der Aktion: immens gestiegene Leistungsaufnahme bei kaum noch adäquater Performancesteigerung.

Genau dann hat man so einen Stromschlucker vor sich wegen, spitz gesagt, 1-3 FPS mehr und dem guten Gefühl über einen definierten Wert zu liegen, 2,1 Ghz klingen viel besser als 2,0 Ghz usw..

Bzw. meine kleine SC schafft durchgängig 2 Ghz, bei 1,0310 Vcore.
Die würde auch 2,050 Ghz schaffen, allerdings schon bei 1,060 Vcore.

PT ist eh ein Thema, aber warum die Karte unnötig hochprügeln..
Ich würde es ja verstehen, wenn es so wie damals wäre..

Manche 8800er GTXen ließen sich ohne Probleme bis zur Ultra takten.
Oder eine XT800Pro ließ sich zur XT-PE flashen.. Da hatte man noch was davon.. Das OC hier ist doch nur Augenwischerei, in einem ganz klar abgesteckten Rahmen.

x-force
2016-06-14, 21:06:52
Quatsch 400W, Witcher 3 4K zieht bei meiner Ti maximal 350W. Siehe Signatur. Bei anderen Spielen noch um einiges weniger....

ich weiß jedenfalls sicher, daß ich mit der 980 bei assetto corsa mit ordentlich dsr bei 280w lag.

ich habe das bios auf 280w tdp incl angepassten rails geflasht. die tools zeigen dann an, daß das tdp je nach streckenabschnitt und angezeigten gegnern richtung 120%aka280w geht. mein chip hatte einen 79er asic, also grundsätzlich kein schlechtes gerät.

->ich glaube daher kaum, daß die 980ti mit 50% mehr speicher, breiterem interface usw im gleichen szenario nur ~25% mehr braucht.

eine tdp ist für mich dann ausreichend, wenn sie zulässt, daß der maximal möglich takt, der keine artefakte oder freezes verursacht, dauerhaft gehalten werden kann, inkl übertaktetem ram.
natürlich ist das nicht effizient, aber darum geht es eher weniger, wenn das maximale aus seiner hardware holen will.

phoenix887
2016-06-14, 21:11:09
Die 350 Watt sind dann aber inklusive Spannungswandlerverlusten, oder?

Ne die Lighting hat ja den Militär Stahl der Klasse 4:D;D

ich weiß jedenfalls sicher, daß ich mit der 980 bei assetto corsa mit ordentlich dsr bei 280w lag.

ich habe das bios auf 280w tdp incl angepassten rails geflasht. die tools zeigen dann an, daß das tdp je nach streckenabschnitt und angezeigten gegnern richtung 120%aka280w geht. mein chip hatte einen 79er asic, also grundsätzlich kein schlechtes gerät.

->ich glaube daher kaum, daß die 980ti mit 50% mehr speicher, breiterem interface usw im gleichen szenario nur ~25% mehr braucht.

eine tdp ist für mich dann ausreichend, wenn sie zulässt, daß der maximal möglich takt, der keine artefakte oder freezes verursacht, dauerhaft gehalten werden kann, inkl übertaktetem ram.
natürlich ist das nicht effizient, aber darum geht es eher weniger, wenn das maximale aus seiner hardware holen will.

Kann nichts dazu sagen, habe das Spiel nicht. Kann nur sagen was meine Lightning im L2N Bios verbraucht und was ich bei 400 Spiele in meiner Steambibliothek beobachtet habe. Natürlich nicht alle 400 Spiele durchgetestet^^ aber einiges...

Thunderburne
2016-06-14, 21:24:24
Bei meiner SC komme ich bei Witcher 4K gelegentlich an die 120PT.
1.0V 2100/5500.
Gehe ich auf WQHD runter kann ich die 2152 Halten bei 1.04V.

HisN
2016-06-14, 21:48:59
http://abload.de/img/10gibhek19.jpg
..nimmt sich in 8k um die 10GiB vom VRAM.


Und ist locker 13x schneller in dem Fall^^

Thx fürs nachschauen.

HisN
2016-06-14, 21:51:56
Ich bin mit meiner 1080 nicht so ganz zufrieden da sie bei mehr als einem angeschlossenen Monitor total rum zickt. Mit einem Monitor ist alles bestens, Karte taktet auf 240/405Mhz und es gibt keine "Bildfehler" im Windows.
Aktiviere ich den 2. Monitor über DVI taktete die Karte die letzte Woche auf irgendwas um 1200/5005 im Windows und ich hatte auch keine Bildfehler.
Seit heute (nicht neues installiert oder geupdatet) versucht die Karte ständig runter zu takten und zerreißt mir dabei das Bild. Ich mein sie verbraucht auf 240/405 Mhz 30 Watt weniger laut Corsair Link im Idle aber das ist mir total ?wayne?. Ich möchte ein sauberes Bild im Windows haben und nicht jedesmal den Hustenanfall auf meinem Moni sehen wenn sich die Karte zu weit runter taktet.

Vorschläge?


Mal kurz erwähnen was Du für Monitore hast.
Wenn ich meinen UHD und meinen 2560x1600er Monitor zusammen betreibe (beide 60Hz), dann taktet die Graka brav auf 139Mhz zurück und es gibt keine Bildfehler.

Nicht dass Du da lustige 144Hz-Monitore betreibst. Eventuell noch G-Sync und 60Hz im Mischbetrieb.


http://abload.de/thumb/idle_1080gjsjt.jpg (http://abload.de/image.php?img=idle_1080gjsjt.jpg)

Erst wenn ich drei (60Hz) Monitore anschalte. Dann geht der Takt hoch.

http://abload.de/thumb/dreimonitoreutuaz.jpg (http://abload.de/image.php?img=dreimonitoreutuaz.jpg)

Ich vermute mal Du hast mindestens einen 144Hz-Monitor, den Du auch am Desktop so betreibst. Und da wird der Hase im Pfeffer liegen.

scully1234
2016-06-14, 22:37:25
Hier hat einer seine Galax HOF mit nem Wasserkuehler modifiziert,sie boostet mit dem modifizierten Kuehler bei konstanten 2,15 GHZ im 3D Mark nicht powerlimitiert. Der Werkstakt der Karte soll wenn ich das richtig verstanden habe bei 2088MHZ liegen.


https://abload.de/img/220315hrnrn8vuwr9ne2470ji1.jpg
https://abload.de/img/204459hueurmu6xj6es7dgxjso.jpg
https://abload.de/img/204450b6bynb9ir6i6zn8vzjlq.jpg
https://abload.de/img/204450gera3s13h8h75zktgk0h.jpg
https://abload.de/img/204450wrartc2aeargjmknzkbs.jpg
https://abload.de/img/204451y6y1sxt2m2yma7x5tk7n.jpg
https://abload.de/img/204451y3ddq0leu60l2e3ebk1a.jpg
https://abload.de/img/205050v4447zf4v37vhflw9k12.jpg
https://abload.de/img/204452mxxaa2p5wtjnxzj4xk49.jpg
https://abload.de/img/204452cma7xncippnk1z7syjdo.jpg
https://www.chiphell.com/thread-1602701-1-1.html


Und ein vollstaendiges Review der Zotac Custom Karte ,die die Waermeleitpaste wohl zur Daemmung einsetzen:freak:

Darum wohl auch die drastischen Temperaturen;D

http://m.expreview.com/47599.html

https://abload.de/img/zotacgtx1080tgp_15tokaw.jpghttps://abload.de/img/zotacgtx1080tgp_24gfbo2.jpg

Outsider82
2016-06-15, 00:19:57
Diese Zotac Karte wird es bei uns nicht geben sondern nur im Asiatischen Raum!!

Es ist die "PGF" die dort gestestet wurde , bei uns gibt es nur die "AMP!" und "AMP! Extrem"

MiamiNice
2016-06-15, 01:16:10
Nicht dass Du da lustige 144Hz-Monitore betreibst. Eventuell noch G-Sync und 60Hz im Mischbetrieb.


.

This :)
2560x1440 @144 @G-Sync -> DP
1200x1980 @60 ->DVI

Ne Rift hängt noch am HDMI, aber sollte nicht stören. Nur mit einem Moni und Rift taktet die Karte sauber runter.

Die 780GTX hatte damit keine Probleme.

Geächteter
2016-06-15, 01:37:16
Genau dann hat man so einen Stromschlucker vor sich wegen, spitz gesagt, 1-3 FPS mehr und dem guten Gefühl über einen definierten Wert zu liegen, 2,1 Ghz klingen viel besser als 2,0 Ghz usw..

Wie weit taktet deine SC im Leerlauf runter?

Megamember
2016-06-15, 09:14:26
Und ein vollstaendiges Review der Zotac Custom Karte ,die die Waermeleitpaste wohl zur Daemmung einsetzen:freak:

Darum wohl auch die drastischen Temperaturen;D



Es gibt kein zuviel WLP ;):

rAid5G30-WM

HisN
2016-06-15, 09:16:54
Die 780GTX hatte damit keine Probleme.

Schon mal versucht den 144hz-Moni am Desktop nur mit 120Hz laufen zu lassen, und nur beim Zocken die 144Hz zu nutzen?

BlacKi
2016-06-15, 09:28:01
Es gibt kein zuviel WLP ;):

http://youtu.be/rAid5G30-WM
https://youtu.be/xBexZQ32Tnc?t=581

uweskw
2016-06-15, 09:43:29
Ich finde es lustig, dass fast alle Customs im Idle auf 235 MHz laufen, während die Faule Edition auf 139 Mhz kommt. Immerhin 9 Watt vs. 16 Watt. Sowohl bei der GTX 1070 als eben auch bei der 1080.


Kann das wer verifizieren? Mit Spulenfiepen könnte ich leben. Auch mit erhöhter Leistungsaufnahme unter Last.
Aber fast doppelter Verbrauch im Leerlauf? 24/7 ? Das wäre ein no-go.

greetz
US

Dural
2016-06-15, 09:56:43
Ernsthaft? Wegen 7Watt :rolleyes:

L233
2016-06-15, 10:00:54
Ernsthaft? Wegen 7Watt :rolleyes:
Kleinvieh macht auch Mist... wobei so um die 15 Euro im Jahr rum im Verhältnis zum Anschaffungspreis sicher nicht die Welt sind. Sollte man natürlich einkalkulieren - das, was man mit einer billigeren Custom beim Anschaffungspreis spart, heizt man über die Lebensdauer über den Mehrverbrauch im Idle wieder raus.

Palpatin
2016-06-15, 10:01:53
This :)
2560x1440 @144 @G-Sync -> DP
1200x1980 @60 ->DVI

Ne Rift hängt noch am HDMI, aber sollte nicht stören. Nur mit einem Moni und Rift taktet die Karte sauber runter.

Die 780GTX hatte damit keine Probleme.
Keine Möglichkeit den 2te Monitor über die CPU laufen zu lassen? Hatte bei Nvidia immer wieder Probleme wenn ich mehrere Monitore an der GPU (Gsync 3dvision SLI 4k etc alles kann Probs machen) hatte. Seit ich den 2te Monitor am Board und über die INTEL GPU laufen habe, alles problemlos.

HisN
2016-06-15, 10:02:50
https://www.computerbase.de/2016-06/inno3d-ichill-geforce-gtx-1080-x3-test/2/
CB meint es liegt an der Werksübertaktung.


291 MHz GPU-Takt im Leerlauf

Wie die Asus GeForce GTX 1080 Strix OC Edition erreicht auch Inno3Ds Modell nicht die von der Founders Edition erzielten Taktraten im Leerlauf. Anstelle der sehr geringen 139 MHz liegen in diesem Fall 291 MHz an. Das liegt an der Werksübertaktung der GPU.

Geächteter
2016-06-15, 11:23:55
https://www.computerbase.de/2016-06/inno3d-ichill-geforce-gtx-1080-x3-test/2/
CB meint es liegt an der Werksübertaktung.
Muss ja ein toller Boost 3.0 sein, wenn sich Übertaktung des Maximaltakts im 3D als Offset bis auf den Leerlaufwert niederschlägt. Ist das eigentlich bei Softwareübertakung bei der FE genauso?
Wenn nicht, liegts vielleicht an den hingerotzten Custombiosse. Wer die größten Werte im Powertarget und die größten Mhz einträgt, gewinnt die meisten "Gamer"herzen. Natürlich nur, wenn's auch noch gleichzeitig wild bunt blinkt und XXL-Phasen drauf sind. ;D

Thunderburne
2016-06-15, 11:37:00
Bin erstmal zufrieden so .
Für 2202 bräuchte ich noch ein Tick mehr V und deutlich mehr PT damit es auch in anderen Games nicht dropt.
Ohne Bios Mod geht es einfach nicht weiter mit 216 W und den nur 1,093V
https://abload.de/thumb/unbenannt67k4l.jpg (http://abload.de/image.php?img=unbenannt67k4l.jpg) https://abload.de/thumb/dyinglightgame_2016_0g4kkx.jpg (http://abload.de/image.php?img=dyinglightgame_2016_0g4kkx.jpg)

(del)
2016-06-15, 12:30:42
https://www.computerbase.de/2016-06/inno3d-ichill-geforce-gtx-1080-x3-test/2/
CB meint es liegt an der Werksübertaktung.

Das ist inhaltlich allerdings nicht ganz korrekt. Man kann die Base Clock und den Rest erst einmal hinsetzen wohin man will, der Takt im Idle bleibt deswegen trotzdem gleich. Das gilt auch fürs Software-OC :)

Muss ja ein toller Boost 3.0 sein, wenn sich Übertaktung des Maximaltakts im 3D als Offset bis auf den Leerlaufwert niederschlägt. Ist das eigentlich bei Softwareübertakung bei der FE genauso?
Wenn nicht, liegts vielleicht an den hingerotzten Custombiosse. Wer die größten Werte im Powertarget und die größten Mhz einträgt, gewinnt die meisten "Gamer"herzen. Natürlich nur, wenn's auch noch gleichzeitig wild bunt blinkt und XXL-Phasen drauf sind. ;D

Ich weiß den (recht albernen) Grund aber mittlerweile, denn es liegt (mal wieder) an Nvidia Rules. Mehr dazu morgen im Artikel.
Ich habe mir gerade von einem befreundeten R&D-Mitarbeiter diesbezüglich das BIOS und den Trick mit dem Takt erklären lassen ;)

yamo
2016-06-15, 12:50:42
Bin jetzt auch schwach geworden:ucrazy:: Palit Fools Ed. + Heatkiller, da Evga SC nicht lieferbar. Aber ich brauche mal wieder was neues...
@Format_C
Auf den Artikel freue ich mich schon.

TurricanM3
2016-06-15, 13:09:08
Umso mehr ernüchternde OC-Berichte von den custums kommen, desto mehr frage ich mich ob es für mich noch Sinn macht auf die X3 zu warten. Die 260W hätte ich schon gerne mitgenommen, aber mir dauert das zu lange...

Wäre nur blöde, wenn das mit Mod-Bios irgendwann dann wieder anders aussähe.

yamo
2016-06-15, 13:18:28
Umso mehr ernüchternde OC-Berichte von den custums kommen, desto mehr frage ich mich ob es für mich noch Sinn macht auf die X3 zu warten. Die 260W hätte ich schon gerne mitgenommen, aber mir dauert das zu lange...

Wäre nur blöde, wenn das mit Mod-Bios irgendwann dann wieder anders aussähe.

Glaube nicht, das man den Chip mit Mod-Bios noch weiter prügeln kann und da noch sinnvolle fps-Steigerungen erhält. Da hilft nur warten auf GP102 oder upgraden.

Godmode
2016-06-15, 13:41:19
Glaube nicht, das man den Chip mit Mod-Bios noch weiter prügeln kann und da noch sinnvolle fps-Steigerungen erhält. Da hilft nur warten auf GP102 oder upgraden.

Das ist eigentlich seit dem ausführlichen LN2-Artikel klar, nur einige wollen das immer noch nicht wahrhaben. Also nochmal in kurz: Was soll ein Mod-Bios helfen, wenn die LN2-Übertakter, jegliche Spannungssteuerung ausgehebelt haben? Deren Fazit ist ja, das der Chip ab ~2,2 GHz einfach "zu macht" und dann auch mehr Spannung nichts mehr hilft.

(del)
2016-06-15, 13:46:29
So schaut's aus. :D

yamo
2016-06-15, 14:03:03
Das ist eigentlich seit dem ausführlichen LN2-Artikel klar, nur einige wollen das immer noch nicht wahrhaben. Also nochmal in kurz: Was soll ein Mod-Bios helfen, wenn die LN2-Übertakter, jegliche Spannungssteuerung ausgehebelt haben? Deren Fazit ist ja, das der Chip ab ~2,2 GHz einfach "zu macht" und dann auch mehr Spannung nichts mehr hilft.
Genau. Würde mich auch nicht wundern, wenn NV direkt im Chip einen PL-Hardlock angebracht hätte. Andererseits kanns natürlich auch sein, dass der Chip bei voller Shaderauslastung bei 2,2 einfach dicht macht weil die Fertigungsgrenzen erreicht sind.
So schaut's aus. :D
Ich freue mich auf neue Erkentnisse, warum das so ist. Hast es ja gut angeteasert;)

Thunderburne
2016-06-15, 14:04:14
Das ist eigentlich seit dem ausführlichen LN2-Artikel klar, nur einige wollen das immer noch nicht wahrhaben. Also nochmal in kurz: Was soll ein Mod-Bios helfen, wenn die LN2-Übertakter, jegliche Spannungssteuerung ausgehebelt haben? Deren Fazit ist ja, das der Chip ab ~2,2 GHz einfach "zu macht" und dann auch mehr Spannung nichts mehr hilft.

Es geht mit 2202 MHZ bei mir nur brauch ich zwei Stuffen mehr V mehr Volt +PT.
Wenn ich mit das bei mir so unter Wasser ansehe wäre das kein Problem.
Bei 2176MHZ habe ich das selbe Fehlerbild wen die V nicht reicht.
Sprich 1.174V zu wenig für 2174 das reicht zwar für Doom 3 Stunden aber Dying light zeigt mir kleine rote blitzer.
Mit 1.181V sind die Blitzer weg alls Puffer habe ich 1.193V gegeben.
Bei 2202 1.193V bekomme ich auch wieder die roten blitzer heist gut 1.11V könnte ich gebrauchen vielleicht auch 1.12.
Das kann ich nach unten hinten mit jedem Takt reproduzieren.

Merkor
2016-06-15, 14:12:38
EVGA FTW Review:

EVGA GeForce GTX 1080 FTW Review | bit-tech.net (http://www.bit-tech.net/hardware/graphics/2016/06/15/evga-geforce-gtx-1080-ftw-review/1)

Enttäuschendes OC-Ergebnis bei diesem Sample, dafür scheinen Temperatur und Lautstärke zu stimmen.

Dural
2016-06-15, 14:36:11
also ich habe von 2000MHz auf 2100MHz gerade mal rund 1 FPS mehr. zb. in The Vanishing of Ethan Carter Redux.

Zudem selbst bei 2GHz wird ab und zu der Takt gesenkt.
Ich denke die 2GHz sind für GP104 ziemlich ideal, mehr bringt nur einen höheren Strom Verbrauch und kaum mehr Leistung im Durchschnitt.

Ich habe übrigens starke zweifel das mit der Ref. Karte, egal was für eine Kühlung die 2,1GHz+ gehalten werden können, das PT mit 120% ist einfach zu gering.

Übrigens ist Vanishing of Ethan Carter für die GPU eine extreme Belastung, habe selbst bei 1950MHz ab und zu Bildfehler beim Wasser weil er die Spannung auf bis zu 1,0Volt runter nimmt. Dieser Wert läuft sonst bei jedem anderen Spiel das ich bis jetzt getestet habe ohne Probleme.

Edit:
Habe gerade The Vanishing of Ethan Carter Redux noch mal laufen lassen.
2GHz GPU
5500MHz Memory
100% Lüfter
120% PT

Trotz Spannung auf max läuft die Karte nur mit 1,05Volt, wenn er mehr "probiert" greift Boost sofort ein und senkt die Spannung wider, bei 1,075Volt hat er kurz ca. 125% :rolleyes:
über 2,1GHz mit mehr Spannung ist quatsch, das macht das PT mit den 120% gar nicht mit. Selbst mit 2GHz / 1,05Volt kommt er manchmal an die 120% ran. :frown:

Ich habe so das Gefühl, sofern es mal ein mod Bios gibt so einige Karten plötzlich doch nicht mehr so stabil laufen werden wie gemeint ;)

yamo
2016-06-15, 15:01:24
Schmeiß mal Dead Island oder Dying Light an. Heizt extrem. Bei einigen geht der Ram bis auf 5900, was wesentlich mehr bringen soll.

(del)
2016-06-15, 15:08:47
Schaut Euch mal da letzte Diagramm an, was ich hier gepostet habe (das mit der Performance pro Shader Unit). Dann sieht man auch, dass die Performance der 1080 eingebremst wird. Naja, von was wohl... :P

MiamiNice
2016-06-15, 15:13:29
Schaut Euch mal da letzte Diagramm an, was ich hier gepostet habe (das mit der Performance pro Shader Unit). Dann sieht man auch, dass die Performance der 1080 eingebremst wird. Naja, von was wohl... :P

Vom Weihnachtsmann der zu Weihnachten Karten mit mehr Speicherbandbreite verschenkt?

Dural
2016-06-15, 15:15:57
Mein Speicher geht bis 6000MHz, mehr können die OC Tools bis jetzt gar nicht.
Hat hier und im luxx aber kein Schwein interessiert :freak:

http://www.3dmark.com/fs/8750589

Aber schon komisch, sofern ich was dazu geschrieben habe testen alle ihren Speicher noch mal ;)

Fakt ist das der Speicher, ähnlich wie bei AMD verschiedene Stufen hat. Die Steigerung der Leistung ist aber ab 5500MHz nicht der rede wert.

yamo
2016-06-15, 15:17:12
Vom Weihnachtsmann der zu Weihnachten Karten mit mehr Speicherbandbreite verschenkt?

In diesem Fall trägt Knecht Ruprecht eher seltsame Lederjacken und lacht sich ins grüne Säckchen. Mich hat er auch gekriegt.

(del)
2016-06-15, 15:35:18
Komm, die geile Moped-Jacke war genau MEIN Stil in den späten 1970ern. Schwalbe und Kasko-Halbschale mit Brille FTW!

yamo
2016-06-15, 15:52:14
Ich finde den Style eigentlich immer noch geil. Aber bei ner Präsentation????
Jetzt ist echt OT, sorry

Thunderburne
2016-06-15, 15:59:14
Mein Speicher geht bis 6000MHz, mehr können die OC Tools bis jetzt gar nicht.
Hat hier und im luxx aber kein Schwein interessiert :freak:

http://www.3dmark.com/fs/8750589

Aber schon komisch, sofern ich was dazu geschrieben habe testen alle ihren Speicher noch mal ;)

Fakt ist das der Speicher, ähnlich wie bei AMD verschiedene Stufen hat. Die Steigerung der Leistung ist aber ab 5500MHz nicht der rede wert.
Du krückst ja auch bei 2050MHZ rum auf der GPU.
Bei mir skaliert auch noch 5900 auf dem Ram.
Brauch dafür aber den Aquagrafix der Ek taugt nicht so für Ram Kühlung.

TurricanM3
2016-06-15, 16:02:07
Es geht mit 2202 MHZ bei mir nur brauch ich zwei Stuffen mehr V mehr Volt +PT.
Wenn ich mit das bei mir so unter Wasser ansehe wäre das kein Problem.
Bei 2176MHZ habe ich das selbe Fehlerbild wen die V nicht reicht.
Sprich 1.174V zu wenig für 2174 das reicht zwar für Doom 3 Stunden aber Dying light zeigt mir kleine rote blitzer.
Mit 1.181V sind die Blitzer weg alls Puffer habe ich 1.193V gegeben.
Bei 2202 1.193V bekomme ich auch wieder die roten blitzer heist gut 1.11V könnte ich gebrauchen vielleicht auch 1.12.
Das kann ich nach unten hinten mit jedem Takt reproduzieren.


Japp, einfach die "Sperre" oder was auch immer raus und mal sehen ob vielleicht 2.2GHz halbwegs effizient bei einer guten Karte gingen. Schön wäre auch, wenn der Takt dann voll gehalten würde und nicht mehr schwankt. Wenn nicht dann halt nicht. =)

yamo
2016-06-15, 16:11:03
Und dann? Habt ihr 1,3 fps mehr bei 2,2 GHZ? Schwachsinn.

scully1234
2016-06-15, 16:18:11
Komm, die geile Moped-Jacke war genau MEIN Stil in den späten 1970ern. Schwalbe und Kasko-Halbschale mit Brille FTW!

Nicht SR1:smile:

Raff
2016-06-15, 16:19:17
Hier geht's doch nicht darum, es zu fühlen. Wobei, doch, es geht um das gute Gefühl, einen geilen, glatten Takt zu haben – wie eben 1,5 GHz bei einer Titan X oder 980 Ti. :uup:

MfG,
Raff

Thunderburne
2016-06-15, 16:28:46
Japp, einfach die "Sperre" oder was auch immer raus und mal sehen ob vielleicht 2.2GHz halbwegs effizient bei einer guten Karte gingen. Schön wäre auch, wenn der Takt dann voll gehalten würde und nicht mehr schwankt. Wenn nicht dann halt nicht. =)
Ja die 2177 schwanken ja nur in the Witcher @4K Doom Takt konstannt Dying Light auch aber Witcher prügelt ins PT.
Mehr Spiele noch nicht angeschaut kommt aber noch.

Thunderburne
2016-06-15, 16:31:37
Und dann? Habt ihr 1,3 fps mehr bei 2,2 GHZ? Schwachsinn.

Dann ist das OC allgemein schwachfug oder wie?
Wenn man 1.2V irgendwann mal geben kann (könnten) es auch 1250 unter Wasser werden mit dickem Mora.
2225 bin ich zumindedt noch ins Game gekommen aber leider nur 1.09 V.

Das ist genauso wie das geseier ja aber die Ti mit 1506 mhz ist ja fast genauso schnell...ich hatte eine und 1.274V habe ich gebraucht und die dann auch 24/7 genutzt.
Dieser Schrott mit Efizienz tangiert mich 0,0 in 4K zählt jedes letzte Herzchen.
Und wenn die Bitch 300W will dann kriegt sie sie auch meine Ref 980Ti ging bis zu 385W hoch gesammte Karte versteht sich das 400W PT war fast ausgeschöpft.

yamo
2016-06-15, 17:09:12
Kann mal die OT(am besten noch TI und Titan) Vergleicher hier einnordnen?
Eure dämlichen Vergleiche nehme ich nur am Rande wahr. Es gilt der Abstand zur 980gtx.

(del)
2016-06-15, 17:10:37
Die Frame Times beim OC der 1070/1080 auf 2,1 GHz sind etwas schlechter als die @stock, egal ob Founders oder MSI, Gibayte & Co. Dann lieber auf den Unsinn verzichten und smoother durch die Gegend laufen :)

Zu Maxwell vs. Pascal habe ich morgen auch ein paar nette Diagramme :)

yamo
2016-06-15, 17:26:01
Dann ist das OC allgemein schwachfug oder wie?
Wenn man 1.2V irgendwann mal geben kann (könnten) es auch 1250 unter Wasser werden mit dickem Mora.
2225 bin ich zumindedt noch ins Game gekommen aber leider nur 1.09 V.

Das ist genauso wie das geseier ja aber die Ti mit 1506 mhz ist ja fast genauso schnell...ich hatte eine und 1.274V habe ich gebraucht und die dann auch 24/7 genutzt.
Dieser Schrott mit Efizienz tangiert mich 0,0 in 4K zählt jedes letzte Herzchen.
Und wenn die Bitch 300W will dann kriegt sie sie auch meine Ref 980Ti ging bis zu 385W hoch gesammte Karte versteht sich das 400W PT war fast ausgeschöpft.
Von was kommst Du denn? Das Gejammer ist aber auf Niveau;)

illidan
2016-06-15, 17:26:03
Die Frame Times beim OC der 1070/1080 auf 2,1 GHz sind etwas schlechter als die @stock, egal ob Founders oder MSI, Gibayte & Co. Dann lieber auf den Unsinn verzichten und smoother durch die Gegend laufen :)

Öh, wie geht das denn? Das wär dann aber echt eklig und ärgerlich.

Dural
2016-06-15, 17:27:54
ist doch auch logisch? da der takt da oben deutlich mehr hin und her springt.

x-force
2016-06-15, 17:39:37
ja aber er sollte doch nicht unter die baseclock springen, so daß die frametimes schlecher als @stock sind :confused:

Dural
2016-06-15, 17:52:40
In Sachen Speicher OC habe ich gerade noch mal The Vanishing of Ethan Carter Redux gestartet:

Bei beiden Test exakt diese Daten:
2025MHz GPU
120% PT
100% Lüfter
GPU Temp 61°C

5500MHz Speicher 59,3 FPS
6000MHz Speicher 59,9 FPS

Thunderburne
2016-06-15, 17:53:15
Von was kommst Du denn? Das Gejammer ist aber auf Niveau;);D

illidan
2016-06-15, 17:54:45
ist doch auch logisch? da der takt da oben deutlich mehr hin und her springt.
Aber doch nicht so heftig, sofern das PT nicht extrem knapp ist.

Dural
2016-06-15, 18:07:07
In Sachen Speicher OC habe ich gerade noch mal The Vanishing of Ethan Carter Redux gestartet:

Bei beiden Test exakt diese Daten:
2025MHz GPU
120% PT
100% Lüfter
GPU Temp 61°C

5500MHz Speicher 59,3 FPS
6000MHz Speicher 59,9 FPS


Das selbe noch in DOOM:


5500MHz Speicher 74,1 FPS
6000MHz Speicher 74,4 FPS

Godmode
2016-06-15, 18:08:10
Die Frame Times beim OC der 1070/1080 auf 2,1 GHz sind etwas schlechter als die @stock, egal ob Founders oder MSI, Gibayte & Co. Dann lieber auf den Unsinn verzichten und smoother durch die Gegend laufen :)


Da wäre dann auch ein Vergleich mit einer 980 oder Titan X interessant.

Ätznatron
2016-06-15, 18:09:29
Die Frame Times beim OC der 1070/1080 auf 2,1 GHz sind etwas schlechter als die @stock, egal ob Founders oder MSI, Gibayte & Co. Dann lieber auf den Unsinn verzichten und smoother durch die Gegend laufen :)

Zu Maxwell vs. Pascal habe ich morgen auch ein paar nette Diagramme :)

Ist denn die Qualität der Frametimes einer OC 980 Ti identisch zu der einer GTX 1080@Stock?

x-force
2016-06-15, 18:13:25
das wäre ja mal interessant, bzw eher die einer 1070@oc, weil ich denke, daß dieese die "alternative" ist, vor allem da es jetzt grade 980tis hinterhergeworfen gibt, und gegensatz zu den 1070ern lieferbar sind :D

Ätznatron
2016-06-15, 18:26:20
das wäre ja mal interessant, bzw eher die einer 1070@oc, weil ich denke, daß dieese die "alternative" ist, vor allem da es jetzt grade 980tis hinterhergeworfen gibt, und gegensatz zu den 1070ern lieferbar sind :D

Du hättest immerhin 2GB mehr Speicher und die geringere Leistungsaufnahme als Vorteil.

Ob das einen de facto Sidegrade attraktiver macht, sei mal dahingestellt.

MiamiNice
2016-06-15, 18:26:43
Keine Möglichkeit den 2te Monitor über die CPU laufen zu lassen? Hatte bei Nvidia immer wieder Probleme wenn ich mehrere Monitore an der GPU (Gsync 3dvision SLI 4k etc alles kann Probs machen) hatte. Seit ich den 2te Monitor am Board und über die INTEL GPU laufen habe, alles problemlos.

Die Idee ist ziemlich gut und wurde direkt umgesetzt. Wieder erwarten wurde das Problem dadurch sogar noch schlimmer. Ca. alle 3 Sekunden habe ich weiße Striche im Bild auf dem Desktop.
Jetzt habe ich allerdings herausgefunden woran das liegt. Der GP104 kann im runter getakteten Modus kein 2560x1440 at 144Hz ansteuern. Wahrscheinlich reicht die Leistung dafür nicht aus. Stelle ich 60Hz ein, funktioniert alles ohne Probleme.
Was für eine §$%§% Karte die GTX1080 ist, schon meine 780GTX hatte damit keine Probleme. Und von Qualität zeugt das nicht wenn eine Grafikkarte versucht sich selbst so weit runter zu takten bis die benötigte Leistung nicht mehr erbracht werden kann.
Ich bin echt am überleghen die zurück zu schicken und eine günstige 970er bis GP102 zu kaufen.
Ich bin mega enttäuscht selbst als einer der am liebsten bei grün über die Strasse geht ;)

Schrotti
2016-06-15, 19:12:22
Das selbe noch in DOOM:


5500MHz Speicher 74,1 FPS
6000MHz Speicher 74,4 FPS


Da limitiert wohl eher deine AMD CPU.

Rancor
2016-06-15, 19:12:55
Die Idee ist ziemlich gut und wurde direkt umgesetzt. Wieder erwarten wurde das Problem dadurch sogar noch schlimmer. Ca. alle 3 Sekunden habe ich weiße Striche im Bild auf dem Desktop.
Jetzt habe ich allerdings herausgefunden woran das liegt. Der GP104 kann im runter getakteten Modus kein 2560x1440 at 144Hz ansteuern. Wahrscheinlich reicht die Leistung dafür nicht aus. Stelle ich 60Hz ein, funktioniert alles ohne Probleme.
Was für eine §$%§% Karte die GTX1080 ist, schon meine 780GTX hatte damit keine Probleme. Und von Qualität zeugt das nicht wenn eine Grafikkarte versucht sich selbst so weit runter zu takten bis die benötigte Leistung nicht mehr erbracht werden kann.
Ich bin echt am überleghen die zurück zu schicken und eine günstige 970er bis GP102 zu kaufen.
Ich bin mega enttäuscht selbst als einer der am liebsten bei grün über die Strasse geht ;)

Und wer sagt dir das es bei GP102 nicht auch so ist? Die Probleme werden sicherlich per Treiber gefixt. Ansonsten musste mal bei Rot über die Ampel gehen :D

(del)
2016-06-15, 19:17:27
das wäre ja mal interessant, bzw eher die einer 1070@oc, weil ich denke, daß dieese die "alternative" ist, vor allem da es jetzt grade 980tis hinterhergeworfen gibt, und gegensatz zu den 1070ern lieferbar sind :D

Ich habe alle Frametimes im direkten Vergleich von @stock, Übertaktung und Sparmaßnahme. Das zudem für alle 5 getesteten Karten. Als reine Frame Times, als normalisierten Verlauf und als Smoothness-Analyse (Frame-zu-Frame Sprünge).

Wenn Du mich fragst, ich lass meine 980 Ti erst mal drin, auch wenn das Lager an Pascal-Karten fast schon überläuft :)

Knuddelbearli
2016-06-15, 19:27:17
ja aber er sollte doch nicht unter die baseclock springen, so daß die frametimes schlecher als @stock sind :confused:


ganz einfach powerlimit greift ein ( in einem Bereich für das es nicht ausgelegt ist ). nur reagiert die ja nie sofort also werden die fps Schwankungen größer. Selbe Problem nur um 1.000 mal schlimmer gibts ja auch beid en bisherigen AMD Karten ( ausgenommen Nano ) wenn man das PT stark senkt so das Takt nie gehalten wird.

(del)
2016-06-15, 19:35:51
FPS ungleich Frame Time. Bitte trennt das schön säuberlich. Die FPS-Zahlen sagen nämlich allein fast nichts aus.

Hier mal Maxwell, die Pascal-Karten gibts morgen:

http://media.bestofmicro.com/T/Z/589463/gallery/15-Frame-Times-Normalized-MSI-GTX-980-Ti-Lightning_r_600x450.png

(Normalisiert auf den Durchschnitt für den besseren Vergleich)

Die Smoothness-Analyse sieht die Karte bei Werkstakt dann eindeutig vorn:

http://media.bestofmicro.com/U/4/589468/gallery/25-Smoothness-MSI-GTX-980-Ti-Lightning_r_600x450.png

x-force
2016-06-15, 19:39:07
dann wird es vielleicht eine art overshooting sein und die regelung ist zu hektisch. im anderen fall müsste die amplitude der kurve ja einfach gedämpfter sein.
klingt danach als wäre der takt zu hoch für das tdp limit, ja :)
edit:

für mich als vsync nutzer ist das glaube ich weniger interessant, sondern eher, ob 16,6ms überschritten werden, oder nicht.
das lässt sich ja leider wegen der normalisierung nicht mehr ablesen.

die frage wäre also, ob die täler der stärker schwankenden kurve, die ja vermutlich im schnitt höher liegt, als die weniger schwankende,
über ebendieser liegen.

zum verständnis der kurven:
wie unterscheiden sich die kurven? "factory clocks" und "min power target" suggerieren jeweils verschiedene werte für takt und target.
das würde aber kaum vergleichbarkeit ergeben, oder wo ist mein fehler?

(del)
2016-06-15, 19:44:27
So schaut's aus. Boost ist dann hyperaktiv. Ich würde eine Ritalin ins Netzteil werfen :P

Man kann das sogar bis hin zu Frame-Drops weiterschleifen, wenn einem die Karte nix wert ist. Mit etwas Pech hat man dann am Ende sogar einen permanenten Dauer-Drop :D

Vielleicht begreift jetzt jemand, warum ich dieses Grenzwert-OC nicht sonderlich mag, es schadet meinem optischen Wohlbefinden. Die 1070 auf 2,1 GHz? Bitte gern, wer resistent ist...

für mich als vsync nutzer ist das glaube ich weniger interessant, sondern eher, ob 16,6ms überschritten werden, oder nicht.
das lässt sich ja leider wegen der normalisierung nicht mehr ablesen.

Dumm ist an der nicht normalisierten Grafik, dass sie wegen der doofen Frame Times beim Sparmodus so stark skaliert, dass man den Unterschied bei den anderen Kurven nicht mehr sieht. Ein weiterer Grund für die Normalisierung, aber wir haben dann ja alle drei Kurven online. :)

Skysnake
2016-06-15, 20:07:15
Tja, das ist halt das Problem mit rückgekoppelten Systeme. Wenn da die Parameter nicht stimmen, fängts halt an zu schwingen ;)

Bringhimup
2016-06-15, 21:58:45
So schaut's aus. Boost ist dann hyperaktiv. Ich würde eine Ritalin ins Netzteil werfen :P

Man kann das sogar bis hin zu Frame-Drops weiterschleifen, wenn einem die Karte nix wert ist. Mit etwas Pech hat man dann am Ende sogar einen permanenten Dauer-Drop :D

Vielleicht begreift jetzt jemand, warum ich dieses Grenzwert-OC nicht sonderlich mag, es schadet meinem optischen Wohlbefinden. Die 1070 auf 2,1 GHz? Bitte gern, wer resistent ist...

Hast du im Artikel denn ein Fazit drin, wie man mit der 1080 das "rundeste Spielerlebnis" erreichen kann? Also z.B. sowas:

PT auf Max stellen und die Frequenz dann z.B. nur auf 1800 begrenzen, damit er nie irgendwas regeln muss.

Troyan
2016-06-15, 21:59:47
Hast du im Artikel denn ein Fazit drin, wie man mit der 1080 das "rundeste Spielerlebnis" erreichen kann? Also z.B. sowas:

PT auf Max stellen und die Frequenz dann z.B. nur auf 1800 begrenzen, damit er nie irgendwas regeln muss.

Du kannst mit Boost 3.0 den gewünschten Boost-Step forcieren und den Takt individuell anpassen.

x-force
2016-06-15, 22:12:41
PT auf Max stellen und die Frequenz dann z.B. nur auf 1800 begrenzen, damit er nie irgendwas regeln muss.

dazu müsste man erstmal eine maximale last festlegen. nur auf was legt man sich fest? furmark, occt, anno 4k oder ähnliche games?
legt man sich jetzt auf ein game fest, kann es sein, daß ein neues probleme macht.

das ist ähnlich, wie wenn du dich entscheiden musst, ob dein intel mit avx erweiterungen stabil laufen soll, oder nicht.

Knuddelbearli
2016-06-15, 22:41:47
Müsste dann aber nicht auch bei deiner 75W 1080 die Frametimes mies werden? für den Bereich war der Boost ja auch nie gedacht.

Dural
2016-06-15, 22:58:06
Da limitiert wohl eher deine AMD CPU.

AMD? Da ist ein 4790K drin.

Thomas Gräf
2016-06-16, 00:16:19
dazu müsste man erstmal eine maximale last festlegen. nur auf was legt man sich fest? furmark, occt, anno 4k oder ähnliche games?
legt man sich jetzt auf ein game fest, kann es sein, daß ein neues probleme macht.

das ist ähnlich, wie wenn du dich entscheiden musst, ob dein intel mit avx erweiterungen stabil laufen soll, oder nicht.

Naja für jedes fucking Game ein OC Profil anlegen. Weil jede Grafik Engine was anderes macht.
Denkemal das wird Thema bleiben auch beim GP102.
Vielleicht gibt es eines Tages was beständiges wenn DX12/Vulkan und VR Fuß gefasst haben.

HisN
2016-06-16, 00:55:54
Ist das eigentlich bei Softwareübertakung bei der FE genauso?

Nein, die geht auch übertaktet schön auf 139Mhz zurück.


Das ist inhaltlich allerdings nicht ganz korrekt. Man kann die Base Clock und den Rest erst einmal hinsetzen wohin man will, der Takt im Idle bleibt deswegen trotzdem gleich. Das gilt auch fürs Software-OC :)


Flasht man auf seine EVGA FE das Bios von einer EVGA SC hat man auch den hochgedrehten Basetakt. Also liegt der Hund irgendwo im Bios begraben.

Thunderburne
2016-06-16, 01:15:17
Das muss so ausehen dann passt das auch mit den Frametimes:smile:
https://abload.de/thumb/dyinglight1177o0ktn.jpg (http://abload.de/image.php?img=dyinglight1177o0ktn.jpg)

(del)
2016-06-16, 06:39:28
Für den Rest, aber diesmal ohne pharmakologische Wortakrobatik:
GTX 1070/1080 vs. GTX 980 Ti: Effizienzanalyse & Leistungsaufnahme (http://www.tomshardware.de/gtx-1070-gtx-1080-nvidia-pascal-effizienz-performance,testberichte-242131.html)

woodsdog
2016-06-16, 07:04:46
super Artikel!

Auf Seite 3 sieht man wunderbar wie schwachsinnig die "letzte MHz" Jagt wirklich ist. Hier gibts ja so einige die sich einreden es bringe was noch mal 30,50,70 MHz mehr boost zu haben...

Godmode
2016-06-16, 07:12:39
Für den Rest, aber diesmal ohne pharmakologische Wortakrobatik:
GTX 1070/1080 vs. GTX 980 Ti: Effizienzanalyse & Leistungsaufnahme (http://www.tomshardware.de/gtx-1070-gtx-1080-nvidia-pascal-effizienz-performance,testberichte-242131.html)

Super Artikel! Dass da sonst noch niemand draufgekommen ist, Frametimes mit und ohne OCing zu messen?:confused:

(del)
2016-06-16, 07:14:30
Vor allem muss man solche Dinge wirklich im geschlossenen Gehäuse machen, so unbequem es auch scheinen mag. Ich bin am Überlegen, mir an der CNC einen großen Cube so als Benchtable zu modifizieren, dass er sowohl stehen (oben und seitlich zu öffnen für Hardwarewechsel) als auch seitlich liegen kann (Gehäusesimulation eines Midi-Towers mit hängend eingebauter VGA-Karte).

Am Ende sehe ich mich als Autor eigentlich immer in der Verantwortung, solch sinnlose Übertaktungsarien nicht auch noch zu befeuern. Man bekommt ein gutes Sample, übertaktet es bis kurz vor den Herzkasper und alle Leser machen das auch noch brav und ohne mitzudenken nach. Jeder denkt dann, die Karte von Brand A oder B sei besonders gut, aber das ist oft genug ein Trugschluss. Ich erinnere in diesem Zusammenhang nur an den Pentium-D805-Artikel auf unserer Seite, bei dem die hirnlosen Nachmacher dann zu Hauf ihre armen CPUs geschrottet hatten. :D

Sicher, OC kann den einen oder anderen Zugewinn bringen, doch sollte man an die Übertaktung stets Hirn- und nicht Schwanzgesteuert angehen. Ich sitze ja ab und an mal mit R&D-Mitarbeitern zusammen und es ist schon interessant wie und mit welchem Aufwand die einzelnen Hersteller ihre eigenen Taktraten letztendlich finden und festlegen. Da spielen so viele Faktoren eine Rolle, dass man davon ausgehen kann, dass ein Werks-OC immer der annähernd beste Kompromiss ist. Sicher wird man natürlich bei jeder Karte noch einen mehr oder weniger großen Spielraum finden, den der Hersteller für die Serienstreuung mit eingebaut hat, doch wenn man manuell Spannungen erhöhen muss, sollte wirklich Schluss sein.

OC_Burner
2016-06-16, 08:03:40
Ein wirklich sehr schöner Artikel! So unsauber wie es sich im Vorfeld anhörte sind die Frametimes also doch nicht wenn die Pascalkarten im Power Limit agieren. Ein Modbios für 150% Power Target und mehr wäre für den ein oder anderen trotzdem sicherlich ganz nett um den Takt in jeder Situation mit Wakü halten zu können.

Auch interessant das sich die GTX 980 Ti aus dem Mainboard-Slot garnichts genehmigt, obwohl das im Graka-Bios nicht so festgelegt ist.

Angiesan
2016-06-16, 08:21:00
Schöner Test, es ergibt sich jedoch eine Frage:

"Doch zwei Karten tanzen am Ende dann doch aus der Reihe: Die 1080er. Wir haben uns auf Ursachenforschung begeben und festgestellt, dass die beiden GeForce GTX 1080 durchaus schneller könnten, wenn sie denn dürften. Als eines der möglichen Limits sollte der etwas zu langsame Speicher auszumachen sein, denn durch ordentliches Anheben des Speichertaktes im Rahmen einer (gerade noch) stabilen Übertaktung schließt......."

Wie lässt sich das erklären aufgrund der reinen Leistungsrohdaten der beiden Karten? Die 1080 hat eine um knapp 32% höhere Rechenleistung wie die 1070, die aber aufgrund der bekannten Limitierungen PT und TP eher selten voll abgerufen wird.
Auf der anderen Seite hat die 1080 aber auch 25% mehr Speicherbandbreite wie die 1070 zur Verfügung, das sollte also aufgehen. Da muss was anderes die Bremse treten ;-) denn die 25% Mehrleistung 1080 vs 1070 kommen ja auch oft an wenn man sich diverse Benchmarks anschaut.


Grüße

Dr.Doom
2016-06-16, 09:01:28
Auch interessant das sich die GTX 980 Ti aus dem Mainboard-Slot garnichts genehmigt, obwohl das im Graka-Bios nicht so festgelegt ist.Wenn da auf der Platine kein "Draht" vom Stecker zum Verbraucher verlötet ist, dann gibt's ja auch nur eine Quelle, aus der sich die Karte bedienen kann.

(del)
2016-06-16, 09:09:53
denn die 25% Mehrleistung 1080 vs 1070 kommen ja auch oft an wenn man sich diverse Benchmarks anschaut.
Der theoretische Datendurchsatz beim Speicher ist aber auch nur eine Richtgröße und stimmt mit dem in der Praxis erzielten Durchsatz nicht zwingend überein. Wenn ein Spiel nicht auf einen großen Durchsatz angewiesen ist, nähern sich die Kurven ja auch weiter an. Ich erinnere mich irgendwo gelesen zu haben, dass die 1080 effektiv sogar mehr leiden, als die 1070er mit GDDR5 ohne X. Bei der 1070 müssen 25% weniger Shader-Einheiten bedient werden, da ist der pro Shader-Einheit anfallende Durchsatzanteil trotz "nur" GDDR5 deutlich höher. Es wird aber nicht die einzige Ursache sein, warum die 1080er bei gescheiter Auslastung nicht so recht aus den Pötten kommt.

Wenn da auf der Platine kein "Draht" vom Stecker zum Verbraucher verlötet ist, dann gibt's ja auch nur eine Quelle, aus der sich die Karte bedienen kann.
Trotzdem ist die Firmware darauf ausgelegt, die Balance zwischen den einzelnen Quellen zu regeln Oft ordnet man ja dem PEG eine komplette Phase zu, wobei im Falle der 980 Ti Lightning genau diese Phase einfach an den hinzugekommenen 6-Pin gelegt wurde. Das merkt man daran, dass man ihn definitiv anschließen muss, weil sonst die Firmware maunzt. :)

Dr.Doom
2016-06-16, 09:37:05
wobei im Falle der 980 Ti Lightning genau diese Phase einfach an den hinzugekommenen 6-Pin gelegt wurde.Sag' ich doch. Draht woanders anklemmen und gut. ;)

Dural
2016-06-16, 09:53:17
toller Test =)

Seit ich eine 1080 habe bin ich übrigens auch nicht mehr davon überzeugt das es nur die bandbreite ist, klar mehr würde dem gp104 sicherlich gut tun, aber irgend was anderes hat da auch noch seine finger im spiel.
könnte auch sein das GDDR5X einfach nicht so effektiv wie GDDR5 ist, oder durch den gerigeren Takt von GDDR5X in der GPU auch was niedriger taktet.

OC_Burner
2016-06-16, 09:56:22
Trotzdem ist die Firmware darauf ausgelegt, die Balance zwischen den einzelnen Quellen zu regeln Oft ordnet man ja dem PEG eine komplette Phase zu, wobei im Falle der 980 Ti Lightning genau diese Phase einfach an den hinzugekommenen 6-Pin gelegt wurde. Das merkt man daran, dass man ihn definitiv anschließen muss, weil sonst die Firmware maunzt. :)

Ah ok, habe das mit der Lightning wohl überlesen, ist also keine normale 980 Ti sondern ein Custom Desgin mit zusätzlichem 6-Pin Anschluss. Dann macht das Ganze natürlich sinn.

Raff
2016-06-16, 09:56:57
toller Test =)

Seit ich eine 1080 habe bin ich übrigens auch nicht mehr davon überzeugt das es nur die bandbreite ist, klar mehr würde dem gp104 sicherlich gut tun, aber irgend was anderes hat da auch noch seine finger im spiel.

Du hast deine Karte hier immer wieder mit 1.500 (6.000) MHz Speichertakt präsentiert. Das hat bisher keine Karte geschafft, die ich vorliegen habe – fast jede wird jenseits von 1.375 (5.500 MHz) langsamer. Die negative Skalierung erlaubt den Trugschluss, dass es nicht die Transferrate ist. ;)

MfG,
Raff

(del)
2016-06-16, 10:01:00
Effektive 6.000 habe ich auch nie geschafft, das ist sicher eher Wunschdenken oder eine seltene Ausnahme.

M4xw0lf
2016-06-16, 10:03:03
Für den Rest, aber diesmal ohne pharmakologische Wortakrobatik:
GTX 1070/1080 vs. GTX 980 Ti: Effizienzanalyse & Leistungsaufnahme (http://www.tomshardware.de/gtx-1070-gtx-1080-nvidia-pascal-effizienz-performance,testberichte-242131.html)
Diverse Typos in der Tabelle Eingangs: Die MSI 1080 Gaming X mag zwar den höchsten Boosttakt haben, ich bezweifle aber, dass der bei 1848 GHz liegt. :freak:
Außerdem ist ihre Rechenleistung nicht mit dem Basistakt errechnet, entgegen der Angabe in der Spalte links.

Geächteter
2016-06-16, 10:03:04
Für den Rest, aber diesmal ohne pharmakologische Wortakrobatik:
GTX 1070/1080 vs. GTX 980 Ti: Effizienzanalyse & Leistungsaufnahme (http://www.tomshardware.de/gtx-1070-gtx-1080-nvidia-pascal-effizienz-performance,testberichte-242131.html)
Jedenfalls freuen wir uns schon auf die ganzen kommenden Board-Partner-Karten und sind uns sicher, dass die R&D-Abteilungen der Hersteller auch noch etwas austüfteln werden, um die "Nvidia Rules" erneut auszuhebeln. Denn satte 16 Watt im Leerlauf sind für eine solche Karte einfach lächerlich und unzeitgemäß.

Am einfachsten wäre wohl einfach ein Stockbios und den Rest per Offset durch MSI Afterburner, Precison X und weitere proprietäre Tools, die jeder namhafte Hersteller bereits hat.
Keine Ahnung, warum die Hersteller unbedingt ihre erhöhten Werte im Bios verewigen müssen, die sowieso jede Stockkarte mit Leichtigkeit per Software-OC erreicht. :confused:
Nur, um noch mal einen satten Aufschlag verlangen zu können und die Produktpalette künstlich auffächern?
Einzig die erhöhte TDP ergibt vielleicht noch Sinn, aber sonst machen die Custombiosse der Hersteller mehr kaputt als ganz.
Kann man eigentlich schon die 1080/1070 selber flashen und auf ne Customkarte 'n Bios der Fools Edition draufmachen?
Wäre wohl die beste Kombination, um das beste aus 2 Welten zu bekommen ohne zugleich noch den Fool's Edition Aufschlag zahlen zu müssen, wenn denn mal die künstliche Lieferverzögerungsbremse vom Lederjackenmann für die Custommodelle gelockert wird und die Dinger verfügbar werden.
Die 1080 inkl. Eulenspiegel-Edition sind ja insgesamt immer noch rar wie Edelsteine und die Dinger, die heute noch in Shops lagern, zu 90 Prozent Rückläufer der FE-Edition.

BlacKi
2016-06-16, 10:04:48
Für den Rest, aber diesmal ohne pharmakologische Wortakrobatik:
GTX 1070/1080 vs. GTX 980 Ti: Effizienzanalyse & Leistungsaufnahme (http://www.tomshardware.de/gtx-1070-gtx-1080-nvidia-pascal-effizienz-performance,testberichte-242131.html)
nur die 1080fe zeigt etwas mehr frametime varianz beim oc, die frametimes der 980ti wird durch oc sogar besser, der rest ist ungefähr gleich.

panikmache wegen den frametimes bei oc halt ich da für unangebracht.

Dural
2016-06-16, 10:07:18
@Raff
@Format_C

Die Karte setzt zwischen schritte, wahrscheinlich werden die Timmings erhöht. ähnlich wie dies schon AMD macht.
Wo die sind weis ich nicht genau, um die 500MHz+ und 750MHz+ konnte ich etwas feststellen.

Ich vermute das bei 1000MHz+ auch wider einer kommt, kann dies aber nicht testen da die tools nicht mehr takt zu lassen.
wie ich mehrfach geschrieben habe, alles über 5500MHz bringt kaum was, man kann zwar was messen ist aber nicht der rede wert.

Was passiert den wenn ihr mit euren karten gleich auf 1000MHz+ geht???

M4xw0lf
2016-06-16, 10:10:02
http://media.bestofmicro.com/R/R/589383/gallery/11-Power-Consumption-vs.-Clock-rate_w_600.png

Seltsam wie sehr die 1070 FE hier unter den Pascals aus dem Rahmen fällt (deutlich höhere Steigung, d.h. mehr Leistung pro Takt nötig). Schlechtere Chipqualität als alle anderen Probanden?

Wobei - stimmt gar nicht. Erst über 1700 MHz wäre sie schlechter als die 1080er, vorher ist sie besser. Gegenüber der MSI 1070 schaut sie aber durchängig nicht toll aus. Y is?

jojo13
2016-06-16, 10:12:50
Hat doch mit Panikmache nichts zutun mir ist doch ein "ruhiges" Spiel lieber mit weniger oder gar kein OC als mit vieleicht 2FPS mini mehr und der Boost hüpft wie bekloppt hin und her. Graka OC....früher haben wir gesagt unter 500mhz+kannste das eh vergessen..was sollte sich daran geändert haben..das man inGame überhaupt spürbar was merkt.

MechWOLLIer
2016-06-16, 10:19:38
Was passiert den wenn ihr mit euren karten gleich auf 1000MHz+ geht???
Die Karte wird halt wie gesagt langsamer. Es ist kein Kunstwerk, einfach mal so +1000 MHz einzustellen. Läuft ja. Mir ist auch noch keine GTX 1080 begegnet, die bei 6.000 MHz nicht langsamer als mit 5.500 MHz ist. 5.550 MHz schafft hier eine, alles höher wird spätestens dann kontraproduktiv.

M4xw0lf
2016-06-16, 10:23:27
Aha, die 1070 FE im Test ist durchgängig auch die wärmste Karte relativ zur Leistungsaufnahme.

http://media.bestofmicro.com/U/T/589493/gallery/21-Temperatures-Per-Watt_w_600.png

Evtl ist es also wirklich die Chipqualität - oder der Kühler sitzt bei dieser Karte schlechter als bei den anderen. Gerade die Differenz zur 1080 FE dürfte es eigentlich nicht geben.

(del)
2016-06-16, 10:23:32
Genauso sieht es aus. :)

Der Kühler sitzt perfekt, ich hatte ihn auch schon ab und wieder drauf. Selbes Ergebnis.
Man hätte allerdings die Lüfterdrehzahlen an die Belange der 1070 FE besser anpassen können.
Nicht mein Fehler :)

Die Karte wird halt wie gesagt langsamer. Es ist kein Kunstwerk, einfach mal so +1000 MHz einzustellen. Läuft ja. Mir ist auch noch keine GTX 1080 begegnet, die bei 6.000 MHz nicht langsamer als mit 5.500 MHz ist. 5.550 MHz schafft hier eine, alles höher wird spätestens dann kontraproduktiv.
Sehe ich genauso. :)

M4xw0lf
2016-06-16, 10:25:45
Omnomnom. Dieser Artikel ist so voller leckerer Daten. :usweet:

Ist der Kühler bei 1070 und 1080 FE eigentlich identisch? Ich finde die Unterschiede schon heftig.

RoughNeck
2016-06-16, 10:30:29
Der Kühler der 1070 hat keine Vapor Chamber.

(del)
2016-06-16, 10:34:19
Es ist leider Cost Down. Deshalb auch der Hinweis auf andere Lüfterdrehzahlen :)

M4xw0lf
2016-06-16, 10:36:29
Der Kühler der 1070 hat keine Vapor Chamber.
Es ist leider Cost Down. Deshalb auch der Hinweis auf andere Lüfterdrehzahlen :)
Na dann macht das Sinn. Die 1080 FE bekommt immerhin 20W mehr bei gleicher Lautstärke weggeföhnt.

Und dafür dann 500€... Herr lass es Hirn regnen.

phoenix887
2016-06-16, 10:44:52
Für den Rest, aber diesmal ohne pharmakologische Wortakrobatik:
GTX 1070/1080 vs. GTX 980 Ti: Effizienzanalyse & Leistungsaufnahme (http://www.tomshardware.de/gtx-1070-gtx-1080-nvidia-pascal-effizienz-performance,testberichte-242131.html)

Hast das aber bei der Lightning mit dem normalen Bios gemacht? Den mit dem L2N Bios und PT@Max, springt bei mir nichts hin und her...die 1530mhz sind bei mir wie in Stein gemeißelt...von daher gehe ich mal aus, das mich die Problematik nicht trifft, mir ist auch nichts aufgefallen...Selbst aktuell mit der Rift alles extrem smooth, da nimmt man ja Ruckler nochmal viel empfindlicher wahr...

(del)
2016-06-16, 10:56:21
Das OC war mit LN2-BIOS, sonst geht die Karte ja gar nicht so hoch. Der Takt ist weitgehend stabil, jedenfalls in GPU-Z. Leider sind dort die Messintervalle viel zu grob, denn 500 ms sind nun mal eine halbe Ewigkeit.

Wenn ich jedoch die extrem hibbeligen Kurven der Leistungsaufnahme so vergleiche, dann schaltet die Karte brutal um von Schwanensee auf Säbeltanz :D

Dunkelwald
2016-06-16, 11:09:15
Für den Rest, aber diesmal ohne pharmakologische Wortakrobatik:
GTX 1070/1080 vs. GTX 980 Ti: Effizienzanalyse & Leistungsaufnahme (http://www.tomshardware.de/gtx-1070-gtx-1080-nvidia-pascal-effizienz-performance,testberichte-242131.html)

Guter Test!

Dural
2016-06-16, 11:13:04
Die Karte wird halt wie gesagt langsamer. Es ist kein Kunstwerk, einfach mal so +1000 MHz einzustellen. Läuft ja. Mir ist auch noch keine GTX 1080 begegnet, die bei 6.000 MHz nicht langsamer als mit 5.500 MHz ist. 5.550 MHz schafft hier eine, alles höher wird spätestens dann kontraproduktiv.

Aha so meint ihr das, ich ging bis jetzt immer davon aus das die 1000MHz bei euch gar nicht laufen.

Das man weniger Leistung hat kann ich übrigens nicht bestätigen, bei jedem Test wo ich bis jetzt gemacht habe waren 6000MHz ganz wenig schneller oder gleich schnell wie 5500MHz.

(del)
2016-06-16, 11:22:54
Eigentlich läuft fast alles, aber oberhalb von 5.500 meistens schief ;)

Wie viele Spiele hast Du mit dieser Einstellung verglichen?

Dural
2016-06-16, 11:23:54
Kurzer Test, und das sieht auch in Spielen etwa so aus.

PT120%
Lüfter Fix auf 70%
GPU bewusst auf stock, da das PT bei höheren Speicher Takt eingreifen kann.

5000MHz 5211
http://www.3dmark.com/fs/8823589

5500MHz 5341
http://www.3dmark.com/fs/8823550

5550MHz 5366
http://www.3dmark.com/fs/8823614

5600MHz 5305
http://www.3dmark.com/fs/8823722

5700MHz 5319
http://www.3dmark.com/fs/8823753

5800MHz 5344
http://www.3dmark.com/fs/8823785

5900MHz 5353
http://www.3dmark.com/fs/8823814

6000MHz 5368
http://www.3dmark.com/fs/8823510


Bei 5600-5700MHz ist die Karte langsamer als mit den 5500MHz, alle anderen Werte gleich schnell oder etwas darüber (Messtoleranz)


@Format_C
The Vanishing of Ethan Carter Redux und Doom, und das sieht genau so aus wie da oben.

(del)
2016-06-16, 11:43:47
Die Auswahl ist ja nun wirklich nicht repäsentativ, zumal Doom auf jedem übertakteten Haartrockner läuft ;)

Probier mal so etwas wie Witcher 3 / Skyrim + Mods auf 4K und/oder mit schön viel MSAA.

phoenix887
2016-06-16, 12:50:34
Das OC war mit LN2-BIOS, sonst geht die Karte ja gar nicht so hoch. Der Takt ist weitgehend stabil, jedenfalls in GPU-Z. Leider sind dort die Messintervalle viel zu grob, denn 500 ms sind nun mal eine halbe Ewigkeit.

Wenn ich jedoch die extrem hibbeligen Kurven der Leistungsaufnahme so vergleiche, dann schaltet die Karte brutal um von Schwanensee auf Säbeltanz :D

mhh ich probiere sie später mal mit Standard Takt. Habe jetzt doch eine Beobachtung bei Witcher 3 gemacht, nämlich mir sind lags aufgefallen, mit der Rift, die ich vorher nicht gesehen habe im normalen Betrieb. Mal schauen, ob das mit der Frametime....

TobiWahnKenobi
2016-06-16, 13:11:27
der olle feierstreik belegt doch den speicher nichtmal ansatzweise.

witcher³ spielen und mal per DSR auf 6K hochgehen ;) das sollte dann mit knappen 8GiB anständig als test für die 1080 taugen. obwohl, wirklich aussagekräftig ist dann lediglich, dass der VRAM im witscher so und so läuft.. unter anderen programmen kann wird das dann natürlich wieder anders sein.



(..)

mfg
tobi

(del)
2016-06-16, 13:11:42
Kleine Zusatzinformation am Rande:

Update vom 16.06.2016 um 13:00 Uhr
Auf Grund von weiteren Informationen und eingegangenem Feedback haben wir feststellen müssen, dass sich das Pressemuster und die Retail-Karte der MSI GeForce GTX 10z0 GamingX 8G und MSI GeForce GTX 1080 GamingX 8G ein wenig unterscheiden. Bei den Pressesamples ist das OC-Preset standardmäßig als Default eingestellt, während bei den Retail-Karten das Gaming-Preset mit etwas niedrigerer Base- und Boost-Clock aktiv ist.
MSI hat uns dies mittlerweile selbst bestätigt und verweist auf die entsprechende beigelegte Software. Am Ende handelt es sich zwar nur um bescheidene 20 MHz Unterschied bei Base- und Boost-Clock, aber trotzdem ist dieses Vorgehen weder fair gegenüber den Kunden noch gegenüber den Mitbewerbern, die wie z.B. Gigabyte den Gaming-Mode nutzen und das weitere OC optional per Software anbieten.

Hier weiterlesen (http://www.tomshardware.de/gtx-1070-gtx-1080-nvidia-pascal-effizienz-performance,testberichte-242131-4.html)

MSI hat die Pressesample mit dem OC-Preset als Default verschickt, die Retail-Karten takten etwas niedriger im Gaming-Mode:

Boost/Base Clocks der 1070:
1797 MHz / 1607 MHz (OC Mode)
1771 MHz / 1582 MHz (Gaming Mode)

Boost/Base Clocks der 1080:
1847 MHz / 1708 MHz (OC Mode)
1822 MHz / 1683 MHz (Gaming Mode)

Sind immer nur 20 MHz, aber ich nenne das mal Cheating :(

x-force
2016-06-16, 13:16:42
heißt das da ist ein anderes bios drauf, oder hast du die software isntalliert?
hast du überhaupt ein sample oder wieder retail? falls retail aus asien, oder wer liefert das hier? :D

(del)
2016-06-16, 13:19:31
Ich schätze mal, die Karten der ersten Batch, aus der auch die Pressesamples stammen, hatten alle das etwas "schnellere" BIOS drauf. MSI verweist mittlerweile auf die Software, gibt die Änderungen aber zu. Ich habe die gerade in Taipeh kontaktiert. Das erklärt dann wohl auch, warum einige, die die Karten direkt aus der Fabrik hatten, auch in den Genuss der 20 MHz mehr kamen. :D

Thomas Gräf
2016-06-16, 14:32:50
Danke auch von mir. Toller Artikel.
Tja das Schicksal der 980...guter Vergleich.

y33H@
2016-06-16, 14:51:32
Asus offenbar auch: http://www.techpowerup.com/223440/msi-and-asus-send-vga-review-samples-with-higher-clocks-than-retail-cards

TurricanM3
2016-06-16, 16:14:13
Hab mir nun die X3 bestellt, soll nächste Woche verfügbar sein endlich.
Jemand den shunt mod darauf gemacht? Ich will alle evtl. Probleme bez. Taktachterbahn schon mal so weit es geht reduzieren.

570rm
2016-06-16, 16:19:59
Kannst du nicht, du hast noch immer, die thermale Takt-Anpassung.

@Format_C und Raff schaut bitte mal in euren Briefkasten

x-force
2016-06-16, 16:23:13
so wie es aussieht muss er dafür unter 40° haben, ab ~40° wird das erst mal eingegriffen.
das bekommt man mit ner starken wasserkühlung hin.

TurricanM3
2016-06-16, 16:30:09
Kommt Wakü drauf ja. Ich schreibe reduzieren, ich weiß das es vollständig aktuell nicht möglich ist. Gut, wenn es ab 40° eine Stufe runtergeht, damit könnte ich leben.
Wird die Spannung auch zurückgenommen ab ~40°? Oder bleibt diese wenigstens?

ilPatrino
2016-06-16, 16:32:27
Das ist inhaltlich allerdings nicht ganz korrekt. Man kann die Base Clock und den Rest erst einmal hinsetzen wohin man will, der Takt im Idle bleibt deswegen trotzdem gleich. Das gilt auch fürs Software-OC :)

Ich weiß den (recht albernen) Grund aber mittlerweile, denn es liegt (mal wieder) an Nvidia Rules. Mehr dazu morgen im Artikel.
Ich habe mir gerade von einem befreundeten R&D-Mitarbeiter diesbezüglich das BIOS und den Trick mit dem Takt erklären lassen ;)
kannst du da bitte nochmal etwas detaillierter drauf eingehen? büddebüdde

Raff
2016-06-16, 16:41:57
Kommt Wakü drauf ja. Ich schreibe reduzieren, ich weiß das es vollständig aktuell nicht möglich ist. Gut, wenn es ab 40° eine Stufe runtergeht, damit könnte ich leben.
Wird die Spannung auch zurückgenommen ab ~40°? Oder bleibt diese wenigstens?

Natürlich auch die Spannung um ein Stüfchen, sonst wäre die Aktion sinnlos. :D

MfG,
Raff

x-force
2016-06-16, 16:44:49
Wird die Spannung auch zurückgenommen ab ~40°? Oder bleibt diese wenigstens?


Aber auf 40°C ist jedenfalls ne Schwelle, bei der die Karte die Spannung erhöht, habs bei TR heute mal probiert, fängt immer bei 1.05V an und steigt bei 40°C auf 1.062.

fieses ding..

wäre schön wenn sie darauf im curve editor hinweisen würden, oder zur abwechslung mal komplett erklären was die karte macht.

570rm
2016-06-16, 16:45:36
Über nen Fixen Punkt in der Kurve bleibt die Spannung gleich, aber der Takt sinkt ... mit Offset erhöht die Karte die Spannung wenn sie noch PT hat.

(del)
2016-06-16, 17:01:50
Wir werden diese Fragen erst beantworten können, wenn wir mehr über den PWM-Controller und die Wirkungsweise des Arbitrators (Firmware) im Zusammenspiel wissen. Ich habe es 570rm schon geschrieben: Auch wenn mir die ganzen Softwaretools einen "stabilen" Takt und diverse Spannungen ausgeben, schwankt die Leistungsaufnahme um so mehr, als ich die Auflösung beim Messen erhöhe. Mein Problem ist, dass die Stromzangenadapter nur bis 150 KHz noch exakte Werte liefern und alles darüber ein wenig verzerrt kommt. Was ich aber damit sagen will: man kann per Software aktuell nicht genau protokollieren, was die Karte wirklich gerade macht. Das sind nur sporadische Stichproben, aber kein echtes und verwertbares Logging.

scully1234
2016-06-16, 17:06:01
Also Simson Fahrer der Test der Karten ist top ,und mit vielen Beleuchtungen abseits der gewoehnlichen Testprozedere gespickt, die sonst kaum aufgegriffen werden:up:

(del)
2016-06-16, 17:10:58
kannst du da bitte nochmal etwas detaillierter drauf eingehen? büddebüdde

Kommentarfeld nach dem ersten Absatz:
http://www.tomshardware.de/gtx-1070-gtx-1080-nvidia-pascal-effizienz-performance,testberichte-242131-2.html

ilPatrino
2016-06-16, 17:24:07
Kommentarfeld nach dem ersten Absatz:
http://www.tomshardware.de/gtx-1070-gtx-1080-nvidia-pascal-effizienz-performance,testberichte-242131-2.html
danke, hatte ich anscheinend beim querlesen übersehen. wie bekloppt ist das denn?!

y33H@
2016-06-16, 18:33:56
Hihi, meine Amp Extreme läuft idle mit 316 MHz :ulol:

(del)
2016-06-16, 18:40:14
Hihi, meine Amp Extreme läuft idle mit 311 MHz :ulol:
Deswegen heißt sie auch Extreme und nicht Öko :P

Schrotti
2016-06-16, 19:51:07
Jetzt fehlt dann nur noch eine Verpackung mit BIO Symbol ;).

RoughNeck
2016-06-16, 20:20:05
Deswegen heißt sie auch Extreme und nicht Öko :P

Extreme Öko hehe :biggrin:

Linmoum
2016-06-16, 20:21:30
It was only yesterday that we reported on NVIDIA GeForce GTX 1080 cards selling above the $699 price of the Founders Edition, where we asked if there were supply issues on the GP104.

Now we've had an industry source tell us that there won't be a huge flood of GeForce GTX 1080 cards, from all partners, until late July or even early August.
http://www.tweaktown.com/news/52650/nvidia-geforce-gtx-1080-stock-improve-until-late-july/index.html

(del)
2016-06-16, 20:38:43
Extreme Öko hehe :biggrin:Be veggy :P

Die Wärmeleitpaste wird selbstredend ohne tierische Fette hergestellt und das PCB aus biologisch angebautem Hanf gepresst. Das Kupfer wird ausschließlich von chilenischen Jungfrauen ohne Mundgeruch gefördert und in Indien vor der Verabeitung im Ganges mehrmals von jeglichem Kuhmist gründlichst gereinigt. Alle Komponenten werden dann von vegan lebenden buddhistischen Mönchen in China an einem speziell hergerichteten Fließband im Hochland assembliert, wobei auch das vegane Lötzinn stets auf seine Reinheit in Echtzeit geprüft wird. Als Flussmitel dient ausschließlich biologisch angebautes Kolophonium aus speziell ausgewählten Bäumen. Jede Karte wird anschließend von Jensen Christus heilig gesprochen und mit einem Stück aus der Lederjacke des grünen Gottübervaters als absolut echt gekennzeichnet, sowie in einer goldenen Jacobs-Krönungs-Tüte aromadicht versiegelt. :freak:

Genau deswegen dauert es momentan auch so lange. Vor allem auch darum, weil gerade Jungfrauen echt knapp sind :D

phoenix887
2016-06-16, 21:38:54
Habe jetzt mal das normale BIOS laufen lassen. Da komme ich unter Witcher 3 4K nur noch auf 1418mhz/3500mhz. Klar habe ich 3-5fps weniger, aber es fühlt sich fluffiger an. Entweder gute Gehrinwäsche Format C oder an deinem Bericht ist wirklich was dran:freak:

Oliver_M.D
2016-06-16, 21:43:12
http://www.tweaktown.com/news/52650/nvidia-geforce-gtx-1080-stock-improve-until-late-july/index.htmlKönnen wir also das gleiche von der 1070 erwarten oder liegts am GDDR5X?

Screemer
2016-06-16, 22:00:52
lol... soviel dazu.. weniger FPS aber "fühlt sich fluffiger an".

Religion ist was tolles. sry bro.

Wenn die Frametimes weniger variieren, weil die Karte weniger regelt soll das Religion sein? Von der Denke aus früheren Zeiten, dass Cocks immer anliegen sollten wir uns langsam verabschieden. Was glaubst du denn wo die die Effizienz von Maxwell/Pascal hergezaubert haben?

phoenix887
2016-06-16, 22:10:12
Wie gesagt, bin mir nicht sicher. Kann aber auch Placebo sein. Aber an dem Review von Format C: könnte was dran sein. Zumal ich mich immer beim loggen auf OSD vom Afterburner verlassen habe. Aber wenn diese nicht genau genug arbeiten können, sind diese obsolent....

x-force
2016-06-16, 22:25:21
wenn du nicht sicher bist, ob 60fps vsync fluppen, oder es hakt, hast du kein problem ;)
ich bin sehr empfindlich was das angeht und mit der gtx980 hatte ich nie probleme, obwohl diese bis zu 280w auf dem referenzboard gezogen hat.

vielleicht reichen diese kleinen vsync pausen, die sich der chip gönnen kann, bis das nächste bild dran ist aus, bzw die last ist kurz genug, um die kondensatoren und co wieder zu füllen und den takt wirklich zu halten.

MasterElwood
2016-06-16, 23:49:57
Holy shit - die Asus-Strix-GTX1080-8OG-Gaming ist die No.1 Bestseller GraKa auf Amazon! :eek:

https://www.amazon.de/Asus-Strix-GTX1080-8OG-Gaming-Grafikkarte-Speicher-DisplayPort/dp/B01G92E9ZY?ie=UTF8&childASIN=B01G92E9ZY&creative=22502&creativeASIN=B01G92E9ZY&linkCode=df0&smid=A3JWKAKR8XB7XF&tag=geizhals1-21

Hübie
2016-06-16, 23:55:57
Bin erstmal zufrieden so .
Für 2202 bräuchte ich noch ein Tick mehr V und deutlich mehr PT damit es auch in anderen Games nicht dropt.
Ohne Bios Mod geht es einfach nicht weiter mit 216 W und den nur 1,093V
https://abload.de/thumb/unbenannt67k4l.jpg (http://abload.de/image.php?img=unbenannt67k4l.jpg) https://abload.de/thumb/dyinglightgame_2016_0g4kkx.jpg (http://abload.de/image.php?img=dyinglightgame_2016_0g4kkx.jpg)

Mach doch mal Priorität auf TT. :D

@Phoenixx887: Ich kann jedenfalls nicht bestätigen dass die Frametimes schlechter sind wenn man das BIOS mit den entsprechenden Taktraten anpasst.

Reaping_Ant
2016-06-17, 07:38:43
Gibt es eigentlich schon Erkenntnisse zum Thema Undervolting bei GP104? Dank der pro Taktstufe einstellbaren Spannung sollte das doch tendentiell eher noch besser funktionieren. Unter Umstaenden koennten die Karten (insbesondere die FE) dadurch sogar schneller werden, weil sie seltener durch das Power Target oder Temp Target limitiert werden.

uweskw
2016-06-17, 08:05:51
Holy shit - die Asus-Strix-GTX1080-8OG-Gaming ist die No.1 Bestseller GraKa auf Amazon! :eek:

https://www.amazon.de/Asus-Strix-GTX1080-8OG-Gaming-Grafikkarte-Speicher-DisplayPort/dp/B01G92E9ZY?ie=UTF8&childASIN=B01G92E9ZY&creative=22502&creativeASIN=B01G92E9ZY&linkCode=df0&smid=A3JWKAKR8XB7XF&tag=geizhals1-21

und die erste AMD in Verkaufszahlen auf Platz 19, tatsächliche Verkäufe :freak:
Spiegelt das wirklich Qualität und Preis-Leistungs-Verhältnis der AMD Karten wieder oder entscheidet sowas eher die Berichterstattung der Fachmedien und die Stimmung in den Foren?


gibt es mittlerweile einen fundierten Vergleich zur Bildqualität zwischen 980Ti/Titan und der neuen Generation? Was wir hier im Forum bisher gesehen hatten war ja eher erschreckend.
Und sind die Benchmark bisher wirklich mit gleichen Qualitätseinstellungen ist gemacht worden, es scheint ja als hätten die NV-Karten das eigenmächtig geändert.

greetz
US

RoughNeck
2016-06-17, 08:54:44
Gäbe es wirklich in der BQ gravierende Unterschiede, wäre es sicher schon einigen aufgefallen.
Speziell Tom's Hardware ist da schnell & kritisch.

Hübie
2016-06-17, 09:02:38
Was war denn erschreckend? :| Wird hier wieder etwas heißer gekocht als gegessen? Ausser ein Fall in einem AMD Benchmark wüsste ich jetzt von keiner erschreckenden BQ... :rolleyes:

cR@b
2016-06-17, 09:15:34
Habe jetzt mal das normale BIOS laufen lassen. Da komme ich unter Witcher 3 4K nur noch auf 1418mhz/3500mhz. Klar habe ich 3-5fps weniger, aber es fühlt sich fluffiger an. Entweder gute Gehrinwäsche Format C oder an deinem Bericht ist wirklich was dran:freak:

Ich weiß nicht... Witcher 3 hatte bei mir z.B. "generell" beschissene Frametimes ohne max prerendered frames 1. Mit solchen Analysen sollte man also vorsichtig umgehen.

uweskw
2016-06-17, 09:21:37
Was war denn erschreckend? :| Wird hier wieder etwas heißer gekocht als gegessen? Ausser ein Fall in einem AMD Benchmark wüsste ich jetzt von keiner erschreckenden BQ... :rolleyes:

HisN hatte Bilder eigestellt, in erster Linie um FPS Unterschiede zu zeigen.
Dabei fiel auf, dass die BQ doch sichtbar anders war. Besonders bei Witcher3 und GTA.

ich schaffs mit dem Tablet leider nicht hier einen Link einzufügen.
Es wurde dann spekuliert, dass der Treiber die Bildqualitäts Einstellungen selbständig überschreibt, aber das wurde nirgends verifiziert. Auch blieb unklar ob das irgendwelche Einflüsse auf die Performance hat.

greetz
US

Edit:
Die Bilder sind in Post 2170 hier im Thread
Sche**Spracheingabe

HisN
2016-06-17, 09:39:38
Bei GTA waren die Settings durch den Graka-Wechsel eigenhändig vom Programm verstellt worden. Ich hab verpasst sie zu protokollieren/kontrollieren.
Die Sichtweite z.b. war zurückgestellt.

uweskw
2016-06-17, 09:54:42
Hatten wir schon. Aber macht das einen Unterschied in Sachen Performance? Und hat sich die BQ bei einigen Reviews auch verstellt? Das würde unterschiedliche Ergebnisse erklären.
Hast du auch bei W3 nochmal geschaut?

greetz
US

Hübie
2016-06-17, 10:34:42
Hä? Reviewer spielen idR ein neues Image auf. Da braucht man jetzt keinen Cheatverdacht aufkommen lassen. HisN is halt auch nur ein Mensch und macht mal Fehler. ;)

phoenix887
2016-06-17, 10:41:23
Ich weiß nicht... Witcher 3 hatte bei mir z.B. "generell" beschissene Frametimes ohne max prerendered frames 1. Mit solchen Analysen sollte man also vorsichtig umgehen.

War keine Analyse, da ich mir nicht sicher bin...sondern eine subjektive Beobachtung...

cR@b
2016-06-17, 10:48:51
War keine Analyse, da ich mir nicht sicher bin...sondern eine subjektive Beobachtung...

Meinte damit auch Format C´s Analyse und solange das Thema max. prerendered Frames in die Frametimes mit reinspielt, ist es eben mit Vorsicht zu genießen. Rest dürfte in der Tat Placebo sein, sofern nicht selbst z.B. mit Fraps und Co. nachgemessen...

(del)
2016-06-17, 11:54:19
Es wird nur bei wirklicher Volllast und auf 4K zum sporadischen Ärgernis für diejenigen, die wirklich empfindlich reagieren (also garantiert nicht die Masse). Man darf es nicht überbewerten (sonst hätte ich ja sehr wohl eine andere Überschrift gewählt), aber es ist auch nicht wegzudiskutieren. Aber nur, um vielleicht noch 2-3 FPS rauszuquetschen, wäre es mir auch zu blöd, bis zum elektrischen Gebrechen der Karte zu übertakten. ;)

Wer eine gute VR Brille hat, wird dies vielleicht sogar noch eher bemerken.

-/\-CruNcher-/\-
2016-06-17, 12:09:24
Die neue Referenz wird eh VR werden was das angeht und viele Ergebnisse von dort werden auch übernommen werden vor allem effizienteres Shading das wird noch einen schönen boost in Zukunft geben.

Low Level API und VR/AR, daran werden sich auch die OS messen, sobald ein großer anteil auf 90 Hz trainiert ist gibt es kein zurück mehr.

60 Hz sollten immer weiter stabill werden dadurch ;)

phoenix887
2016-06-17, 12:10:59
Es wird nur bei wirklicher Volllast und auf 4K zum sporadischen Ärgernis für diejenigen, die wirklich empfindlich reagieren (also garantiert nicht die Masse). Man darf es nicht überbewerten (sonst hätte ich ja sehr wohl eine andere Überschrift gewählt), aber es ist auch nicht wegzudiskutieren. Aber nur, um vielleicht noch 2-3 FPS rauszuquetschen, wäre es mir auch zu blöd, bis zum elektrischen Gebrechen der Karte zu übertakten. ;)

Wer eine gute VR Brille hat, wird dies vielleicht sogar noch eher bemerken.

Ja bin durch VR auf den Trichter gekommen....

Cubitus
2016-06-17, 12:22:18
Be veggy :P

Die Wärmeleitpaste wird selbstredend ohne tierische Fette hergestellt und das PCB aus biologisch angebautem Hanf gepresst. Das Kupfer wird ausschließlich von chilenischen Jungfrauen ohne Mundgeruch gefördert und in Indien vor der Verabeitung im Ganges mehrmals von jeglichem Kuhmist gründlichst gereinigt. Alle Komponenten werden dann von vegan lebenden buddhistischen Mönchen in China an einem speziell hergerichteten Fließband im Hochland assembliert, wobei auch das vegane Lötzinn stets auf seine Reinheit in Echtzeit geprüft wird. Als Flussmitel dient ausschließlich biologisch angebautes Kolophonium aus speziell ausgewählten Bäumen. Jede Karte wird anschließend von Jensen Christus heilig gesprochen und mit einem Stück aus der Lederjacke des grünen Gottübervaters als absolut echt gekennzeichnet, sowie in einer goldenen Jacobs-Krönungs-Tüte aromadicht versiegelt. :freak:


haha ;D:D

-/\-CruNcher-/\-
2016-06-17, 12:26:07
Igor macht jedem standup comedian konkurenz, manchmal kann man das Gefühl bekommen er hat seinen Job verfehlt, aber wer weiss vieleicht schreibt er ja sogar texte für Bart und Co wer weiss. ;)

(del)
2016-06-17, 14:27:58
aber wer weiss vieleicht schreibt er ja sogar texte für Bart und CoDessen Texte schreibt das Leben. Ich weiß das, denn ich bin verheiratet :P

Ja bin durch VR auf den Trichter gekommen....
Ich bin seit einer Laser-OP am rechten Auge für solche Unregelmäßigkeiten extrem sensibilisiert. Erst recht mit Vive aufm Kopp. :)

uweskw
2016-06-17, 14:41:12
Hä? Reviewer spielen idR ein neues Image auf. Da braucht man jetzt keinen Cheatverdacht aufkommen lassen. HisN is halt auch nur ein Mensch und macht mal Fehler. ;)

Langsam, nix Cheatverdacht. Einfach wissen was abgeht.
Aber meinst du die spielen jedes mal wirklich ein neues Image auf wenn sie von einer 980ti oder TitanX auf eine 1080 wechseln? Das wäre ja super aufwendig. Hätte nicht gedacht, dass viele so pedantisch arbeiten.:eek:

greetz
US

(del)
2016-06-17, 15:03:25
ich habe ein Image für AMD, eines für Nvidia, eines für Intel (VGA) und eines als Generalbackup für alle Fälle. Die jeweiligen Treiber werden natürlich komplett deinstalliert und neu draufgespielt, aber jedes Mal ein komplett frisches Image zu verwenden ist Nonsens. Updates, Patches usw. halten das Ganze ja dann doch richtig auf. Windows 10 ist unkritisch, was Mainboards, Chipsätze und Peripherie betrifft.

uweskw
2016-06-17, 15:13:54
@format c
Aus deiner Erfahrung mit den Kollegen heraus: meinst du ein Großteil von denen kontrolliert nach dem Wechsel der GraKa (geicher Chiphersteller) jedes mal die Qualitätseinstellungen im Spiel?

greetz
US

Raff
2016-06-17, 15:28:16
@format c
Aus deiner Erfahrung mit den Kollegen heraus: meinst du ein Großteil von denen kontrolliert nach dem Wechsel der GraKa (geicher Chiphersteller) jedes mal die Qualitätseinstellungen im Spiel?

greetz
US

Was die PCGH-Grafikkartentester angeht: selbstverständlich. Man lernt das in den ersten Jahren. ;)

______

Geforce GTX 1080 und GTX 1070 Custom-Designs: Aufregung um "Golden Samples" für die Presse [Update mit Messwerten] (http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Asus-MSI-Geforce-GTX-1080-GTX-1070-Presse-1198869/)

... definitiv mit spannenden Erkenntnissen der MSI-Karte.

MfG,
Raff

y33H@
2016-06-17, 15:35:21
Aus deiner Erfahrung mit den Kollegen heraus: meinst du ein Großteil von denen kontrolliert nach dem Wechsel der GraKa (geicher Chiphersteller) jedes mal die Qualitätseinstellungen im Spiel?Im Spiel und im Treiber, alles andere wäre Stümperei.

uweskw
2016-06-17, 15:44:29
@raff + yehaa

Great. Toll, dass ihr so gewissenhaft arbeitet.

greetz
US

Mr. Lolman
2016-06-17, 16:02:04
Was die PCGH-Grafikkartentester angeht: selbstverständlich. Man lernt das in den ersten Jahren. ;)

Habt ihr auch unterschiedliche Images für die jeweiligen IHV?