PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 1070 & 1080: Boost 3.0 und Overclocking


BigKid
2016-07-01, 06:32:39
Zusammenfassung:
Nvidia scheint der GTX1070 eine maximale Spannung verordnet zu haben, die noch VOR dem PT der meisten Customs limitieren dürfte und den auch die Hersteller nicht anheben können / dürfen.
Aktuelle Hypothese: Somit machen aktuelle die hohen PTs vieler Karten keinen Sinn... Nur in synthetischen Szenarien wie OCCT laufen Karten mit niedrigerem PT (in meinem Fall die Palit Gamerock) ins PT limit - in allen anderen Szenarien deckelt "VREL". Somit ist die ASIC Qualität aktuell Quasi das was den Maximaltakt bestimmt.. Das PT scheint ziemlich egal.
Ob ein ModBios hier was richten kann ist offen. Wenn ich das richtig verstehe verweist NVidia ja auch schon darauf, dass die feineren Strukturen und die höhere Packdichte auch empfindlicher sind. Somit sind höhere Spannungen und Frequenzen auch mit noch mehr Vorsicht zu geniessen. Spricht aber wiederum für meine These das ASIC Qualität nochmal deutlich wichtiger geworden ist als alles andere.

Ich würde mich freuen wenn wir mal eine Tabelle mit Asic Qualitäten aufbauen (Welcher Takt bei welcher Spannung) - dann kann man seine Karte ein bisschen einordnen bis GPUz was ausgibt. Dazu bitte Werte OHNE Spannungsanhebung "messen". Karten bitte 5-10 Minuten durchheizen...

GTX1070 - Sammlung Asic Qualitäten:

Palit GR (1)
Valley Benchmark: 2062Mhz@1,05V bei 90% Power Consumption, Cap Reason: VREL - quasi durchgehend
3DMark FireStrike: 2088Mhz@1,062V bei 95% Power Consumption, Cap Reason: VREL - quasi durchgehend

Zotac Amp Extreme(1):
Valley Benchmark: 1949Mhz@1,05V bei 60% Power Consumption, Cap Reason: VREL - quasi durchgehend
3DMark Firestrike: 1949Mhz@1,06V bei 62% Power Consumption, Cap Reason: VREL - quasi durchgehend












Originalpost (der Vollständigkeit halber):
Ich brauch mal Hilfe beim Interpretieren von OC Ergebnissen. Ich hab heute bei nem Freund gesessen, der sich ne GTX1070 Zotac Amp Extreme und eine Palit Gamerock (non premium) besorgt hat...
Und wir haben mal versucht diese ans Limit zu bringen um zu sehen welche den besseren Asic hat und ob sich er Aufpreis der AMP lohnt...

Die Amp Extreme war mit maximalem PT (120%) nur mit -65Mhz stabil im OCCT mit Fehlerpfrg. zu bekommen...
Folgende Settings haben wir damit fürs erste gefunden: -65Mhz GPU, +10% MaxVolt, +100Mhz Mem, 120% PT
Das führte zu stabilen ( nach aufwärmen) 1911Mhz GPU, 4201Mhz Mem, 70 Grad bei 54% Lüfter... Auch 3DMark lief so durch ohne zu mucken...
Wir haben auch versucht die Karte mit dem Voltage Offset zu stabilisieren - das hat aber zu keinem erkennbaren Effekt geführt.
Eventuell - aber die Idee ist mir erst jetzt gekommen ist das PT der Amp Extreme einfach zu hoch... Vlt. sollten wir es mit +100% Max Volt Offset nochmal probieren...
Die 1911 waren jedenfall ohne viel "gezappel" - die Karte ist also wohl so nicht ins PT gelaufen...

Dann die Palit... +325Mhz GPU, +5% max volt, +200Mhz mem, 114% PT
Das führte im OCCT zu stabilen (auch hier nach längerem Aufwärmen) 1898Mhz GPU, 4201Mhz Mem, 72 Grad bei 45% Lüfter
Die Karte hat aber etwas früher und mehr rummgezappelt - diese Karte scheint also am PT zu hängen...
3Dmark semmelte aber ab - genauer hingeguckt.., jupp die karte boostete plötzlich über 2100 Mhz hoch und war da nicht stabil ?!
Also auf etwa +250 runter und siehe da - die Karte hat dann den 3DMark mit ca. 2038Mhz abolviert und ne höhere Score eingefahren als die Amp Extreme...

Hat die einfach nur den besseren Chip und wird nur vom PT gebremst?
Oder ist das PT der Amp Extreme einfach zu hoch...
Oder was haben wir falsch gemacht? Will Montag nochmal hin und wollte bis dahin mal überlegen/Anregungen sammeln...
Außerdem interessiert mich das natürlich auch selbst, weil ich demnächst ja auch zuschlagen werde...

Wenn klar ist, dass die Palit den besseren ASIC hat würde es Sinn machen der Palit mal ein Bios mit höherem PT zu flashen?

Aber wie genau funktioniert eigentlich OC mit Boost 3.0 - und ich meine jetzt nicht in der Theorie sondern in der Praxis ?
Ich habe jetzt schonmal diesen Guide hier gefunden: http://www.guru3d.com/articles-pages/geforce-gtx-1080-overclocking-guide-with-afterburner-4-3,1.html

Welches Tool setzt man am besten ein ?
Worauf muss man achten ?

Woran erkennt man einen guten Asic (die vorletzte GPU Z Version gab z.B. bei der AMP -60% aus - ja "-", die neuere sagt "nicht supported")?

qiller
2016-07-01, 14:11:23
Man kauft die teureren Custom-Designs nicht wegen "die schaffen mehr Takt", sondern wegen dem besseren Platinendesign und Kühllösungen (entweder leiser und/oder kühler). Bei vordefinierten, gleichen Voltagestufen und ungelocktem Power-/Temperatur-Target bestimmt letztendlich der Asic-Wert der GPU, welche Takt-Booststufe angesteuert wird, nicht der Preis der Grafikkarte. Und ich kenne nur die EVGA-Kingpin-Edition, wo man für mehr Preis einen höheren Asic-Wert bekam (GTX 980ti), bei allen anderen Karten ist das reine Glückssache.

Wenn man sich dann das Gesamtpaket "Grafikkarte" anschaut, kommen dann natürlich noch die angepassten VBiose und Platinendesigns der Hersteller zum Tragen (und bei Zotac noch ein Zusatzchip, siehe unten).

Zu deinen Fragen:
1. Ja, die Palit wird vom PT gebremst. Ich weiß nicht, inwieweit Afterburner/Rivatuner oder GPUZ mit der GTX1080 umgehen können, aber die Tools können Anzeigen ob ein Powerlimitierung vorliegt. GPUZ sagt dir sogar, was gerade dein Takt begrenzt (Power, Temperatur, Voltagestufe ...).

2. Ich glaube nicht, dass Zotac ihre Karte mit einem zu hohem PT ausliefert. Zotac ist auch ein schlechtes Beispiel. Wenn Zotac ähnlich wie bei der GTX 980ti ihren "BoostChip" integriert hat, hat der auch noch ein Wörtchen bei der Stromversorgung mitzureden (ein einfaches Ändern des Powertargets über OC-Tools oder BIOS-Mods bringen nicht das Ergebnis, wie bei Karten anderer Hersteller).

3. Eure OC-Werte der Palit erscheinen mir schlüssig. Die der Zotac allerdings nicht. Ich weiß zwar, dass Zotac bei der Amp Extreme die Booststufen in ihrem VBios verschiebt, aber soll das -65MHz jetzt heißen, dass ihr die Karte runtertakten musstest? Welches Tool habt ihr da genommen? Erkennt es denn die verschobenen Booststufen der Zotac? Und selbst wenn, 1911MHz ist euer höchste stabile GPU-Takt? Kann ich mir gar nicht vorstellen.

4. Zum Austesten nehm ich gern den nvinspector. Bei der Zotac kann es aber wegen des Boost-Chips nötig sein, das Original-OC-Tool von Zotac (weiß grad nicht wie das heißt) zu nutzen. Es könnte sonst sein, dass die Karte Änderungen am Power-Target einfach ignoriert. Wie gesagt, ich würde von der Zotac-Karte nicht auf andere Hersteller schließen.

5. Der Asic-Wert bestimmt wie gesagt, bei welcher Voltagestufe welcher Boost-Takt anliegt. Nur mal rein fiktiv:

ASIC 60: Voltage-Stufe 1.15V -> Booststufe 1800MHz
ASIC 80: Voltage-Stufe 1.15V -> Booststufe 1900MHz

GPUZ sollte das in einer zukünftich Pascal unterstützenden Version anzeigen.

BigKid
2016-07-01, 15:20:33
Man kauft die teureren Custom-Designs nicht wegen "die schaffen mehr Takt", sondern wegen dem besseren Platinendesign und Kühllösungen (entweder leiser und/oder kühler). Bei vordefinierten, gleichen Voltagestufen und ungelocktem Power-/Temperatur-Target bestimmt letztendlich der Asic-Wert der GPU, welche Takt-Booststufe angesteuert wird, nicht der Preis der Grafikkarte. Und ich kenne nur die EVGA-Kingpin-Edition, wo man für mehr Preis einen höheren Asic-Wert bekam (GTX 980ti), bei allen anderen Karten ist das reine Glückssache.

Wenn man sich dann das Gesamtpaket "Grafikkarte" anschaut, kommen dann natürlich noch die angepassten VBiose und Platinendesigns der Hersteller zum Tragen (und bei Zotac noch ein Zusatzchip, siehe unten).

Als aller erstes: Vielen Dank, dass du dir die Zeit nimmst zu antworten...
Und nu im einzelnen...
Bin im großen und ganzen bei dir. Was aber wenn - und danach sieht es bei uns aus - das ASIC Roulette klar für eine Custom Karte ausschlägt und beide vergleichbar leise sind ? Dann nehme ich am Ende doch die, die mehr schafft - oder nicht ? Ich meine gut - die Palit ist in meinen Augen häßlich wie die Nacht - aber 1. das Gehäuse ist ja zu 2. iss ja nicht meine :-)


Zu deinen Fragen:
1. Ja, die Palit wird vom PT gebremst. Ich weiß nicht, inwieweit Afterburner/Rivatuner oder GPUZ mit der GTX1080 umgehen können, aber die Tools können Anzeigen ob ein Powerlimitierung vorliegt. GPUZ sagt dir sogar, was gerade dein Takt begrenzt (Power, Temperatur, Voltagestufe ...).

Stimmt... Guter Tipp, damit könnte man prüfen ob es wirklich das PT ist...
Dann bleibt aber die Frage ob man "gefahrlos" mal das Bios einer Gamerock Premium oder einer andren Karte mit höherem PT drauf bügeln könnte...
Wir haben übrigens GTX1070er Versionen der genannten Karten - nicht 1080er... Auch wenn es vermutlich ziemlich egal ist wenn es um die Grundlagen geht...


2. Ich glaube nicht, dass Zotac ihre Karte mit einem zu hohem PT ausliefert. Zotac ist auch ein schlechtes Beispiel. Wenn Zotac ähnlich wie bei der GTX 980ti ihren "BoostChip" integriert hat, hat der auch noch ein Wörtchen bei der Stromversorgung mitzureden (ein einfaches Ändern des Powertargets über OC-Tools oder BIOS-Mods bringen nicht das Ergebnis, wie bei Karten anderer Hersteller).

Ich bin mir da nicht so sicher... Sie packen ja auch 2x8pin Stromanschlüsse drauf... Das ist doch bei der GTX1070 over over overkill ?!?
Es ist allerdings ein Boost Chip drauf... Zumindest "optisch"...


3. Eure OC-Werte der Palit erscheinen mir schlüssig. Die der Zotac allerdings nicht. Ich weiß zwar, dass Zotac bei der Amp Extreme die Booststufen in ihrem VBios verschiebt, aber soll das -65MHz jetzt heißen, dass ihr die Karte runtertakten musstest? Welches Tool habt ihr da genommen? Erkennt es denn die verschobenen Booststufen der Zotac? Und selbst wenn, 1911MHz ist euer höchste stabile GPU-Takt? Kann ich mir gar nicht vorstellen.

Und auch da bin ich bei dir - deshalb habe ich ja auch diesen Post hier aufgemacht... Also...

-65 heisst dass wir tatsächlich -65Mhz runtertakten mussten wenn wir das PT auf 120% hatten - ansonsten hat OCCT sofort angefangen (Rechen)Fehler zu erkennen und wenn das passiert braucht man meiner Erfahrung nach den nächsten Schritt 3DMark oder Game-Stable gar nicht zu testen... Die Karte hat aber dann auch im OCCT über 2180Mhz gehen wollen da ist dann sogar der Treiber abgeschmiert... Die -65MHz zusammen mit den 10% MaxVolt war der Takt dann zunächst bei 1938 und dann nach längerem anwärmen bei 1911 wie angenagelt... da hat auch nix gezappelt wie bei der Palit.
Wenn wir mit den Mhz wieder hoch sind kam es zu Rechen fehlern... Was ich NICHT versucht habe weil ich mir nicht sicher war was der der genau macht, ist das MaxGPU Voltage dingens auf 100% zu schieben und mal zu schauen was dann geht... Hier könnte die AMP eventuell ihr höheres PT dann vlt. doch noch positiv ausspielen.
Als Tool haben wir sicherheitshalber jeweils das Hersteller Tool genommen - bei der Palit heisst es glaub ich Firestorm wenn ich mich richtig erinnere...

Ob es die vorgeschobenen Boost-Stufen oder den Spezialchip erkennt kann ich nicht sagen... Wir haben jedenfalls extra die neuste Version bei Zotac runtergeladen...



4. Zum Austesten nehm ich gern den nvinspector. Bei der Zotac kann es aber wegen des Boost-Chips nötig sein, das Original-OC-Tool von Zotac (weiß grad nicht wie das heißt) zu nutzen. Es könnte sonst sein, dass die Karte Änderungen am Power-Target einfach ignoriert. Wie gesagt, ich würde von der Zotac-Karte nicht auf andere Hersteller schließen.

5. Der Asic-Wert bestimmt wie gesagt, bei welcher Voltagestufe welcher Boost-Takt anliegt. Nur mal rein fiktiv:

ASIC 60: Voltage-Stufe 1.15V -> Booststufe 1800MHz
ASIC 80: Voltage-Stufe 1.15V -> Booststufe 1900MHz

GPUZ sollte das in einer zukünftich Pascal unterstützenden Version anzeigen.
Hmm... Das müsste man ja eigentlich fast auslesen können oder ?
Wenn also GPUz oder NVInspector anzeigt, dass die Palit eine niedriegere Spannung anlegt bei vergleichbarem oder höheren Takt dann ist eigentlich klar was Sache ist - oder ?

Ansonsten hoffe ich mal für meinen Kollegen dass das neue GPUZ innerhalb der nächsten 10 Tage als Beta kommt ;)

qiller
2016-07-01, 16:53:06
Was aber wenn - und danach sieht es bei uns aus - das ASIC Roulette klar für eine Custom Karte ausschlägt..
Nochmal: Es gibt keinen "klaren Ausschlag" bei irgendwelchen Customdesigns. Es ist und bleibt Glückssache. Da kann die eine Amp Extreme mit ASIC 60 und die nächste Amp Extreme mit 76 auftauchen.

Stimmt... Guter Tipp, damit könnte man prüfen ob es wirklich das PT ist...
Dann bleibt aber die Frage ob man "gefahrlos" mal das Bios einer Gamerock Premium oder einer andren Karte mit höherem PT drauf bügeln könnte...

Mit "Bios drüberbügeln" wäre ich vorsichtig, vor allem wenn es sogar von einem anderen Hersteller kommt (mit nvflash gibts nicht umsonst eine Sicherheitsabfrage). Was du machen kannst, ist das vorhandene BIOS anzupassen, wenn es die passenden Tools hierfür gibt (Pascal Tweaker?).

Ich bin mir da nicht so sicher... Sie packen ja auch 2x8pin Stromanschlüsse drauf... Das ist doch bei der GTX1070 over over overkill ?!?
Es ist allerdings ein Boost Chip drauf... Zumindest "optisch"...
Ist es. Die Stromanschlüsse sind aber nicht alles. Ich mein, mit der Bestückung kann die Karte theoretisch 375W aufnehmen, was totaler Unfug ist. Daher kann ich mir gut vorstellen, dass Zotac die Stromaufnahme über den PCIe-Slot zur Entlastung der Mainboards drosselt und die Karte den Löwenanteil über die 8-Pol-PEG-Stromanschlüsse zieht. Aber das müsste man genauer nachmessen.

Und auch da bin ich bei dir - deshalb habe ich ja auch diesen Post hier aufgemacht... Also...

-65 heisst dass wir tatsächlich -65Mhz runtertakten mussten wenn wir das PT auf 120% hatten - ansonsten hat OCCT sofort angefangen (Rechen)Fehler zu erkennen und wenn das passiert braucht man meiner Erfahrung nach den nächsten Schritt 3DMark oder Game-Stable gar nicht zu testen... Die Karte hat aber dann auch im OCCT über 2180Mhz gehen wollen da ist dann sogar der Treiber abgeschmiert... Die -65MHz zusammen mit den 10% MaxVolt war der Takt dann zunächst bei 1938 und dann nach längerem anwärmen bei 1911 wie angenagelt... da hat auch nix gezappelt wie bei der Palit.
Wenn wir mit den Mhz wieder hoch sind kam es zu Rechen fehlern... Was ich NICHT versucht habe weil ich mir nicht sicher war was der der genau macht, ist das MaxGPU Voltage dingens auf 100% zu schieben und mal zu schauen was dann geht... Hier könnte die AMP eventuell ihr höheres PT dann vlt. doch noch positiv ausspielen.
Als Tool haben wir sicherheitshalber jeweils das Hersteller Tool genommen - bei der Palit heisst es glaub ich Firestorm wenn ich mich richtig erinnere...

Ob es die vorgeschobenen Boost-Stufen oder den Spezialchip erkennt kann ich nicht sagen... Wir haben jedenfalls extra die neuste Version bei Zotac runtergeladen...
Und welchen Boosttakt legt die Karte mit Default-Settings an? Wo liegt der Takt mit PT 120% (ohne Spannungs-/Taktänderungen)? Das Absenken des Takts von 1938MHz auf 1911MHz ist übrigens eine normale Temperaturdrosselung, die ab bestimmten Temperaturen auftritt (bei mir war das bei ~63°C?). Nicht zu verwechseln mit der Temperatursperre (die meist irgendwo bei 83°C-91°C liegt), wo die Karte deutlich stärker heruntergetaktet (eben soweit, bis die Temperatur wieder sinkt).

Dass die Karte mit 2180MHz abschmiert, ist jetzt nicht verwunderlich. Was mich aber wundert, warum die Karte auf 2180MHz takten wollte, wenn du das PT auf 120% setzt. Das würde ja heißen, dass die Zotac im Default (PT=100%) auch Power limitiert und da dann nur 1911MHz schafft und mit PT=120% dann ihre Reserven freischaltet und gleich auf 2180MHz gehen will. Die Verschiebung der Boosttable seitens Zotac könnte sicherlich zu solch einem Ergebnis führen. Aber einfach mal 270MHz mehr klingt für mich viel. Wie gesagt, du müsstest erstmal gucken, ob die Karte im Default auch PT-limiert ist, dann würde es die starke Anhebung erklären. Die Erhöhung der Spannung verschiebt den Boosttakt übrigens noch weiter nach oben, würde ich also erstmal weglassen. Dass du mit einem Offset von -65MHz aber bei nur 1911MHz landest, erklärt das aber nicht, da müsste man wissen, wo das OC-Tool die Basis sieht.

Hmm... Das müsste man ja eigentlich fast auslesen können oder ?
Wenn also GPUz oder NVInspector anzeigt, dass die Palit eine niedriegere Spannung anlegt bei vergleichbarem oder höheren Takt dann ist eigentlich klar was Sache ist - oder ?

Die Tools machen ja auch nichts anderes :>.

Geächteter
2016-07-01, 17:19:32
War das eigentlich schon immer so, dass selbst die Spannung von der Performance/fps abhängt? Ich bekomme z. B. bei 1600 Mhz und 0,800 Volt ca. 20 Prozent weniger Leistung, als wenn ich es mit 0,830 Volt laufen lasse, beide Male curved über Afterburner. :freak:

qiller
2016-07-01, 17:58:44
Die Performance hängt (unter anderen) von der Taktfrequenz ab. "Unter den anderen" gehört die Spannung nicht dazu. Diese ermöglicht aber höhere Booststufen. Daher taktet eine Boost2+ NVidia-Karte auch schon höher, wenn du einfach nur die Spannung erhöhst, vorausgesetzt, es begrenzt weder das Temperatur- noch das Powertarget. 20% klingt für mich aber schon viel für diese Spannungserhöhung (kenne aber Pascal nicht). Schau dir doch einfach den Boosttakt jeweils mit 0,8V und 0,83V an - sollte mit 0,83V höher sein, wenn sonst nichts limitiert.

Geächteter
2016-07-01, 19:05:35
Die Performance hängt (unter anderen) von der Taktfrequenz ab. "Unter den anderen" gehört die Spannung nicht dazu. Diese ermöglicht aber höhere Booststufen. Daher taktet eine Boost2+ NVidia-Karte auch schon höher, wenn du einfach nur die Spannung erhöhst, vorausgesetzt, es begrenzt weder das Temperatur- noch das Powertarget. 20% klingt für mich aber schon viel für diese Spannungserhöhung (kenne aber Pascal nicht). Schau dir doch einfach den Boosttakt jeweils mit 0,8V und 0,83V an - sollte mit 0,83V höher sein, wenn sonst nichts limitiert.
Ne, der anliegende Takt ist exakt der gleiche, jedenfalls laut Afterburner.
Er fluktuiert auch nicht.
Evtl. sind die Latencies des VRAMs bei 0,80 Volt noch höher?
Bei 0,825 Volt ist die Performance fast genauso gut wie bei 0,831 Volt und danach gibts dann keine für mich messbare Steigerung. Auf die schnelle mit GTA V getestet.

qiller
2016-07-01, 19:23:10
Dann würd ich das mal auf ein Fehlauslesen schieben. 1607MHz ist doch der Standardtakt der GTX1080 ohne jegliche Boost-Stufe.

BigKid
2016-07-01, 23:34:17
Nochmal: Es gibt keinen "klaren Ausschlag" bei irgendwelchen Customdesigns. Es ist und bleibt Glückssache. Da kann die eine Amp Extreme mit ASIC 60 und die nächste Amp Extreme mit 76 auftauchen.

Ahh... da hast du mich missverstanden - ich wollte auch daraus keine allgemeine Tendenz zu Palit ableiten sondern nur sagen dass bei diesen beiden Karten der Asic der Palit besser zu sein scheint...


Mit "Bios drüberbügeln" wäre ich vorsichtig, vor allem wenn es sogar von einem anderen Hersteller kommt (mit nvflash gibts nicht umsonst eine Sicherheitsabfrage). Was du machen kannst, ist das vorhandene BIOS anzupassen, wenn es die passenden Tools hierfür gibt (Pascal Tweaker?).

Hmm... ich hab das schon öfter mit Laptop MXM Modulen gemacht... meine einzige Sorge war eher dass ich ein Bios erwische bei dem das PT höher ist als das PCB mitmacht...


Ist es. Die Stromanschlüsse sind aber nicht alles. Ich mein, mit der Bestückung kann die Karte theoretisch 375W aufnehmen, was totaler Unfug ist. Daher kann ich mir gut vorstellen, dass Zotac die Stromaufnahme über den PCIe-Slot zur Entlastung der Mainboards drosselt und die Karte den Löwenanteil über die 8-Pol-PEG-Stromanschlüsse zieht. Aber das müsste man genauer nachmessen.

Und welchen Boosttakt legt die Karte mit Default-Settings an? Wo liegt der Takt mit PT 120% (ohne Spannungs-/Taktänderungen)?

Mit PT120% springt sie auf über 2100 (ich meine 2198 gesehen zu haben) und semmelt ab... das ist ja das seltsame... Die Defaultwerte hab ich mir gar net angesehen :)


Das Absenken des Takts von 1938MHz auf 1911MHz ist übrigens eine normale Temperaturdrosselung, die ab bestimmten Temperaturen auftritt (bei mir war das bei ~63°C?). Nicht zu verwechseln mit der Temperatursperre (die meist irgendwo bei 83°C-91°C liegt), wo die Karte deutlich stärker heruntergetaktet (eben soweit, bis die Temperatur wieder sinkt).

Dass die Karte mit 2180MHz abschmiert, ist jetzt nicht verwunderlich. Was mich aber wundert, warum die Karte auf 2180MHz takten wollte, wenn du das PT auf 120% setzt. Das würde ja heißen, dass die Zotac im Default (PT=100%) auch Power limitiert und da dann nur 1911MHz schafft und mit PT=120% dann ihre Reserven freischaltet und gleich auf 2180MHz gehen will. Die Verschiebung der Boosttable seitens Zotac könnte sicherlich zu solch einem Ergebnis führen. Aber einfach mal 270MHz mehr klingt für mich viel. Wie gesagt, du müsstest erstmal gucken, ob die Karte im Default auch PT-limiert ist, dann würde es die starke Anhebung erklären. Die Erhöhung der Spannung verschiebt den Boosttakt übrigens noch weiter nach oben, würde ich also erstmal weglassen. Dass du mit einem Offset von -65MHz aber bei nur 1911MHz landest, erklärt das aber nicht, da müsste man wissen, wo das OC-Tool die Basis sieht.

Die Tools machen ja auch nichts anderes :>.
Also nochmal zur Sicherheit - die Zotac hat bei uns folgendes gemacht:
Bei Anhebung NUR das PTs auf 120 hüpft sie aus den gleisen - boostet auf über 2100 und zack - treiber reset.
Bei Anhebung des PTs, leichtem anheben des VMax und absenken des Core Taktes haben wir sie dann stabil auf besagte 1938 und mit aufwärmen dann 1911 geschafft...
Aber wir hatten nur 2 Stunden Zeit mit Umbau :) - speziell die Zotac will ich schon nochmal austesten...

BigKid
2016-07-04, 19:44:01
So... Ich hatte heute nochmal Gelegenheit mich mit den beiden GTX1070ern und OC zu beschäftigen...

Zunächst einmal habe ich mir die Zotac noch einmal vorgenommen und auch die Werte@DEFAULT einmal angesehen. Dabei ist mir aufgefallen, dass:
- OCCT schon mit den Default Settings Berechnungsfehler anzeigt
- die Karte quasi NIE ins PT läuft sondern "VREL" (Voltage Regulator ?) als Perf Cap Reason angezeigt wird
- die Karte selbst bei Vollast noch bei 60-65% Power Consumption liegt

Wenn ich dann mit OC experimentiere merke ich:
- dass die Erhöhung der Max Voltage Quasi keinen Einfluss hat (wie auch wenn schon im Default das Ding die Spannung begrenzt ...
- auch eine Anhebung des PTs auf 120% fürn Popo ist weil das eh nicht der begrenzende Faktor ist

Das unterstützt meine Vermutung, dass Zotac hier über das Ziel hinaus ist. Die Karte scheint ein unglaublich hohes PT zu haben, aber leider klemmt NVIDIA so wie es aktuell aussieht eine Spannungserhöhung so früh ab, dass ich hier leider das hohe PT und Kühlungspotential der Zotac ins Leere läuft. Erst falls es jemandem gelingt hier "VREL" als Perf Cap Grund auszuhebeln könnte die Karte mehr Spass machen... Bis dahin scheint das bei der GTX1070 AMP extreme leider alles Overkill zu sein...
Die Karte IST allerdings tatsächlich leise... ich empfinde sie als leiser als die Gamerock. Das Design gefällt mir eh besser aber das ist Geschmackssache und mir unterm Strich nicht so wichtig...
Das Hauseigene Tool von Zotac schafft es übrigens nichtmal die Spannungen anzuzeigen... Das steht immer "0"... Das von Palit kann es... (und GPU-Z in der aktuellen sowieso)

Folgende Stichproben ergaben sich mit den Settings:
-50 Mhz, +0% MaxVoltage:
Valley Benchmark: 1949Mhz@1,05V bei 60% Power Consumption, Cap Reason: VREL - quasi durchgehend
3DMark: 1949@1,06V bei 62% Power Consumption, Cap Reason: VREL - quasi durchgehend

Palit:
- die Palit ist @DEFAULT ohne Fehler im OCCT
- die Karte läuft im OCCT auch mit Maximum PT (114%) ins PT Limit (Perfcap Reason "PWR") und kommt daher "nur" auf 1911Mhz
- die Besten OC Settings für unser Modell hier waren +300Mhz, +0% MaxVoltage

Folgende Stichproben ergaben sich mit den Settings:
+300Mhz, +0% MaxVoltage:
Valley Benchmark: 2062Mhz@1,05V bei 90% Power Consumption, Cap Reason: VREL - quasi durchgehend
3DMark: 2088@1,062V bei 95% Power Consumption, Cap Reason: VREL - quasi durchgehend


Fazit allgemein:
Wie auch andere schon herausgefunden haben: Nvidia scheint der GTX1070 eine maximale Spannung verordnet zu haben, die noch VOR dem PT der meisten Customs limitieren dürfte.
Aktuelle Hypothese: Somit machen aktuelle die hohen PTs vieler Karten keinen Sinn... Nur in synthetischen Szenarien wie OCCT läuft einer der Karten ins PT - in allen anderen Szenarien ins "VREL".
(Werde noch weitere Spiele testen um das zu bestätigen).

Fazit im Speziellen:
Der Asic der Palit scheint IN DIESEM FALL deutlich besser zu sein. Er arbeitet mit niedrigeren Spannungen was ihn deutlich später in die "VREL" Falle tappen lässt.
Die Zotac geht zurück - zumal sie schon im Default Rechenfehler in OCCT produziert - vlt. versucht mein Kollege nochmal eine zu bekommen in der Hoffnung, dass diese einen besseren Asic hat. Prinzipiell gefällt ihm die Karte besser.

Wenn jemand Fehler in meinen Versuchen oder Schlussfolgerungen sieht - immer her damit...

BlacKi
2016-07-04, 20:02:03
ich lese immer wieder zu hohes PT...

sowas gibts nicht, erst recht nicht wenn man OC betreiben will.

deine zotac ist einfach nicht in der lage den im bios hinterlegten takt stabil zu betreiben.

ergo defekt, oder schlecht abgestimmt.

BigKid
2016-07-04, 20:12:07
ich lese immer wieder zu hohes PT...

sowas gibts nicht, erst recht nicht wenn man OC betreiben will.

deine zotac ist einfach nicht in der lage den im bios hinterlegten takt stabil zu betreiben.

ergo defekt, oder schlecht abgestimmt.
Siehe oben... Eher schlechter Asic... Aber auch die PALIT läuft selten bis nie ins PT sondern der Voltage Regulator limitiert... Bei BOOST3.0 scheint ein hohes PT also nicht mehr so zu greifen wie bei Boost2.0...

BlacKi
2016-07-04, 20:14:58
Bei BOOST3.0 scheint ein hohes PT also nicht mehr so zu greifen wie bei Boost2.0...
was meinst du damit? wenn beide karten mehr pt haben als sie je erreichen können, dann ist boost 3.0 praktisch deaktiviert. genau wie bei boost 2.0

BigKid
2016-07-04, 20:33:58
was meinst du damit? wenn beide karten mehr pt haben als sie je erreichen können, dann ist boost 3.0 praktisch deaktiviert. genau wie bei boost 2.0
Lies doch mal was ich geschrieben habe: GPUz zeigt an dass die Karten drosseln wegen "VREL" also der Spannung ... und nicht wegen des PTs. Also ja das PT ist bei den Customs ausgehebelt - aber was hilfts wenn ich die Spannung nicht anziehen kann um den Chip bei höheren Takten stabil zu bekommen ? Das Problem hatten wir bei Boost 2.0 noch nicht - da war NUR das PT das Problem... Somit verschafft das hohe PT der Zotac ihr leider keinen Vorteil...

BlacKi
2016-07-04, 21:00:24
Somit verschafft das hohe PT der Zotac ihr leider keinen Vorteil...
aber auch keinen nachteil, so wie es dein satz vermuten lässt. darum ging es mir.

was die voltage kurve angeht, sehe ich zwischen boost 2.0 und 3.0 nur einen unterschied, und zwar das man die spannung leicht erhöhen absenken kann. bei boost 2.0 musste man das bios modden um mehr spannung zu bekommen, genau wie bei boost 3.0 nur mit dem unterschied das man das wohl noch nicht kann. beide voltage steuerungen haben aber mit dem boostverhalten aber nichts zu tun.

BigKid
2016-07-04, 21:14:24
aber auch keinen nachteil, so wie es dein satz vermuten lässt. darum ging es mir.

was die voltage kurve angeht, sehe ich zwischen boost 2.0 und 3.0 nur einen unterschied, und zwar das man die spannung leicht erhöhen absenken kann. bei boost 2.0 musste man das bios modden um mehr spannung zu bekommen, genau wie bei boost 3.0 nur mit dem unterschied das man das wohl noch nicht kann. beide voltage steuerungen haben aber mit dem boostverhalten aber nichts zu tun.
Ja - ein Nachteil ist das nicht - nur aktuell auch noch kein Vorteil. Bei der Karte die ich mir ansehen konnte kommt halt noch ein offensichtlich nicht ganz so toller Asic dazu der mehr Spannung bräuchte als er bekommt...
Es steht und fällt jetzt alles damit ob jemand einen Weg findet das Spannungscap auszuhebeln...
konnte man bei Boost 2.0 nicht wenigstens noch ein bisschen mehr Spannung geben - auch ohne Mod Bios ?

EDIT:
Ich habe den Eingangspost ergänzt/überarbeitet. Mein Ziel wäre es mal ein paar Werte Takt@Spannung zu sammeln um so ein Gefühl dafür zu entwickeln welche Asic-Qualtitäten so um Umlauf sind. GPUz liefert ja leider noch nix...

qiller
2016-07-05, 23:36:43
Danke fürs weitere testen. Um das mal zu entflechten. VREL steht im Grunde immer als PerfCap Reason drin, wenn sonst nichts die Taktfrequenz begrenzt. Die Rechenfehler der Zotac haben nichts mit einem zu hohen Powerlimit zu tun, sondern mit einer viel zu starken, standardmäßigen Verschiebung der Boosttable seitens Zotac. Du hattest ja im Posting davor schon geschrieben, dass die Karte im Default auf 2100+MHz hinaus will. Das kann nicht stabil laufen. Irgendwie kann ich mir das auch immer noch nicht vorstellen. Das wäre schon ein ziemlicher Anfänger-Fehler seitens Zotac.

Genaueres kann ich aber auch erst sagen, wenn ich in einem zukünftigen "Pascal BIOS Tweaker" das Palit- und Zotac-Bios nebeneinander sehe.

BigKid
2016-07-06, 09:58:42
Danke fürs weitere testen. Um das mal zu entflechten. VREL steht im Grunde immer als PerfCap Reason drin, wenn sonst nichts die Taktfrequenz begrenzt. Die Rechenfehler der Zotac haben nichts mit einem zu hohen Powerlimit zu tun, sondern mit einer viel zu starken, standardmäßigen Verschiebung der Boosttable seitens Zotac. Du hattest ja im Posting davor schon geschrieben, dass die Karte im Default auf 2100+MHz hinaus will. Das kann nicht stabil laufen. Irgendwie kann ich mir das auch immer noch nicht vorstellen. Das wäre schon ein ziemlicher Anfänger-Fehler seitens Zotac.

Genaueres kann ich aber auch erst sagen, wenn ich in einem zukünftigen "Pascal BIOS Tweaker" das Palit- und Zotac-Bios nebeneinander sehe.
Ich glaube hier eher an schlampige QS - auch dass Firestorm die Spannung (noch) nicht auslesen kann ist ein bisschen blamabel...
Hast du eventuell ein "Gefühl" dafür wie die beiden GPUs "relativ" zueinander einzuordnen sind (z.B. der Palit ist 10% besser oder 20%) oder was ich (hätte) tun müssen um das zu beurteilen ?

Deine Aussage zu VREL kann ich aber nicht nachvollziehen bzw. verstehe ich noch nicht ganz. Ich habe in letzter Zeit eigentlich nur noch mit meiner GTX980M gespielt und da kann es natürlich anders aussehen - aber hier habe ich entweder PWR oder keinen Perfcap Reason... Evtl noch "UTIL"... VREL kannte ich gar nicht... Kannst du da eventuell noch etwas mehr zu sagen ?

qiller
2016-07-06, 16:02:58
Die Mobil-Varianten kenn ich jetzt nicht, vielleicht gibt es hier auch gar keine Boost-Stufen (würde bei Mobile-Varianten irgendwie Sinn ergeben).

VRel = Voltage Reliability. Im Grunde wird das immer angezeigt, wenn unter Last die Booststufen angesteuert werden (sonst Util).

Es gibt noch VOP als PerfCap Reason, was die maximale, operative Spannung bedeutet. D.h. wenn das da steht, hat man die maximale, vom VBios zulässige Spannung erreicht.

Wie ich oben schon schrieb, ist die Zotac-Karte nicht das beste Beispiel, um die Zusammenhänge zu verstehen, da hier dieser Boost-Chip dazwischenfunkt.

Hier nochn Link zum Boost2.0-vs-Boost3.0-Luxx-Artikel für Pascal, vlt auch ganz hilfreich:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39124-nvidia-geforce-gtx-1080-mit-pascal-architektur-im-xxl-test.html?start=8

BigKid
2016-07-13, 18:57:53
Sodele habe eine weitere AMP Extreme in der Mangel gehabt...
Leider GENAU die selben Werte. Eventuell pfuscht da der "Spezialchip" rein aber nach allen Infos die ich finden konnte macht der eigentlich nicht wirklich was ausser für ne stabilere Spannungsversorgung zu sorgen...Der Unterschied zwischen Amp Extreme (1) und (2) ist soweit lediglich dass die (2) im Default nicht schon Rechenfehler im OCCT wirft - übertakten ohne Rechenfehler laut OCCT ist aber auch hier nicht drinn... Der direkte Vergleich mit der Palit ist aber nicht fair, da diese bei OCCT tatsächlich ins PT läuft und nicht ganz so hoch geht mit dem Takt... Allerdings bestätigen sich die OCCT Ergebnisse dann wiederum doch in den Benchmarks die ebenfalls beim leichtesten OC absemmeln, bei der Palit jedoch nicht - und da taktet sie dann höher da sie nicht ins PT läuft...
Disclaimer: Ich leite damit wiederum nichts über Zotac oder Palit ab - mir gehts um die Asic-Qualis... Der Asic der Zotac (2) scheint nun etwas besser oder zumindest besser abgestimmt zu sein, kommt aber leider immernoch nicht den der Palit (1) rann...

GTX1070 - Sammlung Asic Qualitäten:

Palit GR (1)
Valley Benchmark: 2062Mhz@1,05V bei 90% Power Consumption, Cap Reason: VREL - quasi durchgehend
3DMark FireStrike: 2088Mhz@1,062V bei 95% Power Consumption, Cap Reason: VREL - quasi durchgehend

Zotac Amp Extreme(1):
Valley Benchmark: 1949Mhz@1,05V bei 60% Power Consumption, Cap Reason: VREL - quasi durchgehend
3DMark Firestrike: 1949Mhz@1,06V bei 62% Power Consumption, Cap Reason: VREL - quasi durchgehend
Anmerkung: Rechenfehler bereits bei den Defaultsettings (also mit Werks OC) in OCCT

Zotac Amp Extreme (2):
Valley Benchmark: 1949Mhz@1,05V bei 60% Power Consumption, Cap Reason: VREL - quasi durchgehend
3DMark Firestrike: 1949Mhz@1,06V bei 62% Power Consumption, Cap Reason: VREL - quasi durchgehend

1nsider
2016-07-14, 19:11:47
@BigKid: vor einer Woche habe ich mir eine MSI GeForce GTX 1070 Gaming X 8G geholt, einen alten Pentium4 CPU-Wasserkühler vorerst ghettomäßig mit Kabelbindern draufgeschnallt (das geht bei dem Model besonders gut) und habe sie nun stabil auf 2151.5 MHz bei 1,043V ohne PerfCaps laufen [unter OCCT und 3DMark Firestrike]. Wie das geht schildere ich hier in kürze mit paar Bildern von der Digicam und Screenshots. Auch wenn der Takt unter Luft eher unrealistisch ist (bzw. stark vom Chip abhängt)

1nsider
2016-07-14, 19:56:36
Okay, also wie schon angedeutet habe ich mir die MSI GeForce GTX 1070 Gaming X 8G geholt. Ausschlaggebend für mich dabei war die schon an anderer Stelle verlinkte Übersicht der Powertargets auf PCGH bzw. hier auf 3DCenter (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11062731#post11062731) die vermutlich falsch ist, zumindest bezüglich dieses Models (Angegeben mit 230/291 Watt max). Dazu gleich mehr. Außerdem wollte ich diesmal unbedingt ein custom-design (mit stärkerer Stromversorgung), da ich mit meiner letzten Grafikkarte - einer Palit GTX 970 Jetstream (Referenzboard mit Custom-Kühler) - eine eher schlechte Übertaktung (unter Wasserkühlung) erreicht habe (trotz angepasstem vBIOS).

Fünf Punkte möchte ich hier nun ansprechen: das vBIOS, MSI Afterburner (v4.3 Beta4), den Kühlerwechsel samt Shunt-mod (pics), Benchmarks mit GPU-Z Sensor-Screenshots und zuletzt das große Warten auf den 'PascalBiosEditor'. Also los:

1) Wer mehr über die Karte wissen will, kann sich eines der vielen Reviews im Netz anschauen. Ich empfehle das von Techpowerup (https://www.techpowerup.com/reviews/MSI/GTX_1070_Gaming_X/1.html) da es u.a. viele Bilder beinhaltet. Die Grafikkarte wird -- im Gegensatz zu den an Tester verschickten Karten -- mit einem vBIOS ausgeliefert, welches standardmäßig in einem (via MSI-app genannten) 'Gaming-Modus' läuft (übertaktet gegenüber Referenz), statt im OC-Mode getauften Modus, mit weiter erhöhten Taktfrequenzen. Auf der MSI homepage wird seit dem Bekanntwerden dieser Benchmarkschummelei auch die andere, höher übertaktete vBIOS-Version zum flashen angeboten.

Die Taktraten sind wie folgt:

Gaming-mode: 1.582 (base) 1.771 (boost) 4.000 (vRAM) [Version 86.04.1E.00.41]
OC-Mode: 1.607 (base) 1.797 (boost) 4.054 (vRAM) [Version 86.04.1E.00.40]

Die MSI-app die ein Umschalten (on-the-fly) zwischen diesen Modi (und einem dritten Silent-Modus mit niedrigen Referenztaktraten) erlaubt, ist nicht zu empfehlen, insbesondere wenn man manuell übertakten möchte. Das kommt sich nur unnötig gegenseitig in die Quere.

Flasht man also das OC-Mode vBIOS, läuft die Karte standardmäßig mit den höheren Taktraten (die auch die Tester hatten). Der boost-Wert wird in alltäglichen Szenarien weit übertroffen - darauf braucht man deswegen nicht zu achten. Beide Varianten übertakten im übrigen so weit, wie es das Power- und Temperaturtarget bzw. diverse PerfCaps eben zulassen und erzielen so in der Praxis nahezu die gleiche Performance. Primär der leicht höhere Speichertakt des OC-Mode dürfte bei den reviews für hier und da marginal höhere Werte gesorgt haben.

2) Um die Grafikkarte weiter zu Übertakten (und auch Überwachen) bietet MSI den Afterburner an, der extra für Pascal in einer Beta4 (http://download.msi.com/uti_exe/MSIAfterburnerSetup430Beta4.zip) Version vorliegt. Diese hat ein paar Sonderfunktionen zum Übertakten, die nur bei Pascal-GPUs funktionieren. Mehr dazu ist >>hier<< (http://www.guru3d.com/articles_pages/geforce_gtx_1080_overclocking_guide_with_afterburner_4_3,2.html) nachzulesen.

Mit Strg-F ruft man ein Fenster auf in welchem die 'VFCurve' editiert werden kann. Diese passt den Pascal GPU Boost 3.0 an - in der x-achse nach Spannung und in der y-achse nach maximaler boost-Frequenz. Markiert man einen der vorgegeben Kästchen auf der Linie kann man ihn nach oben/unten verschieben und mit einer Sonderfunktion über die Taste "L" direkt erzwingen. Das ist prima um für jeden Wert auf der Linie einzeln die Stabilität zu testen (während man bencht, wie auch idle). Ich selbst möchte davon abraten auf gut Glück die Kurve frei anzupassen und stattdessen die Verschiebe-Funktion mit gedrückter Strg-Taste empfehlen, die den ganzen Graphen auf zwei verschiedene Arten verschiebt - je nachdem ob man ein beliebiges Kästchen links bzw. rechts von der Mitte [@1000mV] anklickt. Rechts von der Mitte passt (vorallem) die höheren (boost-)Taktraten - links von der Mitte die unteren (Base-)Taktraten - an. Letztere brauchen im Grunde keine Anpassung (zumindest nicht nach oben) außer man möchte die Effizienz der Karte unter geringer 3D-Last senken, was eigentlich niemand wollen sollte.

Um die Maximalwerte (unabhängig vom Kurveneditor) für die GPU grob zu ermitteln empfehle ich den MSI-Kombuster, FurMark o.ä. zu verwenden und windowed (1280x720) mit 8xAA auszuführen (die Kantenglättung verhindert dass die Karte direkt ins Powerlimit läuft und die Kernfrequenz drosselt). Gleichzeitig sollte man im Afterburner die Regler nach rechts stellen - Power Limit und Temp. Limit zuerst (auf Anschlag) - dann CoreClock in 10er Schritten steigern bis der Grafikkartentreiber crasht und (hoffentlich ohne freeze/BSOD) neu gestartet wird. Um das Speichertakt-Limit zu ermitteln ist FurMark besonders gut, da es Artefakte eher früher anzeigt, als Spielen sie anzuzeigen vermögen. Außerdem gilt zu beachten dass man mit der Speicherübertaktung mehr Strom von den zwei Phasen für die Speicherstromversorgung zieht, welches direkt mit am PowerLimit (auch PowerTarget genannt) der Grafikkarte hängt. Man kann sich also u.U. mit höherem Speichertakt einen niedrigeren Kerntakt einhandeln - wenn die Karte ins Powerlimit läuft und deshalb runtertaktet (bzw. nicht weiter hochtaktet) -- der Speichertakt wird nämlich grundsätzlich gehalten. Die MSI Karte hat ein 8+2 Phasen Design und die zwei Phasen für den Speicher sind es auch, die gefühlt am heißesten werden.

Sind die Höchstwerte ermittelt, würde ich noch eine Runde 3DMark Firestrike und ein anspruchsvolles Spiel auf höchsten Settings empfehlen um Stabilität zu gewährleisten. Lässt man dabei den Sensor-Reiter von GPU-Z im Hintergrund laufen sieht man nachher auch die jeweils erzielten Höchstwerte, die wegen diverser PerfCaps mit dieser pauschal-Übertaktung (via CoreClock Regler) ständig fluktuieren -- hier kommt jetzt Kurveneditor wieder ins Spiel (Strg-F).

Sucht euch im GPU-Z Sensorreiter die Stelle während des Firestrike-runs raus, in der die GPU Core Clock am höchsten ist und notiert euch an selbiger Stelle weiter unten den VDDC Wert (das PerfCap Reason an dieser Stelle dürfte VRel sein). Wie auch BigKid schon gezeigt hat laufen diverse Pascal-Karten primär ins VRel limit und limitieren dadurch den höchsten erzielbaren Takt. Das erhöhte Power-/Templimit in Afterburner sollte zumindest eine anderweitige Limitierung vermeiden.

Diese notierte höchste Spannung bei höchstem Takt ist es, die wir nun im Kurveneditor angleichen indem wir diesen Punkt bei gedrückter Strg-Taste anklicken und nach oben auf die dazu notierte Frequenz schieben (müsste nahe ~1,05V liegen!). Alle Punkte, die nach diesem Punkt kommen (rechts davon), klicken wir nun einzeln mit der Maus und verschieben sie (Cursor-tasten geht auch) nach unten auf dieses ermittelte Frequenz-Limit. Am Ende noch bestätigen in Afterburner (dass die angepasste Kurve übernommen wird) und als eines der fünf Profil-Speicherplätze sichern. Et Voila. Afterburner zeigt nun anstelle eines fixen Core Clock Wertes (in +xxx MHz) nur noch "Curve" an.

Startet man nun FurMark (mit 8xAA) sollte der Core Clock direkt auf das eigens notierte GPU Frequenz- und Spannungslimit springen und dort verbleiben - ohne in ein PerfCap zu laufen (sprich: keinerlei Drosselung findet statt). Reduziert man allerdings in FurMark die Kantenglättung auf 4xAA oder weniger bzw. macht andere höchst anspruchsvolle 3D-Last auf die GPU, läuft sie natürlich in andere PerfCaps und taktet zur Sicherheit runter. VRel spielt nun allerdings keine Rolle mehr und in einen zu hohen Takt [bei geringer 3D-Last] kann die Karte wegen der angepassten Kurve auch nicht laufen (und damit nicht mehr abschmieren, wie bei der pauschalen Übertaktung mit dem Schieberegler in +xxx MHz). Um wirklich sicher zu gehen dass man das höchste stabile Limit der Grafikkarte ermittelt hat empfiehlt es sich diesen Wert im Kurveneditor mit der Taste "L" zu fixieren (anschließend bestätigen im Afterburner) und dann durch diverse Benches und Spiele zu jagen.

Eine Anmerkung noch: Ich habe bewusst den Core Voltage (%) Regler in Afterburner außen vor gelassen da dieser bei meinen Tests keinerlei Nutzen gezeigt hat (Funktion schon!). Ein setzen dieses Reglers auf Anschlag (100%) erlaubt der GPU nicht etwa die Spannung zu verdoppeln - wie man annehmen würde. Es erlaubt in meinem Fall aber eine Anhebung der GPU-Kernspannung (GPU-Voltage oder auch VDDC genannt) von 1045 mV auf 1093mV. Das ist bei 16nm an sich nicht mal ohne - resultierte aber bei meinen Testes in [B]keinerlei Anhebung des Übertaktungspotentials. Bei 2175 MHz @ 1093mV crasht mir die Karte nur kurz nach dem Start von Firestrike ebenso weg wie bei 1045mV. 2151.5 MHz dagegen laufen astrein bei den standard 1045mV -- ohne eine einzigen crash bisher. Es gibt also keinen Grund (für mich) derzeit die Spannung zu erhöhen. Gerade auch weil ich mit erhöhter Kernspannung wieder früher ins PowerLimit laufen würde -- das Ziel dieser Anpassung war es aber jegliches Drosseln zu vermeiden. Da derzeit BIOS-mods für Pascal nicht ohne weiteres möglich sind, habe ich jedoch einen kleinen Hardware-mod durchgeführt als ich den Kühler runter hatte. Dazu mehr im nächsten Punkt.

3) Wer kein Problem mit Garantieverlust durch hardware-mods hat ist mit diesem Model (bzw. dem Baugleichen ohne X im Namen) gut bedient. So lässt sich der komplette Kühler nur durch das entfernen der vier Schrauben am Sockel entfernen. Die Backplate sowie zwei große Passiv-Kühlbleche (mit kleinen Rippen) für die VRM-MOSFETs und die den GP204-Chip umliegenden Speicherchips bleiben dabei montiert. Auch kommt man schon so direkt an die drei shunt-Widerstände heran, die der Grafikkarte beim Kurzschliessen jener eine niedrigere Stromaufnahme über die zwei Netzteil-Rails (8+6pin) und den PCIe-Port suggerieren, als tatsächlich stattfindet. Bilder dazu gibt es hier in meinem Album (http://imgur.com/a/Okz0M) auf imgur. Da ich noch einen gut 15 Jahre alten CPU-Wasserblock von Innovatek rumfliegen hatte, bot sich jener gerade dazu an auf die Graka geschnallt zu werden. Etwas professorisch mit Kabelbindern... wackelt kaum und hat auch keine Luft ;)

Wer generell mehr dazu erfahren will, dem sei das (https://xdevs.com/guide/pascal_oc/), jenes (http://forum.kingpincooling.com/showthread.php?t=3879) und auch dieses Video (http://forum.kingpincooling.com/showthread.php?t=3879) ans Herz gelegt.

In meinem Fall habe ich mit Kupferleitlack und einem Wattestäbchen diese Shunt-Widerstände überbrückt. Ob jener mod alleine irgendwas gebracht hast, kann ich leider nicht beurteilen da ich die Karte vor dem Umbau nicht ausführlich überwacht habe (bei Stresstests unter Luftkühlung bekomme ich Bauch- und Fingerschmerzen... da man den Kühler nicht mehr Anfassen kann) - deshalb habe ich nur einen relativ kurzen (Funktions-)Test vor dem Umbau auf Wasserkühlung vollzogen. Mehr als +139 MHz Core Clock waren auf den ersten Blick unter Luftkühlung nicht drin, die auch längst nicht gehalten wurden, da die Karte temperaturbedingt sehr früh die höchsten Boost-Taktraten reduziert (ab 50°C afaik) -- auch bereits ohne ein angezeigtes PerfCap - also noch nicht drosselt im eigentlichen Sinn (ein GPU boost 3.0 feature). So lief die Karte mit ~2075 MHz durch Firestrike und Co.

Nach dem Kühlerumbau und dem unter Punkt zwei erläutertem Übertaktungsprozess laufen bei mir jedenfalls der 3DMark Firestrike, Doom, The Talos Principle, ArmA3 unter dem Höchsttakt ohne Drosselung (keine PerfCaps in GPUZ) -- außer dem üblichen gelegentlichen runtertakten in niedrigere Performance-states (Util) bei zu geringer GPU-Last (z.B. zwischen den Szenen). Den höchsten TDP-Wert den ich dabei in GPU-Z jemals zu Gesicht bekam liegt bisher übrigens bei knapp 90%. Die 126%, die ich im Afterburner bei dieser Karte einstellen kann sind somit overkill (Luft nach oben ist aber nicht schlecht, nur schade dass sie nicht genutzt wird). Andererseits tut der shunt-mod nicht das, was er eigentlich soll - denn mit FurMark bei wenig (bzw ohne) Kantenglättung gerät die Karte dennoch in ein PerfCap [Pwr] und taktet runter; was aber nicht durch eine zu hohe TDP angezeigt wird [liegt wie gesagt nur bei ~90%]. Es drosselt also noch an anderer Stelle die Stromzufuhr - wo ist mir bisher nicht ganz klar. Macht aber erstmal nichts, da es in nicht-synthetischen Tests bisher nicht drosselt, und mehr will ich an sich garnicht. Würde sich jedoch generell mehr Leistung in den Chip prügeln lassen, und sich diese auch in deutlich höheren Taktraten widerspiegeln, wäre ich zufriedener. Leider sieht es derzeit aber nicht so aus, als dass das ginge -- denn die Extremübertakter mit Flüssigstückstoff und deutlich mehr Spannung fuhren leider auch sehr früh gegen eine Wand (um 2,5 GHz). Ob die super Spezialversionen (EVGA classified bspw), auf der anscheinend 2,8 GHz möglich waren, auch unter normalsterblicher Kühlung was reißen können wird, muss sich erst noch zeigen.

Kleines Fazit: eine gebrauchte 980Ti samt Fullcover-Wasserblock wäre vielleicht die bessere Wahl gewesen, da sogar leicht günstiger und auf jeden Fall 'besser' zu übertakten. Performance mäßig nimmt sich das nicht viel.

4) Einen Screenshot vom neu erschienenen 3DMark Time Spy (DirectX 12) samt GPU-Z habe ich >>>hier<<< (http://imgur.com/RZKLXVX) hinterlegt. Und der link dazu http://www.3dmark.com/spy/17368
Und hier noch der link zu meinem Firestrike 1.1 Ergebnis http://www.3dmark.com/3dm/13144151 (GPU-Z sieht dort genauso aus)
Noch ein paar kurze Anmerkungen zur angezeigten Leistung in HWiNFO:
- 3DMark kommt in Spitzen auf ~191W
- MSI Kombuster GPU core burner v2 (Furry Donut) bei 4xAA erreicht max. 204W und drosselt dann fluktuierend wegen Pwr auf 2113 MHz (und 180W), um dann wieder kurz auf 2151 MHz zu steigen. Daher meine Vermutung dass die max. Power Angabe von PCGH und aus dem Forum (230-291W) falsch sind.
- 2xAA fluktuiert zwischen 1949-2000 MHz
- kein AA fluktuiert zwischen 1759-1860 MHz

[B]5) Was bleibt, sind Fragen. Warum skaliert der Takt bei Pascal nicht mit der Spannung -- funktioniert die softwareseitige Spannungsanhebung etwa nicht richtig (limitiert auf einen sehr engen Regelbereich ist sie im vBIOS bisher ohnehin)?

Von der ASUS GTX 1080 Strix OC schwirrt ein von DanCop releastes vBIOS (http://forum.hwbot.org/showthread.php?t=159025) herum, welches bis zu 1,2V vcore erlaubt und jegliches PowerLimit aufheben soll. Selbst Leute mit einer Founders Edition hätten sich das angeblich geflasht aber keine echten Erfolge erzielt. Muss vielleicht ein anderes (nicht softwareseitig verstellbares) Limit im vBIOS angehoben werden um mehr Takt zu ermöglichen oder geht aus irgendeinem anderem Grund einfach nicht mehr? Ist der GPU-Boost 3.0 von Pascal vielleicht von Haus aus schon so gut dass er nahezu das maximum aus dem Silizium herausholt und wir sozusagen der Chip-Lotterie ausgeliefert (und limitiert) sind? Letzteres ist schwer zu glauben da die Werte für scheinbar alle so eng beinander liegen, aber wer weiß. Was bleibt ist die Hoffnung dass es bald einen 'PascalBiosTweaker' geben wird, der uns brickfreie BIOS-Modifikation erlaubt, die sich hoffentlich auch lohnt. Bis dahin.

BigKid
2016-07-15, 14:08:31
Vielen Dank für deine Tests und Infos... Überschneidet sich zum Teil mit meinen Erkenntnissen...

Speziell zu 5 habe ich den Eindruck dass der GTX1070 hier eventuell noch früher gebremst wird als der GTX1080.
Bei der Palit (1) die meiner Ansicht nach den deutlich besseren ASIC hat scheint es als gäbe es zumindest noch Luft für eine kleine Spannungsanhebung die auch bei den hohen Booststufen tatsächlich angewendet wird... Daher konnte ich bei der Palit auch leicht höhere Übertaktungen erreichen wenn ich eine Spannungsanhebung gemacht habe...
Bei den beiden Zotacs (1) und (2) scheint es mir, dass der ASIC vom Grunde an schon mit einer etwas höheren Spannung angesteuert wird/werden muss sodaß ich mir zwar eine Spannungsanhebung "wünschen" kann aber effektiv kommt in den hohen Boost Stufen nix mehr davon an...
Hast du denn die Spannungen kontrolliert ? Aktuell zeigt sie ja noch nicht mal jedes Tool auch an... Ich hatte wie grad geschrieben den Eindruck man könne sich zwar eine Anhebung wünschen - aber ob die auch wirklich ankommt hängt davon ab wieviel Spannung der Asic eh schon braucht weil es irgenwo ein CAP gibt...

Unter Wasser sollte hier natürlich mehr Spielraum sein als unter Luft - schlicht weil höhere Temperaturen a) zu einer weiteren Spannungsanhebung führen und b) die Karte auch runtertakten lassen..
Um Vergleichen zu können müsste man also noch die Temps dazu schreiben - bei mir waren die Angaben immer nach Aufheizen so bei 70 Grad...

Mir scheint es also, dass es da abseits vom Bios noch eine Instanz gibt (oder im Bios an einer bisher nicht gefundenen Stelle) die bei der Spannung bremmst... Und es scheint mir so zu sein, als ob das beim GTX1070 früher passiert als beim GTX1080.

Aktuell scheint die ASIC Güte massiv entscheidend... Je weniger Spannung dieser von Hause aus braucht, desto mehr Spielraum hat man um die Spannung und den Takt doch noch ein wenig anzuheben. Und es scheint NICHT selbstverständlich zu sein, dass die Karten über 2000Mhz gehen...
Allerdings darf man nicht vergessen, dass ich hier bisher Karten in den Fingern hatte, die schon von Hause aus mit Werks OC versehen wurden. Trotzdem Spannend zu sehen, das Zotac Karten ausliefert, die im OCCT bereits mit den Default-Einstellungen Rechenfehler produzieren.

1nsider
2016-07-15, 16:07:12
Vielen Dank für deine Tests und Infos... Überschneidet sich zum Teil mit meinen Erkenntnissen...

Speziell zu 5 habe ich den Eindruck dass der GTX1070 hier eventuell noch früher gebremst wird als der GTX1080.
die Referenztaktraten der 1070 (GP104-200, 1506/1683 MHz) sind auch ein gutes Stück unter denen der 1080 (GP104-400, 1607/1733 MHz), wobei der boost näher beieinander liegt. Mein Eindruck ist bisher dass sie zumindest unter Wasserkühlung (<50°C) alle ähnlich hoch takten, was den Eindruck erweckt, als würde es keine artifizielle Limitierung geben. Allerdings muss ich noch mehr Ergebnisse (als z.B. >hier< (http://www.overclock.net/t/1601329/gtx-1070-1080-bios-who-has-it)) sehen, um Schlüsse ziehen zu können. Meine persönliche Erkenntnis mit nur einem Chip ist ja, dass Spannung gar keinen Effekt hat.

Bei der Palit (1) die meiner Ansicht nach den deutlich besseren ASIC hat scheint es als gäbe es zumindest noch Luft für eine kleine Spannungsanhebung die auch bei den hohen Booststufen tatsächlich angewendet wird... Daher konnte ich bei der Palit auch leicht höhere Übertaktungen erreichen wenn ich eine Spannungsanhebung gemacht habe...
Bei den beiden Zotacs (1) und (2) scheint es mir, dass der ASIC vom Grunde an schon mit einer etwas höheren Spannung angesteuert wird/werden muss sodaß ich mir zwar eine Spannungsanhebung "wünschen" kann aber effektiv kommt in den hohen Boost Stufen nix mehr davon an...
Hast du denn die Spannungen kontrolliert ? Aktuell zeigt sie ja noch nicht mal jedes Tool auch an... Ich hatte wie grad geschrieben den Eindruck man könne sich zwar eine Anhebung wünschen - aber ob die auch wirklich ankommt hängt davon ab wieviel Spannung der Asic eh schon braucht weil es irgenwo ein CAP gibt...
Spannungen habe ich stets in GPU-Z kontrolliert. Ein VRel PerfCap bedeutet ja, dass die angelegte Spannung bei entsprechender Frequenz am oberen Ende des erlaubten Bereichs liegt ((zu sehen auf dem Bild hier) (http://www.guru3d.com/articles-pages/geforce-gtx-1080-overclocking-guide-with-afterburner-4-3.html)). Was du mit den Zotac versuchen solltest ist, den Kurveneditor von Afterburner zu verwenden um so zu übertakten wie ich in Punkt zwei beschrieben habe, und zuallererst die ganze Kurve mit Umschalt-Klick um 65 MHz nach unten verschiebst (Umschalt-F ist die lineare Methode wie über den Schieberegler). Dadurch verhinderst du dass der Boost bereits bei ~1950 MHz in das vermeintliche VRel-Limit der ganzen Karte läuft (1,05/6 V). Meine Karte macht die 1950 MHz bspw. bereits bei 893mV und ist so noch weit davon entfernt (1,043V)!

Unter Wasser sollte hier natürlich mehr Spielraum sein als unter Luft - schlicht weil höhere Temperaturen a) zu einer weiteren Spannungsanhebung führen und b) die Karte auch runtertakten lassen..
Um Vergleichen zu können müsste man also noch die Temps dazu schreiben - bei mir waren die Angaben immer nach Aufheizen so bei 70 Grad...
Meine Temps liegen bei maximal 50°C und genau dort beginnt der dynamische GPU Boost 3.0 bereits mit der Reduktion der höchsten Boost-Stufen afaik. Ich hatte dazu mal eine Grafik gesehen kurz nach der 1080 Vorstellung, weiß aber nicht mehr wo.

Mir scheint es also, dass es da abseits vom Bios noch eine Instanz gibt (oder im Bios an einer bisher nicht gefundenen Stelle) die bei der Spannung bremmst... Und es scheint mir so zu sein, als ob das beim GTX1070 früher passiert als beim GTX1080.
Ich vermute ähnliches, allerdings weniger mit der Spannung, die ich weitestgehend mit dem Kurveneditor anpassen kann (und die sich durchaus zwischen den verschiedenen getakteten Karten bereits im vBIOS unterscheiden wird), sondern bei der Leistung (TDP), die anscheinend ja auch von diesem INA3221 (bei den FE-Karten) oder uP-irgendwas ermittelt wird

Allerdings darf man nicht vergessen, dass ich hier bisher Karten in den Fingern hatte, die schon von Hause aus mit Werks OC versehen wurden. Trotzdem Spannend zu sehen, das Zotac Karten ausliefert, die im OCCT bereits mit den Default-Einstellungen Rechenfehler produzieren.
Das ist schon ein starkes Stück. OCCT verursacht unter den Standardeinstellungen bei mir nicht mal besonders viel Last. Bleibt knapp unter 70% TDP (um 150W). Was macht die Karte dann erst unter FurMark?

BigKid
2016-07-15, 16:29:30
Das ist schon ein starkes Stück. OCCT verursacht unter den Standardeinstellungen bei mir nicht mal besonders viel Last. Bleibt knapp unter 70% TDP (um 150W). Was macht die Karte dann erst unter FurMark?
Ahh... Die Standardeinstellungen taugen auch nix... Du musst die Complexity auf Anschlag setzen, VSYNC und Framelimiter ausschalten (FPS Limit auf "0" setzen) ... Dann treibt OCCT das Ding auch an den Anschlag...

1nsider
2016-07-15, 16:48:05
VSYNC und Framelimiter ausschalten (FPS Limit auf "0" setzen)
Na das hatte ich schon gemacht. Bis auf die Complexity. Lasse ich die CPU auf 4,4 GHz takten, springt die TDP wenigstens bis auf 85%. Das ist nicht so gut. Mit Komplexität auf 7 drosselt dann auch meine Karte auf ~0,95V wegen Pwr. Das synthetische Zeug taugt nicht wirklich um gute Schlüsse zu ziehen - das testet mehr so den Grenzbereich der Hardware (und da mögen manche Custom-Designs deutlich besser sein als die Referenz - nur blöd wenn davon in der Praxis nicht viel ankommt [wie bei Pascal]). In Firestrike bspw. erreicht meine Karte in Spitzen bis zu 205W zeigt aber zumindest in GPUZ noch kein PerfCap an (das zeichnet aber auch nur jede Sekunde einen Snapshot) und mehr Power als das zieht meines Wissens kein Spiel (kann mich aber täuschen).

BigKid
2016-07-15, 17:24:14
Na das hatte ich schon gemacht. Bis auf die Complexity. Lasse ich die CPU auf 4,4 GHz takten, springt die TDP wenigstens bis auf 85%. Das ist nicht so gut. Mit Komplexität auf 7 drosselt dann auch meine Karte auf ~0,95V wegen Pwr. Das synthetische Zeug taugt nicht wirklich um gute Schlüsse zu ziehen - das testet mehr so den Grenzbereich der Hardware (und da mögen manche Custom-Designs deutlich besser sein als die Referenz - nur blöd wenn davon in der Praxis nicht viel ankommt [wie bei Pascal]). In Firestrike bspw. erreicht meine Karte in Spitzen bis zu 205W zeigt aber zumindest in GPUZ noch kein PerfCap an (das zeichnet aber auch nur jede Sekunde einen Snapshot) und mehr Power als das zieht meines Wissens kein Spiel (kann mich aber täuschen).
Klar - aber letzlich gehts ja auch darum herauszubekommen ob die Karte im Grenzbereich noch Stabil ist... Es gibt immer wieder Spiele bzw. Szenen in Spielen, die die Karte genau da hin bekommen und wenns in OCCT schon Rechenfehler gibt dann weiss ich aus Erfahrung, dass ich es gar nicht erst mit Spielen probieren muss wenn ich meine Nerven schonen will...
Wobei ich das Problem hatte, dass die Karte gar nicht auf MaxBoost ist solange ich nicht zumindest den FrameLimiter aus gemacht hatte... Mein Ziel war also eine 99-100% Auslastung zu bekommen...
Witcher 3 ist auch noch ziemlich gut darin die Karte an die Grenze zu treiben...

x-force
2016-07-20, 21:28:05
mit assetto corsa hab ich meine msi 1070 gaming x schon auf 218w laut hwinfo gebracht. bei 1,093v und +645 ram.

praktisch bekommst du das target eben nur mit furmark und occt ausgelastet.

achtet mal bei euren oc versuchen auf die video clock(ebenfalls hwinfo) und bencht anschließend.
man kann je nach methode mit offsett oder curve den gleichen gpu clock mit unterschiedlichen video clocks erzeugen.
je höher der video clock, desto mehr leistung, desto früher wird die karte aber natürlich auch instabil.

erhöht man im curve z.b. nur ab ~1,05v, an dem punkt die meisten kurven ja in die horizontale übergehen und damit nicht mehr spannung angelegt wird, dann erhöht man damit nicht die video clock und verschenkt leistung.
das offset muss so hoch wie möglich und anschließend die kurve feingetuned werden.
dabei muss man jedoch nach jedem schritt einmal ne 3d anwendung wie occt anwerfen und die clocks kontrollieren, weil nachdem man auf apply gedrückt hat, da nochmal eine art automatik rüber pfuscht.

bisher konnte ich nirgendwo eine erklärung dafür finden :D

edit: topic könnte mal gut auf pascal geändert bzw um 1060 erweitert werden. ich möchte wetten das trifft auf bei den kleinen karten zu.
@mods: die info hättet ihr schon 2-3 wochen früher haben können, würdet ihr nicht jedes mal zum lachen in den keller gehen ;)

1nsider
2016-07-20, 22:25:48
interessant x-force!

Ich weiß ehrlich gesagt nicht ob ich dem ausgelesenem Wert "GPU Power" (in Watt) von HWiNFO trauen kann, da ich ja den shunt-mod durchgeführt habe und das Powertarget eigentlich aufgehoben (bzw. erhöht) habe -- und vermute dass HWiNFO die Watt lediglich aus dem TDP Wert errechnet (bzw. umrechnet).

Die Sache mit dem Video-Clock sah ich auch schon an anderer Stelle - dachte jedoch die würde sich auf den Takt bei der (hw-beschleunigten) Videoausgabe beziehen und hat mich deswegen nicht weiter interessiert. Das werde ich mir nochmal genauer anschauen.

Zu der Sache mit dem Kurveneditor in MSI-Afterburner: ja, viele einzelne Werte werden leicht auf der Kurve angepasst, sobald man auf apply gedrückt hat. Ich hatte unter anderem mit der Umschalt+hoch (linear, wie über den Schieberegler) und der Strg+hoch Kurve gleichzeitig herumgespielt - aber primär aufs Maximum geachtet. Über die Kurve kann ich mir ja aussuchen ob die Karte nur bis auf 1031mV gehen soll, oder bis auf 1093mV rauf [bei dann +100% Core Voltage] -- mehr oder weniger scheint das vBIOS nicht zuzulassen. Benutze ich nur die Strg+hoch Funktion für den rechten Teil der Kurve (um die boost-Werte anzupassen), kann ich den horizontalen Teil ja schräg machen -- laufe dann aber wieder sofort in PerfCap VRel (langsamer wird der benchmark dadurch nicht -- aber es gefällt meinem Gewissen nicht, weshalb ich sie wieder gerade gebügelt habe ab dem Limit. Ich teste dann mal ob der Benchmark (und VideoClock) dann schneller werden.

Meine vorerst endgültige Übertaktung ist übrigens 2138.5 MHz bei 1.0620 Volt bei +350 MHz auf den VRAM. Der zeigt zwar erst ab ~660 MHz Artefakte in Furmark, aber nimmt auch überproportional viel Leistung (bzw. 'klaut' vom TDP-Limit). Das ist leider nur marginal mehr als unter Luftkühlung, trotz der viel niedrigeren Temperatur.

HWiNFO hat mir als höchsten ausgelesen Wert schon mal 240W angezeigt gehabt und springt beim testen mit Furmark und co auch sehr früh in Spitzen auf ~220W. Ab knapp über 200W (und dann angezeigter TDP von 89%) drosselt die Karte aber wegen Perfcap Pwr (und taktet dabei runter auf 160W-180W in den Drosselungszuständen). Diese Höchstwerte liegen also nur sehr kurzzeitig an und werden deshalb auch nur sporadisch von den tools erfasst, die ja idR nur sekündlich Abfragen.

Eins noch zu Afterburner: neben dem OC-Profil (#1 bei mir), habe ich mir ein zweites Profil mit 75% TDP, 1607 MHz maximal-Takt (boostet auch nicht höher) und -350 MHz vRAM Takt gemacht, was bei mir standardmäßig am Desktop so läuft (solange ich nichts anspruchsvolles Spiele). Über die Kommandozeile kannst du die Profile nämlich silent laden, sogar ohne dass AB im Hintergrund laufen muss.

Die switches dazu lauten "...\MSIAfterburner.exe" -profile1 -q

-profile1 für #1 eben, -profile2 für #2 usw. und -q dass es sofort beendet nach dem ausführen des Profils

Das ist praktisch weil so z.B. der MPC-BE mit madVR (mein Mediaplayer mit relativ leistungshungrigem upscaling plugin) ein gutes Stück weniger Leistung (also Strom) zieht. Gebencht habe ich das Profil außerdem und zum direkten Vergleich gegenüber gestellt, siehe hier (http://imgur.com/a/6RA1r). Die CPU läuft dabei (also in meinem Balanced powercfg profil unter Windows, auch ohne Boost. Über 'ne kleine batch-datei wechsel ich bei Bedarf in den Höchsleistungsmodus, wo CPU und Graka dann boosten dürfen. Wollte ich nur mal erwähnt haben, da es andere vielleicht auch nützlich finden.

x-force
2016-07-21, 16:07:00
danke für deine rückmeldung.

ich frage mich langsam in welchem forum denn leute sind, die an der hardware interessiert sind und darüber auch diskutieren!
hier gibts mittlerweile eigentlich fast nur fanwars von kindern und nicht groß gewordenen kindern, diskutiert wird extrem selten. :(

wenn jemand dann interessante infos -wie wir hier- bringt, beteiligt sich niemand:freak:

BigKid
2016-07-22, 14:45:27
Kurzes Zwischenfazit von mir (alles 1070GTX Karten):

Mittlerweile hatte ich noch eine MSI Gaming und noch eine Zotac Amp Extreme in den Fingern... Die Asic Qualität der MSI war etwas besser als bei den Zotacs (1+2) - ich sage etwas besser weil sie die selben Spannung brauchte (also mehr als der ASIC der Palit (1)) - sich aber dafür im Gegensatz zu den Zotacs wenigstens auf 2050-2088Mhz stabil treiben lies... Das PT lag irgendwo leicht oberhalb dessen der Palit aber deutlich unterhalb des PTs der Zotac Amp Extreme.
Die Zotac (3) hatte leider einen ratternden Lüfter (QA /Endkontrolle ???) war ansonsten aber sonst nahezu gleich wie die Zotac (2) und verhielt sich ansonsten wie Zotac Nr2 (OCCT mal aussen vor - siehe nächster Abschnitt).

Ich habe mich von OCCT als Vergleichsmöglichkeit insofern verabschiedet, dass es nicht FAIR ist... Die Zotac AMP Extremes haben ein so hohes PT, dass sie viel höher boosten als die anderen Karten, da sie nicht ins PT laufen... Folglich ist es unfair zu sagen dass die Zotac Amps bei 1900Mhz bereits Rechenfehler produzieren - sie takten ja dabei auch höher als die anderen Karten, bei denen bei 1800Mhz teils schon Schluss ist wegen des PTs. Ankreiden muss man jedoch, dass 2/3 das bereits auf Defaulteinstellungen tun - das Werks OC ist also IMHO nicht gut genug abgestimmt...
Hier muss ich eventuell meinen Ansatz etwas ändern und mit OCCT _nicht_ mehr auf 100% GPU last zielen damit ich die hohen Taktraten mit allen Karten erreiche und testen kann... (Wie andere hier ja schon auch vorgeschlagen haben... man ist ja lernwillig ;) )

Was also kann ich sicher sagen:
Von den 5 Karten die ich mittlerweile in den Fingern hatte, liessen sich nur 2 sich gut über 2000Mhz treiben... Bei beiden war dann bei 2088 Ende - mit den möglichen Spannungsanhebungen... Danach kommt es SICHTBAREN Problemen z.B. im Valley Benchmark. Wer also einen Asic hat der mehr als 2000 Mhz (unter Luft/bei c.a. 70 Grad) mitmacht hat also aus der Sicht der Karten die ich gesehen habe schon einen besseren...

Das PT (mit maximaler Anhebung) der Palit Gamerock ist GRENZWERTIG... In 3DMark und im Unity Valley Benchmark krazt man da bei maximalem OC schon drann rumm.... In OCCT kann man die Karte voll ins PT treiben...

Das PT (mit maximaler Anhebung) der Zotac AMP Extreme scheint VIEL höher... Ich habe die Karte hier NICHT ins PT bekommen.

Das PT (mit maximaler Anhebung) der MSI Gaming scheint irgendwo knapp oberhalb Palit zu liegen.

x-force
2016-07-22, 16:42:28
das gute an occt ist, daß es mit der fenstergröße skaliert.

je nachdem wie komplex du die shader einstellst, kannst du bei~600x200 fenstergröße auch schön ins gpu limit laufen, ohne das tdp zu berühren. halbwegs ordentliches tdp vorausgesetzt.
einfach afterburner osd an und das fenster anpassen, bis die gewünschte auslastung erreicht ist.
quadratische fenster scheinen andere last als rechteckige zu erzeugen. ;)

so hab ich meine 2100mhz auch auf artefakte kontrolliert. ansonsten wäre das für die praxis ein sinnloses tool :)

1nsider
2016-07-22, 17:39:59
@BigKid: wegen deinen Aussagen zum Fehlercheck in OCCT benutze ich das tool seitdem regelmäßig und habe damit meinen Overclock auf meiner MSI GTX1070 Gaming X (vorerst) finalisieren können. So konnte ich seltene, sporadische Abstürze bei den vielen 3dmark-Firestrike durchläufen (die sonst nirgends auftraten) bei 2151 MHz feststellen, die sich aber in OCCT beim Fehlercheck fast sofort zeigten (innerhalb von 10 Sekunden des Tests etwa). Alles was ich tun musste um die Stabilität (bzw. Fehlererzeugung) konsequent zu testen war, die Auflösung auf 640x480 zu reduzieren und dann mit der Shader Komplexität einen Wert zu wählen, bei der die Karte nahe am PT operiert (bei mir knapp unter ~90% TDP) -- also bevor sie wegen perfcaps drosselt. Eine boost-stufe darunter, also bei 2138 MHz, erzeugt OCCT dann keinerlei Fehler mehr und seitdem sah ich auch keine 3DMark crashes mehr.

Anhand dieser Methode habe ich mir gestern auch die Mühe gemacht in einem neuem Profil eine neue Kurve (Strg-F) in Afterburner für jeden einzelnen Frequenz-/Spannungspunkt zu erstellen um die Auswirkung von x-force erwähntem VideoClock zu testen, der beim linearen Übertakten (über Schieberegler z.B.) ja höher ausfällt als bei meiner vorher erwähnten Methode, bei der ich primär die oberen boost-Stufen erhöht hatte.

So verschob ich jeden Punkt nacheinander [forciert mit 'L'] nach oben während OCCT lief, und notierte die Frequenz bei der OCCT die ersten Fehler produzierte und wann letztlich der Treiber crashte (was einige Schritte [~13 Mhz jeweils] höher liegen kann) und konnte so den VideoClock letztlich von 1771 Mhz auf 1833 MHz erhöhen.
So erhöht sich bereits beim Verschieben des ersten Punkts (800mV) der VideoClock, da die nachfolgenden Punkte auf mindestens diesen Wert angehoben werden. Dieses Verhalten zeigte sich im weiteren Verlauf als problematisch, da bei Punkten die auf der selben Frequenz (Y-Achse) liegen, sich die Spannung dann auch nicht erhöht -- und das obwohl sie weiter rechts auf der (x-Achse) liegen. Man muss sich immer klar machen dass man nicht die eigentlichen Boost-/Spannungswerte der Karte (die vom vBIOS gesteuert sind) verändert, sondern nur die erlaubten Offsets (bzw. deren Mittel- oder Basiswert), die die Karte selbst wählt (bzw. vorbestimmt sind).

OCCT zeigt so beim ersten Punkt erst bei über 1923 Mhz (+261!) erste Fehler; die nachfolgenden Punkte aber teils deutlich früher (weil die Spannung bei 800mV verbleibt anstatt anzusteigen). Es ist so sehr müßig die Kurve zu editieren, vorallem auch weil es so fummelig ist, die Punkte anzuklicken ohne sie dabei zu verschieben etc. Frustriert habe ich so eine Kurve bis zum 15. Punkt mit allen Maxima erstellt, bei dem dann auch der finale VideoClock anliegt (weiter steigt er ab diesem Punkt nicht mehr) - nur um dann noch frustrierter festzustellen, dass der Takt nicht höher liegt, als wenn ich die Kurve einfach als Ganzes (Umschalt-Klick) nach oben ziehe. Gebencht habe ich dann auch und eine Abweichung (immerhin ein plus) von knapp einem FPS in 3DMark bei Test1/2 gesehen. Der finale Wert war dabei 13 Punkte niedriger (innerhalb der Messtoleranz). All die Mühe war das nicht wert (und die Karte bei den niedrigen boost-Werten dafür weniger effizient).

Zum Speichertakt möchte ich noch sagen, dass du mit dessen Über- bzw. Untertaktung (zumindest bei nahe am PowerTarget operierenden Karten) den Punkt, ab wann jene zu drosseln beginnen, deutlich verschieben kannst!
Bei Furmark unter 1280x720 mit 4x MSAA erzeugt so meine Karte bei -500MHz Memory Clock 65% TDP -- bei +602 MHz dagegen ganze 85% (ist also nur kurz vor dem Limit der Karte @ 90%).
So läuft die Karte bei -500MHz Speichertakt selbst ohne MSAA bei dieser Auflösung ohne zu drosseln (bei ~87% TDP). Das ist schon eine erhebliche Differenz. Auch drosselt die Karte den Kerntakt weit weniger nach unten, sofern sie denn ins Limit läuft (die Sprünge sind kleiner). Man sollte das also gut abwägen, womit man den Speicher laufen lässt.

@x-force: im guru3d und insbesondere overclock.net Forum findet man schon was zum Thema (auf englisch), wenn man sucht. Keinen kompletten guide oder so; es bringt ja eh alles nichts (bzw. zu wenig), wenn wir ehrlich sind. Alle warten auf einen vBIOS-Editor. Wenn ich wenigstens vorher wüsste dass eine deutliche Spannungserhöhung was bringt, würde ich sogar einen Trimmer auf meine Karte löten, aber es sieht ja nicht dannach aus. Am besten ist wohl, man findet sich damit ab, was man hat... auch wenn das heißt dass man zu wenig für sein Geld bekommen hat :/

x-force
2016-07-22, 17:53:23
@x-force: im guru3d und insbesondere overclock.net Forum findet man schon was zum Thema (auf englisch), wenn man sucht. Keinen kompletten guide oder so; es bringt ja eh alles nichts (bzw. zu wenig), wenn wir ehrlich sind. Alle warten auf einen vBIOS-Editor. Wenn ich wenigstens vorher wüsste dass eine deutliche Spannungserhöhung was bringt, würde ich sogar einen Trimmer auf meine Karte löten, aber es sieht ja nicht dannach aus. Am besten ist wohl, man findet sich damit ab, was man hat... auch wenn das heißt dass man zu wenig für sein Geld bekommen hat :/

auf overclock.net bin ich sowieso regelmäßig, sieht so aus, als wären da eher leute, die auf unserem enthusiast level sind.

für die 1080er gibts ein asus roc bios das kein tdp hat und bis 1,2v freigegeben ist. das läuft wohl auch auf den meisten 1080ern, aber ich habe noch von niemandem gelesen, daß es viel bringt.
einige scheinen bei 1,2v und niedrigem takt schon instabil zu sein. ich bin mit 1,093v auch ziemlich zufrieden, da man ja schon von der skalierung zwischen 1,0 und 1,093v das verhalten abschätzen kann.

ich würde nur gerne mein tdp erhöhen, aber praktisch ist es irrelevant da kein spiel das bisher auslastet. man könnte aber die booststufen sinnvoll neu orden um auf einen niedrigeren idle verbrauch zu kommen.
da ließen sich nochmal 10w dauerhafst sparen.



Gebencht habe ich dann auch und eine Abweichung (immerhin ein plus) von knapp einem FPS in 3DMark bei Test1/2 gesehen. Der finale Wert war dabei 13 Punkte niedriger (innerhalb der Messtoleranz). All die Mühe war das nicht wert (und die Karte bei den niedrigen boost-Werten dafür weniger effizient).

ich hab mit assetto corsa getestet. dort liefern 100mhz mehr video takt min fps ~1 und max ~2 mehr. das ist schon im bereich den man von einer gpu takt erhöhung um 100mhz erwarten könnte. mit occt kann man sonst auch etwas bequemer die fps testen. reagiert jedoch nicht sonderlich auf speichertakt.

1nsider
2016-07-22, 18:07:28
für die 1080er gibts ein asus roc bios das kein tdp hat und bis 1,2v freigegeben ist. das läuft wohl auch auf den meisten 1080ern, aber ich habe noch von niemandem gelesen, daß es viel bringt.

genau wegen dem erwarte ich auch nicht mehr viel.

ich bin mit 1,093v auch ziemlich zufrieden, da man ja schon von der skalierung zwischen 1,0 und 1,093v das verhalten abschätzen kann.

Bist du dir denn sicher, dass du die Spannung brauchst (und nicht weniger ausreicht)? Ich darf da vielleicht nicht allzu sehr von meiner Karte ausgehen, die ja <50°C läuft und wohl ein gutes ASIC hat, da sie mit wenig Spannung ihren Höchsttakt schafft.
In diversen Tests habe ich schon 3DMark durchläufe auf 2164 MHz (bei 1093mv) ohne crashs gehabt - aber stabil war sie da trotzdem nicht. Die 1062mV habe ich nur meines Gewissens wegen eingestellt, denn auch bei 1043mV sehe ich unter 2138 MHz in OCCT keine Fehler.

ich würde nur gerne mein tdp erhöhen, aber praktisch ist es irrelevant da kein spiel das bisher auslastet. man könnte aber die booststufen sinnvoll neu orden um auf einen niedrigeren idle verbrauch zu kommen.
da ließen sich nochmal 10w dauerhafst sparen.

Du sagst es. Und darauf kommt es praktisch ja an. Das TDP hebst du ja auf indem du die Shunts überbrückst, was mit Flüssigmetal-WLP ja einfach geht. Ich glaube der Kupferleitlack in meinem Fall hat rein gar nichts bewirkt (ich habe kein Milliohmmeter um das zu überprüfen)

1nsider
2016-07-22, 18:30:31
ich hab mit assetto corsa getestet. dort liefern 100mhz mehr video takt min fps ~1 und max ~2 mehr. das ist schon im bereich den man von einer gpu takt erhöhung um 100mhz erwarten könnte. mit occt kann man sonst auch etwas bequemer die fps testen. reagiert jedoch nicht sonderlich auf speichertakt.

Jetzt wo du das erwähnst... ich könnte noch ein Afterburner-Profil erstellen, wo ich die unteren Boost-Takte (unter dem 15. [943mV]) nahe den original-Taktraten belasse und erst ab da die Maxima verwende, die ich dann noch ermitteln müsste (*seufz*) -- dann hätte ich den maximalen VideoClock. AssettoCorsa habe ich btw auch; vor lauter testen komme ich nicht zum spielen (auch wegen der Außentemperatur). Oder ich verwende einfach das Profil mit dem linearen Offset beim zocken (ich wechsle ja eh power-profile zwischen 2D/3D) - Effizienz ist also wurst ;D

x-force
2016-07-22, 18:38:43
Bist du dir denn sicher, dass du die Spannung brauchst (und nicht weniger ausreicht)? Ich darf da vielleicht nicht allzu sehr von meiner Karte ausgehen, die ja <50°C läuft und wohl ein gutes ASIC hat, da sie mit wenig Spannung ihren Höchsttakt schafft.

ja, sonst produziert occt fehler sobald ich auf 52° komme.
bin in spielen meistens bei 50° mit dem msi lüfter und angepasster kurve :D
hab flüssigmetall und bessere pads spendiert. von daher ist das wohl auch nicht mehr wie msi es vorgesehen hat.


In diversen Tests habe ich schon 3DMark durchläufe auf 2164 MHz (bei 1093mv) ohne crashs gehabt - aber stabil war sie da trotzdem nicht. Die 1062mV habe ich nur meines Gewissens wegen eingestellt, denn auch bei 1043mV sehe ich unter 2138 MHz in OCCT keine Fehler.


mit 3dmark kann ich nichts anfangen, entweder macht occt fehler oder nicht. :) hatte mit der 980 schon festgestellt, daß es zwar auch mit fehlern eine zeitlang in den spielen unauffällig läuft, aber irgendwann kommt dann doch mal ein critical error und man darf mindestens die anwendung neu starten.
mit der 1070 muss ich sogar den rechner neu starten, da nach einem treiber recover nicht mehr ordentlich getaktet wird.
kurz vorher gibt es noch artefakte, aber das ist ein ganz schmales intervall.

da hab ich einfach keinen nerv mehr drauf und fahre das teil lieber absolut stabil.

ich würde auch schätzen, daß du einen guten asic hast. da sie wenig auf spannung reagiert und ordentlich hoch geht.
lies doch mal bitte spaßeshalber mit gpuz 0.83 aus. meine hat -60.2
die guten 1080er haben 100(oder mehr:confused:) und die schlechteren scheinen bis in die 80er runter zu gehen.

ich glaube nämlich das nvidia das öffentliche asic auslesen nicht geschmeckt hat und die werte von der ordnung her noch stimmen(für interne selektionen) aber ein offset dazugekommen ist, so daß gpu z uns erstmal verwirrt :)
daher bezweifle ich auch, daß das noch reingepatcht wird.

1nsider
2016-07-22, 18:47:22
lies doch mal bitte spaßeshalber mit gpuz 0.83 aus. meine hat -60.2

:eek: Eben die alte Version besorgt und das zeigt bei mir auch -60.2% an. Wohl falsch :D

Btw die Seriennummer (Aufkleber auf der Rückseite) endet bei mir auf "...7084"

x-force
2016-07-22, 18:59:32
Jetzt wo du das erwähnst... ich könnte noch ein Afterburner-Profil erstellen, wo ich die unteren Boost-Takte (unter dem 15. [943mV]) nahe den original-Taktraten belasse und erst ab da die Maxima verwende, die ich dann noch ermitteln müsste (*seufz*) -- dann hätte ich den maximalen VideoClock. AssettoCorsa habe ich btw auch; vor lauter testen komme ich nicht zum spielen (auch wegen der Außentemperatur). Oder ich verwende einfach das Profil mit dem linearen Offset beim zocken (ich wechsle ja eh power-profile zwischen 2D/3D) - Effizienz ist also wurst ;D

ich habe bei mir als grundlage den offset soweit angehoben wie es geht(glaube +80 basierend auf dem oc bios) und dann noch zusätzlich die kurve ab dem punkt, an dem sie in die horizontale übergeht, erhöht. also nur 3-4 werte irgendwo ~ab 1,043v glaube ich.

1nsider
2016-07-22, 19:02:12
mit der 1070 muss ich sogar den rechner neu starten, da nach einem treiber recover nicht mehr ordentlich getaktet wird

hast du mal versucht im Afterburner einfach den Reset-Knopf zu drücken (der die Karte sofort zurück setzt, auch ohne apply)? Ich mache das nach crashes und lade dann einfach wieder ein Profil und alles taktet wie gehabt. Kein Neustart nötig.

Alternativ: nvidiaInspector.exe -restartDisplayDriver

PS.: Treiber 368.69

1nsider
2016-07-22, 19:04:44
ich habe bei mir als grundlage den offset soweit angehoben wie es geht(glaube +80 basierend auf dem oc bios) und dann noch zusätzlich die kurve ab dem punkt, an dem sie in die horizontale übergeht, erhöht. also nur 3-4 werte irgendwo ~ab 1,043v glaube ich.

Genau. Die letzten Punkte um rauf bis 1093mV überhaupt erst nutzbar zu machen (bei +100% CoreVoltage im AB).

BigKid
2016-07-25, 23:49:24
Genau. Die letzten Punkte um rauf bis 1093mV überhaupt erst nutzbar zu machen (bei +100% CoreVoltage im AB).
So jetzt gibt mein Kollege auf und bleibt bei der Palit - läuft zwar ab und an ins PT und hat vlt. in der Theorie ein Problem mit der Hysterese - aber in der Praxis haben wir davon einfach nix bemerkt wenn wir nicht genau hingesehn haben - gehört haben wir nix... Aber die geht in OCCT stabil auch bei 73 Grad noch über 2GHz - was 4/6 anderen karten nicht schaffen...
Ausserdem ist sie leiser als die msi - unserer Meinung nach...
Ich glaub NV ist diesmal schon von sich aus ans Limit... man muss die Spannung ab ca 2000 MHz schon sehr brutal hochnehmen für schlappen 50 Mhz mehr...

BigKid
2016-07-27, 12:16:51
Sodele... Eben mal meinen Kollegen mit MSI (2) "genötigt" mit dem Curve Editor zu spielen... Er war ziemlich genervt am Ende weil er meinte "Das Drecksding kann es nicht lassen ständig die Kurve anzupassen und die Punkte rechts von dem an dem man grad drann ist alle zusammen mal eben +25/-25 Mhz zu verschieben...
Hat jemand ne Idee was da los ist ? Zeigt einem das Ding den Einfluss der Temp an ?

Jedenfalls hat er mal folgende Punkte als stabil gemäß meiner Empfehlung ermittelt (OCCT, WQHD, Fenstermodus aber voller Bildschirm, Komplex hat er auf 7 gelassen, PT auf max (126%), keine Rechenfehler)

943mV 1999Mhz *
880mV 1898Mhz
824mV 1809Mhz
811mV 1759Mhz

* da gabs dann aber beim weitertesten am Ende Probleme deren Ursache nicht ganz klar ist (Wärme ?) - ich werd mich nochmal melden...

BigKid
2016-07-27, 20:11:01
Also neuste Erkenntniss: Die Temp hat leider einen RIESEN Einfluss...
Meinem Kollegen ist aufgefallen, dass im Afterburner beim Testen die Kurve so "rummzappelte" und manchmal einfach auf tiefere oder höhere Werte sprang...
Grund: Jedesmal wenn man die Kurve anfasst und speichert passiert das unter/ohne Berücksichtigung zu der aktuellen "Temperaturdrosselung"...
Vielleicht wirds so verständlicher: Wenn man bei 73 Grad bei 850mV 1899 Mhz einstellt - dann sind es bei 35 Grad plötzlich +XX Mhz mehr - was die Karte meistens NICHT mehr packt... Das ist Mist...
Stellt man die Kurve ein während man grad 35 Grad hat dann passiert nix schlimmes - ausser, dass man halt dann bei 73 Grad weniger Takt hat als man eingestellt hat...

Die Karte schaltet wenn sie Warm wird anscheinend nicht Booststufe für Booststufe runter sondern sie senkt tatsächlich den Takt !

Das betrifft anscheinend sogar abgespeicherte Profile... Will sagen... Wenn man eine gespeicherte Kurve/Profil bei 73 Grad lädt kommt am Ende was anderes bei raus als wenn man sie bei 35 Grad lädt...(Nachtrag: Mit "laden" ist Anwenden gemeint... es passiert wenn man auf den "Haken" klickt...)

Kann das mal jemand austesten ?

Ätznatron
2016-07-27, 20:18:06
Also neuste Erkenntniss: Die Temp hat leider einen RIESEN Einfluss...
Meinem Kollegen ist aufgefallen, dass im Afterburner beim Testen die Kurve so "rummzappelte" und manchmal einfach auf tiefere oder höhere Werte sprang...
Grund: Jedesmal wenn man die Kurve anfasst passiert das unter Berücksichtigung zu der aktuellen "Temperaturdrosselung"...
Will sagen: Wenn man bei 73 Grad bei 850mV 1899 Mhz einstellt - dann sind es bei 35 Grad plötzlich +XX Mhz mehr - was die Karte meistens NICHT mehr packt... Das ist Mist... Kann das mal jemand austesten ?

Na ja, Boost 3.0, auch 'ne Art der Beschäftigungstherapie. ;)

BigKid
2016-07-27, 20:29:49
Na ja, Boost 3.0, auch 'ne Art der Beschäftigungstherapie. ;)
Ja... aber so ist es echt dämlich gelöst....
mit vertretbarer Lärmbelästigung/der Defaultkurve stabilisieren sich die Karten so auf 73 Grad...
Wenn du aber nun bei 73 Grad den Takt einstellst, den die Karte bei 73 Grad schafft - dann semmelt sie dir Morgen sofort ab... Weil erstmal noch Kalt ist und dann bei 35 Grad viel höher boostet... Stellst du aber bei 35 Grad ein was bei 75 Grad noch geht - dann verschenkst du unter 73 Grad massiv Leistung weil die Karte von der Kurve die du bei 35 Grad gesetzt hast ja noch runter schaltet !
Die Karte schaltet wenn sie Warm wird anscheinend nicht Booststufe für Booststufe runter sondern sie senkt tatsächlich den Takt !

Ätznatron
2016-07-27, 20:34:13
Ja... aber so ist es echt dämlich gelöst....
mit vertretbarer Lärmbelästigung/der Defaultkurve stabilisieren sich die Karten so auf 73 Grad...
Wenn du aber nun den Takt einstellst, den die Karte bei 73 Grad schafft - dann semmelt sie dir Morgen sofort ab... Weil erstmal noch Kalt und Boostet dann viel zu hoch... Stellst du aber bei 35 Grad ein was so geht - dann verschenkst du unter 73 Grad massiv Leistung !
Die Karte schaltet wenn sie Warm wird anscheinend nicht Booststufe für Booststufe runter sondern sie senkt tatsächlich den Takt !

Mein Fazit nach vielleicht 48h mit Boost 3.0 ist: Mache es wie früher, wenn du max. Speed willst.

Fliwatut
2016-07-27, 20:48:58
Dieses Gebooste geht mir auch auf den Zeiger, ich mag das Taktgezappel nicht.

gedi
2016-07-28, 20:13:45
Geht mir ebenso. Ich halte die 1080 ja für eine gute Karte, aber dass man nur eingeschränkt Einfluss auf Taktsituationen hat, finde ich echt scheiße. S.h. bleibt man unter dem einen Target, dann trifft einen das Andere zu einhundert Prozent und regelt demensprechend den Takt.

Ich finde man sollte das Boostgehopse abschalten können. Es sollte jedem User selbst überlassen werden, wieviel Wattage er für angemessen befindet. Der Eco-Scheiß passt imo nicht in die Sparte "Highend-PC" :(

x-force
2016-07-29, 17:27:11
@bigkid:
ordentlichen kühler kaufen, oder lüfter höher drehen lassen ;)

bei mir macht es praktisch absolut keinen unterschied ob ich bei 33° idle oder 52° unter last bin. 2100mhz stehen dauerhaft an.
ich kenne das problem nur aus der theorie, also habe davon nur gelesen :freak:

edit:
workaround:
karte auf niedrigerem takt vorheizen lassen und erst mit warmer karte das game starten.

gedi
2016-07-29, 18:06:00
Also vorglühen, wie früher bei einem Diesel :freak:

Fehlt nur noch, dass ich die Grafikkarte in einer Großstadt nicht mehr in Gebrauch nehmen darf - (Elektro-) Smog und so ....

BigKid
2016-07-30, 08:02:16
@bigkid:
ordentlichen kühler kaufen, oder lüfter höher drehen lassen ;)

bei mir macht es praktisch absolut keinen unterschied ob ich bei 33° idle oder 52° unter last bin. 2100mhz stehen dauerhaft an.
ich kenne das problem nur aus der theorie, also habe davon nur gelesen :freak:

edit:
workaround:
karte auf niedrigerem Takt vorheizen lassen und erst mit warmer karte das game starten.
Ich kann mir nicht vorstellen, dass die 2100 durchgehend anstehen... wenn bei 52 Grad noch 2100 anstehen, dann müssen unter 35 Grad mindestens 2125 oder so anstehen... kann natürlich sein, dass die nur so kurz anliegen dass nix passiert bis die 52 Grad und die 2100 anliegen - versteh mich nicht falsch mir gehts um die Funktionsweise... Aber das ist einfach die Beobachtung die ich gemacht habe - und entweder habe ich was falsch/ansers gemacht oder was du sagst stimmt so nicht ganz...
Was die Temps insgesammt betrifft - da muss man dann halt Lärm gegen Taktvorteil abwägen... Mein Kollege hat die Lüfterkurve jetzt auch so geändert dass unter Vollast knapp am Pt max 62 Grad entstehen...
In Games entsprechend niedriger...

1nsider
2016-07-30, 14:00:07
Ich kann mir nicht vorstellen, dass die 2100 durchgehend anstehen...

@BigKid: das stimmt schon. Ich habe ja eine eher mäßig gute Wakü mit ganz ähnlichen Temperaturen. Bei knapp über 50°C taktet der Boost 3.0 nur selten (eine Stufe) runter vom gesetzten Punkt im Editor. Er muss lediglich die Kurve im kalten Zustand der Karte einstellen, was ja kein Problem ist bei niedrigen temps im idle (wenn er die Lüfter da drehen lässt)

1nsider
2016-07-31, 19:28:16
ich möchte meine vorherige Antwort etwas ausführen, um sie nachvollziehbar zu machen.

Methode A (maximaler OC, kompliziert):

1) Lüfter der Karte manuell aufdrehen (>80%)
2) Stresstest der Wahl starten und so einstellen dass die Karte möglichst nahe am Powertarget operiert, aber noch nicht drosselt. Der GPU-Z Render-Test ist da etwas dürftig, aber möglicherweise genug um (anfangs) gute Anhaltspunkte zu ermitteln
3) via 'L' auf einen Punkt im VFEditor (jener erzwingt den Takt, egal wie warm die Karte ist!) die jeweiligen Taktmaxima bei zugehöriger Spannung herausfinden. Werte notieren!
4) Karte in Leerlauf versetzen (Afterburner zurücksetzen, Stresstest beenden); Lüfter (manuell) aufgedreht lassen
5) den VFEditor öffnen und bei Karte im kühlen Zustand (unter 45°C) die notierten Werte eintragen und jeweils übernehmen. Die Punkte sollten sich so kaum bewegen/verschieben, und lediglich auf vordefinierte Taktstufen springen (Vielfache von 12-13 MHz), sofern man zwischen diesen liegt. Dabei darauf achten dass Punkte die weiter rechts im Diagramm liegen auch höher in der Frequenz sind! Tun sie das nicht, wird die Spannung nicht samt Takt angehoben (und man handelt sich so eher unstabilität ein)
5a) bei Custom-Designs mit guten Kühlern alle Punkte rauf bis 1093mV einstellen (entsprechend Core-Voltage +100% in Afterburner einstellen, wenn einem max. FPS wichtiger als gute Effizienz ist). Alle Punkte rechts vom erwünschten Spannungslimit (waagerecht) auf selbigen Wert einstellen [passiert größtenteils von selbst]

Ergebnis: kein Übertakten in unstabile Bereiche im Idle. Unter Last, je nach Kühlung, ein paar Taktstufen weniger als über die Kurve gesetzt (sollte dafür aber auch stabil sein, da das ermittelte Limit über den L-Lock höher liegt, als das in der Praxis [bei steigender Temperatur] anliegende)


[B]Methode B (hoher OC, einfach):
wie von x-force >hier< (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11110841&postcount=39) geschildert via Umschalt-hoch im VFEditor

Ergebnis: sehr hoher OC (bei etwas weniger als maximalem VideoClock); wenig Stress mit dem Editor


Methode C (guter OC, einfach):
an zwei Punkten (links und rechts vom Mittelwert [1000mV]) die Kurve mit Strg-hoch/runter grob so anpassen, dass die Werte in der Nähe der gewünschten Minima und Maxima liegen. Die übrigen Punkte einzeln sinnvoll dazwischen legen ;)

Ergebnis: hoher OC, Effizienz noch i.O., solange man nicht über 1043mV hinaus geht. Weniger VideoClock als mit Methode B. Kaum Stress mit dem Editor.


Methode D (undervolting bei moderatem OC, effizient)
- BK-Morpheus >yt-video< (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11118276&postcount=69") dazu
- JetStreams Drosselung via >Reduzierung des PowerTargets< (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11117486#post11117486)

Ergebnis: für FEs/Referenzdesings, kleine 'Customs' und Leute, die auf Effizienz wert legen, die Lösung. Die Höhe des Overclocks bei Spannungen <1V hängt vom ASIC hier ebenso ab, wie die Höchsttemperatur unter Last. Wem nicht reicht, was er erreicht, kann über Kühlerwechsel oder neu-montage des Kühlers mit besserer WLP und optimierter Frischluftzufuhr (z.B. Gehäusemodifikation etc) nachdenken.

Fliwatut
2016-07-31, 20:39:15
Würde es Sinn machen, eine 1070 FE von oben (also mit einem seitlichen Gehäuselüfter) anzupusten?

1nsider
2016-07-31, 20:42:10
Würde es Sinn machen, eine 1070 FE von oben (also mit einem seitlichen Gehäuselüfter) anzupusten?

na bestimmt, und erstrecht wenn der Lüfter Frischluft ansaugt. Gut ist bei dem FE-Kühler ja zusätzlich, dass er die Abluft aus dem Gehäuse bläst. Dann zusätzlich noch ans Undervolting machen - also schauen, was die Karte mit <1V an maximalem Takt schafft :)

Fliwatut
2016-08-01, 11:57:02
Ok, danke, probiere ich mal aus, Undervolting geht ganz gut, aber der Curve Editor ist imho noch nicht ganz ausgereift.

RayKrebs
2016-08-17, 17:25:48
Wieso, ich kam nach 5 Minuten recht gut zurecht. Es ist doch normal, das habe andere auch schon bestätigt und ich habe das auch selbst festgestellt. Auch wenn kein Limit vorliegt, geht bei mir bei ca.55° die Karte eine Taktstufe runter, dann nochmal eine Taktstufe bei ca.65°.
Hey, das ist ein riesiger Performance-Verlust (Ironie)
Ich habe mit dem Curve-Editor die Spannung auf 0,95Volt bei 1974Mhz gelegt, bei kalter GPU.
Somit fängt die dann bei 1974Mhz an und taktet dann jeweils bei 55° und 65° eine Stufe runter, das ist für mich verschmerzbar. Läuft dann auch nie ins PT und hält konstant den Takt.