PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing 2070/2080/2080ti - Multi-Monitor-Verbrauch exorbitant hoch?


Razor
2018-10-19, 07:41:27
Hallo liebe Leutz,

wollte mir gestern abend eine der "leisen" RTX 2080 (ohne "ti") raus suchen und habe nach einiger Recherche die Palit GameRock Premium und die Gigabyte Gaming OC in die nähere Betrachtung gezogen. Das Problem ist derzeit ja, dass es aktuell über 40 Varianten gibt, wovon auch knappe 30 -sozusagen- "zum greifen nah", also direkt zu bekommen sind... OK, "Problem" ist übertrieben, aber es gibt eben nicht zu allen Modellen Testberichte und wie ich dann feststellen musste, eben auch nicht solche, die sich mit wirklich allen Aspekten einer Grafikkarte auseinander setzen.

Wie dem auch sei, Guru3D und KitGuru haben über "meine" Probanten berichtet und ich war begeistert!
Tolle Leistung, OC nahezu "überflüssig", flüsterleise...

Am Rande habe ich dann noch erfahren, dass Gainward die "Premiummarke" von Palit ist und mit Super JetStream und Phantom GLH zwei weitere Probanden auf gleichem custom Board im Angebot haben (alle schick mit DualBios & Co.... sehr nützlich ;)). Und bei Gigabyte gab es dann sogar noch eine gute alte "Windforce OC", zu der es nur leider überhaupt keine Testberichte gab - meine Kleine GTX 1060/6G war auch eine und ist noch heute für krasse 269€ bei z.Bsp. Alternate (https://www.alternate.de/GIGABYTE/GeForce-GTX-1060-WINDFORCE-OC-Grafikkarte/html/product/1292907) zu haben.

Lange Rede, gar kein Sinn... ich bin auf einen weiteren Test bei TechPowerUp gestoßen - und meine Miene verfinsterte sich:
https://www.techpowerup.com/reviews/Gigabyte/GeForce_RTX_2080_Gaming_OC/31.html

https://tpucdn.com/reviews/Gigabyte/GeForce_RTX_2080_Gaming_OC/images/power_idle.pnghttps://tpucdn.com/reviews/Gigabyte/GeForce_RTX_2080_Gaming_OC/images/power_multimon.pnghttps://tpucdn.com/reviews/Gigabyte/GeForce_RTX_2080_Gaming_OC/images/power_bluray.png

Ist es tatsächlich wieder so weit?
Sind wir wieder bei Maxwell und dieser unsäglichen Geschichte, dass man zwar vier Bildschirme "gleichzeitig" betreiben kann, aber dafür auch kräftig "zahlen" muss?

Dies möchte ich hier gerne zur Diskussion stellen und hoffe darauf, dass es auch andere interessiert.
Und bitte keine "Totschlagargumente" ala: "Wer sich 'ne Turing leisten kann oder will, der sollte sich nicht über den Stromverbrauch aufregen!"
Mir geht es um Effizienz und Weiterentwicklung... in Zeiten, wo man Diesel verteufelt, weil sie angeblich "zu" dreckig sind (nur als Beispiel).

Mich würden z.Bsp. die Erfahrungen der Kollegen hier interessieren, die selber Dual-Mon Setups fahren, bei mir Hauptbildschirm (28", 16/10) und Side-Panel (19", 5/4).
Es ist ja nicht nur der Verbrauch, der hoch geht, sondern natürlich auch Takt von GPU und RAM... siehe Anhang.

Fehler im Treiber oder wieder ein "Konstruktionsfehler", wie seinerzeit bei den Maxwells.
Schon interessant, dass sich seit Release am 20.9. nur ein Reviewer mit diesem Aspekt der Nutzung auseinandergesetzt hat...

Razor

P.S.: zum neuerlichen Interesse von Razor an Turing... "einem geschenkten Gaul schaut man nicht ins Maul" :)
Aber über "alles", kann ich dann doch nicht hinweg sehen :(

Korfox
2018-10-19, 09:12:09
Laut einem Kommentar hierzu (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Geforce-RTX-Idle-Power-Fix-1266048/) scheint wenigstens die angesprochene Lösung mit dem NVIDIA Inspector noch zu funktionieren...

Lowkey
2018-10-19, 09:24:43
Der Treiber ist einfach nicht ganz fertig. In ein paar Monaten sind die Kinderkrankheiten bestimmt zum Großteil weg. Die Hersteller sparen alle am Support, also liegt die Priorität bei Turing bei anderen Faktoren wie FPS und weniger bei dem Verbrauch im Multimonitorsetup.

Ätznatron
2018-10-19, 09:28:09
Ist es tatsächlich wieder so weit?


War es jemals anders? Den NV Inspector brauche ich auch bei meiner aktuellen GTX 1070, um im 4 Monitorbetrieb eine erträgliche Leistungsaufnahme zu realisieren.

Nvidia schafft es zwar, weit in die Zukunft zu denken und die dann ach so tollen RT-Features zu implementieren, aber um für einen verbrauchstechnisch akzeptablen Multimonitorbetrieb zu sorgen, sind offenbar seit ewigen Zeiten keine Ressourcen frei.

Razor
2018-10-19, 12:11:08
Na dann bin ich ja beruhigt, dass zumindest die NV Inspector Methode noch funktioniert... dachte eigentlich, dass ich diese nach Maxwell (GTX960) nicht mehr brauche.
Mit Fermi hat das angefangen, war zwischendurch immer mal wieder weg... wie z.Bsp. mit der GTX660... dann wieder da, wieder weg und nun wieder da.
Und ich habe auch das dumpfe Gefühl, dass es mit einem Treiberupdate nicht getan ist, wie die letzten Male auch.

Vermutlich sollte man tatsächlich keine "1st gen" Produkte kaufen, wie es ein Reviewer empfahl - man wird als Kunde schlicht verar...t.

Werde mich dann aber wohl - wenn ich diese Kröte schlucken sollte - doch lieber für die "Nicht 0db Variante" entscheiden.
Lieber ein permanent drehender Lüfter, als einen 60° heißen "Hitzkopf" im Rechner zu haben.
Dieser ist auf "silent" getrimmt und ich werde mir das ganz sicher nicht wieder kaputt machen lassen.

Ergo: Palit GameRock Premium.
Mit OC-Bios auch im Idle kein still stehender Lüfter und trotzdem "flüsterleise"...

Mich würde an dieser Stelle aber schon interessieren, wie es anderen MultiMon-Usern ergeht, die bereits einen Turin nutzen.
Schließlich gibt so sinnreiche Empfehlungen wie "keinen Display Port benutzen", was bei Turing ja eher schlecht ist...

Und klar, bei 4 Displays spätestens der Low-Power-Mode dann spätestens aus... in Abhängigkeit zur Auflösung auch schon mit Dreien.

Razor

Cubitus
2018-10-19, 12:58:00
Nutze eine Inno3D 2080Ti

hab hier mit dem Forza Treiber 411.70 krasse 74 Watt bei zwei Bildschirmen im Leerlauf :freak:
Was mich nervt, der Treiber ist in Forza echt super, bringt unter Umständen 5-10 FPS mehr als der aktuellste.

Werd aber wieder umsteigen.. Der Verbrauch ist mir auf die Dauer gesehen dann doch zu hoch.

Hab atm auf DP laufen.

Edit: hab jetzt mal den neusten Treiber aufgespielt, sind jetzt 72,4 Watt im Idle.. :freak:

Hab hier einen 100hz 34 Zöller hängen und einen 24er mit 144Hz Monitor neben dran.
Ich steck jetzt mal die Monitore einzeln aus und schau was raus kommt.

1x Samsung 34" CF791@100hz = 21,7 Watt mit DP

1x Lenovo Legion Y25f TFT@120hz = 21 Watt mit DP
1x Lenovo Legion Y25f TFT@144hz = 22 Watt mit DP

Also wenn ich jetzt beide zusammen am laufen habe sollten es eigl 44 Watt sein

Jetzt habe ich beide einzeln wieder eingesteckt mit jeweils 100hz/144hz und jetzt sind es ca 70 Watt..
Macht übrigens auch keinen Unterschied ob ich den Monitor ausschalte oder nicht.

Also darf der Inspektor jetzt ran, mal wieder..
Seit der 1080 GTX war mir das Problem eigl nicht mehr bewusst, bzw. dort hat sich Dual Monitor kaum auswirkt.

Geächteter
2018-10-19, 15:06:31
Der 1-Monitor-Verbrauch ist jetzt bei dir auch nicht so der King. Laut PCGH sollte der mit dem "Stromspar-Treiber" bei 15 Watt liegen, wobei die Auflösung und Hertz wohl auch reinspielen.
Liegt wohl auch an dem Wechsel der vier Power States. Die hat nvidia ja oft nicht im Griff. Auch erbärmlich für den Lederjackenverein, dass man bis heute die im Treiber nicht manuell auswählen kann inkl. deren Taktmodifikation, die ja noch nicht mal mehr mit Zusatztools manuell seit Pascal außer P0 gehen.

Troyan
2018-10-19, 15:25:15
Du kannst ruhig den neusten nehmen. Der Multi-Monitor-Verbrauch ist identisch zwischen beiden.

Cubitus
2018-10-19, 19:40:10
Bin wieder zurück auf den 411.70, der performt mir bei Forza 4 aktuell besser. Aber ansonsten hast du Recht, es macht keinen Unterschied.

Der 1-Monitor-Verbrauch ist jetzt bei dir auch nicht so der King. Laut PCGH sollte der mit dem "Stromspar-Treiber" bei 15 Watt liegen, wobei die Auflösung und Hertz wohl auch reinspielen.
Liegt wohl auch an dem Wechsel der vier Power States. Die hat nvidia ja oft nicht im Griff. Auch erbärmlich für den Lederjackenverein, dass man bis heute die im Treiber nicht manuell auswählen kann inkl. deren Taktmodifikation, die ja noch nicht mal mehr mit Zusatztools manuell seit Pascal außer P0 gehen.

Auch mit dem neustem Treiber lag hier der Verbrauch auf 21 Watt.
Ich hoffe Nvidia erledigt, in den kommenden Treibern, seine Hausaufgaben besser. ;D

Razor
2018-10-20, 02:05:09
Nutze eine Inno3D 2080Ti[...]
Danke, Cubitus, für die Bestätigung aus "erster Hand"!
Deine Werte sind ja fast noch erschreckender, als das, was die Tests bei TechPowerUp für die ti angezeigt haben.
Obwohl die 10W natürlich auch den "Kohl nicht mehr fett" machen, gell?

Du kannst nicht mal probieren, nur einen Moni an DP und den anderen an HDMI anzuschließen?
Glaube zwar eigentlich auch nicht, dass es einen Unterschied macht, aber vielleicht...

Das Problem bei dieser Geschichte - es gibt keinerlei konkrete Informationen dazu!
In Firmen ist es vollkommen normal, zwei Bildschirme am Arbeitsplatz zu nutzen, aber "zuhause" scheint dies eher selten.

Razor

Screemer
2018-10-20, 07:09:54
@cubitus: geh Mal mit der refresh rate auf jeweils 60hz zurück. Würde mich interessieren wie es sich da verhält.

Cubitus
2018-10-20, 14:52:24
Danke, Cubitus, für die Bestätigung aus "erster Hand"!
Deine Werte sind ja fast noch erschreckender, als das, was die Tests bei TechPowerUp für die ti angezeigt haben.
Obwohl die 10W natürlich auch den "Kohl nicht mehr fett" machen, gell?

Du kannst nicht mal probieren, nur einen Moni an DP und den anderen an HDMI anzuschließen?
Glaube zwar eigentlich auch nicht, dass es einen Unterschied macht, aber vielleicht...


Also 1x DP, Hauptmonitor CF791@100Hz
+ 4k TV@60 hz über HDMI 30 Watt im Leerlauf

Ich werde jetzt hergehen und meinen zweit Bildschirm via HDMI anschließen...
Da der Inspector Powersaver leider ab und zu Bildflimmern erzeugt :(


@cubitus: geh Mal mit der refresh rate auf jeweils 60hz zurück. Würde mich interessieren wie es sich da verhält.

Macht bei 2x DP keinen Unterschied, 74 Watt

Edit:

Ich hab jetzt den Bildschirm mit HDMI angeschlossen, 74 Watt...
Dann wieder zurück auf den HDTV und dann auch wieder 74 Watt, also wohl doch keine Änderung :confused:

vinacis_vivids
2018-10-20, 22:29:26
DP 1.4a bei Turing hat eine höhere Bandbreite als DP 1.4 von Pascal weshalb es logisch ist, dass die Display Engine mehr Saft zieht, auch wenn sie nicht vollständig ausgenutzt wird. Die Kontrolllogik in der Hardware muss anscheinend zwingend angeschaltet sein.
Ich halte es daher für fraglich ob dieses "Problem" per Treiber gelöst werden kann, da Turing ja mit neuer "HDR-Display-Engine" kommt.

Razor
2018-10-21, 08:05:24
Ist aber leider nur eine Vermutung...
Ich persönlich denke, dass Sie im "Silikon" einfach etwas vermurkst haben - würde zum übrigen Bild dieser Chip-Generation passen.

Ich würde gerne von nVidia direkt hören, warum sei hier so sehr abloosen.

@Cubitus:
Danke, dass Du Dich nochmal daran versucht hast.
An Deiner Stelle würde ich da noch die eine oder andere Minute investieren... 44W mehr ist schon heftig.
Als wäre ein weiterer (dritter) großer Monitor angeschlossen.

Das mit dem Bildflimmern ab und ab habe ich nun auch im Reddit schon öfters gelesen.
War seinerzeit aber auch schon bei Maxwell der Fall.

Razor

Cubitus
2018-10-21, 08:19:19
DP 1.4a bei Turing hat eine höhere Bandbreite als DP 1.4 von Pascal weshalb es logisch ist, dass die Display Engine mehr Saft zieht, auch wenn sie nicht vollständig ausgenutzt wird. Die Kontrolllogik in der Hardware muss anscheinend zwingend angeschaltet sein.
Ich halte es daher für fraglich ob dieses "Problem" per Treiber gelöst werden kann, da Turing ja mit neuer "HDR-Display-Engine" kommt.


Ich denke schon das man treiberseitig was lösen könnte, mit dem Inspector schaffe ich an die ~30 Watt im Idle.

@Razor

wie gesagt mit dem Inspector, sind es jetzt ca 30 Watt im P8 State.
Ich bin jetzt her gegangen und setzte die Schwelle auf 40%, das Flimmern kommt beim Wechsel in einen höheren Pstate meistens auf P5 in Verbidnung mit Videos. Bis jetzt ist es I.O.

Finde es eben nur schade das wieder ein extra Tool benötigt wird.
Mich würde Interessieren wie sich ein Gsync Monitor hier auswirkt, hab nur leider keinen ;(

woodsdog
2018-10-21, 09:06:12
Ich habe seit dem 400er Treibern (für forza installiert) ebenso das Problem.

- zwei mal 2560x1440@144Hz, beide Gsync, beide via DP.
- MSI irgendwas 1080

Graka geht nicht wie vorher auf 13x MHz und 15W runter, hängt bei 1000irgendwas und ~45W rum. Ob ich Gsync An/Aus mach, beide Schirme auf 60Hz stelle - hat alles keine Auswirkung. Bleibt bei 45W Idle.

bei einem Schirm bin ich bei ~22W.

Razor
2018-10-21, 18:34:40
Im Hilfeforum fragt man sich ja auch schon, ob mit den 4xx'ern alles mit dem Rechten zugeht.
Sowieso frage ich mich, was der Unfug soll: 399 > 411 > 416 > what?

Selber bin ich noch bei den 392'ern Quadros... da weiß ich, dass es wenigstens so etwas wie eine Qualitätssicherung gegeben hat.

@Cubitus

Ich kenne das noch allzu gut... damals mit der GTX960 - war exakt das Gleiche!
Und glaube mir, das "Gefriggel" wird maximal, wenn man es mit SLI und/oder Gsync zu tun bekommt.

nVidia sollte endlich mal wieder Konkurrenz bekommen.
Ist wirklich traurig, was die sich in letzter Zeit ableisten... :(

Razor

Edgecrusher86
2018-10-21, 22:49:03
RTX 2080 Ti und 2 G-SYNC Monitore (jeweils 4K60) ~36W:

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11831752#post11831752

Die Primärkarte bleibt im P8 (300/405MHz@713mV). Nicht so wenig wie Cubitus per MDPS, aber wenigstens ohne Flackern beim P-State Wechsel.

pixeljetstream
2018-10-22, 00:16:08
Sowieso frage ich mich, was der Unfug soll: 399 > 411 > 416 > what?

Afaik hat das mit obskuren alten Regeln zu Windows Treiber Versionsnummern zu tun, demnach keine zwei Nullen vor dem letzten Punkt sein dürfen. Freiwillig war das nicht.

N0Thing
2018-10-22, 00:37:21
Es gab auch einige Spiele, die keine dreistellige Treiberversion erwartet haben und deshalb auch neuere dreistellige Treiber als veraltet ansahen. Dürfte heute keine Relevanz mehr haben, aber falls so ein altes Programm doch noch einmal gestartet wird, liegen die Probleme dann immerhin nicht mehr an der Versionsnummer des Treibers.

SKYNET
2018-10-22, 01:36:01
Ich habe seit dem 400er Treibern (für forza installiert) ebenso das Problem.

- zwei mal 2560x1440@144Hz, beide Gsync, beide via DP.
- MSI irgendwas 1080

Graka geht nicht wie vorher auf 13x MHz und 15W runter, hängt bei 1000irgendwas und ~45W rum. Ob ich Gsync An/Aus mach, beide Schirme auf 60Hz stelle - hat alles keine Auswirkung. Bleibt bei 45W Idle.

bei einem Schirm bin ich bei ~22W.


hatte das gleiche problem, wieder auf 399.24 und alles fein.

woodsdog
2018-10-22, 04:58:05
hatte das gleiche problem, wieder auf 399.24 und alles fein.

Dann scheint es ja wirklich ein 400er Treiber Problem zu sein.
Vielleicht kann ein Mod ja den Threadtitel anpassen bzw das Thema in das NV Forum verschieben?

Razor
2018-10-22, 06:44:32
Hmmm... bei TechPowerUp schrieb man folgendes:
RTX 2080 & 2080 Ti: 411.51 Press Driver
All other NVIDIA: 399.24 WHQL

Blaire hat mit 2 GSyncs offenbar als einziger kein Problem mit Turing.

Da man mit Turing auf die 4xx gezwungen wird, ist ein Treiber-Problem zumindest nicht auszuschließen.
Das würde ja direkt noch hoffen lassen...

Razor

Cubitus
2018-10-22, 19:55:22
Hab jetzt eine 2080 TI FE drin, die scheint etwas besser "optimiert" zu sein.
Vorher war es eine Inno3D

Liegt bei 50 Watt im Idel, mit dem Inspector Power-Saver sind es dann knappe 20 Watt.

Razor
2018-10-23, 06:16:32
Wie im Eingangspost gezeigt, sind 20W/57W für eine 2080ti durchaus "normal".
Allerdings hat Blaire gezeigt, dass man mit 2x Gsync (4k60) durchaus in den Genuss des "Low Power State" kommen darf.

Könntest Du nicht mal probieren, beide Monitore (bzw. Moni und TV) mit 60Hz laufen zu lassen?
Das würde in der Tat ein wenig "Klarheit" bringen...

Razor

Geächteter
2018-10-23, 22:12:26
Hab jetzt eine 2080 TI FE drin, die scheint etwas besser "optimiert" zu sein.
Vorher war es eine Inno3D

Es scheinen (fast) alle Partnerkarten laut Forenaussagen komplett im Idle vermurkst zu sein. Meine Zotac braucht laut GPU-Z auch 27 Watt Idle @Single 120 Hz. Da sie ja alle das Referenz-PCB nur halt ohne Aufdruck nvidia am PCIe-Slot haben, vielleicht ein Problem der Custom-Firmwares.

HisN
2018-10-23, 23:00:34
Eigentlich reicht ja ein winziger Blick auf den Takt der Graka.


Turing
http://abload.de/thumb/turing_nvidia_multimot8cs1.jpg (https://abload.de/image.php?img=turing_nvidia_multimot8cs1.jpg) http://abload.de/thumb/turing_nvidia_multimoutezn.jpg (https://abload.de/image.php?img=turing_nvidia_multimoutezn.jpg)

Pascal
http://abload.de/thumb/nvidia_monitore_multiw0r6s.jpg (https://abload.de/image.php?img=nvidia_monitore_multiw0r6s.jpg) http://abload.de/thumb/nvidia_monitore_multi4kpee.jpg (https://abload.de/image.php?img=nvidia_monitore_multi4kpee.jpg) http://abload.de/thumb/nvidia_monitore_multiouocj.jpg (https://abload.de/image.php?img=nvidia_monitore_multiouocj.jpg) http://abload.de/thumb/nvidia_monitore_multihgq12.jpg (https://abload.de/image.php?img=nvidia_monitore_multihgq12.jpg) http://abload.de/thumb/nvidia_monitore_multitoqr0.jpg (https://abload.de/image.php?img=nvidia_monitore_multitoqr0.jpg)

Ich hab allerdings ein Galax oder ein Gigabyte-Bios auf meiner Zotac .. müsste man mal schauen ob das Original-Bios hilft.

Geächteter
2018-10-24, 01:39:52
Takt beobachten alleine reicht nicht, die taktet bei mir sauber auf 300/405 runter, Spannung aber nur 0,718 statt 0,706 Volt als mögliches Minimum.
Resultat, 25-28 Watt, wo es angeblich eher 10-12 Watt sein sollten, wie es wohl nur die FEs bis jetzt erreichen.
Ob jetzt die paar mV alleine den Unterschied machen, oder ob der Chip nicht ausreichend schlafen gelegt wird, who knows.

Razor
2018-10-24, 07:34:58
Der Takt ist schon ein recht ordentlicher Indikator!
Aber von welchen Karten redest Du?

2070 FE = ähnlich 2080FE und keine Ahrnung im DualMon
2080 FE = 14W mit SingleMon und 40W im DualMon
2080ti FE = 20W mit SingleMon und 57W im DualMon

Eigentlich reicht ja ein winziger Blick auf den Takt der Graka.
Grandiosen Dank für Deine Screens... vor allem für Pascal sehr aufschlussreich!
Leider kann man bei Deinen Tourings nicht sehen, wie die Moni angeschlossen sind.

Aber vermutlich gibt es bei Dir auch keine 2'er Kombo, die einen Low-State hervor bringt?
Was wäre mit 2x DELL 3000W, einmal DVI/DP und einmal DP/DP?

Razor

HisN
2018-10-24, 09:30:25
Probier ich bei Gelegenheit aus Razor.
Wobei ich natürlich nicht weiß wie dier DP/DVI-Adapter da reinmurkst.
(Von dem ich mir leider noch einen 2. beschaffen muss, da ja kein DVI-Anschluss mehr übrig ist).

Geächteter
2018-10-24, 13:01:45
Der Takt ist schon ein recht ordentlicher Indikator!
Aber von welchen Karten redest Du?

RTX 2080 Non-Ti, die soll ab dem Stromspartreiber ca. 12 Watt im Leerlauf brauchen. Kann aber auch mehr als das Doppelte völlig unbelastet brauchen, obwohl ebenfalls 300/405 anliegen. Die Ti hat das gleiche Problem, wie man in den MSI-, Asus- und dem Geforce-Foren lesen kann. Die Hersteller heißen wieder Hase und wissen von nix.

Cubitus
2018-10-24, 18:42:01
Wie im Eingangspost gezeigt, sind 20W/57W für eine 2080ti durchaus "normal".
Allerdings hat Blaire gezeigt, dass man mit 2x Gsync (4k60) durchaus in den Genuss des "Low Power State" kommen darf.

Könntest Du nicht mal probieren, beide Monitore (bzw. Moni und TV) mit 60Hz laufen zu lassen?
Das würde in der Tat ein wenig "Klarheit" bringen...

Razor

Okay, wenn beide Monitore (DP) mit 60Hz betrieben werden, sind es 20 Watt im Idle, wirklich sehr aufschlussreich...
Die Ingame-Einstellungen dürfen es dann richten.

basix
2018-10-24, 19:01:34
Takt beobachten alleine reicht nicht, die taktet bei mir sauber auf 300/405 runter, Spannung aber nur 0,718 statt 0,706 Volt als mögliches Minimum.

Das ist bei mir je nach Temperatur irgendwas zwischen 0.706...0.718V. Jeden Tag was anderes. Was ich interessant finde, dass Pascal deutlich tiefer geht was Spannung und Takt angeht.

Razor
2018-10-24, 20:50:49
Okay, wenn beide Monitore (DP) mit 60Hz betrieben werden, sind es 20 Watt im Idle, wirklich sehr aufschlussreich...
Die Ingame-Einstellungen dürfen es dann richten.
DANKE!
Dann ist es tatsächlich das "alte" Problem...
Und es erklärt natürlich auch, warum Blairs GSyncy ebenfalls in den LowState gehen.

Ähnliches hatte ich bei meiner GTX1060 beobachtet, die ebenfalls den LowState verweigerte, als ich 60Hz mit 144Hz kombinierte.
Meine mich zu erinnern, dass auch 60Hz und 120Hz gut "harmonierten".

Probier ich bei Gelegenheit aus Razor.
Wobei ich natürlich nicht weiß wie dier DP/DVI-Adapter da reinmurkst.
(Von dem ich mir leider noch einen 2. beschaffen muss, da ja kein DVI-Anschluss mehr übrig ist).
DP-Adapter sollten keine Auswirkungen haben, das Thema mit den unterschiedlichen Frequenzen scheint plausibel.

RTX 2080 Non-Ti, die soll ab dem Stromspartreiber ca. 12 Watt im Leerlauf brauchen. Kann aber auch mehr als das Doppelte völlig unbelastet brauchen, obwohl ebenfalls 300/405 anliegen. Die Ti hat das gleiche Problem, wie man in den MSI-, Asus- und dem Geforce-Foren lesen kann. Die Hersteller heißen wieder Hase und wissen von nix.
Ahh... das meinst Du.
Hörte ich auch von, glaube ich aber nicht so recht.. bei gleicher Frequenz der doppelte Verbrauch? Hmmm...
Hauptproblem ist halt, dass die Leutz nicht die komplette Konfiguration nennen... GraKa, Anschlüsse, Auflösung, Frequenz und natürlich Anzahl der angeschlossenen Geräte.

Razor

OC_Burner
2018-10-24, 21:08:13
Passt hier scheinbar besser rein als im anderen Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11834166#post11834166).

Nunja die Display Clock scheint in der Tat wohl zu niedrig für gewisse Monitorkonstellationen zu sein. Im normalen 2D-Modus (P8 State) liegt ein Takt von 810MHz DisplayClock an. Für die Kombination 4k + zweiten Monitor scheint das nicht ausreichend zu sein, daher hält der Treiber die Karte im 3D-Modus (P0 State) welcher mit 1080Mhz taktet. Um das zu beheben würde ein gefixtes Bios helfen, dass in sämtlichen Power States mit 1080Mhz DisplayClock getaktet wird oder aber Nvidia kann das über die Treiber lösen. Eine erhöhte DisplayClock wirkt sich übrigens nicht messbar auf die Leistungsaufnahme auf. Das sind alles Geschichten die schon seit Fermi und länger bestand haben, dass dies nun mit Turing auftritt ist echt merkwürdig.

Ich habe nun von Maxwell auf Turing gewechselt und ärgere mich ebenfalls über dieses Power-State Verhalten. Maxwell war in dieser Hinsicht vollkommen in Ordnung und zeigte keine Auffälligkeiten.


Boardpower 2080 Ti FE @ Windows Desktop IDLE:
~11W | P8 (2D-State) mit 1080p60
~22W | P8 (2D-State) mit 1080p60 + 1080p60
~22W | P8 (2D-State) mit 1080p60 + 1080p120
~55W | P0 (3D-State) mit 2160p60 + 1080p120
~55W | P0 (3D-State) mit 2160p60 + 1080p60
~12W | P8 (2D-State) mit 2160p60


Die Boardpower wurde mit dem Nvidia Inspector ausgelesen. Die DisplayClocks lassen sich ebenfalls mit dem Nvidia Inspector und dem Startparameter "-showfermiclocks" anzeigen (Kasten unten links Nr.7).

Blaire
2018-10-24, 21:57:37
DANKE!
Dann ist es tatsächlich das "alte" Problem...
Und es erklärt natürlich auch, warum Blairs GSyncy ebenfalls in den LowState gehen.

Ähnliches hatte ich bei meiner GTX1060 beobachtet, die ebenfalls den LowState verweigerte, als ich 60Hz mit 144Hz kombinierte.
Meine mich zu erinnern, dass auch 60Hz und 120Hz gut "harmonierten".


Nein. Ich kann auch einen 4K/60Hz + 1440p/144Hz "G-Sync"-Monitor kombinieren und trotzdem taktet die 2080Ti normal in den P8 State. Selbst mit drei angeschlossenen G-Sync Monitoren bei unterschiedlichen Bildwiederholfrequenzen wäre das nichts anders. Warum hatte ich im anderen Thread schon erwähnt. Ich glaube aber trotzdem daß es noch Treiber-Optimierungen geben wird, ohne jetzt genauere Details zu kennen.
https://abload.de/img/idle-powerzwdqm.png

Razor
2018-10-25, 19:08:33
Jain... ich zitiere:
Cubitus verwendet auch kein G-Sync Monitor, Techpowerup offenbar ebenso wenig.
https://www.techpowerup.com/reviews/Gigabyte/GeForce_RTX_2080_Gaming_OC/6.html
Ja mit G-Sync Monitoren funktioniert das alles ein wenig entspannter, das war mit der früheren Pascal-Gen aber auch nicht grundsätzlich anders. Ein Treiber-Update 372.54 (http://us.download.nvidia.com/Windows/372.54/372.54-win10-win8-win7-desktop-release-notes.pdf) machte das erst möglich seinerzeit...
• Enabled mclk switches on 144 Hz G-SYNC monitors in multi-monitor use cases in order to lower power consumption.

Es gibt auch Stand letzte Woche kein Treiberproblem dazu, somit dürfte alles wie gewünscht mit Turing funktionieren.
Meinst Du ernsthaft, das "Warum?" damit geklärt zu haben?

Das Ganze ich ja nicht wirklich "neu":
https://www.digitaltrends.com/computing/nvidia-high-refresh0-gsync-multi-display/
Vom 22.8.2016... by the way.

Was also meint das genau?
Was ist an GSync Monitoren nun anders?

Was auch an Turing "merkwürdig" ist... warum brauchts 300MHz im P8 während es bei Pascal nicht mal die Hälfte tut?
Wird der Chip darunter "instabil"?

Fragen über Fragen...

Razor

Annator
2018-10-25, 19:21:23
Ich habe eine 1080 mit 416.34er Treiber und verbrauche 60W im idle mit zwei oder mit einem Monitor. Ist völlig egal. Messe nur das was in den Rechner geht. Gsync ist an.

*edit*
Interessant, ich verbrauche 90W ohne Gsync. Aber auch egal ob mit oder ohne 2. Monitor. Mit Gsync geht die Karte auf 139Mhz runter ohne bleibt sie bei 1270.

Cubitus
2018-10-25, 19:25:48
Ich glaube aber trotzdem daß es noch Treiber-Optimierungen geben wird, ohne jetzt genauere Details zu kennen.
https://abload.de/img/idle-powerzwdqm.png

Wäre jedenfalls wünschenswert :)

Blaire
2018-10-26, 01:23:58
Jain... ich zitiere:

Meinst Du ernsthaft, das "Warum?" damit geklärt zu haben?

Das Ganze ich ja nicht wirklich "neu":
https://www.digitaltrends.com/computing/nvidia-high-refresh0-gsync-multi-display/
Vom 22.8.2016... by the way.

Was also meint das genau?
Was ist an GSync Monitoren nun anders?

Was auch an Turing "merkwürdig" ist... warum brauchts 300MHz im P8 während es bei Pascal nicht mal die Hälfte tut?
Wird der Chip darunter "instabil"?

Fragen über Fragen...

Razor

Ich hab lediglich deine Behauptung zuvor widerlegt, nicht mehr und nicht weniger. Hier liegt das Problem aber grundsätzlich bei den Testern, daß sie G-Sync Displays in der Bewertung des Multi-Monitor-Stromverbrauch's unberücksichtigt lassen.
Und was mit G-Sync "anders" funktioniert hatte ich ebenfalls beantwortet, daß eben VBlank anpassbar und man in der Lage ist zu kontrollieren, wann ein beliebiger Frame dargestellt wird, damit es eben nicht zu ungewollten Verhalten wie Bildflimmern oder sporadischen Blitzern beim Takt senken kommt. Du musst nur richtig lesen oder fällt es dir schwer Zusammenhänge zu erkennnen?
Was jedoch nichts daran ändert, daß im Misch-Betrieb zwei älterer Monitore offenbar noch Optimierungs-Potential mit den neuen Turing-Karten besteht, das hab ich auch nicht bestritten.

HisN
2018-10-26, 21:19:37
Hier übrigens der gewünschte Nachtest.
Hat mich dann doch überrascht.

https://abload.de/img/nvidia_multimonitor_t88fm0.jpg (https://abload.de/image.php?img=nvidia_multimonitor_t88fm0.jpg)

Razor
2018-10-27, 00:20:53
Hier übrigens der gewünschte Nachtest.
Hat mich dann doch überrascht.
Ach nein... 3xDP ohne GSync und trotzdem LowPower-State, korrekt?
Und mit welcher Frequenz liefen die drei?

Vielen Dank für deinen Nachtest!

Razor

HisN
2018-10-27, 10:34:34
das sind 10 Jahre alte 60hz Monitore :-)

Razor
2018-10-27, 21:59:16
Alt muss nicht schlecht sein, im Gegenteil!
Auf meinen Acer AL2723W lass ich nichts kommen... FullHD, 60Hz natürlich.
Habe hier schon ganz andere Monitore am Rechner gehabt, aber das war durchweg "schrott"... inkl. dieser 144Hz-Teile. die nicht einmal natives 24p unterstützen.

Wie dem auch sei, habe nun selber eine 2080 im Rechner und bin äußerst positiv überrascht!
Meine "Kleine" GTX1060 brauchte 5-6W im Idle, die 2080 nun 9-10W :|

Und das mit bis zu drei Gerätschaften... allerdings muss dann der TV mit "HD Ready" Auflösung laufen...
Ergo:

LowPower State (300/405 mit 718mV)
- DP2DVI Hauptmoni (27" Acer, 1920x1200) + DP2DVI Nebenmoni (19" Dell, 1280x1024 + DP2HDMI (40" Samsung TV, 1280x720)... alle mit 60Hz
- aktivierte Rift am HDMI: nix mehr "LowPower", unabhängig von ggf. angeschlossenem TV

MedPower State (1260/7000 mit 718mV)
- DP2DVI Hauptmoni (27" Acer, 1920x1200) + DP2DVI Nebenmoni (19" Dell, 1280x1024 + DP2HDMI (40" Samsung TV, 1920x1080)... alle mit 60Hz

Aber ich bin zufrieden mit der 2080 (im Übrigen Gigabyte Gaming OC), die gerade mal 4W mehr im Idle "schluckt" und mir auch nicht die Thermik in meinem Silent-Rechner durcheinander bringt. Lediglich beim WorstCase Scenario (alle 8 CPU-Threads am Anschlag, z.Bsp. mit CoreDamage + GPU unter Vollast, z.Bsp. mit Unigine Heaven), treibts die - sozusagen - passiv gekühlte CPU über die 80°... wenn auch die GPU bei ca. 67° und einem noch immer nahezu lautlosen Lüfter verharrt. Wirklich klasse, was Gigabyte da wieder gebastelt hat, nur eben (zwangsläufig) zulasten der CPU. Auch wenn ich schlicht noch KEINE Anwendung gesehen habe, die derart "rüde" mit der CPU umgeht ;)

Dumm bleibt allerdings der noch immer extreme Stromverbrauch, wenn man z.Bsp. 60Hz mit 144Hz kombiniert.
Und es ist sicher keine Lösung, nVidia noch einmal ordentlich Kohle für zwei G-Sync Monis hinterher zu werfen...

Razor

P.S.: die 2080 ist in den für mich relevanten Anwendungsfällen glatt doppelt so schnell.
Besonders krass DeusEx Mankind - vorher mit "nötigen" Einstellungen untragbar, nun super smooth.
Oder auch der Unigine Superposition Benchmark... im "Extreme" eine üble Ruckelorgie mit der 1060, nun glatt 3x so schnell und "smooth".

P.P.S.: ich traue dem aktuellen Murks an Consumer-Treibern nicht und setze lieber auf die Quadro-Varianten, die wenigstens eine ordentliche QS hinter sich haben.
So fahre ich die 2080 derzeit mit dem 411.81 WHQL for Quadro (ODE). Ein waschechter r400_00-349 vom 17.10.2018...

TobiWahnKenobi
2018-10-28, 09:00:53
hast du deine rift eigentlich jemals über einen adapter zum laufen bekommen?

ich hatte meine zuletzt mit titan x (pascal) über einen DVI->HDMI-adapter am laufen. bei allen karten die danach kamen fehlte ja ein nativer DVI-port und mit adaptern

dp->hdmi1.3 /UHD30
dp->hdmi2.0 /UHD60
dp->DVI->HDMI /UHD30

schaltet meine gar nicht erst ein. die möchte gern den einzigen nativen HDMI-2.0 verwenden um zu funktionieren. für den TV, der ebenfalls gern (über AVR geschaltet oder nativ) einen HDMI-2.0-anschluss haben möchte, musste ich mir einen 30€ DP->HDMI-2.0-schnuffi kaufen.

ich finds blöd, dass seit TXP die anschlüsse geändert wurden.

btw,
hier sinds 27W mit einem monitor (uhd60 über DP) und das doppelte bei zweien, wenn ich die glotze mit einschalte.


(..)

mfg
tobi

Razor
2018-10-28, 15:52:23
Kurze Antwort: nö :(
Und ich habe es versucht... keine Chance!
Die einzige Möglichkeit, die auch ich für den TV nutze, DP-HDMI, wie Du vermutlich auch gesehen hast.

Zu Deinem Problem... wie wär's mit dieser hier?
https://www.gigabyte.com/Graphics-Card/GV-N208TAORUS-X-11GC#sp
https://gzhls.at/i/60/97/1906097-n0.jpg
Blinki, Blinki ist zwar nicht mein Fall, aber... hier gibt's gleich 3x HDMI2.0b.

Razor

Cubitus
2018-10-28, 20:55:34
Bin gerade bei meiner Fam, wo ich einen TFT deponiert habe :freak:
Ist ein aoc g2460pf der auch mit 144hz läuft, verbrauch ist bei 11 Watt im Idle

Aber ist wie gesagt nur 1 Monitor, dennoch krass was das für ein Unterschied ausmacht.

Blaire
2018-11-08, 14:51:57
Wäre jedenfalls wünschenswert :)

Mit dem heutigen 416.81 WHQL-Game-Ready-Treiber (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11846834#post11846834) gabs speziell für Turing-Cards neue Multi-Monitor Idle Verbrauchs-Optimierungen, wenn ihr mal testen wollt...

Fixed Issues in this Release
• [Turing GPU]: Multi-monitor idle power draw is very high. [2400161]

https://www.nvidia.de/download/driverResults.aspx/139651/de

Raff
2018-11-08, 15:04:19
Von "very high" auf "high", oder "optimal"? :)

MfG,
Raff

OC_Burner
2018-11-08, 20:21:50
Der Treiber geht zwar den Multi-Monitor-Verbrauch etwas an, ist aber nicht die entgültige Lösung. Der alte Treiber verblieb im P0-State mit vollem Memory und GPU-Takt. Mit dem 416.81 wechselt der Treiber zwar in den P3-State und reduziert den Memorytakt aber die GPU läuft immernoch mit vollem Takt. Der Verbrauch senkte sich um jämmerliche 3W.

Die Aussage nehme ich zurück. Der 1080p Monitor lief versehentlich mit 120Hz, daher der Wechsel nur bis in den P3-State. Bei 1080p60 + 2160p60 wechselt der neue Treiber nun in den sparsamsten P8-State...:redface:

416.81:
1x 1080p 120Hz + 1x 2160p 60hz (53W | P3-State)
https://abload.de/thumb/1x1080p60_-_1x2160p60jribq.png (https://abload.de/image.php?img=1x1080p60_-_1x2160p60jribq.png)

1x 1080p 60Hz + 1x 2160p 60hz (22W | P8-State)
https://abload.de/thumb/1x1080p60_-_1x2160p60fjch1.png (https://abload.de/image.php?img=1x1080p60_-_1x2160p60fjch1.png)



416.34:
2x 1080p 60Hz (22W | P8-State)
https://abload.de/thumb/2x1080p60_auto_p8statgkfzw.png (https://abload.de/image.php?img=2x1080p60_auto_p8statgkfzw.png)

1x 1080p 60Hz + 1x 2160p 60hz (56W | P0-State)
https://abload.de/thumb/1x1080p60_-_1x2160p60dbds1.png (https://abload.de/image.php?img=1x1080p60_-_1x2160p60dbds1.png)

1x 1080p 60Hz + 1x 2160p 60hz (22W | forced *P8-State)
https://abload.de/thumb/1x1080p60_-_1x2160p60atdl3.png (https://abload.de/image.php?img=1x1080p60_-_1x2160p60atdl3.png)

TobiWahnKenobi
2018-11-08, 20:40:35
mit 416.81 scheint bei mir der verbrauch nicht mehr unangemessen hoch zu sein, wenn der AVR (beamer/fernseher) mitläuft. ab und zu brauche ich diese krücke ja für HDMI-ton (atmos und so).

https://abload.de/img/rtx-ti-mm-watt3ai8j.jpg

da der treiber auch den witscher entflackert hat, so dass ich nicht mehr an meinem ram zweifeln muss, bin ich erstmal zufrieden. RTX-TI ist trotzdem langweiliger als erwartet. :-P


(..)

mfg
tobi

HisN
2018-11-08, 23:23:29
Bei mir bleibt der Takt bei zwei verschiedenen Monitoren oben. (Bei 3x2560x1600 lief der letzte Treiber ja schon vernünftig).
https://abload.de/thumb/nvidia_turing_multimopqcpn.jpg (https://abload.de/image.php?img=nvidia_turing_multimopqcpn.jpg)
Wie hoch löst Dein Beamer auf?

Wake
2018-11-08, 23:36:45
Weitere Messungen:
https://abload.de/img/mtmyzmnzgglktuzbvzf3w.jpg

https://www.techpowerup.com/249345/nvidia-finally-fixes-multi-monitor-power-consumption-of-turing-geforce-20-tested-on-rtx-2070-2080-and-2080-ti

Razor
2018-11-09, 07:40:27
Also ich kann nur sagen: Bravo nVidia!
Das zum Thema "Treiber macht genau das, was er soll" @Blaire, gell?

Ich schrieb:
LowPower State (300/405 mit 718mV)
- DP2DVI Hauptmoni (27" Acer, 1920x1200) + DP2DVI Nebenmoni (19" Dell, 1280x1024 + DP2HDMI (40" Samsung TV, 1280x720)... alle mit 60Hz
- aktivierte Rift am HDMI: nix mehr "LowPower", unabhängig von ggf. angeschlossenem TV

MedPower State (1260/7000 mit 718mV)
- DP2DVI Hauptmoni (27" Acer, 1920x1200) + DP2DVI Nebenmoni (19" Dell, 1280x1024 + DP2HDMI (40" Samsung TV, 1920x1080)... alle mit 60Hz
Nunmehr bleibt die 2080 auch bei TV@FullHD mit beiden Moni und der angeschlossenen (nicht aktivierten) Rift@HDMI im P8. Sehr schön!
Und da mir Gigabyte nun auch noch ein Bios "schenkte", bei dem das PowerTarget auf 122% und die TDP von 225W auf 245W erhöht wurde, ist es doch schön zu wissen, dass man noch ein wenig "Reserve" hat...
(betreibe das Kärtchen im absoluten "Standard"... im Sinne des Hersteller OC's natürlich ;-)

Wenn's jetzt noch das Problem eliminiert, dass manchmal beim Booten mein Hauptmoni (Acer 27") nicht "aktiviert" wird, bin ich endgültig glücklich :)
Kann aber auch an dem betagtem Alter des Moni's liegen der aktuell per DP>DVI-Konverter am HighClass DVI-Kabel hängt.
Allerdings tun es (zugegebener Maßen "günstige") DP>DVI-Kabel in 2m und 3m - brauche eigentlich Letzteres - auch nicht...

Wenn dies passiert, runter fahren (PowerSW=ShutDown), Netzteil aus, Rechner "cold" on, Netzteil ein, funzt.
Kennt hier jemand das Problem?

Razor

P.S.: der 19" unterstützt auch 75Hz... auch im "Mix" (2x60HZ, 1x75Hz) kein Verlassen des P8-States - GRANDIOS!