PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Boost-Fix durch den nVidia-Treiber 456.55 kostet die GeForce RTX ...


Leonidas
2020-10-01, 14:45:58
Link zur News:
https://www.3dcenter.org/news/boost-fix-durch-den-nvidia-treiber-45655-kostet-die-geforce-rtx-3080-minimal-performance

Capsaicin
2020-10-01, 16:06:33
Dass nur Frames mit kurzen Renderzeiten vom Treiber ausgebremst werden, kann zumindests IgorsLAB nicht bestätigen. Bei ihm sinken auch die 1% Lows und es steigen die Varianzen, allerdings nicht merklich.

Leonidas
2020-10-01, 17:22:34
Interessanter Punkt, der etwas gegen meine These spricht. Aber natürlich wollte ich nicht sagen, dass dies ausschließlich so wäre.

bloodflash
2020-10-01, 18:28:19
Geil an der Sache finde ich:


nVidia RTX3080 mit 320W TDP
Intel 10900K mit 125W TDP


Die eine holt sich mal zwischendurch 500W oder auch mal 370W über mehr als x sec.
Der andere holt sich zwischendurch 290W und auch mal 2xxW für mehr als 28/56 sec.


Da ist eine Empfehlung für ein 750W-Netzteil doch etwas knapp, da das auch nur kurzzeitig Lastspitzen abfedern kann. Dazu kommen ja noch Mainboard (inkl. evtl 10 GBe usw.), Erweiterungskarten, RAM und der Zoo an SSDs und Festplatten plus externe Geräte über USB. Gerade solche Rechnerboliden können auf dem Rest auch mal 150W extra verbraten bei Last. Kommt dann noch OC dazu, sind die 750W Empfehlung lächerlich.


Ehrlich wären 1000 W als Empfehlung und 1200W für OC.


Intel und nV sind in diesem Punkt nur noch lächerlich...
Ich glaube, dass wir in den nächsten Monaten reihenweise Usermeldungen über abgerauchte Netzteile in den Foren lesen dürfen, denn auf Dauer machen das die NTs auch nicht mit.

Hoffe mal das AMD in dem Bereich weiter berechenbarer bleibt. Die 105W/142W beim 3900X sind da doch deutlich freundlicher für den User und auch die letzte GraKas scheinen da etwas ehrlicher bei den Verbrauchsangaben.

Daredevil
2020-10-01, 18:40:20
Sind Lastspitzen denn Aufgabe des Users, oder des NT Herstellers?
Ich meine, wenn ein User sich ein 750w NT holt ( Empfehlung des GPU Herstellers ) und die Kiste bei Last abkackt, dann schickt man selten die GPU zurück, sondern reklamiert das Netzteil, selbst wenn die Spikes durch das NT kommen.
Deswegen bauen gescheite NT Stuben ( Seasonic ) ja auch ne ordentliche Toleranz ein, damit die RMA Quote relativ gering bleibt und man damit trotzdem die potentielle Unfähigkeit des CPU/GPU Herstellers bzw. Users abnimmt, damit das System gescheit läuft.

Aber sehr schön, dass Nvidia so schnell auf das Problem reagiert hat, obwohl man sich so einen PR Gau auch echt hätte großflächig sparen können. Da wurde definitiv an der falschen Stelle gespart, sowas erwarte ich von Nvidia nicht, das ist peinlich.
Völlig egal ob die GPU 200 oder 2000€ kostet, 1% Leistung sollte man nicht für potentielle Instablität mitnehmen...

Gastein
2020-10-01, 19:54:45
Völlig egal ob die GPU 200 oder 2000€ kostet, 1% Leistung sollte man nicht für potentielle Instablität mitnehmen...
Ich glaube eher bei den Launch-Reviews zählt jedes Quäntchen. Die bleiben für 12-24 Monate die Referenzergebnisse in Benchmarkbalken.
Die Negativ-Artikel sind dann separat und verschwinden sobald die Patches draussen sind nach ein paar Wochen Google-Gedächtnis weil die Leute nach Review suchen und nicht nach Problems.
Ich kenne jetzt auch keine Webseite die alle Balkengraphiken mit dem Early-Patch Treiber Ergebnis ersetzt.

Gast
2020-10-01, 20:54:10
Die eine holt sich mal zwischendurch 500W oder auch mal 370W über mehr als x sec.


Die eine holt sich keine 500W über mehrere Sekunden sondern innerhalb wenige ms.
So funktionieren nun mal alles was getaktet arbeitet. Und wenn du eine noch genauere Messung im ns Bereich machen würdest und daraus irgendeine fiktive Leistung ermitteln würdest, hättest du sogar noch höhere Spikes im kW bereich.

Diese sollten auch vollkommen egal sein, das einzige Problem sind übervorsichtige Netzteile die viel zu schnell und vollkommen unnötig abschalten, nur weil sie es können.



Hoffe mal das AMD in dem Bereich weiter berechenbarer bleibt. Die 105W/142W beim 3900X sind da doch deutlich freundlicher für den User und auch die letzte GraKas scheinen da etwas ehrlicher bei den Verbrauchsangaben.

AMD ist keinen deut ehrlicher, ganz im Gegenteil. Die 105W bei den Ryzens sind eine rein fiktive Zahl ohne jegliche Bedeutung. Die 142W sind quasi das PL1 Äquivalent der Ryzens.

Und bei den Grafikkarten ist man schon prinzipbedingt "unehrlicher", zumindest bis jetzt die Grafikkarten im Gegensatz zu Nvidia keine Überwachung der Eingangsströme haben. Die Steuerung erfolgt rein über die Leistungsaufnahme der GPU, Speicher und sonstiges werden nicht überwacht.
Dementsprechend kann eine Angabe der Boardpower bei AMD auch nur eine Schätzung sein, da man eben abseits des GPU-Verbrauchs keine absolute Kontrolle darüber hat was das restliche Gedöns noch so verbraucht.

Bei Nvidia entspricht dagegen die Angegebene Boardpower fast haargenau der Realität, weil eben die Regelung darüber erfolgt was für Ströme in die Grafikkarte fließen und nicht was ein einzelner Verbraucher daraus lutscht.

Es Entspricht eben bei Nvidia auch nur fast der Realität, einerseits weil nur 12V überwacht wird, alles was über die anderen Schienen läuft wird "übersehen", und andererseits weil nur der Strom gemessen wird. Je nachdem welche reale Spannung das Netzteil (innerhalb der zulässigen Toleranzen) liefert kann die reale Leistungaufnahme etwas höher oder niedriger sein, weil sich diese eben aus Spannung und Strom ergibt.

Gast
2020-10-01, 23:59:43
So lange die Tester nicht kapieren, worauf es an kommt, werden die GPU-Hersteller sich nicht ändern. Und selbst wenn sie es kapieren, werden die wenigstens bereit sein, dazu zu stehen. Lieber nicht den Zorn zuziehen und von der Liste fliegen, so dass man - verspätet - im regulären Handel kaufen müsste.

Rabiata
2020-10-02, 00:39:16
Die eine holt sich keine 500W über mehrere Sekunden sondern innerhalb wenige ms.
So funktionieren nun mal alles was getaktet arbeitet. Und wenn du eine noch genauere Messung im ns Bereich machen würdest und daraus irgendeine fiktive Leistung ermitteln würdest, hättest du sogar noch höhere Spikes im kW bereich.

Diese sollten auch vollkommen egal sein, das einzige Problem sind übervorsichtige Netzteile die viel zu schnell und vollkommen unnötig abschalten, nur weil sie es können.

Ja, da gehört eigentlich noch eine zugesicherte "Kurzzeitleistung" in die Datenblätter der Netzteile, damit der User vernünftig planen kann. Auf der anderen Seite gibt es aber auch bei den Verbrauchern keine Ausrede, die Spikes zu verschweigen. Bei der 3080 zum Beispiel könnte das so aussehen:
TDP = 320W
Peak = 500W (max.10 ms)

Wenn die 500W dann nicht korrekt angegeben sind, wird Nvidia zu Recht in die Pfanne gehauen.

Leonidas
2020-10-02, 04:13:13
Ich glaube eher bei den Launch-Reviews zählt jedes Quäntchen. Die bleiben für 12-24 Monate die Referenzergebnisse in Benchmarkbalken.
Die Negativ-Artikel sind dann separat und verschwinden sobald die Patches draussen sind nach ein paar Wochen Google-Gedächtnis weil die Leute nach Review suchen und nicht nach Problems.
Ich kenne jetzt auch keine Webseite die alle Balkengraphiken mit dem Early-Patch Treiber Ergebnis ersetzt.


So ist es. 1% Performance zu Unrecht abgestaubt. Aber damit wurde der Ersteindruck gebildet - und der bleibt, trotz eventueller Korrekur-Artikel. Daher der Anreiz für die Hersteller, derart vorzugehen.

Ferenzo
2020-10-02, 07:37:49
Trotzdem ein gefährliches Spiel, Reklamationen sind stets zu vermeiden, gerade wenn schon beim Endkunden, Nvidia kann sich mit sowas im englischsprachigen Raum auch schnell mal ein paar dolle Gerichtsprozesse reinholen (ob zu Recht sei mal dahin gestellt). Im diesem Fall haben sie schnell reagiert, hoffen wir dass wird bei den folgenden Karten auch gleich beachtet.

bloodflash
2020-10-02, 10:00:29
Die eine holt sich keine 500W über mehrere Sekunden sondern innerhalb wenige ms.
So funktionieren nun mal alles was getaktet arbeitet. Und wenn du eine noch genauere Messung im ns Bereich machen würdest und daraus irgendeine fiktive Leistung ermitteln würdest, hättest du sogar noch höhere Spikes im kW bereich.

Diese sollten auch vollkommen egal sein, das einzige Problem sind übervorsichtige Netzteile die viel zu schnell und vollkommen unnötig abschalten, nur weil sie es können.



Wir reden hier von regelmässigen ms-Peaks des Gesamtsystems von über 900W (500+290+150) und von zweistelligen Sekunden andauernden Lastspitzen von über 750W (370+230+150). Selbst die TDP Dauerlast von 320+125+100+10%Netzteilverluste sind bei einem 750W-NT nicht ohne.

Ultron
2020-10-02, 15:54:28
Ich weiss schon, wieso ich in meinem ITX-System das stärkste erhältliche SFX Netzteil verbaut habe, ein Silverstone 800W, auch wenn theoretisch 500W reichen würde^^

Gast
2020-10-02, 16:13:19
Wenigstens hat Nvidia diesmal kein neues GPU-Massaker (https://www.youtube.com/watch?v=dE-YM_3YBm0&t=6m50s) verursacht. :uup: