Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5090 Review-Thread
woodsdog
2025-02-10, 16:37:58
Naja, die FE zieht 575 W und man hat noch 75 W zusätzlich über den PCIe-Port. Da ist schon Toleranz dabei. Ich glaube, dieses vom Hersteller zusammengebastelte Kabel war nicht für 600 W ausgelegt.
OK, sie zieht also 575W statt 600W, das sind 4% aka immer noch auf Kante in meiner Welt v0v
PCIe waren doch auch nur 66W da 3V und 5V ungenutzt bleiben oder nich?
MiamiNice
2025-02-10, 16:46:21
Die 5090 nimmt auch nichts aus dem Slot laut Messung. Die 575 bzw. 600 Watt kommen rein aus dem 2x6 12Volt Kabel.
Lehdro
2025-02-10, 16:47:16
Natürlich nicht. Niemals nie ein Anwenderfehler.;D
Ich sehe das spezifische Kabel + generell den Stecker als Problem an.
Das wird nun wieder bis zum Sankt Nimmerleinstag ausgeschlachtet.
Ich frage mich warum das bei den Tausenden Reviewern da draußen nicht einem einzigen seit 4090 Launch passiert ist und Custom PC Hersteller kaum Fälle ohne Anwendereingriff verzeichnen? Weil die Leute einfach strunzdumm sind und für ihre eigenen Fehler, die sie nie zugeben würden nun zum 8auer und Co rennen, damit sie das ausgebadet bekommen.
Stell dir lieber die Frage warum das beim 6/8 Pin PCIe Stecker nie so ein Problem war. Da konntest du zigfache Überlast draufgeben und nix ist passiert, den konnten komischerweise auch alle korrekt einstecken. Der neue Stecker ist einfach Murks. Das NV so eisern daran festhält und dann noch so dumm mit der Thematik umgeht, zeugt nicht gerade von Größe. Lösungen für die Beibehaltung wurden u.a. von Buildzoid (Shunts pro Pin) und der8auer (mehr Stecker) schon skizziert, aber außer Ergebniskosmetik (Sensepins einkürzen) ist nichts passiert.
x-force
2025-02-10, 16:47:32
es geht um 12,5a pro pin, oder?
weiß jemand wie sich das teil schimpft, dann könnte man einfach in die specs gucken.
The_Invisible
2025-02-10, 16:47:39
Das nennt man dann Pfusch. Zumindest wenn man eine OC 5090 dranhängt.
Nein, wenn der Netzteilhersteller das so spezifiziert geht das auch so, siehe Corsair: https://www.corsair.com/de/de/explorer/diy-builder/power-supply-units/native-12v-2x6-vs-8-pin-to-12v-2x6-what-is-the-difference/
"Aber 8-Pin-PCI-e ist auf 150 W begrenzt?"
Es ist ein weit verbreiteter Irrglaube, dass ALLE 8-poligen Steckverbinder auf 150 W begrenzt sind - das ist nicht wahr. Zunächst müssen wir zwischen zwei Steckern unterscheiden:
CORSAIR Type 4/5 8-pin PSU connector - Dies ist der 8-polige Anschluss, den Sie an Ihr Netzteil anschließen. Dieser Anschluss kann über 300W liefern.
PCI-e 6+2-Pin-Anschluss - Dies ist der 8-Pin-Anschluss, den Sie in Ihre Grafikkarte oder den Adapter, der mit Ihren Karten der RTX-Serie geliefert wurde, einstecken würden. Die PCI-e-Spezifikationen haben diesen Anschluss auf eine Leistung von 150 W festgelegt. In Wirklichkeit kann er viel mehr verkraften, aber aufgrund von Abweichungen bei der Qualität der Stromversorgung und der Kabelhersteller und der verwendeten Materialien sind die Grafikkartenhersteller darauf beschränkt, nur 150 W pro Anschluss zu ziehen.
Das ist auch der Grund, warum Sie eine GPU, die zwei PCI-e 6+2-Anschlüsse benötigt, sicher mit einem einzigen CORSAIR Type 4/5-Anschluss versorgen können, da der Anschluss auf der Netzteilseite mehr als 300 W liefern kann und jeder der PCI-e 6+2-Anschlüsse nur jeweils bis zu 150 W zieht.
MiamiNice
2025-02-10, 16:55:06
Dannke The_Invisible :up:
Prinzenrolle
2025-02-10, 16:58:26
Aber sicherlich waren die 10 Cent für eine 2. Strombuchse nicht mehr in NV Budget :wink:
Mal angenommen es erwischt bei den DAUS bei 20 000 Karten eine, dann hat die Einsparung schon gelohnt. Wegen solchen Deppen wieder 3 oder 4 Stecker anzustöpseln? Nein bitte im Leben nicht. Die sollen einen Grafikkartenführerschein machen, oder eine AMD kaufen.
Das ist der erste Fall weltweit der bekannt wurde, oder? Da trifft es ja mehr 8Pin Stecker in dem timeframe.
Exxtreme
2025-02-10, 16:58:44
Die 5090 nimmt auch nichts aus dem Slot laut Messung. Die 575 bzw. 600 Watt kommen rein aus dem 2x6 12Volt Kabel.
Es gibt OC-Modelle mit 666 Watt. :devil: Die werden dann zumindest 66 W aus dem PCIe-Slot ziehen. Damit wäre man echt an der Kante genäht was die Spec angeht bei 666 Watt. Aber ich will hier nicht den Teufel an die Wand malen.
Prinzenrolle
2025-02-10, 17:01:25
Damit wäre man echt an der Kante genäht was die Spec angeht bei 666 Watt. Aber ich will hier nicht den Teufel an die Wand malen.
Was interessiert die Spec? Da kannste auch 1000W drüberjagen.
Bei Modelleisenbahnen wird noch mehr über kleinere Querschnitte gejagt.
Die Radeon R9 295x hatte das doppelte über die 8Pins gejagt, hat auch keinen gejuckt.
Ich sehe das spezifische Kabel + generell den Stecker als Problem an.
Arbeite bei einem größeren Custom PC Hersteller.
Alles was an verkokelten 4090 zu uns zurückkam waren nachträgliche Umbauten, Costum Kabel, CM Adapter, abgesteckt und nicht komplett eingesteckt. Säuberlich fein mit Fotos vor dem Versand, bei RMA und dem erneuten Rausschicken dokumentiert.
Der Stecker ist insofern das Problem, dass die Wahrscheinlichkeit eines Defekts bei falscher Handhabung und den immer noch sich in Umlauf befindenden CM Adaptern steigt. Dafür deutlich weniger Kabelsalat bietet.
Sofern das alte Zeug vom Markt ist, sollte das Thema erledigt sein.
Aber bei allem was man hier sehen kann ist das eine Verkettung mehrerer Umstände die den Defekt ausgelöst haben. Das muss man erst einmal Zustande bringen.
Stell dir lieber die Frage warum das beim 6/8 Pin PCIe Stecker nie so ein Problem war.
Die sind durchaus in ähnlichem Ausmaß betroffen wie der 12VHPWR oder überarbeitete 12V2x6, abzüglich der anfänglichen Qualitätsmängel.
Das ist das gleiche in Grün.
Da konntest du zigfache Überlast draufgeben und nix ist passiert, den konnten komischerweise auch alle korrekt einstecken.
Kannst du auch heute in einem gewissen Rahmen betreiben.
Wir haben schon bis zu 100W drübergejagt, rein aus Interesse. Da passiert gar nichts.
Das NV so eisern daran festhält und dann noch so dumm mit der Thematik umgeht, zeugt nicht gerade von Größe.
Völlig richtig was Nvidia macht. Das Mimimi irgendwelcher DAUs sollte man komplett ignorieren.
Sardaukar.nsn
2025-02-10, 17:18:32
Warum hat das Kabel mit 2x 8 Pin 600 Watt?
https://www.corsair.com/de/de/p/pc-components-accessories/cp-8920284/600w-pcie-5-0-12v-2x6-type-4-psu-power-cable-cp-8920284
Auf der Seite vom Netzteil hat der 8 Pin Stecker ja 300 Watt. Das typische Y-Kabel führt dann zu zwei mal 150W 8 bzw 6+2 Pin an der GPU.
Badesalz
2025-02-10, 17:29:38
Jup, sind es. Und ich halte die für dieses Anwendungsszenario immer noch für die falsche Wahl.der8auer hat zu dem Müll doch auch mal ein Video gemacht. Und da eine Szene aus FarCry gehabt.
"2x" ändert überhaupt nichts daran. Egal wie oft man Hundekaka multipliziert, es wird keine Erdbeere draus.
Exxtreme
2025-02-10, 18:36:40
Was interessiert die Spec? Da kannste auch 1000W drüberjagen.
Ähhhh ... das interessiert spätestens dann wenn einer die Bude abfackelt und es rauskommt, dass das Produkt werksseitig weit ausserhalb der Spezifikation betrieben wird. Dann ist es sehr wahrscheinlich, dass zumindest der Grafikkartenhersteller haften wird.
hq-hq
2025-02-10, 23:01:02
selbst wenn die 4090 >500Watt an 4x8Pin vom Netzteil nimmt, beim PCIe bleibt es bei 14-15Watt
wird bei der 5090 auch so sein
ich würde nur "Markenkabel" verwenden, wer weiss welche Raziol verölten
Prototypenpins diese kleinen Kabelschmieden am Markt zusammenkaufen und
der Übergangswiderstand brät dir dann einen
https://www.reddit.com/r/sffpc/comments/17r6jg5/any_idea_what_couldve_caused_my_cablemod_pcie/?tl=de&rdt=59335
Prinzenrolle
2025-02-11, 09:53:22
Ähhhh ... das interessiert spätestens dann wenn einer die Bude abfackelt und es rauskommt, dass das Produkt werksseitig weit ausserhalb der Spezifikation betrieben wird.
Wie soll dir bei Nylon da etwas abfackeln? Der Rechner schaltet halt ab.:confused:
ich würde nur "Markenkabel" verwenden, wer weiss welche Raziol verölten
Prototypenpins diese kleinen Kabelschmieden am Markt zusammenkaufen und
der Übergangswiderstand brät dir dann einen
Da wäre eine Materialanalyse interessant. Gerade so kleine Läden haben hohen wirtschaftlichen Druck ihr Kabel gewinnbringend an den Mann zu bringen.
dargo
2025-02-11, 11:54:43
Schmelzende Stecker reloaded.
puQ3ayJKWds
sun-man
2025-02-11, 12:20:12
140°C an den Kabeln. Glückwunsch.
fondness
2025-02-11, 12:21:28
LOL, wird Nvidia jetzt wirklich ähnlich arrogant wie Intel damals? Hochmut kommt ja bekanntlich vor dem Fall...
MiamiNice
2025-02-11, 12:34:52
Ob das nun noch immer günstiger wird, als einen 2. Stecker zu verbauen?
Armaq
2025-02-11, 12:37:21
Kann man auf keinen Fall kaufen. Da muss der PC ja direkt in einer Fire Chamber stehen.
Prinzenrolle
2025-02-11, 12:40:52
Schmelzende Stecker reloaded.
Wird ein Fest für die AMDler.
Eine Karte, wie er auch im Einspieler sagt. Wow.
Aber die Temperaturen, das geht ja gar nicht am Netzteil. OMG. Nvidia hat verkackt.
Lehdro
2025-02-11, 13:09:18
Wird ein Fest für die AMDler.
Das finde ich aber als NV Nutzer seit der Riva TNT2 auch festlich :)
Die Chance dass die 6090 eine vernünftige Lösung erhält, steigt mit jedem weiteren Vorfall.
140°C an den Kabeln. Glückwunsch.
Das ist komplett Batshit insane wie man so schön sagt.
Aber schön dass nach dem Video mit "Anwenderfehler" und "hurr durrr Kabel" aufgeräumt ist. Was bleibt da noch?
Völlig richtig was Nvidia macht. Das Mimimi irgendwelcher DAUs sollte man komplett ignorieren.
Achja.
mironicus
2025-02-11, 13:11:40
Hier ist ein Bericht über die RTX 5090, der mein persönliches Interesse geweckt hat. Ein Nutzer hat ComfyUI und das KI-Modell Flux zur Bildgenerierung installiert und dabei für mich relevante Informationen geliefert, wie lange die GPU zur Generierung eines Bildes benötigt. Der Speicherverbrauch deutet darauf hin, dass Flux nur 22 GB VRAM benötigt und somit offenbar für eine 24 GB-Karte wie die RTX 4090 optimiert ist.
Die RTX 5090 berechnet das Beispielbild mit der Auflösung 1024x1024 in 12 Sekunden.
Meine RTX 4090 braucht bei dem gleichen Setting 17 Sekunden (Stromverbrauch maximal 375 Watt). Bei 60% Powertarget dauert es 18,75 Sekunden.
WgWeDxJUoD0
Prinzenrolle
2025-02-11, 13:15:27
Aber schön dass nach dem Video mit "Anwenderfehler" und "hurr durrr Kabel" aufgeräumt ist. Was bleibt da noch?
Ein Anwenderfehler ist das garantiert nicht, wenn das Netzteil auf 150 Grad hochgeht. Der 8auer hat alles sauber angeschlossen.
Das ist Pfusch am Werk. Entweder bei der FE oder dem Netzteil, sehr wahrscheinlich bei der FE.
Können die Reviewer jetzt alle mal nachtesten, bin gespannt.
soLofox
2025-02-11, 13:27:12
LOL, wird Nvidia jetzt wirklich ähnlich arrogant wie Intel damals?
Sind sie doch schon lange.
Das darf alles nicht mehr wahr sein mit dem 12VHPWR Stecker.
Wer ihn nicht richtig einsteckt, OK, Anwenderfehler. Aber hier geht es wirklich offensichtlich um eine Fehlkonstruktion.
Warum gab es nie solche Probleme mit PCIe Steckern? Bis auf Anwenderfehler, versteht sich.
Da ist wohl dringend ein 12VHPWR-V2 nötig.
mironicus
2025-02-11, 13:39:59
Der Stecker hätte einfach auf 300 Watt limitiert werden sollen.
soLofox
2025-02-11, 13:52:03
Der Stecker hätte einfach auf 300 Watt limitiert werden sollen.
Dann sollen sie 2 oder 4 Adern zusätzlich dran bauen. Keine Ahnung, bin nicht im Thema drin.
Aber man kauft für tausende Euro eine Grafikkarte und muss sich mit so einem Mist rum ärgern. Darf doch nicht wahr sein.
Lehdro
2025-02-11, 13:54:19
Dann sollen sie 2 oder 4 Adern zusätzlich dran bauen. Keine Ahnung, bin nicht im Thema drin.
Dann langweilen sich nur noch mehr Adern, während die beiden anderen hart schuftenden rot vor Ärger werden :cool:
MiamiNice
2025-02-11, 14:02:48
Witzig was es für Unterschiede gibt. Scheinbar hat es was mit den diversen NT Herstellern zu tun und natürlich der ungleichen Lastverteilung der FE Karten. Es gibt auch User die mit einer FE gemessen haben und auf andere (normale) Werte als der Bauer kommen.
https://www.reddit.com/r/nvidia/comments/1imvxk3/12vhpwr_on_rtx_5090_is_extremely_concerning/
Weiterhin gibt es einen Test vom ersten Vorfall dieser Art mit der 4090 und diversen NT Herstellern:
https://www.hwcooling.net/en/12vhpwr-cable-thermal-imaging-different-psu-different-temps/
Scheinbar stecken nicht alle Netzteile so eine hohe Last gut weg. Negativbeispiele wären BQuiet, Asus, MSI, Coolermaster und Corsair. Also gerade die Marken die die meisten User kaufen. Ich sag ja immer kauft FSP oder Seasonic ;)
Matrix316
2025-02-11, 14:03:01
Dann langweilen sich nur noch mehr Adern, während die beiden anderen hart schuftenden rot vor Ärger werden :cool:
Ja ist das nicht dann eigentlich eher ein Problem vom Netzteil, wenn das auf zwei bis drei Leitungen deutlich mehr Ampere liefert als auf den anderen? Ist der 12V Stecker auf Netzteilseite falsch implementiert? Oder zieht die Grafikkarte die Leistung unterschiedlich? Kann ja eigentlich nicht sein, wenn die auf dieser zusammenläuft. Das müsste ja vom Netzteil kommen, oder?
MiamiNice
2025-02-11, 14:05:01
]Ja ist das nicht dann eigentlich eher ein Problem vom Netzteil, wenn das auf zwei bis drei Leitungen deutlich mehr Ampere liefert als auf den anderen?[/B] Ist der 12V Stecker auf Netzteilseite falsch implementiert? Oder zieht die Grafikkarte die Leistung unterschiedlich? Kann ja eigentlich nicht sein, wenn die auf dieser zusammenläuft. Das müsste ja vom Netzteil kommen, oder?
Nein GPU Problem.
Evil Ash
2025-02-11, 14:08:28
Das AX1600i, welches er (der8auer) nutzt, ist doch auch kein ATX3-Netzteil, oder? Und das Kabel, welches er benutzt ... das ist direkt von Corsair? Oder auch ein Mod-Kabel?
Das Original-Kabel sieht doch so aus:
https://www.corsair.com/de/de/p/pc-components-accessories/CP-8920284/600w-pcie-5-0-12v-2x6-type-4-psu-power-cable-cp-8920284
Seins doch ganz anders?
Prinzenrolle
2025-02-11, 14:10:06
Witzig was es für Unterschiede gibt. Scheinbar hat es was mit den diversen NT Herstellern zu tun und natürlich der ungleichen Lastverteilung der FE Karten. Es gibt auch User die mit einer FE gemessen haben und auf andere (normale) Werte als der Bauer kommen.
Nein, es muss natürlich primär an dem doofen Stecker liegen.
Eine andere Fehlerquelle darf niemals in Frage kommen.:rolleyes:
Exxtreme
2025-02-11, 14:14:50
Scheinbar stecken nicht alle Netzteile so eine hohe Last gut weg. Negativbeispiele wären BQuiet, Asus, MSI, Coolermaster und Corsair. Also gerade die Marken die die meisten User kaufen. Ich sag ja immer kauft FSP oder Seasonic ;)
Die 70° C stecken diese Stecker problemlos weg. Die sind glaub bis zu 200° C spezifiziert.
MiamiNice
2025-02-11, 14:19:27
Die 70° C stecken diese Stecker problemlos weg. Die sind glaub bis zu 200° C spezifiziert.
Sicherlich. Aber findest Du Unterschiede von über 20° normal bei identischer Last? Mir kommt das zumindest komisch vor. Schau Dir auch mal die Wire Isolation Werte an. Diese Hersteller verbauen scheinbar günstige (sprich dünnere) Kabel und sind daher, IMO, generell zu meiden.
An der Karte, und am Netzteil sind alle Pins verbunden. D.h. ungleiche Lastverteilung liegt 100% am Kabel/Stecker.
Wenn die Pins einzeln verbunden waeren, könnte man mithilfe von Elektronik die Lastentnahme pro Kabel theoretisch steuern, sowohl auf Netzteilseite, als auch Grakaseite.
Auf Netzteilseite kann/wird das nicht passieren, denn man bräuchte individuelle Schaltregler pro Kabelader um die Spannungen dynamisch leicht anzupassen, vollkommen absurd bei der Anzahl an Pins, die ein Netzteil raushauen muss. Das wäre wohl ein 2000 Euro+ Netzteil.
Also: wenn, dann müsste es auf Grakaseite passieren.
Defacto wird diese Lösung wohl generell nicht verwendet werden, sondern maximal individuelle Überwachung von einzelnen Pins. Again, auf Netzteilseite deutlich weniger sinnvoll, denn nur die Graka weiß, wie viel sie pro Pin ziehen zollte. Das Netzteil stellt nur zur Verfügung.
Demnach: Fehlerquelle immer auf Seite der Graka, imo.
Lehdro
2025-02-11, 14:29:13
Scheinbar stecken nicht alle Netzteile so eine hohe Last gut weg. Negativbeispiele wären BQuiet, Asus, MSI, Coolermaster und Corsair. Also gerade die Marken die die meisten User kaufen. Ich sag ja immer kauft FSP oder Seasonic ;)
Rate mal wer für Corsair (als Beispiel) die Netzteile produziert. Kommst du nie drauf. :freak:
Ja ist das nicht dann eigentlich eher ein Problem vom Netzteil, wenn das auf zwei bis drei Leitungen deutlich mehr Ampere liefert als auf den anderen? Ist der 12V Stecker auf Netzteilseite falsch implementiert? Oder zieht die Grafikkarte die Leistung unterschiedlich? Kann ja eigentlich nicht sein, wenn die auf dieser zusammenläuft. Das müsste ja vom Netzteil kommen, oder?
Wenn die Karte halt spezifisch den einen Strang leersaugt, was soll das NT dann machen? Regulieren kann es nur die Spannung und bei zu viel Stromstärke komplett abschalten, denn die einzeln Pins misst das NT nicht durch, nur die ganze "Dose". Und selbst wenn das NT pro Pin die Stromstärke misst: Toll, dann geht der PC aus und alle sind genauso schlau wie zuvor.
Nein, es muss natürlich primär an dem doofen Stecker liegen.
Am Stecker kann es liegen, denn dass das Ding dumm konzipiert ist sollte mittlerweile feststehen.
Eine andere Fehlerquelle darf niemals in Frage kommen.:rolleyes:
Kann auch die spezifische Anbindung der Buchse auf dem PCB bei der FE sein. Also nach dem Stecker, aber auf der FE.
Da es bei zwei verschiedenen Netzteilen (Asus/Corsair) aber gleichermaßen auftritt, aber immer mit einer FE, lässt einen dann doch aufhorchen.
why_me
2025-02-11, 14:53:25
Man muss auch bedenken, das beim Bauer der Aufbau offen auf dem Tisch ist und nicht in einem Gehäuse, das durch die fast 600W aufgeheizt wurde. Die Hitze kommt ja noch zusätzlich oben drauf bei normaler Verwendung der Karte.
Was auch interessant ist, bei der Reddit karte ist der Pin nahe am PCB geschmolzen. Das könnte auf einen höheren Widerstand bei den äußeren Pins hindeuten. Wäre interessant, zu wissen, welche Pins beim Bauer heiß wurden.
Maorga
2025-02-11, 14:54:27
@Lehdro
Auf der Grafikkarte sind alle Pins zusammengefasst, direkt nach der Kupplung. Die Grafikkarte zieht daher nicht aus einem PIN (Leitung) den Strom.
Für mich sieht es eher aus, als würde das NT das Problem erzeugen, dort scheint wohl die Temperatur äußerst hoch zu sein. Leider benutzt 8auer keine Referenzpunkte, daher sind die Temperaturangaben der Wärmebildkamera nichts mehr als eine schlechte Schätzung.
Er könnte sicherlich mal die Niederohmigkeit seiner Leitungen testen. Dann würde sich sicherstellen lassen, dass es eben nicht an dem Zwischenstecker vom NT zur GPU liegt.
Nun habe ich es doch gewagt, nach dem Zwischenstecker zu suchen und mir ein Datenblatt zu holen. Ja, was sage ich da nur....
https://www.corsair.com/de/de/p/pc-components-accessories/CP-8920284/600w-pcie-5-0-12v-2x6-type-4-psu-power-cable-cp-8920284#tab-techspecs
Techspecs gibt es keine.
Ich gehe stark davon aus, dass netzteilseitig der Übergangswiderstand zu hoch ist, daher ist dieser Stecker deutlich wärmer in der Kamera als an der GPU.
Allerdings sollte man noch einige Messungen machen, Gehäusetemperatur des PSU und der GPU. Allerdings gehe ich davon aus, dass hier keine hohe Temperatur angliegt, die GPU ist ja Wassergekühlt und das PSU wird nicht wirklich gefordert.
Dural
2025-02-11, 15:00:54
Auch der Stecker an der Karte würde mit LuKü wohl locker an die 100°C kommen. Die Wakü kühlt die ganze Karte merklich ab.
Aber ja schon sehr komischer fall. 20A auf einem Kabel und auf einem anderen 2A obwohl beide auf den gleichen Kontakt intern gehen. Sehr werkwürdig, muss ein Problem beim NT sein.
fondness
2025-02-11, 15:02:25
Die 70° C stecken diese Stecker problemlos weg. Die sind glaub bis zu 200° C spezifiziert.
Das Plastikteil soll für 200°C spezifiziert sein? :ugly: Never.
why_me
2025-02-11, 15:06:59
Aber ja schon sehr komischer fall. 20A auf einem Kabel und auf einem anderen 2A obwohl beide auf den gleichen Kontakt intern gehen. Sehr werkwürdig, muss ein Problem beim NT sein.
Da bin ich jetzt aber auf eine Erklärung gespannt, warum es am Netzteil liegen MUSS.
Exxtreme
2025-02-11, 15:07:13
Das Plastikteil soll für 200°C spezifiziert sein? :ugly: Never.
Ja, das scheint nicht zu stimmen. :freak: Bei Molex findet man Betriebstemperaturen so um die 125° C. Aber selbst davon sind die 70° C weit entfernt.
Virtual
2025-02-11, 15:07:26
Leute, Leute! Worüber regt ihr euch denn eigentlich auf?
MFG (Multi Flame Generation) ist DAS neue Feature der 5090 FE ... and it just works.
Prinzenrolle
2025-02-11, 15:07:38
Kann auch die spezifische Anbindung der Buchse auf dem PCB bei der FE sein. Also nach dem Stecker, aber auf der FE.
Die FE waren wohl mit der heißen Nadel gestrickt? Möglich.
Der 8auer scheint ja extrem viel zur Aufklärung seiner komischen Messungen beizutragen. Im Video findet man, ach, genau keinen Ausschlussversuch.
So ein Zufall aber auch. Wohl keine Netzteile und Kabel da. Passiert.:biggrin:
Am Stecker kann es liegen, denn dass das Ding dumm konzipiert ist sollte mittlerweile feststehen.
Ach echt? Wer ist da die Instanz um so etwas zu behaupten?
Jetzt werden 600W dauerhaft über den Stecker gejagt und er wird keine 50 Grad warm. Da werden ja die alten Stecker wärmer.:tongue:
fondness
2025-02-11, 15:08:54
Ja, das scheint nicht zu stimmen. :freak: Bei Molex findet man Betriebstemperaturen so um die 125° C. Aber selbst davon sind die 70° C weit entfernt.
Hab nur das hier gefunden:
"The maximum operating temperature is around 105C for 168 hours."
https://www.titancomputers.com/The-End-of-12VHPWR-s/1281.htm
Aber da gehts wohl um den Nachfolger, bei 12VHPWR scheint das nicht so genau spezifiziert zu sein. :ugly:
Dural
2025-02-11, 15:11:31
Weil es dort deutlich wärmer wird, und man weiss das die 6-Pin Phasen des Kabel in der Karte auf einen Kontakt gehen.
Ich kenne mich bei diesem NT zu wenig aus, aber ich würde das mal mit Corsair abklären. Und auch das 12 Pin Kabel würde ich mal tauschen, wäre eigentlich das einfachste und schnellste um was auszuschliessen. Zb mit 8-Pin Kabel und der 12-Pin Adapter der mitgeliefert wird.
Grafikkarte kann man wohl fast zu 100% Ausschliessen.
Holundermann
2025-02-11, 15:27:22
Die FE waren wohl mit der heißen Nadel gestrickt? Möglich.
Der 8auer scheint ja extrem viel zur Aufklärung seiner komischen Messungen beizutragen. Im Video findet man, ach, genau keinen Ausschlussversuch.
So ein Zufall aber auch. Wohl keine Netzteile und Kabel da. Passiert.:biggrin:
Ach echt? Wer ist da die Instanz um so etwas zu behaupten?
Jetzt werden 600W dauerhaft über den Stecker gejagt und er wird keine 50 Grad warm. Da werden ja die alten Stecker wärmer.:tongue:
Um das gehts doch eigentlich gar nicht. Es wurde ein Standardisiertes Markennetzteil verwendet mit einem Standardisierten Stecker. Beides war ordnungsgemäss montiert - also muss ein sicherer Betrieb mit der Karte gewährleistet sein, 24/7. Es kann nicht sein dass hier die Kabel ausserhalb ihrer Spezifikation betrieben werden - wer auch immer da jetzt schuld ist - die Hersteller müssen zur Verantwortung gezogen werden. Vielleicht sind die Qualitätsmängel Nvidia durchaus bekannt und die Verknappung hat auch mit der Qualität zu tun um evtl. Probleme noch aus dem Weg räumen zu können bis die Karten dann in der Masse verfügbar werden. Und jeder der jetzt zu Scalper Preisen kauft darf sich bedanken und mit Einsatz von Haus + leben Beta tester spielen.
Ich hab mich echt gefreut auf die Karte, aber das ist wirklich unwürdig seitens NVidia. Wenn die nur nicht so geile Software machen würden - auf diese Hardware könnte ich wirklich verzichten.
DrFreaK666
2025-02-11, 16:08:46
... and it just works.
it just melts ^^
Cubitus
2025-02-11, 16:09:51
Multi-Flame-Generation :D
MiamiNice
2025-02-11, 16:12:08
Rate mal wer für Corsair (als Beispiel) die Netzteile produziert. Kommst du nie drauf. :freak:
Ich weiß das, werde auch nie müde das in Kaufberatungsthreads zu NTs zu erwähnen. Aber wenn Dir der Vorgang bekannt ist, weißt Du auch, dass Seasonic nicht nur die Teile baut, sondern auch die Designs erstellt. Den Käufern der Designs ist dann die Bauteil Bestückung und die Kabelqualität überlassen. Die Netzteile sind daher nicht identisch, was die Messungen auch (eindrucksvoll) beweisen.
€: Mit der Messung in der Hand und dem Wissen, dass fast alle Netzteile aus der selben Fabrik und Hersteller kommen, kann man durchaus Rückschlüsse ziehen. Gerade wenn man noch auf die Preise der Netzteile schaut. BeQuiet, Corsair, Asus und Co. verkaufen zu hohen Preisen, sparen aber am Material. FSP und Seasonic tun das nicht und sind preislich auf dem selben Niveau + 2 Jahre Garantie mehr (12 statt 10 Jahre).
Lehdro
2025-02-11, 16:14:29
Computerbase hat dasselbe Problem, allerdings nicht in der Ausprägung: (https://www.computerbase.de/news/grafikkarten/geforce-rtx-5090-fe-schmelzende-stecker-in-folge-fehlender-lastverteilung.91361/)
ComputerBase hat das Verhalten selbst mit einer GeForce RTX 5090 FE an einem Asus ROG Thor 1200W Platinum II Netzteil überprüft, das den 12V-2×6-Anschluss am Netzteil auf zwei PCIe-Sockel aufteilt – das Kabel ist ein offizielles Asus-Zubehör.
Auch in diesem Fall ist zwar eine unterschiedliche Last je Kabel festzustellen, allerdings sind die Unterschiede deutlich geringer und kein einzelnes Kabel erreicht annähernd 20 Ampere. Minimal werden im Test bei ComputerBase auf einem Kabel 5,3 Ampere gemessen, maximal auf einem anderen 10,6 Ampere. Die übrigens Kabel liegen mit 6,1, 7,4, 7,7 und 10,0 Ampere dazwischen.
Die Lastverteilung ist auch hier eine Katastrophe.
Edit:
Hier von HWLuxx mit Seasonic Netzteil (https://x.com/aschilling/status/1889311313135841697):
Auch 10A auf einem Pin. Außerhalb der Spezifikation.
https://pbs.twimg.com/media/GjgudoeWEAAHlOC?format=png&name=medium
Ich weiß das, werde auch nie müde das in Kaufberatungsthreads zu NTs zu erwähnen. Aber wenn Dir der Vorgang bekannt ist, weißt Du auch, dass Seasonic nicht nur die Teile baut, sondern auch die Designs erstellt. Den Käufern der Designs ist dann die Bauteil Bestückung und die Kabelqualität überlassen. Die Netzteile sind daher nicht identisch, was die Messungen auch (eindrucksvoll) beweisen.
€: Mit der Messung in der Hand und dem Wissen, dass fast alle Netzteile aus der selben Fabrik und Hersteller kommen, kann man durchaus Rückschlüsse ziehen. Gerade wenn man noch auf die Preise der Netzteile schaut. BeQuiet, Corsair, Asus und Co. verkaufen zu hohen Preisen, sparen aber am Material. FSP und Seasonic tun das nicht und sind preislich auf dem selben Niveau + 2 Jahre Garantie mehr (12 statt 10 Jahre).
Mag sein, aber es gibt durchaus einige Netzteile die Seasonic Qualität haben oder gar übertreffen. Gerade die Highend Corsair Netzteile sind, wie mehrere Tests bescheinigen, mehr als solide. Also so einfach wie mit deiner Aussage "Seasonic/FSP gut, Rest scheiße" ist es beileibe nicht. Selbst Seasonic und FSP haben "Budgetlinien" oder gar technisch fragwürdige Konstrukte. Jonnyguru (RIP) hatte dazu schon einiges geschrieben.
The_Invisible
2025-02-11, 16:45:36
Ja ist das nicht dann eigentlich eher ein Problem vom Netzteil, wenn das auf zwei bis drei Leitungen deutlich mehr Ampere liefert als auf den anderen? Ist der 12V Stecker auf Netzteilseite falsch implementiert? Oder zieht die Grafikkarte die Leistung unterschiedlich? Kann ja eigentlich nicht sein, wenn die auf dieser zusammenläuft. Das müsste ja vom Netzteil kommen, oder?
der8auer hatte schon die 5080 Astral im Test mit einzelnen Pin Sensing vom Stecker, da war alles ziemlich gleichmäßig verteilt und da hatte er das gleiche Netzteil.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91481&stc=1&d=1739288821
x-force
2025-02-11, 16:52:10
igor hatte zu der problematik schon zu 4090 zeiten einen interessanten artikel.
wenig beachtet sind offenbar die toleranzen, welche den widerstand erheblich erhöhen können.
https://www.igorslab.de/langzeituntersuchung-schmorender-kontakte-an-nvidias-geforce-rtx-4090-neue-erkenntnisse-messungen-und-bekannte-ursachen/
fondness
2025-02-11, 17:04:16
Computerbase hat dasselbe Problem, allerdings nicht in der Ausprägung: (https://www.computerbase.de/news/grafikkarten/geforce-rtx-5090-fe-schmelzende-stecker-in-folge-fehlender-lastverteilung.91361/)
Die Lastverteilung ist auch hier eine Katastrophe.
Edit:
Hier von HWLuxx mit Seasonic Netzteil (https://x.com/aschilling/status/1889311313135841697):
Auch 10A auf einem Pin. Außerhalb der Spezifikation.
https://pbs.twimg.com/media/GjgudoeWEAAHlOC?format=png&name=medium
Dann darf man sich ja nicht wundern wenn es grillt.
Relex
2025-02-11, 17:08:19
Ich bekomme gerade nicht in meinem Kopf, wie man seit 30+ Jahren funktionierende Platinen und modernste Siliziumchips bauen kann, aber es dann nicht hinbekommt, nen fucking Stromstecker sicher zu spezifizieren. Jeder Elektrotechniker kann sagen, dass das ein scheiß design ist.
Ich fasse es nicht.
Wie kann es sein, dass sowas überhaupt in der EU verkauft werden darf? Wahrscheinlich weil selbstbau und dann volle Verantwortung beim User?
Wo sind hier die Sammelklagen?
Nvidia sollte den ganzen Bums einfach ASAP überarbeiten und kostenfrei ersetzen.
Das kann doch echt nicht wahr sein.
Sorry, aber dass der scheiß jetzt schon WIEDER passiert macht mich einfach nur fassungslos.
The_Invisible
2025-02-11, 17:13:39
Computerbase hat dasselbe Problem, allerdings nicht in der Ausprägung: (https://www.computerbase.de/news/grafikkarten/geforce-rtx-5090-fe-schmelzende-stecker-in-folge-fehlender-lastverteilung.91361/)
Die Lastverteilung ist auch hier eine Katastrophe.
Edit:
Hier von HWLuxx mit Seasonic Netzteil (https://x.com/aschilling/status/1889311313135841697):
Auch 10A auf einem Pin. Außerhalb der Spezifikation.
https://pbs.twimg.com/media/GjgudoeWEAAHlOC?format=png&name=medium
Mag sein, aber es gibt durchaus einige Netzteile die Seasonic Qualität haben oder gar übertreffen. Gerade die Highend Corsair Netzteile sind, wie mehrere Tests bescheinigen, mehr als solide. Also so einfach wie mit deiner Aussage "Seasonic/FSP gut, Rest scheiße" ist es beileibe nicht. Selbst Seasonic und FSP haben "Budgetlinien" oder gar technisch fragwürdige Konstrukte. Jonnyguru (RIP) hatte dazu schon einiges geschrieben.
Bei der Gigabyte scheints ja gut verteilt, lieber um die FE einen Bogen machen.
@Relex
Check ich auch nicht, genauso wie bei Lüftern und Spulenfiepen, scheint man jede Gen neu zu erfinden
Iscaran
2025-02-11, 17:19:34
Ich fasse es nicht - >3.000 € überhypte Grafikkarte und dann hat man ein paar mikrocent an einem Bauteil/Chip für die Steuerung der Lastverteilung gespart oder was?
So ein megafail war zuletzt bei den abrauchenden GPUs dank Treiberfehler (auch nVidia).
https://www.computerbase.de/news/grafikkarten/geforce-rtx-5090-fe-schmelzende-stecker-in-folge-fehlender-lastverteilung.91361/
Cubitus
2025-02-11, 17:28:04
BeQuiet, Corsair, Asus und Co. verkaufen zu hohen Preisen, sparen aber am Material. FSP und Seasonic tun das nicht und sind preislich auf dem selben Niveau + 2 Jahre Garantie mehr (12 statt 10 Jahre).
Absolut richtig, genauso sieht es aus!
fondness
2025-02-11, 17:32:56
Naja gut, die Netzteilhersteller können nichts dafür, dass die Specs verletzt werden.
basix
2025-02-11, 17:37:12
der8auer hatte schon die 5080 Astral im Test mit einzelnen Pin Sensing vom Stecker, da war alles ziemlich gleichmäßig verteilt und da hatte er das gleiche Netzteil.
Genau so sollte Load Balancing auch gemacht werden. Insbesondere, wenn man ans Limit des Steckers geht.
Ohne Check gewinnt einfach der Pin, der die geringste Impedanz aufweist und/oder vom Netzteil her am meisten hergibt.
20A sind >4x mehr als zulässig, was die Erwärmung angeht, da I2R. Logisch wird das ziemlich warm, wenn das Kabel und der Stecker für nur 9A rated sind.
readonly
2025-02-11, 17:44:58
Verstehe eh nicht, warum man nicht mal endlich höhere Spannungen nimmt, um im System den Strom besser zu übertragen. Gäbe dann nicht so hohe Ströme und damit so hohe Temperaturen. 600 Watt mit 12V Steckern ist, naja
Buildzoid Antwort auf b8auers vid mit der Erklärung warum die Kabel abfackeln (werden): https://www.youtube.com/watch?v=kb5YzMoVQyw
yoa, nVidia hat gespart - und seiner Theorie nach den 12VHPWR connector ins Leben gerufen, um sich nicht mehr ums balancing kümmern zu müssen. Glaube ich nicht direkt, denn es wäre idiotisch, habe schon erwähnt, warum das balancing auf Grakaseite erfolgen muss.
Aber ja, ordentlicher Fail. Der größte Fail war es, diesen connector ins Leben zu rufen, mit solch dünner Marge von 600W, obwohl ihnen ja damals schon hätte klar sein müssen, in welche Richtung die Leistungsaufnahme ihrer Produkte gehen wird.
Mir ist letztens auf 'ner 3090 auch ein Pin abgeraucht. Aber das ohne katastrophale Auswirkungen, denn die Karte hat sich einfach abgeschaltet, wohl durch zu viel Spannungsdifferenz zwischen den 3 shunts. Jahrelanger Betrieb, selbst ohne Ein- und Ausstecken, oxidiert und altert die Stecker, die Verbindung wird immer schlechter. Vor allem, wenn das Ding sich jedes Mal auf 90 Grad aufheizt. Da wird in Zukunft viel zu schmoren anfangen. Wenn der Rechner nicht mit dir im Zimmer ist, dann herzlichen Glückwunsch. Kann schon der Vorhang brennen, wenn endlich der PC abschaltet.
Angiesan
2025-02-11, 17:57:34
Das kommt mir alles bekannt vor:wink:
Die unten angehängten Bilder sind von dem Kabelbrand mit meiner ersten 4090 von KFA², einem Seasonic NT jedoch gebaut für NZXT mit 850 Watt und einem Kabel von Kabelmod für genau diese NTs.
Das ganze lief gut 1 Jahr lang mit dem hässlichen Adapter der der Karte beilag und 4 PCIe Kabel vom NT problemlos, sowohl auf NT wie Graka Seite.
Nach dem Umbau nur noch 2 Kabel von NT hat es dann keinen Monat gedauert bis der Totalschaden an Graka, NT und Kabel entstanden ist.
Also auch wenn die PCIe Steckdosen an den Seasonic NT und wohl auch anderen namhaften Netzteilen für 300 Watt ausgelegt sind, muss das auch der Stecker sein den man da reinsteckt. Am NT waren beide Stecker so sehr eingebrannt, dass ich den einen überhaupt nicht und den anderen nur mit viel Gewalt ausstecken konnte.
Als Ersatz habe ich mir dann eine Gigabyte AERO besorgt und ein Seasonic 1000W Vertrex mit nativem 12VPHWR das jetzt seit etwas über einem Jahr ohne Probleme läuft.
Ich werde auf alle Fälle nicht mehr so einen Müll von Drittanbietern verbauen. Die 2 Stränge Kabel halte ich auch für problematisch.
MiamiNice
2025-02-11, 18:05:14
Das hier sollte wirklich jeder sehen:
kb5YzMoVQyw
fondness
2025-02-11, 18:06:31
Zum Glück hat AMD den Schrott nicht übernommen.
The_Invisible
2025-02-11, 18:06:34
@Angiesan
Naja cablemod, nach deren Desaster mit den winkelsteckern würde ich mir die nicht erwähnen trauen :D
Ich hab da lieber die 2x 8pin Stecker als 2x den filigranen hpwr.
basix
2025-02-11, 18:16:04
Naja, das beschriebene Problem liegt ja nicht unbedingt am Stecker an sich, sondern am nicht existierenden Load Balancing und Current Sensing. Hat man sowas wie bei der Astral (oder auch nur 3x 2 pins) kann die Karte zumindest feststellen, dass was nicht stimmt. In diesem Fall könnte die Karte z.B. den 3D-Modus verweigern und dem Nutzer ein Problem mitteilen (via App und besser noch zusätzlich rote Anzeige-LEDs auf der Karte).
Das Current Sensing finde ich da wichtiger als das Load Balancing. Damit kann man mehr erreichen und eben die Karte aktiv vor Schaden bewahren (via SW entsprechend die Karte abschalten oder drosseln, z.B. auf 300W) sowie dem Nutzer eine Info geben, was nicht stimmt.
Load Balancing wäre zusätzlich noch ideal aber wenn man die Pins separat überwacht, werden zumindest die schlimmsten Fehler vermieden.
MiamiNice
2025-02-11, 18:17:53
Zum Glück hat AMD den Schrott nicht übernommen.
Es tut mir leid aber Du hast das Problem scheinbar nicht verstanden. Das Problem ist nicht das Kabel oder die Buchsen. Das Problem ist, dass die Karte kein Load Balancing mehr durchführt, weil NV an Bauteilen für ein paar Cent sparen will. Wären auf den Karten, wie damals, 3 oder besser 6 Shunts, wäre das alles gar nicht so schlecht. Es sieht ja schon besser aus und spart Platz. Es ist, mal wieder, die Gier von Lederjacke die diese Probleme bereitet.
fondness
2025-02-11, 18:21:06
Es tut mir leid aber Du hast das Problem scheinbar nicht verstanden. Das Problem ist nicht das Kabel oder die Buchsen. Das Problem ist, dass die Karte kein Load Balancing mehr durchführt, weil NV an Bauteilen für ein paar Cent sparen will. Wären auf den Karten, wie damals, 3 oder besser 6 Shunts, wäre das alles gar nicht so schlecht. Es sieht ja schon besser aus und spart Platz. Es ist, mal wieder, die Gier von Lederjacke die diese Probleme bereitet.
Mit "den Schrott" habe ich ja nicht nur den Stecker gemeint, sondern die Kombination.
Aber ja wenn ich für sowas 3000 EUR hinblättern würde, würde ich mir ordentlich verarscht vorkommen.
basix
2025-02-11, 18:25:27
Ist einfach sehr übel, dass das bei einem so teueren Produkt wie der 5090 passiert.
Aus irgendeinem Grund wollte Nvidia ab Lovelace die 12V Power-Plane zusammenfassen. Anstatt 3x Planes hat man nur noch 1x. Das ist elektrisch gesehen schon nicht schlecht, führt aber zum Umstand, dass man eben kein Load Balancing mehr machen kann (nur noch Unstimmigkeiten erkennen). Aber selbst das Erkennen ist in Nvidias Referenzdesign nicht vorgesehen.
Langlay
2025-02-11, 18:31:14
Die einzige Lösung als User ist halt das du endweder ein Kabel selber baust wo jede Ader mit 10A abgesichert ist. Oder irgendein kommerzieller Anbieter bietet ne kleine Platine an die du zwischen Graka und Stecker steckst wo halt jeder Pin mit 10A SMD Sicherungen angesichert ist. Dann zerfickt es dir halt das Kabel/Adapater aber der Rest überlebt unbeschadet.
fondness
2025-02-11, 18:36:35
Die einzige Lösung als User ist halt das du endweder ein Kabel selber baust wo jede Ader mit 10A abgesichert ist. Oder irgendein kommerzieller Anbieter bietet ne kleine Platine an die du zwischen Graka und Stecker steckst wo halt jeder Pin mit 10A SMD Sicherungen angesichert ist. Dann zerfickt es dir halt das Kabel/Adapater aber der Rest überlebt unbeschadet.
Was nützt dir das wenn dann ständig die Sicherung durchbrennt? :D
Langlay
2025-02-11, 18:41:08
Was nützt dir das wenn dann ständig die Sicherung durchbrennt? :D
Naja du kannst halt nur Schaden verhindern. Im Kabelfall könntest natürlich einfach Sockel für die kleinen KFZ Sicherungen einlöten, die könnteste dann ja wechseln. Aber imo sollte es nicht der Normalzustand sein, dass der Stecker regelmässig über die Specs kommt und es ist ja auch nicht jeder betroffen.
Matrix316
2025-02-11, 18:41:48
Die Lösung wäre gewesen die alten 8 Pin Stecker zu behalten und einfach 4 Stück zu verbauen, wenn man unbedingt 600 Watt durchjagen will.
Oder die Grafikkarten so zu machen, dass sie nur max. 450 Watt verbrauchen.
fondness
2025-02-11, 18:42:18
Naja du kannst halt nur Schaden verhindern. Im Kabelfall könntest natürlich einfach Sockel für die kleinen KFZ Sicherungen einlöten, die könnteste dann ja wechseln. Aber imo sollte es nicht der Normalzustand sein, dass der Stecker regelmässig über die Specs kommt und es ist ja auch nicht jeder betroffen.
Sowohl bei CB als auch bei HWLuxx ist man über den Specs, beim 8auer sogar sehr deutlich. Referenzdesigns innerhalb der Specs anywhere? :ugly:
Angiesan
2025-02-11, 18:42:27
Naja, das beschriebene Problem liegt ja nicht unbedingt am Stecker an sich, sondern am nicht existierenden Load Balancing und Current Sensing. Hat man sowas wie bei der Astral (oder auch nur 3x 2 pins) kann die Karte zumindest feststellen, dass was nicht stimmt. In diesem Fall könnte die Karte z.B. den 3D-Modus verweigern und dem Nutzer ein Problem mitteilen (via App und besser noch zusätzlich rote Anzeige-LEDs auf der Karte).
Das Current Sensing finde ich da wichtiger als das Load Balancing. Damit kann man mehr erreichen und eben die Karte aktiv vor Schaden bewahren (via SW entsprechend die Karte abschalten oder drosseln, z.B. auf 300W) sowie dem Nutzer eine Info geben, was nicht stimmt.
Ich kann jetzt nicht sagen ob das, dass Gleiche ist, aber die AREO hat eine LED die einem mitteilt, wenn der Stecker nicht richtig sitzt. Ob da auch überprüft wird ob die einzelnen Leitungen liefern, kann ich nicht sagen, dass ist öffentlich nicht dokumentiert, ich denke aber eher nicht.
Ich finde es aber nach dem ich mir das Video angesehen habe, extrem bedenklich. Man hat ja überhaupt keine Möglichkeit das zu überprüfen ob da die Last auf allen Leitungen verteilt wird oder ob einige nach längerer Benutzung nicht schon Kontaktschwierigkeiten haben. Bei 575/600 Watt ist das natürlich noch mal eine andere Hausnummer wie bei 450 Watt, trotzdem reichen die eben auch schon aus. Hmm gleich mal das Thermometer auspacken und draufhalten und morgen aus der Firma die Thermokamera mitnehmen um nachzumessen, interessiert mich jetzt.
Langlay
2025-02-11, 18:45:40
Die Lösung wäre gewesen die alten 8 Pin Stecker zu behalten und einfach 4 Stück zu verbauen, wenn man unbedingt 600 Watt durchjagen will.
Hilft dem User halt nicht. Ich persönlich finde den alten 8 Pin insgesamt auch geiler. Aber der 12VHPWR an sich ist ja nicht schlecht, aber man hätte es vielleicht bei 5-6A pro Pin gut sein lassen und dann halt lieber 2x 12VHPWR statt 1x.
Weil eins muss sich sagen im meinem SFF Case ist der 12VHRWR schon eigentlich ganz angenehm. Und da meine Karte selten 300W oder mehr sieht macht ich mir da auch nicht die Sorgen um meine Karte.
Exxtreme
2025-02-11, 18:49:42
Laut Roman werden die verschiedenen Leitungen auf der Platine komplett zusammengefasst in +12V und Masse. Das bedeutet, das kann man nicht per Treiber oder BIOS fixen. Das ist ein Konstruktionsfehler und muss in Hardware repariert werden. Das wird wohl Geld kosten und das bedeutet wiederum normales Leder statt Krokodilleder.
The_Invisible
2025-02-11, 19:06:10
Die Lösung wäre gewesen die alten 8 Pin Stecker zu behalten und einfach 4 Stück zu verbauen, wenn man unbedingt 600 Watt durchjagen will.
Oder die Grafikkarten so zu machen, dass sie nur max. 450 Watt verbrauchen.
Der 12vhpwr passt schon, das load balancing ist Ars**. Hätte man von den 6x 12v pins je 2 zu einem eigenen shunt zusammengefasst würde es schon passen.
Hakim
2025-02-11, 19:06:46
Ich finde das Tool von Asus sehr gut. Jede Pin Ader wird gemessen und angezeigt und hoffentlich bei zu starker Belastung einzelner Adern eine Warnung ausgegeben. Sollte man evt bei so teuren Karte zu Pflicht machen.
Angiesan
2025-02-11, 19:09:06
Laut Roman werden die verschiedenen Leitungen auf der Platine komplett zusammengefasst in +12V und Masse. Das bedeutet, das kann man nicht per Treiber oder BIOS fixen. Das ist ein Konstruktionsfehler und muss in Hardware repariert werden. Das wird wohl Geld kosten und das bedeutet wiederum normales Leder statt Krokodilleder.
Haha als ob, da was kommen würde.
Das Teil funktioniert solange es keine äußeren Faktoren gibt. Korrosion ist hier nicht eingeplant und Passungsabweichungen auch nicht. Am Ende wird das wenn es wirklich hochkocht eine Frage wer daran Schuld trägt, Nvidia, der NT Hersteller, der Zulieferer des Kabels oder vielleicht der User weil er nicht genug gelüftet hat und der Stressschweiß vom Zocken sich auf den Steckern ablagert:freak::biggrin:.
Da passiert überhaupt nichts, außer eine Empfehlung: Tauschen sie regelmäßig ihr Kabel um Korrosion und damit weitern Schäden vorzubeugen, reinigen sie vorsichtig die Pins ihrer Karte und Ihres Netzteils. Die kommende Generation hat dann vergoldete Pins und vergoldete Buchsen, damit ist das Problem dann weitgehend behoben.
Man hört ja aktuell auch nicht mehr so viel über die 4090, es scheint also zumindest noch nicht ein großes Problem zu sein, ein ungutes Gefühl bleibt trotzdem, ich hatte es schon verdrängt:redface:
Relex
2025-02-11, 19:09:59
Ich finde das Tool von Asus sehr gut. Jede Pin Ader wird gemessen und angezeigt und hoffentlich bei zu starker Belastung einzelner Adern eine Warnung ausgegeben. Sollte man evt bei so teuren Karte zu Pflicht machen.
Nur dass diese ganzen Hersteller tools mit ihren RGB Modulen und den ständigen Sensor Abfragen dir die Frametimes verhageln.
CompuJoe
2025-02-11, 19:17:06
Das könnte zu einer Renaissance der Multirail Netzteile führen, da bekommt man dann zwangsweiße ein balancing am Ausgang des Netzteils. Wenn alles zusammengefasst wird nimmt der Strom sich den Weg des geringsten Widerstandes.
Ich werde aber um die FE einen Bogen machen und warte auf infos wie andere Karten aufgebaut sind.
Hakim
2025-02-11, 19:22:35
Nur dass diese ganzen Hersteller tools mit ihren RGB Modulen und den ständigen Sensor Abfragen dir die Frametimes verhageln.
Vielleicht ja in den Treiber integrieren, muss ja nichts aufwendiges sein wo jeder Leitung aufwendig einzeln im Treiber UI anzeigt wird, nur das ein Sensor auf die gleichmäßige Verteilung prüft und bei Unregelmäßigkeit eine Warnung ausgibt.
basix
2025-02-11, 19:35:47
Ich kann jetzt nicht sagen ob das, dass Gleiche ist, aber die AREO hat eine LED die einem mitteilt, wenn der Stecker nicht richtig sitzt. Ob da auch überprüft wird ob die einzelnen Leitungen liefern, kann ich nicht sagen, dass ist öffentlich nicht dokumentiert, ich denke aber eher nicht.
FrüherTM war es so, dass man für jeden 6/8p PCIe Stecker eine LED auf der Karte hatte und rot geleuchtet hat, wenn der Stecker nicht eingesteckt war. Einzelne Leitungen werden mit sehr hoher Wahrscheinlichkeit nicht überprüft werden aber pro Stecker vermutlich schon. Und das ist/war auch ausreichend (siehe buildzoids Video) und bei ~300W max. Leistungsaufnahme auch deutlich entschärft. Mit neu 450W oder gar 575W ist das Problem natürlich deutlich grösser geworden. Dazu ist 1x einzelner schlecht sitzender 12VHPWR Stecker schlimmer als wenn man 1x von 2x/3x 6/8p Stecker schlecht eingesetzt hat.
Bei 12VHPWR Stecker kann man das ja immer noch gleich machen mit den LEDs, halt auf einzelne oder paarweise Pins bezogen.
Sowohl bei CB als auch bei HWLuxx ist man über den Specs, beim 8auer sogar sehr deutlich. Referenzdesigns innerhalb der Specs anywhere? :ugly:
Hier ist noch interessant, dass das erneute Einstecken der Stecker bei HWLuxx das Problem deutlich entschärft haben. Sind immer noch >8A auf 2x Pins aber irgendwo alle bei 7...8A. Wie bereits vorhin gesagt: Ist der Übergangswiderstand bei einigen Adern schlechter, fliesst dort deutlich weniger Strom. Und dort wo er gering ist halt mehr (paradox: Bester Widerstand = Grösstes Problem ;)).
Ich finde das Tool von Asus sehr gut. Jede Pin Ader wird gemessen und angezeigt und hoffentlich bei zu starker Belastung einzelner Adern eine Warnung ausgegeben. Sollte man evt bei so teuren Karte zu Pflicht machen.
+1
Nur dass diese ganzen Hersteller tools mit ihren RGB Modulen und den ständigen Sensor Abfragen dir die Frametimes verhageln.
Vielleicht ja in den Treiber integrieren, muss ja nichts aufwendiges sein wo jeder Leitung aufwendig einzeln im Treiber UI anzeigt wird, nur das ein Sensor auf die gleichmäßige Verteilung prüft und bei Unregelmäßigkeit eine Warnung ausgibt.
Kann man hoffentlich abschalten. Die Sensorabfragen müssen primär auf der Karte passieren und so Sachen wie "Notabschaltungen" / 3D-Modus verweigern direkt via GPU-FW / Monitoring realisiert werden und nicht via Windows-App. Auch nicht vom Treiber. Der Treiber oder irgendeine App kann noch Zusatzinformationen anzeigen und liefern, den Schutz- und Monitoringmechnismus sollte die Karte aber eigenständig machen. Man kann nicht davon ausgehen, dass man die Asus-App installiert oder der Treiber diese Funktion unterstützt. Dazu noch die Sicherheits- und Realtime Anforderungen solch eines Mechanismuses. Stürzt der PC ab und die Karte zieht plötzlich Saft wie Sau, muss die Karte das von selbst regeln können.
Aber wie Exxtreme richtig sagt: Kann nur in HW gefixt werden. Die Astral könnte mit einem FW-Update auskommen. Und evtl. hat ASUS bereits einen Schutzmechanismus eingebaut. Man müsste bei der Astral mal einen der Kabel-Pins stutzen und testen ;)
Prinzipiell kann das selbe Problem aber auch auf der GND-Seite passieren, nicht nur auf der 12V Seite.
Catrovacer
2025-02-11, 19:49:33
Beziehen sich die Berichte bisher ausschließlich auf die FE oder haben auch bereits Custom Designs Probleme gemacht?
Exxtreme
2025-02-11, 19:54:29
Bisher nur die FE. Das scheint ein grundsätzlicher Konstruktionsfehler zu sein.
Catrovacer
2025-02-11, 20:02:26
Danke für die Info. Dann hoffe ich, dass die Custom Designs verschont bleiben. Für alle Besitzer und auch mich selbst demnächst ...
crux2005
2025-02-11, 20:23:31
Das hier sollte wirklich jeder sehen:
https://youtu.be/kb5YzMoVQyw
Bei einer 2000 USD Graka.
https://i.imgur.com/CqPHPR7.jpeg
Skinner
2025-02-11, 20:27:32
Schaue gerade das Video vom Bauer.
Bin echt sprachlos was Nvidia da mit der FE 5090 angestellt hat. Das schreit ja Förmlich nach einer Rückrufaktion.
Relex
2025-02-11, 20:32:11
Wenn das Teil nicht zurückgerufen wird, fall ich vom glauben ab. Alles andere wäre in der Situation unvorstellbar.
woodsdog
2025-02-11, 20:41:14
yoah... mal schauen wie die Preise in den nächsten 1-2 Tagen entwickeln xD
https://preisvergleich.heise.de/nvidia-geforce-rtx-5090-founders-edition-a3381601.html
crux2005
2025-02-11, 20:49:52
Nein, es muss natürlich primär an dem doofen Stecker liegen.
Eine andere Fehlerquelle darf niemals in Frage kommen.:rolleyes:
Es könnte daran liegen wie die Buchse am Ende mit dem PCB Verbunden ist.
MiamiNice
2025-02-11, 20:52:13
Es liegt am Stecker der 5090 FE, weil die 2x6 Pin am Ende nur durch 2 Leitungen mit dem PCB Verbunden sind.
Das scheint mir also eine echte Failkonstruktion zu sein. :eek:
Wie kann es am Stecker liegen, wenn es daran liegt, dass auf dem PCB die vielen Leitungen in 2 Leitungen münden?
Du musst Dich schon entscheiden :D
The_Invisible
2025-02-11, 20:53:30
yoah... mal schauen wie die Preise in den nächsten 1-2 Tagen entwickeln xD
https://preisvergleich.heise.de/nvidia-geforce-rtx-5090-founders-edition-a3381601.html
Ja klar noch bei einem Scalper überteuert kaufen wo man als Drittkäufer mit großer Wahrscheinlichkeit auch noch Probleme mit der Garantie bekommt WinWin :freak:
woodsdog
2025-02-11, 20:57:33
Ja klar noch bei einem Scalper überteuert kaufen wo man als Drittkäufer mit großer Wahrscheinlichkeit auch noch Probleme mit der Garantie bekommt WinWin :freak:
Wenn ich die Dinger hier liegen hätte würde ich sofort 700-1000 Eur abziehen und den Shit im Firesale abstossen. Die FE verliert gerade massiv an Beliebtheit, Customs abseits der Astral stehen mit nem großen Fragezeichen am Spielfeldrand.
Kakarot
2025-02-11, 20:59:18
Da stellt sich die geringe Verfügbarkeit am Ende noch als Segen für potenzielle Kunden heraus, die (zum Glück) keine 5090 bekommen haben.
][immy
2025-02-11, 21:12:17
Die Lösung wäre gewesen die alten 8 Pin Stecker zu behalten und einfach 4 Stück zu verbauen, wenn man unbedingt 600 Watt durchjagen will.
Oder die Grafikkarten so zu machen, dass sie nur max. 450 Watt verbrauchen.
Naja, 4 8 pin Stecker wären nicht die Lösung. Aber dünnere Pins und höhere Leistung ist halt keine gute Lösung. Den Stecker erneuert zu nutzen, ohne echte Überarbeitung war ein großer Fehler.
Ich hoffe wirklich, das sie das bei den kleineren Karten zumindest lassen.
Hatten doch einfach ein 12 pin Stecker mit Normal großen pins machen können, dann hätten sie zumindest die gröbsten Kontaktschwierigkeiten behoben.
Eine den Anschluss in die andere Richtung zeigen lassen, statt zur Gehäusescheibe wäre eine andere Möglichkeit gewesen das zumindest ansatzweise zu minimieren.
MiamiNice
2025-02-11, 21:16:45
Ich bin absolut verwundert wie populär die FE eigentlich ist. Jedem mit ein wenig Verstand war schon auf dem ersten Blick klar, dass die Karte ein konstruktionsfail ist. Dazu ist die Karte von NV direkt, die sparen wo die nur können. Alles für die Marge, alles für die Lederjacke. Schon der Kühler sieht nach Sparmaßnahme aus, wegen weniger Material und die anderen Probleme (Hitze) waren auch auf den ersten Blick zu sehen :biggrin: Dann das mit dem PCIe, das war auch klar, sobald klar war, dass die FE Karten einen Connector auf einem anderem PCB nutzen. Jeder hat schon einmal von Riser Problemen und hohen PCIe Versionen gelesen. Das jetzt noch 50cent an Bauteilen gespart wurden und die Karten nun wieder in Flammen aufgehen, ist nur das i-Tüpfelchen.
Wobei man auch feststellen muss, dass die FE Karten nun wieder Ihrem Namen gerecht werden. Feuer Edition :ass:
Die bauen das schönste Consumer-GPU-PCB und sparen dann an so einem scheiß...
Ich hab mir gerade ne ARC770 geschossen um das erstmal auszusitzen.
crux2005
2025-02-11, 21:30:43
Bei den non-FE würde ich mir weniger sorgen machen. Non-plus-utra ist natürlich das ASUS Design. Schade das sie so viel dafür verlangen.
Die bauen das schönste Consumer-GPU-PCB und sparen dann an so einem scheiß...
Ich hab mir gerade ne ARC770 geschossen um das erstmal auszusitzen.
Was hattest du davor? Hoffe keine 4090. Edit: Sehe 3090 laut Profil.
hq-hq
2025-02-11, 21:33:52
die Lösung wären natürlich nicht mehr Pins sondern eben weniger Pins, zwei dicke PowerPins wo jeder 75Ampere kann, dann können Einzelleitungen nicht mehr überlastet werden (und dann zwei AWG6 Leitungen)
AtTheDriveIn
2025-02-11, 21:39:29
Einfach mit eigenem Netzteil liefern. 12V bei 60A sollte reichen. Schön mit RGB und armdicken Kabeln. Der KFZ Tuning Markt hat da sicher was zu bieten.
Hakim
2025-02-11, 21:43:47
Einfach mit eigenem Netzteil liefern. 12V bei 60A sollte reichen. Schön mit RGB und armdicken Kabeln. Der KFZ Tuning Markt hat da sicher was zu bieten.
Am besten so ein Externes nur für die Graka, wie damals bei einigen CF, SLI und Voodoo Karten, muss auch dann net jeder ein 1000W+ NT im Gehäuse haben :)
woodsdog
2025-02-11, 21:50:57
Ich bin absolut verwundert wie populär die FE eigentlich ist. Jedem mit ein wenig Verstand war schon auf dem ersten Blick klar, dass die Karte ein konstruktionsfail ist. Dazu ist die Karte von NV direkt, die sparen wo die nur können. Alles für die Marge, alles für die Lederjacke. Schon der Kühler sieht nach Sparmaßnahme aus, wegen weniger Material und die anderen Probleme (Hitze) waren auch auf den ersten Blick zu sehen :biggrin: Dann das mit dem PCIe, das war auch klar, sobald klar war, dass die FE Karten einen Connector auf einem anderem PCB nutzen. Jeder hat schon einmal von Riser Problemen und hohen PCIe Versionen gelesen. Das jetzt noch 50cent an Bauteilen gespart wurden und die Karten nun wieder in Flammen aufgehen, ist nur das i-Tüpfelchen.
Wobei man auch feststellen muss, dass die FE Karten nun wieder Ihrem Namen gerecht werden. Feuer Edition :ass:
stimmt halt objektiv nicht. Stromversorgung/PCIe Cable is Fail, der Kühler ist absolut spitze
Wenn man sich das Video dazu von GN anschaut erkennt man schnell das da erheblich mehr Hirnschmalz reingeflossen is als einfach nur noch mehr Heatpipes und mehr Kupfer wie bei praktisch allen Customs. *hint* 4. Lol-Lüfter Asus*hint*
Der kühlt 600W auf 2 Slots, zeig mal nen anderen Kühler abseits AIO und Custom Loop der das kann.
Hakim
2025-02-11, 21:54:23
Also ich persönlich finde die FE auch verdammt interessant, ein 2 Slot Design was soviel Abwärme verarbeiten kann. Und Optisch gefallen mir die FEs schon seit jeher, super Schlicht, LED wenn überhaupt super Dezent. Auf jeden Fall besser also sowas hier:
https://cdn.videocardz.com/1/2025/02/AORUS-RTx5090-MASTER-FAN-1200x606.jpg
ChaosTM
2025-02-11, 22:09:29
stimmt halt objektiv nicht. Stromversorgung/PCIe Cable is Fail, der Kühler ist absolut spitze
Wenn man sich das Video dazu von GN anschaut erkennt man schnell das da erheblich mehr Hirnschmalz reingeflossen is als einfach nur noch mehr Heatpipes und mehr Kupfer wie bei praktisch allen Customs. *hint* 4. Lol-Lüfter Asus*hint*
Der kühlt 600W auf 2 Slots, zeig mal nen anderen Kühler abseits AIO und Custom Loop der das kann.
Jop, die Kühlung selbst ist Top.
Bin schon gespannt, ob das bei AIB Karten auch auftritt.
Die Karte mit dem sinnlosen 4. Lüfter ist zumindest eine, die die Adern bezüglich Überspannung überprüft - lt. Roman.
dreamweaver
2025-02-11, 22:22:00
Was machen eigentlich die ganzen Miner oder AI-(Groß)Rechner mit so einem Problem?
Wie stark laufen die Karten da am Anschlag? Die sind doch dann 24/7 am laufen.
Fackeln die bald reihenweise ab?
Armaq
2025-02-11, 22:25:58
Was machen eigentlich die ganzen Miner oder AI-(Groß)Rechner mit so einem Problem?
Wie stark laufen die Karten da am Anschlag? Die sind doch dann 24/7 am laufen.
Fackeln die bald reihenweise ab?
Miner die noch ne 5090 kaufen gibt es wohl nicht mehr :)
woodsdog
2025-02-11, 22:31:52
Und selbst wenn, laufen die am Perf/W Sweetspot, welcher in der Regel weit unterhalb der TDP is
x-force
2025-02-11, 22:44:27
die Lösung wären natürlich nicht mehr Pins sondern eben weniger Pins, zwei dicke PowerPins wo jeder 75Ampere kann, dann können Einzelleitungen nicht mehr überlastet werden (und dann zwei AWG6 Leitungen)
exakt, das ist absolut lächerlich.
im rc bereich sind ströme von über 50a keine seltenheit.
die lösung heißt z.b. amass xt120 mit 60a dauer, 120a peak
https://ae01.alicdn.com/kf/H179d70ba70924f229f797675671773ebL.jpg_960x960.jpg
Exxtreme
2025-02-11, 22:58:37
Es liegt am Stecker der 5090 FE,
Nein, es liegt an der Konstruktion direkt hinter dem Stecker. Da werden dann alle 6 12 V-Leistungen zusammengeführt. Die 6 Leitungen sind parallel geschaltet und für die Grafikkarte wirkt das wie eine einzige ganz fette 12 V-Leitung. Dummerweise hat Strom die Eigenschaft, dass er den Weg des geringsten Widerstandes nimmt. Das bedeutet, haben einige dieser Leitungen einen etwas kleineren Widerstand als die anderen dann fliesst der meiste Strom über diese Leitungen. Und die anderen Leitungen werden praktisch ignoriert bzw. sehr schwach belastet. Und das führt zu der Überhitzung. Die Konstruktion funktioniert dann wenn alle Pins auf dem Netzteil und alle Leitungen und alle Pins auf der Grafikkarte ziemlich exakt gleichen Widerstand haben.
BlacKi
2025-02-11, 23:04:52
ich hab ja zuerst das 8auer video gesehen und dann den hinweis auch die shunt lösung. all das erklärt ja nicht, warum der 8auer verschiedene ampere zahlen auf den einzelnen kabeln hat. die lösung ist wohl das kabel selbst. genauer, die kabel.
jedes kabel hat einen unterschiedlichen widerstand. strom fließt nunmal aber immer den leichtesten weg entlang. vermutlich fließt deshalb fast der ganze strom über 1-2 stränge, weil die den geringsten widerstand haben.
in dem fall wäre das mit einem dicken 2 poligen kabel nicht passiert. die stecker selbst sind ja nicht schuld. die sind in dieser situation unschuldig.
@ xtreme +1
mein gott war ich langsam^^
CompuJoe
2025-02-11, 23:12:59
Allein schon der Aufbau bedingt unterschiedliche Widerstände, der kürzeste Weg hat den geringsten. Ist dann wohl auch wieder abhängig vom Netzteil, wie der Aufbau der Rails ist, im schlechtesten Fall ist es so wie im Bild unten!
mal so eben etwas bildlich hin gekleistert ^^
Lawmachine79
2025-02-11, 23:21:01
Miner die noch ne 5090 kaufen gibt es wohl nicht mehr :)
Mining ist so 2020...
Mega-Zord
2025-02-11, 23:22:59
ATX 4.0 mit 24 oder 48 Volt, dann passiert sowas auch nicht so schnell. :D
why_me
2025-02-11, 23:23:30
Die Konstruktion funktioniert dann wenn alle Pins auf dem Netzteil und alle Leitungen und alle Pins auf der Grafikkarte ziemlich exakt gleichen Widerstand haben.
Was bei der hochkanten Buchse auf der FE aber auch nicht 100% gegeben ist.
Die oberen Pins sind länger angebunden als die unteren. Wird kein riesen Unterschied sein, aber auch seinen Teil dazu beitragen.
woodsdog
2025-02-11, 23:33:37
ein einfach zu vermeidender Haufen Schiiit auf jeden Fall.
uncool das die 4090 verkauft is im Moment :redface:
crux2005
2025-02-11, 23:39:25
Nein, es liegt an der Konstruktion direkt hinter dem Stecker. Da werden dann alle 6 12 V-Leistungen zusammengeführt. Die 6 Leitungen sind parallel geschaltet und für die Grafikkarte wirkt das wie eine einzige ganz fette 12 V-Leitung. Dummerweise hat Strom die Eigenschaft, dass er den Weg des geringsten Widerstandes nimmt. Das bedeutet, haben einige dieser Leitungen einen etwas kleineren Widerstand als die anderen dann fliesst der meiste Strom über diese Leitungen. Und die anderen Leitungen werden praktisch ignoriert bzw. sehr schwach belastet. Und das führt zu der Überhitzung. Die Konstruktion funktioniert dann wenn alle Pins auf dem Netzteil und alle Leitungen und alle Pins auf der Grafikkarte ziemlich exakt gleichen Widerstand haben.
Was du schreibst ist mir klar. Habe oft das Gefühl die Leute lesen hier die Beiträge nur um darauf Antworten zu können.
basix
2025-02-11, 23:40:15
ATX 4.0 mit 24 oder 48 Volt, dann passiert sowas auch nicht so schnell. :D
Denn 12VHPWR Stecker einfach nur bis 300W freigeben und Power Monitoring der Pins erlauben. Das reicht:
- z.B. 2...6 Shunt Monitoring Lanes, Abschaltung / Drosselung der Karte falls nicht OK
- Generell geringere Belastung des Steckers
- Bei 600W (2x Stecker): Redundanz beim Stecker (beide Stecker komplett falsch eingesteckt oder schlecht verbunden ist unwahrscheinlicher als bei nur einem Stecker)
- Noch besser: Anstatt nur Shunt Monitoring auch noch Load Balancing machen
- Noch besser 2: Shunt Monitoring & Load Balancing auch bei den GND Pins. Dort wird der gleiche Strom wie bei den 12V Pins fliessen
Was ihr evtl. vergesst: 24V Power-Stages / MOSFETs werden teurer sein als 12V Power Stages (technologiebedingt). Ist jetzt die Frage: Alles teuerer machen und dafür 1000W GPUs erlauben oder einfach die GPUs auf vernünftigere Masse dimensionieren (z.B. max. 500W). Ich würde letzteres bevorzugen.
Exxtreme
2025-02-11, 23:41:48
Was bei der hochkanten Buchse auf der FE aber auch nicht 100% gegeben ist.
Die oberen Pins sind länger angebunden als die unteren. Wird kein riesen Unterschied sein, aber auch seinen Teil dazu beitragen.
Die leicht unterschiedliche Kabellänge wird nicht viel ausmachen und wahrscheinlich kaum messbar sein. Damit man sowas wie bei der8auer hinbekommt, müssen die Unterschiede beim Widerstand zwischen den einzelnen Leitungen schon sehr groß sein.
https://x.com/aschilling/status/1889311313135841697
Wenn auf einer Leitung nur ein Drittel des Stroms durchfließt wie auf einer anderen dann hat eine Leitung mehr als drei Mal so hohen Widerstand. Und solche Unterschiede sind schon erheblich.
x-force
2025-02-12, 00:18:53
Die 6 Leitungen sind parallel geschaltet und für die Grafikkarte wirkt das wie eine einzige ganz fette 12 V-Leitung. Dummerweise hat Strom die Eigenschaft, dass er den Weg des geringsten Widerstandes nimmt. Das bedeutet, haben einige dieser Leitungen einen etwas kleineren Widerstand als die anderen dann fliesst der meiste Strom über diese Leitungen.
so extrem ist es nicht. der strom verhält sich umgekehrt zum widerstand. bei zwei pins: doppelter widerstand -> doppelt strom auf dem besseren connector.
Und nun?
Eine Rückrufaktion wird es vermutlich nicht geben. Ich kann mir nicht vorstellen, dass Nvidia oder ein Hersteller einen Mangel offiziell zugeben würden.
Wenn ich mir was wünschen darf:
Ich hätte nun gerne ein 12VHPWR Kabel, in die eine Schaltung eingeschleift ist welche in der Lage ist die Leitungen einzeln zu überwachen und das Current-Balancing der Leitungen gegeneinander übernimmt. Sollte doch eigentlich möglich sein? Könnte Nvidia uns mal brav nachliefern.
...oder als Notlösung: Strom der einzelnen Adern überwachen und warnen, wenn eins der sechs Kabel 8 Ampere überschreitet oder nervig Alarm schlägt, falls ein Kabel über 10 Ampere rutscht.
Angiesan
2025-02-12, 01:14:47
Das Therma wird auch im Luxx aufgegriffen und Don hat seine Fe vermessen. Bei der ersten Messung hatte er auch 10A auf einer Leitung vermessen können, dass liegt schon leicht über dem was gesund ist und spezifiziert ist.
Auch bei CB wurde erneut gemessen und auch da war man knapp über dem Erlaubten.
Als Don dann den Stecker mehrmals korrigiert und ein und ausgesteckt hatte, war die Verteilung bei einer weiteren Messung fast perfekt. Um so etwas zu messen muss man aber natürlich das notwendige Equipment haben, und dass dürften die meisten Hobbyschrauber eben nicht haben.
Festhalten kann man, es kann Kontaktprobleme geben obwohl der Stecker auf beiden Seiten, NT und Grafikkarte richtig eingesteckt ist.
Es ist von Außen nicht ersichtlich und somit mehr oder weniger ein Glücksspiel.
Alle Karten sind davon betroffen.
Die ASUS 5090 Astral und 4090 Matrix gibt dem User zumindest die Möglichkeit die Stromstärke auf den einzelnen Pins auszulesen und somit ein Problem erkennen zu können.
Das eigentliche Problem löst aber auch die Auslesemöglichkeit nicht zumal auch die ASUS Karten nicht bei Überlastung abschalten.
Ein "besorgter Bürger" hat als Reaktion auf Romans Video die VDO auf den Fall aufmerksam gemacht, dass könnte dann schon Ärger für NV bedeuten.
horn 12
2025-02-12, 01:19:27
Somit bleibt und ist dieser von NV eingeführte und Promotete Stecker "wirklich kleiner Murks"
den man hätte komplett absichern und einfach zu schnell Releast wurde,- wie auch die Gesamte 5000-er Serie derzeit sieht man ja wo man bleibt!
dargo
2025-02-12, 08:42:19
yoah... mal schauen wie die Preise in den nächsten 1-2 Tagen entwickeln xD
https://preisvergleich.heise.de/nvidia-geforce-rtx-5090-founders-edition-a3381601.html
Lol... ebay. Sind doch alles nur Scalper die versuchen den nächsten Idioten zu finden.
][immy
2025-02-12, 08:45:04
Nun, man muss natürlich auch erwähnen, das auch Netzteile nicht so viel Leistung auf eine Leitung geben sollten.
Ggfs sollte man da auch mal Sicherungen verbauen, dann weiß man zumindest woran es liegt.
Ist natürlich inzwischen auch schwachsinnig>2000€ für eine GPU auszugeben und dann am Netzteil zu sparen. Natürlich ist es auch unsinnig was Nvidia macht, bei einem so teuren Produkt dann doch die paar Cent auf der Platine sparen zu wollen.
Das ich allgemein solche Verbrauchswerte für zu hoch halte, muss ich wohl nicht mehr erwähnen. Auf so kleiner Fläche sollte nicht so viel Leistung umgesetzt werden.
Das die Konstruktion dann auch noch die CPU mit Wärme versorgt ist dann auch noch der große Kracher. Aus GPU sucht macht das Sinn die Hitze so relativ effizient los zu werden, aber insgesamt bei heutigen Gehäusen ist das ein absoluter design fail. Alles nur um wieder ein paar Cent bei einer exorbitant teuren Karte zu sparen. Es Nvidia da abliefert ist qualitativ absolut unterirdisch. Leider kaufen es die Leute trotzdem.
Banshee18
2025-02-12, 09:32:45
Das hat nix mit Sparmaßnahmen zu tun, das ist ein neues Feature: Flamegeneration. ;D
Relex
2025-02-12, 09:42:26
Jetzt mit 4x so schneller RTX Neural Flame Generation nur mit RTX5000.
Und nein, die geschmolzenen stecker sind nur smearing artefakte. ;D
The_Invisible
2025-02-12, 09:42:31
[immy;13705028']Nun, man muss natürlich auch erwähnen, das auch Netzteile nicht so viel Leistung auf eine Leitung geben sollten.
Ggfs sollte man da auch mal Sicherungen verbauen, dann weiß man zumindest woran es liegt.
Ist natürlich inzwischen auch schwachsinnig>2000€ für eine GPU auszugeben und dann am Netzteil zu sparen. Natürlich ist es auch unsinnig was Nvidia macht, bei einem so teuren Produkt dann doch die paar Cent auf der Platine sparen zu wollen.
Das ich allgemein solche Verbrauchswerte für zu hoch halte, muss ich wohl nicht mehr erwähnen. Auf so kleiner Fläche sollte nicht so viel Leistung umgesetzt werden.
Das die Konstruktion dann auch noch die CPU mit Wärme versorgt ist dann auch noch der große Kracher. Aus GPU sucht macht das Sinn die Hitze so relativ effizient los zu werden, aber insgesamt bei heutigen Gehäusen ist das ein absoluter design fail. Alles nur um wieder ein paar Cent bei einer exorbitant teuren Karte zu sparen. Es Nvidia da abliefert ist qualitativ absolut unterirdisch. Leider kaufen es die Leute trotzdem.
Dazu müssten auch Netzteile jeden der 6 12V Pins einzeln ansteuern können, bei SingleRail wohl nicht der Fall. Ich kann bei meinem zwischen Single- und Multirail umschalten, glaub aber kaum das jeder einzelne Pin da eine Rail darstellt. Wär mal ein Test interessant.
Zephyroth
2025-02-12, 09:47:06
So, jetzt hab' auch das Video angesehen und kann nun als Elektronikentwickler was dazu beitragen.
Ich kenn' die Konnektoren, wie schon gesagt, es sind Molex MicroFit-Konnektoren. Beruflich hatte ich mit den Dingern sehr viel zu tun, da in meinen damaligen Geräten ungefähr 90% der Steckverbinder MicroFit's waren (2-20polig).
Wie's der Zufall so will, hatte ich ebenfalls das Problem, 600W (allerdings auf 24V) über so einen Stecker drüberzubringen. Und ja, das einfache Parallelschalten der Drähte funktioniert nicht. Eben wegen unterschiedlicher Kontaktwiderstände, Leitungsbruch muss berücksichtigt werden. Kurz, ich hatte 3 Wochen Entwicklungsaufwand zu betreiben, bis das Design (Konnektoren, Rail-Aufteilung, Absicherung etc.) durch die CE gepasst hat.
Die Lösung ist simpel, siehe das Design der 3090er, Aufteilung in 3 Gruppen, die einzeln überwacht werden. Da man dahinter sowieso einen Mehrphasen-VRM hat, kann man die Kabel so wunderbar ausbalancieren. Sogar ohne viel Mehraufwand.
Aber alle Drähte zusamm̀enfassen, wie beim 4090er- und 5090er-Design ist nichtfunktionaler Bullshit, gefährlich und höchst bedenklich, geschweige denn zulässig. Ob das funktioniert hängt von zuvielen Faktoren ab, die der normale User nicht beeinflussen kann. Zum einen wie gut ist die Steckverbindung (auf beiden Seiten, Graka und PSU)? Wie gut sind die Kabel gecrimpt? Wie teilt der PSU-Hersteller das ganze auf? Etc. etc. etc.
Unmöglich vorherzusagen ob dies ohne Probleme funktioniert. Und selbst wenn's funktioniert und alles in Spec ist, kommt die Alterung ins Spiel, die das so fragile Balancing wieder durcheinanderwirft.
Ne, das Design der 4090er und 5090er ist so absolut gefährlich. Für den aufgerufenen Preis eine Frechheit.
Was kann man tun? Was mein Lehrer vor 30 Jahren bei sowas sagte: "Griff dranschrauben und weit wegwerfen!"
Grüße,
Zeph
Santini
2025-02-12, 10:02:21
müsste, würde, hätte ...
warum kommt sowas überhaupt in den Handel (nur für wenige ;D)
Wenn ich einen Stecker in ein Gerät stecke kann es natürlich zum Brand kommen, aber nicht bei Default. Ich kann ja nicht dauernd gucken ob die Ampere gut verteilt sind und wenn dann was auffällig ist, wer hilft mir dann weiter?
Ist das Ding überhaupt TÜV und CE geprüft? Es wirkt eher wie ein Temu Gerät welches in einem chinesischen Hinterhof zusammen gelötet wurde.
ChaosTM
2025-02-12, 10:13:59
Was kann man tun? Was mein Lehrer vor 30 Jahren bei sowas sagte: "Griff dranschrauben und weit wegwerfen!"
Grüße,
Zeph
Das will ich dann doch nicht tun...
Die Nase offen halten und sobald es nach Plastik stinkt -> Stecker raus!
Ich werd nochmal den Furmark laufen lassen (@110%) und mit den Fingern an den Steckern "testen".
Sind die Fingerabdrücke nachher noch "lesbar" ist alles gut.
Zephyroth
2025-02-12, 10:19:33
Ist das Ding überhaupt TÜV und CE geprüft?
Das ist mehr oder weniger freiwillig. Das CE-Zeichen darf sich jeder selbst verleihen. Ob er das gut und gewissenhaft macht, wird nicht überprüft. Zu Problemen kommt's erst, wenn etwas passiert. Dann muss der Hersteller unbequeme Fragen beantworten. Und wenn man dann etwas erreichen will muss man klagen und beweisen, dass der Hersteller fahrlässig gehandelt hat.
Es wirkt eher wie ein Temu Gerät welches in einem chinesischen Hinterhof zusammen gelötet wurde.
Aus technischer Sicht ist es das auch. Ganz im Ernst. Es kann nicht gut gehen, einen Stecker schon per default komplett an die Kotzgrenze auszulegen (612W sind mit den 12pins möglich). Dabei lernt man, wenn man schon Steckkontakte parallel schaltet, dann muss man einen Sicherheitsfaktor vorsehen.
Also nicht 6x8.5A = 52A --> 612W --> Passt
sondern
6x8.5Ax0.7 = 36A --> 430W --> und mehr wäre unseriös.
Vorteil? Bei der Auslegung kann das Balancing vernachlässigt werden.
Übrigens funktionieren die 6pin (75W) & 8pin (150W) PCIe-Konnektoren genau nach dem Prinzip. Der 8pin könnte nach meiner Auslegung sogar 250W bewältigen, damit hätte ich kein Problem. Bin froh, dass meine RX7800XT 2x8Pin und nur 260W hat. Da gibt's mit Sicherheit keine Probleme.
Grüße,
Zeph
AtTheDriveIn
2025-02-12, 10:33:32
Wenn man als OEM die CE, UL CSA oder CCC Compliance bestätigt, muss man doch gewisse technische Richtlinien einhalten oder nicht? Würde mich in so einem Fall mal echt interessieren. Als Laie würde ich sagen, das weder NT noch Karte diese Compliance haben. Das ist für DIY gemacht. Wie soll ein User feststellen, dass Widerstände einzelner Connections zu groß sind und akute Brandgefahr herrscht? Erst wenn der Rauchmelder anschlägt? Die Karte springt ja normal an. Das kann niemals in Ordnung sein.
Vergleicht das hier mal, mit dem VDE Richtlinien Kram der bei Balkonkraftwerken abgezogen wurde. Und hier wird bei 600W gesagt "passt scho"?
Zephyroth
2025-02-12, 10:49:03
Wenn man als OEM die CE, UL CSA oder CCC Compliance bestätigt, muss man doch gewisse technische Richtlinien einhalten oder nicht?
Theoretisch ja. Mit den oben genannten Pickerln bestätigt der Hersteller nur, sich an die Normen zu halten. Die Krux: Er selbst bestätigt dies. Von Extern wird dies nicht überprüft.
Du als Kunde darfst dann aufstehen und sagen: "He, ich glaub' da stimmt was nicht, ich verlange Schadensersatz!" Dann passiert etwas. Oder auch nicht. Du kannst Schadensersatz verlangen, aber die Kosten für ein Gerichtsverfahren trägst erst mal du. Du musst dem Hersteller nachweisen, dass er sich fahrlässig verhalten hat.
Grüße,
Zeph
MiamiNice
2025-02-12, 11:29:24
stimmt halt objektiv nicht. Stromversorgung/PCIe Cable is Fail, der Kühler ist absolut spitze
Wenn man sich das Video dazu von GN anschaut erkennt man schnell das da erheblich mehr Hirnschmalz reingeflossen is als einfach nur noch mehr Heatpipes und mehr Kupfer wie bei praktisch allen Customs. *hint* 4. Lol-Lüfter Asus*hint*
Der kühlt 600W auf 2 Slots, zeig mal nen anderen Kühler abseits AIO und Custom Loop der das kann.
Der Kühler ist fail, weil er die heiße Luft auf CPU/Spawas/Ram bläst und eben nicht aus dem System befördert. Mit dem Wissen über 575 Watt TDP, ist das, auf den ersten Blick, untragbar. Das wurde hier im Forum diskutiert, direkt nachdem die Bilder frei gegeben wurden, maßgeblich von mir, und in anderen Foren auch. Sogar im CB Forum war man sich einig, dass die Karte ein Fail ist (lange vor Release) ;D
ChaosTM
2025-02-12, 11:31:37
Über das "einig" könnte man streiten. In einem gscheiten Gehäuse ist das kein Problem .
dargo
2025-02-12, 11:36:04
Mit Tinnitus bestimmt nicht.
ChaosTM
2025-02-12, 11:39:03
Hab ich zwar, aber der ist deutlich hochfrequenter als die Lüfter. Hilft also nix ;)
Lehdro
2025-02-12, 11:46:26
Naja, ich weiß nicht was an dem Kühler in der Praxis so toll sein soll, kann man objektiv einfach zusammenfassen:
+ Formfaktor
+ Materialeinsatz
- Kühlung (eindrucksvoll für ein 2 Slot Design, aber sonst eher meh)
- VRAM Kühlung (>90°C) mangelhaft
- Abluft geht direkt auf den CPU Kühler (extrem relevant wenn Luftkühlung genutzt wird, siehe CB)
- Lautstärke (wenn ich die Core Temps der FE in Kauf nehmen würde, wäre selbst meine Gagabyte 4090 @ 600W leiser und wir wissen doch eigentlich alle warum man den Hotspot nicht mehr sehen darf ;) )
- PCIe 5.0 / Displayout mit zusätzlichen Steckverbindungen realisiert -> Problemquelle
- das notwendige kleine PCB sorgt für sonstige Probleme: Steckerprobleme durch fehlende Shunts, Spulenfiepen und Zirpen durch Platzmangel (quasi jede non FE kann das besser)
Also nur interessant wenn man unbedingt 2 Slots haben will. Toll. Als 3 Slot Ausführung wäre die Kühlleistung besser und der Lüfter deutlich leiser.
dargo
2025-02-12, 11:49:06
Vielleicht kann sich jemand an die R9 Nano noch erinnern. Das war auch damals schon so eine dumme Entscheidung von AMD. Das Ding war klein und fein, mehr aber auch nicht. Nur waren wir damals bei 150W. :freak:
Nightspider
2025-02-12, 11:50:13
Ich sehe gerade das die GIGABYTE GeForce RTX 5090 AORUS XTREME WATERFORCE ein Power Connector Flashlight hat das anspringt bei Abnormalitäten. ^^
Die 6090 kommt dann bestimmt direkt mit Sirene oder alarmiert die Feuerwehr. ;D
fondness
2025-02-12, 11:51:39
Mit Tinnitus bestimmt nicht.
Ja, ich verstehe den Hype um den Kühler auch nicht. Das Ding ist laut und heiß. Ergo null Spielraum um eine solche Karte erträglich zu machen. Das Ziel scheint einzig und alleine gewesen zu sein so wenig Material wie möglich (= so billig wie möglich). Wäre der Kühler super leise bei 575W und/oder würde die Luft aus dem Gehäuse befördern, das wäre beeindruckend. Aber einfach nur auf Kante genäht das ganze möglichst klein zu bauen ist die völlig falsche Prio. Vom PCIe-Problem und dem "tollen" Stromstecker rede ich da noch gar nicht.
dargo
2025-02-12, 11:52:04
Die 6090 kommt dann bestimmt direkt mit Sirene oder alarmiert die Feuerwehr. ;D
Ich bin für einen automatischen Notruf bei der Feuerwehr. :D
AtTheDriveIn
2025-02-12, 11:54:34
Theoretisch ja. Mit den oben genannten Pickerln bestätigt der Hersteller nur, sich an die Normen zu halten. Die Krux: Er selbst bestätigt dies. Von Extern wird dies nicht überprüft.
Du als Kunde darfst dann aufstehen und sagen: "He, ich glaub' da stimmt was nicht, ich verlange Schadensersatz!" Dann passiert etwas. Oder auch nicht. Du kannst Schadensersatz verlangen, aber die Kosten für ein Gerichtsverfahren trägst erst mal du. Du musst dem Hersteller nachweisen, dass er sich fahrlässig verhalten hat.
Grüße,
Zeph
Das der Hersteller das macht ist mir klar. Es ist nicht das GS Siegel oder ähnliches, wo aktiv überprüft wurde, sondern nur eine Bestätigung die notwendigen Richtlinien eingehalten zu haben.
Was ich meine ist zum Beispiel, dass in der Konformitätserklärung doch sowas wie "Richtlinie 2014/35/EU" auftauchen muss oder nicht bei PC-Bauteilen? Zumindest in den Erklärungen die hier im Unternehmen von Zulieferern eintrudeln ist das so. Hab mit den Dokumenten allerdings nicht direkt zu tun, daher kann ich auf falsch liegen...
MiamiNice
2025-02-12, 11:56:07
Ich sehe gerade das die GIGABYTE GeForce RTX 5090 AORUS XTREME WATERFORCE ein Power Connector Flashlight hat das anspringt bei Abnormalitäten. ^^
Die 6090 kommt dann bestimmt direkt mit Sirene oder alarmiert die Feuerwehr. ;D
Wo siehst Du das? Zu der Karte habe ich noch gar nichts gefunden.
MiamiNice
2025-02-12, 11:57:02
Über das "einig" könnte man streiten. In einem gscheiten Gehäuse ist das kein Problem .
Nein, auch mit gescheitem (was soll das sein? Tower mit Seitenfenster und vielen LEDs?) Tower sind 600 Watt im Case ein Problem.
In jedem PC Tower sind 600 Watt Abwärme ein Problem. Vor allem wenn die Abwärme direkt in die den CPU Kühler gepustet wird XD
Dieser Kühler hätte so niemals gebaut werden dürfen, er ist fail by Design.
Santini
2025-02-12, 12:08:45
Dann braucht NV die nächste Charge der 5090 ja so nicht mehr zu produzieren.
Nightspider
2025-02-12, 12:11:21
Wo siehst Du das? Zu der Karte habe ich noch gar nichts gefunden.
Dann hast du wohl nicht den Namen bei Google eingegeben und auf den ersten Link geklickt vom Hersteller. ^^
https://www.gigabyte.com/de/Graphics-Card/GV-N5090AORUSX-WB-32GD#kf
Was hattest du davor? Hoffe keine 4090. Edit: Sehe 3090 laut Profil.
Oh doch, ne schöne 4090 FE mit Alphacool Block. Hab die frühzeitig verkauft, da ich zwischenzeitlich mal 2 Wochen vor dem Launch eh nicht daheim war und dachte "kann weg, 5090 kommt easy" :freak:
monstar-x
2025-02-12, 12:49:09
Ich hatte das auf CB schon gefragt, leider keine Antwort erhalten.
Kann Nvidia das Problem lösen ohne eine neue HW Revision?
Wenn es Stimmt und davon gehe ich aus was Der8auer sagt, dass die FoundersEdition nicht für jede Leitung ein Messung "Sense Pin" vornehmen kann, sondern nur eine für alle Kabel zusammengefasst auf den Board. Dann kann dass doch eigentlich nur per Hardware Änderung behoben werden, damit wären doch alle bisherigen 5090 FE die ausgeliefert wurden Gefährdet.
Oder etwa nicht?
Dimon
2025-02-12, 12:51:59
Oh doch, ne schöne 4090 FE mit Alphacool Block. Hab die frühzeitig verkauft, da ich zwischenzeitlich mal 2 Wochen vor dem Launch eh nicht daheim war und dachte "kann weg, 5090 kommt easy" :freak:
Mein beileid, mir gehts genauso 😁
Exxtreme
2025-02-12, 12:54:10
Ich hatte das auf CB schon gefragt, leider keine Antwort erhalten.
Kann Nvidia das Problem lösen ohne eine neue HW Revision?
Wenn es Stimmt und davon gehe ich aus was Der8auer sagt, dass die FoundersEdition nicht für jede Leitung ein Messung "Sense Pin" vornehmen kann, sondern nur eine für alle Kabel zusammengefasst auf den Board. Dann kann dass doch eigentlich nur per Hardware Änderung behoben werden, damit wären doch alle bisherigen 5090 FE die ausgeliefert wurden Gefährdet.
Oder etwa nicht?
Man wird eine neue Hardwarerevision brauchen. Oder sie liefern einen neues Adapterkabel mit, welches die Stromstärke auf den Adern misst und bei zuviel Strom abschaltet.
ChaosTM
2025-02-12, 12:57:31
Nein, auch mit gescheitem (was soll das sein? Tower mit Seitenfenster und vielen LEDs?) Tower sind 600 Watt im Case ein Problem.
In jedem PC Tower sind 600 Watt Abwärme ein Problem. Vor allem wenn die Abwärme direkt in die den CPU Kühler gepustet wird XD
Dieser Kühler hätte so niemals gebaut werden dürfen, er ist fail by Design.
Würde bei mir nur auf die AIO Pumpe blasen und von dem oben liegenden Radiator gleich mit hinaus befördert.
Im schlimmsten Fall könnte man den Radiator auch vorne montieren und 3 leise 14er die Arbeit oben übernehmen lassen und den Luftstrom umdrehen, sprich die Luft von hinten ansaugen/reinblasen. Alles kein Problem mit einem vernünftigen Gehäuse..
Mit einem Fetten Tower Kühler wirds etwas komplizierter, geht aber auch.
Die AIBs blasen auch das meiste der warmen Abluft ins Gehäuse.
woodsdog
2025-02-12, 12:59:36
Nein, auch mit gescheitem (was soll das sein? Tower mit Seitenfenster und vielen LEDs?) Tower sind 600 Watt im Case ein Problem.
In jedem PC Tower sind 600 Watt Abwärme ein Problem. Vor allem wenn die Abwärme direkt in die den CPU Kühler gepustet wird XD
Dieser Kühler hätte so niemals gebaut werden dürfen, er ist fail by Design.
Wir hatten hier im Forum bereits festgestellt das dein Schaufenster-Case eben nicht optimal ist. Deswegen ist der Kühler doch nicht fail weil es für dich nicht passt....
Versuch doch einfach mal mehr als 50cm über das was bei dir auf dem Tisch steht zu schauen, danke.
MiamiNice
2025-02-12, 13:03:13
Genau das tue ich, mir sind die 600 Watt nämlich ziemlich egal auch im Midi Tower :wink:
Wenn ihr nicht seht, dass das Teil ein kompletter fail ist, ist es eben so^^ Das ändert aber nichts an der Tatsache, das die komplette Karte und gerade der Kühler, eine komplette Fehlentwicklung ist.
woodsdog
2025-02-12, 13:32:30
Diese objektiv falsche Meinung darfst du haben. v0v
Zephyroth
2025-02-12, 13:52:22
FE....hmmm
First Experiment
Forced Evaporation
Fiery Experience
Fumes Expected
Fehlende Erfahrung
Grüße,
Zeph
Kakarot
2025-02-12, 14:15:17
Der Kühler ist fail, weil er die heiße Luft auf CPU/Spawas/Ram bläst und eben nicht aus dem System befördert.
In jedem PC Tower sind 600 Watt Abwärme ein Problem. Vor allem wenn die Abwärme direkt in die den CPU Kühler gepustet wird.
Sehe ich auch so, in jedem System, wo der AiO Radiator (Pull out Lüfter) am Gehäusedeckel montiert ist, sorgt ein 5090 FE automatisch dafür, dass jedes andere, für die Systemleistung hauptverantwortliche, Bauteil sich aufheizt und u. U. das System instabil wird. Die 5090 FE fungiert quasi als Zentralheizung.
Mit dem Radiator (Push in Lüfter) in der Gehäusefront, wird zumindest die CPU nicht mehr ganz so stark von der enormen Abwärme in Mitleidenschaft gezogen, und die heiße Luft der FE erhitzt "nur" noch RAM und den oberen Teil vom Mainboard. Dazu noch ein entsprechender Unterdruck im Gehäuse, sprich mehr Lüfter die (oben) rausziehen, als welche die (unten) reinschieben, damit warme Luft möglichst schnell abtransportiert, und durch jede Fuge kalte Luft angesogen wird. So kann man nVidias Design Fail entgegenwirken, sofern man den Kühler der FE überhaupt behalten will.
FE....hmmm
First Experiment
Forced Evaporation
Fiery Experience
Fumes Expected
Fehlende Erfahrung
Grüße,
Zeph
Vielleicht meint FE auch Fire Extinguisher (required).
Und MFG auf den FEs steht für:
Mulitple Fire Generator
Asaraki
2025-02-12, 14:23:14
FE....hmmm
First Experiment
Forced Evaporation
Fiery Experience
Fumes Expected
Fehlende Erfahrung
Grüße,
Zeph
Fucking Embarassing ;-)
Ich werde es geniessen meinen Kollegen bei nV das unter die Nase zu reiben ^^ aber von denen hat keiner was mir den Karten zu tun natürlich.
dreamweaver
2025-02-12, 14:24:45
Ich bin für einen automatischen Notruf bei der Feuerwehr. :D
Irgendeinen Sinn muss die AI Entwicklung ja haben. Die AI auf den Karten ist dann auch gleich für den Notruf zuständig.
Notruf: Hier spricht die Feuerwehr
5090: Bitte kommen Sie schnell, mein Stromanschluß glüht schon.
:freak:
monstar-x
2025-02-12, 14:24:57
Vielleicht meint FE auch Fire Extinguisher (required).
Und MFG auf den FEs steht für:
Mulitple Fire Generator
+1 ;D
Macht doch eigentlich auch Sinn, Fake Frames, Fake Stromkabel, reicht doch wenn nur in 2 Leitungen der Strom fliest, die anderen sind nur der Optikhalber da. :)
Wird immer Absurder mit der 5000er
Zephyroth
2025-02-12, 14:44:19
Erinnert mich an das hier...
"Red Light indicates slight Overload"
Grüße,
Zeph
Kakarot
2025-02-12, 14:45:35
Erinnert mich an das hier...
"Red Light indicates slight Overload"
Grüße,
Zeph
;D
das ist gut, vorallem "slight".
nVIDIA
2025-02-12, 15:13:29
Naja, ich weiß nicht was an dem Kühler in der Praxis so toll sein soll, kann man objektiv einfach zusammenfassen:
+ Formfaktor
+ Materialeinsatz
- Kühlung (eindrucksvoll für ein 2 Slot Design, aber sonst eher meh)
- VRAM Kühlung (>90°C) mangelhaft
- Abluft geht direkt auf den CPU Kühler (extrem relevant wenn Luftkühlung genutzt wird, siehe CB)
- Lautstärke (wenn ich die Core Temps der FE in Kauf nehmen würde, wäre selbst meine Gagabyte 4090 @ 600W leiser und wir wissen doch eigentlich alle warum man den Hotspot nicht mehr sehen darf ;) )
- PCIe 5.0 / Displayout mit zusätzlichen Steckverbindungen realisiert -> Problemquelle
- das notwendige kleine PCB sorgt für sonstige Probleme: Steckerprobleme durch fehlende Shunts, Spulenfiepen und Zirpen durch Platzmangel (quasi jede non FE kann das besser)
Also nur interessant wenn man unbedingt 2 Slots haben will. Toll. Als 3 Slot Ausführung wäre die Kühlleistung besser und der Lüfter deutlich leiser.
Ich wüsste nicht warum der Kühler der 5090 FE schlecht sein soll. Im Prinzip hat man einen Kühler entwickelt, der ähnlich Kühlsystemen eines Laptops entspricht. Große Vaporchamper auf der GPU, Heatpipes die nach links und rechts die Abwärme an Kühllamellen abgeben, dazu noch zwei recht große Lüfter die die Abwärme abführen.
Alle GPU´s arbeiten nach dem Schema, die Abwärme wird in das System befördert. Wer jetzt meint, dass das Design der 5090 FE schlecht ist, muss auch das an andere GPU´s übertragen.
Es sei denn es handelt sich um eine Grafikkarte mit Radiallüfter, die befördern die Abwärme nach draußen.
Ob das allerdings Sinn macht bei einer 5090 einen Radiallüfter zu verbauen bei über 500 Watt Abwärme, wage ich zu bezweifeln.
Was lernen wir daraus?
Sie gibt die Wärme genauso in das System ab, wie alle TOP Blower Kühler von GPU´s.
Davon ab, ich denke kaum das diejenigen die sich eine 5090 leisten, ein Gehäuse nutzen, in welchem kein Airflow stattfindet.
Zu den heißen Vram kann ich nur sagen: Wärmeleitpads sind mitunter das schlimmste was man heutzutage nutzen kann.
Nimm ein Putty und du hast mindestens 10° kühlere Ram´s. Ich habe schon unzählige Laptops und Grafikkarten damit ausgestattet. Putty ist Wärmeleitpads so was von überlegen.
Hakim
2025-02-12, 15:26:22
Vielleicht liege ich ja falsch, ob die 570w Abwärme direkt nach oben übertragen wird oder langsamer aufsteigt und erst mal die nähere Umgebung richtig heiß macht, mein Gefühl sagt mir das es besser wäre die heiße Luft schneller mit einem guten Airflow aus dem Gehäuse zu befördern bevor es das Gehäuse richtig aufheizt.
Lehdro
2025-02-12, 15:30:18
Ich wüsste nicht warum der Kühler der 5090 FE schlecht sein soll. Im Prinzip hat man einen Kühler entwickelt, der ähnlich Kühlsystemen eines Laptops entspricht.
Im Prinzip hat man einen Kühler entwickelt, der auf den Rest des Systems scheißt. So wie die Laptopkühlung meistens auf die Ohren der Besitzer scheißt :cool:
Sie gibt die Wärme genauso in das System ab, wie alle TOP Blower Kühler von GPU´s.
Ja. Aber die Abwärme geht halt komplett andere Wege als zuvor. Das steigert zwar die Effizienz der GPU Kühlung, geht aber zulasten aller anderen Komponenten.
Davon ab, ich denke kaum das diejenigen die sich eine 5090 leisten, ein Gehäuse nutzen, in welchem kein Airflow stattfindet.
Der Airflow bewegt sich aber nicht wie bei anderen Karten, sondern explizit auf die CPU gerichtet. Das gab es so noch nicht. Die Flowthrough Kühlung am Ende der Karte war dahingehend schon eine Verschlechterung, allerdings in deutlich geringerem Maße. Das 100% Flowthrough Design stellt da eine Hausmarke da, wie man bei CB schön sieht (https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-12). Für Leute mit AiO auf der CPU und Radiator in der Gehäusefront ist das natürlich alles vernachlässigbar - aber schon beim Thema AiO scheiden sich die Geister. Das NV hier von diesem Idealzustand für deren Kühllösung ausgehen zeigt eigentlich nur die Arroganz, bestätigt von Redaktionen die nur auf Testbenches testen und die Praxis völlig vernachlässigen.
Zu den heißen Vram kann ich nur sagen: Wärmeleitpads sind mitunter das schlimmste was man heutzutage nutzen kann.
Nimm ein Putty und du hast mindestens 10° kühlere Ram´s. Ich habe schon unzählige Laptops und Grafikkarten damit ausgestattet. Putty ist Wärmeleitpads so was von überlegen.
Ist halt absoluter Quatsch, andere Karten schaffen selbst mit lächerlich schlechten WLPs/Spaltmaßen und Designs deutlich bessere Temperaturen. Es sind auch keine großen Wärmemengen die da abtransportiert werden müssten...
Deswegen so teuer: da ist ne Kamera eingebaut und verbunden mit einem Actually Indian, welcher im Glühfall die Feuerwehr verständigt
BlacKi
2025-02-12, 23:36:33
So, jetzt hab' auch das Video angesehen und kann nun als Elektronikentwickler was dazu beitragen.
Ich kenn' die Konnektoren, wie schon gesagt, es sind Molex MicroFit-Konnektoren. Beruflich hatte ich mit den Dingern sehr viel zu tun, da in meinen damaligen Geräten ungefähr 90% der Steckverbinder MicroFit's waren (2-20polig).
Wie's der Zufall so will, hatte ich ebenfalls das Problem, 600W (allerdings auf 24V) über so einen Stecker drüberzubringen. Und ja, das einfache Parallelschalten der Drähte funktioniert nicht. Eben wegen unterschiedlicher Kontaktwiderstände, Leitungsbruch muss berücksichtigt werden. Kurz, ich hatte 3 Wochen Entwicklungsaufwand zu betreiben, bis das Design (Konnektoren, Rail-Aufteilung, Absicherung etc.) durch die CE gepasst hat.
Die Lösung ist simpel, siehe das Design der 3090er, Aufteilung in 3 Gruppen, die einzeln überwacht werden. Da man dahinter sowieso einen Mehrphasen-VRM hat, kann man die Kabel so wunderbar ausbalancieren. Sogar ohne viel Mehraufwand.
Aber alle Drähte zusamm̀enfassen, wie beim 4090er- und 5090er-Design ist nichtfunktionaler Bullshit, gefährlich und höchst bedenklich, geschweige denn zulässig. Ob das funktioniert hängt von zuvielen Faktoren ab, die der normale User nicht beeinflussen kann. Zum einen wie gut ist die Steckverbindung (auf beiden Seiten, Graka und PSU)? Wie gut sind die Kabel gecrimpt? Wie teilt der PSU-Hersteller das ganze auf? Etc. etc. etc.
Unmöglich vorherzusagen ob dies ohne Probleme funktioniert. Und selbst wenn's funktioniert und alles in Spec ist, kommt die Alterung ins Spiel, die das so fragile Balancing wieder durcheinanderwirft.
Ne, das Design der 4090er und 5090er ist so absolut gefährlich. Für den aufgerufenen Preis eine Frechheit.
Was kann man tun? Was mein Lehrer vor 30 Jahren bei sowas sagte: "Griff dranschrauben und weit wegwerfen!"
Grüße,
Zeph
bei heise in den kommentaren zur meldung hab ich noch was interessantes gefunden. wie ist das bei der masse? dort gibt es auch keine aufdröselung in shunt widerstände. ist das hier nur nicht so schlimm, weil gnd zusätzlich über pcie slot zurück kann?
könnte sich hier noch eine weitere überlastung herausstellen? das würde ja dann steckerunabhängig zum problem werden bei solchen verbräuchen, auch mit 4x 8 pin.
damit wären dann auch die custom designs betroffen.
https://www.heise.de/forum/heise-online/Kommentare/GeForce-RTX-5090-Nvidia-hat-offenbar-die-Stromversorgung-verbockt/Gibt-es-auch-Shunts-fuer-GND/posting-44908977/show/
crux2005
2025-02-13, 01:28:43
Ein weiteres 12VHPWR Kabel von MODDIY ist laut Reddit am Pin geschmolzen. Dieses mal aber an einer 4090 FE.
https://www.reddit.com/r/nvidia/comments/1inyh18/another_one/
dildo4u
2025-02-13, 06:24:53
Die Asus Karten können die einzelnen 12V Pins auslesen.
e8JG_l2F_eA
Loeschzwerg
2025-02-13, 06:49:25
Das hier fasst das Dilemma um den Stecker in meinen Augen gut zusammen:
https://www.reddit.com/r/pcmasterrace/comments/1io4a67/an_electrical_engineers_take_on_12vhpwr_and/
Es sind schlichtweg keine Reserven vorhanden. Die fehlende Möglichkeit auf Load-Balancing ist da nur das Tüpfelchen auf dem i, das wäre nur eine zusätzliche Absicherung für etwas was eh schon absolut ausgereizt wird.
ChaosTM
2025-02-13, 07:49:14
Die Asus Karten können die einzelnen 12V Pins auslesen.
https://youtu.be/e8JG_l2F_eA
Wusste das bisher nur von der Astral.
Machen sie auch was konkretes bei Überspannung wie zb. abschalten/runter regeln oder piepsen oder blinkt da nur ein Lämpchen auf der Karte. Hab das Video noch nicht gesehen.
Ok - zumindest poppt eine Meldung auf aber Load Balancing gibts nur in Verbindung mit einem ASUS Netzteil. Jeez..
Exxtreme
2025-02-13, 09:03:26
Und die nächste hat es erwischt:
https://www.reddit.com/r/nvidia/comments/1io6e39/update_heres_another_one/
Die Verkabelung ist diesmal aber sehr komisch.
crux2005
2025-02-13, 09:07:26
Und die nächste hat es erwischt:
https://www.reddit.com/r/nvidia/comments/1io6e39/update_heres_another_one/
Die Verkabelung ist diesmal aber sehr komisch.
Er hat auch ein Kabel von einem anderen Hersteller (Corsair) mit dem PSU (EVGA) verbunden gehabt.
hq-hq
2025-02-13, 10:03:08
ja die GND und 12V Pins am Netzteil müssen nicht gleich angeordnet sein, gibts leider keinen Standard
-> theoretisch dürfte 12V nicht in GND passen, die 12V sind eckig und die GND haben zwei abgeflachte Seiten ... oder? habs nie falsch probiert :-D
-> wobei die "Codierung" nicht zwingend auf GND oder 12V Pin schliessen lassen muss, man kann die beiliegenden Kabel nur nicht falsch rum einstecken oder in die falsche Buchse stecken, fremde Kabel könnten schon funktionieren
aufkrawall
2025-02-13, 10:06:00
Er hat auch ein Kabel von einem anderen Hersteller (Corsair) mit dem PSU (EVGA) verbunden gehabt.
Was stimmt mit den Leuten nicht? :eek:
Zeigt aber eindrücklich, wie man als Hersteller mit der Doofheit der Kunden rechnen muss. Aua. ;D
Prinzenrolle
2025-02-13, 10:21:23
Die Verkabelung ist diesmal aber sehr komisch.
Am Header ist allerdings nichts verschmort. Hier scheint es sich wohl im Gegensatz zu den anderen Fällen um DAU'sche Anschlussfehler zu handeln.
ChaosTM
2025-02-13, 10:24:46
Die meisten dieser Abfackelungen sind definitiv pebkac.
Ändert aber nichts daran, dass diese Stecker "suboptimal" sind.
MiamiNice
2025-02-13, 11:12:35
Gut das kein Review auf diese absolut nicht vorhersehbaren Dinge eingeht :freak:
Hayab
2025-02-13, 11:12:39
Mehr Strom, kleinere Kontaktfläche am Stecker. Designer dieses Steckers war ein Genie. XD
Mit über 20 Jahre alter Molex Stecker würde dies wahrscheinlich nicht passieren
ChaosTM
2025-02-13, 11:19:11
Gut das kein Review auf diese absolut nicht vorhersehbaren Dinge eingeht :freak:
Tun die meisten doch. Jay zb. warnt schon seit Jahren vor diesen Stecken (siehe etwas weiter oben).
Wird nur gerne verdrängt weil eh wurscht und wird bei mir schon nicht abfackeln..
aceCrasher
2025-02-13, 11:22:21
https://i.imgur.com/hcE7oEB.png
MiamiNice
2025-02-13, 11:24:07
XD
Mega gut :)
Exxtreme
2025-02-13, 11:29:59
Der Screenshot ist eindeutig Fake-News. Sowas würde Nvidia niemals veröffentlichen.
Die würden korrekterweise "Flamewell" und nicht "Blackwell" schreiben! X-D
Ich bin trotzdem gespannt, was Nvidia gegen diese Problematik machen will. Ich glaube, man wird da spezielle Adapterkabel mit Sensoren brauchen.
Hayab
2025-02-13, 11:34:48
Es sieht so aus als Stromauslastung von zwei +12V Adern zu hoch ist. GND Adern die gebrückt sind haben keine Probleme. Ich denke es ist ein Software oder Hardware Problem bei Stromversorgungselektronik der GPU.
Zusammenbrücken von mehreren +12V Netzteilschienen (Schaltnetzgeräten) würde abhelfen aber das würde auch Verlustleistung des Netzteils in Idle ansteigen lassen.
MiamiNice
2025-02-13, 11:39:41
Ich bin trotzdem gespannt, was Nvidia gegen diese Problematik machen will. Ich glaube, man wird da spezielle Adapterkabel mit Sensoren brauchen.
Was anderes können die gar nicht machen, weil sie die Karten sonst zurückrufen müssten. Ich bin gespannt was dieses Kabel kosten wird ;)
Ich tippe gar auf eine Deluxe Version mit Display und Leistungswerten, für schlanke 149€.
BlacKi
2025-02-13, 11:43:57
Es sieht so aus als Stromauslastung von zwei +12V Adern zu hoch ist. GND Adern die gebrückt sind haben keine Probleme. I denke es ist ein Software oder Hardware Problem bei Stromversorgungselektronik der GPU.
Zusammenbrücken von mehreren +12V Netzteilschienen (Schaltnetzgeräten) würde abhelfen aber das würde auch Verlustleistung des Netzteils in Idle ansteigen lassen.+12v ist auch gebrückt und hat das problem ja erst entstehen lassen, zusammen mit der erhöhung des powertargets.
das die gnd kabel nicht warm wurden bedeutet nicht automatisch, das es dort gleichmäßiger zurück fließt. da gnd auch über den pcie slot zurückfließt, könnte auch jener bereits in flammen stehen.
Was anderes können die gar nicht machen, weil sie die Karten sonst zurückrufen müssten. Ich bin gespannt was dieses Kabel kosten wird
Ich tippe gar auf eine Deluxe Version mit Display und Leistungswerten, für schlanke 149€.
die überwachung hilft überhauptnicht das problem zu beseitigen. man braucht eine steuerung. also shunt resistors im kabel?
Nightspider
2025-02-13, 11:48:17
Wie viel Strom wird da eigentlich verschwendet wenn paar Drähte auf ~100-150°C gebracht werden? ^^
Da brauchste ja selbst bei einer Wakü noch einen extra Lüfter nur für die Kabel und den Anschluss. :ugly:
Exxtreme
2025-02-13, 11:51:34
Es sieht so aus als Stromauslastung von zwei +12V Adern zu hoch ist. GND Adern die gebrückt sind haben keine Probleme. I denke es ist ein Software oder Hardware Problem bei Stromversorgungselektronik der GPU.
Zusammenbrücken von mehreren +12V Netzteilschienen (Schaltnetzgeräten) würde abhelfen aber das würde auch Verlustleistung des Netzteils in Idle ansteigen lassen.
Was ich für bedenklicher halte, ist dass bei der Messung von Andreas Schilling über eine Leitung mehr als dreimal so viel Strom fließt wie durch eine andere. Was wiederum bedeutet, dass die Differenz des ohmschen Widerstandes der einzelnen Leitungen Faktor >3 beträgt. Und da frage ich mich, wie das sein kann. Zumal das Abstecken und Wiedereinstecken das Problem behoben hat. Was wiederum eine recht schlechte Verarbeitungsqualität impliziert.
Hayab
2025-02-13, 12:03:16
+12v ist auch gebrückt und hat das problem ja erst entstehen lassen, zusammen mit der erhöhung des powertargets.
das die gnd kabel nicht warm wurden bedeutet nicht automatisch, das es dort gleichmäßiger zurück fließt. da gnd auch über den pcie slot zurückfließt, könnte auch jener bereits in flammen stehen.
...
Klar das GND Strom auch über Masse ablaufen kann aber warum sind nur zwei Adern warm (Bauers Video) und nicht alle 6 +12V Adern. Andere Option ist, dass die anderen 4 Stecker/Adern höhere Widerstandswerte haben und dadurch weniger Ampere leiten.
BlacKi
2025-02-13, 12:15:05
Klar das GND Strom auch über Masse ablaufen kann aber warum sind nur zwei Adern warm (Bauers Video) und nicht alle 6 +12V Adern. Andere Option ist, dass die anderen 4 Stecker/Adern höhere Widerstandswerte haben und dadurch weniger Ampere leiten.ich frage mich, ob die kabel auf den widerstand getestet werden. nicht nur stichprobenartig.
Angiesan
2025-02-13, 12:54:28
Ich möchte noch anmerken, dass in dem original Kabeladapter der 5090 auch die 12V Leitungen direkt im Stecker gebrückt werden. Damit geht man dem Problem aus dem Weg, solange der Stecker auf der Graka richtig sitzt, dass die Graka bzw. deren Anschluss Schaden nimmt.
Wenn dann auf der Netzteilseite Kontaktschwierigkeiten der einzelnen Phasen bestehen, was ich stark vermute, ändert das zuerst mal nichts an den schmelzenden Kabeln und Steckdosen sowie ggf. Steckern auf der NT-Seite.
Aber da NV, und das wurde hier schon gepostet, explizit die Verwendung des beiliegenden Adapters vorschreibt, dürfte denen das Problem durchaus bekannt sein. Dann kann man natürlich prima die Schuld bei den günstigen Anschlüssen und oder Kabel der NT Hersteller suchen und finden. oder bei den Zubehörkabel der 3 Party Anbietern.
MiamiNice
2025-02-13, 13:03:55
die überwachung hilft überhauptnicht das problem zu beseitigen. man braucht eine steuerung. also shunt resistors im kabel?
Doch die Überwachung könnte schon helfen. Kennst Du das Notabschalt Kabel eines Aquaero? Aus dem Aquaero kommt ein Kabel welches in einem 24 poligen ATX-Verlängerungsstecker endet (wird also zwischen Mainboard Stecker und dicken AT X Kabel geklemmt). Wenn der Aquaero meint der PC ist in Gefahr unterbricht er den Kontakt zwischen dem 4. und 6. Pin und der PC geht instant aus. Das könnte man z.b. machen.
Auch könnte man z.b. ein Kabel bauen welches die Stromstärke auf allen Leitungen misst und bei Überlastung leuchtet oder einen Ton ausgibt oder den Stromkreis unterbricht.
Ebenfalls mit Display möglich, welches die Stromnstärke aller 6 Kabel ausgibt.
Oder oder oder :)
€: Man könnte gar ein aktives Kabel, welches Load Balancing im Kabel ermöglicht, bauen.
Kriegsgeier
2025-02-13, 13:10:30
oder kein Steckverschluss sondern ein Drehverschluss mit integrierter Einrastfunktion nutzen ;)
Quasi wie die Signalleitungen bei den Oszilloskopen ;)
Sardaukar.nsn
2025-02-13, 13:24:50
Ich habe hier ein CableMod 3-in-1 von 2022 das auf Seiten des Netzteils eigentlich bis zu 900 Watt gut ist. Das Problem vom Bauer wäre damit wahrscheinlich nicht passiert.
https://i.imgur.com/NacJkM8.jpeg
https://i.imgur.com/HVkT9J5.jpeg
https://i.imgur.com/bmQJO0V.jpeg
MiamiNice
2025-02-13, 13:56:07
Doch :D
Ich glaube nicht, dass Du ganz verstanden hast, wo das Problem liegt.
Hast Du Dir das Video von diesem Buildzoid abgesehen?
Jede Leitung an dem Kabel müsste ca. 4 mm² haben, damit das Kabel nicht zu einem Problem wird, an der 5090 Fehlkonstruktion Edition.
Lawmachine79
2025-02-13, 14:36:54
Hat jetzt nur die FE das Abfackelproblem?
Lehdro
2025-02-13, 14:46:12
Hat jetzt nur die FE das Abfackelproblem?
Nein, aber bei ihr ist es am wahrscheinlichsten. Bei Customs kommt es auf die genaue Anbindung der Shunts an, wenn die aber ähnlich wie bei der FE sind, dann nimmt sich das alles nichts. Die meisten AiBs werden nur das nötigste machen und auf NV Niveau arbeiten = Problem.
Ich sehe schon bzgl. RTX 5090 Zubehör die Marketing Abteilungen heißlaufen:
12V-2x6 Basic-Series 45cm: 35,-€
12V-2x6 RGB-LED Epilepsis-Edition 45cm: 55,-€
12V-2x6 Saft-Edition (inkl. 750ml Orangensaft 100%) 45cm: 65,-€
12V-2x6 Silver-Edition 45cm: 95,-€
12V-2x6 Premium-Edition 45cm: 115,-€
12V-2x6 GoldCopper-Pro-Edition (Non-Alu Kabel) 45cm: 175,-€
12V-2x6 Gardena-Edition (wassergekühlte Kabel) 45cm: 195,-€
12V-2x6 Scalper-Edition 45cm (ganz tief hinten rein): gratis
12V-2x6 Jumper-Cable-Edition (since Nvidia likes to start shit: nur in Kokel-Schwarz erhältlich) 45cm: 417,-€
12V-2x6 Moon-Edition (nach Mitternacht unter Mondschein gekrimpte Kabel) 45cm: 666,-€
12V-2x6 GoldCopper-Ultra-Edition (händisch Leitdungswiderstands-ausbalancierte Kabel) 45cm: 1.255,-€
12V-2x6 SpaceX-flight-proven-Edition (vorgeglühte Kabel, nur in Asch-Grau erhältlich) 45cm: 1,-€
12V-2x6 Supra-Edition Magnesiumdiborid-Supraleitungs-Kabel (nur im Set mit N2-Binford 6100 erhältlich) 45cm: 1.499,-€
N2-Binford 6100 Flüssig-Stickstoff Gas-Kompressor und -Kondesator: 249.999,-€
Lawmachine79
2025-02-13, 14:48:39
Nein, aber bei ihr ist es am wahrscheinlichsten. Bei Customs kommt es auf die genaue Anbindung der Shunts an, wenn die aber ähnlich wie bei der FE sind, dann nimmt sich das alles nichts. Die meisten AiBs werden nur das nötigste machen und auf NV Niveau arbeiten = Problem.
Und Shunts sorgen nur dafür, dass die Karte abstürzt statt abfackelt?
Exxtreme
2025-02-13, 14:49:31
Hat jetzt nur die FE das Abfackelproblem?
Bei der FE ist es bekannt, dass das passieren kann. Es ist aber auch gleichzeitig so, dass deren Adapterkabel das wohl verhindern kann. Denn das führt alle 12 V-Leitungen ebenfalls zusammen. Also wenn was passiert dann fackelt das Kabel und eventuell das Netzteil ab und lässt die Grafikkarte aber ganz.
Relex
2025-02-13, 15:05:05
Was stimmt mit den Leuten nicht? :eek:
Zeigt aber eindrücklich, wie man als Hersteller mit der Doofheit der Kunden rechnen muss. Aua. ;D
Auch wenn es dumm ist, es macht nur deutlich, wie hart auf Kante die Spezifikation ist.
Normalerweise würden die Kabel bei sowas halt schlimmstenfalls warm werden.
Sollte man natürlich vermeiden. Aber dass die direkt abfackeln zeigt halt wie dumm die ganze Konstruktion ist.
Bei den alten PCI-E Steckern war 100% zusätzliche Reserve mit eingerechnet. So sollte es auch sein, bevor irgendwas ernsthaft kaputt geht. Das ist dann eben idiotensicher und robust gegen alterung und Produktionstoleranzen.
Man sollte hier nicht den Nutzern Dummheit unterstellen, wenn auf Engineering Seite das Problem direkt hätte vermieden werden können. Ich sehe die Doofheit ganz klar bei den Leuten, die die Specs gemacht haben. Solche Fälle bestätigen das nur.
Hakim
2025-02-13, 15:08:53
Gibt ja sowieso kaum zu kaufen. Einfach mal abwarten was Nvidia dazu sagt. Glaube eine Kabellösung was das Problem verhindert wäre das beste aus deren Kosten sicht, müsste man nur neues Kabel an die paar ausgelieferten Karten nach versenden. Besser als eine komplette Rückruf Aktion mit einer Platinen Anpassung, wo die Kunden sicherlich erst mal ganze Weile ohne Karte wären.
mercutio
2025-02-13, 15:20:05
Ich finde das high density Design zwar interessant, aber ich denke es ist auch sehr mutig, besonders was Haltbarkeit auf Dauer angeht. Ich glaube nicht, dass die Karten gut altern.
Abrauchende Leiterbahnen könnten ein alltägliches Szenario werden.
Naja und ein 600W-Heizlüfter im Zimmer im Sommer - kann sich ja jeder selbst ausdenken, wie das dann wird. Wenn der ganze PC beim Gaming dann ungefähr 900W Wärme erzeugt... schrecklich.
Da muss man wohl auch gleich eine Klimaanlage anschaffen, wenn nicht eh schon vorhanden.
Lehdro
2025-02-13, 15:26:50
Und Shunts sorgen nur dafür, dass die Karte abstürzt statt abfackelt?
Oder in den Limpmodus wechselt. Gemäß dem Fall dass die aber mehr tun als nur ein Popup in Windows (Hallo ASUS) auslösen.
Zephyroth
2025-02-13, 16:54:19
bei heise in den kommentaren zur meldung hab ich noch was interessantes gefunden. wie ist das bei der masse? dort gibt es auch keine aufdröselung in shunt widerstände. ist das hier nur nicht so schlimm, weil gnd zusätzlich über pcie slot zurück kann?
Ja, das ist auch ein Punkt. Ich habe der8auer direkt angeschrieben, da ich persönliches Interesse an dem Fall habe. Ich habe gesehen, dass er zwar grundsätzlich die richtigen Messungen macht, aber es fehlen noch weitere Daten.
Was ich sehe sind 2 überlastete +12V-Leitungen, während die GND-Leitungen alle kalt bleiben (aber du hast recht, auch hier kann dieses Problem auftreten). Ich vermute da steckt mehr dahinter als asymetrische Kabelwiderstände. Durch diese lassen sich nämlich die Stromaufteilungen (20A, 11A und der Rest <3A) nicht erklären. Das hätte ich in meiner Praxis (wo ich mit genau diesen MicroFit-Steckern zu tun hatte) nie erlebt. Und ja, auch ich stand vor der Aufgabe 600W (allerdings auf 24V, immerhin auch noch 25A) gleichmäßig über die Kabel zu bringen. Und zwar CE-konform und brandsicher. Ich kann zumindest soviel sagen, dass mich dieses Thema ganze 3(!) Wochen beschäftigt hat.
Ich vermute, dass es hier auch ein Problem mit der Rail-Aufteilung der Netzteile geben kann, was zu dieser starken Assymetrie führt. Aber um das sagen zu können, brauche ich mehr Daten. Ich hoffe, dass der8auer sich meldet. Darauf deutet hin, dass es keine Probleme bei den GND-Leitungen gibt, sondern nur bei den +12V-Leitungen. Diese teilt ein Netzteil nämlich in Rails auf, aber niemals GND. Als Elektronikentwickler mit 25 Jahren Praxis, gerade im Design von Stromversorgungen, Schaltnetzteilen etc. kann ich da vielleicht durchaus Licht ins Dunkel bringen.
Grüße,
Zeph
Oder in den Limpmodus wechselt. Gemäß dem Fall dass die aber mehr tun als nur ein Popup in Windows (Hallo ASUS) auslösen.
…oder den auf die RTX ausgerichteten Feuerlöscher auslösen.
Die Shunts sind nur dazu da den Strom messen zu können, der da an dieser Stelle in die Karte fließt:
https://de.m.wikipedia.org/wiki/Shunt_(Elektrotechnik)
BiG OnE
2025-02-13, 17:14:48
Diese teilt ein Netzteil nämlich in Rails auf, aber niemals GND.
Ein Single Rail Netzteil aber nicht, oder?
Zephyroth
2025-02-13, 17:27:40
Ein Single Rail Netzteil aber nicht, oder?
Es gibt so viele Möglichkeiten, ein Netzteil aufzubauen, dass man es Single-Rail nennen kann und es trotzdem nicht so tut.
Beispielsweise nehme ich einen 12V-Wandler (das ist das Single-Rail), teile aber diese 12V in mehrere Stränge an den Steckern auf. Möglicherweise mit einzelner Überwachung, oder es sorgt einfach das Layout dafür, dass solche Lastunterschiede entstrehen können. Das könnte man aber auch schon Multi-Rail nennen, obwohl nur 1 Wandler vorhanden ist.
Anders wären mehrere parallele Wandler, die dann tatsächlich von einander unabhängige Rails hätten. Und trotzdem kann man die so verschalten, dass sie tun wie ein Single-Rail.
Es gibt hier viele Möglichkeiten und niemand weis, wofür sich ein Hersteller entschieden hat. Somit sind diese Worte Single-Rail, Multi-Rail erst mal nur Marketinggeschwätz ohne Einsicht in den Schaltplan.
Grüße,
Zeph
MiamiNice
2025-02-13, 17:36:26
Und Shunts sorgen nur dafür, dass die Karte abstürzt statt abfackelt?
Oder in den Limpmodus wechselt. Gemäß dem Fall dass die aber mehr tun als nur ein Popup in Windows (Hallo ASUS) auslösen.
Die meisten User haben das Problem nicht ganz verstanden, vermutlich auch Lehdro nicht. Ich versuche es mal, wie üblich, bildlich geschrieben. Ich habe eine abgeschlossene Ausbildung als Energieanlagenelektroniker (ist allerdings ewig her und Beruf nicht ausgeübt^^).
Ein Shunt ist ein Widerstand der parallel zum Stromkreis eingebaut wird. Ein Shunt ermöglicht der GPU, den Strom zu messen, der über den Shunt läuft.
Bisher war es so, dass jeder Stromstecker (z.b. 3x 8 Pin) über einen eigenen Shunt verfügte. So kann die Karte feststellen, ob alle Kabel verbunden sind und ggf. den Dienst verweigern, falls nicht.
Jetzt muss man noch wissen, dass ein Chip, ich vereinfache deutlich, nicht nur aus einer Stromquelle gespeisst wird, sondern aus vielen Quellen. Hat jeder schon einmal gelesen in der Produktbeschreibung. Z.b. sowas wie 16 oder 18 Phasen Stromversorgung. Ein Chip wird der Reihe nach von diesen Phasen versorgt und wenn die letzte Phase durch ist, startet es wieder bei der ersten.
Bisher war es so, dass die 3 Shunts, von den 3 vers. Stromsteckern, unterschiedlichen Phasen zugeordnet waren. Z.b. Phase 1-4 Shunt 1, Phase 5-8 Shunt 2, Phase 9-12 Shunt 3. Ganz bildlich gesprochen, nicht vergessen.
Das war so gut weil:
1. die Leitungen auf die Phasen aufgeteilt waren, quasi eingebautes Load Balancing.
2. Ein 8 Pin Kabel ist nur für 150 Watt spezifiziert, kann aber locker 400 Watt führen. D.h. selbst wenn die ganzen 150 Watt durch eine Leitung des Kabels gehen, z.b. weil der Widerstand in den anderen Leitungen zu hoch ist oder einfach 2 Leitungen durchtrennt wurden, passiert da nichts.
Was hat NV geändert:
Das 12 Pin Kabel hat 6 Leitungen je + und -. Alle diese Leitungen werden auf dem Board sofort zu einer Leitung kombiniert und ein Shunt an dieser Stelle eingesetzt. Der Shunt kann natürlich messen wie viel Strom dort ankommt, aber nicht über welche Leitungen. Strom sucht sich den Weg des geringsten Widerstands. Jetzt sind da 6 nicht überwachte Leitungen, der Strom nimmt natürlich die Leitung, die am wenigsten Widerstand hat. D.h. es kann passieren, das der gesamte Strom über eine Leitung fliest. Das führt zu Wärme, das schmilzt die Ummantelung oder lässt sie brennen. Je nach Kabelqualität.
Das es kein Load Balancing mehr durch mehrere Shunts gibt, die den einzelnen Phasen zugeteilt sind, macht die Sache noch schlimmer.
Ein Shunt hilft also erstmal per se nichts.
Ich hoffe das ist zumindest ein wenig verständlich, bin absolut kein Erklär Bär, wie ihr alle wisst ;)
PS: Was NV machen könnte wäre den 12 Pin Anschluss an 3 Shunts anzuschließen, je 2 Leitungen an einen Shunt und diese wieder auf die Phasen verteilen. Das wäre sicher.
Lawmachine79
2025-02-13, 17:41:20
Die meisten User haben das Problem nicht ganz verstanden, vermutlich auch Lehdro nicht. Ich versuche es mal, wie üblich, bildlich geschrieben. Ich habe eine abgeschlossene Ausbildung als Energieanlagenelektroniker (ist allerdings ewig her und Beruf nicht ausgeübt^^).
[...]
Ich hoffe das ist zumindest ein wenig verständlich, bin absolut kein Erklär Bär, wie ihr alle wisst ;)
Kannst Du es mir nochmal mit zwei Socken und einem Puppentheater erklären?
AtTheDriveIn
2025-02-13, 18:01:04
Was soll denn das Überwachungskabel sein, von dem hier fantasiert wird? Überwacht alle 6 Phasen und dann? Piept wenn Schieflast auftaucht oder wie? Mir will nicht in den Kopf wie eine Behörde/Prüfstelle dazu ja sagen soll. Das Ding muss Narrensicher sein. Hier kann im Worst Case eine ganzes Haus abfackeln, sollte man sich mal 5min vom Rechner entfernen. Ein Aufkleber auf der Karte "Nicht vom Schreibtisch wegbewegen während des Gebrauchs" ist auch keine Lösung. :ugly:
Software ist auch keine narrensichere Lösung.
Im KFZ Bereich wären wir längst bei einer Rückrufaktion.
MiamiNice
2025-02-13, 18:02:24
@machine79:
Mit Socken und einem Puppentheater? Wäre das nicht ein wenig zu gehoben für einen Anwalt?
Kauf einfach eine Asus Karte, die meldet sich automatisch wenn etwas an den Leitungen nicht stimmt :) (dafür müsste allerdings deren Software installieren, was zumindest für mich ein no-go wäre).
Finger weg von allen andern Herstellern, vor allem von der FE.
Lawmachine79
2025-02-13, 18:06:03
@machine79:
Mit Socken und einem Puppentheater? Wäre das nicht ein wenig zu gehoben für einen Anwalt?
Kauf einfach eine Asus Karte, die meldet sich automatisch wenn etwas an den Leitungen nicht stimmt :) (dafür müsste allerdings deren Software installieren, was zumindest für mich ein no-go wäre).
Finger weg von allen andern Herstellern, vor allem von der FE.
Ich mache Spaß ;). Ich stehe jetzt sowieso erstmal an der Seitenlinie bis ein Lösungsvorschlag kommt oder sicher ist, dass es keine Lösung gibt.
hq-hq
2025-02-13, 18:20:16
Kannst Du es mir nochmal mit zwei Socken und einem Puppentheater erklären?
ich glaube er hätte einfach den Link posten sollen den mir Youtube ungefragt vor drei Tagen untergeschoben hat
https://www.youtube.com/watch?v=kb5YzMoVQyw
MiamiNice
2025-02-13, 18:28:27
Das Video hatten wir schon. Er erklärt wunderbar das Problem mit dem Kabel bzw. Stecker des 12 Pin 2x6 Teils, aber, imo, nicht das mit der Aufteilung der Leitungen/Kabeln/Shunts zu den Phasen. Das ist allerdings ein wichtiges Detail, welches überhaupt erst zu diesem ganzen Dilemma führt. Das Kabel bzw. die Stecker verursachen dieses Problem nicht. Einzig die Entscheidung alle Leitungen zu bündeln und alle Phasen an diese eine Leitung zu hängen, verursachen das Problem.
Catrovacer
2025-02-13, 18:34:12
Ich hoffe das ist zumindest ein wenig verständlich, bin absolut kein Erklär Bär, wie ihr alle wisst ;)
Ich fand die Erklärung besser als alles, was ich bisher zu dem Thema gelesen habe. Thx!
Loeschzwerg
2025-02-13, 18:37:18
Das hätte ich in meiner Praxis (wo ich mit genau diesen MicroFit-Steckern zu tun hatte) nie erlebt. Und ja, auch ich stand vor der Aufgabe 600W (allerdings auf 24V, immerhin auch noch 25A) gleichmäßig über die Kabel zu bringen.
Der MicroFit als solches ist eher nicht das Problem, sondern was man drum herum für eine PCIe-Spec gebaut hat.
Ich habe hier in einem ASUS ESC8000A-E12 mehrere H100 NVL verbaut, mit je einem EPS 8-Pin nach 12VHPWR (4x 12V und 5x GND belegt; Sense 1 auf GND, 0 offen; AWG 16). Da darf also 450W drüber. Zeigt mir letztendlich man hätte problemlos einen 8-Pin EPS (MiniFit) statt 12VHPWR auf den Karten verbauen können oder eben zwei davon für 900W. Edit: Und das witzlose: Das Adapterkabel gibt es auch mit Sense 0 + 1 auf GND d.h. da dürften dann 600W über den 8-Pin ^^ Wobei ich mir nicht sicher bin ob die auch original so von ASUS ausgeliefert werden. Das 450W zumindest schon.
wolik
2025-02-13, 18:53:19
Ich hoffe das ist zumindest ein wenig verständlich, bin absolut kein Erklär Bär, wie ihr alle wisst ;)
Mit Übersetzer gut verständlich.
https://club.dns-shop.ru/blog/t-104-bloki-pitaniya/137797-pochemu-goryat-razemyi-12vhpwr-i-12v-2x6-na-videokartah-rtx-5090-i/
@MiamiNice wäre es eigentlich möglich dieses Strom-Balancing „in einem Kabel“ nachzurüsten? ZB. die 12 Leitungen aufzutrennen und ein Load-Balancing dazwischen zu schalten, ähnlich wie wir es beim Load-Balancing der Akku-Lade-Technik haben. Da gehts zwar eher um die Lade-Spannungen, aber die Idee bzw. Problemlösung ist ja ähnlich.
Ich hätte gerne ein Kabel, das das vermurkste Strom-Design der Kartenhersteller nachbessert.
Hayab
2025-02-13, 19:52:16
...
Ich hätte gerne ein Kabel, das das vermurkste Strom-Design der Kartenhersteller nachbessert.
Anderson 50A Stecksystem für Gabelstapler wäre vielleicht was :D
https://global.discourse-cdn.com/boingboing/original/4X/e/f/5/ef58c7ad3608d42b73ee8c8a8c05a06b428b89a6.gif
basix
2025-02-13, 21:21:51
Die würden korrekterweise "Flamewell" und nicht "Blackwell" schreiben! X-D.
"MFG does predict the future", laut Jensen höchstpersönlich. Und nach "Flamewell" ist es nun mal halt, naja, "Blackwell" ;D
Es sieht so aus als Stromauslastung von zwei +12V Adern zu hoch ist. GND Adern die gebrückt sind haben keine Probleme. Ich denke es ist ein Software oder Hardware Problem bei Stromversorgungselektronik der GPU.
Zusammenbrücken von mehreren +12V Netzteilschienen (Schaltnetzgeräten) würde abhelfen aber das würde auch Verlustleistung des Netzteils in Idle ansteigen lassen.
GND ist wahrscheinlich ziemlich dick über's Mainboard angebunden zwecks shielding.
Verschiedene Schienen in einen 12VHPWR connector? Das wäre ziemlich ungewöhlich, wenn dann eine Schiene 12VHPWR, ne andere die CPU + Mainboard...
Also wenn ich mir das schrottige Corsair Kabel in dem Video hier angucke, wundert mich auch nichts mehr...
6FJ_KSizDwM
rentex
2025-02-14, 05:51:17
Tun die meisten doch. Jay zb. warnt schon seit Jahren vor diesen Stecken (siehe etwas weiter oben).
Wird nur gerne verdrängt weil eh wurscht und wird bei mir schon nicht abfackeln..
Jeder warnt seit Jahren vor diesen Stecker...
MiamiNice
2025-02-14, 08:04:45
@MiamiNice wäre es eigentlich möglich dieses Strom-Balancing „in einem Kabel“ nachzurüsten? ZB. die 12 Leitungen aufzutrennen und ein Load-Balancing dazwischen zu schalten, ähnlich wie wir es beim Load-Balancing der Akku-Lade-Technik haben. Da gehts zwar eher um die Lade-Spannungen, aber die Idee bzw. Problemlösung ist ja ähnlich.
Ich hätte gerne ein Kabel, das das vermurkste Strom-Design der Kartenhersteller nachbessert.
Man kann vieles machen, die Frage ist, ob es jemand baut und anbietet.
OgrEGT
2025-02-14, 08:26:35
Erfüllt denn die 5090FE Stromversorgung überhaupt die (Mindest)Anforderungen an elektrische Sicherheit? Ich bin kein Experte aber nach den Erklärungen von Buildzoid kann ich das nicht glauben... bei einem China Billig Produkt muss man mit sowas rechnen aber doch nicht bei einem absoluten Enthusiasten Produkt zu Top Preisen mit Top Margen vom Marktführer...
The_Invisible
2025-02-14, 09:38:42
Also wenn ich mir das schrottige Corsair Kabel in dem Video hier angucke, wundert mich auch nichts mehr...
https://youtu.be/6FJ_KSizDwM
Hab mal selber nachgesehen, meins sieht normal aus und es bewegt sich auch kein Pin. Wär mir ja auch sofort beim Einbau aufgefallen wenns so einen Unterschied gäbe.
Hab aber auch mal wieder gesehen wie filigran eigentlich die Pins sind und da bestenfalls jeweils 100W drübergehen, das Design hat sich wer wirklich schöngesoffen :freak:
aufkrawall
2025-02-14, 09:41:39
Jo, geht beim ersten Stecken auch scheiße schwer rein. Geile Kombi mit den dünnen Pins, muss sich echt ein kompletter Dödel ausgedacht haben.
BlacKi
2025-02-14, 11:04:39
@MiamiNice wäre es eigentlich möglich dieses Strom-Balancing „in einem Kabel“ nachzurüsten? ZB. die 12 Leitungen aufzutrennen und ein Load-Balancing dazwischen zu schalten, ähnlich wie wir es beim Load-Balancing der Akku-Lade-Technik haben. Da gehts zwar eher um die Lade-Spannungen, aber die Idee bzw. Problemlösung ist ja ähnlich.
Ich hätte gerne ein Kabel, das das vermurkste Strom-Design der Kartenhersteller nachbessert.wieso auftrennen, einfach direkt am netzteil alle 12v leitungen zusammenführen XD
Also wenn ich mir das schrottige Corsair Kabel in dem Video hier angucke, wundert mich auch nichts mehr...
https://youtu.be/6FJ_KSizDwM
ja, manche von den kabeln sitzen schon anders in dem stecker. aber ich frage mich, wieso er im ausgebauten zustand die pin tiefe optisch prüft. denn die pins sitzen im nicht eingesteckten zustand sehr locker im stecker. da ist die optische prüfung so garnicht möglich.
ich hätte im eingesteckten zustand mal versucht die stecktiefe grob zu prüfen. alternativ mal versucht im im eingesteckten zustand den widerstand zu prüfen. oder unter last, mal an den kabeln wackeln ob sich die ampere zahl die durch das kabel fließt ändert.
würde ich eine 5090 betreiben wollen, würde ich mir ein so eine ampere zange kaufen und die stromverteilung prüfen...
aber das sollte so nicht nötig sein, das müssen die hersteller sicherstellen...
Jeder warnt seit Jahren vor diesen Stecker...
der stecker selbst ist hier unschuldig.
Exxtreme
2025-02-14, 11:12:14
wieso auftrennen, einfach direkt am netzteil alle 12v leitungen zusammenführen XD
Nein, das hilft auch nicht. Wenn die einzelnen Adern anschließend große Unterschiede beim ohmschen Widerstand haben dann bekommst du das Problem weiterhin, dass der allermeiste Strom durch die Adern fließt, die den niedrigsten Widerstand haben. Und das kann sie überlasten.
Interessanterweise führt das Stromkabel, welches bei der FE mitgeliefert wird, alle Adern zusammen bevor es in die Grafikkarte reingeht. Sprich, sollte da irgendetwas schief gehen dann schmort nur das Kabel durch und lässt die Grafikkarte ganz. Und Fälle, bei denen mit dem FE-Kabel was durchgeschmort ist, sind AFAIK keine bekannt. Das waren immer nur Kabel anderer Hersteller.
DR.DEATH
2025-02-14, 11:26:06
Nein, das hilft auch nicht. Wenn die einzelnen Adern anschließend große Unterschiede beim ohmschen Widerstand haben dann bekommst du das Problem weiterhin, dass der allermeiste Strom durch die Adern fließt, die den niedrigsten Widerstand haben. Und das kann sie überlasten.
Interessanterweise führt das Stromkabel, welches bei der FE mitgeliefert wird, alle Adern zusammen bevor es in die Grafikkarte reingeht. Sprich, sollte da irgendetwas schief gehen dann schmort nur das Kabel durch und lässt die Grafikkarte ganz. Und Fälle, bei denen mit dem FE-Kabel was durchgeschmort ist, sind AFAIK keine bekannt. Das waren immer nur Kabel anderer Hersteller.
Damit liefert NVidia doch direkt das Eingeständnis, dass ihr Layout auf der Platine Schrott ist. Wo steht denn in der ATX Spec dass das Brücken von stromführenden Leitungen an den Kabeln/Steckern erlaubt/gewünscht ist?
Alle die sich ein ATX3.0/3.1 Netzteil gekauft haben sind damit auch direkt gekniffen. Gibt doch nur den gepfuschtenreparierten Adapter auf 4x8Pin und nicht als 12Vx6. Sieht mehr nach Schadensbegrenzung durch ein billiges Adapterkabel aus. Hinterher können die ganz einfach auf die Einbaupflicht von dem Kabel verweisen, genialer Schachzug...
Skinny12
2025-02-14, 11:28:09
Nein, das hilft auch nicht. Wenn die einzelnen Adern anschließend große Unterschiede beim ohmschen Widerstand haben dann bekommst du das Problem weiterhin, dass der allermeiste Strom durch die Adern fließt, die den niedrigsten Widerstand haben. Und das kann sie überlasten.
Interessanterweise führt das Stromkabel, welches bei der FE mitgeliefert wird, alle Adern zusammen bevor es in die Grafikkarte reingeht. Sprich, sollte da irgendetwas schief gehen dann schmort nur das Kabel durch und lässt die Grafikkarte ganz. Und Fälle, bei denen mit dem FE-Kabel was durchgeschmort ist, sind AFAIK keine bekannt. Das waren immer nur Kabel anderer Hersteller.
Uhh, spannende Info, danke! Dann macht es extrem Sinn, das originale Kabel zu nehmen. Weil lieber Kabel/Netzteil verschmort als die Karte...
Und es macht auch technisch Sinn, eine Schwachstelle weniger (Übergang einzelner Pin vs. alle Pins)
Muss mal schauen, wie das bei der MSI Trio ist, dann wechsle ich sofort.
Danke!
LG
Nils
Hayab
2025-02-14, 11:28:09
Ich denke dieser Steckersystem wurde konzipiert damit es möglich ist in SMD Lötanlagen solche Stecker an die Platinen zu verlöten. Deswegen dieses suboptimales Design mit 12 kleinen Pins. Allerdings glaube ich nicht das dieser Stecker für 50 Ampere Dauerbelastung konzipiert wurde, dafür ist die Kontaktfläche viel zu klein
Exxtreme
2025-02-14, 11:40:50
Damit liefert NVidia doch direkt das Eingeständnis, dass ihr Layout auf der Platine Schrott ist. Wo steht denn in der ATX Spec dass das Brücken von stromführenden Leitungen an den Kabeln/Steckern erlaubt/gewünscht ist?
Naja, wenn sie nur den Stecker und Kabel spezifiziert haben dann können die Hersteller machen was sie wollen was die Verschaltung angeht. Da dies den Standard nichts mehr angeht was wie wo verschaltet ist.
Uhh, spannende Info, danke! Dann macht es extrem Sinn, das originale Kabel zu nehmen. Weil lieber Kabel/Netzteil verschmort als die Karte...
Wahrscheinlich verschmort da auch nichts mit dem FE-Kabel. Denn vorher dürfte das Netzteil abschalten wenn auf einer der 4 Buchsen zu viel Strom fließt. Eventuell verlässt sich Nvidia sogar drauf, dass dem so ist.
Und zum "self balancing" durch Erhitzung, was ja oft gebracht wird, also dass sich Strom gleichmäßig auf Leiter verteilen sollte: funktioniert nicht in der Praxis. Für Kupfer, 30K Temperaturerhöhung sind ca 12% höherer Widerstand. AWG18 hat 23Ohm/km - für'n Kabel von 50cm, das sind 11.5mOhm. 30K heißer sind dann nur 1.38mOhm höherer Widerstand - ein völlig oxidierter Steckverbinder, der 2 Jahre lang ne 4090 versorgt hat und auf 100 Grad Betriebstemperatur, kann locker deutlich mehr haben, für Molex sind 20mOhm die Spezifikation.
20 mOhm wären equivalent zu 430K Temperaturerhöhung von 50cm AWG-18, also Rotglut :D
Skinny12
2025-02-14, 11:47:41
Naja, wenn sie nur den Stecker und Kabel spezifiziert haben dann können die Hersteller machen was sie wollen was die Verschaltung angeht. Da dies den Standard nichts mehr angeht was wie wo verschaltet ist.
Wahrscheinlich verschmort da auch nichts mit dem FE-Kabel. Denn vorher dürfte das Netzteil abschalten wenn auf einer der 4 Buchsen zu viel Strom fließt. Eventuell verlässt sich Nvidia sogar drauf, dass dem so ist.
Ich finde die Info extrem unterrepräsentiert. Das ist doch DIE logische Erklärung für die Problem. Das sollte Nvidia, der8auer und andere mal verbreiten...
Ich sage mit ziemlicher Überzeugung, dass mit dem Original-Kabel nix passiert, weil "nur" noch das Übergangsrisiko am Netzteil besteht.
Gruss Nils
Lehdro
2025-02-14, 11:51:27
Und Fälle, bei denen mit dem FE-Kabel was durchgeschmort ist, sind AFAIK keine bekannt. Das waren immer nur Kabel anderer Hersteller.
Stimmt nicht. (https://www.reddit.com/r/nvidia/comments/yc6g3u/rtx_4090_adapter_burned/)
Der Skandal damals, bei der 4090 war ja, dass es selbst MIT dem Adapter passierte - also selbst wenn du völlig nach NVs "Lösung" gearbeitet hast, kannst du Probleme erwarten. Explizite Kabel hatte damals kaum einer, die kamen da gerade erst großflächig raus und waren zudem ständig ausverkauft.
NV hat die PCB seitigen Stecker ab Mitte 2023 umgestellt. (https://www.tomshardware.com/news/rtx-4090-silently-upgraded-with-12v2x6-power-connector) Und selbst danach gab es die Probleme noch, auch mit voll eingesteckten Adaptern. Also nein, nur die NV Adapter zu nutzen schließt das Problem nicht aus, es senkt nur die Wahrscheinlichkeit dass deiner Karte etwas passiert (Kabel und Netzteil sind sowieso IMMER gefährdet). Selbst wenn ich die einzelnen Kabel in einer Powerplane vor dem Stecker zusammenführe, kann der Stecker immer noch sehr ungleichmäßige Widerstände haben, womit dann wieder die individuellen Pins in Gefahr sind. Denn der Stecker selbst ist Murks (keine ausreichende Sicherheitsmarge), weil die Karte den Weg des geringsten Widerstandes geht (kein Loadbalancing). Punkt.
Exxtreme
2025-02-14, 11:55:21
Stimmt nicht. (https://www.reddit.com/r/nvidia/comments/yc6g3u/rtx_4090_adapter_burned/)
Der Skandal damals, bei der 4090 war ja, dass es selbst MIT dem Adapter passierte - also selbst wenn du völlig nach NVs "Lösung" gearbeitet hast, kannst du Probleme erwarten. Explizite Kabel hatte damals kaum einer, die kamen da gerade erst großflächig raus und waren zudem ständig ausverkauft.
Ich meine mit dem Posting jetzt explizit die RTX 5090 FE. :) Da wüsste ich nicht, dass es da Schwierigkeiten gab mit dem FE-Kabel. Und die ganzen Temperatur-Videos ala der8auer etc. nutzten Kabel aus anderen Quellen.
BlacKi
2025-02-14, 12:26:13
Nein, das hilft auch nicht. Wenn die einzelnen Adern anschließend große Unterschiede beim ohmschen Widerstand haben dann bekommst du das Problem weiterhin, dass der allermeiste Strom durch die Adern fließt, die den niedrigsten Widerstand haben. Und das kann sie überlasten.
Interessanterweise führt das Stromkabel, welches bei der FE mitgeliefert wird, alle Adern zusammen bevor es in die Grafikkarte reingeht. Sprich, sollte da irgendetwas schief gehen dann schmort nur das Kabel durch und lässt die Grafikkarte ganz. Und Fälle, bei denen mit dem FE-Kabel was durchgeschmort ist, sind AFAIK keine bekannt. Das waren immer nur Kabel anderer Hersteller.im prinzip hab ich das ja gemeint. also wie beim 4 zu 1 stecker alles zusammenführen, nur früher.
da es an dem netzteil keine platzprobleme gibt, könnte man dort auch die 600w über 3x 8 pin laufen lassen. also 9x 12v am netzteil und 6x 12v hpwr im stecker durch eine platine im stecker gleichmäßg verteilt.
ach es gibt tausend möglichkeiten die besser sind und die auch das problem des verhunzten powermanagements auf der karte lösen würden. nv hat hier die billigste rausgesucht. wobei das nv ja nicht selbst entwickelt hat. also die spezifikation.
Lehdro
2025-02-14, 13:30:08
Ich meine mit dem Posting jetzt explizit die RTX 5090 FE. :) Da wüsste ich nicht, dass es da Schwierigkeiten gab mit dem FE-Kabel. Und die ganzen Temperatur-Videos ala der8auer etc. nutzten Kabel aus anderen Quellen.
Das Kabel der 5090 FE unterscheidet sich nicht von dem der späteren 4090er FEs. Nur nutzt heute kaum noch jemand den NV Adapter, eben WEIL es mittlerweile genug native Kabel gibt.
Langlay
2025-02-14, 13:43:41
da es an dem netzteil keine platzprobleme gibt, könnte man dort auch die 600w über 3x 8 pin laufen lassen. also 9x 12v am netzteil und 6x 12v hpwr im stecker durch eine platine im stecker gleichmäßg verteilt.
Platzprobleme sollte es da eigentlich nicht geben. Ich hab an meinem SFX Netzteil ein 3x8-Pin zu 12VHPWR Kabel.
Exxtreme
2025-02-14, 14:11:24
Das Kabel der 5090 FE unterscheidet sich nicht von dem der späteren 4090er FEs. Nur nutzt heute kaum noch jemand den NV Adapter, eben WEIL es mittlerweile genug native Kabel gibt.
Ja, und das Verwenden der nativen Kabel könnte die Problematik auslösen, zumindest bei der FE mit ihrer Zusammenführung aller 12 V-Leitungen. Es sei denn, die nativen Kabel führen die 12 V-Leitungen ebenfalls zusammen.
Lehdro
2025-02-14, 14:25:32
Ja, und das Verwenden der nativen Kabel könnte die Problematik auslösen, zumindest bei der FE mit ihrer Zusammenführung aller 12 V-Leitungen. Es sei denn, die nativen Kabel führen die 12 V-Leitungen ebenfalls zusammen.
Ich habe es schon davor geschrieben, aber hier nochmal: Damit bleibt trotzdem die unterschiedliche Lastverteilung auf den Pins der Buchse, da auch dort massiv abweichende Widerstände auftreten können (siehe Steckerproblematik generell, explizit die Analyse von Igor und GN dazu). Es gab geschmolzene Stecker auf der GPU Seite MIT NV Adapter. Warum sollte das nun mit der 5090 anders sein? Es ist technisch/elektrisch schlicht dasselbe wie bei der 4090.
Nochmal: Du kannst mit dem NV Adapter in genau dasselbe Problem rennen -> der Stecker schmilzt.
Dimon
2025-02-14, 15:50:18
Was mich grad aufregt ist das man die gewinkelten kabel nicht mehr benutzen kann.
Bei allen karten sind die stecker ein wenig tiefer in der grafikkarte drin, damit lässt sich das gewinkelte kabel nicht benutzen...
dargo
2025-02-14, 17:02:00
Das Drama geht in die nächste Runde.
CyDkJF6NbOw
Dieser "neue" Stecker scheint ja eine richtige Ingenieurskunst von Nvidia zu sein. X-D
Und ich Depp hab mir noch bei Corsair das Kabel gesleevt extra bestellt, was hier die Probleme macht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.