Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 14. Februar 2025


Leonidas
2025-02-15, 09:17:42
Link zur News:
https://www.3dcenter.org/news/news-des-14-februar-2025

nonharderware
2025-02-15, 10:50:41
Zur 32GB 9070 (XT):

1. Gibt es technisch die Option bei RDNA 4 auf GDDR7?
2. Kann es sein, dass AMD einfach selbst keine Planungen hat, aber es Boardpartnern freisteht, eine 32GB Variante auf eigene Faust zu entwickeln - mit etwas Support durch AMD?
3. Könnte 1 mit 2 kombiniert die Lösung bzgl. der 32GB Karte sein?

if #1 = true:
Taktfreudige Navi 48 nehmen, diese für GDDR7 einfach anders benennen und es den Boardpartnern überlassen, der Verfügbarkeit von 32GB GDRR7 Chips ausgeliefert zu sein sowie die Karten auf den Markt zu schmeißen.

Dazu noch mit der Verpflichtung eben jenes Modell nicht in die Nähe der 9070er Reihe namentlich zu bringen.

Würde AMD zumindest etwas Zeit geben für einen Refresh der 9000er und dann gleich mit Zen 6 im Namensschema X (ich vermute bspw. Ryzen X-800X3D bzw. Radeon X-090 - sodass GPU & CPU vom Namensschema her perfekt fürs Marketing zusammenpassen) geben.

Dann könnte man auch einen 5090 Konter(-versuch) zum Zen 6 / RDNA 4.5 Release offiziell mit GDDR7 bringen ...

-

Zugegeben: Habe hier viel Kristallkugel und Kaffeesatz aus einer Meldung herausgelesen... :D:freak::cool:

Gast
2025-02-15, 11:58:26
Aber genau das passiert ja schließlich auch beim Endanwender: In 98 von 100 Fällen gibt es überhaupt keine Probleme und würde man nachmessen, wären auch die reinen Meßwerte unbedenklich. Aber in den restlichen zwei Fällen kann es zu einer vollkommen ungleich verteilten Last auf den Adern kommen – was dann im Rahmen des Strombedarfs einer GeForce RTX 5090 über die Grenzen des Kabels hinausgeht. Genau damit hat sich dann die PC Games Hardware beschäftigt, nachdem deren regulärer Lastverteilungstest auch keine besonderen Abweichungen ergeben hatte
Selbst wenn das nur in 0,5% der Fälle oder weniger auftreten würde... bezogen auf die Gesamtmenge der Karten, die Nvidia voraussichtlich verkaufen wird, ist das immer noch eine erhebliche Anzahl.

Leonidas
2025-02-15, 12:01:12
1. Gibt es technisch die Option bei RDNA 4 auf GDDR7?
2. Kann es sein, dass AMD einfach selbst keine Planungen hat, aber es Boardpartnern freisteht, eine 32GB Variante auf eigene Faust zu entwickeln - mit etwas Support durch AMD?
3. Könnte 1 mit 2 kombiniert die Lösung bzgl. der 32GB Karte sein?

1) Nein, arg unwahrscheinlich. Wenn man das Speicherinterface auf GDDR7 auslegt, wird man es nutzen wollen. Kostet außerdem Transistoren - doof also, wenn man es nicht nutzt.
2) Jederzeit.



Selbst wenn das nur in 0,5% der Fälle oder weniger auftreten würde... bezogen auf die Gesamtmenge der Karten, die Nvidia voraussichtlich verkaufen wird, ist das immer noch eine erhebliche Anzahl.

Selbst noch kleinere Prozentquoten sind kritisch. Jeder einzelne Fall ist ein Konstruktionsfehler, d.h. der Hersteller wäre haftbar alle Folgen.

Gast
2025-02-15, 12:28:12
Also dieses Nvidia-Bashing wird langsam wirklich nervig.

Wie jetzt von der8auer eindeutig bewiesen ist eben nicht Nvidia der Schuldige sondern der Kabel(Netzteil?)-Hersteller.

Es kann nicht sein, dass alle anderen Hersteller in der "Stromzulieferkette" ihre Verantwortung einfach auf Nvidia abschieben und einfach ungetestete Produkte auf den Markt werfen können, weil wenn was ist schreit eh die Karte und der Kunde bekommt einfach ein Ersatzprodukt, was billiger ist als schon im Vorhinein dafür zu sorgen dass nur mangelfreie Produkte am Markt landen.

Wenn ein Autoreifen bei 120 platzt obwohl er eigentlich 200 aushalten sollte, ist auch der Reifenhersteller zur Verantwortung zu ziehen und nicht der Autohersteller.

Gast 145
2025-02-15, 13:23:55
Hm. Muss ich mir mit meinem (recht neuen) Seasonic 650W Gold nun die XT abschminken? Neues Netzteil wollte ich jetzt nicht kaufen.

Leonidas
2025-02-15, 14:53:23
Hm. Muss ich mir mit meinem (recht neuen) Seasonic 650W Gold nun die XT abschminken? Neues Netzteil wollte ich jetzt nicht kaufen.

Warten wir die reale TDP ab. Die Netzteil-Angaben sind meist mit größeren Reserven gesetzt. Wenn Du ansonsten sparsame Komponenten hast, kann das am Ende doch reichen.

crnkoj
2025-02-15, 15:05:44
Da gibt's vermutlich einen Fehler im Text. Die verkaufte 9070xt sei laut videocardz in der Slowakei, nicht in Slowenien verkauft worden.

Nochmal zur 9070 xt, der Verbrauch ist ja erneut viel zu hoch. 350w, dabei soll die 5070 ti ja unter 300w bleiben oder? Dann sind die Kühler so monströs... Ich dachte vielleicht kann ich eine dual slot 9070 xt kaufen um sie im zweitpc zu haben...

drkohler
2025-02-15, 16:01:35
.. dabei soll die 5070 ti ja unter 300w bleiben oder?
Die ersten MediaMarkt screenshots sind schon aufgetaucht
5070ti für schlappe Euro 1199.- Damit hat sich das Thema NVidia endgültig erledigt (für mich zumindest).

Leonidas
2025-02-15, 16:01:51
Mein Fehler, gefixt.

AlterSack
2025-02-15, 17:15:18
Die ersten MediaMarkt screenshots sind schon aufgetaucht
5070ti für schlappe Euro 1199.- Damit hat sich das Thema NVidia endgültig erledigt (für mich zumindest).

ja, nv und den händlern steht der arsch offen.
sollte amd da mitziehen, können sie sich ihre 9070 sonstwo
hinschieben. der kapitalismus in der endphase dreht offenbar
völlig frei. dann tut es eben weiterhin meine vega.

Gast
2025-02-15, 18:00:48
Hm. Muss ich mir mit meinem (recht neuen) Seasonic 650W Gold nun die XT abschminken? Neues Netzteil wollte ich jetzt nicht kaufen.
Nicht immer alle Märchen glauben. Die 9070XT soll langsamer sein als die 7900XTX. Gleichzeitig soll sie dann deutlich mehr verbrauchen und das trotz monolithischer Fertigung statt MCM... Ja, kann sein, aber wie viel ineffizienter müsste die Architektur dann im Vergleich zum eh schon nicht gerade effizienten Vorgänger sein?

GraphikkartusLongus
2025-02-15, 22:58:53
Die ersten MediaMarkt screenshots sind schon aufgetaucht
5070ti für schlappe Euro 1199.- Damit hat sich das Thema NVidia endgültig erledigt (für mich zumindest).

:facepalm:

GraphikkartusLongus
2025-02-15, 23:22:29
Meine Spekulationen zur RX9070XT bis dato:
MSRP/UVP 699$ | 799 €
Ø VP 949$ | 1099€ (949-1199€)
TDP: 320W-360W (Spanne : 289-343W, øGaming: 312W)
4KPI-Raster spez.: 4080 (4080S nur die 850W-900W PSU Customs)
4KPI-RT spez.: knapp 4070Ti
4KPI allg.: 470~480% (~13% unter 7900XTX bzw. 5% über 7900XT; nahezu ex aequo zu 5070Ti, weil die dafür beim 4KPI in Raster hinterher hinken wird...)

Aroas
2025-02-16, 02:49:56
Wie jetzt von der8auer eindeutig bewiesen ist eben nicht Nvidia der Schuldige sondern der Kabel(Netzteil?)-Hersteller.


Nein! Es liegt nicht an irgendwelchen Kabel, oder Netzteilen, sondern der Fehler besteht auf der Seite der Karte.
Das ist doch ganz eindeutig rausgearbeitet worden. Wie kannst du das negieren? Die Videos von der8auer überhaupt geschaut?

Leonidas
2025-02-16, 03:16:08
Mit dieser Kabel-Konstruktion hätte man zwingend an der Karten-Konstruktion der 3090Ti festhalten müssen.

Zossel
2025-02-16, 07:05:00
Mit dieser Kabel-Konstruktion hätte man zwingend an der Karten-Konstruktion der 3090Ti festhalten müssen.
... Konstrukt ....

Freestaler
2025-02-16, 07:41:44
Am Ende bleiben doch wesentlich zwei Punkte. Erstens: Produkte (Kabeladapter, Netzteil) die Normgerecht und korrekt verbaut sind kann es auch verschmoren. Zweitens: Egal wie man vorgeht kann es schmoren. Man kann als Nutzer weder durch die Wahl der Komponenten noch mit Fachwissen sicherstellen das es korrekt und gefahrlos funktioniert. Es bleibt nur über dritt Wege wie Wärmekamera oder noch zu bauende Überwachten Stecker (je Ader einzeln) Sicherheit zu bringen. Das eine ist nicht zweckmässig und das andere gibt's (noch) nicht. Nicht mal NVidia eigene Techniker könnten dies sicher Betreiben.
NVidia hat den schrottigen Stecker der PCI SIC falsch umgesetzt. Und ja, wann endlich stoppt man den seich und macht einfach eine dicker Ader. Kann ja nicht sein das Milliarden andere das hinkriegen mit 50 Ampere und mehr pro 12V Verbraucher nur der PC nicht (z.B. jeder Starter eines Ottomotors). Ganz ohne neuen 24/30V Standard und sonstige Handstände.

Badesalz
2025-02-16, 08:08:04
Mit dieser Kabel-Konstruktion hätte man zwingend an der Karten-Konstruktion der 3090Ti festhalten müssen.Das schon. Als work around :freak:
Solche Ware zu diesen Preisen hätte die Lösung der 3090 haben müssen UND endlich eine vernünftige Steckverbindung.

Wie jetzt von der8auer eindeutig bewiesen ist eben nicht Nvidia der Schuldige sondern der Kabel(Netzteil?)-Hersteller.Interessante Lebenseinstellung. Sich selbst als Gast einladen, angenommen werden, die Gastgeber für blöd halten :uconf3:
Nö sorry. Sind wir aber nicht :ass2:

Grafikspachtel
2025-02-16, 09:40:54
Mit dieser Kabel-Konstruktion hätte man zwingend an der Karten-Konstruktion der 3090Ti festhalten müssen.

... Konstrukt ....

... Kabel-Destruktion ...

Gast
2025-02-16, 13:18:03
Nein! Es liegt nicht an irgendwelchen Kabel, oder Netzteilen, sondern der Fehler besteht auf der Seite der Karte.

Er hat ein neues Kabel mit selber Karte verwendet und nun ist alles OK. Eindeutiger kann es nicht mehr sein, dass es nicht der Fehler der Karte ist.

Soweit ich gesehen habe verwendet er auch ein Corsair Netzteil, und die „Qualität“ der Corsair-Kabel kann man hier begutachten:

https://www.youtube.com/watch?v=6FJ_KSizDwM

Aber Corsair ist ja sehr oft sein Sponsor, da haut man lieber auf Nvidia hin als den eigenen Geldgeber zu verärgern.

Rabiata
2025-02-16, 14:31:52
Es bleibt nur über dritt Wege wie Wärmekamera oder noch zu bauende Überwachten Stecker (je Ader einzeln) Sicherheit zu bringen. Das eine ist nicht zweckmässig und das andere gibt's (noch) nicht. Nicht mal NVidia eigene Techniker könnten dies sicher Betreiben.

Die 3090Ti hat letzteres schon halbwegs umgesetzt, mit einer Stromüberwachung für jeweils zwei Adern auf der Karte selbst. Das Prinzip ließe sich auch für jede Ader einzeln anwenden. Nur müßte Nvidia dazu das Design der 5090 ändern und einen großen Rückruf für die schon verkauften Karten starten.
Nachdem schon ein paar Fälle öffentlich geworden sind, obwohl bisher nur sehr wenig Karten verkauft wurde, denke ich nicht daß es bei einer Handvoll von Einzelfällen bleiben wird. "Nvidia Flame Generation" könnte noch zum Sprichwort werden.

Denniss
2025-02-16, 15:45:01
die ganze Kabel-Stecker-Konstruktion ist inherent unsicher. Auch bei korrekt eingerastetem Stecker kann es sein das ein pin weniger Kontakt hat als die anderen und schon ist die Lastverteilung auf dem Kabel ganz anders. Das ist halt von den Pins her viel zu klein gebaut und hat absolut keine Sicherheitsreserven, der alte 6+2 war da ganz anders mit stabileren Kontakten.

Gast
2025-02-16, 19:06:39
Er hat ein neues Kabel mit selber Karte verwendet und nun ist alles OK. Eindeutiger kann es nicht mehr sein, dass es nicht der Fehler der Karte ist.
Oh man, wie kann man nur die ganzen Kommentare hier nur so ignorieren, nur weil nicht sein kann, was nicht sein darf: NVidia hat Mist gebaut.
Wer für 2500€ eine Grafikkarte verkaufen will, der muss der Karte halt auch eine minimale Überwachung mitgeben und damit rechnen, dass die Kabel unterschiedlich sind (vor allem nach Jahren der Benutzung mit Oxidation an Kabeln und Konnektoren).
Netzteilhersteller können das nicht überwachen, weil das Problem ja auch am Stecker der Grafikkarte auftreten kann und es somit für das Netzteil nie messbar wäre. Zudem wäre die Überwachung für die Grafikkarte auch viel billiger zu machen, Asus macht das ja z.B. auch für jede einzelne Leitung. Und bei der 3090 TI hat NVidia ja auch zumindest die Leitungen paarweise überwacht. Das kostet NVidia 1-2€. Bei den Preisen, die sie für ihre Karten aufrufen ist das lächerlich, dass sie daran sparen.

Gast
2025-02-17, 07:27:40
Oh man, wie kann man nur die ganzen Kommentare hier nur so ignorieren, nur weil nicht sein kann, was nicht sein darf: NVidia hat Mist gebaut.


Frage ich mich auch, mein Kommentar wird von allen ignoriert, einfach weil er nicht gegen das von allen auserkorene böse geht.


Wer für 2500€ eine Grafikkarte verkaufen will, der muss der Karte halt auch eine minimale Überwachung mitgeben und damit rechnen,


Nein muss er nicht.


dass die Kabel unterschiedlich sind (vor allem nach Jahren der Benutzung mit Oxidation an Kabeln und Konnektoren).


Ähm ja die oxidierenden Kabel....
Und Kontakte können nur dort oxidieren, wo sie eben gerade nicht in Kontakt mit dem Gegenstück sondern mit der Luft sind.


Netzteilhersteller können das nicht überwachen, weil das Problem ja auch am Stecker der Grafikkarte auftreten kann und es somit für das Netzteil nie messbar wäre.


In Elektrotechnik hast du wohl nicht ganz aufgepasst.
Netzteilhersteller können die genau identische Schaltung die hier auf der Karte gefordert wird im Netzteil einbauen.
Und es ist auch üblich dass die Leitungsüberwachung von der Energiequelle und nicht vom Verbraucher durchgeführt wird, letzteres gibt es zwar, ist aber die Ausnahme.




Das kostet NVidia 1-2€. Bei den Preisen, die sie für ihre Karten aufrufen ist das lächerlich, dass sie daran sparen.


Es geht nicht um ein paar €, es geht um wertvollen Platz am PCB welches das geniale Dual Flowthrough Design erst möglich machen. Netzteilseitig hast du keine Platzprobleme.

Badesalz
2025-02-17, 09:42:01
In Elektrotechnik hast du wohl nicht ganz aufgepasst.
Netzteilhersteller können die genau identische Schaltung die hier auf der Karte gefordert wird im Netzteil einbauen.
Und es ist auch üblich dass die Leitungsüberwachung von der Energiequelle und nicht vom Verbraucher durchgeführt wird, letzteres gibt es zwar, ist aber die Ausnahme.Kannst du mir die Berichte der SIG mit NV voran zeigen wo man einen - nach der 3090 und angesichts der 4090 - Paradigmenwechsel anstrebt und das Gespräch wegen jener Geschichte mit den Netzteilherstellern sucht? Ist an mir komplett vorbeigegangen.
Eine andere Frage wäre es, warum gehörte eigentlich die Schutzvorrichtung im Netzteil nicht sofort vom Anfang an zum HPWR-Standard?? (ATX 3.0)

Wenn Asus & Co. nachweislich schon nach der 4000er Reihe bei NV anklopften (!), man müsste diesbezüglich wohl was tun - und abgewiesen wurden - warum taten sie das eigentlich? Warum sind sie nicht alle nach FSP & Co. gelaufen, alleine? Und warum tat NV dann REIN GAR NICHTS diesbezüglich? Annehmbare Lösungswege fallen ja selbst dir ein.

Hälst du nicht nur uns hier für blöd, sondern auch Asus, MSI & Co. und FSP und Seasonic? Also mittlerweile alle Beteiliegten außer Nvidia, ja?
Du hast noch in keinem Haushaltsgerät eine Sicherung oder andere Sicherheitsvorrichtung im Gerät selbst gesehen? Oder ist für dich eine RTX5000 eine Art Toaster? (oh... ein Wortspiel)

Es gibt bei >1000€ Grafikkarten kostbaren PCB-Platz? Weil? Weil 1cm mehr in eine Richtung würden Nvidia - oder Asus - arm machen?

Ja, die Situation ist nun für alle neu. Seit 2022.... Seit dem dieser Haufen Sondermüll im Umlauf ist. Davor haben Standards den Namen aber zu allermeist auch zu recht getragen. Bei HPWR bedeutet "Standard" eher Realsatire.
Das ist oft so, wenn man nahezu alles einem gierigen rein opportunistischen Platzhirsch überlässt. So ähnlich wie wenn man "Betriebssystem" denkt und Microsoft sagt...

Es gibt einige Schuldige bei diesem fortlaufenden Desaster die es abgenickt haben, aber es gibt nur wenige die es durchpeitschten. Komm damit klar. Es gibt niemanden der einerseits die Thematik begreifen kann und andererseits so blöde ist, daß du es bei ihm hinbekommst Nvidia aus der Schusslinie zu ziehen. Du überschätzt deine Fähigkeiten maßlos.

edit:
Warum sollte man Nvidia pauschal nur als "böse" "verteufeln"? Sehe ich nicht, pauschal. Es gibt eingie weitere Optionen. Vielleicht sind sie stellenweise auch einfach nur blöd wie Stück Brot? In das aktuelle Bild würde beides passen. Auch ich bin nicht dafür, daß man sich da jetzt schon klar festlegen sollte.

Vielleicht halten sie sich fälschlicherweise auch nur für ziemlich abgebrüht? Das würde schonmal erklären warum sie dir offensichtlich so sympathisch sind. Ein Krähe hackt...

Gastein
2025-02-17, 10:08:44
Ich dachte es ist so, dass bei den AMD Chips der Takt automatisch niedriger gehalten wird wenn die elektrische Leistung wackelig wird. Also beim Ryzen PBO ganz bestimmt und ich dachte bei den Radeons auch schon.

Diese ganzen Overclocker-Modelle der Bordpartner müssen doch dann hohe Wattzahlen für die NTs propagieren, damit der Käufer überhaupt die wenigen MHz über Referenz auch sehen kann. Mir scheint das eher eine Vorsichtsmassnahme der Hersteller zu sein.

MiamiNice
2025-02-17, 11:17:29
Die Schuld liegt hier definitiv bei NV:

1. NV hat das Design geändert, welches diesen Umstand begünstigt.
2. Nv hat den neuen Standard designt
3. NV verbaut nur einen Stecker auf der Karte
4. NV weiß das es im ATX Standard nicht vorgesehen ist, dass die Netzteile die Stromzufuhr überwachen.

Die Diskussion ist völlig müßig. Es ist völlig klar, dass NV, für die Marge, auf ein paar Fälle pfeifft, wo es Probleme gibt (auch wenn das Haus abbrennen sollte, also ggf. Menschenleben kostet). Es wäre für NV ein absolut leichtes und nur mit wenigen Cent pro Karte verbunden, diesen Umstand zu ändern. NV zieht sich völlig aus der Verantwortung für Hardware am Limit ohne Kontrollmaßnahmen.

Badesalz
2025-02-17, 11:17:51
@MiamiNice
Ich lese oft das mit den "wenigen Cent". Wäre das etwa ein Problem, wenn es 1€ wäre?

Mir scheint das eher eine Vorsichtsmassnahme der Hersteller zu sein.Die Verbindung als Schmelzsicherung? Oder wtf meinst du?

Rabiata
2025-02-17, 11:37:35
In Elektrotechnik hast du wohl nicht ganz aufgepasst.
Netzteilhersteller können die genau identische Schaltung die hier auf der Karte gefordert wird im Netzteil einbauen.
Und es ist auch üblich dass die Leitungsüberwachung von der Energiequelle und nicht vom Verbraucher durchgeführt wird, letzteres gibt es zwar, ist aber die Ausnahme.


Es geht nicht um ein paar €, es geht um wertvollen Platz am PCB welches das geniale Dual Flowthrough Design erst möglich machen. Netzteilseitig hast du keine Platzprobleme.
Bedenkenswerter Ansatz, da würde die Sicherung auch Kurzschlüsse im Kabel abdecken. Da müßten aber jede Menge Netzteile im Bestand ausgetauscht werden. Bisher haben Netzteile zwar Überstromsicherungen, aber die sind eher auf den Schutz des Netzteils abgestimmt.
Die Adapterlösungen machen das Ganze noch unübersichtlicher. Ich denke, daß an der Stelle ein Systemwechsel nötig wäre, bei dem alte Netzteile und neue Verbraucher nicht versehentlich zusammengestöpselt werden können. Und damit wären wir schon wieder einen Schritt näher an einem großen Rundumschlag bei dem noch andere Änderungen "mit gemacht" werden können :wink:

Gastein
2025-02-17, 13:40:31
Die Verbindung als Schmelzsicherung? Oder wtf meinst du?
Dass bei einer Radeon etwas wegschmilzt wäre mir neu, oder wtf meinst Du?

Badesalz
2025-02-17, 13:48:11
KP. Es gab keinen Kontext dazu ;)

Gast
2025-02-17, 14:21:50
Wenn Asus & Co. nachweislich schon nach der 4000er Reihe bei NV anklopften (!), man müsste diesbezüglich wohl was tun - und abgewiesen wurden - warum taten sie das eigentlich?


Weil Nvidia erwartet, dass auch andere Hersteller eine vernünftige Qualität liefern und zurecht nicht dafür verantwortlich sind deren Mängel abzufangen.


Warum sind sie nicht alle nach FSP & Co. gelaufen, alleine? Und warum tat NV dann REIN GAR NICHTS diesbezüglich? Annehmbare Lösungswege fallen ja selbst dir ein.


Du hast noch in keinem Haushaltsgerät eine Sicherung oder andere Sicherheitsvorrichtung im Gerät selbst gesehen?


In keinem sicher nicht, aber höchstens in einer einstelligen Prozentzahl der Geräte.


Es gibt bei >1000€ Grafikkarten kostbaren PCB-Platz? Weil? Weil 1cm mehr in eine Richtung würden Nvidia - oder Asus - arm machen?


1cm mehr ist eine Menge weniger an Kühlfläche.


edit:
Warum sollte man Nvidia pauschal nur als "böse" "verteufeln"? Sehe ich nicht, pauschal.


Vermutlich weil sie zu erfolgreich sind, aber Neid war immer schon die höchste Form der Anerkennung.
Im Ernst, ich weiß es nicht, es sind offensichtlich dass die Qualitätsmängel Bauteile betreffen die nicht von Nvidia kommen. Und ja, Nvidia könnte Vorkehrungen treffen diese Qualitätsmängel zu erkennen, aber wieso sollten sie in dieser Verantwortung sein, wenn andere offensichtlich ihre Fertigungstoleranzen nicht im Griff haben.
Die Verantwortung von Nvidia endet am Ende der Buchse und nicht am Stecker oder Kabel oder gar Netzteil.

Es gibt auch nirgends etwas vergleichbares, es gibt nirgends eine Einzelüberwachung für Zuleitungen auf Seite des Verbrauchers, weder bei 12V EPS noch bei 6 oder 8 Pin PCIe oder beim ATX 20+4. Nvidia hier die Verantwortung überzustülpen um Fertigungstoleranzen anderer auszugleichen wäre ein komplettes Novum.

Lehdro
2025-02-17, 14:44:57
Es gibt auch nirgends etwas vergleichbares, es gibt nirgends eine Einzelüberwachung für Zuleitungen auf Seite des Verbrauchers, weder bei 12V EPS noch bei 6 oder 8 Pin PCIe oder beim ATX 20+4.
Und bei all diesen Anschlüssen hast du das Problem nicht. Weil diese Anschlüsse eben NICHT auf Kante genäht sind.

Fällt dir etwas auf?

Du kannst entweder mit Sicherheitsmarge das Problem umgehen oder du musst mit dem selbst verursachten Problem umgehen. NV hat sich für letzteres entschieden.

Rabiata
2025-02-17, 14:54:24
Die Verantwortung von Nvidia endet am Ende der Buchse und nicht am Stecker oder Kabel oder gar Netzteil.

Es gibt auch nirgends etwas vergleichbares, es gibt nirgends eine Einzelüberwachung für Zuleitungen auf Seite des Verbrauchers, weder bei 12V EPS noch bei 6 oder 8 Pin PCIe oder beim ATX 20+4. Nvidia hier die Verantwortung überzustülpen um Fertigungstoleranzen anderer auszugleichen wäre ein komplettes Novum.
1) Es sind auch schon Buchsen auf der 5090 geschmolzen, da liegt auch nach Deiner Definition die Verantwortung bei Nvidia.
2) Aktuell ist es weder üblich noch in einer Norm vorgeschrieben, daß das Netzteil jede einzelne Leitung überwacht. Es wäre vielleicht wünschenswert, aber beim derzeitigen Stand der Dinge sollte Nvidia nicht einfach annehmen, daß die anderen alles richtig machen. Den 12V-2x6 Stecker hart am Limit zu betreiben war fahrlässig. Die alten 8Pin Stecker machen in der Praxis keine Probleme, weil sie viel mehr Reserven haben.

Die Sicherung, an die Steckdose im Haushalt hängt, ist übrigens vorgeschrieben. Daß die Leitung bis zur Steckdose den Strom aushält ohne zu schmelzen auch. In dem Fall gibt es tatsächlich eine Norm, die der Stromlieferant einhalten muß.

Gast
2025-02-17, 15:02:23
Du kannst entweder mit Sicherheitsmarge das Problem umgehen oder du musst mit dem selbst verursachten Problem umgehen.


Oder mit geringeren Fertigungstoleranzen, und bei Produkten in denen Teile mit Mikro- und Nanometer Genauigkeit gefertigt werden ist es sicher nicht zu viel verlangt auf zehntel mm zu fertigen, und damit hätte man keine Probleme.


NV hat sich für letzteres entschieden.

NV hat sich gar nichts entschieden die PCI-Sig hat sich entschieden.

Gast
2025-02-17, 15:06:22
1) Es sind auch schon Buchsen auf der 5090 geschmolzen, da liegt auch nach Deiner Definition die Verantwortung bei Nvidia.


Nach deiner Definition liegt die Verantwortung bei Nvidia wenn ich ein Feuerzug an die Buchse halte und die zu schmelzen beginnt.


2) Aktuell ist es weder üblich noch in einer Norm vorgeschrieben, daß das Netzteil jede einzelne Leitung überwacht.


Es steht auch in keiner Norm, dass eine Grafikkarte das tun muss.


Es wäre vielleicht wünschenswert, aber beim derzeitigen Stand der Dinge sollte Nvidia nicht einfach annehmen, daß die anderen alles richtig machen.


Es wäre auch nicht notwendig, wenn andere die Fertigungstoleranzen einhalten würden, und davon kann Nvidia durchaus ausgehen, auch wenn es in der Praxis offenbar nicht immer der Fall ist.

Rabiata
2025-02-17, 15:25:21
Es wäre auch nicht notwendig, wenn andere die Fertigungstoleranzen einhalten würden, und davon kann Nvidia durchaus ausgehen, auch wenn es in der Praxis offenbar nicht immer der Fall ist.
Das Problem sind offenbar Ungleichheiten in den Übergangswiderständen. Beim Bauer und in anderen mir bekannten Fällen haben die sich weitgehend behoben wenn man das Kabel aus- und wieder eingesteckt hat. Das klingt als ob da Kontakte oxidiert waren und mit dem Rein-Raus wieder blank gerubbelt wurden. Ob da jetzt Nvidia oder die Kabelhersteller schlechte Qualität geliefert haben, wäre noch zu untersuchen. Mir ist noch keine solche Fehleranalyse bekannt.

Gast
2025-02-17, 15:49:58
Das Problem sind offenbar Ungleichheiten in den Übergangswiderständen. Beim Bauer und in anderen mir bekannten Fällen haben die sich weitgehend behoben wenn man das Kabel aus- und wieder eingesteckt hat. Das klingt als ob da Kontakte oxidiert waren und mit dem Rein-Raus wieder blank gerubbelt wurden.


Das Problem sind die Stecker, und die enorme Toleranz der (Metall)kontakte innerhalb des (Kunststoff)steckers.

Schau dir das Video von Jays2Cents an, und da speziell die Corsair-Stecker. Die Kontakte innerhalb des Steckers lassen sich da gefühlt mehrere mm verschieben, und je nachdem wie man einsteckt verschieben sich einzelne Kontakte damit unterschiedlich weit zurück in den Stecker und haben damit natürlich massiv unterschiedliche Kontaktflächen und damit Übergangswiderstände.

Dass es auch anders geht zeigen andere Stecker im selben Video.

Lehdro
2025-02-17, 16:09:58
Es wäre auch nicht notwendig, wenn andere die Fertigungstoleranzen einhalten würden, und davon kann Nvidia durchaus ausgehen, auch wenn es in der Praxis offenbar nicht immer der Fall ist.
Nur mal so für dich zum mitschreiben: Auch der NV eigene Adapter wurde schon mit der 4090(!) mit dem Stecker auf der Karte verschmolzen. Anscheinend kriegt nicht einmal NV das selber hin, von daher kann man dieses Argument getrost in die Tonne treten.

Gast
2025-02-17, 16:56:36
Nur mal so für dich zum mitschreiben: Auch der NV eigene Adapter wurde schon mit der 4090(!) mit dem Stecker auf der Karte verschmolzen.



Und das hat was genau jetzt mit der 5090 zu tun?

Badesalz
2025-02-17, 17:02:09
Die Verantwortung von Nvidia endet am Ende der Buchse und nicht am Stecker oder Kabel oder gar Netzteil.Mein Reden. Bei der 3090 war man sich dieser Verantwortung noch bewusst :uup:

Du kannst mit den "schlechten Bauteilen" rumfuchteln bis du selbst ankokelst. Das bringt dich überhaupt nicht nach vorn. Versuch mich ruhig weiter zu verarschen :ulol: PCI-SIG ist ein Gremium. Da steht NV auf dem Podiumsplatz. Das hat man mit abgesegnet und fährt diesen Fail als einziger auch voll aus. Seit 2 Generationen schon ohne Gurt und Knautschzone, FÜR DEN KUNDEN.

Ein Standard für Consumer der 12V/600W überträgt und so fragil ist, daß der Kunde auch nicht mit bloßem Auge sehen kann, ob die Zuleitung in Ordnung ist, ist einfach nur ein shice Standard. HPWR ist der schlechteste HW-Standard den es in der PC-Geschichte jemals gab. Ggf. sogar in der gesamen Komputergeschichte.

Nvidia interessiert nach 3090 nicht mehr wie es kartenseitig aussieht, Intel hat bei ATX3.0 nicht interessiert wie es netzteilseitig aussieht. Mechanisch fanden sie HPWR beide anscheinend toll :uup: ZWEI VERSAGER die endlich PR-trächtig zusammen fanden :ufinger:

Hat NV das etwa zähneknirschend abgenickt? Vielleicht sind sie wie gesagt nicht "böse", sondern einfach nur dämlich?
VOM ANFANG AN haben alle die irgendwas mit Elektro zu tun haben, befürchtet, das sieht aus wie das Gegenteil von Vertrauenserweckend aus. Da hat noch keine 4090 gekokelt. Jetzt kokeln wieder 5090. Weil alle anderen Schuld in der PCI-SIG sind, nur Nvidia nicht. Weil Neider denen den Erfolg neiden. Nur deswegen soll Nvidia jetzt mit schuld sein :uclap: Geniale Idee von dir :uking:
1cm mehr ist eine Menge weniger an Kühlfläche.Ja? Schreib die Gleichung mal auf damit ich das nachvollziehen kann.

edit:
Und das hat was genau jetzt mit der 5090 zu tun?Das hat genau damit zu tun, daß irgendwie Infos fehlen, Nvidia hat bei der aktuellen Generation irgendwas dran verbessert oder verbessern lassen oder die Qualitätsstandards erhöht. Es gibt keinen Punkt und auch keine Ansätze also dem ganzen mehr zu vertrauen als bei der 4090. DAS hat es damit zu tun. Konnte man sich denken, wenn man denken könnte.

Lehdro
2025-02-18, 12:05:52
Und das hat was genau jetzt mit der 5090 zu tun?
Der Adapter ist quasi identisch? Wüsste nicht dass da jetzt per-Pin-Loadbalancing hinzugefügt wurde.

Gast
2025-02-18, 14:51:13
Der Adapter ist quasi identisch? Wüsste nicht dass da jetzt per-Pin-Loadbalancing hinzugefügt wurde.

Ist er nicht, am Anfang gab es bei der 4090 deutlich minderwertigere Adapter, davon ist bei der 5090 zumindest bisher nichts bekannt. Die gezeigten haben jedenfalls eine sehr hochwertige Qualität.

Bis jetzt ist meines Wissens auch noch kein Fall der 5090 mit mitgeliefertem Adapter bekannt.

Denniss
2025-02-18, 19:47:50
Also sollten alle 5080/90 besitzer auf das nagelneue Stromkabel pfeifen und sicherheitshalber den Adapter verbauen. Sofern das Netzteil genug alte Stromanschlüsse bietet.