PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5090 Review-Thread


Seiten : 1 2 [3] 4 5 6

dildo4u
2025-01-28, 08:59:40
Nvidia unterperformt in CP77 wenn man kein RT nutzt.
Da ist Potenzial für Lovelace.

https://i.ibb.co/m52G2bJ/Screenshot-2025-01-23-20-21-49-346-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/CKYzYmB)

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65361-die-geforce-rtx-5090-founders-edition-im-test.html?start=8

Colin MacLaren
2025-01-28, 09:04:17
Dieses permanente Testen von Cyberpunk finde ich auch daneben. Die Engine ist tot, die kommt in keinem zukünftigen Game mehr. Warum testet man das so ausgiebig?

Richtig wäre z.B.

10x UE5
1x Infinity Ward Engine
2x Frostbite
1x Snowdrop
1x Anvil
1x Decima
1x InsomniacEngine
1x RE4 Engine

Dann hätte man einen realistischen Marktüberblick. Ältere Titel oder Engine, für die nichts mehr kommt oder die eh super laufen, braucht man nicht zu testen.

Was auch fehlt, sind richtige esports-Tests mit eher niedrigen Settings in 1080p oder 1440p, inkl. Latenzmessung. Also mal Valorant, BO6, Warzone, Marvel Rivals , PubG, Delta Force in hohen fps-Bereichen 300fps+ durchäumeln, inkl. Reflex Analyzer.

dildo4u
2025-01-28, 09:07:03
Es wird getestet weil es gezockt wird und neue Hardware braucht.
Bis auf Wukong ist es das einzige High-End Game was auf Steam oben auftaucht.

dargo
2025-01-28, 09:31:44
Dieses permanente Testen von Cyberpunk finde ich auch daneben. Die Engine ist tot, die kommt in keinem zukünftigen Game mehr. Warum testet man das so ausgiebig?
Weil es die Melkkuh von Nvidia ist. :) Ich finds übrigens auch nur noch affig. Wird Zeit für GTA VI dann ist CP77 endlich Geschichte.

aufkrawall
2025-01-28, 09:38:54
Was auch fehlt, sind richtige esports-Tests mit eher niedrigen Settings in 1080p oder 1440p, inkl. Latenzmessung. Also mal Valorant, BO6, Warzone, Marvel Rivals , PubG, Delta Force in hohen fps-Bereichen 300fps+ durchäumeln, inkl. Reflex Analyzer.
Da weiß man eh schon vorher, was rauskommt.
Die meisten Leute, die mit so hohen fps spielen, haben auch eher Verständnisprobleme mit VRR.

readonly
2025-01-28, 09:41:08
Es müssen die alten Karten ja noch mal neu gebencht werden, diese Generation ist ja auch ein grosses Software Update.

BlacKi
2025-01-28, 09:45:38
Spannender ist übrigens 6K via DL-DSR, also der insgesamt beste Modus, wenn man ein UHD-Display hat.

wo? kommt erst noch? mach hinne!:biggrin:

Colin MacLaren
2025-01-28, 10:07:50
Da weiß man eh schon vorher, was rauskommt.
Die meisten Leute, die mit so hohen fps spielen, haben auch eher Verständnisprobleme mit VRR.

Wenn da in 4K nativ oder mit Lumen getestet wird, sind die FPS in den wenigen Benches, die wir haben, gar nicht so hoch. Die Frage, ob man mit optimierten Settings die 480/500Hz-Monitore auslasten kann, oder ob man im CPU-Limit hängt und wieviel Latenz durch Frame Generation bei sehr hoher Basisframerate draufkommt, wäre für mich spannend.

Lawmachine79
2025-01-28, 10:21:39
Nvidia unterperformt in CP77 wenn man kein RT nutzt.
Da ist Potenzial für Lovelace.


Und wenn man es in 640x480 spielt, ist sie wahrscheinlich auf Augenhöhe mit einer 1080TI. High-End Karten testet man mit allen Reglern auf 10. Oder besser noch mit "This one goes to eleven".

dildo4u
2025-01-28, 10:25:30
Im Low End gibt es Konkurrenz daher macht es Sinn die Treiber weiter zu optimieren was die 4090/5090 macht ist Unwichtig da es keine andere Option gibt.

Shink
2025-01-28, 11:00:41
Die Architektur ist gebaut für möglichst gute RT-Performance im Vergleich zu Raster. AMD geht auch in diese Richtung mit der RX9070 und Intel sowieso... Ich nehme nicht an, dass es da im Treiber hakt.

Sweepi
2025-01-28, 11:16:08
Weil es die Melkkuh von Nvidia ist. :) Ich finds übrigens auch nur noch affig. Wird Zeit für GTA VI dann ist CP77 endlich Geschichte.

Dieses permanente Testen von Cyberpunk finde ich auch daneben. Die Engine ist tot, die kommt in keinem zukünftigen Game mehr. Warum testet man das so ausgiebig?


Wie d4u sagt:

Es wird getestet weil es gezockt wird und neue Hardware braucht.
Bis auf Wukong ist es das einzige High-End Game was auf Steam oben auftaucht.

Hier die aktuelle letzte 24h Statistik von Steam, Attribute auf gut dünken von mir eingetragen:
Rank | Attributes | Name | last 24h
1 | eSport, lowGPUusage | Counter-Strike 2 | 1270307
2 | eSport, lowGPUusage | Dota 2 | 605389
3 | eSport | PUBG: BATTLEGROUNDS | 530370
4 | ?? | Marvel Rivals | 395997
5 | ?? | Source SDK Base 2007 | 224705
6 | goodBenchmark(?) | Path of Exile 2 | 188129
7 | oldGame, modRequired(Engine limit) | Grand Theft Auto V | 180376
8 | ?? | NARAKA: BLADEPOINT | 179703
9 | oldGame, onlyMultiplayer, PerformanceDependsOnPlayerWorldBuilding | Rust | 145440
10 | noGame | Banana | 128574
11 | noGame | Wallpaper Engine | 115783
12 | eSport | Apex Legends | 106735
13 | goodBenchmark(?) | Palworld | 104861
14 | ?? | Delta Force | 101083
15 | ?? | EA SPORTS FC 25 | 95370
16 | lowGPUusage | Stardew Valley | 93475
17 | eSport | War Thunder | 82154
18 | goodBenchmark | Baldur's Gate 3 | 76207
19 | goodBenchmark | Red Dead Redemption 2 | 74952
20 | lowGPUusage | Football Manager 2024 | 73285
21 | eSport, lowGPUusage | Tom Clancy's Rainbow Six Siege | 71255
22 | goodBenchmark | Black Myth: Wukong | 67614
23 | eSport | Call of Duty® | 65600
24 | ?? | Crosshair X | 61261
25 | lowGPUusage(?) | Sid Meier's Civilization VI | 57950
26 | oldGame | DayZ | 55405
27 | eSport | Warframe | 53350
28 | ?? | Hearts of Iron IV | 53262
29 | goodBenchmark(?) | ELDEN RING | 52180
30 | ancientGame | Team Fortress 2 | 50755
31 | ?? | Spacewar | 49906
32 | lowGPUusage | Don't Starve Together | 48844
33 | lowGPUusage(?) | Euro Truck Simulator 2 | 48420
34 | onlyMultiplayer | HELLDIVERS™ 2 | 47561
35 | ?? | DYNASTY WARRIORS: ORIGINS | 47501
36 | goodBenchmark | Cyberpunk 2077 | 45052
37 | lowGPUusage | Project Zomboid | 44722
38 | oldGame | The Elder Scrolls V: Skyrim Special Edition | 44149
39 | onlyMultiplayer | Monster Hunter: World | 43705
40 | ?? | Crab Game | 42673
41 | VRGame | VRChat | 41731
42 | ?? | The Sims™ 4 | 39546
43 | oldGame, lowGPUusage | Terraria | 37837
44 | noGame | tModLoader | 37261
45 | ?? | Farming Simulator 25 | 37223
46 | ?? | THRONE AND LIBERTY | 36342
47 | lowGPUusage | Dead by Daylight | 36234
48 | ?? | Once Human | 36162
49 | ancientGame | Left 4 Dead 2 | 33599
50 | onlyMultiplayer, PerformanceDependsOnPlayerWorldBuilding | Valheim | 33564




Wie man sieht, CP77 ist trotz des altes mindesten TOP10, wenn nicht TOP5 der GPU-lastigen Spiele + bekommt konstant die neueste Nvidia-Tech.


Interessant (wenn auch potenziell 'Nvidia-Freundlich') wäre mMn ein Test / eine Übersicht mit Focus auf Spiele mit neuester Nvidia-Tech support, habe gerade erst durch absoluten Zufall herausgefunden, das ausgerechnet Hogwarts Legacy (ein Unreal-Engine 4(!!) Spiel), MFG unterstützt.

Raff
2025-01-28, 11:18:27
Das Nvidia mal so viel Leistung zum Launch liegen lässt, hätte ich auch nicht gedacht. :D

Das ist ja so pauschal auch nicht richtig. ;)

MfG
Raff

dildo4u
2025-01-28, 11:38:13
Zum Glück hab ich mir nicht umsonst den 5090 Treiber raufgezogen da wird noch gearbeitet ich warte immer noch auf der KI Treiber der sich selber programmiert wurde das nicht versprochen? :lol: :lol:

PHuV
2025-01-28, 11:48:59
Nach einigen Reviews ist wohl noch Optimierungsbedarf mit Blender.

dargo
2025-01-28, 14:42:37
Nettes Video, zeigt auch ganz gut warum Benchmarks mit der schnellsten CPU am Markt auch nur die halbe Wahrheit sind.

MAJjC4xmBb0

nordic_pegasus
2025-01-28, 14:42:58
nach der initialen Runde an Tests von Custom-Karten am Freitag habe ich keine neuen Reviews wahrgenommen. Auffallend fand ich die begrenzte Auswahl an Herstellern bei den Reviews, bzw. das komplette Fehlen einiger bekannter Hersteller.

Kann man daraus schließen, dass am Donnerstag wohl nur Asus, MSI und Palit/Gainward verfügbar sein werden. Reviews von inno3D, Zotac und Gigabyte sind mir keine bekannt.

Holundermann
2025-01-28, 15:10:53
Nettes Video, zeigt auch ganz gut warum Benchmarks mit der schnellsten CPU am Markt auch nur die halbe Wahrheit sind.

https://youtu.be/MAJjC4xmBb0

Also ich find den dude nicht zum aushalten, hat eigentlich nie relevante Informationen, auch dieses Video ist irrelevant:

kauft euche keine 5090 wenn ihr in kartoffeloptik in 1080 spielt und CPU x verwendet: danke mr. obvious.

Kann mir irgendwer was zur effizienz der 5090 sagen wenn man etwa FPS limitiert - was zieht die karte in rocket league bei 165 FPS zb. oder bei World of Warships?

dargo
2025-01-28, 15:15:26
kauft euche keine 5090 wenn ihr in kartoffeloptik in 1080 spielt und CPU x verwendet: danke mr. obvious.

:freak:

Hast du überhaupt das Video verstanden? Offenbar nicht. Übrigens ist 4k DLSS-Performance auch Kartoffellast. ;)

Holundermann
2025-01-28, 15:21:44
:freak:

Hast du überhaupt das Video verstanden? Offenbar nicht. Übrigens ist 4k DLSS-Performance auch Kartoffellast. ;)

Ich denke schon das ichs verstanden hab: unter raster grafik ist die 5090 oft CPU limited in heutigen titeln.

Ich denke die enthusiasten welche sich eine 5090 kaufen werden diese aber kaufen um absurd hohe auflösungen zu fahren (4k+) oder eben Pathtracing in 4k zu verwenden. In beiden Fällen dürfte die CPU in den hintergrund rücken.

Ich vertrau da eher diesen Herren:

https://www.youtube.com/watch?v=98RR0FVQeqs

aufkrawall
2025-01-28, 15:24:06
Das Gothic 2 Khorinis-Hafenviertel zeigt eindeutig, dass die Karte Schrott ist. Da hat dargo einen guten Punkt.

MiamiNice
2025-01-28, 15:26:34
Wie man sieht, CP77 ist trotz des altes mindesten TOP10, wenn nicht TOP5 der GPU-lastigen Spiele + bekommt konstant die neueste Nvidia-Tech.
Ich weiß ehrlich nicht, wie Du darauf kommst. CP ist Rank 36 in den Chart mit knapp 50k Zuschauern. 1. Das sind nur Steam Charts weißt Du wie viele Spieler ohne Steam spielen? 2. Es gibt keinen anderen Film welchen Pixelzähler sehen könnten und 3. zusätzlich sind in den 50k Leuten noch min. 10k Redakteure enthalten um den nächsten NV Jubelperser Artikel schreiben zu können.
Der Film ist, IMO, mehr als nur tot und die ewigen Benches mit der Software lächerlich³.

€: Und von den restlichen 40k ziehst nochmals 20k ab, das sind dann aktuell die, die das Transformer Modell von DLSS 4 bewundern aber eigentlich was anderes spielen.

dargo
2025-01-28, 15:29:06
Ich weiß ehrlich nicht, wie Du darauf kommst. CP ist Rank 36 in den Chart mit knapp 50k Spieler. 1. Das sind nur Steam Charts weißt Du wie viele Spieler ohne Steam spielen? 2. Es gibt kein anderes Spiel welches Pixelzähler spielen könnten und 3. zusätzlich sind in den 50k Leuten noch min. 10k Redakteure enthalten um den nächsten NV Jubelperser Artikel schreiben zu können.
Der Film ist, IMO, mehr als nur tot und die ewigen Benches mit der Software lächerlich³.
;D

Vergiss nicht die 3DC-Bencher. ;)

readonly
2025-01-28, 15:50:30
Gerade CP77 wird sicher auch eher über den GOG Launcher gespielt, vermute ich

Dimon
2025-01-28, 16:04:13
CP77 wird nur deshalb getestet weil es so GPU lastig ist, es bildet halt die performance von GPUs sehr gut ab, mal sehen wie AMD demnächst damit klarkommt..

PS: es gab doch mal NV lastigr games bei der AMD mit der Zeit auf überholspur geraten ist und besser wurde... Mir fallen derzeit aber die namen nicht ein... :)

Grüsse

PHuV
2025-01-28, 16:37:44
CP77 ist das Crysis von früher.

Disconnected
2025-01-28, 16:38:43
Nettes Video, zeigt auch ganz gut warum Benchmarks mit der schnellsten CPU am Markt auch nur die halbe Wahrheit sind.

https://youtu.be/MAJjC4xmBb0

Er hat zumindest begriffen, wie CPU-Spielebenchmarks auszusehen haben, nicht dieses "wir nehmen irgendeine wahllose Anzahl von Titeln, die gerade populär sind und benchen sie in 640x480".

Daredevil
2025-01-28, 16:39:42
CP77 ist das Crysis von früher.
Und immerhin hat Cyberpunk Autos und nicht nur Pferde wie der Witcher. :D
zusätzlich sind in den 50k Leuten noch min. 10k Redakteure enthalten
;D

Palpatin
2025-01-28, 16:43:24
Und immerhin hat Cyberpunk Autos und nicht nur Pferde wie der Witcher. :D

Was davon ist jetzt schwieriger möglichst realistisch zu rendern :wink:

whetstone
2025-01-28, 20:21:07
Nettes Video, zeigt auch ganz gut warum Benchmarks mit der schnellsten CPU am Markt auch nur die halbe Wahrheit sind.

https://youtu.be/MAJjC4xmBb0

Das einzige spiel wo er relevante Werte für eine 5090 zeigt (cyberpunk stellt er mit absicht auf high statt ultra) ist stalker 2 und das ist wiederum der größte UE5 programmierschrott der letztes jahr rauskam, was cpu perfomance angeht. Das wird auch noch auf nem 11800x3d relativ scheiße laufen. Dass alles unter 5800x3d zu wenig für ne 5090 ist, sollte klar sein. Clickbait video ohne inhalt. Ich weiß auch nicht wieso sich jemand für wqhd ne 5090 hohlen sollte.

dargo
2025-01-28, 20:34:40
Das einzige spiel wo er relevante Werte für eine 5090 zeigt ist stalker 2 und das ist wiederum der größte UE5 programmierschrott der letztes jahr rauskam, was cpu perfomance angeht. Das wird auch noch auf nem 11800x3d relativ scheiße laufen. Dass alles unter 5800x3d zu wenig für ne 5090 ist, sollte klar sein. Clickbait video ohne inhalt. Ich weiß auch nicht wieso sich jemand für wqhd ne 5090 hohlen sollte.
Frage das mal das Nvidia-Marketing. Dort wurde ständig 4k mit DLSS-Performance als Baseline Frames gebencht was weniger kostet als WQHD nativ.

aufkrawall
2025-01-28, 20:38:45
Entweder, die 5090 läuft ins CPU-Limit in 1080p. Oder mit DLSS sind es dann wieder nur böse Fake Frames.
Erst ist die 5090 dann wieder ein lächerlicher Sprung (ist sie ja auch), dann ist sie wieder "zu schnell", wenn man eine Billig-CPU dazu packt. Da drängt sich doch gaaanz subtil der Eindruck auf, die Argumentation würde von Pipi Langstrumpf stammen. :freak:

Sardaukar.nsn
2025-01-28, 21:52:32
Die 4090 war und ist eine beliebte Grafikkarte. Die 5090 skaliert einfach nur +25% in alle Richtungen: Preis, Verbrauch, Leistung. Halt für alle die gerne "etwas mehr" hätten. Kann man machen, muss man aber sicher nicht.

Ex3cut3r
2025-01-28, 22:11:40
Frage das mal das Nvidia-Marketing. Dort wurde ständig 4k mit DLSS-Performance als Baseline Frames gebencht was weniger kostet als WQHD nativ.

Was auch Sinn macht, wenn man es mit FG x4 kombiniert.

MiamiNice
2025-01-28, 22:53:33
Halt für alle die gerne "etwas mehr" hätten. Kann man machen, muss man aber sicher nicht.

Habe ich die BW Titan Ankündigung verpasst? :wink:

whetstone
2025-01-29, 00:36:37
Was auch Sinn macht, wenn man es mit FG x4 kombiniert.

Oder für 8k, bzw. VR oder Multimonitor. Genau dafür ist die Karte eigentlich gemacht, high end Anwendungen. Da kann man dann auch DLSS perf. effektiv nutzen mit oder ohne FG (fällt ja bei VR weg). Müsste jemand mal anständig testen und nicht wie "youtuber vex" marvel rivals in 1440/1080p.

Slipknot79
2025-01-29, 00:50:45
Die 4090 war und ist eine beliebte Grafikkarte. Die 5090 skaliert einfach nur +25% in alle Richtungen: Preis, Verbrauch, Leistung. Halt für alle die gerne "etwas mehr" hätten. Kann man machen, muss man aber sicher nicht.


Lederjacke unlockt einfach DLSS4 für die 4090 und der gain ist größer, als wenn man auf die 5090 wechselt. (y)

rentex
2025-01-29, 06:06:32
Das einzige spiel wo er relevante Werte für eine 5090 zeigt (cyberpunk stellt er mit absicht auf high statt ultra) ist stalker 2 und das ist wiederum der größte UE5 programmierschrott der letztes jahr rauskam, was cpu perfomance angeht. Das wird auch noch auf nem 11800x3d relativ scheiße laufen. Dass alles unter 5800x3d zu wenig für ne 5090 ist, sollte klar sein. Clickbait video ohne inhalt. Ich weiß auch nicht wieso sich jemand für wqhd ne 5090 hohlen sollte.

Was soll man sich dann holen? Ne 5080? :freak:

Sardaukar.nsn
2025-01-29, 06:18:18
Habe ich die BW Titan Ankündigung verpasst? :wink:

Fazit von Roman ab 18:05min

svk5wjogstQ

@Slipknot79: Der hauptsächliche Gain liegt wohl im Kühler der FE. Wenn man auf sowas Wert legt.

8PDYJI0W6Gk

dargo
2025-01-29, 07:18:10
Was soll man sich dann holen? Ne 5080? :freak:
Nüchtern betrachtet ja. Dieses Segment was sich Lederjacke langsam aufgebaut hat und aktuell bei mindestens 1999$ liegt ist mehr oder weniger für einen Gamer bullshit.

Kriegsgeier
2025-01-29, 07:18:18
Sollte sich heute bei den 5080Fe-Tests herausstellen, dass hier auch die gleiche, die 5090Fe-Kühllösung ihre Arbeit verrichtet, dann könnte die 5080Fe Karte zum heimlichen Star der Generation mutieren!
Und wenn man diese auch noch zu dem Preis bekommt?: 1.169€

dargo
2025-01-29, 07:31:45
Ich frage mich gerade wie der gleiche Kühler bei der 5080 FE verwendet werden kann wenn der doch angeblich so teuer sein soll? ;)

Kriegsgeier
2025-01-29, 07:36:24
ja, das ist in der Tat gute Frage. Aber ob 200$ oder 175$ --> diese 25$ weniger frisst jede Nummer-Doppelführung im System auf. Daher lohnt es sich nicht 2x zu entwickeln vielleicht?

Wäre genial, wenn das so wäre - dann wäre die 5080Fe wahrscheinlich einer der leisesten 5080ger Karten auf dem Markt!

dildo4u
2025-01-29, 07:39:38
Der Kühler ist doch viel billiger als die anderen da man weniger Material bekommt.

dargo
2025-01-29, 07:42:47
Och... da ist unser Experte Lawmachine79 anderer Meinung. ;D

Kriegsgeier
2025-01-29, 07:48:34
das ist ja relativ egal, das mit Materialaufwand, was zählt ist doch, dass der Design für 600 Watt ausgelegt worden ist und die 5080 setzt wieviel um? max. 400 Watt?

Raff
2025-01-29, 08:32:08
Ich frage mich gerade wie der gleiche Kühler bei der 5080 FE verwendet werden kann wenn der doch angeblich so teuer sein soll? ;)

Du hast es dir schon selbst beantwortet. :) Mehr dazu soon(tm).

MfG
Raff

Kriegsgeier
2025-01-29, 08:47:08
naja, dann mähhhh

MiamiNice
2025-01-29, 10:35:59
Immer an die Marge denken :wink:

Prinzenrolle
2025-01-29, 10:43:29
Marge Simpson lässt grüßen.
Bei diesen Launches fühlt man sich immer mehr, als ob man in einer Simpsons Episode wäre. Viel Wind um nichts.

Holundermann
2025-01-29, 11:00:14
Wenn die 5080 mehr Speicher hätte würde ich mir die holen, aber es sträubt sich in mir alles von einer 16GB Karte auf eine 16GB Karte zu wechseln, hab da in der Vergangenheit schlechte Erfahrungen gemacht...

Mir kommt vor das man heute schon stellenweise nahe an die 16 GB herankommt, und ich spiel noch in WQHD. denke auch das die 5080 in spätestens 2 Jahren zuwenig Speicher haben wird für manche Settings.

Ice-Kraem
2025-01-29, 11:12:40
Wann kommen die Tests der 5080 online?

PHuV
2025-01-29, 11:22:03
Wann kommen die Tests der 5080 online?
29.01., siehe Update unten:
https://www.computerbase.de/news/grafikkarten/geforce-rtx-5090-und-rtx-5080-tests-sollen-am-24-und-am-30-januar-2025-erscheinen.91008/
Ansonsten hast Du ja schon Infos aus dem Igor-Leak:
https://www.reddit.com/r/pcmasterrace/comments/1icndtg/rtx_5080_1440p_benchmarks_no_upscaling_no_rt/

Colin MacLaren
2025-01-29, 11:25:14
Igor hat was geleakt. https://videocardz.com/pixel/nvidia-rtx-5080-is-on-average-8-3-faster-than-rtx-4080-super-according-to-first-review

Weit weg von der 4090. Echt enttäuschend.

PHuV
2025-01-29, 11:28:29
Ich finde den Abstand von der 4080 Super zur 5080 auch recht mau. Hier ist die Empörung und Enttäuschung viel angebrachter als bei der 5090 im Abstand zur 4090.

Scose
2025-01-29, 11:29:16
Ich bekomme meine 5090 in ziemlich genau einer Stunde aber es gibt offiziell noch keine Treiber und ich geh nicht davon aus, das noch ein Medium in der Box liegt :rolleyes: Kann jemand aushelfen? :biggrin:

Übrigens, die Stückzahlen sind Vendor-übergreifend absolut lachhaft.

arcanum
2025-01-29, 11:30:07
War denn wirklich mehr zu erwarten bei 50% der 5090 Specs und < 10% Taktvorteil?

The_Invisible
2025-01-29, 11:30:38
Igor hat was geleakt. https://videocardz.com/pixel/nvidia-rtx-5080-is-on-average-8-3-faster-than-rtx-4080-super-according-to-first-review

Weit weg von der 4090. Echt enttäuschend.

Jap, echt die Frage ob man weitere 2-2,5Jahre mit der 4090 als zweitschnellste Grafikkarte leben will (so lange es keine 5080Ti gibt), VRAM auch kein Problem. Wären insgesamt 4,5-5Jahre die gleiche GPU mit der man oben mitschwimmt, 4090 Kauf best value ever :freak:

Ich bekomme meine 5090 in ziemlich genau einer Stunde aber es gibt offiziell noch keine Treiber und ich geh nicht davon aus, das noch eine Medium in der Box liegt :rolleyes: Kann jemand aushelfen? :biggrin:

Übrigens, die Stückzahlen sind Vendor-übergreifend absolut lachhaft.

Arbeitest im Großhandel? :D

Matrix316
2025-01-29, 11:31:44
Igor hat was geleakt. https://videocardz.com/pixel/nvidia-rtx-5080-is-on-average-8-3-faster-than-rtx-4080-super-according-to-first-review

Weit weg von der 4090. Echt enttäuschend.
Na super. :ugly: Das lohnt sich ja. Hmmm.... vielleicht würde ein Upgrade dann auf einen 9800X3D mehr bringen als von 7900XTX auf die 5080 (RT mal ausgenommen).

Vielleicht hätte AMD doch eine High End 9080 rausbringen sollen. So viel schneller als die 7900XTX hätte die gar nicht sein müssen...

PHuV
2025-01-29, 11:38:30
Ich bekomme meine 5090 in ziemlich genau einer Stunde aber es gibt offiziell noch keine Treiber und ich geh nicht davon aus, das noch ein Medium in der Box liegt :rolleyes: Kann jemand aushelfen? :biggrin:

Übrigens, die Stückzahlen sind Vendor-übergreifend absolut lachhaft.
Schlechter als bei der 4090 damals?

Scose
2025-01-29, 11:43:30
Arbeitest im Großhandel? :D

Yup und ich kenne die Kontingente für zumindest einen (sehr grossen) Distributionskanal. Die Anzahl kann man teilweise an einer Hand abzählen und sind komplett durchallokiert. Völlig unabhängig jeglicher berechtigter Kritik wird die Karte ein Traum jedes Scalpers - darauf wette ich.

Meine aber wandert in mein ITX-Case - wird sicher wohlig warm :)

redpanther
2025-01-29, 11:44:57
Frage das mal das Nvidia-Marketing. Dort wurde ständig 4k mit DLSS-Performance als Baseline Frames gebencht was weniger kostet als WQHD nativ.
Marketing = Werbung

Glaubst du IRGEND einer Werbung?

PHuV
2025-01-29, 11:52:13
Yup und ich kenne die Kontingente für zumindest einen (sehr grossen) Distributionskanal. Die Anzahl kann man teilweise an einer Hand abzählen und sind komplett durchallokiert. Völlig unabhängig jeglicher berechtigter Kritik wird die Karte ein Traum jedes Scalpers - darauf wette ich.

Nochmals die Frage, weil sie wohl unterging. Ist das Deiner Einschätzung und Erinnerung nach besser oder schlechter als damals bei Release der 4090?

Scose
2025-01-29, 11:55:43
Schlechter als bei der 4090 damals?

Kommt auf die Stückzahlen der anderen Vertriebskanäle darauf an aber was man so hört und liest, ist es überall das gleiche und dann würd ich meinen ja. Bin selbst gespannt auf morgen - Preis hin oder her.

Colin MacLaren
2025-01-29, 11:56:06
Die Gebrauchtpreise für 4090 auf ebay haben seit vorgestern auch direkt wieder angezogen. Sind wieder bei ~1.800 EUR.

Lawmachine79
2025-01-29, 12:08:45
Weit weg von der 4090. Echt enttäuschend.
Ich finde es super :D.

Marketing = Werbung

Glaubst du IRGEND einer Werbung?
Der von AMD.

Palpatin
2025-01-29, 12:20:31
Ich finde den Abstand von der 4080 Super zur 5080 auch recht mau. Hier ist die Empörung und Enttäuschung viel angebrachter als bei der 5090 im Abstand zur 4090.
Naja wenn man den Preis mit einbezieht ist es in etwa gleich glorreich. :freak:

DrFreaK666
2025-01-29, 12:25:53
Ich finde den Abstand von der 4080 Super zur 5080 auch recht mau...

Die Karte wird in einigen Reviews sicherlich 4080 Ti Super heißen :D

Kriegsgeier
2025-01-29, 12:26:32
Hier, Preise aus Spanien:

https://es-store.msi.com/collections/tarjetas-graficas-nvidia-rtx-50-series?sort_by=best-selling

Exxtreme
2025-01-29, 12:31:02
Hier, Preise aus Spanien:

https://es-store.msi.com/collections/tarjetas-graficas-nvidia-rtx-50-series?sort_by=best-selling

LOL, die Aio-Version nur 100 EUR mehr? Ich hätte da mit 500 EUR mehr gerechnet. ;D Und Spanien hat einen MwSt.-Satz von 21%. Nur zur Info :)

Gouvernator
2025-01-29, 12:49:34
Hier, Preise aus Spanien:

https://es-store.msi.com/collections/tarjetas-graficas-nvidia-rtx-50-series?sort_by=best-selling
Damit habe ich für 48Gb Vram gerechnet. Irgendwann erreicht man solche absurde Preis-Regionen wo man locker sein Hobby wechseln kann. Für 4000€ bekommt man schon einen neuen Marken 125er Roller.

Sardaukar.nsn
2025-01-29, 12:50:36
LOL, die Aio-Version nur 100 EUR mehr? Ich hätte da mit 500 EUR mehr gerechnet. ;D Und Spanien hat einen MwSt.-Satz von 21%. Nur zur Info :)

Ist doch so. Einsteiger 5080 für 1,1k€ und die Suprim AIO für 1,6k€.

PHuV
2025-01-29, 12:52:09
Kommt auf die Stückzahlen der anderen Vertriebskanäle darauf an aber was man so hört und liest, ist es überall das gleiche und dann würd ich meinen ja. Bin selbst gespannt auf morgen - Preis hin oder her.
Ok, dann heißt es doch für mich morgen eher anstellen, und die Söhne müssen dann für mich online die FE ordern.

Kriegsgeier
2025-01-29, 12:56:47
Morgen? Ne, jetzt! Damit du erster bist oder campen da schon welche in Berlin?

The_Invisible
2025-01-29, 12:57:51
Ist doch so. Einsteiger 5080 für 1,1k€ und die Suprim AIO für 1,6k€.

Und da jammern die AIBs das keine Marge drinnen ist, ja klar...

Morgen? Ne, jetzt! Damit du erster bist oder campen da schon welche in Berlin?

In den USA sinds kreativer: https://www.reddit.com/r/nvidia/comments/1icouqs/ethics_of_paying_a_homeless_guy_i_know_to_line_up/

Kriegsgeier
2025-01-29, 13:02:38
https://videocardz.com/newz/japanese-store-to-hold-lottery-for-potential-geforce-rtx-5090-5080-buyers



LOL, Liest mal den bestbewerteten Kommentar! GEIL!

Raff
2025-01-29, 13:09:03
Marge Simpson lässt grüßen.

;D :up:

Hoffentlich arbeitet auch jemand mit dem Namen bei Nvidia.

Damit habe ich für 48Gb Vram gerechnet. Irgendwann erreicht man solche absurde Preis-Regionen wo man locker sein Hobby wechseln kann. Für 4000€ bekommt man schon einen neuen Marken 125er Roller.

Dafür muss man aber ans Tageslicht, mit frischer Luft und so, uärks. :freak:

MfG
Raff

PHuV
2025-01-29, 13:36:30
Für alle anderen gibts es eine Sparvariante als Fake Attrappe für 69 €:

https://www.kleinanzeigen.de/s-anzeige/3d-druck-rtx-5090-founders-edition/2988490400-168-9065

Super, so viele Leute, die jetzt schon suchen. :rolleyes:
Morgen? Ne, jetzt! Damit du erster bist oder campen da schon welche in Berlin?
Na, so bescheuert bin ich dann doch nicht, ich werde morgen, so wie die Male davor, ca. 1 Stunde vorher hineiern. Aber ich lasse mich da mit nem Uber hinfahren. :cool: Das Regenwetter wie heute tu ich mir mit dem Fahrrad nicht mehr an.

BTW war ich in den letzten Jahren bei der 3090 und 4090 hier immer der erste im Forum, der die neueste GPU hatte, und damals die GTX 980, die anderen waren online bestellte Titans oder 2080TI.

The_Invisible
2025-01-29, 13:40:42
Für alle anderen gibts es eine Sparvariante als Fake Attrappe für 69 €:

https://www.kleinanzeigen.de/s-anzeige/3d-druck-rtx-5090-founders-edition/2988490400-168-9065

Super, so viele Leute, die jetzt schon suchen. :rolleyes:

Na, so bescheuert bin ich dann doch nicht, ich werde morgen, so wie die Male davor, ca. 1 Stunde vorher hineiern. Aber ich lasse mich da mit nem Uber hinfahren. :cool: Das Regenwetter wie heute tu ich mir mit dem Fahrrad nicht mehr an.

Bodyguard für den Heimweg nicht vergessen wenn du eine ergattern solltest :freak:

PHuV
2025-01-29, 13:42:53
https://videocardz.com/newz/japanese-store-to-hold-lottery-for-potential-geforce-rtx-5090-5080-buyers

LOL, Liest mal den bestbewerteten Kommentar! GEIL!
Das könnte da morgen durchaus vor Ort so zugehen, Berlin hartes Pflaster und Co.
Bodyguard für den Heimweg nicht vergessen wenn du eine ergattern solltest :freak:
Ich bin mein eigener Bodyguard. :cool:
Palit GeForce RTX 5090 GameRock Review (https://www.techpowerup.com/review/palit-geforce-rtx-5090-gamerock/)
Die 4090 von Palit war absolut ok, ich kann nichts schlechtes über sie sagen. Hat brav und unauffällig bis zum Verkauf sein Werk getan.

Lawmachine79
2025-01-29, 14:40:27
Das könnte da morgen durchaus vor Ort so zugehen, Berlin hartes Pflaster und Co.

Ich bin mein eigener Bodyguard. :cool:
Palit GeForce RTX 5090 GameRock Review (https://www.techpowerup.com/review/palit-geforce-rtx-5090-gamerock/)
Die 4090 von Palit war absolut ok, ich kann nichts schlechtes über sie sagen. Hat brav und unauffällig bis zum Verkauf sein Werk getan.
Palit, mein tapferer Fernabsatzsoldat. Hat klaglos die Stellung gehalten, bis die richtige Karte kam. "Hit Space to pay respect".

Bei den Pros in dem Review steht "Highly Energy Efficient". Haben die den Rechner gar nicht eingeschaltet?

Exxtreme
2025-01-29, 14:43:57
Palit GeForce RTX 5090 GameRock Review (https://www.techpowerup.com/review/palit-geforce-rtx-5090-gamerock/)
Die 4090 von Palit war absolut ok, ich kann nichts schlechtes über sie sagen. Hat brav und unauffällig bis zum Verkauf sein Werk getan.

Die wird ziemlich heiss wie es ausschaut:
https://www.techpowerup.com/review/palit-geforce-rtx-5090-gamerock/39.html

Lawmachine79
2025-01-29, 14:53:23
Die wird ziemlich heiss wie es ausschaut:
https://www.techpowerup.com/review/palit-geforce-rtx-5090-gamerock/39.html
Muss aber auch nur 10-14 Tage halten.

PHuV
2025-01-29, 15:00:42
Muss aber auch nur 10-14 Tage halten.
Bis zur FE?

Lawmachine79
2025-01-29, 15:03:37
Bis zur FE?
Das kommt darauf an:

1) Welche Karten mit vorinstalliertem Block verfügbar (es gibt m.W. derzeit nur 2 Modelle, Gigabyte und Inno3D)

2) Für welche Karten wird ein Block durch Drittanbieter verfügbar sein und welche Karten empfehlen sich für Umrüstung (auf HWLuxx gibt es meist Tabellen welche Karten z.B. besonders stark durch Spulenfiepen betroffen sind, welche Layouts es gibt etc.).

3) Ggf. AIO?

Sardaukar.nsn
2025-01-29, 15:28:14
2) Für welche Karten wird ein Block durch Drittanbieter verfügbar sein und welche Karten empfehlen sich für Umrüstung (auf HWLuxx gibt es meist Tabellen welche Karten z.B. besonders stark durch Spulenfiepen betroffen sind, welche Layouts es gibt etc.).


Der8auer hat heute angekündigt das er Wasserkühler für die FE, Asus und Palit Karten rausbringen will.

Lawmachine79
2025-01-29, 15:39:17
Der8auer hat heute angekündigt das er Wasserkühler für die FE, Asus und Palit Karten rausbringen will.
Puh, ob er das innerhalb der Widerrufsfrist schafft.

PHuV
2025-01-29, 15:55:59
Die wird ziemlich heiss wie es ausschaut:
https://www.techpowerup.com/review/palit-geforce-rtx-5090-gamerock/39.html
Mist. Gut, ich muß erst morgen schauen, was es vor Ort gibt. Meistens war es eh nur Asus irgendwas. 3090 war eine TUF, 4090 war eine ROG, die 980 eine EVGA, die es ja nicht mehr mit GPUs gibt, und so an sich tot scheint.

Update: Ganz übersehen, es gibt auch schon ein Review der
hardwareluxx - Die MSI GeForce RTX 5090 32G SUPRIM LIQUID SOC im Test (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65383-k%C3%BChler,-leiser-und-auch-schneller-die-msi-geforce-rtx-5090-32g-suprim-liquid-soc-im-test.html)

Update2:
Hier feiert man die 5090 auch ab:

Slashcam - Perfect Match Nvidia Geforce RTX 5090 - Die beste Grafikkarte für Blackmagic DaVinci Resolve (https://www.slashcam.de/artikel/Test/Nvidia-Geforce-RTX-5090---Die-beste-Grafikkarte-fuer-Blackmagic-DaVinci-Resolve.html)
Wer noch auf eine klassische Windows-Desktop/Workstation für seine Medienarbeit setzt, kann sich mit der RTX 5090 ein Spitzensystem für Resolve zusammenschustern, das aktuell schlichtweg konkurrenzlos ist. Angesichts der gebotenen Leistung wirkt der Preis von 2300 Euro für die Karte keineswegs übertrieben.

Nicht nur, dass kein anderer Hersteller in dieser Preislage nur annähernd diese Leistung für GPU-Effekte bieten kann. Auch mit dem endlich integrierten 10b422-Decoding macht Nvidia den Videoschnitt nun für alle Anwender mit professionellen Codec-Formaten noch einmal deutlich responsiver. Und nicht zuletzt werden die in Zukunft immer häufiger anzutreffenden KI-Effekte von dieser Karte bestmöglich unterstützt werden. In Summe ergibt dies ein nahezu uneingeschränkt empfehlenswertes Produkt für alle Resolve Anwender, die noch Zugriff auf einen PCIe-Steckplatz haben - und die gebotene Echtzeitleistung bei der täglichen Arbeit produktiv nutzen können
Und hier mit der 5080 im Test:
0jkP63WyDyU
Fazit hier, für Content sind die 5090 wie die 5080 prima, sogar mit OBS und Streaming läufts besser (Videotests ab 598s).

Wie ich sagte, wenn die Gamer die neuen Blackwells nicht wollen, die Creators da draußen reisen das Nvidia aus den Händen.

Cami
2025-01-30, 00:31:53
Ich finde, das letzte Digital Foundry Video spricht die Sache sehr gut an, dass sich Benchmarks und dergleichen ändern müssen.




## **Zusammenfassung**

Die Diskussion dreht sich darum, wie GPU-Reviews über reine Leistungsmetriken wie Bildraten und Balkendiagramme hinausgehen sollten. Die Sprecher betonen, dass zwar generationsbedingte Leistungsverbesserungen (z. B. ein **30%iger Anstieg**) wichtig sind, sie aber nicht vollständig erfassen, **wie sich das Spielen in der Praxis anfühlt**. Stattdessen bringen moderne GPUs transformative Technologien wie **DLSS, Raytracing, Frame Generation (MFG) und Latenzreduzierung** mit sich, die die Spielerfahrung grundlegend verändern.

### **Wichtige Punkte:**

- **Rohdaten zur Leistung werden zunehmend uninteressant**
- Traditionelle Balkendiagramme mit FPS-Werten sind für viele Zuschauer weniger spannend.
- Reviewer sollten sich darauf konzentrieren, **welche neuen Spielerfahrungen eine leistungsstarke GPU ermöglicht**, anstatt nur Benchmark-Ergebnisse zu zeigen.

- **Transformative Features sind wichtiger als bloße Leistung**
- **Frame Generation (MFG)** ist ein enormer Fortschritt, aber schwer in Reviews zu demonstrieren.
- Features wie **Latenzreduzierung (Reflex, Anti-Lag)** sollten in Leistungsvergleiche einbezogen werden.
- Auch der **Einfluss einer GPU auf die Systemtemperatur und den Stromverbrauch** sollte thematisiert werden.

- **Wie kann man GPU-Reviews verbessern?**
- Anstatt nur rohe FPS-Vergleiche anzustellen, sollte getestet werden:
- **Wie verändern neue GPU-Technologien das Gameplay?** (z. B. fühlt sich MFG bei 400Hz anders an als native 240Hz?)
- **Sind diese Features in der Praxis nützlich?** (z. B. kann eine RTX 4060 eine PlayStation-5-ähnliche Erfahrung liefern?)
- Es gibt Interesse daran, **Latenzmessungen** in Reviews einzubauen, um das Spielgefühl besser darzustellen.

- **Die Herausforderung, diese Fortschritte zu vermitteln**
- Viele Gamer haben **Features wie MFG noch nie selbst erlebt**, was es schwer macht, ihren Wert zu vermitteln.
- Display-Beschränkungen verhindern, dass Reviewer **Dinge wie extrem hohe Bildraten, reduzierte Bewegungsunschärfe oder Frame Generation** realistisch zeigen können.
- Die Diskussion um GPUs muss sich weiterentwickeln – ähnlich wie **Autotests nicht nur die 0-100 km/h-Zeit bewerten**.

---

## **Analyse**

### **1. Der Wandel von Leistungs- zu Erlebnis-basierten Reviews**
Diese Diskussion zeigt einen entscheidenden Wandel auf: Früher war **FPS die wichtigste Kennzahl**, und Leistungstests ließen sich auf ein einfaches „höhere Zahlen = besser“ reduzieren. Doch modernes Gaming ist **nicht nur eine Frage der Rohleistung** – es geht darum, **wie diese Leistung genutzt wird**.

Features wie DLSS, Frame Generation und fortschrittliches Raytracing führen dazu, dass eine schwächere GPU mit besserer Optimierung oft **ein besseres Spielerlebnis bieten kann als eine stärkere GPU mit reinem Rendering**.

Beispiel:
- Eine **RTX 4060 mit DLSS und Frame Generation** kann sich flüssiger anfühlen als eine **RTX 3090 mit nativer 4K-Auflösung**.
- Eine **RTX 5090 mit Ultra-Raytracing** erreicht nur 30 FPS in Cyberpunk, während Konsolen immer noch Upscaling nutzen müssen, um nur RT-Schatten darzustellen.

Das bedeutet: **Die Benutzererfahrung sollte ein zentraler Bestandteil von GPU-Tests werden**, nicht nur die Performance in reinen Zahlen.

### **2. Die Rolle von Latenz & Reaktionszeit in Reviews**
Der Punkt, dass **Latenz „die andere Hälfte der Leistung“ ist**, ist besonders spannend. Gamer interessieren sich nicht nur dafür, **wie viele Bilder pro Sekunde angezeigt werden**, sondern auch dafür, **wie schnell ihre Eingaben umgesetzt werden**. Technologien wie Nvidia Reflex, AMD Anti-Lag und extrem hohe Bildwiederholraten haben einen großen Einfluss, werden aber in GPU-Reviews oft vernachlässigt.

Zukünftige Reviews sollten daher:
✅ **Frame Rate + Latenz nebeneinander vergleichen**.
✅ **Anti-Lag-Funktionen standardmäßig aktivieren**, da viele Gamer sie nutzen.
✅ **Das subjektive Spielgefühl stärker beschreiben** – fühlt sich ein 400Hz-Monitor mit MFG wirklich besser an als ein 240Hz-Erlebnis ohne?

### **3. Das Problem der Darstellung von Frame Generation & hohen Bildraten**
Ein großes Problem ist, dass viele dieser Technologien **nicht in einem Videoformat sichtbar gemacht werden können**. Wenn jemand einen YouTube-Review auf einem **60Hz-LCD** ansieht, wird er nicht sehen, welchen Unterschied ein **400Hz-OLED mit Frame Generation** macht. Das führt zu einer **Diskrepanz zwischen dem, was Reviewer erleben, und dem, was Zuschauer wahrnehmen**.

Mögliche Lösungen:
- **Offscreen-Aufnahmen mit Frame-Rate-Zählern verwenden**.
- **Latenzmessungen statt nur FPS-Werte einblenden**.
- Neue Wege finden, um **subjektive Erfahrungen** zu vermitteln (z. B. Vergleiche mit realen Szenarien).

---

## **Meinung: Die Zukunft von GPU-Reviews**

**GPU-Reviews müssen sich weiterentwickeln.** Einfach nur zu zeigen, dass eine neue Karte **30% schneller als die vorherige Generation ist**, reicht nicht mehr aus, weil:
1. **Feature-Verbesserungen (DLSS, MFG, Anti-Lag) oft wichtiger sind als rohe Leistung.**
2. **Das Spielerlebnis genauso wichtig ist wie technische Metriken.**
3. **Latenz & Reaktionszeit als Kernbestandteile von Tests behandelt werden müssen.**
4. **Frame Generation und extrem hohe Bildraten schwer zu demonstrieren, aber dennoch essenziell sind.**

Anstatt nur zu sagen:
- **„Die RTX 5090 ist 30% schneller als die RTX 4090“**,
sollte es heißen:
- **„Welche neuen Möglichkeiten eröffnet eine RTX 5090, die eine RTX 4090 nicht hatte?“**

So wie **Autotests sich nicht nur auf die Beschleunigung von 0 auf 100 km/h konzentrieren**, sollten GPU-Reviews sich darauf konzentrieren, **wie eine Grafikkarte das Gaming-Erlebnis verändert**, nicht nur, wie viel schneller sie ist. Das bedeutet: **Tests mit realen Szenarien, genauere Latenzdaten und eine tiefere Analyse von Features jenseits der FPS-Zahlen.**



iR68tHsm-zw

Slipknot79
2025-01-30, 01:10:42
@Slipknot79: Der hauptsächliche Gain liegt wohl im Kühler der FE. Wenn man auf sowas Wert legt.


Ich meinte den gain durch DLSS4 auf der 4090. DLSS4-P in besserer Qualität als DLSS3-Q, aber eben mit dem Bums von P.
Das ergibt 50% moar fps in CP2077. Bin schon auf andere Spiele gespannt. (y)
Das ist jedenfalls moar gain als die +-25%-gain von der 4090 auf die 5090. (y)

Ex3cut3r
2025-01-30, 06:46:25
Die 2080 Ti von 2018 ist wohl die beste gealterte GPU ever. DLSS 4 Unterstützung = beste BQ. 11GB immer noch useful, vorallem mit DLSS P und Optimized Setttings.

Eine vergleichbare AMD Karte von 2019 bekommt z.B. kein KI FSR 4.

2080 Ti = Fine Whine. :P
Was wurde Sie doch damals von den ganzen Pascal Usern durch den Kakao gezogen, und? Wo ist Pascal heute? Ich werde es euch sagen, beim Sondermüll. Weil Sie nämlich kein DLSS hat und nicht mal light RT kann. Und als Architektur einfach schlecht gealtert ist.

Sardaukar.nsn
2025-01-30, 06:55:23
@Slipknot79:
Potential für +50% sehe ich von den Eckdaten auch. In 3Dmark und einigen Spielen wohl auch schon messbar und kann ihre "brute force" ausspielen, in anderen weniger. Mal sehen was sich da in der Zukunft noch tut. Andere GPUs in dem Bereich gibt es die nächsten zwei Jahre eh nicht.

@Slipknot79:
Sehe ich inzwischen auch so, aber damals habe ich auch nicht an dieses RTX und DLSS geglaubt. Die wassergekühlte Palit 1080 Ti fand ich aber auch stark genug um noch eine Generation zu skippen.

Etwas mehr Deep-Dive in Blackwell und dessen Potential macht Jufes in seinem 5080er Review. Ist zwar ein komischer Vogel, aber ist Slipknot79 ja auch: https://www.youtube.com/watch?v=lIUGpX6KsnU

Badesalz
2025-01-30, 07:35:42
Blackwell ist keine nextgen GPU. Es ist nur ein Hardwaredongle für lastgen DLSS und MFG.

@Cami
Affengoile Liste :biggrin: ROFLMAO :biggrin:
(Kniest dich direkt auch richtig rein. Herzlich Willkommen...)

DF wohl zu viel in NV-Aktien investiert. Ja mach mal, DF. Lasst uns über euere Eindrücke und Gefühle bei Grakatests reden. Weg von der Technik und Zahlen. Ran an die Belletristik und an die Poesie. Nicht mehr zeigen wie schnell eine Karte ist, sondern erzählen, welche neuen Gefühle beim Ablauf der Testsequenz in euch aufkamen :uup:

Was für ein primitives Brainwashing :down:

Sardaukar.nsn
2025-01-30, 07:43:34
@Badesald: Genau, und deswegen ist die IPC so stark gestiegen und 3,3Ghz Takt waren lastgen auch schon drin. :rolleyes:

Badesalz
2025-01-30, 07:51:21
@sardaukar
Da kann ich leider nicht mitreden. Ich kenne keine Grakatests wo die Ergebnisse mit IPC ausgeschildert sind. Ich kenne nur FPS und Frametimes.

FPS neuerdings in 1x real und 1x herbeihalluziniert. Sorry, IPC als relevante Metrik kenn ich nicht... Hat das so eine ähnliche Relevanz wie bei Intel? :|

Sardaukar.nsn
2025-01-30, 08:03:52
@sardaukar
Da kann ich leider nicht mitreden...

Das fürchte ich auch. Also lass uns doch mal abwarten was heute passiert und wie dieser Blackwell Schrott in den Regalen liegen bleibt :wink:

PHuV
2025-01-30, 09:07:23
Die 2080 Ti von 2018 ist wohl die beste gealterte GPU ever.
Ich habe hier gerade die Bestellung von 2018 gefunden, weil ich nach meine Adressdaten im blöden Nvidia Shop suche, und dort nur die E-Mail-Adresse hinterlegt ist. :mad:

Damals hatte ich für sie direkt bei Nvidia 1.057,98 €. Und erinnere Dich, damals ging schon das Geheule über die Preise los.

ENKORE
2025-01-30, 10:30:43
Kommt mir das eigentlich nur so vor, oder ist beim Power Management noch was kaputt?
Die 5090 scheint ja im Idle fast 50 Watt zu saufen, während die 5080 gemäß den Reviews gestern bei eher akzeptablen ~15 W landet.

Die 2080 Ti von 2018 ist wohl die beste gealterte GPU ever. DLSS 4 Unterstützung = beste BQ. 11GB immer noch useful, vorallem mit DLSS P und Optimized Setttings.

Eine vergleichbare AMD Karte von 2019 bekommt z.B. kein KI FSR 4.

2080 Ti = Fine Whine. :P
Was wurde Sie doch damals von den ganzen Pascal Usern durch den Kakao gezogen, und? Wo ist Pascal heute? Ich werde es euch sagen, beim Sondermüll. Weil Sie nämlich kein DLSS hat und nicht mal light RT kann. Und als Architektur einfach schlecht gealtert ist.

Wenn man kein RT benutzt, ist auch Pascal ziemlich gut gealtert, aktuelle Titel laufen ja nach wie vor und meistens nicht gerade auf low.
Für GPU-Maßstäbe ist das nach ~8 Jahren super. Guck dir mal an, wie eine G80/G92-Karte zum ~Pascal-Launch ausgeschaut hätte. Eher nich so.

Raff
2025-01-30, 10:54:33
Nvidia Geforce RTX 2080 Ti im XXL-Nachtest: Eine Grafikkarte trotzt erfolgreich dem Alter (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/)

:wink:

MfG
Raff

PHuV
2025-01-30, 10:57:01
Ich hab an die 2080TI FE zuletzt keine guten Erinnerungen, da sie bei mir beim Spielen schon im 2. Jahr sehr sehr laut wurde. Also die 3090 drin war, wars wieder leise, und ich war froh, daß ich sie los war.

dildo4u
2025-01-30, 11:00:42
Nvidia Geforce RTX 2080 Ti im XXL-Nachtest: Eine Grafikkarte trotzt erfolgreich dem Alter (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/)

:wink:

MfG
Raff
Jup der Markt ist fuckt die sieht viel zu gut aus erst eine 4080 bringt über 100% mehr Leistung 6 Jahre später.
Und die braucht sogar mehr Strom.

w0mbat
2025-01-30, 11:03:24
Hat jemand eine bekommen? Waren ja keine 5 Sekunden. Ich konnte drücken, aber im Warenkorb dann kein Checkout machen... :confused:

The_Invisible
2025-01-30, 11:04:19
Hat jemand eine bekommen? Waren ja keine 5 Sekunden. Ich konnte drücken, aber im Warenkorb dann kein Checkout machen... :confused:

Hä ich dachte ab 15 Uhr ;D

Badesalz
2025-01-30, 11:05:30
Hat jemand eine bekommen?WOZU? Da geht keine Wakü drauf und die wäre bei dem Kühler fast schon entscheidend. Auf die FE geht aber kein Wakü. Fertig.

Wuge
2025-01-30, 15:56:52
Hat jemand eine bekommen? Waren ja keine 5 Sekunden. Ich konnte drücken, aber im Warenkorb dann kein Checkout machen... :confused:

Wo führte der link hin? Direkt bei NV?
Ich hab den Button nie aktiv gesehen.

blaidd
2025-01-31, 21:11:54
Dieses permanente Testen von Cyberpunk finde ich auch daneben. Die Engine ist tot, die kommt in keinem zukünftigen Game mehr. Warum testet man das so ausgiebig?


Das ist oft das erste Spiel, das die ganzen neuen (Nvidia-)Features bekommt.
Es gibt nicht selten schlicht nichts anderes zu testen (zumindest "mit allen beworbenen Features").

Weil es die Melkkuh von Nvidia ist. :) Ich finds übrigens auch nur noch affig. Wird Zeit für GTA VI dann ist CP77 endlich Geschichte.
Es ist ein wenig überrepräsentiert, ja. Beim nächsten Nvidia-Feature teste ich mal was anderes. :)

OC_Burner
2025-02-01, 00:46:19
Wurde explizit in einem der zahlreichen Reviews mal getestet, ob der Displayport 2.1 Anschluss der Founders Edition von der 5080/5090 bei voller Nutzung der Bandbreite (z.B. 4K 240Hz ohne DSC) auch solche Schwierigkeiten macht wie die PCIe 5.0 Anbindung?

Der Übergangswiederstand durch die Steckverbindung zwischen den Platinen, wird doch auch hier höher sein und evtl. Schwierigkeiten verursachen. Frage nur Interessehalber.

Emil_i_Lönneberga
2025-02-01, 10:13:03
WOZU? Da geht keine Wakü drauf und die wäre bei dem Kühler fast schon entscheidend. Auf die FE geht aber kein Wakü. Fertig.

Da geht Wakü. Fertig.

https://www.overclock.net/threads/official-nvidia-rtx-5090-owners-club.1814246/page-92?post_id=29420683#post-29420683

Yes it's true. We already finished the first prototype and are currently validating if it's a product we can offer for production.

https://www.hardwareluxx.de/community/threads/ezmodding-bykski-produktinfo-supportthread.1224416/page-79#post-30656967

Die FE dauert leider noch etwas, der Kühler ist zwar fertig entwickelt und per CAD abgeglichen, da wir die Karte selbst aber leider auch erst bei Release bekommen können wir sie auch erst dann richtig testen.

DrFreaK666
2025-02-03, 14:06:17
One of the sellers at the third-party outlet, Goofish, has stated that all NVIDIA GeForce RTX 5090 & RTX 5090D GPUs are affected by the same issue and there's a high probability that the latest drivers will crash the card and make it unrecognizable by the system.
https://wccftech.com/nvidia-geforce-rtx-5090-5090d-gpus-getting-bricked-possibly-driver-bios-pcie-issues/

MiamiNice
2025-02-03, 14:18:17
https://wccftech.com/nvidia-geforce-rtx-5090-5090d-gpus-getting-bricked-possibly-driver-bios-pcie-issues/

;D;D;D;D;D
Guter Post :up:

dargo
2025-02-03, 14:35:38
Was für eine Blamage von Nvidia. :facepalm: Jetzt fehlt nur noch, dass die Stecker anfangen zu schmelzen, das wäre noch die Kirsche auf der Sahnetorte. :ulol:

Linmoum
2025-02-03, 15:03:36
Dass das Bild schwarz bleibt und/oder die Grafikkarte nicht (mehr) erkannt wird nach Treiberinstallation, hatte ich damals sowohl mit der 6900XT als auch vorher schon mit einer 2080. Klingt jetzt erstmal wenig spektakulär.

Exxtreme
2025-02-03, 15:04:12
Dass das Bild schwarz bleibt und/oder die Grafikkarte nicht (mehr) erkannt wird nach Treiberinstallation, hatte ich damals sowohl mit der 6900XT als auch vorher schon mit einer 2080. Klingt jetzt erstmal wenig spektakulär.

Und was war der Fix?

Matrix316
2025-02-03, 15:04:38
Ist das vielleicht der Grund, warum man die Karten zurückhält? :uponder:

rentex
2025-02-03, 15:18:12
Ist das vielleicht der Grund, warum man die Karten zurückhält? :uponder:

Hoffentlich nicht. Würde ne üble Melange aus diesem Problem, Trump Zölle und DeepSeek Nachwehen geben...

DrFreaK666
2025-02-03, 15:18:40
Dass das Bild schwarz bleibt und/oder die Grafikkarte nicht (mehr) erkannt wird nach Treiberinstallation, hatte ich damals sowohl mit der 6900XT als auch vorher schon mit einer 2080. Klingt jetzt erstmal wenig spektakulär.

Ja wenn es bei dir so war, dann ist ja alles gut.
Kann natürlich nicht an deinem System gelegen haben

MiamiNice
2025-02-03, 15:21:07
Ist das vielleicht der Grund, warum man die Karten zurückhält? :uponder:

Dafür ist der Grund die kurze Validierungszeit von 2 Tagen bis 2 Wochen und das so Dinge wie Flüssigmetall verwendet werden müssen. Eigentlich müssen die Karten erstmal einen Monat unter Volllast laufen um Erfahrungen damit zu sammeln beim Hersteller. Es gab aber, wie schon geschrieben, nur wenige Tage.

Hakim
2025-02-03, 15:23:38
Hm könnte echt was mit dem PCIe 5.0 zu tun haben? Wäre mal interessant wenn die wo es schwarz wird im BIOS wie der Bau8er auf 4.0 stellen und schauen ob es dann läuft.

Linmoum
2025-02-03, 15:24:23
Ja wenn es bei dir so war, dann ist ja alles gut.
Kann natürlich nicht an deinem System gelegen habenIch habe seinerzeit gleichlautende Berichte u.a. bei Nvidia im Forum gefunden, als das bei meiner 2080 aufgetreten ist. Lag halt am Treiber. Aber danke für dein Feedback.

x-force
2025-02-03, 15:26:03
Dafür ist der Grund die kurze Validierungszeit von 2 Tagen bis 2 Wochen und das so Dinge wie Flüssigmetall verwendet werden müssen. Eigentlich müssen die Karten erstmal einen Monat unter Volllast laufen um Erfahrungen damit zu sammeln beim Hersteller

du kannst sicher sein, dass nvidia sowas schon lange vorher an prototypen getestet hat.

wir werden auch bestimmt nicht auf allen partnerkarten ne indium/galliumlegierung sehen.

MiamiNice
2025-02-03, 15:26:14
Denke ich auch, gerade bei der FE mit dem internen Riser Kabeln die die 3 Platinen verbinden. Völliger Murks.

Exxtreme
2025-02-03, 15:28:14
Fazit: keine FE- oder MBA-Karten kaufen. ;D Da macht das Bild der FE bei Ebay für 1.169 EUR weniger Ärger. ;D

basix
2025-02-03, 15:28:27
Dass das Bild schwarz bleibt und/oder die Grafikkarte nicht (mehr) erkannt wird nach Treiberinstallation, hatte ich damals sowohl mit der 6900XT als auch vorher schon mit einer 2080. Klingt jetzt erstmal wenig spektakulär.

Ich weiss nicht, ob der Release Treiber generell instabil ist. Weiss nicht wie das auf RTX50 aussieht aber es gibt massig Probleme mit z.B. RTX40 Karten, siehe Nvidia Forum. Ich habe auch auf den 566.36 zurückmigriert, weil das System einfach instabil war und auch Spiele einfach nicht starteten. All diese Probleme gibt es mit dem alten Treiber nicht.

MiamiNice
2025-02-03, 15:28:35
du kannst sicher sein, dass nvidia sowas schon lange vorher an prototypen getestet hat.

wir werden auch bestimmt nicht auf allen partnerkarten ne indium/galliumlegierung sehen.

NV selbst nutzt kein Flüssigmetall sondern PCP. Aber z.b. Gigabyte soll auf der dicken Wasserkarte Flüssigmetall nutzen. Das ist tatsächlich auch die, die bisher noch nicht gesehen wurde im freiem Verkauf.

dargo
2025-02-03, 15:35:24
Dafür ist der Grund die kurze Validierungszeit von 2 Tagen bis 2 Wochen und das so Dinge wie Flüssigmetall verwendet werden müssen. Eigentlich müssen die Karten erstmal einen Monat unter Volllast laufen um Erfahrungen damit zu sammeln beim Hersteller. Es gab aber, wie schon geschrieben, nur wenige Tage.
Nun mal langsam... Flüssigmetall wird nur bei der 5090FE verwendet oder macht das auch irgendein AIB? Und Nvidia hatte selbst auch nur 2 Tage Zeit zur Validierung? :ulol:

Exxtreme
2025-02-03, 15:40:17
Ich weiss nicht, ob der Release Treiber generell instabil ist. Weiss nicht wie das auf RTX50 aussieht aber es gibt massig Probleme mit z.B. RTX40 Karten, siehe Nvidia Forum. Ich habe auch auf den 566.36 zurückmigriert, weil das System einfach instabil war und auch Spiele einfach nicht starteten. All diese Probleme gibt es mit dem alten Treiber nicht.

Naja, du betreibst die Karte auch offenbar ausserhalb der Spec. Kann gut sein, dass es in Zukunft auch nicht besser wird mit neueren Treibern.

basix
2025-02-03, 16:24:10
Ich habe "nur" UV auf dem Core und das mit Sicherheitsmarge. Es gibt auch etliche User mit RTX40 Mobile mit ähnlichen Problemen und die werden wohl weniger oft vom Default abweichen. Und dass es auf 566.36 komplett stabil läuft ist auch ein Zeichen, dass es nicht mein System ist. Wie im 4090 Thread bereits erwähnt, die Spiele stürzen nicht ab während dem Spielen. Sondern sie starten gar nicht erst oder stürzen ab, wenn man aus dem Hauptmenü einen Spielstand laden will.

The_Invisible
2025-02-03, 16:30:14
Ich weiss nicht, ob der Release Treiber generell instabil ist. Weiss nicht wie das auf RTX50 aussieht aber es gibt massig Probleme mit z.B. RTX40 Karten, siehe Nvidia Forum. Ich habe auch auf den 566.36 zurückmigriert, weil das System einfach instabil war und auch Spiele einfach nicht starteten. All diese Probleme gibt es mit dem alten Treiber nicht.

Wenn OC/UV würde ich mal mit Normaltakt testen, anscheinend lastet der neue Treiber besser aus oder macht was anders. Auch der OC-Scanner gibt anscheinend eine andere Kurve.

@FE
Mir waren die internen Riser bei der FE schon von Anfang an suspekt, da laufen bei PCIe5 64GB/s full duplex drüber, zu den Display Ausgängen das gleiche, Displayport 2.1 + 3 Ausgänge sind 3x 80Gbit :freak:

x-force
2025-02-03, 16:39:40
NV selbst nutzt kein Flüssigmetall sondern PCP.

wofür steht das?

ist das igors graphit pad?
unter dem namen kenne ich nur phenylcyclohexylpiperidin und pentachlorphenol, also dissoziativum und fungizid :freak:

redpanther
2025-02-03, 16:39:42
Und dass es auf 566.36 komplett stabil läuft ist auch ein Zeichen, dass es nicht mein System ist. .

Nö, das wäre es nur, wenn du auch Default settings nutzen würdest.
Lass die Spannung auf Default und nutz nur das Powerlimit um sie Effizienter zu machen wenn nötig. Und dann schau mal wie es sich verhält.

MiamiNice
2025-02-03, 16:49:02
wofür steht das?

ist das igors graphit pad?
unter dem namen kenne ich nur phenylcyclohexylpiperidin und pentachlorphenol, also dissoziativum und fungizid :freak:

Phase Change Pad
So was hier:
https://www.amazon.de/-/en/PTM7950-Change-Thermal-Conductive-Silicone/dp/B0BRJB8JNX
https://www.thermal-grizzly.com/en/phasesheet-ptm/s-tg-ps-50-40

Nun mal langsam... Flüssigmetall wird nur bei der 5090FE verwendet oder macht das auch irgendein AIB? Und Nvidia hatte selbst auch nur 2 Tage Zeit zur Validierung? :ulol:

So weit mir bekannt, nutzt NV auf der 5090 ein PCP. Muss aber nicht stimmen. AIBs nutzen auf den großen Karten scheinbar Flüssigmetall, auf jeden Fall Gigabyte auf den Wasserkarten. Die 5090 Astral, also Asus, nutzt PCP auf allen 5090iger Karten. Bei den anderen Herstellern habe ich kein Interesse, daher nicht geschaut & keine Ahnung.

Langlay
2025-02-03, 16:55:58
So weit mir bekannt, nutzt NV auf der 5090 ein PCP.


Dann irrst du. Ist Flüssigmetal auf den FE Karten.


https://i.imgur.com/il135Oa.jpeg


https://youtu.be/IyeoVe_8T3A?si=e5db1emQgzE9srwS&t=1011

x-force
2025-02-03, 17:09:41
Dann irrst du. Ist Flüssigmetal auf den FE Karten.

positiv betrachtet: spart dem kunden die arbeit es selbst zu machen.
negativ betrachtet: der kühler würde ohne nicht funktionieren und man hat kein optimierungspotential.

Wuge
2025-02-03, 17:13:51
Boah geil... fertig isoliert. Jetzt will ich erstrecht ne FE

MiamiNice
2025-02-03, 17:17:25
Dann irrst du. Ist Flüssigmetal auf den FE Karten.


https://i.imgur.com/il135Oa.jpeg


https://youtu.be/IyeoVe_8T3A?si=e5db1emQgzE9srwS&t=1011

Danke, gut zu wissen.

Boah geil... fertig isoliert. Jetzt will ich erstrecht ne FE

Dir sind die PCI-E Probleme bekannt, wegen dem 3 geteiltem PCB & dem internen Riser auf den FE Karten?

dargo
2025-02-03, 17:30:46
Dir sind die PCI-E Probleme bekannt, wegen dem 3 geteiltem PCB & dem internen Riser auf den FE Karten?
Lass ihn doch die FE kaufen, manche lernen nur durch Schmerz. ;)

w0mbat
2025-02-03, 17:39:00
Was für PCIe Probleme?

Angiesan
2025-02-03, 17:43:21
Lass ihn doch die FE kaufen, manche lernen nur durch Schmerz. ;)

Ist das so, oder bezieht sich das alles auf den Test von Igor?

Ich frage deshalb in allen "Skandalen" wo er trotz guter Ausbildung und Kontakten immer wieder den Checker raushängen ließ musste er am Schluss zurückrudern, würde mich nicht wundern, wenn es hier genau so wäre. Am Schluss kommt dann wieder eine Ausrede ....., dass das Riserkabel die Probleme verursacht hätte oder der schon von den vielen Tests ausgenudelte PCIe Slot seines Boards usw.

Sollte es so sein, wäre ich vorsichtig, vielleicht will man aber auch einfach den Kreis der Interessenten verkleinern:D

Der_Korken
2025-02-03, 17:46:23
Ist das so, oder bezieht sich das alles auf den Test von Igor?

Ich frage deshalb in allen "Skandalen" wo er trotz guter Ausbildung und Kontakten immer wieder den Checker raushängen ließ musste er am Schluss zurückrudern, würde mich nicht wundern, wenn es hier genau so wäre. Am Schluss kommt dann wieder eine Ausrede ....., dass das Riserkabel die Probleme verursacht hätte oder der schon von den vielen Tests ausgenudelte PCIe Slot seines Boards usw.

Sollte es so sein, wäre ich vorsichtig, vielleicht will man aber auch einfach den Kreis der Interessenten verkleinern:D

der8auer hatte mit seiner 5080 auch massive Probleme mit PCIe 5.0. Mit der 5090 komischerweise nicht. Es ist also nicht auf allen FEs kaputt, aber ein Einzelfall anscheinend auch nicht.

Angiesan
2025-02-03, 17:50:15
der8auer hatte mit seiner 5080 auch massive Probleme mit PCIe 5.0. Mit der 5090 komischerweise nicht. Es ist also nicht auf allen FEs kaputt, aber ein Einzelfall anscheinend auch nicht.

Danke, den Test der 5080 hatte ich mir nicht angeschaut.

MiamiNice
2025-02-03, 17:53:23
Was für PCIe Probleme?

Die FE Karten bestehen aus 3 Platinen. Die Hauptplatine mit dem Chip + Speicher + Stromversorgung, eine Platine mit den Ausgängen und eine Platine die den PCI-E Connector trägt. Diese 3 Platinen sind intern über Flachbandkabel verbunden. Scheinbar führt speziell die Tatsache, dass der PCI-E Connector nicht mit auf der Hauptplatine sitzt, zu Latenzen. Teilweise lassen sich FE Karten nicht im PCI-E 5 Modus betreiben, werden nicht erkannt, Riser Kabel funktionieren nicht, man muss PCI-E 4 im Mainboard forcieren. Es ist noch nicht ganz klar welche Kombis (GPU + Board) betroffen sind, aber es gibt halt irgendwie Probleme damit. Partnerkarten, also alle Karten mit einem PCB, haben diese Probleme nicht.

Wuge
2025-02-03, 19:25:38
Ich hatte bisher erst von einem Fall gehört, darauf geb ich nix. Aber wenn das ein Massenphänomen ist.. okay.. hab mir das Zerleg-Video angesehen, macht glaube eh wenig Spaß die auf Wakü umzubauen.

basix
2025-02-03, 20:29:21
Nö, das wäre es nur, wenn du auch Default settings nutzen würdest.

Default hatte auch getestet. Selbes Resultat. Spiel startet nicht oder stürzt beim Spielstand laden ab. Es ist ein Treiber-Issue.

Ich bin schon länger dabei und weiss, wie man Stabilitätsprobleme von HW vs. SW evaluieren kann ;)

HarryHirsch
2025-02-03, 21:13:56
Die FE Karten bestehen aus 3 Platinen. Die Hauptplatine mit dem Chip + Speicher + Stromversorgung, eine Platine mit den Ausgängen und eine Platine die den PCI-E Connector trägt. Diese 3 Platinen sind intern über Flachbandkabel verbunden. Scheinbar führt speziell die Tatsache, dass der PCI-E Connector nicht mit auf der Hauptplatine sitzt, zu Latenzen. Teilweise lassen sich FE Karten nicht im PCI-E 5 Modus betreiben, werden nicht erkannt, Riser Kabel funktionieren nicht, man muss PCI-E 4 im Mainboard forcieren. Es ist noch nicht ganz klar welche Kombis (GPU + Board) betroffen sind, aber es gibt halt irgendwie Probleme damit. Partnerkarten, also alle Karten mit einem PCB, haben diese Probleme nicht.

je nach anordnung der "flachbandkabel" sollte sich da doch ein wakü anbieten.

ashantus
2025-02-04, 12:17:28
https://www.techpowerup.com/332047/reports-of-bricked-nvidia-geforce-rtx-5090-and-rtx-5090d-surge

Angeblich Probleme mit PCIe 5

hq-hq
2025-02-04, 22:38:34
ja macht sinn auf gen4 im bios zu stellen, hat der Bauer ja auch schon gesagt

woodsdog
2025-02-05, 06:48:26
Gabs eigentlich irgendwo ein brauchbares Review der 5090D, im Ideal von einem halbwegs etablierten westlichen Kanal/Seite?

Raff
2025-02-05, 10:04:54
Gabs eigentlich irgendwo ein brauchbares Review der 5090D, im Ideal von einem halbwegs etablierten westlichen Kanal/Seite?

Das geht nur über Privatkauf, die Karten werden unter keinen Umständen, auch nicht über "drei Ecken", zu westlichen Medien verschickt. :(

___

Btw: Kingdom Come Deliverance 2 ist erschienen und hat großen Appetit auf GPU-Power. Nightly Benchmarks der ersten 16 GPUs anhand der Finalversion (https://www.pcgameshardware.de/Kingdom-Come-Deliverance-2-Spiel-74644/Tests/Tech-Test-Review-Benchmarks-Cryengine-1464706/4/#a1). So läuft der Worstcase-Wald auf einer RTX 5090 mit tüchtiger Übertaktung:

nmp20sixnqk

MfG
Raff

Sardaukar.nsn
2025-02-05, 10:34:47
Interessantes Spiel. Hier mal von "unten"

7hYh8L7SuQA

The_Invisible
2025-02-05, 10:40:02
Das geht nur über Privatkauf, die Karten werden unter keinen Umständen, auch nicht über "drei Ecken", zu westlichen Medien verschickt. :(

___

Btw: Kingdom Come Deliverance 2 ist erschienen und hat großen Appetit auf GPU-Power. Nightly Benchmarks der ersten 16 GPUs anhand der Finalversion (https://www.pcgameshardware.de/Kingdom-Come-Deliverance-2-Spiel-74644/Tests/Tech-Test-Review-Benchmarks-Cryengine-1464706/4/#a1). So läuft der Worstcase-Wald auf einer RTX 5090 mit tüchtiger Übertaktung:

https://youtu.be/nmp20sixnqk

MfG
Raff

Schon fies diese ganzen 5090 Benchmarks von Reviewern die man selber nicht kaufen kann ;)

dargo
2025-02-05, 13:02:02
Was eine Frickelbude. :facepalm: Eventuell erstmal keine Zotac 5090 kaufen, falls überhaupt was dropt. :D

cDuEq1URx5c

dildo4u
2025-02-05, 13:06:15
Ich musste die ZOTAC Software bei mir installieren um das RGB abzuschalten.

Man darf nicht vergessen das Nvidia ja gerade erst die App final veröffentlicht hat.
Daher mussten die OEM vorher ihren eigenen Schrott entwickeln.

Badesalz
2025-02-05, 19:59:14
So läuft der Worstcase-Wald Junge... :usad: Was ist das für eine Gehbewegung? Hat sich da seit Doom1 wirklich nichts getan? Boah killt das die Immersion. Großflächig. Als wenn man einen Spast-Pinocchio führen würde :uclap: Stört euch sowas nicht? Abgestumpft oder?

Was für PCIe Probleme?Jedenfalls nicht einfach welche mit 5090 und nicht einfach nur welche mit 5090

https://www.hardwareluxx.de/community/threads/5090-probleme.1363814/

https://www.hardwareluxx.de/community/threads/probleme-msi-5080-gaming-trio.1363831/

Armaq
2025-02-05, 23:11:23
Jemand wollte doch wissen, warum Inno3D

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65433-inno3d-geforce-rtx-5090-x3-im-test.html?start=2

Hier ein Test, die bauen sehr solide Karten.

Slipknot79
2025-02-06, 02:00:32
Das geht nur über Privatkauf, die Karten werden unter keinen Umständen, auch nicht über "drei Ecken", zu westlichen Medien verschickt. :(


Auf die Idee, dass PCGH die Karte importiert, kommt man nicht? :cool:

rentex
2025-02-06, 05:34:05
ja macht sinn auf gen4 im bios zu stellen, hat der Bauer ja auch schon gesagt

Ja furchtbar sinnvoll. Da hat man ne neue Hardware die vollständig PCIE 5.0 nutzen kann und dann muss man runterschalten.
Langsam wird der Blackwell Release zum schlechtesten von NV.

Hakim
2025-02-06, 06:22:55
Hm schlimmer als NV30? Damals war man von der Performance unterlegen und die unzähligen memes bezüglich dem "Föhn" waren PR Desaster

Glaub das mit PCIe 5 könnten die evtl mit einem BIOS Update lösen. Zeigt halt das man länger zu testen gebraucht hätte. Das gute ist das wegen der Verfügbarkeit nur sehr wenige betroffen sind :)

dargo
2025-02-06, 07:29:44
Jemand wollte doch wissen, warum Inno3D

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65433-inno3d-geforce-rtx-5090-x3-im-test.html?start=2

Hier ein Test, die bauen sehr solide Karten.
Lol... zwei AIBs schaffen es die 5090 in Idle klein zu halten und NV selbst nicht? :freak:


Glaub das mit PCIe 5 könnten die evtl mit einem BIOS Update lösen.
Wenn das Problem komplexer ist werden eventuell auch Mainboard Bios-Updates von Nöten sein damit die beiden wieder vernünftig miteinander kommunizieren können.

dildo4u
2025-02-06, 07:36:50
Der 5080 Release Treiber hat den Verbrauch gesenkt


Besonders bemerkenswert ist die Reduktion bei der RTX 5090, deren Idle-Verbrauch von vormals 34 Watt auf etwas über 20 Watt gesenkt wurde.

Nicht vergleichbar mit dem Wert von Hardware Luxx.

https://www.igorslab.de/nvidia-geforce-rtx-5080-founders-edition-im-test-geforce-rtx-4080-ti-mit-blackwell-genen/10/

Wake
2025-02-06, 07:37:57
Jemand wollte doch wissen, warum Inno3D

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65433-inno3d-geforce-rtx-5090-x3-im-test.html?start=2

Hier ein Test, die bauen sehr solide Karten.
Die war auch mein Top-Pick für goile 90°-Winkelsteckeraction (weil Connector schön frei am Rande statt irgendwo versenkt und rundherum zugebaut^^) bevor mir die FE unterkam.
Bei Ventus/TUF/PNY wars eher Augenmaß und "wird sich scho ausgehen";D.

Hab die aber noch nirgends verfügbar gesehen (oder evtl. nur schlechtes Timing gehabt).

basix
2025-02-06, 07:41:55
Gabs eigentlich irgendwo ein brauchbares Review der 5090D, im Ideal von einem halbwegs etablierten westlichen Kanal/Seite?

Geekerwan finde ich ganz gut. Ist auf Chinesisch aber die haben englische Untertitel. Die gehen auch sehr ins Detail und man wird mit massig Daten erschlagen.

Resultat bei Gaming: 5090D = 5090

dildo4u
2025-02-06, 08:05:04
Leider kein echtes Gold🤬



https://videocardz.com/newz/asus-unveils-rog-astral-geforce-rtx-5090-dhahab-gold-edition

Sardaukar.nsn
2025-02-06, 08:31:16
Also mir gefällt die Wüsten Astral. Ich bin auch generell für mehr Sondermodelle.

Kriegsgeier
2025-02-06, 08:45:39
Was wir auch daraus lernen können ist, dass diese ausgefallenen Modelle einen Spiegel der Kundschaft darstellt.
Wenn man schon eine Käuferschicht für "goldene" Grafikkarten sieht, dann wissen wir wo wir gelandet sind. Schön ist die Karte auf jeden Fall.
Wird aber hier wahrscheinlich für 4500-5000€ verkauft.

Wahnsinn wohin sich der Grafikkartenmarkt sich entwickelt hat.

Mit noch ein wenig und wir überholen die QUADRO-Kundschaft!

Achill
2025-02-06, 09:01:52
Der Hype ist selbst gemacht. Ein Hersteller weiß was passiert, wenn zu wenige Karten zum Start verfügbar sind und dies auch noch angekündigt wurde.

Und auf der anderen Seite braucht es auch Leute die so viel Geld diesmal bereit sind zu zahlen und auch die Erhöhung in der Vergangenheit mit gemacht haben.

Gibt sicherlich auch eine Menge an Kunden die immer kurz vor dem Start einer neuen Generation ihre slte GPU verkauft haben um sich bei jeder Iteration die neue zu finanzieren, da bezahlt man ja nur den Aufpreis ... Passt dann auch zu all der alten Argumentation mit mehr Leistung und darum höherer Preis, zumindest in der Vergangenheit - die Karten sind jetzt wohl doch etwas zu teuer geworden und/oder die Aktien haben noch nicht den gewünschten Stand erreicht.

ChaosTM
2025-02-06, 10:33:31
Ein knappes Angebot führt zu absurden Preisen und die Leute freuen sich dann über das 2,5k "Schnäppchen", das sie ein paar Wochen später gemacht haben.
Beim nächsten mal kann NV dann noch etwas stärker an der Preisschraube drehen und der idiotische Zirkus geht von vorne los.

So "erzieht" man seine Kunden.

Ein paar Wochen warten und dann genug Karten auf den Markt werfen wäre "kontraproduktiv".
Alles Kalkül..

dargo
2025-02-06, 12:36:21
Weiß man eigentlich schon warum die 5090 so beschissen vs. 5080 skaliert? Hat GB202 auch ein enormes Auslastungsproblem, ähnlich wie AD102?

dildo4u
2025-02-06, 12:46:17
CPU Limits? Kingdom Come Renn OK wenn 4080 70 FPS für 320 Watt bringen.


https://i.ibb.co/pcGqBLL/Screenshot-2025-02-06-12-44-16-122-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/DhsdHRR)


https://www.techpowerup.com/review/kingdom-come-deliverance-ii-performance-benchmark/5.html

Raff
2025-02-06, 12:50:59
Fiesere Szene: https://www.pcgameshardware.de/Kingdom-Come-Deliverance-2-Spiel-74644/Tests/Tech-Test-Review-Benchmarks-Cryengine-1464706/4/#a1 ;)

+49 Prozent für die RTX 5090 in UHD, bei weniger Kerntakt. Passiert das nicht, liegt schlicht ein CPU-Limit vor, wie dildo bereits sagte. 100-prozentige Skalierung mit den Rechenwerken kriegt man in Spielen nie.

MfG
Raff

dildo4u
2025-02-06, 12:54:09
Danke bessere Werte wie immer 😊


https://i.ibb.co/zT9bSsVV/Screenshot-2025-02-06-12-52-19-195-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/5gpv5Thh)

dargo
2025-02-06, 13:00:19
CPU Limits? Kingdom Come Renn OK wenn 4080 70 FPS für 320 Watt bringen.


https://i.ibb.co/pcGqBLL/Screenshot-2025-02-06-12-44-16-122-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/DhsdHRR)


https://www.techpowerup.com/review/kingdom-come-deliverance-ii-performance-benchmark/5.html
Hast du meine Frage überhaupt verstanden oder wolltest du mal wieder irgendwas schreiben? :freak: In deinem Beispiel ist die 5090 auch nur lächerliche 46% vorne bei doppelt so vielen SM.

Fiesere Szene: https://www.pcgameshardware.de/Kingdom-Come-Deliverance-2-Spiel-74644/Tests/Tech-Test-Review-Benchmarks-Cryengine-1464706/4/#a1 ;)

+49 Prozent für die RTX 5090 in UHD, bei weniger Kerntakt. Passiert das nicht, liegt schlicht ein CPU-Limit vor, wie dildo bereits sagte. 100-prozentige Skalierung mit den Rechenwerken kriegt man in Spielen nie.

Falsch... siehe 7900XTX vs. 7900XT. Die Skalierung von GB202 ist absolut lächerlich im Vergleich, irgendwas klemmt da gewaltig. Lass es taktnormiert 55-60% sein, da fehlt immer noch eine Menge.

dildo4u
2025-02-06, 13:03:33
Die AMD skalieren nur in 4k so gut du musst natürlich GPU der selben Klasse vergleichen 4070 vs 4080 z.b.

Kann es sein das es hilft das die 5080 höher Taktet?
Der Chip scheint deutlich mehr Potential zu haben.

Raff
2025-02-06, 13:05:37
Falsch... siehe 7900XTX vs. 7900XT. Die Skalierung von GB202 ist absolut lächerlich im Vergleich, irgendwas klemmt da gewaltig. Lass es taktnormiert 55-60% sein, da fehlt immer noch eine Menge.

Nix falsch. ;) Zwischen 7900 XTX und XT hast du auch nur die fetten Sprünge, weil die XTX seltener powerlimitiert ist und konstant höher taktet. Dass die Skalierung hier besser ist, streitet unterdessen niemand ab. Das ist auch leichter bei kleineren Unterschieden.

MfG
Raff

dargo
2025-02-06, 13:08:09
Nix falsch. ;) Zwischen 7900 XTX und XT hast du auch nur die fetten Sprünge, weil die XTX seltener powerlimitiert ist und konstant höher taktet.

Ist doch kompletter Unsinn, Raff. :rolleyes: Taktraten sind absolut vergleichbar im Schnitt bei N31, kann jeder bei CB nachlesen.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7900-xtx-xt-test.82703/seite-3#abschnitt_die_durchschnittlichen_taktraten_unter_last

Raff
2025-02-06, 13:09:10
Zeit für mich, wieder offline zu gehen. :ugly:

MfG
Raff

dildo4u
2025-02-06, 13:10:07
Ist doch kompletter Unsinn, Raff. :rolleyes: Taktraten sind absolut vergleichbar im Schnitt bei N31, kann jeder bei CB nachlesen.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7900-xtx-xt-test.82703/seite-3#abschnitt_die_durchschnittlichen_taktraten_unter_last
Es geht ihm und das Spiel nicht den Durchschnitt.

dargo
2025-02-06, 13:10:42
Wen interessiert ein Spiel? :ucrazy2: Ist wieder Rosinentime angesagt oder wie? Ich hatte gefragt warum die 5090 vs. 5080 so beschissen skaliert. Ist doch wohl logisch, dass ich mich hier nicht auf ein Spiel beziehe. :freak:

dildo4u
2025-02-06, 13:13:24
Es Performt ordentlich im Gegensatz zu den derzeitigen Unreal Mist daher kann man besser sehen was die Karten können.
Es ist Open World und rennt mit 200 FPS ohne Framegen.

https://i.ibb.co/WN85VdwW/Screenshot-2025-02-06-131457.png (https://ibb.co/twjKLNtM)

https://youtu.be/7hYh8L7SuQA?si=r24yu_z3CMmrSY1s&t=643

woodsdog
2025-02-06, 13:14:58
Meine Güte, dein Dunning-Kruger mangels Lesekompetenz nervt kollosal wenn du hier damit auch auch noch die Fachkompetenz vergraulst.

Sowohl Raff als auch Dildo sprechen KLAR von KDC

dargo
2025-02-06, 13:17:01
Es Performt ordentlich im Gegensatz zu dem Unreal Mist daher kann man besser sehen was die Karten können.
Es ist Open World und rennt mit 200 FPS ohne Framegen.
Sag mal hast du einen Knoten im Kopf oder was ist mit dir los?

5090 = 170SM @2645Mhz im Schnitt
5080 = 84SM @2713Mhz im Schnitt

Wenn du früher in Mathe nicht gepennt hattest wird dir auffallen, dass die 5090 einfach nur miserabel mit den Shadern bzw. TFLOPs skaliert.

Raff
2025-02-06, 13:18:16
... und da stimme ich zu. Es gibt aber ein paar Fälle, wo man nahe an den Faktor 2 kommt.

Btw, Pathtracing-Durchschnitt über 8 Spiele in UHD: +66 Prozent für die RTX 5090 bei weniger Takt (https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/5/) (normiert also knapp 70 Prozent).

MfG
Raff

dildo4u
2025-02-06, 13:19:19
Meine Güte, dein Dunning-Kruger mangels Lesekompetenz nervt kollosal wenn du hier damit auch auch noch die Fachkompetenz vergraulst.

Sowohl Raff als auch Dildo sprechen KLAR von KDC

Leider immer das selbe mit ihm warum Pusht NV Framegen weil eine Karte wie 5090 sonst schläft aber das weiß er selber.

dargo
2025-02-06, 13:20:24
Genau... weil Framegen nur die 5090 kann. Grandiose Dildo Logik wieder. :facepalm: Junge, Junge... mit dir über Technik zu diskutieren ist genauso effizient wie mit der Wand zu sprechen.

... und da stimme ich zu. Es gibt aber ein paar Fälle, wo man nahe an den Faktor 2 kommt.

Die wären? 66% bzw. 70% sind noch weit von Faktor 2 entfernt. Und wenn schon eine 5090 bei nur 51fps liegt dann hat das auch schon einen leicht faden Beigeschmack, da recht langsam und somit nicht wirklich praxisrelevant. Die anderen Spiele in deinem Link sind ja noch langsamer. "Künstlich" gestellte Szenen jucken mich nicht. :) Mit künstlich meine ich viel zu langsam und somit nicht nutzbar.

dildo4u
2025-02-06, 13:24:17
Wie Einige Reviews erwähnt haben schon eine 5080 kann zu langsam sein um das neue FG sinnvoll nutzen zu können wie du selber natürlich schon hervorgehoben hast.

Und wie soll sie über 70% bringen sie hat keine 2TB Bandbreite.

Deine Posts sind eh lustig wenn AMD sein neuen Chip kleiner macht und höher Taktet, das ist ebend einfacher als 20000 Cuda Kerne auszulasten.

Armaq
2025-02-06, 14:27:36
Genau... weil Framegen nur die 5090 kann. Grandiose Dildo Logik wieder. :facepalm: Junge, Junge... mit dir über Technik zu diskutieren ist genauso effizient wie mit der Wand zu sprechen.


Die wären? 66% bzw. 70% sind noch weit von Faktor 2 entfernt. Und wenn schon eine 5090 bei nur 51fps liegt dann hat das auch schon einen leicht faden Beigeschmack, da recht langsam und somit nicht wirklich praxisrelevant. Die anderen Spiele in deinem Link sind ja noch langsamer. "Künstlich" gestellte Szenen jucken mich nicht. :) Mit künstlich meine ich viel zu langsam und somit nicht nutzbar.
Das ist keine Grafikkarte, das ist eine ML Karte. Dort sieht man manchmal auch den Unterschied schon besser.

Hakim
2025-02-06, 14:38:12
Bezüglich der PCIe 5.0 Probleme, mir ist aufgefallen das alle Berichte über Probleme ein Test System mit AM5 hatten. Könnte das Problem wohlmöglich da liegen? Reine Spekulation

w0mbat
2025-02-06, 15:19:47
Ich denke das liegt daran, dass fast alle mit ner 5090 ein AM5-System haben, da sie die schnellste Hardware wollen. Die Tester sowieso und alle Enthusiasten auch. Wird's sehr wenig Intel CPUs gegben. Vielleicht ein paar 13900K/14900K.

dildo4u
2025-02-06, 15:21:54
Nvidia selber hat mit 9800x3D gebencht vielleicht machen bestimmte Boards Probleme.

anddill
2025-02-06, 15:26:11
Leute, bitte, nehmt Euch mal zusammen. Komm mir hier vor wie bei einer RTL Gerichtsshow!

Lurtz
2025-02-06, 15:44:36
Es Performt ordentlich im Gegensatz zu den derzeitigen Unreal Mist daher kann man besser sehen was die Karten können.
Es ist Open World und rennt mit 200 FPS ohne Framegen.

Ja, weil es auf dem technischen Stand eines PS4-Spiels "in HD" ist. Wäre schlimm wenn es da immer noch so absurd mies wie der Vorgänger laufen würde (bei dem hat komischerweise noch niemand versucht die Cry Engine als Allerheilsmittel gegen "Unreal-Mist" zu verkaufen).

dildo4u
2025-02-06, 15:48:11
Es Überrasht mich positiv weil der Crysis Remaster böse CPU Limits hatte.
Die Engine Version ist wie du sagst sehr alt.

https://i.ibb.co/SwCgCNgQ/Screenshot-2025-02-06-15-55-22-827-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/gZK8Ky8v)
bb foto (https://de.imgbb.com/)

gnomi
2025-02-07, 09:30:46
UE4 ohne RT wäre da ja eher das Gegenstück.
Etwas offenere Welten wie in Gears 5 gehen gut.
Bei Jedi Survivor ist die Engine gefühlt tatsächlich am Limit.
UE5 ist anders designt/aufgebaut.
Würde mir aber eher Benchmarks mit der 5090 in solchen Spielen ansehen wegen der Verbreitung der Engine jetzt und in naher Zukunft. (quasi Industrie Standard schon)

beats
2025-02-09, 12:57:40
Was ist denn das nun wieder?

https://www.notebookcheck.com/GeForce-RTX-5090-liegt-im-GPU-Compute-Benchmark-deutlich-hinter-RTX-4090-RTX-5080-kommt-kaum-gegen-RTX-4070-Ti-an.958559.0.html

Edgecrusher86
2025-02-09, 13:56:36
Omniwhatever: RTX 5090 vs 4090 Quest 3 Virtual Reality Performance Review | Massive Gains for High Res PCVR (https://www.youtube.com/watch?v=ue_IBysnP-0)

Ein bisschen gewöhnungsbedürftige Stimme von dem Kollegen :freak:, aber - für Highres-VR-Freunde lohnt eine RTX 5090 vor allem Dank der massiven Bandbreite. VRAM schadet natürlich auch nicht. ;)

mironicus
2025-02-09, 14:26:42
Was ist denn das nun wieder?

https://www.notebookcheck.com/GeForce-RTX-5090-liegt-im-GPU-Compute-Benchmark-deutlich-hinter-RTX-4090-RTX-5080-kommt-kaum-gegen-RTX-4070-Ti-an.958559.0.html

Das sie bei niedriger TDP nicht schneller sind als die Vorgänger bei gleichem Fertigungsprozess, damit hätte man rechnen können.

Thomas Gräf
2025-02-09, 15:21:41
Omniwhatever: RTX 5090 vs 4090 Quest 3 Virtual Reality Performance Review | Massive Gains for High Res PCVR (https://www.youtube.com/watch?v=ue_IBysnP-0)

Ein bisschen gewöhnungsbedürftige Stimme von dem Kollegen :freak:, aber - für Highres-VR-Freunde lohnt eine RTX 5090 vor allem Dank der massiven Bandbreite. VRAM schadet natürlich auch nicht. ;)

Danke, is für mich der interessanteste 5090 Test aus'm ganzen Internet.

Edgecrusher86
2025-02-09, 16:30:59
Danke, is für mich der interessanteste 5090 Test aus'm ganzen Internet.

Gern geschehen - dachte ich mir, dass es den Ein oder Anderen interessiert, wo die HW doch durchaus des Öfteren in VR vernichtet werden kann, sprich sich eine neue Generation richtig entfalten mag! :wink:

Thomas Gräf
2025-02-09, 18:28:29
Da brennt es jemanden schon unter den Nägeln ;)

RqorpFkOI8w

War mir von Anfang an klar, auch die 5090 muss richtig unter Wasser.
Zumal wenn sie dauerhaft abliefern soll.

crux2005
2025-02-09, 20:54:05
41eZsOYUVx0

Jede Werbung ist gute Werbung? Ich denke nicht.

Rolsch
2025-02-09, 20:59:51
Gern geschehen - dachte ich mir, dass es den Ein oder Anderen interessiert, wo die HW doch durchaus des Öfteren in VR vernichtet werden kann, sprich sich eine neue Generation richtig entfalten mag! :wink:
Wenn ich den Test richtig verstehe ist allerding bei einer Quest2 kaum ein Unterschied zwischen 4090 und 5090.

[MK2]Mythos
2025-02-09, 22:41:10
https://youtu.be/41eZsOYUVx0

Jede Werbung ist gute Werbung? Ich denke nicht.
Wollte ich auch gerade verlinken. Here we go again. :freak:

Linmoum
2025-02-09, 23:00:07
Third-Party-Kabel. Da weiß man aus der Vergangenheit schon, was einen bei sowas erwarten kann (beispielsweise CableMod mit ihren ersten Adaptern, die sie sogar trotz Defekten noch weiterverkauft hatten). Das Thema kann man wieder aufmachen, wenn sowas mit offiziellen Seasonic/BeQuiet/Corsair/etc.-Kabeln passiert.

Unabhängig davon mir eh ein Rätsel, warum man in dem Fall tausende von Euros für Hardware ausgibt, und dann aber nicht einfach ein passendes und offizielles Kabel direkt von seinem Netzteilhersteller nimmt. Aber muss jeder selbst wissen.

CompuJoe
2025-02-09, 23:00:54
Die Frage ist nur was ist das für ein Kabel was da verwendet wurde? Wir haben im Laden 12VHPWR-Kabel die für 300, 450, 500 und 600 Watt freigegeben sind, bei einigen steht es gar nicht drauf. Wir nutzen nur noch Kabel die für 12V-2x6 600 Watt freigegeben sind.

crux2005
2025-02-09, 23:02:20
Third-Party-Kabel. Da weiß man aus der Vergangenheit schon, was einen bei sowas erwarten kann (beispielsweise CableMod mit ihren ersten Adaptern, die sie sogar trotz Defekten noch weiterverkauft hatten). Das Thema kann man wieder aufmachen, wenn sowas mit offiziellen Seasonic/BeQuiet/Corsair/etc.-Kabeln passiert.

Unabhängig davon mir eh ein Rätsel, warum man in dem Fall tausende von Euros für Hardware ausgibt, und dann aber nicht einfach ein passendes und offizielles Kabel direkt von seinem Netzteilhersteller nimmt. Aber muss jeder selbst wissen.

Genau das gleiche habe ich mich auch gewundert. Der Grund war das 12VHPWR von ASUS war zu lang und er brauchte ein kürzeres.
https://www.reddit.com/r/nvidia/comments/1ilhfk0/rtx_5090fe_molten_12vhpwr/

Die Frage ist nur was ist das für ein Kabel was da verwendet wurde? Wir haben im Laden 12VHPWR-Kabel die für 300, 450, 500 und 600 Watt freigegeben sind, bei einigen steht es gar nicht drauf. Wir nutzen nur noch Kabel die für 600 Watt freigegeben sind.

Dieses: https://www.moddiy.com/products/ATX-3.0-PCIe-5.0-600W-12VHPWR-16-Pin-to-16-Pin-PCIE-Gen-5-Power-Cable.html soll 2 Jahre lang mit der 4090 benutzt worden sein.

CompuJoe
2025-02-09, 23:07:57
Wenn ich mir die Stecker und die Spuren daran ansehe kommt mir das so vor als waren diese nicht vollständig eingesteckt.

Linmoum
2025-02-09, 23:09:23
Das Asus-Netzteil scheint auch noch ein "altes" ohne überarbeitete Buchse zu sein. Weil ich gerade auf den anderen Bildern sehe, dass der Stecker auf beiden Seiten (also auch netzteilseitig) geschmolzen ist. Vielleicht war das auch auf der Seite nicht (mehr) richtig eingesteckt und Auslöser?

Exxtreme
2025-02-09, 23:21:36
Das Asus-Netzteil scheint auch noch ein "altes" ohne überarbeitete Buchse zu sein. Weil ich gerade auf den anderen Bildern sehe, dass der Stecker auf beiden Seiten (also auch netzteilseitig) geschmolzen ist. Vielleicht war das auch auf der Seite nicht (mehr) richtig eingesteckt und Auslöser?

Von der Netzteil-Seite gibt es da keine Änderung bez. 12V-2x6-Anschluss. Die einzige Änderung betrifft die Buchse auf der Grafikkarte.

whetstone
2025-02-10, 00:07:10
Von der Netzteil-Seite gibt es da keine Änderung bez. 12V-2x6-Anschluss. Die einzige Änderung betrifft die Buchse auf der Grafikkarte.

Corsair benutzt ja 2x8Pin bei deren ATX 3.1 Netzteilen, halte ich für die bessere Lösung.

CompuJoe
2025-02-10, 00:09:37
Wir haben uns damals Infrarotthermometer angeschafft und per Furmark die Kabel gecheckt ob was heiß wurde

Linmoum
2025-02-10, 00:15:02
Von der Netzteil-Seite gibt es da keine Änderung bez. 12V-2x6-Anschluss. Die einzige Änderung betrifft die Buchse auf der Grafikkarte.Nein, es betrifft eben nicht nur die Grafikkarte(n). Es gibt genauso neue Netzteile mit nativem 12V-2x6-Anschluss wie beispielsweise Corsairs RMx. Bei den Kabeln selbst ist es egal, da gibt's tatsächlich keine Änderungen.

CompuJoe
2025-02-10, 00:53:05
Man sieht es recht gut, das war nicht richtig eingesteckt!

Thomas Gräf
2025-02-10, 02:14:47
Leute wie immer redet Ihr um den großen Brei drumherum!!!
Der Typ im Vid hat ganz klar gesagt das die fehlende Stromkontrolle
auf der Platine alles abwenden könnte.
Kein Platz auf der FE dafür, aber die Aib's können es.
Warum sucht Ihr immer den Fehler unterm Rasen?

aufkrawall
2025-02-10, 02:18:56
Man sieht es recht gut, das war nicht richtig eingesteckt!
Woran genau erkennt man das?

whetstone
2025-02-10, 02:26:11
Woran genau erkennt man das?
Wenn man denkt, man hat es richtig reingesteckt inkl. klick (muss nicht immer kommen) und optischer überprüfung, drückt man nochmal mit schmackes! ;D
Zotac hat jetzt ne led dranne dafür.

aufkrawall
2025-02-10, 02:40:11
Jo, zur Vermeidung ist klar. Ich leuchte einmal ringsum mit Lampe auf Spalte ab. Werd ich nach den ganzen Horrormeldungen auch nie wieder anders machen.

Sardaukar.nsn
2025-02-10, 06:12:18
Wenn ich mir die Stecker und die Spuren daran ansehe kommt mir das so vor als waren diese nicht vollständig eingesteckt.

Was ist denn das für ein selbstgebautes Frankenstein-Kabel? :freak: Wundert mich nicht das es damit Probleme gibt.

Um den DAUs die nicht richtig einen Stecker einstecken können etwas entgegen zu kommen, setzen einige Hersteller jetzt auf Farbe. Kann man machen.

https://cdn.mos.cms.futurecdn.net/HMRYJGvFQ86bdGyGaeFHVY-1200-80.gif

crux2005
2025-02-10, 06:18:18
Man sieht es recht gut, das war nicht richtig eingesteckt!

Meinst du den helleren Bereich? Ich denke so weit kann der Stecker nicht draußen gewesen sein, 2x6 hat kürzere Sense Pins und so was sollten die schon "merken".

Wie Buildzoid in seinem Video sagt, bei einer 2K Graka sollten die einzelnen Pins auf Widerstand geprüft werden.

Exxtreme
2025-02-10, 12:55:48
Das Kabel ist an beiden Enden geschmolzen. Ergo gehe ich davon aus, dass es für 600 W gar nicht ausgelegt war. Wäre suboptimal wenn der Hersteller eine Rückrufaktion startet wie Cablemod seinerzeit.

Zephyroth
2025-02-10, 13:39:30
Das Kabel ist an beiden Enden geschmolzen. Ergo gehe ich davon aus, dass es für 600 W gar nicht ausgelegt war. Wäre suboptimal wenn der Hersteller eine Rückrufaktion startet wie Cablemod seinerzeit.

Das sind Molex MicroFit-Steckverbinder, soweit ich das sehen kann. Die können pro Kontakt 8.5A (macht also bei 6 Kontakten 52A, sprich 612W). Puh, ja, ziemlich auf Kante gebaut. Denn voller Strom heißt einen Temperaturanstieg von 50K. Hat's also im Gehäuse schon schnuckelige 40°C geht's rauf auf 90°C. Steckt da was nicht ordentlich, dann raucht's ab...

Grüße,
Zeph

CompuJoe
2025-02-10, 13:43:44
Woran genau erkennt man das?

Wenn man den Stecker einsteckt schabt die Buchse über die Pins, hier sieht man vermutlich das dies nicht bis zum Anschlag passiert ist.

Loeschzwerg
2025-02-10, 13:49:53
Das sind Molex MicroFit-Steckverbinder, soweit ich das sehen kann.

Jup, sind es. Und ich halte die für dieses Anwendungsszenario immer noch für die falsche Wahl.

Zephyroth
2025-02-10, 14:02:00
Jup, sind es. Und ich halte die für dieses Anwendungsszenario immer noch für die falsche Wahl.

Ich bin deiner Meinung. Zumindest, wenn sie 600W in der Konfiguration tragen sollen. 450W wäre noch ok gewesen. Hatte beruflich mit den Dingern zu tun, daher kenn' ich die ziemlich genau, was sie können und was nicht. Wäre an der Zeit, mal mit der Spannung hochzugehen und damit den Strom zu reduzieren. Beispielsweise 24V. Dann braucht's nur mehr 25A.

Grüße,
Zeph

Prinzenrolle
2025-02-10, 14:07:12
Das Kabel ist an beiden Enden geschmolzen. Ergo gehe ich davon aus, dass es für 600 W gar nicht ausgelegt war.

Wenn der DAU es nicht richtig einsteckt, kann das Kabel auch nur für 300W ausgelegt sein, es würde dir bei der doppelten Belastung dennoch nicht kokeln.
Ganz klarer Anwenderfehler, ich hoffe der Typ muss den Schaden selber blechen. Soviel Dummheit gehört bestraft.

hq-hq
2025-02-10, 14:10:17
ja das Kabel war grenzwertig, bei einem "Markennetzteil" sollten es 2x 8Pin sein, also netzteilseitig 800Watt, da hat er schon viel selber Schuld die Grenzen des Kabels zu testen

- wobei, war der 8e Pin nicht ein Sense Pin, dann wärens auch nur 3x12V aber zumindest 4x GND

Exxtreme
2025-02-10, 14:24:21
Wenn der DAU es nicht richtig einsteckt, kann das Kabel auch nur für 300W ausgelegt sein, es würde dir bei der doppelten Belastung dennoch nicht kokeln.
Ganz klarer Anwenderfehler, ich hoffe der Typ muss den Schaden selber blechen. Soviel Dummheit gehört bestraft.

Da ist noch viel mehr schief gelaufen. So wie es aussieht, hat er ein Mini-ITX-Gehäuse. :freak: Warum man da einen 575 W-Heizklotz reinsetzt, das weiss wohl nur er. Für sowas nimmt man keinen Luftkühler, der 575 W ins Gehäuse bläst. :freak:

MiamiNice
2025-02-10, 14:28:44
Also die Schuld beim User zu suchen, finde ich irgendwie hart. Woher soll der User wissen, dass die neue 5090 nicht in seinem Mini ITX Gehäuse läuft? Die einschlägigen Medien thematisieren das doch nicht. Ebenso wenig wie man einen Stecker richtig einsteckt. Die Schuld liegt hier bei den Jubelpersern von CB, PCGH, Igors Lab und allen anderen "Fachmedien" die sich mit Hardware auseinandersetzen sollten, aber es nicht mehr tun, weil sie Angst haben beim nächsten Release keine Karte von NV zu bekommen. Mit echtem Journalismus im HW Bereich, gäbe es diese Probleme IMO nicht.
Das die Stecker nicht ausreichen, die Kabel zu warm werden, die Karte zu heiß wird für 10 Liter Gehäuse, das alles ist Sache von Leuten die Hardware testen und Ihre Testergebnisse der Allgemeinheit vorführen und dafür Kohle kassieren.

Lehdro
2025-02-10, 14:31:20
The cable was securely fastened and clicked.
Wenn das so stimmt, dann liegt die Schuld nicht bei ihm, also kein Anwenderfehler.
Wenn dass das Verlinkte von moddiy ist, sollen die gefälligst für Schaden aufkommen.

Die einzige Kritik ist das beharren auf SFF - da schreit immer nach Problemen und faulen Kompromissen. Da kann dann auch mal so etwas bei rauskommen. Verstehe diese Leute aber sowieso nicht, von daher :rolleyes:

Die schlechte Publicity gönne ich NV aber gerne. Der Stecker ist einfach eine Fehlkonstruktion und zudem noch unterdimensioniert. Baut den halt 2x drauf und pro Pin ein Shunt zum ausmessen. So sichert man sich ab, wenn man unbedingt diese technische Krüppelleistung verbauen will.

Ansonsten kommt da sicher noch mehr:
Current situation:

Messaged modDIY. No response as of now

Messaged GN and der8auer.

Since I'm in Berlin, der8auer wants to take a look. Coming over to him tomorrow

Interesting how smoking a 5090FE can lead to such events

hq-hq
2025-02-10, 14:31:37
ich hab grade bei mir mal nachgesehen, ich hab 4 VGA Power-Kabel verwendet, ich weiss das Pinout bei EVGA nicht, wären dann aber mindestens 4x3Pin 12V (RTX4090, kann ja auch 600Watt)

anddill
2025-02-10, 14:33:33
Die 5090 Founders Edition ist explizit für die Anwendung in SFF Gehäusen entwickelt worden.

Exxtreme
2025-02-10, 14:35:05
Also die Schuld beim User zu suchen, finde ich irgendwie hart. Woher soll der User wissen, dass die neue 5090 nicht in seinem Mini ITX Gehäuse läuft?

Der Typ schreibt:

"I am not distant from the PC-building world and know what I'm doing. "

So wie es aussieht bekommt er jetzt von Dunning-Kruger Dauernackenschläge. :freak: Und ich glaube nicht, dass blutige Anfänger eine >2K EUR Grafikkarte kaufen und sie dann selbst einbauen.

Lawmachine79
2025-02-10, 14:37:27
Wenn ich mir die Stecker und die Spuren daran ansehe kommt mir das so vor als waren diese nicht vollständig eingesteckt.
"Just the tip"

Langlay
2025-02-10, 14:37:30
ja das Kabel war grenzwertig, bei einem "Markennetzteil" sollten es 2x 8Pin sein, also netzteilseitig 800Watt, da hat er schon viel selber Schuld die Grenzen des Kabels zu testen

- wobei, war der 8e Pin nicht ein Sense Pin, dann wärens auch nur 3x12V aber zumindest 4x GND


der Sense Pin ist quasi auch ein GND Pin, also 3x 12V 5x GND.

Ich hab auch ein Customkabel, mein Netzteil unterstütz noch kein nativen 12VHPWR. Ich hab von 12VHPWR auf 3x 8 Pin, das sollte zumindest Netzteilseitig keine Sorgen machen.

Da ist noch viel mehr schief gelaufen. So wie es aussieht, hat er ein Mini-ITX-Gehäuse. :freak: Warum man da einen 575 W-Heizklotz reinsetzt, das weiss wohl nur er. Für sowas nimmt man keinen Luftkühler, der 575 W ins Gehäuse bläst. :freak:

Meine 4090 FE kann auch 600W aufnehmen und sitzt in einem 18L SFF Case. Wenn man das richtig macht, geht das schon sehr gut.

MiamiNice
2025-02-10, 14:43:25
Der Typ schreibt:

"I am not distant from the PC-building world and know what I'm doing. "

So wie es aussieht bekommt er jetzt von Dunning-Kruger Dauernackenschläge. :freak: Und ich glaube nicht, dass blutige Anfänger eine >2K EUR Grafikkarte kaufen und sie dann selbst einbauen.

Schreibt nicht irgendwie jeder, er wäre ein Experte nachdem er 5 Minuten ein Youtube Video gesehen hat? Ist dann halt nur blöd, wenn in den Videos eine halbe Stunden über die Technik gelabert wird, was btw. 95% der Zuschauer nicht interessiert, aber 0 Minuten über die Gefahren die von dieser Hardware ausgehen. Es werden FPS Balken gezeigt, aber keine Temp Messung des Luftstroms. Es wird auf Benchtable gebencht, aber nicht im geschlossenen System wie bei den Lesern/Zuschauern @home. Es gibt kein Video darüber wie man die Kabel richtig einsteckt. In den Schulen wird dank Sprachbarrieren und anderen Probleme kein gesunder Menschenverstand mehr mit auf dem Weg gegeben. Woher soll das Wissen über Strom, Hardware, Hitze kommen, wenn man nur noch von 12 bis Mittags denken kann und die Hardwaretester ihrer Aufgabe nicht mehr nachkommen um NV nicht zu verprellen?!?
Und btw: Viele kaufen sich heute eine 2k GPU obwohl die noch nie am PC gespielt haben. Der PC ist total im kommen und jeder hat einen Freund der schon einmal einen PC gebaut hat.

hq-hq
2025-02-10, 15:00:05
okay, bei moddiy kannst dein Kabel selbst zusammenstellen,
geht auch auf 1x 8Pin netzteilseitig, vermutlich wird aber ein Zettel dabei sein wie viel Watt oder für welche Grafikkarten es "zugelassen" ist....

https://www.moddiy.com/products/Custom-Sleeved-PCIE-Modular-Cable-for-NVIDIA-RTX-30-Series-Mini-12-Pin.html

MiamiNice
2025-02-10, 15:08:24
Mit 1x 8 Pin bekommst keine 600 Watt über das Kabel, weil der Sense Pin signalisiert es kann nur 300 Watt. Das wird dann auch auf den Stecker gedruckt, sollte bei moddiy auch so sein. Die GPU steuert wie viel Strom sie aus der Leitung zieht und gibt die 600 Watt nur frei wenn die Sense Pins das auch signalisieren. Ansonsten leuchtet es imo rot an der GPU.

hq-hq
2025-02-10, 15:12:12
hab ich noch nie ausprobiert :freak:

ich sehe schon wir müssen auf 24V gehen im PC, dann wäre das Kabel nicht abgefackelt :biggrin:

Exxtreme
2025-02-10, 15:13:34
ich sehe schon wir müssen auf 24V gehen im PC,

Das wird dann der Startschuss für 1200 W-Grafikkarten. :freak:

MiamiNice
2025-02-10, 15:17:02
1x8 Pin kann 300 Watt übertragen laut Spec. In den 8 Pins am Kabel ist ein Sense Pin mit dabei. Wenn Du jetzt ein Kabel kaufst von Moddiy welches 1x 8 Pin auf den Nv Stecker bietet, hast Du nur einen Sense Pin dabei. Steckst Du das Teil in eine 5090, merkt die 5090 an dem einem Sense Pin, dass nur 300 Watt gehen und läuft nicht an (die 5090 braucht min. 450 Watt am Kabel um anzulaufen). Wenn Du ein Kabel mit 2x 8 Pin auf NV Stecker kaufst, hast Du 2 Sense Pins die zu GPU durchgeschleift werden. 2x 300 Watt = 600 Watt. Also mehr als 450 Watt und die 5090 springt an.
Lange Rede, kurzer Sinn: Die GPU merkt an den Sense Pins wie viel Power so ein Kabel liefern kann bzw. wie es am NT angeschlossen ist. Bei zu wenig Saft bleibt der Bildschirm schwarz. Das gilt auch für die 6 Pin Varianten und deren Kabelpeitschen. 3x 6 Pin müssen es für die 5090 sein damit es anläuft (3x150 Watt).

woodsdog
2025-02-10, 15:21:21
is halt IMO massiv fraglich einen Stecker zu verbauen, der für max 600W ausgelegt is um daran Hardware zu betreiben welche... 600W im Werkszustand säuft... zero Tolleranz für DAUs is halt einfach mal keine gute Idee.

bei JayzTwoCents sind da bei der WC-5090 schon deutlich mehr als 600 geflossen.

die 450W der 4090 sehe ich da weniger als Problem da OC ne entscheidung der User ist und 25% Puffer gefühlt OK sind. die 5090 kommt halt direkt ab Werk mit 100% load auf der Strippe.

MiamiNice
2025-02-10, 15:26:33
Ich finde es fraglich nur einen 600 Watt Stecker zu verbauen an Geräten die locker über 600 Watt ziehen können. Aber sicherlich waren die 10 Cent für eine 2. Strombuchse nicht mehr in NV Budget :wink:
Das ist ein Thema welches man hätte thematisieren sollen in den 5090 Reviews statt irrelevante MFG Balken zu zeigen!

woodsdog
2025-02-10, 15:31:31
Ich finde es fraglich nur einen 600 Watt Stecker zu verbauen an Geräten die locker über 600 Watt ziehen können. Aber sicherlich waren die 10 Cent für eine 2. Strombuchse nicht mehr in NV Budget :wink:
Das ist ein Thema welches man hätte thematisieren sollen in den 5090 Reviews statt irrelevante MFG Balken zu zeigen!

ja, schrieb ich ja einen :wink:

zwei würden die OC jünger abholen und für den Rest ists halt massiv sicherheitsmarge. Absolut unverständlich bei einem >2k Produkt - ja

Armaq
2025-02-10, 15:36:47
Die Tester müssen halt aufhören immer alle das Gleiche zu machen. Aber klar, keiner hat den Mumm zu sagen, es läuft nicht gut. Wobei CB das mit nem ganzen Absatz drin hatte, was 600W mit dem Rest der HW anrichten. Vor allem erinnere mich an das ganze Netzteil-Geblame vor ein paar Jahren. nvidia wird halt nicht geblamt. :)

MiamiNice
2025-02-10, 15:44:47
Wenn man nicht schreibt was NV gerne hätte, bekommt man halt keine Karten mehr vor dem Release. Damit hat man keinen Artikel zum Release und bekommt keine Klickzahlen/Geld. Mich würde das ja massiv anpissen, wenn ich meinen Job, den ich mir ja nicht ohne Grund ausgesucht habe, so verraten müsste. Ist sicherlich wie beim ARD und ZDF. Die Jungs kotzt das sicher auch an, welchen Müll/Propaganda die teilweise verbreiten müssen um im Job zu bleiben. Ich nenne so etwas "rückgratlos".

Exxtreme
2025-02-10, 15:45:38
is halt IMO massiv fraglich einen Stecker zu verbauen, der für max 600W ausgelegt is um daran Hardware zu betreiben welche... 600W im Werkszustand säuft... zero Tolleranz für DAUs is halt einfach mal keine gute Idee.


Naja, die FE zieht 575 W und man hat noch 75 W zusätzlich über den PCIe-Port. Da ist schon Toleranz dabei. Ich glaube, dieses vom Hersteller zusammengebastelte Kabel war nicht für 600 W ausgelegt.

hq-hq
2025-02-10, 15:49:33
1x8 Pin kann 300 Watt übertragen laut Spec. In den 8 Pins am Kabel ist ein Sense Pin mit dabei. Wenn Du jetzt ein Kabel kaufst von Moddiy welches 1x 8 Pin auf den Nv Stecker bietet, hast Du nur einen Sense Pin dabei. Steckst Du das Teil in eine 5090, merkt die 5090 an dem einem Sense Pin, dass nur 300 Watt gehen und läuft nicht an (die 5090 braucht min. 450 Watt am Kabel um anzulaufen). Wenn Du ein Kabel mit 2x 8 Pin auf NV Stecker kaufst, hast Du 2 Sense Pins die zu GPU durchgeschleift werden. 2x 300 Watt = 600 Watt. Also mehr als 450 Watt und die 5090 springt an.
Lange Rede, kurzer Sinn: Die GPU merkt an den Sense Pins wie viel Power so ein Kabel liefern kann bzw. wie es am NT angeschlossen ist. Bei zu wenig Saft bleibt der Bildschirm schwarz. Das gilt auch für die 6 Pin Varianten und deren Kabelpeitschen. 3x 6 Pin müssen es für die 5090 sein damit es anläuft (3x150 Watt).
ja ähm wieso lief die Karte dann mit 2x 6 Pin
ah sorry das ist 1x12Pin PSU Seite

wie wäre der dann belegt, 6x 12v 6x gnd ?
ist ja trotzdem nur wie 2x6 Pin trotzdem lief die 5090 in den Kabelbaumtod

MiamiNice
2025-02-10, 15:52:04
Eine 5090 kann nicht mit 2x6 Pin laufen, die springt einfach nicht an. Hat CB einen Test zu gemacht btw.

https://www.computerbase.de/news/grafikkarten/rtx-5090-an-zu-wenig-kabeln-nur-3x8-pin-pcie-geht-aber-bei-450-watt-tdp-ist-dann-schluss.91265/

Äh, mom. Ich glaube ich liege falsch. Am 8 Pin Kabel gehen nur 150 Watt keine 300 Watt. Es braucht also min. 3x 8 Pin also 450 Watt. 6 Pin sind dann 75 Watt? Daran geht das dann gar nicht.
Das mit den Sense Pin stimmt aber trotzdem. Pro Sense Pin sind es halt 150 Watt und keine 300 Watt. Die 5090 erwartet also 3 Sense Pins eher sie zum Leben erweckt, will aber 4 haben für die maximale Leistung.

Warum hat das Kabel mit 2x 8 Pin 600 Watt?

https://www.corsair.com/de/de/p/pc-components-accessories/cp-8920284/600w-pcie-5-0-12v-2x6-type-4-psu-power-cable-cp-8920284

Armaq
2025-02-10, 16:09:32
Eine 5090 kann nicht mit 2x6 Pin laufen, die springt einfach nicht an. Hat CB einen Test zu gemacht btw.

https://www.computerbase.de/news/grafikkarten/rtx-5090-an-zu-wenig-kabeln-nur-3x8-pin-pcie-geht-aber-bei-450-watt-tdp-ist-dann-schluss.91265/

Äh, mom. Ich glaube ich liege falsch. Am 8 Pin Kabel gehen nur 150 Watt keine 300 Watt. Es braucht also min. 3x 8 Pin also 450 Watt. 6 Pin sind dann 75 Watt? Daran geht das dann gar nicht.
Das mit den Sense Pin stimmt aber trotzdem. Pro Sense Pin sind es halt 150 Watt und keine 300 Watt. Die 5090 erwartet also 3 Sense Pins eher sie zum Leben erweckt, will aber 4 haben für die maximale Leistung.

Warum hat das Kabel mit 2x 8 Pin 600 Watt?

https://www.corsair.com/de/de/p/pc-components-accessories/cp-8920284/600w-pcie-5-0-12v-2x6-type-4-psu-power-cable-cp-8920284

Alle diese Kabel sind so. Auch bei meinem Netzteil von Seasonic.

Exxtreme
2025-02-10, 16:18:51
Warum hat das Kabel mit 2x 8 Pin 600 Watt?

https://www.corsair.com/de/de/p/pc-components-accessories/cp-8920284/600w-pcie-5-0-12v-2x6-type-4-psu-power-cable-cp-8920284

Diese 8-Pin an der Netzteilseite sind proprietär. Da können dann sehr wohl 300 W pro 8-Pin durchgehen.

Prinzenrolle
2025-02-10, 16:32:01
Wenn das so stimmt, dann liegt die Schuld nicht bei ihm, also kein Anwenderfehler.

Natürlich nicht. Niemals nie ein Anwenderfehler.;D
Das wird nun wieder bis zum Sankt Nimmerleinstag ausgeschlachtet.
Ich frage mich warum das bei den Tausenden Reviewern da draußen nicht einem einzigen seit 4090 Launch passiert ist und Custom PC Hersteller kaum Fälle ohne Anwendereingriff verzeichnen? Weil die Leute einfach strunzdumm sind und für ihre eigenen Fehler, die sie nie zugeben würden nun zum 8auer und Co rennen, damit sie das ausgebadet bekommen. Jetzt fehlt nur noch ein Igor der daraufhin überall Fehler und Probleme sieht, die real nicht existieren und mit Cable Mod einen Stecker entwickelt, der dann sicher abraucht.:D


Warum hat das Kabel mit 2x 8 Pin 600 Watt?


Das nennt man dann Pfusch. Zumindest wenn man eine OC 5090 dranhängt.

MiamiNice
2025-02-10, 16:32:38
Das ist echt gefährlich. Bin nicht der Noob vorm Herrn, aber mein 2x 8 Pin auf 2x6 12V Kabel mit 600 Watt Beschriftung hat in meinem Hirn die 150 Watt pro 8Pin mit 300 Watt überschrieben :freak: