Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5090 Review-Thread


Seiten : 1 2 3 4 5 6 7 8 [9] 10

ChaosTM
2025-08-07, 17:13:08
Die 5090er sauft leider sehr viel im Idle oder bei Videos.
2-3x so viel wie Ada.
Lüfter kann man mit via Afterburner ruhigstellen (meistens)

Megamember
2025-08-07, 17:53:04
Unter 30% lässt sich bei der Ventus nicht einstellen.

ChaosTM
2025-08-07, 17:59:58
Das ist eine der Unsitten der meisten 5090er, neben dem Unfug der Beschränkung auf 70% Powertarget.
Das 30% Problem hatte die alte 4090er auch, aber im gedämmten Gehäuse war das gsd. nicht wahrnehmbar*.

* das Anlaufen des Lüfters aber schon

Snoopy69
2025-08-07, 19:52:10
Die 5090er sauft leider sehr viel im Idle oder bei Videos.
2-3x so viel wie Ada.
Lüfter kann man mit via Afterburner ruhigstellen (meistens)
Und noch mehr, wenn sie heiß ist…
Zwischen Kaltstart und warm laufen (ca 55-60C) liegen bei mir ca 10W. Kühle ich die GPU runter, hat sie wieder den Idle-Verbrauch, wie kurz nach Kaltstart

Ausgelesen mit WireView Pro

Wuge
2025-08-08, 11:13:07
Automatische Farbanpassung in Windows deaktivieren reduziert den Idle Verbrauch.

Aber verständlich ist das für mich so oder so nicht. Da wollen sie feingranulares Powergating implementiert haben und dann säuft der Chip obwohl er nichts macht. Evtl. ists auch der Speicher....

The_Invisible
2025-08-08, 11:21:03
Naja, saudicker Chip, 512bit SI und 16 Speicherchips, was erwartet man?

Seit ich meine 2. dedizierte Office/Arbeitsmaschine habe ist mir der idle Wert sowieso egal

SamLombardo
2025-08-08, 11:21:49
Kann ich übrigens auch am UV liegen weil man da nach der landläufigen Methode die komplette kurve hochzieht. Zumindest habe ich das bisher so gemacht. Es hat dann dafür gesorgt, dass der Idle nicht unter 650 mhz geht. Hier wird schön dargestellt wie man das vermeidet.

https://youtu.be/Q7LuzRXtyBo?si=Q6FgLCiRzuW6WHNv

Ab min 11:00.

Hab jetzt mein UV ach dieser Methode eingestellt, funktioniert perfekt und idle nicht mehr bei 650 sondern bei 180 MHz.

Lurtz
2025-08-08, 18:31:37
Zumindest bei der 5070 Ti macht das keinen Unterschied. Der Takt liegt zwar tatsächlich bei ~780 MHz statt ~180 mit meinem UV, aber der Desktop-Verbrauch verändert sich nicht @stock.

Snoopy69
2025-08-08, 18:36:45
@SamLombardo

Macht bei mir laut WireView Pro überhaupt keinen Unterschied. Selbst mit mehr als 2.000MHz in idle. Was aber was ausmacht (und nicht zu wenig), steht oben

btw:
Zur Optimierung…
Mag sein, dass das dem Einen oder Anderen viel Spaß macht, nach einzusparenden Watts zu suchen. Aber übertreibt es nicht. Die investierten „Optimierungs-Stunden“ werden euch nicht geschenkt. Da muss die Kiste lange unoptimiert laufen :wink:


btw2:
Für UV kenne ich mindestens 4 verschiedene Varianten, die fast identisch aussehen, aber sich teilweise extrem unterscheiden, was an Performance rauskommt

Anvisiert wurden bei den 4 Varianten jeweils der gleiche Takt und die gleiche Spannung. Während dem Bench waren die Spannungen der 4 Curves zwar identisch, aber die Takte unterschieden sich um paar hundert MHz

aufkrawall
2025-08-08, 18:43:25
Wird sich mir nie erschließen, weshalb man die ganze Kurve verschieben sollte, wenn es auch mit buchstäblich drei Clicks anders geht.

SamLombardo
2025-08-08, 18:54:36
Interessant hätte ich nicht gedacht dass das nicht ein paar Watt bringt, wenn die GPU 180 statt 780 mhz idled.

Snoopy69
2025-08-08, 19:04:54
Wird sich mir nie erschließen, weshalb man die ganze Kurve verschieben sollte, wenn es auch mit buchstäblich drei Clicks anders geht.
Ich mache es zb so und es performt am Besten (aber nicht, wie im Video oben)
Wie machst du es?

SamLombardo
2025-08-08, 19:11:29
Ich hab übrigens heute (zum ersten Mal überhaupt) den Steel Nomad Benchmark laufen lassen. Dabei zog meine 0.925v untervoltete(!) 5090 trotz UV die Maximalleistung von 575 Watt:eek:. Wie kann denn das sein, ich dachte mit derartigrm UV wär das unmöglich. Hab gleich danach nochmal sonstige Volllast Sachen (KCD2, UE5 Rom) getestet, da spart die UV 100+ Watt im Vergleich zu Stock. Nur im Steel Nomad nicht.

Edit: Meine 5090 macht im Steel Nomad 15900 Punkte, das ist wenn ich das was ich im Netz lese als Vergleich nehme ziemlich klasse;).

Snoopy69
2025-08-08, 19:25:25
Steel Nomad ist einer, der wenigen Benches, bei dem man UV betreiben muss, um max Score zu erreichen

Das hier war mit 915mV…
Eine nicht unwesentliche Rolle spielt der Treiber und das BIOS
https://www.3dmark.com/sn/7853957
https://i.ibb.co/TMRjh6fP/IMG-0617.jpg (https://ibb.co/23PVKx9c)

lilgefo~
2025-08-08, 19:30:25
XCOM 2 ist echt der Knüller nach fast einer Dekade kann man das immer noch nicht flüssig zocken in 4k mit 8xMSAA. 43fps im Hauptmenü mit 360W/~60% Auslastung (mein PL ist offen) Verbrauch@3040Mhz. Mit 4xMSAA läufts aber endlich ohne Drops unter 60fps. Mit Ampere musste man noch auf 2X runter.

Steel Nomad ist einer, der wenigen Benches, bei dem man UV betreiben muss, um max Score zu erreichen

Das hier war mit 915mV…
Eine nicht unwesentliche Rolle spielt der Treiber und das BIOS
https://www.3dmark.com/sn/7853957
https://i.ibb.co/TMRjh6fP/IMG-0617.jpg (https://ibb.co/23PVKx9c)

Und das offene PL.. SteelNomad mit gb202 ohne ShuntMod macht keinen Sinn. Die letzten 10,20,30fps (um von 14k auf 17k zu kommen z.B.) kriegst halt nur mit mehreren hundert W extra mit Taktraten die man sonst auch so erreicht. Tatsächliche Spiele auch mit Pathtracing verhalten sich komplett anders. Für mich ist das ein Müllbench. Jedenfalls mit GB202.

aufkrawall
2025-08-08, 19:58:26
Ich mache es zb so und es performt am Besten (aber nicht, wie im Video oben)
Wie machst du es?
Reset -> einzelnen Punkt hochziehen ->mit shift alles rechts daneben markieren und runterziehen -> apply.
Ist dann zwischen letztem und vorletztem Punkt eine recht steile Kurve. Ist aber egal, wenn man nicht per PT drosseln will.

Snoopy69
2025-08-08, 20:11:58
Zeig mal bitte die Curve…
Könne eine der Schlechtesten sein (Performancemäßig)

Von 4 verschiedenen Varianten performen 2 nahezu identisch. Aber zw der besten und schlechtesten Variante gibt es ca 800 Punte Unterschied in Steel Nomad

aufkrawall
2025-08-08, 20:38:09
Könne eine der Schlechtesten sein (Performancemäßig)

Wieso sollte es.

Snoopy69
2025-08-08, 20:40:37
Ich vermute mal eine, der Schlechtesten:wink:
Es sei denn, man kommt damit klar. Bei Benchmarking sind das Welten

aufkrawall
2025-08-08, 20:49:27
Bei Quatsch-Benchmarks vielleicht. Real sind es -25% Verbrauch (ohne PT-Drosselung eher noch mehr) bei 1,7% weniger fps:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13771516#post13771516

Und der Shit ist einfach seitdem stabil...

The_Invisible
2025-08-08, 21:09:51
Ich hab übrigens heute (zum ersten Mal überhaupt) den Steel Nomad Benchmark laufen lassen. Dabei zog meine 0.925v untervoltete(!) 5090 trotz UV die Maximalleistung von 575 Watt:eek:. Wie kann denn das sein, ich dachte mit derartigrm UV wär das unmöglich. Hab gleich danach nochmal sonstige Volllast Sachen (KCD2, UE5 Rom) getestet, da spart die UV 100+ Watt im Vergleich zu Stock. Nur im Steel Nomad nicht.

Edit: Meine 5090 macht im Steel Nomad 15900 Punkte, das ist wenn ich das was ich im Netz lese als Vergleich nehme ziemlich klasse;).

Deswegen würden mich auch Q2RTX Werte interessieren, wird aber sicher auch locker >500W sein schätz ich mal :D

lilgefo~
2025-08-08, 21:29:40
Deswegen würden mich auch Q2RTX Werte interessieren, wird aber sicher auch locker >500W sein schätz ich mal :D

Natürlich zieht die Karte da über 500W. Ist bei jedem PT Titel so. Wo ist das Problem? Willst du die Performance oder reicht die Kühllösung nicht?

SamLombardo
2025-08-08, 22:35:36
Natürlich zieht die Karte da über 500W. Ist bei jedem PT Titel so. Wo ist das Problem? Willst du die Performance oder reicht die Kühllösung nicht?
Ich kapier halt einfach noch nicht, wie Steel Nomad trotz Voltbegrenzung von 0.925 da die maximal möglichen 575 Watt ziehen kann. In keinem Pathtracing Spiel ist das ansonsten annähernd der Fall (nur wenn in nicht undervolte, dann schon).

Gecko_0815
2025-08-08, 22:42:50
Steel Nomad ist rasterized, kein PT.

Snoopy69
2025-08-08, 22:43:13
@Raff
Gerade für 4,30€ gekäuft… :freak:
https://i.ibb.co/mrfqMxMk/IMG-0625.jpg (https://ibb.co/SDFn9L9b)

lilgefo~
2025-08-08, 22:43:13
Ich kapier halt einfach noch nicht, wie Steel Nomad trotz Voltbegrenzung von 0.925 da die maximal möglichen 575 Watt ziehen kann. In keinem Pathtracing Spiel ist das ansonsten annähernd der Fall (nur wenn in nicht undervolte, dann schon).

Jop, betrifft nur Steel Nomad. Um da auf die besten Ergebnisse zu kommen brauchts ne eigene Curve, die dann nur in Steel Nomad stabil ist und da den Verbrauch drückt. Um da auf gute Punktzahlen zu kommen brauchts >600W, die Taktraten die man dann im Steel Nomad kriegt hat man aber auch ohne die 600W in normalen Spielen. Daher ist der Bench einfach nur da um ihn mit anderen Steel Nomad Werten zu vergleichen. Und da gewinnt der mit dem höchsten PL. Mit der Realität in Spielen hat das nix zu tun. Selbst HL2 RTX etc. saufen deutlich weniger bei höherer Taktrate.

Steel Nomad ist rasterized, kein PT.

Sagt doch keiner, dass SN pathtraced ist? Es geht darum, dass er deutlich mehr säuft bzw den Takt drückt als selbst pathtraced Titel.

SamLombardo
2025-08-08, 22:51:51
Jop, betrifft nur Steel Nomad. Um da auf die besten Ergebnisse zu kommen brauchts ne eigene Curve, die dann nur in Steel Nomad stabil ist und da den Verbrauch drückt. Um da auf gute Punktzahlen zu kommen brauchts >600W, die Taktraten die man dann im Steel Nomad kriegt hat man aber auch ohne die 600W in normalen Spielen. Daher ist der Bench einfach nur da um ihn mit anderen Steel Nomad Werten zu vergleichen. Und da gewinnt der mit dem höchsten PL. Mit der Realität in Spielen hat das nix zu tun. Selbst HL2 RTX etc. saufen deutlich weniger bei höherer Taktrate.



Sagt doch keiner, dass SN pathtraced ist? Es geht darum, dass er deutlich mehr säuft bzw den Takt drückt als selbst pathtraced Titel.

Krass:eek:. Interessant, danke!

Snoopy69
2025-08-08, 23:03:39
Bei Quatsch-Benchmarks vielleicht. Real sind es -25% Verbrauch (ohne PT-Drosselung eher noch mehr) bei 1,7% weniger fps:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13771516#post13771516

Und der Shit ist einfach seitdem stabil...
Ja, mit dem „Quatsch-Benchmark“ Steel Nomad…
Wie gesagt, je nach Curve bekommt man trotz gleichem anvisiertem Takt und gleicher Spannung 2 völlig unterschiedliche Scores von mehreren hundert Punkten. Für den Alltag jedoch egal…


@lilgefo~
Normalerweise sollte jede 5090 ohne Hardmod und org Kühler min 16.000 in Steel Nomad schaffen. Mit dem richtigen Treiber und BIOS sowieso

Snoopy69
2025-08-09, 07:19:47
@Raff

Habe Metro EE nur paar Minuten getestet, aber das ist echt Wahnsinn, was das Game zieht!!! :O
Aber etwas ist seltsam. Wenn ich den GPU Takt erhöhe, dann sinkt der Verbrauch. Das heißt, bei "+0" (Core Clock) ist der Verbrauch höher, als bei 100, 200, 300 etc.

Die genauen Settings, für max Verbrauch hab ich nicht nicht ermittelt. Wer sie hat - her damit :wink:
fh9sHVax1gw

Nightspider
2025-08-09, 10:42:18
Also bei Battlefield 6 habe ich jetzt mit DL DSR in 4587*1920 (21:9) gespielt mit DLSS Q und obwohl ich nur 130fps hatte, hat die 5090 nur etwa 450 bis 460 Watt verbraucht bei ~95-97% Auslastung.

Aber es fühlt sich deutlich unpräziser und "laggy" an als wenn ich normal in 3440*1440 spiele mit 160-170 fps.

Müsste die 5090 nicht immer >520 W saugen bei voller Auslastung?

Fands in der BF6 Beta auch komisch das die CPU Auslastung im Task Manager in der hohen Auflösung fast genauso hoch aussieht wie in der niedrigen Auflösung. Wenn ich im starkem GPU Limit wäre bei 4587*1920 müsste die CPU Auslastung ja fast ein Drittel geringer ausfallen.

dildo4u
2025-08-09, 10:45:22
Laut dem schwankt die Performance stark mit der 5090 die langsameren Karten sind deutlich konstanter.
Ich würde alles Upsampling abschalten und DLAA nutzen.


U5e0OrDt1Fw

SamLombardo
2025-08-09, 10:47:34
Also bei Battlefield 6 habe ich jetzt mit DL DSR in 4587*1920 (21:9) gespielt mit DLSS Q und obwohl ich nur 130fps hatte, hat die 5090 nur etwa 450 bis 460 Watt verbraucht bei ~95-97% Auslastung.

Müsste die 5090 nicht immer >520 W saugen bei voller Auslastung?.
Also mit der Auslastung das ist manchmal wirklich ziemlich merkwürdig. Ich spiele zum Beispiel gerade wieder das Jahre alte Ghost Recon Wildlands. Die 5090 Auslastung steht bei 99% bei 300 Watt Verbrauch. Dagegen bei verschiedenen VR spielen wie Half Life Alyx oder Metro Awakening hab ich eine GPU Auslastung von 85-90 und über 500 Watt.

basix
2025-08-09, 10:57:09
Zeig mal bitte die Curve…

So wie im Anhang. Takt und Spannung sind dann auf XY fixiert, solange das PT nicht limitert (was bei entsprechendem PT immer der Fall ist).

Daneben natürlich noch etwas Mem-OC.

Angiesan
2025-08-09, 11:16:34
Edit: Meine 5090 macht im Steel Nomad 15900 Punkte, das ist wenn ich das was ich im Netz lese als Vergleich nehme ziemlich klasse;).

Das ist ein extrem guter Wert und ohne einen Shunt-Mod eigentlich kaum zu erreichen, noch schwerer mit nur 575 Watt PL, es sei denn, der neue Treiber hätte da was drauf gelegt.
Könntest Du bitte mal mitteilen welchen Treiber Du verwendet hast. Meine gut gehende 5090 mit angepasster Kurve nur für Steel Nomad schaffte das unter Luft nicht.

x-force
2025-08-09, 12:27:04
Ja, mit dem „Quatsch-Benchmark“ Steel Nomad…

irgendwann kommt ue 6 und das geheul ist groß, weil "plötzlich" die karte instabil ist ;D

mit ada war es noch so, dass der offset gleichzeitig auch den videotakt erhöht hat, was letztlich zu mehr performance führt, als wenn man direkt einen einzelnen punkt anhebt.


Aber etwas ist seltsam. Wenn ich den GPU Takt erhöhe, dann sinkt der Verbrauch.

was macht die performance?

ich vermute eine art throtteling/clock stretching, wenn man mehr fordert, als der chip eigentlich stabil kann.

Die 5090 Auslastung steht bei 99% bei 300 Watt Verbrauch. Dagegen bei verschiedenen VR spielen wie Half Life Alyx oder Metro Awakening hab ich eine GPU Auslastung von 85-90 und über 500 Watt.

100% auslastung heißt nur, dass irgendein teil des chips limitiert. das geht z.b. auch vollkommen ohne, dass eine einzige rt einheit genutzt wird.

Snoopy69
2025-08-09, 13:21:37
Also bei Battlefield 6 habe ich jetzt mit DL DSR in 4587*1920 (21:9) gespielt mit DLSS Q und obwohl ich nur 130fps hatte, hat die 5090 nur etwa 450 bis 460 Watt verbraucht bei ~95-97% Auslastung.

Aber es fühlt sich deutlich unpräziser und "laggy" an als wenn ich normal in 3440*1440 spiele mit 160-170 fps.

Müsste die 5090 nicht immer >520 W saugen bei voller Auslastung?

Fands in der BF6 Beta auch komisch das die CPU Auslastung im Task Manager in der hohen Auflösung fast genauso hoch aussieht wie in der niedrigen Auflösung. Wenn ich im starkem GPU Limit wäre bei 4587*1920 müsste die CPU Auslastung ja fast ein Drittel geringer ausfallen.
Könnte daraufhin deuten, dass die CPU gesondert, bestimmte Aufgaben bekommt

SamLombardo
2025-08-09, 15:09:37
Das ist ein extrem guter Wert und ohne einen Shunt-Mod eigentlich kaum zu erreichen, noch schwerer mit nur 575 Watt PL, es sei denn, der neue Treiber hätte da was drauf gelegt.
Könntest Du bitte mal mitteilen welchen Treiber Du verwendet hast. Meine gut gehende 5090 mit angepasster Kurve nur für Steel Nomad schaffte das unter Luft nicht.
Hm wer weiß. Ich hab den aktuellen .88 Treiber drauf aber halt meine UV Kurve am Laufen. Hab den auch nur einmal durchlaufen lassen, ich verifiziere das nochmal.



100% auslastung heißt nur, dass irgendein teil des chips limitiert. das geht z.b. auch vollkommen ohne, dass eine einzige rt einheit genutzt wird.

Ja das klingt logisch. Anders sind die Unterschiede nicht erklärbar.

Snoopy69
2025-08-09, 15:25:38
@SamLombardo

Wird dir nicht gefallen, aber es gibt nicht DEN Treiber, der alles gut kann... :wink:
Für Steel Nomad ist .28 momentan noch ungeschlagen. Jmd, der nen Wasserblock drauf hat, kann auch das Gigabyte WB BIOS flashen. Ist neben dem XOC und GOC das performanteste BIOS

Und wie baust du deine Curve? Und hast du eine oder mehrere V-Punkte durchgebencht?

Gouvernator
2025-08-10, 12:36:03
Die 5090er sauft leider sehr viel im Idle oder bei Videos.
2-3x so viel wie Ada.
Lüfter kann man mit via Afterburner ruhigstellen (meistens)
Aber wenigstens gegenüber 3090 hat sich Video Verbrauch stark verbessert. Der Rechner ist dann bei 125W während mit der 3090 190W drin waren.

x-force
2025-08-10, 15:01:39
Aber wenigstens gegenüber 3090 hat sich Video Verbrauch stark verbessert. Der Rechner ist dann bei 125W während mit der 3090 190W drin waren.

geht rtx vsr nicht mit 8k?

ChaosTM
2025-08-10, 15:25:10
Aber wenigstens gegenüber 3090 hat sich Video Verbrauch stark verbessert. Der Rechner ist dann bei 125W während mit der 3090 190W drin waren.


Der Verbrauch hat sich gebessert.
Mittlerweile ist Blackwell `s Idle und Video Verbrauch nur mehr 10-30% höher als mit Ada.


Warum ich das vergleichen kann? Hab 2 Rechner mit ähnlichem Unterbau

Lehdro
2025-08-10, 15:28:52
Der Verbrauch hat sich gebessert.
Mittlerweile ist Blackwell `s Idle und Video Verbrauch nur mehr 10-30% höher als mit Ada.

Warum ich das vergleichen kann? Hab 2 Rechner mit ähnlichem Unterbau
Bin bei einem meiner typischen Szenarien (2x 1440p Monitore, 1x 60 FPS lock in BDO + 1x Video im Fullscreen) von 90W der GPU auf 160W der GPU gestiegen. Im wirklichen Idle tut sich nix, da eiern beide bei 20-30W rum. Bei Videos habe ich deine 30% auch beobachtet, das ist aber verschmerzbar. Aber gerade in diesem diffusen Zwischenlastbereich ist Blackwell ein Rückschritt gegenüber Ada.

Gouvernator
2025-08-10, 16:01:17
geht rtx vsr nicht mit 8k?
Generell mit HDMI 2.1 nicht.

SamLombardo
2025-08-11, 09:20:25
@SamLombardo

Wird dir nicht gefallen, aber es gibt nicht DEN Treiber, der alles gut kann... :wink:
Für Steel Nomad ist .28 momentan noch ungeschlagen. Jmd, der nen Wasserblock drauf hat, kann auch das Gigabyte WB BIOS flashen. Ist neben dem XOC und GOC das performanteste BIOS

Und wie baust du deine Curve? Und hast du eine oder mehrere V-Punkte durchgebencht?

Ach was heißt nicht gefallen, ich bin nicht der Punktejäger in Benchmarks. Eher der Undervolter als der Overclocker. Meine UV Kurve hab ich jetzt nochmal gemacht wie hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13795091&postcount=2007) beschrieben, ohne das letzte Megahertz auszuloten. Bin so erstmal zufrieden.

hq-hq
2025-08-11, 09:56:32
der alte 576.28 bringt tatsächlich ein paar mehr Punkte in SN, eine SteelNomad Curve hab ich nicht gebaut aber immerhin sinds jetzt 161xx :biggrin:

Snoopy69
2025-08-11, 16:04:39
Sag ich doch... :wink:
Hast du auch das Gigabyte WB BIOS drauf? Bringt nochmals paar hundert Punkte
Nachteil - der mittlere Lüfter geht nicht und die anderen drehen langsamer. Daher eher für Wasser gedacht. Oder man moddet die Lüfter ans MB

Dieser...
https://www.techpowerup.com/vgabios/273778/273778

Zu beachten isat auch, dass man wahrscheinlich weniger am Taktschieber, in AB einstellen kann
Also, wenn vorher zb +400 gingen - gehen evtl nur noch +300. Was daran liegt, dass das BIOS viel höher boostet (in meinem Fall +105MHz mehr, als das org. TUF-BIOS)

Wuge
2025-08-11, 17:31:00
+300 mit dem Waterforce BIOS? Schafft meine nicht. Da biste ja bei 3.4 Ghz in games.

x-force
2025-08-11, 18:07:49
+300 mit dem Waterforce BIOS? Schafft meine nicht. Da biste ja bei 3.4 Ghz in games.

deshalb redet man auch für sn angepasste kurven ;)

hq-hq
2025-08-11, 23:43:10
Sag ich doch... :wink:
Hast du auch das Gigabyte WB BIOS drauf? Bringt nochmals paar hundert Punkte
Nachteil - der mittlere Lüfter geht nicht und die anderen drehen langsamer. Daher eher für Wasser gedacht. Oder man moddet die Lüfter ans MB

Dieser...
https://www.techpowerup.com/vgabios/273778/273778

Zu beachten isat auch, dass man wahrscheinlich weniger am Taktschieber, in AB einstellen kann
Also, wenn vorher zb +400 gingen - gehen evtl nur noch +300. Was daran liegt, dass das BIOS viel höher boostet (in meinem Fall +105MHz mehr, als das org. TUF-BIOS)

nein, kein GB WB BIOS, das mit den Lüftern wär blöd...
mit UV brauch ich eigentlich nicht wirklich Wasserkühlung, bei der 4090 und UV war der Luftkühler auch so potent, dass es leise ging.
Die 5090 kann mit UV auch leise.
Hab bei der 4090 den Wasserblock nicht mehr montiert, liegt noch im Schubladen OVP... ja wär schon noch besser mit Block.

Coroner
2025-08-12, 15:54:58
Sag ich doch... :wink:
Hast du auch das Gigabyte WB BIOS drauf? Bringt nochmals paar hundert Punkte
Nachteil - der mittlere Lüfter geht nicht und die anderen drehen langsamer. Daher eher für Wasser gedacht. Oder man moddet die Lüfter ans MB

Dieser...
https://www.techpowerup.com/vgabios/273778/273778

Zu beachten isat auch, dass man wahrscheinlich weniger am Taktschieber, in AB einstellen kann
Also, wenn vorher zb +400 gingen - gehen evtl nur noch +300. Was daran liegt, dass das BIOS viel höher boostet (in meinem Fall +105MHz mehr, als das org. TUF-BIOS)

Mmmmh, eigentlich wollte ich gar kein anderes BIOS flashen. Aber wenn ich das lese komme ich da wohl nicht drumherum sobald ich die Karte mal umgebaut habe :naughty:.

TobiWahnKenobi
2025-08-13, 16:40:54
ja, wenn es darum geht, dass man mitquatschen will. in der realität ist das alles völliger bullshit. ausser der zeitvertreib mit dem PC besteht aus solchen experimenten und halt dem mitquatschen müssen. da draußen interessiert es keine sau ob peter müller aus klein kleckerstan mit 151 oder 156fps zockt, oder denkst du über ihn nach? ich nicht.

btw,
bei crossflash immer die funktionalität der ausgänge prüfen (2ter hdmi-port o.ä.).


(..)

mfg
tobi

Blase
2025-08-13, 17:09:46
ja, wenn es darum geht, dass man mitquatschen will.

Warum so aggressiv? Grade hier in den Foren kann man doch davon ausgehen, dass nicht wenige Spaß und Lust auf Bastelei und dem Ausloten von Grenzen haben. Versteh' mich richtig - ich gehöre (auch?) nicht dazu - nicht mehr. Aber wenn die Jungs hier Bock drauf haben... For the lulz...

MfG Blase

phoenix887
2025-08-13, 18:08:16
ja, wenn es darum geht, dass man mitquatschen will. in der realität ist das alles völliger bullshit. ausser der zeitvertreib mit dem PC besteht aus solchen experimenten und halt dem mitquatschen müssen. da draußen interessiert es keine sau ob peter müller aus klein kleckerstan mit 151 oder 156fps zockt, oder denkst du über ihn nach? ich nicht.

btw,
bei crossflash immer die funktionalität der ausgänge prüfen (2ter hdmi-port o.ä.).


(..)

mfg
tobi

Danke. Sehe es genau so.

Schön das auch jemand mal die Deutschlandflagge zeigt und nicht die Ukraineflagge für Gratismut.

Coroner
2025-08-13, 18:19:41
ja, wenn es darum geht, dass man mitquatschen will. in der realität ist das alles völliger bullshit. ausser der zeitvertreib mit dem PC besteht aus solchen experimenten und halt dem mitquatschen müssen. da draußen interessiert es keine sau ob peter müller aus klein kleckerstan mit 151 oder 156fps zockt, oder denkst du über ihn nach? ich nicht.

btw,
bei crossflash immer die funktionalität der ausgänge prüfen (2ter hdmi-port o.ä.).


(..)

mfg
tobi

Die Frage ist warum Du hier dann Deinen Senf dazugibst wenn Dich das Thema gar nicht betrifft Du Informatiker im Staatsdienst *lol* :lol:. Dein Geschwafel interessiert die Leute die einfach Spaß am tuning haben nämlich genauso wenig, echt lächerlich :rolleyes:.
Und um mitzureden mache ich das ganz bestimmt nicht, aber ich unterhalte mich einfach gern mit Leuten die dieselben Interessen haben (der Grund warum es Foren gibt .......) ................... da hättest Du aber auch selbst drauf kommen können anstatt so einen bullshit abzulassen :freak:.

][immy
2025-08-15, 08:36:34
Was ist eigentlich bei Nvidia mit dem Treiber Overhead los?
https://youtu.be/aYYVz4q-Rt8?si=jg2P9L6LvwAbxLB3

Ohne top CPU ist man teils schlechter als entsprechend schwächere Radeon Produkte.

aufkrawall
2025-08-15, 08:43:20
Siehst du da irgendwas, was ich nicht sehe? Es gibt im Grunde nur in einem Spiel eine nennenswert schlechtere CPU-Performance vs. Radeon, und das ist Siege bei aberhunderten fps. Bei Rivals noch geringfügig mit 6C, mit 8C auch nicht mehr.

dildo4u
2025-08-15, 09:13:01
Das trifft Tonnen neue AAA Games wäre das nicht der Fall müsste man nicht für X3D abdrücken.
PC Gameing ist diese Gen für Leute die gerne Geld anzünden.


Typisch für Spiele, welche die Unreal Engine 5 als Grafikmotor nutzen, sind die geringen Frametimes. So erreicht unser Spartipp Ryzen 5 5600 zwar durchaus ordentliche 68,4 Durchschnitts-Fps, doch nur wenig flüssige 36 oder gar nur 30 Fps bei den wichtigen Frametimes. Tatsächlich gelingt nur einer CPU überhaupt ein Wert von 60 P1-Fps: dem Ryzen 7 9800X3D.


https://www.pcgameshardware.de/Mafia-The-Old-Country-Spiel-74877/Specials/Test-Grafikkarte-CPU-Systemanforderungen-Release-1479397/2/

Exxtreme
2025-08-15, 09:19:50
Das trifft Tonnen neue AAA Games wäre das nicht der Fall müsste man nicht für X3D abdrücken.
PC Gameing ist diese Gen für Leute die gerne Geld anzünden.




https://www.pcgameshardware.de/Mafia-The-Old-Country-Spiel-74877/Specials/Test-Grafikkarte-CPU-Systemanforderungen-Release-1479397/2/

Das liegt nicht am Treiber sondern an der UE5-Engine. Diese Engine erzeugt Tonnen an Overhead.

dildo4u
2025-08-15, 09:23:27
9070XT läuft mit der 4090 in 1080p kein CPU Overhead im NV Treiber?

https://i.ibb.co/VYRK7KnT/Screenshot-2025-08-15-09-24-09-911-com-sec-android-app-sbrowser-beta-edit.jpg (https://ibb.co/DfhqxqcQ)

][immy
2025-08-15, 09:25:41
Nur wie kann eine deutlich schlechtere Radeon da plötzlich mehr FPS als die 5080/5090 haben. Das CPU Limit sollte auch diese treffen, wenn es von der engine kommt.
Klar ist das kaum relevant, weil niemand mit so einer GPU in den Auflösungen spielen würde. Nicht desto trotz scheint der Nvidia Treiber da noch deutlich mehr machen zu müssen.

Exxtreme
2025-08-15, 09:48:52
9070XT läuft mit der 4090 in 1080p kein CPU Overhead im NV Treiber?

https://i.ibb.co/VYRK7KnT/Screenshot-2025-08-15-09-24-09-911-com-sec-android-app-sbrowser-beta-edit.jpg (https://ibb.co/DfhqxqcQ)

Ich würde dieses Spiel jetzt nicht als Referenz für irgendwas ansehen sondern eher als Anomalie. Kaum ein anderes Spiel zeigt ein solches Verhalten. Das Spiel sieht nicht toll aus und läuft auch noch richtig beschissen, was aber wiederum typisch für ein UE5 Spiel ist. Ich kann mir gut vorstellen, dass die Entwickler mit Absicht die UE5 Engine genommen haben weil es schlicht an Knowhow oder an Ressourcen fehlt so ein Spiel richtig zu optimieren. Und unoptimierte Software zeigt auch ungewöhnliches Verhalten. Und dann kommt sowas raus, dass ein Spiel mit 2012er Grafik mit 40 fps läuft.

aufkrawall
2025-08-15, 09:52:18
[immy;13798066']Nur wie kann eine deutlich schlechtere Radeon da plötzlich mehr FPS als die 5080/5090 haben.
Wenn man das jetzt in Prozentrechnung übersetzt, anstatt sich an optischen Balkenlängen aufzuhängen, interessiert das halt niemanden so sehr, danach die GPU auszuwählen. Ist auch einfach eine olle Kamelle.

dildo4u
2025-08-15, 09:52:22
Es ist eher die Ausnahme wenn UE5 besser Performt.
Du hast die Auslastungs Probleme auch in Fortnite mit der neusten Engine Version.

Keine 400 Watt kein 120fps Lock

qT3hWis1mko

aufkrawall
2025-08-15, 09:55:35
Du hast die Auslastungs Probleme auch in Fortnite mit der neusten Engine Version.
Halt nur auf GeForce. Blackwell ist eine RTX + CUDA-Architektur, RDNA4 eher auf real-world Szenarien angelegt.
Nochmal so rumpimmeln können sie gegen RDNA5 sicherlich nicht.

Exxtreme
2025-08-15, 10:06:45
Es ist eher die Ausnahme wenn UE5 besser Performt.
Du hast die Auslastungs Probleme auch in Fortnite mit der neusten Engine Version.

Keine 400 Watt kein 120fps Lock

https://youtu.be/qT3hWis1mko

Spiele mit sehr hoher Sichtweite und vielen Spielern auf dem Bildschirm haben öfter "Auslastungsprobleme". Spiel mal ein MMORPG mit zig Spielern auf dem Bildschirm dann wirst du "Auslastungsprobleme" sehen, da bekommst du Pipi in den Augen.

Und das ist halt die Problematik an diesem Mafia-Spiel ggü. Fortnite. Es ist kein MMORPG. Und wenn man dann trotzdem miese Performance hat dann haben die Entwickler versagt.

aufkrawall
2025-08-15, 10:10:06
Das hat nichts mit Sichtweite zu tun, mit Nanite ohne VSM & Lumen ist der Stromverbrauch auf Blackwell noch recht hoch.
Die Shader für VSM und Lumen lasten Blackwell ohne hohe Renderauflösung einfach mitunter schlecht aus, warum auch immer.

dildo4u
2025-08-15, 13:23:51
[immy;13798042']Was ist eigentlich bei Nvidia mit dem Treiber Overhead los?
https://youtu.be/aYYVz4q-Rt8?si=jg2P9L6LvwAbxLB3

Ohne top CPU ist man teils schlechter als entsprechend schwächere Radeon Produkte.
BF6 Test mit Ryzen 7600/5600 trifft also auch Frostbite

pbdPNxe7O_I

aufkrawall
2025-08-15, 13:37:46
5% auf 8C, 10% auf 6C. Tja, manche Leute in manchen Foren erzählen ja seit Jahren, man soll keine 6C CPUs mehr kaufen... :rolleyes:

Cubitus
2025-08-15, 13:38:49
Ich würde mal sagen, Nvidia trägt da seinen Teil der Schuld. :D
Die Treiber sind einfach Murks, und bei jeder neuen Engine-Version muss wieder ein Hotfix her.

Anstatt das Problem mit der Unreal Engine mal an der Wurzel zu packen, wird lieber mit Kanonen auf Spatzen geschossen – die 5090 ist da wie ein ineffizienter, brummender V8. Und für die kleinen Reißkocher kann seinen FrameGen-Magic-Turbolader zünden.

Aber klar: Man hat ja schon genug Ressourcen in den ganzen KI-Hype gesteckt, und irgendwie läuft’s am Ende des Tages ja doch.
Warum also noch mehr Geld ausgeben, wenn man einfach das nehmen kann, was von der Tafel der KI-Forschung so runterfällt…

x-force
2025-08-15, 13:58:10
Blackwell ist eine RTX + CUDA-Architektur, RDNA4 eher auf real-world Szenarien angelegt.
Nochmal so rumpimmeln können sie gegen RDNA5 sicherlich nicht.
;D

wenn nv mit +6% die size +29%(+36% in uhd) performance erreicht und das ganze fast zum doppelten preis verscherbeln kann, sollte rumpimmeln amds ziel sein.

https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/2/

Exxtreme
2025-08-15, 13:59:09
Anstatt das Problem mit der Unreal Engine mal an der Wurzel zu packen,

Dieses Problem kann Nvidia womöglich nicht fixen da das ein konzeptionelles Problem der Engine ist. Bzw. es ist ein Problem für die Spieler und ein Feature für die Spieleentwickler. Denn die können die Kosten für die Entwicklung der Spiele an die Spieler externalisieren.

aufkrawall
2025-08-15, 14:18:28
Bzw. es ist ein Problem für die Spieler und ein Feature für die Spieleentwickler. Denn die können die Kosten für die Entwicklung der Spiele an die Spieler externalisieren.
Versteht irgendjemand, was er meint?
Ist aber auch egal. Dass der PC für die Entwicklung der Spiele keine Rolle spielt, lernt er sowieso nicht mehr.

Exxtreme
2025-08-15, 14:28:23
Versteht irgendjemand, was er meint?
Ist aber auch egal. Dass der PC für die Entwicklung der Spiele keine Rolle spielt, lernt er sowieso nicht mehr.

Ist das gleiche wie Chromium-basierende UIs: Ressourcenfresser ohne Ende aber billig in der Entwicklung weil man Javascript-Programmierer billig bekommt. Auch das ist eine Externalisierung der Kosten weil die Ressourcenverschwendung dieser UIs jetzt Zusatzkosten bei den Nutzern verursacht.

Und dass der PC angeblich keine Rolle spielt, dafür gibt es aktuell keine Belege. Man findet vielleicht 10 Jahre alte Sprüche, die in diese Richtung deuten.

Der_Korken
2025-08-15, 14:33:02
BF6 Test mit Ryzen 7600/5600 trifft also auch Frostbite

https://youtu.be/pbdPNxe7O_I

Irgendwie fühlt es sich so an, als würde die 5080 nicht richtig durchboosten. In 1080p im CPU-Limit, wo beide GPUs nicht ausgelastet sind, ist der Verbrauch relativ gleich bei beiden GPUs. In 1440p sieht man, dass der Verbrauch bei der 9070XT ordentlich hochgeht, sodass es dann z.B. 230W vs 150W steht. Jetzt könnte man meinen, dass das CPU-Limit genau so liegt, dass die 9070 komplett hochtakten kann, während die 5080 noch schön in Teillast chillt und den Verbrauch gut runterfahren kann. Aber selbst in 4K zündet die 5080 nicht richtig: Sie ist dann zwar etwas schneller als die 9070, aber sie krebst immer noch bei 250W und 2600Mhz rum (die 9070 klebt schon längst permanent im 317W-PT), obwohl sie eigentlich viel mehr vertragen sollte. Für Effizienz-Fetischisten ist das natürlich nice, weil man nicht wie bei der 9070 das PT runterstellen muss, wenn man es gerne sparsam hätte, aber trotzdem sieht es so aus, als würde es bei Blackwell irgendwo software-mäßig klemmen.

Angiesan
2025-08-15, 14:56:54
Dieses Problem kann Nvidia womöglich nicht fixen da das ein konzeptionelles Problem der Engine ist. Bzw. es ist ein Problem für die Spieler und ein Feature für die Spieleentwickler. Denn die können die Kosten für die Entwicklung der Spiele an die Spieler externalisieren.
Ich denke das ist es, aber es war nie der Plan :freak:.

Entweder sehen wir die UE5 in AAA Produktionen und entsprechend visuellem Erlebnis aber dann erklärbar schlechter Performance oder wir sehen A und AA Produktionen wo die Enginebauteile genutzt werden ohne jegliche Optimierungen mit ansprechendem visuellem Erlebnis aber ebenso grottiger Performance. Das Ganze wird sich dann erst über die nächsten Jahre entspannen wenn man die Leistung einer 5090 in einer 7070 wieder findet.

Ist ja nicht wirklich was Neues, und gab es auch vorher schon, nur wird es gerade so deutlich, weil die UE5 so viel und gerne eingesetzt wird. Es gibt ja noch ein paar Beispiele wo man sieht das man ein gutes bis sehr gutes Ergebnis auch mit Alternativen hinbekommt, ich fürchte nur das wird zunehmend weniger.

Troyan
2025-08-15, 15:54:09
Ne, muss sich nicht entspannen. Wieso sollte jemand Transistoren für einen Markt investieren, der deutlich kleiner ist als AI? UE5 ist eine absurd rückständige, technisch veraltete Engine, die trotz der erbärmlichen Leistung auf ScreenSpace-Effekte zurückgreift. Die HW-RT Implementierung ist schlechter als von BF5 und massiv CPU-limitierend, trotzdem die Geometrie nichtmal annährend an normale Rasterizing-Spiele im BVH heranreicht.

Doom und Indiana Jones laufen mit 100 FPS in 1080p auf einer 5090 mit Pathtracing. Und das bei >500W, wo die UE5 Engine irgendwie bei 330W oder so rumnuckelt. Da bleibt die halbe GPU nichtstun brach.

Aber ist jetzt nichts neues, wenn man fünf Jahre null an der Engine macht. Aber Daddy bezahlt mit dem Fortnite Geld, daher kann sich sowas dann auch durchsetzen.

Exxtreme
2025-08-15, 16:52:17
Ich denke das ist es, aber es war nie der Plan :freak:.

Doch, das ist der Plan. Epic macht damit sogar prominent Werbung.


Entweder sehen wir die UE5 in AAA Produktionen und entsprechend visuellem Erlebnis aber dann erklärbar schlechter Performance oder wir sehen A und AA Produktionen wo die Enginebauteile genutzt werden ohne jegliche Optimierungen mit ansprechendem visuellem Erlebnis aber ebenso grottiger Performance. Das Ganze wird sich dann erst über die nächsten Jahre entspannen wenn man die Leistung einer 5090 in einer 7070 wieder findet.


Nein. Selbst die visuell anspruchsvollen Titel laufen viel zu langsam für das Gezeigte. Und von A(A)-Titeln rede ich gar nicht. Das allergrößte Problem für Spieler und Feature für Spieleentwickler ist das Geometrie-LOD namens Nanite. Das passt dynamisch die Polygon-Zusammensetzung von Geometrieobjekten an basierend auf der Entfernung der Kamera zum Objekt. Und das ist was so viel Arbeitszeit einspart und wohl der Hauptgrund ist warum die Studios UE5 nehmen. Jetzt kannst du Objekte mit irrsinnigen Polygonzahlen erstellen und dann in die Engine kippen. Und Nanite reduziert autonom die Anzahl der Polygone je weiter weg du bist. Ohne Nanite bräuchtest du mehrere Instanzen dieser Objekte und müsstest die passenden Objekte manuell einblenden je nach Kameraentfernung. Nur ist das halt so, dass dieser Mechanismus keine Hardwareunterstützung hat. Deshalb wird das alles "in Software" gemacht und man weiss aus Erfahrung, dass Dinge "in Software" zu machen Faktor 100 langsamer ist als mit spezieller Hardware. Und das ist auch der Grund warum die meisten UE5-Spiele nahezu 1 zu 1 mit Shaderunits skalieren sobald das CPU-Limit weg ist.

Und ein zweites Problem von Nanite ist, die Polygone werden in Cluster eingeteilt. Jetzt ist es so, dass diese Cluster zwar konstante Kosten haben, sind sie aber nur zum Teil gefüllt dann erzeugt dieser "Leerraum" Overhead. Ist der Cluster zu 25% gefüllt dann hat man 75% Rechenleistung verschwendet. Und je weiter ein Objekt weg ist desto höher die Wahrscheinlichkeit, dass es zu solchen zum Teil gefüllten Clustern kommt. Und das sind die Probleme warum man selbst in FHD kaum über 100 FPS kommt. Die Studios externalisieren die Entwicklungskosten.

dargo
2025-08-15, 16:56:19
Doom und Indiana Jones laufen mit 100 FPS in 1080p auf einer 5090 mit Pathtracing. Und das bei >500W, wo die UE5 Engine irgendwie bei 330W oder so rumnuckelt. Da bleibt die halbe GPU nichtstun brach.

Sieht also eher danach aus, dass ne 5090 by Design am aktuellen Gamingmarkt vorbei entwickelt wurde wenn sie erst mit einer hohen PT-Last ausgelastet wird.

aufkrawall
2025-08-15, 16:57:35
Was du dir für einen Blödsinn ausdenkst. Deshalb gibt es auch einen 60fps-Modus für Hellblade auf der popeligen PS5-Hardware, ist klar. :facepalm:

Der_Korken
2025-08-15, 17:14:34
Sieht also eher danach aus, dass ne 5090 by Design am aktuellen Gamingmarkt vorbei entwickelt wurde wenn sie erst mit einer hohen PT-Last ausgelastet wird.

Ich würde die 5090 auch nicht als Gaming-Karte bezeichnen, sondern als AI-Beschleuniger für Prosumer, der durch seine hohe Rechenleistung und den dicken VRAM auch Spiele brauchbar beschleunigt. Die Skalierung gegenüber der 5080 ist dementsprechend absolut grottig.

dildo4u
2025-08-15, 17:24:46
Jup NV hat das eigentlich perfekt abgestimmt jeder hat sich gefragt warum die 5080 so schwach ist dabei wäre eine dickere Gameing GPU Aktuell nutzlos.

dargo
2025-08-15, 17:27:40
Ich würde die 5090 auch nicht als Gaming-Karte bezeichnen, sondern als AI-Beschleuniger für Prosumer, der durch seine hohe Rechenleistung und den dicken VRAM auch Spiele brauchbar beschleunigt. Die Skalierung gegenüber der 5080 ist dementsprechend absolut grottig.
Gemessen am Materialaufwand definitiv.

ChaosTM
2025-08-15, 18:01:38
Leider sind 16GB @ 4k Max alles andere als "zukunftssicher." Reicht schon jetzt oft nicht.
Die Super mit 24GB wird das beheben.
Der Preisunterschied ist durch wenig gerechtfertigt, außer dem Prosumer Argument oder für VR. Da sind die Unterschiede tw. massiv.

Würde ich nochmals von einer 4090er auf Blackwell wechseln unter "normalen*" Umständen ? Nein

*die für **80er Verhältnisse unterirdische Leistung hält die Preise von Big Ada oben

Angiesan
2025-08-15, 18:24:54
hm woran machst Du fest mit 4K und 16 GB? Es gibt genau ein Spiel, dass die 16 GB ausreizt und das, nur wenn man den Schieberegler auf Giga oder war es Hyper :freak:stellt. Das hat aber "noch" keine Auswirkung auf die Texturdetails, sondern nur auf die Poolgröße, und damit wie viel vorgeladen wird.

lilgefo~
2025-08-15, 20:58:19
@lilgefo~
Normalerweise sollte jede 5090 ohne Hardmod und org Kühler min 16.000 in Steel Nomad schaffen. Mit dem richtigen Treiber und BIOS sowieso

Kompletter Quark.

Lt Futuremark selbst liegt das avg über ALLE 5090er bei 14469.

https://benchmarks.ul.com/hardware/gpu/NVIDIA+GeForce+RTX+5090+review

160fps ohne Mods bei Lukü ist utopisch selbst mit Curve die nur bei SN stabil läuft. Aber das weißt du ja selbst. ;D

Kann man nicht ernst nehmen sowas, ignore..

Um 160fps+ zu erreichen braucsht über 3Ghz im SN. Das schafft da genau gar keine 5090 mit StandardKühlung in Ihrem 575W Korsett.

RoughNeck
2025-08-16, 08:00:53
Meine UV 5090 schafft in Steel Nomad 15500 Punkte.
16000 sind da nicht weit weg, mit etwas mehr Takt (2707 lagen an) halte ich das für ohne weiteres machbar.

Snoopy69
2025-08-16, 14:28:20
Kompletter Quark.

Lt Futuremark selbst liegt das avg über ALLE 5090er bei 14469.

https://benchmarks.ul.com/hardware/gpu/NVIDIA+GeForce+RTX+5090+review

160fps ohne Mods bei Lukü ist utopisch selbst mit Curve die nur bei SN stabil läuft. Aber das weißt du ja selbst. ;D

Kann man nicht ernst nehmen sowas, ignore..

Um 160fps+ zu erreichen braucsht über 3Ghz im SN. Das schafft da genau gar keine 5090 mit StandardKühlung in Ihrem 575W Korsett.
Ja, weil die Masse nicht weiß, wie man mit SN umgehen muss - das ist leider Fakt!!! (wurde hier mehrfach erklärt) :wink:

"Ignore", weil du zur Masse gehörst und noch bockig bist, dass ich im Recht bin und genau weiß, wo man für SM drehen muss? Super "erwachsen"... :ulol:


btw:
Von fps und Takt war überhaupt nicht die Rede...

Snoopy69
2025-08-16, 14:42:12
So wie im Anhang. Takt und Spannung sind dann auf XY fixiert, solange das PT nicht limitert (was bei entsprechendem PT immer der Fall ist).

Daneben natürlich noch etwas Mem-OC.
Sieht schon mal gut aus. Aber...
Man kann Curves in mehreren Varianten bauen, die genauso aussehen, wie diese, aber unterschiedlich perfomen. Hast du diese 4-5 Varianten durchprobiert? Warum das so ist, kann ich nicht beantworten, aber das ist meine Feststellung. Fakt ist, dass bei verschiedenen Bauvarianten, verschiedene, anliegende Takte rauskommen, die dann den Score beeinflussen

Snoopy69
2025-08-16, 14:46:12
irgendwann kommt ue 6 und das geheul ist groß, weil "plötzlich" die karte instabil ist ;D

mit ada war es noch so, dass der offset gleichzeitig auch den videotakt erhöht hat, was letztlich zu mehr performance führt, als wenn man direkt einen einzelnen punkt anhebt.

Welches Geheul? Von mir? Nö... :freak:
Denn es gibt nicht die Einstellung, die für jeden Bench/Game perfekt ist

ChaosTM
2025-08-16, 14:46:17
Keine Ahnung was SN ist, aber knackte vor ein paar Tagen die 40k @ Port Royale.
Wollte ich um jeden Preis und ich hoffe ich hab die Karte dabei nicht beleidigt. (+250/3000)
Die +3000 Speichertakt liefen zwar durch, aber das Bild flackerte zum Schluss schon bedrohlich

Snoopy69
2025-08-16, 14:51:51
+300 mit dem Waterforce BIOS? Schafft meine nicht. Da biste ja bei 3.4 Ghz in games.
Diese +300 +400 kann man natürlich nicht 1:1 übernehmen, weil die Karten unterschiedlich boosten. Wenn die Karte ab Werk schon nen hohen Boost hat, kann man in AB weniger einstellen (zb +250). Daher verlasse ich mich nicht auf +Angaben für AB

3.400 in Games? Schön wärs... :ulol:

Snoopy69
2025-08-16, 14:56:34
ja, wenn es darum geht, dass man mitquatschen will. in der realität ist das alles völliger bullshit. ausser der zeitvertreib mit dem PC besteht aus solchen experimenten und halt dem mitquatschen müssen. da draußen interessiert es keine sau ob peter müller aus klein kleckerstan mit 151 oder 156fps zockt, oder denkst du über ihn nach? ich nicht.

btw,
bei crossflash immer die funktionalität der ausgänge prüfen (2ter hdmi-port o.ä.).


(..)

mfg
tobi
Dass die letzen +fps für Gaming unwesentlich (nicht spürbar) sind, sollte klar sein :wink:

ChaosTM
2025-08-16, 15:00:54
Macht man auch nur um sinnarme Benchmark Ergebnisse zu erreichen.
Ich mag das

Momentan spiel ich Robocop @ 4k Max mit 135fps und die Karte sauft nur knapp über200 Watt.
MFG arbeiten sehr gut in dem Spiel

Snoopy69
2025-08-16, 15:09:29
Keine Ahnung was SN ist, aber knackte vor ein paar Tagen die 40k @ Port Royale.
Wollte ich um jeden Preis und ich hoffe ich hab die Karte dabei nicht beleidigt. (+250/3000)
Die +3000 Speichertakt liefen zwar durch, aber das Bild flackerte zum Schluss schon bedrohlich
Steel Nomad... :wink:

Snoopy69
2025-08-16, 15:11:28
Macht man auch nur um sinnarme Benchmark Ergebnisse zu erreichen.
Ich mag das

Momentan spiel ich Robocop @ 4k Max mit 135fps und die Karte sauft nur knapp über200 Watt.
MFG arbeiten sehr gut in dem Spiel
Joh, nur ein Hobby, am Tuning...
Für den Alltag (Gaming) betreibe ich immer UV

Snoopy69
2025-08-16, 15:17:44
@lilgefo~

Das hier war ohne Wasserblock, ohne Hardmod, ohne den besten Treiber und ohne das beste BIOS
https://i.ibb.co/W4Z4dGgP/Screenshot-2025-08-16-151421.png (https://ibb.co/W4Z4dGgP)

hq-hq
2025-08-16, 21:27:33
@lilgefo~

Das hier war ohne Wasserblock, ohne Hardmod, ohne den besten Treiber und ohne das beste BIOS
https://i.ibb.co/W4Z4dGgP/Screenshot-2025-08-16-151421.png (https://ibb.co/W4Z4dGgP)

Ob jede 5090 die 16000 in SN erreichen kann weiss ich nicht, die 161xx wie bei Snoopy69 klappen bei mir auch mit Luftkühler, orig. 600Watt BIOS aber dem alten .28 Treiber. Hab noch keine SN Curve gebaut.
Wenn's schon so ne Weltrangliste gibt im doch recht populären 3d Mark könnte man auch extra dafür optimieren und im Winter die Terrassentür aufmachen. Why Not.

lilgefo~
2025-08-16, 23:26:36
Ob jede 5090 die 16000 in SN erreichen kann weiss ich nicht, die 161xx wie bei Snoopy69 klappen bei mir auch mit Luftkühler, orig. 600Watt BIOS aber dem alten .28 Treiber. Hab noch keine SN Curve gebaut.
Wenn's schon so ne Weltrangliste gibt im doch recht populären 3d Mark könnte man auch extra dafür optimieren und im Winter die Terrassentür aufmachen. Why Not.

Mit 600W gibts schon bissel mehr Luft. Aber die UV Curve funktioniert dann halt nur mit SN. Klar, beim Benchen steht der PC immer auf der Terrasse, nur diese Werte als normal einzupegeln ist halt falsch. Meine 5090 kommt auch deutlich höher aufgrund der massiven Kühlung. Wenn sich aber wer ne 5090 kauft und dann nach dem ersten Run 16k+ erwartet wird massiv enttäuscht sein. Echte Werte zu "ich bench den PC bei -3° draussen" halt.

Jede Karte hat natürlich auch ihr Limit, manche machen etwas mehr Takt bei UV, andere nicht. Aber die magische "runs fine on my steam deck", +40% 5090 gibts halt net.

P.S.: Klar kann jeder gb202 die 16k knacken, nur ne Frage der Kühlung und des PL's bzw Chipgüte. OOBs 5090 sind davon weit entfernt

btw:
https://s1.directupload.eu/images/250816/bmz3vky3.png
https://s1.directupload.eu/images/250816/8phxdfmp.png

Getroffene Hunde bellen viel oder wie war das?

RoughNeck
2025-08-17, 08:43:28
Weiß nicht warum man hier über einen Benchmark so lange diskutieren sollte.
Stock läuft die 5090 gnadenlos ins Power Limit, mit einer Curve knackt man easy die 16k, wurde auch schon hier gezeigt, mehrfach. Wenn ich mit meiner auf Silent getrimmten 5090 schon 15500 Punkto komme, sind 16000 ein Wert den man leicht knacken kann.
Warum man sich eine Grafikkarte für Benchmarks kaufen sollte erschließt sich mir nicht aber gut. Die jenen die Rekorde brechen wollen, wissen was sie tun müssen und benchen die Karte nicht Stock. Die die ihre Karte optimieren, nehmen die Benchmarks halt als Anhaltspunkt und optimieren.

Cubitus
2025-08-17, 13:27:13
Am Ende des Tages ist es doch egal, was der Stahlnomade sagt.
Natürlich kann man mit optimierten Kurven, einer kuratierten Treiberversion und einem frischen Windows 11 gute Werte erreichen, keine Frage. Aber SN ist am Ende eben nur ein reiner Rasterleistungstest.
Die eigentlichen Stärken einer 5090 liegen im AI-(Gaming) und beim Raytracing und genau da spielt die Karte ihre Power aus, wenn Spiele diese Techniken auch wirklich nutzen.

Was Epic und die Unreal-Engine-Thematik angeht: Früher hat Nvidia viel enger mit den Entwicklern zusammengearbeitet. Damals die Kampagne "It’s meant to be played" oder die Zusammarbeit mit id Software: John Carmack war bei Doom 3 quasi inoffizieller Nvidia-Mitarbeiter,
weil er die id-Tech-Engine perfekt auf die GeForce 3 zugeschnitten hat. Soweit ich das verfolgt habe, hat er sogar einen Prototyp der GeForce 3 von Nvidia bekommen, um Bump Mapping, Stencil Shadows und die Per-Pixel-Beleuchtung darauf zu entwickeln.

Und genau dieser Elan fehlt mir heute bei Nvidia.
Klar, die liefern auch Tech-Demos innerhalb der Unreal Engine, aber das ersetzt keine echte Zusammenarbeit mit Epic.
Da die Unreal Engine aktuell die meistverwendete Engine überhaupt ist, müsste Nvidia eigentlich viel mehr Energie investieren,
damit ihre Hardware dort optimal genutzt wird. Darum sage ich auch: Nvidia trägt eine Mitschuld, sie müssen dafür sorgen, dass ihr Produkt von den Devs bestmöglich eingesetzt wird, so wie es früher der Fall war.

RoughNeck
2025-08-17, 13:35:22
Und am Ende lief Doom 3 auf einer 9700 Pro, da damals alles von Nvidia zu langsam war.

Aber, wer sagt dass Nvidia nicht mehr oder nicht mehr so gut mit den Devs zusammen arbeitet?
Weil es aktuell Probleme gibt?

Ex3cut3r
2025-08-17, 15:26:32
Am Ende des Tages ist es doch egal, was der Stahlnomade sagt.
Natürlich kann man mit optimierten Kurven, einer kuratierten Treiberversion und einem frischen Windows 11 gute Werte erreichen, keine Frage. Aber SN ist am Ende eben nur ein reiner Rasterleistungstest.
Die eigentlichen Stärken einer 5090 liegen im AI-(Gaming) und beim Raytracing und genau da spielt die Karte ihre Power aus, wenn Spiele diese Techniken auch wirklich nutzen.

Was Epic und die Unreal-Engine-Thematik angeht: Früher hat Nvidia viel enger mit den Entwicklern zusammengearbeitet. Damals die Kampagne "It’s meant to be played" oder die Zusammarbeit mit id Software: John Carmack war bei Doom 3 quasi inoffizieller Nvidia-Mitarbeiter,
weil er die id-Tech-Engine perfekt auf die GeForce 3 zugeschnitten hat. Soweit ich das verfolgt habe, hat er sogar einen Prototyp der GeForce 3 von Nvidia bekommen, um Bump Mapping, Stencil Shadows und die Per-Pixel-Beleuchtung darauf zu entwickeln.

Und genau dieser Elan fehlt mir heute bei Nvidia.
Klar, die liefern auch Tech-Demos innerhalb der Unreal Engine, aber das ersetzt keine echte Zusammenarbeit mit Epic.
Da die Unreal Engine aktuell die meistverwendete Engine überhaupt ist, müsste Nvidia eigentlich viel mehr Energie investieren,
damit ihre Hardware dort optimal genutzt wird. Darum sage ich auch: Nvidia trägt eine Mitschuld, sie müssen dafür sorgen, dass ihr Produkt von den Devs bestmöglich eingesetzt wird, so wie es früher der Fall war.
Warum? Nvidia Karten stecken zu 80% in Gaming Rechnern, wenn das nicht richtig oder langsamer als auf Radon Karten läuft, macht der Entwickler irgendwas falsch. Punkt. In diesem Fall, Epic.

Lurtz
2025-08-18, 08:35:00
Was Epic und die Unreal-Engine-Thematik angeht: Früher hat Nvidia viel enger mit den Entwicklern zusammengearbeitet. Damals die Kampagne "It’s meant to be played" oder die Zusammarbeit mit id Software: John Carmack war bei Doom 3 quasi inoffizieller Nvidia-Mitarbeiter,
weil er die id-Tech-Engine perfekt auf die GeForce 3 zugeschnitten hat. Soweit ich das verfolgt habe, hat er sogar einen Prototyp der GeForce 3 von Nvidia bekommen, um Bump Mapping, Stencil Shadows und die Per-Pixel-Beleuchtung darauf zu entwickeln.

Und genau dieser Elan fehlt mir heute bei Nvidia.
Klar, die liefern auch Tech-Demos innerhalb der Unreal Engine, aber das ersetzt keine echte Zusammenarbeit mit Epic.
Da die Unreal Engine aktuell die meistverwendete Engine überhaupt ist, müsste Nvidia eigentlich viel mehr Energie investieren,
damit ihre Hardware dort optimal genutzt wird. Darum sage ich auch: Nvidia trägt eine Mitschuld, sie müssen dafür sorgen, dass ihr Produkt von den Devs bestmöglich eingesetzt wird, so wie es früher der Fall war.
Wir haben aber nicht mehr 2003, als Doom 3 in erster Linie ein PC-Titel war und keine Multiplattformentwicklung wie die aktuelle Doom-Trilogie.

Außerdem arbeitet id offensichtlich weiterhin recht eng mit nVidia zusammen: https://www.youtube.com/watch?v=CCBWtRMnMh8

Ich weiß auch nicht, ob so enge Zusammenarbeiten vorteilhaft sind. Ich fands als langjähriger Radeon-Spieler immer schrecklich wenn Spiele aus dem TWIMTBP-Programm (unnötig) mies auf Radeons liefen. Ist schon gut, dass das heute trotz noch drastischerer Markanteile alles wesentlich homogener ausfällt.

basix
2025-08-18, 23:07:31
Warum? Nvidia Karten stecken zu 80% in Gaming Rechnern, wenn das nicht richtig oder langsamer als auf Radon Karten läuft, macht der Entwickler irgendwas falsch. Punkt. In diesem Fall, Epic.

Ich glaube eher, dass Epic sehr stark für RDNA2 optimiert. Das ist halt in den Konsolen drin. Diese Optimierungen übertragen sich dann zum Teil auf RDNA3 und RDNA4. Das hat mMn nur wenig mit Nvidia zu tun. Einige der Features wie starke RT-Cores werden dadurch underutilized (da z.B. SW-Lumen zum Einsatz kommt).

Und wenn man genauer hinschaut:
Epic hat bei der UE 5.6 erweiterte DLSS-Kompatibilität direkt in die Engine integriert. DLSS steht da neben TSR. Das kann XeSS und FSR nicht von sich behaupten.
https://portal.productboard.com/epicgames/1-unreal-engine-public-roadmap/c/2068-nvidia-dlss-support-in-ndisplay

Nvidia hat zudem die DLSS-Plugins auch immer sehr schnell verfügbar gemacht, wenn eine neue Engine Version released wurde. Dazu der hauseigene NVRTX-Branch der UE5, wo sie viele der neuen Technologien prototypen und weiterentwickeln (siehe MegaGeometry). Nvidia hat es da also ziemlich stark selbst in der Hand, dass das gut mit der UE5 harmoniert. Ich sehe da ehrlich gesagt nicht, dass Nvidia sich da ausruht.

Dass man es noch nicht in Games sieht hat eher einen anderen Grund:
Die neuen Features wie NRC, NTC, RTX Hair, MegaGeometry usw. sind oder waren schlicht noch nicht production ready. Man kann die mit Nvidias Hilfe ins Game einbauen (Indiana Jones bekommt jetzt RTX Hair Support). Aber nur wenige Entwickler werden ein Halbfertigprodukt ins Game einbauen. Lohnt sich einfach nicht. Manche Dinge nehmen zudem gerne DX12 Cooperative Vectors als Grundlage, welche auch noch relativ jung sind. Zu wenig Zeit, dass bereits Games mit den neuesten Features draussen sind.

vinacis_vivids
2025-08-19, 01:00:01
So super geil auf UE5 scheint Blackwell nicht zu sein:
https://ibb.co/2YRswLcg

NV 378mm^2 ~ 36/44/50fps
AMD 357mm^2 ~ 48/55fps
NV 609mm^2 ~ 58fps
NV 750mm^2 ~ 72fps

Das ganze Zeugs, was Huang da mit Ada und Blackwell verbaut hat, ist in diesem Fall relativ nutzlos und verpufft meistens. Bei DX12-HLSL in Kombination mit UE5 sieht Nvidia sehr alt aus.

Selbst bei "cooperate vectors" unter DX12 ist nicht gesagt, daß Blackwell mit den "Tensor-Cores" besser davon profitiert als RDNA4 mit WMMA. Im Gegenteil, RDNA4 profitiert wahrscheinlich noch mehr davon.

x-force
2025-08-19, 01:20:14
So super geil auf UE5 scheint Blackwell nicht zu sein:
https://ibb.co/2YRswLcg

geh doch bitte wieder mit deinen unseriösen quellen in den amd threads trollen

Angiesan
2025-08-19, 08:23:50
geh doch bitte wieder mit deinen unseriösen quellen in den amd threads trollen

Na ja, vergleichbare Ergebnisse bei diesem Spiel hat auch CB ermittelt da hat die 9070XT sogar die 5080 eingeholt. PCGH sieht hingegen bei dem Spiel die RTX mit über 20% in Front. Man sieht daran recht gut, dass es davon abhängt, welche Testszene man verwendet.

Die neuen AMD laufen aber alle ganz gut mit UE5 gerade wenn HWLumen fehlt, sind die oft stark unterwegs.

dildo4u
2025-08-19, 08:31:07
geh doch bitte wieder mit deinen unseriösen quellen in den amd threads trollen
Games werden für AMD Konsolen gebaut natürlich performt AMD sehr gut so lange du kein Hardware RT nutzt.

Die 7900XTX kackt hier ab da sie höhere Qualitäts Stufe mit FSR3 nutzen.

https://i.ibb.co/BVkfY1Wb/Bildschirmfoto-vom-2025-08-19-08-29-25.png (https://ibb.co/DDd1jqch)

https://www.computerbase.de/artikel/gaming/senuas-saga-hellblade-ii-enhanced-benchmark-test.93880/seite-2#abschnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd

dargo
2025-08-19, 08:44:40
Die 7900XTX kackt hier ab da sie höhere Qualitäts Stufe mit FSR3 nutzen.

Nö... sie läuft mit TSR Quality.

geh doch bitte wieder mit deinen unseriösen quellen in den amd threads trollen
Dein Bias ist zu köstlich. Jetzt ist also was unseriös weil das Ergebnis nicht mehr in dein Weltbild passt?

dildo4u
2025-08-19, 08:46:47
Das ist das was ich geschrieben hab die alten Karten nutzen Qualität die neuen Performance.
Der Punkt ist nich TSR oder FSR.

Ansonsten wäre die XTX Performance nicht so schlecht.

dargo
2025-08-19, 08:48:27
Das ist das was ich geschrieben hab die alten Karten nutzen Qualität die neuen Performance.

Nein, das ist nicht was du geschrieben hast. Du hast folgendes geschrieben.
Die 7900XTX kackt hier ab da sie höhere Qualitäts Stufe mit FSR3 nutzen.

aufkrawall
2025-08-19, 08:58:47
https://www.computerbase.de/artikel/gaming/senuas-saga-hellblade-ii-enhanced-benchmark-test.93880/seite-2#abschnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd
lol, 5070 Ti nur 11-13% schneller als die 5070 bei 4k Performance-Upsampling. :freak:

The_Invisible
2025-08-19, 09:10:56
PCGH sieht hingegen bei dem Spiel die RTX mit über 20% in Front. Man sieht daran recht gut, dass es davon abhängt, welche Testszene man verwendet.


Tja manche sehen halt nur was sie sehen wollen.

Aber was hat das eigentlich alles im 5090 Thread zu suchen, andersrum hätte es wahrscheinlich schon gelbe Karten und Belehrungen von manchen Usern gegeben...

dildo4u
2025-08-19, 09:45:39
Das passt immer noch in den Thread miese Auslastung trifft die größte GPU natürlich am meisten.
Normalerweise sollte das mit neuer Software besser werden scheint mit Unreal Engine 5 aber selten der Fall.

aufkrawall
2025-08-19, 10:18:49
Das wird ggf. erst besser, wenn Lumen noch stärkere HWRT-Last erzeugt. Ist aber erstmal nicht unmittelbar angekündigt.
Die 9070 XT skaliert ja ganz normal gegenüber der non-XT...

dildo4u
2025-08-19, 16:16:07
Asus stellt 5090 Matrix mit 800 Watt OC Bios auf der Gamescom vor


https://videocardz.com/newz/asus-geforce-rtx-5090-rog-matrix-revealed-quad-fans-and-up-to-800w-support

FBhEmWBlQA4

x-force
2025-08-19, 16:38:40
Games werden für AMD Konsolen gebaut natürlich performt AMD sehr gut so lange du kein Hardware RT nutzt.

darum geht es nicht, sondern darum, dass beide tests mist messen.

wie kann die 5080 in 1080p vor in 1440p hinter und in 2160p wieder vor 4080 sein? :freak:

https://i.ibb.co/BVkfY1Wb/Bildschirmfoto-vom-2025-08-19-08-29-25.png (https://ibb.co/DDd1jqch)

https://www.computerbase.de/artikel/gaming/senuas-saga-hellblade-ii-enhanced-benchmark-test.93880/seite-2#abschnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd

hier leider auch nur mist gemessen:
wie kann die 5080 in wqhd vor in uwqhd hinter und in uhd wieder vor 4080 sein? :freak:

Lehdro
2025-08-19, 16:41:47
Asus stellt 5090 Matrix mit 800 Watt OC Bios auf der Gamescom vor

Gott ist die Karte hässlich und technisch auch maximal langweilig.

Exxtreme
2025-08-19, 16:55:51
Gott ist die Karte hässlich und technisch auch maximal langweilig.

Sie hat aber Power!

*Tim Allen Geräusche mach*

dargo
2025-08-19, 17:26:10
Und der Wahnsinn kennt kein Ende... 5kg, 800W. :lol: Beim Nachfolger will ich aber endlich die 1.000W geknackt sehen vielleicht dann mit 8kg? :popcorn:

Bester Kommentar dazu. X-D

Zu leicht, kauf ich nicht.🤷
Edit, auch zu wenig Watt.
Echte Leistung wird in Megawatt angegeben.
Außerdem wahrscheinlich zu günstig.

ChaosTM
2025-08-19, 17:52:30
Das ist eine männliche Spüh.. äh Grafikkarte !
Die Ferguson unter den Grakas

Ex3cut3r
2025-08-19, 17:56:41
Cool.

Hakim
2025-08-19, 18:47:28
Ich frage mich wenn die Höhe und Material nicht mehr so eingegrenzt werden müssen, und es nicht Wakü sein soll, wäre eine entsprechende Radial Lösung (Blower) nicht die bessere Lösung wenn man die 800W direkt aus dem Gehäuse raus trägt? Dachte mir das bei der Größe man evt die Radial Lüfter leiser machen könnte (oder direkt 2 Große?). Man beachte das Hinterteil von der Matrix. Aber ob man auf das Geräusch Niveau von Axiallüfter kommt? :uponder:

dildo4u
2025-08-19, 19:05:36
Kein Plan ob es was taugt aber die 2080 TI Matrix war interessant Radiator/Pumpe auf der Karte.


https://rog.asus.com/de/articles/gaming/matrix-2080ti/

Lehdro
2025-08-20, 15:31:00
Kein Plan ob es was taugt aber die 2080 TI Matrix war interessant Radiator/Pumpe auf der Karte.

Das Ding war ein Fail. Weder besonders leise noch besonders Kühl, trotz der damals ausladenden Bauweise. Das konnten damals schon Luftkühler auf kleinerer Fläche besser, siehe die hauseigene(!!) Strix. Das gerade damals die nervigen Pumpengeräusche eine komplett andere Hausnummer waren, als sie es heute sind kam noch dazu.

Du verschenkst halt den Vorteil von der Wakü: Räumliche Trennung des Radiators von der Wärmequelle. Und damit handelst du dir unnötige Platzrestriktionen ein, die das ganze Konzept in sich selbst konterkarieren. Wenn ich sehe welchen Sprung die Kühlleistung von 4090 auf 5090 gemacht hat (als Beispiel Aorus Master -> Vanguard SOC), wo die Karte trotz 150W mehr und kleinerer Kühlfläche, einfach mal viel leiser und kühler geworden ist, sehe ich da ehrlich gesagt den Markt nicht wirklich. Entweder man:
- macht nur das notwendigste an Kühlung (insert Zotac)
- fährt die Luftkühlleistung ordentlich aus (z.B. Suprim)
- nutzt die AiO ordentlich aus (z.B. Suprim Liquid)
oder geht halt direkt auf den Waküblock für Customlösung (z.B. Waterforce WB).

Irgendetwas dazwischen hängt nur am Preis, erfüllt aber keinen tieferen Zweck. Wen interessiert bei einer 4000€ GPU die Bauform und die Abmaße? Du willst das beste haben? Wird halt sehr groß oder direkt Wakü (bzw. AiO). Einen Kompromiss dazwischen gibt es nicht wirklich, zumindest nicht bei diesen Verbräuchen.

Cubitus
2025-08-21, 10:51:16
Ich sag’s mal so: Zotac hat einfach an den falschen Stellen gespart. Der Kühler der 5090, vor allem der von der Infinity, ist für mich eigentlich einer der schönsten, die es aktuell gibt,
die Farbgestaltung und der Spiegel gefallen mir extrem gut. Dazu ist er angenehm leise, hat ein sauberes Lüftergeräusch und bleibt dabei noch relativ kompakt.

Aber: Zotac hat halt reingeschissen, weil sie die Paste falsch auftragen oder diese einfach nicht so viel taugt,
und die RAM-Pads sind auch eher schwach. Ich hab meine Karte deshalb schon früh auf anderes Putty und PTM umgebaut damit läuft der Kühler dann deutlich effizienter.

Klar, bei den Preisen bleibt nicht viel Marge übrig; D

Aber Props an Asus:
Mit der Astral haben die beim Luftkühler echt vieles richtig gemacht.

Voodoo6000
2025-08-21, 11:25:23
Aber Props an Asus:
Mit der Astral haben die beim Luftkühler echt vieles richtig gemacht.
Die Astral hat doch besonders starkes Spulenfiepen und diesen bescheuerten, lauten vierten Lüfter. Die MSI Suprim scheint da die deutlich bessere Wahl zu sein, falls einem die Lautstärke wichtig ist.

Lawmachine79
2025-08-21, 12:09:05
Die Astral hat doch besonders starkes Spulenfiepen und diesen bescheuerten, lauten vierten Lüfter. Die MSI Suprim scheint da die deutlich bessere Wahl zu sein, falls einem die Lautstärke wichtig ist.
Aus meiner Sicht ist wegen der Anschluss/Steckergeschichte die Astral alternativlos. Das Problem mit dem vierten Lüfter wurde per Bios-Update gefixt.

aufkrawall
2025-08-21, 12:11:04
Die Astral hat doch besonders starkes Spulenfiepen
Sicherlich nicht verallgemeinerbar.

Wuge
2025-08-22, 19:47:55
Die Astral hat doch besonders starkes Spulenfiepen und diesen bescheuerten, lauten vierten Lüfter. Die MSI Suprim scheint da die deutlich bessere Wahl zu sein, falls einem die Lautstärke wichtig ist.

Meine fiept nicht... und das mit dem Lüfter wurde schon längst per BIOS gefixt oder zumindest erheblich gemildert.

Mich interessiert nur eins: geht das Matrix BIOS auf die Astral... ;)

Langlay
2025-08-22, 20:07:16
Meine fiept nicht...

Meine Astral fiept ab so ~150FPS, allerdings fiept sie leiser als die 4090 FE die ich vorher hatte. Und da ich beim Zocken eh immer Kopfhörer auf hab und man sie durch die Kopfhörer nicht hört ist mir das auch ladde.

Gouvernator
2025-08-24, 10:00:46
Ich finde das der Mehrwert einer 5090 steigert sich von alleine durch ständige Updates von chinesischen LLMs. Gerade durch Qwen-Image und WAN2.2 hat man unfassbar großen Sprung in Grafik gemacht. Das ist wie ein Sprung von Unreal Engine 2 auf UE4... Und die FPS tun dabei nicht mal fallen, sondern steigern sich eher. Rein vom Ergebnis wäre diese Qualität ein Jahr vorher wie aus einem Supercomputer Cluster.

Linmoum
2025-08-31, 15:48:37
Gerade herrscht hier wieder so ein riesiger Unvernunftsmoment. Bei Alternate gibt's aktuell die Inno Frostbite für 2599€. Müsste ich auch nur fix einbinden, der ganze restliche Loop steht/läuft ja schon. Hmmm... :freak:

Snoopy69
2025-08-31, 16:08:59
Mich interessiert nur eins: geht das Matrix BIOS auf die Astral... ;)
Wäre nett, aber ich glaube nicht daran

Lawmachine79
2025-08-31, 17:34:12
Gerade herrscht hier wieder so ein riesiger Unvernunftsmoment. Bei Alternate gibt's aktuell die Inno Frostbite für 2599€. Müsste ich auch nur fix einbinden, der ganze restliche Loop steht/läuft ja schon. Hmmm... :freak:
Nein, das ist ein kurzer klarer Moment, den Du hast. Bei Bekloppten heisst das "Lucidum intervallum". Greif' zu, bevor Du wieder in Dein Delirium abdriftest.

Lawmachine79
2025-08-31, 17:40:23
Meine fiept nicht... und das mit dem Lüfter wurde schon längst per BIOS gefixt oder zumindest erheblich gemildert.

Mich interessiert nur eins: geht das Matrix BIOS auf die Astral... ;)
Würdest Du dafür töten? Ähh sorry, ich meine löten.

ChaosTM
2025-08-31, 17:42:45
Nein, das ist ein kurzer klarer Moment, den Du hast. Bei Bekloppten heisst das "Lucidum intervallum". Greif' zu, bevor Du wieder in Dein Delirium abdriftest.

lool
..kauf das Ding einfach wenn dich die Ausgabe nicht finanziell ruiniert. Man gönnt sich sonst kaum was..

Snoopy69
2025-08-31, 18:01:38
Würdest Du dafür töten? Ähh sorry, ich meine löten.
Hab gehört, dass man bei OF seinen Männa-Körpa verkaufn kann :ulol:

btw:
Löten will gut überlegt sein (Garantie-Verlust)...
Andererseits muss man nicht Wochen, Monate und länger warten. Die nackte Karte ist innerhalb 10 Minuten (PCB aufheizen und löten) gemoddet.

Um Geld und Zeit zu sparen (wenn man noch keine Shunts hat), einfach fette Löt-Batzen machen (den/die vorhandenen Shunt(s) kurz schliessen). Und in HWinfo den passenden Multi für den "richtigen" Verbrauch eingeben (mit einem WireView o.ä. abgleichen). In meinem Fall ist das ein Multi von x11,2 (entspricht einem theoretischen PL von 6.720W - die Karte macht natürlich früher dicht)
https://i.ibb.co/HDQdt5sf/IMG-0217.jpg ( https://ibb.co/gMCVSkpL)

Lehdro
2025-09-02, 14:05:29
Aus meiner Sicht ist wegen der Anschluss/Steckergeschichte die Astral alternativlos.
Hoffen wir dass der8auer mit seinem neuen Adapter das Problem nachrüstbar erledigt.

Das Problem mit dem vierten Lüfter wurde per Bios-Update gefixt.
Stark gemildert, nicht gefixt. Der Lüfter ist halt konzeptionell laut ausgelegt.

Wuge
2025-09-02, 17:41:29
Adapter ist doch shit.. da haste ne Steckverbindung mehr.

Linmoum
2025-09-03, 03:36:50
So, der Finger hat gezuckt. Gibt aber nichts schlimmeres, als neues Spielzeug erst nach statt vor einem Wochenende zu bekommen. ;D

Lehdro
2025-09-03, 15:51:14
Adapter ist doch shit.. da haste ne Steckverbindung mehr.
Und?
Netzteil -> Kabelpeitsche -> Karte = 3 Verbindungen, lt. NV empfohlen
Netzteil -> WireView Pro 2 -> Karte = 3 Verbindungen (nicht ok, weil?)
Netzteil -> Karte = 2 Verbindungen (wir kennen die Berichte, häufigste Fehlerquelle)

Der Adapter überwacht doch die Stromstärken pro Ader und Temperatur inkl. Warnung bzw. automatischem Shutdown. Sicherer wird es nicht mehr mit dem 12VHPWR. Man rüstet quasi die Astral Sonderfunktion nach + zusätzlicher Sicherheit wegen des softwareunabhängigen akustischem Alarms/Shutdown.

Nightspider
2025-09-03, 15:56:25
So, der Finger hat gezuckt. Gibt aber nichts schlimmeres, als neues Spielzeug erst nach statt vor einem Wochenende zu bekommen. ;D

Und dann ärgert man sich, das man so lange überlegt und nicht gleich sofort bestellt hat. :D

Viel Spaß damit.

Wird der AMD Ryzen 7 7700X auch nocht ersetzt? ;)

Linmoum
2025-09-03, 16:41:04
Ups, den hab ich natürlich schon lange nicht mehr drin, sondern einen 7800X3D. Hatte auch schon überlegt, auf den 9800X3D zu wechseln, aber ich glaube, das reicht auch noch bis nächstes Jahr und Zen6. Ich gehe einfach mal davon aus, dass das noch für AM5 was wird.

Lange überlegt ist relativ. Das ist ja jetzt direkt die Frostbite mit vormontiertem Wasserkühler. Glaube, knapp 2500€ hab ich damals bei der 4090 auch gezahlt direkt zum Launch (also GPU + extra Block). Nimmt sich nicht viel, wobei ich mir diesmal den ganzen Umbau erspare und das Thema Garantie auch gar nicht erst aufkommt.

Aber bislang war das ja immer kaum möglich, die Frostbite oder die Waterforce von Gigabyte zu bekommen, wenn man nicht gerade (fast) 3000€ zahlen will. Die 2599€ sind schon in Ordnung für eine Karte mit vormontiertem Block. Wird die nächsten Monate wahrscheinlich eh wieder eher teurer statt billiger, wenn das Sommerloch vorbei ist.

Mein Vorhaben, die 5070Ti bis zur nächsten Gen zu nutzen, hat auf jeden Fall nicht lange angehalten. ;D Wobei das wahrscheinlich sowieso relativ einfach wird, da jemanden zu finden. Ist ja auch noch eine Asus, da sicherlich umso mehr. :D

Snoopy69
2025-09-03, 17:32:43
Und?
Netzteil -> Kabelpeitsche -> Karte = 3 Verbindungen, lt. NV empfohlen
Netzteil -> WireView Pro 2 -> Karte = 3 Verbindungen (nicht ok, weil?)
Netzteil -> Karte = 2 Verbindungen (wir kennen die Berichte, häufigste Fehlerquelle)

Der Adapter überwacht doch die Stromstärken pro Ader und Temperatur inkl. Warnung bzw. automatischem Shutdown. Sicherer wird es nicht mehr mit dem 12VHPWR. Man rüstet quasi die Astral Sonderfunktion nach + zusätzlicher Sicherheit wegen des softwareunabhängigen akustischem Alarms/Shutdown.
Für den normalen Betrieb (~400-500W) lasse ich den WireView drin


btw:
Je nachdem, wie die Kabel mit 3 Steckern verdrahtet sind, können die genau so Mist sein, wie Kabel mit 2 Steckern. Also 3x 4 Leitungen bzw. 2x 6 Leitungen. Daher ziehe ich Kabel mit 4 Steckern (4x 6 Leitungen) vor

Hatte hier was dazu geschrieben...
https://www.hardwareluxx.de/community/threads/blackwell-smalltalk-thread-rtx-5000er-reihe.1352430/post-30898030

Wuge
2025-09-04, 10:22:37
Und?
Netzteil -> Kabelpeitsche -> Karte = 3 Verbindungen, lt. NV empfohlen
Netzteil -> WireView Pro 2 -> Karte = 3 Verbindungen (nicht ok, weil?)
Netzteil -> Karte = 2 Verbindungen (wir kennen die Berichte, häufigste Fehlerquelle)

Der Adapter überwacht doch die Stromstärken pro Ader und Temperatur inkl. Warnung bzw. automatischem Shutdown. Sicherer wird es nicht mehr mit dem 12VHPWR. Man rüstet quasi die Astral Sonderfunktion nach + zusätzlicher Sicherheit wegen des softwareunabhängigen akustischem Alarms/Shutdown.

Joa schon. Trotzdem würde ich so viele Kontakte vermeiden wie möglich. Jedes mal Wärme, Spannungsverlust und potenzielle Fehlerquelle. Nicht umsonst löten manche ihre Kabel direkt an.

Linmoum
2025-09-06, 15:03:22
Spielzeug kam doch schon heute, knuffiges Teil im Vergleich zu den ganzen Luftkühlern. :D

Nightspider
2025-09-06, 15:05:07
Eigentlich müsste man Rabatt bekommen, weil da nur so wenig Metall benötigt wird. :D

OgrEGT
2025-09-08, 13:26:26
https://fudzilla.com/news/61675-nvidia-s-rtx-5090-and-rtx-pro-6000-hit-with-nasty-bug
Das wäre nicht gut wenn da was dran ist...

Snoopy69
2025-09-09, 02:56:16
Spielzeug kam doch schon heute, knuffiges Teil im Vergleich zu den ganzen Luftkühlern. :D
Der (gleiche) Block meiner TUF ist hinten ca 4cm länger (bei der Astral noch länger)

„iChill“ hat eines der minimalistischten Designs. Das Layout, der Kanäle sollte von den Maßen bei allen GPUs gleich sein

Gouvernator
2025-09-14, 12:02:13
Founders Edition extrem Scheiße zu reparieren. Keine Ersatzteile oder Schaltpläne. Viele Stellen die kaputt gehen können.
https://youtu.be/93jk4Zho7YY?si=d44EAb2jebLKsjGm

Meine Inno3D arbeitet jetzt als eGPU @PCIe 3.0 x4. Musste ihre 3-Slot Blende mit der Trennscheibe nacharbeiten damit es reinpasst. Und ein neues Netzteil besorgen mit dem nativen Stromstecker um den Kabelsalat vom Adapter zu eliminieren. FSP 1650Watt war gerade am günstigsten mit 2x 12V-2x6 und 3x PCIe als B-Ware im Alternate Store für 226€.
Für 7 Jahre alte Games @8K am Zen3 Laptop reicht es mir vollkommen.

Lawmachine79
2025-09-14, 13:54:23
Spielzeug kam doch schon heute, knuffiges Teil im Vergleich zu den ganzen Luftkühlern. :D
Willkommen zurück in einer würdigen Existenz.

ExJuvantibus
2025-09-14, 15:18:00
Spielzeug kam doch schon heute, knuffiges Teil im Vergleich zu den ganzen Luftkühlern. :D


Die Schachtel schaut aber "normal groß" aus, dh wie bei einer 5090. Ist das meiste ja, logischerweise, schon das Schaumstoff-Packungsmaterial bei einer "normalen" 5090, wie ist das hier dann erst. :tongue:



Founders Edition extrem Scheiße zu reparieren. Keine Ersatzteile oder Schaltpläne. Viele Stellen die kaputt gehen können.
https://youtu.be/93jk4Zho7YY?si=d44EAb2jebLKsjGm

Meine Inno3D arbeitet jetzt als eGPU @PCIe 3.0 x4. Musste ihre 3-Slot Blende mit der Trennscheibe nacharbeiten damit es reinpasst. Und ein neues Netzteil besorgen mit dem nativen Stromstecker um den Kabelsalat vom Adapter zu eliminieren. FSP 1650Watt war gerade am günstigsten mit 2x 12V-2x6 und 3x PCIe als B-Ware im Alternate Store für 226€.
Für 7 Jahre alte Games @8K am Zen3 Laptop reicht es mir vollkommen.


PCIe 3.0 x4 ist doch = PCIe 1 @ 16, das letzte was ich damit laufen hatte waren 88 GTX. :freak: Klingt irgendwie nach Misshandlung. ;D;)

Ich hab bei den Neffen mal darüber nachgedacht falls die mehr am PC spielen wollen als 780m hergibt eGPU-Dockingstation an USB 4 zu stecken, allerdings eher was mit integriertem Netzteil und so 5060 TI/9060 XT/5070S.
Das ganze eben auch weil die NBs an dies ganze gebaut werden soll recht Leistungsfähig sind mit top Bildschirm (8845 HS und 32 GB). Aber irgendwie lohnt sich das imho nicht richtig.


Darf ich fragen was bei dir der Anlass war? Alleine das Netzteil kostet ja einiges. Wird da beruflich gearbeitet? oder Basteldrang?

Gouvernator
2025-09-14, 16:58:38
Potenziell will ich so eGPU als KI Beschleuniger für die Zukunft mit dem 128Gb AI 395+ mini-PC und dergleichen. Wenn GPD WIN5 rauskommt kann man sofort loslegen.
PCIe 3.0 x4 ist doch = PCIe 1 @ 16, das letzte was ich damit laufen hatte waren 88 GTX. Klingt irgendwie nach Misshandlung.
Ja CPU seitig ist man schon limitiert. Aber für 60 FPS reicht es locker. Die 5090 zieht in COD Vanguard maximal 390Watt was noch für 12K@60Fps gut reichen tut. Ich habe dadurch quasi einen automatischen Powerlimit, was in etwa 70% von Normal entspricht.

Linmoum
2025-09-15, 01:19:17
Hatte ja gehofft, dass mein 850W bequiet noch ausreicht. Hab jetzt die Woche abseits von zocken die 5090 aber auch eher viel rendern lassen (vorher zwar schon mit der 5070Ti, aber das war relativ meh, alleine die doppelte Menge an Speicher ist da eine echte Offenbarung :D ) und die Karte dabei auch nicht an der Leine gehabt. Naja, heute ging der Rechner einmal aus. Kurz danach noch ein weiteres Mal, als ich nach dem hochfahren dann weitergemacht habe. Danach hab ich nebenbei mal geschaut, was die Karte zieht. Bei ausgelesenen ~520W ist der Rechner dann zum dritten Mal ausgegangen. Ist ja noch ein good old Multi-Rail Netzteil, die Dinger sind ja mittlerweile quasi ausgestorben. Brauch ich wohl (mindestens?) eins mit 1000W. War zwar nicht geplant, aber nunja. ;D

aufkrawall
2025-09-15, 01:44:47
Ist ja noch ein good old Multi-Rail Netzteil, die Dinger sind ja mittlerweile quasi ausgestorben.
StefanV würd sich im Foren-Grab umdrehen.

Slipknot79
2025-09-15, 02:13:31
Hatte ja gehofft, dass mein 850W bequiet noch ausreicht. Hab jetzt die Woche abseits von zocken die 5090 aber auch eher viel rendern lassen (vorher zwar schon mit der 5070Ti, aber das war relativ meh, alleine die doppelte Menge an Speicher ist da eine echte Offenbarung :D ) und die Karte dabei auch nicht an der Leine gehabt. Naja, heute ging der Rechner einmal aus. Kurz danach noch ein weiteres Mal, als ich nach dem hochfahren dann weitergemacht habe. Danach hab ich nebenbei mal geschaut, was die Karte zieht. Bei ausgelesenen ~520W ist der Rechner dann zum dritten Mal ausgegangen. Ist ja noch ein good old Multi-Rail Netzteil, die Dinger sind ja mittlerweile quasi ausgestorben. Brauch ich wohl (mindestens?) eins mit 1000W. War zwar nicht geplant, aber nunja. ;D


850W single geil reichen auch, außer du hast nen dicken Fredripper als CPU.
Wenn deine CPU aber nicht moar als 150W braucht, dann kann die GPU 600W ziehen und das NT ged nicht aus. (Habe ich schon getestet hier).
520W sind somit sowieso cool für so nen NT.

1000W eventuell wenn du 6090-ready sein willst. Was weiß man schon, was Lederjacke hier vorsehen wird. (y)

Exxtreme
2025-09-15, 07:44:46
Nvidia selbst empfiehlt 1000 W für die RTX5090. Und Netzteile zu überlasten ist auch nicht gut. Ansonsten kann man das PT runtersetzen.

Slipknot79
2025-09-15, 10:28:19
Die 1000W sollen auch günstige Chinakracher NTs abdecken. Bekannte Marken-NT ballern auch 850W durch.
Vom "überlasten" lese ich auch immer wieder, aber noch nie habe ich ne statistische Auswertung dazu gesehen oder eine Art Benchmark. oO

Tib
2025-09-15, 11:35:15
Founders Edition extrem Scheiße zu reparieren. Keine Ersatzteile oder Schaltpläne. Viele Stellen die kaputt gehen können.


https://youtu.be/93jk4Zho7YY (https://youtu.be/93jk4Zho7YY?si=d44EAb2jebLKsjGm)





...aber die Idee, das Hauptplatinen PCB mechanisch zu entlasten, ist klasse!


Durch das Gewicht der Grafikkarten wird ja an ungünstiger Stelle so viel Kraft eingeleitet, dass die PCB Steckerleiste schnell bricht, wenn der PC mal ein klein wenig zu stark bewegt wird. Unter anderem deswegen wird dann mit GPU Abstandshaltern herumgefrickelt. IMHO die andere große Design-Katastrophe nach dem 12VHPWR Debakel.
Aber dann die Idee mit einem proprietären Stecker / Buchse wieder zu vermurksen, ist wieder typisch für Nvidia.


Ich kann nicht verstehen, warum PCB Designer an einer - fast schon - Sollbruchstelle überhaupt Leitungen routen.
...was machen die Angestellten in den Grafikkarten-Entwicklungs-Abteilungen eigentlich so beruflich?


Ich könnte mich da schon wieder ewig drüber aufregen.

Lehdro
2025-09-15, 15:45:04
850W single geil reichen auch, außer du hast nen dicken Fredripper als CPU.
Wenn deine CPU aber nicht moar als 150W braucht, dann kann die GPU 600W ziehen und das NT ged nicht aus. (Habe ich schon getestet hier).

Sehe ich nicht so. Die Lastspitzen einer 5090 sind nicht ohne (https://www.igorslab.de/nvidia-geforce-rtx-5090-founders-edition-im-test-das-600-watt-kraftpaket-im-gaming-und-labortest/14/). Bei einer Auslastung von alleine bis 575/600W Nennwert der 5090, hast du nur noch 250W "Spielraum" für CPU & co. Selbst ein 9800X3D mit bissl Feuer unterm Hintern schluckt >100W in modernen Games (man denke z.B. an BF6, was CPU und GPU verbrauchstechnisch äußerst fordert). Dann hast du noch deinen restlichen Klimbim im System und zack sind die 850W "alle". NV, Igor und viele andere empfehlen nicht ohne Grund ein modernes 1000W Netzteil, die auch schon rein baulich und abstimmungstechnisch auf diese Lastspitzen vorbereitet sind (ATX 3.1 = 200% Lastspitzen <1ms). Diese gehen nämlich durchaus bis 900W, nur für die GPU.
@Linmoum
Kauf dir einfach ein vernünftiges 1000W Netzteil und sei beruhigt, dass das nicht der Fehlerpunkt sein wird. Zudem eierst du dann bei den meisten anderen Games locker im Bereich 60-70% Auslastung rum, was der Lautstärke bei semipassiven Netzteilen doch sehr zu gute kommt.

Lawmachine79
2025-09-15, 16:41:39
Hatte ja gehofft, dass mein 850W bequiet noch ausreicht.
Grill' es halt.

RoughNeck
2025-09-16, 00:48:07
Undervolten das Teil, schont auch das Netzteil.
Ansonsten halt nutzen bis das Netzteil keinen Bock mehr hat.

Lawmachine79
2025-09-16, 09:12:55
Undervolten das Teil, schont auch das Netzteil.
Ansonsten halt nutzen bis das Netzteil keinen Bock mehr hat.
Nix undervolten. Ride the Lightning!

Snoopy69
2025-09-16, 10:28:45
Wegen Single- oder Multirail…
Kann jeder machen wie er will. Ich bleibe bei Multirail aus einem guten Grund (Sicherheit). In meinem Fall gehen zwischen max. 20-40A (je nach Einstellung) durch eine Leitung. Bei Singlerail…? Was das NT hergibt :freak:

Die Wahrscheinlich, dass die volle Leistung durch eine Leitung geht, ist sehr gering, aber nicht = null

Slipknot79
2025-09-16, 11:44:35
Meine 2080Ti hat das NT (Corsair HX 850W) ingame upschalten lassen. Hat lange gedauert, bis ich draufgekommen bin, dass ich vielleicht mal den Schalter am NT auf single geil umschalten sollte. Seit dem auch mit der octen 4090 nicht ein einziges Mal upgeschaltet. (y)

PingpiN
2025-09-30, 12:44:42
Hallo weiß jemand wann es wieder 5090 auf Lager gibt? Wollte mir eine bestellen diese Woche aber es gibt keine unterhalb von 2300 Euro auf Lager. Mehr möchte ich nicht ausgeben weil das sowieso schon verrückt ist soviel Geld für eine Grafikkarte auszugeben? Gibt es bald wieder neue Chargen? Kann man sich irgendwo informieren deswegen weil ich bald die Geduld verliere.

Blase
2025-09-30, 12:49:06
Sieht so aus, als wäre die Founders unverändert für UVP zu haben:

https://marketplace.nvidia.com/de-de/consumer/graphics-cards/?locale=de-de&page=1&limit=12&gpu=RTX%205090,RTX%205080&manufacturer=NVIDIA&gpu_filter=RTX%205090~1,RTX%205080~1

MfG Blase

PingpiN
2025-09-30, 13:20:21
Wow nach der founders edition habe ich garnicht geguckt. Aber ist die founders edition nicht mit Abstand die schlechteste Karte? Die founders ist doch die lauteste und wärmste Karte? Ich habe eher nach einer billigen Serie von ein namhaften Hersteller wie Gigabyte gedacht. Wäre die Gigabyte windforce nicht viel besser als die founders edition?

Oder anders gefragt: Ist die founders edition qualitativ genauso so gut wie eine custom Karte. Also ich meine was Bauteile etc angeht? Ich werde die Karte sowieso undervolting.

Wo kann ich den auf der Nvidia Seite sehen wann die 5090 kommen würde? Da steht nichts! Wenn ich die jetzt bestelle und 1 Monat drauf warte, bringt mir das ja auch nichts.

Blase
2025-09-30, 13:46:02
Ich meine, dass nur lieferbare Karten überhaupt aufgelistet, bzw. zum Verkauf angeboten werden. Zumindest war das in der Vergangenheit so. So gesehen würde die Karte wahrscheinlich sofort verschickt werden.

Und ja, ich habe auch aufgeschnappt bzw. noch im Hinterkopf, dass die Founders Edition qualitativ gegenüber früheren Versionen der 4090 oder 3090 abgefallen ist. Ich kann das aber nicht näher ausführen, wie groß die Unterschiede tatsächlich sind. Bemüh doch einfach ein paar ältere Tests der 5090, wo eben auch eine Founders getestet wurde. Das wird heute ja unverändert Gültigkeit haben. Immerhin deutlich günstiger...

MfG Blase

BUG
2025-09-30, 14:17:40
Soweit ich weis ist die 5090 Founders Edition qualitativ sehr gut verarbeitet, also Bauteile, PCB, Kühler ist gut, aber sie ist halt sehr Kompakt für eine 600W Karte und daher sind die Temperaturen entsprechend hoch. Die nonFE sind halt recht groß (meist 3 Slot) und haben entsprechend viel Kühlfläche.

Im Prinzip entspricht die RTX 5090FE etwa der Profi-Karte: NVIDIA RTX PRO 6000

PingpiN
2025-10-01, 10:25:48
Hallo ich wollte die founders Karte bestellen.. Leider hat der Kauf nicht geklappt. Es kam immer das ich meine Zahlungsquelle ändern soll. Ich habe meine Kreditkarte angegeben. Geht das nur mit einer Master Card?

Danke.

Raff
2025-10-01, 10:30:22
Das markanteste Merkmal der Founders Edition ist, wie klein sie ist. Rank und schlank – und dennoch kommt sie mit der Abwärme zurecht. Dabei ist sie natürlich weder kühl, noch leise, die konsequent durchblasende Konstruktion ist dennoch sehr sexy. The card does not suck. It blows. :biggrin:

Ob bei neueren Chargen etwas am Spulengeräusch gemacht wurde? Vermutlich geht da wegen der Kompaktmaße und hohen Ströme wenig, aber interessant zu wissen wär's.

MfG
Raff

PingpiN
2025-10-08, 11:00:58
Hallo leider konnte ich mir die Founders Edition nicht bestellen. Er wollte den Kauf nicht akzeptieren keine Ahnung warum. Eigentlich möchte ich sowieso eine customkarte haben. Leider gibt es seit zwei Wochen keine Karte zu einen akzeptablen Preis. Weiß jemand warum das so ist? Kann man irgendwo nachgucken wann es neue Lieferungen gibt? Zur Zeit sind keine Karten verfügbar das kann doch nicht wahr sein!

Oder kann mir jemand ein guten KI bot geben wo es immer die besten Preise gibt?

Danke.

Hakim
2025-10-08, 13:21:07
Es gab heute die Ventus für 2161€ und gestern die Gigabyte für 2071€.

Einfach hier (unten) nach 5090ern und "nur Deals" filtern

https://www.computerbase.de/news/grafikkarten/verfuegbarkeit-und-preise-geforce-rtx-5090-und-5080-ab-heute-im-handel-erhaeltlich.91203/

PingpiN
2025-10-08, 13:34:46
Es gab heute die Ventus für 2161€ und gestern die Gigabyte für 2071€.

Einfach hier (unten) nach 5090ern und "nur Deals" filtern

https://www.computerbase.de/news/grafikkarten/verfuegbarkeit-und-preise-geforce-rtx-5090-und-5080-ab-heute-im-handel-erhaeltlich.91203/
Danke habe ich jetzt auch gesehen. Beides waren aber B-Ware. Für den Preis erwarte ich ein neues Produkt. Aber ich bin da mal durchgegangen. Da gab es auch andere Karten Neuware für unter 2300 €. Das ist mein Limit. Es gibt noch Hoffnung.

Hakim
2025-10-08, 13:42:14
Ja viel Glück, immer wieder da rein schauen, gute Angebote gehen halt schnell weg.

c4rD1g4n
2025-10-08, 18:47:43
Im luxx steht seit mindestens einer Woche eine 5090 FE neu und OVP für den EK zum Verkauf.
(zur Info: ich bin nicht der Verkäufer und ich kenne den auch nicht)

gHi
2025-10-09, 08:30:08
bald ist wieder "black" irgendwas. ist mit preisabschlägen bei der rtx 5090 zu rechnen, falls ja, in welchem bereich?
vielleicht gibt's erinnerungen an die vorjahre mit rtx 4090, rtx 3090?

gnomi
2025-10-09, 09:06:42
AFAIK waren die günstigen Kaufgelegenheiten zuletzt in der Sommerzeit.
Black Friday habe ich wenig interessante GPU Angebote gesehen.
Beim Spitzenmodell 5090 sieht es aber allgemein schwach aus.
Denke die Zielgruppe an Gamern ist auch entsprechend klein, aber vermögend genug. Tiefpreis sollte Richtung UVP plus 1 Game wie bei der FE bleiben.

PingpiN
2025-10-09, 16:22:09
Hallo konnte heute für 2030 € eine MSI ventus oc kaufen. Paar Stunden zuvor wollte ich eine MSI gaming Trio für 2400 € kaufen bei Amazon aber ich konnte den kauf nicht abschließen zum Glück. 2030 € ist doch gut für diese Serie oder? Hat die Msi ventus Karte einen schlechten Ruf oder kann man sie empfehlen? Leider findet man im Internet nicht so viel zu 5090 Karten. Was ist zur Zeit der richtige Weg seine 5090 zu undervolten damit auch der idle Takt funktioniert. Es gibt viele Videos auf youtube aber wer soll da wissen was das richtige ist? Kann mir einer den besten Weg bitte sagen wie man aktuell eine 5090 undervolted? Danke.

Ja viel Glück, immer wieder da rein schauen, gute Angebote gehen halt schnell weg.
Ja echt verrückt bei den Preisen. nach 10 Minuten war die Karte schon wieder ausverkauft.

Exxtreme
2025-10-09, 16:23:33
Also ich habe die Ventus und die tut was sie soll. Sie ist optisch zwar nicht hübsch. Nur juckt mich das nicht da ich den PC nur beim Einschalten sehe.

PingpiN
2025-10-09, 16:24:33
Also ich habe die Ventus und die tut was sie soll. Sie ist optisch zwar nicht hübsch. Nur juckt mich das nicht da ich den PC nur beim Einschalten sehe. geht mir genauso RGB und sowas brauche ich nicht deswegen ist mir die Optik egal. Und wie ist so die Lautstärke? Undervoltest du die Karte? Habe ein corsair rm850 Watt netzteil.

Exxtreme
2025-10-09, 16:33:06
UV betreibe ich nicht, dafür habe ich aber das PT um 10% gesenkt. Lautstärke ist für mich akzeptabel, sie fiept aber wenn die FPS stark nach oben gehen. Da meine ich aber 200 fps und mehr. Passiert öfter in div. Spiele-Menüs. Lässt sich mit einem globalen FPS-Limiter im Treiber beheben. Spulenfiepen ist leider ein wenig Glückspiel, genauso wie Undervolting.

Die 850 W werden aber womöglich zu knapp sein. Nvidia selbst empfielt 1000 W als Minimum. Gut, du kannst die Karte auch auf 450 W PT drosseln. Dann reichen auch die 850 W da das die Minimalanforderung bei der RTX4090 war.

ChaosTM
2025-10-09, 17:02:54
Mit einem guten, halbwegs neuen Single Rail 850er geht das schon. Hab meines extensiv gequält mit Furmark, CP77 etc. bei 104%, also 600W.

+ das Corsair RM850 sollte eigentlich damit zurecht kommen. Garantiert ist es aber natürlich nicht.

Raff
2025-10-09, 18:31:12
RTX 5090 zur Abwechslung mal (bis zu) 30 Prozent vor der RTX 4090 – Battlefield 6 läuft auf allen Architekturen gut, auf einigen sogar sehr gut: https://www.pcgameshardware.de/Battlefield-6-Spiel-75270/Specials/Tech-Test-Benchmarks-CPU-GPU-Performance-1483288/3/

MfG
Raff

Snoopy69
2025-10-09, 18:46:50
Mit einem guten, halbwegs neuen Single Rail 850er geht das schon. Hab meines extensiv gequält mit Furmark, CP77 etc. bei 104%, also 600W.

+ das Corsair RM850 sollte eigentlich damit zurecht kommen. Garantiert ist es aber natürlich nicht.
Mit "Multi" auch...
Und - es ist "sicherer" als Single

SamLombardo
2025-10-09, 21:11:03
RTX 5090 zur Abwechslung mal (bis zu) 30 Prozent vor der RTX 4090 – Battlefield 6 läuft auf allen Architekturen gut, auf einigen sogar sehr gut: https://www.pcgameshardware.de/Battlefield-6-Spiel-75270/Specials/Tech-Test-Benchmarks-CPU-GPU-Performance-1483288/3/

MfG
Raff
Was heißt hier zur Abwechslung mal bis zu. Das ist doch der Standardvorsprung. Auch in eurem ursprünglichen Test waren es durchschnittlich durch alle Spiele 28% wenn ich mich richtig erinnere.

Raff
2025-10-09, 21:14:48
Jo, aber in sehr vielen Neuveröffentlichungen dieses Jahres nicht.

MfG
Raff

The_Invisible
2025-10-09, 21:16:44
Jo, aber in sehr vielen Neuveröffentlichungen dieses Jahres nicht.

MfG
Raff

Hauptsächlich UE5, die Engine scheint generell nicht mit Geforce zu harmonieren

SamLombardo
2025-10-09, 22:18:12
Hauptsächlich UE5, die Engine scheint generell nicht mit Geforce zu harmonieren
Gibt aber auch UE5 Beispiele in denen sich die 5090 gut von der 4090 absetzen kann. Etwa das Oblivion Remaster ein in dem die 5090 30% vor der 4090 liegt. Oder Wuchang Fallen Feathers da ist die 5090 mehr als 30 Prozent vor der 4090 - und das trotz Software Lumen. Dann gibt es natürlich auch die Beispiele, wo sie sich kaum absetzen kann, etwa Mafia. Ist merkwürdig manchmal mit der UE5.

Slipknot79
2025-10-09, 23:16:12
Jo, aber in sehr vielen Neuveröffentlichungen dieses Jahres nicht.


Nicht mal die 30% sind nennenswert. (y) :cool:

Exxtreme
2025-10-09, 23:48:55
30% sind spürbar. Sind in etwa ein Unterschied zwischen DLSS Q oder DLAA.

Slipknot79
2025-10-10, 03:50:50
40fps vs 52fps, also Shice vs immer noch Shice. (y) ;)

SamLombardo
2025-10-10, 07:33:47
40fps vs 52fps, also Shice vs immer noch Shice. (y) ;)
War aber schon ziemlich oft, dass die 5090 60 FPS nativ in bestimmten Spielen schafft während die 4090 noch in den 40ern rumhängt. 46fps vs 60fps, um mal bei den 30% zu bleiben, ist schon für manche relevant. Zumal auch als Grundlage für FG zum Beispiel.

Und überhaupt, da wir ja quasi alle hier die 5090 gegen unsere 4090 (plus sehr geringen Aufpreis) getauscht haben:D, nehme ich auch die 30% + neue Technologie gerne mit, ohne zu viel schlechtes Gewissen.

Linmoum
2025-10-10, 08:20:12
40fps vs 52fps, also Shice vs immer noch Shice. (y) ;)47fps vs. >60fps. Passt.

Slipknot79
2025-10-10, 17:46:41
War aber schon ziemlich oft, dass die 5090 60 FPS nativ in bestimmten Spielen schafft während die 4090 noch in den 40ern rumhängt. 46fps vs 60fps, um mal bei den 30% zu bleiben, ist schon für manche relevant. Zumal auch als Grundlage für FG zum Beispiel.

Und überhaupt, da wir ja quasi alle hier die 5090 gegen unsere 4090 (plus sehr geringen Aufpreis) getauscht haben:D, nehme ich auch die 30% + neue Technologie gerne mit, ohne zu viel schlechtes Gewissen.

60fps sind immer noch Shice ;)

Die 5090 ist eben keine 4k Karte, so wie 4090 es auch nie war. Die +30% machen sie auch nicht zu einer 4k Karte, das ist zu wenig. Die 5090 ist noch keine 6 Monate ordentlich verfügbar und schon wird rumgeheult in Borderlands 4 wegen der performance. :D

"Ihr" (="Wir alle") seid gewechselt, "ihr" habt aber finanziell eben auch nix drauf. Hier im 3dc wird eben auch nur der Durchschnitt der konsumierenden Gesellschaft abgebildet. Was auch kein Vorwurf ist, ist es doch der Durchschnitt und der wird nunmal nicht "reich". Der Durchschnitt rechnet eben nunmal nur schön (und bleibt arm). :D
Lederjacke rechnet knallhart, seine Opfer rechnen "schön". :D

Snoopy69
2025-10-10, 17:48:55
40fps vs 52fps, also Shice vs immer noch Shice. (y) ;)
Ist aber kleine Shice vs große Shice (52fps vs 40fps) :freak:

Cubitus
2025-10-10, 18:19:44
Min FPS ist das große Zauberwort...

Snoopy69
2025-10-10, 18:56:17
Zu Zeiten von Far Cry 1 wäre man über min 50fps @ FHD glücklich gewesen

ChaosTM
2025-10-10, 19:14:32
Ja, 1024x768 auf CRTs war damals noch weit verbreitet.
720p LCDs waren "Highendish"

hq-hq
2025-10-10, 22:37:00
60fps sind immer noch Shice ;)

Die 5090 ist eben keine 4k Karte, so wie 4090 es auch nie war. Die +30% machen sie auch nicht zu einer 4k Karte, das ist zu wenig. Die 5090 ist noch keine 6 Monate ordentlich verfügbar und schon wird rumgeheult in Borderlands 4 wegen der performance. :D

"Ihr" (="Wir alle") seid gewechselt, "ihr" habt aber finanziell eben auch nix drauf. Hier im 3dc wird eben auch nur der Durchschnitt der konsumierenden Gesellschaft abgebildet. Was auch kein Vorwurf ist, ist es doch der Durchschnitt und der wird nunmal nicht "reich". Der Durchschnitt rechnet eben nunmal nur schön (und bleibt arm). :D
Lederjacke rechnet knallhart, seine Opfer rechnen "schön". :D

Versteh ich jetzt nicht, siehst doch manche kaufen die für 2000€ und die Chancen stehen gut, dass wir bei der nächsten Gen wieder günstig wechseln können. Arm, reich, ist doch egal wenn man günstig ne neue Karte mit Garantie bekommt. Die Reichen haben gar keine Zeit für sowas.

Nightspider
2025-10-10, 22:45:15
Wieso geht ihr überhaupt auf ihn ein?

Der hat eh oft komische Meinungen.

Sardaukar.nsn
2025-10-10, 23:06:10
Min FPS ist das große Zauberwort...

Min FPS? Schnee von gestern!

Heute bügelt die KI hinter Frame Generation die CPU Limits und FPS glatt.

Slipknot79
2025-10-11, 00:43:35
Versteh ich jetzt nicht, siehst doch manche kaufen die für 2000€ und die Chancen stehen gut, dass wir bei der nächsten Gen wieder günstig wechseln können. Arm, reich, ist doch egal wenn man günstig ne neue Karte mit Garantie bekommt. Die Reichen haben gar keine Zeit für sowas.

Der Käufer weiß aber zum Kaufzeitpunkt nicht, ob er die 5090 "günstig" bekommen hat. Das weiß er ja erst, wenn er sie wieder verkauft haben wird.
Außer, er weiß schon zum Kaufzeitpunkt, dass er die 5090 für die Vitrine behalten wird. Dann hat das +30%-fps-Upgrade eben +2k EUR gekostet. In diesem Fall wars aber nicht "günstig", sondern das Maximum was er ausgeben konnte.

Das Upgrade auf die 4090 war hingegen für viele tatsächlich günstig, wenn sie den Prügel zum ca.-Einkaufspreis wieder verkauft haben. Ggf. sogar mit Gewinn. (y)

Gouvernator
2025-10-11, 05:59:46
Die 5090 oder viel mehr die 32Gb Vram die dazugehören, wird nicht mehr jeder einfach so mal später verkaufen. Die LLMs werden ja größer und bei NextGen wenn NV gutes Stück VRAM freigibt, wird schon das nächste Bottleneck erzeugt - Zeit bis zum ERSTEN Token. Das braucht brutal viel Compute, je größer das LLM. Die 5090 als Zweitkarte ist nicht nur 32Gb for free, sondern auch ein Compute-Biest. Mit noch einer weiteren Tendenz für eine extra GPU für realistischeres TTS im Rechner. Orpheus nimmt sich mit der besseren Quantisierung um die 16Gb.
https://youtu.be/mnefYDNjkb0?si=1z7T3VyK-uvnnD8O
Ein Example ob das einem in der Zukunft eine Grafikkarte wert ist. Ich sage mit einem 100b Chatbot im Hintergrund auf jeden Fall... Sonst fühlt sich der Fortschritt nicht so richtig an, wenn seine Stimme grottig klingt.

Nightspider
2025-10-11, 06:43:52
Das Upgrade von der 4090...

fixed that for you

Lurtz
2025-10-11, 07:43:40
Zu Zeiten von Far Cry 1 wäre man über min 50fps @ FHD glücklich gewesen
25-50 fps mit triple buffered VSync!

Slipknot79
2025-10-11, 13:21:57
fixed that for you


Nope, da hast du versagt. (y)

PingpiN
2025-10-11, 14:18:13
Hallo ich habe jetzt auch eine 5090.ventus. ich habe eine Frage wie ich den Strom am besten anschließe. Ich habe ein corsair RM850 Netzteil. Ich nutze Grade eine 4070 TI mit den Adapter. Ich habe zwei pcie Express Kabel am Netzteil angeschlossen. An beiden Enden sind ja vier Anschlüsse die zur Karte/Adapter führen. Ich habe jeweils 1 Anschluss an Adapter angeschlossen und zwei Anschlüsse liegen frei. ich wollte für die 5090 eigentlich die zwei freien Anschlüsse benutzen weil sie ja 4 und nicht 2 braucht. Beim mitgelieferten Adapter steht aber das man alle einzeln anschließen soll also mit 4 pcie kabel. Meine Frage hat das Corsair RM850 Watt 4 pcie Express Anschlüsse? Bei 4.kabeln wurden ja auch wieder 4 Anschlüsse frei liegen.

Hier gibt's Fotos. Beitrag im Thema 'Blackwell (5070/5080/5090) Overclocking/Undervolting Sammelthread' https://www.computerbase.de/forum/threads/blackwell-5070-5080-5090-overclocking-undervolting-sammelthread.2228911/post-30983400

Hakim
2025-10-11, 14:22:00
Das wird schon richtig sein. Bei einigen NTs sind zwei 8pin Stränge in einem Strang integriert, halt 300W Strang verteilt auf je 8pin 150W. Heißt zwei von denen entsprechen 4 normale 8pin Stränge


Korrigiert mich wenn ich was falsches geschrieben habe

ChaosTM
2025-10-11, 14:27:25
Das RM850 hat 5 solcher Anschlüsse. 4 "unten" neben Peripheral/Sata und einen oben neben dem 24pin Ding.

PingpiN
2025-10-11, 14:28:47
Das wird schon richtig sein. Bei einigen NTs sind zwei 8pin Stränge in einem Strang integriert, halt 300W Strang verteilt auf je 8pin 150W. Heißt zwei von denen entsprechen 4 normale 8pin Stränge


Korrigiert mich wenn ich was falsches geschrieben habe

Habe ich mir auch gedacht aber kann ich bei mein Netzteil auch 4.pci Express Kabel anschließen? Sind hinten beim Netzteil alle Anschlüsse mit den 8 Löchern pci Express Anschlüsse ? Wenn ja könnte ich ja wie bei der 4070 TI 4 Kabel benutzen wo auch 4 Kabel dann frei liegen. Wäre es so nicht sicherer weil dann maximal bei jeden Kabel 150 Watt gezogen wird.

PingpiN
2025-10-11, 14:29:49
Das RM850 hat 5 solcher Anschlüsse. 4 "unten" neben Peripheral/Sata und einen oben neben dem 24pin Ding.
Also die mit den 8 Löchern ja? Dann mache ich das lieber so dann liegt auf jeden Kabel nur 150 Watt an.:smile:

ChaosTM
2025-10-11, 14:35:02
jop

PingpiN
2025-10-11, 15:04:25
jop
OK letzte Frage . In der Corsair RM850 Box waren nur 3 pci Express Kabel. Ich habe noch ein 4 Kabel pcie Kabel von ein Corsair Rm850X liegen. Das Kabel sieht anders aus. Aber das ist doch egal oder? Pci Express Kabel sind alle gleich? Bitte noch um Antwort :smile:.

ChaosTM
2025-10-11, 15:09:13
Solange es 8 Pole hat und hineinpasst..

Aja, viel Spaß mit der Karte.

Nightspider
2025-10-11, 15:13:01
Nope, da hast du versagt. (y)

Man upgraded von der 4090 auf die 5090.

Glaube dein Deutsch hat die letzten Jahre zu sehr gelitten. ;)

Oder es liegt wieder an deiner kaputten Logik. ;D

Snoopy69
2025-10-11, 16:23:08
Solange es 8 Pole hat und hineinpasst..

FALSCH!!!

Die Kabel können zu 100% genau passen, aber anders gepolt sein. Wenn man sich nicht sicher ist, ob das Kabel zum NT passt, jede einzelne Leitung vom Stecker zu Stecker prüfen oder durchmessen

ChaosTM
2025-10-11, 16:24:41
Die Stecker haben Einkerbungen, die ein falsches Anschließen unmöglich machen.

Slipknot79
2025-10-11, 17:36:13
Man upgraded von der 4090 auf die 5090.

Glaube dein Deutsch hat die letzten Jahre zu sehr gelitten. ;)

Oder es liegt wieder an deiner kaputten Logik. ;D

Weder noch. ;)
Du hast nicht verstanden, dass das 4090-Upgrade bezogen wird auf die Vorgängerkarte, z.B. eine 3090 oder eine sonst andere beliebige Karte. (y) Wofür wurde sonst die 4090 gekauft (und ggf. wieder verkauft)? lol. Eben.

PingpiN
2025-10-11, 17:52:33
Die Stecker haben Einkerbungen, die ein falsches Anschließen unmöglich machen.
Das andere Kabel konnte ich auch ohne Probleme ins Netzteil stecken und es hat klick gemacht. Ganz anders als bei der Grafikkarte da hat nichts klick gemacht. Der Stecker sitzt zum Glück aber richtig drin . Ich kann nicht erkennen das irgendwo ein Spalt zu sehen ist.

Danke für die Hilfe jetzt muss ich erstmal mein PC wieder zusammen kriegen bei den Kabelsalat.

SamLombardo
2025-10-11, 19:28:29
0Der Käufer weiß aber zum Kaufzeitpunkt nicht, ob er die 5090 "günstig" bekommen hat. Das weiß er ja erst, wenn er sie wieder verkauft haben wird.
Außer, er weiß schon zum Kaufzeitpunkt, dass er die 5090 für die Vitrine behalten wird. Dann hat das +30%-fps-Upgrade eben +2k EUR gekostet. In diesem Fall wars aber nicht "günstig", sondern das Maximum was er ausgeben konnte.

Das Upgrade auf die 4090 war hingegen für viele tatsächlich günstig, wenn sie den Prügel zum ca.-Einkaufspreis wieder verkauft haben. Ggf. sogar mit Gewinn. (y)


Abgerechnet wird aber dann beim Kauf der 6090. Glaubst du wirklich dass du wenn du die 4090 dann verkaufst nur unwesentlich weniger kriegen wirst oder gar mehr kriegen wirst als wenn du eine 5090 dann verkaufst? Wohl kaum. Nebenbei genießen wir die 30% und die neuen Technologien und sind abgesichert durch die frische Garantie. Wer die 4090 zum Einkaufspreis oder knapp darunter verkauft hat um auf eine 5090 upzugraden hat alles richtig gemacht.

Snoopy69
2025-10-11, 20:47:56
Die Stecker haben Einkerbungen, die ein falsches Anschließen unmöglich machen.
Leider wieder falsch!!!
Hab Kabel von Seasonic und Corsair, die an beiden NT problemlos zu stecken sind, aber anders verkabelt sind

Slipknot79
2025-10-11, 21:09:56
Glaubst du wirklich dass du wenn du die 4090 dann verkaufst nur unwesentlich weniger kriegen wirst oder gar mehr kriegen wirst als wenn du eine 5090 dann verkaufst?

Wie kommst du auf die Frage? Glauben kann ich in Religion. Tatsachen werden zählen. Ich werde dann eben schon sehen was das Upgrade 4090 von der 2080Ti mich kosten wird sobald die 6090 auf den Markt geballert wird und ich die 4090 verkaufen werde. (falls die 6090 +100% fps liefert vs 4090) Was es hat, das hat es eben. Bin da gechillt. (y)
Wenn die 4090 im Preis dropen wird, dann wird das bei der 5090 im etwa dem selben Ausmaß auch passieren, die Karten unterscheiden sich ja kaum. Die 5090 Käufer werden dann sehen was das 5090-Upgrade von der Vorgänger-GPU gekostet hat nachdem sie die 5090 verkauft haben werden. Time will tell.
Ich kam von der 980Ti auf die 2080Ti. Das Upgrade auf die 2080Ti hat mich 580EUR (980EUR Einkauf minus 400EUR Verkauf) gekostet. 580EUR für 4,5 Jahre *gähn*. Bei der 4090 kann ich das naturgemäß noch nicht abschließend sagen, außer ich hätte vor sie zu behalten, was nicht der Fall sein wird.

sind abgesichert durch die frische Garantie

Also so voll sind meine Hosen nicht, waren sie auch nicht bei den 4,5 Jahren 2080Ti.
Nach der Logik müssten wir ja immer die Waschmaschine, die Spülmaschine, den Fernseher, das Auto etc. alle wenigen Jahre 1 Millisekunde nach Ablauf der Garantie wieder verkaufen um Platz für das "Upgrade" zu schaffen. lol (y)

Nebenbei genießen wir die 30% und die neuen Technologien

Das ist erfreulich, dann genießen wird beide genau das selbe Produkt, die 4090 und die praktisch identische 5090. (y)

Wer die 4090 zum Einkaufspreis oder knapp darunter verkauft hat um auf eine 5090 upzugraden hat alles richtig gemacht.

Der 5090 Käufer wird warten müssen, bis er die 5090 wieder verkauft hat. Dann kennt er den Preis für das +30% fps Upgrade. Also in fast 2 Jahren. Der 5090-Kauf hat mit der 4090-Bilanz ja nichts zu tun.
Was aber sicher richtig gemacht wurde: Die 4090 wurde zum +- Einkaufspreis wieder verkauft. Das Upgrade von der Vorgänger-GPU (3090, etc... was auch immer) war somit praktisch gratis.
Die 5090 danach schlägt nun ein neues Kapitel auf und die Kalkulation/Bilanzierung endet mit deren Verkauf.

ChaosTM
2025-10-11, 21:30:52
Leider wieder falsch!!!
Hab Kabel von Seasonic und Corsair, die an beiden NT problemlos zu stecken sind, aber anders verkabelt sind


Warum sollten NT Hersteller verschieden verkabelte 8pol PCI-E Stecker verwenden..


@ Slipnot

ein ~30% Upgrade bezüglich Performance und Speicher für 200-300€ ist kein schlechter Deal.
Ist/war eine einmalige Situation, die man nicht ungenutzt lassen sollte.

Slipknot79
2025-10-11, 21:34:59
ein ~30% Upgrade bezüglich Performance und Speicher für 200-300€ ist kein schlechter Deal.
Ist/war eine einmalige Situation, die man nicht ungenutzt lassen sollte.

Du kommst auf die 200-300EUR nur dann, wenn du die 5090 um 200-300EUR unter Einkaufspreis verkaufen wirst. Wie kommst du zu dieser Annahme, dass das so in fast 2 Jahren eintreten wird?
Abgesehen davon wäre dieser Deal nicht so der Burner. Für praktisch das selbe Produkt 200-300EUR rausballern? Muss man nicht verstehen. :tongue: Ok, man kann "Garantieverlängerung" anführen, aber afaik kann man sowas ja auch gleich bei Graka-Kauf mit in den Warenkorb ballern. GGf. sogar günstiger? Denn das eine ist Spekulation (Verkauf um 200-300EUR unter Einkauf) und das andere eine Tatsache (Fixpreis für Garantieverlängerung im Warenkorb).

ChaosTM
2025-10-11, 21:38:14
ich musste 250€ auf-zahlen, um von der 4090er auf eine 5090er zu wechseln..

dass du das nicht verstehst ist mir schon klar

Slipknot79
2025-10-11, 21:41:53
Nein, das hast du nicht müssen.
Du hast vorerst +2k EUR liegen gelassen. Sieh es aber positiv: Das Geld ist nicht weg, das hat nur wer anderer. :smile:
Einen Teil davon bekommst du ja später wieder zurück, wenn du den Prügel verkaufst. Und wenn du Glück hast, dann wirst du vllt sogar +- Einkaufspreis erzielen. Dann sieht es für die 4090 User auch gut aus. (y)

SamLombardo
2025-10-11, 21:48:42
Nein, das hast du nicht müssen.
Du hast vorerst +2k EUR liegen gelassen. (y)
https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-5090-faq.1361567/page-35#post-306506569 (https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-5090-faq.1361567/page-35#post-30650656)

ChaosTM
2025-10-11, 21:51:19
Wenn du dich in semantischen Kleinigkeiten verlieren willst, dann ändere ich "musste " in "wollte"

In VR ist die Karte oft 50+% schneller und das ist sehr deutlich spürbar.
Niemand will deine (veraltete) 4090er schlechtreden (scnr)

Slipknot79
2025-10-11, 21:55:00
https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-5090-faq.1361567/page-35#post-306506569

Ja, das könnte in der fiktiven Annahme tatsächlich eintreten. 1000EUR für ein +30% fps Upgrade. Ist nicht so unrealistisch, aber was weiß man schon, vllt knallt Xi auch TSMC zu. Dann kostet die 4090 12k EUR und die 5090 13k EUR (y)
Hätte hätte.
Die 5090 User werden die Auflösung zum Verkaufszeitpunkt erhalten. Jene, die jetzt schon wissen, dass sie die Karte nicht verkaufen werden, stellen fest: "Das +30% fps Upgrade hat mich +2k EUR gekostet". Für alle anderen ist das ein Zwischenstand bis zum Verkauf. (y)

In VR ist die Karte oft 50+% schneller und das ist sehr deutlich spürbar.
Niemand will deine (veraltete) 4090er schlechtreden (scnr)

VR ist nunmal nicht das Hauptanwendungsgebiet der Gamer. Hierzu müsste man beginnen zu gewichten: 80% der Spielzeit in VR und 20% der Spielzeit auf dem Monitor? Oder anders rum? 50% klingen natürlich schon besser, vorallem wenn man 100% seiner Spielzeit damit rumballert.
Niemand hier redet irgendwas schlecht. Zahlen und Fakten sind nicht gut oder schlecht. Sie sind wie sie sind und alles cool. (y)

dann ändere ich "musste " in "wollte"

Du hast weder müssen noch konntest du wollen. Ich will auch, dass die Erde flach und keine Kugel ist. Wollen kann man vieles. (y)

ChaosTM
2025-10-11, 22:06:01
VR ist nunmal nicht das Hauptanwendungsgebiet der Gamer. Hierzu müsste man beginnen zu gewichten: 80% der Spielzeit in VR und 20% der Spielzeit auf dem Monitor? Oder anders rum? 50% klingen natürlich schon besser, vorallem wenn man 100% seiner Spielzeit damit rumballert.
Niemand hier redet irgendwas schlecht. Zahlen und Fakten sind nicht gut oder schlecht. Sie sind wie sie sind und alles cool. (y)


Ich rede nur von mir.
Für die meisten macht ein Upgrade von Ada auf Blackwell auch wenig Sinn, wenn man keinen 240hz 4k Monitor oder VR nutzt.


Welche Fakten?

Slipknot79
2025-10-11, 22:11:42
Welche Fakten?

Jene die ich in den diversen Beiträgen verfasst habe.

Glaube mir, ich wünschte ich könnte auch eurer Schönrechnen-Logik folgen, nur weiß ich, dass mein Kontostand mich dafür verprügelt hätte. Denn ich müsste ja konsequent so bei ausnahmslos ALLEN Konsumgütern, inkl. Autos, so bedenkenlos vorgehen und könnte ruhig schlafen wenn ich dabei an meinen Kontotand denken würde. Ich weiß aber, dass das ganz genau gar nicht der Fall wäre. Die Bilanzmathematik prügelt eben ganz ganz hart. Umso härter, je schöner man rechnet. ;)

ChaosTM
2025-10-11, 22:24:01
Du hast ein high-endiges System und verstehst nicht, warum jemand 200 euros für eine etwas bessere Graka raushaut.
Deine CPU ist zb. schneller als meine.

verstehe ich nicht..

Slipknot79
2025-10-11, 22:31:44
Nein, ich versteh nicht, wieso man sich selbst anlügt, weil ja die 200EUR bilanztechnisch überhaupt nicht korrekt sind.

Ich habe aber die Beobachtung gem8, dass man bei "teuren" Konsumgütern (insbesondere bei Autos sehr auffällig) sich wiederholt selbst dermaßen in die Fresse lügt, dass sich die Balken biegen. Ich mein, so Opfer kann man dort gar nicht sein? Oo Wenn das Einzelfälle wären, ok, aber das ist schon ein sehr kollektives Verhalten. oO

Faktisch betrachte ich das ja völlig neutral: +2K EUR für +30% fps (oder von mir aus +50% in 100% Spielzeit in VR) als Zwischenstand. So wie die Erde eben nunmal rund ist und keine Scheibe.

ChaosTM
2025-10-11, 22:44:15
Du siehst die Erde ganz offensichtlich als Scheibe, sonst würdest du das verstehen.

Mir ist gerade fad neben der genauso faden SC Präsentation, daher lasse ich mich auf den Unfug überhaupt ein.

Slipknot79
2025-10-11, 23:11:23
Den Vorwurf musst du allen Hardware-Testern machen, z.B. PCGH. Die schreiben nämlich, dass eine Graka so und so viele EURs kostet und nicht "das Upgrade auf die von uns getestete GPU kostet 200EUR" lol.
Aber klar, PCGH und Co sehen die Erde auch als Scheibe, gell? lol (y)
Wäre ja noch schöner, wenn man dort auch noch anfinge mit dem Schönrechnen-Shice. (y)

Nightspider
2025-10-12, 00:03:17
Nein, ich versteh nicht, wieso man sich selbst anlügt, weil ja die 200EUR bilanztechnisch überhaupt nicht korrekt

Was hast du denn nach dem Verkauf deiner alten Grafikkarte zugezahlt um dir die 4090 zu kaufen?

Nehmen wir mal die Battlefield 6 Benchmarks von PCGH in 4K, dann ist der absolute Sprung von der 4090 auf die 5090 genauso groß wie von der 3090 auf die 4090.

3090: 46 fps
4090: 68 fps [+22fps]
5090: 91 fps [+23fps]

Nur, dass das 4090 Upgrade die meisten Leute irgendwas um die ~~1000 Euro gekostet haben wird, während man das 5090 Upgrade für 200-330 Euro mitnehmen konnte.

Aus meiner Sicht ist jeder dumm, der das nicht mitgenommen hat.

Die Rechnung ist ganz simpel. So ein günstiges Upgrade wird es vielleicht nie wieder geben.

Und damit du es verstehst:

46 fps = ruckelt
68 fps = mäh
91 fps = yes

Daredevil
2025-10-12, 00:20:49
Ausnahmen bestätigen nicht die Regel, in der Regel sind neue Karten im Vergleich entweder bedeutend schneller, oder sie kosten weniger für das gleiche Ergebnis. Die Rechnung mit dem "Hab sie aus Glück teurer verkauft" kannst du halt nicht ewig spielen. Ansonsten kann ich euch hier auch eine FairyTale Rechnung aufmachen, weil ich das Spiel seit der 1080 gespielt habe dank Mining.

1080 Kauf: 600€
1080 Verkauf: 800€

1080Ti Kauf: 800€
1080Ti Verkauf: 1100€

2080TI Kauf: 800€
2080TI Verkauf: 1200€

3090 Kauf: 1500€
3090 Verkauf: 3200€

Die letzten 3 Generationen Gaming Grafikkarten haben mich also -2600€ gekostet. *clap*
Die unnormale Nachfrage nach der 4090 aufgrund der 24GB + AI haben den Preis enorm nach oben schnellen lassen analog zur Mining Zeit früher. Das war kein händlerisches Geschick, das war einfach nur ein Zufall, dass sich Angebot und Nachfrage so sehr in Richtung Angebotsknappheit verschoben hat, weil Nvidia Lovelace nicht mehr produziert hat. Insofern ist ein Upgrade auf die 5090, sofern man sie bekommen hat natürlich sinnvoll gewesen.

Wenn die 5080 nicht so ne Gurke gewesen wäre, hätte man auch "4090 Leistung" für den halben Preis bekommen. Die Geeks hier machen aber natürlich kein Downgrade, insofern kommt nur das nächst größte in Frage. ^^

Slipknot79
2025-10-12, 04:16:47
Was hast du denn nach dem Verkauf deiner alten Grafikkarte zugezahlt um dir die 4090 zu kaufen?

Null EUR "Zuzahlung".
Die 4090 hat UVP der FE gekostet. Das ist immer noch Stand der Dinge. Vorerst habe ich also UVP-FE bezahlt für 2,5x fps vs 2080 Ti.

dann ist der absolute Sprung
Absolut Sprünge interessieren nicht. Relative sind interessant.
Tut somit nichts zur Sache.

Nur, dass das 4090 Upgrade die meisten Leute irgendwas um die ~~1000 Euro gekostet haben wird, während man das 5090 Upgrade für 200-330 Euro mitnehmen konnte.

Wenn man die 5090 um 200-330EUR unter Einkauf verkauft hat, dann hat das Upgrade wohl 200-330EUR gekostet. Schade, dass man das Hobby nun an den Nagel gehängt hat.
Wer die 4090 um 1000EUR unter Einkaufspreis verkauft hat, dem hat das Upgrade wohl genau diese 1000EUR gekostet. Ich bezweifle aber, dass das "die meisten" waren. Für "die meisten" ging es gut aus mit Einkaufspreis = ca. Verkaufspreis.

Nightspider
2025-10-12, 05:59:06
Kannst du mal Deutsch schreiben?


Die 4090 hat UVP der FE gekostet.

Wasn das für eine dämliche Angabe?



Wenn man die 5090 um 200-330EUR unter Einkauf verkauft hat, dann hat das Upgrade wohl 200-330EUR gekostet.

Hast du gekifft?

Slipknot79
2025-10-12, 14:16:22
Kann auch nix dafür, dass du schnell an banalen Fakten scheiterst und nicht mal lesen kannst.
Arbeite an dir, vielleicht wird's noch was.

Evil Ash
2025-10-12, 17:44:04
Also da muss ich Nightspider mal recht geben. Man versteht halt kaum etwas, was du schreibst ...(?).

"Wenn man die 5090 um 200-330EUR unter Einkauf verkauft hat" zum Beispiel. Warum sollte man eine 5090 verkaufen?

aceCrasher
2025-10-12, 19:27:10
Also da muss ich Nightspider mal recht geben. Man versteht halt kaum etwas, was du schreibst ...(?).

"Wenn man die 5090 um 200-330EUR unter Einkauf verkauft hat" zum Beispiel. Warum sollte man eine 5090 verkaufen?
Ich glaube er redet davon die 5090 in Zukunft zu verkaufen. Wenn er sie für beispielsweise 2500€ gekauft und für 2300€ verkauft hat („200€ unter Einkauf“), dann hat der Besitz der Karte für 2 Jahre letztendlich nur 200€ gekostet.

c4rD1g4n
2025-10-12, 19:43:56
Ja, aber was bringt es, sich ständig einen darauf runterzuholen, was man für vorteilhafte Geschäfte getätigt hat. Da gibt es aber viele....hier und in anderen Foren.

Letzten Endes ist das doch alles relativ.
Der EK der Karten, der Profit (oder möglichst geringe Verlust) den man gemacht hat, oder auch nicht und was für super kluge Entscheidungen man aber GENAU zum RICHTIGEN Zeitpunkt getroffen hat.
Und was man doch für ein smarter cleverer Kerl ist.

Mannmannmann....2000 Euro sind viel Geld, 2000 Euro sind nicht viel Geld.
200 Euro gespart, 300 Euro gespart....WAYNE.

Schreibt doch mal 'ne Mail an Elon Musk oder Jeff Bezos, dass ihr sie bald eingeholt habt oder erzählt das doch jemand aus dem Gaza-Streifen oder aus der Ukraine, was ihr für Probleme habt.
SEITENWEISE geht das hier mit der Vorrechnerei!
Kommt mal raus aus der Bubble!

Megamember
2025-10-12, 20:10:14
"Wenn man die 5090 um 200-330EUR unter Einkauf verkauft hat" zum Beispiel. Warum sollte man eine 5090 verkaufen?

Wenn man mit der Karte unzufrieden ist ein ein höherwertiges Modell möchte? Oder abrüsten? Oder geld brauch?

Coroner
2025-10-19, 11:40:29
Welche Anschlüsse habt Ihr für den Alphacool Core benutzt?

Ich hatte mir extra highflow-Schlauchtüllen mit 10 mm Innendurchmesser besorgt die aber ein zu langes Gewinde haben so dass sie sich nicht komplett einschrauben lassen.
Blöd ist dass die Teile laut Aquatuning mit einer Gewindelänge von 5 mm spezifiziert sind, genau wie die empfohlenen Anschlüsse von Alphacool selbst (die Eiszapfen-fittings).
Hier mal ein Bild zum Veranschaulichen: https://www.rst-versand.de/bilder/skizze/pvc/schlauchtuelle_a.jpg L1 ist bei meinen Schlauchtüllen 7 mm lang was zu lang ist.

Wo finde ich fittings mit 10 mm Innendurchmesser die auf den Core passen? Zur Not würde ich die beiden Tüllen abfeilen, richtig Lust habe ich darauf aber nicht ^^.

Snoopy69
2025-10-19, 12:30:43
Hab bei mir auf der einen Seite "EKWB Torque" und auf der anderen Seite "Koolance QD3". Das Gewinde an den QD3´s ist gerade mal 4mm lang (an den „Torque“ weiß ich grad nicht, aber auch kurz meine ich)
https://i.ibb.co/DgrpdSLx/IMG-1656.jpg (https://ibb.co/yB4S2bVw)

Coroner
2025-10-19, 15:12:13
@Snoopy69
Danke, die Schraubtüllen (Schnellkupplungen nutze ich nicht) der beiden Hersteller scheinen ebenfalls solch kurze Gewindelängen zu haben, dann weiß ich was ich bestellen kann :up:.
Werde gleich aber trotzdem mal versuchen eine meiner Schlauchtüllen abzufeilen, wenn das nicht gut geht weiß ich jetzt zumindest was ich stattdessen ordern kann.