PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5090 Review-Thread


Seiten : 1 2 3 4 5 6 7 8 [9]

ChaosTM
2025-08-07, 17:13:08
Die 5090er sauft leider sehr viel im Idle oder bei Videos.
2-3x so viel wie Ada.
Lüfter kann man mit via Afterburner ruhigstellen (meistens)

Megamember
2025-08-07, 17:53:04
Unter 30% lässt sich bei der Ventus nicht einstellen.

ChaosTM
2025-08-07, 17:59:58
Das ist eine der Unsitten der meisten 5090er, neben dem Unfug der Beschränkung auf 70% Powertarget.
Das 30% Problem hatte die alte 4090er auch, aber im gedämmten Gehäuse war das gsd. nicht wahrnehmbar*.

* das Anlaufen des Lüfters aber schon

Snoopy69
2025-08-07, 19:52:10
Die 5090er sauft leider sehr viel im Idle oder bei Videos.
2-3x so viel wie Ada.
Lüfter kann man mit via Afterburner ruhigstellen (meistens)
Und noch mehr, wenn sie heiß ist…
Zwischen Kaltstart und warm laufen (ca 55-60C) liegen bei mir ca 10W. Kühle ich die GPU runter, hat sie wieder den Idle-Verbrauch, wie kurz nach Kaltstart

Ausgelesen mit WireView Pro

Wuge
2025-08-08, 11:13:07
Automatische Farbanpassung in Windows deaktivieren reduziert den Idle Verbrauch.

Aber verständlich ist das für mich so oder so nicht. Da wollen sie feingranulares Powergating implementiert haben und dann säuft der Chip obwohl er nichts macht. Evtl. ists auch der Speicher....

The_Invisible
2025-08-08, 11:21:03
Naja, saudicker Chip, 512bit SI und 16 Speicherchips, was erwartet man?

Seit ich meine 2. dedizierte Office/Arbeitsmaschine habe ist mir der idle Wert sowieso egal

SamLombardo
2025-08-08, 11:21:49
Kann ich übrigens auch am UV liegen weil man da nach der landläufigen Methode die komplette kurve hochzieht. Zumindest habe ich das bisher so gemacht. Es hat dann dafür gesorgt, dass der Idle nicht unter 650 mhz geht. Hier wird schön dargestellt wie man das vermeidet.

https://youtu.be/Q7LuzRXtyBo?si=Q6FgLCiRzuW6WHNv

Ab min 11:00.

Hab jetzt mein UV ach dieser Methode eingestellt, funktioniert perfekt und idle nicht mehr bei 650 sondern bei 180 MHz.

Lurtz
2025-08-08, 18:31:37
Zumindest bei der 5070 Ti macht das keinen Unterschied. Der Takt liegt zwar tatsächlich bei ~780 MHz statt ~180 mit meinem UV, aber der Desktop-Verbrauch verändert sich nicht @stock.

Snoopy69
2025-08-08, 18:36:45
@SamLombardo

Macht bei mir laut WireView Pro überhaupt keinen Unterschied. Selbst mit mehr als 2.000MHz in idle. Was aber was ausmacht (und nicht zu wenig), steht oben

btw:
Zur Optimierung…
Mag sein, dass das dem Einen oder Anderen viel Spaß macht, nach einzusparenden Watts zu suchen. Aber übertreibt es nicht. Die investierten „Optimierungs-Stunden“ werden euch nicht geschenkt. Da muss die Kiste lange unoptimiert laufen :wink:


btw2:
Für UV kenne ich mindestens 4 verschiedene Varianten, die fast identisch aussehen, aber sich teilweise extrem unterscheiden, was an Performance rauskommt

Anvisiert wurden bei den 4 Varianten jeweils der gleiche Takt und die gleiche Spannung. Während dem Bench waren die Spannungen der 4 Curves zwar identisch, aber die Takte unterschieden sich um paar hundert MHz

aufkrawall
2025-08-08, 18:43:25
Wird sich mir nie erschließen, weshalb man die ganze Kurve verschieben sollte, wenn es auch mit buchstäblich drei Clicks anders geht.

SamLombardo
2025-08-08, 18:54:36
Interessant hätte ich nicht gedacht dass das nicht ein paar Watt bringt, wenn die GPU 180 statt 780 mhz idled.

Snoopy69
2025-08-08, 19:04:54
Wird sich mir nie erschließen, weshalb man die ganze Kurve verschieben sollte, wenn es auch mit buchstäblich drei Clicks anders geht.
Ich mache es zb so und es performt am Besten (aber nicht, wie im Video oben)
Wie machst du es?

SamLombardo
2025-08-08, 19:11:29
Ich hab übrigens heute (zum ersten Mal überhaupt) den Steel Nomad Benchmark laufen lassen. Dabei zog meine 0.925v untervoltete(!) 5090 trotz UV die Maximalleistung von 575 Watt:eek:. Wie kann denn das sein, ich dachte mit derartigrm UV wär das unmöglich. Hab gleich danach nochmal sonstige Volllast Sachen (KCD2, UE5 Rom) getestet, da spart die UV 100+ Watt im Vergleich zu Stock. Nur im Steel Nomad nicht.

Edit: Meine 5090 macht im Steel Nomad 15900 Punkte, das ist wenn ich das was ich im Netz lese als Vergleich nehme ziemlich klasse;).

Snoopy69
2025-08-08, 19:25:25
Steel Nomad ist einer, der wenigen Benches, bei dem man UV betreiben muss, um max Score zu erreichen

Das hier war mit 915mV…
Eine nicht unwesentliche Rolle spielt der Treiber und das BIOS
https://www.3dmark.com/sn/7853957
https://i.ibb.co/TMRjh6fP/IMG-0617.jpg (https://ibb.co/23PVKx9c)

lilgefo~
2025-08-08, 19:30:25
XCOM 2 ist echt der Knüller nach fast einer Dekade kann man das immer noch nicht flüssig zocken in 4k mit 8xMSAA. 43fps im Hauptmenü mit 360W/~60% Auslastung (mein PL ist offen) Verbrauch@3040Mhz. Mit 4xMSAA läufts aber endlich ohne Drops unter 60fps. Mit Ampere musste man noch auf 2X runter.

Steel Nomad ist einer, der wenigen Benches, bei dem man UV betreiben muss, um max Score zu erreichen

Das hier war mit 915mV…
Eine nicht unwesentliche Rolle spielt der Treiber und das BIOS
https://www.3dmark.com/sn/7853957
https://i.ibb.co/TMRjh6fP/IMG-0617.jpg (https://ibb.co/23PVKx9c)

Und das offene PL.. SteelNomad mit gb202 ohne ShuntMod macht keinen Sinn. Die letzten 10,20,30fps (um von 14k auf 17k zu kommen z.B.) kriegst halt nur mit mehreren hundert W extra mit Taktraten die man sonst auch so erreicht. Tatsächliche Spiele auch mit Pathtracing verhalten sich komplett anders. Für mich ist das ein Müllbench. Jedenfalls mit GB202.

aufkrawall
2025-08-08, 19:58:26
Ich mache es zb so und es performt am Besten (aber nicht, wie im Video oben)
Wie machst du es?
Reset -> einzelnen Punkt hochziehen ->mit shift alles rechts daneben markieren und runterziehen -> apply.
Ist dann zwischen letztem und vorletztem Punkt eine recht steile Kurve. Ist aber egal, wenn man nicht per PT drosseln will.

Snoopy69
2025-08-08, 20:11:58
Zeig mal bitte die Curve…
Könne eine der Schlechtesten sein (Performancemäßig)

Von 4 verschiedenen Varianten performen 2 nahezu identisch. Aber zw der besten und schlechtesten Variante gibt es ca 800 Punte Unterschied in Steel Nomad

aufkrawall
2025-08-08, 20:38:09
Könne eine der Schlechtesten sein (Performancemäßig)

Wieso sollte es.

Snoopy69
2025-08-08, 20:40:37
Ich vermute mal eine, der Schlechtesten:wink:
Es sei denn, man kommt damit klar. Bei Benchmarking sind das Welten

aufkrawall
2025-08-08, 20:49:27
Bei Quatsch-Benchmarks vielleicht. Real sind es -25% Verbrauch (ohne PT-Drosselung eher noch mehr) bei 1,7% weniger fps:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13771516#post13771516

Und der Shit ist einfach seitdem stabil...

The_Invisible
2025-08-08, 21:09:51
Ich hab übrigens heute (zum ersten Mal überhaupt) den Steel Nomad Benchmark laufen lassen. Dabei zog meine 0.925v untervoltete(!) 5090 trotz UV die Maximalleistung von 575 Watt:eek:. Wie kann denn das sein, ich dachte mit derartigrm UV wär das unmöglich. Hab gleich danach nochmal sonstige Volllast Sachen (KCD2, UE5 Rom) getestet, da spart die UV 100+ Watt im Vergleich zu Stock. Nur im Steel Nomad nicht.

Edit: Meine 5090 macht im Steel Nomad 15900 Punkte, das ist wenn ich das was ich im Netz lese als Vergleich nehme ziemlich klasse;).

Deswegen würden mich auch Q2RTX Werte interessieren, wird aber sicher auch locker >500W sein schätz ich mal :D

lilgefo~
2025-08-08, 21:29:40
Deswegen würden mich auch Q2RTX Werte interessieren, wird aber sicher auch locker >500W sein schätz ich mal :D

Natürlich zieht die Karte da über 500W. Ist bei jedem PT Titel so. Wo ist das Problem? Willst du die Performance oder reicht die Kühllösung nicht?

SamLombardo
2025-08-08, 22:35:36
Natürlich zieht die Karte da über 500W. Ist bei jedem PT Titel so. Wo ist das Problem? Willst du die Performance oder reicht die Kühllösung nicht?
Ich kapier halt einfach noch nicht, wie Steel Nomad trotz Voltbegrenzung von 0.925 da die maximal möglichen 575 Watt ziehen kann. In keinem Pathtracing Spiel ist das ansonsten annähernd der Fall (nur wenn in nicht undervolte, dann schon).

Gecko_0815
2025-08-08, 22:42:50
Steel Nomad ist rasterized, kein PT.

Snoopy69
2025-08-08, 22:43:13
@Raff
Gerade für 4,30€ gekäuft… :freak:
https://i.ibb.co/mrfqMxMk/IMG-0625.jpg (https://ibb.co/SDFn9L9b)

lilgefo~
2025-08-08, 22:43:13
Ich kapier halt einfach noch nicht, wie Steel Nomad trotz Voltbegrenzung von 0.925 da die maximal möglichen 575 Watt ziehen kann. In keinem Pathtracing Spiel ist das ansonsten annähernd der Fall (nur wenn in nicht undervolte, dann schon).

Jop, betrifft nur Steel Nomad. Um da auf die besten Ergebnisse zu kommen brauchts ne eigene Curve, die dann nur in Steel Nomad stabil ist und da den Verbrauch drückt. Um da auf gute Punktzahlen zu kommen brauchts >600W, die Taktraten die man dann im Steel Nomad kriegt hat man aber auch ohne die 600W in normalen Spielen. Daher ist der Bench einfach nur da um ihn mit anderen Steel Nomad Werten zu vergleichen. Und da gewinnt der mit dem höchsten PL. Mit der Realität in Spielen hat das nix zu tun. Selbst HL2 RTX etc. saufen deutlich weniger bei höherer Taktrate.

Steel Nomad ist rasterized, kein PT.

Sagt doch keiner, dass SN pathtraced ist? Es geht darum, dass er deutlich mehr säuft bzw den Takt drückt als selbst pathtraced Titel.

SamLombardo
2025-08-08, 22:51:51
Jop, betrifft nur Steel Nomad. Um da auf die besten Ergebnisse zu kommen brauchts ne eigene Curve, die dann nur in Steel Nomad stabil ist und da den Verbrauch drückt. Um da auf gute Punktzahlen zu kommen brauchts >600W, die Taktraten die man dann im Steel Nomad kriegt hat man aber auch ohne die 600W in normalen Spielen. Daher ist der Bench einfach nur da um ihn mit anderen Steel Nomad Werten zu vergleichen. Und da gewinnt der mit dem höchsten PL. Mit der Realität in Spielen hat das nix zu tun. Selbst HL2 RTX etc. saufen deutlich weniger bei höherer Taktrate.



Sagt doch keiner, dass SN pathtraced ist? Es geht darum, dass er deutlich mehr säuft bzw den Takt drückt als selbst pathtraced Titel.

Krass:eek:. Interessant, danke!

Snoopy69
2025-08-08, 23:03:39
Bei Quatsch-Benchmarks vielleicht. Real sind es -25% Verbrauch (ohne PT-Drosselung eher noch mehr) bei 1,7% weniger fps:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13771516#post13771516

Und der Shit ist einfach seitdem stabil...
Ja, mit dem „Quatsch-Benchmark“ Steel Nomad…
Wie gesagt, je nach Curve bekommt man trotz gleichem anvisiertem Takt und gleicher Spannung 2 völlig unterschiedliche Scores von mehreren hundert Punkten. Für den Alltag jedoch egal…


@lilgefo~
Normalerweise sollte jede 5090 ohne Hardmod und org Kühler min 16.000 in Steel Nomad schaffen. Mit dem richtigen Treiber und BIOS sowieso

Snoopy69
2025-08-09, 07:19:47
@Raff

Habe Metro EE nur paar Minuten getestet, aber das ist echt Wahnsinn, was das Game zieht!!! :O
Aber etwas ist seltsam. Wenn ich den GPU Takt erhöhe, dann sinkt der Verbrauch. Das heißt, bei "+0" (Core Clock) ist der Verbrauch höher, als bei 100, 200, 300 etc.

Die genauen Settings, für max Verbrauch hab ich nicht nicht ermittelt. Wer sie hat - her damit :wink:
fh9sHVax1gw

Nightspider
2025-08-09, 10:42:18
Also bei Battlefield 6 habe ich jetzt mit DL DSR in 4587*1920 (21:9) gespielt mit DLSS Q und obwohl ich nur 130fps hatte, hat die 5090 nur etwa 450 bis 460 Watt verbraucht bei ~95-97% Auslastung.

Aber es fühlt sich deutlich unpräziser und "laggy" an als wenn ich normal in 3440*1440 spiele mit 160-170 fps.

Müsste die 5090 nicht immer >520 W saugen bei voller Auslastung?

Fands in der BF6 Beta auch komisch das die CPU Auslastung im Task Manager in der hohen Auflösung fast genauso hoch aussieht wie in der niedrigen Auflösung. Wenn ich im starkem GPU Limit wäre bei 4587*1920 müsste die CPU Auslastung ja fast ein Drittel geringer ausfallen.

dildo4u
2025-08-09, 10:45:22
Laut dem schwankt die Performance stark mit der 5090 die langsameren Karten sind deutlich konstanter.
Ich würde alles Upsampling abschalten und DLAA nutzen.


U5e0OrDt1Fw

SamLombardo
2025-08-09, 10:47:34
Also bei Battlefield 6 habe ich jetzt mit DL DSR in 4587*1920 (21:9) gespielt mit DLSS Q und obwohl ich nur 130fps hatte, hat die 5090 nur etwa 450 bis 460 Watt verbraucht bei ~95-97% Auslastung.

Müsste die 5090 nicht immer >520 W saugen bei voller Auslastung?.
Also mit der Auslastung das ist manchmal wirklich ziemlich merkwürdig. Ich spiele zum Beispiel gerade wieder das Jahre alte Ghost Recon Wildlands. Die 5090 Auslastung steht bei 99% bei 300 Watt Verbrauch. Dagegen bei verschiedenen VR spielen wie Half Life Alyx oder Metro Awakening hab ich eine GPU Auslastung von 85-90 und über 500 Watt.

basix
2025-08-09, 10:57:09
Zeig mal bitte die Curve…

So wie im Anhang. Takt und Spannung sind dann auf XY fixiert, solange das PT nicht limitert (was bei entsprechendem PT immer der Fall ist).

Daneben natürlich noch etwas Mem-OC.

Angiesan
2025-08-09, 11:16:34
Edit: Meine 5090 macht im Steel Nomad 15900 Punkte, das ist wenn ich das was ich im Netz lese als Vergleich nehme ziemlich klasse;).

Das ist ein extrem guter Wert und ohne einen Shunt-Mod eigentlich kaum zu erreichen, noch schwerer mit nur 575 Watt PL, es sei denn, der neue Treiber hätte da was drauf gelegt.
Könntest Du bitte mal mitteilen welchen Treiber Du verwendet hast. Meine gut gehende 5090 mit angepasster Kurve nur für Steel Nomad schaffte das unter Luft nicht.

x-force
2025-08-09, 12:27:04
Ja, mit dem „Quatsch-Benchmark“ Steel Nomad…

irgendwann kommt ue 6 und das geheul ist groß, weil "plötzlich" die karte instabil ist ;D

mit ada war es noch so, dass der offset gleichzeitig auch den videotakt erhöht hat, was letztlich zu mehr performance führt, als wenn man direkt einen einzelnen punkt anhebt.


Aber etwas ist seltsam. Wenn ich den GPU Takt erhöhe, dann sinkt der Verbrauch.

was macht die performance?

ich vermute eine art throtteling/clock stretching, wenn man mehr fordert, als der chip eigentlich stabil kann.

Die 5090 Auslastung steht bei 99% bei 300 Watt Verbrauch. Dagegen bei verschiedenen VR spielen wie Half Life Alyx oder Metro Awakening hab ich eine GPU Auslastung von 85-90 und über 500 Watt.

100% auslastung heißt nur, dass irgendein teil des chips limitiert. das geht z.b. auch vollkommen ohne, dass eine einzige rt einheit genutzt wird.

Snoopy69
2025-08-09, 13:21:37
Also bei Battlefield 6 habe ich jetzt mit DL DSR in 4587*1920 (21:9) gespielt mit DLSS Q und obwohl ich nur 130fps hatte, hat die 5090 nur etwa 450 bis 460 Watt verbraucht bei ~95-97% Auslastung.

Aber es fühlt sich deutlich unpräziser und "laggy" an als wenn ich normal in 3440*1440 spiele mit 160-170 fps.

Müsste die 5090 nicht immer >520 W saugen bei voller Auslastung?

Fands in der BF6 Beta auch komisch das die CPU Auslastung im Task Manager in der hohen Auflösung fast genauso hoch aussieht wie in der niedrigen Auflösung. Wenn ich im starkem GPU Limit wäre bei 4587*1920 müsste die CPU Auslastung ja fast ein Drittel geringer ausfallen.
Könnte daraufhin deuten, dass die CPU gesondert, bestimmte Aufgaben bekommt

SamLombardo
2025-08-09, 15:09:37
Das ist ein extrem guter Wert und ohne einen Shunt-Mod eigentlich kaum zu erreichen, noch schwerer mit nur 575 Watt PL, es sei denn, der neue Treiber hätte da was drauf gelegt.
Könntest Du bitte mal mitteilen welchen Treiber Du verwendet hast. Meine gut gehende 5090 mit angepasster Kurve nur für Steel Nomad schaffte das unter Luft nicht.
Hm wer weiß. Ich hab den aktuellen .88 Treiber drauf aber halt meine UV Kurve am Laufen. Hab den auch nur einmal durchlaufen lassen, ich verifiziere das nochmal.



100% auslastung heißt nur, dass irgendein teil des chips limitiert. das geht z.b. auch vollkommen ohne, dass eine einzige rt einheit genutzt wird.

Ja das klingt logisch. Anders sind die Unterschiede nicht erklärbar.

Snoopy69
2025-08-09, 15:25:38
@SamLombardo

Wird dir nicht gefallen, aber es gibt nicht DEN Treiber, der alles gut kann... :wink:
Für Steel Nomad ist .28 momentan noch ungeschlagen. Jmd, der nen Wasserblock drauf hat, kann auch das Gigabyte WB BIOS flashen. Ist neben dem XOC und GOC das performanteste BIOS

Und wie baust du deine Curve? Und hast du eine oder mehrere V-Punkte durchgebencht?

Gouvernator
2025-08-10, 12:36:03
Die 5090er sauft leider sehr viel im Idle oder bei Videos.
2-3x so viel wie Ada.
Lüfter kann man mit via Afterburner ruhigstellen (meistens)
Aber wenigstens gegenüber 3090 hat sich Video Verbrauch stark verbessert. Der Rechner ist dann bei 125W während mit der 3090 190W drin waren.

x-force
2025-08-10, 15:01:39
Aber wenigstens gegenüber 3090 hat sich Video Verbrauch stark verbessert. Der Rechner ist dann bei 125W während mit der 3090 190W drin waren.

geht rtx vsr nicht mit 8k?

ChaosTM
2025-08-10, 15:25:10
Aber wenigstens gegenüber 3090 hat sich Video Verbrauch stark verbessert. Der Rechner ist dann bei 125W während mit der 3090 190W drin waren.


Der Verbrauch hat sich gebessert.
Mittlerweile ist Blackwell `s Idle und Video Verbrauch nur mehr 10-30% höher als mit Ada.


Warum ich das vergleichen kann? Hab 2 Rechner mit ähnlichem Unterbau

Lehdro
2025-08-10, 15:28:52
Der Verbrauch hat sich gebessert.
Mittlerweile ist Blackwell `s Idle und Video Verbrauch nur mehr 10-30% höher als mit Ada.

Warum ich das vergleichen kann? Hab 2 Rechner mit ähnlichem Unterbau
Bin bei einem meiner typischen Szenarien (2x 1440p Monitore, 1x 60 FPS lock in BDO + 1x Video im Fullscreen) von 90W der GPU auf 160W der GPU gestiegen. Im wirklichen Idle tut sich nix, da eiern beide bei 20-30W rum. Bei Videos habe ich deine 30% auch beobachtet, das ist aber verschmerzbar. Aber gerade in diesem diffusen Zwischenlastbereich ist Blackwell ein Rückschritt gegenüber Ada.

Gouvernator
2025-08-10, 16:01:17
geht rtx vsr nicht mit 8k?
Generell mit HDMI 2.1 nicht.

SamLombardo
2025-08-11, 09:20:25
@SamLombardo

Wird dir nicht gefallen, aber es gibt nicht DEN Treiber, der alles gut kann... :wink:
Für Steel Nomad ist .28 momentan noch ungeschlagen. Jmd, der nen Wasserblock drauf hat, kann auch das Gigabyte WB BIOS flashen. Ist neben dem XOC und GOC das performanteste BIOS

Und wie baust du deine Curve? Und hast du eine oder mehrere V-Punkte durchgebencht?

Ach was heißt nicht gefallen, ich bin nicht der Punktejäger in Benchmarks. Eher der Undervolter als der Overclocker. Meine UV Kurve hab ich jetzt nochmal gemacht wie hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13795091&postcount=2007) beschrieben, ohne das letzte Megahertz auszuloten. Bin so erstmal zufrieden.

hq-hq
2025-08-11, 09:56:32
der alte 576.28 bringt tatsächlich ein paar mehr Punkte in SN, eine SteelNomad Curve hab ich nicht gebaut aber immerhin sinds jetzt 161xx :biggrin:

Snoopy69
2025-08-11, 16:04:39
Sag ich doch... :wink:
Hast du auch das Gigabyte WB BIOS drauf? Bringt nochmals paar hundert Punkte
Nachteil - der mittlere Lüfter geht nicht und die anderen drehen langsamer. Daher eher für Wasser gedacht. Oder man moddet die Lüfter ans MB

Dieser...
https://www.techpowerup.com/vgabios/273778/273778

Zu beachten isat auch, dass man wahrscheinlich weniger am Taktschieber, in AB einstellen kann
Also, wenn vorher zb +400 gingen - gehen evtl nur noch +300. Was daran liegt, dass das BIOS viel höher boostet (in meinem Fall +105MHz mehr, als das org. TUF-BIOS)

Wuge
2025-08-11, 17:31:00
+300 mit dem Waterforce BIOS? Schafft meine nicht. Da biste ja bei 3.4 Ghz in games.

x-force
2025-08-11, 18:07:49
+300 mit dem Waterforce BIOS? Schafft meine nicht. Da biste ja bei 3.4 Ghz in games.

deshalb redet man auch für sn angepasste kurven ;)

hq-hq
2025-08-11, 23:43:10
Sag ich doch... :wink:
Hast du auch das Gigabyte WB BIOS drauf? Bringt nochmals paar hundert Punkte
Nachteil - der mittlere Lüfter geht nicht und die anderen drehen langsamer. Daher eher für Wasser gedacht. Oder man moddet die Lüfter ans MB

Dieser...
https://www.techpowerup.com/vgabios/273778/273778

Zu beachten isat auch, dass man wahrscheinlich weniger am Taktschieber, in AB einstellen kann
Also, wenn vorher zb +400 gingen - gehen evtl nur noch +300. Was daran liegt, dass das BIOS viel höher boostet (in meinem Fall +105MHz mehr, als das org. TUF-BIOS)

nein, kein GB WB BIOS, das mit den Lüftern wär blöd...
mit UV brauch ich eigentlich nicht wirklich Wasserkühlung, bei der 4090 und UV war der Luftkühler auch so potent, dass es leise ging.
Die 5090 kann mit UV auch leise.
Hab bei der 4090 den Wasserblock nicht mehr montiert, liegt noch im Schubladen OVP... ja wär schon noch besser mit Block.

Coroner
2025-08-12, 15:54:58
Sag ich doch... :wink:
Hast du auch das Gigabyte WB BIOS drauf? Bringt nochmals paar hundert Punkte
Nachteil - der mittlere Lüfter geht nicht und die anderen drehen langsamer. Daher eher für Wasser gedacht. Oder man moddet die Lüfter ans MB

Dieser...
https://www.techpowerup.com/vgabios/273778/273778

Zu beachten isat auch, dass man wahrscheinlich weniger am Taktschieber, in AB einstellen kann
Also, wenn vorher zb +400 gingen - gehen evtl nur noch +300. Was daran liegt, dass das BIOS viel höher boostet (in meinem Fall +105MHz mehr, als das org. TUF-BIOS)

Mmmmh, eigentlich wollte ich gar kein anderes BIOS flashen. Aber wenn ich das lese komme ich da wohl nicht drumherum sobald ich die Karte mal umgebaut habe :naughty:.

TobiWahnKenobi
2025-08-13, 16:40:54
ja, wenn es darum geht, dass man mitquatschen will. in der realität ist das alles völliger bullshit. ausser der zeitvertreib mit dem PC besteht aus solchen experimenten und halt dem mitquatschen müssen. da draußen interessiert es keine sau ob peter müller aus klein kleckerstan mit 151 oder 156fps zockt, oder denkst du über ihn nach? ich nicht.

btw,
bei crossflash immer die funktionalität der ausgänge prüfen (2ter hdmi-port o.ä.).


(..)

mfg
tobi

Blase
2025-08-13, 17:09:46
ja, wenn es darum geht, dass man mitquatschen will.

Warum so aggressiv? Grade hier in den Foren kann man doch davon ausgehen, dass nicht wenige Spaß und Lust auf Bastelei und dem Ausloten von Grenzen haben. Versteh' mich richtig - ich gehöre (auch?) nicht dazu - nicht mehr. Aber wenn die Jungs hier Bock drauf haben... For the lulz...

MfG Blase

phoenix887
2025-08-13, 18:08:16
ja, wenn es darum geht, dass man mitquatschen will. in der realität ist das alles völliger bullshit. ausser der zeitvertreib mit dem PC besteht aus solchen experimenten und halt dem mitquatschen müssen. da draußen interessiert es keine sau ob peter müller aus klein kleckerstan mit 151 oder 156fps zockt, oder denkst du über ihn nach? ich nicht.

btw,
bei crossflash immer die funktionalität der ausgänge prüfen (2ter hdmi-port o.ä.).


(..)

mfg
tobi

Danke. Sehe es genau so.

Schön das auch jemand mal die Deutschlandflagge zeigt und nicht die Ukraineflagge für Gratismut.

Coroner
2025-08-13, 18:19:41
ja, wenn es darum geht, dass man mitquatschen will. in der realität ist das alles völliger bullshit. ausser der zeitvertreib mit dem PC besteht aus solchen experimenten und halt dem mitquatschen müssen. da draußen interessiert es keine sau ob peter müller aus klein kleckerstan mit 151 oder 156fps zockt, oder denkst du über ihn nach? ich nicht.

btw,
bei crossflash immer die funktionalität der ausgänge prüfen (2ter hdmi-port o.ä.).


(..)

mfg
tobi

Die Frage ist warum Du hier dann Deinen Senf dazugibst wenn Dich das Thema gar nicht betrifft Du Informatiker im Staatsdienst *lol* :lol:. Dein Geschwafel interessiert die Leute die einfach Spaß am tuning haben nämlich genauso wenig, echt lächerlich :rolleyes:.
Und um mitzureden mache ich das ganz bestimmt nicht, aber ich unterhalte mich einfach gern mit Leuten die dieselben Interessen haben (der Grund warum es Foren gibt .......) ................... da hättest Du aber auch selbst drauf kommen können anstatt so einen bullshit abzulassen :freak:.

][immy
2025-08-15, 08:36:34
Was ist eigentlich bei Nvidia mit dem Treiber Overhead los?
https://youtu.be/aYYVz4q-Rt8?si=jg2P9L6LvwAbxLB3

Ohne top CPU ist man teils schlechter als entsprechend schwächere Radeon Produkte.

aufkrawall
2025-08-15, 08:43:20
Siehst du da irgendwas, was ich nicht sehe? Es gibt im Grunde nur in einem Spiel eine nennenswert schlechtere CPU-Performance vs. Radeon, und das ist Siege bei aberhunderten fps. Bei Rivals noch geringfügig mit 6C, mit 8C auch nicht mehr.

dildo4u
2025-08-15, 09:13:01
Das trifft Tonnen neue AAA Games wäre das nicht der Fall müsste man nicht für X3D abdrücken.
PC Gameing ist diese Gen für Leute die gerne Geld anzünden.


Typisch für Spiele, welche die Unreal Engine 5 als Grafikmotor nutzen, sind die geringen Frametimes. So erreicht unser Spartipp Ryzen 5 5600 zwar durchaus ordentliche 68,4 Durchschnitts-Fps, doch nur wenig flüssige 36 oder gar nur 30 Fps bei den wichtigen Frametimes. Tatsächlich gelingt nur einer CPU überhaupt ein Wert von 60 P1-Fps: dem Ryzen 7 9800X3D.


https://www.pcgameshardware.de/Mafia-The-Old-Country-Spiel-74877/Specials/Test-Grafikkarte-CPU-Systemanforderungen-Release-1479397/2/

Exxtreme
2025-08-15, 09:19:50
Das trifft Tonnen neue AAA Games wäre das nicht der Fall müsste man nicht für X3D abdrücken.
PC Gameing ist diese Gen für Leute die gerne Geld anzünden.




https://www.pcgameshardware.de/Mafia-The-Old-Country-Spiel-74877/Specials/Test-Grafikkarte-CPU-Systemanforderungen-Release-1479397/2/

Das liegt nicht am Treiber sondern an der UE5-Engine. Diese Engine erzeugt Tonnen an Overhead.

dildo4u
2025-08-15, 09:23:27
9070XT läuft mit der 4090 in 1080p kein CPU Overhead im NV Treiber?

https://i.ibb.co/VYRK7KnT/Screenshot-2025-08-15-09-24-09-911-com-sec-android-app-sbrowser-beta-edit.jpg (https://ibb.co/DfhqxqcQ)

][immy
2025-08-15, 09:25:41
Nur wie kann eine deutlich schlechtere Radeon da plötzlich mehr FPS als die 5080/5090 haben. Das CPU Limit sollte auch diese treffen, wenn es von der engine kommt.
Klar ist das kaum relevant, weil niemand mit so einer GPU in den Auflösungen spielen würde. Nicht desto trotz scheint der Nvidia Treiber da noch deutlich mehr machen zu müssen.

Exxtreme
2025-08-15, 09:48:52
9070XT läuft mit der 4090 in 1080p kein CPU Overhead im NV Treiber?

https://i.ibb.co/VYRK7KnT/Screenshot-2025-08-15-09-24-09-911-com-sec-android-app-sbrowser-beta-edit.jpg (https://ibb.co/DfhqxqcQ)

Ich würde dieses Spiel jetzt nicht als Referenz für irgendwas ansehen sondern eher als Anomalie. Kaum ein anderes Spiel zeigt ein solches Verhalten. Das Spiel sieht nicht toll aus und läuft auch noch richtig beschissen, was aber wiederum typisch für ein UE5 Spiel ist. Ich kann mir gut vorstellen, dass die Entwickler mit Absicht die UE5 Engine genommen haben weil es schlicht an Knowhow oder an Ressourcen fehlt so ein Spiel richtig zu optimieren. Und unoptimierte Software zeigt auch ungewöhnliches Verhalten. Und dann kommt sowas raus, dass ein Spiel mit 2012er Grafik mit 40 fps läuft.

aufkrawall
2025-08-15, 09:52:18
[immy;13798066']Nur wie kann eine deutlich schlechtere Radeon da plötzlich mehr FPS als die 5080/5090 haben.
Wenn man das jetzt in Prozentrechnung übersetzt, anstatt sich an optischen Balkenlängen aufzuhängen, interessiert das halt niemanden so sehr, danach die GPU auszuwählen. Ist auch einfach eine olle Kamelle.

dildo4u
2025-08-15, 09:52:22
Es ist eher die Ausnahme wenn UE5 besser Performt.
Du hast die Auslastungs Probleme auch in Fortnite mit der neusten Engine Version.

Keine 400 Watt kein 120fps Lock

qT3hWis1mko

aufkrawall
2025-08-15, 09:55:35
Du hast die Auslastungs Probleme auch in Fortnite mit der neusten Engine Version.
Halt nur auf GeForce. Blackwell ist eine RTX + CUDA-Architektur, RDNA4 eher auf real-world Szenarien angelegt.
Nochmal so rumpimmeln können sie gegen RDNA5 sicherlich nicht.

Exxtreme
2025-08-15, 10:06:45
Es ist eher die Ausnahme wenn UE5 besser Performt.
Du hast die Auslastungs Probleme auch in Fortnite mit der neusten Engine Version.

Keine 400 Watt kein 120fps Lock

https://youtu.be/qT3hWis1mko

Spiele mit sehr hoher Sichtweite und vielen Spielern auf dem Bildschirm haben öfter "Auslastungsprobleme". Spiel mal ein MMORPG mit zig Spielern auf dem Bildschirm dann wirst du "Auslastungsprobleme" sehen, da bekommst du Pipi in den Augen.

Und das ist halt die Problematik an diesem Mafia-Spiel ggü. Fortnite. Es ist kein MMORPG. Und wenn man dann trotzdem miese Performance hat dann haben die Entwickler versagt.

aufkrawall
2025-08-15, 10:10:06
Das hat nichts mit Sichtweite zu tun, mit Nanite ohne VSM & Lumen ist der Stromverbrauch auf Blackwell noch recht hoch.
Die Shader für VSM und Lumen lasten Blackwell ohne hohe Renderauflösung einfach mitunter schlecht aus, warum auch immer.

dildo4u
2025-08-15, 13:23:51
[immy;13798042']Was ist eigentlich bei Nvidia mit dem Treiber Overhead los?
https://youtu.be/aYYVz4q-Rt8?si=jg2P9L6LvwAbxLB3

Ohne top CPU ist man teils schlechter als entsprechend schwächere Radeon Produkte.
BF6 Test mit Ryzen 7600/5600 trifft also auch Frostbite

pbdPNxe7O_I

aufkrawall
2025-08-15, 13:37:46
5% auf 8C, 10% auf 6C. Tja, manche Leute in manchen Foren erzählen ja seit Jahren, man soll keine 6C CPUs mehr kaufen... :rolleyes:

Cubitus
2025-08-15, 13:38:49
Ich würde mal sagen, Nvidia trägt da seinen Teil der Schuld. :D
Die Treiber sind einfach Murks, und bei jeder neuen Engine-Version muss wieder ein Hotfix her.

Anstatt das Problem mit der Unreal Engine mal an der Wurzel zu packen, wird lieber mit Kanonen auf Spatzen geschossen – die 5090 ist da wie ein ineffizienter, brummender V8. Und für die kleinen Reißkocher kann seinen FrameGen-Magic-Turbolader zünden.

Aber klar: Man hat ja schon genug Ressourcen in den ganzen KI-Hype gesteckt, und irgendwie läuft’s am Ende des Tages ja doch.
Warum also noch mehr Geld ausgeben, wenn man einfach das nehmen kann, was von der Tafel der KI-Forschung so runterfällt…

x-force
2025-08-15, 13:58:10
Blackwell ist eine RTX + CUDA-Architektur, RDNA4 eher auf real-world Szenarien angelegt.
Nochmal so rumpimmeln können sie gegen RDNA5 sicherlich nicht.
;D

wenn nv mit +6% die size +29%(+36% in uhd) performance erreicht und das ganze fast zum doppelten preis verscherbeln kann, sollte rumpimmeln amds ziel sein.

https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/2/

Exxtreme
2025-08-15, 13:59:09
Anstatt das Problem mit der Unreal Engine mal an der Wurzel zu packen,

Dieses Problem kann Nvidia womöglich nicht fixen da das ein konzeptionelles Problem der Engine ist. Bzw. es ist ein Problem für die Spieler und ein Feature für die Spieleentwickler. Denn die können die Kosten für die Entwicklung der Spiele an die Spieler externalisieren.

aufkrawall
2025-08-15, 14:18:28
Bzw. es ist ein Problem für die Spieler und ein Feature für die Spieleentwickler. Denn die können die Kosten für die Entwicklung der Spiele an die Spieler externalisieren.
Versteht irgendjemand, was er meint?
Ist aber auch egal. Dass der PC für die Entwicklung der Spiele keine Rolle spielt, lernt er sowieso nicht mehr.

Exxtreme
2025-08-15, 14:28:23
Versteht irgendjemand, was er meint?
Ist aber auch egal. Dass der PC für die Entwicklung der Spiele keine Rolle spielt, lernt er sowieso nicht mehr.

Ist das gleiche wie Chromium-basierende UIs: Ressourcenfresser ohne Ende aber billig in der Entwicklung weil man Javascript-Programmierer billig bekommt. Auch das ist eine Externalisierung der Kosten weil die Ressourcenverschwendung dieser UIs jetzt Zusatzkosten bei den Nutzern verursacht.

Und dass der PC angeblich keine Rolle spielt, dafür gibt es aktuell keine Belege. Man findet vielleicht 10 Jahre alte Sprüche, die in diese Richtung deuten.

Der_Korken
2025-08-15, 14:33:02
BF6 Test mit Ryzen 7600/5600 trifft also auch Frostbite

https://youtu.be/pbdPNxe7O_I

Irgendwie fühlt es sich so an, als würde die 5080 nicht richtig durchboosten. In 1080p im CPU-Limit, wo beide GPUs nicht ausgelastet sind, ist der Verbrauch relativ gleich bei beiden GPUs. In 1440p sieht man, dass der Verbrauch bei der 9070XT ordentlich hochgeht, sodass es dann z.B. 230W vs 150W steht. Jetzt könnte man meinen, dass das CPU-Limit genau so liegt, dass die 9070 komplett hochtakten kann, während die 5080 noch schön in Teillast chillt und den Verbrauch gut runterfahren kann. Aber selbst in 4K zündet die 5080 nicht richtig: Sie ist dann zwar etwas schneller als die 9070, aber sie krebst immer noch bei 250W und 2600Mhz rum (die 9070 klebt schon längst permanent im 317W-PT), obwohl sie eigentlich viel mehr vertragen sollte. Für Effizienz-Fetischisten ist das natürlich nice, weil man nicht wie bei der 9070 das PT runterstellen muss, wenn man es gerne sparsam hätte, aber trotzdem sieht es so aus, als würde es bei Blackwell irgendwo software-mäßig klemmen.

Angiesan
2025-08-15, 14:56:54
Dieses Problem kann Nvidia womöglich nicht fixen da das ein konzeptionelles Problem der Engine ist. Bzw. es ist ein Problem für die Spieler und ein Feature für die Spieleentwickler. Denn die können die Kosten für die Entwicklung der Spiele an die Spieler externalisieren.
Ich denke das ist es, aber es war nie der Plan :freak:.

Entweder sehen wir die UE5 in AAA Produktionen und entsprechend visuellem Erlebnis aber dann erklärbar schlechter Performance oder wir sehen A und AA Produktionen wo die Enginebauteile genutzt werden ohne jegliche Optimierungen mit ansprechendem visuellem Erlebnis aber ebenso grottiger Performance. Das Ganze wird sich dann erst über die nächsten Jahre entspannen wenn man die Leistung einer 5090 in einer 7070 wieder findet.

Ist ja nicht wirklich was Neues, und gab es auch vorher schon, nur wird es gerade so deutlich, weil die UE5 so viel und gerne eingesetzt wird. Es gibt ja noch ein paar Beispiele wo man sieht das man ein gutes bis sehr gutes Ergebnis auch mit Alternativen hinbekommt, ich fürchte nur das wird zunehmend weniger.

Troyan
2025-08-15, 15:54:09
Ne, muss sich nicht entspannen. Wieso sollte jemand Transistoren für einen Markt investieren, der deutlich kleiner ist als AI? UE5 ist eine absurd rückständige, technisch veraltete Engine, die trotz der erbärmlichen Leistung auf ScreenSpace-Effekte zurückgreift. Die HW-RT Implementierung ist schlechter als von BF5 und massiv CPU-limitierend, trotzdem die Geometrie nichtmal annährend an normale Rasterizing-Spiele im BVH heranreicht.

Doom und Indiana Jones laufen mit 100 FPS in 1080p auf einer 5090 mit Pathtracing. Und das bei >500W, wo die UE5 Engine irgendwie bei 330W oder so rumnuckelt. Da bleibt die halbe GPU nichtstun brach.

Aber ist jetzt nichts neues, wenn man fünf Jahre null an der Engine macht. Aber Daddy bezahlt mit dem Fortnite Geld, daher kann sich sowas dann auch durchsetzen.

Exxtreme
2025-08-15, 16:52:17
Ich denke das ist es, aber es war nie der Plan :freak:.

Doch, das ist der Plan. Epic macht damit sogar prominent Werbung.


Entweder sehen wir die UE5 in AAA Produktionen und entsprechend visuellem Erlebnis aber dann erklärbar schlechter Performance oder wir sehen A und AA Produktionen wo die Enginebauteile genutzt werden ohne jegliche Optimierungen mit ansprechendem visuellem Erlebnis aber ebenso grottiger Performance. Das Ganze wird sich dann erst über die nächsten Jahre entspannen wenn man die Leistung einer 5090 in einer 7070 wieder findet.


Nein. Selbst die visuell anspruchsvollen Titel laufen viel zu langsam für das Gezeigte. Und von A(A)-Titeln rede ich gar nicht. Das allergrößte Problem für Spieler und Feature für Spieleentwickler ist das Geometrie-LOD namens Nanite. Das passt dynamisch die Polygon-Zusammensetzung von Geometrieobjekten an basierend auf der Entfernung der Kamera zum Objekt. Und das ist was so viel Arbeitszeit einspart und wohl der Hauptgrund ist warum die Studios UE5 nehmen. Jetzt kannst du Objekte mit irrsinnigen Polygonzahlen erstellen und dann in die Engine kippen. Und Nanite reduziert autonom die Anzahl der Polygone je weiter weg du bist. Ohne Nanite bräuchtest du mehrere Instanzen dieser Objekte und müsstest die passenden Objekte manuell einblenden je nach Kameraentfernung. Nur ist das halt so, dass dieser Mechanismus keine Hardwareunterstützung hat. Deshalb wird das alles "in Software" gemacht und man weiss aus Erfahrung, dass Dinge "in Software" zu machen Faktor 100 langsamer ist als mit spezieller Hardware. Und das ist auch der Grund warum die meisten UE5-Spiele nahezu 1 zu 1 mit Shaderunits skalieren sobald das CPU-Limit weg ist.

Und ein zweites Problem von Nanite ist, die Polygone werden in Cluster eingeteilt. Jetzt ist es so, dass diese Cluster zwar konstante Kosten haben, sind sie aber nur zum Teil gefüllt dann erzeugt dieser "Leerraum" Overhead. Ist der Cluster zu 25% gefüllt dann hat man 75% Rechenleistung verschwendet. Und je weiter ein Objekt weg ist desto höher die Wahrscheinlichkeit, dass es zu solchen zum Teil gefüllten Clustern kommt. Und das sind die Probleme warum man selbst in FHD kaum über 100 FPS kommt. Die Studios externalisieren die Entwicklungskosten.

dargo
2025-08-15, 16:56:19
Doom und Indiana Jones laufen mit 100 FPS in 1080p auf einer 5090 mit Pathtracing. Und das bei >500W, wo die UE5 Engine irgendwie bei 330W oder so rumnuckelt. Da bleibt die halbe GPU nichtstun brach.

Sieht also eher danach aus, dass ne 5090 by Design am aktuellen Gamingmarkt vorbei entwickelt wurde wenn sie erst mit einer hohen PT-Last ausgelastet wird.

aufkrawall
2025-08-15, 16:57:35
Was du dir für einen Blödsinn ausdenkst. Deshalb gibt es auch einen 60fps-Modus für Hellblade auf der popeligen PS5-Hardware, ist klar. :facepalm:

Der_Korken
2025-08-15, 17:14:34
Sieht also eher danach aus, dass ne 5090 by Design am aktuellen Gamingmarkt vorbei entwickelt wurde wenn sie erst mit einer hohen PT-Last ausgelastet wird.

Ich würde die 5090 auch nicht als Gaming-Karte bezeichnen, sondern als AI-Beschleuniger für Prosumer, der durch seine hohe Rechenleistung und den dicken VRAM auch Spiele brauchbar beschleunigt. Die Skalierung gegenüber der 5080 ist dementsprechend absolut grottig.

dildo4u
2025-08-15, 17:24:46
Jup NV hat das eigentlich perfekt abgestimmt jeder hat sich gefragt warum die 5080 so schwach ist dabei wäre eine dickere Gameing GPU Aktuell nutzlos.

dargo
2025-08-15, 17:27:40
Ich würde die 5090 auch nicht als Gaming-Karte bezeichnen, sondern als AI-Beschleuniger für Prosumer, der durch seine hohe Rechenleistung und den dicken VRAM auch Spiele brauchbar beschleunigt. Die Skalierung gegenüber der 5080 ist dementsprechend absolut grottig.
Gemessen am Materialaufwand definitiv.

ChaosTM
2025-08-15, 18:01:38
Leider sind 16GB @ 4k Max alles andere als "zukunftssicher." Reicht schon jetzt oft nicht.
Die Super mit 24GB wird das beheben.
Der Preisunterschied ist durch wenig gerechtfertigt, außer dem Prosumer Argument oder für VR. Da sind die Unterschiede tw. massiv.

Würde ich nochmals von einer 4090er auf Blackwell wechseln unter "normalen*" Umständen ? Nein

*die für **80er Verhältnisse unterirdische Leistung hält die Preise von Big Ada oben

Angiesan
2025-08-15, 18:24:54
hm woran machst Du fest mit 4K und 16 GB? Es gibt genau ein Spiel, dass die 16 GB ausreizt und das, nur wenn man den Schieberegler auf Giga oder war es Hyper :freak:stellt. Das hat aber "noch" keine Auswirkung auf die Texturdetails, sondern nur auf die Poolgröße, und damit wie viel vorgeladen wird.

lilgefo~
2025-08-15, 20:58:19
@lilgefo~
Normalerweise sollte jede 5090 ohne Hardmod und org Kühler min 16.000 in Steel Nomad schaffen. Mit dem richtigen Treiber und BIOS sowieso

Kompletter Quark.

Lt Futuremark selbst liegt das avg über ALLE 5090er bei 14469.

https://benchmarks.ul.com/hardware/gpu/NVIDIA+GeForce+RTX+5090+review

160fps ohne Mods bei Lukü ist utopisch selbst mit Curve die nur bei SN stabil läuft. Aber das weißt du ja selbst. ;D

Kann man nicht ernst nehmen sowas, ignore..

Um 160fps+ zu erreichen braucsht über 3Ghz im SN. Das schafft da genau gar keine 5090 mit StandardKühlung in Ihrem 575W Korsett.

RoughNeck
2025-08-16, 08:00:53
Meine UV 5090 schafft in Steel Nomad 15500 Punkte.
16000 sind da nicht weit weg, mit etwas mehr Takt (2707 lagen an) halte ich das für ohne weiteres machbar.

Snoopy69
2025-08-16, 14:28:20
Kompletter Quark.

Lt Futuremark selbst liegt das avg über ALLE 5090er bei 14469.

https://benchmarks.ul.com/hardware/gpu/NVIDIA+GeForce+RTX+5090+review

160fps ohne Mods bei Lukü ist utopisch selbst mit Curve die nur bei SN stabil läuft. Aber das weißt du ja selbst. ;D

Kann man nicht ernst nehmen sowas, ignore..

Um 160fps+ zu erreichen braucsht über 3Ghz im SN. Das schafft da genau gar keine 5090 mit StandardKühlung in Ihrem 575W Korsett.
Ja, weil die Masse nicht weiß, wie man mit SN umgehen muss - das ist leider Fakt!!! (wurde hier mehrfach erklärt) :wink:

"Ignore", weil du zur Masse gehörst und noch bockig bist, dass ich im Recht bin und genau weiß, wo man für SM drehen muss? Super "erwachsen"... :ulol:


btw:
Von fps und Takt war überhaupt nicht die Rede...

Snoopy69
2025-08-16, 14:42:12
So wie im Anhang. Takt und Spannung sind dann auf XY fixiert, solange das PT nicht limitert (was bei entsprechendem PT immer der Fall ist).

Daneben natürlich noch etwas Mem-OC.
Sieht schon mal gut aus. Aber...
Man kann Curves in mehreren Varianten bauen, die genauso aussehen, wie diese, aber unterschiedlich perfomen. Hast du diese 4-5 Varianten durchprobiert? Warum das so ist, kann ich nicht beantworten, aber das ist meine Feststellung. Fakt ist, dass bei verschiedenen Bauvarianten, verschiedene, anliegende Takte rauskommen, die dann den Score beeinflussen

Snoopy69
2025-08-16, 14:46:12
irgendwann kommt ue 6 und das geheul ist groß, weil "plötzlich" die karte instabil ist ;D

mit ada war es noch so, dass der offset gleichzeitig auch den videotakt erhöht hat, was letztlich zu mehr performance führt, als wenn man direkt einen einzelnen punkt anhebt.

Welches Geheul? Von mir? Nö... :freak:
Denn es gibt nicht die Einstellung, die für jeden Bench/Game perfekt ist

ChaosTM
2025-08-16, 14:46:17
Keine Ahnung was SN ist, aber knackte vor ein paar Tagen die 40k @ Port Royale.
Wollte ich um jeden Preis und ich hoffe ich hab die Karte dabei nicht beleidigt. (+250/3000)
Die +3000 Speichertakt liefen zwar durch, aber das Bild flackerte zum Schluss schon bedrohlich

Snoopy69
2025-08-16, 14:51:51
+300 mit dem Waterforce BIOS? Schafft meine nicht. Da biste ja bei 3.4 Ghz in games.
Diese +300 +400 kann man natürlich nicht 1:1 übernehmen, weil die Karten unterschiedlich boosten. Wenn die Karte ab Werk schon nen hohen Boost hat, kann man in AB weniger einstellen (zb +250). Daher verlasse ich mich nicht auf +Angaben für AB

3.400 in Games? Schön wärs... :ulol:

Snoopy69
2025-08-16, 14:56:34
ja, wenn es darum geht, dass man mitquatschen will. in der realität ist das alles völliger bullshit. ausser der zeitvertreib mit dem PC besteht aus solchen experimenten und halt dem mitquatschen müssen. da draußen interessiert es keine sau ob peter müller aus klein kleckerstan mit 151 oder 156fps zockt, oder denkst du über ihn nach? ich nicht.

btw,
bei crossflash immer die funktionalität der ausgänge prüfen (2ter hdmi-port o.ä.).


(..)

mfg
tobi
Dass die letzen +fps für Gaming unwesentlich (nicht spürbar) sind, sollte klar sein :wink:

ChaosTM
2025-08-16, 15:00:54
Macht man auch nur um sinnarme Benchmark Ergebnisse zu erreichen.
Ich mag das

Momentan spiel ich Robocop @ 4k Max mit 135fps und die Karte sauft nur knapp über200 Watt.
MFG arbeiten sehr gut in dem Spiel

Snoopy69
2025-08-16, 15:09:29
Keine Ahnung was SN ist, aber knackte vor ein paar Tagen die 40k @ Port Royale.
Wollte ich um jeden Preis und ich hoffe ich hab die Karte dabei nicht beleidigt. (+250/3000)
Die +3000 Speichertakt liefen zwar durch, aber das Bild flackerte zum Schluss schon bedrohlich
Steel Nomad... :wink:

Snoopy69
2025-08-16, 15:11:28
Macht man auch nur um sinnarme Benchmark Ergebnisse zu erreichen.
Ich mag das

Momentan spiel ich Robocop @ 4k Max mit 135fps und die Karte sauft nur knapp über200 Watt.
MFG arbeiten sehr gut in dem Spiel
Joh, nur ein Hobby, am Tuning...
Für den Alltag (Gaming) betreibe ich immer UV

Snoopy69
2025-08-16, 15:17:44
@lilgefo~

Das hier war ohne Wasserblock, ohne Hardmod, ohne den besten Treiber und ohne das beste BIOS
https://i.ibb.co/W4Z4dGgP/Screenshot-2025-08-16-151421.png (https://ibb.co/W4Z4dGgP)

hq-hq
2025-08-16, 21:27:33
@lilgefo~

Das hier war ohne Wasserblock, ohne Hardmod, ohne den besten Treiber und ohne das beste BIOS
https://i.ibb.co/W4Z4dGgP/Screenshot-2025-08-16-151421.png (https://ibb.co/W4Z4dGgP)

Ob jede 5090 die 16000 in SN erreichen kann weiss ich nicht, die 161xx wie bei Snoopy69 klappen bei mir auch mit Luftkühler, orig. 600Watt BIOS aber dem alten .28 Treiber. Hab noch keine SN Curve gebaut.
Wenn's schon so ne Weltrangliste gibt im doch recht populären 3d Mark könnte man auch extra dafür optimieren und im Winter die Terrassentür aufmachen. Why Not.

lilgefo~
2025-08-16, 23:26:36
Ob jede 5090 die 16000 in SN erreichen kann weiss ich nicht, die 161xx wie bei Snoopy69 klappen bei mir auch mit Luftkühler, orig. 600Watt BIOS aber dem alten .28 Treiber. Hab noch keine SN Curve gebaut.
Wenn's schon so ne Weltrangliste gibt im doch recht populären 3d Mark könnte man auch extra dafür optimieren und im Winter die Terrassentür aufmachen. Why Not.

Mit 600W gibts schon bissel mehr Luft. Aber die UV Curve funktioniert dann halt nur mit SN. Klar, beim Benchen steht der PC immer auf der Terrasse, nur diese Werte als normal einzupegeln ist halt falsch. Meine 5090 kommt auch deutlich höher aufgrund der massiven Kühlung. Wenn sich aber wer ne 5090 kauft und dann nach dem ersten Run 16k+ erwartet wird massiv enttäuscht sein. Echte Werte zu "ich bench den PC bei -3° draussen" halt.

Jede Karte hat natürlich auch ihr Limit, manche machen etwas mehr Takt bei UV, andere nicht. Aber die magische "runs fine on my steam deck", +40% 5090 gibts halt net.

P.S.: Klar kann jeder gb202 die 16k knacken, nur ne Frage der Kühlung und des PL's bzw Chipgüte. OOBs 5090 sind davon weit entfernt

btw:
https://s1.directupload.eu/images/250816/bmz3vky3.png
https://s1.directupload.eu/images/250816/8phxdfmp.png

Getroffene Hunde bellen viel oder wie war das?

RoughNeck
2025-08-17, 08:43:28
Weiß nicht warum man hier über einen Benchmark so lange diskutieren sollte.
Stock läuft die 5090 gnadenlos ins Power Limit, mit einer Curve knackt man easy die 16k, wurde auch schon hier gezeigt, mehrfach. Wenn ich mit meiner auf Silent getrimmten 5090 schon 15500 Punkto komme, sind 16000 ein Wert den man leicht knacken kann.
Warum man sich eine Grafikkarte für Benchmarks kaufen sollte erschließt sich mir nicht aber gut. Die jenen die Rekorde brechen wollen, wissen was sie tun müssen und benchen die Karte nicht Stock. Die die ihre Karte optimieren, nehmen die Benchmarks halt als Anhaltspunkt und optimieren.

Cubitus
2025-08-17, 13:27:13
Am Ende des Tages ist es doch egal, was der Stahlnomade sagt.
Natürlich kann man mit optimierten Kurven, einer kuratierten Treiberversion und einem frischen Windows 11 gute Werte erreichen, keine Frage. Aber SN ist am Ende eben nur ein reiner Rasterleistungstest.
Die eigentlichen Stärken einer 5090 liegen im AI-(Gaming) und beim Raytracing und genau da spielt die Karte ihre Power aus, wenn Spiele diese Techniken auch wirklich nutzen.

Was Epic und die Unreal-Engine-Thematik angeht: Früher hat Nvidia viel enger mit den Entwicklern zusammengearbeitet. Damals die Kampagne "It’s meant to be played" oder die Zusammarbeit mit id Software: John Carmack war bei Doom 3 quasi inoffizieller Nvidia-Mitarbeiter,
weil er die id-Tech-Engine perfekt auf die GeForce 3 zugeschnitten hat. Soweit ich das verfolgt habe, hat er sogar einen Prototyp der GeForce 3 von Nvidia bekommen, um Bump Mapping, Stencil Shadows und die Per-Pixel-Beleuchtung darauf zu entwickeln.

Und genau dieser Elan fehlt mir heute bei Nvidia.
Klar, die liefern auch Tech-Demos innerhalb der Unreal Engine, aber das ersetzt keine echte Zusammenarbeit mit Epic.
Da die Unreal Engine aktuell die meistverwendete Engine überhaupt ist, müsste Nvidia eigentlich viel mehr Energie investieren,
damit ihre Hardware dort optimal genutzt wird. Darum sage ich auch: Nvidia trägt eine Mitschuld, sie müssen dafür sorgen, dass ihr Produkt von den Devs bestmöglich eingesetzt wird, so wie es früher der Fall war.

RoughNeck
2025-08-17, 13:35:22
Und am Ende lief Doom 3 auf einer 9700 Pro, da damals alles von Nvidia zu langsam war.

Aber, wer sagt dass Nvidia nicht mehr oder nicht mehr so gut mit den Devs zusammen arbeitet?
Weil es aktuell Probleme gibt?

Ex3cut3r
2025-08-17, 15:26:32
Am Ende des Tages ist es doch egal, was der Stahlnomade sagt.
Natürlich kann man mit optimierten Kurven, einer kuratierten Treiberversion und einem frischen Windows 11 gute Werte erreichen, keine Frage. Aber SN ist am Ende eben nur ein reiner Rasterleistungstest.
Die eigentlichen Stärken einer 5090 liegen im AI-(Gaming) und beim Raytracing und genau da spielt die Karte ihre Power aus, wenn Spiele diese Techniken auch wirklich nutzen.

Was Epic und die Unreal-Engine-Thematik angeht: Früher hat Nvidia viel enger mit den Entwicklern zusammengearbeitet. Damals die Kampagne "It’s meant to be played" oder die Zusammarbeit mit id Software: John Carmack war bei Doom 3 quasi inoffizieller Nvidia-Mitarbeiter,
weil er die id-Tech-Engine perfekt auf die GeForce 3 zugeschnitten hat. Soweit ich das verfolgt habe, hat er sogar einen Prototyp der GeForce 3 von Nvidia bekommen, um Bump Mapping, Stencil Shadows und die Per-Pixel-Beleuchtung darauf zu entwickeln.

Und genau dieser Elan fehlt mir heute bei Nvidia.
Klar, die liefern auch Tech-Demos innerhalb der Unreal Engine, aber das ersetzt keine echte Zusammenarbeit mit Epic.
Da die Unreal Engine aktuell die meistverwendete Engine überhaupt ist, müsste Nvidia eigentlich viel mehr Energie investieren,
damit ihre Hardware dort optimal genutzt wird. Darum sage ich auch: Nvidia trägt eine Mitschuld, sie müssen dafür sorgen, dass ihr Produkt von den Devs bestmöglich eingesetzt wird, so wie es früher der Fall war.
Warum? Nvidia Karten stecken zu 80% in Gaming Rechnern, wenn das nicht richtig oder langsamer als auf Radon Karten läuft, macht der Entwickler irgendwas falsch. Punkt. In diesem Fall, Epic.

Lurtz
2025-08-18, 08:35:00
Was Epic und die Unreal-Engine-Thematik angeht: Früher hat Nvidia viel enger mit den Entwicklern zusammengearbeitet. Damals die Kampagne "It’s meant to be played" oder die Zusammarbeit mit id Software: John Carmack war bei Doom 3 quasi inoffizieller Nvidia-Mitarbeiter,
weil er die id-Tech-Engine perfekt auf die GeForce 3 zugeschnitten hat. Soweit ich das verfolgt habe, hat er sogar einen Prototyp der GeForce 3 von Nvidia bekommen, um Bump Mapping, Stencil Shadows und die Per-Pixel-Beleuchtung darauf zu entwickeln.

Und genau dieser Elan fehlt mir heute bei Nvidia.
Klar, die liefern auch Tech-Demos innerhalb der Unreal Engine, aber das ersetzt keine echte Zusammenarbeit mit Epic.
Da die Unreal Engine aktuell die meistverwendete Engine überhaupt ist, müsste Nvidia eigentlich viel mehr Energie investieren,
damit ihre Hardware dort optimal genutzt wird. Darum sage ich auch: Nvidia trägt eine Mitschuld, sie müssen dafür sorgen, dass ihr Produkt von den Devs bestmöglich eingesetzt wird, so wie es früher der Fall war.
Wir haben aber nicht mehr 2003, als Doom 3 in erster Linie ein PC-Titel war und keine Multiplattformentwicklung wie die aktuelle Doom-Trilogie.

Außerdem arbeitet id offensichtlich weiterhin recht eng mit nVidia zusammen: https://www.youtube.com/watch?v=CCBWtRMnMh8

Ich weiß auch nicht, ob so enge Zusammenarbeiten vorteilhaft sind. Ich fands als langjähriger Radeon-Spieler immer schrecklich wenn Spiele aus dem TWIMTBP-Programm (unnötig) mies auf Radeons liefen. Ist schon gut, dass das heute trotz noch drastischerer Markanteile alles wesentlich homogener ausfällt.

basix
2025-08-18, 23:07:31
Warum? Nvidia Karten stecken zu 80% in Gaming Rechnern, wenn das nicht richtig oder langsamer als auf Radon Karten läuft, macht der Entwickler irgendwas falsch. Punkt. In diesem Fall, Epic.

Ich glaube eher, dass Epic sehr stark für RDNA2 optimiert. Das ist halt in den Konsolen drin. Diese Optimierungen übertragen sich dann zum Teil auf RDNA3 und RDNA4. Das hat mMn nur wenig mit Nvidia zu tun. Einige der Features wie starke RT-Cores werden dadurch underutilized (da z.B. SW-Lumen zum Einsatz kommt).

Und wenn man genauer hinschaut:
Epic hat bei der UE 5.6 erweiterte DLSS-Kompatibilität direkt in die Engine integriert. DLSS steht da neben TSR. Das kann XeSS und FSR nicht von sich behaupten.
https://portal.productboard.com/epicgames/1-unreal-engine-public-roadmap/c/2068-nvidia-dlss-support-in-ndisplay

Nvidia hat zudem die DLSS-Plugins auch immer sehr schnell verfügbar gemacht, wenn eine neue Engine Version released wurde. Dazu der hauseigene NVRTX-Branch der UE5, wo sie viele der neuen Technologien prototypen und weiterentwickeln (siehe MegaGeometry). Nvidia hat es da also ziemlich stark selbst in der Hand, dass das gut mit der UE5 harmoniert. Ich sehe da ehrlich gesagt nicht, dass Nvidia sich da ausruht.

Dass man es noch nicht in Games sieht hat eher einen anderen Grund:
Die neuen Features wie NRC, NTC, RTX Hair, MegaGeometry usw. sind oder waren schlicht noch nicht production ready. Man kann die mit Nvidias Hilfe ins Game einbauen (Indiana Jones bekommt jetzt RTX Hair Support). Aber nur wenige Entwickler werden ein Halbfertigprodukt ins Game einbauen. Lohnt sich einfach nicht. Manche Dinge nehmen zudem gerne DX12 Cooperative Vectors als Grundlage, welche auch noch relativ jung sind. Zu wenig Zeit, dass bereits Games mit den neuesten Features draussen sind.

vinacis_vivids
2025-08-19, 01:00:01
So super geil auf UE5 scheint Blackwell nicht zu sein:
https://ibb.co/2YRswLcg

NV 378mm^2 ~ 36/44/50fps
AMD 357mm^2 ~ 48/55fps
NV 609mm^2 ~ 58fps
NV 750mm^2 ~ 72fps

Das ganze Zeugs, was Huang da mit Ada und Blackwell verbaut hat, ist in diesem Fall relativ nutzlos und verpufft meistens. Bei DX12-HLSL in Kombination mit UE5 sieht Nvidia sehr alt aus.

Selbst bei "cooperate vectors" unter DX12 ist nicht gesagt, daß Blackwell mit den "Tensor-Cores" besser davon profitiert als RDNA4 mit WMMA. Im Gegenteil, RDNA4 profitiert wahrscheinlich noch mehr davon.

x-force
2025-08-19, 01:20:14
So super geil auf UE5 scheint Blackwell nicht zu sein:
https://ibb.co/2YRswLcg

geh doch bitte wieder mit deinen unseriösen quellen in den amd threads trollen

Angiesan
2025-08-19, 08:23:50
geh doch bitte wieder mit deinen unseriösen quellen in den amd threads trollen

Na ja, vergleichbare Ergebnisse bei diesem Spiel hat auch CB ermittelt da hat die 9070XT sogar die 5080 eingeholt. PCGH sieht hingegen bei dem Spiel die RTX mit über 20% in Front. Man sieht daran recht gut, dass es davon abhängt, welche Testszene man verwendet.

Die neuen AMD laufen aber alle ganz gut mit UE5 gerade wenn HWLumen fehlt, sind die oft stark unterwegs.

dildo4u
2025-08-19, 08:31:07
geh doch bitte wieder mit deinen unseriösen quellen in den amd threads trollen
Games werden für AMD Konsolen gebaut natürlich performt AMD sehr gut so lange du kein Hardware RT nutzt.

Die 7900XTX kackt hier ab da sie höhere Qualitäts Stufe mit FSR3 nutzen.

https://i.ibb.co/BVkfY1Wb/Bildschirmfoto-vom-2025-08-19-08-29-25.png (https://ibb.co/DDd1jqch)

https://www.computerbase.de/artikel/gaming/senuas-saga-hellblade-ii-enhanced-benchmark-test.93880/seite-2#abschnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd

dargo
2025-08-19, 08:44:40
Die 7900XTX kackt hier ab da sie höhere Qualitäts Stufe mit FSR3 nutzen.

Nö... sie läuft mit TSR Quality.

geh doch bitte wieder mit deinen unseriösen quellen in den amd threads trollen
Dein Bias ist zu köstlich. Jetzt ist also was unseriös weil das Ergebnis nicht mehr in dein Weltbild passt?

dildo4u
2025-08-19, 08:46:47
Das ist das was ich geschrieben hab die alten Karten nutzen Qualität die neuen Performance.
Der Punkt ist nich TSR oder FSR.

Ansonsten wäre die XTX Performance nicht so schlecht.

dargo
2025-08-19, 08:48:27
Das ist das was ich geschrieben hab die alten Karten nutzen Qualität die neuen Performance.

Nein, das ist nicht was du geschrieben hast. Du hast folgendes geschrieben.
Die 7900XTX kackt hier ab da sie höhere Qualitäts Stufe mit FSR3 nutzen.

aufkrawall
2025-08-19, 08:58:47
https://www.computerbase.de/artikel/gaming/senuas-saga-hellblade-ii-enhanced-benchmark-test.93880/seite-2#abschnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd
lol, 5070 Ti nur 11-13% schneller als die 5070 bei 4k Performance-Upsampling. :freak:

The_Invisible
2025-08-19, 09:10:56
PCGH sieht hingegen bei dem Spiel die RTX mit über 20% in Front. Man sieht daran recht gut, dass es davon abhängt, welche Testszene man verwendet.


Tja manche sehen halt nur was sie sehen wollen.

Aber was hat das eigentlich alles im 5090 Thread zu suchen, andersrum hätte es wahrscheinlich schon gelbe Karten und Belehrungen von manchen Usern gegeben...

dildo4u
2025-08-19, 09:45:39
Das passt immer noch in den Thread miese Auslastung trifft die größte GPU natürlich am meisten.
Normalerweise sollte das mit neuer Software besser werden scheint mit Unreal Engine 5 aber selten der Fall.

aufkrawall
2025-08-19, 10:18:49
Das wird ggf. erst besser, wenn Lumen noch stärkere HWRT-Last erzeugt. Ist aber erstmal nicht unmittelbar angekündigt.
Die 9070 XT skaliert ja ganz normal gegenüber der non-XT...

dildo4u
2025-08-19, 16:16:07
Asus stellt 5090 Matrix mit 800 Watt OC Bios auf der Gamescom vor


https://videocardz.com/newz/asus-geforce-rtx-5090-rog-matrix-revealed-quad-fans-and-up-to-800w-support

FBhEmWBlQA4

x-force
2025-08-19, 16:38:40
Games werden für AMD Konsolen gebaut natürlich performt AMD sehr gut so lange du kein Hardware RT nutzt.

darum geht es nicht, sondern darum, dass beide tests mist messen.

wie kann die 5080 in 1080p vor in 1440p hinter und in 2160p wieder vor 4080 sein? :freak:

https://i.ibb.co/BVkfY1Wb/Bildschirmfoto-vom-2025-08-19-08-29-25.png (https://ibb.co/DDd1jqch)

https://www.computerbase.de/artikel/gaming/senuas-saga-hellblade-ii-enhanced-benchmark-test.93880/seite-2#abschnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd

hier leider auch nur mist gemessen:
wie kann die 5080 in wqhd vor in uwqhd hinter und in uhd wieder vor 4080 sein? :freak:

Lehdro
2025-08-19, 16:41:47
Asus stellt 5090 Matrix mit 800 Watt OC Bios auf der Gamescom vor

Gott ist die Karte hässlich und technisch auch maximal langweilig.

Exxtreme
2025-08-19, 16:55:51
Gott ist die Karte hässlich und technisch auch maximal langweilig.

Sie hat aber Power!

*Tim Allen Geräusche mach*

dargo
2025-08-19, 17:26:10
Und der Wahnsinn kennt kein Ende... 5kg, 800W. :lol: Beim Nachfolger will ich aber endlich die 1.000W geknackt sehen vielleicht dann mit 8kg? :popcorn:

Bester Kommentar dazu. X-D

Zu leicht, kauf ich nicht.🤷
Edit, auch zu wenig Watt.
Echte Leistung wird in Megawatt angegeben.
Außerdem wahrscheinlich zu günstig.

ChaosTM
2025-08-19, 17:52:30
Das ist eine männliche Spüh.. äh Grafikkarte !
Die Ferguson unter den Grakas

Ex3cut3r
2025-08-19, 17:56:41
Cool.

Hakim
2025-08-19, 18:47:28
Ich frage mich wenn die Höhe und Material nicht mehr so eingegrenzt werden müssen, und es nicht Wakü sein soll, wäre eine entsprechende Radial Lösung (Blower) nicht die bessere Lösung wenn man die 800W direkt aus dem Gehäuse raus trägt? Dachte mir das bei der Größe man evt die Radial Lüfter leiser machen könnte (oder direkt 2 Große?). Man beachte das Hinterteil von der Matrix. Aber ob man auf das Geräusch Niveau von Axiallüfter kommt? :uponder:

dildo4u
2025-08-19, 19:05:36
Kein Plan ob es was taugt aber die 2080 TI Matrix war interessant Radiator/Pumpe auf der Karte.


https://rog.asus.com/de/articles/gaming/matrix-2080ti/

Lehdro
2025-08-20, 15:31:00
Kein Plan ob es was taugt aber die 2080 TI Matrix war interessant Radiator/Pumpe auf der Karte.

Das Ding war ein Fail. Weder besonders leise noch besonders Kühl, trotz der damals ausladenden Bauweise. Das konnten damals schon Luftkühler auf kleinerer Fläche besser, siehe die hauseigene(!!) Strix. Das gerade damals die nervigen Pumpengeräusche eine komplett andere Hausnummer waren, als sie es heute sind kam noch dazu.

Du verschenkst halt den Vorteil von der Wakü: Räumliche Trennung des Radiators von der Wärmequelle. Und damit handelst du dir unnötige Platzrestriktionen ein, die das ganze Konzept in sich selbst konterkarieren. Wenn ich sehe welchen Sprung die Kühlleistung von 4090 auf 5090 gemacht hat (als Beispiel Aorus Master -> Vanguard SOC), wo die Karte trotz 150W mehr und kleinerer Kühlfläche, einfach mal viel leiser und kühler geworden ist, sehe ich da ehrlich gesagt den Markt nicht wirklich. Entweder man:
- macht nur das notwendigste an Kühlung (insert Zotac)
- fährt die Luftkühlleistung ordentlich aus (z.B. Suprim)
- nutzt die AiO ordentlich aus (z.B. Suprim Liquid)
oder geht halt direkt auf den Waküblock für Customlösung (z.B. Waterforce WB).

Irgendetwas dazwischen hängt nur am Preis, erfüllt aber keinen tieferen Zweck. Wen interessiert bei einer 4000€ GPU die Bauform und die Abmaße? Du willst das beste haben? Wird halt sehr groß oder direkt Wakü (bzw. AiO). Einen Kompromiss dazwischen gibt es nicht wirklich, zumindest nicht bei diesen Verbräuchen.

Cubitus
2025-08-21, 10:51:16
Ich sag’s mal so: Zotac hat einfach an den falschen Stellen gespart. Der Kühler der 5090, vor allem der von der Infinity, ist für mich eigentlich einer der schönsten, die es aktuell gibt,
die Farbgestaltung und der Spiegel gefallen mir extrem gut. Dazu ist er angenehm leise, hat ein sauberes Lüftergeräusch und bleibt dabei noch relativ kompakt.

Aber: Zotac hat halt reingeschissen, weil sie die Paste falsch auftragen oder diese einfach nicht so viel taugt,
und die RAM-Pads sind auch eher schwach. Ich hab meine Karte deshalb schon früh auf anderes Putty und PTM umgebaut damit läuft der Kühler dann deutlich effizienter.

Klar, bei den Preisen bleibt nicht viel Marge übrig; D

Aber Props an Asus:
Mit der Astral haben die beim Luftkühler echt vieles richtig gemacht.

Voodoo6000
2025-08-21, 11:25:23
Aber Props an Asus:
Mit der Astral haben die beim Luftkühler echt vieles richtig gemacht.
Die Astral hat doch besonders starkes Spulenfiepen und diesen bescheuerten, lauten vierten Lüfter. Die MSI Suprim scheint da die deutlich bessere Wahl zu sein, falls einem die Lautstärke wichtig ist.

Lawmachine79
2025-08-21, 12:09:05
Die Astral hat doch besonders starkes Spulenfiepen und diesen bescheuerten, lauten vierten Lüfter. Die MSI Suprim scheint da die deutlich bessere Wahl zu sein, falls einem die Lautstärke wichtig ist.
Aus meiner Sicht ist wegen der Anschluss/Steckergeschichte die Astral alternativlos. Das Problem mit dem vierten Lüfter wurde per Bios-Update gefixt.

aufkrawall
2025-08-21, 12:11:04
Die Astral hat doch besonders starkes Spulenfiepen
Sicherlich nicht verallgemeinerbar.

Wuge
2025-08-22, 19:47:55
Die Astral hat doch besonders starkes Spulenfiepen und diesen bescheuerten, lauten vierten Lüfter. Die MSI Suprim scheint da die deutlich bessere Wahl zu sein, falls einem die Lautstärke wichtig ist.

Meine fiept nicht... und das mit dem Lüfter wurde schon längst per BIOS gefixt oder zumindest erheblich gemildert.

Mich interessiert nur eins: geht das Matrix BIOS auf die Astral... ;)

Langlay
2025-08-22, 20:07:16
Meine fiept nicht...

Meine Astral fiept ab so ~150FPS, allerdings fiept sie leiser als die 4090 FE die ich vorher hatte. Und da ich beim Zocken eh immer Kopfhörer auf hab und man sie durch die Kopfhörer nicht hört ist mir das auch ladde.

Gouvernator
2025-08-24, 10:00:46
Ich finde das der Mehrwert einer 5090 steigert sich von alleine durch ständige Updates von chinesischen LLMs. Gerade durch Qwen-Image und WAN2.2 hat man unfassbar großen Sprung in Grafik gemacht. Das ist wie ein Sprung von Unreal Engine 2 auf UE4... Und die FPS tun dabei nicht mal fallen, sondern steigern sich eher. Rein vom Ergebnis wäre diese Qualität ein Jahr vorher wie aus einem Supercomputer Cluster.

Linmoum
2025-08-31, 15:48:37
Gerade herrscht hier wieder so ein riesiger Unvernunftsmoment. Bei Alternate gibt's aktuell die Inno Frostbite für 2599€. Müsste ich auch nur fix einbinden, der ganze restliche Loop steht/läuft ja schon. Hmmm... :freak:

Snoopy69
2025-08-31, 16:08:59
Mich interessiert nur eins: geht das Matrix BIOS auf die Astral... ;)
Wäre nett, aber ich glaube nicht daran

Lawmachine79
2025-08-31, 17:34:12
Gerade herrscht hier wieder so ein riesiger Unvernunftsmoment. Bei Alternate gibt's aktuell die Inno Frostbite für 2599€. Müsste ich auch nur fix einbinden, der ganze restliche Loop steht/läuft ja schon. Hmmm... :freak:
Nein, das ist ein kurzer klarer Moment, den Du hast. Bei Bekloppten heisst das "Lucidum intervallum". Greif' zu, bevor Du wieder in Dein Delirium abdriftest.

Lawmachine79
2025-08-31, 17:40:23
Meine fiept nicht... und das mit dem Lüfter wurde schon längst per BIOS gefixt oder zumindest erheblich gemildert.

Mich interessiert nur eins: geht das Matrix BIOS auf die Astral... ;)
Würdest Du dafür töten? Ähh sorry, ich meine löten.

ChaosTM
2025-08-31, 17:42:45
Nein, das ist ein kurzer klarer Moment, den Du hast. Bei Bekloppten heisst das "Lucidum intervallum". Greif' zu, bevor Du wieder in Dein Delirium abdriftest.

lool
..kauf das Ding einfach wenn dich die Ausgabe nicht finanziell ruiniert. Man gönnt sich sonst kaum was..

Snoopy69
2025-08-31, 18:01:38
Würdest Du dafür töten? Ähh sorry, ich meine löten.
Hab gehört, dass man bei OF seinen Männa-Körpa verkaufn kann :ulol:

btw:
Löten will gut überlegt sein (Garantie-Verlust)...
Andererseits muss man nicht Wochen, Monate und länger warten. Die nackte Karte ist innerhalb 10 Minuten (PCB aufheizen und löten) gemoddet.

Um Geld und Zeit zu sparen (wenn man noch keine Shunts hat), einfach fette Löt-Batzen machen (den/die vorhandenen Shunt(s) kurz schliessen). Und in HWinfo den passenden Multi für den "richtigen" Verbrauch eingeben (mit einem WireView o.ä. abgleichen). In meinem Fall ist das ein Multi von x11,2 (entspricht einem theoretischen PL von 6.720W - die Karte macht natürlich früher dicht)
https://i.ibb.co/HDQdt5sf/IMG-0217.jpg ( https://ibb.co/gMCVSkpL)

Lehdro
2025-09-02, 14:05:29
Aus meiner Sicht ist wegen der Anschluss/Steckergeschichte die Astral alternativlos.
Hoffen wir dass der8auer mit seinem neuen Adapter das Problem nachrüstbar erledigt.

Das Problem mit dem vierten Lüfter wurde per Bios-Update gefixt.
Stark gemildert, nicht gefixt. Der Lüfter ist halt konzeptionell laut ausgelegt.

Wuge
2025-09-02, 17:41:29
Adapter ist doch shit.. da haste ne Steckverbindung mehr.

Linmoum
2025-09-03, 03:36:50
So, der Finger hat gezuckt. Gibt aber nichts schlimmeres, als neues Spielzeug erst nach statt vor einem Wochenende zu bekommen. ;D

Lehdro
2025-09-03, 15:51:14
Adapter ist doch shit.. da haste ne Steckverbindung mehr.
Und?
Netzteil -> Kabelpeitsche -> Karte = 3 Verbindungen, lt. NV empfohlen
Netzteil -> WireView Pro 2 -> Karte = 3 Verbindungen (nicht ok, weil?)
Netzteil -> Karte = 2 Verbindungen (wir kennen die Berichte, häufigste Fehlerquelle)

Der Adapter überwacht doch die Stromstärken pro Ader und Temperatur inkl. Warnung bzw. automatischem Shutdown. Sicherer wird es nicht mehr mit dem 12VHPWR. Man rüstet quasi die Astral Sonderfunktion nach + zusätzlicher Sicherheit wegen des softwareunabhängigen akustischem Alarms/Shutdown.

Nightspider
2025-09-03, 15:56:25
So, der Finger hat gezuckt. Gibt aber nichts schlimmeres, als neues Spielzeug erst nach statt vor einem Wochenende zu bekommen. ;D

Und dann ärgert man sich, das man so lange überlegt und nicht gleich sofort bestellt hat. :D

Viel Spaß damit.

Wird der AMD Ryzen 7 7700X auch nocht ersetzt? ;)

Linmoum
2025-09-03, 16:41:04
Ups, den hab ich natürlich schon lange nicht mehr drin, sondern einen 7800X3D. Hatte auch schon überlegt, auf den 9800X3D zu wechseln, aber ich glaube, das reicht auch noch bis nächstes Jahr und Zen6. Ich gehe einfach mal davon aus, dass das noch für AM5 was wird.

Lange überlegt ist relativ. Das ist ja jetzt direkt die Frostbite mit vormontiertem Wasserkühler. Glaube, knapp 2500€ hab ich damals bei der 4090 auch gezahlt direkt zum Launch (also GPU + extra Block). Nimmt sich nicht viel, wobei ich mir diesmal den ganzen Umbau erspare und das Thema Garantie auch gar nicht erst aufkommt.

Aber bislang war das ja immer kaum möglich, die Frostbite oder die Waterforce von Gigabyte zu bekommen, wenn man nicht gerade (fast) 3000€ zahlen will. Die 2599€ sind schon in Ordnung für eine Karte mit vormontiertem Block. Wird die nächsten Monate wahrscheinlich eh wieder eher teurer statt billiger, wenn das Sommerloch vorbei ist.

Mein Vorhaben, die 5070Ti bis zur nächsten Gen zu nutzen, hat auf jeden Fall nicht lange angehalten. ;D Wobei das wahrscheinlich sowieso relativ einfach wird, da jemanden zu finden. Ist ja auch noch eine Asus, da sicherlich umso mehr. :D

Snoopy69
2025-09-03, 17:32:43
Und?
Netzteil -> Kabelpeitsche -> Karte = 3 Verbindungen, lt. NV empfohlen
Netzteil -> WireView Pro 2 -> Karte = 3 Verbindungen (nicht ok, weil?)
Netzteil -> Karte = 2 Verbindungen (wir kennen die Berichte, häufigste Fehlerquelle)

Der Adapter überwacht doch die Stromstärken pro Ader und Temperatur inkl. Warnung bzw. automatischem Shutdown. Sicherer wird es nicht mehr mit dem 12VHPWR. Man rüstet quasi die Astral Sonderfunktion nach + zusätzlicher Sicherheit wegen des softwareunabhängigen akustischem Alarms/Shutdown.
Für den normalen Betrieb (~400-500W) lasse ich den WireView drin


btw:
Je nachdem, wie die Kabel mit 3 Steckern verdrahtet sind, können die genau so Mist sein, wie Kabel mit 2 Steckern. Also 3x 4 Leitungen bzw. 2x 6 Leitungen. Daher ziehe ich Kabel mit 4 Steckern (4x 6 Leitungen) vor

Hatte hier was dazu geschrieben...
https://www.hardwareluxx.de/community/threads/blackwell-smalltalk-thread-rtx-5000er-reihe.1352430/post-30898030

Wuge
2025-09-04, 10:22:37
Und?
Netzteil -> Kabelpeitsche -> Karte = 3 Verbindungen, lt. NV empfohlen
Netzteil -> WireView Pro 2 -> Karte = 3 Verbindungen (nicht ok, weil?)
Netzteil -> Karte = 2 Verbindungen (wir kennen die Berichte, häufigste Fehlerquelle)

Der Adapter überwacht doch die Stromstärken pro Ader und Temperatur inkl. Warnung bzw. automatischem Shutdown. Sicherer wird es nicht mehr mit dem 12VHPWR. Man rüstet quasi die Astral Sonderfunktion nach + zusätzlicher Sicherheit wegen des softwareunabhängigen akustischem Alarms/Shutdown.

Joa schon. Trotzdem würde ich so viele Kontakte vermeiden wie möglich. Jedes mal Wärme, Spannungsverlust und potenzielle Fehlerquelle. Nicht umsonst löten manche ihre Kabel direkt an.

Linmoum
2025-09-06, 15:03:22
Spielzeug kam doch schon heute, knuffiges Teil im Vergleich zu den ganzen Luftkühlern. :D

Nightspider
2025-09-06, 15:05:07
Eigentlich müsste man Rabatt bekommen, weil da nur so wenig Metall benötigt wird. :D

OgrEGT
2025-09-08, 13:26:26
https://fudzilla.com/news/61675-nvidia-s-rtx-5090-and-rtx-pro-6000-hit-with-nasty-bug
Das wäre nicht gut wenn da was dran ist...

Snoopy69
2025-09-09, 02:56:16
Spielzeug kam doch schon heute, knuffiges Teil im Vergleich zu den ganzen Luftkühlern. :D
Der (gleiche) Block meiner TUF ist hinten ca 4cm länger (bei der Astral noch länger)

„iChill“ hat eines der minimalistischten Designs. Das Layout, der Kanäle sollte von den Maßen bei allen GPUs gleich sein

Gouvernator
2025-09-14, 12:02:13
Founders Edition extrem Scheiße zu reparieren. Keine Ersatzteile oder Schaltpläne. Viele Stellen die kaputt gehen können.
https://youtu.be/93jk4Zho7YY?si=d44EAb2jebLKsjGm

Meine Inno3D arbeitet jetzt als eGPU @PCIe 3.0 x4. Musste ihre 3-Slot Blende mit der Trennscheibe nacharbeiten damit es reinpasst. Und ein neues Netzteil besorgen mit dem nativen Stromstecker um den Kabelsalat vom Adapter zu eliminieren. FSP 1650Watt war gerade am günstigsten mit 2x 12V-2x6 und 3x PCIe als B-Ware im Alternate Store für 226€.
Für 7 Jahre alte Games @8K am Zen3 Laptop reicht es mir vollkommen.

Lawmachine79
2025-09-14, 13:54:23
Spielzeug kam doch schon heute, knuffiges Teil im Vergleich zu den ganzen Luftkühlern. :D
Willkommen zurück in einer würdigen Existenz.

ExJuvantibus
2025-09-14, 15:18:00
Spielzeug kam doch schon heute, knuffiges Teil im Vergleich zu den ganzen Luftkühlern. :D


Die Schachtel schaut aber "normal groß" aus, dh wie bei einer 5090. Ist das meiste ja, logischerweise, schon das Schaumstoff-Packungsmaterial bei einer "normalen" 5090, wie ist das hier dann erst. :tongue:



Founders Edition extrem Scheiße zu reparieren. Keine Ersatzteile oder Schaltpläne. Viele Stellen die kaputt gehen können.
https://youtu.be/93jk4Zho7YY?si=d44EAb2jebLKsjGm

Meine Inno3D arbeitet jetzt als eGPU @PCIe 3.0 x4. Musste ihre 3-Slot Blende mit der Trennscheibe nacharbeiten damit es reinpasst. Und ein neues Netzteil besorgen mit dem nativen Stromstecker um den Kabelsalat vom Adapter zu eliminieren. FSP 1650Watt war gerade am günstigsten mit 2x 12V-2x6 und 3x PCIe als B-Ware im Alternate Store für 226€.
Für 7 Jahre alte Games @8K am Zen3 Laptop reicht es mir vollkommen.


PCIe 3.0 x4 ist doch = PCIe 1 @ 16, das letzte was ich damit laufen hatte waren 88 GTX. :freak: Klingt irgendwie nach Misshandlung. ;D;)

Ich hab bei den Neffen mal darüber nachgedacht falls die mehr am PC spielen wollen als 780m hergibt eGPU-Dockingstation an USB 4 zu stecken, allerdings eher was mit integriertem Netzteil und so 5060 TI/9060 XT/5070S.
Das ganze eben auch weil die NBs an dies ganze gebaut werden soll recht Leistungsfähig sind mit top Bildschirm (8845 HS und 32 GB). Aber irgendwie lohnt sich das imho nicht richtig.


Darf ich fragen was bei dir der Anlass war? Alleine das Netzteil kostet ja einiges. Wird da beruflich gearbeitet? oder Basteldrang?

Gouvernator
2025-09-14, 16:58:38
Potenziell will ich so eGPU als KI Beschleuniger für die Zukunft mit dem 128Gb AI 395+ mini-PC und dergleichen. Wenn GPD WIN5 rauskommt kann man sofort loslegen.
PCIe 3.0 x4 ist doch = PCIe 1 @ 16, das letzte was ich damit laufen hatte waren 88 GTX. Klingt irgendwie nach Misshandlung.
Ja CPU seitig ist man schon limitiert. Aber für 60 FPS reicht es locker. Die 5090 zieht in COD Vanguard maximal 390Watt was noch für 12K@60Fps gut reichen tut. Ich habe dadurch quasi einen automatischen Powerlimit, was in etwa 70% von Normal entspricht.

Linmoum
2025-09-15, 01:19:17
Hatte ja gehofft, dass mein 850W bequiet noch ausreicht. Hab jetzt die Woche abseits von zocken die 5090 aber auch eher viel rendern lassen (vorher zwar schon mit der 5070Ti, aber das war relativ meh, alleine die doppelte Menge an Speicher ist da eine echte Offenbarung :D ) und die Karte dabei auch nicht an der Leine gehabt. Naja, heute ging der Rechner einmal aus. Kurz danach noch ein weiteres Mal, als ich nach dem hochfahren dann weitergemacht habe. Danach hab ich nebenbei mal geschaut, was die Karte zieht. Bei ausgelesenen ~520W ist der Rechner dann zum dritten Mal ausgegangen. Ist ja noch ein good old Multi-Rail Netzteil, die Dinger sind ja mittlerweile quasi ausgestorben. Brauch ich wohl (mindestens?) eins mit 1000W. War zwar nicht geplant, aber nunja. ;D

aufkrawall
2025-09-15, 01:44:47
Ist ja noch ein good old Multi-Rail Netzteil, die Dinger sind ja mittlerweile quasi ausgestorben.
StefanV würd sich im Foren-Grab umdrehen.

Slipknot79
2025-09-15, 02:13:31
Hatte ja gehofft, dass mein 850W bequiet noch ausreicht. Hab jetzt die Woche abseits von zocken die 5090 aber auch eher viel rendern lassen (vorher zwar schon mit der 5070Ti, aber das war relativ meh, alleine die doppelte Menge an Speicher ist da eine echte Offenbarung :D ) und die Karte dabei auch nicht an der Leine gehabt. Naja, heute ging der Rechner einmal aus. Kurz danach noch ein weiteres Mal, als ich nach dem hochfahren dann weitergemacht habe. Danach hab ich nebenbei mal geschaut, was die Karte zieht. Bei ausgelesenen ~520W ist der Rechner dann zum dritten Mal ausgegangen. Ist ja noch ein good old Multi-Rail Netzteil, die Dinger sind ja mittlerweile quasi ausgestorben. Brauch ich wohl (mindestens?) eins mit 1000W. War zwar nicht geplant, aber nunja. ;D


850W single geil reichen auch, außer du hast nen dicken Fredripper als CPU.
Wenn deine CPU aber nicht moar als 150W braucht, dann kann die GPU 600W ziehen und das NT ged nicht aus. (Habe ich schon getestet hier).
520W sind somit sowieso cool für so nen NT.

1000W eventuell wenn du 6090-ready sein willst. Was weiß man schon, was Lederjacke hier vorsehen wird. (y)

Exxtreme
2025-09-15, 07:44:46
Nvidia selbst empfiehlt 1000 W für die RTX5090. Und Netzteile zu überlasten ist auch nicht gut. Ansonsten kann man das PT runtersetzen.

Slipknot79
2025-09-15, 10:28:19
Die 1000W sollen auch günstige Chinakracher NTs abdecken. Bekannte Marken-NT ballern auch 850W durch.
Vom "überlasten" lese ich auch immer wieder, aber noch nie habe ich ne statistische Auswertung dazu gesehen oder eine Art Benchmark. oO

Tib
2025-09-15, 11:35:15
Founders Edition extrem Scheiße zu reparieren. Keine Ersatzteile oder Schaltpläne. Viele Stellen die kaputt gehen können.


https://youtu.be/93jk4Zho7YY (https://youtu.be/93jk4Zho7YY?si=d44EAb2jebLKsjGm)





...aber die Idee, das Hauptplatinen PCB mechanisch zu entlasten, ist klasse!


Durch das Gewicht der Grafikkarten wird ja an ungünstiger Stelle so viel Kraft eingeleitet, dass die PCB Steckerleiste schnell bricht, wenn der PC mal ein klein wenig zu stark bewegt wird. Unter anderem deswegen wird dann mit GPU Abstandshaltern herumgefrickelt. IMHO die andere große Design-Katastrophe nach dem 12VHPWR Debakel.
Aber dann die Idee mit einem proprietären Stecker / Buchse wieder zu vermurksen, ist wieder typisch für Nvidia.


Ich kann nicht verstehen, warum PCB Designer an einer - fast schon - Sollbruchstelle überhaupt Leitungen routen.
...was machen die Angestellten in den Grafikkarten-Entwicklungs-Abteilungen eigentlich so beruflich?


Ich könnte mich da schon wieder ewig drüber aufregen.

Lehdro
2025-09-15, 15:45:04
850W single geil reichen auch, außer du hast nen dicken Fredripper als CPU.
Wenn deine CPU aber nicht moar als 150W braucht, dann kann die GPU 600W ziehen und das NT ged nicht aus. (Habe ich schon getestet hier).

Sehe ich nicht so. Die Lastspitzen einer 5090 sind nicht ohne (https://www.igorslab.de/nvidia-geforce-rtx-5090-founders-edition-im-test-das-600-watt-kraftpaket-im-gaming-und-labortest/14/). Bei einer Auslastung von alleine bis 575/600W Nennwert der 5090, hast du nur noch 250W "Spielraum" für CPU & co. Selbst ein 9800X3D mit bissl Feuer unterm Hintern schluckt >100W in modernen Games (man denke z.B. an BF6, was CPU und GPU verbrauchstechnisch äußerst fordert). Dann hast du noch deinen restlichen Klimbim im System und zack sind die 850W "alle". NV, Igor und viele andere empfehlen nicht ohne Grund ein modernes 1000W Netzteil, die auch schon rein baulich und abstimmungstechnisch auf diese Lastspitzen vorbereitet sind (ATX 3.1 = 200% Lastspitzen <1ms). Diese gehen nämlich durchaus bis 900W, nur für die GPU.
@Linmoum
Kauf dir einfach ein vernünftiges 1000W Netzteil und sei beruhigt, dass das nicht der Fehlerpunkt sein wird. Zudem eierst du dann bei den meisten anderen Games locker im Bereich 60-70% Auslastung rum, was der Lautstärke bei semipassiven Netzteilen doch sehr zu gute kommt.

Lawmachine79
2025-09-15, 16:41:39
Hatte ja gehofft, dass mein 850W bequiet noch ausreicht.
Grill' es halt.

RoughNeck
2025-09-16, 00:48:07
Undervolten das Teil, schont auch das Netzteil.
Ansonsten halt nutzen bis das Netzteil keinen Bock mehr hat.

Lawmachine79
2025-09-16, 09:12:55
Undervolten das Teil, schont auch das Netzteil.
Ansonsten halt nutzen bis das Netzteil keinen Bock mehr hat.
Nix undervolten. Ride the Lightning!

Snoopy69
2025-09-16, 10:28:45
Wegen Single- oder Multirail…
Kann jeder machen wie er will. Ich bleibe bei Multirail aus einem guten Grund (Sicherheit). In meinem Fall gehen zwischen max. 20-40A (je nach Einstellung) durch eine Leitung. Bei Singlerail…? Was das NT hergibt :freak:

Die Wahrscheinlich, dass die volle Leistung durch eine Leitung geht, ist sehr gering, aber nicht = null

Slipknot79
2025-09-16, 11:44:35
Meine 2080Ti hat das NT (Corsair HX 850W) ingame upschalten lassen. Hat lange gedauert, bis ich draufgekommen bin, dass ich vielleicht mal den Schalter am NT auf single geil umschalten sollte. Seit dem auch mit der octen 4090 nicht ein einziges Mal upgeschaltet. (y)