Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5090 Review-Thread
Seiten :
1
2
3
4
5
6
7
[
8]
TobiWahnKenobi
2025-07-03, 18:10:04
OMG! warum ist die meine RTX5090 nur eine so geile karte ?! *schwärrrrrrrrrrrm*
ich finde, es sollte erlaubt sein, auf leute mit weniger frames mit dem finger zu zeigen - wie seht ihr das?
das war es gar nicht was ich eben wollte.. mir ist nur aufgefallen dass jetzt schon wieder nirgends tolle angebote aus dem boden sprießen.. welchem muster folgen denn die preise? selbst so ne olle ventus ist stellenweise über 2.5k euro.. die gab es vor vier wochen für 2.2.
(..)
mfg
tobi
Snoopy69
2025-07-03, 18:16:29
Nice, dann sehen wir bald einige OC-Ergebnisse mit mehr als 34 GT/s. Bringt rein gar nichts außer Prollerei (https://www.pcgameshardware.de/Doom-The-Dark-Ages-Spiel-74718/Specials/Grafik-Update-Benchmarks-GPU-Performance-1475593/2/#a1), aber spannend ist das Potenzial von GDDR7 schon.
MfG
Raff
Gib´s doch zu - du hättest sie auch gerne, wie eigentlich alle hier :freak:
Aber geschätzt 5.000€ für eine GPU??? ;(
Selbst mit viel Kohle, muss man erst mal eine bekommen. Die sind auf 100 Stück limitiert
Snoopy69
2025-07-03, 18:21:48
ich finde, es sollte erlaubt sein, auf leute mit weniger frames mit dem finger zu zeigen - wie seht ihr das?
Stimmt... ;D
8qaWwRuK3gU
The_Invisible
2025-07-03, 18:41:34
HOF bis 1,25V GPU (V-RAM bis 1,24V) und bis +5.000 RAM einstellbar :O :up:
Sie hat im Übrigen ein PL von 2.001W :ulol:
https://i.ibb.co/7d5Qn1VF/IMG-0289.jpg (https://ibb.co/PvnMc648)
Ist das ootb? Hat die dann wenigstens 3x 12v hpwr :freak:
Snoopy69
2025-07-03, 20:15:58
K.A. ob es außer diesem noch ein "normales" BIOS gibt
Fakt ist, dass die GPU 2 Buchsen hat...
Ist dieser Glückliche (Extrem-OCer) hier...
https://www.overclock.net/posts/29465075/
Und schau dir mal seinen Kram (insbesondere im Spoiler) an. Alleine die Anzalh der Chiller kostet wahrscheinlich über 30.000€ :eek:
https://www.overclock.net/posts/29477444/
https://www.overclock.net/posts/29480477/
Nackte "HOF" (Spoiler nicht vergessen)
https://www.overclock.net/posts/29472548/
Sein Channel...
Das hier ist sehr krank und messi. Er zeigt die 10 in den Wänden, seines Hauses versteckten Chiller. Alle ferngesteuert - alle Kamera überwacht :D
9d36DGGlaPs
Was mir nicht bewusst war, dass die HOF eine 5090 D ist
https://www.overclock.net/cdn-cgi/image/format=auto,onerror=redirect,width=1920,height=1920,fit=scale-down/https://www.overclock.net/attachments/2001w3-png.2718323/
Snoopy69
2025-07-06, 14:32:00
Der erste und einzige (noch inoffizielle) 5090 HOF Block…
https://www.overclock.net/posts/29483842/
Kann hier bitte mal jemand Batman: Arkham Knight auf seiner RTX 5090 mit massivem DSR laufen lassen und mich etwas geilmachen? :biggrin:
Das Spiel wird im Herbst zehn Jahre alt und hat mit die modernsten GPU-PhysX-Effekte. Fluppt alles auf Black-kinda-well?
Gibt's Denuvo-frei gerade schön billich bei GOG: https://www.gog.com/de/game/batman_arkham_knight_premium_edition
MfG
Raff
Disco_STFU
2025-07-09, 15:00:36
und mich etwas geilmachen? :biggrin:
https://media1.tenor.com/m/kym--SWQXCMAAAAC/wow-weird.gif
Blase
2025-07-09, 15:24:59
Kann hier bitte mal jemand Batman: Arkham Knight auf seiner RTX 5090 mit massivem DSR laufen lassen und mich etwas geilmachen?
Na, suchst du doch nach Gründen umzusteigen...?! :tongue:
@Disco_STFU ;D
MfG Blase
Immer. :biggrin: Leidensdruck ist aber "leider" nicht vorhanden. Werde ich alt?
MfG
Raff
Blase
2025-07-09, 15:38:03
Der Umstieg ist langweilig, ohne Frage :redface:
Aber er ist in jeder Hinsicht logisch, würde ich meinen. Aber am Ende sind es, neben der erneuten Leistungsspitze, erneuter Garantie, DLSS 4.0 und 32 GB eben nur ein paar hundert €, die dich das am Ende "kostet". Also was die 4090 beim Erscheinen der 6080/6090 dann an Wert verliert "zusätzlich" gegenüber einer 5090. Wenn du einfach kein Bock hast umzusteigen, dann eben nicht :tongue:
MfG Blase
Lawmachine79
2025-07-09, 16:12:05
Immer. :biggrin: Leidensdruck ist aber "leider" nicht vorhanden. Werde ich alt?
MfG
Raff
Leidensdruck? Würde und Selbstachtung gebieten den Umstieg. Bist Du es nicht leid, Dein Umfeld anzulügen, wenn sie Dich nach Deiner Grafikkarte fragen?
Lehdro
2025-07-09, 16:13:40
Immer. :biggrin: Leidensdruck ist aber "leider" nicht vorhanden. Werde ich alt?
Früher hast du dir die 3090 Ti schönreden können, aber jetzt bei einer 5090 scheiterst du damit? :eek:
Check. Alt. ;D
Eines schönen Herbsttages vielleicht ...
MfG
Raff
Nightspider
2025-07-09, 16:28:35
Bist Du es nicht leid, Dein Umfeld anzulügen, wenn sie Dich nach Deiner Grafikkarte fragen?
:D
SamLombardo
2025-07-09, 16:35:06
Check. Alt. ;D
Eines schönen Herbsttages vielleicht ...
MfG
Raff
Nutze die Zeit der absurden 4090 Gebrauchtpreise. Im Herbst kann die vorbei sein 😉
mironicus
2025-07-09, 16:35:21
Ich habe eine RTX 5090 im Laptop und eine RTX 4090 im Desktop. Ein guter Kompromiss.
The_Invisible
2025-07-09, 16:37:29
Leidensdruck? Würde und Selbstachtung gebieten den Umstieg. Bist Du es nicht leid, Dein Umfeld anzulügen, wenn sie Dich nach Deiner Grafikkarte fragen?
Aber wirklich, da ist man einer der wenigen Grafikkartengurus im Land und hat nur eine 4090, da ist der Druck ganz anders :D
Lawmachine79
2025-07-09, 16:42:52
Ich habe eine RTX 5090 im Laptop und eine RTX 4090 im Desktop. Ein guter Kompromiss.
Umgekehrt hier.
Snoopy69
2025-07-09, 17:46:11
Nutze die Zeit der absurden 4090 Gebrauchtpreise. Im Herbst kann die vorbei sein ��
Ich fands gut...
Hab für meine 2,5 Jahre täglich benutzte TUF 50€ (also 2.000€) mehr bekommen, als sie kostete. Die Chinesen kaufen wirklich alles, was für AI taugt ;D
btw:
Hab die Tage bei OCN von einem Trick erfahren, der einem mehrere hundert Punkte bei Benchmarking (im speziellen Fall "Speed Way") bringt. Bei mir hat es leider nicht funktioniert (bin gerade dran herauzufinden, warum)
Für den Alltag wahrscheinlich unbedeutend. Zumal es um ältere Treiber geht
TobiWahnKenobi
2025-07-09, 20:29:11
wahrscheinlich weil bei dir rbar schon an war.
(..)
mfg
tobi
Snoopy69
2025-07-09, 20:32:46
Hat mir rBAR null zu tun
TobiWahnKenobi
2025-07-09, 20:45:01
na dann klär' uns doch einfach mal auf.
(..)
mfg
tobi
Snoopy69
2025-07-09, 20:54:41
Der Tipp kam von einem global Top-OCer...
- mit DDU alten Treiber entfernen
- Treiber .83 installieren mit Neustart
- Treiber .42 installieren und KEIN Neustart machen
- in Afterburner NUR Mem- und GPU-Takt setzen - auf keinen Fall an der Spannung was machen
Damit erreichte ich mehrere hundert Punkte mehr bei SW
Aber frag mich nicht, wie er auf diese Weise kommt
Kann hier bitte mal jemand Batman: Arkham Knight auf seiner RTX 5090 mit massivem DSR laufen lassen und mich etwas geilmachen? :biggrin:
Das Spiel wird im Herbst zehn Jahre alt und hat mit die modernsten GPU-PhysX-Effekte. Fluppt alles auf Black-kinda-well?
Gibt's Denuvo-frei gerade schön billich bei GOG: https://www.gog.com/de/game/batman_arkham_knight_premium_edition
MfG
Raff
Ich bin für ~220€ von einer RTX 4090 FE auf eine Asus TUF RTX 5090 umgestiegen. Ich habe das Arkham Knight leider nicht und kann daher nicht sagen wie das auf Blackwell läuft, aber ich habe unter anderem mein persönliches Evergreen und gute Laune Spiel Mafia 2 mit der alten und der neuen Karte gebenchmarkt und musste mit Erschrecken feststellen, dass die hohen Physix-Physikeinstellungeb auf Blackwell absolut unspielbar sind. Laut Benchmark waren die Average FPS mit der 4090 92.1fps und mit der 5090 sind es 20.4fps(!). Bei den Min-FPS sieht es bestimmt noch deutlich schlechter aus, gerade am Ende der Benchmarkszene bricht es bei mir teilweise auf 12-13fps ein. In meiner Erinnerung lief das selbst auf meiner GTX 460 im Jahr 2010 deutlich besser. Also offensichtlich kann Blackwell das einfach nicht mehr.
Habe gerade nachgelesen: Blackwell kann nur 32 Bit Physx nicht mehr, 64 Bit und damit Arkham Knight geht. Trotzdem doof. :(
Blase
2025-07-09, 23:20:05
...und musste mit Erschrecken feststellen, dass die hohen Physix-Physikeinstellungeb auf Blackwell absolut unspielbar sind. [B]Laut Benchmark waren die Average FPS mit der 4090 92.1fps und mit der 5090 sind es 20.4fps(!).
Habe hier grade nur die Mafia II Definite Edition zur Verfügung, falls du die Originale Version meinst und die dort Dinge anders machen.
Hab mal gebencht in 6K DSR mit 8x MSAA und allen Reglern - inkl. Physix - auf Anschlag. Siehe Anhang. Also ja, die FPS gingen Stück für Stück runter, aber auch zum Ende hin hatte ich nahe 60 oberhalb 50 FPS. Kann ich also nicht nachvollziehen. Aber wohl so oder so schlechter, als dein 4090 Ergebnis...
EDIT: Und hier dann zusätzlich noch in 4K mit ansonsten identischen Einstellungen. Unverändert fallen die FPS im Laufe des Benchmarks, legen zum Ende hin aber auch noch einmal leicht zu.
Habe auch mal mit Physics @Mittel probiert. Erhöht deutlich die FPS, ja. @Aus scheint dann keine Rolle mehr zu spielen.
MfG Blase
ChaosTM
2025-07-09, 23:23:04
Ich bin für ~220€ von einer RTX 4090 FE auf eine Asus TUF RTX 5090 umgestiegen. Ich habe das Arkham Knight leider nicht und kann daher nicht sagen wie das auf Blackwell läuft, aber ich habe unter anderem mein persönliches Evergreen und gute Laune Spiel Mafia 2 mit der alten und der neuen Karte gebenchmarkt und musste mit Erschrecken feststellen, dass die hohen Physix-Physikeinstellungeb auf Blackwell absolut unspielbar sind. Laut Benchmark waren die Average FPS mit der 4090 92.1fps und mit der 5090 sind es 20.4fps(!). Bei den Min-FPS sieht es bestimmt noch deutlich schlechter aus, gerade am Ende der Benchmarkszene bricht es bei mir teilweise auf 12-13fps ein. In meiner Erinnerung lief das selbst auf meiner GTX 460 im Jahr 2010 deutlich besser. Also offensichtlich kann Blackwell das einfach nicht mehr.
Habe gerade nachgelesen: Blackwell kann nur 32 Bit Physx nicht mehr, 64 Bit und damit Arkham Knight geht. Trotzdem doof. :(
Das war ja wohl bekannt, dass NV Blackwell hier völlig unnötig kastriert hat.
Daher auch Raffs Ansinnen. ;)
Blase
2025-07-09, 23:44:42
Kann hier bitte mal jemand Batman: Arkham Knight auf seiner RTX 5090 mit massivem DSR laufen lassen und mich etwas geilmachen? :biggrin:
So, extra für dich herunter geladen und einen Lauf gemacht ;)
Und weil ich jetzt 3x daran gescheitert bin, einen Screenshot zu machen (habe immer nur das Hintergrundbild - OHNE - das kleine Fenster mit den Zahlen davor), muss du mir das einfach mal glauben :tongue:
6K DSR und alle Regler rechts bzw. alle Optionen an:
Min: 72
Max: 163
Average: 107
Ob dich das jetzt ein wenig geil macht musst du schauen :tongue:
Stelle aber fest, dass es ziemlich cool aussieht und ich es bisher noch nie gespielt habe. Tue es in meiner POS mal etwas weiter nach oben :D
EDIT: Ich hatte in den Optionen keine Möglichkeit, die FPS NICHT zu begrenzen. Er schlug 30, 60 oder 90 vor. Letzteres habe ich dann ausgewählt. Scheint aber zumindest keine Auswirkungen auf den Lauf gehabt zu haben :confused:
MfG Blase
Habe hier grade nur die Mafia II Definite Edition zur Verfügung, falls du die Originale Version meinst und die dort Dinge anders machen.
Hab mal gebencht in 6K DSR mit 8x MSAA und allen Reglern - inkl. Physix - auf Anschlag. Siehe Anhang. Also ja, die FPS gingen Stück für Stück runter, aber auch zum Ende hin hatte ich nahe 60 oberhalb 50 FPS. Kann ich also nicht nachvollziehen. Aber wohl so oder so schlechter, als dein 4090 Ergebnis...
EDIT: Und hier dann zusätzlich noch in 4K mit ansonsten identischen Einstellungen. Unverändert fallen die FPS im Laufe des Benchmarks, legen zum Ende hin aber auch noch einmal leicht zu.
Habe auch mal mit Physics @Mittel probiert. Erhöht deutlich die FPS, ja. @Aus scheint dann keine Rolle mehr zu spielen.
MfG Blase
Danke, aber nach meinem Kenntnisstand ist Physix in der Definitive Edition kaputt. Bestimmte Effekte fehlten einfach. Ich weiß nicht, ob das irgendwann gefixt wurde.
Wenn ich dran denke werde ich am Wochenende den Benchmark in der Definitive Edition machen.
TobiWahnKenobi
2025-07-10, 07:08:29
physX könnte wieder laufen, wenn man eine physxkarte danebensteckt.. die grützigste minikarte sollte dafür ausreichen.. freiwillige vor - wer hat noch platz und antiquitäten im schrank?
(..)
mfg
tobi
Exxtreme
2025-07-10, 09:21:53
Um 32-Bit-Physx-Spiele zu spielen bräuchte man eine ältere Zweitkarte wenn man eine Blackwell-Karte hat, ja. Keine Ahnung warum Nvidia das so gemacht hat. Eventuell lohnt sich der Aufwand für sie nicht mehr.
mironicus
2025-07-10, 09:40:01
Das ist doch eine reine Treibersache, oder? Was ist mit Linux? Laufen dort die Spiele noch beschleunigt mit einer Blackwell-Karte?
ChaosTM
2025-07-10, 09:41:28
physX könnte wieder laufen, wenn man eine physxkarte danebensteckt.. die grützigste minikarte sollte dafür ausreichen.. freiwillige vor - wer hat noch platz und antiquitäten im schrank?
(..)
mfg
tobi
Geht nur, wenn man eine FE oder 3 Slot Inno3D `90er hat, sonst müsste man mit Risern herumspielen.
Tut man sich nicht an.
Exxtreme
2025-07-10, 09:56:52
Das ist doch eine reine Treibersache, oder? Was ist mit Linux? Laufen dort die Spiele noch beschleunigt mit einer Blackwell-Karte?
Das ist eher eine CUDA-Sache. Physx nutzt CUDA und 32-Bit-CUDA wurde eingestellt.
Blase
2025-07-10, 10:54:58
Danke, aber nach meinem Kenntnisstand ist Physix in der Definitive Edition kaputt. Bestimmte Effekte fehlten einfach. Ich weiß nicht, ob das irgendwann gefixt wurde.
Wenn ich dran denke werde ich am Wochenende den Benchmark in der Definitive Edition machen.
Mag sein. Ich habe aber schon rein optisch sehr deutliche Unterschiede zwischen der Max und Medium Einstellung feststellen können. Bei Max fliegt richtig viel rum und bleibt auf dem Boden liegen. Bei Medium geht das schon deutlich zurück. Ich meine, die klassic Version auch zu haben. Vielleicht schaffe ich ja den Download, Installation und ein paar Läufe zum Test :tongue:
In Batman jedenfalls konnte ich keinerlei Einbußen whatsoever feststellen. Sollte es hier ein Physics Thema geben, bin ich da wohl nicht drüber gestolpert. Oder wären die FPS dann noch deutlich höher gewesen?
MfG Blase
mironicus
2025-07-10, 12:58:24
Ein Wrapper könnte hier helfen? Immerhin würde das auch alle NVidia-Karten nach Blackwell betreffen, für zahlreiche Softwareperlen lohnt sich das schon.
Snoopy69
2025-07-10, 13:14:18
Wer nimmt die „D“? :freak:
https://www.ebay.de/itm/127199508494
2.001W-BIOS ist inklusive
Für die Hälfte würde ich sie tatsächlich mal einsäckeln. For teh lulz.
MfG
Raff
Snoopy69
2025-07-10, 14:16:47
Wer nicht? :freak:
In zwei Jahren bekommt man dafür wahrscheinlich noch min 4.000
Lawmachine79
2025-07-10, 14:16:55
Um 32-Bit-Physx-Spiele zu spielen bräuchte man eine ältere Zweitkarte wenn man eine Blackwell-Karte hat, ja.
Eine 4090 wäre geil. Like a Boss!
lilgefo~
2025-07-10, 21:28:14
Der Tipp kam von einem global Top-OCer...
- mit DDU alten Treiber entfernen
- Treiber .83 installieren mit Neustart
- Treiber .42 installieren und KEIN Neustart machen
- in Afterburner NUR Mem- und GPU-Takt setzen - auf keinen Fall an der Spannung was machen
Damit erreichte ich mehrere hundert Punkte mehr bei SW
Aber frag mich nicht, wie er auf diese Weise kommt
Aber die vergoldeten Kabelstecker fehlen in der Auflistung.
OMG! warum ist die meine RTX5090 nur eine so geile karte ?! *schwärrrrrrrrrrrm*
(..)
mfg
tobi
Bist du dir nicht selbst peinlich?
Für alle Normalos im Thread:
4090 auf 5090 ist nicht der Sprung wie von der 3090 auf die 4090 aber im Endeffekt kann man alles was vorher nicht flüssig lief gut zocken, HL2 Remix mit 4090 meh, mit 5090 sweet. AW2 mit 4090 gut aber stellenweise painful. Mit 5090 np. CP77 mit Pathtracing DLSS Balanced, vorher meh (CNN) jetzt super (Transformer). Rede von 4k mit framceap.
Lohnt sich schon. Gerade bei den Gebrauchtpreisen für 4090er. Stromverbrauch ist ähnlich overhyped wie bei der 4090 aber dennoch verbraucht sie mehr als ada. Auch unter Niedriglast, wohl dem Vram und Kernen geschuldet. In Siedler 2 Gold 3d ;D ist der Verbrauch leicht höher als mit der 4090. Am Limit kam ich Stock auf 615W bei 2,75Ghz, mit Custom Curve um die 520W bei max. 3050Mhz (1900 vram).
Temps im Hochsommer bei meinem Setup unter Vollast bei ~56°. Passt schon.
Nightspider
2025-07-10, 22:06:07
Um 32-Bit-Physx-Spiele zu spielen bräuchte man eine ältere Zweitkarte wenn man eine Blackwell-Karte hat, ja. Keine Ahnung warum Nvidia das so gemacht hat. Eventuell lohnt sich der Aufwand für sie nicht mehr.
Sind aktuelle CPUs noch zu langsam um das darüber zu berechnen?
In solchen alten Spielen langweilt sich mein 9800X3D sowieso zu tode.
PatkIllA
2025-07-10, 22:08:10
Sind aktuelle CPUs noch zu langsam um das darüber zu berechnen?
In solchen alten Spielen langweilt sich mein 9800X3D sowieso zu tode.
Wenn man das single threaded mit x87 implementiert dann schon.
x-force
2025-07-10, 22:11:31
Wenn man das single threaded mit x87 implementiert dann schon.
falls wer lust hat...hier ist ein bench mit multi thread cpu support:
https://www.geeks3d.com/20130308/fluidmark-1-5-1-physx-benchmark-fluid-sph-simulation-opengl-download/
PatkIllA
2025-07-10, 22:43:20
falls wer lust hat...hier ist ein bench mit multi thread cpu support:
https://www.geeks3d.com/20130308/fluidmark-1-5-1-physx-benchmark-fluid-sph-simulation-opengl-download/
Das nutzt dir für die Spiele nichts und da bleibt immer noch um Größenordnungen hinter AVX Code zurück.
Lehdro
2025-07-11, 15:43:30
Sind aktuelle CPUs noch zu langsam um das darüber zu berechnen?
In solchen alten Spielen langweilt sich mein 9800X3D sowieso zu tode.
Schau mal hier: (https://gamersnexus.net/gpus/nvidia-giveth-nvidia-taketh-away-rip-physx-32-bit-gtx-580-vs-rtx-5080)
Mit Physx ON verliert die RTX 5080 teilweise gegen eine GTX 580(!). Ansonsten hast du massive Ruckler, miserable minFPS (einstellig) und auch sonst kein gutes Leben wenn du auf diese Oldies stehst.
Snoopy69
2025-07-11, 16:19:35
Da hilft nur alte HW zu behalten
ChaosTM
2025-07-11, 16:52:47
Hab mit heute einen flachen PCI-E Riser unter die 4,5 3,5 Slot 5090er geklemmt und da könnte ich zur Not eine 2. Karte anschließen. Tu ich aber nicht..
Da kommt eine USB4 Karte dran.
Bis Pascal fällt jetzt alles aus dem Treiber. D.h. Ampere-PhysX Karte :-)
Danke, aber nach meinem Kenntnisstand ist Physix in der Definitive Edition kaputt. Bestimmte Effekte fehlten einfach. Ich weiß nicht, ob das irgendwann gefixt wurde.
Wenn ich dran denke werde ich am Wochenende den Benchmark in der Definitive Edition machen.
Habe in der DE bei maximalen Settings ingame (alles inkl. Physix auf High 16x AF, 8x MSAA + SMAA, 2560x1440) 73,4 fps AVG.
Das ist eher eine CUDA-Sache. Physx nutzt CUDA und 32-Bit-CUDA wurde eingestellt.
:freak:, sorry, kompletter Mumpitz!
TobiWahnKenobi
2025-07-13, 10:04:51
Hab mit heute einen flachen PCI-E Riser unter die 4,5 3,5 Slot 5090er geklemmt und da könnte ich zur Not eine 2. Karte anschließen. Tu ich aber nicht..
Da kommt eine USB4 Karte dran.
ich dachte dass vllt. sowas kleines reichen könnte..
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93602&stc=1&d=1752394174
bringt aber nix - die lassen sich nicht gleichzeitig installieren. geben zwar beide ein bild aus, aber eine von beiden ist im GM immer gelb.
(..)
mfg
tobi
Kann hier bitte mal jemand Batman: Arkham Knight auf seiner RTX 5090 mit massivem DSR laufen lassen und mich etwas geilmachen? :biggrin:
Die Licht-Schächte produzieren mit dem 576.88 Bildfehler.
Ansonsten läuft das auch in 8k erträglich.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93603&stc=1&d=1752395376
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93604&stc=1&d=1752395376
PhysX aktiv.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93605&stc=1&d=1752395557
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93606&stc=1&d=1752395557
Ex3cut3r
2025-07-13, 10:42:54
Schade, was aus Rocksteady geworden ist. Einen Batman SP Nachfolger mit heutiger (RT) Grafik und AAA Budget wurde ich mir definitiv holen.
Snoopy69
2025-07-13, 15:22:52
Dev-Driver 590.26...
MD5: 42ac33f1d383089a440f1338d81eb8ec
https://www.facebook.com/mhp1120/posts/nvidia-geforce-ser-developer-driver-59026-whqlhttpsknight-pcdiyblogspotcom202507/2767149533475669/
Der Tipp kam von einem global Top-OCer...
- mit DDU alten Treiber entfernen
Warum? :confused: DDU ist absolut unnötig, Deinstallation mit Windows Mitteln reicht vollkommen aus.
DDU ist nur ok, wenn man Probleme beim deinstallieren hat (was ich in 30 Jahren mit Windows vielleicht einmal hatte).
Coroner
2025-07-14, 15:59:16
Weiß jemand wo man die 108 GB große Pathtracing-Demo "Zorah" noch downloaden kann?
Der Nvidia-link den man überall sieht geht ja leider nicht mehr und ich habe bis jetzt keine Seite gefunden die den Brocken bereitstellt.
Snoopy69
2025-07-14, 16:04:47
Willst du da was testen oder eher nur rumgucken?
Ist zwar nett, aber ohne weitere Anleitung kriegt man das Ding nicht so einfach zum Laufen. Musste querlesen. Atemberaubend finde ich Zorah nicht. Da gibt’s geileres…
Coroner
2025-07-14, 16:06:20
Ich mag nur gucken und die Demo ggf. als stability-Test beim Übertakten nutzen :smile:. Finde nur eine kleine 14 GB-Variante in der man aktiv herumlaufen kann.
Snoopy69
2025-07-14, 16:12:41
Zieh dir diese Demo - die sieht richtig geil aus (insbesondere bei Regen)… ;)
Vergiss nicht ins Café zu gehen. Schnapp dir nen Croissant und schau dir aus der Nähe an :D
https://bit.ly/4eo6NN8 <- Download einfach nur entpacken und .exe ausführen (der Link ist aus der Videobeschreibung)
fLAXcr4Yg8M
Schau auch die anderen Demos auf deren Kanal (sind glaube 5 verschiedene Demos)
btw:
Das hier bin ich in „Rome“ :freak:
Um5tJfHeBJk
Coroner
2025-07-14, 16:15:46
Danke, da schaue ich definitiv mal rein, die stand auch auf meiner Liste :smile:.
ChaosTM
2025-07-14, 16:35:05
Rom ist ziemlich beeindruckend, aber leider fehlen die Leute.
Würde dann wohl ruckeln und traversal vor sich hin stottern. ^^
SamLombardo
2025-07-14, 16:35:46
Zieh dir diese Demo - die sieht richtig geil aus (insbesondere bei Regen)… ;)
Vergiss nicht ins Café zu gehen. Schnapp dir nen Croissant und schau dir aus der Nähe an :D
https://bit.ly/4eo6NN8 <- Download einfach nur entpacken und .exe ausführen (der Link ist aus der Videobeschreibung)
https://youtu.be/fLAXcr4Yg8M
Schau auch die anderen Demos auf deren Kanal (sind glaube 5 verschiedene Demos)
btw:
Das hier bin ich in „Rome“ :freak:
https://youtu.be/Um5tJfHeBJk
Habs mir gerade mal runtergeladen wirklich sehr schick. Aber ich kann leider die Auflösung nicht erhöhen, ich kann zwar 4k einstellen, aber das wird nicht ausgeführt. Bzw sieht es aus als wenn da irgendein fieser Upscaler von 720p oder so aktiv wäre. Eine Idee?
Ich hab gerade nochmal geschaut, das Video in 4k sieht besser aus als bei mir live ausgeführt. Hm.
Snoopy69
2025-07-14, 16:40:53
Ist die Einstellung bei dir ausgegraut? Bei mir geht alles einwandfrei
Ansonsten mal den Treiber auf Defaultsettings stellen
Btw:
Für „Paris“ hatte ich noch keine Zeit zu schauen. Da soll es auch eine Demo geben…
kkuNEYUqtvU
SamLombardo
2025-07-14, 16:43:38
Ist die Einstellung bei dir ausgegraut? Bei mir geht alles einwandfrei
Nee wenn ich auf Windowed gehe kann ich es ändern. Nur ist die Auflösung definitiv nicht 4k, das sehe ich erstens am Bild und zweitens am overlay das riesig groß ist. Komisch
...ich probiere mal rum
Snoopy69
2025-07-14, 16:49:58
Rom ist ziemlich beeindruckend, aber leider fehlen die Leute.
Würde dann wohl ruckeln und traversal vor sich hin stottern. ^^
„Leute“ gibts bei „Bodycam“ (Game) :freak:
Da kannst du versuchen, die Maps alleine zu erkunden
SamLombardo
2025-07-14, 17:30:44
Nee wenn ich auf Windowed gehe kann ich es ändern. Nur ist die Auflösung definitiv nicht 4k, das sehe ich erstens am Bild und zweitens am overlay das riesig groß ist. Komisch
...ich probiere mal rum
habs jetzt hinbekommen. Sieht Mega aus. Allerdings habe ich jetzt mit der 5090 um 40-45 fps, lol. DLSS muss her :-).
Snoopy69
2025-07-14, 17:47:14
habs jetzt hinbekommen. Sieht Mega aus. Allerdings habe ich jetzt mit der 5090 um 40-45 fps, lol. DLSS muss her :-).
Du musst auf „Ultra“ stellen. „Cinematic“ ist zu hart. Und Regen (heißt "Overcast"). So sieht es am Besten aus. Und achtet mal auf die Hauswände, wenn sie nass wird
Wenn ich mich nicht irre, ist das schon DLSS…
Die anderen Demos gibt es mit und ohne. Ohne ist es zu hart für die 5090
SamLombardo
2025-07-14, 18:20:06
Du musst auf „Ultra“ stellen. „Cinematic“ ist zu hart. Und Regen (heißt dort anders). So sieht es am Besten aus. Und achtet mal auf die Hauswände, wenn sie nass wird
Wenn ich mich nicht irre, ist das schon DLSS…
Die anderen Demos gibt es mit und ohne. Ohne ist es zu hart für die 5090
Krass, alles klar danke! Guck ich mir an.
Snoopy69
2025-07-14, 18:42:20
Nee wenn ich auf Windowed gehe kann ich es ändern. Nur ist die Auflösung definitiv nicht 4k, das sehe ich erstens am Bild und zweitens am overlay das riesig groß ist. Komisch
...ich probiere mal rum
Bei mir kann ich bei "Windowed" und "Fullscreen" die Auslösung ändern
Nightspider
2025-07-14, 18:59:40
PhysX aktiv.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93605&stc=1&d=1752395557
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93606&stc=1&d=1752395557
Also mit PhysX über CPU avg 78fps und min 52fps ist doch vollkommen in Ordnung. Natürlich nicht perfekt für 120-240Hz Monitore aber zumindest muss man keine zweite Karte für solche Spiele einbauen.
SamLombardo
2025-07-14, 21:30:02
Bei mir kann ich bei "Windowed" und "Fullscreen" die Auslösung ändern
ja, das war wohl das Problem, konnte es erst nicht Fullscreen einstellen. Warum auch immer.
PS: mit Ultra Settings hab ich jetzt zwischen 80 und 95 fps in 4k. Und es sieht weiterhin einfach irre aus. Keine Ahnung was da Cinematic noch visuell draufschlagen soll das eine Framerate Halbierung rechtfertigt.
PPS: Will Spiele in dieser Grafikqualität!:D
Snoopy69
2025-07-14, 22:10:16
:up:
Snoopy69
2025-07-16, 17:23:45
GAINWARD GeForce RTX 5090 Phantom 32G für "schmale" 2.039€ :freak:
https://www.alza.at/gainward-geforce-rtx-5090-phantom-32g-d12804902.htm
TobiWahnKenobi
2025-07-16, 19:06:44
ich bin zwar seit vielen vielen monden weg von gainward/palit aber eine 5090 ist eine 5090.. besser als anderen GPUs am markt sind alle.
(..)
mfg
tobi
Snoopy69
2025-07-16, 19:17:00
Zumal es dafür den "Heatkiller V Ultra" gibt...
Abgesehen davon - ein Luxxer hat seine Astral hergegeben und die Gainward behalten, weil die anscheinend sehr gut geht (erst hatte die zuerst und irgendwann eine Astral bekommen)
basix
2025-07-16, 19:30:14
Also mit PhysX über CPU avg 78fps und min 52fps ist doch vollkommen in Ordnung. Natürlich nicht perfekt für 120-240Hz Monitore aber zumindest muss man keine zweite Karte für solche Spiele einbauen.
Skaliert das jetzt mit mehreren Cores und AVX2?
TobiWahnKenobi
2025-07-16, 20:10:19
Zumal es dafür den "Heatkiller V Ultra" gibt...
Abgesehen davon - ein Luxxer hat seine Astral hergegeben und die Gainward behalten, weil die anscheinend sehr gut geht (erst hatte die zuerst und irgendwann eine Astral bekommen)
von mir aus. jedes auto fährt 200, trotzdem hat jeder so seine vorlieben bei den marken. gainward und palit sind schon immer billiger krempel gewesen.
für gleichschnelle karten allerdings x-hundert euro mehr bezahlen, wenn man die sonderfeatures für verzichtbar hält; das gibts doch nur unter den schönen und reichen im luxx. wundert mit, dass sich jemand traut das dort zu posten.
an der astral finde ich schon den namen scheisse.
so, um auch noch was abseits von geschmack zum besten zu geben: was sagen die foren dieser welt.. wie oft muss ich die 5090 pro woche huldigen und wie oft huldigt ihr eure karte, damit sie immer optimal läuft? gebt ihr den karten namen und begrüßt ihr sie, wenn der rechner sauber hochgefahren ist.. wie etwa morgens den hund oder das auto nachm aufstehen und einsteigen?
(..)
mfg
tobi
Snoopy69
2025-07-16, 21:24:18
Der Name ist mir völlig Wurscht - kann meinetwegen auch "Scheiß-GPU" heißen, wenn die Leistung stimmt und bezahlbar ist. Würde auch die Astral nehmen, aber der Aufpreis war es mir nicht wert. Mit meiner Jetzigen 5090 putze ich jede andere GPU weg, wenn ich will
Und huldigen tue ich ihr nicht - es ist ihr verdammter Job fps zu schubsen :freak:
Blase
2025-07-16, 21:33:36
Es gibt sicherlich Gründe, "höherwertige" bzw. schlicht teurere Modelle zu nehmen. Sei es, weil die Maße eines eher schlanken bzw. kurzen Gehäuses eingehalten werden mussten, oder Wert auf Optik gelegt wird und ein Sichtfenster einen bestimmten Blick offenbaren soll, oder meinetwegen auch weil sehr hochwertige Komponenten / Kühler etc. das "rechtfertigen".
Für mich kam nie einer dieser Gründe in Frage, weswegen ich überwiegend nach dem "billigsten" Modellen Ausschau gehalten habe. Meine Palit 4090 gabs zu UVP, wie jetzt auch die MSI 5090. Beide Karten bestenfalls messbar langsamer als andere Karten, die hunderte (!) Euro mehr kosten. Steht für mich in keinem Verhältnis. Wenn nVidia einen UVP ausruft, erwarte ich "meine" Karte auch ungefähr dafür. Und ich könnte über beide Karten aktuell nichts schlechtes berichten. Die Palit war super und auch die MSI macht bisher eine gute Figur in jeder Hinsicht.
Aber andererseits urteile ich auch nicht über andere. Ist ein Hobby und dafür sollte das Geld locker(er) sitzen als für andere Dinge. Wenn einem ein bestimmtes Modell ein paar Hunderter mehr wert sind "for no reasons", warum nicht ;)
MfG Blase
x-force
2025-07-16, 21:47:45
Abgesehen davon - ein Luxxer hat seine Astral hergegeben und die Gainward behalten, weil die anscheinend sehr gut geht (erst hatte die zuerst und irgendwann eine Astral bekommen)
in hinblick auf maximalen takt schlägt silicon lottery bei blackwell jede kühllösung.
upselling points muss man mit der lupe suchen.
Snoopy69
2025-07-16, 21:54:54
in hinblick auf maximalen takt schlägt silicon lottery bei blackwell jede kühllösung.
upselling points muss man mit der lupe suchen.
Falsch!!!
Du kannst ein "Golden Sample" haben und eine beschissene GPU macht sie platt :freak:
@Blase
Hätte ich noch keine 5090, hätte ich mich um diese Gainward (oder Palit) für um die 2.000€ bemüht. Dann noch meinen Wunschblock (HK V Ultra) drauf, und ich wäre zufrieden
hq-hq
2025-07-16, 22:02:51
der preis ist eigentlich echt okay oder 2000€ für ne 5090
meine 4090 ist jetzt 2,5 Jahre alt, das nötigt mich jetzt langsam - auch wegen den gefallenen Preisen - die alte zu ersetzen...
nur würd ich nie ne Gainward kaufen
hat jemand diese MSI Vanguard 5090 die das PCB der suprim haben soll ?
Snoopy69
2025-07-16, 22:20:18
nur würd ich nie ne Gainward kaufen
Aber warum?
Oder kommt Wakü nicht in Frage?
hq-hq
2025-07-16, 22:56:49
mit WaKü ist es immer schwieriger später einen Käufer zu finden :biggrin:
ist was persönliches, hatte frühers mit Gainward und XFX Ärger
Palit ist okay, am liebsten hätte ich ne inno3d frostbite...
Schätze ich werd mal mit 8% Shoop bei Galaxus die Master Ice bestellen...
Optik ist nicht so wichtig... Wasserblockumbau wollte ich bei der 4090 Gaming OC immer machen aber keine Zeit, hab bald 3 Wochen Urlaub da würd es sich anbieten die 5090 zu testen
Sardaukar.nsn
2025-07-17, 05:29:03
mit WaKü ist es immer schwieriger später einen Käufer zu finden :biggrin:
Kann ich nicht bestätigen. In den letzten Jahren habe ich eine 1080ti, 3080 und 4090 auf Wasserkühlung umgebaut und nach ca zwei Jahren immer schnell und ordentlich verkaufen können. Original Luftkühler legst du ja eh dabei.
Snoopy69
2025-07-17, 10:34:56
Ich auch nicht...
Trotz Wakü und anderen Experimenten hab ich nach 2,5 Jahren sogar 50€ mehr bekommen, als die 4090 TUF kostete - dank Chinesen - das sind gute Käufer!!!
Die Karte wurde natürlich wieder auf Luft umgebaut...
@hq-hq
Wenn Wasser, welchen Block eigentlich? Bei Watercool hast du eh keine große Auswahl (Palit/Gainward/TUF)
Am Billigsten kommt man mit Barrow von "Ali" weg
hq-hq
2025-07-17, 14:11:32
hm, ihr habt sie auf Ebay verkauft ja....
also ich hatte bisher Barrow und mehrere Alphacool
bei Alphacool passt immer wieder mal was nicht weil die Qualitätskontrolle in China eher schlecht ist, würde ich aber wieder kaufen
bei der 5090 nimmt Gigabyte putty her ja, wär doch eigenltich sogar gut der lässt sich doch gut wiederverwenden und evtl gibt man noch was drauf
Snoopy69
2025-07-17, 14:14:33
Die Anleitung von Alphacool "Core" ist auch schlecht...
Wenn man die wörtlich nimmt, hat man automatisch schlechte Temperaturen. Für Wakü-Neulinge ist ALC daher nichts
btw:
Eine über EKA - die andere über ebay...
Bezahlung ging aber völlig an den Plattformen vorbei, weil Abholung mit Barzahlung (war für mich die beste Option)
Lehdro
2025-07-17, 14:23:18
hat jemand diese MSI Vanguard 5090 die das PCB der suprim haben soll ?
Ich habe die Vanguard SOC gekauft, allerdings hauptsächlich wegen dem Luftkühler, die Platine war mir bei der 5090 recht wurscht, die sind alle overbuilt (bis auf Spezialfälle wegen Spulenfiepen, ASUS halt).
Bin sehr zufrieden und würde die wieder kaufen. Allerdings muss der Aufpreis vernünftig ausfallen - was er derzeit nicht tut wenn es 5090er für knappe 2k € gibt. Ich habe damals ~200€ Aufpreis (über Mindstar) zur günstigsten verfügbaren 5090 bezahlt - das war es für mich wert. Mehr aber nicht.
Snoopy69
2025-07-17, 14:46:29
Die billigste 5090 ist gut genug...
Wenn man bestimmte Wasserblöcke will, ist die Auswahl natürlich geringer
Ob Billigste oder zb Astral - worst case kann die Astral schlechter performen. Ein Binning gibt es nicht
OC-Varianten sind auch unnötig. Bringt dem Hersteller nur mehr Geld ein
Coroner
2025-07-17, 15:37:44
Die Anleitung von Alphacool "Core" ist auch schlecht...
Wenn man die wörtlich nimmt, hat man automatisch schlechte Temperaturen. Für Wakü-Neulinge ist ALC daher nichts
Bin zwar kein WaKü-Neuling aber trotzdem neugierig was an der Anleitung nicht gut ist :smile:.
x-force
2025-07-17, 16:05:35
Ein Binning gibt es nicht
weil nv dafür bekannt ist monetäre potentiale nicht auszuschöpfen?
binning lässt sich nv garantiert nicht entgehen. schließlich verkaufen sie komplette dies inkl speicher.
nebenher sind mindestens die ersten modelle der top serien und der founders edition gebinnt, um die besten reviews zu fabrizieren.
Snoopy69
2025-07-17, 16:15:02
Für eigene GPUs vielleicht...
Andere Hersteller kriegen, was NV hergibt. Und diese binnen nichts
Snoopy69
2025-07-17, 16:17:37
Bin zwar kein WaKü-Neuling aber trotzdem neugierig was an der Anleitung nicht gut ist :smile:.
Was sagt dir die rechte Zeichnung?
https://www.hardwareluxx.de/community/attachments/1748621333499-png.1113307/
x-force
2025-07-17, 16:18:00
Andere Hersteller kriegen, was NV hergibt.
die bekommen was sie bestellen.
Und diese binnen nichts
würde ja auch keinen sinn machen, bzw nur innerhalb des top tiers, um dann speziell für sowas wie hof zu selektieren, da nv den job schon übernommen hat und entsprechende pakete schnürt.
wenn du das bezweifelst, brauchst du einen plausiblen grund, weshalb nv das wissen um die taktbarkeit und v/f kurve jedes einzelnen dies nicht nutzt, weil es mehr geld bringt alle in einen topf zu werfen!
Snoopy69
2025-07-17, 16:22:34
Das ist Quatsch...
Warum wohl hat der eine Luxxer seine Astral mit "gebinnter" GPU hergegeben? Nicht, weil sie "toll" war :wink:
Und glaubst du, dass alle OC-Versionen bessere (gebinnte) GPUs haben? :freak:
btw:
Bei der einzigen GPU, wo ich mir das vorstellen könnte (ich versuche es herauszufinden), wäre die Galax HOF mit deren 2.001W-BIOS
Ansonsten könnte man ~5.000€ nicht rechtfertigen
Naja, und bei der 6000 Pro...
Jmd hatte 16x 6000 Pro per Hand gebinnt. Davon ließ sich eine einzige 6000 Pro 50MHz höher takten. Aber...!!!
Hab unzählige Scores gesehen, bei denen auch GPUs mit wesentlich geringerem avg-Takt wesentlich höhere Scores erzielten - trotz gleicher avg-Temperatur
x-force
2025-07-17, 17:22:59
Das ist Quatsch...
Warum wohl hat der eine Luxxer seine Astral mit "gebinnter" GPU hergegeben? Nicht, weil sie "toll" war :wink:
Und glaubst du, dass alle OC-Versionen bessere (gebinnte) GPUs haben? :freak:
wenn du nochmal genau liest, wirst du feststellen, dass ich nichts davon behauptet habe. :wink:
ich warte übrigens noch auf die erklärung, weshalb es für nv mit deiner phantasie profitabler sei.
Snoopy69
2025-07-17, 17:29:14
ich warte übrigens noch auf die erklärung, weshalb es für nv mit deiner phantasie profitabler sei.
Wo hab ich das geschrieben?
Sardaukar.nsn
2025-07-17, 17:46:13
Die Anleitung von Alphacool "Core" ist auch schlecht...
Wenn man die wörtlich nimmt, hat man automatisch schlechte Temperaturen. Für Wakü-Neulinge ist ALC daher nichts
Kann ich für die Asus 5080 Prime nicht bestätigen. Der Block war prima verarbeitet, die Pads logisch beschriftet und vorgeschnitten. Die Anleitung auch problemlos verständlich. Da muss man sich schon sehr dämlich anstellen um da etwas falsch zu verstehen.
Snoopy69
2025-07-17, 17:59:24
Daher darf man die Anleitung nicht wörtlich nehmen :wink: (siehe Bild)
Coroner
2025-07-17, 18:32:14
Habe die Anleitung gerade vor mir liegen und checke nicht was Du meinst, ich kann sie wahrscheinlich nicht wörtlich nehmen bzw. umsetzen :lol:.
Was meinst Du genau? :smile:
Snoopy69
2025-07-17, 19:20:33
Na was würdest du tun?
Coroner
2025-07-17, 19:25:58
Du meinst die Zeichnung zu "PCB installieren" mit "rechte Zeichnung"?
So hart stand ich lange nicht mehr auf dem Schlauch ^^.
Snoopy69
2025-07-17, 20:00:36
Pfeile? :wink:
Coroner
2025-07-17, 20:26:01
Die Pfeile zeigen an wo man das PCB auf den Kühler legen muss ........................... ergo würde ich das PCB dementsprechend auf den Kühler legen ......................... ? Ich sehe nicht wie mich die Pfeile dazu verleiten das so zu machen ich deswegen schlechte Temps bekomme.
PLEASE sag' es mir einfach, ich komme sowieso nicht drauf was Du genau meinst und blamiere ich mit jedem post nur noch mehr ;D.
x-force
2025-07-17, 21:05:44
Wo hab ich das geschrieben?
entweder implizierst du das, oder du unterstellst jensen, dass er seinen gewinn nicht optimiert hat.
Snoopy69
2025-07-17, 21:28:14
K.A. was du meinst - zeig doch mal die Stelle
Snoopy69
2025-07-17, 21:29:01
Die Pfeile zeigen an wo man das PCB auf den Kühler legen muss ........................... ergo würde ich das PCB dementsprechend auf den Kühler legen ......................... ? Ich sehe nicht wie mich die Pfeile dazu verleiten das so zu machen ich deswegen schlechte Temps bekomme.
PLEASE sag' es mir einfach, ich komme sowieso nicht drauf was Du genau meinst und blamiere ich mit jedem post nur noch mehr ;D.
Steht alls da (rechte Zeichnung)...
Wie würdest du vorgehen?
x-force
2025-07-17, 21:49:54
K.A. was du meinst - zeig doch mal die Stelle
wenn nv nicht binned, lassen sie geld liegen
Snoopy69
2025-07-17, 22:12:46
Für Profi und Enterprice (zb 6000 Pro) könnte ich mir das vorstellen - nicht aber für die Minderheit (uns)
x-force
2025-07-18, 02:08:36
Für Profi und Enterprice (zb 6000 Pro) könnte ich mir das vorstellen - nicht aber für die Minderheit (uns)
du kannst es auch von einer anderen seite betrachen:
es findet zwangsläufig ein binnung statt, um die v/f curve festzulegen.
Snoopy69
2025-07-18, 08:16:01
Ich meinte Binning von Hand, um „OC-Perlen“ zu finden
Coroner
2025-07-18, 11:59:56
Steht alls da (rechte Zeichnung)...
Wie würdest du vorgehen?
Naja, so wie es auf der Zeichnung zu sehen ist?
Ich sehe es ja dann wenn es soweit ist und ich die 5090 zerlegt habe, es gibt ja keine zehn verschiedenen Möglichkeiten den Kühler zu montieren :smile:.
hq-hq
2025-07-18, 12:07:36
hat Gigabyte bei der 4090 Master nicht sogar auch besseren GDDR verbaut, ich weiss aber nicht ob NV das so gleich angeboten hat :freak:
beim Funktionstest und sogar schon beim Zerteilen des Wavers könnte NV selektieren (die Chips am Rand gehen z.B. in günstigere Lose wenn es solche gäbe)
und zuletzt, insofern die PCBs und die Bestückung bei den unterschiedlichen Modellen gleich sind, kann der Grafikkartenhersteller bei seinem Funktionstest selektieren und bei den Karten mit besseren Werten die dicken Kühler montieren und das OC Bios flashen
- also ich hab mir mal die Master Ice bestellt und die Shoop Erfassung ist wie immer gescheitert bei Galaxus, aber jede Nachbuchung war bisher erfolgreich
- ohne die 8% hätte ich mir die MSI Vanguard geholt im Mindstar für 2399€
--- edit
und zu Alphacool, falsche/fehlende Schraube bei mir, Spähne bzw. Zinnreste....
oder die original Befüllung der Eisbär wurde zu einer flockigen Brühe nach ca. 2 Jahren und hat die Pumpe verstopft :-D
auf der Arbeit auch fehlende/falsche Schrauben, Pumpenfilter falsch montiert, Kupferspähne, Stahlspähne... also bei ca. 5% ist immer ein Problem
muss man immer genau hinschauen und den Job der chinesischen Qualitätskontrolle selber erledigen
manchmal kann man davon profitieren wenn es z.B. hunderte Radiatoren gibt die Schäden aufweisen und dafür günstiger abgegeben werden...
Snoopy69
2025-07-18, 12:49:49
Naja, so wie es auf der Zeichnung zu sehen ist?
Ich sehe es ja dann wenn es soweit ist und ich die 5090 zerlegt habe, es gibt ja keine zehn verschiedenen Möglichkeiten den Kühler zu montieren :smile:.
Wenn du es genau, wie auf der Zeichnung (rechts) machst, ist es falsch :freak:
Snoopy69
2025-07-18, 12:53:25
@hq-hq
Gefehlt hat beim „Core“-Block nichts…
Ist auch für den Preis angemessen ordentlich verarbeitet und sauber
Kühlleistung ist auch top, mit 12K Delta T (mit LM)
x-force
2025-07-18, 14:01:17
Ich meinte Binning von Hand, um „OC-Perlen“ zu finden
lol, etwas naiv das überhaupt erst anzunehmen :freak:
das ist nicht mehr nötig.
prozesstechnisch hat sich einiges getan.
wie gesagt nv weiß was jeder einzelne chip kann, weil sie den eh gemessen haben, um die v/f curve festzulegen.
Coroner
2025-07-18, 15:44:04
Wenn du es genau, wie auf der Zeichnung (rechts) machst, ist es falsch :freak:
Sag' mir doch einfach was Du mit "falsch" genau meinst ..................... ich bin mir ja noch nicht mal sicher dass wir von derselben Zeichnung reden da in der aufgeklappten Anleitung auf der rechten Seite drei Zeichnungen ("Wärmeleitpaste auftragen", "PCB installieren" und "Wärmeleitpads auf der PCB-Rückseite platzieren") sind :D.
Snoopy69
2025-07-18, 15:47:23
lol, etwas naiv das überhaupt erst anzunehmen :freak:
das ist nicht mehr nötig.
prozesstechnisch hat sich einiges getan.
wie gesagt nv weiß was jeder einzelne chip kann, weil sie den eh gemessen haben, um die v/f curve festzulegen.
Funktioniert aber ziemlich schlecht, wenn man die „Perle“ sucht :ulol:
Oder denkst du, dass manche User sich umsonst zig CPUs und GPUs zuschicken lassen? :wink:
Um „Handverlesung“ kommt man nicht herum, wenn man das Beste haben will. Für Normalgebrauch (Gaming) natürlich sinnfrei…
Snoopy69
2025-07-18, 15:51:11
Sag' mir doch einfach was Du mit "falsch" genau meinst ..................... ich bin mir ja noch nicht mal sicher dass wir von derselben Zeichnung reden da in der aufgeklappten Anleitung auf der rechten Seite drei Zeichnungen ("Wärmeleitpaste auftragen", "PCB installieren" und "Wärmeleitpads auf der PCB-Rückseite platzieren") sind :D.
Es ging diese Zeichnung mit der Frage…
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13785699&postcount=1845
Du bist tatsächlich der Erste, der trotzdem weitere Fragen stellt :freak:
wie gesagt nv weiß was jeder einzelne chip kann, weil sie den eh gemessen haben, um die v/f curve festzulegen.
Dei Frage ist ob die nur elektrisch messen (high / low asic) oder konkret das Taktverhalten bestimmen. Und wenn letzteres würde ich auch nur auf nen Testpfad im Chip tippen und nicht auf ein Vollast-Testprogramm, bei dem sich der schwächste Gatter entpuppt.
Coroner
2025-07-19, 12:31:21
Es ging diese Zeichnung mit der Frage…
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13785699&postcount=1845
Du bist tatsächlich der Erste, der trotzdem weitere Fragen stellt :freak:
Ist es wirklich so schwierig mir einfach zu sagen auf welche der DREI Zeichnungen auf der rechten Seite der Anleitung Du Dich beziehst und was genau Du mit "falsch" meinst? :freak: :smile:
Snoopy69
2025-07-19, 12:35:21
Es ist Zeichnung „2“ (siehe Beitrag)
Will nur wissen, was Du tun würdest. Wenn ich es dir vorsage, wird AC nichts an der Anleitung ändern
hq-hq
2025-07-20, 02:57:51
die 5090 Master "Ice" ist heute gekommen, dachte in weiss sieht man es optisch besser wenn der weisse 12VHPWR Stecker schwarz wird :biggrin:
ziemlich ähnlich wie die alte 4090 Gaming OC aber halt 2cm länger und mehr blinki blinki
bei ca. 600Watt macht die Karte Geräusche wie ne alte 2,5" mechanische Laptopfestplatte
hoffentlich hab ich im Urlaub bissl Zeit zum Zocken, neben Garten anlegen und Kinder bespaßen
edit: aja den zusätzlichen Lüfter wollte ich erst anbringen, habs dann aber gelassen... bei der 4090 Gaming OC hatte ich einige Zeit einen 120mm Lüfter an der gleichen Position aber ist nicht so nützlich wie es erst aussieht.
Snoopy69
2025-07-20, 15:38:42
PALIT GeForce RTX 5090 GameRock 32G - 2.059€ (für AT)
https://www.alza.at/palit-geforce-rtx-5090-gamerock-32g-d12806979.htm
hq-hq
2025-07-20, 19:20:43
bzgl. UV,
wieviel realen GPU Takt in z.B. 3dmurks SpeedWay kann man mit z.B. 0,875V
erreichen?
aus z.B. 2617MHz bei 0,885V werden 2505-2520MHz :confused:
ab 0,875V schaff ich es grade nicht die Curve abzuflachen :redface:
https://www.3dmark.com/3dm/138282956?
zeigt aber trotzdem 0,875V an... so richtig viel kann man damit nicht einsparen,
in SpeedWay zieht er trotzdem 500Watt durch
kann jemand seinen Erfahrungsschatz mit mir teilen bitte?
Snoopy69
2025-07-20, 19:54:31
Was ist dein Ziel?
hq-hq
2025-07-20, 20:00:00
wie die RTX Karten davor soll sie mit maximal möglichem UV laufen
die 4090 Karten davor lagen so bei 2535 bis 2580MHz
wie liegen die 5090 bei der niedrigst möglichen VCore (niedrigst mögliche VCore war bisher 0,875v)
-> der Curve Editor hat Probleme über ca. +1035MHz, 0,850V mit 2317MHz geht auch aber ich kann denn wegen den ersten ca. 15 Punkten in der Curve nicht höher ziehen weil die sonst deutlich über +1000MHz geraten und man die curve auch nicht beliebig stark ansteigen lassen kann
Eine RTX 4090 lässt sich sogar auf 855 Millivolt drücken, allerdings erst nach Durchwärmung. Das reicht dann bei einer guten GPU noch für knapp 2,4 GHz (meine scheitert knapp daran, habe sie ca. 1337 Stunden stabil auf 2.325 MHz laufen). Weniger habe ich noch nicht gesehen. So und so ist mir das bei GB202 auch noch nicht gelungen, die saufen im Vergleich wie schwarze Löcher.
MfG
Raff
Snoopy69
2025-07-20, 20:32:21
Ich würde den Takt, der 4090 nicht als Vergleich hernehmen. Unter 850mV ist schwierig bei meiner TUF - daher 900mV und zusätzlich FPS-Limit (wenn ich es brauche)
Das hier waren 900mV…
ZTJ1sR1E2nY
hq-hq
2025-07-20, 20:34:25
mein Problem ist, ich kann die Curve nicht höher ziehen er nimmt es nicht an
irgendwann springen auch die ersten Punkte nach oben ausserhalb der Skala
---
okay mehr lässt sich aktuell nicht einstellen, effektiv in SpeedWay
0,855V @ 2272MHz -> 12843 knapp 400Watt https://www.3dmark.com/sw/2524689
0,875V @ 2520MHZ -> 14436 knapp 500Watt https://www.3dmark.com/sw/2524271
mit den beiden Curves werd ich mal zocken
Coroner
2025-07-21, 19:05:00
An die WireView- und CapFrameX-Benutzer: zeigt CapFrameX bei euch auch einen zu geringen Verbrauch an?
Ich hatte CapFrameX letztens beim Spielen von Avatar mitlaufen lassen und es hat mir einen Verbrauch von ~578 W angezeigt während auf dem WireView-Display bis zu 605 W angezeigt wurden und die Karte voll im powerlimit hing.
Der idle-Verbauch ist bei GPUZ und WireView fast gleich, daher denke ich das CapFrameX Mist misst, muss mir das unter Last nochmal genauer angucken wie es dann ist.
Es ist Zeichnung „2“ (siehe Beitrag)
Will nur wissen, was Du tun würdest. Wenn ich es dir vorsage, wird AC nichts an der Anleitung ändern
Dann wäre es ja fast besser wenn Du es mir nicht sagst, ich es verkacke und meinem Ärger dann hier Luft mache :lol:.
Wenn ich die 5090 zerlegt habe sehe ich bestimmt was Du meinst.
hq-hq
2025-07-21, 23:38:49
nach ein paar Stunden Vanguard kann man mit der 5090 nochmal gut "Strom sparen" im Vergleich zur 4090
Vanguard, 2160p ausser Raytracing alles auf max gestellt, 116FPS Lock im Treiber
Die 4090 auf 0,885V UV bei 2505MHz ~240Watt
Die 5090 auf 0,845V UV bei 2175MHz ~205Watt
Die 5090 stock 1,070V bei 2962MHz ~325 Watt
irgendwie klappt es aber nicht so ganz die Curve "untenrum" so einzustellen wie ich es gern hätte, ist auch komisch wenn man den 0.850V Punkt auf +1167MHz hochzieht, du kannst die Punkte davor anscheinend nur in bestimmten Taktabständen mit hochziehen und wenn man zuviel schiebt verschwinden sie ausserhalb der Skala
die Engine bei Vanguard ist IMHO eine der empfindlichsten, Cyberpunkt hatte mit der 4090 eigentlich 0.875V und 2535MHz gemacht aber bei Vanguard kam ab und zu ein Absturz
Langlay
2025-07-21, 23:53:30
irgendwie klappt es aber nicht so ganz die Curve "untenrum" so einzustellen wie ich es gern hätte, ist auch komisch wenn man den 0.850V Punkt auf +1167MHz hochzieht, du kannst die Punkte davor anscheinend nur in bestimmten Taktabständen mit hochziehen und wenn man zuviel schiebt verschwinden sie ausserhalb der Skala
Das scheint eine Beschränkung von Blackwell zu sein. Du kannst die einzelnen Punkte maximal um ~1000MHz nach oben schieben. Bei meiner 5090 Astral OC geht maximal +1080MHz, alles was höher ist wird nicht übernommen.
Nervt mich auch etwas. Ich hätte gerne noch ein 800mV Setting gehabt, aber mit <1.8 GHz Gametakt hab ich dann 4090 UV Leistung bei 4090 UV Verbrauch. Also da hat sich der Wechsel dann so richtig geholt. Und wenn ich mit 900mV ~2.8GHz fahren kann. sollte doch mit 800mV gut über 2 GHz drin sein. Diese "Bevormundung" geht mir schon ziemlich aufn Sack.
hq-hq
2025-07-22, 00:04:52
naja der Wechsel hat sich für Vanguard sowieso nicht gelohnt, wenigstens kann ich es im Sommer mit weniger Abwärme zocken...
die Astral hat +203MHz Boost, die Master +248MHz -> 45MHz
gestern warens bei mir max +1035MHz, zählst du die 45 dazu sind es die 1080 ....
die +1167MHz von 0.850v nutzt er aber ja nicht bei mir, er nimmt 0.845 der liegt bei +1035
hq-hq
2025-07-22, 22:23:56
gibts einen anderen Weg als die CheatEngine um im Afterburner z.B. permanent das RAM Limit von 2000MHz aufzuheben?
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93694&stc=1&d=1753215814
x-force
2025-07-22, 22:56:32
gibts einen anderen Weg als die CheatEngine um im Afterburner z.B. permanent das RAM Limit von 2000MHz aufzuheben?
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93694&stc=1&d=1753215814
eigentlich erlaubt die neuste version +3000, vorher musste man eine datei per hand ersetzen.
interessant wäre, ob mit der cheatengine auch mehr als 3000 gehen :D
hq-hq
2025-07-22, 23:37:20
eigentlich erlaubt die neuste version +3000, vorher musste man eine datei per hand ersetzen.
interessant wäre, ob mit der cheatengine auch mehr als 3000 gehen :D
jo
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93695&stc=1&d=1753220223
beta 5 ist nicht die neueste... hm
x-force
2025-07-23, 02:33:06
beta 5 ist nicht die neueste... hm
ne, beta 5 braucht den erwähnten fix
MSI Afterburner v4.6.6 Beta 6 Build 16591:
- Extended +3000MHz memory clock overclocking range tweak for NVIDIA RTX 5000 series graphics cards, which was available as separately downloadable hardware database for the previous beta, is now integrated into distributive.
übernimmt er den takt wirklich?
im afterburner solltest du damit über 17000mhz kommen
hq-hq
2025-07-23, 07:09:06
Wars bei der 2080ti oder 3090, da gings. Kann ich heute Abend mal testen, bei +3000 scheinen aber die min FPS zu stagnieren, AVG FPS gehen noch mit. Von 3500 erwarte ich nicht mehr viel...
ChaosTM
2025-07-23, 07:36:56
-> In GPU-Z nachschauen - bleibe aber bei +2000*.
An Bandbreite mangelt es der Karte wahrlich nicht.
*mal schaun, vielleicht knack ich damit ja die 40k bei Port Royale ^^
hq-hq
2025-07-23, 08:06:13
aah scheint doch nicht zu gehen, 2125MHz ingame :freak:
https://www.3dmark.com/3dm/138429704?
The_Invisible
2025-07-23, 09:36:04
>2TB/s Speicherbandbreite sind schon geil irgendwie :D
mironicus
2025-07-23, 11:22:33
Mich würde interessieren ob die höhere Bandbreite bei LLM oder generativer KI hilft.
SamLombardo
2025-07-23, 15:37:52
Hehe da lese ich mal ein bisschen aus langer Weile im Luxx rum und was ich sehe ich da für eine Argumentation von Slipknot bzgl der Kosten von Grafikkarten
https://www.hardwareluxx.de/community/threads/nvidia-geforce-rtx-5090-faq.1361567/post-30650656
Lol irgendwie wenn man an die endlosen Diskussionen hier denkt:).
Lehdro
2025-07-23, 16:06:00
Hehe da lese ich mal ein bisschen aus langer Weile im Luxx rum und was ich sehe ich da für eine Argumentation von Slipknot bzgl der Kosten von Grafikkarten
Busted! Richtiger Troll :redface:
Slipknot79
2025-07-24, 01:50:24
Meine Stalker sollten auch lernen Zusammenhänge zu verstehen. Wenigstens um die jährlich katastrophalen PISA-Studien-Ergebnisse in der Kategorie Lesekompetenz etwas zu pimpen. Die Kategorie Mathematik ist dank der Schönrechnereien ja ohnehin nicht mehr zu retten :redface: (y)
Lehdro
2025-07-24, 14:36:01
Meine Stalker sollten auch lernen Zusammenhänge zu verstehen. Wenigstens um die jährlich katastrophalen PISA-Studien-Ergebnisse in der Kategorie Lesekompetenz etwas zu pimpen. Die Kategorie Mathematik ist dank der Schönrechnereien ja ohnehin nicht mehr zu retten :redface: (y)
Wenn du gut dort abgeschnitten hättest, wäre dir sicher aufgefallen das hier niemand mehr in den PISA Studien auftauchen wird, aber einige durchaus mit Mathe oder Buchhaltung beruflich zu tun haben. :wink:
Dimon
2025-07-24, 18:43:20
Guten Abend 3dc´ler,
kann mir einer berichten wie gut eine MSI RTX 5090 Ventus 3X ist?
Finde zu dem Kärtchen rein garnichts, hat jemand zufällig eine? :biggrin:
Viele Grüsse
SamLombardo
2025-07-24, 18:49:57
Guten Abend 3dc´ler,
kann mir einer berichten wie gut eine MSI RTX 5090 Ventus 3X ist?
Finde zu dem Kärtchen rein garnichts, hat jemand zufällig eine?
Viele Grüsse
Hab diese und finde sie klasse. Meine fiept nicht, rasselt nicht, rauscht halt so vor sich hin ohne störende Geräusche. Die OC Granate soll sie nicht sein, aber da ich eh nur UV wollte ist mir das egal. Ich kann sie empfehlen!
Blase
2025-07-24, 18:49:59
Da die Karte kürzlich unterhalb UVP angeboten wurde, haben hier mindestens zwei Personen zugeschlagen. Ich war eine davon.
Ich kann aber relativ wenig beisteuern, schätze ich. Habe mich bisher noch Null mit dem Thema UV beschäftigt. Kann also nix zu diesen Themen sagen. ootb ist die Karte aber absolut unauffällig. "Dank" meinem gedämmten Gehäuse, drehen die Lüfter bei steigender Last ganz ordentlich auf, was man dann auch hört. Ich würde aber meinen, dass ich das eben mit UV noch weitestgehend in den Griff bekomme. Letztlich stört es mich so oder so aber eher weniger. Gibt aber sicherlich leisere Karten da draußen. Spulenfiepen habe ich bisher keines wahrgenommen.
Ich würde die Karte jedenfalls jedem bedenkenlos empfehlen, der nahe UVP bezüglich der 5090 ausgeben möchte.
MfG Blase
TobiWahnKenobi
2025-07-24, 18:58:28
ich hatte die Ventus 3x OC und die kam mit 2GHz base, 2,4GHz boost und liess sich noch um 400MHz manuell übertakten. VRAM schaffen alle 5090 2125MHz.
(..)
mfg
tobi
Dimon
2025-07-24, 18:58:52
Hab diese und finde sie klasse. Meine fiept nicht, rasselt nicht, rauscht halt so vor sich hin ohne störende Geräusche. Die OC Granate soll sie nicht sein, aber da ich eh nur UV wollte ist mir das egal. Ich kann sie empfehlen!
Da die Karte kürzlich unterhalb UVP angeboten wurde, haben hier mindestens zwei Personen zugeschlagen. Ich war eine davon.
Ich kann aber relativ wenig beisteuern, schätze ich. Habe mich bisher noch Null mit dem Thema UV beschäftigt. Kann also nix zu diesen Themen sagen. ootb ist die Karte aber absolut unauffällig. "Dank" meinem gedämmten Gehäuse, drehen die Lüfter bei steigender Last ganz ordentlich auf, was man dann auch hört. Ich würde aber meinen, dass ich das eben mit UV noch weitestgehend in den Griff bekomme. Letztlich stört es mich so oder so aber eher weniger. Gibt aber sicherlich leisere Karten da draußen. Spulenfiepen habe ich bisher keines wahrgenommen.
Ich würde die Karte jedenfalls jedem bedenkenlos empfehlen, der nahe UVP bezüglich der 5090 ausgeben möchte.
MfG Blase
Besten dank euch! Da ich besonders viel UV betreibe, wird es wahrscheinlich diese Karte werden (evtl. findet sich ja noch eine billigere) :cool:
Bei der RTX 4090 hatte ich 860mV bei 2400mhz eingestellt, diese hatte einen verbrauch von ca. 270W
@blase: Kann dir UV nur empfehlen :)
Viele Grüsse
Blase
2025-07-24, 19:20:19
@Dimon, du bist deine 4090 also noch gut los geworden? Freut mich :up:
Ich meine, dass es "keine" 5090 aktuell da draußen gibt, die in irgend einer Sache richtig schlecht ist. Vorsichtshalber kannst du ja noch einmal im Netz diesbezüglich stöbern. Aber so gesehen machst du mit keiner Karte etwas falsch. Ich habe hier auch mehr oder minder ausschließlich auf den Preis geachtet. Die MSI hat mich 2.209€ gekostet. Hätte auch jede andere zu dem Kurs genommen. Und wenn du eh ausgiebig UV betreiben möchtest (werde ich auch noch, bisher nur keine Muße dazu gehabt :tongue:), bekommst du deine Karte ja ohnehin so, wie du sie brauchst...
MfG Blase
RoughNeck
2025-07-26, 04:20:20
Ich hatte die Ventus X3 auch schon.
Ist halt eine Karte ohne viel Schnick Schnack, läuft auf Level der Founders Edition und ist ähnlich laut. Spulenfiepen hatte die Karte erst jenseits der 400 FPS und das war auch nicht aufdringlich.
Die AORUS Master welche ich jetzt hab ist genau das Gegenteil. Die Karte will auffallen, kühlt super und ist im Quiet BIOS auch leise und verhält sich beim Spulenfiepen so wie die Ventus, sprich erst ab so 400 FPS kann man ein leises fiepen hören.
SamLombardo
2025-07-26, 07:59:40
Ich hatte die Ventus X3 auch schon.
Ist halt eine Karte ohne viel Schnick Schnack, läuft auf Level der Founders Edition und ist ähnlich laut. Spulenfiepen hatte die Karte erst jenseits der 400 FPS und das war auch nicht aufdringlich.
Die AORUS Master welche ich jetzt hab ist genau das Gegenteil. Die Karte will auffallen, kühlt super und ist im Quiet BIOS auch leise und verhält sich beim Spulenfiepen so wie die Ventus, sprich erst ab so 400 FPS kann man ein leises fiepen hören.
Sie ist schon deutlich kühler als die Founders Edition. 69 Grad (Speicher 82) war das höchste was ich unter Volllast gesehen habe. Meistens liegt sie -auch in anspruchsvollsten Spielen- nochmal deutlich darunter. Das was man da von der FE liest (80, Speicher 96:eek:) ist dann doch ein anderes Kaliber.
RoughNeck
2025-07-26, 08:21:09
Alles auf Stock belassen oder schon undervolt?
Für Stock kommt mir das kühl vor, meine hatte Stock 74° GPU und undervolt 2700 MHZ GPU mit 0,9V unter Last hatte der Chip knapp unter 70°, schwankte da immer so zwischen 68 - 70°.
Auf dauer war mir die Karte zu laut, die AORUS Mater wäre mir auch zu laut wenn diese kein Silent Bios hätte. Kann die Hersteller nicht verstehen warum man ein Performance Bios macht und die Min Drehzahl der Lüfter so hoch ansetzt, das ist nicht notwendig.
SamLombardo
2025-07-26, 08:29:00
Alles auf Stock belassen oder schon undervolt?
Für Stock kommt mir das kühl vor, meine hatte Stock 74° GPU und undervolt 2700 MHZ GPU mit 0,9V unter Last hatte der Chip knapp unter 70°, schwankte da immer so zwischen 68 - 70°.
Auf dauer war mir die Karte zu laut, die AORUS Mater wäre mir auch zu laut wenn diese kein Silent Bios hätte. Kann die Hersteller nicht verstehen warum man ein Performance Bios macht und die Min Drehzahl der Lüfter so hoch ansetzt, das ist nicht notwendig.
Ah das war mein Fehler natürlich. Sorry:redface:. UV mit 2850mhz@0.925 Volt. Stock Werte hab ich nicht da ich gleich von Anfang an UV betreiben habe. Dann ist meine Aussage von eben natürlich irrelevant.
RoughNeck
2025-07-26, 09:52:40
Dacht ich mir schon.
Undervolt wäre bei meiner sicher mehr gegangen aber am Anfang waren die Treiber so schlecht, da wusst ich nicht ob es vom undervolt oder vom Treiber kommt.
PingpiN
2025-07-26, 11:11:06
Würde eine 5090 problemlos mit ein Corsair rm850 Watt Netzteil laufen? Ich würde die 5090 mit 70 % PW Limit laufen lassen. Später mit UV wenn ich mich reingefuchst habe. Kann man auf jeder 5090 ein anderes BIOS Flaschen? Würde dann ein BIOS nehmen mit der niedrigsten Lüfterdrehzahl. Mein Prozessor ist ein 5800 x3d. Möchte mir nur ungern ein neues Netzteil kaufen obwohl das auch kein Problem wäre.
ChaosTM
2025-07-26, 11:23:53
Meine Lauft mit einem 850er Bequiet bisher problemlos. Selbst bei längeren 600W Sessions.
ZeroStrat
2025-07-26, 12:31:24
An die WireView- und CapFrameX-Benutzer: zeigt CapFrameX bei euch auch einen zu geringen Verbrauch an?
Ich hatte CapFrameX letztens beim Spielen von Avatar mitlaufen lassen und es hat mir einen Verbrauch von ~578 W angezeigt während auf dem WireView-Display bis zu 605 W angezeigt wurden und die Karte voll im powerlimit hing.
Der idle-Verbauch ist bei GPUZ und WireView fast gleich, daher denke ich das CapFrameX Mist misst, muss mir das unter Last nochmal genauer angucken wie es dann ist.
Ich habe heute mal unterschiedliche Sensorquellen überprüft.
https://i.imgur.com/EwKqH8R.png
1. Nvidia Overlay
2. Hwinfo
3. CapFrameX
4. Powenetics v2
Das sieht ziemlich konsistent aus. Man muss natürlich aufpassen, dass die Apps unterschiedlich samplen/updaten. Bietet WireView Average Messwerte an?
Snoopy69
2025-07-26, 13:09:26
Müsste ich nachgucken (geht erst heute Abend)…
Wo ich mir sicher bin - min und max
Und eben current (Watt) mit 3 verschiedenen Abtastraten (29µs - 1ms - 200ms <—ist Standard)
Timolol
2025-07-26, 14:20:44
Wie isn das mit den Anschlüsen? Ich blick das irgendwie nicht so recht. Ich hab nen 850W Enermax Revolution 2. Das ist gar nicht mal so alt. Laut Tests geht das auch bis über 1000W. Aber so viele freie Anschlüsse hab ich gar nicht. Aktuell hängen an 2anschlüssen (glaube ich) die rtx 3090 dran. HPWR Anschluss kam erst beim Nachfolger…
Frage nur interessehalber wie man da die Karte dran bekommt ohne Kabelgewurschtel.
hq-hq
2025-07-26, 14:25:44
Wie isn das mit den Anschlüsen? Ich blick das irgendwie nicht so recht. Ich hab nen 850W Enermax Revolution 2. Das ist gar nicht mal so alt. Laut Tests geht das auch bis über 1000W. Aber so viele freie Anschlüsse hab ich gar nicht. Aktuell hängen an 2anschlüssen (glaube ich) die rtx 3090 dran. HPWR Anschluss kam erst beim Nachfolger…
Frage nur interessehalber wie man da die Karte dran bekommt ohne Kabelgewurschtel.
ja das Problem hab ich auch, hab halt die vier Stränge mit Kabelbinder unten im Gehäuse zusammengebunden und dann laufen die vier vom 12VHPWR optisch sichtbar nach unten... aber bis auf meine Kinder schaut da keiner durch die Scheibe
könntest auch alles in ein >Braided Cable Sleeve< packen
zukünftig könnte das komplett wegfallen, wär halt schön wenn es einen Standard gäbe, Gigabyte, MSI und Asus bauen glaub ich alle an ihrer eigenen Lösung mit einem zusätzlichen Stecker am Mobo ... BTF... Stealth... Zero irgendwas... weiss jemand ob die kompatibel sind habs bisher nur auf Bildern gesehen
93730
Timolol
2025-07-26, 14:31:30
Ich hab nur custom kabel drin. Selber getüdelt. Obwohl das Gehäuse zu ist.
Nen fetten Kabelbaum von so ner Karte geht bei mir glaube ich nicht oder nur schwerlich ins Gehäuse rein.
Ich mach nachher mal nen Foto vom Netzteil.
hq-hq
2025-07-26, 14:37:44
naja so schlimm ist es jetzt nicht, hab aber kein kleines Gehäuse
mit nem Custom Kabel siehts natürlich viel besser aus und braucht viel weniger Platz... nur würd ich wegen dem "12VHPWR am Limit ohne Überwachung" Problem nur das beigelegte Kabel verwenden wollen...
Timolol
2025-07-26, 14:45:50
Möglich? Wie wird das adaptiert? Meine Gehäuse ist kleiner. Würde max die kurze Wakü version reinbekommen. Müsste ich messen obs zwecks der breite geht.
hq-hq
2025-07-26, 14:51:46
na mit den 12V1, 12V2, 12V3 und 12V4
die vier laufen dann zusammen am https://m.media-amazon.com/images/I/71jPpC+47iL._UF894,1000_QL80_.jpg
wenn die Leitungen noch lang sind musst du die eh zusammenbinden,
hab noch ein kleines Jonsbo Alugehäuse da wirst nicht glücklich
alternative so Cable Mod oder evtl. direkt von Enermax also die Enermax Netzteilanschlüsse direkt auf 12VHPWR ( https://enermaxusa.com/products/revolution-df-12vhpwr-cable ) aber davon rate ich wegen den 600Watt ab
https://enermaxusa.com/cdn/shop/files/12vhpwr_cable_prod001.jpg?v=1686952987&width=1600
Langlay
2025-07-26, 15:03:00
alternative so Cable Mod oder evtl. direkt von Enermax also die Enermax Netzteilanschlüsse direkt auf 12VHPWR ( https://enermaxusa.com/products/revolution-df-12vhpwr-cable ) aber davon rate ich wegen den 600Watt ab
Sollte ungefährlich sein, 2x 8 Pin hat immernoch mehr Sicherheitsspielraum als 1x 12VHPWR.
Ich hab ein 850W SFX Netzteil mit 3x8 Pin auf 12VHPWR und das funzt auch mit der 5090 ohne Probleme.
Timolol
2025-07-26, 15:07:41
https://www.formulamod.com/16AWG-12VHPWR177inch-PCI-e-50-16pin124-Cable-To-2X8-Pin-Male-To-Female124-pin-For-509050805070409040804070-With-CombsSingle-Cable-p6398069.html ?
Gibts auch mit 4 Stecker. Da müsste ich aber erst das Gehäuse auffriemeln. Würde mich nicht wundern wenn die nicht zugänglich sind. Edit, falsche stecker.
hq-hq
2025-07-26, 15:07:52
mir gehts ja nur um das begelegte Kabel, wobei
bei der Gigabyte 4090 war ein "original" 12VHPWR NVidia Kabel beigelegt mit NVidia Logo aufgedruckt
bei der Gigabyte 5090 ist eines ohne Aufdruck beigelegt und es kommt mir weniger wertig vor
als das alte ...
Langlay
2025-07-26, 15:14:29
Bei der Astral liegt imo das gleiche Kabel bei wie bei der 4090FE die ich vorher hatte. Ist auch mit Nvidialogo und Nvidia Schriftzug und imo optisch so auch gleich.
hq-hq
2025-07-26, 15:45:53
gibts vielleicht nur in schwarz, bei Gelegenheit mal die Wärmebildkamera holen und nachschauen :freak:
Snoopy69
2025-07-26, 15:46:54
Hab ich letztens zu verschiedenen Kabel geschrieben…
https://www.hardwareluxx.de/community/threads/blackwell-smalltalk-thread-rtx-5000er-reihe.1352430/post-30898030
2 Stecker reichen völlig, wenn man nicht mehr als 600W zieht. Blöd ist der Aufbau mancher Kabel mit 3x 8Pin, die real 3x 4 Pin haben können. Da kann man auch gleich zu Kabel mit 2 Steckern greifen (real 2x 6Pin)
Mich hat nur interessiert, dass die Stecker NT-seitig nicht zu warm werden (siehe Bilder). Der Spannungsabfall ist mit 4 Steckern auch geringer (an der Karte liegen bei dauerhaften 850W nie weniger als 12,0V an)
btw:
Theoretisch könnte man am AX1600i 4x 5900 mit jeweils 2 Steckern betreiben
Langlay
2025-07-26, 16:18:03
Wobei man auch zwischen 8-Pin PCI-E und 8-Pin Netzteilbuchse unterscheiden muss.
Zumindest bei meinem Coolermaster SFX Netzteil sind die 8 Pin Netzteilseitig 4x GND/Sense & 4x 12V.
Und Elektrisch kann der 8-Pin 8A pro Pin. 12V*8A*4 Pins = 384W pro 8-Pin Netzteil.
Timolol
2025-07-26, 16:57:44
Gibts eigentlich irgendwo genaue größen von der Karte? Bei mir ist ja aktuell die kleinste single slot 3090 von Asus drin. Die 5090 ist meines wissens deutlich breiter.
https://www.kaufland.de/product/526864090/?kwd=&source=pla&id_unit=389392319651&utm_source=google&utm_medium=cpc&utm_id=20518190045&gad_source=1&gad_campaignid=20522592181&gbraid=0AAAAADprSmEFOQUstdEfogPHm3lvt02a0&gclid=Cj0KCQjw-ZHEBhCxARIsAGGN96JCp3zkxUBd6Hx2an0YrY1TdP5b0EcyQzJwylNAXokb6ZYMMGtprrUaAj8REALw_ wcB
Langlay
2025-07-26, 17:21:40
https://www.techpowerup.com/gpu-specs/geforce-rtx-5090.c4216
Runterscrollen dann kommt ne Auflistung von verschiedenen 5090 meist mit Länge, für wieiviel Slots und wie breit müsste man dann aber die einzelnen Karten anklicken, dort sollte sich das dann finden lassen.
Coroner
2025-07-26, 17:47:53
Ich habe heute mal unterschiedliche Sensorquellen überprüft.
1. Nvidia Overlay
2. Hwinfo
3. CapFrameX
4. Powenetics v2
Das sieht ziemlich konsistent aus. Man muss natürlich aufpassen, dass die Apps unterschiedlich samplen/updaten. Bietet WireView Average Messwerte an?
Danke für den Test :up:. Ich werde morgen oder übermorgen (vorher stehen Tests von neuem RAM an) auch andere Programme und WireView gegentesten.
Interessant wäre ob das Auslesen via software bei Deinen getesteten Programmen gleich ist; wäre deren software-Ermittlung generell flawed so würde das die gleichen Werte der Programme erklären. Oder WireView misst Unsinn, aber zumindest stimmen bei mir die idle-Verbrauchswerte von WireView mit den Werten von GPUZ überein, das schaue ich mir auch noch genauer an.
Was average-Meßwerte angeht habe ich in der WireView-Anleitung auch nur das herauslesen können was Snoopy69 hier
Müsste ich nachgucken (geht erst heute Abend)…
Wo ich mir sicher bin - min und max
Und eben current (Watt) mit 3 verschiedenen Abtastraten (29µs - 1ms - 200ms <—ist Standard)
schon gepostet hat, mehr kann man nicht einstellen.
Snoopy69
2025-07-26, 17:54:17
Wobei man auch zwischen 8-Pin PCI-E und 8-Pin Netzteilbuchse unterscheiden muss.
Zumindest bei meinem Coolermaster SFX Netzteil sind die 8 Pin Netzteilseitig 4x GND/Sense & 4x 12V.
Und Elektrisch kann der 8-Pin 8A pro Pin. 12V*8A*4 Pins = 384W pro 8-Pin Netzteil.
Es ging oben darum, dass 2x „8Pin“ reale 2x 6Pin und 3x „8Pin“ reale 3x 4pin sind. Also der halbe Stecker ist leer!!! Steht alles im Link mit Bildern :wink:
ZeroStrat
2025-07-26, 20:55:21
Danke für den Test :up:. Ich werde morgen oder übermorgen (vorher stehen Tests von neuem RAM an) auch andere Programme und WireView gegentesten.
Interessant wäre ob das Auslesen via software bei Deinen getesteten Programmen gleich ist; wäre deren software-Ermittlung generell flawed so würde das die gleichen Werte der Programme erklären. Oder WireView misst Unsinn, aber zumindest stimmen bei mir die idle-Verbrauchswerte von WireView mit den Werten von GPUZ überein, das schaue ich mir auch noch genauer an.
Was average-Meßwerte angeht habe ich in der WireView-Anleitung auch nur das herauslesen können was Snoopy69 hier
CapFrameX bietet seit einiger Zeit Powenetics v2 Support. Das ist so ziemlich das Genauste was man zu Hause jenseits eines Oszilloskops einsetzen kann.
Hier mal ein direkter Vergleich über ein paar Sekunden. Das Nv Software Reading ist schon extrem nah an der Average PMD Power dran. Was halt nicht so schön ist, sind die Verzögerungen bei starken Lastwechseln. Der Offset liegt weit über der Samplerate von 250ms für die Software Readings. Dennoch, wenn man die Plateaus betrachtet, sind die Abweichungen minimal. Das kann sich sehen lassen.
https://i.imgur.com/xSJZ9T0.png
Timolol
2025-07-26, 21:41:01
https://www.techpowerup.com/gpu-specs/geforce-rtx-5090.c4216
Runterscrollen dann kommt ne Auflistung von verschiedenen 5090 meist mit Länge, für wieiviel Slots und wie breit müsste man dann aber die einzelnen Karten anklicken, dort sollte sich das dann finden lassen.
Danke!
ZeroStrat
2025-07-26, 21:49:57
Dürfte eventuell den einen oder anderen Blackwell Besitzer interessieren. CapFrameX v1.7.6 Beta mit Blackwell Support. Memory Junction Temp, 16-Pin Power, PCIe Slot Power Readings.
Download: https://github.com/CXWorld/CapFrameX/releases/tag/v1.7.6_beta
Blase
2025-07-27, 00:01:49
Also ich versuche mich grade erstmalig am UV Thema mit meiner 5090. Bei der 4090 zuvor habe ich nach einigen Tests einfach beschlossen, dass ich UV sein lasse und einfach im Afterburner ein Profil erstelle, welches mit 70% Powertarget läuft.
Jetzt mit der 5090 laufe ich klar ins Powerlimit, würde ich sagen. OotB schafft die Karte Taktraten von 2750 bis knapp oberhalb von 2800. Dabei liege ich bei ca. 80 Grad (Top gedämmtes Gehäuse :freak:) und um 550W mit Ausreißern nach oben.
Und ich scheine wenig Glück mit der Silicon Lottery gehabt zu haben. Denn wenn überhaupt komme ich an diese Taktraten nur bei 1.0V oder höher heran. Unterhalb von 1.0V liege ich deutlich da drunter:
Wenn ich bei 0.9V den Curved Editor bei 2800 fest tackere, dann habe ich beim Lauf real niedrige 25XX und etwas um 420W Verbrauch.
Bei 0.925V und 2800 im Curved Editor lande ich im Lauf dann bei knapp unterhalb 2600 und etwas um 450W Verbrauch.
Bei 0.95V und 2800 im Curved Editor lande ich im Lauf dann bei knapp oberhalb 2600 und etwas um 460W Verbrauch.
Bei 1.0V und 2900 im Curved Editor lande ich im Lauf dann bei knapp oberhalb der 27XX und um 500W +/- Verbrauch.
Und erst bei ca. 1.04V und 2900 im Curved Editor schaffe ich es dann, die 28XX zu überschreiten. Lande dann aber bereits im Powerlimit. Tue ich dann noch +2000 auf den RAM dazu, was problemlos geht, kann er die Taktraten des Chips aber nicht mehr halten :usad:
Tjoa... wollte mir eigentlich ein "Eierschaukel-Profil" erstellen und ein "Performance-Profil", wenn es auf jedes Frame ankommt. Das Eierschaukel Profil wird also wie gehabt eine Limitierung auf 70 Prozent Powertarget (bzw. wahrscheinlich reicht mein FPS CAP auf 117 in den meisten Fällen dazu auch aus :uponder:) und das Maximum ist dann wohl die letzte Einstellung von meinen Versuchen - die kaum oberhalb der Ootb Performance liegt :freak:
Nun ja, was soll's :tongue:
Was mir noch aufgefallen ist: Ich kann im Afterburner "nur" 100 Prozent Powertarget einstellen. Sollten es max. nicht 104 Prozent sein? Nicht, dass es den Kohl fett machen würde, aber ein wenig zum Rumspielen hätt ich noch getestet damit...
MfG Blase
Coroner
2025-07-27, 00:35:11
CapFrameX bietet seit einiger Zeit Powenetics v2 Support. Das ist so ziemlich das Genauste was man zu Hause jenseits eines Oszilloskops einsetzen kann.
Hier mal ein direkter Vergleich über ein paar Sekunden. Das Nv Software Reading ist schon extrem nah an der Average PMD Power dran. Was halt nicht so schön ist, sind die Verzögerungen bei starken Lastwechseln. Der Offset liegt weit über der Samplerate von 250ms für die Software Readings. Dennoch, wenn man die Plateaus betrachtet, sind die Abweichungen minimal. Das kann sich sehen lassen.
Sehr interessant :up:. Habe jetzt erst gecheckt was Du mit dem post davor genau gemeint hast bzw. dass Powenetics v2 kein Programm ist :).
Die CapFrameX-Beta gucke ich mir auch an.
hq-hq
2025-07-27, 01:53:26
Also ich versuche mich grade erstmalig am UV Thema mit meiner 5090. Bei der 4090 zuvor habe ich nach einigen Tests einfach beschlossen, dass ich UV sein lasse und einfach im Afterburner ein Profil erstelle, welches mit 70% Powertarget läuft.
Jetzt mit der 5090 laufe ich klar ins Powerlimit, würde ich sagen. OotB schafft die Karte Taktraten von 2750 bis knapp oberhalb von 2800. Dabei liege ich bei ca. 80 Grad (Top gedämmtes Gehäuse :freak:) und um 550W mit Ausreißern nach oben.
Und ich scheine wenig Glück mit der Silicon Lottery gehabt zu haben. Denn wenn überhaupt komme ich an diese Taktraten nur bei 1.0V oder höher heran. Unterhalb von 1.0V liege ich deutlich da drunter:
Wenn ich bei 0.9V den Curved Editor bei 2800 fest tackere, dann habe ich beim Lauf real niedrige 25XX und etwas um 420W Verbrauch.
Bei 0.925V und 2800 im Curved Editor lande ich im Lauf dann bei knapp unterhalb 2600 und etwas um 450W Verbrauch.
Bei 0.95V und 2800 im Curved Editor lande ich im Lauf dann bei knapp oberhalb 2600 und etwas um 460W Verbrauch.
Bei 1.0V und 2900 im Curved Editor lande ich im Lauf dann bei knapp oberhalb der 27XX und um 500W +/- Verbrauch.
Und erst bei ca. 1.04V und 2900 im Curved Editor schaffe ich es dann, die 28XX zu überschreiten. Lande dann aber bereits im Powerlimit. Tue ich dann noch +2000 auf den RAM dazu, was problemlos geht, kann er die Taktraten des Chips aber nicht mehr halten :usad:
Tjoa... wollte mir eigentlich ein "Eierschaukel-Profil" erstellen und ein "Performance-Profil", wenn es auf jedes Frame ankommt. Das Eierschaukel Profil wird also wie gehabt eine Limitierung auf 70 Prozent Powertarget (bzw. wahrscheinlich reicht mein FPS CAP auf 117 in den meisten Fällen dazu auch aus :uponder:) und das Maximum ist dann wohl die letzte Einstellung von meinen Versuchen - die kaum oberhalb der Ootb Performance liegt :freak:
Nun ja, was soll's :tongue:
Was mir noch aufgefallen ist: Ich kann im Afterburner "nur" 100 Prozent Powertarget einstellen. Sollten es max. nicht 104 Prozent sein? Nicht, dass es den Kohl fett machen würde, aber ein wenig zum Rumspielen hätt ich noch getestet damit...
MfG Blase
wenn die Karten "obenraus" nicht zündet kannst du es ja "untenrum" mal probieren
zB. 0,850V
glaub mehr kann man nicht einstellen als 2242MHz bei 0.850V
dann noch einen höheren Punkt und dann gerade ziehen
...da bei den niedrigen Spannungen sollten alle Karten gleich sein weil man die Punkte nicht höher setzen kann.
Blase
2025-07-27, 14:33:12
wenn die Karten "obenraus" nicht zündet kannst du es ja "untenrum" mal probieren
zB. 0,850V
glaub mehr kann man nicht einstellen als 2242MHz bei 0.850V
dann noch einen höheren Punkt und dann gerade ziehen
...da bei den niedrigen Spannungen sollten alle Karten gleich sein weil man die Punkte nicht höher setzen kann.
Du meinst einfach als "Spar-Setup"? Schaue ich mir noch mal an, wie viel das an Leistung "Kostet". Aber wenn Verbrauch und Temperaturen entsprechend runter gehen, mag das ein gutes Setup sein. Die 5090 hat für die meisten Titel da draußen ja mehr als genug Leistung.
Aber warum neben dem 0.850V dann noch einen höheren Punkt? Dann würde der doch immer genommen und die 0.850V spielen dann keine Rolle mehr?
Und generell: Die 5090 hat mit dem 512Bit SI genug Bandbreite, oder? Ob man auf den Speicher +2000 MHz drauf packt oder nicht, spielt keine wirkliche Rolle, oder? Zumindest bei meinen Tests gestern Abend schien das keine Rolle zu spielen...
MfG Blase
x-force
2025-07-27, 15:18:40
Und generell: Die 5090 hat mit dem 512Bit SI genug Bandbreite, oder? Ob man auf den Speicher +2000 MHz drauf packt oder nicht, spielt keine wirkliche Rolle, oder?
es geht +3000. wenn du allerdings bei 2,5ghz gpu chillst, bringt es tendenziell weniger als bei 3ghz+
Blase
2025-07-27, 17:19:13
es geht +3000. wenn du allerdings bei 2,5ghz gpu chillst, bringt es tendenziell weniger als bei 3ghz+
Mehr als +2000 kann ich auf den Speicher nicht geben.
Ich habe mir jetzt ein 0.875V Profil erstellt, welches bei ca. 2400 MHz läuft. Verliere also etwas mehr als 10 Prozent an Leistung. Dafür 200 Watt weniger Verbrauch. Das ist mein 24/7 Setting für Spiele.
MfG Blase
RoughNeck
2025-07-27, 17:57:06
Für mehr als 2000 beim VRAM braucht es die aktuelle Beta vom AB.
Aber VRAM OC bringt eh relativ wenig, da die Karte eh so eine hohe Bandbreite hat.
Coroner
2025-07-27, 18:23:57
Dürfte eventuell den einen oder anderen Blackwell Besitzer interessieren. CapFrameX v1.7.6 Beta mit Blackwell Support. Memory Junction Temp, 16-Pin Power, PCIe Slot Power Readings.
Download: https://github.com/CXWorld/CapFrameX/releases/tag/v1.7.6_beta
Ich habe eben ein wenig mit der CapFrameX-beta getestet, die separat angezeigten Verbrauchswerte sind auf jeden Fall klasse :up:.
WireView Pro misst scheinbar wirklich einen fehlerhaften Verbrauch, ich habe mir die GPUZ-Werte nochmal angesehen und auch sie differierten von den WireView-Werten, da hatte ich mich letztens verguckt.
Dann habe ich mit Afterburner das powerlimit auf 104%/600W angehoben und die WireView-Werte mit den CapFrameX-Werten verglichen; WireView zeigt mit bis zu 645W 43W mehr (!) an als CapFrameX welches bis zu 602W anzeigt und WireView misst ja nur den Strom der durch den 12VHPWR-Anschluss fließt während CapFrameX auch den Strom inkludiert der durch den PCIe-Steckplatz bereitgestellt wird :eek:.
Was für ein Schätzeisen, ich frage mich ob das nur an meinem WireView liegt oder ob die alle solche Werte ausspucken. Zum Glück habe ich es nur wegen den beiden Temperatursensoren um die Kabeltemperatur zu überwachen.
93735
93736
aufkrawall
2025-07-27, 18:36:40
Jo, Peaks werden bei maximaler Spannung/Limit übel. Würde davon ausgehen, dass UV deshalb auch die Lebensdauer von Netzteilen massivst erhöht. Mit UV und ordentlich Reserven hat man dann auch mit solchen Monster-GPUs ggf. 10-15 Jahre Ruhe mit dem NT.
ChaosTM
2025-07-27, 18:56:14
Die 600 erreiche ich eigentlich fast nur bei BMs, speziell beim Fellmark.
Der lief nur einmal relativ lang,um die Stabilität zu testen.
Meist sind es 450-500 oder noch deutlich weniger, wenn MFG + Framelimter gut genug ausschaut. Bei 77 sinkt der Verbrauch von ~550-570 auf ungefähr 350..
Snoopy69
2025-07-27, 20:08:08
@Coroner
Evtl reichen die 200ms nicht aus
hq-hq
2025-07-27, 23:06:23
Mehr als +2000 kann ich auf den Speicher nicht geben.
Ich habe mir jetzt ein 0.875V Profil erstellt, welches bei ca. 2400 MHz läuft. Verliere also etwas mehr als 10 Prozent an Leistung. Dafür 200 Watt weniger Verbrauch. Das ist mein 24/7 Setting für Spiele.
MfG Blase
ja perfekt, sollten eigentlich 2500+ MHz sein für die GPU... seit dem AB Beta 6 (+3000MHz für RAM) kann ich manche Spannungen nicht mehr "treffen", der Punkt an dem die Curve flach wird ist bei mir nicht "nutzbar", und z.B. 0.875 geht gar nicht mehr, nur 0.880V oder 0.870V ... 0.880V gibts eigentlich nicht im AB :-D
Lehdro
2025-07-28, 14:45:52
Ich habe eben ein wenig mit der CapFrameX-beta getestet, die separat angezeigten Verbrauchswerte sind auf jeden Fall klasse :up:.
WireView Pro misst scheinbar wirklich einen fehlerhaften Verbrauch, ich habe mir die GPUZ-Werte nochmal angesehen und auch sie differierten von den WireView-Werten, da hatte ich mich letztens verguckt.
Dann habe ich mit Afterburner das powerlimit auf 104%/600W angehoben und die WireView-Werte mit den CapFrameX-Werten verglichen; WireView zeigt mit bis zu 645W 43W mehr (!) an als CapFrameX welches bis zu 602W anzeigt und WireView misst ja nur den Strom der durch den 12VHPWR-Anschluss fließt während CapFrameX auch den Strom inkludiert der durch den PCIe-Steckplatz bereitgestellt wird :eek:.
Was für ein Schätzeisen, ich frage mich ob das nur an meinem WireView liegt oder ob die alle solche Werte ausspucken.
Wichtige Info: Nahezu alle Reviewer haben eine Diskrepanz zwischen gemessenen und ausgelesenen Werten festgestellt. Zuungunsten der Softwarewerte...
Zusatz-Info für Geeks: Es ist bekannt, dass die von Tools/Software gemeldete Leistungsaufnahme nicht deckungsgleich mit dem tatsächlichen Verbrauch ist. Auch bei der Geforce RTX 5090 attestieren Tools konsequent eine geringere Leistungsaufnahme als die Hardware-Messung, die Abweichung liegt bei bis zu fünf Prozent. Meldet eine RTX 5090 beispielsweise 450 Watt, benötigt sie tatsächlich 470 Watt - kein weltbewegender Unterschied, aber dennoch wissenswert.
Quelle (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/6/)
Coroner
2025-07-28, 15:19:24
@Coroner
Evtl reichen die 200ms nicht aus
Guter Punkt, werde die Tage mal testen ob 29µs und 1ms etwas ändern.
Wichtige Info: Nahezu alle Reviewer haben eine Diskrepanz zwischen gemessenen und ausgelesenen Werten festgestellt. Zuungunsten der Softwarewerte...
Quelle (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/6/)
Diese Info kenne ich, nur sind es bei mir ziemlich genau 10 % und nicht nur "bis zu 5 %" wie im von Dir verlinkten Artikel. Und die ganzen reviewer haben ja afaik nicht WireView genutzt um via hardware den Verbauch zu ermitteln. Einige Seiten nutzen das Power Capture Analysis Tool (PCAT) (https://www.nvidia.com/en-us/geforce/news/nvidia-reviewer-toolkit/) von Nvidia.
WireView misst ja nur den Strom der vom 12VHPWR-Anschluss kommt und da zeigt es wenn Furmark läuft zwischen 642 und 645 W an während CapFrameX (die beta die hier gepostet wurde kann den Strom von 12VHPWR und PCIe getrennt messen) mir nur bis zu 589 W anzeigt.
Dürfte eventuell den einen oder anderen Blackwell Besitzer interessieren. CapFrameX v1.7.6 Beta mit Blackwell Support. Memory Junction Temp, 16-Pin Power, PCIe Slot Power Readings.
Download: https://github.com/CXWorld/CapFrameX/releases/tag/v1.7.6_beta
Und ZeroStrat hat hier
CapFrameX bietet seit einiger Zeit Powenetics v2 Support. Das ist so ziemlich das Genauste was man zu Hause jenseits eines Oszilloskops einsetzen kann.
Hier mal ein direkter Vergleich über ein paar Sekunden. Das Nv Software Reading ist schon extrem nah an der Average PMD Power dran. Was halt nicht so schön ist, sind die Verzögerungen bei starken Lastwechseln. Der Offset liegt weit über der Samplerate von 250ms für die Software Readings. Dennoch, wenn man die Plateaus betrachtet, sind die Abweichungen minimal. Das kann sich sehen lassen.
https://i.imgur.com/xSJZ9T0.png
Powenetics v2 (https://www.computerbase.de/artikel/grafikkarten/powenetics-v2-gpu-leistungsaufnahme.84902/) genutzt um damit eine hardware- mit der software-Messung zu vergleichen und kommt zu dem Schluss dass die software-Messung ziemlich genau ist wie man auf dem Bild auch gut sehen kann.
Deswegen meinte ich ja das entweder mein WireView Mist misst oder WireView generell ein Schätzeisen ist was die Verbauchsmessung angeht.
Snoopy69
2025-07-28, 16:19:07
Guter Punkt, werde die Tage mal testen ob 29µs und 1ms etwas ändern.
Damit wird es noch "schlimmer" (noch höhere Peaks). Man bräuchte 500 und/oder 1.000ms
btw:
- 200ms = 5 Messungen pro Sek (relativ gut gemittelt)
- 1ms = 1.000 Messungen pro Sek
- 29µs = 34.483 Messungen pro Sek (kaum ablesbar, weil extrem starke Lows und Peaks - aber gut, um evtl. Limits der GPU zu erkennen)
Zwar kann man bei GPU-Z auch 100ms einstellen, aber es ist ja nur Software und greift nur die gemittelten Werte ab
@ZeroStrat
Wie schlägt sich "Powenetics V2" mit dem "PMD2"?
https://www.elmorlabs.com/product/elmorlabs-pmd2/
Und kann man das Gerät ausschliesslich nur aus Griechenland beziehen?
Lehdro
2025-07-28, 16:48:18
Diese Info kenne ich, nur sind es bei mir ziemlich genau 10 % und nicht nur "bis zu 5 %" wie im von Dir verlinkten Artikel. Und die ganzen reviewer haben ja afaik nicht WireView genutzt um via hardware den Verbauch zu ermitteln.
[...]
Deswegen meinte ich ja das entweder mein WireView Mist misst oder WireView generell ein Schätzeisen ist was die Verbauchsmessung angeht.
Es war auch nur eine Info dass du nicht "Software" gegen "Wireview" stellen sollst, sondern davon ausgehen kannst das beide nicht 100% korrekt sind. Je nach Kartenmodell kann das schon mal abweichen, siehe z.B. die Astral die mit gemeldeten 600W PL trotzdem 632W real (https://www.computerbase.de/artikel/grafikkarten/asus-rog-geforce-rtx-5090-astral-test.91096/seite-3#abschnitt_bis_zu_632_watt_leistungsaufnahme) aufnimmt.
Richtig rausfinden kannst du das eh nur wenn du es professioneller selber ermittelst. Möglichkeiten hast du selber schon genannt.
Coroner
2025-07-28, 18:19:53
Damit wird es noch "schlimmer" (noch höhere Peaks). Man bräuchte 500 und/oder 1.000ms
btw:
- 200ms = 5 Messungen pro Sek (relativ gut gemittelt)
- 1ms = 1.000 Messungen pro Sek
- 29µs = 34.483 Messungen pro Sek (kaum ablesbar, weil extrem starke Lows und Peaks - aber gut, um evtl. Limits der GPU zu erkennen)
Zwar kann man bei GPU-Z auch 100ms einstellen, aber es ist ja nur Software und greift nur die gemittelten Werte ab
Schade dass erst WireView2 eine logging-Funktion mit sich bringt, die lows und besonders die peaks würde ich mir schon gern ansehen :freak:.
Es war auch nur eine Info dass du nicht "Software" gegen "Wireview" stellen sollst, sondern davon ausgehen kannst das beide nicht 100% korrekt sind. Je nach Kartenmodell kann das schon mal abweichen, siehe z.B. die Astral die mit gemeldeten 600W PL trotzdem 632W real (https://www.computerbase.de/artikel/grafikkarten/asus-rog-geforce-rtx-5090-astral-test.91096/seite-3#abschnitt_bis_zu_632_watt_leistungsaufnahme) aufnimmt.
Richtig rausfinden kannst du das eh nur wenn du es professioneller selber ermittelst. Möglichkeiten hast du selber schon genannt.
Das alle Werte nicht unbedingt 100% korrekt sein müssen ist klar, ich fand 56 W mehr via Wireview gegenüber CapFrameX aber schon arg heftig.
Snoopy69
2025-07-28, 18:50:56
Schade dass erst WireView2 eine logging-Funktion mit sich bringt, die lows und besonders die peaks würde ich mir schon gern ansehen :freak:.
Nur ein Wert (min und max) am Display
ZeroStrat
2025-07-28, 21:12:19
@ZeroStrat
Wie schlägt sich "Powenetics V2" mit dem "PMD2"?
https://www.elmorlabs.com/product/elmorlabs-pmd2/
Und kann man das Gerät ausschliesslich nur aus Griechenland beziehen?
Habe ich nicht getestet, kann ich leider nichts zu sagen. Ich habe allerdings ein älteres Model getestet, das lag bis auf 5% Differenz relativ nah dran. In unteren Lastbereichen nimmt die Genauigkeit bedauerlicherweise stark ab.
Was natürlich auch sexy ist und dennoch bezahlbar, ist Benchlab (https://benchlab.io/products/benchlab). CapFrameX bietet offiziellen Support!
https://benchlab.io/cdn/shop/files/PCB.png?v=1702702896&width=713
WireView misst ja nur den Strom der vom 12VHPWR-Anschluss kommt und da zeigt es wenn Furmark läuft zwischen 642 und 645 W an während CapFrameX (die beta die hier gepostet wurde kann den Strom von 12VHPWR und PCIe getrennt messen) mir nur bis zu 589 W anzeigt.
Ich bin misstrauisch bei diesen Werten. Wenn das PL bei 600W eingestellt ist, dann müsste der Verbrauch über 12VHPWR eher bei unter 590W liegen, wegen des PCI Slot Anteils. Kann man WireView kallibrieren?
Coroner
2025-07-29, 12:09:30
Ich bin misstrauisch bei diesen Werten. Wenn das PL bei 600W eingestellt ist, dann müsste der Verbrauch über 12VHPWR eher bei unter 590W liegen, wegen des PCI Slot Anteils. Kann man WireView kallibrieren?
Die erwarteten Werte zeigt zumindest CapFrameX genau so an.
Im Menü des WireView gibt es einen Punkt für die Kalibrierung und die Beschreibung sagt dazu:
"CAL: Diese Funktion ermöglich das Kalibrieren des WireViews. Da alle Geräte ab Werk mit Spezialgeräten (u.a. externe Stromversorgung und Konstantstromquelle) kalibriert werden, wird dringlich empfohlen, hier keine Veränderungen vorzunehmen! Wer über entsprechende Geräte verfügt, kann eine Anleitung über den Thermal Grizzly-Support anfragen."
Megamember
2025-08-02, 12:53:10
MAch ich irgendwas falsch? Versuch gerade die 5090 wie meine 4090 zu undervolten aber irgendwie will sie die Spannung/Taktraten nicht übernehmen. Wenn ich zum Beispiel 0,9V auf 2800 hebe, rechts davon waagerecht, hat die Karte ingame 0,89V@~2580Mhz. 0,85V/2600 sind ingame 0,845@2170 oder so ;(
SamLombardo
2025-08-02, 13:05:54
MAch ich irgendwas falsch? Versuch gerade die 5090 wie meine 4090 zu undervolten aber irgendwie will sie die Spannung/Taktraten nicht übernehmen. Wenn ich zum Beispiel 0,9V auf 2800 hebe, rechts davon waagerecht, hat die Karte ingame 0,89V@~2580Mhz. 0,85V/2600 sind ingame 0,845@2170 oder so ;(
Machst leider nichts falsch. Funktioniert etwas merkwürdig. Ich hab's auch nicht durchschaut. Ich hab meine Kurve bei 2850@ 0.925v, damit ich dann in anspruchsvollen Spielen auf ~2750 mhz komme. Warum auch immer.
aufkrawall
2025-08-02, 13:12:36
Einfach den Punkt weiter hochziehen, bis ausgelesener Takt/reale Performance der Erwartung entsprechen.
ChaosTM
2025-08-02, 13:19:37
Es geht aber. Hab mir eine gebastelt um das sinnfreie 70% Powerlimit etwas zu umgehen.
Selbst die 70 sind bei vielen Spielen noch totaler Overkill. Meistens kann man sich mit FPS Limits behelfen, aber gewisse Spiele mit einer gewissen (Shit)Engine fangen dann noch stärker zu Ruckeln an..
Megamember
2025-08-02, 14:46:24
Einfach den Punkt weiter hochziehen, bis ausgelesener Takt/reale Performance der Erwartung entsprechen.
Klappt nicht meine Karte hat da irgendwie ein Eigenleben. Hab jetzt 80% Powerlimit und Clockspeed +250. Damit hab ich den takt den ich will und mehr und Temp/Lautstärke ist auch OK.
RoughNeck
2025-08-02, 15:25:45
So schaut meine Curve aus.
Macht in Games die Karte wirklich mal vernünftig auslasten 2775 MHZ und sonst so um 2808 - 2825.
Nightspider
2025-08-02, 15:29:57
Jo, Peaks werden bei maximaler Spannung/Limit übel. Würde davon ausgehen, dass UV deshalb auch die Lebensdauer von Netzteilen massivst erhöht. Mit UV und ordentlich Reserven hat man dann auch mit solchen Monster-GPUs ggf. 10-15 Jahre Ruhe mit dem NT.
Kommt auf die Dimensionierung des Netzteils an.
Mein Enermax Revolution 85+ 1250W hat schon 16 Jahre auf dem Buckel.
So wie sich alles entwickelt mit den GPUs wird mein nächstes Netzteil wohl mindestens 1600W haben um hoffentlich wieder 10+ Jahre meine Ruhe zu haben.
x-force
2025-08-02, 15:48:41
Hab jetzt 80% Powerlimit und Clockspeed +250. Damit hab ich den takt den ich will und mehr und Temp/Lautstärke ist auch OK.
wenn der takt stabil ist, braucht es kein powerlimit
Megamember
2025-08-03, 09:50:44
Musste jetzt auf die beiligende vierschwänzige Peitsche vom be quiet native 12HPWR cable umgestiegen. Um den Stromanschluss ist bei der ventus zu wenig Platz scheinbar. Beim be quiet Kabel ist der Einrastnippel vom Kabel statt einzurasten gegen den Kühler der Graka gestossen und hat sich nach unten gebogen:freak::rolleyes:.Hat zwar funktioniert aber fester sicherer Sitz war so eigendlich nicht gewährleistet. Das lies sich auch nicht ändern weil zu lang und starr. Beim MSI Kabel ist das Hebelchen etwas kürzer und flacher stösst aber trotzdem noch leicht an den Kühler. Manchmal frag ich mich wirklich ......... egal.
https://www.directupload.eu/file/d/9000/wuamfrsl_jpg.htm
Gouvernator
2025-08-03, 10:11:32
Meine Inno3d hab ich extra abgesichert, jeden Anschlüss 3x gecheckt, also auch die 4x8Pin Adapter Buchsen. Und dann nochmal alles mit Kabelbinder am Gehäuse "aufgehängt" und festgezurrt. Es braucht nur ein Pin irgendwo lose zu werden und dann fängt es an zu schmoren. Es darf nicht passieren das einmal nur ein Pin irgendwo leicht schwarz wird. Das ist das Ende.
Blase
2025-08-03, 10:25:31
MAch ich irgendwas falsch? Versuch gerade die 5090 wie meine 4090 zu undervolten aber irgendwie will sie die Spannung/Taktraten nicht übernehmen. Wenn ich zum Beispiel 0,9V auf 2800 hebe, rechts davon waagerecht, hat die Karte ingame 0,89V@~2580Mhz. 0,85V/2600 sind ingame 0,845@2170 oder so ;(
Ist bei mir nicht anders. Verstehe ich einfach als: mehr Takt bei angegebener Spannung ist einfach nicht drin. Oder umgekehrt: um wirklich auf Touren bezüglich Takt zu kommen, wird halt eine Spannung oberhalb der 1.0X V benötigt.
Einfach den Punkt weiter hochziehen, bis ausgelesener Takt/reale Performance der Erwartung entsprechen.
Hat bei mir überhaupt nichts verändert. Was soll ein noch weiteres hochziehen der gewünschten Taktrate auch schon bewirken? Oder meinst du, GPU versteht dann: Ach, du willst dass ich den Takt noch weiter anheben. Warum sagst du das nicht gleich :tongue:
MfG Blase
SamLombardo
2025-08-03, 10:32:43
Hat bei mir überhaupt nichts verändert. Was soll ein noch weiteres hochziehen der gewünschten Taktrate auch schon bewirken? Oder meinst du, GPU versteht dann: Ach, du willst dass ich den Takt noch weiter anheben. Warum sagst du das nicht gleich :tongue:
MfG Blase
Doch in gewisser weise hat er schon Recht. Ich wollte ~2750mhz unter Last haben. Als ich diese in der UV-kurve eingestellt hatte brachte er mir als Ergebnis um die 2600. Nach einigen Versuchen bin ich dann bei eingestellten 2850 gelandet, um die 2750 unter Last dann tatsächlich zu erreichen. Wie gesagt, der Mechanismus dahinter ist mir nicht klar.
Blase
2025-08-03, 10:41:50
Doch in gewisser weise hat er schon Recht. Ich wollte ~2750mhz unter Last haben. Als ich diese in der UV-kurve eingestellt hatte brachte er mir als Ergebnis um die 2600. Nach einigen Versuchen bin ich dann bei eingestellten 2850 gelandet, um die 2750 unter Last dann tatsächlich zu erreichen. Wie gesagt, der Mechanismus dahinter ist mir nicht klar.
Hmm... ich habe das spaßeshalber tatsächlich einmal gemacht - ohne Veränderung. Aber gut, ich hab' grade Zeit und versuche mich noch mal an etwas extremeren Werten :tongue:
Dann nehme ich alles zurück :redface:
MfG Blase
Snoopy69
2025-08-03, 10:46:54
@Megamember
Was ist das denn für eine Scheiße? :conf2:
OgrEGT
2025-08-03, 10:56:28
Bei ner 2000Eur Karte kann man jetzt nicht auch noch Verarbeitung auf Top Niveau erwarten...
SamLombardo
2025-08-03, 11:00:04
Hmm... ich habe das spaßeshalber tatsächlich einmal gemacht - ohne Veränderung. Aber gut, ich hab' grade Zeit und versuche mich noch mal an etwas extremeren Werten :tongue:
Dann nehme ich alles zurück :redface:
MfG Blase
Irgendwie hat es auch mit der eingestellten Spannung zu tun. Bei 0.9v hat er die Taktrate weiter gedroppt als mit 0.925 (Was dann auch meine Finale geworden ist). Probier ruhig mal ein bisschen rum;)
Blase
2025-08-03, 11:40:34
Musste jetzt auf die beiligende vierschwänzige Peitsche vom be quiet native 12HPWR cable umgestiegen. Um den Stromanschluss ist bei der ventus zu wenig Platz scheinbar. Beim be quiet Kabel ist der Einrastnippel vom Kabel statt einzurasten gegen den Kühler der Graka gestossen und hat sich nach unten gebogen
Dann scheint dein Straight Power 1000 aber etwas anders konzipiert zu sein als mein Dark Power 13 1000W. Denn ich hatte beim Einrasten keine Probleme.
Irgendwie hat es auch mit der eingestellten Spannung zu tun. Bei 0.9v hat er die Taktrate weiter gedroppt als mit 0.925 (Was dann auch meine Finale geworden ist). Probier ruhig mal ein bisschen rum;)
Also ja, noch höhere Werte führen in der Tat eine Veränderung herbei. Kann mir das bitte mal jemand technisch erklären (@aufkrawall :tongue:).
Bei 0.9V im Editor bei 2800 MHz Takt lande ich real bei niedrigen 25XX. Stelle ich im Editor dann bei 0.9V 3000 MHz ein, legt er die Kurve real beim Speichern direkt auf etwas oberhalb von 2900 MHz (:freak:) und real liege ich dann in der Tat bei 28XX MHz. Warum?!
Wobei sich bei einigen Einstellungen gar nichts ändert :confused: Ich verstehe die Einstellungen nicht ;D
MfG Blase
Snoopy69
2025-08-03, 11:48:50
Jede GPU hat eine hinterlegte V/F-Kurve…
Überspitzt ausgedrückt - du stellst 100PS bei einem Verbrauch von nur 1 Liter ein und wunderst dich, dass zb nur 50PS rauskommen? :freak:
Blase
2025-08-03, 11:58:22
Jede GPU hat eine hinterlegte V/F-Kurve…
Überspitzt ausgedrückt - du stellst 100PS bei einem Verbrauch von nur 1 Liter ein und wunderst dich, dass zb nur 50PS rauskommen? :freak:
Verstehe ich. Erklärt aber nicht, warum bei 0.9 V und 2800 MHz im Editor dann real 2.5XX raus kommen. Und bei den selben 0.9 V aber 3000MHz im Editor (er korrigiert automatisch beim Speichern auf 2900+ MHz runter :freak:) auf einmal um 28XX MHz real anliegen.
Mit deiner Erklärung sollte, egal was ich im Editor einstelle, immer nur ein Wert (bei dir 50 PS bei 1 Liter) raus kommen. Es variiert aber bei identischer Ausgangslage bezüglich Spannung (=> 1 Liter). Das verstehe ich nicht...
MfG Blase
hq-hq
2025-08-03, 16:46:20
Musste jetzt auf die beiligende vierschwänzige Peitsche vom be quiet native 12HPWR cable umgestiegen. Um den Stromanschluss ist bei der ventus zu wenig Platz scheinbar. Beim be quiet Kabel ist der Einrastnippel vom Kabel statt einzurasten gegen den Kühler der Graka gestossen und hat sich nach unten gebogen:freak::rolleyes:.Hat zwar funktioniert aber fester sicherer Sitz war so eigendlich nicht gewährleistet. Das lies sich auch nicht ändern weil zu lang und starr. Beim MSI Kabel ist das Hebelchen etwas kürzer und flacher stösst aber trotzdem noch leicht an den Kühler. Manchmal frag ich mich wirklich ......... egal.
https://www.directupload.eu/file/d/9000/wuamfrsl_jpg.htm
bei der Gigabyte 5090 ist der Nippel zur Backplate hin mit Aussparung im PCB
bei der Gaigbyte 4090 wars noch wie bei der MSI aber mit grösserer Aussparung im Kühlkörper... ausgerechnet an der Stelle einen Designfehler zu haben auweh....:(
edit
hab am Stecker neuerdings einen Temp-Sensor, max war bisher 52°C
x-force
2025-08-03, 17:00:14
edit
hab am Stecker neuerdings einen Temp-Sensor, max war bisher 52°C
die stockschwul rosa/pink beleuchtung ist krass ;D
Snoopy69
2025-08-03, 17:49:35
Verstehe ich. Erklärt aber nicht, warum bei 0.9 V und 2800 MHz im Editor dann real 2.5XX raus kommen. Und bei den selben 0.9 V aber 3000MHz im Editor (er korrigiert automatisch beim Speichern auf 2900+ MHz runter :freak:) auf einmal um 28XX MHz real anliegen.
Mit deiner Erklärung sollte, egal was ich im Editor einstelle, immer nur ein Wert (bei dir 50 PS bei 1 Liter) raus kommen. Es variiert aber bei identischer Ausgangslage bezüglich Spannung (=> 1 Liter). Das verstehe ich nicht...
MfG Blase
Wie gesagt - jede 5090 hat eine hinterlegte V/F-Kurve - zb 1.000mV = 2.500MHz
Stellst du bei 1.000mV zb 2.800MHz ein, kann, muss aber nicht mit 2.800 laufen (aber garantiert mit 2.500)
Die genannten 100PS waren ein Beispiel, was du einstellst (erwartest). Wenn der Hersteller dir aber nur 50PS / Liter garantiert (hinterlegte V/F-Kurve), ist das eben so. Wenn du 75PS (und mehr) rausbekommst (also über der V/F-Kurve), dann ist das ein Bonus
Was hilft, näher dem erwarteten Takt zu kommen, sind kühle Temperaturen
RoughNeck
2025-08-03, 18:01:33
0,9V, 2825 MHZ im Curve einstellen, dann liegen bei Games meist 2775 an und man hat eine sparsame Karte. Geht doch Kinderleicht, versteh die Verwirrung nicht.
Snoopy69
2025-08-03, 18:13:36
Oder zb 2.850, wenn es 2.800 werden sollen. Muss man probieren...
btw:
Für uns ist das normal und war bei älteren Gen´s auch schon so. Jmd, der mit OC/UV wenig am Hut hat, erwartet, dass das, was man einstellt auch so läuft (geht leider nicht)
Blase
2025-08-03, 18:14:56
0,9V, 2825 MHZ im Curve einstellen, dann liegen bei Games meist 2775 an und man hat eine sparsame Karte. Geht doch Kinderleicht, versteh die Verwirrung nicht.
Ich schreibe es hier gerne ein drittes Mal: Stelle ich bei 0.9 V 2800 MHz im Editor ein, kommen real 2.5XX raus. Die "Verwirrung" kommt daher, dass hier zwar "immer" steht, dass es genau so leicht ist, praktisch zumindest bei mir aber etwas anderes passiert ;) Erst wenn ich bei den 0.9 noch weiter bezüglich Takt nach oben gehe, komme ich in die von dir genannten Regionen - warum auch immer dann ein Sprung von mehreren 100 MHz real passieren, obwohl ich selbst kaum 100 MHz laut Kurve im Vergleich zu vorher anliegen habe. Hierauf habe ich bisher noch keine Antwort erhalten - außer isso!
MfG Blase
RoughNeck
2025-08-03, 18:28:59
MSI Afterburner schon mal neu installiert?
Ich habe drei 5090 so eingestellt wie meine und alle verhalten sich gleich.
SamLombardo
2025-08-03, 18:39:01
0,9V, 2825 MHZ im Curve einstellen, dann liegen bei Games meist 2775 an und man hat eine sparsame Karte. Geht doch Kinderleicht, versteh die Verwirrung nicht.
Aber die Betonung liegt auf "meist". Bei sehr anspruchsvollsten Spielen geht es auch mal unter 2700 runter mit den Einstellungen. Zumindest bei mir. Um immer über 2700mhz zu kommen brauche ich 2850 @0.925v.. Ist natürlich möglich, dass das bei jeder Karte anders ist.
RoughNeck
2025-08-03, 18:48:17
Das Game was bei mir am meisten reinknallt ist Star Wars Outlaws und da geht der Takt nicht unter 2775 MHZ.
Snoopy69
2025-08-03, 18:52:46
Stehen diese 2.700 immer an oder fällt es bis auf 2.700 ab? Bei Letzterem bist du im PL. Entweder Erwartungen senken, damit nicht ständig das PL verletzt wird oder die GPU modden. Letzteres kommt wahrscheinlich nicht in Frage
Man muss nicht denken, nur weil zb max 550W angezeigt werden, dass das PL nicht doch kurz verletzt wird. Das zu messen geht nur mit separaten Tools. Mit Software (HWinfo, GPU-Z etc) kann man das vergessen
SamLombardo
2025-08-03, 19:02:31
Das Game was bei mir am meisten reinknallt ist Star Wars Outlaws und da geht der Takt nicht unter 2775 MHZ.
Wie ist es denn bei KDC2 beim durch den Wald laufen? Hast du das Spiel?
Stehen diese 2.700 immer an oder fällt es bis auf 2.700 ab? Bei Letzterem bist du im PL. Entweder Erwartungen senken, damit nicht ständig das PL verletzt wird oder die GPU modden. Letzteres kommt wahrscheinlich nicht in Frage
Bei 90% der Spiele bin zwischen 2750 und 2830 so etwa. In Ausnahmen (KDC2 fällt mir aktuell ein) geht es bis auf 2710 runter mit meinen aktuellen Einstellungen.
The_Invisible
2025-08-03, 19:18:17
0,9V, 2825 MHZ im Curve einstellen, dann liegen bei Games meist 2775 an und man hat eine sparsame Karte. Geht doch Kinderleicht, versteh die Verwirrung nicht.
Sparsam? Wie viel Watt/Takt bei Q2 RTX?
Das ballert bei meiner 4090 trotz UV so 400w raus
hq-hq
2025-08-03, 21:22:16
die stockschwul rosa/pink beleuchtung ist krass ;D
LoL, meine Mädels findens toll! Die Farben wechseln ja ständig, es wurde auch "ein kleiner Fernseher" eingebaut um die Kinder zu beeindrucken.
So richtig viel kann man mit dem Display aber nicht anstellen. Wollte Watt (TGP) anzeigen lassen aber genau das zeigt er nicht an...
edit
zum Vergleichen die 0.900V Curve meiner "temporär pinken" 5090 mit der "nicht silent" Lüfterkurve der Gigabyte Master bei 26°C Raumtemperatur
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93791&stc=1&d=1754255573
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93792&stc=1&d=1754256309
https://www.3dmark.com/3dm/139144116?
RoughNeck
2025-08-04, 16:56:41
Wie ist es denn bei KDC2 beim durch den Wald laufen? Hast du das Spiel?
Nein, hab ich nicht.
Ich hab halt so meine Games durchgetestet und Star Wars Outlaws mit allen was so geht ballert mehr als Cyberpunk 2077 mit allen an was geht, deswegen nehm ich das her als Worst Case.
Sparsam? Wie viel Watt/Takt bei Q2 RTX?
Das ballert bei meiner 4090 trotz UV so 400w raus
Muss ich mir mal ansehen was die Karte da raushaut.
Ansonsten zwischen 400 - 420W mit UV gegen Stock mit 530 - 540W. Mit meinem UV hab ich wenn überhaupt 1 - 2 FPS eingebüßt und wenn ich die Karte von der Leine las spar ich so über 100W.
Da ich allerdings mit unterschiedlichen FPS Caps (je nach Game halt) zocke, ist die Karte meist relativ entspannt
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.