Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5090 Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 [10]

Emil_i_Lönneberga
2025-10-19, 15:46:33
Hier werden sie geholfen: EAN: 4711946743260

https://www.caseking.de/search?q=Bitspower+Anschluss+gerade+G1%2F4+Zoll+AG+auf+10mm+ID&search-button=&lang=de_DE

Herstellerseite:

Thread Length : 5MM

https://shop.bitspower.com/index.php?route=product/product&product_id=3898

https://shop.bitspower.com/image/cache/Newegg/BP-MBWP-C02/BP-MBWP-C02--4711946743260-PT0-1024x768.webp

Coroner
2025-10-19, 17:25:28
Ich habe eben mal versucht eine meiner unpassenden Schlauchtüllen mit einer Feile zu bearbeiten ......................... da bestelle ich lieber zwei passende fittings :lol:.

@Emil_i_Lönneberga

Danke, diese Schlauchtüllen finde ich noch besser als Schraubtüllen, die werde ich mir direkt bestellen :up:.

edit:
Ich werde doch die EKWB-Schraubtüllen nehmen, bei denen ist das Gewinde einen Hauch kürzer als bei den bitspower-Tüllen und Snoopy69 hat ein fitting der Torque-Reihe im Einsatz, das ist der sicherere Weg.

Gouvernator
2025-10-20, 15:44:57
Es wird für die Verfügbarkeit der 5090 jetzt nicht gerade zuträglicher. Ein lokaler Klon von VEO/Sora wurde vor paar Tagen released, nennt sich Ovi. Was man da an Porn bauen kann... Ist faktisch alternativlos da es mit Veo/Sora eh nicht geht. Das Ding kann auch in vielen Sprachen streng Flüchen.

Lawmachine79
2025-10-21, 16:14:45
Es wird für die Verfügbarkeit der 5090 jetzt nicht gerade zuträglicher. Ein lokaler Klon von VEO/Sora wurde vor paar Tagen released, nennt sich Ovi. Was man da an Porn bauen kann... Ist faktisch alternativlos da es mit Veo/Sora eh nicht geht. Das Ding kann auch in vielen Sprachen streng Flüchen.
Und hast Du schon Deinen Traumporno zusammengeprompted und dazu ordentlich geedged?

Gouvernator
2025-10-21, 18:27:20
Und hast Du schon Deinen Traumporno zusammengeprompted und dazu ordentlich geedged?
Die 5090 ist fast rund um die Uhr im Einsatz. Ich hab Ovi aber erst einen Tag. Es ist doch ein Biest den niemand kennt. Mit dem Grundmodell sind hardcore Sachen eh gar nicht drin. Ich konzentriere mich deswegen auf "normale" Gespräche, quasi auf verbales Vorspiel , das du so niemals im Leben führen wirst. Zum Beispiel nimmst du eine Person deiner Begierde, I2V oder T2V in einem Setting das dir passt. Notfalls mit Sd1.5/sdxl nachhelfen. Und dann soll sie sagen: "Please, have sex with me. I will suck your dick and swallow!". ;D
Pro Clip mit 5090 = 86 Sek.

mironicus
2025-10-21, 19:38:11
Kann man Ovi mit ComfyUI oder Wan2GP nutzen?

Gouvernator
2025-10-21, 19:41:30
Kann man Ovi mit ComfyUI oder Wan2GP nutzen?
ComfyUI ist eigentlich Standard für sowas. Natürlich.
Der Typ von Patreon bietet immer allerneuste AI Sachen direkt als automatischen Install/Download.
https://www.patreon.com/posts/1-click-install-140447198

mironicus
2025-10-21, 20:50:10
Habe schon ein Tutorial gefunden.

w9WmKGxTTdI

PingpiN
2025-10-25, 11:40:02
Gibt es eigentlich schon ein Weg die festgeschriebenen Taktraten die bei jeder Spannung anliegen zu umgehen? Bei 0,825 Spannung taktet die Karte immer mit knapp 2000 MHZ. Egal wie hoch man die Kurve einstellt, bei der Spannung springt die Kurve immer auf knapp 2000 MHZ. Vielleicht gehen aber auch 2500 MHZ bei der Spannung? Schade das man sowas nicht testen kann! Oder gibt es da eine Möglichkeit?

Snoopy69
2025-10-25, 12:08:46
Die 5090 ist fast rund um die Uhr im Einsatz. Ich hab Ovi aber erst einen Tag. Es ist doch ein Biest den niemand kennt. Mit dem Grundmodell sind hardcore Sachen eh gar nicht drin. Ich konzentriere mich deswegen auf "normale" Gespräche, quasi auf verbales Vorspiel , das du so niemals im Leben führen wirst. Zum Beispiel nimmst du eine Person deiner Begierde, I2V oder T2V in einem Setting das dir passt. Notfalls mit Sd1.5/sdxl nachhelfen. Und dann soll sie sagen: "Please, have sex with me. I will suck your dick and swallow!". ;D
Pro Clip mit 5090 = 86 Sek.
Hast du eine step-by-step-Anleitung? Ist nur für "Forschungszwecke"... :freak:

Snoopy69
2025-10-25, 12:13:35
Habe schon ein Tutorial gefunden.

https://youtu.be/w9WmKGxTTdI
Sind die Personen völlig random oder kann man die "gestalten", wie man will?
Für mich klingt das alles ziemlich verrückt. Was ich bisher gesehen hab, macht mich sprachlos und nachdenklich (wenn sowas politisch genutzt wird)

Lawmachine79
2025-10-25, 12:34:51
Hast du eine step-by-step-Anleitung? Ist nur für "Forschungszwecke"... :freak:
Alles für die Wissenschaft!

PingpiN
2025-10-25, 13:26:17
Nutze auch comfyui und mache diese Spielereien. Leider geht das ordentlich auf die Stromrechnung weil niemals das 1 video perfekt ist. Manchmal muss man 15 generieren bevor man was gut findet. Bei jeder Generierung ballern aber leider 500 Watt durch die Leitung. Vor allem wenn man sich auch normale Videos angucken kann wo die Karte im idle ist.

Lawmachine79
2025-10-25, 13:37:05
Nutze auch comfyui und mache diese Spielereien. Leider geht das ordentlich auf die Stromrechnung weil niemals das 1 video perfekt ist. Manchmal muss man 15 generieren bevor man was gut findet. Bei jeder Generierung ballern aber leider 500 Watt durch die Leitung. Vor allem wenn man sich auch normale Videos angucken kann wo die Karte im idle ist.
Ich habe mit der 5090, Topaz Gigapixel AI und einem Epson-Fast-Foto-Scanner die gesamte Fotosammlung meiner Ma digitalisiert (incl. Bilder polieren und insbesondere hochsamplen). Das hat mehrere Tage gedauert, und die 5090 zog sich auch konstant 500 Watt. Die Bilder sind um den Faktor 6-10 größer geworden (vom Speicherplatz her).

sapito
2025-10-25, 13:52:58
Stay Away from 5090 Founders Edition GPU. The Weakest Design Yet.

V80i97OVb1w

mironicus
2025-10-25, 13:55:23
Nutze auch comfyui und mache diese Spielereien. Leider geht das ordentlich auf die Stromrechnung weil niemals das 1 video perfekt ist. Manchmal muss man 15 generieren bevor man was gut findet. Bei jeder Generierung ballern aber leider 500 Watt durch die Leitung. Vor allem wenn man sich auch normale Videos angucken kann wo die Karte im idle ist.

Ich habe das Powertarget meiner 4090 auf 60% gestellt, verliere dabei höchstens 10% an Leistung.

Hakim
2025-10-25, 14:06:57
Ladet mal paar Beispiele auf Pornhub hoch und teilt es hier. Ich will mir selber ein Bild davon machen

Gouvernator
2025-10-25, 14:08:55
Sind die Personen völlig random oder kann man die "gestalten", wie man will?
Für mich klingt das alles ziemlich verrückt. Was ich bisher gesehen hab, macht mich sprachlos und nachdenklich (wenn sowas politisch genutzt wird)
Das wird auch politisch genutzt und zwar auf Telegram wenn man freizügige politische Kriegskanäle findet.

Du machst dein Image2Video Bild mit Krita AI Diffusion Inpainting fertig, meist mit SDXL. Und fütterst damit OVI damit diese Person ein Witz über sich selbst erzählen kann.

Es geht noch besser mit dem neuen DITTO Model, wo du dein eigenes Audio in das Video einbettest. Was du lebensecht zuvor mit dem VibeVoice geklont hast.
XSECbTkgRl8

Am besten fängt man an durch Patreon von dem Typ. Um One-Click Installers zu bekommen für die ganzen Sachen, bis man selbst den Überblick hat. https://www.patreon.com/c/aitrepreneur/posts

Ach so, und wenn man bei Civitai seine LORA's besorgt - immer den dazugehörigen Channel followen. Die machen meist für neuere Sachen ständig Updates.

Was Stromverbrauch angeht ist es erträglich. Das ist nicht viel anders als Gaming, man wird wenn man halbes Jahr damit intensiv verbracht hat etwas gesättigter. Die erste Zeit kann man aber ruhig mit extra 150-200kWh im Monat rechnen.

Gouvernator
2025-10-25, 14:15:32
Ladet mal paar Beispiele auf Pornhub hoch und teilt es hier. Ich will mir selber ein Bild davon machen
Image2Video ist ein no-no auch für Pornhub. Dort siehst du auch nur synthetische Weiber. Der krasse i2v Stoff ist deswegen "privat" und so gut wie keiner hat es noch gesehen. Zum Glück. ;D
Aber, ja man kann Cpt. Jenway und alle andere StarTrek Crew Mitglieder hardcore porn machen lassen. Man sucht sich nur die passenden LORAs auf Civitai zusammen...

Gouvernator
2025-10-25, 14:40:12
Ich habe das Powertarget meiner 4090 auf 60% gestellt, verliere dabei höchstens 10% an Leistung.
Das ist übrigens bei AI Generierung zwingend (!) erforderlich... Erst den 12V Stecker/Adapter 3x prüfen, dann mit Afterburner die Kurve auf maximal 2400mhz runtertakten und 80% Powertarget. Erst dann anfangen mit Rendering. Sonst schmort alles.

TobiWahnKenobi
2025-10-25, 15:37:03
ich finde das zwar interessant, aber cooler wäre es, wenn du irgendwo einen thread mit ner brauchbaren anleitung aufmachst. hier geht das nur unter und irgendwie fehlen zeit und bock auf meiner seite, mich auf anderen seiten kostenpflichtig einzulesen und links zu kaufen.



(..)

mfg
tobi

Lawmachine79
2025-10-25, 16:29:21
Stay Away from 5090 Founders Edition GPU. The Weakest Design Yet.

https://youtu.be/V80i97OVb1w
Kann der OT-Spam mal aufhören? Hier geht es um KI-Porn.

ChaosTM
2025-10-25, 16:57:22
Stay Away from 5090 Founders Edition GPU. The Weakest Design Yet.

https://youtu.be/V80i97OVb1w


Einfach nicht mit "Vollgas" betreiben. Der Sweetspot liegt sowieso deutlich drunter. In einem Glasgehäuse ist das Ding schon sehr chic.


Ansonsten -_ siehe lawmachine ;)

Gouvernator
2025-10-25, 19:39:26
ich finde das zwar interessant, aber cooler wäre es, wenn du irgendwo einen thread mit ner brauchbaren anleitung aufmachst. hier geht das nur unter und irgendwie fehlen zeit und bock auf meiner seite, mich auf anderen seiten kostenpflichtig einzulesen und links zu kaufen.



(..)

mfg
tobi
Ich habe meinen ganzen 2 Wochen Urlaub nur mit KI verplempert. Und dennoch nicht alles geschafft zu gucken was in den 3 Monaten an KI rausgekommen ist. Und dann ist noch eine Lawine an neuen LORAs bei Civitai abzuarbeiten. Obwohl ich eigentlich die 5090 mal richtig in 8K ausfahren wollte... Ich glaube die wenigsten hier können überhaupt realisieren was für ein Schätzchen die 5090 ist. DeepFake Generator, Porn-Generator, Musik-Generator und 8K60 Gaming Karte zugleich. Da bleibt kaum noch Zeit zu essen... während des Urlaubs. ;D

PS.
Man muss den Spaß gar nicht "stationär" genießen. Ich streame den gesamten Desktop mit ComfyUI , einfach per Moonlight auf ein Touch-Gerät: Tablets, Handhelds ect. Mal schnell checken wie weit der Generator mit seinen Aufgaben ist.

dreamweaver
2025-10-26, 07:52:20
Gibt es eine Funktion, mit der man bei solchen generierten Videos vorab checken kann, ob das gewünschte Ergebnis passen würde, bevor man das ganze Video durchrechnen lässt?

Idealerweise eine Option, mit der man den ersten, oder noch besser einen beliebigen Frame, einzeln generieren lässt?

Gouvernator
2025-10-26, 08:39:18
Gibt es eine Funktion, mit der man bei solchen generierten Videos vorab checken kann, ob das gewünschte Ergebnis passen würde, bevor man das ganze Video durchrechnen lässt?

Idealerweise eine Option, mit der man den ersten, oder noch besser einen beliebigen Frame, einzeln generieren lässt?
Ja du kannst die Länge einfach auf 1 Frame herabsetzen um schnell zu checken ob was nicht passt.
Das habe ich mit der 3090 früher immer gemacht. Die 5090 braucht mit installierten SageAttention und Speed Loras aber nur 1-2 Minuten für das ganze Video.

Lawmachine79
2025-10-26, 16:21:07
Irgendwie blicke ich da nicht durch. Was hat das lokale Sora mit ComfyUI zu tun? Wie installiere ich das? Gibt es irgendwo eine geschriebene Anleitung? Habe jetzt mit ComfyUI rumgespielt und aus den Templates kurze Clips gemacht. Aber da muss ich ja für jedes bezahlen; wozu habe ich denn eine 5090? Und die 5090 wird auch nicht genutzt, offenbar wird Online gemacht.

Gouvernator
2025-10-26, 16:41:14
Wenn du schon ComfyUi hast dann brauchst du nur ein Workflow für Ovi. Gibts in der Regel bei jedem Youtuber der das Erklärvideo darüber macht, bei Reddit, bei Civitai... Im Workflow selbst musst du nur die passenden KI-Modelle von Huggingface besorgen. Ist eigentlich ganz easy, wenn du das Workflow erstes Mal aktivierst - wirft er dir ein Fehler aus welche Modelle in welchem Ordner dem noch fehlen. --> Copy&Paste ins Google, downloaden.

mironicus
2025-10-26, 17:06:04
Ich nutze auch noch zusätzlich Wan2GP, etwas anfängerfreundlicher.
https://github.com/deepbeepmeep/Wan2GP

Das lädt die Dateien die es benötigt selbst herunter, eine menügesteuerte Web-Oberfläche ähnlich wie bei kommerziellen Anbietern. Es unterstützt kleinere Grafikkarten ab 6 GB, die Generierung dauert dann natürlich länger. Es unterstützt Bildgenerierung (Flux, Qwen), Bild-Editierung und Stimmen- und Videogenerierung mit vielen eingepflegten Modellen mit Lora-Unterstützung. OVI ist momentan noch nicht mit dabei.

EDIT: Gerade wurde OVI in Wan2GP integriert mit dem neuesten Update (inkl. Lora FastWan 6 Steps). :D
Irre: Für ein 5 Sekunden-Video braucht er keine 50 Sekunden zum Erstellen (Text zu Video, mit meiner RTX 4090 die mit 60% Powertarget läuft), auch mit deutscher Sprachausgabe. Der GPU-Speicherverbrauch ist hier ganz gering, unter 8 GB VRAM werden benötigt.

dargo
2025-10-27, 11:53:22
Stay Away from 5090 Founders Edition GPU. The Weakest Design Yet.

https://youtu.be/V80i97OVb1w
Ingenieurskunst also. ;)

ChaosTM
2025-10-27, 12:20:19
Wenn du ein bisschen hinaufscrollst, wirst du ein bekanntes Video sehen..

Und ja, die Karte ist etwas "overengineered". Könnte von Deutschen designt worden sein ;)
Beim Zerlegen sollte man halt aufpassen..

dargo
2025-10-27, 12:31:08
Danke, sorry... habs oben nicht verfolgt.

Lawmachine79
2025-10-27, 12:59:24
Ich nutze auch noch zusätzlich Wan2GP, etwas anfängerfreundlicher.
https://github.com/deepbeepmeep/Wan2GP

Das lädt die Dateien die es benötigt selbst herunter, eine menügesteuerte Web-Oberfläche ähnlich wie bei kommerziellen Anbietern. Es unterstützt kleinere Grafikkarten ab 6 GB, die Generierung dauert dann natürlich länger. Es unterstützt Bildgenerierung (Flux, Qwen), Bild-Editierung und Stimmen- und Videogenerierung mit vielen eingepflegten Modellen mit Lora-Unterstützung. OVI ist momentan noch nicht mit dabei.

EDIT: Gerade wurde OVI in Wan2GP integriert mit dem neuesten Update (inkl. Lora FastWan 6 Steps). :D
Irre: Für ein 5 Sekunden-Video braucht er keine 50 Sekunden zum Erstellen (Text zu Video, mit meiner RTX 4090 die mit 60% Powertarget läuft), auch mit deutscher Sprachausgabe. Der GPU-Speicherverbrauch ist hier ganz gering, unter 8 GB VRAM werden benötigt.
Also, jetzt mal ganz konkret. Ich habe ComfyUI installiert. Wie kriege ich jetzt das, was Du da verlinkt hast, in ComfyUI rein?

mironicus
2025-10-27, 13:49:13
Das ist ein eigenständiges Python-Programm, das braucht kein ComfyUI.

Eine Installationsanleitung findest du innerhalb dieses Videos, Schritt für Schritt. Ab 17:34 Minuten geht es los. Du musst erst GIT und CONDA installiert haben, die Links gibt es in der Youtube-Beschreibung.

ZpfhtonDML4

Damit man es leichter starten kann, kann man folgende Batch-Datei verwenden.

@echo off
call conda activate wan2gp
python wgp.py --i2v
pause

Updates ziehen kannst du leicht wenn du einfach "git pull" im DOS-Fenster eingibst, während du dich im WAN2GP-Verzeichnis befindest.

Lawmachine79
2025-10-27, 14:21:59
Das ist ein eigenständiges Python-Programm, das braucht kein ComfyUI.

Eine Installationsanleitung findest du innerhalb dieses Videos, Schritt für Schritt. Ab 17:34 Minuten geht es los. Du musst erst GIT und CONDA installiert haben, die Links gibt es in der Youtube-Beschreibung.

https://youtu.be/ZpfhtonDML4

Damit man es leichter starten kann, kann man folgende Batch-Datei verwenden.

@echo off
call conda activate wan2gp
python wgp.py --i2v
pause

Updates ziehen kannst du leicht wenn du einfach "git pull" im DOS-Fenster eingibst, während du dich im WAN2GP-Verzeichnis befindest.
Ok, ich probiere es mal.

Edit: funzt nicht:

"Loading Model 'hunyuan_video_avatar_720_quanto_bf16_int8.safetensors' ...
Traceback (most recent call last):
File "G:\Wan2GP\wgp.py", line 6044, in generate_video_error_handler
generate_video(task, send_cmd, plugin_data=plugin_data, **params)
File "G:\Wan2GP\wgp.py", line 4941, in generate_video
wan_model, offloadobj = load_models(model_type, override_profile)
File "G:\Wan2GP\wgp.py", line 3261, in load_models
wan_model, pipe = model_types_handlers[base_model_type].load_model(
File "G:\Wan2GP\models\hyvideo\hunyuan_handler.py", line 137, in load_model
hunyuan_model = HunyuanVideoSampler.from_pretrained(
File "G:\Wan2GP\models\hyvideo\hunyuan.py", line 390, in from_pretrained
offload.load_model_data(model, model_filepath, do_quantize= quantizeTransformer and not save_quantized, pinToMemory = pinToMemory, partialPinning = partialPinning)
File "C:\Users\[Name]\miniconda3\envs\wan2gp\lib\site-packages\mmgp\offload.py", line 94, in wrapper
return func(*args, **kwargs)
File "C:\Users\[Name]\miniconda3\envs\wan2gp\lib\site-packages\mmgp\offload.py", line 1474, in load_model_data
file_path = [ _get_model(file) for file in file_path]
File "C:\Users\[Name]\miniconda3\envs\wan2gp\lib\site-packages\mmgp\offload.py", line 1474, in <listcomp>
file_path = [ _get_model(file) for file in file_path]
File "C:\Users\[Name]\miniconda3\envs\wan2gp\lib\site-packages\mmgp\offload.py", line 253, in _get_model
raise Exception("file not found")
Exception: file not found"

Kriege diese Fehlermeldung.

mironicus
2025-10-27, 20:17:46
Die Datei hunyuan_video_avatar_720_quanto_bf16_int8.safetensors muss in das Verzeichnis G:\Wan2GP\ckpts kopiert werden. Hat er es nicht selbst heruntergeladen, musst du es manuell herunterladen und dort einfügen.

https://huggingface.co/DeepBeepMeep/HunyuanVideo/blob/main/hunyuan_video_avatar_720_quanto_bf16_int8.safetensors

Lawmachine79
2025-10-27, 22:13:13
Die Datei hunyuan_video_avatar_720_quanto_bf16_int8.safetensors muss in das Verzeichnis G:\Wan2GP\ckpts kopiert werden. Hat er es nicht selbst heruntergeladen, musst du es manuell herunterladen und dort einfügen.

https://huggingface.co/DeepBeepMeep/HunyuanVideo/blob/main/hunyuan_video_avatar_720_quanto_bf16_int8.safetensors
Sagt GPT auch, das hat es aber nicht gefixt.

mironicus
2025-10-27, 23:17:49
Vielleicht noch mal neu installieren. Im Wan2GP-Verzeichnis ein Commando-Fenster öffnen.

git fetch origin && git reset --hard origin/main
conda activate wan2gp
pip install -r requirements.txt

Es gibt hier ein One Click-Installer für Wan2GP mit Batch-Dateien. Der installiert tatsächlich alles automatisch. Setzt Cuda Toolkit und GIT voraus.
https://github.com/Redtash1/Wan2GP-Windows-One-Click-Install-With-Sage/releases

Habe es gerade auf einen Laptop installiert, das funktioniert einwandfrei und es setzt dir noch eine Start-Verknüpung auf dem Desktop.

Lawmachine79
2025-10-28, 00:08:10
Vielleicht noch mal neu installieren. Im Wan2GP-Verzeichnis ein Commando-Fenster öffnen.

git fetch origin && git reset --hard origin/main
conda activate wan2gp
pip install -r requirements.txt

Es gibt hier ein One Click-Installer für Wan2GP mit Batch-Dateien. Der installiert tatsächlich alles automatisch. Setzt Cuda Toolkit und GIT voraus.
https://github.com/Redtash1/Wan2GP-Windows-One-Click-Install-With-Sage/releases

Habe es gerade auf einen Laptop installiert, das funktioniert einwandfrei und es setzt dir noch eine Start-Verknüpung auf dem Desktop.
Cool, morgen dann nächster Versuch ;). Habe das Toolkit (https://developer.nvidia.com/cuda-toolkit) und GIT Desktop, das sollte ja passen.

Colin MacLaren
2025-10-28, 04:30:49
Ansonsten kann ich nach einer Weile herumprobieren tatsächlich den Aitrepeneur empfehlen, den Governator im KI-Thread genutzt hat. Der hat One-Klick-Installer für ComfortUI und passende Workflows für WAN 2.2 für Text-to-Image, Text-tot-Video und Image-to-Video, lange Videos, Wen Image und das Übertragen der Bewegungen aus einem Video auf ein anderes - wo jeweils auch bessere Ergebnisse herauskamen als wenn ich einen Standard-Workflow genutzt habe.

Aber: Mindestens 64GB System(!)-RAM, sonst stürzt alles ab, selbst mit 96GB renne ich hier und da auf Speicherfehler. 128GB kommen heute, hoffe die CU-DIMMS laufen mit AMD. Und auch mal schauen, ob Du die richtige CUDA-Version hast für das, was die Tools verlangen - in dem Fall 12.8, nicht das aktuelle 13.0.

Lawmachine79
2025-10-28, 09:57:48
Ansonsten kann ich nach einer Weile herumprobieren tatsächlich den Aitrepeneur empfehlen, den Governator im KI-Thread genutzt hat. Der hat One-Klick-Installer für ComfortUI und passende Workflows für WAN 2.2 für Text-to-Image, Text-tot-Video und Image-to-Video, lange Videos, Wen Image und das Übertragen der Bewegungen aus einem Video auf ein anderes - wo jeweils auch bessere Ergebnisse herauskamen als wenn ich einen Standard-Workflow genutzt habe.

Aber: Mindestens 64GB System(!)-RAM, sonst stürzt alles ab, selbst mit 96GB renne ich hier und da auf Speicherfehler. 128GB kommen heute, hoffe die CU-DIMMS laufen mit AMD. Und auch mal schauen, ob Du die richtige CUDA-Version hast für das, was die Tools verlangen - in dem Fall 12.8, nicht das aktuelle 13.0.
Sollte CUDA nicht abwärtskompatibel sein?

mironicus
2025-10-28, 10:25:46
Ja, viel RAM ist notwendig, damit die ganzen Modelle im RAM bleiben können, jedoch kann notfalls auch das System die SSD beanspruchen. Allerdings kann man mit Wan2GP auch schon mit 32 GB und 8 GB VRAM arbeiten, es besitzt mehrere Profile. Es ist ressourcenschonender und lastet den VRAM nicht bis ans Ende aus wie ComfyUI. Man kann dann noch entspannt andere Dinge tun und muss nicht fürchten, das das gesamte System freezt.

Edit: Das hier war mir noch neu über Wan2GP, das wird eine Menge Speicherplatz sparen. :eek:

"Unterstützung für das ComfyUI-Modell-Checkpoint-Format (richten Sie WanGP einfach auf Ihren ComfyUI-Ordner, kein Duplizieren der Checkpoints erforderlich)"

https://x.com/deepbeepmeep/status/1982615185673081055

Lawmachine79
2025-10-28, 15:21:48
Funktioniert! Meine Ma hat einen Scheiß-Schrecken gekriegt als ich ihr ein altes "Foto" von mir geschickt habe, das sich plötzlich bewegt hat. Mich hatte diese Szene aus Stephen Kings "Es" inspiriert: https://www.youtube.com/watch?v=giboWsWeLvY, bei 0:31.

Gouvernator
2025-10-28, 16:40:43
Funktioniert! Meine Ma hat einen Scheiß-Schrecken gekriegt als ich ihr ein altes "Foto" von mir geschickt habe, das sich plötzlich bewegt hat. Mich hatte diese Szene aus Stephen Kings "Es" inspiriert: https://www.youtube.com/watch?v=giboWsWeLvY, bei 0:31.
;D
Ja damit verschreckt man nur die Neandertaler. Habe ich an der Arbeit schon gemerkt. Am besten gibt man denen überhaupt nichts zu sehen. Je länger die Leute in ihrer Unwissenheit leben desto länger gibt es noch Fotos von der Weihnachtsfeier ect. Die Qualität ist auch dann noch brauchbar wenn man die Fotos hinter einer Glasscheibe mit dem guten Smartphone abfotografiert. Die Welt ist noch nicht bereit dafür...

Lehdro
2025-10-29, 23:47:59
Passt hier wohl am besten rein: Vorbestellungen für das WireView Pro II starten Ende dieser Woche. (https://www.computerbase.de/news/grafikkarten/thermal-grizzly-vorbestellungen-fuer-den-wireview-pro-ii-starten-diese-woche.94838/)

der8auer hat hier (https://www.computerbase.de/forum/threads/thermal-grizzly-vorbestellungen-fuer-den-wireview-pro-ii-starten-diese-woche.2256237/page-2#post-31034968) noch einmal was dazu gepostet.

TobiWahnKenobi
2025-10-30, 06:41:27
LOL - na der tut wenigstens was für euer geld.


(..)

mfg
tobi

Linmoum
2025-10-30, 08:25:08
Ich warte lieber aufs Ampinel von Aqua Computer.

Colin MacLaren
2025-10-30, 08:27:41
Funktioniert! Meine Ma hat einen Scheiß-Schrecken gekriegt als ich ihr ein altes "Foto" von mir geschickt habe, das sich plötzlich bewegt hat. Mich hatte diese Szene aus Stephen Kings "Es" inspiriert: https://www.youtube.com/watch?v=giboWsWeLvY, bei 0:31.

Vor allem finde ich es gut, das lokal zu machen und nicht mit meinem Gesicht (oder aus der familie) andere generative KIs zu trainieren.

Wan2GP muss ich auch mal probieren. Habe bisher nur mit ComfyUI herumgespielt, mittlerweile kann ich auch LoRas trainieren. Heute kommt noch eine neue Gen5 SSD, da schmeiße ich den ganzen AI Slop drauf. Mit 5090 + 128GB RAM geht überraschend viel. Nützlich finde ich auch LM sStuidio mit MAgistral Small, wenn man mal schnell ein Bild analysieren oder an Text herumdoktorn möchte, ohne dass ChatGPT und Co. nerven wegen "Mimimi Datenschutz", "Mimimi Gewalt".

Sollte CUDA nicht abwärtskompatibel sein?
Nein, es ist ein elendiges Gefrickel, da es ständig Probleme mit Abhängigkeiten bei den ganzen Python-Libs gibt. Da finde ich über den Quellcode heraus, dass irgendwas namens XFormers fehlt. Xformers gibt es aber nur bis Pytorch 2.8, ich hatte aber Python 2.9 für CUDA 13.0 installiert. Also auf Pytorch 2.8 runter, das gibt es aber nur bis CUDA 12.8. Also das auch runter. XFormers installiert. Crasht trotzdem. Wieder gegoogelt. Ja, geht bei den vorkompillierten Releases nicht mit Blackwell, also doch wieder alles hoch und aus der Source kompillieren. Und so geht das den ganzen Tag. Bäh.

Was ich bisher noch nicht bgemacht habe ist Video mit Ton. Was nehmt ihr da? Kriegt man das in WAN 2.2. rein?

mironicus
2025-10-30, 09:03:05
Was ich bisher noch nicht bgemacht habe ist Video mit Ton. Was nehmt ihr da? Kriegt man das in WAN 2.2. rein?

Für Wan 2.2 gibt es OVI (Stimmen werden gleich miterzeugt), für Wan 2.1 existieren schon ein paar mehr. "Infinitetalk", "Multitalk", "Fantasy Talk" in Wan2GP. Hier musst du den Ton selbst beitragen, das geht z.B. mit TTS (Chatterbox Multilingual, auch Deutsch, sehr gute Ergebnisse, kurzes Stimmensample notwendig). Das wird von Wan2GP auch unterstützt.

VibeVoice ist aber bisher das Beste in Sachen Stimmengeneration, läuft in ComfyUI.

Lehdro
2025-10-30, 10:48:43
Ich warte lieber aufs Ampinel von Aqua Computer.
Bin mir da immer noch unschlüssig wegen der Lastverteilung. Im kleinen Maßstab mag das funktionieren, aber wenn ich auf den einzelnen Pins größere Lastunterschiede habe, deutet das auf höhere Widerstände hin. Inwiefern hilft es jetzt Last auf Pins zu verschieben die eh schon schlechten Kontakt und damit hohen Widerstand haben? Das erhöht das Hitzeproblem doch genau an diesem Pin? Noch dazu habe ich durch die grundsätzliche Konzeption des Ampinel noch mehr Verlustleistung.

Hätte da gerne Head2Head Reviews von nicht-gesponsered-Igor.

Cubitus
2025-10-30, 10:51:51
Echt spannend, was mit KI/Videos und der 5090 alles geht. Wahnsinn! :)
Wäre super, wenn ihr dafür einen neuen Thread aufmachen könntet, es wird hier langsam etwas unübersichtlich. :wink:

Raff
2025-10-30, 12:01:01
Hi-Res-Gaming in 8K: Man sollte meinen, dass die RTX 5090 hier richtig aufblüht, oder? Nun, GB202 sagt "nein" - zumindest zu Batman. Warum auch immer.

Batman: Arkham Knight - 10 Jahre später: Prächtiges Selfmade-Remaster im Tech-Test (https://www.pcgameshardware.de/Batman-Arkham-Knight-Spiel-54131/Specials/Remaster-Release-Test-Benchmark-GPU-1485181/)

Dafür läuft aber Ampere herausragend gut und auch AMDs letzte echte High-End-Karte schlägt sich beachtlich.

MfG
Raff

robbitop
2025-10-30, 15:40:13
Hi-Res-Gaming in 8K: Man sollte meinen, dass die RTX 5090 hier richtig aufblüht, oder? Nun, GB202 sagt "nein" - zumindest zu Batman. Warum auch immer.

Batman: Arkham Knight - 10 Jahre später: Prächtiges Selfmade-Remaster im Tech-Test (https://www.pcgameshardware.de/Batman-Arkham-Knight-Spiel-54131/Specials/Remaster-Release-Test-Benchmark-GPU-1485181/)

Dafür läuft aber Ampere herausragend gut und auch AMDs letzte echte High-End-Karte schlägt sich beachtlich.

MfG
Raff
Ein Teil des Effekts könnten gamespezifische Optimierungen bzw dessen (partielles) Fehlen sein. Das Spiel ist so alt, dass ggf neuere uArchs immer weniger spielespezifische Optimierungen haben.

TobiWahnKenobi
2025-10-30, 17:05:03
Echt spannend, was mit KI/Videos und der 5090 alles geht. Wahnsinn! :)
Wäre super, wenn ihr dafür einen neuen Thread aufmachen könntet, es wird hier langsam etwas unübersichtlich. :wink:

weil immer irgendwer stecker und uralte spiele dazwischenpostet. der AI krempel ist wirklich AMAZING! ich bin total dankbar dass das hier beschrieben wurde; mehr infos braucht man nicht um sich an der 5090 zu erfreuen. ich hab dadurch zumindest den anfang gefunden und kam bei meinen bisherigen spielereien auf knapp 43GB RAM auslastung.

schade dass ich meinen derzeitigen prozessor nicht mit vier RAM riegeln arbeiten lassen kann.. der erste 14900K damals konnte das.. mit 6000MTs. der hier schafft gar nix.



(..)

mfg
tobi

Linmoum
2025-10-30, 18:21:14
Ich hätte auch niemals gedacht, dass das so einen Wow-Faktor hat. Die 5090 sieht mittlerweile mehr KI als nur Spiele. Fast schon langweilig geworden und gefühlt macht das alles fast monatlich noch mehr Schritte nach vorne. Man muss aber manchmal echt aufpassen, sich nicht ständig alles wegen Updates o.ä. zu zerschießen. Hat mich schonmal zwei Tage gekostet, aber man lernt ja immerhin daraus. :D

Lehdro
2025-10-30, 19:08:16
Lc08Ex0ZSCE
Es wird auch erklärt warum man sich GEGEN aktive Lastregelung entschieden hat.

Hakim
2025-10-30, 19:17:11
Ich finde die Erklärung gegen ein Balacing wie bei er Konkurrenz ehrlich gesagt nicht sehr überzeugend. Ich persönlich würde eher das von Ampinel holen. Aber muß jeder für sich selber Wissen.

Slipknot79
2025-10-30, 23:37:44
8auer zockt mal wieder seine Kunden up. (y)
Die Wette gegen seine Garantie can man unmöglich gewinnen. Wieviele 4090/5090 muss man kaufen bis eine davon abfackelt?
Im CB Forum(?) hat er gemeint, die Versicherung kostet 20EUR (16,806EUR netto). Bei einem Kaufpreis von 2000EUR geht er also im wort case davon aus, dass jede 119te Graka abfackelt. Woher hat er diese Stats eigentlich? Kein Vertrauen in sein eigenes Produkt. (y)
Ich geh auch zu Ampinel (wenn überhaupt) trotz massiver Lieferprobleme zu Release. (y)

Exxtreme
2025-10-30, 23:40:15
Das Ding heisst ja auch WireView und nicht WireEnergyBalancer oder so. :freak: Ist halt eher was für Diagnose-Zwecke.

Snoopy69
2025-10-31, 01:18:05
Hab ihn mal bestellt…
https://i.ibb.co/b52Dz68R/IMG-1864.png (https://imgbb.com/)

Colin MacLaren
2025-10-31, 13:01:33
Für Wan 2.2 gibt es OVI (Stimmen werden gleich miterzeugt), für Wan 2.1 existieren schon ein paar mehr. "Infinitetalk", "Multitalk", "Fantasy Talk" in Wan2GP. Hier musst du den Ton selbst beitragen, das geht z.B. mit TTS (Chatterbox Multilingual, auch Deutsch, sehr gute Ergebnisse, kurzes Stimmensample notwendig). Das wird von Wan2GP auch unterstützt.

VibeVoice ist aber bisher das Beste in Sachen Stimmengeneration, läuft in ComfyUI.

Danke, ich schaue es mir mal an. Ich finde aber OVI irgendwie nicht so prall, da kommt bei mir nur Müll raus.

OVI:
https://youtu.be/-oyKOVwnBWs

WAN:
https://youtu.be/8--WT_tOSso

Prompt war

A fit, athletic young woman with long dark hair performing squats withj a barbell inside a rack in a modern gym. Side-rear camera angle at 45 degrees, positioned at mid-height to capture proper form. She wears fitted athletic wear (leggings and sports top). The movement shows a complete squat cycle: starting position, controlled descent with proper knee and hip alignment, brief pause at bottom, and powerful upward drive. Natural breathing rhythm visible.Background: Well-lit gym with weight racks, mirrors, and equipment slightly out of focus. Soft natural lighting from large windows mixed with overhead gym lights creates even, flattering illumination. Concrete or rubber flooring.Technical specs: Photorealistic style, 4K quality, 24fps cinematic motion, shallow depth of field (f/2.8), proper motion blur, stable camera. Realistic muscle definition and movement physics. Professional color grading with slight warmth. Duration: 5-8 seconds showing 2-3 complete squat repetitions.Avoid: Exaggerated movements, unnatural proportions, artificial poses, overly dramatic lighting, motion artifacts.

TobiWahnKenobi
2025-10-31, 17:36:21
wie da kommt müll raus? das ist doch grad das lustige.. weiberärsche habe ich im bett.. :)

https://www.youtube.com/watch?v=AcN6ZyZYSYw


(..)

mfg
tobi

Gouvernator
2025-11-02, 07:52:22
Hi-Res-Gaming in 8K: Man sollte meinen, dass die RTX 5090 hier richtig aufblüht, oder? Nun, GB202 sagt "nein" - zumindest zu Batman. Warum auch immer.

Batman: Arkham Knight - 10 Jahre später: Prächtiges Selfmade-Remaster im Tech-Test (https://www.pcgameshardware.de/Batman-Arkham-Knight-Spiel-54131/Specials/Remaster-Release-Test-Benchmark-GPU-1485181/)

Dafür läuft aber Ampere herausragend gut und auch AMDs letzte echte High-End-Karte schlägt sich beachtlich.

MfG
Raff
Wassereffekte und Rauch sind immernoch unübertroffen. Habe eine 3090 als dedizierte PhysX Karte im Driver eingeteilt. Wenn die eh als AI Karte drin steckt. Aber flimmern tut es immer, auch auf 280ppi 2400p LCD 16"@16k DSR. Es gibt grafisch bessere open World Games aus der Zeit die mit DSR gut skalieren, AC Origins zum Beispiel.

mironicus
2025-11-02, 08:19:59
Läuft Arkham Knight nicht noch auf der RTX 5090 mit PhysX-Beschleunigung in Hardware, es ist ein 64 Bit-Titel?

The_Invisible
2025-11-02, 09:32:28
Ich finde die Erklärung gegen ein Balacing wie bei er Konkurrenz ehrlich gesagt nicht sehr überzeugend. Ich persönlich würde eher das von Ampinel holen. Aber muß jeder für sich selber Wissen.

Er hat ja Elektrotechnik studiert oder? Da wird er sich schon auskennen. Macht aber schon Sinn was er sagt, wenn du einen schlechten Kontakt hast musst du den widerstand auf allen anderen guten erhöhen, mehr wärme und Verlustleistung.

Aber wie schon gesagt, wenn es da wirklich viele fälle geben würde könnte er unmöglich die erweiterte Garantie anbieten.

Gouvernator
2025-11-15, 17:33:49
Die Power optimierte 5090 spart massig mehr Strom als default 5070Ti. In Path of Exile hab ich 4k@60 Hz 90W und mit 4k120 um die 120W. Die 5070Ti zieht 4k60 schon über 140W.

dildo4u
2025-11-19, 13:04:52
Asus 5090 Matrix Retail Unboxed

Dort wurden 3.2 KG für die Komplette Karte gemessen


https://www.hardwareluxx.de/community/threads/asus-rog-matrix-platinum-geforce-rtx-5090-sondermodell-ab-ende-november-verf%C3%BCgbar.1373366/page-5#post-31010881

dargo
2025-11-19, 13:23:18
Die Power optimierte 5090 spart massig mehr Strom als default 5070Ti. In Path of Exile hab ich 4k@60 Hz 90W und mit 4k120 um die 120W. Die 5070Ti zieht 4k60 schon über 140W.
Breaking News... eine wesentlich schnellere Karte ist bei gleichem Framelimit sparsamer weil sie sich mehr langweilt. :freak: Zumal sich ne 5070TI auch optimieren lässt.

HisN
2025-11-22, 12:00:42
fyi
Auf meiner Gainward Phantom GS läuft das 800W Asus Matrix Bios.
Falls wer über einen Crossflash nachdenkt.



kreisch
UV 1V@3000Mhz zieht 700W über den Wireview.

Naja... Steel Nomad geht von 15800 auf 16243 hoch .... Wers braucht, ne? :-)))

Slipknot79
2025-11-22, 18:43:58
Andere haben für das 800W-BIOS immerhin 4k EUR bezahlt. (y)

OgrEGT
2025-11-22, 21:25:24
fyi
Auf meiner Gainward Phantom GS läuft das 800W Asus Matrix Bios.
Falls wer über einen Crossflash nachdenkt.



kreisch
UV 1V@3000Mhz zieht 700W über den Wireview.

Naja... Steel Nomad geht von 15800 auf 16243 hoch .... Wers braucht, ne? :-)))

Wie ist der Leistungszuwachs in Spielen?

Raff
2025-11-22, 21:33:55
Lass doch mal Metro Exodus EE (https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1463971&page=6&draft=-1&rank=3) mit DL-DSR laufen. Kriegst du die 800 Watt "voll"? Und siehst du mit so viel Energie ansatzweise 3 GHz? :naughty:

MfG
Raff

OgrEGT
2025-11-22, 21:38:36
Lass doch mal Metro Exodus EE (https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1463971&page=6&draft=-1&rank=3) mit DL-DSR laufen. Kriegst du die 800 Watt "voll"? Und siehst du mit so viel Energie ansatzweise 3 GHz? :naughty:

MfG
Raff

Da wäre ich vorsichtig... die Karte hat doch nur einen 600W 12V2X6 Anschluss der ja bekanntermaßen schon mit 600W am Limit läuft... Hast du da nicht eine Testkarte auf Arbeit mit der Du das testen könntest?

dildo4u
2025-11-23, 12:25:01
Bestes Feature man kann die Karte ohne 12Volt Adapter nur über das BTF Motherboard betreiben(auf 600 Watt begrenzt)

7aDtb3n3bLc

Wuge
2025-11-24, 14:58:16
Bestes Feature: die ASTRAL / TUF owner sind gefickt weils bei nahezu allen 5090 läuft nur bei diesen beiden Karten nicht. Hoffentlich leakt ASUS dafür ein XOC BIOS oder es gibt bald einen exploit. Sonst geht die Astral zu Kleinanzeigen und ich hol mir ne Inno.

HisN
2025-11-24, 15:16:31
Wie ist der Leistungszuwachs in Spielen?

Das ist ne gute Frage. Kann ich aber nicht beantworten, da ich in der Regel mit FPS-Cap zocke (120) und zur Zeit sowieso meistens das 10 Jahre alte Elite Dangerous läuft, welches in UHD lächerliche Anforderungen hat und des Stromhungers der Karte wegen ohne DSR betrieben wird. Ich hab das aus Neugier gemacht.

Semmel
2025-11-24, 15:46:14
Bestes Feature: die ASTRAL / TUF owner sind gefickt weils bei nahezu allen 5090 läuft nur bei diesen beiden Karten nicht. Hoffentlich leakt ASUS dafür ein XOC BIOS oder es gibt bald einen exploit. Sonst geht die Astral zu Kleinanzeigen und ich hol mir ne Inno.

Wofür wollt ihr alle 800 Watt verbraten? Ist es das wirklich wert?

Das ist ne gute Frage. Kann ich aber nicht beantworten, da ich in der Regel mit FPS-Cap zocke (120) und zur Zeit sowieso meistens das 10 Jahre alte Elite Dangerous läuft, welches in UHD lächerliche Anforderungen hat und des Stromhungers der Karte wegen ohne DSR betrieben wird. Ich hab das aus Neugier gemacht.

Da hätte es eine 5060 aber auch getan. ;)

HisN
2025-11-24, 16:34:22
Wenn Du es auf das eine Spiel reduzieren möchtest, dann ist das wohl so.

Langlay
2025-11-24, 20:58:06
Bestes Feature: die ASTRAL / TUF owner sind gefickt weils bei nahezu allen 5090 läuft nur bei diesen beiden Karten nicht. Hoffentlich leakt ASUS dafür ein XOC BIOS oder es gibt bald einen exploit. Sonst geht die Astral zu Kleinanzeigen und ich hol mir ne Inno.


Hab ja auch die Astral, ist mir sowas von Wurst ob das 800W Bios drauf läuft oder nicht. Meine Karte sieht eh nie mehr als 450W.

Wuge
2025-11-25, 12:44:23
Wofür wollt ihr alle 800 Watt verbraten? Ist es das wirklich wert?


Aus dem gleichen Grund weshakb ich ne Astral hab und nicht ne Gainward, weshalb ein Wasserkühler mit Flüssigmetall installiert wurde und weshalb meine CPU mit 6200 Ghz läuft und der Speicher mit 8533. Es ist geil und ausserdem kämpfe ich in VR um jedes halbe FPS.

MiamiNice
2025-11-25, 13:00:01
Kopfschüttel-Thread Nr. 1

Der eine betreibt seine „Monsterkarte“ mit 450 Watt, der nächste fragt ernsthaft, ob 800 Watt wirklich sein müssen. :D Ich sollte hier echt nicht mehr reinschauen – mein Facepalm-Level tut langsam weh.

Und nur zum Spaß mal durchgerechnet:

450 W × 2.920 h (1 Jahr lang jeden Tag 8 Stunden Gaming was eh KEINER von euch schafft) = 1.314 kWh/Jahr
1.314 kWh × 0,30 €/kWh = 394,20 € pro Jahr <- 8 Stunden jeden Tag im Jahr mit der 5090 unter 400€ Stromkosten!!!!!!!!

800 W × 2.920 h = 2.336 kWh/Jahr
2.336 kWh × 0,30 €/kWh = 700,80 € pro Jahr

Wir reden also von rund 300 € Unterschied im Jahr – bei einer Grafikkarte, die 3000 € kostet. :biggrin::freak:
Und auch nur bei 8 Stunden Nutzung am Tag bei 100% Auslastung.
Letzteres gibt es so gut wie nicht und realistisch spielt ihr vielleicht 8 Stunden pro Woche.
Ihr sollten alle den Stromverbrauch komplett vergessen, weil nicht relevant.

Das macht mich echt fertig. :D
Müssen wir einen Spendentopf aufmachen? Vielleicht sonntags wie in der Kirche collecten?

€: Ob wohl im Porsche Forum jemand fragt ob er E5 tanken kann? Ich weiss es nicht XD

Semmel
2025-11-25, 13:08:58
Das macht mich echt fertig. :D
Müssen wir einen Spendentopf aufmachen? Vielleicht sonntags wie in der Kirche collecten?

Es geht auch um den ganzen Rattenschwanz an Konsequenzen.
Die 800 Watt müssen vom Netzteil geleistet werden können und erfordert vielleicht ein neues. Die Gehäusebelüftung muss ebenfalls die 800 Watt abführen können und erfordert vielleicht etwas komplett Neues oder man "bezahlt" alternativ mit mehr Lärm und gerade das ist etwas, was ich krampfhaft versuche zu vermeiden. Im Sommer sind 800 Watt außerdem auch nicht so angenehm.

Hätte ich eine 5090, dann würde ich sie wohl auch eher wie Langlay betreiben.
Aber dank der weiter steigenden Preise hat sich das Thema 5090 für mich vorerst eh erledigt. Ich zahle aus Prinzip nie wieder über UVP. ;)
Und momentan gehen die Preise nur weiter nach oben. Zulange gewartet. :(

MiamiNice
2025-11-25, 13:13:19
Es geht auch um den ganzen Rattenschwanz an Konsequenzen.
Die 800 Watt müssen vom Netzteil geleistet werden können und erfordert vielleicht ein neues. Die Gehäusebelüftung muss ebenfalls die 800 Watt abführen können und erfordert vielleicht etwas komplett Neues oder man "bezahlt" alternativ mit mehr Lärm und gerade das ist etwas, was ich krampfhaft versuche zu vermeiden. Im Sommer sind 800 Watt außerdem auch nicht so angenehm.
:(

Das stimmt nur bedingt ;) Wer einen 800 Watt Beschleuniger für 3000€ verbauen will, hat idr. Netzteil und passendes Gehäuse. Und wenn er es nicht hat, kauft er es halt dazu. Wer einen 3000€ Beschleuniger kauft, für den ist der Rest ein Witz. Die Entscheidung für einen derartigen Pixelschubser kann auch nicht jeder treffen und wer die treffen kann, dem sind die Unkosten bewusst und nicht problematisch.
Genauso wie der Stromverbrauch.

Man kauft keinen Supersportwagen um auf der rechten Spur mit 120 zu fahren um Sprit zu sparen ;)

Und momentan gehen die Preise nur weiter nach oben. Zulange gewartet.

Habe erst vor kurzem eine 5090 mit Wasserkühler erworben. 2900€ habe ich auf den Tisch gelegt. Die war mal 3900€ (Aorus Waterforce), fand ich jetzt nen super Preis. Kannst sogar noch kaufen für den Preis, viel Lagerware aktuell.

So eine:

https://marketplace.nvidia.com/en-us/consumer/graphics-cards/gigabyte-nvidia-geforce-rtx-5090-aorus-xtreme-waterforce-wb-overclocked-liquid-cooled/

Raff
2025-11-25, 13:25:03
Kopfschüttel-Thread Nr. 1

Der eine betreibt seine „Monsterkarte“ mit 450 Watt, der nächste fragt ernsthaft, ob 800 Watt wirklich sein müssen. :D Ich sollte hier echt nicht mehr reinschauen – mein Facepalm-Level tut langsam weh.

Und nur zum Spaß mal durchgerechnet:

450 W × 2.920 h (1 Jahr lang jeden Tag 8 Stunden Gaming was eh KEINER von euch schafft) = 1.314 kWh/Jahr
1.314 kWh × 0,30 €/kWh = 394,20 € pro Jahr <- 8 Stunden jeden Tag im Jahr mit der 5090 unter 400€ Stromkosten!!!!!!!!

800 W × 2.920 h = 2.336 kWh/Jahr
2.336 kWh × 0,30 €/kWh = 700,80 € pro Jahr

Wir reden also von rund 300 € Unterschied im Jahr – bei einer Grafikkarte, die 3000 € kostet. :biggrin::freak:
Und auch nur bei 8 Stunden Nutzung am Tag bei 100% Auslastung.
Letzteres gibt es so gut wie nicht und realistisch spielt ihr vielleicht 8 Stunden pro Woche.
Ihr sollten alle den Stromverbrauch komplett vergessen, weil nicht relevant.

Das macht mich echt fertig. :D
Müssen wir einen Spendentopf aufmachen? Vielleicht sonntags wie in der Kirche collecten?

€: Ob wohl im Porsche Forum jemand fragt ob er E5 tanken kann? Ich weiss es nicht XD

Mich freut es zwar für dich, dass du mit Reichtum gesegnet bist, aber 300 Euro für Strom nur für die Grafikkarte ist unfassbar viel Geld.

Dabei ist "RTX 5090 besitzen" nicht zwangsläufig ein Zeichen von Reichtum, sondern von Prioritäten.

MfG
Raff

HisN
2025-11-25, 13:25:26
Der Zähler an meiner Rechner-Steckdose sagt 10.000kWh
Strompreis von 30ct gabs hier schon Jahre nicht mehr^^

Aber noch mal nachgefragt. Was ist falsch daran, wenn man ein bisschen auf seinen Stromverbrauch achtet?

Hat bei uns übrigens mit der Installation der Solar-Anlage angefangen.
Mein Rechner ist der größte Strom-Verbraucher im Haushalt, gleich nach den beiden Elektro-Autos^^

E39Driver
2025-11-25, 13:43:33
Die Diskussion klingt hier so wie Mercedes AMG fahren und dann an der Tanke aber nur Vorauswahl 10€ zu tanken.

Der Zähler an meiner Rechner-Steckdose sagt 10.000kWh
Strompreis von 30ct gabs hier schon Jahre nicht mehr^^

Das ist ein heftiger Verbrauch. Wie bekommt man das ohne Crypto Mining hin?

HisN
2025-11-25, 13:49:21
Naja, der Zähler zählt über die Jahre hinweg. Ich hab ja keinen Zeitraum genannt^^
Dieses Jahr waren es nur knapp 1200kWh.

E39Driver
2025-11-25, 13:55:59
Ah ok, 1.200 im Jahr ist realistischer.

Über 10.000 kWh habe ich selbst 2017 mit u.a. mehreren Vegas im Mining nur knapp hinbekommen. Limitierender Faktor war da eher die Wärme im Sommer aus der Bude zu bekommen und die Frau davon überzeugt zu halten, dass diese Rechner jetzt bei 30 Grad in der Bude durchlaufen müssen :freak:

MiamiNice
2025-11-25, 13:59:21
Mich freut es zwar für dich, dass du mit Reichtum gesegnet bist, aber 300 Euro für Strom nur für die Grafikkarte ist unfassbar viel Geld.

Dabei ist "RTX 5090 besitzen" nicht zwangsläufig ein Zeichen von Reichtum, sondern von Prioritäten.

MfG
Raff

Ich sehe das etwas anders: Wenn 300 € Stromkosten für die GPU bereits als „unfassbar viel“ empfunden werden, tut mir das eher leid – nicht wegen eines vermeintlich geringen Einkommens, sondern weil dann aus meiner Sicht die Prioritäten nicht passen.
Eine GPU für 3.000 € ist am Ende nur Spielzeug, und entsprechend sollte auch der Strom dafür aus dem persönlichen Hobby- bzw. Spielbudget kommen.
Das ist maximal freundlich ausgedrückt :wink:
Ich kann nicht verstehen warum überhaupt von Stromkosten bei einem Hobby gesprochen wird. Und dann bei so kleinen Unterschieden und der Nutzzeit der meisten Nutzer hier. Hier werden sich über 10€ im Monat gestritten als gäbe es kein morgen. Weil der AMD CPU 25 Watt mehr oder weniger braucht. Macht dann bei 2 Stunden Nutzung am Tag 18,33€ im Jahr Unterschied.

Es sollte gebannt werden, wenn über Stromverbrauch geschrieben wird. Derart unnötig empfinde ich das :D

Semmel
2025-11-25, 14:05:23
Die Diskussion klingt hier so wie Mercedes AMG fahren und dann an der Tanke aber nur Vorauswahl 10€ zu tanken.


Nicht wirklich.
Je nach Nutzungsgrad kann der Stromverbrauch einer 5090 innerhalb von 5 Jahren locker den Kaufpreis übersteigen.
Versuch das mal mit einem Mercedes AMG zu schaffen.
Dazu mit 800 Watt-Bios ggf. noch ein neues Netzteil, neues Gehäuse/Kühlung und für den Sommer eine Klimaanlage mit weiteren Stromkosten.
Die Folgekosten können schon immens sein.
Gesamtkosten in 5 Jahren von beispielhaft 6k € wären möglich.

Eine verbrauchsoptimierte 5090 ist vielleicht 10-15 % langsamer und verursacht nur die Hälfte dieser Gesamtkosten.

Ich bin da schon mehr in Richtung Preis/Leistung orientiert und da steht eine verbrauchsoptimierte 5090, wenn man sie zur UVP bekommen würde, garnicht so schlecht da.

Aber wer es sich leisten kann, dem gönne ich natürlich seine maximal ausgereizte 5090. Für die Differenz kaufe ich dann doch lieber Aktien. ;)

Lawmachine79
2025-11-25, 14:06:26
Mich freut es zwar für dich, dass du mit Reichtum gesegnet bist, aber 300 Euro für Strom nur für die Grafikkarte ist unfassbar viel Geld.

Nicht für jemanden, der 8 Stunden Zeit am Tag zum Zocken hat. Oder er hat soviel Zeit aus einem Grund, dass er sich eh keine 5090 leisten kann.

Nicht wirklich.
Je nach Nutzungsgrad kann der Stromverbrauch einer 5090 innerhalb von 5 Jahren locker den Kaufpreis übersteigen.
Versuch das mal mit einem Mercedes AMG zu schaffen.
Dazu mit 800 Watt-Bios ggf. noch ein neues Netzteil, neues Gehäuse/Kühlung und für den Sommer eine Klimaanlage mit weiteren Stromkosten.
Die Folgekosten können schon immens sein.
Gesamtkosten in 5 Jahren von beispielhaft 6k € wären möglich.

Eine verbrauchsoptimierte 5090 ist vielleicht 10-15 % langsamer und verursacht nur die Hälfte dieser Gesamtkosten.

Ich bin da schon mehr in Richtung Preis/Leistung orientiert und da steht eine verbrauchsoptimierte 5090, wenn man sie zur UVP bekommen würde, garnicht so schlecht da.

Aber wer es sich leisten kann, dem gönne ich natürlich seine maximal ausgereizte 5090. Für die Differenz kaufe ich dann doch lieber Aktien. ;)
Naja, wir reden hier ja über es sich leisten können. Nicht über Vernunft. Natürlich ist es unvernünftig. Aber Hobbies sind eben unvernünftig.

E39Driver
2025-11-25, 14:12:10
Nicht für jemanden, der 8 Stunden Zeit am Tag zum Zocken hat. Oder er hat soviel Zeit aus einem Grund, dass er sich eh keine 5090 leisten kann.

Das stimmt. Es gibt immer 2 Sorten von Zeit-Millionären :)

Megamember
2025-11-25, 14:21:57
Die einzigste Sorge die ich bei 800W Verbrauch hätte wäre abgesehen vom katastrophalen Strom/Leistungsverhältnis die ständige Sorge das mir mein so schon hochbelasteter Power Connector jeden Moment explodieren könnte.

SamLombardo
2025-11-25, 15:14:52
Nicht für jemanden, der 8 Stunden Zeit am Tag zum Zocken hat. Oder er hat soviel Zeit aus einem Grund, dass er sich eh keine 5090 leisten kann.


Naja, wir reden hier ja über es sich leisten können. Nicht über Vernunft. Natürlich ist es unvernünftig. Aber Hobbies sind eben unvernünftig.
Das ist auch meine Meinung. Außerdem gilt das was Semmel sagt quasi für jede Highend Karte, genauso für die 4090 wie für die 3090 bis runter zur GTX 480 und wahrscheinlich noch weiter zurück. Für AMD ebenso.

Slipknot79
2025-11-25, 15:23:28
Ersparte Heizkosten bitte gegenrechnen. (y)

OgrEGT
2025-11-25, 15:41:12
800W dauerhaft über den einen Stromanschluss... no risk no fun eh? Oder lasst ihr euch bei NorthbridgeFix einen 2. Stecker nachrüsten? Bei den Gigabyte PCBs ginge das...
https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcRmXYGtsqTgzunB-n-GgeCzzEM7PUSHzKcSg3dwYaKqcQ&s=10

Coroner
2025-11-25, 15:45:26
Bestes Feature: die ASTRAL / TUF owner sind gefickt weils bei nahezu allen 5090 läuft nur bei diesen beiden Karten nicht. Hoffentlich leakt ASUS dafür ein XOC BIOS oder es gibt bald einen exploit. Sonst geht die Astral zu Kleinanzeigen und ich hol mir ne Inno.

Gibt es eine komplette Übersicht auf welchen Karten es nicht läuft? Habe auf die schnelle nur eine Handvoll Karten gefunden wo es bestätigt wurde und wenn ich endlich mal den Wasserkühler auf meiner Zotac Solid installiert habe würde ich mit dem 800 Watt-BIOS + Aquacomputer Ampinel gern mal herumspielen :smile:.

MiamiNice
2025-11-25, 15:51:12
Ich bin da schon mehr in Richtung Preis/Leistung orientiert und da steht eine verbrauchsoptimierte 5090, wenn man sie zur UVP bekommen würde, garnicht so schlecht da.
Aber wer es sich leisten kann, dem gönne ich natürlich seine maximal ausgereizte 5090. Für die Differenz kaufe ich dann doch lieber Aktien. ;)

1. Wer ein P/L Geier ist, hat bei der 5090 eh nicht verloren
2. Die Leute die ne 5090 kaufen und maximal belasten machen auch 3 Urlaube im Jahr und kaufen Aktien. Wie ich schon schrieb, Hobby Kram kauft man aus der Hobby Kasse incl. aller Folgekosten. Wenn das Geld nicht in die GPU fließt, Strom habe ich ja nicht groß dank Solar und Akku im Haus, fließt das Geld in eine neue Maus, Monitor, HDs, oder sonstiger Schwachsinn. Völlig unberührt von anderen Anschaffungen. So wie es sein sollte, wenn wir über Spielzeug/Hobby reden. Und deswegen: Wer kein Geld für den Unterhalt seiner Toys zahlen möchte, sollte vielleicht besser keine Toys kaufen. Oder halt kleinere ;) Thats life.

Ersparte Heizkosten bitte gegenrechnen. (y)

Das ist der Spirit <3

Lawmachine79
2025-11-25, 16:13:43
Ersparte Heizkosten bitte gegenrechnen. (y)
Ich habe bisher nicht einmal die Heizung in meinem "Büro" aufgedreht, seit ich die 5090 habe.

Wuge
2025-11-25, 16:44:36
Also meine hat so um die 400 Betriebsstunden im Jahr, verbraucht im Schnitt 600W (das würde auch mit 800W BIOS nicht viel mehr, nur dass sie bei Lastspitzen eben nicht mehr runter takten würde). Da bin ich irgendwo um die 80 EUR im Jahr für den Strom, kann das sein? Irrelevant.

Apropos Heizung: hier steht noch n schöner 65 Zoll Plasma - möge er noch lange halten. Wenn das alles Läuft, muss ich das Fenster aufmachen *ggg*

Wuge
2025-11-25, 16:50:38
Gibt es eine komplette Übersicht auf welchen Karten es nicht läuft?

Es läuft auf allen Karten außer:

- Astral Black (die normale)
- Astral BTF
- TUF
- MSI Suprim Liquid 5090

Ich hoffe noch auf nen Exploit... sonst muss ich die Astral wohl leider verticken.

TobiWahnKenobi
2025-11-25, 17:00:15
Es läuft auf allen Karten außer:

- Astral Black (die normale)
- Astral BTF
- TUF
- MSI Suprim Liquid 5090

Ich hoffe noch auf nen Exploit... sonst muss ich die Astral wohl leider verticken.

nice 2 know.. die bleiben also wertstabil.


(..)

mfg
tobi

Sardaukar.nsn
2025-11-25, 17:34:45
Es läuft auf allen Karten außer:

- Astral Black (die normale)
...

Blöd nur wenn man gerade deswegen auf Delta Mate Wasserkühler umgebaut hat.

MiamiNice
2025-11-27, 00:37:18
Ich habe bisher nicht einmal die Heizung in meinem "Büro" aufgedreht, seit ich die 5090 habe.

Ich mache das auch nicht anders. Mein Wasserkreislauf pendelt sich bei etwa 31 °C ein, wenn Furmark und CPU Burner gleichzeitig laufen (knapp 900 W). Bei geschlossenen Türen und Fenstern steigt die Raumtemperatur im Winter aber immer noch viel zu langsam.

Wird echt Zeit, dass GPUs endlich im vierstelligen Watt Bereichen ankommen. So ein Triple Connector wie an meiner 3090 müsste da mindestens drin sein. 3 x600 W, da könnte man sich vielleicht endlich mal einen größeren MoRa gönnen :biggrin::wink:

dargo
2025-11-27, 01:13:31
Ich habe bisher nicht einmal die Heizung in meinem "Büro" aufgedreht, seit ich die 5090 habe.
Ich muss die Heizung nicht mal aufdrehen wenn der Rechner Off ist. Was habt ihr alle für Gebäudehüllen? Schweizer Käse? :ulol:

Gouvernator
2025-11-27, 01:24:11
Die 300 Watt extra, würde ich an eurer Stelle nicht in +10% Mehrleistung investieren, sondern in einen schönen 65"+ TV am besten 8K. Da hat man wirklich was davon.

Mein KI System knackt die 800W easy, ganz ohne Bios-Mod. Nur die 5090 und die anderen 2 Karten die ihr mithelfen.

Slipknot79
2025-11-27, 02:03:16
Die 300 Watt extra, würde ich an eurer Stelle nicht in +10% Mehrleistung investieren, sondern in einen schönen 65"+ TV am besten 8K. Da hat man wirklich was davon.


Das eine schließt das andere nicht aus, ist ja nicht so, dass Lambo Fahrer auch noch hungern müssten. (y)
Abgesehen davon ist das BIOS gratis, nur wenige andere ballern dafür 4k raus. (y) Die GPUs darauf sind nicht mal gebinnt. (y)
Die Matrix selbst bekommt außerdem kaum jemand, die 1000 kannst du gleich auf 0 runden. ;)

OCmylife
2025-11-27, 06:19:36
Wieso eigentlich nur eine 5090, wenn man eine RTX 6000 Pro haben kann? Mich kotzt eure Armut so an! 😂

MiamiNice
2025-11-27, 08:43:14
Die 300 Watt extra, würde ich an eurer Stelle nicht in +10% Mehrleistung investieren, sondern in einen schönen 65"+ TV am besten 8K

Egal wie hoch die Auflösung wäre, ein 65" TV käme nicht an den PC.
Nicht einmal geschenkt. Alleine die Vorstellung davon lässt mich ganz unruhig auf meinem Stuhl hin und her rutschen.
Hier wird eher gespielt als Youtube konsumiert :biggrin:

The_Invisible
2025-11-27, 08:56:48
Wieso eigentlich nur eine 5090, wenn man eine RTX 6000 Pro haben kann? Mich kotzt eure Armut so an! 😂

Wundert mich auch immer, für Auto & Co wird immer die Kohle ohne viel nachdenken rausgeschmissen aber sowas legt sich keiner zu.

Kostet auch nur mehr 7,8k ;)

Wuge
2025-11-27, 10:57:01
Die 300 Watt extra, würde ich an eurer Stelle nicht in +10% Mehrleistung investieren, sondern in einen schönen 65"+ TV am besten 8K. Da hat man wirklich was davon.

Der 65" hängt da schon aber ich guck trotzdem lieber in die VR Brille ;)

Es sind 200W - im Schnitt ehr etwas weniger - für 10%. Würde ich sofort nehmen.

MiamiNice
2025-11-27, 13:36:12
Wundert mich auch immer, für Auto & Co wird immer die Kohle ohne viel nachdenken rausgeschmissen aber sowas legt sich keiner zu.

Kostet auch nur mehr 7,8k ;)

Hat aber auch nur 1 Stecker und 600 Watt TDP. Für den Aufpreis lötet man sich besser eine anständige Stromversorgung auf das Board seiner 5090 und zieht nur das 800 Watt Bios druff ;)
Die 15 Prozent mehr Leistung düfte man aus ziemlich jeder 5090 ziehen können, wenn die Wattage passt.

ChaosTM
2025-11-27, 13:41:54
Dank MFG spiele ich BO7 mit nur 250 Watt, 4k alles Max, statt 600.
Ich spare gerne Geld..

add: 135 fps

Raff
2025-11-27, 14:11:04
Mit Call of Duty kriegst du keine dicke Geforce ins Powerlimit. :D MFG + Limit hilft natürlich trotzdem beim Sparen.

MfG
Raff

MiamiNice
2025-11-27, 17:15:42
Dank MFG spiele ich BO7 mit nur 250 Watt, 4k alles Max, statt 600.
Ich spare gerne Geld..

add: 135 fps

Meine 5090 hat noch nie MFG gesehen :wink:

€: Nicht mal zum testen. Teufelszeug :D

gnomi
2025-11-28, 09:15:05
Für Cyberpunk könnte ich die 5090 ein paar Tage gebrauchen.
4080S ist mit PT 4K und DLSS4 Performance am Ende.
Ist bisschen wenig Auflösung.
FG funktioniert aber prima.
MFG ist mit 144Hz leider nicht so spannend.
Würde es super gerne Ausprobieren.
Bedenkt man, dass bei Release nur Turing draußen war und mit geworben wurde, kann man trotzdem nicht gerade klagen.

BO7 lade ich trotz Gamepass nicht mal herunter zum Ansehen.
Ohne SP Kampagne für mich uninteressant.
Was ein Absturz gegenüber letztem Jahr, denn die BO 6 Kampagne hat mir SP seitig so gut wie lange nicht gefallen.
Spiele dann wohl in diesem Jahr mit Vanguard die letzte noch ausstehende COD Kampagne. Lohnt sich scheinbar, für schlechte Zeiten eine über zu lassen.

MiamiNice
2025-11-28, 12:16:30
Wie sind eigentlich eure Chip Temps mit den Wasserkarten? Ich hatte befürchtet, dass es ordentlich warm wird. Allerdings liege ich bei etwa 45 Grad im Furmark 4k nach 30 Minuten und beim Gamen bei ungefähr 40 Grad, was ich für eine 600 Watt plus Karte echt human finde. Ich mein klar, MoRa 420 regelt, aber trotzdem ziemlich kühl. Hätte deutlichmehr erwartet an Chip Temp.

Hakim
2025-11-28, 12:18:39
Ist halt Winter, wenn du die Wohnung nicht Fett Sommertemperaturen like aufgeheizt hast, könnte es im Sommer paar Grad höher sein

ChaosTM
2025-11-28, 12:37:38
Meine 5090 hat noch nie MFG gesehen :wink:

€: Nicht mal zum testen. Teufelszeug :D


LOL - sehen viele so, aber ich bin ein alter Schotte, der gerne Geld spart, wenn es sich nicht allzu sehr auf die Bildqualität auswirkt.
Meine Schasaugertkeit* hilft mir dabei.


* ich sehe nicht mehr ganz so gut

Wuge
2025-11-28, 13:09:37
Wie sind eigentlich eure Chip Temps mit den Wasserkarten? Ich hatte befürchtet, dass es ordentlich warm wird. Allerdings liege ich bei etwa 45 Grad im Furmark 4k nach 30 Minuten und beim Gamen bei ungefähr 40 Grad, was ich für eine 600 Watt plus Karte echt human finde. Ich mein klar, MoRa 420 regelt, aber trotzdem ziemlich kühl. Hätte deutlichmehr erwartet an Chip Temp.

Da komm ich in absoluten Zahlen nicht hin.

Delta Idle zu Vollast liegt bei etwa 18-19 Grad, 150l/h Durchfluss. Bykski Kühler.

Blase
2025-11-28, 13:17:43
LOL - sehen viele so...

Kann man machen, nur bedeutet das im Umkehrschluss, dass in gewissen Titeln die Regler auch mit ner 5090 ordentlich nach links verschoben werden müssen. Beispielsweise in einem Hogwarts mit RT. Wäre imho der schlechtere Kompromiss. Die Regler dürfen gerne voll aufgedreht bleiben. Dafür wird halt dezent (2x) FG dazu geschaltet. Merkst du weder optisch noch von der Latenz her in dem Titel...

Ich lasse auch FG weg wo ich kann. Aber so dogmatisch sollte man das nicht sehen. Es kann in vielen Situationen sehr gut helfen das Erlebnis zu verbessern.

MfG Blase

OgrEGT
2025-11-30, 06:43:51
So... jetzt aber... :uexplode:
https://videocardz.com/newz/asus-rtx-5090-xoc-bios-enabling-2000w-power-limit-has-been-leaked
ASUS RTX 5090 XOC BIOS enabling 2000W power limit has been leaked
Das würde ich auf jeden Fall auf 2 12V2x6 Anschlüsse verteilen... wenn man da ohne LN2 überhaupt hinkommt...
Edit
Scheinbar sind 1200W so das Maximum da auch die GPU Spannung bei 1.15V begrenzt ist... höher kommt man nur mit Voltage Mods...

Wuge
2025-12-01, 09:49:21
1200W max... so viel braucht man aber eigentlich nicht, ab 800W aufwärts ist die Skalierung nicht mehr gegeben. Und das BIOS ist langsam... bringt nix.

MiamiNice
2025-12-01, 10:31:31
Wer hätte gedacht, dass der verbaute 12VHPWR einmal zu einer faktischen Kastration der Hardware führen würde :freak:

Exxtreme
2025-12-01, 10:59:55
Naja, fairerweise muss man sagen, dass man 8 der alten PCIe-Anschlüsse bräuchte um 1200 W zu versorgen. Beim 12VHPWR reichen 2.

Raff
2025-12-01, 11:01:34
Naja, fairerweise muss man sagen, dass man 8 der alten PCIe-Anschlüsse bräuchte um 1200 W zu versorgen. Beim 12VHPWR reichen 2.

Warum muss ich gerade an den "Stromturm" denken (GTX 680)? Wobei das dann schon eine "Strommauer" wäre. :ugly:

MfG
Raff

MiamiNice
2025-12-01, 11:21:19
Naja, fairerweise muss man sagen, dass man 8 der alten PCIe-Anschlüsse bräuchte um 1200 W zu versorgen. Beim 12VHPWR reichen 2.

Kennst Du denn eine 5090 mit 2x 12VHPWR? ;)

€:

Es gibt sogar mittlerweile eine 5090 mit 2x 12VHPWR die RTX 5090D HOF OC LAB

dargo
2025-12-01, 12:05:34
So... jetzt aber... :uexplode:
https://videocardz.com/newz/asus-rtx-5090-xoc-bios-enabling-2000w-power-limit-has-been-leaked
ASUS RTX 5090 XOC BIOS enabling 2000W power limit has been leaked

Cool... endlich müssen unsere Enthusiasten im Winter nicht mehr frieren. :uup:

Sardaukar.nsn
2025-12-01, 12:25:09
Ökostrom statt Russengas. Sollten sich andere mal ein Beispiel dran nehmen. Ist fast wie Tesla fahren.

MiamiNice
2025-12-01, 12:38:59
Bei uns fließt nur der reinste, handverlesene Premium-Bio-Strom.
Entweder direkt von der privaten Sonnengöttin geliefert oder nachts aus dem Überschuss-Ökostrom-Buffet in unseren Akku eingeschenkt.

Das ist sie: Die Grüne Dekadenz™.
Max. 15 Cent pro kWh – weniger als ein Kaugummi, aber mit deutlich mehr moralischer Überlegenheit.

Während andere CO₂-Abgaben zahlen, sitze ich zuhause, umgeben von der heiligen Aura meiner PV-Anlage, trete die 5090 in die TDP-Obergrenze und lade gleichzeitig das E-Auto voll – und jedes Watt fühlt sich an wie ein reinigendes Bad aus Klimaneutralität.

Ich lache klimabewusst im Dreiklang der Nachhaltigkeit
Wenn ich euch fragt, warum leuchtet sein Haus eigentlich so hell?
Weil meine moralischer Reinheit alles andere überstrahlt.
Gogo 2KW GPUs :biggrin:

Wuge
2025-12-01, 15:33:22
Der Stecker ist schon ok... 800W geht wenn er sauber sitzt. Zum benchen auch mal 1.200W für 1-2 Minuten.

Aber wie gesagt, die Chips verbraten dann nur noch Strom ohne nennenswerte Mehr-Performance.

x-force
2025-12-01, 16:17:13
da auch die GPU Spannung bei 1.15V begrenzt ist...

das sind 0,1v mehr als nv bei den karten sonst freigibt.

bekommt man hier jedes jahr auf garantie ne neue karte, oder ist es ein märchen, dass der prozess auf den anderen karten nicht mehr hergibt? :rolleyes:

OgrEGT
2025-12-01, 16:40:34
Kennst Du denn eine 5090 mit 2x 12VHPWR? ;)

€:

Es gibt sogar mittlerweile eine 5090 mit 2x 12VHPWR die RTX 5090D HOF OC LAB
Hab ich hier gepostet.. alle Gigabyte Karten haben eine Vorbereitung für einen 2. Stecker... musste dann jemand wie NorthbridgeFix finden der dir den dran lötet...

Lyka
2025-12-01, 16:46:16
wundert mich, wieso niemand das hier gepostet hat ^^

n2Wllw8myoE

bei 750W beginnen die Kabel schon zu glühen :freak:

MiamiNice
2025-12-01, 16:59:58
Hab ich hier gepostet.. alle Gigabyte Karten haben eine Vorbereitung für einen 2. Stecker... musste dann jemand wie NorthbridgeFix finden der dir den dran lötet...

Aufgelötet bekäme ich den Stecker selbst. Aber ich Oberschlauer Typ habe mir eine Waterforce gekauft. Deren WaKü Block deckt die komplette Ober und Rückseite ab. Ich müsste die Optik der Karte zerstören wenn ich den 2. Stecker will. Aber ich liebe die Karte optisch :freak:

Wuge
2025-12-02, 11:42:42
das sind 0,1v mehr als nv bei den karten sonst freigibt.

bekommt man hier jedes jahr auf garantie ne neue karte, oder ist es ein märchen, dass der prozess auf den anderen karten nicht mehr hergibt? :rolleyes:

Bei meiner Karte sinds 25mV. Von 1.125V auf 1.150V (bzw. je 5mv weniger).

Aber am Ende eh egal. Das XOC hat so ne niedrige Crossbar-Clock, dass es quasi immer langsamer ist als das Gigabyte und erstrecht langsamer als das Matrix BIOS. Außer man presst tatsächlich 900W+ durch.

Daredevil
2025-12-14, 17:25:25
Kleine Frage in die 12VHPWR Runde. Was meint ihr bekomme ich hiermit zwei 5090@400-500w betrieben? ^^

Seasonic PRIME Ultra Gold 1300W
https://s1.directupload.eu/images/251214/b6cojb58.png

Zwei Ports gehen drauf für das Seasonic 12VHPWR Cable. ( Nachgekauft )
Vier Ports gehen drauf für den 4x PCIe 8x > 12VHPWR Adapter.
Wenn mein NT das aushält bei leichtem undervolting, dann schnapp ich mir natürlich ein zweites 12VHPWR Cable und lass das Adaptern sein.

In Real hat die Kiste auch schon mal 24/7 1200w reine GPU Power durch 6x 200w ausgehalten mit sparsamen Restkomponenten. Ist nur die Frage ob dieses Seasonic 12VHPWR Cable wirklich 600w durchschleust, weil man ja sonst an zwei Ports eher 2x150w geklemmt hätte? Wobei, dieses 12VHPWR Kabel hat sicherlich mehr Adern, wa?

Sardaukar.nsn
2025-12-14, 21:51:11
Seasonic ist der Mercedes unter den Netzteilen. Wenn ich das Vorhaben einem der echten übrig gebliebenen Herstellern zutrauen würde, dann Seasonic. Nummer 2 wäre für mich FSP.

MiamiNice
2025-12-14, 22:01:28
Kleine Frage in die 12VHPWR Runde. Was meint ihr bekomme ich hiermit zwei 5090@400-500w betrieben? ^^

Mit einem 13/14900K bei maximalem OC eher nicht, zumindest nicht ohne Bauchschmerzen.
Alles andere im Desktop-Bereich aber ziemlich sicher.
Du hast 300 Watt + Sicherheitsreserve (10% ?) des NT über.
Also rund 400 Watt für das restlche System.
Das is OK.

Habs mal die KI gefragt, weil find ich immer witzig meine Meinung bestätigen zu lassen:

Leistungsrealität 2× RTX 5090 (realistisch gerechnet)

Auch ohne offizielle Zahlen kann man konservativ, aber praxisnah rechnen:

GPUs
1× RTX 5090:
Stock: ~500–600 W
OC / AI / Compute: 600–650 W

2× 5090:
1000–1200 W (Stock)
1200–1300 W (Lastspitzen / OC)

Rest des Systems
13/14900K (nicht gezähmt): 250–300 W Peaks
Board, RAM, SSDs, Lüfter, Pumpen: 80–120 W

Gesamt realistisch:
1350–1500 W
Transient Peaks: >1600 W

Was das PRIME Gold 1300 W kann – und was nicht
Kann es:

1× 5090 @ 600 W + High-End CPU → problemlos

2× 5090 mit Power-Limit (~450–500 W je GPU) → machbar

Kurze Overloads über 1300 W → ja

Kann es nicht:

2× 5090 unlimitiert
Dauerlast >1200–1250 W ohne thermische & OCP-Risiken
Saubere Abdeckung harter Transient Peaks beider GPUs gleichzeitig

Problem ist nicht die 12-V-Rail, sondern:

Primärseite
Schutzschaltungen
Dauerthermik

12VHPWR / 12V-2×6 konkret
Pro GPU ein eigenes, natives Kabel
Keine Y-Splitter
Sense-Pins korrekt → 600-W-Freigabe
Kabelseitig kein Problem, die Leistungsgrenze ist das NT

Empfehlung (klar & praxisnah)
Wenn du 2× 5090 ernsthaft fahren willst:

1600 W Netzteil (Seasonic PRIME TX-1600, Corsair AX1600i, Super Flower 2000 W)

Dann:
Keine Power-Limits nötig
Transient Peaks egal
24/7 Compute entspannt

Wenn du beim 1300 W bleiben willst:

GPU-PL auf ~450–500 W
CPU zähmen (PL1/PL2)
Dann läuft es stabil, aber nicht am Limit spielen

Fazit

Dein Bauchgefühl war richtig:
1300 W + 2× 5090 = nur mit Einschränkungen
Für „einstecken & vergessen“ ist das zu knapp
Wenn du willst, sag mir:

Use-Case (Gaming, AI, Render, 24/7 Compute)
CPU konkret
ob Power-Limits akzeptabel sind
Dann rechne ich dir ein sauberes, stabiles Zielprofil.

BTW:

Technische Einordnung (wichtig)

Kurzfassung: Ja, ein echtes Seasonic-12VHPWR-Kabel kann 600 W – wenn es korrekt ausgeführt ist.

Warum das funktioniert:

12VHPWR (16-Pin)
12 Power-Pins (6× +12 V, 6× GND)
4 Sense-Pins

Jeder Power-Pin ist für ca. 9–10 A spezifiziert

In Summe ergibt das:

~55 A @ 12 V → ≈ 600–660 W

Deshalb nicht vergleichbar mit:

1× 8-Pin = 150 W

2× 8-Pin = 300 W
Da hast du schlicht viel weniger Kontakte und geringeren Gesamtquerschnitt.

Nix Adapter. 2 "echte" Kabel wäre scheinbar angebracht.

lilgefo~
2025-12-14, 22:45:42
Kleine Frage in die 12VHPWR Runde. Was meint ihr bekomme ich hiermit zwei 5090@400-500w betrieben? ^^

Seasonic PRIME Ultra Gold 1300W
https://s1.directupload.eu/images/251214/b6cojb58.png

Zwei Ports gehen drauf für das Seasonic 12VHPWR Cable. ( Nachgekauft )
Vier Ports gehen drauf für den 4x PCIe 8x > 12VHPWR Adapter.
Wenn mein NT das aushält bei leichtem undervolting, dann schnapp ich mir natürlich ein zweites 12VHPWR Cable und lass das Adaptern sein.

In Real hat die Kiste auch schon mal 24/7 1200w reine GPU Power durch 6x 200w ausgehalten mit sparsamen Restkomponenten. Ist nur die Frage ob dieses Seasonic 12VHPWR Cable wirklich 600w durchschleust, weil man ja sonst an zwei Ports eher 2x150w geklemmt hätte? Wobei, dieses 12VHPWR Kabel hat sicherlich mehr Adern, wa?

Ist zwar nur ein Gold aber natürlich reicht das aus.

Mit einem 13/14900K bei maximalem OC eher nicht, zumindest nicht ohne Bauchschmerzen.
Alles andere im Desktop-Bereich aber ziemlich sicher.
Du hast 300 Watt + Sicherheitsreserve (10% ?) des NT über.
Also rund 400 Watt für das restlche System.
Das is OK.

Habs mal die KI gefragt, weil find ich immer witzig meine Meinung bestätigen zu lassen:



BTW:



Nix Adapter. 2 "echte" Kabel wäre scheinbar angebracht.

Chatgpt affirmiert alles was du schreibst. Damit du dich gut fühlst. Das ist das Geschäftsmodell. =)

p.s. edit: https://www.duden.de/rechtschreibung/affirmieren

MiamiNice
2025-12-14, 22:53:53
Das ist etwas, was ChatGPT so eher nicht affirmieren würde ;)

Daredevil
2025-12-15, 01:28:44
Ahhh okay, mir kam es ein wenig spanisch vor, dass dieses Seasonic-12VHPWR-Kabel 600w rüber schieben kann, wenn die "Leitung" sonst nur für 300w spezifiziert war. Aber klar, mehr Pins = mehr Spaß. Dann passt das ja so, fantastisch. Muss ich nur gucken, wie ich das in ein Gehäuse baue bei drölf Slots. So ein Seasonic Kabel lege ich mir im Zweifelsfall aber sicherlich noch mal zu, der Adapter sieht ja grauenhaft aus.

Wuge
2025-12-15, 11:28:36
Da hilft nur Probieren... mein letztes Seasonic (TX-1000) hat nur Stress gemacht, da die OCP bei Lastspitzen der 3090, 4090, 5090 gerne mal den Rechner resettet hat. Gleiches Problem beim Austauschteil, ist bekannt bei der Serie.

Nachfolger ist jetzt ein Enermax Platigemini 1200, das hat noch nie irgend ein Problem gemacht. Und ich hab da testweise schon 1600W raus genommen... (fast 1800W an der Dose)

Lawmachine79
2025-12-15, 12:49:02
Mit einem 13/14900K bei maximalem OC eher nicht, zumindest nicht ohne Bauchschmerzen.
Alles andere im Desktop-Bereich aber ziemlich sicher.
Du hast 300 Watt + Sicherheitsreserve (10% ?) des NT über.
Also rund 400 Watt für das restlche System.
Das is OK.


Welcher Pleb betreibt denn eine 5090 mit irgendwas, was nicht "X3D" im Namen hat? Habt Ihr auch nur 16 GB Ram und eine HDD?

P.S.: sagt es lieber nicht! Ich nehme Euch die Karte(n) sonst weg!

Snoopy69
2025-12-15, 13:40:07
:ulol:

@Lawmachine79 - für exzessives Benchmarking (also global Top 10) ist Intel ganz gut dabei

Snoopy69
2025-12-15, 14:12:23
Kleine Frage in die 12VHPWR Runde. Was meint ihr bekomme ich hiermit zwei 5090@400-500w betrieben? ^^

Was genau willst du denn machen? Werden die zwei 5090 bei gleichbleibender Last betrieben?

Ich persönlich würde 4x 8pin zu 12VHPWR gegenüber 2x (oder 3x) 8Pin zu 12VHPWR vorziehen. Im Grenzbereich ist die thermische Belastung am NT selbst nicht gerade ohne

zu 3x 8Pin...
Das sind Bullshit-Kabel - da kann man auch gleich 2x 8Pin nehmen. Denn belegt sind insgesamt 12 Pins - also real 2x 6 oder 3x 4. Daher gehe ich persönlich mit 4x 8 (real 6 Pins). Heißt, dass 24 Pins nach ca 10cm (ab NT) zu 12 Adern zusammengeführt werden

Irgendwo weiter hinten hab ich was dazu geschrieben (inkl. Wärmebild-Videos)

MiamiNice
2025-12-15, 16:14:07
Welcher Pleb betreibt denn eine 5090 mit irgendwas, was nicht "X3D" im Namen hat? Habt Ihr auch nur 16 GB Ram und eine HDD?

P.S.: sagt es lieber nicht! Ich nehme Euch die Karte(n) sonst weg!

Im 3DC ist alles möglich. Die Leute kaufen sich hier sogar eine 5090 und wollen Strom sparen ;D:freak:

Snoopy69
2025-12-15, 16:17:09
Als „Wärmepumpe“? :D
Strom geht rein - heiße Luft kommt raus :ulol:

Linmoum
2025-12-15, 17:44:53
Im 3DC ist alles möglich. Die Leute kaufen sich hier sogar eine 5090 und wollen Strom sparen ;D:freak:Gibt auch Leute, die meinen den Unterschied zwischen 70fps und 74fps bemerken zu können, ohne dafür auf irgendein OSD zu schauen. Noch alberner, als Undervolting bei einer 5090. ;)

The_Invisible
2025-12-15, 19:18:32
UV macht schon Sinn wenn man ins Pl kommt, bei q2rtx zb ist man dort dann schneller als Default ;-)

TobiWahnKenobi
2025-12-15, 20:47:57
die spitzen sind nicht zu unterschätzen.. bei mir kamen die ersten stromprobleme mit bf6. bis dahin war hier alles super.. aber bf6 wollte partout, dass ich das PL zum spielen auf 70% runterdrehe.. lag natürlich am netzteil. 1200W von corsair.. aber leider ATX2.4 oder so.. ich habs tauschen lassen.. war ja erst 8 jahre alt. mit dem selben modell aus 2025 (ATX3.x) alles schick.

1.3KW und zwei 5090 sind zeitverschwendung.


(..)

mfg
tobi

Snoopy69
2025-12-15, 21:25:02
@tobi

Kommt darauf an, was er machen will. Ist die Last quasi konstant, ginge das schon. Bei Gaming/Benchmarking sieht das anders aus. UV würde helfen

Wuge
2025-12-16, 13:14:29
Welcher Pleb betreibt denn eine 5090 mit irgendwas, was nicht "X3D" im Namen hat? Habt Ihr auch nur 16 GB Ram und eine HDD?

P.S.: sagt es lieber nicht! Ich nehme Euch die Karte(n) sonst weg!

Soll Dich mein 6200 Mhz Allcore, 5400 Mhz Cache 14900KS mit 8533C36 DDR5 mal wegglühen? ;) Auf die 20W die der im Gaming mehr nimmt scheiß ich. Performance passt.

MiamiNice
2025-12-16, 13:30:55
Soll Dich mein 6200 Mhz Allcore, 5400 Mhz Cache 14900KS mit 8533C36 DDR5 mal wegglühen? ;) Auf die 20W die der im Gaming mehr nimmt scheiß ich. Performance passt.

Ich hasse es ja, ihm recht zu geben, aber willst Du Dich wirklich mit meinem 9800X3D anlegen? Direct Die, 5.800 MHz All-Core, 6000 CL26.
Deine 400 MHz mehr sorgen höchstens dafür, dass meine zusammengeklebte AMD Kröte müde lächelt :D

Snoopy69
2025-12-16, 13:40:32
Hubraum (X3D) vs Drehzahl (MHz) :freak:

TobiWahnKenobi
2025-12-16, 14:11:22
hubraum? mit 8 kernen vs. 24? really..??? drehzahl.. 5800 vs. 6200.. ja macht sinn.



(..)

mfg
tobi

Snoopy69
2025-12-16, 14:14:21
@tobi - Satire? :wink:

Lawmachine79
2025-12-16, 17:10:25
Soll Dich mein 6200 Mhz Allcore, 5400 Mhz Cache 14900KS mit 8533C36 DDR5 mal wegglühen? ;) Auf die 20W die der im Gaming mehr nimmt scheiß ich. Performance passt.
Weggeglüht kriegst Du mich damit auf jeden Fall. Und fehlt da eine Null bei Deiner Wattschätzung?

Ich hasse es ja, ihm recht zu geben, aber willst Du Dich wirklich mit meinem 9800X3D anlegen? Direct Die, 5.800 MHz All-Core, 6000 CL26.
Deine 400 MHz mehr sorgen höchstens dafür, dass meine zusammengeklebte AMD Kröte müde lächelt :D
Wo ist denn Dein Problem? Ist total geil mir recht zu geben.

hubraum? mit 8 kernen vs. 24? really..??? drehzahl.. 5800 vs. 6200.. ja macht sinn.



(..)

mfg
tobi
Die Kerne würde ich aber eher mit Zylindern gleichsetzen ;). Und 16 davon sind kleine nutzlose Krüppelzylinder, die nur die DPC-Latenzen wegen verkacktem Scheduling hochtreiben.

MiamiNice
2025-12-16, 17:20:49
Wo ist denn Dein Problem?.

Es macht keinen Spaß mit roter HW zu flexen ... :freak:

TobiWahnKenobi
2025-12-16, 18:12:06
ja, ich erinnere.. ist wie damals in den neunzigern, wo die fiat-turbo-fahrer versucht haben, gegen leute mit richtigen autos anzustinken - und gegen die war damals jeder golf2 ein richtiges auto.

bezogen auf das was im heimischen rechner steckt darüber zu philisophieren, ob man lieber das eine oder das andere bevorzugt ist mir zu müßig. ich habe soviele rechner unter mir.. die könnte keiner von euch zählen.





(..)

mfg
tobi

Snoopy69
2025-12-16, 18:18:13
Ruhe jetzt und nachmachen (Rank #15)... :freak:
https://www.3dmark.com/hall-of-fame-2/steel+nomad+3dmark+score+vulkan+preset/version+1.0
(global Top 3 war nett)

TobiWahnKenobi
2025-12-16, 18:27:18
du hast doch 8 intels über dir in der liste, mit denen du vergleichen kannst. ich bin immer nur benchmarkgeil, wenn ich etwas neues habe, das die leistung beeinflusst und damals gab es da 150fps.. recht ähnlich zum far cry 6 benchmark konnte ich schon da nicht nachvollziehen, warum mir 20fps fehlen.. fand's jetzt aber auch weder wichtig noch spannend.

oben im orb sehen wir uns mit der 6090 wieder.


schauen wir mal allein die unterschiede bei den verwendeten 5090ern an.. links 170fps @intel 14900k.. mitte 150fps @intel 14900k.. rechts 170fps @9950x3d | links wasserkühlung und 3.3GHz, mitte alles stock, rechts wasser und 3.3GHz..

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=94896&stc=1&d=1765907943

finde den fehler, aber such nicht bei der CPU.





(..)

mfg
tobi

Lawmachine79
2025-12-16, 18:39:12
Es macht keinen Spaß mit roter HW zu flexen ... :freak:
Ach Intel ist doch inzwischen der uncoole Haufen bei den CPUs. Intel ist bei CPUs das, was AMD bei GPUs ist. Mein letzter Intel war ein 7700K. Seit AMD Zen 3 rausgebracht hat, ist Intel völlig abgehängt. Das merkt man erst richtig, wenn man mal Notebooks mit Intel CPUs hatte; da merkt man die Probleme buchstäblich wie unter einem Brennglas.

Snoopy69
2025-12-16, 18:59:07
du hast doch 8 intels über dir in der liste, mit denen du vergleichen kannst
Ja, alte Stromfresser... :freak:
Vom neueren 285K keine Spur

Den mom. (für mich) einzigen Nachteil sehe ich bei Verwendung von TB5-Karten. Da geht mom. leider kein Weg an Intel-Plattformen vorbei (abgesehen von paar Apple-Geräten)

Lawmachine79
2025-12-16, 19:05:58
Ja, alte Stromfresser... :freak:
Vom neueren 285K keine Spur

Den mom. (für mich) einzigen Nachteil sehe ich bei Verwendung von TB5-Karten. Da geht mom. leider kein Weg an Intel-Plattformen vorbei (abgesehen von paar Apple-Geräten)
Ja, da hat USB4 viel Nachteil für AMD aufgehoben. Vor USB4 konnte man AMD-Laptops kaum vernünftig an einem Dock betreiben.

Die Intel-CPUs in den Ranglisten erinnern mich an die 80er-Jahre Turbos in der Formel 1 im Qualifying-Trim; 1400 PS für zwei Runden, dann fliegt der Motor auseinander. DA war das geil, es ist nicht mehr geil, wenn man immer etwas Trockeneis zur Hand braucht, um eine CPU mit zeitgemäßer Leistung zu haben. In der Rangliste vorne sind ja gerade die Modelle, die von Degradation betroffen sind. Arrow Lake ist da nicht dran, wahrscheinlich weil die Möglichkeit, "von der Substanz" zu benchen nicht mehr gegeben ist.

Daredevil
2025-12-16, 21:05:55
Ruhe jetzt und nachmachen (Rank #15)... :freak:
https://www.3dmark.com/hall-of-fame-2/steel+nomad+3dmark+score+vulkan+preset/version+1.0
(global Top 3 war nett)
Nice, congrats! :D
Schön, dass das 3DC hier oben mitspielt!

ExJuvantibus
2025-12-16, 23:04:14
https://i.imgur.com/nBJMV4T.png

;D


So wenn ich was über spitzen CPUs lesen will, geh ich dann jetzt in NV oder ATI Forum?

MiamiNice
2025-12-16, 23:32:31
Ach Intel ist doch inzwischen der uncoole Haufen bei den CPUs. Intel ist bei CPUs das, was AMD bei GPUs ist. Mein letzter Intel war ein 7700K. Seit AMD Zen 3 rausgebracht hat, ist Intel völlig abgehängt. Das merkt man erst richtig, wenn man mal Notebooks mit Intel CPUs hatte; da merkt man die Probleme buchstäblich wie unter einem Brennglas.

Intel ist nicht so weit von AMD weg, wie AMD von NVIDIA. Mit meinem 13900K habe ich noch jeden 5er- und 7er-Ryzen in relevanten Games geschlagen. Zwar bei doppeltem Verbrauch, aber wen interessiert das? Seit dem 7er ist AMD bei der Single-Thread-Leistung vorne, deswegen habe ich einen. Das wird sich aber bald wieder ändern, und dann ist Ende mit der „roten Seuche“ in meiner Kiste.

Es ist so ein unehrliches Gefühl, AMD-Hardware zu nutzen: kleine Zahlen, und trotzdem schneller ... fühlt sich irgendwie verkehrt an. Flexen macht Spaß, wenn Dein Takt höher ist als der vom Rest der Welt. Mit 5800 MHz eine 6200 MHz CPU abzuhängen, fühlt sich falsch an. Wie ein Verrat :freak:

CompuJoe
2025-12-17, 00:53:13
Im 3DC ist alles möglich. Die Leute kaufen sich hier sogar eine 5090 und wollen Strom sparen ;D:freak:

Kommt aufs Spiel an, ich zocke in der Regel nicht immer nur Topgames, sondern auch mal ne längere Zeit PoE, Torchlight oder Diablo wenn eine neue Season da ist, was nicht so anspruchsvoll ist, limitiere da die fps eh auf die max. Hz vom Monitor. Bei PoE ist es so das meine 4080 für die fps immer gut 280-320 Watt gefressen hat, die 5090 gammelt da bei 135-160 Watt rum. Bei Diablo 4 waren es bei der 4080 immer rund 310-350 Watt, die 5090 nimmt 210-250 Watt. Das sind die Spiele die ich oft mal über Wochen viele Stunden Zocke, unterbrochen von Stromfressern wie z.B. Indie, E33, CoD, Battlefield usw.

Wird sich aber bald ändern wenn ein 240Hz OLED Einzug hält, der Aktuelle OLED kann nur 138Hz.

lilgefo~
2025-12-17, 01:32:57
Da hilft nur Probieren... mein letztes Seasonic (TX-1000) hat nur Stress gemacht, da die OCP bei Lastspitzen der 3090, 4090, 5090 gerne mal den Rechner resettet hat. Gleiches Problem beim Austauschteil, ist bekannt bei der Serie.

Nachfolger ist jetzt ein Enermax Platigemini 1200, das hat noch nie irgend ein Problem gemacht. Und ich hab da testweise schon 1600W raus genommen... (fast 1800W an der Dose)

Witzig, bei mir war es genau andersrum. Habe ewig Enermax NT gekauft (als 350W noch Enthusiast war) und beim Platimax 800W oder ka mit der 1080Ti fingen die Probleme an. Bin dann auf SeaS gewechselt und seitdem gab es keine Probleme mehr.

https://i.imgur.com/nBJMV4T.png

;D


So wenn ich was über spitzen CPUs lesen will, geh ich dann jetzt in NV oder ATI Forum?


Man sollte meinen ins AMD Forum aber wahrscheinlich wird das Salz mehr im Intelforum in die Wunden gerieben. ;D

Welcher Pleb betreibt denn eine 5090 mit irgendwas, was nicht "X3D" im Namen hat? Habt Ihr auch nur 16 GB Ram und eine HDD?

P.S.: sagt es lieber nicht! Ich nehme Euch die Karte(n) sonst weg!

Leute die 4kmax mit RT/PT zocken? x3d ist ein avg fps booster. Gut, wenn du cs go in 1080p spielst. Selber Grund wieso Tombman (TM) mit nem p4EE unterwegs war trotz der Existenz vom AMD64. Informier dich mal.

Weggeglüht kriegst Du mich damit auf jeden Fall. Und fehlt da eine Null bei Deiner Wattschätzung?

P.S.: Süß, dass dich der Stromverbrauch interessiert. Dachte dir geht's um Performance nicht fps/watt/€. ;D



Es ist so ein unehrliches Gefühl, AMD-Hardware zu nutzen: kleine Zahlen, und trotzdem schneller ... fühlt sich irgendwie verkehrt an. Flexen macht Spaß, wenn Dein Takt höher ist als der vom Rest der Welt. Mit 5800 MHz eine 6200 MHz CPU abzuhängen, fühlt sich falsch an. Wie ein Verrat :freak:

Du solltest mal ins Benchmarkforum mit deiner Wundercpu^^

lilgefo~
2025-12-17, 01:40:12
edit: ups, doppelpost

Lawmachine79
2025-12-17, 11:35:03
Leute die 4kmax mit RT/PT zocken? x3d ist ein avg fps booster. Gut, wenn du cs go in 1080p spielst. Selber Grund wieso Tombman (TM) mit nem p4EE unterwegs war trotz der Existenz vom AMD64. Informier dich mal.



P.S.: Süß, dass dich der Stromverbrauch interessiert. Dachte dir geht's um Performance nicht fps/watt/€. ;D

"Wer viel gibt, kann viel verlangen" - wenn ein technischer Meilenstein wie die 5090 viel Strom verbraucht - so what. Wenn aber eine CPU mit viel Aufwand dazu gebracht werden muss, überhaupt erst konkurrenzfähig zu sein und man das Produkt jahrelang nur "verbessert", indem man Takt und TDP erhöht, dann kaufe ich sowas aus Prinzip nicht. Ich kaufe ja auch keinen Nachfolger eines Autos, wo man einfach nur den Ladedruck erhöht hat, damit die Fahrleistungen auf dem Papier besser werden und das Ding erkauft sich seine Leistungssteigerung nur durch eine Verschleißsteigerung. Ich will geil engineertes Zeug; und da ist bei Intel Ebbe; man ist doch jetzt wieder exakt in der Pentium 4 EE-Situation, in einer technischen Sackgasse. Wenn Intel geiles Zeug baut, kaufe ich es auch; vom 2700K bis 7700K war ich in Team Blau.

P.S.: ich zocke kein 4kmax mit RT/PT; naja - auch. Ich zocke vor allem 3840x3840x2.

Wuge
2025-12-17, 12:42:40
Weggeglüht kriegst Du mich damit auf jeden Fall. Und fehlt da eine Null bei Deiner Wattschätzung?


Nee... das Ding nimmt in DCS 150W rum... 30-40% Last, also 12-15 Threads ausgelastet.

Hättest Du ne geeignete Bench-Szene? Mich würde tatsächlich mal interessieren, wie die CPUs im Vergleich gehen.

Praktisch hats für mich keine Relevanz, da die GPU immer limitiert.

Snoopy69
2025-12-17, 13:46:41
Wenn Intel geiles Zeug baut, kaufe ich es auch; vom 2700K bis 7700K war ich in Team Blau.

Sehe ich auch so...
Kein "Fanboy", sondern das nehmen, was für meine Zwecke gut performt (9950X3D)
Zuletzt 9900K - seitdem "hochcorige" Ryzens (angefangen mit 3950X)

btw:

Mit dem 9900K arbeite ich gerade sogar - steckt im Mini-PC (USFF). Da muss ich wiederum sagen, dass meine alten HP USFFs in Idle besser herumkommen, als AMDs (2W bei laufendem WIN11 - AMD leider nur 9W). Mag bei aktuellen USFFs anders aussehen. Aber extra was neues kaufen, damit ich "paar" Watt spare, aber gleichzeitig die "ROI" ruiniere...? Nö!

Bei Intel kommt dazu, dass sie die Sockel unnötig schnell wechseln (nur nötig für den EIGENEN Geldbeutel) und mir nix von "Nachhaltigkeit" vorblubbern brauchen
Einem gewinnorientierten Unternehmen, sind die User egal - nur deren Geld nicht. Aber... Der User hat es selbst in der Hand, was er kauft

Snoopy69
2025-12-17, 13:51:12
Nee... das Ding nimmt in DCS 150W rum... 30-40% Last, also 12-15 Threads ausgelastet.

Hättest Du ne geeignete Bench-Szene? Mich würde tatsächlich mal interessieren, wie die CPUs im Vergleich gehen.

Praktisch hats für mich keine Relevanz, da die GPU immer limitiert.
"Time Spy"...
350-400W bei deiner CPU sind da nichts Besonderes



P.S.: Süß, dass dich der Stromverbrauch interessiert. Dachte dir geht's um Performance nicht fps/watt/€. ;D

Solche Vergleiche manchen leider die wenigsten Reviewer/Tester/Youtuber (wie zb Gamers Nexus)
So könnte man präziser eine CPU wählen

Daredevil
2025-12-17, 14:10:30
Ich habe seit gestern meine 5090, kommend von der 3090 in Betrieb und Holy Moly ist das Ding ein Biest, echt Wahnsinn. Ich schaue mir immer gerne mal WoW an und selbst in 4K120 mit Max Settings und RT On habe ich in Ogrimmar nur 25% Auslastung, weil der 5700X@4.8Ghz bei 150fps limitiert. Man bekommt sie auch erstaunlich Effizient, 100-200w sind da drin, was für solche dicken Bertas eigentlich immer recht schwer war. Und selbst in 8K120 bekomme ich die GPU da nur selten klein, allerdings müssen es auch nicht unbedingt 500w in WoW sein, weil das kann mein MacStudio in 4K auch schon ganz gut, deutlich effizienter. Trotzdem sehe ich einen Unterschied in 8K120, weil ich recht nah am Screen bin. Schöner sag WoW noch nie aus. Ist wirklich witzig, mal nicht die GPU als Flaschenhals zu haben, sondern die GPU.

Drei Sachen gefallen mir an der Asus TuF allerdings nicht so wirklich
1. Sie ist riesig, fühlt sich aber einfach nicht so hochwertig wie eine FE an. Die 3090 hat richtig freude bereitet in der Hand, die Asus ist einfach nur ein seelenloses "Gestell" ohne jegliche sexyness. Ich würde falls möglich gerne auf die 5090 FE wechseln.

2. Es fiept wie blöde. Ich erwarte schlicht, dass die AIBs das mal in den Griff bekommen. Die PCs sind heute super silent ( WaKü bei 300rpm reichen ), die Lüfter sind auch ganz okay, aber dieses Grillengezirpe nervt einfach, selbst bei nur 200w. Ich wechsel jetzt auch nicht zwischen den drei Modellen durch, weil das ja vermutlich jede?! hat, es ist aber wirklich unimmersiv.

3. Die Kühlung ist für 600w echt solide, 1500rpm sind drin was ich nicht erwartet hätte, in real werde ich die sicherlich noch effizienter machen, dann hört man nichts... nur noch das zirpen.
Was mir nicht so gefällt, ist dass der OC Tuner auf ein Level eingestellt hat (+200), wo der RAM über 100 Grad heiß wird, was dann 2000rpm+ bedeuten, das muss nicht sein. Der Gewinn ist hier ja quasi nicht vorhanden. So viel erstmal zum Start, ich hatte hohe Erwartungen und bin begeistert. :)

Was ich allerdings nicht bedacht habe, dass Frame Generation bzw. Smooth Frames eigentlich meinen Prozessor ein wenig entlasten sollte. Was hier aber offenbar nicht möglich ist, das man gleichzeitig im 120fps max Rahmen bleibt, hier falle ich also, weil die 5090 zu schnell ist, schnell drüber und dann flackert es vor sich hin, weil die GSync Range gebrochen wurde von 120hz.
Da sehe ich zum ersten mal wirklich den Vorteil eines 240hz Screens. Nicht weil ich die 240hz unbedingt will, aber weil ich 150fps so flackerfrei bekommen würde.

TobiWahnKenobi
2025-12-17, 14:28:20
was fiept und zirpt würde ich umtauschen und die frames lassen sich global im treiber begrenzen.


(..)

mfg
tobi

Snoopy69
2025-12-17, 14:33:02
@Daredevil

Da musst du, wie Viele andere auch durch. Kann sein, dass die zweite GPU leider oder lauter ist. Manche wurden erst nach 5-10 GPUs glücklich. Ob man sich diesen Aufwand geben will, muss man für sich entscheiden
Im Luxx gibts nen eigenen Thread, in dem es nur um die Lautstärke (Spulen, Lüfter etc) geht

btw:
Jetzt stell dir mal vor, wenn da echte ~1.000W nur über die GPU ballern. Leiser wird die nicht :freak:

btw2:
Die 4090 TUF (erste Version) fand ich noch wertiger. Die zweite Version (kleinerer Billig-Lühler) nicht so

Wuge
2025-12-17, 14:33:23
"Time Spy"...
350-400W bei deiner CPU sind da nichts Besonderes


Solche Vergleiche manchen leider die wenigsten Reviewer/Tester/Youtuber (wie zb Gamers Nexus)
So könnte man präziser eine CPU wählen

Ja weils nicht juckt. Ich bekomme mit ycruncher auch 500W durch mit sinnfreien Einstelungen. Solche Workloads würde ich mit long duration power limit bei 200W max. laufen lassen. Im Time Spy Extrme sehe ich 13011 punkte wenn auf 200W limitiert. Geht doch für ne zwei Jahre (?) alte CPU, oder?

Im Real Life zieht die CPU 150W bei multithread Spielen und mal peaks Richtung 300W wenn shader kompilieren. Im Desktop nimmt das Ding 10W oder so. So what?

Wuge
2025-12-17, 14:34:34
was fiept und zirpt würde ich umtauschen und die frames lassen sich global im treiber begrenzen.


(..)

mfg
tobi


Dann tauscht du alle. Weil jede 5090 zum fiepen zu bringen ist. Genauso wie man fast jede ruhig bekommt :)

Evil Ash
2025-12-17, 14:39:12
Fiepen sollte es nicht und flackern auch nicht.

Snoopy69
2025-12-17, 14:41:53
Drei Sachen gefallen mir an der Asus TuF allerdings nicht so wirklich
1. Sie ist riesig, fühlt sich aber einfach nicht so hochwertig wie eine FE an. Die 3090 hat richtig freude bereitet in der Hand, die Asus ist einfach nur ein seelenloses "Gestell" ohne jegliche sexyness. Ich würde falls möglich gerne auf die 5090 FE wechseln.

Also noch lauter? :freak:
Schau einfach mal in den Luxx-Thread

Glücklicherweise bin ich nicht so empfindlich bei meiner TUF

Blase
2025-12-17, 14:42:28
Was ich allerdings nicht bedacht habe, dass Frame Generation bzw. Smooth Frames eigentlich meinen Prozessor ein wenig entlasten sollte. Was hier aber offenbar nicht möglich ist, das man gleichzeitig im 120fps max Rahmen bleibt, hier falle ich also, weil die 5090 zu schnell ist, schnell drüber und dann flackert es vor sich hin, weil die GSync Range gebrochen wurde von 120hz.
Da sehe ich zum ersten mal wirklich den Vorteil eines 240hz Screens. Nicht weil ich die 240hz unbedingt will, aber weil ich 150fps so flackerfrei bekommen würde.

Vielleicht steh ich grade auf dem Schlauch, aber begrenzt man nicht ohnehin im Treiber die max. Wiederholfrequenz ein paar FPS unterhalb der max. Refreshrate des eigenen Monitors?

MfG Blase

Evil Ash
2025-12-17, 14:43:19
Ja, bei seinen 120 Hz einfach 117 eintragen und alles ist gut. :)

Lawmachine79
2025-12-17, 14:46:03
Nee... das Ding nimmt in DCS 150W rum... 30-40% Last, also 12-15 Threads ausgelastet.

Hättest Du ne geeignete Bench-Szene? Mich würde tatsächlich mal interessieren, wie die CPUs im Vergleich gehen.

Praktisch hats für mich keine Relevanz, da die GPU immer limitiert.
Ich gucke mal mit HWInfo; habe keinen Plan was sich meine CPU da nimmt; ich bin da auch hart Graka limitiert mit der Pimax; die schwankt da allerdings zwischen 60% und 95%, ist also schwer zu justieren. Beim Starten und in Helimissionen sind kurze Drops unter 90 drin, so dass ich auf 72 hz/fps gestellt habe. Aber wenn ich dann irgendwo auf 30.000 Fuß rumfliege, ist die GPU dann bei 60% (laut NV-Overlay).

TobiWahnKenobi
2025-12-17, 14:46:22
@wuge
bestimmt.. idealerweise mit PSU vom grabbeltisch und mit offenem case auf dem schreibtisch.. wenn das nicht reicht -> wasserblock drauf und lüfter drosseln.. wenn das nicht reicht.. PL ausfahren oder per BIOS erweitern.. klar, man kriegt alles kaputt. das gute daran: der markt ist es schon und die, die ich für schwachsinnig handelnd halte, sterben aus.


(..)

mfg
tobi

Daredevil
2025-12-17, 14:49:52
was fiept und zirpt würde ich umtauschen und die frames lassen sich global im treiber begrenzen.


(..)

mfg
tobi
Fiepen sollte es nicht und flackern auch nicht.
Naja gut, vielleicht schaue ich mir die anderen beiden Karten doch nochmal genauer an. :)

Vielleicht steh ich grade auf dem Schlauch, aber begrenzt man nicht ohnehin im Treiber die max. Wiederholfrequenz ein paar FPS unterhalb der max. Refreshrate des eigenen Monitors?

MfG Blase
Ja klar, das ist schon richtig. Das Limit ist immer zwischen 40-120fps, damit man nicht aus der Range fällt.
Nun habe ich ( wieso auch immer ) gedacht, ich könnte bei z.B. 70fps ingame Frame Generation einschalten, der zaubert mir noch 50fps dazu und ich komme auf die 120fps. Soweit ich das richtig sehe, boostet er mir den Spaß dann aber auf 120-140fps und damit falle ich aus der Range raus. VSync o.ä. bringt mir da ebenso überhaupt nichts, soweit ich das richtig gesehen habe.

Also müsste ich entweder die DLSS Qualitätsstufe erhöhen, damit ich auf 40-50fps Base komme, so das ich mit FG nicht über 120fps komme, oder ich senke halt die Qualitätsstufe und erreiche ohne Frame Generation die 100-120fps. Ersteres ist aufgrund des Input lags natürlich seltene eine nette Wahl.
Mit einem 240hz Screen hätte man die Probleme natürlich nicht.

Snoopy69
2025-12-17, 14:54:39
Versuch auch das mal...
Verlierst kaum Performance, aber die GPU wird insgesamt leiser und zieht viel weniger

Und mach es genau so - nicht anders. Und vermeide es, nachträglich an Curves herumzufummeln (also immer neu bauen)
2aqKhGPWrNs

Blase
2025-12-17, 15:08:52
Ja klar, das ist schon richtig. Das Limit ist immer zwischen 40-120fps, damit man nicht aus der Range fällt. ...

Ich steh vielleicht immer noch auf dem Schlauch :tongue:

Du begrenzt im nVidia Control Panel fest die max. Wiederholfrequenz. Frech mal ein Bild geklaut:

https://www.computerbase.de/forum/threads/nvidia-control-center-einstellung-hintergrundanwendung-max-bildfrequenz.2143508/

Dann geht die FPS nie über diesen Wert, selbst wenn die GPU ansonsten Luft darüber hinaus hätte...

MfG Blase

Langlay
2025-12-17, 15:16:55
Ich steh vielleicht immer noch auf dem Schlauch :tongue:

Du begrenzt im nVidia Control Panel fest die max. Wiederholfrequenz. Frech mal ein Bild geklaut:

https://www.computerbase.de/forum/threads/nvidia-control-center-einstellung-hintergrundanwendung-max-bildfrequenz.2143508/

Dann geht die FPS nie über diesen Wert, selbst wenn die GPU ansonsten Luft darüber hinaus hätte...

MfG Blase


In der Theorie ja, in der Praxis funzt es nicht immer. In EVE Online z.b. greift bei mir der Limiter im Treiber nur Pi mal Daumen in 2 von 3 Fällen und du rennst dann mit 400+ FPS und 400-500W auf der GPU durch die Gegend.

Daredevil
2025-12-17, 15:21:43
Versuch auch das mal...
Verlierst kaum Per., aber die GPU wird insgesamt leiser und zieht viel weniger

Und mach es genau so - nicht anders. Und vermeide es, nachträglich an Curves herumzufummeln (also immer neu bauen)
https://youtu.be/2aqKhGPWrNs
Schaue ich mir mal an, danke. :)
Hatte die 3090 schon auf 120w laufen in manchen Games, Teillast scheint trotz des fetten Speichers ganz effizient zu sein, muss ich mal die Tage prüfen.

Ich steh vielleicht immer noch auf dem Schlauch :tongue:

Du begrenzt im nVidia Control Panel fest die max. Wiederholfrequenz. Frech mal ein Bild geklaut:

https://www.computerbase.de/forum/threads/nvidia-control-center-einstellung-hintergrundanwendung-max-bildfrequenz.2143508/

Dann geht die FPS nie über diesen Wert, selbst wenn die GPU ansonsten Luft darüber hinaus hätte...

MfG Blase
Frame Generation erzeugt aber (offenbar? wie auch sonst? :D ) eben keine halben Frames, sondern immer nur ganze, so komme ich als Beispiel nicht von 70 auf 120, sondern nur auf 140 und damit höher als ich will. Ich habe in Cyberpunk Vsync. Zumindest habe ich es gerade nicht in Cyberpunk hinbekommen, ist wie gesagt nur ein kurzer Bericht. Vielleicht muss ich Vsync auch im Treiber forcieren, probiere ich mal aus. Frame Generation ist für mich was neues. :redface:

Das Thema ist jetzt nicht sooo klar offenbar. ^^
https://www.reddit.com/r/nvidia/comments/1k65qow/how_is_frame_generation_meant_to_be_used_without/?tl=de

Langlay
2025-12-17, 15:24:03
Hatte die 3090 schon auf 120w laufen in manchen Games, Teillast scheint trotz des fetten Speichers ganz effizient zu sein, muss ich mal die Tage prüfen.



Besser als die 3090 ja, leider auch merklich schlechter als ne 4090.

Blase
2025-12-17, 15:57:03
In der Theorie ja, in der Praxis funzt es nicht immer. In EVE Online z.b. greift bei mir der Limiter im Treiber nur Pi mal Daumen in 2 von 3 Fällen und du rennst dann mit 400+ FPS und 400-500W auf der GPU durch die Gegend.

Meinst du jetzt speziell mit der Nutzung von FG? Ich nutze diese Einstellung schon seit Jahren und kann mich an keine einzige Situation bzw. Spiel erinnern, wo ich laut Anzeige dann jemals oberhalb meiner konfigurierten, bzw. begrenzten 117 FPS lag :confused:

Einzig habe ich seit Ewigkeiten kein (M)FG genutzt und will es nicht völlig ausschließen in dem Kontext. Wobei ich mir auch hier eigentlich ziemlich sicher bin, dass bei Hogwarts die FPS mit FG auch bei max. 117 festgetackert waren. Aber lange bin ich mit dem OSD auch nicht rumgelaufen. Ich habe es immer nur zum Finden meiner bevorzugten Einstellungen an - und ab dann immer aus.

Frame Generation erzeugt aber (offenbar? wie auch sonst? :D ) eben keine halben Frames, sondern immer nur ganze, so komme ich als Beispiel nicht von 70 auf 120, sondern nur auf 140 und damit höher als ich will. Ich habe in Cyberpunk Vsync. Zumindest habe ich es gerade nicht in Cyberpunk hinbekommen, ist wie gesagt nur ein kurzer Bericht. Vielleicht muss ich Vsync auch im Treiber forcieren, probiere ich mal aus. Frame Generation ist für mich was neues. :redface:

Das Thema ist jetzt nicht sooo klar offenbar. ^^
https://www.reddit.com/r/nvidia/comments/1k65qow/how_is_frame_generation_meant_to_be_used_without/?tl=de

Die Empfehlung lautet imho VSYNC im Treiber an, im Spiel aber immer aus. Ich schaue mir das heute Abend noch einmal genauer an und teste mal mit ein paar Games FG, wo ich es sonst bisher nicht genutzt habe. Mal sehen ob ich meine konfigurierte Begrenzung (117 FPS) damit sprengen kann... :tongue:

MfG Blase

Daredevil
2025-12-17, 16:01:25
Die Wahrscheinlichkeit, dass ich keine Ahnung habe oder VSync an der falschen Stelle gesetzt habe ist sicherlich sehr hoch. :D
Aber spannend, dass FG trotzdem gehen würde, dann wäre das Ergebnis ja "ungleichmäßig", weil Bilder verworfen werden müssten bzw. Nvidia cappt direkt die "native" FPS, was ja den Input Lag ( theoretisch ) erhöht? Schaue es mir später nochmal an, wenn du bislang alles so durchgezockt hast, wirst du sicherlich recht haben und ich habe mit von Cyberpunk blenden lassen. War gerade kurz sehr frustriert. :D

Blase
2025-12-17, 16:07:17
Habe grade gesehen, dass mein zuvor verlinkter "Screenshot" nicht ganz zielführend war. Rot umkreist hat er die Begrenzung für die "Hintergrund FPS". Wichtig hier im Kontext ist aber genau die Zeile da drunter: "Max. Bildfrequenz", die er bei sich - wie bei mir - auf 117 stehen hat...

Ich schaue nachher mal :tongue:

EDIT

Und weil du den Input Lag ansprichst. Entgegen dem selben Screenshot ganz unten den Modus für geringe Latenz nicht ausschalten, sondern "an + Boost"!

MfG Blase

Langlay
2025-12-17, 16:15:08
Meinst du jetzt speziell mit der Nutzung von FG? Ich nutze diese Einstellung schon seit Jahren und kann mich an keine einzige Situation bzw. Spiel erinnern, wo ich laut Anzeige dann jemals oberhalb meiner konfigurierten, bzw. begrenzten 117 FPS lag :confused:




Ich nutze quasi kein FG, aber ich nutze auch die Einstellung mit Limitierung auf 140Hz (144Hz Monitor). Und in EVE Online (mein Maingame) hab ichs öfters mal da es nicht greift. Einmal die EVE neustarten hilft dann. Aber kann auch sein das es ein spezielleres Problem ist. Mein Windows ist uralt. Mir isset jetzt auch nur in EVE aufgefallen.

TobiWahnKenobi
2025-12-17, 17:27:52
ich hab's idR so laufen (120Hz VRR OLED)


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=94911&stc=1&d=1765988618

dann setze ich noch den haken für den gsync-indikator und das war's..

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=94912&stc=1&d=1765988731


im treiber vorbei, schaue ich nur, wenn ich dazu mal genötigt werde.
aber das kam gefühlt schon ewig nicht mehr vor.


(..)

mfg
tobi

dargo
2025-12-17, 18:25:39
Das wird ja langsam zum Volkssport. :ulol:

OBOsyoeD5-E

Aber wer so naiv durchs Leben geht hat es auch nicht besser verdient.

Wuge
2025-12-17, 18:44:39
Ich gucke mal mit HWInfo; habe keinen Plan was sich meine CPU da nimmt; ich bin da auch hart Graka limitiert mit der Pimax; die schwankt da allerdings zwischen 60% und 95%, ist also schwer zu justieren. Beim Starten und in Helimissionen sind kurze Drops unter 90 drin, so dass ich auf 72 hz/fps gestellt habe. Aber wenn ich dann irgendwo auf 30.000 Fuß rumfliege, ist die GPU dann bei 60% (laut NV-Overlay).

Noch mal kurz OT ;)

Seit dem letzten Update der Pimax Software mit den weichen Übergängen in QuadViews, kann ich die 8kx im "Normal-FOV" mit 1.5 Render Quality tatsächlich bei 90 FPS fahren. GPU rödelt satt über 3200 Mhz und ist auch zwischen 85 und 99% ausgelastet aber es ist tatsächlich flüssig. Heli/Hanger mal ausgenommen, da gibts natürlich Framedrops. Aber ist schon geschmeidiger als vorer mit 45 FPS. 72Hz flimmert mir leider zu sehr. Nach 5? Jahren mit der 8kx kann ich jetzt erstmals sagen - scharf und flüssig ;D

Lawmachine79
2025-12-17, 22:16:34
Noch mal kurz OT ;)

Seit dem letzten Update der Pimax Software mit den weichen Übergängen in QuadViews, kann ich die 8kx im "Normal-FOV" mit 1.5 Render Quality tatsächlich bei 90 FPS fahren. GPU rödelt satt über 3200 Mhz und ist auch zwischen 85 und 99% ausgelastet aber es ist tatsächlich flüssig. Heli/Hanger mal ausgenommen, da gibts natürlich Framedrops. Aber ist schon geschmeidiger als vorer mit 45 FPS. 72Hz flimmert mir leider zu sehr. Nach 5? Jahren mit der 8kx kann ich jetzt erstmals sagen - scharf und flüssig ;D
Halbwegs on Topic: sobald die Pimax Software starte, zieht die 5090 immer 80-90W, auch im Idle :D.

Snoopy69
2025-12-17, 23:07:56
Blöde Software...

btw:
Eine kühle GPU zieht ~20W - eine heiße (ca 60°C) GPU zieht ~30W
Diese 0%-Regelung der Lüfter ist nicht gerade optimal. Laufende Lüfter bei min. 30% ziehen keine 10W

Wuge
2025-12-18, 11:08:00
Naja, wenn die Software läuft zeigt die Brille den 3D Backscreen an. Dazu geht die Karte in einen höheren Powerstate undab geht die Post ;) Und die bieten in der Software noch ein Autostart Feature an *ggg*

PS: hab gestern mal das XOC BIOS ausprobert. Kannste im FS2020 auch mal 800W durchlassen. Und in DCS 3300 Mhz+. Aber ich drossle... die Effizienz wird einfach zu krass schlecht.

Daredevil
2025-12-18, 12:19:48
Erste Erkenntnisse beim erstellen von 3 Profilen, gemessen mit Superposition 8K

Eco Profile - PT 69% / +300 / 700rpm
14782pts - 400w - 36,9pts per Watt

Gaming Profile - PT 87% / +400 / 1100rpm
17170pts - 500w - 34,3pts per Watt

Max Karacho - PT 104% / +400 / +1000 / 1400rpm
18675pts - 600w - 31,1pts per Watt
( CPU Limit nicht ganz ausgeschlossen beim 5700X )

Der Curve Editor ist ja echt komplett kaputt, habe mir das YouTube Video angeschaut, aber irgendwie bekomme ich es nicht hin, einen fixen Wert auf die Minimalspannung zu legen, mal abgesehen davon dass ich sie noch gar nicht kenne. :D
Bei der 3090 war das Easy ( Werte geschätzt, kein Bock nachzugucken ^^ )
0.70v - 1500Mhz - 200w
0.80v - 1800Mhz - 280w
0.95v - 1950Mhz - 400w

Wie ich unter 400w komme, ist mir noch nicht ganz klar.
Also ich kann natürlich die Grafiklast anhand der DLSS Profile + FPS Limit ziemlich easy regulieren und komme dann in Overwatch auf ca. 180w beim zocken, aber es hat ja nicht jedes Spiel DLSS. Und 400w als "Eco" zu bezeichnen ist natürlich auch ein Witz.

Snoopy69
2025-12-18, 14:03:40
Es ist eine der besten Möglichkeiten eine Curve zu basteln. Nicht die Einfachste, aber die mit der besten Perf. (ich hatte darüber mal im Luxx geschrieben). Heißt, wenn man die Curve anders baut, kann sie exakt aussehen, wie wenn man diese, wie im Video baut. Die Perf. ist damit jedoch schlechter

Bei meiner TUF sind min 0,87V möglich, mit denen man noch zocken könnte. Ich baue fürs Zocken bei 0,9V eine Curve. Keine Lust jedem Watt nachzujagen

hq-hq
2025-12-18, 21:40:21
bei mir limitiert der Afterburner oder das Bios der Karte die Taktrate bei den niedrigen Spannungen

also maximale Steigung bis z.B.
0.900V = 2917MHz danach flache Curve
0.885V = 2662MHz ...
0.860V = 2317MHz ...

er nimmt dann glaub ich immer einen Spannungspunkt weiter unten, bei 0.860V dann zwischen 0.850V und 0.860V den kann man aber nicht manuell einstellen

ja also 0.860V / 2317MHz werden dann real zu 0.855V und 2287MHz

Beispiel Veilguard 2160p (bei rund 200Watt BoardPower)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=94934&stc=1&d=1766090817

bei 0.900V /2917MHz nach Curve werden dann 0.895V / 2812MHz draus (bei ca. 240 Watt BoardPower in Vanguard 2160p und 120fps)

bei den angehängten Curve Bildern sieht man wo er sich ingame befindet, immer zwischen dem höchsten und dem zweithöchsten Punkt der Curve

Mr. Pink
2025-12-19, 15:00:08
Hat schon jemand ein 800W Bios geflasht? Vermutlich etwas riskant da die Stecker ja auch schon bei 600W abgeraucht sind. Was ist da nun eigentlich stand der Dinge bezüglich dem Wärmeproblem der 12VHPWR Stecker?

Snoopy69
2025-12-19, 15:06:15
Noch nicht, hab ja nen Hardmod mit ~1.000W (peak 1.400W)...
Passiert ist mit dem Stecker noch nie was. Solche Lasten lasse ich nie unbeobachtet (nie ohne Extra-Messungen). Insofern mit dem Stecker/Buchse alles in Ordnung ist, wird damit nichts passieren (beobachten aber nicht vergessen)

HisN
2025-12-19, 15:26:18
Hat schon jemand ein 800W Bios geflasht?

Einfach ein paar Beiträge vor Deinem Überfliegen.

z.b.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13843555#post13843555

Mr. Pink
2025-12-19, 15:35:03
Danke, denke das werde ich auch versuchen. Wozu hat man ne dicke Custom Wakü... :)

Snoopy69
2025-12-19, 15:38:09
..

Mr. Pink
2025-12-19, 16:20:16
Gibt es denn eine Übersicht um zu sehen ob das Asus Matrix Bios mit der eigen Karte kompatibel ist?

HisN
2025-12-19, 16:48:53
Was haste denn für ne eigene Karte? Wäre das nicht viel einfacher für uns zu lösen?
Bis jetzt weiß ich nur, dass das lustige Matrix Bios gerade auf Asus-Karten nicht funktioniert.^^

Mr. Pink
2025-12-19, 16:58:03
Ich habe eine "INNO3D GeForce RTX 5090 iChill Frostbite". Offensichtlich macht das Matrix Bios Probleme wenn die zu flashende Karte eine abweichende Lüftersteuerung hat. Vor allem das macht mich bzgl. meiner Karte stutzig. :)

HisN
2025-12-19, 17:00:04
Ich dachte, Du hast ne dicke Custom Wakü, dann ist doch gar keine Lüftersteuerung drauf, oder ist die dicke Custom Wakü am Ende ne AIO?

Mr. Pink
2025-12-19, 17:05:56
Deswegen, keine Steuerung könnte man ja auch als abweichend bezeichnen :D Ich hab 2x 560er Radiatoren verbaut, also schon Custom und ausreichend "Dick". Des weiteren kann es ja auch sein das INNO einfach ein Board einer Luftgekühlten Variante verbaut, wär ja auch das einfachste.

HisN
2025-12-19, 17:16:38
Naja, die Lüftersteuerung wird schon da sein, hängt halt kein Lüfter drann.
Machen ja alle anderen, die ihre Karten umbauen genau so.
Da stört es dann ja genau Null wenn ein Lüfter nicht/nicht richtig läuft.

Mr. Pink
2025-12-19, 17:25:44
Meine Sorge gilt ja auch der Möglichkeit das man sich irgendwie die Karte komplett zerschießt wenn da was nicht passt. Ob ein Lüfter den ich nicht habe funktioniert oder nicht ist tatsächlich gleich. :) Habe auch erst einmal einer Graka ein neues Bios verpasst von daher hab ich wenig Ahnung aber dafür viel Angst. :D

HisN
2025-12-19, 17:28:46
Naja, zwei Möglichkeiten.
Das Flash-Programm verweigert schon beim Flashen den Dienst. Dann passiert gar nix.

Oder nach dem Flashen startet die Karte nicht, dann macht aber noch die iGPU (oder eine andere Graka) ein Bild, und Du ziehst das Orginal-Bios, dass Du Dir vorher gespeichert hast, wieder zurück.

Mr. Pink
2025-12-19, 17:35:46
Ok, also eigentlich Risiko gleich Null wenn man sich nicht komplett doof anstellt. Wieso machen dann alle so ein Gewese? :)

HisN
2025-12-19, 17:43:25
Es gab ne Zeitlang Karten, die hatten andere Controller-Chips drauf als die Standard-Karten. Da hats dann wohl die Karte zerhackt.
Aber inzwischen sind die Vorgaben von Nvidia wohl so eng, dass die Hersteller kaum noch was machen können. Sie sind zu Kühler-Herstellern degradiert worden.

Mr. Pink
2025-12-19, 17:48:21
Danke, da bin ich nun schlauer. :)

Wuge
2025-12-20, 22:38:58
Klar... 800W ist doch easy... hab grad das 1200W drauf. Dauerhaft würde ich aber nicht über 800W gehen.

Matrix geht auf allen Karten ausser auf der Astral Black / LC und der AIO MSI.