Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5090 Review-Thread


Seiten : 1 [2] 3 4 5 6 7

Badesalz
2025-01-24, 10:35:56
So ist es. Zukunftsmusik. Also sowas wie damals RT auf einer 2080 ;)

Das ist die neue Sortierung für 4K Raster-Rohleistung.Was ist eine Rohleistung und warum ist sie interessant?

@all
"Du hast jetzt ganz schmarrnant unterschlagen, daß die 4090 4nm ist und die 5090 4nm ist. Verstehste.

Die ganzen Steigerungen wären ohne TSMC sonst so verlaufen wie bei Intel 14+ vs. 14++ vs. 14+++ vs. 14++++ usw. Ohne TSMC läuft da garnichts an Ingenieurkunst... Bei AMD nicht, bei Apple nicht und eben auch bei NV nicht."

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13691237#post13691237

dargo
2025-01-24, 10:38:58
Irgendwie stehe ich gerade auf dem Schlauch... ist die RTX 4090 langsamer geworden oder die RX 7900XTX schneller bei manchen Games? :freak: N31 ist zwar ein OC-Modell, aber auf die +2-3% drauf geschissen.
https://youtu.be/svk5wjogstQ?si=tHaQhQYD5tr0xLa8&t=529

CP77 +15% für 4090
Remnant 2 +10% für 4090

Bei 1% low ist der Abstand noch geringer bei CP77, bei Remnant 2 wieder größer. Sehr verwirrend manche Messungen, nicht wirklich logisch. Ich hoffe Messfehler sind ausgeschlossen. Mirage lasse ich mal weg, da ist der Unterschied bei den avgs. absolut winzig, wahrscheinlich schon recht cpu-limitiert. Zumindest deuten die 289W der 4090 darauf hin. Allerdings skaliert die 5090 auf 4090 hier weiter mit +18% bei den avgs. :uconf2: Doch Auslastungsprobleme bei 4090? Das sind die Verbräuche der 4090 wieder total verwirrend.

Edit:
Lol... das habe ich noch gar nicht gesehen. Wenn das wirklich stimmt dann disqualifiziert sich Multi Frame Generation direkt wieder. ;D
https://youtu.be/svk5wjogstQ?si=dAOyoX8Fsp_FrpSN&t=937

Daredevil
2025-01-24, 10:39:35
Wat? :freak:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-10#abschnitt_temperaturen_unter_last

GPU-Edge = 79°C (Hotspot sicherlich dann bei der hohen Abwärme trotz großen Fläche =>100°C)
Vram = 96°C
Lüfter = 1.700RPM (bei großen Lüftern)
Lautstärke = 41,5dbA

Das sind übrigens Daten die im Winter ermittelt wurden. Im Hochsommer werden diese garantiert nicht besser werden.
Schon mal was von Testumgebung gehört? Oder denkst du, die Redaktionen machen ihr Fenster auf beim benchen? ;D

Ja, der Kühler ist beeindruckend, weil er Max. 575w, die beim gamen im Schnitt selten anliegen mit einer nicht silent, aber auch nich brachialen Lautstärke wegkühlt. So etwas ambitioniertes hat es vorher noch nicht gegeben und das man trotz diesen Temps den Takt hoch halten kann ähnlich wie zur kühleren 4090 ist ebenso technisch beeindruckend.
Jegliches MacBook Air liegt bei Last über 100 Grad an, es ist ein Ego Problem wenn man denkt, es müsste darunter liegen, aber eben kein technisches.
Meinetwegen kann die Kiste auch 120 Grad heiß sein, Hauptsache sie leistet und ist kein Jet. Mit der 2Slot Lösung stellt man hier einen neuen Standard, den vermutlich bald jeder kopieren wird. Gute Entwicklung. :)

Naja, wirklich freuen tue ich mich nicht. Gekauft wird die Karte allerdings trotzdem, obwohl der Performancezuwachs arg mau ist.
+1
Ganz pragmatischer Kauf. :D

Kriegsgeier
2025-01-24, 10:40:26
ich kann mir auch folgendes vorstellen: da die 5090 extra Phasen für den FrameBuffer bekommen hat kann nur die 5090 solch krassen FPS-Werte ausgeben.

Somit muss ich die 5080 erst mal beweisen ob diese Karte überhaupt im Stande ist solche MFG zu bändigen.

MiamiNice
2025-01-24, 10:42:30
400 Watt komplett passiv <-- Bullshit, sorry!

Schon mal Physikunterricht in Klasse 7 gehabt?

PT1 Verhalten solches Systems (Energiespeicher erster Ordnung) schon mal vor Augen geführt?

Nun der 420er schafft laut Herstellerangabe bei Raumtemp 250 Watt passiv, wenn man ihn smart verortet, bei mir die Veranda, werden es deutlich mehr. Meiner geht z.b. nicht an wenn ich einen OC 13900k mit 400 Watt Verbrauch durch einen CPU Bench jage. Vielleicht mal alle halbe Stunden für 5 Minuten bei nur CPU Last, eher der Aquaero die Lüfter wieder abschaltet. Mit dem Ryzen läuft der MoRa gar nicht mehr, wenn nicht auch die GPU Strom zieht ;)

fondness
2025-01-24, 10:42:44
Schon mal was von Testumgebung gehört? Oder denkst du, die Redaktionen machen ihr Fenster auf beim benchen? ;D

Ja, der Kühler ist beeindruckend, weil er Max. 575w, die beim gamen im Schnitt selten anliegen mit einer nicht silent, aber auch nich brachialen Lautstärke wegkühlt. So etwas ambitioniertes hat es vorher noch nicht gegeben und das man trotz diesen Temps den Takt hoch halten kann ähnlich wie zur kühleren 4090 ist ebenso technisch beeindruckend.
Jegliches MacBook Air liegt bei Last über 100 Grad an, es ist ein Ego Problem wenn man denkt, es müsste darunter liegen, aber eben kein technisches.
Meinetwegen kann die Kiste auch 120 Grad heiß sein, Hauptsache sie leistet und ist kein Jet. Mit der 2Slot Lösung stellt man hier einen neuen Standard, den vermutlich bald jeder kopieren wird. Gute Entwicklung. :)

Ist halt sehr individuell was man als beeindruckend ansieht. Beeindruckender wäre es IMO gewesen, wenn der Kühler etwas größer und dafür leiser wäre. So wirkt das auf mich fast wie eine Sparversion, was zu dem Preis schon mutig ist. Immerhin ist es ein leichtes die Lüfterdrehzahl zu erhöhen für bessere Kühlleistung. 1700rpm bei so großen Lüftern ist alles andere als wenig bzw. leise. Und das man die Hotspot-Temp einfach weg lässt und selbst der RAM an den 100°C kratzt macht das ganze nicht gerade besser. Und dann schauen wir mal was passiert, wenn sich das Gehäuse aufwärmt oder es gerade Hochsommer ist....

Kriegsgeier
2025-01-24, 10:44:01
Schon mal was von Testumgebung gehört? Oder denkst du, die Redaktionen machen ihr Fenster auf beim benchen? ;D

Ja, der Kühler ist beeindruckend, weil er Max. 575w, die beim gamen im Schnitt selten anliegen mit einer nicht silent, aber auch nich brachialen Lautstärke wegkühlt. So etwas ambitioniertes hat es vorher noch nicht gegeben und das man trotz diesen Temps den Takt hoch halten kann ähnlich wie zur kühleren 4090 ist ebenso technisch beeindruckend.
Jegliches MacBook Air liegt bei Last über 100 Grad an, es ist ein Ego Problem wenn man denkt, es müsste darunter liegen, aber eben kein technisches.
Meinetwegen kann die Kiste auch 120 Grad heiß sein, Hauptsache sie leistet und ist kein Jet. Mit der 2Slot Lösung stellt man hier einen neuen Standard, den vermutlich bald jeder kopieren wird. Gute Entwicklung. :)

ich glaube so einfach ist das nicht: die 100°C beim Chip und beim Speicher müssen um jeden Preis verhindert werden. Dauerhaft über 100 Grad ist einfach nicht haltbar --> Alterungsprozesse und Elektronenmigration gehen dann steil.
Somit in einem Gehäuse wird ein Gamer im Sommer Bei 28°C im Zimmer keine 1700 rpm bei der Karte haben eher 2000 rpm und das wird wesentlich lauter sein als schon nicht gerade leisen 1700 rpm!

The_Invisible
2025-01-24, 10:45:23
CB selbst schrieb, daß es ihnen außer den Folien noch überhaupt nicht klar ist was das wirklich tut und bringt. Heut wie morgen. Müsste man erstmal schauen, aber als Kaufgrund haben sie diesen Aspekt nicht empfohlen.

Wobei mir wieder auffiel, daß ich kritische Tests die sich aber nicht auf das Niveau von Rants herablassen, irgendwie am meisten mag :rolleyes:

Deshalb schrieb ich ja Turing Moment. Wobei es für das Neural Zeugs nicht mal ein Showcase Spiel gibt, schon enttäuschend für NV Verhältnisse. Zumindest kommt dann AW2 mit MegaGeometry

Kriegsgeier
2025-01-24, 10:45:59
Nun der 420er schafft laut Herstellerangabe bei Raumtemp 250 Watt passiv, wenn man ihn smart verortet, bei mir die Veranda, werden es deutlich mehr. Meiner geht z.b. nicht an wenn ich einen OC 13900k mit 400 Watt Verbrauch durch einen CPU Bench jage. Vielleicht mal alle halbe Stunden für 5 Minuten bei nur CPU Last, eher der Aquaero die Lüfter wieder abschaltet. Mit dem Ryzen läuft der MoRa gar nicht mehr, wenn nicht auch die GPU Strom zieht ;)

Auf Veranda ist schon mal nicht passiv ;) Sorry.
Und welche Wassertemperatur hast du dann?

Ich weiß, die Delta ist für die Wärmetransport verantwortlich aber dennoch, kein Bock auf 50°C Wasser im Kreislauf ;)

dargo
2025-01-24, 10:47:10
Ja, der Kühler ist beeindruckend, weil er Max. 575w, die beim gamen im Schnitt selten anliegen mit einer nicht silent, aber auch nich brachialen Lautstärke wegkühlt.
Du hast schon eine seltsame Vorstellung von beeindruckend. Beeindruckend wäre das für mich wenn er die 575W bei einem geschlossenem Gehäuse dauerhaft bei ca. 30dBA und 65°C GPU-Edge halten könnte. ;) Die benachbarten Komponenten würden dann zwar dennoch kotzen. Aber das ist ein anderes Thema.

woodsdog
2025-01-24, 10:48:23
Ist halt sehr individuell was man als beeindruckend ansieht. Beeindruckender wäre es IMO gewesen, wenn der Kühler etwas größer und dafür leiser wäre. Immerhin ist es ein leichtes die Lüfterdrehzahl zu erhöhen für bessere Kühlleistung. 1700rpm bei so großen Lüftern ist alles andere als wenig bzw. leise. Und das man die Hotspot-Temp einfach weg lässt und selbst der RAM an den 100°C kratzt macht das ganze nicht gerade besser. Und dann schauen wir mal was passiert, wenn sich das Gehäuse aufwärmt oder es gerade Hochsommer ist....

Beeindruckend ist es das Ding SFF zu verbauen zu können. Das dann etwas leistung liegen bleibt - geschenkt.
"etwas größer und leiser" kannste bei den Customs finden. 2-Slot "gut" kühlbar bei 600W hat bislang keiner geschafft - das darf man auch mal anerkennen auch wenns die falsche Farbe hat...

The_Invisible
2025-01-24, 10:49:57
Du hast schon eine seltsame Vorstellung von beeindruckend. Beeindruckend wäre das für mich wenn er die 575W bei einem geschlossenem Gehäuse dauerhaft bei ca. 30dBA und 65°C GPU-Edge halten könnte. ;) Die benachbarten Komponenten würden dann zwar dennoch kotzen. Aber das ist ein anderes Thema.

Dafür gibts die Customs, das Ziel der FE war SFF Standard. Und für 2 Slot ist schon beeindruckend, muss man auch mal am Boden bleiben...

Daredevil
2025-01-24, 10:50:34
ich glaube so einfach ist das nicht: die 100°C beim Chip und beim Speicher müssen um jeden Preis verhindert werden. Dauerhaft über 100 Grad ist einfach nicht haltbar.
Somit in einem Gehäuse wird ein Gamer im Sommer Bei 28°C im Zimmer keine 1700 rpm bei der Karte haben eher 2000 rpm und das wird wesentlich lauter sein als schon nicht leise 1700 rpm!
Es ist ziemlich einfach, da es innerhalb der Spec ist, deswegen ist es ziemlich gut haltbar. Intel MacBooks laufen seit über 10 Jahren bei 100 Grad und machen keinen mucks, es ist ein Ego Problem aber kein technisches.
Das ein PC andere Anforderungen hat an Gehäusebelüftung, wenn sich die Jahreszeiten wechseln habe ich mit 16 auch schon gewusst.
Das trifft aber jede Grafikkarte und ist nicht speziell ein Problem von NVIDIA.

Karten werden nicht im Garten getestet sondern in Testumgebungen, ich persönlich habe es nie wärmer als 20 grad im Winter, also wäre die Karte bei mir noch besser. Wer 2500€ für eine 5090 ausgibt und keine 1000€ im Jahr in Lebensqualität durch eine Klimaanlage im Sommer hat ein Problem im bewerten seiner Lebensqualität und keine Achtung vor seiner Gesundheit. Da sind die 100 Grad nicht das Problem sondern der Inhalt des Kopfes. :<

Es gibt kein anderen 2-Slot Design welche diese Mammutsufgabe leistet, das ist keine Meinung sondern ein belegbarer Fakt. Weniger Material einzusetzen für die gleiche Lösung ist beeindruckend. Wie bereits gesagt hat da niemand nach gefragt Ich ich würde auch lieber einen 6-Slot Kühler nehmen, trotzdem ist es faktisch eine gute Ingineursleistung.

Badesalz
2025-01-24, 10:52:16
Ja, der Kühler ist beeindruckend, weil er Max. 575w, die beim gamen im Schnitt selten anliegen mit einer nicht silent, aber auch nich brachialen Lautstärke wegkühlt. So etwas ambitioniertes hat es vorher noch nicht gegeben und das man trotz diesen Temps den Takt hoch halten kann ähnlich wie zur kühleren 4090 ist ebenso technisch beeindruckend. Wo hast du denn bitte hingeschaut, um dein hervorragendes Urteilsvermögen weiter zu schärfen? Wir haben eine Testbench mit einem sehr guten 2-Slot Kühler wo man auf Flüssigmetall setzt. Da geht tatsächlich was.

Baut man das in ein Gehäuse ein, hilft dieser beeindruckende Kühler kräftig mit einen 9800X3D (!) quasi schon an seine Tempgrenzen zu bringen und seinen fetten Towerkühler zum im ganzen Raum wahrnehmbaren Rauschen. Checkov?

Was ist also der Trick: Der Trick ist, daß wenn man Teil der Wärme aus dem Gehäuse über die Graka selbst rausbringen will, man das bis zu Blende und durch die Blende durchpressen muss. Das steigert zwar die Effizienz des Ganzen, aber nicht des Grakakühlers selbst. Es ist eben ein trade-off. Bei dem shice-auf-den-Rest Design der 5090FE, kann man damit auf dem Testbench natürlich beeindrucken :uup:

Mich wundert es, daß der eine oder andere sehr erfahrene Tester, das bis heute nicht schnallt. Oder eben nur so tut.

woodsdog
2025-01-24, 10:52:54
Du hast schon eine seltsame Vorstellung von beeindruckend. Beeindruckend wäre das für mich wenn er die 575W bei einem geschlossenem Gehäuse dauerhaft bei ca. 30dBA und 65°C GPU-Edge halten könnte. ;) Die benachbarten Komponenten würden dann zwar dennoch kotzen. Aber das ist ein anderes Thema.

Seltsam ist höchstens dein lächerlicher Bias. Wenn sich Tester wie GN, HB, Raff etc einig sind das das ein krass beeindruckendes Stück Technik ist... ist deine Meinung zu dem Thema freundlich ausgedrückt... albern...

Lawmachine79
2025-01-24, 11:00:43
Du hast schon eine seltsame Vorstellung von beeindruckend. Beeindruckend wäre das für mich wenn er die 575W bei einem geschlossenem Gehäuse dauerhaft bei ca. 30dBA und 65°C GPU-Edge halten könnte. ;) Die benachbarten Komponenten würden dann zwar dennoch kotzen. Aber das ist ein anderes Thema.
Beeindruckend wäre, wenn Konkurrenten nach 15 Jahren endlich mal wieder eine konkurrenzfähige Karte bauen würden, so dass sich deren Käufer nicht auf den Idleverbrauch auf dem Desktop einen Kloppen müssen.

Seltsam ist höchstens dein lächerlicher Bias. Wenn sich Tester wie GN, HB, Raff etc einig sind das das ein krass beeindruckendes Stück Technik ist... ist deine Meinung zu dem Thema freundlich ausgedrückt... albern...
Nicht zu vergessen Igor.



+1
Ganz pragmatischer Kauf. :D
+1
Ich kann gar nicht anders.

Badesalz
2025-01-24, 11:00:49
@woodsdog
Keine Ahnung was für dich der Grund ist nicht selbst über etwas kurz nachzudenken, sondern lieber denken was andere sagen.

Kriegsgeier
2025-01-24, 11:03:12
habt ihr mitbekommen, dass die 5090Fe keine PCI-express Slotverlängerungen verträgt?
Also damit man die Karte senkrecht im Gehäuse positionieren kann?
Da die Fe selbst eine PCI-Express Verlängerung hat ;)

Dorn
2025-01-24, 11:05:06
Also die Verbesserungen findet man quasi nur im Software Bereich. Aktuell ist die 50xx Serie schon enttäuschend aber auch gut, nvidia lässt den Mitbewerbern etwas Luft.

Exxtreme
2025-01-24, 11:05:07
habt ihr mitbekommen, dass die 5090Fe keine PCI-express Slotverlängerungen verträgt?
Also damit man die Karte senkrecht im Gehäuse positionieren kann?
Da die Fe selbst eine PCI-Express Verlängerung hat ;)

Es gab noch nie eine Funktionsgarantie für Riser-Kabel. Die Dinger sind nicht in der PCIe-Spezifikation berücksichtigt, also sind sie sowas wie Übertakten: kann funktionieren, muss aber nicht. Aber das war schon immer so.

dargo
2025-01-24, 11:05:16
Dafür gibts die Customs...
Das Thema war die "smarte" FE, was soll diese Ablenkung schon wieder?

Daredevil
2025-01-24, 11:07:07
Wo hast du denn bitte hingeschaut, um dein hervorragendes Urteilsvermögen weiter zu schärfen? Wir haben eine Testbench mit einem sehr guten 2-Slot Kühler wo man auf Flüssigmetall setzt. Da geht tatsächlich was.

Baut man das in ein Gehäuse ein, hilft dieser beeindruckende Kühler kräftig mit einen 9800X3D (!) quasi schon an seine Tempgrenzen zu bringen und seinen fetten Towerkühler zum im ganzen Raum wahrnehmbaren Rauschen. Checkov?

Was ist also der Trick: Der Trick ist, daß wenn man Teil der Wärme aus dem Gehäuse über die Graka selbst rausbringen will, man das bis zu Blende und durch die Blende durchpressen muss. Das steigert zwar die Effizienz des Ganzen, aber nicht des Grakakühlers selbst. Es ist eben ein trade-off. Bei dem shice-auf-den-Rest Design der 5090FE, kann man damit auf dem Testbench natürlich beeindrucken :uup:

Mich wundert es, daß der eine oder andere sehr erfahrene Tester, das bis heute nicht schnallt. Oder eben nur so tut.

Bereits bei meiner 3090 wusste ich, das wenn ich die mit 400w betreibe, ein Tower kühler oben drüber oder ein Radiator oben Einfluss haben kann auf die CPU Temp. Deswegen sitzt mein 420er Radi der 60€ ( !!! ) AiO vorne.
Wer das Geld nicht hat, oder wer inkompetent genug ist für die Planung seines Gehäuses, kann sein Wissen hier gerne im Forum auffrischen.
Das ist aber nicht das Problem der GPU, sondern der Konstruktion der Systems. Mein closed Mining Rig hat 1200w aus der Steckdose gezogen, hier muss man halt mal wieder ein wenig basteln, so wie wir das mit 16 auch gemacht haben. Da hilft es nicht, wenn man sich ein 60€ RGB Gehäuse von Aliexpress mit 4 Lüftern holt, da muss man sich einfach Mühe geben, oder muss mit der Performance der letzten Generation leben. Jammern ist keine Option, jeder hat die Wahl besser zu werden.

Ich prophezeie dir schon jetzt, dass die Lüfter meiner 5090FE selten über 1000rpm gehen und schneller als eine 4090 sind. Das ist das, womit ich die Karte wahrscheinlich meist betreiben werde. Ich habe allerdings auch konkrete Perf/W Ziele und die Karte kann in dem Format etwas, was sonst keiner schafft.

HOT
2025-01-24, 11:09:33
Ich finde bei dieser ganzen Serie, dass jetzt keiner mehr über die Radeon 7k-Serie wegen Stromverbrauch lustig machen muss ;). Überhaupt ist das ein ziemlicher RDNA3-Moment für NV.

The_Invisible
2025-01-24, 11:09:46
Das Thema war die "smarte" FE, was soll diese Ablenkung schon wieder?

Ist sie eh, einfach meinen ganzen Post quoten ;)

Badesalz
2025-01-24, 11:10:35
Bereits bei meiner 3090 wusste ich, das wenn ich die mit 400w betreibe, ein Tower kühler oben drüber oder ein Radiator oben Einfluss haben kann auf die CPU Temp. Deswegen sitzt mein 420er Radi der 60€ ( !!! ) AiO vorne.Das ist nicht das Thema. Du hast ja auch immer recht seltsame CPUs. Da muss das quasi schon. Ich rede aber von einem 9800X3D der von dem 15er Noctua gekühlt wird. Klingelts endlich?

Wir die 5090 mit deinen Perf/W Zielen noch schneller als eine 4090?

PS:
Und wenn man Zeug produziert was am sinnvollsten mit Wakü läuft, dann liefert man das mit Wakü-Kühler aus oder ohne Kühler, damit jeder drauf machen kann was er toll findet. Diese Gamerbranche wird immer lächerlicher.

dargo
2025-01-24, 11:11:07
Wo hast du denn bitte hingeschaut, um dein hervorragendes Urteilsvermögen weiter zu schärfen? Wir haben eine Testbench mit einem sehr guten 2-Slot Kühler wo man auf Flüssigmetall setzt. Da geht tatsächlich was.

Baut man das in ein Gehäuse ein, hilft dieser beeindruckende Kühler kräftig mit einen 9800X3D (!) quasi schon an seine Tempgrenzen zu bringen und seinen fetten Towerkühler zum im ganzen Raum wahrnehmbaren Rauschen. Checkov?

Was ist also der Trick: Der Trick ist, daß wenn man Teil der Wärme aus dem Gehäuse über die Graka selbst rausbringen will, man das bis zu Blende und durch die Blende durchpressen muss. Das steigert zwar die Effizienz des Ganzen, aber nicht des Grakakühlers selbst. Es ist eben ein trade-off. Bei dem shice-auf-den-Rest Design der 5090FE, kann man damit auf dem Testbench natürlich beeindrucken :uup:

Mich wundert es, daß der eine oder andere sehr erfahrene Tester, das bis heute nicht schnallt. Oder eben nur so tut.
Du bringst es voll auf den Punkt. Bei den ganzen (Schein)Nerds hier bin ich immer wieder erstaunt was für Amateure hier unterwegs sind.

Seltsam ist höchstens dein lächerlicher Bias. Wenn sich Tester wie GN, HB, Raff etc einig sind das das ein krass beeindruckendes Stück Technik ist... ist deine Meinung zu dem Thema freundlich ausgedrückt... albern...
Raff bzw. die PCGH testet im offenen Aufbau, das ist albern! Wie die anderen das machen weiß ich jetzt zwar nicht, ich weiß aber wie CB testet. Aber mit Fakten haben es manche Fanboys hier nicht so. :rolleyes:

woodsdog
2025-01-24, 11:13:17
Dunning-Kruger hier mal wieder mit Lichtgeschwindigkeit am rotieren

Raff
2025-01-24, 11:13:49
Hier ist eine erstaunliche Mehrfachmoral am Werk. Die Aufgabe eines Kühlers ist, die Hitze von der Hardware zu entfernen – und nicht, für eine angenehme Umgebungstemperatur zu sorgen. Selbst das tollste DHE-Design fackelt ab, wenn Hitzestau im Gehäuse vorherrscht. Quasi jedes Axial-Custom-Design hat die Lamellen parallel zur Slotblende stehen, sodass da auch rein gar nichts entweichen kann.

MfG
Raff

Daredevil
2025-01-24, 11:15:30
Das ist nicht das Thema. Du hast ja auch immer recht seltsame CPUs. Da muss das quasi schon. Ich rede aber von einem 9800X3D der von dem 15er Noctua gekühlt wird. Klinghelts endlich?

PS:
Und wenn man Zeug produziert was am sinnvollsten mit Wake läuft, dann leifert man das mit Wakü-Kühler aus oder ohne Kühler, damit jeder drauf machen kann was er toll findet.
Diese Gamerbranche wird immer lächerlicher.
Ich halte nichts davon, wenn man zwei Hitzequellen nebeneinander hat, deswegen klingelt es bei mir nicht. Ein Noctua kostet das gleiche wie eine 360er AiO, deswegen würde ich in dem Fall zu zweiterem greifen.
Wenn du eine 600€ CPU und eine 2300€ GPU betreibst, dir diese Refokussierung oder der Umbau zu schade ist, dann ist das eine falsche Priorisierung des Systems. Mal davon ab, das ein Tower Kühler sicherlich davon beeinflusst wird, der X3D deswegen aber nicht 50% langsamer wird.
Hohe Temperaturen sind ein Ego Problem, mehr nicht. Wenn man die nicht will, kann man mit einer richtigen Konstruktion seines Systems optimieren. Wer das nicht kann oder will, muss mit den Konsequenzen leben.

Alternativ: Hol dir ne custom mit WaKü und leite die Wärme direkt raus, aber heul mich hier doch nicht fiktiv voll mit einem Noctua aus der Steinzeit. Das ist doch kein Problem des 5090 Chips, nur weil manche zu doof sind Thermodynamik zu verstehen.

Kriegsgeier
2025-01-24, 11:16:24
Ist ein Test an einem offenen Bench günstiger als in einem geschlossenen aber gut belüftetem Gehäuse? Das ist hier die Frage.

Exxtreme
2025-01-24, 11:18:14
Hohe Temperaturen sind ein Ego Problem, mehr nicht. Wenn man die nicht will, kann man mit einer richtigen Konstruktion seines Systems optimieren. Wer das nicht kann oder will, muss mit den Konsequenzen leben.

Die sind schon bissl mehr als ein Ego-Problem. Wärmeleitpaste trocknet schneller, die Platinen verziehen sich stärker bei hohen Temperaturen etc. Es ist insgesamt schon besser wenn man hohe Temperaturen vermeidet.

Kriegsgeier
2025-01-24, 11:20:41
Keiner hat die RAM-Rigel auf dem Mainboard angesprochen: diese liegen voll im Luftstrom der 5090Fe! Ist die Luft etwa kühl? Ne, eher weniger. Somit werden auch die RAM-Rigel aufgeheizt.

dargo
2025-01-24, 11:22:44
Hohe Temperaturen sind ein Ego Problem, mehr nicht.
Lol... mit dem selben Argument könnte ich auch bei jeder GPU/CPU-Generation um die Ecke kommen wo sich einige genötigt fühlen jeden Topdog einer neuen Gen mitzunehmen, sei der Leistungszuwachs noch so lächerlich niedrig.

Ist sie eh, einfach meinen ganzen Post quoten ;)
Was sollen die Customs denn besser machen? Auch Customs werden die gleiche Abwärme produzieren die aus dem Gehäuse so schnell wie möglich wieder raus muss. Einige scheinen hier immer noch nicht die Wurzel des Problems zu erkennen. Es ist die hohe Abwärme von GB202 bei Standard Luftkühlungen im Rechner.

Raff
2025-01-24, 11:23:01
Der RAM liegt bereits seit der RTX 3090 FE (2020) im Luftstrom. Hier werden ganz alte Fässer neu verkostet. ;)

MfG
Raff

Daredevil
2025-01-24, 11:24:48
Die sind schon bissl mehr als ein Ego-Problem. Wärmeleitpaste trocknet schneller, die Platinen verziehen sich stärker bei hohen Temperaturen etc. Es ist insgesamt schon besser wenn man hohe Temperaturen vermeidet.
Deswegen hat die Konstruktion ja Liquid Metal und ein dickes PCB, insofern ist das irrelevant.
Mir ist ebenso bewusst, das man es gerne kälter hat, weil die Effizienz steigt und man u.U. höher Takten kann, -dann sollte man sich aber keine 2-Slot Karte kaufen-. Das bedeutet aber nicht, das sie ein Konstruktionsfehler ist.
Für ihre Bauform leistet sie das maximal Möglichste unter Einhaltung der Specs, sonst würde NVIDIA sich mit einer FAG Party bei 3 Jahren Garantie sehr ins Fleisch schneiden.

Kriegsgeier
2025-01-24, 11:24:58
ne, sind ja über 100 Watt mehr ;)
Schade, dass diese Temperatur nicht beachtet wurde: wie auch, wenn nur auf einem TestBench gemessen ;)
Im Gehäuse wäre es anders.

Badesalz
2025-01-24, 11:25:14
Ich halte nichts davon, wenn man zwei Hitzequellen nebeneinander hat, deswegen klingelt es bei mir nicht. Ein Noctua kostet das gleiche wie eine 360er AiO, deswegen würde ich in dem Fall zu zweiterem greifen.Ja. Das wäre auch selten... Hast du den Kontext also auch gleich komplett verloren? Es geht nicht um bessere Lösungen um dem Herr zu werden, SONDERN DARUM, daß dieser beeindruckende Kühler sich seine Genialität einfach nur mit dem shice-auf-den-Rest Design erkauft.
Es spielt absolut keine Geige, ob irgendeine AiO auf der CPU mehr Sinn macht als irgendein Noctua. Der 9800X3D veranschaulicht nur das Problem (*)

Was ist an so einem einfachen Kontext bitte jetzt so schwer? Jedenfalls ist das nicht beeindruckend. Ja ich weiß. Klingelt nicht. Nicht schlimm...

(*) @all
Kann man das Ding mit einem 14900k gleich überhaupt betreiben, wenn der mit Luku gekühlt wird? Wahrscheinlich nur in einem 900FX oder?

Daredevil
2025-01-24, 11:32:22
Ja. Das wäre auch selten... Hast du den Kontext also auch gleich komplett verloren? Es geht nicht um bessere Lösungen um dem Herr zu werden, SONDERN DARUM, daß dieser genaile Kühler sich seine Genialität einfach nur mit dem shice-auf-den Rest Design erkauft. Es spielt absolut keine Geige dabei, ob irgendeine AiO auf der CPU mehr Sinn macht als irgendein Noctua.

Was ist an so einem einfachen Kontext bitte jetzt so schwer? Jedenfalls ist das nicht beeindruckend. Ja ich weiß. Klingelt nicht. Nicht schlimm...
Kannst du mir 10 Kühler der aktuellen Generation nennen, die nicht auf ihre Umgebung scheißen? Zu 99% bleibt die Hitze immer im Gehäuse, egal ob es straight durch geht wie bei der 3090/4090/5090 oder ob man die Luft an die Wand und SSD presst. Jedes Gehäuse mit so einer GPU benötigt eine Belüftung, nicht erst die der 5090.
Du kämpfst hier einen Stellvertreterkampf, den es wieder gibt noch kennst Du Lösungen, die es besser machen aktuell.
Welches 2-Slot Design ist besser? Zeig es mir.

Der Noctua wird auch bei einem 5090 Custom Design sterben. Das Problem ist nicht die 5090, sondern der Noctua. Wenn man also die Karte nicht stark drosselt, steht man hier vor neuen Herausforderungen. Nervt das? Ja.
Will man das Beste haben und muss man sich damit dann befassen? Jep.
Gibt es Alternativen zur schnellsten Karte der Welt? Nein.

Dann Kauf dir ne PS5 Pro, selbst die hat Liquid Metal und keinen Tower Kühler.

Sardaukar.nsn
2025-01-24, 11:32:27
Vor vier Jahren, die beste Hardware Investition ever. Wird wahrscheinlich noch etliche CPU und GPU Generationen überleben.

Exxtreme
2025-01-24, 11:32:48
Ja. Das wäre auch selten... Hast du den Kontext also auch gleich komplett verloren? Es geht nicht um bessere Lösungen um dem Herr zu werden, SONDERN DARUM, daß dieser genaile Kühler sich seine Genialität einfach nur mit dem shice-auf-den Rest Design erkauft.

Das ist korrekt. Andererseits ist das auch nicht wirklich Nvidias Problem wie das restliche System aufgebaut ist. Darauf hat Nvidia nämlich keinen Einfluss. Und so ein Kühlsystem nicht zu bringen bloß weil das in einigen Konstellationen suboptimal ist, tjoa, dafür gibt es halt Grafikkarten anderer Hersteller. Und andere Hersteller werden dieses Problem auch haben.

fondness
2025-01-24, 11:34:04
Der RAM liegt bereits seit der RTX 3090 FE (2020) im Luftstrom. Hier werden ganz alte Fässer neu verkostet. ;)

MfG
Raff

Naja, es macht halt schon einen Unterschied ob ich hier 100, 200, 300W oder fast 600W ins Gehäuse bzw. Richtung CPU und RAM blase.

Badesalz
2025-01-24, 11:36:31
Das ist korrekt. Andererseits ist das auch nicht wirklich Nvidias Problem wie das restliche System aufgebaut ist.Das ist genauso kein Problem von den Customs. Die versuchen dann TROTZDEM mit ihren Designs auf die ggf. möglichen Nöten der Kundschaft einzugehen. Wenn man halt drauf shict, geht da noch einiges mehr. Und Folgeprobleme fallen dann unter "mir doch egal". Da hast du schon Recht...

Und so ein Kühlsystem nicht zu bringen bloß weil das in einigen Konstellationen suboptimal istIch kann das ehrlich gesagt aktuell nicht so einschätzen wieviele Leute mit einem 9800X3D - sonst kann man die Leistung eh nicht abrufen und zahlte einiges für nichts - mit einer AiO kühlen. "Einige Konstellationen" hört sich aber sehr gut an :wink:

dargo
2025-01-24, 11:38:48
Der Noctua wird auch bei einem 5090 Custom Design sterben. Das Problem ist nicht die 5090, sondern der Noctua.
:crazy:

Da fällt mir nur eins zu ein, wenn man nicht schwimmen kann ist die Badehose schuld. X-D Das Kernproblem ist die hirnverbrannte Abwärme von GB202!!!


Gibt es Alternativen zur schnellsten Karte der Welt? Nein.

Natürlich gibt es die beim Gaming. Da wären wir wieder beim Ego-Thema bezüglich hohen RT/PT-Last. ;)

Badesalz
2025-01-24, 11:43:23
:crazy:

Da fällt mir nur eins zu ein, wenn man nicht schwimmen kann ist die Badehose schuld. X-DNeuerdings ist es wohl das Badesalz...

Daredevil
2025-01-24, 11:44:23
:crazy:

Da fällt mir nur eins zu ein, wenn man nicht schwimmen kann ist die Badehose schuld. X-D Das Problem ist die hirnverbrannte Abwärme von GB202!!!
Wenn dir die Abwärme zu hoch ist, kauf dir doch eine 5070, die hat eine geringere. Problem solved.
Oder kauf dir ein MacMini und streame alles über NVIDIAs Streaming Dienst. 5w Abwärme und genügend Leistung, sogar im Sommer.

Merkste selbst, das zocken immer ein Kompromiss ist, oder?
Wenn das Hauptziel Leistung ist, gibt es keine Alternative, egal ob GB202 600w abführt oder 1000w. Wenn man ne GPU in einer Mikrowelle betreiben will, ist das dann halt nicht vereinbar.

Santini
2025-01-24, 11:44:43
Es sollte also schon eine 5070 Ti sein, die 5070 (ohne Ti) wirkt ja von den Specs sehr kastriert.

dargo
2025-01-24, 11:45:29
Wenn dir die Abwärme zu hoch ist, kauf die doch eine 5070, die hat eine geringere. Problem solved.

Das mache ich eh, mach dir da keine Sorgen. Nur wird es garantiert keine Geforce.

Neuerdings ist es wohl das Badesalz...
;D (y)

Daredevil
2025-01-24, 11:50:38
Das mache ich eh, mach dir da keine sorgen. Nur wird es garantiert keine Geforce.


;D (y)

Dann wäre es doch schön, dass du anderen die Leistung benötigen nicht dauerhaft deine individuelle Vorstellung von Gaming aufdrückst wie ein Veganer im Wendy’s.
Ich finde das total fein was du machst und das du dir bestimmte Grenzen setzt akzeptiert hier doch auch jeder, andere haben aber andere Vorstellungen und müssen nicht, aber wollen hübsche Pixel beschleunigen. Manche verdienen mit der Leistung auch Geld, da wird jedes Watt in Kontobewegung umgewandelt. Da ist die Lösung für Power halt nur mehr Power mit den daraus resultierenden thermodynamischen Herausforderungen.

Weder meine 2080ti noch meine 3090 habe ich meistens voll ausgefahren, weil ich Perf/Watt schätze. Das wird auch bei einer 5090 nicht anders sein, Danke daher Raff für den schnellen UV Test. :)
Trotzdem blame ich doch nicht Miami oder warmachine dafür, das sie sich einen Kernreaktor in den Garten bauen müssen für ihr eigenes Ziel. Wir können doch alle parallel leben und müssen keine unnötigen Barrieren bauen durch solche Diskussionen, die eigentlich keine sein müssen, weil objektive Tests doch schon eine Antwort gegeben haben.

MiamiNice
2025-01-24, 12:08:03
Der RAM liegt bereits seit der RTX 3090 FE (2020) im Luftstrom. Hier werden ganz alte Fässer neu verkostet. ;)

MfG
Raff

Weil die Redakteure die negativen Seiten von NV Hardware nicht mehr beleuchten. Also kommt das erst wenn es zu spät ist (5090FE). Da hätte schon viel früher Alarm kommen müssen.

Raff
2025-01-24, 12:17:49
Siehe oben. Jede ernstzunehmende Grafikkarte seit ~2020 verbläst ihre Wärme im Gehäuse, sofern sie keine AiO-Lösung ist.

MfG
Raff

The_Invisible
2025-01-24, 12:17:55
Weder meine 2080ti noch meine 3090 habe ich meistens voll ausgefahren, weil ich Perf/Watt schätze. Das wird auch bei einer 5090 nicht anders sein, Danke daher Raff für den schnellen UV Test. :)


Wobei da selbst mit max UV so 480W anliegen in MetroExodus laut PCGH, bei "normalen" Games gehts wohl auf so max 400W runter, noch immer recht heftig.

Kriegsgeier
2025-01-24, 12:19:08
ab heute 15 Uhr will sowieso keiner mehr FE - alle wollen die Customs!
Alle wollen nur die ASUS Suprim - weil nur diese versandt worden sind :)

dargo
2025-01-24, 12:33:23
Manche verdienen mit der Leistung auch Geld, da wird jedes Watt in Kontobewegung umgewandelt. Da ist die Lösung für Power halt nur mehr Power mit den daraus resultierenden thermodynamischen Herausforderungen.

Wir reden hier vom Gaming und nicht Pro-Bereich. Die Lautstärke von irgendeinem Server ist da eher wayne wenn man sich eh nicht im gleichen Raum aufhält.

woodsdog
2025-01-24, 12:35:24
Wir reden hier vom Gaming und nicht Pro-Bereich. Die Lautstärke von irgendeinem Server ist da eher wayne wenn man sich eh nicht im gleichen Raum aufhält.

Workstations stehen im selben Raum.

Stell dich halt absichtlich dumm nur um was gegen zu halten :crazy:

Badesalz
2025-01-24, 12:39:07
Wenn dir die Abwärme zu hoch ist, kauf dir doch eine 5070, die hat eine geringere. Problem solved. Oder wie ich das machen soll, eine PS5.

Ist das der neue Diskussionstrend auf 3DC?

Daredevil
2025-01-24, 12:40:16
Wir reden hier vom Gaming und nicht Pro-Bereich. Die Lautstärke von irgendeinem Server ist da eher wayne wenn man sich eh nicht im gleichen Raum aufhält.


Du redest von Gaming. NVIDIA spricht von Gaming, Streaming, Ai Workloads, Video Bearbeitung und generell „Creator“. Und kleine/mittlere selbstständige Creator haben einen Desktop Rechner und keinen Server Raum, sonst würde es wohl kaum Desktop Systeme für Pros geben und Apple würde keine Systeme wie den MacStudio oder den MacPro anbieten.
Es ist nicht mein Problem, wenn du nur Strom verbrennst für niedere Unterhaltung, ich verdiene damit auch mein Geld, das finde ich effektiver.

Wobei da selbst mit max UV so 480W anliegen in MetroExodus laut PCGH, bei "normalen" Games gehts wohl auf so max 400W runter, noch immer recht heftig.
Da liegt sicherlich noch viel Optimierungspotential brach.
MFG ist ja auch eine Art Effizienzbooster, sofern man mit den -durch Fakten belegbaren- minimalen Einschränkungen leben kann.
WoW habe ich in 4k auf meiner 3090 teilweise nur mit 100w Verbrauch gespielt bei 0.7v und 1.2Ghz. Je mehr Einheiten so ne Kiste hat, desto effektiver kann man sie betreiben. Sehrwohl steigt aber immer mehr die Grenze nach oben, weil die mindestspannung für den Sweet Spot verschoben wird. Mit einer Radeon VII die das sehr gut konnte waren auch 30w in WQHD mit FPS Limit bei 100 drin mit eingeschränkten Details. Good old HBM2. ^^

basix
2025-01-24, 12:40:57
Frage @Raff zu UV, wenn du eher hier anstatt im Speku-Thread mitliest:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13691857#post13691857

Badesalz
2025-01-24, 12:46:39
Du redest von Gaming. NVIDIA spricht von Gaming, Streaming, Ai Workloads, Video Bearbeitung und generell „Creator“. Und kleine/mittlere selbstständige Creator haben einen Desktop Rechner und keinen Server Raum, Es ist zwar richtig, aber wer von denen doch eine 4090 anschaffte, für den ist die 5090 noch weniger attraktiv als für einen Gamer.

Mal davon ab, daß man jedenfalls im beruflichen Umfeld eher auf Grakas setzt die von Softarehersteller mir Supporter/getestet wurden. Das ist abseits von Influencern eher selten das Gamerzeug. Eher so Quadro oder RTX6000.

Privat/Hobby ist das natürlich ok, aber da werden wir erstmal sehen was die so berichten, wie sie mit den neuen Temps ihrer CPU klarkommen. Solange man nicht ins Throtteln rutscht bleibt alles gut...

Kriegsgeier
2025-01-24, 12:46:57
https://www.youtube.com/watch?v=U6YWwoOU6sM

Krass, PT auf 70% und man hat eine sehr effiziente Karte!

Radeonfreak
2025-01-24, 12:49:20
Ist ja jetzt mit der 4090 auch nicht anders.

Daredevil
2025-01-24, 12:49:55
Es ist zwar richtig, aber wer von denen doch eine 4090 anschaffte, für den ist die 5090 noch weniger attraktiv als für einen Gamer.

Faktisch falsch. Blackwell hat deutlich schnellere und mehr Videoencoder und speziell die Bildgenerierung mit flux in FP4 ist und mehrere Faktoren schneller. Die Karte ist perfekt und einzigartig für den nächsten Trend vorbereitet: Hochqualitatives Video GenAI.
Und auch als streamer bringen die Encode und der Headroom einfach mehr Flexibilität, indem man mehr Kameras und co einbinden kann ohne das man Leistung verliert.

Das sind 3 Pro Workloads, die deutlich mehr als 30% zugenommen haben, obwohl 30% selbst im Pro Bereich schon immens sind, weil Zeit = sehr viel Geld.

dargo
2025-01-24, 12:51:36
Workstations stehen im selben Raum.

Stell dich halt absichtlich dumm nur um was gegen zu halten :crazy:
Versuchs mal im Kontext zu lesen, ich bin mir sicher du schaffst es.

wenn man sich eh nicht im gleichen Raum aufhält
Wenn man sich im selben Raum aufhält besorgt man sich entsprechend keine zu laute Hardware.


Mal davon ab, daß man jedenfalls im beruflichen Umfeld eher auf Grakas setzt die von Softarehersteller mir Supporter/getestet wurden. Das ist abseits von Influencern eher selten das Gamerzeug. Eher so Quadro oder RTX6000.
Und Überraschung eine RTX 6000 liegt bei 300W. ;) Den "Gamern" traut NV offenbar mehr zu. :D

Badesalz
2025-01-24, 12:56:21
Faktisch falsch. Blackwell hat deutlich schnellere und mehr Videoencoder und speziell die Bildgenerierung mit flux in FP4 ist und mehrere Faktoren schneller.Das ist nur ein kleiner Teilaspekt der Phalanx die du aufgezählt hast ;) Und:

Die Karte ist perfekt und einzigartig für den nächsten Trend vorbereitet: Hochqualitatives Video GenAI. Da muss sich noch zeigen wie die Kundschaft das annimmt. Bisher ist das Feedback noch sehr durchwachsen...

Daredevil
2025-01-24, 12:59:05
Das ist nur ein kleiner Teilaspekt der Phalanx die du aufgezählt hast ;) Und:

Da muss sich noch zeigen wie die Kundschaft das annimmt. Bisher ist das Feedback noch sehr durchwachsen...
Fakten by Hardwareluxx ( https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65361-die-geforce-rtx-5090-founders-edition-im-test.html?start=19 )

Analog zur Textgenerierung haben wir auch die Bildgenerierung unter die Lupe genommen. Die GeForce-RTX-50-Serie unterstützt nativ FP4, eine niedrigere Quantisierungsmethode, die mit einer Dateikomprimierung vergleichbar ist und Modellgrößen reduziert. Im Vergleich zu FP16, dem Standard vieler Modelle, benötigt FP4 weniger als die Hälfte des Speichers und ermöglicht auf dem Papier eine bis zu doppelt so hohe Leistung im Vergleich zu FP8. Dank der zusätzlichen Quantisierungsmethoden des NVIDIA TensorRT Model Optimizers kann FP4 ohne größere Qualitätsverluste angewendet werden.

#1 https://s20.directupload.net/images/250124/ck6eqkjm.png (https://www.directupload.eu)
#2 https://s20.directupload.net/images/250124/fruwwdij.png (https://www.directupload.eu)
#3 https://s20.directupload.net/images/250124/utuaa7n6.png (https://www.directupload.eu)
#4 https://s20.directupload.net/images/250124/u4d7zkga.png (https://www.directupload.eu)

dargo
2025-01-24, 13:01:56
MFG ist ja auch eine Art Effizienzbooster, sofern man mit den -durch Fakten belegbaren- minimalen Einschränkungen leben kann.

Das nennst du also minimale Einschränkungen?

https://i.postimg.cc/cLw4m37H/MFG.jpg

Mal von dem ganzen Gedöns wie Latenzen, Bildfehler abgesehen. Fairerweise muss ich aber dazu sagen, dass ich mir noch mehr MFG Benchmarks ansehen muss. Nicht, dass da Roman was verbockt hat.

Edit:
Ein weiteres, wichtiges Thema was hier offenbar völlig untergeht (hatte ich schon mal erwähnt) bei den Leuten mit ner rosaroten Brille... wie erträglich wird MFG überhaupt im Bereich Spulenfiepen/rasseln? Tendenziell nehmen diese Störgeräusche mit höheren Frames zu. Da wird dann von den Herstellern mit super duper Military Bauteilen um sich geworfen und dann singt die Kacke trotzdem. :uclap:

@Raff
Danke, schaue ich mir später in Ruhe an.

Raff
2025-01-24, 13:05:01
Erst mit den richtigen Einstellungen geben die Mess-Tools die richtigen Min-Werte aus. Das ist alles die Kategorie "heiße Nadel", daher haben nicht alle Tester die richtigen, zur Optik passenden Perzentile. Korrekt hier (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-4-vs-DLSS-3-Test-RTX-5090-Performance-1464233/) und hier (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/).

Bisschen Hintergrund ab hier: https://extreme.pcgameshardware.de/threads/capframex-cx-frametime-capture-und-analyse-tool.527488/page-72#post-11784617

Und grundsätzlich hier, speziell als 46:09: :biggrin:

sBIvqovn3jg

MfG
Raff

Daredevil
2025-01-24, 13:10:02
Das nennst du also minimale Einschränkungen?

https://i.postimg.cc/cLw4m37H/MFG.jpg

Mal von dem ganzen Gedöns wie Latenzen, Bildfehler abgesehen. Fairerweise muss ich aber dazu sagen, dass ich mir noch mehr MFG Benchmarks ansehen muss. Nicht, dass da Roman was verbockt hat.
Naja, du hast es doch gepostet. MFG senkt die Leistungsaufnahme, das war mein Punkt.
Wenn die Basislatenz passt und einem persönlich das keine Probleme bereitet, kann man hiermit deutlich Strom sparen für das gleiche Erlebnis. Es ist keine Universallösung, wenn einem der Verbrauch aber wichtig ist, kann dies erheblich die Effizienz steigern. Auch hier haben wir wieder ein Kompromiss, den jeder für sich selber entscheiden muss.
Opfer ich Latenz für eine geringe Stromaufnahme und würde mich das stören?

CB, die ich redaktionell kritischer einschätzen würde als Roman schreibt dazu:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-8#abschnitt_dlss_4_mfg_ueberzeugt_wenn_die_basis_passt
Im Test zeigt sich, dass sich DLSS 4 MFG dann gut anfühlt, wenn auch das normale DLSS FG gut funktioniert. Sind einem die Latenzen von DLSS FG bereits zu sehr ein Problem oder stört der Disconnect zwischen dargestellter und „erlebter“ Framerate, dann muss man es auch mit DLSS MFG nicht erst versuchen.

Passt das Spielgefühl mit DLSS 4 MFG, dann ist die Skalierung bis inklusive der maximalen Einstellung erstaunlich gut und der Frame-Gewinn extrem hoch – deutlich über 80 von theoretisch 100 Prozent Zuwachs sind drin. Auf einem Monitor mit entsprechender Bildwiederholfrequenz ist das Bewegtbild dann deutlich flüssiger als mit herkömmlicher Frame Generation, ohne dass die Latenzen großartig weiter ansteigt. Sei es Cyberpunk 2077, Alan Wake 2, Star Wars Outlaws oder Dragon Age: The Veilguard mittels DLSS Override, die Spiele sehen auf dem Bildschirm mit 240 FPS oder knapp weniger atemberaubend aus.


Der Schritt beim Spielerlebnis ist – auch wenn es sich merkwürdig anhört – größer beim Wechsel von DLSS FG auf DLSS MFG als ohne Frame Generation zur normalen Frame Generation. Immer vorausgesetzt, der Inputlag war vor dem Einsatz von FG auf einem akzeptablen Niveau.


Ein weiteres, wichtiges Thema was hier offenbar völlig untergeht (hatte ich schon mal erwähnt) bei den Leuten mit ner rosaroten Brille... wie erträglich wird MFG überhaupt im Bereich Spulenfiepen/rasseln? Tendenziell nehmen diese Störgeräusche mit höheren Frames zu. Da wird dann von den Herstellern mit super duper Military Bauteilen um sich geworfen und dann singt die Kacke trotzdem.
Kein Display über 120hz kaufen. :D
Das Spulenfiepen der FE ist laut ein paar Videos grandios beschissen, wer dem entgehen will holt sich ne Custom nach ein paar guten Tests von Raff und zahlt dafür aktuell offenbar aber auch ordentlich mehr drauf. Mich wird es mit max. 120hz vermutlich eh nicht so so sehr treffen, deswegen ist das für mich kein Thema, für andere aber natürlich schon. Meine 3090 hat bei 400w auch mies gerasselt, deswegen lief sie ziemlich silent bei um die 250-300w mit irgendwas um die 5-10% weniger Leistung.
Ebenso wieder eine Frage des Kompromisses, aber völlig richtig und wichtig darüber zu reden. Die FE scheint hier seine Hausaufgaben überhaupt nicht zu machen, das ist miserabel schlecht von Nvidia, das sie hier an der Stelle sparen. Ich sehe aber auch erstmal noch nicht ein, eine Karte die mehr kostet und mein Gehäuse mehr belastet ( Kein/Wenig Flow Through bei Customs ) zu kaufen, nur weil die weniger rasselt. Die FE haben tendenziell auch zudem einen höheren Wiederverkaufswert, die TCO sinkt somit also. Ganz pragmatisch.

PHuV
2025-01-24, 13:11:48
Hier, super Video: 5090, 4090 und 3090 im professionellen Einsatz:

https://www.youtube.com/watch?v=fOjrvXxSe0A
Und dann mal sich diese Grafik anschauen. Sorry, wem da nicht das Herz aufgeht:
https://youtu.be/fOjrvXxSe0A?t=192
Fakten by Hardwareluxx
Das sind beeindruckende Werte. Und alle jammern hier nur rum? :confused:

Wie ich sagte, Nvidia hat mit der 5090 einen ganz anderen Fokus gelegt, und Überraschung, es ist nicht der Gamingbereich, auch wenn sie Gaming kann, ihre Fähigkeiten liegen ganz woanders.

+1
Ganz pragmatischer Kauf. :D

+1
Ich kann gar nicht anders.
+1

Es kommt wie immer, alle schimpfen, und dann kaufen sie alle doch wie blöde.

Wuge
2025-01-24, 13:20:29
Langsam bereue ich, meine 4090 FE zu günstig verkauft zu haben ;)

MiamiNice
2025-01-24, 14:03:18
Falls heute jemand die genauen Abmessungen der Waterforce 32G erspäht, wäre es nett, wenn ein Link gedropt werden könnte.


+1
Ganz pragmatischer Kauf. :D

+1
Ich kann gar nicht anders.

+1

Es kommt wie immer, alle schimpfen, und dann kaufen sie alle doch wie blöde.

+1
Was muss, das muss :)

fondness
2025-01-24, 14:05:42
Weil die Redakteure die negativen Seiten von NV Hardware nicht mehr beleuchten. Also kommt das erst wenn es zu spät ist (5090FE). Da hätte schon viel früher Alarm kommen müssen.

Man muss halt die richtigen Seiten lesen, CB ist da super und hat die Nachteile auch klar beleuchtet. ;)

Sardaukar.nsn
2025-01-24, 14:09:22
Falls heute jemand die genauen Abmessungen der Waterforce 32G erspäht, wäre es nett, wenn ein Link gedropt werden könnte.

+1
Was muss, das muss :)

https://www.techpowerup.com/gpu-specs/gigabyte-aorus-rtx-5090-xtreme-waterforce-wb.b11949 Ich hoffe ja auch auf Reviews von der bzw. der Inno3D mit dem Alphacool Block.

+1

Grob alle zwei Jahre ne neue GPU darf schon drin sein.

dargo
2025-01-24, 14:18:57
Kein Display über 120hz kaufen. :D
Das Spulenfiepen der FE ist laut ein paar Videos grandios beschissen, wer dem entgehen will holt sich ne Custom nach ein paar guten Tests von Raff und zahlt dafür aktuell offenbar aber auch ordentlich mehr drauf. Mich wird es mit max. 120hz vermutlich eh nicht so so sehr treffen, deswegen ist das für mich kein Thema, für andere aber natürlich schon.
Das "witzige" dabei ist halt nur, dass bei max. 120Hz MFG überhaupt keinen Sinn macht weil deine Baseline Frames viel zu niedrig sind. :freak: Da bist du eigentlich schon mit dem 2x FG unterversorgt beim Bildschirm. Ok... dem einen oder anderen werden eventuell 120 FG-Frames gefallen, mich überzeugt das nicht mal bei 140 FG-Frames an der Maus.


Es kommt wie immer, alle schimpfen, und dann kaufen sie alle doch wie blöde.
Reine Selbstbeherrschung. :) Wer immer nur das schnellste und neueste haben will/muss hat sich eben nicht unter Kontrolle. Aber bitte nicht falsch verstehen. Auch ich habe gelegentlich Lust auf was Neues, auch wenn es nicht unbedingt rational ist.

Lehdro
2025-01-24, 14:26:16
Da muss man dann allerdings schon "blind" sein. In Full HD ist die Karte nur gleichauf mit einer 4090, das ist ein extremes CPU Limit und keine Auflösungsskalierung. Eine neue CPU wird der Karte in den typischen Auflösungen nochmal ordentlich Beine machen.
Gut das ich von UHD + RT sprach. Kann man auch nachlesen, hast du aber nicht mitgequotet ;)

Daredevil
2025-01-24, 14:31:45
Jep das stimmt, 120hz sind für eine 5090 eben wegen MFG kein optimales Setup. Für mehr Eye candy und die Nutzung dieses Features würden sich mehr hz anbieten. Ich bin aber nicht der Nabel der Welt, deswegen ist MFG für mich wahrscheinlich kein großes Geschäft.
Zumindest nicht so groß, weil mein „Ziel“ relativ niedrig ist, das ich meinen perfekt funktionierenden 55“ OLED tauschen würde.
Der muss solang machen, bis er stirbt.

Ich berichte wenn ich kann, die 4090 mit FG habe ich ja übersprungen, den Spaß kenne ich bislang nicht. Reflex2 soll der Latenz ja auch nochmal entgegen wirken.

MiamiNice
2025-01-24, 14:40:47
Man muss halt die richtigen Seiten lesen, CB ist da super und hat die Nachteile auch klar beleuchtet. ;)

CB hat es aber leider auch nur in einem extra Artikel und nicht im Test. Es ist gut, dass sie es überhaupt machen, keine Frage aber es hätte in den 5090 Test gemusst. Und das, imo, schon spätestens seit der 3090 und von allen Testern, dazu haben sie sich bei Ihrer Berufswahl verpflichtet. Dass man es ignoriert hat, hat uns zur 5090 FE geführt. Ich meine nicht den Verbrauch generell (das der wächst, liegt in der Natur der Sache), sondern den Kühler. Fett bling bling (im vorliegendem Fall klein und scheinbar sexy), aber Mehrwert in Minusbereich und sogar gefährlich für Haus & Leben (Kabelbrand aufgrund zu hoher Hitze). Es ist generell ein Unding, dass dies nur die CB aufgreift und kein anderer Tester dieser Karte (auch Roman nicht). Keiner von denen macht seinen Job komplett, weil das Verantwortungsbewusstsein scheinbar abhandengekommen ist.
Über die Zeilen dürft Ihr Euch natürlich gerne allesamt amüsieren, wir hier wissen es alle besser, i know. Aber Hans Peter weiß das nicht und kann nicht einschätzen was 600 Watt Abwärme in einem Case anrichten. Und genau aus diesem Grund werden HW Tests gemacht ...

BlacKi
2025-01-24, 14:49:31
gibts irgendwo benchmarks in 5-8k? eher 8k?

Sardaukar.nsn
2025-01-24, 14:52:42
Hat irgendwer auch Review mit unterschiedlichen CPUs gesehen?

dildo4u
2025-01-24, 14:54:16
Hat irgendwer auch Review mit unterschiedlichen CPUs gesehen?

Toms Hardware aber nur 13900k/9800X3D.

The_Invisible
2025-01-24, 15:04:59
Die ASUS Astral lauter als die FE, der 4. Lüfter failed voll :freak:

https://www.computerbase.de/artikel/grafikkarten/asus-rog-geforce-rtx-5090-astral-test.91096/seite-2

dildo4u
2025-01-24, 15:06:40
780Watt Peak für MSI 5090 Surprim mit OC


8Jw6ZEhqhvo

dargo
2025-01-24, 15:10:37
Die ASUS Astral lauter als die FE, der 4. Lüfter failed voll :freak:

https://www.computerbase.de/artikel/grafikkarten/asus-rog-geforce-rtx-5090-astral-test.91096/seite-2
Ist doch kein Wunder wenn ASUS die GPU-Edge Richtung 67°C drückt anstatt 79°C wie bei der FE. Zudem gibts hier noch oben drauf 632W abzuführen.

780Watt Peak für MSI 5090 Surprim mit OC


https://youtu.be/8Jw6ZEhqhvo
X-D

Der Klopper scheint aber recht gelungen zu sein im Silentbios. Zumindest alleine auf die Graka bezogen.
https://youtu.be/8Jw6ZEhqhvo?si=CuV-epdp0ew81jZb&t=545

E39Driver
2025-01-24, 15:13:33
Auch wenn ich den Leistungsgewinn der 5090 ziemlich unterwältigend finde. So finde ich das Kühlerdesign der FE sehr genial und verdient Respekt. So viel Leistung auf so kleinem Bauraum. Bisher ging das nur mit Radial-Designs und 7000-rpm in dieser Größe zu kühlen.

Und ganz ehrlich wer das Beste vom besten möchte und sich eine 5090 und einen 9800X3D gönnt, der wird doch wohl auch die 150€ für eine gute 360er AiO oder direkt eine Custom übrig haben. Und kommt nicht auf die Idee seine CPU mit einem antiken staubigen Nocutha-Tower im Abluftstrom der 5090 kühlen zu wollen.

Sehe da kein wirkliches Problem. Die 360er CPU AiO vorne einblasend installieren. Die Luft vom X3D wird realistisch mit 60 Watt nur lauwarm erwärmt und schadet der 5090 im Luftstrom nicht. Oben und hinten dann natürlich weitere ausblasende Lüfter und schon bekommt man die Wärme gescheit aus dem Gehäuse und die CPU bleibt kühl.

The_Invisible
2025-01-24, 15:13:44
780Watt Peak für MSI 5090 Surprim mit OC


https://youtu.be/8Jw6ZEhqhvo

Der PCIe Power-Connector wird bei OC bis 80°C heiß, gibts Wakü dafür? :freak:

ChaosTM
2025-01-24, 15:16:51
Roman hat aus der FE 4% herausgeholt und UV geht auch recht gut via "Dummmethode", also PT runter. Bei 90 und 80% ist das Ding deutlich effizienter. 70 ist Minimum. Sehr kurzer und simpler "Test"

https://www.youtube.com/watch?v=U6YWwoOU6sM&t=339s

add.: bei knapp über 400 Watt hat man immer noch zwischen 89 und 95% der Leistung. Kann im Sommer interessant sein.

+ bei 77 sinds bei 70% wie bei der 4090er nur -7% - klingt nach einer 7er Verschwörung!

Exxtreme
2025-01-24, 15:21:04
Die ASUS Astral lauter als die FE, der 4. Lüfter failed voll :freak:

https://www.computerbase.de/artikel/grafikkarten/asus-rog-geforce-rtx-5090-astral-test.91096/seite-2

Interessant ist, dass die ASUS keine Stütze hat. Da freut sich der PCIe-Port bestimmt auf die 3 kg Gewicht. :freak:

dargo
2025-01-24, 15:23:39
Der PCIe Connector wird bei OC bis 80°C heiß, gibts Wakü dafür? :freak:
Darüber freut sich bestimmt die da drunter liegende SSD. :D Aber dafür wirds auch ne Wakü geben. X-D

basix
2025-01-24, 15:25:12
Die Astral ist mMn ein Reinfall. Zu laut.

Die Suprim sieht mit Quiet BIOS sehr gut aus.

Wo bleiben die Reviews der ASUS TUF sowie Gigabyte Modelle?

Mayk-Freak
2025-01-24, 15:25:51
Die besten Chip,s werden auf der FE verbaut sein.

Catrovacer
2025-01-24, 15:33:47
Interessant ist, dass die ASUS keine Stütze hat. Da freut sich der PCIe-Port bestimmt auf die 3 kg Gewicht. :freak:

Eigentlich soll eine Stütze zum Lieferumfang gehören, kA warum die da fehlt.

The_Invisible
2025-01-24, 15:33:48
Roman hat aus der FE 4% herausgeholt und UV geht auch recht gut via "Dummmethode", also PT runter. Bei 90 und 80% ist das Ding deutlich effizienter. 70 ist Minimum. Sehr kurzer und simpler "Test"

https://www.youtube.com/watch?v=U6YWwoOU6sM&t=339s

add.: bei knapp über 400 Watt hat man immer noch zwischen 89 und 95% der Leistung. Kann im Sommer interessant sein.

+ bei 77 sinds bei 70% wie bei der 4090er nur -7% - klingt nach einer 7er Verschwörung!

Weniger als 400W geht gar nicht? Bei der 4090 gingen noch 50%. Aber zumindest etwas.

Denniss
2025-01-24, 15:58:55
780Watt Peak für MSI 5090 Surprim mit OC
https://youtu.be/8Jw6ZEhqhvoZiemlicher Dummfug der dort gemessen worden sein soll. Die FE bleibt knapp unter 600W insgesamt mit etwa 10-15W ausm PCiE, die Suprime ist mit ~630W insgesamt leicht über dem Limit des eh schon auf Kante genähtem 600W steckers.
Die Spitzen beider Karten erreichen bzw überschreiten 900W.

Exxtreme
2025-01-24, 16:00:51
Weniger als 400W geht gar nicht? Bei der 4090 gingen noch 50%. Aber zumindest etwas.

Viel effizienter ist es einen Framelimiter zu nutzen in Spielen, die keine 400 fps brauchen. Ich habe einen globalen Framelimiter bei 117 fps. Und nur wenn ich wirklich mehr fps brauche dann setze ich ihn höher individuell für ein Spiel.

Seth
2025-01-24, 16:01:46
780Watt Peak für MSI 5090 Surprim mit OC


https://youtu.be/8Jw6ZEhqhvo


Noch mal genau hingucken ;)
Das ist PCIe + EPS, also quasi Gesamtsystem

ChaosTM
2025-01-24, 16:03:44
Weniger als 400W geht gar nicht? Bei der 4090 gingen noch 50%. Aber zumindest etwas.


70% ist lt. Roman derzeit das Minimum. Er sprach aber von irgendwelchen Mods die das aushebeln sollen.
Meine Gainward geht bis auf 30% runter. Macht man aber eher selten ;)

Viel effizienter ist es einen Framelimiter zu nutzen in Spielen, die keine 400 fps brauchen. Ich habe einen globalen Framelimiter bei 117 fps. Und nur wenn ich wirklich mehr fps brauche dann setze ich ihn höher individuell für ein Spiel.

Mach ich auch. 3 unter der maximalen Bildrate (135).
Beide Methoden sind hilfreich.

Lehdro
2025-01-24, 16:04:55
Viel effizienter ist es einen Framelimiter zu nutzen in Spielen, die keine 400 fps brauchen. Ich habe einen globalen Framelimiter bei 117 fps. Und nur wenn ich wirklich mehr fps brauche dann setze ich ihn höher individuell für ein Spiel.
Dann hast du immer noch eine schlechte Effizienz für Spiele die keine 117 fps erreichen und trotzdem die 575W wegnuckeln.

Also: Viel effizienter ist es einen Framelimiter mit einem TDP Limit zu verbinden. Wenn man ganz wild auf Effizienz ist, kann man auch noch per Hand UV betreiben.

Palpatin
2025-01-24, 16:08:42
Viel effizienter ist es einen Framelimiter zu nutzen in Spielen, die keine 400 fps brauchen. Ich habe einen globalen Framelimiter bei 117 fps. Und nur wenn ich wirklich mehr fps brauche dann setze ich ihn höher individuell für ein Spiel.

Jetzt verstehe ich den Hype hinter den MFG Fake Frames. DLSS4 Performance + MFG + 5090 >= 400 Frames und dann Framelimiter auf 120 und schon braucht die 5090 nicht mehr als eine 5080 genial. ;)

ChaosTM
2025-01-24, 16:12:42
MFG macht auch nur mit High Refresh Rate Monitoren (ab 165, besser 240hz) wirklich Sinn.
Und dann stellt man die Max fps sicher nicht auf 120. Das wäre dann wirklich dämlich :)

Sardaukar.nsn
2025-01-24, 16:22:44
TPU hat auch die Palit Gamerock. Richtig hässlicher Plastik Bomber. Passt zu mir 😇

https://www.techpowerup.com/review/palit-geforce-rtx-5090-gamerock/4.html

Wuge
2025-01-24, 16:34:01
TPU hat auch die Palit Gamerock. Richtig hässlicher Plastik Bomber. Passt zu mir 😇

https://www.techpowerup.com/review/palit-geforce-rtx-5090-gamerock/4.html

Das wichtigste: PCB ist voll bestückt, keine VRM-Lücken wie bei den 4090ern. Könnte ne schöne bassis für Wakü sein.

r3ptil3
2025-01-24, 16:35:33
Sprach sowieso nicht viel für die 5090, aber wenn man nicht mal das PT ordentlich runtersetzen kann...

Würde auf keinen Fall mehr eine High End GPU bei über 300W betreiben.

Sardaukar.nsn
2025-01-24, 16:36:26
Dank Dual Bios auch für Experimente mit nVflash offen. Galax HOF 666W, wo bist du?

Seth
2025-01-24, 16:48:32
TPU hat auch die Palit Gamerock. Richtig hässlicher Plastik Bomber. Passt zu mir 😇

https://www.techpowerup.com/review/palit-geforce-rtx-5090-gamerock/4.html

Sie haben tatsächlich schon einige Karten getestet.
Hier die wohl interessanteste Übersicht.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91116&stc=1&d=1737733665

Badesalz
2025-01-24, 16:50:06
Fakten by Hardwareluxx Bei DaVinci waren die Coder doch recht gut dabei bei AMD, gegenüber manchen anderen Beispielen. Sollen jetzt in der Quali mind. aufschliessen und schneller sein als bei der XTX. Vergleichen wir das mal mit der P/L wenns soweit ist.

Ich weiß auch nicht, ob sich jemand eine 5090 wegen DaVinci holt, wenn ihm der M4pro eh schon völlig dafür ausreicht...

ChaosTM
2025-01-24, 16:59:44
aaC8JBhY6Rw


die günstigste..

dargo
2025-01-24, 17:21:34
Jetzt verstehe ich den Hype hinter den MFG Fake Frames. DLSS4 Performance + MFG + 5090 >= 400 Frames und dann Framelimiter auf 120 und schon braucht die 5090 nicht mehr als eine 5080 genial. ;)
Der hat gesessen. ;D

Santini
2025-01-24, 17:24:03
Ist irgendwie Generation Burn Up

Daredevil
2025-01-24, 17:31:04
Tatsächlich ist es ziemlich spannend, das DLSS4 für die Vorgänger Generation erscheint und somit indirekt die Performance boosted, was AMD für die aktuelle und nachfolgende Generation ordentlich weh tun wird.
Wenn DLSS4 mit dem neuen Modell qualitativ so gut wird, das DLSS4 Performance vergleichbar wird zu DLSS3 Quality, dann wird dadurch ziemlich viel Leistung frei. In Cyberpunk ist die 4090 37% schneller mit Balanced als mit Quality.
So ein Transformer Modell kann nach und nach weiter optimiert werden und die Leistung, die die 5090 aktuell nicht so wirklich zeigt, nämlich die Ressourcen in den Tensor cores, beinflusst nicht nur die gesehene Fluffigkeit, sondern auch die Bildqualität. Und das ist erst der Anfang des neues Models.

Je mehr KI Leistung du hast, desto besser wird das Bild durch Super Resolution, was wiederum bedeutet du kannst mehr FPS bekommen weil du eine Q-Stufe niedriger gehen kannst was wiederum bedeutet, du hast mehr Latenz Headroom für 1-3x Frame Generation.
Und das alles kostet bedeutend weniger, als wenn man einfach nur die Rastergeschwindigkeit hoch zieht.
Die nativen Kosten für ein Pathtracing Bild sind so hoch, das hier die künstlichen Berechnung der Qualität und der Quantität effektiver ist. Schon sehr spannend in 2025 zu leben. ^^

Wer was auf die Ohren braucht, der CB Podcast ist online, da gehts nur um die 5090.
https://www.computerbase.de/news/grafikkarten/cb-funk-podcast-101-der-test-zur-geforce-rtx-5090-aus-fabians-und-jans-mund.91139/


Tear Down by GN
IyeoVe_8T3A

PS: So bitte nicht verbauen ;D
https://s20.directupload.net/images/250124/yzcsjrm5.png (https://www.directupload.eu)

dargo
2025-01-24, 17:34:28
Tatsächlich ist es ziemlich spannend, das DLSS4 für die Vorgänger Generation erscheint und somit indirekt die Performance boosted, was AMD für die aktuelle und nachfolgende Generation ordentlich weh tun wird.
Wenn DLSS4 mit dem neuen Modell qualitativ so gut wird, das DLSS4 Performance vergleichbar wird zu DLSS3 Quality, dann wird dadurch ziemlich viel Leistung frei. In Cyberpunkt ist die 4090 37% schneller mit Balanced als mit Quality.

Pfff... kauf dir einen ~160ppi Bildschirm, dann wird damit beim Upscaling auch viel Leistung frei. ;)

Lawmachine79
2025-01-24, 17:45:23
TPU hat auch die Palit Gamerock. Richtig hässlicher Plastik Bomber. Passt zu mir ��

https://www.techpowerup.com/review/palit-geforce-rtx-5090-gamerock/4.html
Die wird wieder mein Fernabsatzdarling bis meine richtige Karte verfügbar ist.

Der hat gesessen. ;D
Wieso muss ich bei Dir die ganze Zeit an einen Skoda-Fahrer denken, der in einem Porscheforum rumtrollt?

M4xw0lf
2025-01-24, 18:23:29
Wieso muss ich bei Dir die ganze Zeit an einen Skoda-Fahrer denken, der in einem Porscheforum rumtrollt?

Hmm... VW-Kunden unter sich, aber manche halten sich für was besseres?

00-Schneider
2025-01-24, 18:30:50
Die teureren OC-Karten scheinen teilweise nochmal gut was draufzulegen ggü der FE:

aaC8JBhY6Rw

Lawmachine79
2025-01-24, 18:36:33
Hmm... VW-Kunden unter sich, aber manche halten sich für was besseres?
Da ist keiner besser, aber der eine ist halt Autofan und will z.B. auf die Rennstrecke und der anderen will mit dem Auto nur einkaufen und zur Arbeit.

gedi
2025-01-24, 19:43:57
Die wird wieder mein Fernabsatzdarling bis meine richtige Karte verfügbar ist.


Wieso muss ich bei Dir die ganze Zeit an einen Skoda-Fahrer denken, der in einem Porscheforum rumtrollt?

Ein Porsche mit einem Motor der leistungstechnisch nicht schneller ist, als der alte Motor. Überall 33% draufgepackt und raus kommen 25%;D

Sardaukar.nsn
2025-01-24, 19:57:35
MSI Suprim scheint ganz gut geworden zu sein, liegt auch vor der Astral.

8hUx_GRKwvQ

https://i.imgur.com/hG0qvTP.png

Badesalz
2025-01-24, 20:19:34
Je mehr KI Leistung du hast, desto besser wird das Bild durch Super Resolution, was wiederum bedeutet du kannst mehr FPS bekommen weil du eine Q-Stufe niedriger gehen kannst Überlege grad welcher Teil der 5090-Zielgruppe bei DLSS nicht die höhste Qualistufe haben will. Weil er dann mit DLSS4 Balanced die Quali von DLSS3 Quality haben kann.

Was für ein Fiebertraum...

Daredevil
2025-01-24, 20:29:47
Überlege grad welcher Teil der 5090-Zielgruppe bei DLSS nicht die höhste Qualistufe haben will. Weil er dann mit DLSS4 Balanced die Quali von DLSS3 Quality haben kann.

Was für ein Fiebertraum...
Diejenigen, die mit 240fps spielen wollen, weil die Target Framerate dann näher an die z.b. 60fps kommen um dieses Erlebnis hier zu zaubern, was Wolfgang im CB Test geschrieben hat:
Auf einem Monitor mit entsprechender Bildwiederholfrequenz ist das Bewegtbild dann deutlich flüssiger als mit herkömmlicher Frame Generation, ohne dass die Latenzen großartig weiter ansteigt. Sei es Cyberpunk 2077, Alan Wake 2, Star Wars Outlaws oder Dragon Age: The Veilguard mittels DLSS Override, die Spiele sehen auf dem Bildschirm mit 240 FPS oder knapp weniger atemberaubend aus.

ChaosTM
2025-01-24, 20:40:40
Jop. Hätte ich so einen Monitor, würde ich nicht zögern.

Da ist jemand ziemlich wütend auf Raff & Co. Calm down or you have a stroke/heart attack ..

The_Invisible
2025-01-24, 20:49:07
Überlege grad welcher Teil der 5090-Zielgruppe bei DLSS nicht die höhste Qualistufe haben will. Weil er dann mit DLSS4 Balanced die Quali von DLSS3 Quality haben kann.

Was für ein Fiebertraum...

Warum auch nicht, sieht ja gegenüber FSR3 auch gut aus ;)

Slipknot79
2025-01-25, 05:20:22
Tatsächlich ist es ziemlich spannend, das DLSS4 für die Vorgänger Generation erscheint und somit indirekt die Performance boosted, was AMD für die aktuelle und nachfolgende Generation ordentlich weh tun wird.
Wenn DLSS4 mit dem neuen Modell qualitativ so gut wird, das DLSS4 Performance vergleichbar wird zu DLSS3 Quality, dann wird dadurch ziemlich viel Leistung frei. In Cyberpunk ist die 4090 37% schneller mit Balanced als mit Quality.


Warum schmeißt du das Spiel nicht an und testest es? Oo
DLSS4P+FG ist der dickere Gewinn vs. DLSS3Q+FG. Habe hier in meiner Testszene 60 vs 90fps. Die Bildquali ist vergleichbar, aber nicht identisch: Manche Zäune flimmern in DLSS4 etwas mehr, es sind aber nicht alle Zäune betroffen, meistens sieht man keinen Unterschied oder vllt nur mit der 400% DF-Lupe. Dafür ghosten die Stromleitungen deutlich weniger. Insgesamt ist DLSS4P eine Verbesserung vs DLSS3Q da die Stromleitungen immer wieder auffielen. Nun muss man schon sehr genau hinschauen und überhaupt wissen, wo man hinschauen muss. Im normalen (und ggf. hektischen) Spielbetrieb fallt da nix auf. Einfach +50% fps for free. Von DLDSR 2,25x noch gar nicht angefangen.
Einfach so, "for free" von Lederjacke, was mich gleich wieder zu AMDead führt:
Während AMDead nur rumrotzt (warum erinnert mich das an "rumscholzt"^^) mit seinen GPUs, am besten gleich mal bis März, liefert Lederjacke noch bevor die 5090/5080 verkauft werden. (y)

Ich glaube, dass DLSS4P auch in den anderen Games dick liefern wird. Froi mich schon drauf. (y)

-----------------


Und was heißt hier Porsche? Hier im Fred ist Koenigsegg am Start. Sauft, tritt alles und ist laut. (y)
Und ist nicht mal wirklich teuer (Einkauf minus Verkauf). Ich erinnere an meine 2080Ti für lächerliche 580EUR für 4 Jahre Spaß. Glaube AMDead verlangt für seine Mainstreamkarten auch so viel, oder? Was ist eine AMDead-Karte für 580EUR im Einkauf noch nach 4 Jahren wert? ;D
Ach was waren das für Zeiten, als wir Koenigsegg-Fahrer noch Golf-Preise kannten. :redface:

aufkrawall
2025-01-25, 05:53:46
Warum auch nicht, sieht ja gegenüber FSR3 auch gut aus ;)
Unfairer Vergleich, selbst kein AA sieht teilweise besser als FSR aus.

dargo
2025-01-25, 07:16:17
Wenn da nur nicht das teilweise wäre.

aufkrawall
2025-01-25, 07:18:05
Wenn da nur nicht das teilweise wäre.
Wow, die Ansprüche von Radeon-Nutzern sind ja utopisch hoch. ;D

dargo
2025-01-25, 07:24:08
Wow, die Ansprüche von Radeon-Nutzern sind ja utopisch hoch. ;D
Meine Ansprüche sind 160ppi Bildschirme mit RGB Subpixel Layout. Dann wird bewertet. Und wie ich schon öfter sagte... bei guter FSR 3.1 Implementierung sieht das Bild auf diesen Bildschirmen selbst mit Performance Upscaling noch absolut stabil aus. Mit bald kommendem FSR 4 wird es sogar noch besser aussehen.

Genauso kann ich jedes Mal mit dem Kopf schütteln welche Ansprüche im Bereich Bildschirm (aktuelle OLEDs) in diesem Forum die selbsternannten "Nerds" haben. :rolleyes: Da wird dann auch alles in den Himmel gelobt bis man selbst feststellen muss welcher Schrott das für die Augen am Desktop ist.

aufkrawall
2025-01-25, 07:59:37
bei guter FSR 3.1 Implementierung sieht das Bild auf diesen Bildschirmen selbst mit Performance Upscaling noch absolut stabil aus..
Nein, ist immer komplett dysfunktional mit komplexem Content, vielen Partikeleffekten etc. Alles andere ist eine Lüge.

dargo
2025-01-25, 08:02:56
Lerne zu lesen was ich schreibe und dichte nicht wieder deinen Quark dazu wovon ich gar nicht sprach!

aufkrawall
2025-01-25, 08:11:32
Mehr ppi sind mit FSR 3.1 sogar schädlich, weil es mit mehr Upsampling immer stärker kaputt geht. ;D

ChaosTM
2025-01-25, 08:36:56
"the research Project" kommt eh bald :)

Badesalz
2025-01-25, 09:05:39
Diejenigen, die mit 240fps spielen wollen, weil die Target Framerate dann näher an die z.b. 60fps kommen um dieses Erlebnis hier zu zaubern, was Wolfgang im CB Test geschrieben hat:In Cyberpunk wo mit dem neusten Zeug welches man auf einer 4090 im Betaprogramm testen konnte, sind tatsächich die meisten Grafikfehler und Glitches weg. Wenn man die auch bemerkte und nun ihr Fehlen bemerkt, geht man eher nie wieder zurück.

Das ist übrigens ein Lob :wink: aber beim sehenden Auge wird man eher nicht auf die alte Quali zurückgehen, für 240fps in FFG zurück.

MiamiNice
2025-01-25, 09:23:25
Die sehe auch kein P als 5090 Nutzer, ganz egal wie es aussieht. Wer legt 3000€ auf den Tisch um dann nicht alle Regler rechts zu haben?

Linmoum
2025-01-25, 09:27:25
Dann mein Beileid, wenn du das tatsächlich tust und dir deine eigenen fps massiv gimpst, ohne einen visuellen Vorteil dadurch zu haben.

ChaosTM
2025-01-25, 09:28:21
Die sehe auch kein P als 5090 Nutzer, ganz egal wie es aussieht. Wer legt 3000€ auf den Tisch um dann nicht alle Regler rechts zu haben?

Eben die, die ihre teuren 4k/240 Monitore so flüssig wie möglich betreiben wollen und daher auf ein Quäntchen Qualität verzichten können.

Godmode
2025-01-25, 10:42:32
Weiß man schon ob es für die FE Wasserblöcke geben wird? Stell mir das etwas schwierig vor, wegen dem modularen Design.

Linmoum
2025-01-25, 10:49:21
Da schon Alphacool gesagt hat, dass es von ihnen keinen geben wird, vermutlich nicht.

basix
2025-01-25, 10:55:26
Eben die, die ihre teuren 4k/240 Monitore so flüssig wie möglich betreiben wollen und daher auf ein Quäntchen Qualität verzichten können.

Problem bei den schönen Monitoren: Afaik hat nur einer DP 2.0. Also muss man auf was verzichten, wenn man nur HDMI 2.1 hat:
- Max. 150Hz
- Chroma Subsampling oder DSC (ich würde DSC nehmen)
- Kein DSR/DLDSR (geht nicht zusammen mit DSC, ausser das wäre mit Blackwell behoben)

Such dir was aus ;)

Badesalz
2025-01-25, 10:57:22
Das ist auch so... kontraproduktiv? Man muss jetzt nochmal einen ganzen Haufen Kohle mehr für eine Custom hinlegen, um den teuer erkauften Luftkühler abzubauen, um den teuer erkauften Wasserblock draufzuschnallen.

@Linmoum
Wozu steckt NV überhaupt noch Kohle in die Entwicklung weiterer Modi als nur des Performance? Ich dachte die können mit Geld umgehen (?)

ChaosTM
2025-01-25, 11:11:28
Problem bei den schönen Monitoren: Afaik hat nur einer DP 2.0. Also muss man auf was verzichten, wenn man nur HDMI 2.1 hat:
- Max. 150Hz
- Chroma Subsampling
- Kein DSR/DLDSR (geht nicht zusammen mit DSC, ausser das wäre mit Blackwell behoben)

Such dir was aus ;)


Dann muss man sich im schlimmsten Fall halt einen "gscheiten" 4k/240er Monitor mit mit DP 2.1b kaufen.
An der Grundaussage ändert sich aber nichts.
Jeder muss abwägen, ob ihm ein flüssigeres Bild oder minimal bessere BQ wichtiger ist.

basix
2025-01-25, 11:17:04
Viel Glück beim suchen ;)

Die neuen 27" Monitore haben DP2.1. Die "alten" 32 Zöller eben nicht (ausser der eine von Gigabyte).

Also würde das heissen: Warten auf nächstes Jahr.

Grundsätzlich ist es aber nicht ein Monitor Problem sondern eines der Display Engine auf der GPU. Diese muss 8K/240Hz mit DSC unterstützen und das tut sie bei Lovelace nicht. Und DSR/DLDSR funktioniert nicht mit Dual-Head Display Engine. Da die Display Engine bei Blackwell 80Gbps supported wegen DP2.1, könnte das dort eben gelöst sein. UHBR20 = 8K240/10bit mit DSC. Genau das was es benötigen würde. Finde aber nirgends im Internet einen Test oder eine Antwort auf diese Frage.

@Raff:
Wäre doch einen kurzen und simplen Test wert ;) 4K/240Hz via HDMI 2.1 oder DP1.4a am Monitor. DSC aktiviert. DSR auf 8K.

ChaosTM
2025-01-25, 11:29:17
Ich denke das hätten wir schon gehört, wenn das wichtigste Feature mit 4k/240 Monitoren nicht funktionieren würde.
Rich von DF hätte sich garantiert schon zu Wort gemeldet. Der hat so einen..

basix
2025-01-25, 11:37:42
Es geht ja nur um DSC in Kombination mit DSR/DLDSR. "Reines 4K" ist kein Problem.

Godmode
2025-01-25, 11:39:36
Da schon Alphacool gesagt hat, dass es von ihnen keinen geben wird, vermutlich nicht.

Nach dem Zerlege-Video hab ich eh keine Lust darauf. ;D

Tegenarian
2025-01-25, 11:55:58
Gibt es eigentlich ein Test, wie sich die Blackwell-Architektur im Vergleich zur Ada-Version bei Compute/CAD/RT-Programmen schlägt? Also nicht bezogen nur auf die 5090, sondern welcher Benefit die Architektur allgemein bringen soll (inkl. Speicheränderung)?

wolik
2025-01-25, 12:01:57
Viel Glück beim suchen ;)

Die neuen 27" Monitore haben DP2.1. Die "alten" 32 Zöller eben nicht (ausser der eine von Gigabyte).

Also würde das heissen: Warten auf nächstes Jahr.

Grundsätzlich ist es aber nicht ein Monitor Problem sondern eines der Display Engine auf der GPU. Diese muss 8K/240Hz mit DSC unterstützen und das tut sie bei Lovelace nicht. Und DSR/DLDSR funktioniert nicht mit Dual-Head Display Engine. Da die Display Engine bei Blackwell 80Gbps supported wegen DP2.1, könnte das dort eben gelöst sein. UHBR20 = 8K240/10bit mit DSC. Genau das was es benötigen würde. Finde aber nirgends im Internet einen Test oder eine Antwort auf diese Frage.



@Raff:
Wäre doch einen kurzen und simplen Test wert ;) 4K/240Hz via HDMI 2.1 oder DP1.4a am Monitor. DSC aktiviert. DSR auf 8K.

Was soll DSR auf 8K bringen? Es gibts in verkauf kein einzige 8K/120Hz Monitor(TV). Die können nur 120Hz in 4K Modus. VRR auch nur in 4K Modus.

ENKORE
2025-01-25, 12:13:07
Hmm also ich geb zu zwischen Ankündigung und dem hier habe ich ein bisschen mit dem Gedanken gespielt, vielleicht mal ne 5070 Ti zu kaufen.

Ich komme von ner wassergekühlten(*) 1080 Ti im Verbund mit einem 5800X3D. Klar habe ich nen paar Spiele im Backlog, die ich nicht angefangen habe, weil "Ultra & ggfs. RT bringt die 1080 Ti dadrin nicht, dann spare ich mir das für später", aber das stört mich nicht. Das bisschen was ich spiele, läuft eigentlich nach wie vor gut genug (100+ fps an einem 240 Hz OLED).

Sagen wir mal die 5070 Ti kommt circa bei der 4080 raus, dann reden wir von einer Karte die im klassischen Rendering in der Größenordnung 2.5-3x schneller ist (nach ~7 Jahren lol). Klar, die kann dann auch ganz viele andere Dinge, die die 1080 Ti gar nicht kann, eben RT, DLSS, FG.

Holt mich aber irgendwie nicht so ab. Was genau soll mich davon abhalten, diesen Refresh-fresh auch wieder einfach auszusitzen? :D
Irgendwie käme ich mir dämlich vor, hier ganz am Ende vom 5nm Produktzyklus (der in 2020 begann) 800+ Tacken rauszuhauen für ein Upgrade, was - auf klassisches Rasterizing beschränkt - am untersten Limit dessen ist, wo ich historisch überhaupt nen Upgrade gemacht habe.

(*) es ergibt mit Blick auf aktuelle Luftkühler wahrscheinlich am meisten Sinn, dass ich mir bei einem Upgrade einfach nen Heatkiller-CPU-Block für nen hunni hole, damit der NH-D15 nicht an der Heißluft erstickt, anstatt die Wakü stillzulegen. Ich habe einen >420er Radiator, der bräuchte in den meisten Lebenslagen wahrscheinlich nichtmal Lüfter für den 5800X3D.

Gibt es eigentlich ein Test, wie sich die Blackwell-Architektur im Vergleich zur Ada-Version bei Compute/CAD/RT-Programmen schlägt? Also nicht bezogen nur auf die 5090, sondern welcher Benefit die Architektur allgemein bringen soll (inkl. Speicheränderung)?

In einem der Reviews hier wurde Resolve getestet, dass ist eine ziemlich gut optimierte FP32-Compute-lastige Anwendung (Resolve rechnet alles an Video intern in 4x (YRGB) 32-bit float Genauigkeit).

Kriegsgeier
2025-01-25, 12:13:33
Dachte erst auch, dass die 5090 relativ viel in 2-2,5 Jahren verlieren wird. Aber, wenn der neue 2nm Prozess 5x kosten wird?
Dann gute Nacht!
Dann kostet die 6090 3500€ und hat nur 256Bit breiten Buss und auch nur 32GB.

Dann kostet die 5090 2000€ als Gebrauchte.

Ach ja, es könnte auch zu einem Desaster bei Samsung werden mit ihren 2nm Prozess. Oder gar für eine einjährige Verschiebung sorgen? Dann wirklich gute Nacht!

Tegenarian
2025-01-25, 13:07:05
In einem der Reviews hier wurde Resolve getestet, dass ist eine ziemlich gut optimierte FP32-Compute-lastige Anwendung (Resolve rechnet alles an Video intern in 4x (YRGB) 32-bit float Genauigkeit).

Ich danke Dir. Ja, bei Video-En/Decoding haben sie sich verbessert. Was ich bei 3D bisher finden kann, dann Verbesserungen in großen Sprüngen nur, wenn AI hinzugezogen wird (https://blogs.nvidia.com/blog/generative-ai-studio-ces-geforce-rtx-50-series/). Nun ist das weniger etwas, was ich benötige. Dabei befürchte ich noch immer mehr Stromverbrauch bei der 50er Serie.

MiamiNice
2025-01-25, 13:34:26
Eben die, die ihre teuren 4k/240 Monitore so flüssig wie möglich betreiben wollen und daher auf ein Quäntchen Qualität verzichten können.

Sehe ich nicht. 240Hz + Monis sind E-Sport, die Jungs aktivieren im Leben kein FG. Alle anderen die so eine Karte erwerben wollen alle Regler rechts und haben einen 4k 144Hz Oled aufm Tisch. Die wollen alle Regler rechts und Quality Dlss.
Halte ich eher für realistisch.

ChaosTM
2025-01-25, 14:04:04
Sehe ich nicht. 240Hz + Monis sind E-Sport, die Jungs aktivieren im Leben kein FG. Alle anderen die so eine Karte erwerben wollen alle Regler rechts und haben einen 4k 144Hz Oled aufm Tisch. Die wollen alle Regler rechts und Quality Dlss.
Halte ich eher für realistisch.


Ist momentan noch so, dass die meisten Gamer mit 120-144hz unterwegs sind - ja - aber 240 wird immer mehr zum Mainstream und E-Sportler steigen zunehmend auf höhere Bildraten auf/um,
Mir persönlich wären maximal flüssige 240 wichtiger als minimal mehr Klarheit, die ich ohne Lupe sowieso nicht wahrnehme wenn ich wirklich spiele und nicht im Erbsenzählmodus unterwegs bin.


DLSS7 32x FG funktioniert dann ab 10(Basis)fps artefaktfrei und das Problem ist auch vom Tisch. :)


Geschmäcker und so..

Wuge
2025-01-25, 14:23:55
Weiß man schon ob es für die FE Wasserblöcke geben wird? Stell mir das etwas schwierig vor, wegen dem modularen Design.

Wird welche geben. Hat letztens ein Hersteller im HWL gepostet...

basix
2025-01-25, 14:40:48
Was soll DSR auf 8K bringen? Es gibts in verkauf kein einzige 8K/120Hz Monitor(TV). Die können nur 120Hz in 4K Modus. VRR auch nur in 4K Modus.

4K Monitor mit DSR/DLDSR von 8K ist gemeint ;)

Aus irgendeinem Grund ist die Display Engine da noch dazwischen, weswegen DSC inkl. DSR nicht funktioniert. Eigentlich sollte die Display Engine nach meinem Verständnis nichts mit DSR zu tun haben, ausser das läuft in den Display Engines mit HW-Acceleration. Ich hätte aber gedacht dass DSR via Compute läuft und ein 4K Bild an die Display Engine geschickt wird. Dann kann dort DSC drüber prozessiert werden und gut ist. Scheint aber nicht so zu funktionieren.

Morgenlicht
2025-01-25, 15:53:13
Gibt es eigentlich ein Test, wie sich die Blackwell-Architektur im Vergleich zur Ada-Version bei Compute/CAD/RT-Programmen schlägt? Also nicht bezogen nur auf die 5090, sondern welcher Benefit die Architektur allgemein bringen soll (inkl. Speicheränderung)?fOjrvXxSe0A

Tegenarian
2025-01-25, 16:10:40
Perfekt. Genau das, was ich gesucht habe. Da jetzt mein Blender zum dritten Mal beim Rendern abgestürzt ist, werde ich jetzt trotzdem die 4070 Ti Super bestellen (erste nvidia-Karte ever). Und dann mal sehen, wie sich Blender 5 zusammen mit Blackwell entwickelt. Glaube das könnte dann doch noch ein Match werden.

Prinzenrolle
2025-01-25, 16:50:23
Pfff... kauf dir einen ~160ppi Bildschirm, dann wird damit beim Upscaling auch viel Leistung frei. ;)

Da ist einer salzig. ;D Irgendwann müsste es dir doch selbst auffallen, dass dein IHV Fanboyism zuviel des Guten ist.

Sardaukar.nsn
2025-01-25, 16:54:27
Hier hat jemand die ziemlich viele Reviews in eine Tabelle gefügt. Platz 3 (https://elchapuzasinformatico.com/2025/01/nvidia-geforce-rtx-5090-founders-edition-review/) finde ich ja interessant.

PHuV
2025-01-25, 16:56:04
Hm, vielleicht doch zum Modell MSI GeForce RTX 5090 Suprim Liquid SOC greifen? Ich finde die Kühllösung interessant und würde mit den Lüftern genau in das neue Gehäuse unten reinpassen, und das Wärmeproblem wäre mit einem Schlag erledigt:
https://www.techpowerup.com/review/msi-geforce-rtx-5090-suprim-liquid/

Lehdro
2025-01-25, 17:02:26
Wenn bei der luftgekühlten Suprim der Stecker schon am Limit ist (80°C), wie sieht dass dann bei der Liquid aus? Da weht ja noch weniger Luft drüber...

Zudem finde ich die Leistung recht schwach für eine AIO, da hatte ich irgendwie mehr erwartet.

PHuV
2025-01-25, 17:04:39
Also meinst Du eher nicht?

Sardaukar.nsn
2025-01-25, 17:42:33
PHuV. Hast du nicht eh einen Custom Loop in deinem PC? Dann kannst du doch eine Karte mit Wasserblock problemlos einbinden.

PHuV
2025-01-25, 17:51:06
Ich scheue Wasserkühlungen, ich bin da eher konservativ. AIO ist einbauen und es läuft.

Redirion
2025-01-25, 17:55:37
Wieso muss ich bei Dir die ganze Zeit an einen Skoda-Fahrer denken, der in einem Porscheforum rumtrollt?

Ich denke dieses Bild passt hier ganz gut. Man kann auch verstehen, warum so ein Highend Modell wie die 4090 oder eben jetzt 5090 spannend sind. Man muss die Leistung nicht abrufen, aber man kann. Das ist nun mal eine gewisse Souveränität. Undervolting, niedriges PT, DLSS mit seinen verschiedenen Qualitätsstufen bieten da alle jede menge Potenzial zum Tweaking, das erst dann voll zur Geltung kommt, wenn man eben eine möglichst performante Basis hat. Da geht natürlich nichts über 4090 oder 5090.

https://img.motor-talk.de/JxdKqZ218eHLkpPV.jpg

Rondoe
2025-01-25, 18:03:09
Ohne schwachsinnige Autovergleiche gibt es wohl keine neue GPU uder CPU Vorstellung.

qiller
2025-01-25, 18:49:10
Wenn bei der luftgekühlten Suprim der Stecker schon am Limit ist (80°C), wie sieht dass dann bei der Liquid aus? Da weht ja noch weniger Luft drüber...


Die Wärme am Stecker kommt zum allergrößten Teil doch gar nicht von der Stromübertragung durch den Stecker/Buchse selber, sondern von der Abwärme der restlichen Karte, die sich ihren Weg durch die Kupferleitungen halt bis zum Stecker ihren Weg bahnt. Glaub Igor hatte das auch mal gut erklärt.

Ich kenn jetzt nicht die MSI Karte, aber bei Fullcover-Wasserblöcken wird die ganze Karte relativ gut runtergekühlt und die Wärme der Karte wandert ins Wasser und nicht zum Stecker/Buchse. Seh ich ja auch schön bei meiner RTX3090 mit ihren rückseitigen Speicherchips. Obwohl ich da nur ne passive Backplatekühlung habe, sind die Speichertemperaturen durch die Wasserkühlung schon deutlich niedriger. Einfach weil die Karte die Speicherchips auf der Rückseite weniger mitheizt.

Lawmachine79
2025-01-25, 19:22:47
Hier hat jemand die ziemlich viele Reviews in eine Tabelle gefügt. Platz 3 (https://elchapuzasinformatico.com/2025/01/nvidia-geforce-rtx-5090-founders-edition-review/) finde ich ja interessant.
Kaum zu glauben, dass da Leute mit dem Intelschrott testen.

qiller
2025-01-25, 19:45:14
Gab doch erst Berichte über die Intel-Arc Karte, die bei schwächeren CPUs stärker einbricht. Von daher finde ich das schon richtig, dass auch andere CPUs mal getestet werden. Sagt ja keiner, dass man das auch so kaufen soll :>.

Sardaukar.nsn
2025-01-25, 19:52:03
Würde mich tastächlich im direkten Vergleich interessieren, welche Rolle AMD und Intel CPUs bei diesen ganzen 5090 Benchmarks in 4K spielen.

Exxtreme
2025-01-25, 19:53:28
Würde mich tastächlich im direkten Vergleich interessieren, welche Rolle AMD und Intel CPUs bei diesen ganzen 5090 Benchmarks in 4K spielen.

Overhead ist Overhead und Overhead ist immer böse.

Emil_i_Lönneberga
2025-01-25, 21:37:03
Weiß man schon ob es für die FE Wasserblöcke geben wird? Stell mir das etwas schwierig vor, wegen dem modularen Design.

Gibt es, von Oblitek.

https://www.hardwareluxx.de/community/threads/ezmodding-bykski-produktinfo-supportthread.1224416/page-79#post-30656955

user77
2025-01-25, 21:46:34
Bin ich der einzige, der die Verpackung der FE schäbig findet?

Und kommt mir jetzt nicht mit Umwelt, das ist eine 575W 2.329 Euro Karte...

https://elchapuzasinformatico.com/wp-content/uploads/2025/01/NVIDIA-GeForce-RTX-5090-Founders-Edition-01.jpg.webp
https://elchapuzasinformatico.com/wp-content/uploads/2025/01/NVIDIA-GeForce-RTX-5090-Founders-Edition-02.jpg.webp
https://elchapuzasinformatico.com/wp-content/uploads/2025/01/NVIDIA-GeForce-RTX-5090-Founders-Edition-06.jpg

dargo
2025-01-25, 21:50:35
Bin ich der einzige, der die Verpackung der FE schäbig findet?

Offenbar schon denn keine Sau interessiert die Verpackung. Oder etwa doch? :freak:

ChaosTM
2025-01-25, 21:56:22
Vor dem linkslinken Einfluss der gescheiterten Ampel gab es richtige Verpackungen, mit viel Plastik und ohne dem Karton Zeugs.

Das hat alles so schön geglänzt!

Mordekai2009
2025-01-25, 22:00:52
Ich finde die Verpackung gut. :D

Sardaukar.nsn
2025-01-25, 22:21:45
@user77: Wie ich das sehe sind das Bilder der linken Punks aus Südamerika, die sich als einzige getraut haben die 5090 mit Intel Arrow-Lake Unterbau zu testen. https://elchapuzasinformatico.com/2025/01/nvidia-geforce-rtx-5090-founders-edition-review/

Wo wir gerade dabei sind. Mir sind auch die kompakten China Reviews aufgefallen die hervorragend produziert sind, aber ganz ohne die bekannten Hardware Promi-Gesichter auskommen.

MSiXanc4Stk

Ich verstehe kein Wort, fühle mich aber gut informiert. Das gab es vor zwei Jahren in der Art auf Youtube noch nicht.

8DBDCtN0-s4

Fusion_Power
2025-01-26, 00:37:52
Bin ich der einzige, der die Verpackung der FE schäbig findet?

Und kommt mir jetzt nicht mit Umwelt, das ist eine 575W 2.329 Euro Karte...

https://elchapuzasinformatico.com/wp-content/uploads/2025/01/NVIDIA-GeForce-RTX-5090-Founders-Edition-01.jpg.webp
https://elchapuzasinformatico.com/wp-content/uploads/2025/01/NVIDIA-GeForce-RTX-5090-Founders-Edition-02.jpg.webp
https://elchapuzasinformatico.com/wp-content/uploads/2025/01/NVIDIA-GeForce-RTX-5090-Founders-Edition-06.jpg
Ich finds super. Die stecken halt jede Mark in die Schokolade..uhm...Grafikkarte und keine Mark in die Verpackung.

Vor dem linkslinken Einfluss der gescheiterten Ampel gab es richtige Verpackungen, mit viel Plastik und ohne dem Karton Zeugs.

Das hat alles so schön geglänzt!
Äh...WAS? :freak:

ChaosTM
2025-01-26, 01:35:01
Äh...WAS? :freak:




Ich bin ein sarkastisch/ironischer Dummbeutel.
denk nicht weiter darüber nach

Fusion_Power
2025-01-26, 02:38:10
Ich bin ein sarkastisch/ironischer Dummbeutel.
denk nicht weiter darüber nach
Schon gut, ich vergesse manchmal, dass wir hier auch im Internet sind. ^^"

hq-hq
2025-01-26, 02:40:49
ist schon richtig, lieber die nächste Schuhschachtel in die Vitrine stellen als die der 5090 FE :biggrin:

glaub das mit dem Plastik kam von der EU, die möchte am Tetrapack Pappstrohhalme in der haltbaren Plastiktüte weil im fernen Asien die Flüsse als Mülleimer funktionieren

frühers gabs noch Schutzkappen und ESD Bag (wobei die 3090FE war im vermeintlichen ESD Schaum in ihrer Schachtel), scheint schon Richtung Müllvermeidung zu gehen... nur bei dem Preis

Colin MacLaren
2025-01-26, 05:46:37
RTX 5080 knapp 32K im Timespy Graphics, 35k mit OC. Das ist ultra enttäuschend, damit ist sie langsamer als eine 850 EUR 7900XTX im Raster.

https://videocardz.com/newz/alleged-geforce-rtx-5080-3dmark-leak-15-faster-than-rtx-4080-super

dildo4u
2025-01-26, 05:53:19
Das ist ein Raster Benchmark für Games muss man Reviews abwarten.

dargo
2025-01-26, 07:17:41
RTX 5080 knapp 32K im Timespy Graphics, 35k mit OC. Das ist ultra enttäuschend, damit ist sie langsamer als eine 850 EUR 7900XTX im Raster.

https://videocardz.com/newz/alleged-geforce-rtx-5080-3dmark-leak-15-faster-than-rtx-4080-super
Egal... in RT/PT wird die schneller sein. Oder ist Raster ab Blackwell wieder wichtig(er)? Man weiß es nicht, schon beim GB202 drehte der Wind im grünen Lager bei manchen um. :D

Sardaukar.nsn
2025-01-26, 08:44:25
Recht populäres Review der 5090. 300.000 Views in nicht mal 12 Stunden

O6t5t8E4DMs

mironicus
2025-01-26, 08:49:53
Palit... die Palit RTX 4090 hatte ein nervendes Läuftergeräusch, wurde häufig zurückgesandt. :mad:

dargo
2025-01-26, 09:01:38
Recht populäres Review der 5090. 300.000 Views in nicht mal 12 Stunden

https://youtu.be/O6t5t8E4DMs
Die Kommentare sind zu köstlich. ;D

Can't wait to buy this in 10 years.
I can't wait to buy RTX 5090 for 3000$ and play Alan Wake 2 with 25fps
Finally, 1600FPS on Peppa Pig, my dreams have come true!

Und mal etwas Realworld.
Funny how here in Brazil, the 5090 will probably cost at LEAST R$25,000, which is about 20 minimum wages, and it would take two whole years of working without spending a single cent to afford it. And it gets worse because at least R$10,000 of that is pure taxes. I hate this

The_Invisible
2025-01-26, 09:15:58
Wow in Brasilien ist Luxusgut teurer und die gehälter niedrig, breaking news, gibt bessere trollings ;-)

dargo
2025-01-26, 09:19:34
Schon klar, dass dir sowas am Ars... vorbei geht wenn man nur an die eigene Nase denkt. Typisch deutsch könnte man fast schon meinen. Im übrigen geht es mir finanziell blendend, bin dennoch in der Lage über den Tellerrand zu schauen. Insbesondere wenn es dann um sowas Belangloses wie Unterhaltungselektronik geht.

aufkrawall
2025-01-26, 09:21:27
Kommst du gleich noch mit der Situation in Botswana um die Ecke? Who gives a shit hier?

ChaosTM
2025-01-26, 09:26:55
Schon gut, ich vergesse manchmal, dass wir hier auch im Internet sind. ^^"


ich hör immer wieder von diesem Internet.. ist das das Ding das an dem komischen Kabel dranhängt, das aus meiner neumodischen rechenmaschine rauskommt ?

Freestaler
2025-01-26, 10:00:16
@user77: Wie ich das sehe sind das Bilder der linken Punks aus Südamerika, die sich als einzige getraut haben die 5090 mit Intel Arrow-Lake Unterbau zu testen. https://elchapuzasinformatico.com/2025/01/nvidia-geforce-rtx-5090-founders-edition-review/
..

Der "angebliche" hohe Vorsprung mit 285k kommt aber bei denen auch von der Plattform. Die haben die 2022 Werte ihren Tests der 4090 mit 5600 ddr5 auf 12900 von dazumal als 100% genommen.. 5090 Resultat hat also auch verbesserung der Treiber, Games und Windows mit drin und der 285k läuft mit 8400 ddr5 cudimm.

Troyan
2025-01-26, 10:30:29
Cyberpunk mit allen an im nativen 4K benötigt nun mit dem Transformer-Modell mehr als 24GB. Zum Glück gibt es nun eine Consumergrafikkarte mit 32GB. :freak:

TobiWahnKenobi
2025-01-26, 11:30:37
software sells hardware..


(..)

mfg
tobi

Sardaukar.nsn
2025-01-26, 11:43:37
Der "angebliche" hohe Vorsprung mit 285k kommt aber bei denen auch von der Plattform. Die haben die 2022 Werte ihren Tests der 4090 mit 5600 ddr5 auf 12900 von dazumal als 100% genommen.. 5090 Resultat hat also auch verbesserung der Treiber, Games und Windows mit drin und der 285k läuft mit 8400 ddr5 cudimm.

Trotzdem würde mich ein aktueller Vergleich Intel AMD mit der 5090 interessieren.

Cubitus
2025-01-26, 12:16:35
Cyberpunk mit allen an im nativen 4K benötigt nun mit dem Transformer-Modell mehr als 24GB. Zum Glück gibt es nun eine Consumergrafikkarte mit 32GB. :freak:

Mit welcher DLSS-Stufe? Nativ mit DLAA?
Mit dem erhält man bereits eine sehr gute Qualität bei ausgewogenen und DLSS Performance. Ich spiele das mit Texturmods und mein Speicher läuft dank des ausgewogenen Modus nicht mehr voll, und das Spiel sieht großartig aus.

user77
2025-01-26, 12:21:12
Offenbar schon denn keine Sau interessiert die Verpackung. Oder etwa doch? :freak:

Warum kann Palit mit mehr Lüftern und besserer Verpackung zum gleichen Preis anbieten, wie der Hersteller selbst?
Alles für die Lederjacke :freak:

Fusion_Power
2025-01-26, 12:43:30
ist schon richtig, lieber die nächste Schuhschachtel in die Vitrine stellen als die der 5090 FE :biggrin:

glaub das mit dem Plastik kam von der EU, die möchte am Tetrapack Pappstrohhalme in der haltbaren Plastiktüte weil im fernen Asien die Flüsse als Mülleimer funktionieren

frühers gabs noch Schutzkappen und ESD Bag (wobei die 3090FE war im vermeintlichen ESD Schaum in ihrer Schachtel), scheint schon Richtung Müllvermeidung zu gehen... nur bei dem Preis
Ich finde diese EU Vorgaben in der Hinsicht sogar sinnvoll. Diese kleinen Plastikabdeckungen an allen Anschlüssen brauchts nun wirklich nicht. Aber wurden ESD bags abgeschafft? Merk ich gerade wie lange ich schon keinen neue Hardware mehr gekauft habe. Aber hab noch genug von den Dingern rum liegen.

ich hör immer wieder von diesem Internet.. ist das das Ding das an dem komischen Kabel dranhängt, das aus meiner neumodischen rechenmaschine rauskommt ?
Ja, da wo die ganzen Pornos und Katzenvideos von her kommen tun. ;)

software sells hardware..


(..)

mfg
tobi
Die Übergänge sind heute ja ehr fließend. Gibts natürlich alles in jeder Ausprägung. Manchmal muss die Software aber auch erst mal auf die Hardware warten. Ich weiß auch nicht obs noch so extrem ist wie früher, als plötzlich massenhaft CD Laufwerke gekauft wurden damit man "Rebel Assault" spielen konnte.

basix
2025-01-26, 12:44:02
Cyberpunk mit allen an im nativen 4K benötigt nun mit dem Transformer-Modell mehr als 24GB. Zum Glück gibt es nun eine Consumergrafikkarte mit 32GB. :freak:

Ich weiss ja nicht was du machst, aber ich habe knapp über 17GB bei Full Pathtracing + 4K DLAA + RR + FG mit DLSS4 Transformer.

22GB sind es bei 2880p mit selben Settings.

Mit dem erhält man bereits eine sehr gute Qualität bei ausgewogenen und DLSS Performance.

DLSS-P + FG ist in 4K wirklich der beste Kompromiss aus Qualität und Framerate. Natürlich auf einer 4090, damit die Basis Framerate stimmt.

VRAM Belegung liegt dann etwas unter 13GB, wäre also auch für 4080/5080/4070TiS/5070Ti geeignet. Könnte aber etwas knapp werden hinsichtlich Basis-Framerate.

Exxtreme
2025-01-26, 12:49:49
PCIe 5 vs. PCIe 4 macht ca. 2% Performanceverlust aus. Sprich, eigentlich ist das zu vernachlässigen.

GB0w3isD2so

PHuV
2025-01-26, 12:56:54
ich hör immer wieder von diesem Internet.. ist das das Ding das an dem komischen Kabel dranhängt, das aus meiner neumodischen rechenmaschine rauskommt ?
Pff, jeder weiß doch, daß das Internet drahtlos ist.
iDbyYGrswtg
Einer der besten Folgen überhaupt. X-D

PCIe 5 vs. PCIe 4 macht ca. 2% Performanceverlust aus. Sprich, eigentlich ist das zu vernachlässigen.

Da war doch schon einer der Test, wo sogar PCIe 3 kaum langsamer ist.
5TJk_P2A0Iw

Sardaukar.nsn
2025-01-26, 13:02:23
PCIe 5 vs. PCIe 4 macht ca. 2% Performanceverlust aus. Sprich, eigentlich ist das zu vernachlässigen.


Dafür muss sich niemand ein neues Board anschaffen. Riser Kabel darf auch bleiben. 5.0 gibt es auch glaube noch gar nicht?

Angebliche Sichtung im Hornbach...

ChaosTM
2025-01-26, 13:03:57
Ja, da wo die ganzen Pornos und Katzenvideos von her kommen tun. ;)




ich mag die bewegten Bilder (wie geil ist das denn!) mit nackigen Frauen und Katzen.
Schöne neue Welt - damals in 1863, als ich geboren wurde, hatten wir das noch nicht.
Die Leute nennen mich Joe Biden und angeblich war ich mal Präsident von irgend einem obskuren Land - irgendwo da drüben über dem Atlantik bei den Wilden

dargo
2025-01-26, 13:05:56
Cyberpunk mit allen an im nativen 4K benötigt nun mit dem Transformer-Modell mehr als 24GB. Zum Glück gibt es nun eine Consumergrafikkarte mit 32GB. :freak:
Wen interessiert das bei 25-30fps? Oder willst du wieder behaupten man braucht >24GB Vram? Mach dich doch nicht lächerlich.

Warum kann Palit mit mehr Lüftern und besserer Verpackung zum gleichen Preis anbieten, wie der Hersteller selbst?
Alles für die Lederjacke :freak:
Weil nach dem ganzen Marketinggedöns NV den Eindruck erweckt bei der 5090 wären alleine in das PCB und den Kühler 500$ geflossen. :ulol: Und nüchtern betrachtet ist in das PCB der FE zu wenig Geld geflossen, siehe Singkonzert.

Edit:
Hier eine gute Zusammenfassung von Paul zum Release der RTX 5090.

W8pjszFMCNA

Nette Karte, nur weniger fürs Gaming.

PS: eine gute Portion Sarkasmus hat Paul auch auf Lager im Video. ;D

PHuV
2025-01-26, 13:07:27
Riser Kabel darf auch bleiben. 5.0 gibt es auch glaube noch gar nicht?
Noch nirgendwo so gesehen.

Angebliche Sichtung im Hornbach...
3300 € finde ich zuviel.

Seth
2025-01-26, 13:37:38
Noch nirgendwo so gesehen.

3300 € finde ich zuviel.

Ja stimmt, die anderen Heizlüfter mit mehr Leistung haben ein deutlich besseres Preis-Leistungsverhältnis ;)

PHuV
2025-01-26, 14:14:10
Nette Karte, nur weniger fürs Gaming.

Genau wie ich es permanent sage. Es ist eine HighEnd Multipurpose Karte, die für mehr gedacht ist. Und das raffen hier und anderswo viele Gamer nicht, weil sie sooo enttäuscht sind. Ja, man kann mit der Karte spielen, aber eben nicht nur. Jensen bzw. die Entwicklung hat sich schon was dabei gedacht, die GPU so auf den Markt zu werfen.

ChaosTM
2025-01-26, 14:27:40
Genau wie ich es permanent sage.
Es ist eine HighEnd Multipurpose Karte, die für mehr gedacht ist.

Und das raffen hier und anderswo viele Gamer nicht, weil sie sooo enttäuscht sind.

Ja, man kann mit der Karte spielen, aber eben nicht nur. Jensen bzw. die Entwicklung hat sich schon was dabei gedacht, die GPU so auf den Markt zu werfen.


agree, hab nur den Aufbau angepasst

DavChrFen
2025-01-26, 16:30:35
Gibt es schon irgendwo Werte zu Folding@Home?

Nightspider
2025-01-26, 16:53:25
Er hat das Power Limit auf 75% gesetzt aber dafür per Afterburner 250Mhz OC draufgegeben und hat kaum Leistungsverlust bei merklich besserer Effizienz und Temps.

8PDYJI0W6Gk

w0mbat
2025-01-26, 16:54:24
Mit manuellen UV sollte man ähnliche Ergebnisse erzielen.

Sardaukar.nsn
2025-01-26, 17:17:56
Er hat das Power Limit auf 75% gesetzt aber dafür per Afterburner 250Mhz OC draufgegeben und hat kaum Leistungsverlust bei merklich besserer Effizienz und Temps.

https://youtu.be/8PDYJI0W6Gk

Thx für das Video. Ging auch bei Lovelace gut, max OC ausloten und dann das PT etwas begrenzen.

Kriegsgeier
2025-01-26, 20:59:05
Müsste die RTX 5080 nicht ein Übertaktungsmonster werden?
Eigentlich wäre alles dafür gegeben.

So auf 3,1GHz?

Daredevil
2025-01-26, 21:36:46
PCIe 5 vs. PCIe 4 macht ca. 2% Performanceverlust aus. Sprich, eigentlich ist das zu vernachlässigen.

https://youtu.be/GB0w3isD2so
3000/100*2 > 60
Wenn das Gen5 Mainboard also 60€ mehr kostet, skaliert die Leistung linear. :D

PS: Hier ist die Rohleistung. :D
https://www.phoronix.com/review/nvidia-geforce-rtx5090-linux
When taking the geo mean across 60+ benchmarks of CUDA / OptiX / OpenCL / Vulkan Compute, the GeForce RTX 5090 was delivering 1.42x the performance of the GeForce RTX 4090. A very nice generational improvement considering many of the Windows reviews yesterday were talking up around ~1.3x the performance when not dealing with DLSS4 or similar tech. The GeForce RTX 5090 was delivering great GPU compute performance whether you are into CUDA, OpenCL, or Vulkan.
It was fascinating to look at the generational performance comparing the GeForce RTX 5090 Blackwell to the former Turing and Ampere generations too for those holding out years before investing big money into a new GPU. With these GPU compute benchmarks the GeForce RTX 5090 delivered 2.6x the performance of the GeForce RTX 3090 and 3.7x the performance of the GeForce TITAN RTX.
Dabei verbraucht sie allerdings auch 56% mehr als die 4090. Hier wurden also ein paar Flaschenhälse breiter gemacht.
Sprung 2080ti>3090 +51%
Sprung 3090>4090 +83%
Sprung 4090>5090 +42%

basix
2025-01-27, 08:03:22
Ich glaube, ich werde mir keine 5090 kaufen:
- Kostet mich doch einiges, auch wenn ich die 4090 verkaufe
- Erhöhter Verbrauch im Idle und Teillastbetrieb wie Youtube
- Erhöhter Verbrauch unter Last (System/Gehäuse ist bereits mit der 4090 am Limit)
- Kein Effizienzgewinn
- In meinen Settings nur geringer Performance-Gewinn (20...30%), wenn kein CPU-Limit
- Aufgrund 5800X3D bei DLSS-P etc. öfters im CPU-Limit, deswegen wohl noch seltener ein Performance-Uplift (hatte ich gestern mit der 4090 in verschiedenen Spielen getestet, bin bereits da immer wieder im CPU-Limit)

Unter dem Strich also nur (zu) geringer Fortschritt und dazu einige handfeste Nachteile.

Etwas gutes hat es: Ich spare Geld und mit DLSS4 gibt es dennoch ein beachtbares Performance- sowie Qualitäts-Upgrade ;) Die 4090 bleibt also eine sehr gute Karte und ich meinem (mittlerweile doch sinnvollen) 2-Generationen-Cycle treu (980 Ti, 2080 Ti, 4090, ...)

Wenn ich dann doch eine 5090 kaufen sollte, dann primär für AI Use Cases. Bin mittlerweile öfters lokal LLMs und Stable Diffusion etc. am ausführen. Da könnte die 5090 schon was bringen (32GB, 1.8x Bandbreite, FP4). Aber ich warte mal ab, habe keinen Stress. Für Gaming lohnt sich der Umstieg für mich nicht.

Holundermann
2025-01-27, 08:06:53
Bin ehrlich gesagt etwas ernüchtert bzgl. der 5090. Ich hätte da eine Frage hinsichtlich der Effizienz der Karte. hab ja was von 40W im Idle gelesen was jetzt nicht schön ist aber verkraftbar.

Ich hab kein Problem damit dass die Karte unter Vollast 550W zieht, was ich mich nur Frage wie schauts den aus mit Begrenzungen wärend dem Spiel - kann die 5090 in unterfordernden Games, zB Rocket League oder Word of Warships - Effizient betrieben werden? Derzeit zieht meine 6800XT um die 150 W in solchen Titeln - sind ähnliche oder bessere Ergebnisse mit der 5090 zu erwarten? Die 50er Generation sollte doch unterm Strich effizienter sein als meine RDNA2 Karte - heisst das ich kann bestehende Titel mit gleicher Qualität mit weniger Stromverbrauch zocken als bisher?

Weiters nütze ich gern die 'Chill' Funktion vom AMD treiber - dabei kann man ein min und max target FPS angeben und der Treiber skaliert automatisch anhand der Eingabedynamik die FPS - trägt auch stark zum Stromsparen bei. Gibt es so eine Funktion auch von NVidia?

mironicus
2025-01-27, 08:50:12
Wenn ich dann doch eine 5090 kaufen sollte, dann primär für AI Use Cases. Bin mittlerweile öfters lokal LLMs und Stable Diffusion etc. am ausführen. Da könnte die 5090 schon was bringen (32GB, 1.8x Bandbreite, FP4). Aber ich warte mal ab, habe keinen Stress. Für Gaming lohnt sich der Umstieg für mich nicht.

Der geringere Speicher der RTX 4090 im Vergleich zur RTX 5090 kann teilweise durch mehr RAM-Arbeitsspeicher ausgeglichen werden. Wenn du zum Beispiel das Modell Flux in der Dev-Variante (23 Gigabyte) für die KI-Bilderstellung verwendest, bringt ein Upgrade von 32 Gigabyte auf 64 Gigabyte RAM erhebliche Vorteile. In diesem Fall wird das Laden des Modells beschleunigt und der Zugriff auf den SSD-Cache reduziert. Allerdings kannst du auch mit der RTX 5090 nicht viele andere Aufgaben gleichzeitig erledigen, da auch hier die 32 Gigabyte VRAM voll ausgelastet sein dürften. Es könnte sinnvoll sein, einen zweiten, stromsparenderen Desktop zu verwenden, um die KI-Berechnungen der RTX 4090 oder RTX 5090 zu überlassen.

Raff
2025-01-27, 09:03:48
Müsste die RTX 5080 nicht ein Übertaktungsmonster werden?
Eigentlich wäre alles dafür gegeben.

So auf 3,1GHz?

Und jetzt rechne mal nach. 3.100 statt 2.700. Prozentual. Ist das wirklich ein Monster ... oder das übliche Mönsterchen? :) 3+ GHz schaffen bereits gute Ada-Chips (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Super-Grafikkarte-280115/Specials/RTX-4080-vs-RTX-4080-Super-vs-RTX-4070-Ti-Super-1449403/).

MfG
Raff

Kriegsgeier
2025-01-27, 09:17:29
und jetzt zählen wir es mal 1 und 1 zusammen:

wenn die 5090 mit maximal. 2500 MHz unter Furmark laufen und die 5080 sagen wir mal gute 3000 MHz schaffen? Das wäre doch ein Wahnsinns Punkt! Die 4090 wäre somit geschlagen. Nur der Speicher wäre halt 8Gb weniger.

dargo
2025-01-27, 09:33:36
Wen interessiert Furmark? :freak: Oder spielst du Furmark? Entscheidend sind hier Boostfrequezen in Spielen und nicht in einem Powervirus. Da hat Raff vollkommen recht. Eine 5080 schafft auch 3GHz im Furmark... musst nur 500+W frei machen. :ulol:

Kriegsgeier
2025-01-27, 09:34:58
hallo? Dann hast du mich nicht ganz verstanden!

Dann eben diese Boostfrequenz über 3000 GHz

Die 5090 wird wahrscheinlich wesentlich weniger Boost schaffen als 5080, oder?

dargo
2025-01-27, 09:36:43
Die 5090 wird wahrscheinlich wesentlich weniger Boost schaffen als 5080, oder?
Nö... warum sollte sie auch? Den max. Boost begrenzt hauptsächlich dein Powerlimit.

Kriegsgeier
2025-01-27, 09:39:14
und genau hier ist die 5080 im Vorteil! Jetzt hast du dich selbst zu einer Antwort geführt!

Die 5090 ist an ihrer natürlichen Kotzgrenze, alleine wegen dem Stecker, der max. 625 Watt aushällt
Die 5080 hat den gleichen Stecker ;)

Sardaukar.nsn
2025-01-27, 10:00:31
Es soll ja auch Leute geben die nur alle zwei Generationen upgraden. Daniel Owen zum Vergleich 3090 vs. 5090

ig0hHmk_yFE

Kriegsgeier
2025-01-27, 10:17:31
sehr cooler Vergleich! Genau sowas habe ich gebraucht, mit meiner 3090.

PS: der erinnert mich etwas an John Carmack ;)

basix
2025-01-27, 10:30:08
wenn die 5090 mit maximal. 2500 MHz unter Furmark laufen und die 5080 sagen wir mal gute 3000 MHz schaffen? Das wäre doch ein Wahnsinns Punkt! Die 4090 wäre somit geschlagen. Nur der Speicher wäre halt 8Gb weniger.

Mit 3GHz schafft GB203 die 4090 nicht, das kann ich dir versprechen ;) Selbst eine UV 4090 auf ~2.6GHz dürfte auch inkl. DLSS-Q/P in 4K damit nicht überrundet werden. Die 5080 wäre wohl nah dran, aber nicht darüber.

Die 5090 ist in Games mit ca. 2.6 GHz unterwegs (-5% zur 4090). Die 5080 wäre jetzt bei 3GHz verglichen mit der 4080S mit +10% unterwegs, bietet aber nur +5% SM. IPC scheint nicht oder nur marginal zu steigen und bereits eine 4080 war kaum von der Bandbreite limitiert. Dazu die 3DMark Tests, welche etwa +15% Performance-Uplift andeuten ;)

Kriegsgeier
2025-01-27, 10:44:57
Nvidia crasht gerade! DeepSeek!

dargo
2025-01-27, 11:24:16
Die 5080 hat den gleichen Stecker ;)
Als ob der Stecker alleine eine Rolle beim OC spielen würde. :crazy:

Kriegsgeier
2025-01-27, 11:28:09
das weiß ich als Ing. schon auch - keine Sorgen. Nur allgemein gesagt: der Stecker ist bei 5090 DER limitierender Faktor. Alleine wegen der Spezifikation des Steckers!

Und bitte, macht doch mal nicht so klug, denn man weiß nicht wer da einem gegenüber schreibt.
Überheblichkeit hat noch keinem geholfen --> Überheblichkeit mach eher den überheblichen selbst schwächer und angreifbarer. Und wenn ich Stecker schreibe, dann berücksichtige ich alle Faktoren und benenne nur den schwächsten in der Kette!

Disconnected
2025-01-27, 12:14:06
Es soll ja auch Leute geben die nur alle zwei Generationen upgraden. Daniel Owen zum Vergleich 3090 vs. 5090

https://youtu.be/ig0hHmk_yFE

Spätestens seit Turing ist für mich selbst eine Generation zu überspringen noch zu wenig, um wirkliche Sprünge auszumachen (2,5x Performance).

Sweepi
2025-01-27, 12:15:45
Hier hat jemand die ziemlich viele Reviews in eine Tabelle gefügt. Platz 3 (https://elchapuzasinformatico.com/2025/01/nvidia-geforce-rtx-5090-founders-edition-review/) finde ich ja interessant.


Interessanter Grafik. Deutsche Reviewer besetzen beide Enden des Spektrums ;)

PCIe 5 vs. PCIe 4 macht ca. 2% Performanceverlust aus. Sprich, eigentlich ist das zu vernachlässigen.

https://youtu.be/GB0w3isD2so



TPU dazu: https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-pci-express-scaling/29.html

Selbst PCIe 3 kann man vertreten.
Ab 1440p reicht PCIe 2, um die 4090 zu schlagen. In 4k reicht PCIe 1x16, oder alternativ PCIe 5x1 (1 Line PCIe 5) :D

Colin MacLaren
2025-01-27, 12:37:12
TPU dazu: https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-pci-express-scaling/29.html

Selbst PCIe 3 kann man vertreten.
Ab 1440p reicht PCIe 2, um die 4090 zu schlagen. In 4k reicht PCIe 1x16, oder alternativ PCIe 5x1 (1 Line PCIe 5) :D

Ich finde 4% jetzt nicht nichts. 4% von 2.600 EUR sind 104 EUR. Der Unterschied zwischen B650 und B650e/X870 sind 50 EUR. Das ist ein guter Deal. Falls ich eine 5090 hole und bekomme, dann werde ich den Aufpreis für das X870-Brett sicher nicht bereuen.

Sardaukar.nsn
2025-01-27, 12:39:49
Ich finde 4% jetzt nicht nichts. 4% von 2.600 EUR sind 104 EUR. Der Unterschied zwischen B650 und B650e/X870 sind 50 EUR. Das ist ein guter Deal. Falls ich eine 5090 hole und bekomme, dann werde ich den Aufpreis für das X870-Brett sicher nicht bereuen.

In 4K sieht das doch etwas anders aus. Dafür holte man sich doch so ein Topmodell? https://tpucdn.com/review/nvidia-geforce-rtx-5090-pci-express-scaling/images/relative-performance-3840-2160.png

Colin MacLaren
2025-01-27, 12:49:17
In 4K sieht das doch etwas anders aus. Dafür holte man sich doch so ein Topmodell? https://tpucdn.com/review/nvidia-geforce-rtx-5090-pci-express-scaling/images/relative-performance-3840-2160.png

Jein, ich will auch(!) 480fps in FullHD in Multiplayer-Titeln, von mir aus mit DLAA. Das ist das, was mich am meisten reizt. Eine gerade Linie im Frametime-Graph @478fps in Black Ops 6 oder Marvel Rivals. Das ist fast so wichtig wie der 3DMark-Score. Fast.

Raff
2025-01-27, 13:01:44
Interessanter Grafik. Deutsche Reviewer besetzen beide Enden des Spektrums ;)

Ich weiß, das klingt jetzt wieder gehässig, aber: Man kann dort tendenziell ablesen, wer Kirschen und alte Treiber nutzt vs. die breiten Testfelder. ;)

MfG
Raff

basix
2025-01-27, 13:01:58
Spätestens seit Turing ist für mich selbst eine Generation zu überspringen noch zu wenig, um wirkliche Sprünge auszumachen (2,5x Performance).

Naja, 980 Ti auf 2080 Ti war irgendwo 2.2x und 2080 Ti auf 4090 war >2.5x ;)

780 Ti auf 1080 Ti war top, aber 1080 Ti auf 3080/3090 sah etwas schlechter aus (~2x, ausser man nimmt DLSS und RT noch dazu) und von denen auf 5080/5090 auch (~2x, mehr bei PT). Hat man sozusagen etwas Pech hinsichtlich Abfolge.

Wenn man ausgehend von 2080 Ti bis 5090 mittelt, sind es ca. 1.5x pro Generation. Bei 2x Generationen also etwa 2.2...2.3x Performance-Erhöhung im Schnitt. Das ist ja nicht mehr weit weg von 2.5x. Ich kann mir gut vorstellen, dass die 6090 aufgrund N3P wieder ein grösserer Sprung wird.

RoNsOn Xs
2025-01-27, 13:17:54
Frage: gibt es irgendwo 8K Benches zu bestaunen im direkten Vergleich zur 4090? Ich möchte mir ein vermeintliches CPU-Limit in 4k gern mal anschauen.

Raff
2025-01-27, 13:21:07
Frage: gibt es irgendwo 8K Benches zu bestaunen im direkten Vergleich zur 4090? Ich möchte mir ein vermeintliches CPU-Limit in 4k gern mal anschauen.

Habe ich in der Mache, dauert aber noch paar Tage. :biggrin: Spannender ist übrigens 6K via DL-DSR, also der insgesamt beste Modus, wenn man ein UHD-Display hat.

MfG
Raff

Kriegsgeier
2025-01-27, 13:21:38
Naja, 980 Ti auf 2080 Ti war irgendwo 2.2x und 2080 Ti auf 4090 war >2.5x ;)

780 Ti auf 1080 Ti war top, aber 1080 Ti auf 3080/3090 sah etwas schlechter aus (~2x, ausser man nimmt DLSS und RT noch dazu) und von denen auf 5080/5090 auch (~2x, mehr bei PT). Hat man sozusagen etwas Pech hinsichtlich Abfolge.

Wenn man ausgehend von 2080 Ti bis 5090 mittelt, sind es ca. 1.5x pro Generation. Bei 2x Generationen also etwa 2.2...2.3x Performance-Erhöhung im Schnitt. Das ist ja nicht mehr weit weg von 2.5x. Ich kann mir gut vorstellen, dass die 6090 aufgrund N3P wieder ein grösserer Sprung wird.

Ja, aber zu welchem Preis? Und wenn es wieder wie bei AMPERE NVIDIA zu SAMSUNGs 2nm wechselt? Bei den Consumer Chips?
Das wäre quasi ein Stillstand zu einem noch höheren Preis!

Die Entwicklung der Architektur ist ja schon voll im Gange. Und wahrscheinlich wird Nvidia hier keine 750mm² mehr anpeilen sondern eher 500mm²

aufkrawall
2025-01-27, 13:30:13
Würde mich überhaupt nicht wundern, wenn Consumer irgendwann nur noch Samsungs Ranzfertigung bekommt, während TSMC komplett für ML/Server draufgeht. Aber dann wäre immerhin das Problem der Knappheit gelöst.

Disconnected
2025-01-27, 13:32:56
Naja, 980 Ti auf 2080 Ti war irgendwo 2.2x und 2080 Ti auf 4090 war >2.5x ;)

780 Ti auf 1080 Ti war top, aber 1080 Ti auf 3080/3090 sah etwas schlechter aus (~2x, ausser man nimmt DLSS und RT noch dazu) und von denen auf 5080/5090 auch (~2x, mehr bei PT). Hat man sozusagen etwas Pech hinsichtlich Abfolge.

Wenn man ausgehend von 2080 Ti bis 5090 mittelt, sind es ca. 1.5x pro Generation. Bei 2x Generationen also etwa 2.2...2.3x Performance-Erhöhung im Schnitt. Das ist ja nicht mehr weit weg von 2.5x. Ich kann mir gut vorstellen, dass die 6090 aufgrund N3P wieder ein grösserer Sprung wird.

Das ist doch genau das, was ich sage: bis Pascal hat sich dieser Rhythmus gelohnt. Von 670 auf 1080 war ein Wahnsinnssprung. Die nächste Iteration wäre eine 3070 (Ti) gewesen: aber da hat man dann schon zum dritten mal hintereinander 8 GB VRAM. Ich bin also eine Klasse höher gewechselt (auf die 3080 Ti), um einigermaßen den Geschwindigkeitszuwachs und auch mehr VRAM zu bekommen. Theoretisch hätte ich von 1080 auf 4080 oder 4070 Ti Super wechseln müssen, also noch eine Generation überspringen. Alles unterhalb der 5090 ist also vollkommen uninteressant für ein Upgrade, aber diese Karte ist dermaßen unattraktiv (Preis, Verbrauch), dass ich diese Generation wohl auch überspringen werde.

Kriegsgeier
2025-01-27, 13:37:57
und ich werde versuchen mit 5090 die nächste Gen. mit SAMSUNG 2n zu überspringen und dann direkt auf TSMC <1nm Prozess zu wechseln ;)

7090 @ 64GB

Sardaukar.nsn
2025-01-27, 13:47:03
Frage: gibt es irgendwo 8K Benches zu bestaunen im direkten Vergleich zur 4090? Ich möchte mir ein vermeintliches CPU-Limit in 4k gern mal anschauen.

Ein bisschen was dabei. Aber auch generell viele Benchmarks.

Gigabyte Master aus Taiwan. https://www-coolaler-com.translate.goog/index/dlss4%e5%b0%b1%e6%98%af%e7%8b%82gigabyte-aorus-rtx-5090-master-32g-4k%e9%81%8a%e6%88%b2%e7%82%b8%e5%87%ba8-43%e5%80%8d%e5%b9%80%e6%95%b8%e4%b8%a6%e8%88%87rtx-4090%e6%95%88%e8%83%bd%e6%af%94%e8%bc%83/?_x_tr_sl=auto&_x_tr_tl=en&_x_tr_hl=de&_x_tr_pto=wapp

Disco_STFU
2025-01-27, 14:08:14
Und jetzt rechne mal nach. 3.100 statt 2.700. Prozentual. Ist das wirklich ein Monster ... oder das übliche Mönsterchen? :) 3+ GHz schaffen bereits gute Ada-Chips (https://www.pcgameshardware.de/Geforce-RTX-4070-Ti-Super-Grafikkarte-280115/Specials/RTX-4080-vs-RTX-4080-Super-vs-RTX-4070-Ti-Super-1449403/).

MfG
Raff

Apropos Übertaktungsmonster. Da fällt eurer Experiment aus dem Jahre 2012 ein, als man versucht hat, einen 3770K und ne GTX 680 @ stock mit nem 3570k und ner HD 7950 @OC zu erreichen.

Die HD 7950 ließ sich von 800 Mhz Coretakt auf 1200Mhz!! übertakten. 50% draufgelegt, das war WAHNSINN! :D:freak:;D

Sweepi
2025-01-27, 14:09:29
Frage: gibt es irgendwo 8K Benches zu bestaunen im direkten Vergleich zur 4090? Ich möchte mir ein vermeintliches CPU-Limit in 4k gern mal anschauen.

DX:MX, Dead Stranding und Crysis 3 gibt es hier mit leider unbeschrifteten Balkendiagrammen:

https://www.youtube.com/watch?v=r_4lOWcNwcE&t=72

Raff
2025-01-27, 14:12:02
Apropos Übertaktungsmonster. Da fällt eurer Experiment aus dem Jahre 2012 ein, als man versucht hat, einen 3770K und ne GTX 680 @ stock mit nem 3570k und ner HD 7950 @OC zu erreichen.

Die HD 7950 ließ sich von 800 Mhz Coretakt auf 1200Mhz!! übertakten. 50% draufgelegt, das war WAHNSINN! :D:freak:;D

Das waren noch Zeiten! =)

Das würde heute bei kleinen Karten auch noch halbwegs gehen, wenn man offene Spannungen und Powerlimits bekäme. Leider kriegt man aber tendenziell das eine ohne das andere und nie hoch genug. Mit 1,2 Volt, 3.300 MHz und 250 Watt (alles geschätzte Zahlen) wäre so eine 4060 Ti 16GB beispielsweise sehr nett, denke ich. :D

MfG
Raff

x-force
2025-01-27, 14:21:06
Das waren noch Zeiten! =)

Das würde heute bei kleinen Karten auch noch halbwegs gehen, wenn man offene Spannungen und Powerlimits bekäme. Leider kriegt man aber tendenziell das eine ohne das andere und nie hoch genug. Mit 1,2 Volt, 3.300 MHz und 250 Watt (alles geschätzte Zahlen) wäre so eine 4060 Ti 16GB beispielsweise sehr nett, denke ich. :D

MfG
Raff

wie man an intels brechstange und dem x3d vsoc/vcore schlamassel sieht, sind wir mit der spannung schon an der grenze.
ich bin mir sicher, dass man die paar extra mv im afterburner nach kurzer zeit statistisch nachvollziehen kann.
mit 1,2v hätten sie wahrscheinlich nennenswerte rma im garantiezeitraum.

dargo
2025-01-27, 14:52:12
Apropos Übertaktungsmonster. Da fällt eurer Experiment aus dem Jahre 2012 ein, als man versucht hat, einen 3770K und ne GTX 680 @ stock mit nem 3570k und ner HD 7950 @OC zu erreichen.

Die HD 7950 ließ sich von 800 Mhz Coretakt auf 1200Mhz!! übertakten. 50% draufgelegt, das war WAHNSINN! :D:freak:;D
Das kommt nie wieder da Hersteller längst von Haus aus selbst übertakten. Lässt sich halt mehr Geld damit generieren.

Sardaukar.nsn
2025-01-27, 14:57:02
Die HD 7950 ließ sich von 800 Mhz Coretakt auf 1200Mhz!! übertakten. 50% draufgelegt, das war WAHNSINN! :D:freak:;D

Dazu auch gerne einen i5-2500k oder i7-2600k @ 4,5Ghz. Den hast du dann aber auch fast 10 Jahre nutzen können :freak:

Shink
2025-01-27, 20:21:39
Das kommt nie wieder da Hersteller längst von Haus aus selbst übertakten. Lässt sich halt mehr Geld damit generieren.
Die 7900XTX wär auch ein Übertaktungswunder wenn sie nicht so unglaublichen Durst hätte mit hohem Takt.

A propos: Wieso säuft die 5090 denn so. Takt ist geringer, Fertigung kleiner. DDR7 ist wohl auch nicht so der Bringer irgendwie. Hm.

dargo
2025-01-27, 20:26:33
Die 7900XTX wär auch ein Übertaktungswunder wenn sie nicht so unglaublichen Durst hätte mit hohem Takt.

Nö... dann hätte AMD einfach den Boosttakt erhöht. ;) Oder besser gesagt, der Boosttakt wäre von alleine nach oben gegangen. Schließlich darf die 7900XTX bis ca. 3Ghz boosten laut Treiber bzw. der V/F-Kurve.


A propos: Wieso säuft die 5090 denn so. Takt ist geringer, Fertigung kleiner. DDR7 ist wohl auch nicht so der Bringer irgendwie. Hm.
Fertigungsprozess ist der gleiche und 512Bit SI kosten halt auch etwas.

Sardaukar.nsn
2025-01-28, 06:21:40
Frage: gibt es irgendwo 8K Benches zu bestaunen im direkten Vergleich zur 4090?


4K Max / 8x MSAA - 3:25min

VAozbV-nSAs

In dem Szenario etwa doppelt so schnell wie die 4090.


Der 572.xx Day-1 Treiber scheint gerade bei den 1% lows noch etwas zuzulegen:

XEWziLWGDzE

https://i.imgur.com/Z36smqW.png

Ex3cut3r
2025-01-28, 06:46:42
Das Nvidia mal so viel Leistung zum Launch liegen lässt, hätte ich auch nicht gedacht. :D

rentex
2025-01-28, 06:52:19
Vllt. sinkt dann ebenfalls der IDLE Verbrauch...und sowieso, die 5090 wird plötzlich zur erwartenden Wunderkarte ;-D

Exxtreme
2025-01-28, 08:37:43
Naja, das ist Cyberbug77. Kann sein, dass das in anderen Spielen nicht so krass ist.