Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5090 Review-Thread


Seiten : [1] 2 3 4 5 6

w0mbat
2025-01-23, 13:50:00
Erstes Review ist online: https://www.tomshw.it/hardware/nvidia-rtx-5090-test-recensione


Specs:
GeForce RTX 5090 - GB202
170 CUs - 21.760 CUDA cores
32 GB GDDR7 @ 512-bit = 1.792 GB/s
575W TDP

Raff
2025-01-23, 13:55:44
Leaker sollte man bestrafen, nicht mit unverdienten Klicks belohnen. €dit: The real deal(s):

1. Nvidia Geforce RTX 5090 im Test des Jahres: Black-almost-well? (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/)
2. DLSS 4 im Test: Multi-Frame-Generation, Performance und Latenzen mit RTX 5090 geprüft (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-4-vs-DLSS-3-Test-RTX-5090-Performance-1464233/)
3. KI-Monster oder Schlaftablette? AI-Leistung der RTX 5090 im Ersteindruck (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Specials/Workstation-und-KI-Benchmarks-AI-1464246/)
4. Welches Netzteil braucht es für die RTX 5090? Wir erklären es und geben konkrete Tipps (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Specials/Netzteil-PSU-Stromverbrauch-12VHPWR-12V-26-1464277/)

KeFO95ykQ-Y

MfG
Raff

The_Invisible
2025-01-23, 13:56:38
Haben die in Italien eine andere Zeitrechnung :freak:

w0mbat
2025-01-23, 13:57:41
Leaker sollte man bestrafen, nicht mit unverdienten Klicks belohnen.

MfG
Raff
Ist jetzt kein Leak, sondern die haben sich beim NDA Datum um 2 Stunden vertan.

Exxtreme
2025-01-23, 14:03:28
Ist jetzt kein Leak, sondern die haben sich beim NDA Datum um 2 Stunden vertan.

https://archive.ph/Cd0F9

Das Ding ist seit 12:26 Uhr online. Also schon seeeehr viel früher.

Palpatin
2025-01-23, 14:08:15
Hat vermutlich der Praktikant unabsichtlich einen kleinen Fehler gemacht ;).

The_Invisible
2025-01-23, 14:09:15
Schon offline

Leonidas
2025-01-23, 14:20:35
Leaker sollte man bestrafen, nicht mit unverdienten Klicks belohnen.

Finde ich auch. Deswegen keine Verlinkung von mir auf Twitter. Die 40min kann man auch noch warten.

Mordekai2009
2025-01-23, 14:23:08
Sonst kommt Jensen Huang vorbei mit der Kabelpeitsche! Alles RTX On!

Nein. Spaß beiseite. :D
Bin gespannt auf allen Tests.

rentex
2025-01-23, 14:26:42
Sonst kommt Jensen Hang vorbei mit der Kabelpeitsche! Alles RTX On!

Nein. Spaß beiseite. :D
Bin gespannt auf allen Tests.


Lederpeitsche...noch 34 Minuten.

w0mbat
2025-01-23, 14:26:44
Es bekommen eh alle Klicks von mir. HWLuxx, PCGH, ComputerBase, etc. Bin auch 3DC Patreon :uhippie:

aufkrawall
2025-01-23, 14:27:30
Haben die in Italien eine andere Zeitrechnung :freak:
Betrifft eigentlich nur Kellner.

Leonidas
2025-01-23, 14:27:59
nVidia GeForce RTX 5090
- GB202-Chip
- 170 SM @ 512-bit
- 32 GB GDDR7
- Listenpreis $1999 / UVP 2329€
- Launch-Reviews von FE und Listenpreis-Modellen: 23. Januar
- Launch-Reviews von teureren Modellen: 24. Januar
- Marktstart: 30. Januar

|Chip|Hardware|Takt|VRAM|TDP|Listenpreis|Release
GeForce RTX 5090|GB202|170 SM @ 512-bit|2.01/2.41 GHz|32 GB GDDR7|575W|$1999 / 2329€|30. Januar 2025
GeForce RTX 5080|GB203|84 SM @ 256-bit|2.30/2.62 GHz|16 GB GDDR7|360W|$999 / 1169€|30. Januar 2025
GeForce RTX 5070 Ti|GB203|70 SM @ 256-bit|2.30/2.45 GHz|16 GB GDDR7|300W|$749 / 879€|Februar 2025
GeForce RTX 5070|GB205|48 SM @ 192-bit|2.16/2.51 GHz|12 GB GDDR7|250W|$549 / 649€|Februar 2025

Listen der Launch-Reviews bei 3DCenter (https://www.3dcenter.org/news/nvidia-geforce-rtx-5090-die-launch-reviews-gehen-online) und VideoCardz (https://videocardz.com/195043/nvidia-geforce-rtx-5090-blackwell-graphics-cards-review-roundup).

Exxtreme
2025-01-23, 14:33:02
Hat vermutlich der Praktikant unabsichtlich einen kleinen Fehler gemacht ;).

Naja, Tomshardware sind eigentlich keine Amateure weil schon viel zu lange im Geschäft. Die wussten wohl durchaus was sie da tun.

Ansonsten haben sie keine Spiele getestet, die mich interessieren. Das bedeutet, ich muss auch alle deutschen Reviews anklicken und Klicks generieren!

:mad: :mad: :mad:

Lehdro
2025-01-23, 14:39:54
Ich hoffe jemand testet die Speicherbandbreitenskalierung der 5090 breitflächig durch. Vor allem im Vergleich zur 4090. Bin gespannt ob es da Überraschungen gibt, vor allem mit MFG.

[MK2]Mythos
2025-01-23, 14:48:20
Leaker sollte man bestrafen, nicht mit unverdienten Klicks belohnen.

MfG
Raff
Hast recht, aber du weißt doch dass hier am Ende eh alle dein Review lesen werden. ;)

Lawmachine79
2025-01-23, 14:54:40
https://archive.ph/Cd0F9

Das Ding ist seit 12:26 Uhr online. Also schon seeeehr viel früher.
Porka Miseria! Was für verdammte Bastardos und Stronzos!
Leaker sollte man bestrafen, nicht mit unverdienten Klicks belohnen.

MfG
Raff
Raff, gibt es eigentlich Planungen VR mit in die Reviews zu nehmen? Dieses Jahr kommen viele 4k Headsets (also quasi ~UHD pro Auge), alle mit ähnlichen Parametern, so dass die Schlüssigkeit solcher Tests deutlich zunehmen sollte, weil die Headsets untereinander ähnlicher werden. Ihr könntet z.B. eine Crystal Super oder die Meganex als Referenzheadset nehmen. Außerdem kann man damit knallhart Rasterperformance isolieren.

Edit: STARTE DAS VERDAMMTE REVIEW! ICH WILL %=)= SPIELEN!

Raff
2025-01-23, 15:00:47
Und los!

Nvidia Geforce RTX 5090 im Test des Jahres: Black-almost-well? (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/)

Achtung, 52.000-Zeichen-Warnung.

mfG
Raff

fondness
2025-01-23, 15:02:25
Bestes Review wie immer von CB:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/

dildo4u
2025-01-23, 15:02:30
Bei Computerbase legt Raster mehr zu als RT :lol:

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081

wolik
2025-01-23, 15:02:45
Und los!

Nvidia Geforce RTX 5090 im Test des Jahres: Black-almost-well? (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/)

Achtung, 52.000-Zeichen-Warnung.

mfG
Raff

+1

fondness
2025-01-23, 15:03:24
Bei Computerbase legt Raster mehr zu als RT :lol:

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081

Ja, hat mich auch gewundert. :ugly:

PHuV
2025-01-23, 15:04:14
Und los!

Nvidia Geforce RTX 5090 im Test des Jahres: Black-almost-well? (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/)
:umassa:
Achtung, 52.000-Zeichen-Warnung.

Gegen die Doku, die ich sonst lesen muß, ein Klacks.

Erst mal ein :ucoffee: und dann werde ich damit Deinen Artikel geniesen, danke dafür.

https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Specials/Netzteil-PSU-Stromverbrauch-12VHPWR-12V-26-1464277/
Das Corsair HXi 2023 (80 Plus Platinum) lässt sich digital über die iCUE-Software auslesen und ansprechen, wobei die anpassbare Lüfterkurve mit einem Drehzahlminimum von 40 Prozent im Vergleich zur sehr guten semi-passiven Voreinstellung für Silent-Liebhaber überflüssig wirkt. Durch proprietäre 12+4-Stecker können 12VHPWR-Buchsen mit neueren Karten (und H++) komplett vermieden werden.
Da hatte ich am Anfang der Woche extra das neue Kabel bestellt (https://www.corsair.com/de/de/p/pc-components-accessories/cp-8920323/premium-individually-sleeved-12-4pin-pcie-gen-5-12v-2x6-600w-cable-type-5-gen-5-black), sollte heute kommen.

dargo
2025-01-23, 15:05:34
Hehe.. die 5090 rennt immer noch bei vielen Spielen ins Taktlimit, nur Metro Exodus nutzt die vollen 578W aus. :tongue: Die Taktraten fallen auch etwas geringer aus als bei der 4090, im Schnitt ~100Mhz.

Bestes Review wie immer von CB:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/
Finde ich auch, ich lese da hauptsächlich.

fondness
2025-01-23, 15:06:25
Bei PCGH das gleiche: Auch da legt die Karte bei Raster stärker zu als mit RT. Überraschend, liegt möglicherweise an der stark gestiegenen Bandbreite.

Das mit den AI-Frames, die PCGH nur bei der 5090 dazu tut in den Graph finde ich allerdings etwas lächerlich. So als gebe es sonst keine Karten die FG können.

Exxtreme
2025-01-23, 15:11:58
Die Kühlung macht bei der FE offenbar doch sehr viel Stress:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-12#abschnitt_doubleflowthrough__575_watt_sind_ein_problem

Ja, so wie ich es mir dachte. Die Hitze muss raus aus dem Gehäuse und nicht im Gehäuse verteilt werden.

Lehdro
2025-01-23, 15:12:05
Fazit: Lächerlich.

dildo4u
2025-01-23, 15:12:47
500 Watt in Last of US :eek: Kühlung scheint ok 1600 rpm.

eA5lFiP3mrs

The_Invisible
2025-01-23, 15:15:02
Boah, irgendwie enttäuschend, hätte gedacht in WorstCase geht die 5090 auf die 50% Uplift zu, nix da :freak:

dargo
2025-01-23, 15:15:27
Die Kühlung macht bei der FE offenbar doch sehr viel Stress:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-12#abschnitt_doubleflowthrough__575_watt_sind_ein_problem

Ja, so wie ich es mir dachte. Die Hitze muss raus aus dem Gehäuse und nicht im Gehäuse verteilt werden.
Im Prinzip das was wir schon ohne einen Test wussten, sagt einem schon der gesunde Menschenverstand. :)

Edit:
Bei Perf/W kommt die 5090 bei CB knapp über einer 7900XTX @4k raus. :freak:

arcanum
2025-01-23, 15:16:34
Hätte man ohne MFG auch 4090 ti taufen können.

Relic
2025-01-23, 15:17:05
Boah, irgendwie enttäuschend, hätte gedacht in WorstCase geht die 5090 auf die 50% Uplift zu, nix da :freak:

Wie soll das bitte funktionieren bei nur 20% mehr Transistoren und kaum verbesserter Fertigung?

Hakim
2025-01-23, 15:17:48
Ich habe ja zumindest mit 28-30% im Durchschnitt gerechnet, laut CB nur 24%, schon etwas enttäuschend

DrFreaK666
2025-01-23, 15:18:50
...Das mit den AI-Frames, die PCGH nur bei der 5090 dazu tut in den Graph finde ich allerdings etwas lächerlich. So als gebe es sonst keine Karten die FG können.

Von NV lernen heißt siegen lernen, oder so ähnlich :freak:
Kommt wohl noch wenn mehr Zeit ist

Exxtreme
2025-01-23, 15:19:28
Igor hat auch noch recht nette Messungen zur Leistungsaufnahme:
https://www.igorslab.de/nvidia-geforce-rtx-5090-founders-edition-im-test-das-600-watt-kraftpaket-im-gaming-und-labortest/14/

Die 1000 W-Netzteil-Empfehlung sollte man ernstnehmen. :)

fondness
2025-01-23, 15:21:25
Die Kühlung macht bei der FE offenbar doch sehr viel Stress:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-12#abschnitt_doubleflowthrough__575_watt_sind_ein_problem

Ja, so wie ich es mir dachte. Die Hitze muss raus aus dem Gehäuse und nicht im Gehäuse verteilt werden.

Genau deshalb sind die ganzen Tests auf einem offenen Testtable lächerlich. Und genau deshalb lese ich so gerne CB, dort wird nicht nur auf Balken geschaut.

dargo
2025-01-23, 15:21:54
500 Watt in Last of US :eek: Kühlung scheint ok 1600 rpm.

https://youtu.be/eA5lFiP3mrs
Sind die Dinger nicht 120mm groß? Das finde ich trotz der flacheren Bauweise nicht gerade wenig. Bei CB sind es übrigens 1.700RPM (sicherlich etwas vom Gehäuse abhängig) und laute 41,5dBA. :freak:

Raff
2025-01-23, 15:22:08
Finde ich auch, ich lese da hauptsächlich.

Konstruktives Feedback über die Gründe abseits von "habe ich schon immer so gemacht" übrigens gerne an mich. Ich räume auch extra mein PN-Fach auf. :D

Der PCGH-Index Rasterizing fluppt übrigens sehr gut auf AMD-Karten, relativ, was ich im Vergleich so sehe.

Hätte man ohne MFG auch 4090 ti taufen können.

Nein, dann wären’s höchstens +10 Prozent geworden.

Boah, irgendwie enttäuschend, hätte gedacht in WorstCase geht die 5090 auf die 50% Uplift zu, nix da :freak:

Tut sie - nur hier: :cool:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91103&stc=1&d=1737642347

https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/3/

MfG
Raff

dildo4u
2025-01-23, 15:22:32
Cyberpunk 4k Overdrive 34 fps 580 Watt :up:

qUznn30H-Ro

fondness
2025-01-23, 15:23:16
Edit:
Bei Perf/W kommt die 5090 bei CB knapp über einer 7900XTX @4k raus. :freak:

War das nicht diese super ineffiziente Karte? :ugly:

w0mbat
2025-01-23, 15:24:48
Fazit: alle mit 4090 müssen sich keine Sorgen machen. Ca. 20-25% schneller bei 20% mehr Verbrauch. Die FE hätte schon 3-slot sein können.

Wenn ich aber Path-Tracing auf 3440x1440 mit DLSSQ zocken will, bring die 5090 manchmal schon den Schuppser über die 60 FPS.

Mein Problem: die 5080 ist mir zu schwach. Jetzt noch ne gebrauchte 4090 klingt auch nicht geil. Und AMD war so blöd und bringt die 9070 XT erst im März.

Werde also doch versuchen, eine zu ergattern. Wenns nix wird, schau ich mal wie RDNA4 wird als Upgrade zur RX 6800.

arcanum
2025-01-23, 15:26:08
Nein, dann wären’s höchstens +10 Prozent geworden.

Zumindest ist die Leistung der "50"90 näher an einer hypothetischen 4090 ti als an einem Generationensprung.

dargo
2025-01-23, 15:26:08
War das nicht diese super ineffiziente Karte? :ugly:
Jo. ;D

Konstruktives Feedback über die Gründe abseits von "habe ich schon immer so gemacht" übrigens gerne an mich. Ich räume auch extra mein PN-Fach auf. :D

Da gibt es nicht viel zu sagen Raff. :) Ich finde die Homepage von CB angenehmer/übersichtlicher. Auch gefällt mir die Trennung bei CB zwischen den einzelnen Testbereichen besser, finde es sehr angenehm beim lesen.

DrFreaK666
2025-01-23, 15:27:14
Jo. ;D
Das ist was anderes. Das ist ja grüne Energie :freak:

Ein Freund freut sich auf die Karte. Er hat noch eine 3090

][immy
2025-01-23, 15:27:18
Boah, irgendwie enttäuschend, hätte gedacht in WorstCase geht die 5090 auf die 50% Uplift zu, nix da :freak:
Ja, bei dem erhöhten power Target und zusätzlichen Einheiten, mehr Speicher und Bandbreite hatte ich auch mehr erwartet. So ist es (vor allem nachdem Nvidia das so gehyped hat) echt enttäuschend und vermutlich werden die kleineren Karten noch kleinere Sprünge machen, so das man selbst nach so vielen Jahren kaum von Fortschritt reden kann. Das einzige was die kleineren Karten sich von der echt guten Ampere Generation abheben lässt ist der Speicher, die die Ampere Karten (bis auf die 3080) ausbremst.

Die neue Karte ist auch noch teurer, was dazu führt das Nvidia diese ohne weiteres hatte parallel weiter anbieten können. Aber naja, wer holt sich bei den Preisen dann schon die kleinere Karte, da machen die 200-500€ dann vermutlich auch nix mehr aus. Wundert mich schon fast, das sie nicht auf 3000€ gestiegen sind. Dem Kundenkreis sollte das nicht jucken.

Raff
2025-01-23, 15:27:46
War das nicht diese super ineffiziente Karte? :ugly:

Och Leude. Sie ist viel, viel, schneller und trotzdem effizienter. Hier Rasterizing und Raytracing einzeln: https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/6/#a3

MfG
Raff

w0mbat
2025-01-23, 15:29:00
Die Frage ist jetzt, ob die 5090 vielleicht z.T. schon wieder ins CPU-Limit läuft. Vielleicht brauchen wir Zen6 X3D :D

fondness
2025-01-23, 15:30:01
Die Frage ist jetzt, ob die 5090 vielleicht z.T. schon wieder ins CPU-Limit läuft. Vielleicht brauchen wir Zen6 X3D :D

Dann sollte sie allerdings runter takten und erst recht effizienter werden. ;)

Ravenhearth
2025-01-23, 15:30:10
Den Stromverbrauch im Idle und bei Video haben sie auch verkackt...

][immy
2025-01-23, 15:30:14
Die Kühlung macht bei der FE offenbar doch sehr viel Stress:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-12#abschnitt_doubleflowthrough__575_watt_sind_ein_problem

Ja, so wie ich es mir dachte. Die Hitze muss raus aus dem Gehäuse und nicht im Gehäuse verteilt werden.
Ja, die Wärme landet quasi direkt bei der CPU... Könnte also unter Stress echt stressig für die CPU werden, auch wenn das Konzept für die GPU durchaus Sinn ergibt, da darüber die Luft meist über den CPU Lüfter hinten aus dem Gehäuse gezogen wird. Nach oben ist halt immer etwas staubanfälliger.

Das wäre dann etwa das BTX Problem

Tegenarian
2025-01-23, 15:32:06
Den Stromverbrauch im Idle und bei Video haben sie auch verkackt...

Ebenso im Multi-Monitor-Betrieb. Hoffe, die 5070 Ti ist da besser.

dargo
2025-01-23, 15:33:22
Och Leude. Sie ist viel, viel, schneller und trotzdem effizienter. Hier Rasterizing und Raytracing einzeln: https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/6/#a3

Perf/W hängt immer von dem verwendeten Spiele-Parcour und nicht selten auch von der Testszene ab. ;) Bei CB ist die 5090 nur 4% besser als die 7900XTX.

Den Stromverbrauch im Idle und bei Video haben sie auch verkackt...
Jo... wobei hier spätere Treiber eventuell noch was verbessern können. Wird sich zeigen.

Raff
2025-01-23, 15:34:08
Die Frage ist jetzt, ob die 5090 vielleicht z.T. schon wieder ins CPU-Limit läuft. Vielleicht brauchen wir Zen6 X3D :D

Zum Teil? Quasi immer. Sogar in UHD. Sieht man u. a. an der Auflösungsskalierung hier, ganz unten: https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/3/#a4. RTX 4090 ist kaum langsamer, weil alles da oben CPU-bound ist. Da helfen nur moar Pixels!

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91104&stc=1&d=1737642835

... und das trotz 9800X3D @ 5.425 MHz plus geschärftem DDR5-6400. :freak:

MfG
Raff

wolik
2025-01-23, 15:34:14
Och Leude. Sie ist viel, viel, schneller und trotzdem effizienter. Hier Rasterizing und Raytracing einzeln: https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/6/#a3

MfG
Raff

Danke Raff.
Habe ich es übersehen, oder hast du nichts über MFG im Vergleich zu FG geschrieben? Ob sie die gleiche Vaseline FPS sind.

Dein Persönliche Eindruck.

Computerbase:

DLSS 4 MFG überzeugt, wenn die Basis passt
Das neue DLSS 4 MFG zeigt sich im Test dann von seiner beeindruckenden Seite. Aber es gilt erneut anzumerken: Auch in der MFG-Version ist die Technologie nicht dazu eignet, ein nicht flüssig laufendes Spiel flüssig zu bekommen. Stimmt der Inputlag der „Grund-FPS“ (mit oder ohne Super Resolution) nicht, steigen zwar die FPS, aber das Spielgefühl wird nie besser werden, weil der Inputlag immer steigt. Eine Grund-Framerate von 50 bis 70 FPS (je nach Spiel) ist und bleibt empfehlenswert.

Hakim
2025-01-23, 15:34:17
Glaub idle,YT und Multi Monitor Verbrauch kann wegen treiben liegen und wird hoffentlich mit den kommenden gebessert

Tegenarian
2025-01-23, 15:35:11
Glaub idle,YT und Multi Monitor Verbrauch kann wegen treiben liegen und wird hoffentlich mit den kommenden gebessert

Hat AMD auch gesagt; kam nie was (imho).

Raff
2025-01-23, 15:36:24
Danke Raff.
Habe ich es übersehen, oder hast du nichts über MFG im Vergleich zu FG geschrieben? Ob sie die gleiche Vaseline FPS sind.

Dein Persönliche Eindruck.

DLSS gibt’s einzeln: DLSS 4 im Test: Multi-Frame-Generation, Performance und Latenzen mit RTX 5090 geprüft (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-4-vs-DLSS-3-Test-RTX-5090-Performance-1464233/) :)

MfG
Raff

][immy
2025-01-23, 15:37:11
Zum Teil? Quasi immer. Sogar in UHD. Sieht man u. a. an der Auflösungsskalierung hier, ganz unten: https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/3/#a4. RTX 4090 ist kaum langsamer, weil alles da oben CPU-bound ist. Da helfen nur moar Pixels!

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91104&stc=1&d=1737642835

... und das trotz 9800X3D @ 5.425 MHz plus geschärftem DDR5-6400. :freak:

MfG
Raff

Ganz böse gefragt, wie sieht der Treiber Overhead aus?

fondness
2025-01-23, 15:37:35
Die für mich viel spannendere Frage ist ja, was das für die kleinen Karten heißt. Wenn selbst die 5090, die einzige mit breiterem SI und deutlich mehr Einheiten kaum schneller ist, werden die kleineren Karten bestenfalls ein Sidegrade.

dargo
2025-01-23, 15:38:13
Hat AMD auch gesagt; kam nie was (imho).
Doch... wurde bei vielen Systemen verbessert. Auch Teillast wurde verbessert vs. Release. Ob es gut genug ist, das ist ne andere Frage.

Die für mich viel spannendere Frage ist ja, was das für die kleinen Karten heißt. Wenn selbst die 5090, die einzige mit breiterem SI und deutlich mehr Einheiten kaum schneller ist, werden die kleineren Karten bestenfalls ein Sidegrade.
Ja natürlich, was auch sonst. Absolute Stagnation.

Raff
2025-01-23, 15:38:13
Die für mich viel spannendere Frage ist ja, was das für die kleinen Karten heißt. Wenn selbst die 5090, die einzige mit breiterem SI und deutlich mehr Einheiten kaum schneller ist, werden die kleineren Karten bestenfalls ein Sidegrade.

Das werden reine MFG-Maschinen.

MfG
Raff

Hakim
2025-01-23, 15:38:51
Hat AMD auch gesagt; kam nie was (imho).

Ja aber Nv hatte nie so große Probleme in der Hinsicht, bei AMD höre ich das seit Polaris das es verbessert wird. Mal die Wochen abwarten

MiamiNice
2025-01-23, 15:39:21
Da ist der Test:

svk5wjogstQ

Lawmachine79
2025-01-23, 15:40:37
Naja, auch 25% Bump helfen enorm bei VR. Und so gering wie der Abstand ist, werde ich meine 4090 schön teuer los.

SamLombardo
2025-01-23, 15:42:17
Sehr schöner Test @Raff. Eine Kleinigkeit: Zum Vergleich wären Ergebnisse der 4090 mit FG schön gewesen. Das Setting (DLSSQ plus FG) was ich, und vermutlich fast jeder andere 4090 Nutzer;), in der Praxis bei Path Tracing Games nutzt war ausgerechnet nicht dabei. Wie 4090 FG vs 5090 FG aussieht wäre interessant gewesen.

Aber ansonsten toller Test mit allen relevanten Benchmarks. Top!

PHuV
2025-01-23, 15:43:37
@Raff, schon mal schön, daß Ihr auch KI und Videorendering getestet habt: :up:
PCGH - KI-Monster oder Schlaftablette? AI-Leistung der RTX 5090 im Ersteindruck (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Specials/Workstation-und-KI-Benchmarks-AI-1464246/)
Daher mein Fazit, für ML/DL und Videoschnitt wird die Karte wieder als "günstige" Variante ein Renner werden.

Meine Begründung, warum es KEINE 5090 TI geben wird, die Chips im Vollausbau werden hier gebraucht:
RTX 6000 „Blackwell“?: Nvidia verschickt Grafikkarten mit 96 GB GDDR7-Speicher (https://www.computerbase.de/news/grafikkarten/rtx-6000-blackwell-nvidia-verschickt-grafikkarten-mit-96-gb-gddr7-speicher.91131/)

Troyan
2025-01-23, 15:46:41
Gab es schon RTX Mega Geomtry für Alan Wake 2 für die Reviewer?

Ansonsten sieht es ganz nett aus. 32GB sind überflüssig und 1,8TB/s einfach nur sinnbefreit.

wolik
2025-01-23, 15:47:04
Da ist der Test:

https://youtu.be/svk5wjogstQ

Vor paar Tage schrieb ich das Gleiche. Wenn Sie 5090 als 4090 Ti betrachten, dann ist alles in Ordnung. Preis und Leistung auch.

ChaosTM
2025-01-23, 15:48:35
So, PCGH Test gelesen und alles wie erwartet. Danke für die viele Arbeit.

Ohne AI-Frames bleibt erschütternd wenig Mehrperformance übrig. Das F-Wort verwende ich nicht mehr.

Raff
2025-01-23, 15:52:30
Sehr schöner Test @Raff. Eine Kleinigkeit: Zum Vergleich wären Ergebnisse der 4090 mit FG schön gewesen. Das Setting (DLSSQ plus FG) was ich, und vermutlich fast jeder andere 4090 Nutzer;), in der Praxis bei Path Tracing Games nutzt war ausgerechnet nicht dabei. Wie 4090 FG vs 5090 FG aussieht wäre interessant gewesen.

Ich habe bereits sehr damit gehadert, die erst heute Nacht ermittelten (M)FG-Werte standardmäßig einzublenden, es aber dann doch gemacht - Hass kommt von den üblichen Verdächtigen so und so (Fazit beachten! (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/7/#a3)). :ugly: Immerhin sieht man so, was in 75 Spielen bestenfalls geht. Mal sehen, was ich bis zum Start der RTX 5080 auf die Kette bekomme. Erst mal wieder bisschen schlafen. ;)

MfG
Raff

The_Invisible
2025-01-23, 15:53:02
Konstruktives Feedback über die Gründe abseits von "habe ich schon immer so gemacht" übrigens gerne an mich. Ich räume auch extra mein PN-Fach auf. :D

Der PCGH-Index Rasterizing fluppt übrigens sehr gut auf AMD-Karten, relativ, was ich im Vergleich so sehe.



Nein, dann wären’s höchstens +10 Prozent geworden.



Tut sie - nur hier: :cool:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91103&stc=1&d=1737642347

https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/3/

MfG
Raff

In Raster legt sie mehr zu als in RT/PT, irgendwas kann da noch nicht passen :freak:

Raff
2025-01-23, 15:53:51
In Raster legt sie mehr zu als in RT/PT, irgendwas kann da noch nicht passen :freak:

CPU-Limit, da Raster nativ läuft und Raytracing mit Upsampling. Dieser Kompromiss ist praxisnah, benachteiligt aber das High-End – Porno-Prozessor hin oder her.

MfG
Raff

MiamiNice
2025-01-23, 15:54:05
Ist halt jetzt die Frage ob noch eine Männerversion der Karte kommt. Fast Vollausbau, 800 Watt und 2 Stromstecker. Könnte NV ruhig mal raushauen und vorab kommunizieren, damit man nicht ggf. 2x kauft.

Lawmachine79
2025-01-23, 15:54:09
Aus Igors Artikel:

"Die Bildqualität, die durch die Transformer-Modelle in DLSS 4 erreicht wird, ist ein weiterer wichtiger Aspekt. Wo früher eine klare Abwägung zwischen Leistung und Qualität getroffen werden musste, vereint DLSS 4 beides auf beeindruckende Weise. Besonders hervorzuheben ist, dass die neue Performance-Einstellung nahezu die gleiche visuelle Qualität bietet wie vorherige Quality-Modi. Dies wird durch fortschrittliche KI-gestützte Modelle erreicht, die sowohl lokale Details als auch globale Zusammenhänge erfassen und so eine nahezu native Bilddarstellung erzeugen. Die flüssige und detailreiche Darstellung bei deutlich höheren Frameraten zeigt, dass DLSS 4 ein essenzieller Bestandteil der RTX 5090 ist, der ihre Leistungsfähigkeit weiter unterstreicht. Hierzu wird es noch einen ausführlichen Praxistest von unserem Monitor-Profi Fritz Hunter geben."

Darf man davon ausgehen, dass der obere Teil des Statements auch für die 4090 gilt? Es betrifft ja nicht MFG.

Exxtreme
2025-01-23, 15:54:50
Darf man davon ausgehen, dass der obere Teil des Statements auch für die 4090 gilt? Es betrifft ja nicht MFG.

Ja, das gilt auch für Ada, Ampere und Turing.

Lawmachine79
2025-01-23, 15:57:04
Ja, das gilt auch für Ada, Ampere und Turing.
Und DLSS 4 kommt dann mit dem Releasetreiber von Blackwell?

ChaosTM
2025-01-23, 15:58:50
Ist halt jetzt die Frage ob noch eine Männerversion der Karte kommt. Fast Vollausbau, 800 Watt und 2 Stromstecker. Könnte NV ruhig mal raushauen und vorab kommunizieren, damit man nicht ggf. 2x kauft.


Das würde diesmal wirklich "Sinn" machen. Zumindest für die ganz irren unter uns (Me) oder für Prosumer.
Ein Titan mit 3GB Chips und 48GB könnte man außerdem noch deutlich teurer verhökern.

The_Invisible
2025-01-23, 15:59:24
CPU-Limit, da Raster nativ läuft und Raytracing mit Upsampling. Dieser Kompromiss ist praxisnah, benachteiligt aber das High-End – Porno-Prozessor hin oder her.

MfG
Raff

Echt arg, ich hoffe da tut sich noch was am Treiber weil schnellere CPU scheint so schnell nicht zu kommen.

Das geilste Feature scheint wohl wirklich DLSS4 zu sein, mit Transformer kann man DLSS-P quasi immer fahren und DLSS3-FG wird auch schneller. MFG ist von demher nur für >=240Hz Displays interessant

Exxtreme
2025-01-23, 16:00:14
Und DLSS 4 kommt dann mit dem Releasetreiber von Blackwell?

Jau. Die DLLs kannst du auch hier herunterladen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13691101#post13691101

Oder halt warten, bis sie hier sind:
https://www.techpowerup.com/download/nvidia-dlss-dll/

The_Invisible
2025-01-23, 16:00:25
Und DLSS 4 kommt dann mit dem Releasetreiber von Blackwell?

Nein, gibts schon via CP2077 Patch und kannst testen: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=600122&page=343

Lawmachine79
2025-01-23, 16:01:20
Thanx @Exxtreme/Invisible.

Blase
2025-01-23, 16:05:25
Tjoa... mich hat der Test von Raff überzeugt. Ich werde nicht auf die 5090 gehen :freak:

Bin heute zwar schon neugierig, wie sich das Verhältnis zwischen 4090 und 5090 mit zwei weiteren CPU Generationen bis zum Erscheinen der 6090 entwickelt ("Fine Wine" - oder eher: endlich kein CPU Limit mehr), aber Stand heute juckt es mich da nicht im Schritt.

Zumal das interessanteste Feature, DLSS4, auch für die älteren Karten nach gereicht wird.

Also viel Spaß mit der 5090 Jungs, aber ich setze aus...

MfG Blase

Lehdro
2025-01-23, 16:14:17
CPU-Limit, da Raster nativ läuft und Raytracing mit Upsampling. Dieser Kompromiss ist praxisnah, benachteiligt aber das High-End – Porno-Prozessor hin oder her.


Bin heute zwar schon neugierig, wie sich das Verhältnis zwischen 4090 und 5090 mit zwei weiteren CPU Generationen bis zum Erscheinen der 6090 entwickelt ("Fine Wine" - oder eher: endlich kein CPU Limit mehr), aber Stand heute juckt es mich da nicht im Schritt.

Ganz ehrlich: Ich sehe das CPU Limit da nicht. Eher hat die Karte massive Probleme die Leistung auch aufs Parkett zu bringen. Selbst im RT Index von PCGH sind die FPS bei FHD meist >2x zu UHD, also keineswegs CPU limitiert. Die Karte scheint in dasselbe Limit wie die 4090 zu laufen: Auslastungsprobleme. In 5k/6K würde man das sicher wieder schön beobachten können, wie bei der 4090. Ob da mehr Cache geholfen hätte? Speicherbandbreite kann man diesmal wohl wirklich ausschließen, darin ersäuft die Karte.

Achja, wo Bandbreitenskalierungstests?

SamLombardo
2025-01-23, 16:24:44
Tjoa... mich hat der Test von Raff überzeugt. Ich werde nicht auf die 5090 gehen :freak:

Bin heute zwar schon neugierig, wie sich das Verhältnis zwischen 4090 und 5090 mit zwei weiteren CPU Generationen bis zum Erscheinen der 6090 entwickelt ("Fine Wine" - oder eher: endlich kein CPU Limit mehr), aber Stand heute juckt es mich da nicht im Schritt.

Zumal das interessanteste Feature, DLSS4, auch für die älteren Karten nach gereicht wird.

Also viel Spaß mit der 5090 Jungs, aber ich setze aus...

MfG Blase
Dito. Mal sehen wie es sich mit der Zeit entwickelt. Und vor allem was sich softwaretechnisch in den nächsten zwei Jahren tut (ob Games kommen bei denen die 4090 nicht mehr ausreicht).

Und danke @Raff für die Antwort.

fondness
2025-01-23, 16:29:22
Ganz ehrlich: Ich sehe das CPU Limit da nicht. Eher hat die Karte massive Probleme die Leistung auch aufs Parkett zu bringen. Selbst im RT Index von PCGH sind die FPS bei FHD meist >2x zu UHD, also keineswegs CPU limitiert. Die Karte scheint in dasselbe Limit wie die 4090 zu laufen: Auslastungsprobleme. In 5k/6K würde man das sicher wieder schön beobachten können, wie bei der 4090. Ob da mehr Cache geholfen hätte? Speicherbandbreite kann man diesmal wohl wirklich ausschließen, darin ersäuft die Karte.

Achja, wo Bandbreitenskalierungstests?

Jup, ist kein CPU Limit. Sollte man als Reviewer eigentlich erkennen. Die Karte skaliert wunderbar mit der Auflösung, ein CPU Limit sieht anders aus.

dreas
2025-01-23, 16:33:25
Find es eher enttäuschend. Hätte mehr erwartet, gerade für den zu erwartenden Preis.
Wer ne 4090 hat, ist weiter gut bedient.

Gefühlt der schlechteste Mehrwert einer neuen Gen seit Ewigkeiten.

dargo
2025-01-23, 16:35:45
Ganz ehrlich: Ich sehe das CPU Limit da nicht. Eher hat die Karte massive Probleme die Leistung auch aufs Parkett zu bringen. Selbst im RT Index von PCGH sind die FPS bei FHD meist >2x zu UHD, also keineswegs CPU limitiert. Die Karte scheint in dasselbe Limit wie die 4090 zu laufen: Auslastungsprobleme. In 5k/6K würde man das sicher wieder schön beobachten können, wie bei der 4090. Ob da mehr Cache geholfen hätte? Speicherbandbreite kann man diesmal wohl wirklich ausschließen, darin ersäuft die Karte.

Ich bin mir noch nicht mal sicher ob das tatsächlich ein Auslastungsproblem ist oder eher ein zu großzügiges Powerlimit von NV gewählt wurde. Kann man ersteres schon von irgendwas sicher ableiten?

Raff
2025-01-23, 16:36:00
Jup, ist kein CPU Limit. Sollte man als Reviewer eigentlich erkennen. Die Karte skaliert wunderbar mit der Auflösung, ein CPU Limit sieht anders aus.

Genauer hinsehen, bitte. :) Die RTX 5090 kann sich nur in Ultra HD von der RTX 4090 ordentlich absetzen. Gäbe es einen 5K-Index, wäre der Abstand nochmal größer, in 8K erst recht. Ultra HD ist nur sanft CPU-limitiert (auf der besten CPU), die kleineren Auflösungen ganz ohne Frage.

MfG
Raff

Lawmachine79
2025-01-23, 16:36:53
Genauer hinsehen, bitte. :) Die RTX 5090 kann sich nur in Ultra HD von der RTX 4090 ordentlich absetzen. Gäbe es einen 5K-Index, wäre der Abstand nochmal größer, in 8K erst recht. Ultra HD ist nur sanft CPU-limitiert (auf der besten CPU), die kleineren Auflösungen ganz ohne Frage.

MfG
Raff
Ein Grund mehr, VR reinzunehmen ;).

Rabiata
2025-01-23, 16:37:00
Mein Problem: die 5080 ist mir zu schwach. Jetzt noch ne gebrauchte 4090 klingt auch nicht geil. Und AMD war so blöd und bringt die 9070 XT erst im März.
Die 9070 XT wird allen Spekulationen nach eher im Bereich der RTX 4080 rauskommen. AMD versucht diesmal gar nicht erst, die absolut schnellste Karte zu haben.
Also für Leute, denen eine 5080 zu schwach ist, von vornherein uninteressant.

Lawmachine79
2025-01-23, 16:51:15
Die 9070 XT wird allen Spekulationen nach eher im Bereich der RTX 4080 rauskommen. AMD versucht diesmal gar nicht erst, die absolut schnellste Karte zu haben.
Also für Leute, denen eine 5080 zu schwach ist, von vornherein uninteressant.
Wenn man mal den Artikel von Igor liest, sieht man erst, wie weit AMD den Anschluss verloren hat. Da geht es nicht mehr nur um Leistung, AMD hat einen oder mehrere Technologiesprünge verpasst.

dargo
2025-01-23, 16:54:45
Wenn man mal den Artikel von Igor liest, sieht man erst, wie weit AMD den Anschluss verloren hat. Da geht es nicht mehr nur um Leistung, AMD hat einen oder mehrere Technologiesprünge verpasst.
Vollkommender Blödsinn. Lerne endlich die richtigen Segmente zu vergleichen. Sowohl was Performance als auch Preis angeht.

The_Invisible
2025-01-23, 16:55:07
Die Karte erinnert an Turing, ist klar für die Zukunft gebaut mit ihren Neural Texture, Shaders & Co. Nur leider gibts nicht mal einen Showcase Titel dafür.

VooDoo7mx
2025-01-23, 17:03:19
Also @stock sit die 5090 mal deutlich ineffizienter als eine stock 4090

Im Video von David Owen z.B. im Video Ghost of Tsushima ist die 5090 in UHD Very High 29% schneller, braucht aber dafür 42% mehr Strom.

Und so zieht sich das überall durch.
Seit über 10 Jahren hat nVidia eigentlich immer die fps je Watt verbessern können. Sogar mit Ampere mit dem mülligen Samsung Prozess.
Doch das hier ist ja mal echt schwach. Mal sehen wie das mit den kleineren Chips aussieht.

Eine 4090Ti mit 144 SM, vollen L2 Cache und 24gbps GDDR6X mit optional 48GiB wäre doch die deutlich rundere Karte gewesen und wohl kaum langsamer als die 5090 bei besserer Energieeffizienz.

5090 ist sehr enttäuschend.
Mal sehen ob die kleineren Blackwell Chips besser abschneiden...

Die Karte erinnert an Turing, ist klar für die Zukunft gebaut mit ihren Neural Texture, Shaders & Co. Nur leider gibts nicht mal einen Showcase Titel dafür.

Und das alles kann jetzt eine 4090 nicht? Auch wenn man die AI Tops Leistung Äpfel mit Äpfeln (INT8) vergleicht, ist die 5090 kaum schneller.

PHuV
2025-01-23, 17:08:39
Da ist der Test:

https://youtu.be/svk5wjogstQ
Blöder Titel, da architektonisch einiges überarbeitet wurde. ADA=Blackwell, daher kann die 5090 keine 4090 TI sein.

Raff
2025-01-23, 17:11:20
Das ist doch nur für die Klicks. Ohne kreative Heads & Thumbs geht man in der Masse unter. Aber du hast natürlich Recht (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13691167&postcount=5034). :)

MfG
Raff

Prinzenrolle
2025-01-23, 17:11:27
Tolle Karte. Rund 30% mehr Performance trotz gleichem Prozess mit hoffentlich noch ein paar Reserven nach oben, wenn in den nächsten Jahren die ganz fetten Spiele kommen.

Effizienz geht wohl aufgrund des 512bit SI etwas flöten, aber was solls.
Lautstärke und Temperaturen noch im Rahmen. Irr mit diesem "Mini-Kühler"
Da von AMD ja nichts gescheites kommen wird, wird die Karte morgen wenn verfügbar bestellt.
Bei PCGH das gleiche: Auch da legt die Karte bei Raster stärker zu als mit RT.

Ganze 1%. Das nenne ich Messungenauigkeit.:wink:

Boah, irgendwie enttäuschend, hätte gedacht in WorstCase geht die 5090 auf die 50% Uplift zu, nix da :freak:

Woher soll die Leistung denn kommen? Es gibt ein paar Benchmarks wo die Karte im Schnitt auf die 40% zugeht.
https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/37.html

RT+33% Raster +35%

Mehr als ich nach den Folien mit ~27% erwartet habe.

Virtual
2025-01-23, 17:12:22
Wenn man mal den Artikel von Igor liest, sieht man erst, wie weit AMD den Anschluss verloren hat. Da geht es nicht mehr nur um Leistung, AMD hat einen oder mehrere Technologiesprünge verpasst.
Ja, Igor, Wahnsinn, echt beeindrucken! Power Gating, getrennten Power Rails u.s.w.
... und dann doch nur 28,4W auf'm ruhenden 60Hz FHD Windows Desktop.
... meine RX 6800 braucht nur 6W bei 60Hz UHD.
... AMD hat tatsächlich den Anschluss nach oben verloren

PHuV
2025-01-23, 17:14:17
@Raff

Kommt noch ein Test mit MSFS 2020/2024? Den habe ich bisher bei keinem Review gesehen. Gerade hier in den Städten würde MFS doch einiges bringen.

Raff
2025-01-23, 17:14:39
Da von AMD ja nichts gescheites kommen wird, wird die Karte morgen wenn verfügbar bestellt.

Dauert noch bis zum 30. Januar.

@Raff

Kommt noch ein Test mit MSFS 2020/2024? Den habe ich bisher bei keinem Review gesehen. Gerade hier in den Städten würde MFS doch einiges bringen.

Da muss ich dich leider enttäuschen. Das Spiel produziert mir zu viel erratischen/gewürfelten Schmarrn für einen Standardtest.

MfG
Raff

00-Schneider
2025-01-23, 17:15:48
@Raff

Kommt noch ein Test mit MSFS 2020/2024? Den habe ich bisher bei keinem Review gesehen. Gerade hier in den Städten würde MFS doch einiges bringen.

Ich ergänze den Request um Control -> Corridor of Doom mit RT-Mod.

Prinzenrolle
2025-01-23, 17:18:10
Dauert noch bis zum 30. Januar.

:frown: Das versaut mir allerdings den Urlaub nächste Woche.
Ganz ehrlich: Ich sehe das CPU Limit da nicht.

Da muss man dann allerdings schon "blind" sein. In Full HD ist die Karte nur gleichauf mit einer 4090, das ist ein extremes CPU Limit und keine Auflösungsskalierung. Eine neue CPU wird der Karte in den typischen Auflösungen nochmal ordentlich Beine machen.

Dorn
2025-01-23, 17:23:00
Na hoffentlich werden die kommenden Tests mit 5080...5070 Ti besser. Echt schwach, von nvidia.

Badesalz
2025-01-23, 17:28:53
Na hoffentlich werden
@dargo, hau den einfach :usad:

mironicus
2025-01-23, 17:31:13
Also die Tests ermutigen mich meine RTX 4090 zu behalten. In Stable Diffusion ist die Leistungssteigerung laut Computerbase eher gering. Sehr schön, da kann ich gerne noch 2 weitere Jahre auf eine RTX 6090 warten, die ein echtes Upgrade sein dürfte.

PHuV
2025-01-23, 17:35:19
Da muss ich dich leider enttäuschen. Das Spiel produziert mir zu viel erratischen/gewürfelten Schmarrn für einen Standardtest.
:eek::frown:
https://media.tenor.com/we_DOWnJNZgAAAAM/baby-cry.gif

Das heißt, dramatische Bildfehler? Dabei sind die beiden Spiele doch in der Liste für MFG drin. :confused:

dildo4u
2025-01-23, 17:35:55
@Raff

Kommt noch ein Test mit MSFS 2020/2024? Den habe ich bisher bei keinem Review gesehen. Gerade hier in den Städten würde MFS doch einiges bringen.

https://i.ibb.co/4Fz0Rym/Screenshot-2025-01-23-173752.png (https://imgbb.com/)

https://i.ibb.co/Nm9WjrT/Screenshot-2025-01-23-173744.png (https://ibb.co/KL2VqDK)

https://i.ibb.co/DVhR0x4/Screenshot-2025-01-23-173617.png (https://ibb.co/yftQHw0)

https://www.tomshardware.com/pc-components/gpus/nvidia-geforce-rtx-5090-review/4

Badesalz
2025-01-23, 17:37:03
In Full HD ist die Karte nur gleichauf mit einer 4090,
Hej Leute, bedeutet, wr können ab der 4090 Gaming-CPU-Tests endlich in FHD machen, statt 720? :ubeer:

gedi
2025-01-23, 17:39:36
Die FE ist lächerliche 18% schneller als meine Karte @stock. Sorry, für mich ist die 5090 ein Fail!

PHuV
2025-01-23, 17:41:20
https://i.ibb.co/Nm9WjrT/Screenshot-2025-01-23-173744.png (https://ibb.co/KL2VqDK)

https://i.ibb.co/4Fz0Rym/Screenshot-2025-01-23-173752.png (https://imgbb.com/)

https://i.ibb.co/DVhR0x4/Screenshot-2025-01-23-173617.png (https://ibb.co/yftQHw0)

https://www.tomshardware.com/pc-components/gpus/nvidia-geforce-rtx-5090-review/4
Danke schön, ist aber echt mager für nativ.:(
Auf MFG-Ergebnisse bin ich dann mal gespannt.

Gut, hier kann man rückwirkend sagen, daß die Leaks einigermaßen einigermaßen zutreffend waren mit 25%-30% mehr Leistung im Raster, wenn überhaupt.

Raff
2025-01-23, 17:43:27
Die FE ist lächerliche 18% schneller als meine Karte @stock. Sorry, für mich ist die 5090 ein Fail!

Ist sie nicht. Laut Signatur nutzt du einen LG OLED 55CX9LA, also UHD -> plus 28 Prozent.

MfG
Raff

Prinzenrolle
2025-01-23, 17:46:41
Hej Leute, bedeutet, wr können ab der 4090 Gaming-CPU-Tests endlich in FHD machen, statt 720? :ubeer:

Bei manchen Tests könnte man die sogar in 1440p machen.
Manche Spiele laufen allerdings auch bei 1080p zu stark ins GPU Limit.:redface:

G3cko
2025-01-23, 17:47:31
Und los!

Nvidia Geforce RTX 5090 im Test des Jahres: Black-almost-well? (https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/)

Achtung, 52.000-Zeichen-Warnung.

mfG
Raff

Habt ihr Mal unter 8k getest ob es ein CPU Limit unter 4K gibt?

Raff
2025-01-23, 17:47:53
Hej Leute, bedeutet, wr können ab der 4090 Gaming-CPU-Tests endlich in FHD machen, statt 720? :ubeer:

Das ist nach wie vor die falsche Denkweise (https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/). :biggrin:

Habt ihr Mal unter 8k getest ob es ein CPU Limit unter 4K gibt?

Jo, aber nur Stichproben. AC Mirage, Hogwarts, F1 24, Forza Horizon, Forbidden West, Stalker 2, Ratchet & Clank sind allesamt partiell CPU-limitiert in UHD.

MfG
Raff

gedi
2025-01-23, 17:47:54
Ist sie nicht. Laut Signatur nutzt du einen LG OLED 55CX9LA, also UHD -> plus 28 Prozent.

MfG
Raff

Ich habe eine Inno3d 4090 Ultra, dann sind es auf PCGH halt eben 22%. Viel zu wenig, um auch nur ansatzweise an ein Upgrade denken zu müssen.

00-Schneider
2025-01-23, 17:48:10
Dk3fECI-fmw

Colin MacLaren
2025-01-23, 17:50:44
Ich kann den Hate über FG nicht nachvollziehen. Wahrscheinlich habt ihr dann einfach den falschen Monitor. Ich bin von 120Hz OLED auf Dual-Mode 240/480Hz umgestiegen. Mit dem alten Bildschirm hielt ich das auch für ein Gimmick. Das hat sich mit dem neuen Monitor geändert. Schnelle Shooter wie Marvel Rivals oder CoD BO6 spiele ich im Multiplayer(!) mit (aktuell FSR3) Framegeneration on. Die Latenz steigt dabei mit Reflex oder Antilag laut NVIDIA-Frameview um 4-5ms (das merke ich nicht), die FPS gehen aber auf 300-400fps hoch - und das ist ein deutlicher Gewinn an Bewegtbildschärfe, der ein ganz anderes Spielgefühl ermöglicht.

Wenn man jetzt Singleplayer-Spiele auf 4K 240 hochballern kann, ist das für gerade einmal 5ms Latenz imho ein echter Gewinn. Die Frage ist a) wie viele Titel werden MFG überhaupt unterstützen und b) kann man dort wenigstens 60, besser 90fps Base-Framerate halten, damit die Latenz entsprechend unten bleibt.

Wirklich schlauer bei meiner Kaufentscheidung bin ich nicht. Ich habe eine 7900XTX für 850 EUR, die kann ich bis 31. Januar an Amazon zurückgeben. Die 5080 sollte rausfallen, die hat einfach zu wenig Grundleistung und dürfe kaum über die 4080 Super hinauskommen. Die 5090 ist spannend, aber säuft wie ein Loch und es wäre ein riesiger Zufall, falls ich eine abbekommen sollte. Eine 4090 liegt gebraucht aktuell bei ~1.500 EUR. Vielleicht ist die der beste Kompromiss.

Froh bin ich auf jeden Fall, dass ich mir ein PCI-E 5.0 Brett geholt habe. Alle rieten mir dazu, die 50 EUR zu sparen und B650 würde reichen. Und jetzt stehen da direkt mal 5% Mehrleistung in Cyberpunk im Raum.

Prinzenrolle
2025-01-23, 17:53:07
https://youtu.be/Dk3fECI-fmw

31% schneller im Schnitt. Na geht doch.
Dann wird das Ding gekauft. Hoffensichtlich sind viele die von 50% Uplift geträumt haben so enttäuscht, dass sie nix bestellen.

Sardaukar.nsn
2025-01-23, 17:54:34
CB hat auch im Gehäuse getestet und dem 9800x3D ist die Standard Lüftung nicht gut bekommen > 95°C statt 73°C mit einer 4090 FE.

Die RTX 5090 verlangt nach mehr

Mit einer voll ausgelasteten GeForce RTX 4090 Founders Edition, die beim Spielen auf bis zu 439 Watt kommt, erhitzt sich der Ryzen 7 9800X3D im Testsystem nach einer halben Stunde auf gerade einmal 73 Grad Celsius, womit dieser noch weit von der kritischen 95-Grad-Marke entfernt bleibt. Selbst an warmen Sommertagen gibt es in dem Fall noch massiv Spielraum für höhere CPU-Temperaturen.

Mit der GeForce RTX 5090 gelingt das im selben Setup nicht mehr. Innerhalb der halbstündigen Lastphase erreicht der Ryzen 7 9800X3D die 95 Grad innerhalb von rund 20 Minuten, für die 90 Grad werden gar nur 10 Minuten benötigt. Das ist ein klares Zeichen, dass das Gehäuse die erhitzte Abluft der GeForce RTX 5090 FE nicht schnell genug aus dem Gehäuse transportieren kann. Stattdessen erwärmt die Grafikkarte (und nicht die CPU) den CPU-Kühler kontinuierlich immer weiter und weiter.

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-12

Badesalz
2025-01-23, 17:57:06
31% schneller im Schnitt. Na geht doch.Ist das der Schnitt von AVG oder von 1%min?

CB hat auch im Gehäuse getestet DANKE :up: Endlich mal RL Infos zum Thema.

Colin MacLaren
2025-01-23, 18:06:31
CB hat auch im Gehäuse getestet und dem 9800x3D ist die Standard Lüftung nicht gut bekommen > 95°C statt 73°C mit einer 4090 FE.


https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-12

Und in der Kaufberatung haben mir alle gesagt, ich solle die AIO rausschmeißen und dafür einen Towerkühler holen :freak:

Palpatin
2025-01-23, 18:06:40
Die für mich viel spannendere Frage ist ja, was das für die kleinen Karten heißt. Wenn selbst die 5090, die einzige mit breiterem SI und deutlich mehr Einheiten kaum schneller ist, werden die kleineren Karten bestenfalls ein Sidegrade.
Es werden wohl nicht viele den von NV propagierten move von der 4090 zur "schnelleren" 5070 machen. ;D

BlacKi
2025-01-23, 18:07:43
Die FE ist lächerliche 18% schneller als meine Karte @stock. Sorry, für mich ist die 5090 ein Fail!blackwell scheint generell gefailt zu sein. die 5090 ist wenigstens ein bisschen schneller als alle anderen karten und mit mehr power würde das glaube ich nochmal besser skalieren. aber beim rest des blackwell portfolios erwarte ich preissenkungen, sonst kauf die keiner.


sehr enttäuschend. bis auf den vram ist die blackwell generation noch schlechter als es turing schon war.

fondness
2025-01-23, 18:08:59
Es werden wohl nicht viele den von NV propagierten move von der 4090 zur "schnelleren" 5070 machen. ;D

Dass das von der Presse völlig unkommentiert bleibt ist ohnehin ein Skandal. Ich hoffe nicht, dass viele drauf rein fallen.

Badesalz
2025-01-23, 18:09:05
Und in der Kaufberatung haben mir alle gesagt, ich solle die AIO rausschmeißen und dafür einen Towerkühler holen :freak:Das Prob ist jetzt, daß da um den Sockel rum auch noch ein ganzer Haufen Bauteile ist welche die FE ebenfals mitbeheizt. Und in all den Kiddiboards haben die Speicherbänke die falsche Ausrichtung. Die Schirmen diese Teile von den vo/hi Lüftern ab.

Teufel vs. Beelzebub? :usweet:

Colin MacLaren
2025-01-23, 18:14:58
Das Prob ist jetzt, daß da um den Sockel rum auch noch ein ganzer Haufen Bauteile ist welche die FE ebenfals mitbeheizt. Und in all den Kiddiboards haben die Speicherbänke die falsche Ausrichtung. Die Schirmen diese Teile von den vo/hi Lüftern ab.

Teufel vs. Beelzebub? :usweet:

Die AIO ist in der Seite installiert und bläst auch auf die Bauteile. Also von vorn und der Seite rein und oben und hinten Absaugung. Ich hoffe, das genügt. Kriege aber eh keine FE ab :freak:

Platos
2025-01-23, 18:20:53
Meine Güte, die Karte ist aogar noch schlechter als erwartet (schlechter als erhofft natürlich sowieso).

So eine extrem schlechte Niedriglasteffizienz hätte ich nicht erwartet. Sowohl komplett idle als auch Youtube-Videos, dual-monitor etc. haben völlig absurde Stromverbräuche.

Perfomance ist mit +22% in Raster min FPS (Computerbase) auch unterwältigend. Bei RT sogar noch weniger. Bei RT-lastigen Spielen auch nicht viel mehr.

Man kriegt hier eine RTX 4090 auf steroide mit deutlich gestiegenem Steomverbrauch unter Niedriglast und das für einen deutlich gestiegenen Preis.

Was für ein Müll :D

DLSS & Framegen Verbesserungen (qualitativ und quantitativ) muss ich mir noch reinziehen. Aber Hardwareseitig ist die Karte ja mal richtig schlecht.

Exxtreme
2025-01-23, 18:22:21
Und in der Kaufberatung haben mir alle gesagt, ich solle die AIO rausschmeißen und dafür einen Towerkühler holen :freak:

Die FE ist auch ziemlich speziell weil sie heisse Luft nicht aus dem Gehäuse befördert. Warte mal die Karten anderer Hersteller ab. :freak:

Sardaukar.nsn
2025-01-23, 18:43:46
Die FE ist auch ziemlich speziell weil sie heisse Luft nicht aus dem Gehäuse befördert. Warte mal die Karten anderer Hersteller ab. :freak:

Raff hat ja bestätigt das sie aktuell auch eine MSI Suprim testen. Review kommt dann morgen. Aber hier geht auch nicht wirklich Luft über die Slotblende weg.

https://tpucdn.com/gpu-specs/images/b/11972-i-o.jpg

dargo
2025-01-23, 18:47:36
@dargo, hau den einfach :usad:
Lass die doch träumen, Voodoo und so. ;)

E39Driver
2025-01-23, 18:51:23
Gerade den CB Test überflogen. Die Karte wirkt wie ein richtiger Fail. Verbrauch 25% Hoch, Preis 25% hoch und Leistung 25% hoch, kein wirklicher Fortschritt.

dargo
2025-01-23, 18:52:47
Und in der Kaufberatung haben mir alle gesagt, ich solle die AIO rausschmeißen und dafür einen Towerkühler holen :freak:
Der Towerkühler reicht auch vollkommen aus ohne Heizöfen @Grafikkarte. ;)

Emil_i_Lönneberga
2025-01-23, 18:56:45
Lüfter ausblasend in den Deckel, Ablasshahn am niedrigsten Punkt. (https://www.caseking.de/cart?items=%5B%7B%22id%22%3A%22WAEK-2726%22%7D%2C%7B%22id%22%3A%22WARA-383%22%7D%2C%7B%22id%22%3A%22LUAR-118%22%2C%22qty%22%3A3%7D%2C%7B%22id%22%3A%22WAAU-470%22%7D%2C%7B%22id%22%3A%22WAZU-962%22%7D%2C%7B%22id%22%3A%22WABW-142%22%2C%22qty%22%3A7%7D%2C%7B%22id%22%3A%22WABW-215%22%7D%2C%7B%22id%22%3A%22WABW-198%22%2C%22qty%22%3A2%7D%2C%7B%22id%22%3A%22WASC-368%22%7D%2C%7B%22id%22%3A%22WABW-218%22%7D%2C%7B%22id%22%3A%22WAZU-246%22%7D%5D)

Sardaukar.nsn
2025-01-23, 19:02:42
Lüfter ausblasend in den Deckel, Ablasshahn am niedrigsten Punkt. (https://www.caseking.de/cart?items=%5B%7B%22id%22%3A%22WAEK-2726%22%7D%2C%7B%22id%22%3A%22WARA-383%22%7D%2C%7B%22id%22%3A%22LUAR-118%22%2C%22qty%22%3A3%7D%2C%7B%22id%22%3A%22WAAU-470%22%7D%2C%7B%22id%22%3A%22WAZU-962%22%7D%2C%7B%22id%22%3A%22WABW-142%22%2C%22qty%22%3A7%7D%2C%7B%22id%22%3A%22WABW-215%22%7D%2C%7B%22id%22%3A%22WABW-198%22%2C%22qty%22%3A2%7D%2C%7B%22id%22%3A%22WASC-368%22%7D%2C%7B%22id%22%3A%22WABW-218%22%7D%2C%7B%22id%22%3A%22WAZU-246%22%7D%5D)

Das ist der Weg. Freue mich schon sehr auf den nächsten Wakü-Umbau. Mich ärgert nur etwas das man den Hotspot nicht mehr auslesen kann. Dann werde ich wohl diesmal doch auf PTM7950 bzw. Phasenwechsel Pad setzen.

DeadMeat
2025-01-23, 19:09:32
Es gibt doch Gehäuse bei denen das Motherboard gedreht ist und die GPU oben ist, wobei dann pustet sie ja nach unten. :freak:

Iscaran
2025-01-23, 19:10:19
Zum Teil? Quasi immer. Sogar in UHD. Sieht man u.

Kein Wunder mit DLSS rendert man ja in FHD - für FHD sieht man fast überall "CPU"-Limits.

Wenn das CPU-Limits sind, dann testet doch mal mit "nativ" ohne DLSS gedöns...dann sollte man ja ein scaling zu 4k hin sehen.

Wenn nicht scheint es eher was anderes zu sein- Weil 30 FPS und CPU-limit kann irgendwie auch nicht sein.

Ansonsten - eher enttäuschend.

20% Mehrleistung bei 30% Mehrverbrauch...yay!
Vom Preis gar nicht zu reden...

Gaming ist uninteressant geworden.

gedi
2025-01-23, 19:28:00
Praktisch 0 IPC-Uplift? Horrible!

BlacKi
2025-01-23, 19:38:12
Praktisch 0 IPC-Uplift? Horrible!
wenn ich die gemittelte rasterleistung von + 28% vs RT leistung von +26% bei pcgh vergleiche, dann könnte man zu der meinung kommen, blackwell hätte rückschritte bei RT gemacht. vermutlich ist der testparcour anders, aber der eindruck bleibt.

Robbson
2025-01-23, 19:38:34
Abgesehen von dem fetten Stromverbrauch in idle, Dual Monitor und Video Playback, ist der Kühler unter Last viel zu laut, kein Vergleich zur 4090 FE. Jetzt bin ich schwer am hoffen, dass der gleiche Kühler wenigstens bei der 5080 nicht unterdimensioniert ist.

spotz
2025-01-23, 19:43:41
Aus Igors Artikel:

"Die Bildqualität, die durch die Transformer-Modelle in DLSS 4 erreicht wird, ist ein weiterer wichtiger Aspekt. Wo früher eine klare Abwägung zwischen Leistung und Qualität getroffen werden musste, vereint DLSS 4 beides auf beeindruckende Weise. Besonders hervorzuheben ist, dass die neue Performance-Einstellung nahezu die gleiche visuelle Qualität bietet wie vorherige Quality-Modi. Dies wird durch fortschrittliche KI-gestützte Modelle erreicht, die sowohl lokale Details als auch globale Zusammenhänge erfassen und so eine nahezu native Bilddarstellung erzeugen. Die flüssige und detailreiche Darstellung bei deutlich höheren Frameraten zeigt, dass DLSS 4 ein essenzieller Bestandteil der RTX 5090 ist, der ihre Leistungsfähigkeit weiter unterstreicht. Hierzu wird es noch einen ausführlichen Praxistest von unserem Monitor-Profi Fritz Hunter geben."

Darf man davon ausgehen, dass der obere Teil des Statements auch für die 4090 gilt? Es betrifft ja nicht MFG.

Wenn Transformer DLSS 4 Performance wirklich so gut ist, dann haucht das auch den 8GB Karten wieder neues Leben ein.

Palpatin
2025-01-23, 19:48:27
Wenn Transformer DLSS 4 Performance wirklich so gut ist, dann haucht das auch den 8GB Karten wieder neues Leben ein.
Nicht wirklich, DLSS hilft zwar etwas gegen den Speicherhunger aber bei weitem nicht soviel wie Reduzierung der Auflösung.
Die 4070ti 12gb läuft in 4k mit DLSS Performance (1920x1080) natürlich durch die Bank schlechter als in 1080 nativ was logisch ist, sie läuft aber bei VRAM lastigen Spielen in 4k mit DLSS Performance z.T. auch schlechter als in 1440p nativ.

spotz
2025-01-23, 19:55:07
In Performance werden doch nur 25% der Zielauflösung gerendert. Da sollten dann doch deutlich weniger Daten anfallen.

M4xw0lf
2025-01-23, 19:55:19
Was technischen Fortschritt angeht doch sehr ernüchternd - Effizienz eher schlechter als beim Vorgänger, NOCH viel höhere Leistungsaufnahme als bisher (und sogar im idle und Niedriglastbereich schlecht), nicht mal bei RT bessere Effizienz oder neue Leistungsregionen.

Lawmachine79
2025-01-23, 20:00:12
Praktisch 0 IPC-Uplift? Horrible!
Ja, das ist schon ein kleiner Wehrmachtstropfen.

Exxtreme
2025-01-23, 20:03:50
In Performance werden doch nur 25% der Zielauflösung gerendert. Da sollten dann doch deutlich weniger Daten anfallen.

Nein. Es werden nämlich auch Dinge unabhängig von der Auflösung geladen, zum Beispiel Texturen. Und Texturen sind der mit Abstand größte VRAM-Fresser.

Langlay
2025-01-23, 20:08:19
Raff hat ja bestätigt das sie aktuell auch eine MSI Suprim testen. Review kommt dann morgen. Aber hier geht auch nicht wirklich Luft über die Slotblende weg.

https://tpucdn.com/gpu-specs/images/b/11972-i-o.jpg


War auch schon bei den 4090 so, das bei den ganzen Customkarten die Finnen parallel zur Slotblende nur die 4090 FE hat die Finnen senkrecht zur Slotblende und pustet auch wirklich was aus.

Daher in meinem SFF Case hab ich die 4090 FE. Aber die 5090 löst bei mir auch kein Habenwollen aus.

https://i.ibb.co/ncHs7wB/Slot-Panel-1320x834.jpg (https://ibb.co/7WwJnSQ)

Neurosphere
2025-01-23, 20:10:52
Ja, das ist schon ein kleiner Wehrmachtstropfen.

Ein was?:freak:

GraphikkartusLongus
2025-01-23, 20:12:37
Gibt's eigentlich schon genauere Angaben inwiefern das "enhanced DLSS" dem Speicherhunger entgegenwirkt?!? Wurde ja zu Ada-Release angekündigt, dass wir uns um den VRAM künftig keine Sorgen machen sollen, aber langen 12GB tatsächlich noch für 1440p+ in einem Jahr ?!?

ChaosTM
2025-01-23, 20:13:35
Die Blackwell FE will ich immer noch haben weil einfach geil.

Würde es viel Sinn machen? momentan natürlich nicht, aber vielleicht leg ich mir ja doch schon früher einen 4k/240er Monitor zu. Dann wäre das Ding quasi unverzichtbar.

Bin schlimm hin und hergerissen..

The_Invisible
2025-01-23, 20:17:07
Was technischen Fortschritt angeht doch sehr ernüchternd - Effizienz eher schlechter als beim Vorgänger, NOCH viel höhere Leistungsaufnahme als bisher (und sogar im idle und Niedriglastbereich schlecht), nicht mal bei RT bessere Effizienz oder neue Leistungsregionen.

Technisch ist das Ding mit neural textures/shaders, hardware mfg und so schon interessant. Wie schon gesagt ein Turing Moment.

Palpatin
2025-01-23, 20:17:30
Gibt's eigentlich schon genauere Angaben inwiefern das "enhanced DLSS" dem Speicherhunger entgegenwirkt?!? Wurde ja zu Ada-Release angekündigt, dass wir uns um den VRAM künftig keine Sorgen machen sollen, aber langen 12GB tatsächlich noch für 1440p+ in einem Jahr ?!?
Wenn NV in Ada eine Zeitmaschine integriert hat mit der man in den Januar 2022 zurück reisen kann, dann reichen die 12 GB noch ca. ein Jahr für 1440p. ;D

ChaosTM
2025-01-23, 20:22:36
AI mit Zeitmaschinenfunktion kommt erst `27 mit Rubin

Sardaukar.nsn
2025-01-23, 20:51:37
Praktisch 0 IPC-Uplift? Horrible!

Die 5090 ist ihrer Zeit voraus. Auch ein 9800x3D scheint wohl noch zu langsam zu sein. High-End DX12 Raster-Rohleistung in 4K ohne CPU Bottleneck +55%.

crux2005
2025-01-23, 20:58:49
Wir sollten uns auch daran gewöhnen, dass es mehr Performance Zuwachs geben wird, als bisher kolportiert. Damit geht auch mehr Perf/W einher als bisher angenommen. Wartet einfach mal auf die Benchmarks. Raff wird wahrscheinlich sich eine 5090 einverleiben. ;-)
Edit: Apples to apples kommen wir eher bei 60-65% mehr Performance heraus.

Haben die Reviewer keine Apfel zu Apfel Vergleiche gemacht oder wieso finde ich keine 60-65%?

Die 5090 ist ihrer Zeit voraus. Auch ein 9800x3D scheint wohl noch zu langsam zu sein. High-End DX12 Raster-Rohleistung in 4K ohne CPU Bottleneck +55%.

55% in einem 3DMark. Spielst du 3DMark? ;D

Emil_i_Lönneberga
2025-01-23, 21:00:38
Das ist der Weg. Freue mich schon sehr auf den nächsten Wakü-Umbau. Mich ärgert nur etwas das man den Hotspot nicht mehr auslesen kann. Dann werde ich wohl diesmal doch auf PTM7950 bzw. Phasenwechsel Pad setzen.

Schade, dass es keine King Mod 5090 geben wird. Dann hätte Raff sie mit in's 5090 PCGH Roundup aufgenommen. Wie damals bei der 1080Ti. Wäre wieder eine schöne Wakü Promo geworden.

https://m.youtube.com/watch?v=sZNBkgTY4eQ&pp=ygUUUGNnaCAxMDgwdGkga2luZyBtb2Q%3D

Gut möglich, dass HWiNFO beim 🔥 Hotspot noch nachliefert.

Raff
2025-01-23, 21:00:48
Hier übrigens das Test-Video in Spielfilmlänge:

KeFO95ykQ-Y

MfG
Raff

Sardaukar.nsn
2025-01-23, 21:11:30
55% in einem 3DMark. Spielst du 3DMark? ;D

Ohne CPU Bottleneck kommt die Leistung scheinbar auch an. Laut PCGH:

Cities Skylines 2: +50%
CP2077 +48%
Warhammer 40k SM2: +36%
Witcher 3 Next-Gen: +35%

ChaosTM
2025-01-23, 21:15:35
Hier übrigens das Test-Video in Spielfilmlänge:

https://youtu.be/KeFO95ykQ-Y

MfG
Raff


Grad gesehen. Gut das ich die Spulenfieperei nicht mehr höre.
Der Tinnitus ist lauter :)

Linmoum
2025-01-23, 21:28:39
Hier übrigens das Test-Video in Spielfilmlänge:

https://youtu.be/KeFO95ykQ-Y

MfG
Raff
Mit Spielfilmlänge anfixen und dann nur eine Stunde, das ist aber böse. :D

Nachdem ich mittlerweile aber etliche Reviews gelesen habe, vor allem an dich (+ auch Phil für den DLSS4/MFG-Part) ein großes Dankeschön. Sowohl für den ganzen Aufwand, als auch die daraus entstandenen Resultate. Chapeau und genau das, was man bei GPU-Nerd-Reviews sehen will. :up: Auch der separate PT-Index, I like. Wobei man ja fast schon zwangsläufig einen solchen braucht, um die CPU aus der Gleichung zu nehmen und (nahezu) unverfälschte Resultate zu haben.

Habt ihr beizeiten (ja, ich weiß ;)) ggf. auch noch geplant zu schauen, wie gut (oder schlecht) MFG bei "älteren" Spielen funkioniert, wenn man das über die NV-App aktiviert? *hust* Witcher 3 *hust*

Je mehr Eindrücke ich zu MFG lese, desto mehr will ich das Spielzeug haben. Selbst "nur" ~+30% dürften bei einer 5090 wahrscheinlich in der Regel reichen, damit man dann jetzt endlich auch bei entsprechend ausreichend hohen Basis-fps landet. Und dann sieht das fast schon nach absolutem Killer-Feature aus. Ok, vielleicht nicht bei competetiven MP-Shootern, aber da braucht man auch nicht die volle Dröhnung RT/PT. ;D

crux2005
2025-01-23, 21:37:32
Ohne CPU Bottleneck kommt die Leistung scheinbar auch an. Laut PCGH:

Cities Skylines 2: +50%
CP2077 +48%
Warhammer 40k SM2: +36%
Witcher 3 Next-Gen: +35%

Also 2 Spiele wo fast +50% ankommen (weil Bandbreitenlimit) und in den 2 anderen 35%. Alles nicht der Durchschnitt.
Zwischen 35% und 55% ist ein Gen. Unterschied. Und zwischen 55% und 60-65% noch eine weitere Gen. Also quasi die 7090. :D

Laut CB.de sehe ich in 4K/Raster +24% ggü. 4090. Keine Ahnung wieso Raster/RT/PT getrennt sein müssen. Voll unübersichtlich.

The_Invisible
2025-01-23, 21:37:50
Ohne CPU Bottleneck kommt die Leistung scheinbar auch an. Laut PCGH:

Cities Skylines 2: +50%
CP2077 +48%
Warhammer 40k SM2: +36%
Witcher 3 Next-Gen: +35%

Hehe, Cities Skylines 2 ist so mit der 5090 ja fast mal flüssig :freak:

Sind eigentlich Customs mit >600W angekündigt? Wäre interessant was man mit einer potenten Wakü noch so rausholen kann.

MiamiNice
2025-01-23, 21:40:04
Bisher leider nur Karten mit einer Nabelschnur.

Nightspider
2025-01-23, 21:42:19
Gibts irgendwo Benchmarks in 5120*2160 ?

Wenn es da mehr Richtung +40% gehen würde, wäre die Karte schon interessanter.

Insgesamt ein extreme enttäuschende Vorstellung.

Multi Monitor Stromverbrauch anywhere?

dildo4u
2025-01-23, 21:43:35
Interessant sie skaliert dort gut wo die XTX die 4080 dominiert.


https://i.ibb.co/880fPrK/Screenshot-2025-01-23-21-40-25-883-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/SvPMVts)

https://i.ibb.co/255vjXq/Screenshot-2025-01-23-20-21-49-346-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/Trr4Hzc)


https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/27.html

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65361-die-geforce-rtx-5090-founders-edition-im-test.html?start=8

dargo
2025-01-23, 21:44:29
Ohne CPU Bottleneck kommt die Leistung scheinbar auch an. Laut PCGH:

Cities Skylines 2: +50%
CP2077 +48%
Warhammer 40k SM2: +36%
Witcher 3 Next-Gen: +35%
Aha... also braucht niemand eine 5090 für die nächsten 2-4 Jahre? Erst dann erwarte ich (mit Glück) spürbar schnellere CPUs.

Raff
2025-01-23, 21:46:52
Gibts irgendwo Benchmarks in 5120*2160 ?

Wenn es da mehr Richtung +40% gehen würde, wäre die Karte schon interessanter.

Kann ich dir mangels vollständiger Testreihe nicht beweisen, aber in der Auflösung sind's im Durchschnitt sicherlich mehr als 30 Prozent. +40 sehe ich über eine breite Palette an Spielen (also abseits von fein selektierten Kirschen) aber nicht.

Multi Monitor Stromverbrauch anywhere?

Versoffen: https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/6/#a2

Mindestens 37 Watt, mit Pech über 40.

Laut CB.de sehe ich in 4K/Raster +24% ggü. 4090. Keine Ahnung wieso Raster/RT/PT getrennt sein müssen. Voll unübersichtlich.

Im Gegenteil, es ist maximal übersichtlich. Dich interessieren RT und PT nicht? Die entsprechenden Artikelseiten ignorieren. Mischmasch ist vieles, nur nicht übersichtlich. :tongue:

MfG
Raff

Nightspider
2025-01-23, 21:53:39
Kann ich dir mangels vollständiger Testreihe nicht beweisen, aber in der Auflösung sind's im Durchschnitt sicherlich mehr als 30 Prozent. +40 sehe ich über eine breite Palette an Spielen (also abseits von fein selektierten Kirschen) aber nicht.

Mkay.


Versoffen: https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/6/#a2

Wie siehts mit hohen Hz Zahlen aus? Hast du Lust das auch nochmal zu testen?

Habe 175 Hz und 144 Hz Monitore und der primäre wird wohl dieses Jahr durch 240Hz ausgetauscht.

Si|encer
2025-01-23, 22:01:00
Was Stromverbrauch angeht haben wir hier wohl die neue 3090TI :D

Lawmachine79
2025-01-23, 22:03:43
Was Stromverbrauch angeht haben wir hier wohl die neue 3090TI :D
Wer viel gibt, kann viel verlangen!

Daredevil
2025-01-23, 22:15:25
Garnicht mal so gut, da bin ich ja mal richtig gespannt, wie man ne Asus für 3000 tacken verkaufen will. :D
Sehr spannend ist, dass die Klasse der 4090 hiermit quasi verschwunden ist, wenn die 5090 wirklich über 2500€ kosten wird und die FE vergriffen sein wird, lebt hier eine 4090 für 1800-2000€ einfach gut weiter, ziemlich gute Preisstabilität.

Von jeglichen Effizienzsprüngen nach hinten bin ich ziemlich enttäuscht. Verbrauch in Teillast ist scheiße, Idle ist scheiße, YT Idle ist scheiße.
Nvidia gibt sich in dem Bereich dieses mal überhaupt keine Mühe, das ist bitter traurig. Der Verbrauch allgemein ist erwartbar pervers, wenn man dies aber besser Begründen kann und nicht nur die ähnlich gestiegene Raw Leistung der Grund ist, wäre das doch auch nett gewesen. Überrasch bin ich darüber, dass der Kühler offenbar doch zaubern kann, das ist irgendwie das eigentliche Highlight an dem ganzen Klumpen, obwohl es natürlich völlig irrelevant ist, weil Gamer auch einfach 3-4 Slots mitnehmen.
Niemand hat nach Dual Slot gefragt und die Ingenieure geeken sich da was zurecht. Dafür verdient es auch echt Respekt, aber da hat trotzdem niemand nach gefragt.

Tegenarian
2025-01-23, 22:21:14
Versoffen: https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/6/#a2

Mindestens 37 Watt, mit Pech über 40.


Hast Du schon eine Idee ob das ein Architektur-Problem ist? Weil dann kann ich auch gleich eine 4070 Ti Super kaufen.

Exxtreme
2025-01-23, 22:26:25
Hast Du schon eine Idee ob das ein Architektur-Problem ist? Weil dann kann ich auch gleich eine 4070 Ti Super kaufen.

Kann sein, dass das ein FE-Problem oder ein Treiberproblem ist.

TheCounter
2025-01-23, 22:45:39
Ich überspringe diese Gen dann auch. 1000€ für ein paar FPS mehr draufzulegen ist auch mir zu heftig.

Mir war wichtig, dass DLSS4 auch für meine 4090 kommt und das ist ja der Fall.

x-force
2025-01-23, 22:55:02
Kann sein, dass das ein FE-Problem oder ein Treiberproblem ist.

32gb an 512bit


hat jemand schon den einfluß von pcie 5 gemessen?

Exxtreme
2025-01-23, 23:07:38
32gb an 512bit


hat jemand schon den einfluß von pcie 5 gemessen?

Jau:
https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-pci-express-scaling/

Bei Black Myth:Wukong gibt es den heftigsten Effekt in FHD.

ChaosTM
2025-01-23, 23:23:48
5TJk_P2A0Iw


Er testet die Karte mit PCIe 3 und 4 Risern.
Ab ca. Minute 11:30



Kurzfazit.: sehr überschaubarer Einfluss @ 1440 und UHD.


In 1080p mit dieser Karte zu spielen ist .. naja.. :)

Sardaukar.nsn
2025-01-24, 00:05:03
@ChaosTM: Danke für das Video. Fazit: Die Karte ist ihrer Zeit voraus und oft viel zu schnell, selbst für einen 9800x3D.

crux2005
2025-01-24, 00:19:19
https://youtu.be/5TJk_P2A0Iw


Er testet die Karte mit PCIe 3 und 4 Risern.
Ab ca. Minute 11:30



Kurzfazit.: sehr überschaubarer Einfluss @ 1440 und UHD.


In 1080p mit dieser Karte zu spielen ist .. naja.. :)

Bringt alles nix, NV muss selber desktop CPUs raus bringen.

PHuV
2025-01-24, 01:02:25
Ich behaupte mal, daß die 5090 primär eher für den semiprofessionellen Bereich gedacht ist. Sie kann mehrfach 4:2:2 codieren, sie ist gut für ML. Das sie für enthusiastische Spieler nebenbei auch noch "funktionieren" kann, ist nur ein "Nebeneffekt". Ich halte sie eher für eine gedachte Titan, die nun im Namen eines runtergerutscht ist. Eine 5070 oder 5080 ist eher für Spieler gedacht.

Cami
2025-01-24, 01:05:33
Das werden reine MFG-Maschinen.


Finde ich ehrlich gesagt spannend und nichts dagegen. Wie die Frames erzeugt werden, ist mir relativ egal, wenn die Bildqualität stimmt, und was ich so gehört habe bisher, scheint DLSS 4 mit MFG ein geniales Bild abzuliefern. Das klingt fantastisch. Wenn ich nicht zufrieden wäre mit 60 fps, würde ich wohl auch eine kaufen. :D

crux2005
2025-01-24, 01:20:27
5YJNFREQHiw

Die 5090 bringt nicht mal die 1/2 (+27%) der 4090 vs. 3090 Leistung (+74%). ;D
Von der Effizienz ganz zu schweigen. z.B. +32% Leistung für +42% mehr Verbrauch. Was eine Sinnlose Gen.

Sardaukar.nsn
2025-01-24, 01:37:23
@crux2005: Was Youtuber Optimum da im Thumbnail in die Kamera hält ist rohe Gewalt. Aber elegant verpackt. Der Zenit wird wohl heute mit der 3kg Astral erreicht.

crux2005
2025-01-24, 01:43:08
@crux2005: Was Youtuber Optimum da im Thumbnail in die Kamera hält ist rohe Gewalt. Aber elegant verpackt. Der Zenit wird wohl heute mit der 3kg Astral erreicht.

Willst du auf NV Marketing machen oder was soll das? :confused:

Sardaukar.nsn
2025-01-24, 01:49:52
Mir geht es um vergleichbare Leistung. Ganz ohne DLSS, Raytracing usw. einfach nur um Fortschritt und 3D Leistung.

https://i.imgur.com/2Qe3QO0.jpeg

Und jetzt kommst du...

vad4r
2025-01-24, 01:53:12
Ich krieg da kein Jucken in der Hose und bleib bei meiner stromsparenden 4090.

Sardaukar.nsn
2025-01-24, 02:02:49
Ich krieg da kein Jucken in der Hose und bleib bei meiner stromsparenden 4090.

Golem.de stellt das Argument in Frage... https://www.golem.de/news/nvidia-geforce-rtx-5090-im-test-eine-neue-aera-der-3d-grafik-beginnt-2501-192667-3.html

https://scr3.golem.de/screenshots/2501/rtx_5090/thumb620/02-3dmark-speed-way-chart.png

MiamiNice
2025-01-24, 02:22:44
CB hat es, die anderen nicht.
https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-5090-fe-richtig-kuehlen.91104/
Finde ich gut das die CB ihrer Pflicht ggü. den Lesern nachkommt und so eindringlich darauf hinweist.

PHuV
2025-01-24, 02:52:52
Ich teile die Meinung von Golem:
https://www.golem.de/news/nvidia-geforce-rtx-5090-im-test-eine-neue-aera-der-3d-grafik-beginnt-2501-192667-6.html
Mehr als 2.330 Euro machen die RTX 5090 zu einer Grafikkarte, die sich ausschließlich an professionelle Nutzer und Enthusiasten richtet, bei denen der Preis ohnehin Nebensache ist. Uns erinnert sie an die Geforce RTX Titan, die laut Nvidia zu den Workstation-Grafikkarten zählt, real aber eher in den Gaming-PCs der wohlhabenden Kundschaft zu finden war.

Slipknot79
2025-01-24, 03:35:59
Hab seit 15:00 Erektionsprobleme. (y)
Bin hier auch raus, +-25% vs 4090, weit unter meiner Anforderung von +100%. Überrascht bin ich aber auch nicht weil selber node, Spekulationen waren soweit auch ok.
Preis und Effizienz gähn, Null Kriterium.

Wer, warum auch immer, auf die Kohlen 8et: Die 5090 wird wohl mit release der 6090 dick abgewertet. Die 5090 wird so gesehen eine relativ toire Karte (Einkauf minus Verkauf) wenn er sie zum release der 6090 verkaufen wird.

aufkrawall
2025-01-24, 03:57:40
Wer auf seine Kohlen achtet, verkauft vorher und nutzt eine Übergangskarte.
Ich frage mich jetzt nur, ob ich mit der 5070 auf AMD warten sollte für bessere Preise. Andererseits hat auf AMD Warten noch nie etwas gebracht.

Aber ja. Wenn man nicht wuschig auf MFG für 240Hz+ OLED ist, ist die 5090 mit 4090 eine nutzlose Karte.

Colin MacLaren
2025-01-24, 04:58:52
Die günstigen 4090 auf kleinanzeigen sind seit gestern Abend weg, zumindest bei mir in der Gegend. Die nächsten drei Monate ist Scalper-Zeit und vielleicht bekommt man dann Richtung Spätsommer die Karte mal zur MSRP. Auf was warten?

Slipknot79
2025-01-24, 05:20:51
Die 4090 hat auch eine gute Aufwertung bekommen mit DLSS4 und dem transfomers-Modell. (y) In CP2077 konnte ich in DLSS-P+FG ca. 90fps in meiner Testszene erreichen. Bisher waren es in DLSS-Q+FG ca. 60-62fps.

PHuV
2025-01-24, 05:21:21
Ich bin wohl der Einzige hier, der sich über die 5090 freut? Schön, bleibt mehr für mich, wenn alle hier abspringen. :smile: Aber ich hätte mit dem Verkauf der 4090 wirklich warten sollen, die wäre jetzt bestimmt besser weggegangen nach der Vorstellung.

dildo4u
2025-01-24, 05:44:45
Die Effizienz hängt massiv vom Titel ab das Video zeigt es auf.
Daher kann man es sich so drehen wie man will z.b Cyberpunk sehr gut E-Sports sehr schlecht.
Die Karte nimmt z.b 500 Watt in PUBG obwohl massiv CPU limitiert.

svk5wjogstQ

aufkrawall
2025-01-24, 05:54:54
Wo soll das bei +15% "massiv CPU-limitiert" sein? Gibt auch zig andere Spiele, wo im GPU-Limit nur so wenig bei rumkommt.
Wird mit in-game Limiter auf 200fps massiv weniger ziehen.

anorakker
2025-01-24, 06:01:21
Ich bin wohl der Einzige hier, der sich über die 5090 freut? Schön, bleibt mehr für mich, wenn alle hier abspringen. :smile: Aber ich hätte mit dem Verkauf der 4090 wirklich warten sollen, die wäre jetzt bestimmt besser weggegangen nach der Vorstellung.

Naja, was fängt man dieser Monsterkarte in der Praxis denn wirklich an, ausser das man sich an etwas längeren Balken und neuer Tech erfreut - wenn man es sich leisten kann. Die meisten Käufer dieser Karte werden tatsächlich schon längst ne 4090 gehabt haben und dort stellt sich wirklich die Frage ob das Upgrade Sinn macht.
Ich weiss, ist Hobby und so und macht meistens keinen Sinn, aber 2k€ sind dann doch nochmal ne andere Sparte..

dildo4u
2025-01-24, 06:03:08
Wo soll das bei +15% "massiv CPU-limitiert" sein? Gibt auch zig andere Spiele, wo im GPU-Limit nur so wenig bei rumkommt.
Wird mit in-game Limiter auf 200fps massiv weniger ziehen.
Würde ich erwarten PUBG nutzt immer noch UE4 oder wurde das schon umgestellt?

aufkrawall
2025-01-24, 06:07:08
Würde ich erwarten PUBG nutzt immer noch UE4 oder wurde das schon umgestellt?
Würde mich arg wundern, wenn das nicht komplett alter Gammel ist.
Der DX11 Performance-Modus in Fortnite läuft aber auch schneller als 12 mit niedrigsten Details. Scheint aggressiveres Culling zu machen etc.
Alter DX11-Shit kann natürlich potenziell auch im GPU-Limit die 5090 schlechter auslasten. Etwa, weil Treiber nicht ganz so gut optimiert sein könnte, oder die Hardware nicht mehr so gut darauf passt etc.

PHuV
2025-01-24, 06:55:20
Naja, was fängt man dieser Monsterkarte in der Praxis denn wirklich an, ausser das man sich an etwas längeren Balken und neuer Tech erfreut - wenn man es sich leisten kann.
1000 € Aufpreis zur neuen Karte, und die "alte" 4090 verkauft. Die 1000 € habe ich noch durch Verkauf alter HW erlöst, also komme ich dieses Mal quasi ohne neue Kosten oder Investment aus. Gut, ich könnte jetzt natürlich das Geld hier für was anderes verbraten.
Und Videoschnitt mit 4:2:2 und einigen De-/Entcodern ist schon fein. Dazu mehr Tensorcores für ML mit über 31% Steigerung + 8GB VRAM mehr mit Platz für ein 30B Modell. Paßt zumindest für mich.

Die meisten Käufer dieser Karte werden tatsächlich schon längst ne 4090 gehabt haben und dort stellt sich wirklich die Frage ob das Upgrade Sinn macht.
Ich weiss, ist Hobby und so und macht meistens keinen Sinn, aber 2k€ sind dann doch nochmal ne andere Sparte..
Na ja, man gibt im Leben für so viel Zeugs Geld aus... Und wenns Spaß macht, hat es seinen Sinn doch erfüllt, oder? :wink:

00-Schneider
2025-01-24, 07:16:28
Ich bin wohl der Einzige hier, der sich über die 5090 freut?


Naja, wirklich freuen tue ich mich nicht. Gekauft wird die Karte allerdings trotzdem, obwohl der Performancezuwachs arg mau ist.

Kriegsgeier
2025-01-24, 07:31:37
was passiert mit der Effizienz einer 5090 unter Wasser und dann wenn der Chip schön unter 45°C bleibt?
Dann noch etwas Undervolting oben drauf und hopala --> die Effizienskrone bei der RTX 5090?

Raff zu Undervolting:
https://youtu.be/KeFO95ykQ-Y?t=2937
Bei Metro Exodus (quasi Worst Case): ca. 100Watt weniger bei Absenkung der Spannung auf 0,89V. Das ist gehörig!
Was sagt ihr? Oder schlägt hier wieder mal der Powerlimit zu?

Ach ja, die RTX 5090 wird sehr wahrscheinlich sehr krass an Wert verlieren wenn die neue Generation Anfang 2027 rauskommt.
Denn die Effizienz wird bei der neuen Gen. sehr, sehr Krass ansteigen.

Sehr komische Karte ist diese 5090 :(

MadManniMan
2025-01-24, 07:32:31
In Performance werden doch nur 25% der Zielauflösung gerendert. Da sollten dann doch deutlich weniger Daten anfallen.

Bin hier mit einer 4070 manchmal in WQHD statt 4K mit Performance DLSS unterwegs, da letzteres einfach zu sehr reinhaut. Selbst Ultra Performance (720p intern) läuft kaum besser als Balanced WQHD (~850p).


Finde ich ehrlich gesagt spannend und nichts dagegen. Wie die Frames erzeugt werden, ist mir relativ egal, wenn die Bildqualität stimmt, und was ich so gehört habe bisher, scheint DLSS 4 mit MFG ein geniales Bild abzuliefern. Das klingt fantastisch. Wenn ich nicht zufrieden wäre mit 60 fps, würde ich wohl auch eine kaufen. :D

Hast du einen Monitor mit wirklichen hohen Hz?

Kriegsgeier
2025-01-24, 07:46:14
Im Endeffekt ist die 5090 für mich nur interessant, wenn diese durchgehend und großflächig gut undervolten lassen. Dann unter Wasser damit und gut ist.
Daher: warten auf die Erfahrungswerte aus dem Netz und dann eine schöne WaKü-Karte kaufen.

470 Watt kann ich wesentlich mehr "verantworten" als 570 Watt

dargo
2025-01-24, 07:53:37
Überrasch bin ich darüber, dass der Kühler offenbar doch zaubern kann...
Wat? :freak:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-10#abschnitt_temperaturen_unter_last

GPU-Edge = 79°C (Hotspot sicherlich dann bei der hohen Abwärme trotz großen Fläche =>100°C)
Vram = 96°C
Lüfter = 1.700RPM (bei großen Lüftern)
Lautstärke = 41,5dbA

Das sind übrigens Daten die im Winter ermittelt wurden. Im Hochsommer werden diese garantiert nicht besser werden.

aufkrawall
2025-01-24, 07:53:39
Bin hier mit einer 4070 manchmal in WQHD statt 4K mit Performance DLSS unterwegs, da letzteres einfach zu sehr reinhaut. Selbst Ultra Performance (720p intern) läuft kaum besser als Balanced WQHD (~850p).

Mit Heavy RT sieht das anders aus, in CP77 PT oder Portal RTX bringt UP vs. P jede Menge. Zumindest mit 4k-Target. In Portal auch beim VRAM.

rentex
2025-01-24, 07:55:19
Wat? :freak:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-10#abschnitt_temperaturen_unter_last

GPU-Edge = 79°C (Hotspot sicherlich dann bei der hohen Abwärme trotz großen Fläche =>100°C)
Vram = 96°C
Lüfter = 1.700RPM (bei großen Lüftern)
Lautstärke = 41,5dbA

Gibt keinen Hotspot bei der 5090

https://videocardz.com/pixel/nvidia-has-removed-hot-spot-sensor-data-from-geforce-rtx-50-gpus

dargo
2025-01-24, 07:59:28
Das macht es kein Stück besser. Oder glaubst du ernsthaft es gibt keine wärmeren Bereiche innerhalb des Dies außer GPU-Edge?

[MK2]Mythos
2025-01-24, 08:00:39
Gibt keinen Hotspot bei der 5090

https://videocardz.com/pixel/nvidia-has-removed-hot-spot-sensor-data-from-geforce-rtx-50-gpus
Natürlich gibt es einen Hotspot aka heißesten Punkt auf dem Chip. Nvidia möchte nur nicht mehr dass wir ihn sehen.

dargo
2025-01-24, 08:11:05
Hier übrigens das Test-Video in Spielfilmlänge:

https://youtu.be/KeFO95ykQ-Y

Nettes Video. (y)

Bei diesem Teil bin ich schon gespannt wie sich das entwickelt mit MFG in der Praxis bei hohen fps. ;)
https://youtu.be/KeFO95ykQ-Y?si=yKUldFfJ4z3XucQV&t=2421

Kriegsgeier
2025-01-24, 08:15:21
Also, die aktuelle 5090Fe ist leider die UNinteressanteste FE aller Zeiten für mich.

Die 4090Fe ist wohl die beste aller Fes.

ChaosTM
2025-01-24, 08:17:51
CB hat es, die anderen nicht.
https://www.computerbase.de/artikel/grafikkarten/geforce-rtx-5090-fe-richtig-kuehlen.91104/
Finde ich gut das die CB ihrer Pflicht ggü. den Lesern nachkommt und so eindringlich darauf hinweist.


Schlimm ist bei CB nur das Worst Case Scenario, wo die Gehäuselüfter auf 450upm gedrosselt sind.
Mit einem simplen erhöhen um 200upm ist das Problem aus der Welt.

add.: hätte die FE immer noch ganz gerne, nachdem ich mir die Games die ich letztes Jahr gespielt habe zusammengesucht hab und da liegt die Steigerung deutlich höher als die ~28-31% die bei den diversen Reviews so rumkommen. Das geht schon Richtung 40..
Brauche ich sie aber wirklich? Nope :)

dargo
2025-01-24, 08:22:09
Golem.de stellt das Argument in Frage... https://www.golem.de/news/nvidia-geforce-rtx-5090-im-test-eine-neue-aera-der-3d-grafik-beginnt-2501-192667-3.html

https://scr3.golem.de/screenshots/2501/rtx_5090/thumb620/02-3dmark-speed-way-chart.png
Lol... was für ein Schmarn wurde da getestet, dass die RX 7900XTX 16% vor der RTX 4090 liegt? DX9? ;D

dildo4u
2025-01-24, 08:27:48
Jup das selbe in Indina Jones.
Wundert mich das das nicht aufgefallen ist.

https://i.ibb.co/FH5srWb/Screenshot-2025-01-24-082539.png (https://ibb.co/qJN0SnM)

The_Invisible
2025-01-24, 08:34:44
Und dann noch mit Slogan "IT News für Profis" :freak:

Wurde eigentlich wo UV mit mehreren Stufen runter getestet? Mit 300W wird man da wohl nicht mehr auskommen ohne das die Karte "verhungert" oder? Der Sweetspot ~300W UV der 4090 wird da wohl eher 400-450W werden...

Kriegsgeier
2025-01-24, 08:38:49
mit 450W kann ich als 3090 Besitzer, die sich ca. 350W gönnt sehr gut leben.

Das wären ca. 2x Performance bei "nur" 100W Plus

dargo
2025-01-24, 08:41:54
Jup das selbe in Indina Jones.
Wundert mich das das nicht aufgefallen ist.

https://i.ibb.co/FH5srWb/Screenshot-2025-01-24-082539.png (https://ibb.co/qJN0SnM)
;D

Wer viel misst misst Mist. :D

PS: kann im Stress schon passieren, sollte aber spätestens bei der Endkontrolle auffallen.

woodsdog
2025-01-24, 08:45:08
Wat? :freak:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-10#abschnitt_temperaturen_unter_last

GPU-Edge = 79°C (Hotspot sicherlich dann bei der hohen Abwärme trotz großen Fläche =>100°C)
Vram = 96°C
Lüfter = 1.700RPM (bei großen Lüftern)
Lautstärke = 41,5dbA

Das sind übrigens Daten die im Winter ermittelt wurden. Im Hochsommer werden diese garantiert nicht besser werden.

Meine Güte, deine dauerhafte künstliche Empörung über ein Produkt was du sowieso nicht kaufen willst ist hart anstrengend...

Die Temps und Lautstärke der Tester im Schnitt sind für einen 2-Slot Kühler bei knapp 600W beispiellos gut! Der Rest der Hersteller braucht dafür 3-3,5-4 Slots und ne Menge mehr Metall.

Darüber hinaus finden die Tests bei "Raumtemperatur" statt, also irgendwas 21,22,23 °C. Wenn da noch 10° im Hochsommer und Dachgeschoss drauf kommen, haste halt 50Mhz weniger bei knappen 90° am Die sofern die Lüfter nich etwas schneller laufen. Sofuckingwhat? Was für ne alberne Binsenweisheit. Als ob das bei allen anderen GPUs in der Vergangenheit anders gewesen wäre.

Können ja im März dann mal schauen wie AMD die 300W Mittellklasse kühlt, ob du dich da auch über 79° unter Volllast echoffierst?

fondness
2025-01-24, 08:50:22
Zwei Aspekte finde ich ja besonders spannend:

Das 512 bit 32 GB GDDR7 interface scheint völlig überflüssig zu sein und sieht aus wie ein fast schon verzweifelter Versuch, die Leistung irgendwie noch zu steigern. Stattdessen treibt man damit nur den Stromverbrauch in die Höhe.

Wie stellt sich das Nvidia eigentlich mit raytracing vor? Die 5090 legt in Raster sogar minimal stärker zu, und wenn selbst so ein fast 600W Schluckspecht um einen absurden Preis so viele Jahre nach der erste raytracing gpu fast schon stagniert bei der Leistung wird das nichts.

dildo4u
2025-01-24, 08:52:13
Zwei Aspekte finde ich ja besonders spannend:

Das 512 bit 32 GB GDDR7 interface scheint völlig überflüssig zu sein und sieht aus wie ein fast schon verzweifelter Versuch, die Leistung irgendwie noch zu steigern. Stattdessen treibt man damit nur den Stromverbrauch in die Höhe.

Wie stellt sich das Nvidia eigentlich mit raytracing vor? Die 5090 legt in Raster sogar minimal stärker zu, und wenn selbst so ein fast 600W Schluckspecht um einen absurden Preis so viele Jahre nach der erste raytracing gpu fast schon stagniert bei der Leistung wird das nichts.
RT kann CPU Last erhöhen vorallem wenn das Game kein Path Tracing nutzt.

Kriegsgeier
2025-01-24, 08:52:59
wir wissen nicht genau was diese 4x MFG unter der Haube an Sachen braucht.

Vielleicht sind diese 512Bit Bandbreite sowie neue FrameBuffer (der sogar eigene Stromversorgungsphasen bekommen hat!) Voraussetzung für diese Technologie?

dargo
2025-01-24, 08:54:40
Können ja im März dann mal schauen wie AMD die 300W Mittellklasse kühlt, ob du dich da auch über 79° unter Volllast echoffierst?
Netter Versuch, ich kaufe grundsätzlich keine Referenzkarten. ;) Und meine Customs laufen mit max. ~80°C Hotspot(!) bei warmen Tagen und ~30dBA. ;)

Zwei Aspekte finde ich ja besonders spannend:

Das 512 bit 32 GB GDDR7 interface scheint völlig überflüssig zu sein und sieht aus wie ein fast schon verzweifelter Versuch, die Leistung irgendwie noch zu steigern. Stattdessen treibt man damit nur den Stromverbrauch in die Höhe.

Oder ein verzweifelter Versuch die 5090 für paar Nerds noch irgendwie mit ihren 32GB Vram interessant zu machen wenn der Rest schon schwach ist. Es gibt genug Nerds bei denen es heißt mehr Vram = besser, auch wenn es noch so sinnlos in der Praxis ist. ;)

aufkrawall
2025-01-24, 08:55:29
Wie stellt sich das Nvidia eigentlich mit raytracing vor?
Werden wir mit neuen Versionen der RT-Effekte in neuen Spielen dann sehen. Kann noch was kommen, muss aber nicht.

Exxtreme
2025-01-24, 08:56:35
Zwei Aspekte finde ich ja besonders spannend:

Das 512 bit 32 GB GDDR7 interface scheint völlig überflüssig zu sein und sieht aus wie ein fast schon verzweifelter Versuch, die Leistung irgendwie noch zu steigern. Stattdessen treibt man damit nur den Stromverbrauch in die Höhe.


Möglicherweise gibt es da keinen brauchbaren Mittelweg ohne andere Nachteile. Die RTX4090 verhungert an Bandbreite, sprich, 384 Bit sind spürbar zuwenig. Der RTX5090 sind 512 Bit womöglich zuviel, ja. 448 Bit wären wohl auch noch gegangen. Nur kann es sein, dass so eine krumme Speicheranbindung andere Nachteile hat.


Wie stellt sich das Nvidia eigentlich mit raytracing vor? Die 5090 legt in Raster sogar minimal stärker zu, und wenn selbst so ein fast 600W Schluckspecht um einen absurden Preis so viele Jahre nach der erste raytracing gpu fast schon stagniert bei der Leistung wird das nichts.

Möglicherweise gibt es derzeit keine Benchmarks, die eine so extreme RT-Last erzeugen und die RTX5090 rennt vorher in andere Limits rein.

readonly
2025-01-24, 09:02:43
Also bisher kann mich FG noch nicht so richtig überzeugen. Ghosting des HUD und Untertitel, wie z.b. in Hogwarts, sind schon semi. Viel schlimmer als die kleinen Artefakte im eigentlichen Bild.

Muss heute mal CP77 testen, sah auf den ersten Blick besser aus. Aber die eierlegende Wollmilchsau ist das auch nicht.

Pirx
2025-01-24, 09:04:25
...
Wie stellt sich das Nvidia eigentlich mit raytracing vor? Die 5090 legt in Raster sogar minimal stärker zu, und wenn selbst so ein fast 600W Schluckspecht um einen absurden Preis so viele Jahre nach der erste raytracing gpu fast schon stagniert bei der Leistung wird das nichts.
nVidia stellt sich das so vor, daß nach Raster, wofür die Karten nach xx Jahren nun endlich schnell genug sind, RT nun das nächste Vehikel wird, um wieder und wieder etwas weiterentwickelte Karten zu hohen Preisen verkaufen zu können, wohlwissend, daß für echtes RT exorbitant hohe Leistung nötig ist, man also noch jahrelang die Kunden damit abpfengeln kann.

Dural
2025-01-24, 09:05:21
Mit GDDR7 sind ohne Probleme 30-40% mehr Bandbreite mit selben Si möglich.

Also nein, die Bandbreite ist bei einem Plus von 26% sicher nicht nötig.

Ich würde sogar behaupten das die 512Bit die Karte sogar einbremst, GPU Takt! 128Bit Si + Speicher wird bei min. 50Watt liegen, 50 Watt die man gut im GPU Takt hätte man investieren können. Die 5090 läuft im mittel 110MHz weniger Takt als die 4090.

(Bei der 4090 gab es mal Werte alleine für den 384Bit Speicher von 200Watt)

Exxtreme
2025-01-24, 09:10:08
(Bei der 4090 gab es mal Werte alleine für den 384Bit Speicher von 200Watt)

GDDR6X ist ein Stromfresser vor dem Herren. GDDR7 soll massive Verbesserungen in dieser Hinsicht haben.

dargo
2025-01-24, 09:11:50
nVidia stellt sich das so vor, daß nach Raster, wofür die Karten nach xx Jahren nun endlich schnell genug sind, RT nun das nächste Vehikel wird, um wieder und wieder etwas weiterentwickelte Karten zu hohen Preisen verkaufen zu können, wohlwissend, daß für echtes RT exorbitant hohe Leistung nötig ist, man also noch jahrelang die Kunden damit abpfengeln kann.
Bingo. ;) Aber jedem Kunden ist selbst überlassen ob der das Melken mitmacht oder nicht. :)

GDDR6X ist ein Stromfresser vor dem Herren. GDDR7 soll massive Verbesserungen in dieser Hinsicht haben.
Kann ich mir nicht wirklich vorstellen. Gibt es dazu verlässliche Daten? Eigentlich ist das Speicherinterface (bei 384Bit bis 512Bit) der größte Stromschlucker, nicht die Speicherchips in der Gesamtbetrachtung.

Edit:
Nur mal so als Beispiel... ich hatte bei meiner RX 6800XT (256Bit SI) den GDDR6 von 1350mV auf 1250mV gesenkt und die Ersparnis war mit -~1W lächerlich gering.

Sardaukar.nsn
2025-01-24, 09:16:42
Das ist die neue Sortierung für 4K Raster-Rohleistung. Alles was in den nächsten zwei Jahren auf den Markt kommt, wird sich wohl unterhalb der zwei gelben Balken abspielen.

https://i.imgur.com/AlVKzIY.jpeg

Raff
2025-01-24, 09:17:33
Wat? :freak:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-10#abschnitt_temperaturen_unter_last

GPU-Edge = 79°C (Hotspot sicherlich dann bei der hohen Abwärme trotz großen Fläche =>100°C)
Vram = 96°C
Lüfter = 1.700RPM (bei großen Lüftern)
Lautstärke = 41,5dbA

Das sind übrigens Daten die im Winter ermittelt wurden. Im Hochsommer werden diese garantiert nicht besser werden.

Da muss ich widersprechen – der Kühler kann tatsächlich zaubern. Die RTX 5090 FE ist genauso laut wie eine 7900 XTX MBA - bei 225 Watt mehr und nur Dual-Slot-Höhe (wenngleich etwas mehr Länge/Breite)!

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91110&d=1737706619

https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/6/

Ich kann mich da nur wiederholen: Wenn etwas beeindruckend ist, dann darf man auch mal beeindruckt sein. :) Auf der 5080 FE mit ihren verhältnismäßig knuffigen 360 Watt wird das Design sicher göttlich performen, wenn da nichts versteckt weggespart wurde.

MfG
Raff

The_Invisible
2025-01-24, 09:19:47
Zwei Aspekte finde ich ja besonders spannend:

Das 512 bit 32 GB GDDR7 interface scheint völlig überflüssig zu sein und sieht aus wie ein fast schon verzweifelter Versuch, die Leistung irgendwie noch zu steigern. Stattdessen treibt man damit nur den Stromverbrauch in die Höhe.

Wie stellt sich das Nvidia eigentlich mit raytracing vor? Die 5090 legt in Raster sogar minimal stärker zu, und wenn selbst so ein fast 600W Schluckspecht um einen absurden Preis so viele Jahre nach der erste raytracing gpu fast schon stagniert bei der Leistung wird das nichts.

KI, KI, KI... DLSS4, MegaGeometry, Neural Radiance Cache, SER usw muss natürlich alles implementiert werden oder hoffen das die Konkurrenz endlich nachzieht oder es bei MS landet

dargo
2025-01-24, 09:27:12
Da muss ich widersprechen – der Kühler kann tatsächlich zaubern. Die RTX 5090 FE ist genauso laut wie eine 7900 XTX MBA - bei 225 Watt mehr und nur Dual-Slot-Höhe (wenngleich etwas mehr Länge/Breite)!

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91110&d=1737706619

https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/Tests/Reviews-Benchmarks-Vergleich-RTX-4090-1463971/6/

Da muss ich jetzt etwas schmunzeln Raff. Die RX 7900XT MBA (315W) erreicht bei euch 1,3 Sone im Gaming (Maximum) und mir sind Referenzkarten immer noch zu laut. ;) Zudem ist der Kühler der RX 7900XT MBA im Vergleich zu den üblichen Ziegelsteinen schon beinah winzig. Warum der bei euch aber so gut weg kommt ist mir etwas schleierhaft. Bei CB kommt der nicht so gut weg.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-7900-xtx-xt-test.82703/seite-5#abschnitt_lautstaerke__kuehlung

Wahrscheinlich wieder der Unterschied zwischen praxisnah im Gehäuse (CB) und praxisfern open benchtable (PCGH). Oder macht ihr eure Tests mittlerweile auch schon im geschlossenen Gehäuse?

Edit:
Ok... ihr seid da einfach zu praxisfern bei euren Lautstärkemessungen.

Messung der Lautheit im schallarmen Raum aus 50 Zentimeter Entfernung lotrecht zur Lüfternabe mittels Neutrik Cortex NC10. Störgeräusche wie Spulenfiepen fließen in das Messergebnis mit ein. Referenzkarten unter sich.

Empfehlung von mir für die Zukunft... wenn ihr unbedigt open benchtable behalten möchtet ergänzt es durch praxisrelevante Lautstärkemessungen mit einem Gehäuse was kein kompletter Fail bezüglich Airflow ist. Ich weiß... bedeutet wieder mehr Arbeit. :usad: Das Problem bleibt aber weiterhin... in einem geschlossenen Gehäuse sind die Temperaturen höher über Zeit X als in einem offenem Aufbau.

PapercutGT
2025-01-24, 09:34:54
Ok ich bleibe erstmal bei meiner 4090.

Kriegsgeier
2025-01-24, 09:41:34
Das passiert, wenn die 5090 genug zu fressen bekommt:

DrFreaK666
2025-01-24, 09:43:54
wir wissen nicht genau was diese 4x MFG unter der Haube an Sachen braucht.

Vielleicht sind diese 512Bit Bandbreite sowie neue FrameBuffer (der sogar eigene Stromversorgungsphasen bekommen hat!) Voraussetzung für diese Technologie?

Das wird sicherlich auch für die 5060 kommen. NV-Slides dann mit 1080p, DLSS P

The_Invisible
2025-01-24, 09:46:44
Das passiert, wenn die 5090 genug zu fressen bekommt:

Das bitte in Games im Durchschnitt mehr und ich würde nicht zögern ;)

M4xw0lf
2025-01-24, 09:52:57
Technisch ist das Ding mit neural textures/shaders, hardware mfg und so schon interessant. Wie schon gesagt ein Turing Moment.
Das ist die gleiche Art von technisch interessant wie der Chiplet-Ansatz von RDNA3 - hübsch auf Folien und akademisch spannend, aber wenn das Produkt hintenraus nicht merklich davon profitiert eben nicht mehr als das.

Blase
2025-01-24, 09:53:48
Jub, das würde meinen Zeigefinger auch eher motivieren auf einen Kaufen-Button zu klicken ;)

Ansonsten verfolge ich natürlich noch weiter die News diese Woche und allem voran die Tests mit DLSS4 und MFG im Kontext Bildqualität und Performance Steigerung. Dann sind die Software Features mal interessanter als die nackte Hardware Leistung :freak:

MfG Blase

MiamiNice
2025-01-24, 09:57:02
Im Endeffekt ist die 5090 für mich nur interessant, wenn diese durchgehend und großflächig gut undervolten lassen. Dann unter Wasser damit und gut ist.
Daher: warten auf die Erfahrungswerte aus dem Netz und dann eine schöne WaKü-Karte kaufen.

470 Watt kann ich wesentlich mehr "verantworten" als 570 Watt

Also, Du setzt die Karte eh unter Wasser, d.h. die Abwärme stört Dich nicht. "großflächig gut undervolten lassen" deutet darauf hin, das es Dir um den Verbrauch geht, also Kosten. 8 Stunden pro Tag, jeden Tag im Jahr, 100 Watt mehr, mit normalen Strompreis in DE, jetzt und hier, 84,45€. Bei Anschaffungskosten von über 2000€. Tägliches hin (ich kaufe direkt 2 Karten) und her (die Karte ist nichts für mich).

Hast Du irgendwie Borderline?

Kriegsgeier
2025-01-24, 10:02:25
um Kosten geht es mir hier nicht!

Es geht um Verlustleistung im Allgemeinen. Auch eine WaKü wird belastet und meine 8x 180ger Lüfter sollen schön bei 350 rpm bleiben und der Chip schön unter 40°C!
Plus: wenn die Karte schön kühl bleibt gönnt diese sich wahrscheinlich gute 60-100 MHz mehr - somit, mehr FPS bei weniger Verbrauch!

Danke für deine Rechnung aber dennoch ;) Bist nun zu meinem persönlichen Rechenknecht geworden.

The_Invisible
2025-01-24, 10:03:13
Das ist die gleiche Art von technisch interessant wie der Chiplet-Ansatz von RDNA3 - hübsch auf Folien und akademisch spannend, aber wenn das Produkt hintenraus nicht merklich davon profitiert eben nicht mehr als das.

Ist schon anders. Das eine ist transparent und das andere muss man erst anprogrammieren. Leider gibts ja nicht mal einen Showcase für das ganze Neural Zeugs, irgendwie auch NV untypisch... sollen wenigstens die CES Techdemo bereitstellen

Kriegsgeier
2025-01-24, 10:06:55
Hier, super Video: 5090, 4090 und 3090 im professionellen Einsatz:

https://www.youtube.com/watch?v=fOjrvXxSe0A

dargo
2025-01-24, 10:16:33
Zu geil... Nvidia spricht bei einzelnen Themen auch gerne mal um den heißen Brei herum. ;D
https://youtu.be/svk5wjogstQ?si=hOwYNSxB-HIOUMbc&t=314

Kleine Ergänzung von mir zu dem Statement von Roman weil er da einen Vergleich zu seiner 4090 zieht. Seine Annahme mit +10°C beim Hotspot vs. Edge ist schon etwas gewagt. Je höher die Verlustleistung bei gleicher Fläche desto höher das Delta zwischen Edge und Hotspot. Da GB202 jetzt aber einiges größer ist ist es schwierig Hoptspot blind zu bestimmen.

Prinzenrolle
2025-01-24, 10:19:49
Meine Güte, deine dauerhafte künstliche Empörung über ein Produkt was du sowieso nicht kaufen willst ist hart anstrengend...

Anstrengend ist sowieso alles von ihm, ich erinnere mich noch als Directx12 herauskam und die Radeons dort ein paar Prozent schneller waren,er nur noch Directx12 Spiele spielen wollte. Und jetzt als die Radeons bei RT hinten liegen, will er nix mit RT oder PT zocken.:tongue:

Wie stellt sich das Nvidia eigentlich mit raytracing vor? Die 5090 legt in Raster sogar minimal stärker zu, und wenn selbst so ein fast 600W Schluckspecht um einen absurden Preis so viele Jahre nach der erste raytracing gpu fast schon stagniert bei der Leistung wird das nichts.

Die Stagnation wirst du eher bei AMD Sehen. 7900Xt Rasterleistung und knapp über 7900XTX RT Leistung.:wink:

RT nun das nächste Vehikel wird, um wieder und wieder etwas weiterentwickelte Karten zu hohen Preisen verkaufen zu können, wohlwissend, daß für echtes RT exorbitant hohe Leistung nötig ist, man also noch jahrelang die Kunden damit abpfengeln kann.

Manchmal wünsche ich mir, dass technikverdrossene AMD Fans, einfach auszublenden wären. Leider jedoch kriecht immer wieder einer unterm Stein hervor und predigt die Kundenabzocke, die es selbstredend nur bei dem Teufel himself Jensen gibt. Wer jetzt noch gegen Raytracing ist, muss hart reinscheißen.

Ich kann mich da nur wiederholen: Wenn etwas beeindruckend ist, dann darf man auch mal beeindruckt sein. :)

Er ist ja beeindruckt. Genau so wird argumentiert, wenn er von etwas beeindruckt ist.:ulol4:
Er sucht das Haar in der Suppe.

MiamiNice
2025-01-24, 10:20:11
um Kosten geht es mir hier nicht!

Es geht um Verlustleistung im Allgemeinen. Auch eine WaKü wird belastet und meine 8x 180ger Lüfter sollen schön bei 350 rpm bleiben und der Chip schön unter 40°C!
Plus: wenn die Karte schön kühl bleibt gönnt diese sich wahrscheinlich gute 60-100 MHz mehr - somit, mehr FPS bei weniger Verbrauch!

Danke für deine Rechnung aber dennoch ;) Bist nun zu meinem persönlichen Rechenknecht geworden.

Ein MoRa 420 kühlt 2200 Watt mit 4 Lüfter auf 100%, 1100 Watt mit Lüftern die man nicht hört und gut 400 Watt komplett passiv. Ich kann Die nicht folgen, Dude :)

monstar-x
2025-01-24, 10:24:35
wir wissen nicht genau was diese 4x MFG unter der Haube an Sachen braucht.

Vielleicht sind diese 512Bit Bandbreite sowie neue FrameBuffer (der sogar eigene Stromversorgungsphasen bekommen hat!) Voraussetzung für diese Technologie?

Diese Aussage macht doch überhaupt keinen Sinn
Die 70er hat 192 Bit.
Die 80er hat 256 Bit

Kriegsgeier
2025-01-24, 10:25:21
400 Watt komplett passiv <-- Bullshit, sorry!

Schon mal Physikunterricht in Klasse 7 gehabt?

PT1 Verhalten solches Systems (Energiespeicher erster Ordnung) schon mal vor Augen geführt?

Kriegsgeier
2025-01-24, 10:26:17
Dieser Aussage macht doch überhaupt keinen Sinn
Die 70er hat 192 Bit.
Die 80er hat 256 Bit

Wartet mal ab, ob die 70ger und 80ger auch die Frameraten schaffen wie die 90ger es gezeigt hat!

Badesalz
2025-01-24, 10:31:40
Technisch ist das Ding mit neural textures/shaders, CB selbst schrieb, daß es ihnen außer den Folien noch überhaupt nicht klar ist was das wirklich tut und bringt. Heut wie morgen. Müsste man erstmal schauen, aber als Kaufgrund haben sie diesen Aspekt nicht empfohlen.

Wobei mir wieder auffiel, daß ich kritische Tests die sich aber nicht auf das Niveau von Rants herablassen, irgendwie am meisten mag :rolleyes:

Raff
2025-01-24, 10:34:00
Man kann Zukunftsmusik nicht als gegenwärtigen Kaufgrund nennen. ;)

MfG
Raff