PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5080 Review-Thread


Seiten : 1 2 3 [4]

x-force
2025-08-07, 14:31:18
Nein. Ich sage dass die 5070ti nicht limitiert durch die Bandbreite ist und taktnormiert deshalb die 5080 maximal 20% schneller ist durch die 20% extra SMs. Und ich gestehe zu dass bei 84 SMs mehr Cache sinnvoll ist um in kein Bandbreiten limit zu fallen.

wenn du es jetzt noch schaffst die größe des caches ins verhältnis zu den extra sms setzen, kommen wir einen schritt weiter.

Holundermann
2025-08-07, 15:54:08
Frage an die Experten hier: kann man irgendwie seiner 5080 beibringen dass die lüfter langsam anfahren und nicht von 0 auf 30% springen? Ist ja ultra nervig und eigentlich würde es oft auch ein wert zwischen 0 und 30% regeln...

ChaosTM
2025-08-07, 16:02:41
Probiers mit dem MSI Afterburner. Der kann eventuell den (oft nervigen) Zero Fan Modus ausschalten und die Lüfter immer langsam laufen lassen

robbitop
2025-08-07, 18:09:28
wenn du es jetzt noch schaffst die größe des caches ins verhältnis zu den extra sms setzen, kommen wir einen schritt weiter.
Ich empfand den Gedanken auch interessant und habe mal ein wenig recherchiert und mit Zahlen gespielt. Siehe Anhang als xlsx

1.) Speicherbandbreite ermittelt in den Techpowerupseiten
2.) L2 Cachebandbreite aus dem Chips and Cheese Artikel (Screenshot und link im Anhang).
2a.) Ich bin davon ausgegangen, dass die L2 Cacheblöcke mit den Memorycontrollern assoziert sind (zumindest implizieren die Blockschaltbilder das). Bedeutet die Anzahl der Cacheblöcke sind 16 MiB (vollaktiv) pro 64 bit IMC. Also AD102 6 Stück - teildeaktiviert auf 12 MiB. GB203 dann 4 Blöcke für 5070ti und 5080 wobei bei der 5070ti diese auf 12 MiB teildeaktiviert sind. Entsprechend habe ich die von C&C ermittelte Bandbreite von 6 auf 4 Blöcken skaliert.
2b.) ich gehe davon aus, dass die L2 Cachebandbreite mit Chiptakt skaliert
3.) Taktraten (Serie) für GPU habe ich auch von TPU
3a) OC Taktraten habe ich aus CB reviews zu den jeweiligen GPUs. Memory sowohl Core.
4.) Hitrate - hier habe ich die Grafik von AMD (auch im Anhang) genommen und per ImageJ die Pixel ausgezählt für 48 MiB und 64 MiB auf der 4K Kurve. 64 MB haben dann eine durchschnittliche Hitrate von 44%, 48 MiB von 34%.
5.) Ich habe die L2 Bandbreite und die VRAM Bandbreite per gewichtetem Mittelwert zu einer effektiven Bandbreite verrechnet
5a.) da mir aufgefallen ist, dass die L2 Bandbreite sehr hoch ist und die Ergebnisse schon in Richtung Cache verzerrt habe ich mir ein weiteres Szenario überlegt. Der Gedanke ist: beim Treffer des L2 Cache gibt es eine gewisse Bandbreite die in der überwiegenden Masse der Fälle nötig ist um den Bedarf zu decken. Alles darüber hilft beim L2 Hit nicht mehr (und beim miss sowieso nicht) - entsprechend verzerren besonders hohe L2 Bandbreiten das Ergebnis.
Dieser Gedanke wird bestärkt darin wenn man sieht, dass die RDNA Familie wesentlich kleinere Bandbreiten hat (< Faktor 2). Entsprechend habe ich mir die VRAM Bandbreite einer GPU ohne großen LLC genommen -> RTX3090 und die einfach mal verdoppelt (obwohl diese GPUs nicht annähernd doppelt so schnell sind). Da komme ich auf 2 TB/s. Den Wert habe ich dann als "cap" angenommen
6.) Ich habe die effektive Bandbreite anhand der Rohleistung normiert (da alle GPUs eine mehr als ähnlich genuge uArch haben).


Die effektiven Bandbreiten beider Szenarien habe ich dann mit einer 4080S (wir gehen von einer wohl balancierten SKU aus) und der übertakteten 5080 (Referenz in diesem Thread) verglichen als jeweilige Referenz.

Ich habe auch screenshots angehängt.

Ergebnis Relation zur rohleistungsnormierten effektiven Bandbreite:

A - ohne cap:
5070ti hat mit OC 112% vs 4080S default
5080 hat mit OC 106% vs 4080S default
5070ti hat mit OC 110%v s 5080 OC

B - mit 2TB/s cap:
5070ti hat mit OC 97% vs 4080S default
5080 hat mit OC 86% vs 4080S default
5070ti hat mit OC 111% vs 5080 OC

Schlussfolgerung
Die 5070ti OC hat in beiden Szenarien deutlich mehr rohleistungsnormierte effektive Bandbreite als die 5080 OC. Trotz kleinerer Cachehitrate.
Da ich der Ansicht bin, dass das Cap Szenario realistischer ist, würde ich weiterhin darauf schließen, dass die 5080 OC weniger rohleistungsnormierte effektive Bandbreite als die 4080S hat (wohl balanciert).

Das muss nicht heißen, dass sie in ein Bandbreitenlimit läuft aber wenn es Engpässe geben sollte, dann ist das eher die 5080 mit OC (3,3 GHz) und weniger die 5070ti (3,2 GHz)

Entsprechend würde ich sagen untermauert es die Annahme, dass taktnormiert die 5080 wohl maximal 20% schneller ist (eher weniger da SMs normalerweise nicht ganz proportional die Leistung steigern) als die 5070 ti. Trotz mehr Cache.

Schau gern mal in die xlsx rein - gern feedback dazu oder Hinweise, wenn du einen Fehler finden solltest.

Sardaukar.nsn
2025-08-07, 18:35:13
Frage an die Experten hier: kann man irgendwie seiner 5080 beibringen dass die lüfter langsam anfahren und nicht von 0 auf 30% springen? Ist ja ultra nervig und eigentlich würde es oft auch ein wert zwischen 0 und 30% regeln...

Kommt halt darauf an wie 30% definiert sind. Bei meiner Asus Prime liefen die nur mit lautlosen 590-770rpm an. Bei 260 Watt wohlgemerkt.

https://i.imgur.com/t4So0DY.jpeg

Andere Modelle gehen von Zero-Fan direkt auf deutliche hörbare 1200 und mehr. So erlebt bei einer 5080 Gainward Phantom die auch deswegen auch zurück ging.

x-force
2025-08-08, 00:48:53
Ich empfand den Gedanken auch interessant und habe mal ein wenig recherchiert und mit Zahlen gespielt. Siehe Anhang als xlsx

cool, danke für die mühe!


Bedeutet die Anzahl der Cacheblöcke sind 16 MiB (vollaktiv) pro 64 bit IMC. Also AD102 6 Stück - teildeaktiviert auf 12 MiB. GB203 dann 4 Blöcke für 5070ti und 5080 wobei bei der 5070ti diese auf 12 MiB teildeaktiviert sind. Entsprechend habe ich die von C&C ermittelte Bandbreite von 6 auf 4 Blöcken skaliert.

ich denke das ist der knackpunkt, wie lasert nv und was bedeutet es.


4.) Hitrate - hier habe ich die Grafik von AMD (auch im Anhang) genommen und per ImageJ die Pixel ausgezählt für 48 MiB und 64 MiB auf der 4K Kurve. 64 MB haben dann eine durchschnittliche Hitrate von 44%, 48 MiB von 34%.

amd schreibt auch von gesteigerter effizienz, wahrscheinlich einfach nur über die hitrate. wenn das auch auf gddr7 noch zutrifft, hätte die 5080 einen zusätzlichen vorteil.


5a.) da mir aufgefallen ist, dass die L2 Bandbreite sehr hoch ist und die Ergebnisse schon in Richtung Cache verzerrt habe ich mir ein weiteres Szenario überlegt. Der Gedanke ist: beim Treffer des L2 Cache gibt es eine gewisse Bandbreite die in der überwiegenden Masse der Fälle nötig ist um den Bedarf zu decken. Alles darüber hilft beim L2 Hit nicht mehr (und beim miss sowieso nicht) - entsprechend verzerren besonders hohe L2 Bandbreiten das Ergebnis.
Dieser Gedanke wird bestärkt darin wenn man sieht, dass die RDNA Familie wesentlich kleinere Bandbreiten hat (< Faktor 2). Entsprechend habe ich mir die VRAM Bandbreite einer GPU ohne großen LLC genommen -> RTX3090 und die einfach mal verdoppelt (obwohl diese GPUs nicht annähernd doppelt so schnell sind). Da komme ich auf 2 TB/s. Den Wert habe ich dann als "cap" angenommen

ich würde vermuten, dass ein beschnittener cache auch gleichzeitig weniger bandbreite hat.
wahrscheinlich macht es sinn gpc mitzubetrachten. 5070ti hat nur 6 statt 7. wenn darüber die anbindung zum cache erfolgt, könntest du nicht für beide die gleiche bandbreite annehmen.

https://www.techpowerup.com/review/msi-geforce-rtx-5070-ti-gaming-trio-oc/images/arch1.jpg
https://www.techpowerup.com/review/msi-geforce-rtx-5070-ti-gaming-trio-oc/images/arch3.jpg

hast du eine idee wofür die 2x8 kleinen schmalen blauen balken direkt neben dem l2 in einem gpc stehen?

in der tabelle hast du ein paar falsche zuordnungen: z.b. eff. bandbreite 5070ti oc liest die werte von 5080 oc.
aber das tut nicht viel zur sache.
bei der betrachtung fehlen außerdem die speziellen szenarien, von denen ich sprach.
ich hatte irgendwo gelesen, dass gerade für bhv ein größerer cache mehr als im durschnitt bringen soll, das ist für mich und pathtracing besonders interessant.

es wäre schön mehr über den cache zu wissen.
einfach einen cap einzufügen, beiden die gleiche anbindung zu unterstellen und bhv und co unbetrachtet lassen, kanns nicht sein.
gerade für raytracing kann man nicht einfach sagen es ist ausreichend bandbreite vorhanden. da spielt die latenz auf einmal eine viel größere rolle (die btw mit gddr7 wieder ein stück schlechter geworden ist)

hier werden z.b. 400mb für raytracing genannt, wovon vielleicht 320mb bvh sind.
https://chipsandcheese.com/p/cyberpunk-2077s-path-tracing-update

robbitop
2025-08-08, 07:04:48
Ich schaue nochmal rüber. Ggf sind es auch nur 3 Blöcke a 16 MiB. Aber eine Zuordnung zu den IMCs macht ja für einen LLC schon Sinn. AD102 in der 4090 hat zB 72 MiB von 96. Das geht nicht mit Deaktivierungsschritten von 16 MiB. 12 MiB Blöcke passen aber wie die Faust aufs Auge und wäre dan eine Analogie zur 5070ti/4070tiS.
Insofern erscheinen mir 4 Blöcke a 12 MiB wahrscheinlicher was dazu führt dass die Cachebandbreite gleich bliebe.

Das mit dem cap ist eine Vereinfachung - klar - aber wie gesagt denke ich dass diese extrem hohen Werte die effektive Bandbreite verzerren. Und klar kann es auch immer mal peaks geben die deüber gehen - aber Wesentlich ist ja was in der Mehrzahl der Zugriffe passiert (95 perzentil zB). Und wenn 2 TB/s nicht reichen würden, würde die 3090ti leistungsnormiert nicht mit nur 1 TB/s auch bei Pathtracing da stehen wo sie ist.

Latenz: die sollte bei Blackwell gleich sein. Entsprechend gibt es da wenig zu vergleichen denke ich. Ich hatte auch mal gelesen dass Latenz für BVH wichtig sein soll. Aber da habem wir in diesem Falle ja ein level playing field.

Jedenfalls zeigen meine Skalierungstests auf der 5070ti mit Memory OC praktisch keinen Leistungsgewinn in Relation zur Erhöhung der Speicherbandbreite.

Die kleinen blauen Balken vermute ich sind die Anbindung zwischen GPC und der fabric der GPU. Oder aber die ROPs.

Sardaukar.nsn
2025-08-10, 10:40:57
k73iYdycp3c

https://pics.computerbase.de/1/1/8/7/6/9-067de38cddcb74aa/13-1280.880e4e25.jpg

CB Artikel dazu: https://www.computerbase.de/news/grafikkarten/asus-x-noctua-rtx-5080-noctua-edition-soll-13-kelvin-kaelter-und-leiser-sein.93828/

Ex3cut3r
2025-08-10, 13:12:10
Meine RTX 5080 ist leider kein Takt-Wunder.
Ich bekomme +350 MHz beim Core und +3000 MHz beim Speicher stabil hin. Bei +360 MHz stürzt sie allerdings schon ab. Momentan läuft sie noch mit dem Standard-Power-Limit von 360 W, das in Spielen aber nur selten komplett ausgereizt wird.

Ich könnte das Power-Limit per Slider noch auf 400 W anheben, sehe dafür aktuell aber keinen wirklichen Anwendungsfall.

Meine alte RTX 3080 Ti hat ständig 350W genuckelt. Ampere war schon richtig mies, was das anging.

https://s1.directupload.eu/images/250810/temp/anu9fe92.png (https://www.directupload.eu/file/d/9007/anu9fe92_png.htm)

Sardaukar.nsn
2025-08-10, 13:38:08
Bei welchem Takt landest du denn? +350 bei einer Asus Prime ist ja was anderes als +350 oben auf den hohe Basistakt einer Astral.
So um die 3,2Ghz unter Last könnten schon drin sein. Testweise kannst du ja mal das Powerlimit und vcore erhöhen.

Ex3cut3r
2025-08-10, 22:44:03
Etwas über 3,1 ghz. Wenn die Spiele mehr Watt ziehen, dann auch mal unter 3,1 Ghz.

Was Krass ist, Dark Ages, Forza, Last of Us 2, Ratchet, mit FG alles @ 237/225 FPS/HZ und kann damit den Monitor mit seinen 240HZ voll ausreizen. Und man gewöhnt sich unglaublich schnell an die Flüssigkeit. Da wirken dann die 70-80 FPS in Mafia ohne FG (FG funktioniert da gerade nicht) wie aus einer anderen Welt.

Die Debatte um die Fake-Frames kann ich nicht nachvollziehen. Nvidia FG funktioniert in der Regel einwandfrei, auch die Artefakte halten sich verdammt in Grenzen. Ganz anders als mit dem AMD FG.

Das schlimme ist nur, man wird abhängig davon und will nichts mehr unter 240FPS/HZ spielen. Sowas geht aber nicht auf Dauer, außer man hat einen Geldscheißer und kann alle 2 Jahre auf die stärkste Nvidia Karten upgraden.

Sardaukar.nsn
2025-08-11, 07:45:46
3,1Ghz klingt ganz gut, da wirst du oben rum nicht mehr so viel rausholen können. Du kannst es aber mal mit mehr Powerlimit versuchen. Welches Modell 5080 ist es denn? Oft ist auch ein Bios Flash auf das Bios eines Topmodells möglich.

Ich muss ja "nur" 4K/120 auf meinem 42"LG Oled bespielen aber nutze DLSS und 1xFG auch gerne um die 120fps konstant zu halten. Funktioniert erstaunlich gut aber muss man natürlich für jedes Spiel selbst entscheiden. Bei so Sachen wie Titan Quest 2, Doom, Space Marine 2 ect. war das problemlos möglich und sehr gut spielbar. Wie du schon sagt die Multi-Framegeranation ist eher für die 240hz Monitiore interessant, aber stelle ich mir auch gut vor. Muss man aber wohl mal selbst live gesehen haben.

SamLombardo
2025-08-11, 08:00:59
Da wirken dann die 70-80 FPS in Mafia ohne FG (FG funktioniert da gerade nicht) wie aus einer anderen Welt.
Funktioniert nicht mal 2X FG? Ich frage, weil ich das eigentlich heute anfangen wollte.

robbitop
2025-08-11, 08:03:22
Die Debatte um die Fake-Frames kann ich nicht nachvollziehen. Nvidia FG funktioniert in der Regel einwandfrei, auch die Artefakte halten sich verdammt in Grenzen. Ganz anders als mit dem AMD FG.

Das schlimme ist nur, man wird abhängig davon und will nichts mehr unter 240FPS/HZ spielen. Sowas geht aber nicht auf Dauer, außer man hat einen Geldscheißer und kann alle 2 Jahre auf die stärkste Nvidia Karten upgraden.

Die Debatte ist ja nur wenn man Äpfel mit Brinen vergleicht. Also zB als Jensen Huang gesagt hat die 5070 ist genausoschnell wie eine 4090. Und da wurde dann MFG mit noFG oder gerade mal 2x FG verglichen.

Gerade mit 4x MFG sind die FPS schnell mal sehr hoch und das klingt dann nach toller Performance. Aber man braucht auch immer eine gute Inputframerate damit das Erlebnis optisch und spielerisch (Latenz) gut ist. Sowas wie 40@120 fps spielt sich wie Kaugummi bspw.

Man muss FG/MFG im richtigen Kontext sehen und nutzen. Dann ist es super. Ein gutes Werkzeug um - sofern das Spiel ohnehin schon sehe gut läuft - die BQ anzuheben indem man damit die Bewegtschärfe und Flüssigkeit weiter angebt. Und in dem Kontext ist es super.

Und solange man nicht Äpfel mit Birnen vergleicht gibt es IMO keine echte fake Frame Debatte. :)

Ex3cut3r
2025-08-12, 18:40:11
Gestern musste ich mir einen Vertical-GPU-Mount einbauen, weil ich mein Gehäuse im normalen Zustand tatsächlich nicht mehr schließen konnte. Die GPU ist zu breit. Und das ist noch einer der kleineren RTX 5080er. Mann war das ein Krampf gestern das Bracket zu installieren. Das PCIe Kabel war maximal steif und hat die GPU beim Einbau immer nach vorne gedrückt.

Gehäuse ist ein Lian Li O11 Dynamic von 2019.
Mein PC stand dadurch etwas über eine Woche ohne Seitenfenster da. Viel Staub ging in den PC.

Sieht zwar aktuell maximal bescheiden aus mit dem 12-Pin-Adapter und den Kabeln, aber ich traue mich nicht, das 12-Pin-Kabel zu biegen. Egal, passt erstmal, zumal ich Ende dieses oder Anfang nächsten Jahres sowieso einen neuen PC mit neuem Gehäuse plane.

https://s1.directupload.eu/images/250812/temp/ao7ivvah.png (https://www.directupload.eu/file/d/9009/ao7ivvah_png.htm)

https://s1.directupload.eu/images/250812/temp/niewdvjp.png (https://www.directupload.eu/file/d/9009/niewdvjp_png.htm)

Sardaukar.nsn
2025-08-12, 19:08:26
@Ex3cut3r: Schicker Arbeitsplatz! Du hast doch sicher ein Modulares Netzteil. Hol dir doch einfach ein passendes Kabel z.B.: https://www.corsair.com/de/de/p/pc-components-accessories/CP-8920323/premium-individually-sleeved-12-4pin-pcie-gen-5-12v-2x6-600w-cable-type-5-gen-5-black

Ex3cut3r
2025-08-12, 19:34:43
Danke. Aber wie soll das mit 2x8 Pin, die maximal 300W + 75W vom Mainboard übertragen, also max 375W für eine GPU, die mit maximierten PL 400W ziehen darf, funktionieren?

Nicht falsch verstehen, das Maximale, was ich bisher mit 100% PL gesehen haben, waren so knapp 360W. In der Praxis sind es gerade mal so 300W.

Sardaukar.nsn
2025-08-12, 20:16:23
1x8Pin liefert am Netzteil 300Watt. Am anderen Ende hast du meist ein 2x150 Y-Stecker für die Grafikkarte. Der verlinkte Adapater hat 2x8pin, also 600 Watt. Diese Kabel gibt es für alle Netzteil Hersteller.

Ex3cut3r
2025-08-12, 21:11:21
Hää? 1x Pin PCie also die "alten" Stecker liefern 150W jeweils. Das Kabel hat 2x davon, ergo 300W. Wie kommt auf solche Werte? :confused:

Man bräuche IHMO 3x 8-Pin im alten Stecker Format für 450W auf 12-Pin (neuer Stecker) und für 600W sogar 4x 8-Pin.

Ich verstehe echt nicht, was das von Corsair soll mit 2x 8-Pin.

Sardaukar.nsn
2025-08-13, 10:00:02
Die 8-Pin am Netzteil liefern jeweils 300 Watt. Splitten sich dann am anderen Ende auf 2x150W an der Grafikkarte auf. Das neue Kabel ist 2x300 vom Netzteil auf 600W 12-Pin HPWR an der Grafikkarte.

The_Invisible
2025-08-13, 10:12:44
Hää? 1x Pin PCie also die "alten" Stecker liefern 150W jeweils. Das Kabel hat 2x davon, ergo 300W. Wie kommt auf solche Werte? :confused:

Man bräuche IHMO 3x 8-Pin im alten Stecker Format für 450W auf 12-Pin (neuer Stecker) und für 600W sogar 4x 8-Pin.

Ich verstehe echt nicht, was das von Corsair soll mit 2x 8-Pin.

Bei Corsair Netzteilen ist der Anschluss auf 300W spezifiziert, bei anderen Netzteilen ka ins Handbuch schauen

Ex3cut3r
2025-08-13, 18:24:29
Das ist ja wirklich abenteuerlich, was hier gesagt wird: Durch den ganz normalen „alten“ 8-Pin-Anschluss, der eigentlich nur für 150 W ausgelegt ist, 300 W durchzujagen. Kein Wunder, dass so viele Probleme mit verschmorten Kabeln haben. ;D

Sardaukar.nsn
2025-08-13, 18:36:55
Ganz ruhig. Du hast doch selbst deinen PC zusammengebaut? Das Stromkabel zu deiner Grafikkarte hat am Ende das in dein Netzteil kommt 8 Pins. Es ist ein Y-Kabel das am Ende deiner Grafikkarte zu 2x 8 Pins führt. Richtig? Mehr Magie ist da nicht.

Loeschzwerg
2025-08-13, 18:41:26
Da ist nix abenteuerlich das passt schon ;) Warum? Die 8-Pin Anschlüsse bei den Corsair RM sind für PCIe und CPU, wobei über die modularen Kabel entschieden wird ob 6+2 (PCIe) oder 4+4 (EPS12V). Der EPS12V ist auf 300W spezifiziert, ergo ist das verlinkte Kabel von 2x 4+4 (2x EPS12V) auf 12+4 (1x 12V-2x6) völlig OK.

Edit: Was mich auch wieder zu dem Thema bringt bzw. für mich wieder die Frage aufwirft warum man für Consumer-Grafikkarten nicht einfach auf 2x EPS12V gegangen ist...

Ex3cut3r
2025-08-17, 13:07:25
Doom Dark Ages, Ultra außer Texturen und Shading auf Ultra Nightmare + DLSS P, Preset K

Stock vs OC vs UV + MEM OC vs UV + FG x3

Stock:
https://s1.directupload.eu/images/250817/4o2c8ugz.png

OC +350 Core Clock + 3000 Memory:
https://s1.directupload.eu/images/250817/hutddzh8.png

UV + Mem OC:
https://s1.directupload.eu/images/250817/cwwtvvsm.png

UV + FG x3:
https://s1.directupload.eu/images/250817/rwmh2k78.png

Habe jetzt mal den Dargo gemacht.

aufkrawall
2025-08-17, 17:53:53
0,86V dürfte Golden Chip für den Takt sein? Würde eher von Crashes in längeren Sessions von Spielen mit "bursty" Lasten und dabei laufendem Video-Capture ausgehen.

Ex3cut3r
2025-08-17, 19:14:54
Weiß nicht. Bis jetzt alles stabil. God of War. Mafia Old Country. Last of Us 2. FH5. Doom Dark Ages. Mal weiter beobachten.

ExJuvantibus
2025-08-19, 22:32:17
Die Debatte ist ja nur wenn man Äpfel mit Brinen vergleicht. Also zB als Jensen Huang gesagt hat die 5070 ist genausoschnell wie eine 4090. Und da wurde dann MFG mit noFG oder gerade mal 2x FG verglichen.

Gerade mit 4x MFG sind die FPS schnell mal sehr hoch und das klingt dann nach toller Performance. Aber man braucht auch immer eine gute Inputframerate damit das Erlebnis optisch und spielerisch (Latenz) gut ist. Sowas wie 40@120 fps spielt sich wie Kaugummi bspw.

Man muss FG/MFG im richtigen Kontext sehen und nutzen. Dann ist es super. Ein gutes Werkzeug um - sofern das Spiel ohnehin schon sehe gut läuft - die BQ anzuheben indem man damit die Bewegtschärfe und Flüssigkeit weiter angebt. Und in dem Kontext ist es super.

Und solange man nicht Äpfel mit Birnen vergleicht gibt es IMO keine echte fake Frame Debatte. :)


Gut ausgedrückt. Es war wirklich dieser unsägliche Vergleich und die damit verbundene Absicht weniger versierten Sand in die Augen zu streuen.

Ich könnte auch absolute Bullshit-Diagramme fabrizieren, nur würde es bei bei mir keinen Jucken. Huang/NV tat das vor Publikum/in der Öffentlichkeit in der Absicht grad Leuten mit kleinem Budget Geld rauszulocken; noch dazu mit überteuerten Müllkarten wie 8 GB 5060TI.

Ich weis genau ich könnte nicht in einer Redaktion arbeiten. Der größte Benchmark am Tag der Veröffentlichung wäre bei mir eine 1070 oder ähnliches auf einem alten Ivybridge Quad und wie brutal sie die 5090 doch abzieht (in Bartman AA, AC: Blackflagg etc mit CPU versus GPU PhysX). :rolleyes:


_________________


Ahja, mal schaun ob ich nicht doch schwach wäre und mir neues Sys hole mit GF 5 MX. Eigentlich hätte ich alles bis auf Graka, Platte und Ram grob beisammen (ausgesucht) ...

Ex3cut3r
2025-08-20, 08:20:32
Weiß nicht. Bis jetzt alles stabil. God of War. Mafia Old Country. Last of Us 2. FH5. Doom Dark Ages. Mal weiter beobachten.

Ich müsste den Takt jetzt um 15 mhz absenken. Weil Days of Gone gecrasht ist. Dürfte wenn das stabil ist, aber trotzdem ein sehr guter Wert sein. :smile:

Der Stromverbrauch ist fast schon absurd niedrig. Wenn man von Big Ampere kommt.

RoughNeck
2025-08-20, 15:02:41
Die Gigabyte AORUS Master vom Kollegen macht 2745 mit 0,86, ab 2770 fängt sie an instabil zu werden.
Das kann man ja als Richtwert nehmen

Ex3cut3r
2025-08-20, 20:51:08
Ich bin da minimal etwas besser. 0,850V für 2752 Mhz.

ExJuvantibus
2025-08-25, 23:01:26
Wollte mich mal erkundigen ob die

https://geizhals.at/asus-prime-geforce-rtx-5080-oc-90yv0lx0-m0na00-a3382462.html

brauchbar ist bzw. die wer hat oder einen Test kennt. Schriftliches findet man zu der nichts, aber dafür umso mehr zu Astral und Konsorten.


Va was Temps und Lautheit angeht, weil soll doch ein halbwegs leiser Bau werden. Bzw. was mit voll ausgefahrenen Power Target geht, weil ggf wenn schon denn schon. ;D

Sardaukar.nsn
2025-08-26, 04:00:48
Ich habe die Asus Prime und kann nur Gutes berichten. Sehr leise Lüfter die im Gegensatz zu vielen Mitbewerbern auch mit bei niedrigen und leisen 600rpm anlaufen.
Meine ist auf das 450Watt Astral BIOS geflash und inzwischen mit Wasserkühlung am Limit. https://www.3dmark.com/sn/6833821

Aber auch out if the Box wirklich ein vernünftiges Design mit guten Lüftern, Vapor Chamber, PCB mit Backplate verbunden, und Phasenwechsel Pad statt Wärmeleitpaste.

ExJuvantibus
2025-08-26, 18:08:18
Danke dir ganz herzlich! Das ist genau die Info die ich gebraucht habe. :up:

Sardaukar.nsn
2025-08-26, 20:16:52
Gerne und viel Spaß mit der Karte!

dildo4u
2025-09-30, 19:44:10
Langsam kommen spezielle Optimierung für Blackwell?


https://i.ibb.co/8DG8cKM6/Screenshot-20250930-194146-Samsung-Internet-2.jpg (https://ibb.co/6RGsBnYg)

https://www.computerbase.de/artikel/gaming/cronos-the-new-dawn-benchmark-test.94464/seite-2#abschnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd_mit_raytracing

aufkrawall
2025-09-30, 20:25:58
Eher wird der Entwickler da bei HWRT-Lumen irgendwas komisch hochgedreht haben, was Blackwell, warum auch immer, am wenigsten schlecht schmeckt. HWRT-Lumen kostet hier total seltsam viel Leistung, das hat man so bislang eher noch nicht gesehen...

dargo
2025-09-30, 20:26:38
Keine Ahnung wo du da wieder spezielle Blackwell-Optimierungen siehst wenn es mit HW-RT heißt RX 9070XT = RTX 5070TI.

dildo4u
2025-09-30, 20:42:04
5080 vs 4090 ist im schnitt sonst 20% schneller.

4k Index

https://i.ibb.co/KjN0Wp71/Screenshot-2025-09-30-204301.png (https://ibb.co/tMZmDTcd)

dargo
2025-09-30, 21:07:13
Merke... nach dildos Logik hat Navi 48 Blackwell-Optimierungen in Cronos bekommen. X-D

dildo4u
2025-09-30, 21:08:47
Ich habe RDNA4 gar nicht angesprochen mich interessiert ob Nvidia Lovelace vernachlässigt wird da ich eine 4070Super habe.

aufkrawall
2025-09-30, 21:15:20
Kannst dich beim Spielentwickler beschweren, bei Nvidia verändert sich mit Treibern die Performance über die Lebensdauer eher geringfügig. Wenn Treiber für die neue HW die Leistung kaum steigern, wird die alte logischerweise auch nicht plötzlich benachteiligt.

SamLombardo
2025-09-30, 22:13:58
Langsam kommen spezielle Optimierung für Blackwell?


https://i.ibb.co/8DG8cKM6/Screenshot-20250930-194146-Samsung-Internet-2.jpg (https://ibb.co/6RGsBnYg)

https://www.computerbase.de/artikel/gaming/cronos-the-new-dawn-benchmark-test.94464/seite-2#abschnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd_mit_raytracing

Ziemlich genau dieselben Werte wie in DL The Beast (ohne RT), auch da ist Blackwell überdurchschnittlich gut. Warum auch immer.

Slipknot79
2025-09-30, 22:22:45
Ich habe RDNA4 gar nicht angesprochen mich interessiert ob Nvidia Lovelace vernachlässigt wird da ich eine 4070Super habe.

Da wird nix vernachlässigt.
Die +30% fps vs 4090 sind schon seit Release in manchen games gemessen worden.

Wenn dann ist die 5090 vernachlässigt mit ihren +30%. (y)

dildo4u
2025-09-30, 22:33:21
Weniger von Jensen PR fressen Blackwell ist ein Witz das ganze Marketing basiert auf MFG weil der Rest nicht der Rede Wert ist.

Sardaukar.nsn
2025-09-30, 23:41:09
Die 5080 ist halt aktuell die beste und begehrteste Gaming Grafikkarte. Leute die davon Ahnung haben und die Entscheidungen treffen, wissen das schon lange. Darum gibt es es auch nur eine 5080 als Nocuta Edition (https://www.computerbase.de/artikel/grafikkarten/asus-geforce-rtx-5080-noctua-test.93871/). Keine 5090 und auch keine 5070er. AMD? lol...

Die schnellste und optisch geilste 5080er ist natürlich meine eigene. Ist doch klar ;)

https://i.imgur.com/1yUN9vj.jpeg

Dural
2025-10-01, 08:29:32
Völlig normal das die alte Generation immer wie mehr abfällt, habe in 20 Jahren auch nie was anderes gesehen. Daher warne ich auch immer wenn es um alte Grafikkarte geht obwohl die neuen kurz davor oder schon am Markt sind, so eine Karte zu kaufen ist selten eine gute Idee. War es eigentlich auch noch nie, sieht man jetzt auch wieder, wie viele schrien Anfang Jahr noch nach Ada...

Reine Vermutung neben dem technischen, die "alten" GPUs werden per Treiber nicht mehr auf die neue Spiele richtig optimiert, sondern es wird geschaut das die neuen halten möglichst gut laufen.

Da unterscheiden sich AMD und NV überhaupt nicht, im Gegenteil AMD lässt sehr oft die alten Generation komplett fallen. Obwohl hier und da was anderes gesagt wird. Sobald eine richtig neue Architekt von AMD kommt, ist die alte oft ziemlich schnell tot. Sah man in der Geschichte immer wieder zb. als die VLIW-Architektur abgelöst wurde.

dildo4u
2025-10-01, 08:42:09
Blackwell braucht offensichtlich einfach ein Schuss in den Arm ich glaube nicht das 4080 öfter unter 1k gefallen sind.

Das wurde vor 5 Tagen gepostet und ist auf der Seite immer noch vorhanden.

News 26.9

https://videocardz.com/newz/geforce-rtx-5080-now-10-below-msrp-rtx-5070-and-5060-ti-down-13-14-at-microcenter

Microcenter am 1.10.

https://i.ibb.co/Q7NyQxcN/Screenshot-2025-10-01-084424.png (https://ibb.co/HLz5492z)

https://www.microcenter.com/product/690477/gigabyte-nvidia-geforce-rtx-5080-windforce-sff-overclocked-triple-fan-16gb-gddr7-pcie-50-graphics-card

The_Invisible
2025-10-01, 08:42:55
Langsam kommen spezielle Optimierung für Blackwell?


https://i.ibb.co/8DG8cKM6/Screenshot-20250930-194146-Samsung-Internet-2.jpg (https://ibb.co/6RGsBnYg)

https://www.computerbase.de/artikel/gaming/cronos-the-new-dawn-benchmark-test.94464/seite-2#abschnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd_mit_raytracing

Wäre zumindest mal so ein Fall wo man mit der 5090 über die 60 min fps Hürde kommt und mit 4090 nicht. Komischerweise gerade in einen UE5 Titel wo Blackwell sonst eher schwacht ist, ganz verstehen tue ich es noch immer nicht.

ChaosTM
2025-10-01, 08:47:25
Blackwell braucht offensichtlich einfach ein Schuss in den Arm ich glaube nicht das 4080 öfter unter 1k gefallen sind.

Das wurde vor 5 Tagen gepostet und ist auf der Seite immer noch vorhanden.

https://www.microcenter.com/product/690477/gigabyte-nvidia-geforce-rtx-5080-windforce-sff-overclocked-triple-fan-16gb-gddr7-pcie-50-graphics-card


[/URL]https://i.ibb.co/gMFPgZ93/Screenshot-2025-10-01-084051.png (https://ibb.co/xS8f5qLD)

[URL]https://videocardz.com/newz/geforce-rtx-5080-now-10-below-msrp-rtx-5070-and-5060-ti-down-13-14-at-microcenter


Die Super könnte früher kommen als erwartet und eine "normale" wollen scheinbar keine mehr..

gnomi
2025-10-01, 11:13:22
Hardware Lumen in UE5 kommt mir generell ziemlich experimentell vor.
Software Lumen Medium bis Very High scheint am besten optimiert zu sein.
Bei Epic lässt man schon schön Performance liegen.
Würde die Modi nach Oben gar nicht groß ernst nehmen in der Praxis.
Also schon schöner, aber die Kosten sind ja wirklich brutal.
Das wird erst richtig gut, wenn die nächsten 60/70er Generationen das schneller rechnen als die besten Karten heute.

Raff
2025-10-01, 11:18:19
Wäre zumindest mal so ein Fall wo man mit der 5090 über die 60 min fps Hürde kommt und mit 4090 nicht. Komischerweise gerade in einen UE5 Titel wo Blackwell sonst eher schwacht ist, ganz verstehen tue ich es noch immer nicht.

Beim nächsten Spiel ist es wieder anders herum, die UE5 hat viele Gesichter. Dass Blackwell bei dieser Engine nennenswert aufblüht, ist aber fast ausgeschlossen – es sei denn, Nvidia pusht den eigenen RTX-Branch stärker.

MfG
Raff

dildo4u
2025-10-01, 11:23:31
Hardware Lumen in UE5 kommt mir generell ziemlich experimentell vor.
Software Lumen Medium bis Very High scheint am besten optimiert zu sein.
Bei Epic lässt man schon schön Performance liegen.
Würde die Modi nach Oben gar nicht groß ernst nehmen in der Praxis.
Also schon schöner, aber die Kosten sind ja wirklich brutal.
Das wird erst richtig gut, wenn die nächsten 60/70er Generationen das schneller rechnen als die besten Karten heute.

Das scheint nicht zwangweise nur die Hardware zu sein die Auslastung ist immer nicht absolute Grütze 250 Watt mit der 5080 bei 40fps.
Das soll angeblich erst mit 5.6 angegangen werden.

https://youtu.be/4yxW7-Q2Y8A?si=wmkb3RBWNCMF6ogw&t=261

dargo
2025-10-01, 12:17:19
Die 5080 ist halt aktuell die beste und begehrteste Gaming Grafikkarte.
Aha... und das machst du jetzt an welchen Quellen fest, deinem Bauchgefühl? P/L mässig steht die 5080 sogar wesentlich schlechter da als die 5070TI. Und selbst letzteres ist schon zu teuer.

Das scheint nicht zwangweise nur die Hardware zu sein die Auslastung ist immer nicht absolute Grütze 250 Watt mit der 5080 bei 40fps.
Das soll angeblich erst mit 5.6 angegangen werden.

https://youtu.be/4yxW7-Q2Y8A?si=wmkb3RBWNCMF6ogw&t=261
Nö... klassischer Fall von wenig Heizlast und somit Taktlimit beim GB203. Zudem wird hier dank balanced Upscaling auch recht wenig Pixellast mit 1270p als Input erzeugt, ergo auch weniger Heizlast. Gleiches Verhalten bekommst du auch mit RX 9070XT, musst nur im Treiber -500Mhz Taktoffset setzen, dann läuft die auch nur mit max. 2,88Ghz bei grob 250W oder gar etwas weniger. Die UE5 Games heizen auf RDNA4 auch recht wenig.

btw.
Mit gleichen Settings ohne RT kommt diese 5080 schon über 300W. Womöglich ist das implementierte RT nicht besonders effizient wodurch kleinere Bottlenecks entstehen. Und im nativen 4k ohne RT liegt die Karte schon nah am Powerlimit.

dildo4u
2025-10-01, 12:32:10
Blackwell mit 16 GB sollte alle PS6 Path Tracing Games Problemlos zocken ist halt die Frage ob du jetzt 1k oder Heute 500 und dann noch mal 500€ in 2027 ausgeben willst.

dargo
2025-10-01, 12:36:57
Blackwell mit 16 GB sollte alle PS6 Path Tracing Games Problemlos zocken...
Guter Witz... es wird an 16GB öfter scheitern, das scheitert jetzt schon teilweise daran. Man wird definitiv mit nur 16GB dann bei RT/PT öfter haushalten müssen, zb. bei den Texturen.

Edit:
Hier hast du ein Beispiel von Cronos mit der RX 9070XT. Ebenfalls mit 4k + balanced Upscaling inkl. RT und max. Settings. Ist aber nur FSR 3.1 im Beispiel war schon FSR 4, habe den Optiscaler noch nicht drin. Mit FSR 4 könnten es ca. 3-5W mehr sein. Kein Undervolting, nur Taktoffset!
https://i.postimg.cc/N55M1Mrc/Cronos-Win64-Shipping-2025-10-01-12-50-05-286.jpg (https://postimg.cc/N55M1Mrc)

Jetzt das selbe mit FSR 4.
https://i.postimg.cc/JtcrZXhq/Cronos-Win64-Shipping-2025-10-01-13-01-31-552.jpg (https://postimg.cc/JtcrZXhq)

Raff
2025-10-01, 12:56:49
Die UE5 heizt deutlich schlechter als die UE4, architekturübergreifend.

MfG
Raff

dildo4u
2025-10-01, 13:01:51
Keine Probleme in Fortnite damit rennt ca 210 Watt mit meiner gedrosselten 4070S in 4k Performance DLSS mit Epic Lumen.[ca 80fps im Schnitt]

aufkrawall
2025-10-01, 14:40:37
Er hat trotzdem recht, die Legacy-Details (="optimiertere UE4") heizen mehr.
Aber immerhin erhöht afair HWRT-Lumen in Fortnite nun etwas den Stromverbrauch auf GeForce anstatt ihn gegenüber SWRT-Lumen zu senken.

dildo4u
2025-10-02, 07:33:00
Leider noch nicht mit meiner Lovelace wäre interessant ob das Blackwell das besser kann.
Sind aber nur so 10 Watt Unterschied.

gnomi
2025-10-02, 10:02:05
Ist mir auch schon oft aufgefallen.
Mit der 4080S ist bei den UE5 Games bei um die 280-285 Watt Schluss.
UE4 geht auch gerne bis 310-315 Watt.
Alles bei 4k Target 60fps mit möglichst viel Details/Features.
Bin sehr gespannt auf UE5 und Blackwell Verbesserungen.
Bis zur 5080S könnte schon bisschen was passieren. Mal sehen. =)

dildo4u
2025-10-02, 10:20:21
Hängt das nicht vom Game ab Jedi Survivor hatte absurde CPU Limits selbst mit einer 4060 und 5600x.

https://youtu.be/1FUlufyiyow?si=Tk-nwbCpv8V2mO2P&t=318

gnomi
2025-10-02, 15:16:53
Jedi Survivor habe ich mit den ganzen Patches und Einstelloptionen nicht so konkret im Gedächtnis.
Hat auch RT, DLSS und FG plus weiter modifizierte Engine von Fallen Order PS5 Build. Okay. Schon sehr interessantes Spiel.
Aber irgendwie speziell dieses Game und der PC Port mit den ganzen Patches.
Life is Strange True Colors mit UE4 fällt mir gerade so auf Anhieb ein.
Das zog überraschend am Limit.
Life Is Strange: Double Exposure mit UE5 zog AFAIR dann weniger.
Gleiches Studio plus Engine Wechsel. Das passt finde ich auch besser.
Würde Raff und aufkrawall auf jeden Fall zustimmen. Ist jedenfalls auch meine Beobachtung bislang.

RoNsOn Xs
2025-12-05, 19:13:04
Habe gerade für mein Mädel eine 5080 bestellt. Gibt es dort optimale Betriebspunkte in Form von 0,9v bei xxx Mhz?

RoNsOn Xs
2025-12-10, 23:04:09
Ich bin da minimal etwas besser. 0,850V für 2752 Mhz.

Meine ersten Versuche nach der 3060Ti und 4070 jetzt an der Asus Prime 5080:
anhand deiner Werte zur Orientierung hab ich im AB bei 0,86v bei 2782mhz abgeriegelt, was im SteelNomad im Peak 2692Mhz ergab. Ist das normal, dass es hier immer Abweichungen gibt, oder hängt es von der Anwendung ab?
Sind in Summe gute 2 FPS weniger, aber auch ca. 70-80w weniger. Lässt sich mit leben.

Kann man hier noch den Speicher um welchen Wert ca. übertakten?

Ex3cut3r
2025-12-10, 23:11:49
0.900V kannst du mal 2900 Mhz versuchen. Gute Modelle schaffen das. Aber auch 2850-2890 sind gute Werte für diese Spannung.

Raff
2025-12-11, 00:13:06
Kann man hier noch den Speicher um welchen Wert ca. übertakten?

Gefühlt macht jede Karte 34 GT/s, aber das bringt wenig (die RTX 5080 hat schon ab Werk sehr viel Transferrate vs. Rechenleistung). Steck das Power-Budget lieber in die GPU und lass den VRAM kühl. Wenn dir der wegen zwei Prozent stirbt, hat sich das nämlich in Zeiten der wuchernden Speicherkrise nicht gelohnt. :freak:

MfG
Raff

x-force
2025-12-11, 00:21:24
Wenn dir der wegen zwei Prozent stirbt, hat sich das nämlich in Zeiten der wuchernden Speicherkrise nicht gelohnt. :freak:

wie viele fälle kennst du davon auf blackwell? :eek::freak:

RoNsOn Xs
2025-12-11, 00:38:35
Gefühlt macht jede Karte 34 GT/s, aber das bringt wenig (die RTX 5080 hat schon ab Werk sehr viel Transferrate vs. Rechenleistung). Steck das Power-Budget lieber in die GPU und lass den VRAM kühl. Wenn dir der wegen zwei Prozent stirbt, hat sich das nämlich in Zeiten der wuchernden Speicherkrise nicht gelohnt. :freak:

MfG
Raff
Danke für den Hinweis :ugly:
Zur Umrechnung: In Zahlen bedeutet das +1Ghz rauf?

Ex3cut3r
2025-12-11, 06:48:32
Hey Joseph,
könntest du sonst hier nochmal exakt auf meine Fragen eingehen, wie ich sie im Thread stellte? Werde ansonsten übers Weekend nochmal bisschen versuchen zu tunen. :smile:

https://s1.directupload.eu/images/251211/temp/i7wcta6l.png (https://www.directupload.eu/file/d/9130/i7wcta6l_png.htm)

Das ist meine Kurve, beim VRAM habe ich einfach AB gemaxt, +3000 das läuft fast bei jeder RTX 5080. Bringt aber nicht so viel wie die hohe Zahl suggeriert aber ein bisschen je nach Spiel. Kannst das aber auch auf 0 lassen, und dafür die GPU höher ziehen. Ich habe immer schon beides getunt. Warum dein Takt in Steel Nomad sank, weiß ich nicht, bei mir ist der Takt immer fest angetackert. Vlt. war deine Kurve anders?

Matrix316
2025-12-14, 15:46:37
Sooo die Gainward RTX 5080 Phoenix GS eingebaut und das ist die leiseste (Higher End Karte) seit der alten Gainward 980TI (https://www.tweakpc.de/hardware/tests/grafikkarten/gainward_geforce_gtx_980_ti_phoenix_gs/s01.php). Ich lass die ganzen 3D Marks laufen und weiß gar nicht ob der CPU oder Grafikkarten Kühler ganz leicht nur zu hören ist? Ein Traum! =)

Nur mit den Zahlen bin ich nicht ganz zufrieden. Oder hat jeder seine Karte übertaktet? Irgendwie bin ich ganz leicht unter Durchschnitt, aber anscheinend doch über den Ergebnissen einer Founders Edition. Takt ist immer so bei 2,8 GHz rum. :confused:

Sardaukar.nsn
2025-12-14, 15:57:16
Viel Spaß damit. Da kannst du wahrscheinlich noch 400mhz auf den core und 3000 auf den Vram packen.

Holundermann
2025-12-15, 09:58:02
Nur mit den Zahlen bin ich nicht ganz zufrieden. Oder hat jeder seine Karte übertaktet? Irgendwie bin ich ganz leicht unter Durchschnitt, aber anscheinend doch über den Ergebnissen einer Founders Edition. Takt ist immer so bei 2,8 GHz rum. :confused:

Ich denke mal das die meisten welche den 3DMark verwenden auch schauen was mit der Karte möglich ist - um die 10000 Punkte sollten drin sein beim Speedway.

Ich lauf derzeit bei 3 GHz mit 0.935 V - ich bin mir nicht sicher ob das stabil ist :) 0.945 lief stabil über lange Zeit bei 3 GHz. Über 3 GHz muss man die Spannung empfindlich anheben um überhaupt noch stabil zu sein - bei mir ist so bei 3.1/3.15 GHz schluss mit 1.025 V - dann regelt auch das Power Target ab. Klar geht die Karte auch auf 3.2 GHz - jedoch hab ich das noch nie stabil bekommen auch wenn ein Speedway run durchläuft.

Sonyfreak
2025-12-16, 15:11:00
Ich habe mir kürzlich eine Gigabyte RTX 5080 Windforce OC SFF gekauft und betreibe die bei 0,8V und etwa 2,2Ghz. Die Kurve für 0,8V kann ich im Afterburner leider nicht höher ziehen. Sobald ich auf Übernehmen klicke, rutscht die Kurve wieder nach unten. Der Arbeitsspeicher macht die maximalen +3000 ohne Probleme mit. Mehr lässt sich im Afterburner leider auch nicht einstellen. :uponder:

mfg.

Sonyfreak

aceCrasher
2025-12-16, 15:45:19
Ich habe mir kürzlich eine Gigabyte RTX 5080 Windforce OC SFF gekauft und betreibe die bei 0,8V und etwa 2,2Ghz. Die Kurve für 0,8V kann ich im Afterburner leider nicht höher ziehen. Sobald ich auf Übernehmen klicke, rutscht die Kurve wieder nach unten. Der Arbeitsspeicher macht die maximalen +3000 ohne Probleme mit. Mehr lässt sich im Afterburner leider auch nicht einstellen. :uponder:

mfg.

Sonyfreak
Setze erst den gewünschten Offset (bsp. +100) im normalen Afterburner Fenster und schneide dann erst im Curve-Editor alles >800mv ab. Geht bei mir auch.

Matrix316
2025-12-16, 16:29:12
Ich habe mir kürzlich eine Gigabyte RTX 5080 Windforce OC SFF gekauft und betreibe die bei 0,8V und etwa 2,2Ghz. Die Kurve für 0,8V kann ich im Afterburner leider nicht höher ziehen. Sobald ich auf Übernehmen klicke, rutscht die Kurve wieder nach unten. Der Arbeitsspeicher macht die maximalen +3000 ohne Probleme mit. Mehr lässt sich im Afterburner leider auch nicht einstellen. :uponder:

mfg.

Sonyfreak
Wäre da eine 5070 oder 5070TI nicht billiger gewesen? :ugly:

mobsy
2025-12-16, 16:41:42
lesen, verstehen, antworten...

sorry, klassischer fall von hirndurchfall meinerseits, deshalb inhalt wieder gelöscht.

ExJuvantibus
2025-12-16, 18:10:35
Viel Spaß damit. Da kannst du wahrscheinlich noch 400mhz auf den core und 3000 auf den Vram packen.


Immer noch zufrieden mit der Prime - danke für den Tipp von damals.


Ist eine lautere Karte als meinen letzten beiden, aber P/L war ich diesmal nicht bereit die 1300-1500 € in den Rachen zu werfen für war wirklich ruhiges. Eine 5060 TI für den Kühler was mir diesmal echt nicht wert. Eher noch eine SSD bevor die teuer werden (was auch geworden ist).

Hab bisher mit Cyberpunk (volles PT etc) getestet 3220-40 Mhz laufen noch mit auto Lüfter (100 % muss nicht sein :freak:) auf dem Core. Bin mit dem Ergebnis ohne Wakü, oder Bios-Flash zufrieden.

Ram war ich erst bei +800. Anscheinend hab ichs da mit dem Vortasten übertrieben, da ist wohl noch ein größerer Sprung drinn.




Wäre da eine 5070 oder 5070TI nicht billiger gewesen? :ugly:


Kommt drauf an was man will. Ich kaufe zwar auch keine Karte um dann "Strom zu sparen" aber größere Karte = Kühler für mehr TDP eingerichtet und damit leichter leise zu bekommen. Außerdem voller Chip und mehr Einheiten = effizienter bei gegebener Leistungsanforderung. Damit wären wie wieder bei Leise (oder ggf NT :freak:). Ich würde zwar eher Wakü nehmen aber evtl .......

Letztlich ist die 5080 halt voller Chip mit möglichem TDP Budget um in die Nähe der 4090 zu kommen, wenns mans braucht oder will. Das wird selbst mit 5070 TI nix, schon gar nicht mit kleinen 5070 und anderem Chip und Specs.

Umgekehrt: Vielleicht wird zB nach einer Runde Dead Space wird jetzt halt was weniger forderndes gespielt und nicht jeder will den PC Im Winter als Heizstrahler nutzen. ;)


Vielleicht besteht auch nur eine (gesunde) Angst vor dem Stromstecker. Ich frage mich ja schon wenn meine Burnswell GF 5 MX zur Blackburned wird dank 12 V high Failure Stecker. :freak:;D

Sonyfreak
2025-12-17, 14:39:19
Setze erst den gewünschten Offset (bsp. +100) im normalen Afterburner Fenster und schneide dann erst im Curve-Editor alles >800mv ab. Geht bei mir auch.Danke für den Tipp! Das werde ich versuchen! :)
Wäre da eine 5070 oder 5070TI nicht billiger gewesen? :ugly:Bei den meisten Spielen komme ich mit der Leistung problemlos durch. Die RTX 5080 müsste auch mit nur 2,2Ghz in den meisten Fällen schneller als eine RTX 5070 Ti sein. Und bei Bedarf kann ich den Chip immer noch bei 0,9V oder so betreiben. (Außerdem wollte ich den Vollausbau. :redface:)

mfg.

Sonyfreak

mobsy
2025-12-17, 16:26:46
...

Nur mit den Zahlen bin ich nicht ganz zufrieden. Oder hat jeder seine Karte übertaktet? Irgendwie bin ich ganz leicht unter Durchschnitt, aber anscheinend doch über den Ergebnissen einer Founders Edition. Takt ist immer so bei 2,8 GHz rum. :confused:

bei mir ist es mal so, mal so...

Steel Nomad etwas überdurchschnittlich, Time Spy unter durchschnitt (hab grad nur die 3DM demo), Cyberpunk 2077 dafür wieder drüber z.b..

Steel Nomad: 9069

Time Spy: 25629, Grafik: 34308, CPU: 10532

Cyberpunk 2077 ultra ohne schnickschnak, 1440p: 156-159 fps

hab beschlossen, mich deshalb nicht verrückt machen zu lassen. schon gar nicht von einem benchmark. spiele laufen bisher so wie zu erwarten. was will ich mehr oder wer spielt schon benchmarks?

Gigabyte Rtx 5080 Gaming oc, 9800x3d, 64GB

Matrix316
2025-12-18, 11:02:47
bei mir ist es mal so, mal so...

Steel Nomad etwas überdurchschnittlich, Time Spy unter durchschnitt (hab grad nur die 3DM demo), Cyberpunk 2077 dafür wieder drüber z.b..

Steel Nomad: 9069

Time Spy: 25629, Grafik: 34308, CPU: 10532

Cyberpunk 2077 ultra ohne schnickschnak, 1440p: 156-159 fps

hab beschlossen, mich deshalb nicht verrückt machen zu lassen. schon gar nicht von einem benchmark. spiele laufen bisher so wie zu erwarten. was will ich mehr oder wer spielt schon benchmarks?

Gigabyte Rtx 5080 Gaming oc, 9800x3d, 64GB

Wie sieht denn dein GPU Takt bei den 3D Mark Benchmarks aus? Hast du an der CPU noch was gemacht? Ich lass meinen mit Curve Optimizer -20 laufen, was irgendwie teilweise gefühlt manchmal auch weniger Leistung bringt als z.B. beim Cinebench, der etwas bessere Zahlen liefert.

Die Gigabyte Gaming hatte ich eigentlich auch im Visier, aber ob sich da die 100 Euro mehr gelohnt hätten? :uponder:

mobsy
2025-12-18, 18:34:35
Wie sieht denn dein GPU Takt bei den 3D Mark Benchmarks aus? Hast du an der CPU noch was gemacht? Ich lass meinen mit Curve Optimizer -20 laufen, was irgendwie teilweise gefühlt manchmal auch weniger Leistung bringt als z.B. beim Cinebench, der etwas bessere Zahlen liefert.

Die Gigabyte Gaming hatte ich eigentlich auch im Visier, aber ob sich da die 100 Euro mehr gelohnt hätten? :uponder:

das ist alles stock. nur im bios die speichertimings auf die werte meines speichers angepasst. laut specs 2730 Mhz im boost bei der karte. im afterburner werden 2800 angeziegt ohne was zu verstellen.

och, im visier hatte ich sie alle mal... das system hab ich über die letzten drei monate gekauft. CPU und GPU als letztes dann. so gesehen war sogar die Asus ROG Astral mal auf der liste, weil ich in der komfortablen situation war mir jede 5080 am markt leisten zu können. selbst für ne 5090 hätte es gereicht, aber das ist mir zu übertrieben vom preis her.

die Gigabyte ist es dann deshalb geworden, weil es sie im örtlichen laden als black friday deal für 1149€ gab.

ergänzung:

9800x3d
MSI MAG x870e Tomahawk
2x32GB Patriot Viper Venom, 6000Mhz, CL30
Gigabyte RTX5080 Gaming OC
2x Samsung 9100 Pro 4TB (ohne lanesharing beide als 5.0 x4 und GPU 5.0 x 16. geht bei dem board.)
360er AIO wasserkühlung
gutes 1200W no name netzteil (Arlt)

Sonyfreak
2025-12-18, 21:55:23
Setze erst den gewünschten Offset (bsp. +100) im normalen Afterburner Fenster und schneide dann erst im Curve-Editor alles >800mv ab. Geht bei mir auch.
Danke für den Tipp! Das werde ich versuchen! :)Das funktioniert leider nicht, da die +1000Mhz, die der Afterburner im Offset anbietet, eben auf 2230Mhz hinauslaufen. Und mehr lässt sich dann auch im Curve Optimizer nicht einstellen. Gibt es eine Möglichkeit, mehr als 1000Mhz hochzugehen? Auch der RAM hätte wohl noch mehr Spielraum als die angebotenen 3000Mhz nach oben. ;(

mfg.

Sonyfreak

ExJuvantibus
2025-12-18, 22:22:58
Viel Spaß damit. Da kannst du wahrscheinlich noch 400mhz auf den core und 3000 auf den Vram packen.


Blöde Frage, aber ich hab evtl. ein Verständnisproblem.


Der Ram taktet ja mit 1.875 Mhz oder 30 Gbps. Wenn ich im Afterburner da 1000 draufgeb hab ich 2.000 Mhz was 32 Gbps sind. Das läuft ohne Probleme.


3.000 im Afterburner drauf sind ja 2.625 Mhz effektiv oder 42 Gbps. :eek: Ich weis noch das der GDDR 7 extrem taktfreudig sein soll, aber so taktfreudig dann ja wohl doch nicht ernsthaft? :freak:


Schneller Test mit Cyberpunkt was ich grade zocke: Ich kann im Afterburner eh nur 2.000 draufgeben was 38 Gbps sind, und sofern Cyberpunk nicht random verreckt ist packt das meine schon nicht.

Sonyfreak
2025-12-19, 16:05:31
Der MSI Afterburner zeigt für die RTX 5080 einen Basistakt von 15000 MHz an (die Hälfte der 30 Gbps Transferrate). Wenn du den Speichertakt dort um 3000 MHz erhöhst, zeigt die Anwendung danach 18000 MHz an. Das entspricht einer effektiven Datenrate von 36 Gbps (36000 MHz) und steigert deine Speicherbandbreite von 960 GB/s auf satte 1152 GB/s.

15000*2/16=1875Mhz
18000*2/16=2250Mhz

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=94944&stc=1&d=1766156218

mfg.

Sonyfreak

Semmel
2025-12-19, 16:13:34
Ich dachte alle Blackwell-Karten haben ein hartes Limit bei 2125 MHz VRAM-Takt?
Liegt denn der höhere Takt real auch wirklich an? Einstellen kann man ja erstmal alles.

Aber gut, die 5080 hat auch als einzige Blackwell einen höheren Basistakt von 1875 MHz. Das würde das höhere Limit erklären.

Sonyfreak
2025-12-19, 16:58:09
Ich habe versucht, es mit folgendem Programm nachzumessen: https://github.com/kruzer/poclmembench

Standard (960GB/s)
C:\Users\admin\Downloads\poclmembench_win_0_91>poclmembench.exe -s 1024 -r 1000
[0] Platform name: NVIDIA CUDA vendor:NVIDIA Corporation version:OpenCL 3.0 CUDA 13.0.84 <-- selected
[0] Device Name: NVIDIA GeForce RTX 5080 <-- selected
Type: 4 (GPU: 4, CPU: 2)
Vendor: NVIDIA Corporation
Max Compute Units: 84
Global Memory: 17094475776
Max Clock Frequency: 2670
Max Alloc. Memory: 4273618944
Local Memory: 49152
Available: 1
allocated 16106127360 bytes 15.00 GB
Running Bench test on:NVIDIA GeForce RTX 5080
Chunk: 0 ( 0-1024)MB Speed: 826.12 GByte/s OK
Chunk: 1 (1024-2048)MB Speed: 826.19 GByte/s OK
Chunk: 2 (2048-3072)MB Speed: 825.82 GByte/s OK
Chunk: 3 (3072-4096)MB Speed: 826.52 GByte/s OK
Chunk: 4 (4096-5120)MB Speed: 826.56 GByte/s OK
Chunk: 5 (5120-6144)MB Speed: 826.56 GByte/s OK
Chunk: 6 (6144-7168)MB Speed: 826.55 GByte/s OK
Chunk: 7 (7168-8192)MB Speed: 825.59 GByte/s OK
Chunk: 8 (8192-9216)MB Speed: 825.39 GByte/s OK
Chunk: 9 (9216-10240)MB Speed: 825.50 GByte/s OK
Chunk: 10 (10240-11264)MB Speed: 826.40 GByte/s OK
Chunk: 11 (11264-12288)MB Speed: 825.21 GByte/s OK
Chunk: 12 (12288-13312)MB Speed: 826.46 GByte/s OK
Chunk: 13 (13312-14336)MB Speed: 825.81 GByte/s OK
Chunk: 14 (14336-15360)MB Speed: 802.68 GByte/s OK

+2000 (1088 GB/s)
C:\Users\admin\Downloads\poclmembench_win_0_91>poclmembench.exe -s 1024 -r 1000
[0] Platform name: NVIDIA CUDA vendor:NVIDIA Corporation version:OpenCL 3.0 CUDA 13.0.84 <-- selected
[0] Device Name: NVIDIA GeForce RTX 5080 <-- selected
Type: 4 (GPU: 4, CPU: 2)
Vendor: NVIDIA Corporation
Max Compute Units: 84
Global Memory: 17094475776
Max Clock Frequency: 2670
Max Alloc. Memory: 4273618944
Local Memory: 49152
Available: 1
allocated 16106127360 bytes 15.00 GB
Running Bench test on:NVIDIA GeForce RTX 5080
Chunk: 0 ( 0-1024)MB Speed: 941.88 GByte/s OK
Chunk: 1 (1024-2048)MB Speed: 943.09 GByte/s OK
Chunk: 2 (2048-3072)MB Speed: 942.58 GByte/s OK
Chunk: 3 (3072-4096)MB Speed: 943.06 GByte/s OK
Chunk: 4 (4096-5120)MB Speed: 943.68 GByte/s OK
Chunk: 5 (5120-6144)MB Speed: 942.85 GByte/s OK
Chunk: 6 (6144-7168)MB Speed: 942.65 GByte/s OK
Chunk: 7 (7168-8192)MB Speed: 944.21 GByte/s OK
Chunk: 8 (8192-9216)MB Speed: 943.20 GByte/s OK
Chunk: 9 (9216-10240)MB Speed: 944.53 GByte/s OK
Chunk: 10 (10240-11264)MB Speed: 942.43 GByte/s OK
Chunk: 11 (11264-12288)MB Speed: 942.15 GByte/s OK
Chunk: 12 (12288-13312)MB Speed: 942.09 GByte/s OK
Chunk: 13 (13312-14336)MB Speed: 942.88 GByte/s OK
Chunk: 14 (14336-15360)MB Speed: 926.11 GByte/s OK

+3000 (1152 GB/s)
C:\Users\admin\Downloads\poclmembench_win_0_91>poclmembench.exe -s 1024 -r 1000
[0] Platform name: NVIDIA CUDA vendor:NVIDIA Corporation version:OpenCL 3.0 CUDA 13.0.84 <-- selected
[0] Device Name: NVIDIA GeForce RTX 5080 <-- selected
Type: 4 (GPU: 4, CPU: 2)
Vendor: NVIDIA Corporation
Max Compute Units: 84
Global Memory: 17094475776
Max Clock Frequency: 2670
Max Alloc. Memory: 4273618944
Local Memory: 49152
Available: 1
allocated 16106127360 bytes 15.00 GB
Running Bench test on:NVIDIA GeForce RTX 5080
Chunk: 0 ( 0-1024)MB Speed: 1002.90 GByte/s OK
Chunk: 1 (1024-2048)MB Speed: 1004.61 GByte/s OK
Chunk: 2 (2048-3072)MB Speed: 1002.26 GByte/s OK
Chunk: 3 (3072-4096)MB Speed: 1003.14 GByte/s OK
Chunk: 4 (4096-5120)MB Speed: 1001.46 GByte/s OK
Chunk: 5 (5120-6144)MB Speed: 1002.18 GByte/s OK
Chunk: 6 (6144-7168)MB Speed: 1002.11 GByte/s OK
Chunk: 7 (7168-8192)MB Speed: 1002.85 GByte/s OK
Chunk: 8 (8192-9216)MB Speed: 1002.65 GByte/s OK
Chunk: 9 (9216-10240)MB Speed: 1002.74 GByte/s OK
Chunk: 10 (10240-11264)MB Speed: 1002.32 GByte/s OK
Chunk: 11 (11264-12288)MB Speed: 1002.56 GByte/s OK
Chunk: 12 (12288-13312)MB Speed: 1000.96 GByte/s OK
Chunk: 13 (13312-14336)MB Speed: 1003.47 GByte/s OK
Chunk: 14 (14336-15360)MB Speed: 973.97 GByte/s OK

825/943=87,5%
30000/34000=88,2%

825/1002=82,3%
30000/36000=83,3%

943/1002=94,1%
34000/36000=94,4%

Müsste also eigentlich ganz gut passen. :uponder:

mfg.

Sonyfreak

Semmel
2025-12-19, 17:06:19
Nicht schlecht. Dann ist die 5080 die Grafikkarte mit dem höchsten GDDR7-Takt, noch vor der 5090. :D

Sardaukar.nsn
2025-12-19, 17:16:55
Der MSI Afterburner zeigt für die RTX 5080 einen Basistakt von 15000 MHz an (die Hälfte der 30 Gbps Transferrate). Wenn du den Speichertakt dort um 3000 MHz erhöhst, zeigt die Anwendung danach 18000 MHz an. Das entspricht einer effektiven Datenrate von 36 Gbps (36000 MHz) und steigert deine Speicherbandbreite von 960 GB/s auf satte 1152 GB/s.

15000*2/16=1875Mhz
18000*2/16=2250Mhz

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=94944&stc=1&d=1766156218

mfg.

Sonyfreak


2250 ist korrekt: Siehe auch hier im Vergleich mit meiner Vorgänger Karte @3Ghz, Reiter Grafikkarte: https://www.3dmark.com/compare/sn/61137/sn/9969205#

ExJuvantibus
2025-12-21, 00:02:08
Danke für ausprobieren und erklären. Dann ist ja der neue Speicher gleich vom Start weg sehr gut. Also das Gegenteil damals vom GDDR2 auf den FX 5 Ultras. ;D


Umso mehr muss ich mich mal hinsetzen und doch mal benchen. Wäre dann ja echt ungewöhnlich wenn + 2.000 im AB schon zum Absturz führen. Hitze wäre das einzige was mir einfällt den bei VRAM haben sich Wärme und hoher Takt immer gegenseitig ausgeschlossen. Hab damals mit HW-Info auch nebenbei Temps gecheckt, die waren in Ordnung - so wie auch die der Komponenten rundum.


Wie bekommt ihr eigentlich 3.000 im AB eingestellt? Das höchste was bei mir geht, auch wenn ich manuell die Zahl eintippe, ist 2.000. Derzeit schafft meine Prime die schon nicht, aber falls doch ...


Hab auch mal während Essen Kochen die OC Scanner vom AB/NV laufen lassen. Sehr interessant, der macht das gleich über die Kurve. Muss mal NV OC mit meinem in Cyberpunk vergleichen. :biggrin: €: Paar Mhz mehr auf Stock - wie zu erwarten. ;)


€: Hab schnell CP bissl den integrierten Benchmark durchlaufen lassen. 2.000 Mhz und ich sehe auch Performance-Zuwachs, dh die Fehlerkorrektur durch OC ist noch kein Prolbem/nötig bzw. frist die Mehrleistung nicht auf.

€2: Nevermind, das Alter! Ich hab scheinbar damals schon bewusst die Beta und auch die modifizierte HW-Datenbank File gezogen. War auch schon im Richtigen Verzeichnis mit dem Namen MSIAfterburner - 3000.dat, und nach 2 geschwinden Umbenennungen gehen auch 3.000 Mhz. Komplett vergessen dadrauf, weil sollt natürlich alles Stock ohne Schluckauf werkelt für die ersten Monate. Ich bin echt vergesslich geworden ....

Jetzt müssen nur die 3.000 auch noch laufen. :biggrin:

€3: Habs jetzt paar mal mit 2250 Mhz. bzw. +3.000 Mhz im AB bzw. 18.000 Mhz Durchlaufen lassen - läuft einwandfrei. Nur 1.000 extra wäre jetzt nicht das Ende der Welt gewesen aber wenns bei praktisch jedem läuft ......
Zusammen mit meinen Bench Settings und 3200 Core (Peak bei 3270 laut GPU-Z, dass muss eigentlich nicht sein und wäre gute Grund für RIP) sind jetzt knapp über 70 FPS avg. drin. Gute 10 % über Auflieferungszustand.

CP liegt Blackwell ja, aber ich glaube auch in anderen Spielen ist 4090 Stock recht nah. :biggrin: (Außer Speicher, 16 GB sind ..... )


Peak-Temps mit Autolüfter (die Lüfterkurve ist akzeptable, imho): 76 GPU und 80 VRAM. Das alles bei schlappen 390 W Peak.;D

Nächster Schritt ist dann wohl doch der Curve-Editor ...

rentex
2025-12-22, 16:34:44
Ich kann mich immer noch nicht durchringen, von meiner 4080 auf ne 5080 zu gehen...

Bandit3644
2025-12-22, 17:11:24
Wäre ja auch Quatsch.

Matrix316
2025-12-22, 18:16:53
Die 4080 kann ja auch gut Raytracing. Da lohnt sich das Upgrade auch nicht. Vor allem wenn man bedenkt, wie teuer die damals war. Ich hatte mal vor der 7900XTX ja eine Zotac 4080 und die hatte als günstigstes Modell so 1330 Euro gekostet mein ich. :ugly:

Sardaukar.nsn
2025-12-22, 18:38:58
Steelnomad DX12 bringt eine gute 4080 knapp 7.000 Punkte, eine 5080 halt 10.000. Darf aber jeder gerne interpretieren wie er will. Rein aus dem Bauch würde ich sagen, wenn du mit der 4080 bisher klar gekommen bist, kannst du Blackwell auch einfach skippen und noch 1,5 Jahre durchhalten. Wenn man sich trotzdem was gönnen will, an anderer Stelle Upgraden (Bildschirm, Bürostuhl ect.) kann auch Spaß machen.

rentex
2025-12-22, 19:04:45
Ich weiß...der gleiche Mist, mit meinem 7800X3D...ich finde keinen Grund zum Basteln😂

r3ptil3
2026-01-07, 09:49:00
Ich bin am überlegen von einer ASUS Strix 4090 auf die RTX 5080 (Noctua Edition) zu wechseln.

Die 5090 lässt sich nicht unter 300W betreiben - absolutes nogo für mich. Mein System ist mittlerweile komplett lautlos. Das einzige was ich höre unter Last, ist das wirklich nervige Spulenrasseln der Strix 4090 und das bei unter 300W Verbrauch.

Kriegsgeier
2026-01-07, 09:55:48
hä? Von einer 4090 zu 5080 wechseln? Ergibt kein Sinn!
Was willst du für deine Strix 4090 dann haben? Ich kaufe ;)

mironicus
2026-01-07, 09:59:07
Bei einer Noctua Edition wird das Spulenrasseln der 5080 die Lüfter vielleicht übertönen.

r3ptil3
2026-01-07, 10:11:05
Bei einer Noctua Edition wird das Spulenrasseln der 5080 die Lüfter vielleicht übertönen.

Gemäss ComputerbaseTest ist sie praktisch verschont von Spulenrasseln. Könnte aber auch daran liegen, dass der riesige Kühler einfach schon akustisch die die Geräusche besser isoliert.

@Kriegsgeier
Dachte ich lange Zeit auch.
Wenn man die Effizienz aber anschaut im Verhältnis zur Preisdifferenz, wäre es halt interessant. Aber ja, grundsätzlich würde ich das jetzt definitiv keinem anderen 4090 Besitzer empfehlen.

Was wäre denn dein Preisvorschlag?

Kriegsgeier
2026-01-07, 11:06:34
1200€ würde ich dir dafür geben ;)

Disco_STFU
2026-01-07, 11:20:48
In paar Monaten bekommst du wahrscheinlich 2,5k für ne 4090. :D

rentex
2026-01-07, 11:51:21
Ich bin am überlegen von einer ASUS Strix 4090 auf die RTX 5080 (Noctua Edition) zu wechseln.

Die 5090 lässt sich nicht unter 300W betreiben - absolutes nogo für mich. Mein System ist mittlerweile komplett lautlos. Das einzige was ich höre unter Last, ist das wirklich nervige Spulenrasseln der Strix 4090 und das bei unter 300W Verbrauch.

Ja, diese schrottigen 4090er...das macht keinen Sinn. :freak:

Hakim
2026-01-07, 13:09:34
Man bekommt schon eine 5090 auf unter 300W wenn man es drauf anlegt. Ja Power Limit ist bei min 450W glaube ich, aber kannst ja via afterburner Spannung und Takt soweit runtersetzen das es unter 300W bleibt? Dann halt noch zusätzlich FPS caps bei den Spielen.

Dürfte dann immer noch schneller sein als deine 300W 4090.

r3ptil3
2026-01-07, 13:11:59
Man bekommt schon eine 5090 auf unter 300W wenn man es drauf anlegt. Ja Power Limit ist bei min 450W glaube ich, aber kannst ja via afterburner Spannung und Takt soweit runtersetzen das es unter 300W bleibt? Dann halt noch zusätzlich FPS caps bei den Spielen.

Dürfte dann immer noch schneller sein als deine 300W 4090.

Holt man sich dann nicht gleich eine halb so teure 5080?

Hakim
2026-01-07, 13:18:25
Wenn du auf Leistung verzichten willst, jo Go for it. Die 5080 müsstest du auch auf 300W begrenzen, Stock sind die 360W und die Noctua edition könnte evtl noch höher sein da auf der TUF basierend.

Hast mal alles bei der 4090 probiert wegen Spulenrasseln? UV, fps cap etc?

Edit: so günstig ist die Noctua Edition auch nicht, bei GH fängt es bei 1910€ an, nicht mehr sehr weit weg zu 5090 xD

aceCrasher
2026-01-08, 10:27:10
https://videocardz.com/newz/218442

Von PNY gibts jetzt 5070/5070ti/5080 im Dual Slot Format mit extra großen Lüftern. Die 5070ti und 5080 haben 120mm (!) Lüfter. Ich persönliche finde die sehr sehr schick.

https://cdn.videocardz.com/1/2026/01/PNY-SLIM-DUAL-1200x624.jpg

https://cdn.videocardz.com/1/2026/01/PNY-SLIM-CES-2026-1.jpg

https://cdn.videocardz.com/1/2026/01/pny-geforce-rtx-5080-16gb-slim-dual-fan-oc-f1c5-1200x900-1.jpg

Sardaukar.nsn
2026-01-08, 10:31:29
Hat MSI bei der Expert Grafikkarte auch schon gemacht und funktioniert wohl sehr gut: https://www.computerbase.de/artikel/grafikkarten/msi-geforce-rtx-5080-expert-test.94139/seite-2#abschnitt_lautstaerke_unter_last

Die PCBs der 5080 und darunter können aber auch wirklich sehr kompakt sein.

The_Invisible
2026-01-08, 11:04:44
Man bekommt schon eine 5090 auf unter 300W wenn man es drauf anlegt.

Nö niemals, zumindest wenn volle Last anliegt. Im Prinzip kann man 4090 + 100W rechnen bei gleichen UV, und selbst meine UV 4090 geht da zb bei Q2RTX deutlich über 300W.

dargo
2026-01-08, 11:09:53
Nö niemals, zumindest wenn volle Last anliegt. Im Prinzip kann man 4090 + 100W rechnen bei gleichen UV, und selbst meine UV 4090 geht da zb bei Q2RTX deutlich über 300W.
Die Leute testen mit Teillast und dann werden solche Märchen @x Watt verbreitet. Jede Generation der gleiche Unsinn. Den selben Quatsch hatten andere damals bei CPUs abgezogen von wegen wie sparsam so ein Octacore im Gaming ist. Dabei wurden dann Games ran gezogen die nicht mal 4 Threads ausgelastet hatten. :ulol:

Hakim
2026-01-08, 12:46:50
Nö niemals, zumindest wenn volle Last anliegt. Im Prinzip kann man 4090 + 100W rechnen bei gleichen UV, und selbst meine UV 4090 geht da zb bei Q2RTX deutlich über 300W.

Was spricht denn dagegen alles einfach runter zu stellen bis man unter 300w in den meisten spielen bleibt? Glaube bis 0,7V erlaubt AB bei der 5090 oder? Dann noch den Takt, ka auf 1,4GHz stellen, nur mal grob zum verdeutlichen, ich weiß das man so massig Leistung liegen lässt, ging ja nur darum unter 300W zu bleiben. Sollte doch gehen

dargo
2026-01-08, 13:03:07
Wie behämmert muss man sein Unsummen an Geld auszugeben um das Ding dann massiv einzubremsen? Beantwortet das deine Frage? Wenn jemand ein max. Powerbudget von 300W anpeilt dann kauft der sich eben entsprechende Karte (etwas drüber geht immer was man mit UV wieder ausgleichen kann) und verbrennt nicht das Geld.

Hakim
2026-01-08, 13:05:46
Er will für eine bestimmte 5080 knapp 2k ausgeben, wieso nicht 500€ drauflegen für mehr Leistung und 32GB Speicher?

Daredevil
2026-01-08, 13:11:36
Es geht nicht darum die Hardware einzubremsen, sondern sie dem passenden Problem effizient entgegen treten zu lassen. Seit der 1080 habe und hatte ich immer verschiedene Profile für verschiedene Anforderungen. Somit verschenkt man nicht unnötig Strom für das gleiche Ergebnis, schont die Hardware und der Geräuschpegel freut sich auch etwas. Das kann man aber logischer weise nur tun, wenn man ein Überfluss an Leistung hat und dies ist doch das charmante bei den 5080/4090/5090 Karten.

Brauche ich Frame Generation in Diablo4 bei 90-120fps mit DLSS? Nö. Schalte ich es trotzdem an, weil ich keine Unterschiede Merke, die FPS Rockstable auf 118fps liegen und ich deswegen sogar noch 180w spare ( 220 statt 400w )? Jup.
Eine 5090 bei 400w ist immer noch 12% schneller als eine 4090 bei 450w ( https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-13#abschnitt_rtx_5090_vs_rtx_4090_bei_450watt ) und demnach ist die Kiste knapp 30% effizienter. Dafür zahlt man, wenn man möchte, auch den Preis. Eine 4090 kann zwar auch so effizient sein, dafür aber mit deutlich weniger VRAM, einem schlechteren Featureset und halt mit weniger Leistung.

Edit: Von einer 4090 auf eine 5080 zu wechseln empfinde ich allerdings auch als quatsch. Eine 5090 kann locker unter 300w gehen, wenn das FPS Ziel erreicht ist. Ist einfach nur eine Frage der Einstellung. Da die 5090 allesamt Kühler für 575w haben, sind die Kisten bei 200-400w auch imho wirklich leise, sogar meine billige Asus TUF.

dargo
2026-01-08, 13:13:31
Er will für eine bestimmte 5080 knapp 2k ausgeben, wieso nicht 500€ drauflegen für mehr Leistung und 32GB Speicher?
2k für eine popelige 5080 wäre mindestens genauso behämmert. Naja... er wird schon wissen was er tut, oder auch nicht. Seine Entscheidung.

Hakim
2026-01-08, 13:13:41
Vor allem hat man immer die Option wenn man mal die Mehrleistung will. Macht für mich mehr Sinn als eine 5080 Noctua für knapp 2k. Ab muß er selber wissen

ExJuvantibus
2026-01-08, 17:26:58
https://videocardz.com/newz/218442

Von PNY gibts jetzt 5070/5070ti/5080 im Dual Slot Format mit extra großen Lüftern. Die 5070ti und 5080 haben 120mm (!) Lüfter. Ich persönliche finde die sehr sehr schick.




https://www.igorslab.de/ursachenforschung-kondensatordefekt-auf-einer-pny-rtx-5070-mit-ansage-und-vorheriger-warnung/

PNY verbaut mit Absicht minderwertige Bauteile in übermäßig heiße Umgebungen deren Nennlebensdauer sich dadurch auch mal auf paar Monate reduziert wird und die sich per Explosion auf der Karte im Case verabschieden.

Oder ums kurz zu machen: Die gehören zugeschissen.


Klar 12V-2x6 bedeutet grundsätzlich mal Feuerlotterie aber platzende Kondensatoren kenne ich eigentlich nur von LC-Power Level Elektroschrott.

r3ptil3
2026-01-08, 17:45:14
Er will für eine bestimmte 5080 knapp 2k ausgeben, wieso nicht 500€ drauflegen für mehr Leistung und 32GB Speicher?

Absoluter schwachsinn den Leuten irgendwas zu unterstellen hier drin.

Erstens habe ich nie von einer 2000 Euro teuren Noctua 5080 geredet, sondern erwähnt, dass sie weniger kostet als die 4090.

Die Noctua 5080 gibts hier (CH) für ca 1300 Euro über den Asus Shop. Gerade gestern noch die Benachrichtigungsmail erhalten.

Das ist wirklich zum kotzen wie den Leuten hier Dummheit unterstellt wird, auf Basis von Spekulationen.

Disco_STFU
2026-01-08, 18:00:12
Ok... und jetzt kommen wir alle mal wieder runter und haben uns lieb! :)

Hakim
2026-01-08, 18:47:15
Ich unterstelle hier niemanden Dummheit, wie kommst du darauf? Hier kostet die Karte halt um die 1900€ aktuell, mein Vorschlag war etwas drauf zu legen und eine 5090 zu holen wenn du von einer 4090 kommst. Wieso du das jetzt persönlich nimmst, dich unnötig aufregst und meinst ich hätte dir Dummheit unterstellt, puh....dabei Versuche ich immer sachlich zu bleiben und wollte dir nur ein Tipp geben. Bin auf jeden Fall raus bei dem Thema.

Semmel
2026-01-08, 19:04:40
Die 5080 Noctua ist ja ganz schön teuer geworden.
Die war vorher lange bei 1400-1500 €.

Der Kühler ist schon geil und wahrscheinlich besser als jeder Lüftkühler einer 5090.
Ein so starker Kühler "nur" für eine 5080 verspricht dann schon einen extrem leisen Betrieb. Wenn das die oberste Priorität ist, wieso nicht?

Ex3cut3r
2026-01-08, 19:53:20
Ja, fairer Punkt. Du könntest dir theoretisch auch ein ganz normales 08/15 Modell der 5080 holen und es per Undervolting mit gleichzeitigem OC auf etwa 230–250 W bei 0,850/0,875 V begrenzen. Damit bekommst du ebenfalls eine sehr leise Karte und sparst dir gegenüber der Noctua grob 800–900 €. Leistungsseitig liegst du dann im Schnitt vermutlich nur rund 5 % unter der Noctua.

Trotzdem: Ich bin kein Fan davon, für Custom-Modelle solche Summen auszugeben. Wenn man sowieso schon fast bei 2.000 € landet, ist die 5090 dann auch nicht mehr so wahnsinnig weit weg

Sardaukar.nsn
2026-01-08, 19:58:47
Wobei gerade bei der 5080 viele günstige Modelle den gleichen Kühler der 600 Watt 5090 Karten verbaut haben. Siehe Zotac oder Gainward/Palit. MSI Expert mit den 2x120mm Lüftern ist gut. Aber auch kleinere Karten wie die Asus Prime. Generell sind hier ne Menge guter Karten im Umlauf.

Daredevil
2026-01-08, 20:10:51
Die 5090 lässt sich nicht unter 300W betreiben - absolutes nogo für mich.

Die 5080 müsstest du auch auf 300W begrenzen

Ich habs jetzt gerade mal in WoW nachgemessen. Wie bereits gesagt, man muss nicht das Power Limit begrenzen und man bekommt eine 5090 auch weit unter 300w, es kommt halt eben enorm drauf an, welche Last anliegt. Du kannst eine 5090 plain Stock lassen und kommst je nach Anforderungen im Spiel auf 600w, oder eben auf 100w. Die Auslastung, die man im Spiel einstellt entscheidet über den Verbrauch, da ist es irrelevant wie dick die GPU ist oder wo das Power Limit steht.

8K
https://s1.directupload.eu/images/260108/8q3qvlqp.png

4K
https://s1.directupload.eu/images/260108/qmw7w9sw.png

720p
https://s1.directupload.eu/images/260108/q2l4ggw7.png

720p@30fps
https://s1.directupload.eu/images/260108/6loehsfu.png

Und das hier ist mein WoW Setting, wie ich tatsächlich Spiele. 5K+RT bei 118fps Cap, weil 120hz Screen. Ich könnte auch auf 8K gehen, aber das ist mir den Strom nicht wert, dazu ist WoW zu "glatt", das es große Unterschiede macht.
https://s1.directupload.eu/images/260108/wlo8ke8j.png

Den Stromverbrauch kann man also durchaus sehr flexibel gestalten, wie man es halt möchte. In Cyberpunk z.B. gehe ich gerne mal auf 500w hoch und machs mir gemütlich hier im Zimmer. In Indie Titeln gehts auf 100-200w runter, wenn 6K/8K keinen Benefit bringt. Bei 4K120 heißt es immer noch, die dickste Karte ist die effizienteste, seit der 1080ti. ^^
Eine 4090 ist aber schon eine enorm gute und effiziente Karte. Die 5080 wäre in der Hinsicht nur spürbar effizienter, wenn man MFG nutzt und damit keine Probleme hat.

Sonyfreak
2026-01-09, 07:16:09
Was spricht denn dagegen alles einfach runter zu stellen bis man unter 300w in den meisten spielen bleibt? Glaube bis 0,7V erlaubt AB bei der 5090 oder? Dann noch den Takt, ka auf 1,4GHz stellen, nur mal grob zum verdeutlichen, ich weiß das man so massig Leistung liegen lässt, ging ja nur darum unter 300W zu bleiben. Sollte doch gehenAlso ich kann bei meiner 5080 den Takt im Curve Editor nicht unter ~2,1Ghz legen. Sobald ich auf Übernehmen klicke, springt die Kurve wieder auf 2,1Ghz hinauf. Schade eigentlich, ich wollte mir ein 0,8V-Profil mit 1,5Ghz basteln.

mfg.

Sonyfreak

Jupiter
2026-01-10, 10:56:22
Welche RTX 5080-Versionen sind für knapp 1200 Euro zu empfehlen? Die Karte sollte eher zu den Leiseren gehören.
Zotac?

BUG
2026-01-10, 11:14:14
Nun lese ich wieder Reviews, möchte und möchte mit der 5080 irgendwie so gar nicht warm werden. Ja was mache ich den nun?
Warum nicht eine RTX 5070 Ti 16GB? Die 5080 ist doch kaum schneller (vielleicht 15%) und das Upgrade von einer 1080 ist in etwa genauso groß. Wenn die 5070Ti und 5080 nur 100€ trennen würde, würde ich sagen okay nimm die 5080 aber bei oft 300 bis 400€ Preisunterschied ist die 5070 Ti imho das deutlich rundere Produkt.

Sobald man das Powertarget der RTX 5070 Ti auf das Niveau der 5080 anhebt ist der Unterschied noch viel geringer.
https://www.alternate.de/Gainward/GeForce-RTX-5070-Ti-Phoenix-S-Grafikkarte/html/product/100128966 -> 800€ für die Gainward Phoenix
https://www.galaxus.de/de/s1/product/asus-prime-geforce-rtx-5070-ti-oc-16-gb-grafikkarte-54606768 -> 820€ für die Asus Prime

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=95227

Sardaukar.nsn
2026-01-10, 11:27:12
Blackwell mit 2,7ghz laufen zu lassen und vram auch noch Stock ist halt auch total an der Realität vorbei. 3 Mausklicks und du kannst diese ganzen Reviews knicken.

robbitop
2026-01-10, 11:36:42
Und auch die 5070ti kann man ocen. So oder so bleibt der Abstand. Meine 5070ti rennt mit knappen 3,3 GHz und 2000 MHz OC auf dem Speicher. Der Aufpreis von der ti zur 5080 ist zu hoch für die Mehrperformance

Daredevil
2026-01-10, 11:53:26
Und wenn man mal genau ins Lineup schaut, steht Ti für "AMD hat in dem Preissegment was netteres, also müssten wir hier ebenso die Preis/Performance deutlich verbessern, damit nicht jeder zu RDNA4 läuft, scheiß um die Marge". :D

robbitop
2026-01-10, 13:39:25
Noch besser (P/L und das Ding geht vom absoluten Preis noch als halbwegs okaye GPU durch die keine Bodenhaftung verloren hat) ist die 5070 - wenn man vom kleinen VRAM absieht mit dem man aber auch leben kann.
Die 5080 ist einfach zu annämisch für ihren Preis. Da bräuchte es eher sowas wie die 3080 bei Ampere war. Einen teildeaktivierte GB202 in dem Fall mit ~20% weniger Units und Bandbreite. Aber ohne Wettbewerber in dem Segment kann man mit der Geforce MX die ganzen Leute abzocken die 1200€ für eine GPU noch okay finden, 2000-3000 aber doch zu viel X-D
Sind richtig krasse Zeiten.
Wir brauchen wieder mehr Wettbewerb auf allen Segmenten.

Daredevil
2026-01-10, 14:00:56
Kommt durchaus immer recht individuell darauf an, welches Problem man auf dem Schreibtisch lösen möchte. Selbst wenn eine 5070 ein drei mal so hohes P/L Verhältnis hat als eine 5080, muss erstmal als Grundlage das Problem angegangen werden. Das wäre bei mir z.B. 4K120.
Wenn eine 5070 das grundsätzlich aufgrund des RAMs oder eben der Performance nicht leisten kann, dann ist die Preis/Performance auch einfach nicht gut, sondern gar nicht da. ^^

Und tatsächlich war einer der Hauptgründe, warum ich mich von der B580 getrennt habe nicht unbedingt die Performance, sondern weil mir in Diablo4 in 4K der VRAM ausgegangen ist. Die Performance reicht da locker, aber 12GB waren schneller voll als ich schauen konnte. Auf den VRAM habe ich auch ehrlich gesagt nicht so sehr geachtet, weil ich mir mit der 3090 vor ein paar Jahren halt absolut nie Gedanken machen musste. Insofern würde ich die sinnvollen TIERs eher bei 12/16/24 sehen für FHD/WQHD/UHD. Aber gut, Abstriche und Regler kann man immer bedienen, bin ich aber kein Fan von wenn mal 500€+ ausgibt und direkt kastrieren muss. Eigentlich sollte sie immer ein wenig schneller als erwünscht sein um wirklich Begeisterung zu spüren und langfristig Spaß zu haben.

Und unabhängig davon, das wir irgendwann auch mal "AI Ingame" sehen werden, ist ein kleiner VRAM Puffer ja nicht verkehrt, solange Nvidia und Microsoft ihre Neural Sparmaßnahmen nicht etabliert haben, das dauert vermutlich noch ewig. Wettbewerb kommt imho in den nächsten Jahren von außerhalb von X86, da bin ich mir eigentlich ziemlich sicher. Zumindest würde ich mein Geld drauf verwetten, was ich auch tue. :D

Ich habe gestern Cyberpunk gezockt mit 2x FG und vollem Pathtracing mit der 5090 und die FPS waren rocksolid immer bei 118fps, weil nahe am Monitor Cap.
Trotz meines billo 5700X geht es halt einfach, weil die GPU den CPU Bottleneck verschleiert. Würde mich nicht wundern, wenn es weiterhin einen Shift gibt, wo die GPU noch mehr maßgeblich davon abhängig ist, wie man heute Spiele erlebt. Ich würde demnach wahrscheinlich lieber einen 5700X+5070ti einer 9800X3D+9070XT Kombi vorziehen, weil ich am Ende schlicht mehr auf dem Screen bekomme. Software powers Hardware, so viel wie noch nie imho. Und FG muss man eh einschalten, weil sonst kommt man nie auf die 120fps'ish. :D

HOT
2026-01-10, 14:10:26
Das wird eh falsch interpretiert aus meiner Sicht, denn die "Sparmaßnahmen" werden eh sofort wieder in andere verschwenderische Features investiert werden... war bisher ja immer so.

Ich würde mal denken, dass für die künftigen Ultra-Einstellungen in Spielen die 9070XT das Maß der Dinge sein wird um auf 60FPS zu kommen, mit der 5070Ti ist man halt genau darauf, mit der 5070 und 12GB leider schon wieder dick darunter, die 5080 hingegen ist hier eher als Sorglosprodukt anzusehen, dass immer auf über 60FPS kommen wird.

robbitop
2026-01-10, 15:48:36
Kommt durchaus immer recht individuell darauf an, welches Problem man auf dem Schreibtisch lösen möchte.

„Problem“ X-D Das beste Beispiel für „first world problems“.

Wenn man nicht abgehoben ist kann man IMO locker mit einer 5070 sehr gut zocken und eine Menge Freude haben.

r3ptil3
2026-01-10, 18:06:41
Wenn man nicht abgehoben ist kann man IMO locker mit einer 5070 sehr gut zocken und eine Menge Freude haben.

Nicht abgehoben mit einer 500-600 Euro GPU?

Wenn man nicht abgehoben ist hinsichtlich Hardware, hat man bei einem Upgrade 2025 höchstens eine RX 9060 oder RTX 4060. Ist aber auch schon eher etwas hoch gesetzt, siehe Steam Hardwaresurvey.


Wer es auslegt, spielt auch auf 4k flüssig (60fps+) mit einer RX 9060. Grafik Settings runter in Kombi mit FSR bis man die gewünschten FPS erreicht. Ingame merkt man nach ein paar Minuten eh kaum einen Unterschied mehr, wenn das Spiel an sich gut ist.

robbitop
2026-01-10, 18:28:03
Das wollte ich gar nicht im Abrede stellen, dass man auch unter 5070 level Spaß haben kann. Jeder zieht die Grenze sicherlich anders. Mein Punkt war folgender: 500-600€ sind ein Preispunkt, den man schon seit Jahrzehnten für GPUs zahlen kann. Wenn es zB vierstellig wird, fängt es IMO an abzuheben. Insbesondere wenn man dann immernoch nur eine Geforce MX bekommt. Ich fand ja schon vierstellig für die Vollversion vor 10 Jahren mit der Titan pervers. Aber jetzt gibts dafür nur noch eine MX X-D
aber die Leute kaufen es

ExJuvantibus
2026-01-10, 18:31:00
Ingame merkt man nach ein paar Minuten eh kaum einen Unterschied mehr, wenn das Spiel an sich gut ist.


;D


Bestes ist, jedes Gegenspielspiel das man jetzt bringen würde, kann mit der "nicht gut" Keule sofort runtgeknüppelt werden.



Ich hab vorher Baldurs Gate auf einer 1070 mit FSR gespielt. Ich sehe den Unterschied, ständig, trotz das meine Sehkraft langsam schlechter wird.

Semmel
2026-01-10, 18:51:44
Ich würde demnach wahrscheinlich lieber einen 5700X+5070ti einer 9800X3D+9070XT Kombi vorziehen, weil ich am Ende schlicht mehr auf dem Screen bekomme.

Das hängt stark von den Gaming-Präferenzen ab.
Sowas wie Cyberpunk habe ich auch gezockt. 30 Stunden oder so.
Demgegenüber stehen Tausende von Spielstunden für Spiele wie Anno oder Civ. Damit bringe ich den 9800X3D ständig ans Limit.

Also habe ich mich für 9800X3D + 5070 Ti entschieden.

robbitop
2026-01-10, 18:59:16
Cities Skylines 1+2 ist auch noch so ein Beispiel was CPU Power zum Frühstück verspeist (und verschwendet).

Daredevil
2026-01-10, 20:53:59
Deswegen habe ich ja auch aus meiner Sicht gesprochen und die Individualität der Probleme aka "Ziel des Monitors erreichen" gesprochen. Ich verstehe natürlich eure Argumente, das entkräftet nicht ganz mein Argument, weil:
Anno und Cities Skylines sind ebenfalls gute Gründe, das Software Hardware Beaten kann, weil auch hier eine ordentliche Frame Generation die Smoothness des Spiels erhöhen würde, oder nicht?
Wenn ihr 540hz Monitore habt, dann ist mein Argument natürlich komplett Banane. ^^

Du musst nicht auf Krampf einen 9800X3D prügeln, damit du die 131 P1-Fps hältst, sondern kannst auch mit den 68 P1-FPS eines 5800X ziemlich gut leben mit Frame Generation, was am Ende die visuellen FPS auf ein annähern ähnliches Niveau bringen würde unabhängig vom GPU Limit.
( Daten von PCGH: https://www.pcgameshardware.de/Anno-117-Pax-Romana-Spiel-74719/Specials/Review-Test-Benchmarks-Demo-Anforderungen-1484293/3/ )

Ich habe btw. ganz bewusst die Kombi 9800X3D+9070XT und 5800X+5070ti genannt, weil beide nahezu das gleiche kosten und der Vorteil hier schlicht einzig und alleine auf der einen Seite die Software von Nvidia ist, während die andere Kombi halt tatsächliche Frames berechnen muss mit dem 9800X3D. Ein 9800X3D + 5070 Ti kosten deutlich mehr, demnach kann man hier natürlich auch mehr erwarten. (:

1. 5800x+5070ti= 950€
2. 9800X3D+9070XT= 1090€
3. 9800X3D+5070ti= 1240€
( RAM Preise nehme ich jetzt mal nicht mit rein ^^ )

Es ist jetzt natürlich nur ein exemplarisches Beispiel und keine Hardware Beratung. Ich finde sowohl System 1 und System 2 sind unausgewogen, weil die Waage zu sehr in Richtung CPU als auch GPU bei der anderen Kombi liegt. System 3 ist schon harmonischer, ganz klar. Das ich nen 5800X+5090 kombiniere ist jetzt auch nicht unbedingt meine erste Wahl, aber für mich als Machbarkeitsstudie ganz spannend, das man mit bekannten Nachteilen die CPU durch Software ersetzen kann. Das klappt allerdings nur bei Nvidia, ist halt ein Wettbewerbsvorteil.

Was passiert denn, wenn ihr eure CPU ein wenig drosselt und Frame Generation aktiviert? Läuft Rollercoaster Tycoon dann nicht glatter?

Sardaukar.nsn
2026-01-11, 08:20:24
Und auch die 5070ti kann man ocen. So oder so bleibt der Abstand. Meine 5070ti rennt mit knappen 3,3 GHz und 2000 MHz OC auf dem Speicher. Der Aufpreis von der ti zur 5080 ist zu hoch für die Mehrperformance

Die 5070ti ist eine gute, moderne GPU keine Frage. Mit ordentlich OC wird auch deine wohl um 7600 Punkte im Steel Nomad liegen. https://www.pcgameshardware.de/Geforce-RTX-5070-Ti-Grafikkarte-281031/Specials/Nvidia-RTX-Uebertakten-OC-Tuning-Undervolting-UV-1470563/


Bei vergleichbaren Taktraten liegt meine 5080 dort +35% drüber: https://www.3dmark.com/compare/sn/6820673/sn/9969205

robbitop
2026-01-11, 08:24:38
Dann stimmt da was nicht. Im allerbesten Fall kann die 5080 bei gleichem Takt 20% schneller sein weil sie 84 SMs ggü den 70 SMs hat. Da SMs aber niemals linear skalieren (bei gleichem Takt) sondern erfahrungsgemäß näher an ~70% reden wir in realen Spielen eher von ~15%. Messbar aber selten fühlbar.

Sardaukar.nsn
2026-01-11, 08:38:07
Das passt schon. Darum sind ja auch genug Leute bereit den Aufpreis für die 5080 zu bezahlen, da eben doch substantiell mehr Leistung da ist. Das die Karten echte OC Monster sind, war ja nach den ersten Reviews bereits bekannt.

Hier noch mal High-OC an der 5070Ti, die landen bei bei Steel Nomad um 7500 https://www.igorslab.de/worlds-first-34-ghz-5070ti-15-mehrleistung-auf-einer-nvidia-gpu-mit-oc-wenn-schweine-fliegen-lernen/

robbitop
2026-01-11, 08:46:57
Wenn mit 20% mehr Einheiten mehr Leistung als 20% bei rauskommen sollen bei gleichem Takt vorhanden sein sollen passt es nicht. (mal abgesehen von 3dmark). Sofern da keine sinnvolle Begründung kommt bleibt es falsch egal wie oft es wiederholt wird.

Sardaukar.nsn
2026-01-11, 09:07:15
Die Punkte 10.000 Punkte bzw. 100 FPS hier und sind auch keine Seltenheit: https://www.3dmark.com/search#advanced?test=sw%20DX&cpuId=&gpuId=1688&gpuCount=1&gpuType=ALL&deviceType=ALL&storageModel=ALL&modelId=&showRamDisks=false&memoryChannels=0&country=&scoreType=graphicsScore&hofMode=true&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock= Am Ende müssen halt die Kunden entscheiden ob ihnen der Aufpreis für eine 5080 wert ist.

horn 12
2026-01-11, 09:10:04
Wenn wie ich 5800X3D zusammen mit Powercolor Hellhound 9070 XT

Semmel
2026-01-11, 10:02:06
Niemand spielt 3DMark.
Betrachtet man den PCGH-Grafikkartenvergleich (https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/), dann ist die 5080 unter 4K 16 % schneller.

Das ist durchaus eine ordentliche Mehrleistung, aber eben mit einem schlechteren P/L-Verhältnis erkauft.
Als P/L-Käufer war für mich die 5070 Ti die logische Wahl.

Das OC-Potenzial der 5070 Ti ist außerdem rein logisch betrachtet höher, weil diese auf einer niedrigeren TDP basiert.
Teilweise haben 5070 Ti und 5080 exakt den gleichen Kühler (und sind damit vollständig hardwareseitig identisch), d.h. beide können je nach Modell die gleiche TDP ab.
Meine MSI 5070 Ti Expert ist z.B. so ein Fall. Kühler identisch zur 5080.
Preise:
5070 Ti Expert: 921 €
5080 Expert: 1499 €

Macht 63 % Aufpreis für 16 % Mehrleistung ohne OC.

Billigste 5070 Ti: 799 €
Billigste 5080: 1121 €

Gut, da sind es nur noch 40 % Mehrpreis.
Aber egal wie, die 5080 lohnt sich aus reiner Preis-/Leistungssicht nicht.
Das heißt ausdrücklich nicht, dass sie nicht "sinnvoll" ist. Wenn man es sich leisten kann und will, dann ist es immer sinnvoll. :D
Das gilt ebenso für die 5090.

robbitop
2026-01-11, 10:06:26
Bei nahezu gleichen Taktraten sind es 12-15% (4K Index Raster und RT) edit: bei PCGH in 4K sind es 17% ändert aber nicht viel.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5070-ti-test.91379/seite-2#abschnitt_gputaktraten_unter_last

Taktrate 5070ti 2753 MHz (avg)
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5070-ti-test.91379/seite-2#abschnitt_gputaktraten_unter_last

Taktrate 5080 2713 MHz (avg)
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-2#abschnitt_gputaktraten_unter_last

Sind 1,5% Unterschied im GPU Takt also quasi gleich - der Einfluss der Streuung bei den dice ist sicherlich wesentlich höher als der kleine Taktunterschied.

Und wenn man jetzt beide auf 3,3 GHz übertaktet (meine rennt jedenfalls auf 3,3 GHz) kommt welche Differenz dabei raus? Das gleiche wie stock. 12-15%. Bei 32% Preisdifferenz aktuell (GH Preise billigstes Modell jeweils)

Die 5080 ist für die Leistung IMO deutlich zu teuer (was funktioniert weil es da kein Gegenprodukt gibt). Für eine 80 bräuchte es IMO eine größere GPU. Eher einen teildeaktivierten GB202 wie damals GA102 für die 3080 (die 699 usd uvp hatte).Aber ohne Wettbewerb gibts das nicht. Ich empfinde das als enttäuschend - wir brauchen wieder mehr Wettbewerb.

Und ich bin auch nicht der einzige der das so sieht. Richard Leadbetter von DF und auch HWUB hat das mehrfach sehr ähnlich dargestellt.

Semmel
2026-01-11, 10:18:13
Der 5080 fehlt eindeutig ein Alleinstellungsmerkmal, um sich von der 5070 Ti abzugrenzen.
24 GB VRAM wären nett gewesen. Damit hätte ich mir die 5080 besser schönreden können. ;)

dargo
2026-01-11, 10:18:17
Es war doch schon von Anfang an klar, dass die 5070TI vor allem dank ebenfalls 16GB aus P/L-Sicht das bessere Produkt ist vs. 5080. Keine Ahnung was das Rumgeeier wieder soll.


Die 5080 ist für die Leistung IMO deutlich zu teuer (was funktioniert weil es da kein Gegenprodukt gibt). Für eine 80 bräuchte es IMO eine größere GPU. Eher einen teildeaktivierten GB202 wie damals GA102 für die 3080 (die 699 usd uvp hatte).Aber ohne Wettbewerb gibts das nicht. Ich empfinde das als enttäuschend - wir brauchen wieder mehr Wettbewerb.

Vergiss es... das war nur ein Ausnahmezustand dank billigen Konditionen von Samsung. Sowas wird es bei TSMC nie mehr geben (es sei denn irgendein Fertiger überholt in Zukunft TSMC, wie wahrscheinlich sowas zutrifft kannst du dir selbst denken) , dass ein 628mm Chip bis zum oberen Performancesegment verwurschtelt wird.

robbitop
2026-01-11, 10:47:22
Es müssen ja keine 699 sein. Aber wenn es für das doppelte nur den halben Chip gibt sprechen wir ganz ganz grob vom viertel. Und das kann mir keiner erzählen, dass das nur Samsung war oder steigende Kosten. Da ist garantiert auch ganz viel Margenerhöhung dabei. Und das geht halt ohne Wettbewerbsprodukt besonders gut.
Für den Preis der 5080 kann man IMO schon erwarten, dass der Chip dann nochmal 20+% breiter ist (oder halt ein Salvage).

Der Abstand vom größten zum zweitgrößten Chip ist so groß wie nie zuvor afaik.

dargo
2026-01-11, 11:04:49
Gewöhn dich dran, richtige Preiskämpfe wird es nicht mehr bei größeren Chips geben da beide brauchbare Margen projezieren. Nvidia tendenziell noch höhere. Wem das nicht passt muss halt verzichten.

mobsy
2026-01-11, 11:10:28
Ich denke auch, daß die 5070 TI auf jeden Fall die vernünftigere Wahl ist im direkten Vergleich zur 5080.

Die, die sich dann die 5080 oder gar die 5090 holen, da geht es nicht mehr um Vernunft. Da geht es um eine Mischung aus Enthusiasmus, haben wollen und leisten können.

Bei mir hat es letzten Mai, Juni rum angefangen mit dem Gedanken zu spielen mir gegen Jahresende ein neues System zu bauen.

Die erste Kalkulation war mit "dem günstigsten X3D" und einer Radeon RX 9070 XT.

Geworden ist es dann der 9800X3D und... eine 5080.

Warum?

Haben will und leisten können! Vernunft? Joah, ab morgen wieder...

Warum nicht? Es macht mir Spaß, ich kann es mir gerade leisten und ich freu mich einfach, wenn ich die Maschine beim zocken neben mir stehen sehe. Gibt sicher sinnvolleres, Stichwort Vernunft, aber ganz sicher auch ne ganze Menge sinnloseres, um sein Geld zu verbraten.

Sardaukar.nsn
2026-01-11, 11:18:14
Die 5070Ti hat das bessere P/L Verhältnis, kam aber auch noch mal später auf dem Markt. Damals hab ich mich für eine 5080 zum MSRP Preis entschieden da sie Day-1 verfügbar war und die 5090 schlecht verfügbar und Gaming-Mehrleistung in keinem guten Verhältnis stand. Heute sieht das mit 1000Watt Bios ect. schon etwas anders aus. Mit der doppelten Hardware kommt man im besten Fall (z.B. Steel Nomad) auf +70-80% Mehrleistung zur 5080. Leider wurde die einzige 5090 mit "richtigem" Stromanschluss ja jetzt erst als Limited Edition angekündigt: https://asset.msi.com/resize/image/global/product/product_17676039910995897795d46173a3dd98cc435c455b.png62405b38c58fe0f07fcef2367d 8a9ba1/600.png

Schön ist halt das eigentlich alle Blackwell Karten ab Werk deutlich über 3 Ghz laufen und auch der DDR7 problemlos 2-3Ghz mehr verträgt. Damit sind aber die meisten Benchmarks Käse, da im Real-Life die meisten Kunden einen Afterburner bzw. die zwei Schieberegler der jeweiligen Hersteller bedienen können. Gegenüber der Werkseinstellung haben fast alle Karten noch 15-20% OC Headroom. Wobei Blackwell overclocking so simpel ist, wie das XMP Profil vom RAM im Bios zu laden. Wenn man sich als Enthusiast damit beschäftigt, ist das eine wunderbare Karte zum tüfteln und aber auch spielen.

robbitop
2026-01-11, 11:53:22
Gewöhn dich dran, richtige Preiskämpfe wird es nicht mehr bei größeren Chips geben da beide brauchbare Margen projezieren. Nvidia tendenziell noch höhere. Wem das nicht passt muss halt verzichten.

Ich werde nie aufhören das zu kritisieren. Gewöhn dich dran ;)

dargo
2026-01-11, 12:27:25
Wenn du sonst Langerweile hast... :tongue: Vor allem wirkt das recht affig scheinheilig wenn du was kritisiert und trotzdem diese Hardware zu viel zu hohen Preisen kaufst. Spricht dann nicht gerade für dich.

robbitop
2026-01-11, 12:35:56
Wenn du sonst Langerweile hast... :tongue: Vor allem wirkt das recht affig scheinheilig wenn du was kritisiert und trotzdem diese Hardware zu viel zu hohen Preisen kaufst. Spricht dann nicht gerade für dich.
Ich kritisiere nicht Personen (offenbar im Gegensatz zu dir) sondern den GPU Markt (und im Speziellen wie manche SKUs aufgestellt sind). ;)

Ich habe die 5070ti geholt die in Bezug auf P/L (relativ zur 80 und 90) ok ist. Und sie hat objektiv die zur Radeon besseren Features mit DLSS-SR, RR und MFG (und noch wichtiger deren Verbreitung) welche die Preisdifferenz (die jetzt nicht gerade riesig war) IMO durchaus rechtferigen - also ist es objektiv nicht unbedingt die falsche Wahl gewesen. Trotzdem war selbst die 5070ti zu teuer gewesen. Ich hatte es aber satt ewig zu verzichten was ich viele Jahre vorher aus Prinzip gemacht habe (länger als die Meisten). Das war seit 2016 meine erste neue GPU gewesen. Irgendwann will man auch mal wieder geniessen. ;)
Und ob die Wahl der Hardware etwas ist, was für oder gegen jemanden spricht halte ich für fragwürdig. ;)

Hakim
2026-01-11, 12:43:14
Die 5070Ti ist mMn die attraktivste Karte im BW lineup, alles andere ist viel zu teuer oder zu schwach oder halt zu wenig VRam. Quasi eine 5080 minus 15% aber ~300€ günstiger.

Aber ja, dennoch für ~800€ für einige viel Geld

robbitop
2026-01-11, 12:56:16
Ach naja die 5070 finde ich auch okay. Paar Regler nach links und ab gehts (aber ja der vram Geiz ist unschön aber man kann ja settings anpassen). Dafür ist sie deutlich günstiger. Immer eine Frage der individuellen Ansprüche und des budgets natürlich.

Hakim
2026-01-11, 13:05:01
Jo, die 12GB stören mich bei der leider zu sehr, aber wenn jemand mit klar kommt. Ich hätte bei einer 5070S vermutlich zugeschlagen :).

dargo
2026-01-11, 14:05:13
Ich habe die 5070ti geholt die in Bezug auf P/L (relativ zur 80 und 90) ok ist. Und sie hat objektiv die zur Radeon besseren Features mit DLSS-SR, RR und MFG (und noch wichtiger deren Verbreitung) welche die Preisdifferenz (die jetzt nicht gerade riesig war) IMO durchaus rechtferigen - also ist es objektiv nicht unbedingt die falsche Wahl gewesen. Trotzdem war selbst die 5070ti zu teuer gewesen. Ich hatte es aber satt ewig zu verzichten was ich viele Jahre vorher aus Prinzip gemacht habe (länger als die Meisten). Das war seit 2016 meine erste neue GPU gewesen. Irgendwann will man auch mal wieder geniessen. ;)

Du hast für einen Salvage GB203 mit ~900€ viel zu viel bezahlt... Punkt. Bist also doch weich geworden.

robbitop
2026-01-11, 14:45:29
Du hast für einen Salvage GB203 mit ~900€ viel zu viel bezahlt... Punkt. Bist also doch weich geworden.
Aha und was mein Kauf dieser GPU (die aus P/L Sicht zum jeweiligen Zeitpunkt relativ zu allem was verfügbar war einwandtfrei war) hat das mit dem Thema zu tun?
Zurück zum Thema.

Matrix316
2026-01-11, 15:16:24
Also wenn man von einer 1080TI kommt war selbst die 3080 damals schon ein richtig gutes Upgrade. Gerade, wenn man in 4K spielen wollte. Da ist aktuell ALLES ab 400 Euro schon ein richtig gutes Leistungsplus. :)

Was mir gerade nur auffällt, dass die 5080 Karten aktuell doch ziemlich im Preis gestiegen sind. Vor ein paar Wochen hat man noch für 1100 oder gar noch weniger eine günstige bekommen und jetzt fängt es bei Geizhals bei 1173 Euro an. Für die Gainward hab ich noch 1099 bezahlt und die kostet jetzt 1249. Allerdings sind auch irgendwie weniger lieferbar. Kann es sein, dass die neuen Super Karten bald reinkommen? Oder ist das jetzt schon die RAM Krise?

Sardaukar.nsn
2026-01-11, 15:30:47
@Matrix: Super Karten wurden gestrichen, bzw. waren eh nie so wahrscheinlich da die 5080 ja schon Vollausbau ist. Ich denke mal das ist die RAM-Kriese und KI Boom. Also für dieses Jahr sollte man sich auf hohe Preise einstellen. Die meisten die Lust auf Blackwell haben, sind aber inzwischen schon versorgt. Im Sommer war es wie immer am günstigsten.

robbitop
2026-01-11, 15:35:59
Also wer noch eine GPU braucht - jetzt zuschlagen. Wird wohl nich schlimmer und potentiell dann eine ganze Weile dauern bis es wieder normal wird.

ChaosTM
2026-01-11, 15:40:31
Ja, und das möglichst schnell.
Eine 5080 Super wollte niemand wirklich. Zu langsam um 32GBG zu rechtfertigen

Hakim
2026-01-11, 15:44:33
Wenn wäre es 24GB mit 3GB Modulen, aber ja ob die Super überhaupt noch kommen....Wozu die Speicher an Gamer verschwenden wenn man deutlich mehr Kohle machen kann :)

Ex3cut3r
2026-01-11, 16:10:35
Aha und was mein Kauf dieser GPU (die aus P/L Sicht zum jeweiligen Zeitpunkt relativ zu allem was verfügbar war einwandtfrei war) hat das mit dem Thema zu tun?
Zurück zum Thema.

Lass dich bitte nicht von Dargo trollen. Für Ihn wäre es perfekt gewesen, wenn du eine überteuerte 9070 XT für 1000€ gekauft hättest, um AMD zu supporten, er selber hat aber auch gewartet bis die 9070 XT verramscht wurde. :freak:

dargo
2026-01-11, 18:36:33
Aha und was mein Kauf dieser GPU (die aus P/L Sicht zum jeweiligen Zeitpunkt relativ zu allem was verfügbar war einwandtfrei war) hat das mit dem Thema zu tun?

Deine Scheinheiligkeit stinkt einfach zum Himmel. Auf der einen Seite hohe Preise bei Grafikkarten immer wieder zu kritisieren und dann es doch selbst unterstützen. Du wusstest ganz genau, dass es nur Abzocke Anfang 2025 war.

Lass dich bitte nicht von Dargo trollen. Für Ihn wäre es perfekt gewesen, wenn du eine überteuerte 9070 XT für 1000€ gekauft hättest, um AMD zu supporten, er selber hat aber auch gewartet bis die 9070 XT verramscht wurde. :freak:
Junge, Junge... deine Ahnungslosigkeit ist wieder verblüffend. Mal völlig davon abgesehen, dass eine Grafikkarte mit einer 357mm² SKU bei weitem keine 1000€ wert ist hätte AMD davon genau Null komma nix. Die völlig erhöhten Preise anfangs waren nichts weiter als die Gier der (Groß)händler, die schamlos unzureichende Stückzahlen vs. Nachfrage ausgenutzt haben. :rolleyes:

robbitop
2026-01-11, 19:21:26
Deine Scheinheiligkeit stinkt einfach zum Himmel. Auf der einen Seite hohe Preise bei Grafikkarten immer wieder zu kritisieren und dann es doch selbst unterstützen. Du wusstest ganz genau, dass es nur Abzocke Anfang 2025 war.


Meine Kritik des Marktes (ich gehe niemanden persönlich an sondern kritisiere nach objektiven Maßstäben den Markt - das sind zwei sehr unterschiedliche Dinge) schließt nicht aus, dass ich als Gamer mir irgendwann um mein Hobby auszuleben widerwillig eine etwas zu teure GPU kaufen muss. Zähneknirschend. Aber ich will top of the line features die out of the box funktionieren in möglichst allen Spielen und die gab es nirgendwo anders. Immerhin verkneife ich mir eine 80er und 90er SKU auch wenn das für mich nur Spielgeld ist. Tue ich aber aus Prinzip nicht. Und ich habe etliche Generationen ausgelassen - hätte ich auch nicht gemusst. Auch da Spielgeld. Aber irgendwann will man dann auch mal wieder sein Hobby ausleben. Entsprechend war es dann über die Jahre gesehen zwar zu teuer aber sehr kontrolliert dosiert. Das jetzt auch noch verwerflich zu finden kann man machen, grenzt aber an Albernheit.


Natürlich kann man/ich den Markt trotzdem kritisieren. Ich habe nie den Anspruch erhoben ein Heiliger zu sein. Ich sehe auch kein objektives Kritirium welches das unter diesen Unständen verbietet. Tun große Reviewer übrigens auch obwohl sie die GPUs besitzen. Besser als gar nichts zu sagen.

Und nein dass die Preise der 5070ti weiter sinken war mitnichten vorhersehbar. Dafür gab es weder bei Ada noch bei Ampere entsprechende Präzedenz. Im Gegenteil die wurden eher teurer. Warten brachte keine Ersparnis sondern nur Verlust an Gamingzeit mit neuer HW. Das learning von 2020-2024 war eher: zum launch kaufen sobald Verfügbarkeit da ist, ist optimal.
Dass es dann doch günstiger wurde, war objektiv nicht sinnvoll vorhersehbar. Zumindest nicht für mich - ansonsten hätte ich gewartet. Ich hatte das auch mehrfach im Forum geschrieben dass ich mich geärgert hab und dass es überraschend kam.

Dein aggressives und IMO anmaßendes Verhalten in diesem Zusammenhang hier persönlich zu werden spricht nicht nur nicht für dich, sondern verwässert auch deine Position. Ich empfehle weiterhin jetzt es dabei zu belassen und zurück zum Thema zu kommen.

Lurtz
2026-01-11, 20:30:51
Also wer noch eine GPU braucht - jetzt zuschlagen. Wird wohl nich schlimmer und potentiell dann eine ganze Weile dauern bis es wieder normal wird.
Beim Gang der Welt wird es eher nicht mehr normal, was auch immer das ist. Man sollte genießen was man hat, solange man es kann. Global gesehen ist das immer noch verdammt viel.

Thunder99
2026-01-11, 20:58:05
Trotz MFG bei RTX5 ist es kein Mehrwert für eine RTX4080.
Bei der Super Serie wäre es anders ggf gewesen aber so, ne.

Ex3cut3r
2026-01-11, 21:08:05
Von einer 4080 muss man auf eine 5090. Das passt.

Für MFG braucht man den richtigen Monitor, so ab 240HZ (OLED) macht es wirklich Sinn.

Beim Gang der Welt wird es eher nicht mehr normal, was auch immer das ist. Man sollte genießen was man hat, solange man es kann. Global gesehen ist das immer noch verdammt viel.

:up: Eben so siehts aus. Eine Radeon wurde (für) mich keinen Spaß machen. Und gut.

Sardaukar.nsn
2026-01-11, 23:54:23
Inzwischen sind doch auch hier im 3DC sicher 90% der die-hard AMD GPU Menschen auf Blackwell umgestiegen. Aus guten Gründen!

grobi
2026-01-11, 23:58:23
Inzwischen sind doch auch hier im 3DC sicher 90% der die-hard AMD GPU Menschen auf Blackwell umgestiegen. Aus guten Gründen!


Ich hab es bereut eine 5080 gekauft zu haben. Ich will lieber eine 9070xt. :freak:

dargo
2026-01-12, 07:01:47
Inzwischen sind doch auch hier im 3DC sicher 90% der die-hard AMD GPU Menschen auf Blackwell umgestiegen. Aus guten Gründen!
Ganz bestimmt. :comfort:

dildo4u
2026-01-12, 11:25:12
Ist komplett logisch gibt hier fast nur High-End Käufer Leute mit RX 7900 habe keine andere Wahl wenn sie ihre Performance steigern wollen.