Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 5080 Review-Thread


Seiten : [1] 2 3

Leonidas
2025-01-29, 14:38:19
nVidia GeForce RTX 5080
- GB203-Chip
- 84 SM @ 256-bit (seltener Vollausbau gleich zum Start)
- 16 GB GDDR7
- Listenpreis $999 / UVP 1169€
- Launch-Reviews von FE und Listenpreis-Modellen: 29. Januar
- Launch-Reviews von teureren Modellen: 30. Januar
- Marktstart: 30. Januar

|Chip|Hardware|Takt|VRAM|TDP|Listenpreis|Release
GeForce RTX 5090|GB202|170 SM @ 512-bit|2.01/2.41 GHz|32 GB GDDR7|575W|$1999 / 2329€|30. Januar 2025
GeForce RTX 5080|GB203|84 SM @ 256-bit|2.30/2.62 GHz|16 GB GDDR7|360W|$999 / 1169€|30. Januar 2025
GeForce RTX 5070 Ti|GB203|70 SM @ 256-bit|2.30/2.45 GHz|16 GB GDDR7|300W|$749 / 879€|Februar 2025
GeForce RTX 5070|GB205|48 SM @ 192-bit|2.16/2.51 GHz|12 GB GDDR7|250W|$549 / 649€|Februar 2025

Listen der Launch-Reviews bei 3DCenter (https://www.3dcenter.org/news/nvidia-geforce-rtx-5080-die-launch-reviews-gehen-online) und VideoCardz (https://videocardz.com/195437/nvidia-geforce-rtx-5080-blackwell-graphics-cards-review-roundup).

Raff
2025-01-29, 15:00:43
It goes loose! :naughty:

Geforce RTX 5080 alias "4080 Ultra" im Test: Halber Preis, halber Speicher, halber Spaß? (https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/)

z4GhpaJCgc0

MfG
Raff

Radeonfreak
2025-01-29, 15:11:37
It goes loose! :naughty:

Geforce RTX 5080 alias "4080 Ultra" im Test: Halber Preis, halber Speicher, halber Spaß? (https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/)

https://youtu.be/z4GhpaJCgc0

MfG
Raff

Warum macht ihr bei Cyberpunk nicht die 4090 mit auch einem AI Frame (FG)?

Flusher
2025-01-29, 15:12:45
Wow..wohl eher eine 4080 Super Duper statt einer 5080.

PHuV
2025-01-29, 15:18:09
It goes loose! :naughty:
Schön gesagt: :up:
Die Zeiten, in denen Mikroprozessoren immer kleiner und schneller werden, ist aufgrund von physikalischen Limits vorbei. Diese schmerzvolle Tatsache ist schuld daran, dass wir neuerdings Diskussionen über "echte" und "künstliche" Frames führen, anstelle bloß deren Anzahl zu betrachten. Fakt ist, dass kein Weg daran vorbeiführt, traditionelles Rendering mit KI-Technologien zu supplementieren, um fühlbare Leistungssprünge zu erhalten.
Das ist ist, worauf wir uns in den nächsten Jahren einstellen müssen.

Dural
2025-01-29, 15:19:04
Also ich bin positiv überrascht nach der 5090.

Die 12% mehr als eine 4080 Super ist wenn man die Technische Daten anschaut ein guter Wert.

Die 5090 ist mit fast doppelt so viel Rohpower nur 49% vorne.

Exxtreme
2025-01-29, 15:20:12
Die RTX 5090 rennt wahrscheinlich öfter ins CPU-Limit.

PHuV
2025-01-29, 15:25:07
Wenn die 5080 in Schlagweite einer 4090 gerückt wäre, oder wenigstens sich mit über 25% von der 4080 Super deutlich abheben könnte, wäre sie eine interessante Alternative gewesen. Aber so in Kombination mit den zu erwartenden Preisen bei 1200-1600 € eher nicht. Wenn sie unter 1000 € zu haben ist, dann vielleicht.

Dural
2025-01-29, 15:25:26
Auch OC mit +10% FPS und über 3GHz Takt sollen gehen ist doch Super.
Dazu eine richtig gute Effizienz, das deutlich rundere und schönere Produkt als die 5090!


Übertakten: 3.000+ MHz ohne Effizienzverlust:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-9#abschnitt_uebertakten_3000_mhz_ohne_effizienzverlust

Raff
2025-01-29, 15:30:03
Zum Undervolting: 275 statt 360 Watt bei gleicher Leistung: https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/6/#a4

Zusammenfassung: https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1464610&page=6&draft=-1&rank=2

MfG
Raff

Dovregubben
2025-01-29, 15:30:20
Alles wie erwartet.
Weiß man schon, wer die Founders Edition verkaufen wird? Mein 8GB Krüppel muss weichen.

[dzp]Viper
2025-01-29, 15:33:24
Also ich bin auch eher enttäuscht. Der Abstand zur "alten" 4080 ist wirklich nicht groß und der Abstand zur 5090 dafür umso größer.
Ich frage mich auch wieso man der 5080 nicht 10% mehr Performance spendiert hat. Ist für mich unverständlich.. gerade mit dem aktuellen riesen Abstand zur 5090.

Wahrscheinlich wird es in 12 Monaten eine 5080 Super geben die dann nochmal 15% drauf legt, würde mich nicht wundern.

robbitop
2025-01-29, 15:35:10
Ich denke die Stagnation liegt primär am gleich gebliebenen Node. Die next gen wird sicherlich mit einem N3 Node (denke mal N3E oder N3P) kommen. Dann wird es schon weiter voran gehen.

Relex
2025-01-29, 15:37:11
Und wie siehts mit den Preisen bei N3 aus?

Wenn die Preise steigen, führt das doch zur gleichen Situation.

Am Ende werden die Chips geschrumpft (fläche gespart) und man bekommt ein paar Prozent mehr leistung zum gleichen Preis.

Oder man bekommt eben wieder mehr leistung zu höheren preisen bei gleicher Chipfläche.

Solange die Kosteneffizienz nicht verbessert wird, bringt ein neuer Node effektiv auch nichts für den markt.

Exxtreme
2025-01-29, 15:37:52
Ich denke die Stagnation liegt primär am gleich gebliebenen Node. Die next gen wird sicherlich mit einem N3 Node (denke mal N3E oder N3P) kommen. Dann wird es schon weiter voran gehen.

Die Stagnation liegt viel mehr an der kaum vorhandenen Konkurrenz. ;) Ein Pferd springt nur so hoch wie es muss.

Sardaukar.nsn
2025-01-29, 15:38:39
Auch OC mit +10% FPS und über 3GHz Takt sollen gehen ist doch Super.
Dazu eine richtig gute Effizienz, das deutlich rundere und schönere Produkt als die 5090!


Übertakten: 3.000+ MHz ohne Effizienzverlust:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-9#abschnitt_uebertakten_3000_mhz_ohne_effizienzverlust

Finde ich als OC Karte interessant. Vielleicht dann gleich als süße, kleine Frostbite: https://www.caseking.de/inno3d-geforce-rtx-5080-ichill-frostbite-16384-mb-gddr7/GCI3-293.html

robbitop
2025-01-29, 15:39:38
Und wie siehts mit den Preisen bei N3 aus?

Wenn die Preise steigen, führt das doch zur gleichen Situation.

Am Ende werden die Chips geschrumpft (fläche gespart) und man bekommt ein paar Prozent mehr leistung zum gleichen Preis.

Oder man bekommt eben wieder mehr leistung zu höheren preisen bei gleicher Chipfläche.

Solange die Kosteneffizienz nicht verbessert wird, bringt ein neuer Node effektiv auch nichts für den markt.

Die Preise sind seit Jahren ordentlich gestiegen. Aber wesentlich weniger als zB Nvidia uns denken lassen will. ZB kostet ein AD103 < 100 USD bei TSMC. Die Komplette Grafikkarte kostet 1000 USD.
Selbst wenn der node teurer wird und man nur den Mehrpreis drauf schlägt, ändert sich nicht die Welt. Die Preiswelt hat sich primär durch die wahnwitzigen Post Corona und AI Bubble Margins geändert.

Relex
2025-01-29, 15:39:51
@Exxtreme

Warum ist dann der Verbrauch so stark gestiegen?

Die hohen Werte zeigen doch, dass man durchaus am Limit arbeitet.

Oder aber Nvidia trollt einfach alle und baut ein paar sinnlose Schaltkreise zum aufheizen ein, um zu verschleiern, wie weit sie wirklich sind :D

robbitop
2025-01-29, 15:40:17
Die Stagnation liegt viel mehr an der kaum vorhandenen Konkurrenz. ;) Ein Pferd springt nur so hoch wie es muss.
Ja das kommt noch dazu.

Lehdro
2025-01-29, 15:40:25
Was für eine langweilige Karte. Nur der Preis entscheidet, da der Konkurrent auf demselben Preis sitzt, in der Praxis quasi dasselbe leistet und zudem auch noch dieselbe Farbe hat.

Exxtreme
2025-01-29, 15:42:57
@Exxtreme

Warum ist dann der Verbrauch so stark gestiegen?


Man ist trotzdem noch sehr viel besser als die Konkurrenz. ;) Die haben sich eventuell keine Mühe in der Hinsicht gegeben. Ein Pferd springt nur so hoch wie es muss.

Relic
2025-01-29, 15:44:57
Ihr glaubt doch nicht, dass im Moment noch einer von den Nvidia Top Leuten an den Gaming Karten arbeitet...
Ist doch klar das sowas bei rauskommt ;)

Robbson
2025-01-29, 15:46:36
Schade, dass man sogar den Kühler gegenüber der 5090er trotz gleicher Maße abgespeckt hat, also ohne 3D Vapor Chamber und Liquid Metal. So ist das Teil nur minimal leiser als die 5090. Enttäuschend. Dann muss es doch ein Custom-Modell werden, sofern der Aufpreis nicht wucher ist und die Karte nicht zu lang wird, zumal die OC-Performance brauchbar scheint. Die Galax holt mit 0.3% mehr Takt bereits 3% mehr Performance gegenüber der FE raus (Techpowerup).

Christopher_Blair
2025-01-29, 15:50:49
Werde wohl von meiner 7900xtx umsteigen, nochmal einen Sommer mit dem extrem schlechten teillastverbrauch sowie mäßiges fsr, -wenn es denn überhaupt vorhanden ist- mache ich nicht mehr mit. Verbrauch mit nur offnen YouTube ist auch immer extremst enttäuschend, dazu weiß man nicht ob fsr 4 überhaupt noch kommt.

AtTheDriveIn
2025-01-29, 15:51:32
Man ist trotzdem noch sehr viel besser als die Konkurrenz. ;) Die haben sich eventuell keine Mühe in der Hinsicht gegeben. Ein Pferd springt nur so hoch wie es muss.

Ich glaube die Erklärung ist zu positiv für Nvidia. Ich denke es ging nicht besser, denn sie sind von TSMC abhängig um echte Sprünge zu schaffen. Man ist sich der Sache bewusst und versucht die 5080 Käuferschicht Richtung 5090 zu pushen. Da gibt es dann "mehr" für mehr Geld/Shader/Energie.

Kakarot
2025-01-29, 15:55:14
Es wäre so einfach gewesen, 24 GB statt 16 GB, dazu ein leichter Aufpreis und die 5080 wäre Everybody's darling.

Exxtreme
2025-01-29, 15:56:25
Ich glaube die Erklärung ist zu positiv für Nvidia. Ich denke es ging nicht besser, denn sie sind von TSMC abhängig um echte Sprünge zu schaffen. Man ist sich der Sache bewusst und versucht die 5080 Käuferschicht Richtung 5090 zu pushen. Da gibt es dann "mehr" für mehr Geld/Shader/Energie.

Man hätte den Verbrauch sicherlich senken können: den Chip breiter machen und viel niedriger takten. Das sieht man deutlich an der RX7900GRE. Frisst ziemlich exakt soviel Strom wie die RX7800XT und ist trotzdem ~9% schneller. Nur schmälert das wiederum die Margen weil ein breiterer Chip teurer ist.

ChaosTM
2025-01-29, 15:56:46
Wenn man eine 5070er als 5080er verkauft kommt halt so ein Unfug herraus.
Ein auf die Hälfte kastriertes Flaggschiff war noch nie eine ''80er".
12GB 4080er all over again. Und niemanden kümmerts.
Hab aber noch keine Review(s) gelesen, da das Ding für mich völlig uninteressant ist.

Godmode
2025-01-29, 15:57:16
Echt schade dass es keinen neuen Prozess gab, weil damit wäre Blackwell richtig gut geworden. Nvidia hat sich die überschaubare Mehrleistung mit hoher Leistungsaufnahme erkauft.

Flusher
2025-01-29, 15:58:33
Es wäre so einfach gewesen, 24 GB statt 16 GB, dazu ein leichter Aufpreis und die 5080 wäre Everybody's darling.

Das wird einer 5080 Super / Ti vorbehalten bleiben.

Auf die werde ich glaub ich jetzt mal warten. Mit meiner 3090 wären 16GB ein Rückschritt und der Aufpreis zur 5090 ist lächerlich.

Santini
2025-01-29, 16:05:45
Der dicken 5090 geben sie 32 GB, aber keine Karte mit 24 GB im Portfolio haben :rolleyes:

keine Frage von einer 6750 ist alles ein Upgrade, aber die Generation hätte sich Nvidia auch sparen können. Mit mehr Strom mehr Leistung erzielen ist jetzt nicht besonders toll.

Matrix316
2025-01-29, 16:05:57
Man ist trotzdem noch sehr viel besser als die Konkurrenz. ;) Die haben sich eventuell keine Mühe in der Hinsicht gegeben. Ein Pferd springt nur so hoch wie es muss.
In Borderlands 3 hat man jetzt die 7900XTX überholt hat... juhu ;)

meekBr-ZB1E

Also für 2 Jahre Entwicklungszeit (oder so ähnlich) ist das schon sehr sehr sehr schwach. Dabei wäre es ganz einfach gewesen einfach nur die Specs etwas upzugraden, damit man auf knapp 4090 Niveau kommt. Hätte schon gereicht.

Prinzenrolle
2025-01-29, 16:09:07
Einen schon sehr guten Chip nochmal minimal verbessert. Nur die 5090 hat wirklich was auf der Pfanne. Verbrauch noch im Rahmen, das einzig positive nach 2 Jahren. Nvidia hätte auf 3nm gehen sollen und dafür den doppelten Preis nehmen. Nach 27 Monaten Warten ein Schuss in den Ofen und von AMD wird noch weniger kommen.
Und niemanden kümmerts.
Kann man eh nichts daran ändern.
Preise steigen überall.

Dural
2025-01-29, 16:22:09
Also ich verstehe die negativ Stimmung nicht wirklich. Natürlich für ein 4080 User ist die Karte nichts.

Aber ab 3080 und darunter wie 2080 und 1080 ist das doch ein schönes und rundes Update mit kaum / keiner Schwäche.

Alle die 4080 und 4090 haben können sich glücklich schätzten das sie mit dem Update weitere 2-3 Jahre warten können.

Ich hole mir die 5080, mir passt die Karte.

Cami
2025-01-29, 16:23:54
The only thing I'm missing with the 5080 is more memory.

Tesseract
2025-01-29, 16:29:54
Aber ab 3080 und darunter wie 2080 und 1080 ist das doch ein schönes und rundes Update mit kaum / keiner Schwäche.

die "schwäche" ist dass man fast das gleiche schon viel früher haben konnte. wer jetzt 1 jahr oder länger bewusst auf der 2080 oder 1080 gesessen ist in der hoffnung was deutlich besseres als die 4080(s) zu bekommen wird enttäuscht.

crnkoj
2025-01-29, 16:31:52
Werde wohl von meiner 7900xtx umsteigen, nochmal einen Sommer mit dem extrem schlechten teillastverbrauch sowie mäßiges fsr, -wenn es denn überhaupt vorhanden ist- mache ich nicht mehr mit. Verbrauch mit nur offnen YouTube ist auch immer extremst enttäuschend, dazu weiß man nicht ob fsr 4 überhaupt noch kommt.

Ich hätte da einen Vorschlag für dich^ ^
Ich habe vor kurze ein Backup PC gemacht mit Z690 itx von asrock und einem tb4 usbc, 12400 sowie die alte asrock a770 leider nur 8gb. Usbc von der integrierten Karte zu hdmi Kabel auf den 120hz LG Fernseher, damit 120hz gehen. Auf dem Desktop wird die a770 ausgeschaltet, alles läuft über die integrierte Lösung, bei Spielen wird die a770 genutzt, bisher konnte ich auch keinen performanceverlust feststellen.
Eventuell einen 245k + falls die Karte mal kommt b770 mit dem gleichen setup für dich, dann hast du niedrigen Verbrauch und die b770 sollte schon in die Nähe der 7900 xtx kommen, aber weniger verbrauchen und im idle 0w.

PHuV
2025-01-29, 16:32:18
Man muß nur das Titelbild vom Video bei Igor anschauen, dann ist alles klar. SaQeYHl3oLE
Das Gesicht sah bei der Vorstellung 5090 anders aus.

Ich bleib dabei, die 5090 wird wieder ein Renner, die 5080 eher nicht.

Die Kollegen bei der Gamestar haben ein positiveres Bild und Fazit.
https://www.gamestar.de/artikel/rtx-5080-test-gegen-rtx-4080-4090-5090-rx-7900-xtx,3426596.html

G3cko
2025-01-29, 16:35:48
Man kann sich also nun darauf einstellen, dass das neue Verfallsdatum moderner Grafikkarten, das Fake Framefeatureset neben dem VRAM ist. Und ohne bessere Fertigung gibt es auch nicht mehr Leistung. Neben der Tatsache, dass man gewisse Grund-FPS brauchteher ein enttäuschendes Upgrade. Die Inflation hat man hier auch ganz gut versteckt.

Exxtreme
2025-01-29, 16:36:26
Also für 2 Jahre Entwicklungszeit (oder so ähnlich) ist das schon sehr sehr sehr schwach. Dabei wäre es ganz einfach gewesen einfach nur die Specs etwas upzugraden, damit man auf knapp 4090 Niveau kommt. Hätte schon gereicht.

Die meisten Goodies von Blackwell verbessern die Spiele kaum. Nvidia macht ironischerweise fast das Gleiche was AMD mit RDNA2 zu RDNA3 gemacht hat: sowas wie bessere Videoencoder oder PCIe5 oder DP2.1b wirken sich gar nicht oder kaum auf Spiele aus.

The_Invisible
2025-01-29, 16:36:45
Man muss halt immer beachten woher man kommt.

Für einen 4080 User meh, für einen 3080 User schon interessant. Wobei der auch gleich zur 4080 hätte greifen können, aber gut, nicht jeder rüstet jede Gen auf.

Dural
2025-01-29, 16:37:09
Das ist klar, aber wer nicht gekauft hat, hat jetzt die Möglichkeit dazu.

Wir reden immer noch von der gleichen Fertigung, und da finde ich die 5080 ein ziemlich rundes Produkt.

Die 5090 hat mich enttäuscht, erstens ist der Chip / die Auslegung davon nicht für Gaming ausgelegt, und zweitens hat man für ein paar FPS die Watt Keule rausgenommen.

Ich bin der felsenfesten Überzeugung dass die 512Bit ein Fehler sind. Hätte die 5090 eine vollaktive GPU und würde man mit weniger Takt arbeiten und die Effizienz damit steigern wäre ich vielleicht anderer Meinung, aber so?

Sardaukar.nsn
2025-01-29, 16:37:33
Schade, dass man sogar den Kühler gegenüber der 5090er trotz gleicher Maße abgespeckt hat, also ohne 3D Vapor Chamber und Liquid Metal. So ist das Teil nur minimal leiser als die 5090. Enttäuschend. Dann muss es doch ein Custom-Modell werden, sofern der Aufpreis nicht wucher ist und die Karte nicht zu lang wird, zumal die OC-Performance brauchbar scheint. Die Galax holt mit 0.3% mehr Takt bereits 3% mehr Performance gegenüber der FE raus (Techpowerup).

TPU konnte den DDR7 irgendwie nur um +375mhz übertakten, andere schaffen locker die 2000mhz. Trotzdem mit knapp 3,2ghz flott unterwegs: https://www.techpowerup.com/review/galax-geforce-rtx-5080-1-click-oc/43.html

Bekommt man den RAM-OC noch in den Griff, könnte man nah an die 4090 ran kommen.

Colin MacLaren
2025-01-29, 16:45:46
TPU konnte den DDR7 irgendwie nur um +375mhz übertakten, andere schaffen locker die 2000mhz. Trotzdem mit knapp 3,2ghz flott unterwegs: https://www.techpowerup.com/review/galax-geforce-rtx-5080-1-click-oc/43.html

Bekommt man den RAM-OC noch in den Griff, könnte man nah an die 4090 ran kommen.

Nein, denn dann musst Du gegen eine übertaktete 4090 vergleichen, und das sind auch nochmal mind. 5%. Trotzdem, für ~1.200 eUR wäre es OK. Da liegt sie mit dem besseren Featureset preislich gut im Rahmen.

Sardaukar.nsn
2025-01-29, 16:52:40
Dp

Sumpfmolch
2025-01-29, 17:08:57
Wenn die Performanceverbesserungen so klein bleiben, kann man ja gleich mit absurden Trade-In Angeboten anfangen, wie es die Smartphone Hersteller schon machen müssen, damit die Leute nicht nur alle 5-7 Jahre was kaufen...

Tib
2025-01-29, 17:09:02
die "schwäche" ist dass man fast das gleiche schon viel früher haben konnte. wer jetzt 1 jahr oder länger bewusst auf der 2080 oder 1080 gesessen ist in der hoffnung was deutlich besseres als die 4080(s) zu bekommen wird enttäuscht.

:ujump2: MELD!

...EXAKT meine Meinung.

Mir ist vor ein paar Monaten meine GTX 1080 abgeraucht. Schweren Herzens hab ich gehadert sofort Ersatz zu beschaffen und gewartet, während die Preise für neue und gebrauchte 40er den nahen Erdorbit erreichten.

Während dessen habe ich mich damit getröstet, dass Blackwell das alles wieder raushauen und eine richtig geile GPU sein wird. Alles wird Gut sein! Bestimmt. Dann kam Lederjäckchens CES Auftritt. :O

...ja, von 1080 auf 5080 wäre ein riesiger Sprung, trotzdem schwingt das Gefühl mit Blackwell veräppelt und abgezockt zu werden.


Nun lese ich wieder Reviews, möchte und möchte mit der 5080 irgendwie so gar nicht warm werden. Ja was mache ich den nun?


PS: Benötigt jemand dringend eine Niere?

Disconnected
2025-01-29, 17:12:51
die "schwäche" ist dass man fast das gleiche schon viel früher haben konnte. wer jetzt 1 jahr oder länger bewusst auf der 2080 oder 1080 gesessen ist in der hoffnung was deutlich besseres als die 4080(s) zu bekommen wird enttäuscht.
Vor allem zu diesen Preis.

PHuV
2025-01-29, 17:26:26
PS: Benötigt jemand dringend eine Niere?
https://symbl-world.akamaized.net/i/webp/e9/65fa9ce07b021194b44c48d96eeb00.webp
Deine Seele?
Mir ist vor ein paar Monaten meine GTX 1080 abgeraucht.
Klassischer Fehler, zu lange gewartet. Auch ein Grund, die Hardware bzw. GPUs schneller zu wechseln -> die Wahrscheinlichkeit des Ausfalls der GPU ist geringer.

Matrix316
2025-01-29, 17:31:20
Also ich verstehe die negativ Stimmung nicht wirklich. Natürlich für ein 4080 User ist die Karte nichts.

Aber ab 3080 und darunter wie 2080 und 1080 ist das doch ein schönes und rundes Update mit kaum / keiner Schwäche.

Alle die 4080 und 4090 haben können sich glücklich schätzten das sie mit dem Update weitere 2-3 Jahre warten können.

Ich hole mir die 5080, mir passt die Karte.

Also bei der 30er und 40er Serie hat sich IMO ein Update vom Vorgänger jeweils gelohnt. Und jetzt nicht. Und das suckt! :ugly:

Der Spirit ist ja man WILL ja aufrüsten. Wer ist denn Gamer und denkt sich: "Schön, kann ich meine alte Hardware weiter nutzen?!" ;) Das ist ja langweilig. Außerdem kriegt man für die alte Hardware in ein paar Jahren bei der 6000er Serie auch nicht mehr so viel wie heute.

Die meisten Goodies von Blackwell verbessern die Spiele kaum. Nvidia macht ironischerweise fast das Gleiche was AMD mit RDNA2 zu RDNA3 gemacht hat: sowas wie bessere Videoencoder oder PCIe5 oder DP2.1b wirken sich gar nicht oder kaum auf Spiele aus.

Jo aber die 4090 ist ja auch schneller als die 5080. Einfach die Innereien etwas mehr aufstocken.

dargo
2025-01-29, 17:31:26
Die Stagnation liegt viel mehr an der kaum vorhandenen Konkurrenz. ;) Ein Pferd springt nur so hoch wie es muss.
Diese These ist kompletter Nonsens... als NV GB203 geplant hatte wusste NV noch gar nichts von RDNA3 und erst recht nichts von RDNA4.


Wahrscheinlich wird es in 12 Monaten eine 5080 Super geben die dann nochmal 15% drauf legt, würde mich nicht wundern.
Das wird es garantiert nicht geben da GB203 kein Salvage ist. ;) Und NV opfert für +15% bestimmt nicht einen fetten GB202.

Und wie siehts mit den Preisen bei N3 aus?

Wenn die Preise steigen, führt das doch zur gleichen Situation.

Am Ende werden die Chips geschrumpft (fläche gespart) und man bekommt ein paar Prozent mehr leistung zum gleichen Preis.

Oder man bekommt eben wieder mehr leistung zu höheren preisen bei gleicher Chipfläche.

Solange die Kosteneffizienz nicht verbessert wird, bringt ein neuer Node effektiv auch nichts für den markt.
Vollkommen korrekt!

Es wäre so einfach gewesen, 24 GB statt 16 GB, dazu ein leichter Aufpreis und die 5080 wäre Everybody's darling.
Daran ist gar nichts einfach wenn die 3GB Chips noch nicht so weit sind.


...ja, von 1080 auf 5080 wäre ein riesiger Sprung, trotzdem schwingt das Gefühl mit Blackwell veräppelt und abgezockt zu werden.

Die GTX1080 lag bei 180W, das ist mit einer RTX 5080 überhaupt nicht vergleichbar, völlig anderes Powerbudget.

Schnitzl
2025-01-29, 17:32:57
(..)

...ja, von 1080 auf 5080 wäre ein riesiger Sprung, trotzdem schwingt das Gefühl mit Blackwell veräppelt und abgezockt zu werden.


Nun lese ich wieder Reviews, möchte und möchte mit der 5080 irgendwie so gar nicht warm werden. Ja was mache ich den nun?
wo ist das Problem?
Von der 1080 wird sich ein Upgrade auf 4070TiS oder 4080 oder 5080 usw usf quasi gleich anfühlen ...

also schau nach ner günstigen 4000er und schlag zu.
Es sei denn du willst unbedingt MFG - dann musst noch warten; wartest ja eh schon Monate da kommts auf ein paar Tage auch nicht mehr an ;)

oder als Übergang bis zur RTX6000 ne 4070S ^^

EDIT:

Jo aber die 4090 ist ja auch schneller als die 5080. Einfach die Innereien etwas mehr aufstocken.
Richtig das Loch zw. 5090 und 5080 ist viel zu groß. i smell upselling strategy

ChaosTM
2025-01-29, 17:40:49
Ab einer 3080er ist die 5080er ein durchaus überlegenswertes Update, unabhängig von den AI-Frames.
Von der 2080er ausgehend sowieso.

Wie sich die "Treiberprobleme" (Roman) weiterentwickeln muss man im Auge behalten.

Robbson
2025-01-29, 17:46:18
Nein, denn dann musst Du gegen eine übertaktete 4090 vergleichen, und das sind auch nochmal mind. 5%. Trotzdem, für ~1.200 eUR wäre es OK. Da liegt sie mit dem besseren Featureset preislich gut im Rahmen.

Warum sollte man den Vergleich mit einer übertakteten 4090 ziehen? Es geht doch darum, wieviel Performance man aktuell zu welchem Preis bekommt. Und jenseits der völlig überteuerten 5090 ist die 5080 die schnellste Karte am Markt, mit (ggf. werksseitigen) OC geht es nah an die 4090er ran, die man genauso wenig zu einem konkurrenzfähigen Preis mehr bekommt.

OgrEGT
2025-01-29, 17:56:31
Die Karte ist halt Geschmacksache... Auch wenn sie nativ nicht so viel auf die 4080S drauflegt, aber sie hat halt DLSS4 mit MFGx4 da holt sie dann sehr viel mehr raus... siehe hier:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-7#abschnitt_4_spiele_mit_dlss_4_mfg_und_full_raytracing
Das muss man mögen oder nicht... ansonsten ist die Karte aber noch ein klein wenig effizienter als die 4080S was nicht schlecht ist...
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-9#abschnitt_energieeffizienz_in_fps_pro_watt
Von der nativen Leistung her muss man halt individuell schauen...

horn 12
2025-01-29, 17:57:48
5070 zu 549 Dollar
Schneller als 4090

Der ist gut, Nvidia :-(
Ja mit Multi Frame Generation ,- und auch nur da wo optisch fast tadellos, dem 4 Jahre alten CyberPunk

DrFreaK666
2025-01-29, 18:06:02
Die Karte ist halt Geschmacksache... Auch wenn sie nativ nicht so viel auf die 4080S drauflegt, aber sie hat halt DLSS4 mit MFGx4 da holt sie dann sehr viel mehr raus... siehe hier:...
Toll, von 43,2FPS, 35,48FPS usw. kommend. Also immer unter 60FPS, oft auch unter 50FPS. Kauft man dafür eine so teure Karte? Der 4x-Modus entpuppt sich dann auch eher als 3x Modus.
Immerhin benötigt man dann kein 240Hz-Monitor

konkretor
2025-01-29, 18:07:15
Langweilig, nicht mal der DDR7 Speicher bringt da etwas trotz mehr Bandbreite. Also kein Grund zum aufrüsten

PHuV
2025-01-29, 18:09:58
Für Videobearbeiter, die mit 4:2:2 arbeiten wollen und müssen, könnte die 5080 durchaus preislich eine interessante Alternative werden. Nicht jeder braucht für Videoschnitt unbedingt eine 5090 mit 32 GB VRAM.

Sumpfmolch
2025-01-29, 18:11:14
Man fragt sich, was der DDR7 Speicher da eigentlich soll außer die Kosten sinnfrei hochzutreiben?

Troyan
2025-01-29, 18:11:49
Man fragt sich, was der DDR7 Speicher da eigentlich soll außer die Kosten sinnfrei hochzutreiben?

Start der Massenproduktion. Ist eben auf die Zukunft ausgerichtet.

dildo4u
2025-01-29, 18:16:55
Langweilig, nicht mal der DDR7 Speicher bringt da etwas trotz mehr Bandbreite. Also kein Grund zum aufrüsten
Hängt wie immer vom Game ab nicht alles skaliert gleich.

https://i.ibb.co/DPypHsLq/Screenshot-2025-01-29-18-15-20-715-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/NgPSdQ74)

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-5#abschnitt_warhammer_40k_space_marine_2


https://i.ibb.co/k2CSrRXs/Screenshot-2025-01-29-18-18-46-079-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/m5WcYL4V)

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65395-leistungsplus-nur-ueber-mfg-die-geforce-rtx-5080-founders-edition-im-test.html?start=7

The_Invisible
2025-01-29, 18:16:58
Man fragt sich, was der DDR7 Speicher da eigentlich soll außer die Kosten sinnfrei hochzutreiben?

Bei pcgh bei cp2077 Raster scheint es durchzuschlagen?!? Generell aber sehr komisch die Performance... Eventuell kann man da mit Treibern noch mehr herausholen

Exxtreme
2025-01-29, 18:24:42
Man fragt sich, was der DDR7 Speicher da eigentlich soll außer die Kosten sinnfrei hochzutreiben?

Möglicherweise ist das billiger denn GDDR6X oder ein breiterer Speicherbus.

whetstone
2025-01-29, 18:26:25
Bei pcgh bei cp2077 Raster scheint es durchzuschlagen?!? Generell aber sehr komisch die Performance... Eventuell kann man da mit Treibern noch mehr herausholen

Yep, in 4k ist die gleich auf mit der 4090. Bei TPU nur 5% dahinter. Fand ich auch relativ bemerkenswert.

Sardaukar.nsn
2025-01-29, 18:31:42
Warum sollte man den Vergleich mit einer übertakteten 4090 ziehen? Es geht doch darum, wieviel Performance man aktuell zu welchem Preis bekommt. Und jenseits der völlig überteuerten 5090 ist die 5080 die schnellste Karte am Markt, mit (ggf. werksseitigen) OC geht es nah an die 4090er ran, die man genauso wenig zu einem konkurrenzfähigen Preis mehr bekommt.

Da würde es mich also alter Overclocker ja schon fast wieder jucken. Vielleicht tauch ja auch noch ein stärkeres BIOS mit höherem Powerlimit auf. Asus Astral 5080 OC wäre da so ein Kandidat. Bei der 5090 wird auf Grund des ausgereizten Powerlimit wohl nicht mehr so viel gehen.

Ist das Power Limit auf das Maximum von 390 Watt gedreht, takten Spiele mit geringen Anforderungen an das Power Limit wie Final Fantasy XVI in Ultra HD nicht mehr mit unter 2.600 MHz, sondern deutlich höheren 3.197 MHz – also 439 MHz mehr als im Werkszustand. Die Total Bord Power steigt laut Telemetrie dabei nur von geringen 218 Watt auf immer noch geringe 239 Watt an und die Performance zeigt ein Plus von 11 Prozent.
...
Space Marine 2 hat mit 337 Watt hingegen bereits im Werkszustand hohe Anforderungen an das Power Limit, nach der Übertaktung liegt dieses bei 372 Watt. Die Taktrate der GPU erhöht sich von 2.647 MHz auf 3.047 MHz und die Geschwindigkeit verbessert sich um 13 Prozent – das beste Ergebnis im Test. https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-9#abschnitt_uebertakten_3000_mhz_ohne_effizienzverlust

Troyan
2025-01-29, 18:38:24
Möglicherweise ist das billiger denn GDDR6X oder ein breiterer Speicherbus.

Ja, gibt mehr Anbieter. GDDR6X war Micron exklusiv.

Daredevil
2025-01-29, 18:42:25
Diese These ist kompletter Nonsens... als NV GB203 geplant hatte wusste NV noch gar nichts von RDNA3 und erst recht nichts von RDNA4.

Sie wussten allerdings, das sie als einziger AMD als Konkurrenzen haben. :D

Ontopic:
Super Karte, schlechtes Update. Ich persönlich würde aufgrund der Tensor Leistung und FP4 einer 5080 einen gewissen höheren Wert zuschreiben als ne 4080S, irgendwas zwischen 5-10%, weil AI eben auch Gaming beeinflusst, aber mehr dann auch nicht. AI Leistung bedeutet irgendwo vermutlich auch Langlebigkeit, man kauft aber natürlich danach, was man heute braucht. In Blackwell ist schon viel "versteckt", was man beim normalen Gaming heute gar nicht mitbekommt. Ob dies aber überhaupt mal an Relevanz findet, steht natürlich in den Sternen.

Palpatin
2025-01-29, 18:47:54
Yep, in 4k ist die gleich auf mit der 4090. Bei TPU nur 5% dahinter. Fand ich auch relativ bemerkenswert.
Bei 4k ist durchaus davon auszugehen das die 16 GB in Zukunft Probleme machen. In 1440p RT ist sie bei CB gerade mal 7% vor der 4080S die wiederum 1% vor der 4080 war vor einem Jahr..........

M4xw0lf
2025-01-29, 19:03:09
Ganz schön schwach. Kein Wunder dass die zusätzlichen halluzinierten Frames so in den Vordergrund gedrängt werden, sonst muss man den Fortschritt mit der Lupe suchen.

ENKORE
2025-01-29, 19:03:57
Also bei der 30er und 40er Serie hat sich IMO ein Update vom Vorgänger jeweils gelohnt. Und jetzt nicht. Und das suckt! :ugly:

Der Spirit ist ja man WILL ja aufrüsten. Wer ist denn Gamer und denkt sich: "Schön, kann ich meine alte Hardware weiter nutzen?!" ;) Das ist ja langweilig. Außerdem kriegt man für die alte Hardware in ein paar Jahren bei der 6000er Serie auch nicht mehr so viel wie heute.


Keine Ahnung, irgendwie fände ich es z.B. schon lustig hier am Ende fast 10 Jahre mit ner 1080 Ti ausgekommen zu sein, wenn man jetzt auf RTX 60 wartet ;D

Matrix316
2025-01-29, 19:11:07
Keine Ahnung, irgendwie fände ich es z.B. schon lustig hier am Ende fast 10 Jahre mit ner 1080 Ti ausgekommen zu sein, wenn man jetzt auf RTX 60 wartet ;D
Ja wobei mit Indiana Jones gibt es ja schon einen Titel der Raytracing braucht. In sofern kommt man mit einer 1000er Karte nicht mehr ganz so weit. Da würde sich aber auch schon eine 4070 TI Super oder 5070TI dann lohnen. Wobei die auch nicht soweit weg sind von den 5080ern. ;)

whetstone
2025-01-29, 19:33:04
Hängt wie immer vom Game ab nicht alles skaliert gleich.


https://i.ibb.co/k2CSrRXs/Screenshot-2025-01-29-18-18-46-079-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/m5WcYL4V)

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65395-leistungsplus-nur-ueber-mfg-die-geforce-rtx-5080-founders-edition-im-test.html?start=7

Frag mich gerade wieso Igor da zu komplett anderen Ergebnissen kommt, bei HU schneidet die 5080 auch deutlich schlechter ab @4k high ohne RT, als bei TPU und Luxx in epic.

https://www.igorslab.de/wp-content/uploads/2025/01/Cyberpunk-2077-FPS-2160p-Max_-Settings-RT-off-SS-off-2.png

Sardaukar.nsn
2025-01-29, 19:34:11
Auf Jufes ist verlass... 5080 Review @ 3,3 Ghz

lIUGpX6KsnU

MadManniMan
2025-01-29, 20:03:30
Also heißt die neue 5070 jetzt 5080 und eine 5080 gibt's nicht.

Check.

Matrix316
2025-01-29, 20:13:47
Hier sind die Vorsprünge doch ein bißchen größer als woanders. Hängt wirklich von den Games ab. Oder vielleicht auch vom Testsystem?

6NwO1qrkEds

rentex
2025-01-29, 20:33:56
Keine Ahnung, irgendwie fände ich es z.B. schon lustig hier am Ende fast 10 Jahre mit ner 1080 Ti ausgekommen zu sein, wenn man jetzt auf RTX 60 wartet ;D

Macht dss Spaß? Kann ich mir nicht vorstellen.

Tib
2025-01-29, 21:15:26
Macht dss Spaß? Kann ich mir nicht vorstellen.


...was mir momentan Spaß machen würde, wäre die Niewieda-Karte zu spielen, dem Lederjacken-Konzern den Stinkefinger zu zeigen und mir eine RX 7900 XT zu kaufen.

PHuV
2025-01-29, 21:17:24
Dann mach das doch, hindert Dich keiner daran, und ist auch keiner hier böse. :smile:

The_Invisible
2025-01-29, 21:18:24
...was mir momentan Spaß machen würde, wäre die Niewieda-Karte zu spielen, dem Lederjacken-Konzern den Stinkefinger zu zeigen und mir eine RX 7900 XT zu kaufen.

Na dann wart doch lieber noch auf die 9070

PHuV
2025-01-29, 21:19:55
Für Videobearbeiter, die mit 4:2:2 arbeiten wollen und müssen, könnte die 5080 durchaus preislich eine interessante Alternative werden. Nicht jeder braucht für Videoschnitt unbedingt eine 5090 mit 32 GB VRAM.
Hier gibts weitere Ergebnisse und Tests dazu:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13695596&postcount=588

Die 5080 ist - bis auf bemängeltes fehlendes VRAM - absolut für Content und Co. tauglich, und verbessert sogar Streaming in OBS. Ich poste das Video jetzt hier nicht doppelt.

Tib
2025-01-29, 21:23:05
Pöh!

Relex
2025-01-29, 21:58:50
Hab mir gerade den Test von Igors Lab angesehen.
Irgendwie sind da mal wieder viele Fehler drin.

Offensichtliches Beispiel:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91211&stc=1&d=1738183833

5080 unglaubliche 42 Prozent vor der 4080

Bei den Latenzen dann aber folgendes Bild:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91212&stc=1&d=1738183833

49% höhere Latenzen auf der 5080.

Scheint so, als hätte man vergessen Frame Gen zu deaktivieren.


Weiter gehts, wenn man sich die dedizierte Seite zu Alan Wake 2 ansieht.

4080S nativ 51,8 FPS
4080S DLSS3 FG 54,6 FPS (was komischerweise der gleiche Wert ist, den man in der oberen Grafik mit 4K DLSS balanced angibt)

Was zur Hölle messen die da??

Sumpfmolch
2025-01-29, 23:06:32
Evtl. buggy Treiber, der FG als deaktiviert anzeigt aber es weiter an ist, wenn man das Spiel nicht komplett neu startet...

Janos
2025-01-29, 23:18:28
mit 24GB würde ich mir jetzt eine 5080 schön reden, aber 16GB für den Preis ist mir zu wenig

Duplex
2025-01-29, 23:33:30
Richtiger Reinfall was NVIDIA abgeliefert hat, eine neue Generation wegen lächerlichen 10%, früher zu G92 Zeiten war man noch schlauer und hat die Dinger einfach umgelabelt…

ChaosTM
2025-01-29, 23:46:13
ezk99o67Mh4


danke, wenigsten einer das das behirnt hat

Sardaukar.nsn
2025-01-29, 23:55:49
Zum Glück gibt es auch andere Reviews und auch mal einen tieferen Blick...

lIUGpX6KsnU

ChaosTM
2025-01-30, 00:00:45
Da gibts keinen tieferen Einblick.
Die 5080er ist bestenfalls eine 5070(TI)

-50% in allem ist keine 80er

Die dürfte höchsten 750$ Kosten

Relex
2025-01-30, 00:16:53
Gemessen an Die Größe und Leistungsaufnahme ist es mMn schon ne 80er. Meinetwegen ne 70ti. Aber trotzdem passt das doch.

Es ist nur die 5090 bei der man in Sachen Die Größe und Leistungsaufnahme völlig abdreht. Das sollte man nicht als Maßstab nehmen. Die 5090 ist eben eher das was früher Dual GPU war.

ChaosTM
2025-01-30, 00:32:22
Das ist nur eine 5070er - wie ignorant kann man sein das nicht zu verstehen..

Matrix316
2025-01-30, 00:38:27
Eigentlich ist es eher fast schon eine 5060TI wenn man es ganz strenger nimmt. Die 3070 war mal auf Niveau der 2080TI und die 3060TI war auf 2080 Niveau. Die 3080 war mal 20% schneller als eine 2080TI. Das wäre so wie wenn die 5080 20% schneller als die 4090 wäre. Bei der 40er Serie wäre es eher dann die 5070 Super. Irgendwie war die 4070 nicht ganz so schnell im Vergleich wie die 3070.

Angiesan
2025-01-30, 00:52:43
Die 5080 ist doch wirklich eine runde Karte. Natürlich für jemanden der schon eine 4080/Super oder mehr hat, vollkommen uninteressant.

Und nein ich glaube nicht, dass NV hier die Entwicklungsbremse reingehauen hat, mit 4N / 5nm ist wohl nicht mehr viel zu holen, wenn es preislich attraktiv bleiben soll. Es zeigt einfach, dass Ada schon ein sehr gelungenen Generation war.
Damit reiht sich Nvidia in die Reihe der Chiparchitekten ein, die mit ihrer letzten Generationen vermeintlich nur enttäuschten. Entweder mehr Leistungsaufnahme und proportional mehr Leistung oder eben fast Stagnation.

Die Luft wird dünner, nix anderes hat Jensen auch mitgeteilt, als er sagte die Ki und Software müssen es in Zukunft richten. Wieviele Nodesprünge stehen den noch zur Verfügung 4nm bis 1nm mit allen Verbesserungen reden wir hier bei großen Chips vielleicht von 12-15 Jahren, danach muss was gänzlich anderes her. Somit rückt der Treiber und das Ökosystem mit den Technologien wie DLSS und M/FG oder den Derivaten der anderen Mitspieler am Markt mehr den je in den Fokus um diese relativ kurze Zeitspanne und damit geringe Generationen an Grafikbeschleunigern zu verlängern und die sicherlich explodierenden Kosten der Foundrys abzumildern. Leider haben wir da ja auch ein Quasi-Monopol von TSMC die eben aufrufen können was der Kunde und Verbraucher am Ende noch bezahlen will und kann.

Ich glaube wir stehen hier erst am Anfang von einer vollkommen anderen Art wie man in Zukunft Grafiken in Spielen berechnet und darstellt. Die Konzentration auf wenige Hersteller, wie heute schon bei HW, wird wahrscheinlich auch bei den Entwicklern von Game Engines in wenigen Jahren deutlich sichtbar, UE5 ist nur ein Vorgeschmack.

Cami
2025-01-30, 01:53:30
Ich glaube wir stehen hier erst am Anfang von einer vollkommen anderen Art wie man in Zukunft Grafiken in Spielen berechnet und darstellt. Die Konzentration auf wenige Hersteller, wie heute schon bei HW, wird wahrscheinlich auch bei den Entwicklern von Game Engines in wenigen Jahren deutlich sichtbar, UE5 ist nur ein Vorgeschmack.

So sehe ich das auch. Ich denke, das ganze Konzentrieren auf Rasterleistung ist inzwischen völlig obsolet, und Blackwell macht das nun ganz deutlich mit DLSS 4 und neural Rendering und zeigt, wie wir in Zukunft überhaupt rendern werden.

crux2005
2025-01-30, 04:08:59
d7k4XWg-TcA

Traurig. :down:

Sardaukar.nsn
2025-01-30, 06:42:55
Gemessen an Die Größe und Leistungsaufnahme ist es mMn schon ne 80er. Meinetwegen ne 70ti. Aber trotzdem passt das doch.

Es ist nur die 5090 bei der man in Sachen Die Größe und Leistungsaufnahme völlig abdreht. Das sollte man nicht als Maßstab nehmen. Die 5090 ist eben eher das was früher Dual GPU war.

https://tpucdn.com/review/galax-geforce-rtx-5080-1-click-oc/images/overclocked-performance.png

Das Frame Chasers Review geht da natürlich noch etwas tiefer. Sehr empfehlenswert, gerade auch die subjektive zweite Teil des Videos. Man muss halt darauf klar kommen das man diese Freiheiten hat und eine Kompromiss zwischen den DLSS und MFG Einstellungen finden.

dargo
2025-01-30, 06:46:03
Gemessen an Die Größe und Leistungsaufnahme ist es mMn schon ne 80er. Meinetwegen ne 70ti. Aber trotzdem passt das doch.

Die RTX 3080 war 628mm² groß @699$ UVP und die RTX 3070 392mm² für 499$ UVP. ;) Und ja... ich weiß, dass die Fertigung bei Samsung war.

Sonyfreak
2025-01-30, 07:19:56
mit 24GB würde ich mir jetzt eine 5080 schön reden, aber 16GB für den Preis ist mir zu wenigMit 24GB und 92SMs wäre die Karte eventuell überlegenswert. So aber nicht. :udown:

mfg.

Sonyfreak

SentinelBorg
2025-01-30, 07:26:37
Die Unterschiede in den Benchmarks sind ja nicht überraschend. Unterschiedliche Games profitieren unterschiedlich von der größeren Speicherbandbreite und der höheren INT32 Leistung.

Ich denke auch gerade beim letzterem könnte es in den nächsten Monaten noch Verbesserungen in der Leistung geben.

Was ich bei vielen Reviews auch problematisch finde ist der Vergleich mit der 7900XTX. Ja klar, in der Rohleistung sind sie sich erstmal ähnlich. Aber jetzt mal ehrlich, bei den meisten modernen Games wird Upscaling verwendet und da liegt dann den RTX nun zwei Generationen vor der AMD Karte. Ähnlich bei RT.
Wenn bei 4K Auflösung DLSS 4 TM auf Performance eines besseres Resultat liefert als FSR 3.1 Quality, dann zersägt die RTX die XTX auch bei der Leistung nun deutlich.

Sardaukar.nsn
2025-01-30, 07:49:46
Die RTX 3080 war 628mm² groß @699$ UVP und die RTX 3070 392mm² für 499$ UVP. ;) Und ja... ich weiß, dass die Fertigung bei Samsung war.

Das Argument kann ja aus der AMD Ecke kommen :freak:

Zur Erinnerung... 70,2mm² https://i.imgur.com/uFCSMbZ.jpeg Preise für 9800x3D sind ja bekannt.

MadManniMan
2025-01-30, 08:17:50
Gestern nebenbei mit einem Auge das DS-Review zur 5080 gesehen: MFG scheint mit deutlich größeren Latenz-Schüben einher zu gehen, als bei der 5090, was die Nutzbarkeit doch nochmals einschränkt.

Nicht falsch verstehen: Ich nutze SFG mit meiner 4070 manchmal ganz gern, aber wir müssen da auf jeden Fall dran bleiben, die Probleme deutlich anzusprechen - nicht durch herabwürdigende Begriffe, sondern durch handfeste Metriken.

Flusher
2025-01-30, 08:46:18
Weiss jemand ob heute auch die Custom-Modelle in den Handel gehen? Oder ist der heutige Tag nur der FE vorbehalten?

Exxtreme
2025-01-30, 08:47:03
Heute sollte Beides verfügbar sein. :)

dargo
2025-01-30, 08:50:26
Das Argument kann ja aus der AMD Ecke kommen :freak:

Zur Erinnerung... 70,2mm² https://i.imgur.com/uFCSMbZ.jpeg Preise für 9800x3D sind ja bekannt.
Wo hast du mich den 9800X3D bejubeln gesehen? :ulol: Ich würde das Geld auch niemals zahlen. ;) Und ein Ryzen besteht nicht nur aus einem Chiplet. ;)

Platos
2025-01-30, 08:51:35
Was für ein Fail die 5080 doch ist. Aber ist ja alles, wie erwartet.

Die Blackwell-Gen ist eher ein Lovelace ReRefresh.

Platos
2025-01-30, 08:55:20
Ich denke die Stagnation liegt primär am gleich gebliebenen Node. Die next gen wird sicherlich mit einem N3 Node (denke mal N3E oder N3P) kommen. Dann wird es schon weiter voran gehen.

So ist es. Ab jetzt gilt wohl: Kein Fullnode = lohnt sich nicht.

Es könnte aber evtl. auch Samsung sein beim Blackwellnachfolger. Zumindest bei allem unterhalb des Topmodell.

dargo
2025-01-30, 08:56:05
Die Unterschiede in den Benchmarks sind ja nicht überraschend. Unterschiedliche Games profitieren unterschiedlich von der größeren Speicherbandbreite und der höheren INT32 Leistung.

Ich denke auch gerade beim letzterem könnte es in den nächsten Monaten noch Verbesserungen in der Leistung geben.

Was ich bei vielen Reviews auch problematisch finde ist der Vergleich mit der 7900XTX. Ja klar, in der Rohleistung sind sie sich erstmal ähnlich. Aber jetzt mal ehrlich, bei den meisten modernen Games wird Upscaling verwendet und da liegt dann den RTX nun zwei Generationen vor der AMD Karte. Ähnlich bei RT.
Wenn bei 4K Auflösung DLSS 4 TM auf Performance eines besseres Resultat liefert als FSR 3.1 Quality, dann zersägt die RTX die XTX auch bei der Leistung nun deutlich.
Ja... so kann man sich sein Lager auch schön saufen. ;D

Wenn man einen 4k Monitor mit ~160ppi hat wird der sichtbare Unterschied geringer beim Upscaling. Nimmst halt bei der 7900XTX das balanced Preset und bei Geforce Performance Preset. Jetzt ist bei den Frames die Geforce leicht im Vorteil. Nimmst jetzt Frame Generation dazu und schon ist die 7900XTX nicht mehr im Nachteil vs. Ada bei der Framerate. ;) Mit MFG stelle ich absichtlich keinen Vergleich erst an, aus bekannten Gründen. Du merkst selbst... ich kreiere mir auch gerade das passende User-Szenario zurecht. ;)

Gestern nebenbei mit einem Auge das DS-Review zur 5080 gesehen: MFG scheint mit deutlich größeren Latenz-Schüben einher zu gehen, als bei der 5090, was die Nutzbarkeit doch nochmals einschränkt.

Ist das wirklich so? Ich hatte zwar schon den Verdacht, aber noch keine Bestätigung.

Relex
2025-01-30, 09:00:02
So einfach ist es nicht. Das Transformer Model ist im performance Modus schärfer als DLAA und erstrecht schärfer als FSR Native.

Natürlich muss man schauen, wie es mit Bildstabilität und Probleme mit einzelnen Effekten aussieht, aber ganz grundsätzlich ist das kaum noch vergleichbar, da das Transformer Model nahezu jegliche temporale Unschärfe beseitigt, die eben selbst mit den besten DLAA, FSR und TAA Modi auftreten.

Flusher
2025-01-30, 09:01:00
An dieser Stelle würde ich aber auch gerne vielen Reviews ein FAIL bescheinigen.

Wieso wurden nicht durchgängig auch die RTX 30x0 und RX69xx mitgetestet? HWLuxx, CB, Igor und viele weitere habe die Vor-Vorgänger Generationen nicht mitgetestet. Das sollte doch eigentlich allen klar sein, dass viele Menschen nur jede zweite Generation kaufen und entsprechend einen Vergleich hierzu suchen.

Positives Beispiel ist da PCGH @Raff. Schön gemacht

(aber leider keine 3090 dabei :freak: )

The_Invisible
2025-01-30, 09:01:37
Wenn bei 4K Auflösung DLSS 4 TM auf Performance eines besseres Resultat liefert als FSR 3.1 Quality, dann zersägt die RTX die XTX auch bei der Leistung nun deutlich.

Das war schon bei DLSS3 der Fall, eigentlich hätte man mindestens DLSS-B zu FSR3-Q testen müssen. Jetzt mit DLSS4 müsste man DLSS-P vs FSR3-Q testen und DLSS hätte trotzdem noch die bessere BQ :freak:

robbitop
2025-01-30, 09:31:44
Die Karte ist halt Geschmacksache... Auch wenn sie nativ nicht so viel auf die 4080S drauflegt, aber sie hat halt DLSS4 mit MFGx4 da holt sie dann sehr viel mehr raus... siehe hier:
FG und MFG wird IMO sehr überschätzt von vielen.
Ich habe jetzt mal etwas mit Frame Generation rumexperimentiert (zwar nur auf der 3080 mit DLSS + FSR3.1 + Reflex aber das FSR Framegeneration funktioniert mit boost sehr gut). Und da kam in der Praxis genau das raus was ich erwartet habe.
Du brauchst eine sehr sehr anständige und relativ stabile (nicht so dynamische) inputframerate damit es sich nicht zäh anfühlt. Und wenn die inputframerate sehr variabel ist, verstärkt sich das eher.
Und Frame Generation kostet compute. Also werden aus 60 fps nicht 120 fps.
Man braucht eher so ~70+ fps OHNE FG damit man auf 120 fps mit FG kommt.
Und auch das fühlt sich wenn man es schnell und flüssig mag noch kompromissbehaftet an.

Richtig nett fand ich es ab ~140 FPS mit Frame Generation. Und da braucht man dann relativ stabile 80...85 fps ohne Frame Generation. Idealerweise in den 1% lows. Und sehr stabile gute 0,1% lows.

Will sagen: Frame Generation und Multi Frame Generation bringen Spiele nicht oder kaum mehr in spielbare Bereiche wenn man dafür zu wenig Leistung hatte oder Details opfern musste und jetzt hofft, es nicht mehr tun zu müssen.

Frame Generation und MFG bringen mehr Bewegschärfe wenn Spiele bereits schön flüssig laufen für Monitore mit besonders hohen Refreshraten.
Also das Szenario wäre zB 2x80 fps auf einem 165 Hz Monitor mit 160 Hz Framelimit. Oder 3x80 fps (oder leicht darunter) auf einem 240 Hz Montor. Oder 4x80 fps auf einem 360 Hz Monitor.

Ich finde die Balken implizieren ganz schnell was anderes.

Wer also eine 5070ti aufwärts kaufen will und sich einen schönen 4K240 Hz Monitor dazu kaufen will -> für den ist MFG sicher oft super. Wobei die Frage ist ob man zwischen 2x80 fps vs 3x80 fps noch viel Unterschiede im Gameplay sieht ohne mit der Lupe zu suchen. (ich weiß es nicht - wäre mal interesssant)

dargo
2025-01-30, 09:33:21
So einfach ist es nicht. Das Transformer Model ist im performance Modus schärfer als DLAA und erstrecht schärfer als FSR Native.

Pfff.... überschärfte Grafik sehe ich nicht als Vorteil. Schon oft genug Bilder in diesem Forum von Games gesehen die völlig überschärft aussahen (unnatürlich). Manche mögen das gut finden, ich nicht. Genauso das Gegenteil mag ich auch nicht... ein zu weiches Bild.


Wer also eine 5070ti aufwärts kaufen will und sich einen schönen 4K240 Hz Monitor dazu kaufen will -> für den ist MFG sicher oft super.
Nicht wenn die Latenzen stärker mit MFG ansteigen als bei der 5090. In dem Fall musst du deine Baseline Frames wiederum passend anheben. ;)

GraphikkartusLongus
2025-01-30, 09:33:50
https://youtu.be/ezk99o67Mh4


danke, wenigsten einer das das behirnt hat

Nach den ganzen Reviews gestern war dies mein erster Gedanke:
toll, wieder eine 70TI, die als 80er angepriesen wird... :mad:
Der Abstand zwischen 5080 & 5090 ließe genug Raum für eine Super (+5%&VRAM), TI (+15%&VRAM) & TI SUPER (+30%&VRAM) :freak:


Kurz darauf auch noch das Vid zu den Spiderman 2 requirements..
Wenn das so weiter geht, wird MFG unabdingbar für alles jenseits von 1440p+RT :freak: Annahme forciertes Raytracing (siehe DOOM) würde in Games (ausgenommen sponsored by AMD Titel) ebenfalls zunehmen - ein Schelm wer phöses dabei denkt...

GraphikkartusLongus
2025-01-30, 09:39:49
Wer also eine 5070ti aufwärts kaufen will und sich einen schönen 4K240 Hz Monitor dazu kaufen will -> für den ist MFG sicher oft super. Wobei die Frage ist ob man zwischen 2x80 fps vs 3x80 fps noch viel Unterschiede im Gameplay sieht ohne mit der Lupe zu suchen. (ich weiß es nicht - wäre mal interesssant)

Also wenn du selbst schon schreibst, dass man ja 70fps ohne FG haben sollte, wird es mit der 5070Ti/5080 aber schon sehr schwer werden einen 4K120Hz Monitor zu beglücken :freak: 4080+FG wandert schon Richtung 1440p (für mehr sind die 16GB auch nicht zu gebrauchen)

dargo
2025-01-30, 09:40:04
Kurz darauf auch noch das Vid zu den Spiderman 2 requirements..
Wenn das so weiter geht, wird MFG unabdingbar für alles jenseits von 1440p+RT :freak: Annahme forciertes Raytracing (siehe DOOM) würde in Games (ausgenommen sponsored by AMD Titel) ebenfalls zunehmen - ein Schelm wer phöses dabei denkt...
Locker bleiben, ich erwarte in einem Doom keine hohe RT-Frametime. Selbst das Doom davor lief problemlos mit RT und RDNA2.

https://youtu.be/ezk99o67Mh4


danke, wenigsten einer das das behirnt hat
Die Mehrheit der Gamer möchte verarscht werden. :tongue: Kennst sicherlich den Spruch jeden Tag steht ein Idiot auf. ;)

The_Invisible
2025-01-30, 09:46:41
Locker bleiben, ich erwarte in einem Doom keine hohe RT-Frametime. Selbst das Doom davor lief problemlos mit RT und RDNA2.

DarkAges bietet Pathtracing und nicht mehr den "RT-Light" Modus

Exxtreme
2025-01-30, 09:49:09
DarkAges bietet Pathtracing und nicht mehr den "RT-Light" Modus

Du kannst PT trotzdem abschalten wenn es zu langsam ist.

dargo
2025-01-30, 09:49:30
DarkAges bietet Pathtracing und nicht mehr den "RT-Light" Modus
Sollte ein teures RT/PT kommen wirds optional sein. Alles andere wäre Selbstmord für die DEVs. Mehr gibt es dazu nicht zu sagen.

Colin MacLaren
2025-01-30, 09:54:59
FG und MFG wird IMO sehr überschätzt von vielen.
Ich habe jetzt mal etwas mit Frame Generation rumexperimentiert (zwar nur auf der 3080 mit DLSS + FSR3.1 + Reflex aber das FSR Framegeneration funktioniert mit boost sehr gut). Und da kam in der Praxis genau das raus was ich erwartet habe.
Du brauchst eine sehr sehr anständige und relativ stabile (nicht so dynamische) inputframerate damit es sich nicht zäh anfühlt. Und wenn die inputframerate sehr variabel ist, verstärkt sich das eher.
Und Frame Generation kostet compute. Also werden aus 60 fps nicht 120 fps.
Man braucht eher so ~70+ fps OHNE FG damit man auf 120 fps mit FG kommt.
Und auch das fühlt sich wenn man es schnell und flüssig mag noch kompromissbehaftet an.

Richtig nett fand ich es ab ~140 FPS mit Frame Generation. Und da braucht man dann relativ stabile 80...85 fps ohne Frame Generation. Idealerweise in den 1% lows. Und sehr stabile gute 0,1% lows.

Will sagen: Frame Generation und Multi Frame Generation bringen Spiele nicht oder kaum mehr in spielbare Bereiche wenn man dafür zu wenig Leistung hatte oder Details opfern musste und jetzt hofft, es nicht mehr tun zu müssen.

Frame Generation und MFG bringen mehr Bewegschärfe wenn Spiele bereits schön flüssig laufen für Monitore mit besonders hohen Refreshraten.
Also das Szenario wäre zB 2x80 fps auf einem 165 Hz Monitor mit 160 Hz Framelimit. Oder 3x80 fps (oder leicht darunter) auf einem 240 Hz Montor. Oder 4x80 fps auf einem 360 Hz Monitor.

Ich finde die Balken implizieren ganz schnell was anderes.

Wer also eine 5070ti aufwärts kaufen will und sich einen schönen 4K240 Hz Monitor dazu kaufen will -> für den ist MFG sicher oft super. Wobei die Frage ist ob man zwischen 2x80 fps vs 3x80 fps noch viel Unterschiede im Gameplay sieht ohne mit der Lupe zu suchen. (ich weiß es nicht - wäre mal interesssant)

Ich zocke Black Ops 6 und Marvel Rivals auch mit FSR Framegeneration. Dann werden aus 180fps 300fps+. Das bringt auf einem schnellen Monitor mehr als die 4-5ms, die es an Inputlag kostet.

dargo
2025-01-30, 09:59:16
Ich zocke Black Ops 6 und Marvel Rivals auch mit FSR Framegeneration. Dann werden aus 180fps 300fps+. Das bringt auf einem schnellen Monitor mehr als die 4-5ms, die es an Inputlag kostet.
Das ist doch gar kein Widerspruch zum Post von robbitop. :confused: Deine Baseline Frames sind mit 180fps weit vom kritischen Bereich.

Colin MacLaren
2025-01-30, 10:00:04
Das ist doch gar kein Widerspruch zum Post von robbitop. :confused: Deine Baseline Frames sind mit 180fps weit vom kritischen Bereich.

Ja, das war Zustimmung oder ein Beispiel, was seine Argumentation untermauert.

dargo
2025-01-30, 10:00:39
Ah, ok. Dann sorry.

fondness
2025-01-30, 10:17:29
Immerhin hat das Ding noch ausreichend VRAM und scheint auch sonst gut ausbalanciert. Jeder Chip darunter ist ja schon wieder ein Kompromiss. Für mich der sweet sport bei Nvidia.

dargo
2025-01-30, 10:19:38
Naja... ich wette die 5070TI ist noch besser ausbalanciert als Gesamtpaket.

fondness
2025-01-30, 10:20:35
Warum ist der angeblich gleiche Kühler fast so laut wie bei der 5090 trotz erheblich weniger TDP?

dargo
2025-01-30, 10:21:06
Warum ist der angeblich gleiche Kühler fast so laut wie bei der 5090 trotz erheblich weniger TDP?
Weil am Kühler gespart wurde und die Lüfterkurve aggressiver ist. Kannst beim Review von Roman im Video sehen.

fondness
2025-01-30, 10:22:08
Naja... ich wette die 5070TI ist noch besser ausbalanciert als Gesamtpaket.

Ja mag sein, die Perf/Watt ist interessanterweise gesunken vs. dem Vorgänger.

/Edit: Okay je nach Review auch ~ gleich geblieben ist.

SentinelBorg
2025-01-30, 10:26:01
Pfff.... überschärfte Grafik sehe ich nicht als Vorteil. Schon oft genug Bilder in diesem Forum von Games gesehen die völlig überschärft aussahen (unnatürlich). Manche mögen das gut finden, ich nicht. Genauso das Gegenteil mag ich auch nicht... ein zu weiches Bild.
Das ist halt genau der Punkt, sie ist halt nicht "überschärft". Ich hab bisher immer Abstand von Schärfe-Filtern genommen und auch bei DLSS die Schärfe wenn sie einstellbar ist auf 0 gestellt z.B. in FH5.
Mit DLSS 4 TM ist das Problem aber nicht vorhanden, es ist scharf aber ohne die Nachteile.

Ich hab mir das Model jetzt seit ca. einer Woche in fast alle Spiele reingepatcht (und das ist die allererste public Version davon!) und die Unterschiede sind gewaltig selbst zum besten CNN Preset E davor.

Unter anderem bisher damit gespielt: FF:XIV, FH5, Forza, Returnal, Diablo 4, Cyberpunk und PoE2. Vor allem in den Racing Games ist der Unterschied vor allem in Bewegung extrem deutlich.

MFG ist halt eine Sache für kommende 360 oder 480Hz OLED Displays die ja auch von Blackwell entsprechend angesteuert werden können mit vollen DP 2.1 und DSC.

dargo
2025-01-30, 10:28:20
Das ist halt genau der Punkt, sie ist halt nicht "überschärft". Ich hab bisher immer Abstand von Schärfe-Filtern genommen und auch bei DLSS die Schärfe wenn sie einstellbar ist auf 0 gestellt z.B. in FH5.

Da kannst du einstellen was du willst. Wenn die DEVs von sich aus nachschärfen (tun ja nicht alle) hast du keinen Zugang um es wieder rückgängig zu machen.


Unter anderem bisher damit gespielt: FF:XIV, FH5, Forza, Returnal, Diablo 4, Cyberpunk und PoE2. Vor allem in den Racing Games ist der Unterschied vor allem in Bewegung extrem deutlich.

Ich bin vor kurzen Zeit von 110ppi auf 157ppi beim Bildschirm gegangen. Dort war der Unterschied bei der Schärfe in bsw. FH5 auch deutlich ohne überschärft zu wirken. Und das mit TAA!

Raff
2025-01-30, 10:30:48
Meine Güte, so viel künstliches Drama bei Youtube. Und hier nehmen das auch noch einige Leute ernst - ernster als ernsthafte Reviews, die Pro und Kontra feinsäuberlich trennen. :|

An dieser Stelle würde ich aber auch gerne vielen Reviews ein FAIL bescheinigen.

Wieso wurden nicht durchgängig auch die RTX 30x0 und RX69xx mitgetestet? HWLuxx, CB, Igor und viele weitere habe die Vor-Vorgänger Generationen nicht mitgetestet. Das sollte doch eigentlich allen klar sein, dass viele Menschen nur jede zweite Generation kaufen und entsprechend einen Vergleich hierzu suchen.

Positives Beispiel ist da PCGH @Raff. Schön gemacht

(aber leider keine 3090 dabei :freak: )

Ich wollte eigentlich die RTX 3090 Ti noch mittesten, aber das ging in dem Crunch-Marathon trotz perversester Arbeitszeiten nicht auf. Steckt jetzt im Rechner und kommt mit dem nächsten Schwung (RTX 5070 Ti). :up: So viel vorweg: Die Ampere-Klopper mit 24 GiB schlagen sich noch hervorragend.

Warum ist der angeblich gleiche Kühler fast so laut wie bei der 5090 trotz erheblich weniger TDP?

Ab hier, falls du nicht lesen (https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/6/) magst: https://www.youtube.com/watch?v=z4GhpaJCgc0&t=1367s

MfG
Raff

nordic_pegasus
2025-01-30, 10:30:49
Warum ist der angeblich gleiche Kühler fast so laut wie bei der 5090 trotz erheblich weniger TDP?

im Video von PCGH (https://www.youtube.com/watch?v=z4GhpaJCgc0) sagt Raff bei ca. 23:39, dass sowohl auf Flüssigmetall verzichtet wird als auch auf die 3D Vaporchamber.

Dazu kommt noch die deutlich höhere Energiedichte von GB203 im Vergleich zu GB202. Darum kann die Kühlung nicht so leise arbeiten wie auf der 5090.

GraphikkartusLongus
2025-01-30, 10:31:04
Naja... ich wette die 5070TI ist noch besser ausbalanciert als Gesamtpaket.

...darauf HOFFE ich auch. Für mich die einzige Karte im Lineup, die länger als eine Gen in ihrer Klasse (1440p) verbleiben können wird...

SentinelBorg
2025-01-30, 10:32:04
Da kannst du einstellen was du willst. Wenn die DEVs von sich aus nachschärfen (tun ja nicht alle) hast du keinen Zugang um es wieder rückgängig zu machen.
Da hat dann aber nicht DLSS die Schuld.

Mein Punkt bleibt bestehen, in Sachen Upscaling/AA ist Nvidia nun zwei Generationen vor AMD und das muss mit eingepreist werden. Vielleicht können sie mit FSR4 wieder den Abstand verringern, aber das wird der 7900XTX nicht mehr helfen.

fondness
2025-01-30, 10:32:53
im Video von PCGH (https://www.youtube.com/watch?v=z4GhpaJCgc0) sagt Raff bei ca. 23:39, dass sowohl auf Flüssigmetall verzichtet wird als auch auf die 3D Vaporchamber.

Dazu kommt noch die deutlich höhere Energiedichte von GB203 im Vergleich zu GB202. Darum kann die Kühlung nicht so leise arbeiten wie auf der 5090.

Schade, hier hätte man die Chance gehabt etwas tolles abzuliefern. So hat man wieder eine Karte die zwar schick aussieht, aber viel zu laut ist.

dargo
2025-01-30, 10:33:57
Mein Punkt bleibt bestehen, in Sachen Upscaling/AA ist Nvidia nun zwei Generationen vor AMD und das muss mit eingepreist werden. Vielleicht können sie mit FSR4 wieder den Abstand verringern, aber das wird der 7900XTX nicht mehr helfen.
Steht auf dem Prüfstand. ;)

Schade, hier hätte man die Chance gehabt etwas tolles abzuliefern.
Nee... die Marge muss passen! Wenn Nvidia den Gamern schon so ein riesen Geschenk mit der RTX 5080 liefert (*hust*) muss woanders gespart werden. ;)

fondness
2025-01-30, 10:35:53
Ab hier, falls du nicht lesen (https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/6/) magst: https://www.youtube.com/watch?v=z4GhpaJCgc0&t=1367s

MfG
Raff

Merci, ich finde mich auf eurer Seite nicht zu recht.

dildo4u
2025-01-30, 10:37:06
Man kann die 5080FE Leiser machen sie rennt deutlich Kühler.

https://www.techpowerup.com/review/nvidia-geforce-rtx-5080-founders-edition/41.html

Relex
2025-01-30, 10:56:12
Da kannst du einstellen was du willst. Wenn die DEVs von sich aus nachschärfen (tun ja nicht alle) hast du keinen Zugang um es wieder rückgängig zu machen.


Ich bin vor kurzen Zeit von 110ppi auf 157ppi beim Bildschirm gegangen. Dort war der Unterschied bei der Schärfe in bsw. FH5 auch deutlich ohne überschärft zu wirken. Und das mit TAA!


Hier nochmal ein Vergleich mit DLSS4 vs DLSS3 vs FSR3.1 vs TAA usw.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13696220#post13696220

monstar-x
2025-01-30, 11:01:44
Evtl. buggy Treiber, der FG als deaktiviert anzeigt aber es weiter an ist, wenn man das Spiel nicht komplett neu startet...

Selbst wenn, müsste es doch so einem "Fachmann :biggrin:" wie Igor auffallen, dass da etwas ganz und gar nicht stimmt kann, und nicht einfach ungeprüft die Werte übernehmen. Klingt nicht nach einem sauberen Arbeitsstill.


Das selbe hat RAFF auch im PCGH Test gemacht, die 5080 wird mit FG 2x, 3,x und 4x in CP2077 gemessen, die 4090 die FG2x kann, nicht, Wieso?
Wäre ja jetzt kein Aufwand die 4090 mit einem FG2x noch mal durchlaufen zu lassen. Wieso dass PCGH nicht gemacht hat. Keine Ahnung!
Wurde hier und in PCGH zu recht mehrfach bemängelt.

Computerbase macht es richtig, die 4080 wird mit FG 2x gegen die 5080 FG2x 3x, 4x, gemessen.
Nur so hat man einen realistischen Vergleichswert.

dargo
2025-01-30, 11:08:20
Man kann die 5080FE Leiser machen sie rennt deutlich Kühler.

https://www.techpowerup.com/review/nvidia-geforce-rtx-5080-founders-edition/41.html
Breaking News, man kann jede Grafikkarte leiser machen. :freak:

dildo4u
2025-01-30, 11:10:33
Breaking News, man kann jede Grafikkarte leiser machen. :freak:
Ich meine natürlich ohne das sie Performance verliert der Takt sinkt wenn sie zu warm wird.
Die 5090 rennt dichter an diesem Limit.

Raff
2025-01-30, 11:14:55
Selbst wenn, müsste es doch so einem "Fachmann :biggrin:" wie Igor auffallen, dass da etwas ganz und gar nicht stimmt kann, und nicht einfach ungeprüft die Werte übernehmen. Klingt nicht nach einem sauberen Arbeitsstill.


Das selbe hat RAFF auch im PCGH Test gemacht, die 5080 wird mit FG 2x, 3,x und 4x in CP2077 gemessen, die 4090 die FG2x kann, nicht, Wieso?
Wäre ja jetzt kein Aufwand die 4090 mit einem FG2x noch mal durchlaufen zu lassen. Wieso dass PCGH nicht gemacht hat. Keine Ahnung!
Wurde hier und in PCGH zu recht mehrfach bemängelt.

Computerbase macht es richtig, die 4080 wird mit FG 2x gegen die 5080 FG2x 3x, 4x, gemessen.
Nur so hat man einen realistischen Vergleichswert.

Wie drüben bereits geschrieben:

Wir reden hier von einem Spiel. Bei einer Auflösung. Von 20/15/8 Spielen in der PCGH-Test-Suite (übrigens weltweit die breiteste Aufstellung). Dass man sich an diesen schön plakativen Bonus-Werten stört, die den einzigen ernsthaften Mehrwert von RTX 5000 zeigen, verstehe ich nicht. Die Indizes werden natürlich ohne (M)FG berechnet. :) Noch mehr Werte wären natürlich besser, aber irgendwann fällt selbst der wahnsinnigste Tester ins Bett.

MfG
Raff

Sumpfmolch
2025-01-30, 11:19:22
Irgendwo schon ein Roundup der 5080 Custom Designs gesichtet? Insbesondere der verpflichtenden MSRP Modelle, denn alles drüber ist preislich kompletter Irrsinn.

Relex
2025-01-30, 11:23:04
@Raff Na ja, im PCGH Test war das ja ne bewusste Entscheidung. Kann ich auch nachvollziehen. Bei Igor sinds einfach offensichtliche Fehler.

Ne Korrektur wäre da schon angebracht. Oder zumindest in den Folgestunden/tagen sich nochmal die Zeit nehmen, um korrekturzulesen. Und wenn keine Zeit für Nachmessungen ist zumindest nen Hinweis im Text.

Gerade bei Igor fand ichs unverständlich, weil die 4080 ja eigentlich die einzige Karte ist, mit der sich die 5080 misst. Da sollten solche fehler doch spätestens beim drüberlesen auffallen. Alleine schon die seltsame Länge der Balken bei den Latenzmessungen wo der 5080 Balken so lang wie der 4070 Balken ist. Das fällt doch sofort auf.

ENKORE
2025-01-30, 11:26:19
Werde wohl von meiner 7900xtx umsteigen, nochmal einen Sommer mit dem extrem schlechten teillastverbrauch sowie mäßiges fsr, -wenn es denn überhaupt vorhanden ist- mache ich nicht mehr mit. Verbrauch mit nur offnen YouTube ist auch immer extremst enttäuschend, dazu weiß man nicht ob fsr 4 überhaupt noch kommt.

7900 xtx here. Idle power 19 to 28 watts on single monitor 165hz Freesync. Dual monitor (4k 120hz + 1440 165Hz Freesync) 70 to 86 watts. Full Load 350 watts (stock, no OC).


Die AMD-Jungs haben mir doch ganz feste versprochen, dass das mit dem 100 Watt Idle nur ein Launchtreiberproblem ist :confused:

dargo
2025-01-30, 11:32:40
Gerade bei Igor fand ichs unverständlich, weil die 4080 ja eigentlich die einzige Karte ist, mit der sich die 5080 misst. Da sollten solche fehler doch spätestens beim drüberlesen auffallen. Alleine schon die seltsame Länge der Balken bei den Latenzmessungen wo der 5080 Balken so lang wie der 4070 Balken ist. Das fällt doch sofort auf.
Wäre es denkbar, dass auch andere Reviewer Probleme mit PCIe5 hatten? Roman hat da massive Probleme damit gehabt, witzigerweise nur bei der 5080 FE. Einzelfall?

Raff
2025-01-30, 11:33:04
@Raff Na ja, im PCGH Test war das ja ne bewusste Entscheidung. Kann ich auch nachvollziehen. Bei Igor sinds einfach offensichtliche Fehler.

Ne Korrektur wäre da schon angebracht. Oder zumindest in den Folgestunden/tagen sich nochmal die Zeit nehmen, um korrekturzulesen. Und wenn keine Zeit für Nachmessungen ist zumindest nen Hinweis im Text.

Gerade bei Igor fand ichs unverständlich, weil die 4080 ja eigentlich die einzige Karte ist, mit der sich die 5080 misst. Da sollten solche fehler doch spätestens beim drüberlesen auffallen. Alleine schon die seltsame Länge der Balken bei den Latenzmessungen wo der 5080 Balken so lang wie der 4070 Balken ist. Das fällt doch sofort auf.

Zu Fehlern bei Igor kann ich natürlich nichts sagen. Wollte nur klarstellen, dass die beiden Nvidia-Launches außerordentlich anstrengend waren und dass man selbst mit verdoppelten Arbeitszeiten ohne freie Wochenenden Kompromisse machen muss.

MfG
Raff

GraphikkartusLongus
2025-01-30, 11:58:24
Irgendwo schon ein Roundup der 5080 Custom Designs gesichtet? Insbesondere der verpflichtenden MSRP Modelle, denn alles drüber ist preislich kompletter Irrsinn.

NBB (jeweils mit 1169,- gelistet):
ASUS Prime GeForce RTX 5080
GIGABYTE GeForce RTX 5080 Windforce OC SFF 16G
INNO3D GeForce RTX 5080 X3

Daredevil
2025-01-30, 11:59:37
Man kann die 5080FE Leiser machen sie rennt deutlich Kühler.

https://www.techpowerup.com/review/nvidia-geforce-rtx-5080-founders-edition/41.html
Aus der Erfahrung mit der 1080ti/2080ti/3090 im Hocheffizienzbetrieb:
Was im übrigen ziemlich gut funktioniert beim Thema Gaming ist, den Speicher runter zu takten. Dadurch wird bei stromhungrigen Modellen mit dickem Interface zweistellige Watt Zahlen an Saft frei, welche dann in das Powerbudget der Core Takts fließen können, falls ein Power Limit vorliegt. Zugleich wird der Ram deutlich kühler, was u.U. auch den Kühler langsamer drehen lässt. Da Speicherbandbreite mit GDDR7 seltener der Flaschenhals sein sollte, bekommt man hier u.U. was leiseres, schnelleres und kühleres raus ohne Performance zu verlieren. Das gleiche gilt natürlich auch für das 5090 Dickschiff.

Klar kann man immer optimieren, aber bei solchen Karten hilft es natürlich enorm, wenn das Leistung/Bandbreite Ratio ziemlich weit auseinander ist.
Computerbase hat die Karte ja ordentlich hochgetaktet, was ziemlich abnormal ist für eine GPU in 2025.
17% mehr Takt hat CB der 5080 gegeben ohne an Effizienz zu verlieren ( https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-9#abschnitt_uebertakten_3000_mhz_ohne_effizienzverlust ), der super schnelle Speicher ging auch nochmal ein gutes Stück höher.
Man hat das Gefühl das Nvidia gedacht hat, das AMD stärkeres bringt mit RDNA4 und deswegen Leistung der 5080 liegen lassen ( Siehe OC Werte von CB ), damit man zwischen 5080 und 5090 eine genügend große Lücke hat für einen Konter.

Spekulatius:
Die 5080 sollte die 4080 beerben, da AMD aber mit der 7900XTX ziemlich viel Leistung auf die Straße gebracht hat, musste Nvidia eine 4080S bringen, welche jetzt den Launch der 5080 ziemlich blöd dastehen lässt. Somit hat AMD ziemlich erfolgreich die Nvidia Suppe versalzen, wenn dies das Ziel gewesen ist. Mit der 5080 steht man mangels des preislichen Vorgängers ziemlich blöd da, jetzt wäre der Zeitpunkt für einen ordentlichen Konter von AMD. Das wäre die Kirsche auf der Torte für die Gaming Szene. Das traue ich AMD auch grundsätzlich zu, underpromise overdeliver und so. Nvidia macht das Gegenteil, overpromise and underdeliver.

PHuV
2025-01-30, 12:10:41
5080 doch nicht so schlecht wie gedacht?

CB - Nvidia GeForce RTX 5080 OC: Mit 3,2 GHz lässt sich der Leistungssprung verdoppeln (https://www.computerbase.de/news/grafikkarten/nvidia-geforce-rtx-5080-oc-mit-3-2-ghz-laesst-sich-der-leistungssprung-verdoppeln.91213/)

Tib
2025-01-30, 12:51:04
:biggrin:

Was habt ihr denn nur alle? die RTX 5080 kommt fantastisch an! Hier der Beweis:

91226

...überzeugt euch selbst: GIGABYTE GeForce RTX 5080 Gaming OC 16G (https://www.notebooksbilliger.de/gigabyte+geforce+rtx+5080+gaming+oc+16g+876606)

Alle acht anderen 5080 bei NBB übrigens ebenfalls. Guckst du (https://www.notebooksbilliger.de/pc+hardware/grafikkarten/nvidia/geforce+rtx+5080+nvidia?sortListing=property_sort_bewertung_link_desc)!

dargo
2025-01-30, 13:00:03
Nicht mehr im Sortiment steht da. ;D

Sumpfmolch
2025-01-30, 13:03:21
Nicht mehr im Sortiment steht da. ;D

Noch schnell die Preise hochscalpern? ;D

Tib
2025-01-30, 13:07:07
Noch schnell die Preise hochscalpern? ;D


....nene, die Fake-Reviews verstecken und schnell anpassen. Wenn ich mich richtig erinnere, sind denen da die 4060er Reviews reingerutscht.

PS: Jepp, waren die Bewertungen hier von (https://www.notebooksbilliger.de/gigabyte+geforce+rtx+4060+ti+gaming+oc+16g+grafikkarte+810762), die ich da LOLend überflogen hatte.

91227

...aber in denen steht was von "7800 xt". Hä? Wirkt ja wirklich SEHR seriös. ;-)

monstar-x
2025-01-30, 13:07:45
Wie drüben bereits geschrieben:

Wir reden hier von einem Spiel. Bei einer Auflösung. Von 20/15/8 Spielen in der PCGH-Test-Suite (übrigens weltweit die breiteste Aufstellung). Dass man sich an diesen schön plakativen Bonus-Werten stört, die den einzigen ernsthaften Mehrwert von RTX 5000 zeigen, verstehe ich nicht. Die Indizes werden natürlich ohne (M)FG berechnet. :) Noch mehr Werte wären natürlich besser, aber irgendwann fällt selbst der wahnsinnigste Tester ins Bett.

MfG
Raff

Raff, verstehe mich bitte nicht falsch: Ich schätze dich und deine Arbeit (habe sogar ein PCGH-Abo, und das nur wegen dir), doch hier stimme ich nicht mit dir überein.

Es ist nicht nur ein Spiel, sondern das wichtigste, das immer herangezogen wird, quasi das Vorzeigespiel für Leistungsmessungen!

Selbst wenn es der einzige Mehrwert der 5000er-Serie ist, den du damit hervorheben möchtest, verstehe ich nicht, wieso bei der 4080/4090 nicht ebenfalls Frame Generation 2x gezeigt wurde. So ist das Ganze einfach intransparent.

Wenn es an der Zeit lag, hättest du doch wie bei den restlichen Spielen auch einfach die Frame-Generation-Werte weglassen und diese später nachreichen können, oder die 30 Minuten mehr investieren und den Cyberpunk 2077 Benchmark mit Frame Generation 2x ausführen können.

Dass es nicht mit in die Wertung fließt, ist unerheblich. Die Menschen lesen sich nicht den ganzen Text durch, sondern schauen auf die Balken und dort erscheint die 4080 deutlich schneller als eine 4090. Das Gleiche hat NVIDIA mit der 5070 vs. 4090 gemacht: Frame Generation vs. Native. Wie das bei der Community ankam, wissen wir alle.

Flusher
2025-01-30, 13:18:59
5080 doch nicht so schlecht wie gedacht?

CB - Nvidia GeForce RTX 5080 OC: Mit 3,2 GHz lässt sich der Leistungssprung verdoppeln (https://www.computerbase.de/news/grafikkarten/nvidia-geforce-rtx-5080-oc-mit-3-2-ghz-laesst-sich-der-leistungssprung-verdoppeln.91213/)

naja eine 4080 kannst du auch übertakten - äpfel und birnen und so....

dargo
2025-01-30, 13:19:35
Raff, verstehe mich bitte nicht falsch: Ich schätze dich und deine Arbeit (habe sogar ein PCGH-Abo, und das nur wegen dir), doch hier stimme ich nicht mit dir überein.

Es ist nicht nur ein Spiel, sondern das wichtigste, das immer herangezogen wird, quasi das Vorzeigespiel für Leistungsmessungen!

Selbst wenn es der einzige Mehrwert der 5000er-Serie ist, den du damit hervorheben möchtest, verstehe ich nicht, wieso bei der 4080/4090 nicht ebenfalls Frame Generation 2x gezeigt wurde. So ist das Ganze einfach intransparent.

Wenn es an der Zeit lag, hättest du doch wie bei den restlichen Spielen auch einfach die Frame-Generation-Werte weglassen und diese später nachreichen können, oder die 30 Minuten mehr investieren und den Cyberpunk 2077 Benchmark mit Frame Generation 2x ausführen können.

Dass es nicht mit in die Wertung fließt, ist unerheblich. Die Menschen lesen sich nicht den ganzen Text durch, sondern schauen auf die Balken und dort erscheint die 45080 deutlich schneller als eine 4090. Das Gleiche hat NVIDIA mit der 45070 vs. 4090 gemacht: Frame Generation vs. Native. Wie das bei der Community ankam, wissen wir alle.
Absolute Zustimmung hier!

Zeitmangel ist keine Entschuldigung. So wirkt das als wenn der Reviewer die neue Generation in einem besseren Licht darstellen möchte als es tatsächlich der Fall ist.

PS: habe deinen Text etwas nachgebessert.

HOT
2025-01-30, 13:23:42
Die Vorbestellung war ja auch keine, der Button war funktionsunfähig ;). War alles Fake bei denen.

Die Prime ist mal wieder problematisch übrigens, lt. dieser türkischen Review ist das Ding ziemlich laut (aber besser nochmal mal verifizieren ob das nur ein schlechtes Sample war).
https://pchocasi.com/asus-prime-rtx-5080-ekran-karti-incelemesi/

Matrix316
2025-01-30, 13:29:09
xc32Dvpzhmg

robbitop
2025-01-30, 13:31:50
Pfff.... überschärfte Grafik sehe ich nicht als Vorteil. Schon oft genug Bilder in diesem Forum von Games gesehen die völlig überschärft aussahen (unnatürlich). Manche mögen das gut finden, ich nicht. Genauso das Gegenteil mag ich auch nicht... ein zu weiches Bild.


Nicht wenn die Latenzen stärker mit MFG ansteigen als bei der 5090. In dem Fall musst du deine Baseline Frames wiederum passend anheben. ;)
IIRC war das doch nur marginal zwischen 2 und 4x oder? IIIRC irgendwas bei 5 ms.

dargo
2025-01-30, 13:32:08
https://youtu.be/xc32Dvpzhmg
Dieser Gesichtsausdruck sagt wieder alles. ;D ;D ;D

IIRC war das doch nur marginal zwischen 2 und 4x oder? IIIRC irgendwas bei 5 ms.
Was heißt hier marginal? Schon 2x FG erhöht die Latenz deutlich, da will man doch nicht noch weitere Latenzerhöhungen haben. :confused: Und ob die Werte der 5090 auf die kleineren Modelle 1:1 übertragbar sind ist auch noch mehr als fraglich.

robbitop
2025-01-30, 13:34:12
Ich zocke Black Ops 6 und Marvel Rivals auch mit FSR Framegeneration. Dann werden aus 180fps 300fps+. Das bringt auf einem schnellen Monitor mehr als die 4-5ms, die es an Inputlag kostet.
Ja das ist natürlich genau der Usecase der für FG/MFG gut ist. Sehr sehr gute base FPS. Dann macht das auch Spaß. :up:

dargo
2025-01-30, 13:36:10
Ja das ist natürlich genau der Usecase der für FG/MFG gut ist. Sehr sehr gute base FPS. Dann macht das auch Spaß. :up:
Für 4k Screens auch wieder komplett überbewertet da bei 240Hz Schluss ist. ;) Es sei denn du willst dir echt die 1080p dann mit 480Hz antun. :freak:

Dural
2025-01-30, 13:38:50
Und man sollte beachten das sich die 4080 Super jedenfalls noch den Tests kaum Übertakten lies.

Zudem die Karte dank GDDR7 sicher mit mehr GPU Takt deutlich besser skaliert als die 4080.

Die 5080 gefällt mir immer besser! Ich habe lange auf die 4080 Super (Full GPU) gewartet, das schlechte OC Ergebnis hat mich aber zögerlich gemacht. Jetzt bin ich sehr froh dass ich mir die 4080 nicht geholt habe, die 5080 kann kommen.

Mit richtig guter Kühlung dürfte doch sogar was um 3,3GHz gehen, da fehlt nicht mehr viel bis zur 4090!

https://www.computerbase.de/news/grafikkarten/nvidia-geforce-rtx-5080-oc-mit-3-2-ghz-laesst-sich-der-leistungssprung-verdoppeln.91213/

robbitop
2025-01-30, 13:40:46
Für 4k Screens auch wieder komplett überbewertet da bei 240Hz Schluss ist. ;) Es sei denn du willst dir echt die 1080p dann mit 480Hz antun. :freak:
Naja wenn man dank MFG 240 Hz auf dem 4K OLED schafft wäre das nicht so schlecht in Bezug auf Bewegtschärfe. Wie ich schon sagte ~3x80 fps (also Faktor 3 bei MFG - also 2 erzeugte Frames) sollten schon ganz gut rüber kommen. Gerade dank der guten Schaltzeiten von OLED.


-----------------------

Was ich bei den 50er Karten befürchte, ist, dass diese (mal wieder?) nicht zur UVP kommen werden. Verknappung usw.
Sah dann beim Launch sicher halbwegs nett aus - bringt aber dem Enduser nichts wenn es zu den Preisen nicht kaufbar sein sollte.

dildo4u
2025-01-30, 13:45:46
Die 4080S gibt es immer noch für 1.1k denke nicht das die 5080 eine Höhere Nachfrage bei 1.3k haben.

In der EU kann NV halt nicht mit 999 werben was eine Psychologische Grenze ist.

Tib
2025-01-30, 13:50:05
Mit richtig guter Kühlung dürfte doch sogar was um 3,3GHz gehen, da fehlt nicht mehr viel bis zur 4090!

...das stimmt und mit Wakü wäre die Karte auch richtig klein. Ich finde die
INNO3D GeForce RTX 5080 iChill Frostbite total süß und knuffig:

91229

The_Invisible
2025-01-30, 13:51:11
Für 4k Screens auch wieder komplett überbewertet da bei 240Hz Schluss ist. ;) Es sei denn du willst dir echt die 1080p dann mit 480Hz antun. :freak:

Nö für 4k 240Hz ziemlich perfekt mit 4x und 3x Multiplikator

GraphikkartusLongus
2025-01-30, 13:56:02
....nene, die Fake-Reviews verstecken und schnell anpassen. Wenn ich mich richtig erinnere, sind denen da die 4060er Reviews reingerutscht.

PS: Jepp, waren die Bewertungen hier von (https://www.notebooksbilliger.de/gigabyte+geforce+rtx+4060+ti+gaming+oc+16g+grafikkarte+810762), die ich da LOLend überflogen hatte.

91227

...aber in denen steht was von "7800 xt". Hä? Wirkt ja wirklich SEHR seriös. ;-)

Die haben einfach Einträge alter GPUs (4070Ti, 4060, etc.) abgeändert, dabei sind die alten Reviews stehen geblieben. Sehr tolle Sache....nicht. :rolleyes:
Entweder als Wink welche limitierten Karten zum UVP erhältlich sein werden, oder schlicht um (Bots) zu trollen oder in Suchmaschinen zu landen?!
Inzwischen sind ALLE gelisteten 5080er auf der NBB Seite weg.

robbitop
2025-01-30, 13:59:08
...das stimmt und mit Wakü wäre die Karte auch richtig klein. Ich finde die
INNO3D GeForce RTX 5080 iChill Frostbite total süß und knuffig:

91229
Und wahrscheinlich wie jede GPU die mit einem Werkswasserblock kommt komplett überteuert obwohl man sich den Luftkühler spart. UVP +100 EUR wäre angemessen. Montieren muss man einen Kühler ja so oder so und man spart den Luftkühler. Aber wird ja immer nur in Abzock SKUs verbaut. Also wie immer: billigste SKU kaufen und Wasserblock selbst kaufen und selbst montieren und Luftkühler einmotten.

Lawmachine79
2025-01-30, 14:01:21
Die haben einfach Einträge alter GPUs (4070Ti, 4060, etc.) abgeändert, dabei sind die alten Reviews stehen geblieben. Sehr tolle Sache....nicht. :rolleyes:
Entweder als Wink welche limitierten Karten zum UVP erhältlich sein werden, oder schlicht um (Bots) zu trollen oder in Suchmaschinen zu landen?!
Inzwischen sind ALLE gelisteten 5080er auf der NBB Seite weg.
Jemand mit Deinem Nick sollte sich nicht für eine 5080er interessieren.

Und wahrscheinlich wie jede GPU die mit einem Werkswasserblock kommt komplett überteuert obwohl man sich den Luftkühler spart. UVP +100 EUR wäre angemessen. Montieren muss man einen Kühler ja so oder so und man spart den Luftkühler. Aber wird ja immer nur in Abzock SKUs verbaut. Also wie immer: billigste SKU kaufen und Wasserblock selbst kaufen und selbst montieren und Luftkühler einmotten.
Also auf Caseking liegen 500 Euro zwischen der Inno3D (vormontierter Block) und dem billigsten Luftmodell. 200 Euro für den Block darf man rechnen. Bleiben 300 Euro Differenz. Bei den Preisregionen ist mir das den Erhalt der Garantie durchaus wert. Mir ist meine 4090 Zotac damals kaputtgegangen. Zum Glück, bevor ich sie auf Wasserkühlung umgebaut habe (die Ersatzkarte habe ich dann sofort auf den bereitliegenden Bykskiblock umgebaut ;) ). Ich kann mir vorstellen, dass eine 575 Watt-Karte bei der alles bis ins letzte durchgesigned ist auch eine generell höhere abstrakte Ausfallwahrscheinlichkeit hat. Bei einer 500 Eurokarte ist mir der Garantieverlust fast egal.

Matrix316
2025-01-30, 14:02:02
Schön erklärt

0L1Uyw22UAw

Tib
2025-01-30, 14:07:36
Also wie immer: billigste SKU kaufen und Wasserblock selbst kaufen und selbst montieren und Luftkühler einmotten.


Ja, darauf wirds wohl hinauslaufen, obwohl ich diese nervenaufreibende OP am offenen Herzen diesmal nicht durchführen wollte, alleine schon aus Garantie-Gründen.


Die Wasserblock-Varianten der 5090 sollen 3,2k€ bis 3,4k€ kosten, die WB Versionen der 5080 1,7k€ bis 1,8k€.



Zielgruppen-Zuschlag hin oder her: Die haben alle zu viel Lack gesoffen!

dargo
2025-01-30, 14:17:49
Naja wenn man dank MFG 240 Hz auf dem 4K OLED schafft wäre das nicht so schlecht in Bezug auf Bewegtschärfe.
Und wenn man 170fps mit 2x FG schafft ist das wiederum schlecht auf einem 4k Screen oder wie?

Nö für 4k 240Hz ziemlich perfekt mit 4x und 3x Multiplikator
Blödsinn. Deine Ansprüche sind einfach zu niedrig in diesem Bereich. Latenz @Baseline Frames.

Sardaukar.nsn
2025-01-30, 14:18:07
...das stimmt und mit Wakü wäre die Karte auch richtig klein. Ich finde die
INNO3D GeForce RTX 5080 iChill Frostbite total süß und knuffig:

91229

Finde ich auch mit die spannendste Blackwell. Das Video von Frame Chasers hast du gesehen?

Troyan
2025-01-30, 14:20:40
Schön erklärt

https://youtu.be/0L1Uyw22UAw

3. Schnellste Karte. Muss echt "sucken". Zum Glück haben wir Shittuber, die uns das mal ganz genau erklären. ;D

Ich möchte gerne mal wissen, was so schlecht an der 5080 ist. Abgesehen von den typischen Launchpreisen, werden diese wie bei der 4080 Super in den nächsten Wochen sinken.

dargo
2025-01-30, 14:28:31
Naja wenn man dank MFG 240 Hz auf dem 4K OLED schafft wäre das nicht so schlecht in Bezug auf Bewegtschärfe. Wie ich schon sagte ~3x80 fps (also Faktor 3 bei MFG - also 2 erzeugte Frames) sollten schon ganz gut rüber kommen. Gerade dank der guten Schaltzeiten von OLED.

Dein Vergleich 3x 80fps ist komplett falsch. Schau dir in Ruhe das Video dazu von HWU an, die haben dazu ein sehr gutes Video gemacht. Das Problem bei MFG ist, dass deine Baseline Frames immer weiter absinken je mehr FG du verwendest. Und damit sich das ganze dann entsprechend schlechter anfühlt.

Tib
2025-01-30, 14:35:10
Finde ich auch mit die spannendste Blackwell. Das Video von Frame Chasers hast du gesehen?

Du meinst sein 5080 OC Video (https://www.youtube.com/watch?v=lIUGpX6KsnU)? Ja!

...und das ist das Problem! Der hat mich damit auf die 5080 angefixt.
Die Anzahl verschiedener Blackwell Kühlkörper (https://shop.alphacool.com/en/shop/gpu-water-cooling/nvidia/?p=1&o=1) machts gerade nicht einfacher Ich erwische vermutlich prompt eine Variante, für die es keinen WB gibt ... oder der erst mit langer Wartezeit. Schaunmermal...

robbitop
2025-01-30, 14:38:10
Jemand mit Deinem Nick sollte sich nicht für eine 5080er interessieren.


Also auf Caseking liegen 500 Euro zwischen der Inno3D (vormontierter Block) und dem billigsten Luftmodell. 200 Euro für den Block darf man rechnen. Bleiben 300 Euro Differenz. Bei den Preisregionen ist mir das den Erhalt der Garantie durchaus wert. Mir ist meine 4090 Zotac damals kaputtgegangen. Zum Glück, bevor ich sie auf Wasserkühlung umgebaut habe (die Ersatzkarte habe ich dann sofort auf den bereitliegenden Bykskiblock umgebaut ;) ). Ich kann mir vorstellen, dass eine 575 Watt-Karte bei der alles bis ins letzte durchgesigned ist auch eine generell höhere abstrakte Ausfallwahrscheinlichkeit hat. Bei einer 500 Eurokarte ist mir der Garantieverlust fast egal.
200 EUR für einen Wasserblock? Was für eine Abzocke. Die werden für die Top Modelle offenbar teurer um da auch nochmal zu melken. Eigentlich kriegte man die doch sonst um die 100-115 EUR.

Dein Vergleich 3x 80fps ist komplett falsch. Schau dir in Ruhe das Video dazu von HWU an, die haben dazu ein sehr gutes Video gemacht. Das Problem bei MFG ist, dass deine Baseline Frames immer weiter absinken je mehr FG du verwendest. Und damit sich das ganze dann entsprechend schlechter anfühlt.
Ja wahrscheinlich brauchst du mehr als 80 fps um die 240 FPS zu erreichen. Sagen wir mal 90-100. Ich werde mir das Video anschauen - danke :)

Troyan
2025-01-30, 14:38:33
Würde die Karte kaufen, die am meisten Platz zum unteren Boden liefert. Die saugen die Luft ja an und je breiter die Karten sind, umso ineffizienter werden die.

dargo
2025-01-30, 14:44:01
Ja wahrscheinlich brauchst du mehr als 80 fps um die 240 FPS zu erreichen. Sagen wir mal 90-100. Ich werde mir das Video anschauen - danke :)
Hier habe ich ein schönes Beispiel für dich.
https://www2.pic-upload.de/thumb/37461543/MFG.jpg (https://www.pic-upload.de/view-37461543/MFG.jpg.html)

Ohne FG hast du 96fps hier, nicht vergessen... das sind avgs.! Nimmst du 3x FG dazu was ja ganz gut zu einem 240Hz Screen passt gehen deine Baseline Frames runter auf 77 avg.fps.

Und hier das Video dazu.
https://youtu.be/B_fGlVqKs1k?si=H71MrqSFCOXstTks&t=1111

PS: Nvidia beschönigt das ganze natürlich indem die bei Baseline Frames kein Reflex nehmen. Die nächste Volksverarschung halt. ;)
PPS: und nicht vergessen... diese Werte beziehen sich nur auf eine 5090! Die Latenznachteile je FG-Stufe dürften sich bei langsameren GPUs vergrößern. Bisher habe ich dazu aber noch keinen Beweis. Vielleicht kommt noch was von HWU dazu.

Tib
2025-01-30, 14:51:42
200 EUR für einen Wasserblock? Was für eine Abzocke. Die werden für die Top Modelle offenbar teurer um da auch nochmal zu melken. Eigentlich kriegte man die doch sonst um die 100-115 EUR.

GPU Kühlkörper gingen immer so bei 150 Euro los. Für Blackwell erscheinen nun welche für satte 300 Öcken, was ich dann auch etwas zu viel des Guten finde. Das Problem bei den Dingern ist halt, dass sie fast für jede Karte custom gefräst und angepasst werden müssen. Einzelstücke auf Anfrage fertigen ist ineffizient und bei den üblichen Kleinauflagen wird einkalkuliert, dass WBs in den Regalen liegen bleiben und nach EOL der Generationen mit viel Glück noch zu Dumpingpreisen verkauft werden können.

CPU WBs haben all diese diese Probleme nicht.

Was mich aber anfrisst, ist die Verwendung von Acryl. Alles, was bei mir so aus Acryl gefertigt ist, zeigt mittlerweile Spannungsrisse oder ist teils auch durch das Kühlmittel stumpf oder gar hässlich geworden. Ich hätte gerne lieber langlebigeres, robusteres Material gesehen, wie zB. Acetal. Bei mir verschwindet der Kram eh im dunklen Gehäuse ohne jegliche RGB Beleuchtung.


...aber das ist jetzt total off topic.

The_Invisible
2025-01-30, 14:53:32
Blödsinn. Deine Ansprüche sind einfach zu niedrig in diesem Bereich. Latenz @Baseline Frames.

Nicht alles ist ein Shooter, 80fs Baseline reichen für so ziemlich alles, für non Shooter sogar 60 locker

dildo4u
2025-01-30, 15:02:09
Bestätigung des 3.2GHz OC.

https://i.ibb.co/fRHBRLv/Screenshot-2025-01-30-150440.png (https://ibb.co/ms41sg8)

D_sVNuOg74c

GraphikkartusLongus
2025-01-30, 15:11:14
Jemand mit Deinem Nick sollte sich nicht für eine 5080er interessieren.

Was hat denn mein, in Anlehnung an Monty Pythons Schwanzus Longus, Nick denn bitte mit zu tun?

Ps.; Nbb is Wieder on. Günstigste verfügbare 5080 ist..WAR.. eine MSI um 1389,-
Bei Caseking war's die Asus Prime für 1269,- (und nicht eine Inno3d.. die gab's für 1319,-)

Tib
2025-01-30, 15:54:38
Nur mal so interessehalber:

Hat hier irgendjemand eine Möglichkeit gehabt oder gesehen eine 5080 oder 5090 (vor-)zubestellen oder ggf. sogar kaufen können? Anyone?

The_Invisible
2025-01-30, 15:56:36
Nur mal so interessehalber:

Hat hier irgendjemand eine Möglichkeit gehabt oder gesehen eine 5080 oder 5090 (vor-)zubestellen oder ggf. sogar kaufen können? Anyone?

Ja Alza hatte so 30Min ziemlich viele lagernd, ab 1219. Hätte ich locker bestellen können

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91232&stc=1&d=1738249068

Tib
2025-01-30, 16:30:17
Tnx, ich hab mich mit C4C auf die größeren deutschen Shops beschränkt: Nix!

Paperlaunch! ...aber war ja nicht anders zu erwarten.

Troyan
2025-01-30, 17:00:01
Techpowerup hat haufenweise Custom-Karten getestet. Man sollte sich wohl die Gigabyte Gaming holen, die hat ein Powerlimit von 450W: https://www.techpowerup.com/review/asus-geforce-rtx-5080-astral-oc/43.html

dargo
2025-01-30, 17:18:32
Astral-Fail, zumindest ohne Tweak.

ypIQDqLMkHA

Der vierte Lüfter ist komplett überflüssig und sogar kontraproduktiv. :crazy:

ChaosTM
2025-01-30, 17:36:25
Techpowerup hat haufenweise Custom-Karten getestet. Man sollte sich wohl die Gigabyte Gaming holen, die hat ein Powerlimit von 450W: https://www.techpowerup.com/review/asus-geforce-rtx-5080-astral-oc/43.html


naja, dann hast halt fast eine 4090er aber mit weniger Speicher und möglicherweise höherem Verbrauch. Kann man aber machen wenn man MFG braucht

Emil_i_Lönneberga
2025-01-30, 17:40:30
Mit einer Inno werden es 160mm Länge.

https://geizhals.de/inno3d-geforce-rtx-5080-v186865.html?hloc=eu&nocookie=1

+

https://shop.alphacool.com/en/detail/index/sArticle/21870

Rondoe
2025-01-30, 17:41:50
Ja Alza hatte so 30Min ziemlich viele lagernd, ab 1219. Hätte ich locker bestellen können

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91232&stc=1&d=1738249068

ALZA hat gar nichts. Hast du da schonmal was bestellt ?

Prinzenrolle
2025-01-30, 17:53:32
PS: Nvidia beschönigt das ganze natürlich indem die bei Baseline Frames kein Reflex nehmen. Die nächste Volksverarschung halt. ;)

Genau totale Volksverarschung, weil man mit diesen Latenzen ja niemals spielen könnte, wenn sie sogar deutlich niedriger als Nativ sind.;D
Wie konnte man früher nur mit Vsync oder ohne Reflex spielen, furchtbar.:wink:

robbitop
2025-01-30, 18:02:30
Naja er hat aber unabhängig davon recht. Reflex reduziert den Lag unabhängig von Frame Generation. Entsprechend sollte man reflex vs reflex messen.

Prinzenrolle
2025-01-30, 18:08:45
Bestätigung des 3.2GHz OC.

Sehr schön. Nvidia hat sich wohl dafür entschieden die Karte nicht auszureizen.
Damit dürfte die 5070Ti und auch die 5070 bei weniger Boost-Takt ordentlich Headroom aufweisen. Sieht alles nach einer Super Generation nach einem Jahr aus.
Reflex reduziert den Lag unabhängig von Frame Generation. Entsprechend sollte man reflex vs reflex messen.

Messen kann man viel. Verstehen was man misst ist wieder eine andere Baustelle.
Was bringt mir eine niedrige Latenz, wenn die FPS niedrig sind? Wenig.

robbitop
2025-01-30, 18:18:37
Das ist kein Argument Äpfel mit Birnen zu vergleichen. Unabhängig davon können die input fps bzw die fps ohne FG auch nicht niedrig sein. Im Gegenteil: wenn man FG verstanden hat, weiß man dass FG nur mit hohen Input FPS sinnvoll sind.

The_Invisible
2025-01-30, 18:28:24
ALZA hat gar nichts. Hast du da schonmal was bestellt ?

Ja klar schon öfter, auch zu miningzeiten seltene 3080ti gehabt die sofort versendet wurde

ChaosTM
2025-01-30, 18:37:35
Jay hat seine FE auf +500/500 gebracht.
Gehen gut scheinbar.
https://www.youtube.com/watch?v=IERjPCjnVnI

Und HWUnboxed eine MSI Vanguard in ähnliche Regionen

https://www.youtube.com/watch?v=D_sVNuOg74c

The_Invisible
2025-01-30, 18:50:15
Also müsste die 5090 ähnlich gut gehen wenn man sie lässt. Wo sind die Karten mit 2x Strombuchsen :freak:

Sardaukar.nsn
2025-01-30, 18:51:20
Jay hat seine FE auf +500/500 gebracht.
Gehen gut scheinbar.
https://www.youtube.com/watch?v=IERjPCjnVnI

Die Custom Modelle haben auch noch etwas mehr Powerlimit (Gigabyte sogar 450W?). Da scheint noch was drin zu sein. https://www.techpowerup.com/review/asus-geforce-rtx-5080-astral-oc/43.html

@The_Invisible: Ja, die 5090 wird dann schnell ins PL laufen.

Dural
2025-01-30, 19:02:10
wegen techpowerup hole ich mir die gigabyte, die 450w scheinen mir nötig zu sein.

komisch das die asus nur 400w hat, aber trotzdem 3,3ghz macht.

ich denke wir werden bald 3,4ghz mit wakü sehen, das dürfte 4090+ leistung sein.

Sardaukar.nsn
2025-01-30, 19:10:26
Wahrscheinlich kannst du BIOS auch wieder flashen. Meine bestellte Asus Prime verzögert sich ja noch :/ sonst hätte ich auf das Dual-Bios sicher mal experimentiert. Die Asus Astral OC lief bei TPU ja auch schon über 3,3Ghz.

AtTheDriveIn
2025-01-30, 20:20:49
Die Custom Modelle haben auch noch etwas mehr Powerlimit (Gigabyte sogar 450W?). Da scheint noch was drin zu sein. https://www.techpowerup.com/review/asus-geforce-rtx-5080-astral-oc/43.html

@The_Invisible: Ja, die 5090 wird dann schnell ins PL laufen.

500$ Aufschlag für den Kühler und 6% mehr durch OC? :redface:
ASUS, da wird der Scalper als Zwischenhändler direkt übergangen.

ashantus
2025-01-30, 20:26:59
Techpowerup hat sehr viele Karten 5080 untersucht.
Anbei die Liste. Verlinkt ist zuerst der Teardown mit dem Circuit Board Layout, damit ihr die Qualitätsunterschiede sehen könnt. Die größte Abweichung zum FE Standardlayout findet man bei Asus Astral, welche mit 50 Ampere Phasenwandler abweicht.

Founder
https://www.techpowerup.com/review/nvidia-geforce-rtx-5080-founders-edition/6.html

MSi Vanguard
https://www.techpowerup.com/review/msi-geforce-rtx-5080-vanguard-soc/5.html

MSI Supreme
https://www.techpowerup.com/review/msi-geforce-rtx-5080-suprim-soc/5.html

Asus Astral
https://www.techpowerup.com/review/asus-geforce-rtx-5080-astral-oc/5.html

Gigabyte Gaming
https://www.techpowerup.com/review/gigabyte-geforce-rtx-5080-gaming-oc/5.html

Palit Gamerock
https://www.techpowerup.com/review/palit-geforce-rtx-5080-gamerock-oc/5.html

Gainward Phoenix
https://www.techpowerup.com/review/gainward-geforce-rtx-5080-phoenix-gs/5.html

Galax
https://www.techpowerup.com/review/galax-geforce-rtx-5080-1-click-oc/5.html

Zotac
https://www.techpowerup.com/review/zotac-geforce-rtx-5080-amp-extreme/5.html

Colorful
https://www.techpowerup.com/review/colorful-geforce-rtx-5080-vulcan-oc/5.html

ashantus
2025-01-30, 20:37:36
Und hier sind die Layouts von einigen 5090 Karten

Founder
https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/6.html

https://www.techpowerup.com/review/asus-geforce-rtx-5090-astral/5.html

https://www.techpowerup.com/review/msi-geforce-rtx-5090-suprim/5.html

https://www.techpowerup.com/review/msi-geforce-rtx-5090-suprim-liquid/5.html

https://www.techpowerup.com/review/palit-geforce-rtx-5090-gamerock/5.html

Bandit3644
2025-01-30, 20:47:43
Tnx, ich hab mich mit C4C auf die größeren deutschen Shops beschränkt: Nix!

Paperlaunch! ...aber war ja nicht anders zu erwarten.

Hab bei Alternate ganz locker um 15 Uhr bestellen können, Karte ist schon bei DHL. Auch bei NBB gab es paar Minuten Karten zu kaufen.

whetstone
2025-01-30, 20:57:45
Hab bei Alternate ganz locker um 15 Uhr bestellen können, Karte ist schon bei DHL. Auch bei NBB gab es paar Minuten Karten zu kaufen.

NBB hat bei mir keine Karten angezeigt 20 min, danach nur noch 2x1500€ (soviel wollte ich nicht ausgeben), Alternate war um punkt 15 uhr 404 bzw. "wir modifizieren gerade unseren shop", ich hab bei denen keine einzige karten lieferbar geesehn. MF ging garnichts, cybeport/CU nur 1500+ karten. Bei Alza und Asus bin ich im bezahlvorgang rausgeflogen, karte war danach nicht mehr lieferbar :freak:

Bandit3644
2025-01-30, 21:19:07
NBB hat bei mir keine Karten angezeigt 20 min, danach nur noch 2x1500€ (soviel wollte ich nicht ausgeben), Alternate war um punkt 15 uhr 404 bzw. "wir modifizieren gerade unseren shop", ich hab bei denen keine einzige karten lieferbar geesehn. MF ging garnichts, cybeport/CU nur 1500+ karten. Bei Alza und Asus bin ich im bezahlvorgang rausgeflogen, karte war danach nicht mehr lieferbar :freak:

NBB hat nur 5080 gehabt, man musste allerdings auf die 5080 gehen und nicht auf GeForce RTX 5000 Serie. Die anderen Shops habe ich nicht probiert da es bei Alternate geklappt hat.

GraphikkartusLongus
2025-01-30, 21:58:52
Also wer um jeden Preis noch eine 5080 kaufen möchte...
DiTech Österreich hat noch genug auf Lager... :freak:

Nachtrag: Und natürlich werden Customs auch für Fertig-PCs zurückgehalten. Man kann auf diversen Seiten problemlos Prebuilds mit einer 7800X3D oder 9800X3D + 5080 Kombo (Spanne 2599-2899,-) bekommen. Zum selben Preis wie vor 1-2 Monaten noch mit ner 4080Super drin.
Nachtrag2: nicht mal 24h nach meinem Post wurden die Preise für die besagten Prebuilds um 200-300,- nach oben korrigiert...

Raff
2025-01-30, 22:08:08
wegen techpowerup hole ich mir die gigabyte, die 450w scheinen mir nötig zu sein.

komisch das die asus nur 400w hat, aber trotzdem 3,3ghz macht.

ich denke wir werden bald 3,4ghz mit wakü sehen, das dürfte 4090+ leistung sein.

Lasst euch doch nicht bei jedem Launch von Schnellschuss-Overclocking mit extremen Zahlen blenden. :) 3,3 GHz wird garantiert nicht jede Karte in Ultra HD machen, schon gar nicht die Varianten mit niedrigem maximalem Powerlimit. Power-Klatscher wie MEEE (https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/6/#a4) trennen die Spreu vom Weizen.

Also müsste die 5090 ähnlich gut gehen wenn man sie lässt. Wo sind die Karten mit 2x Strombuchsen :freak:

Mit "nur" 600 Watt sind ähnliche Taktregionen leider völlig unmöglich. Vermutlich sind bereits 3 GHz in allen Situationen zu ambitioniert.

MfG
Raff

Sardaukar.nsn
2025-01-31, 01:20:44
Mit "nur" 600 Watt sind ähnliche Taktregionen leider völlig unmöglich. Vermutlich sind bereits 3 GHz in allen Situationen zu ambitioniert.


Laut Overclock.net sind die clock drops der 5090 auf Grund des Powerlimit ziemlich ausgeprägt. Gerade unter starkem Pathtracing. https://www.overclock.net/threads/official-nvidia-rtx-5090-owners-club.1814246/page-112?post_id=29421555#post-29421555

5090 vs. 4090 - 2820MHz vs 1875MHz - 5090 still 9.2% faster. So if we simply increase the power limit to match the 4090 clock for clock, that would put us at +65% performance in a stock for stock configuration, but simply removing the power limit throttling which is greatly affecting the 5090, as we always knew would happen.

https://i.imgur.com/sU0Ks4d.png


Das Problem wird bei einer 5080 mit 400/450W Powerlimit natürlich nicht so auftreten.

Dimon
2025-01-31, 07:31:34
Laut Overclock.net sind die clock drops der 5090 auf Grund des Powerlimit ziemlich ausgeprägt. Gerade unter starkem Pathtracing. https://www.overclock.net/threads/official-nvidia-rtx-5090-owners-club.1814246/page-112?post_id=29421555#post-29421555



Das Problem wird bei einer 5080 mit 400/450W Powerlimit natürlich nicht so auftreten.

Kann es nicht eher sein das die graka dabei strom einspart? Die ist doch schnell genug.

Hier fehlen die verbrauchswerte, evtl. Könnten die einige rückschlüsse darauf geben was die graka da tut...

Sardaukar.nsn
2025-01-31, 07:48:16
Die Last mit RT/PT ist so groß das der Takt runter muss. Ähnliches Verhalten zeigte schon meine 4090 z.B. unter Quake 2 RTX. Die große Blackwell Karte ist ja potentiell noch viel durstiger. Eigentlich gehört da ein zweiter Stromanschluss und 800er Powertarget dazu.

MiamiNice
2025-01-31, 07:50:41
Kann es nicht eher sein das die graka dabei strom einspart? Die ist doch schnell genug.


Seit wann ist PC HW im allgemeinen "schnell genug"? :biggrin::wink:

Colin MacLaren
2025-01-31, 09:14:32
Geht es nur mir so, aber ich finde die 5080 gar nicht so schlecht? In einem realistischen Use Case, 5080@400W, bis an die Kotzgrenze übertaktet vs. 4090@400W, bis an die Kotzgrenze übertaktet, geht der Vorsprung der 4090 in den einstelligen Prozentbereich zurück. Es fehlen 8 GB VRAM, aber die neuen Mdoelle brauchen weniger Speicher und im schlimmsten Notfall wird man nicht sterben, falls man in ein, zwei Titeln mal die Texturen von Ultra auf High heruntersetzen muss. Dafür bekommt man Smooth Motion, MFG für meinen 480Hz Monitor, zeitexklusives Reflex 2 und evtl. bessere Performance bei kommenden AI-Features.

Selbst für den gleichen Preis müsste ich dann überlegen, ob ich lieber eine 5080 oder 4090 nehmen würde. In der aktuellen Marktsituation,

7900XTX 900 EUR
4080S 1100 EUR
5080 1400 EUR
4090 2000 EUR (gebraucht)
5090 3000 EUR+

ist die 5080 imho gar nicht soo schlecht positioniert. Das gilt auch im Vergleich zur 7900XTX, denn DLSS4 Preset K ist bis Ultra-Performance halbwegs brauchbar, bis Performance auf jeden Fall, während FSR3 unter Quality nur noch grässlich grisselt.

Aber vielleicht ist das nur Copium, weil ich jetzt zwei bis drei Monate mit einer übelsten Hartz 4 Karte vorliebnehmen muss und dieses Hobby eigentlich gleich sein lassen kann. Spaß im Leben fängt bei 40K Timesspy Graphics an.

robbitop
2025-01-31, 09:18:13
IMO Copium wenn man bedenkt, dass es die 4090 seit >2 Jahren gibt und man fast die gleiche Performance mit der 4080 eben so lange haben konnte.
Aber irgendwie scheint man nichts machen zu können - auch der Gebrauchtmarkt ist am Allerwertesten (bis auf die Lockangebote von einigen Kleinanzeigen.de Betrüger wo man am Ende Geld loswird aber keine GPU bekommt ^^)

The_Invisible
2025-01-31, 09:23:11
Kommt draufan von wo man kommt, von der 3000er Gen vollkommen ok. Scheint wohl auch so zu sein, willhaben wird von 3000er Karten geflutet, allerdings zu kranken Preisen.

Da regt sich jeder über die Scalper auf aber wenn man selbst was verkauft macht mans nicht besser

dildo4u
2025-01-31, 09:24:46
5080 sieht besser aus weil du mit der 5090 schneller in CPU Limit läufts Die Karte könnte 80% schneller sein.

Games werden für 10 Tflops Konsolen gebaut und wirklich maxen kannst du eine 600 Watt GPU nur wenn Nvidia den Entwickler zu Path Tracing überredet.

Badesalz
2025-01-31, 09:29:40
5080 sieht besser aus weil du mit der 5090 schneller in CPU Limit läufts Die Karte könnte 50% schneller sein.STEIL :usweet: Der 9800X3D kann dreistellige FPS liefern. Wieviel mehr hat er denn zu rechnen, wenn man von 1080 auf 4k umschaltet? :uconf3:

@robbitop
Ich weiß nicht warum alle immer so über Kleinanzeigen lästern. Kleinanzeigen sind für die Abholung gedacht. Man setzt den Radius vom Standort den das einem noch wert ist (Fahrerei) und sucht da nach den Angeboten. Wenn vom Preis UND Radius nichts ins Raster fällt, LASSEN. Fertig :wink:

robbitop
2025-01-31, 09:42:27
Kommt draufan von wo man kommt, von der 3000er Gen vollkommen ok. Scheint wohl auch so zu sein, willhaben wird von 3000er Karten geflutet, allerdings zu kranken Preisen.

Da regt sich jeder über die Scalper auf aber wenn man selbst was verkauft macht mans nicht besser
Ich (ist meine persönliche Meinung) finde das ist egal von wo man kommt. Und ja für mich ist sowas wie eine GPU auch kein Geld was richtig weh tun würde - aber es geht um's Prinzip. Es ist nur eine PC Komponente, die irgendwann nichts mehr wert ist. Und wenn man die beste kaufen will wird man bei ~2300-2500 EUR landen. Und für Straßenpreise von wahrscheinlich 1200-1400 (die 999EUR werden wir wohl faktisch nicht sehen) bekommt man was, was früher Geforce MX genannt worden wäre (halbe GPU, halbes Speicherinterface) oder bis vor ein paar Jahren noch eine 60er SKU wäre. Die haben alle die Bodenhaftung verloren. Aber tja was will man machen. Ich reisse mich hart zusammen einfach gar nicht zu kaufen. Wird halt mit weniger Details gezockt oder gar nicht. IMO: kranke Welt


@robbitop
Ich weiß nicht warum alle immer so über Kleinanzeigen lästern. Kleinanzeigen sind für die Abholung gedacht. Man setzt den Radius vom Standort den das einem noch wert ist (Fahrerei) und sucht da nach den Angeboten. Wenn vom Preis UND Radius nichts ins Raster fällt, LASSEN. Fertig :wink:
Das stimmt zwar. Aber seit der Jahrtausendwende kann man (siehe ebay und co) auch Gebrauchtdinge per Versand kaufen und muss sich nicht auf seine Region limitieren. Wenn man nicht gerade in einem Ballungsraum wohnt, limitiert das ordentlich.

Ich wollte damit auch nicht sagen, dass Kleinanzeigen grundsätzlich kacke ist sondern nur sagen, dass nur die Betrügerlockangebote auf Kleinanzeigen günstig sind und ein falsches Bild vom Gebrauchtmarkt geben. ;)
Seit dem es die "Direkt Kaufen" Funktion auf Kleinanzeigen gibt, läuft das über einen Treuhänder und das Geld wird nicht ausgeschüttet bevor das Paket nicht rausgeht und wenn da nur ein Backstein drin ist, kriegt man sein Geld zurück.
Die Direkt Kaufen Option bietet aber auch nicht jeder an. Ist für mich aber ein Filter für seriöse Angebote. Wenn man danach filtert hat man die üblichen teuren Gebrauchtmarktpreise für GPUs ^^
Alles Scalper außer Mutti X-D

VooDoo7mx
2025-01-31, 09:59:11
Das die 5080 sich so gut übertalten lässt ist eine sehr wichtige Erkenntnis die sich wohl auf alle Blackwell Karten übertragen wird.

Das Spannungslimit der Karte ist wohl 1,05V und erreicht dabei so zwischen 3.2 und 3,3GHz
ADA Karten von der kleinsten bis zur größten schaffen bei 1,05V so um die 2,9GHz und brauchen für 3GHz dann schon 1,1V.

Wenn man dies weiter spinnt kann man wohl über die ganze Spannungskurve wohl 300-400MHz mehr draufpacken.
Damit könnte man auch locker die 3GHz bei 0,9V packen sofern man überhaupt weiterhin den curve editor nutzen kann.
Damit hat man wohl deutlich mehr Leistung und deutlich weniger Stromverbrauch.
Ist auch für Notebooks sehr interessant, da man bei Notebook GPUs bis auf 0,7V runter gehen kann.

Hat ein Reviwer mal geprüft ob der Curve Editor weiter funktioniert? Nein.
Hat sich mal ein Reviewer die SPannungen und die dazugehörigen Taktfreuenzen angesehen? Nein.
Hat sich jemand die undervolting Möglichkeiten wie minimale Spannung etc angesehen? Nein.
Hat sich ein Reviwer die realen Vebräuche bei verschiedenen Spannungssstufen angesehen? Nein.

Es gab nur in 243 verschiedenen Ausführungen die selben Balkendaiagramme zu sehen.

Zephyroth
2025-01-31, 10:08:44
Und wenn man die beste kaufen will wird man bei ~2300-2500 EUR landen. Und für Straßenpreise von wahrscheinlich 1200-1400 (die 999EUR werden wir wohl faktisch nicht sehen) bekommt man was, was früher Geforce MX genannt worden wäre (halbe GPU, halbes Speicherinterface) oder bis vor ein paar Jahren noch eine 60er SKU wäre. Die haben alle die Bodenhaftung verloren. Aber tja was will man machen. Ich reisse mich hart zusammen einfach gar nicht zu kaufen. Wird halt mit weniger Details gezockt oder gar nicht. IMO: kranke Welt

Dem kann ich mich nur anschließen. Mein Ziel war's zumindest vor 10 Jahren, immer eine Graka im Rechner zu haben, die ~1-2 Stufen unter der stärksten Variante zu haben. Also 8800GT, GTX260, GTX570, GTX770, aber auch Radeon 9600X, X850XT. Da war ich dann irgendwo bei 300-500€, der Abstand zum Maximalausbau etwa 20%, aber geldtechnisch bei der Hälfte.

Heute? Forget it. Meine RX7800XT ist bestenfalls Mainstream, darüber gibt's noch die gesamte RX7900er-Serie, die teilweise deutlich schneller sind. Und darüber gibt's noch die RTX ab 4070.

Und leistungstechnisch läuft das ganze auch aus dem Ruder. >400W für eine GPU? Poh. Ne. Danke.

Also auch bei mir, Details runter, kein 4k und unter 600€ bleiben. Vielleicht sitzt in Zukunft, wenn ich keinen ganzen Rechner hochziehen muss, das Geld für eine Graka etwas lockerer bei ~1000€, aber das ist schon ein Betrag, wo sich mir die Zehennägel aufrollen. 1000€, 1500€ oder gar >2000€ für eine Graka? Ne, ne, ne. No go. Könnte ich mir auch nicht leisten. Vor 10 Jahren war ne Grafikkarte bei etwa 1/5 meines Monatsgehalts, heute liegt (gleiche Klasse vorausgesetzt, also Performance bis Enthusiast) das bei der Hälfte meines Monatsgehalts. Ersteres kann ich vertreten, letzteres kann ich nichtmal vor mir rechtfertigen. Bevor ich das mache, kaufe ich mir lieber für 1000€ einen größeren Monitor mit OLED, aber kaum größerer Auflösung (von 2560x1440 auf 3440x1440, das verkraftet die RX7800XT gerade so).

Grüße,
Zeph

Badesalz
2025-01-31, 10:18:39
@Zephyroth
Ich kann mich garnicht erinnern. Was gab es denn über der X850XT?
Ersteres kann ich vertreten, letzteres kann ich nichtmal vor mir rechtfertigen.Bingo. Ich könnte mir wirklich schon so einiges richtig fettes leisten. Da baut sich aber oft ein Gefühl auf, ich würde nicht nur verarscht werden, ich verarsche mich sehenden Auges auch noch selbst. Daher nein. Danke ;)
Das stimmt zwar. Aber seit der Jahrtausendwende kann man (siehe ebay und co) auch Gebrauchtdinge per Versand kaufen und muss sich nicht auf seine Region limitieren.Das ist zwar richtig, aber mit der Limitierung auf seine Region maximiert man eben die Chancen nicht betrogen zu werden :wink: Wobei:
Wenn man nicht gerade in einem Ballungsraum wohnt, limitiert das ordentlich.Stimmt schon. Ich/wir sind aber auch schon am WE 60km in eine Richtung gefahren. Das ist nur eine Abwägung ;) zwischen Aufwand, Zustand und Ersparnis + ggf. Häufigkeit/Seltenheit. Rudimentäre Mathe also :freak: Zur Not landete wer für die paar Stunden bei Oma und wir verbindeten das mit einer Art Ausflug :cool:

Ich kann das aber bei Leuten aus Hinterpommern oder Emsland schon verstehen. Dann halt die Kleinanzeigen leider nicht als Option betrachten.
Alles Scalper außer Mutti X-D Isso

Sardaukar.nsn
2025-01-31, 10:23:23
Selbst für den gleichen Preis müsste ich dann überlegen, ob ich lieber eine 5080 oder 4090 nehmen würde. In der aktuellen Marktsituation,

7900XTX 900 EUR
4080S 1100 EUR
5080 1400 EUR
4090 2000 EUR (gebraucht)
5090 3000 EUR+


Kommt aber immer auch etwas darauf an, welche 5080 man kauft. Gestern hab ich z.B. ein paar verfügbare Zotac Solid bei Alternate (https://www.alternate.de/ZOTAC/GeForce-RTX-5080-SOLID-Grafikkarte/html/product/100108005) gesehen. Das Modell hatte ich aber nicht auf dem Schrim. Trotz MSRP von 1169€ ein riesen Teil mit dem großen 600W Kühler der 5090er Topmodelle. Das gilt auch für einige Palit/Gainward Modelle.

k-6Dw4qsGhA

ashantus
2025-01-31, 10:41:08
@ Zephyr , gut gemeinter Rat von mir. Bei Oled muss man immer 4k Auflösung gehen. Auch wenn es nur 27 Zoll ist. Der Grund ist die schlechtere Textdarstellung im Vergleich zu IPS. Die jetzt kommende dritte Generation macht das nochmal besser, liegt aber trotzdem noch hinten.
Solltest Du 27Zoll bevorzugen, eine 4k Auflösung das Bild aber zu klein machen, dann gibt es die Möglichkeit mit 150% Scaling auf dem Schirm. Dies entspricht wieder wqhd. Es ist besser als ein original wqhd Panel für die Schrift.
Also, bei Oled immer 4k nehmen.
Im April kommen die neuen 27 er mit 4 K raus.
Ist offtopic, sorry. Jetzt mit nvidia weitermachen.

Zephyroth
2025-01-31, 10:42:39
@Zephyroth
Ich kann mich garnicht erinnern. Was gab es denn über der X850XT?

Die X850XT PE. Die hat nochmal etwas mehr Takt (540MHz vs. 520MHz am Core und 590MHz vs. 540MHz am GDDR3).

@Zephyroth
Bingo. Ich könnte mir wirklich schon so einiges richtig fettes leisten. Da baut sich aber oft ein Gefühl auf, ich würde nicht nur verarscht werden, ich verarsche mich sehenden Auges auch noch selbst. Daher nein. Danke ;)


Yup. Anno 2011 kostete mich mein Gaming-PC etwa 2/3 meines damaligen Gehalts und war kurz unter HighEnd (i5-2500k & GTX570). Will ich das gleiche heute aufbauen ist mein heutiges Monatsgehalt weg. Das geht vielleicht noch als Single, aber nicht als 3-facher Familienvater.

@ Zephyr , gut gemeinter Rat von mir. Bei Oled muss man immer 4k Auflösung gehen. Auch wenn es nur 27 Zoll ist. Der Grund ist die schlechtere Textdarstellung im Vergleich zu IPS.
OK. THX. Das wusste ich nicht. Ziel sind 3440x1440 bei ~40" Diagonale. Wenn das mit OLED net geht, dann wird's wieder IPS.

Grüße,
Zeph

ChaosTM
2025-01-31, 11:10:30
OK. THX. Das wusste ich nicht. Ziel sind 3440x1440 bei ~40" Diagonale. Wenn das mit OLED net geht, dann wird's wieder IPS.

Grüße,
Zeph


Von LG (oder wars MSI - Hirn vom vielen Internetz schon etwas weich) kommt einer in Woled. Auf Wunsch sogar biegbar.
Hab jetzt keinen Link Parat. Wurde auf der CES vorgestellt.

Matrix316
2025-01-31, 11:43:09
Jo...

J72Gfh5mfTk

L233
2025-01-31, 11:51:21
Dann verbleibt meine RTX 4080 halt eine weitere Generation im PC. Ist auch OK. Die RTX 5080 ist für mich ein Clown-Produkt. Das bedeutet nicht, dass sie völlig uninteressant für Leute ist, die von irgendwelchen Uralt-Generationen upgraden, aber als Nachfolger zur RTX 4080 ist das Ding eine komplette Nullnummer.

The_Invisible
2025-01-31, 11:54:22
Naja früher mal hat eine 70er eigentlich immer auf voriges Highend aufgeschlossen, die letzte war die 1070 und 8GB gabs auch noch dazu.

Gute alte Zeiten :D

Relex
2025-01-31, 11:55:05
@Matrix316

Das ergibt für mich keinen Sinn.

Eine 360 Watt GPU ist keine 70er Karte.
Vor allem da der Prozess Node identisch ist, ergibt das schon zweimal keinen Sinn.


Die 5090, die alles bisherige in Sachen Chipfläche und Leistungsaufnahme sprengt als Vergleich zu nehmen ist auch völliger quatsch.

Außerdem, wenn die 5080 meinetwegen 5070 heißen würde, würde sie trotzdem genauso viel kosten.


Im Endeffekt geht es doch nur darum, dass die Karten zu teuer sind und der Leistungssprung aufgrund gleicher node ausgeblieben ist und nicht darum, dass sie falsch benannt sind.
Völlig absurd, dass man die Frustration über die Situation jetzt irgendwie auf Aspekte wie den Namen Projizieren will, die gar nichts damit zu tun haben..

Rein technisch gesehen ist das 80er Label richtig. Die 5090 ist hier die Karte, die vom Schema abweicht und müsste eher ne Titan oder sowas sein.

Sardaukar.nsn
2025-01-31, 11:58:57
@Matrix316
Das ergibt für mich keinen Sinn.
Eine 360 Watt GPU ist keine 70er Karte.

Mach dir nichts draus. Die "alles ist doof" Fraktion verlagert sich bald in die 5070er und 9070er Threads und findet da neue Nahrung ;-)

dargo
2025-01-31, 12:00:44
@Matrix316

Das ergibt für mich keinen Sinn.

Eine 360 Watt GPU ist keine 70er Karte.

Doch... weil der Topdog mittlerweile bei unglaublichen ~600W angekommen ist. :ulol: Eine echte 80-er wäre dann bei ca. 450W und dann passt das auch mit der aktuellen 5080-er 5070-er mit den 360W.

Colin MacLaren
2025-01-31, 12:03:32
Yup. Anno 2011 kostete mich mein Gaming-PC etwa 2/3 meines damaligen Gehalts und war kurz unter HighEnd (i5-2500k & GTX570). Will ich das gleiche heute aufbauen ist mein heutiges Monatsgehalt weg. Das geht vielleicht noch als Single, aber nicht als 3-facher Familienvater.


Mit einer 2080 kannst Du auch heute nach sechs Jahren noch alles halbwegs spielen. Das ging mit der GTX570 nicht. Außerdem war i5 und 70er Karte auch damals Mittelklasse. Das wäre heute ein AMD 7700X mit 5070Ti oder so.

Relex
2025-01-31, 12:04:34
@dargo
Nö, nur weil du das Premium segment ausbaust und neue Produkt und preiskategorien einführst heißt das ja nicht, dass alles darunter mitziehen muss. Dafür gibt es keinen Grund, solange der Node sich nicht ändert.

Da der Prozess node und damit sämtliche Rahmenbedingungen identisch geblieben sind und Nvidia nur am oberen Ende eine noch fettere, teurere und stromhungrigere GPU gebaut hat, ergibt das Argument keinen Sinn.

Lässt man Architekturänderungen mal außen vor ist die 5090 nichts weiter als eine 4090ti.

dargo
2025-01-31, 12:06:08
Mit einer 2080 kannst Du auch heute nach sechs Jahren noch alles halbwegs spielen.
Naja... mit den 8GB kommst du heute nicht mehr weit.

Colin MacLaren
2025-01-31, 12:12:50
Naja... mit den 8GB kommst du heute nicht mehr weit.

In FullHD schon. Vergleiche "Heute mit einer 2080 Alan Wake 2 oder Indy spielen" vs. "Mit einer Geforce 3 Ti 200 versuchen, Crysis zu spielen." Gleicher Zeithorizont.

Matrix316
2025-01-31, 12:14:51
@Matrix316

Das ergibt für mich keinen Sinn.

Eine 360 Watt GPU ist keine 70er Karte.
Vor allem da der Prozess Node identisch ist, ergibt das schon zweimal keinen Sinn.


Die 5090, die alles bisherige in Sachen Chipfläche und Leistungsaufnahme sprengt als Vergleich zu nehmen ist auch völliger quatsch.

Außerdem, wenn die 5080 meinetwegen 5070 heißen würde, würde sie trotzdem genauso viel kosten.


Im Endeffekt geht es doch nur darum, dass die Karten zu teuer sind und der Leistungssprung aufgrund gleicher node ausgeblieben ist und nicht darum, dass sie falsch benannt sind.
Völlig absurd, dass man die Frustration über die Situation jetzt irgendwie auf Aspekte wie den Namen Projizieren will, die gar nichts damit zu tun haben..

Rein technisch gesehen ist das 80er Label richtig. Die 5090 ist hier die Karte, die vom Schema abweicht und müsste eher ne Titan oder sowas sein.

Naja in dem Video wird das ja erklärt, warum das so ist.

Aber Nvidia hat schon bei der 4000er Serie Schabernack betrieben. Eine 3070 war auf dem Level einer 2080TI. Eine 4070 war auf dem Level einer 3080TI. Aber eine 4080 war schneller als eine 3090TI. Eine 5080 kommt default nicht mal in die Nähe einer 4090. Auch im Vergleich zur 4080 kann man sich kaum absetzen.

Wie viel Watt die Verbraucht ist da eigentlich egal. Eine 3080 hatte auch soweit ich weiß den gleichen Chip wie die 3090. Die 5080 hat das nicht im Vergleich zur 5090.

Hätte man der 5080 den gleichen Chip wie die 5090 gegeben nur etwas abgespeckt, hätte man wahrscheinlich eine bessere Karte bekommen. Das wird ja auch in dem Video erklärt.

Zephyroth
2025-01-31, 12:21:06
Außerdem war i5 und 70er Karte auch damals Mittelklasse.

Auf dem Sockel 1155 war nur mehr der i7-2600k (zum Kaufzeitpunkt) drüber, der i7-2700k kam 9 Monate später. Der Rest wäre auf dem Sockel 2011, Sandybridge-E. Und bei den GeForce 570 gab's nur mehr die 580er drüber. Die 590er war eine DualGPU.

Grüße,
Zeph

aufkrawall
2025-01-31, 12:22:45
In FullHD schon.
Indy ist sogar mit 1080p -> 4k TAAU mit einer 5700 XT unter Linux spielbar.
Bei Unreal Engine gibts auch nicht unbedingt komplett schlechte Texturen, wenn man die auf low runterstellt. Streamen nur oft ziemlich aggressiv rein.

ianm
2025-01-31, 12:26:53
Nachdem ich eine Nacht drüber geschlafen und heute im HO nebenbei kurz den neuen Treiber und DLSS4 in diversen Spielen getestet habe, werde ich die Annahme morgen verweigern und die 5080 zurück schicken.

Die Updates haben der 4070 Super auch weiter geholfen, da kann ich vor mir selbst keine 1500 Euro rechtfertigen. Die Kaufreue stellt sich schon ein, bevor ich das Produkt in den Händen halte. Da muss ich auch nichts testen oder vergleichen und der nächste Kunde bekommt dann eine benutzte Karte.

Palpatin
2025-01-31, 12:29:57
In FullHD schon. Vergleiche "Heute mit einer 2080 Alan Wake 2 oder Indy spielen" vs. "Mit einer Geforce 3 Ti 200 versuchen, Crysis zu spielen." Gleicher Zeithorizont.
Zumindest könnte man mit der GeForce 3 noch WoW bis Burning Crusade Zocken erst mit WOTL stiegen die GPU mindest Anforderungen stark an.

Relex
2025-01-31, 13:02:41
Hätte man der 5080 den gleichen Chip wie die 5090 gegeben nur etwas abgespeckt, hätte man wahrscheinlich eine bessere Karte bekommen. Das wird ja auch in dem Video erklärt.

Ja und wäre preislich teurer gewesen.

Nochmal: Was ändert der Name an der Tatsache, dass wir fürs gleiche Geld, Chipfläche und Leistungsaufnahme keine höhere Performance bekommen?


Solange sich die Fertigung nicht ändert, gibt es keine relevanten Perf/Watt und auch keine Perf/$ Gewinne und folglich kann eine 70er mit dem Preis einer 70er auch keine 80er ersetzen, so wie man sich das gerne wünscht.


Die 5080 in 5070 umzubenennen ändert NICHTS an allen genannten Umständen. Also bleibt es Unsinn.

basix
2025-01-31, 13:22:14
Solange sich die Fertigung nicht ändert, gibt es keine relevanten Perf/Watt und auch keine Perf/$ Gewinne und folglich kann eine 70er mit dem Preis einer 70er auch keine 80er ersetzen, so wie man sich das gerne wünscht.

Genau das dürfte bei RDNA4 aber passieren ;) Klar, RDNA3 ist die tiefere Ausgangsbasis wie Lovelace aber ich vermute, dass bei Blackwell schlicht das Target nicht erreicht wurde. 10% mehr Takt und 20% mehr Energieffizienz wären wohl schon angepeilt gewesen, dann würde Blackwell schon etwas besser aussehen.

rentex
2025-01-31, 13:29:07
Dann verbleibt meine RTX 4080 halt eine weitere Generation im PC. Ist auch OK. Die RTX 5080 ist für mich ein Clown-Produkt. Das bedeutet nicht, dass sie völlig uninteressant für Leute ist, die von irgendwelchen Uralt-Generationen upgraden, aber als Nachfolger zur RTX 4080 ist das Ding eine komplette Nullnummer.

+1

robbitop
2025-01-31, 13:41:53
Solange sich die Fertigung nicht ändert, gibt es keine relevanten Perf/Watt und auch keine Perf/$ Gewinne und folglich kann eine 70er mit dem Preis einer 70er auch keine 80er ersetzen, so wie man sich das gerne wünscht.


Das Hauptproblem ist aber nicht der Fertigungspreis. Ja es ist massiv teurer geworden bei TSMC. Aber dennoch kostet ein ~400mm² N4P Chip bei TSMC nur ~100 USD.
Es sind die Erwartungen an astronomische Margen der Investoren seit man in der Pandemie und später mit AI die Büchse der Pandora geöffnet hat.
Grrrreeeed! :D

GraphikkartusLongus
2025-01-31, 13:49:46
Da regt sich jeder über die Scalper auf aber wenn man selbst was verkauft macht mans nicht besser

Naja... Ich habe es so gemacht und stehe dazu: Wenn jemand meine Karte zum Minen haben wollte, hatte ich kein schlechtes Gewissen auch mit Gewinn zu verkaufen. War es ein Gamer, der für die Graka wirklich arbeiten/sparen musste, habe ich GERNE auch mit Verlust verkauft.

Zum Thema 5070Ti-Release: wird offensichtlich kaum besser verlaufen... keine UVP Modelle, günstigste ab 969-979€ und wirklich realistische Chance eine zu bekommen eher nur bei Modellen jenseits von €1k...
Zum Thema 5070: allen anschein nach, wird die 5070 ohne MFG kaum über die 4070S hinaus performen. Spekulation: 5070OC == 4070Ti+MFG; Customs ab 709€, realistische Chance auf Kauf bei Modellen ab 779€,....

Disconnected
2025-01-31, 14:29:50
The more you skip, the more you save.

dargo
2025-01-31, 14:30:52
+1
Aber was ist mit den kommenden Titeln mit Pathtracing? Das muss doch einem 3k+ wert sein. ;) Ich mache nur Spaß. :)

The more you skip, the more you save.
Na... du hast da Lederjäckchen völlig falsch verstanden. :tongue: