Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse nVidia GeForce RTX 5080


Leonidas
2025-02-03, 19:18:33
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-5080

Link zur entsprechenden Ersteindrucks-Umfrage:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-5080

Link zur Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-5080

DerFlow
2025-02-03, 19:56:10
Erst Seite kleiner Typo:

Vergleichstabelle mit den Chips, vorletzte Spalte "Geforce RTX 4080", da muss sicherlich "5080" hin

Leonidas
2025-02-03, 20:00:26
Auf jeden Fall! Gefixt.

MadManniMan
2025-02-03, 20:07:06
Doof gefragt: Wo sind die Berichte zur schlechten BQ bei MFG?

Leonidas
2025-02-03, 20:11:15
Igor's Lab:
https://www.igorslab.de/nvidia-rtx-5090-im-ersten-dlss-4-0-test-ist-multi-frame-generation-ein-echter-performance-booster-oder-huepscht-man-nur-optische-wahrnehmung-auf/

Prinzenrolle
2025-02-03, 20:58:03
Die Launch-Analyse stellt immer mein persönliches Highlight nach den Tests dar.
Ein dickes Dankeschön.

Leonidas
2025-02-03, 21:29:07
Gern!

Sardaukar.nsn
2025-02-04, 06:22:04
Das große Overclocking Potential macht die 5080 erst interessant. +15% scheinbar drin.

D_sVNuOg74c

Flusher
2025-02-04, 09:14:02
Vielen Dank Leo für die mal wieder gelungene Einsortierung der Karte.

rund +50-60% Mehrperformance gegenüber einer 3090 mit gleichzeitig geringerem VRAM ist ein wenig mager.

Habe eine 5080 Suprim liquid leichter über UVP erstanden, aber bisher noch nicht ausgepackt, da ich nach wie vor zwiegespalten bin. :freak:

EDIT: hat jemand irgendwo ein CPU scaling test gesehen? Würde mich mal interessieren wie stark ein 5800X3D die 5080 unter (U)WQHD einbremst

EDIT2: HWLUXX hat sich das mal mit der 5090 angeschaut https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65425-cpu-limit-untersucht-die-geforce-rtx-5090-im-zusammenspiel-mit-%C3%A4lteren-cpus.html?start=1

GraphikkartusLongus
2025-02-04, 09:15:18
Sehr feine Analyse!! Das ~13% Performanceplus für ~3% mehr PD zeigt zumindest mal deutlich, dass hier nicht einfach die TDP gestreckt wurde.
Das gute OC-Potential ist nochmal ein Zuckerl dazu.
Hat schon jemand persönliche Erfahrungen zum Undervolting (±OC) sammeln können? Bei der 4070Ti konnte ich wirklich einiges senken: ~20% weniger Verbrauch & gleiche Leistung oder ~30% weniger Verbrauch & 5-7% Leistungseinbußen. Die 5080 sollte somit eigentlich beim Powerdraw einer 4070Super noch mind. wie eine 4080S performen können.

crnkoj
2025-02-04, 10:37:20
Danke für die gute Analyse Leo. Eigentlich hatte nvidia einfach die 4090 weiter laufen lassen als eine Art Ersatz für die 5080 ti. Wäre sicherlich billiger zum herstellen als eine 5080ti aus dem GB202. Und wenn die genug GB202 Abfall hätten, könnten sie die 4090 wirklich einstellen, die 5080 ti bringen. Bin einerseits schon recht enttäuscht von der rtx 50 Serie (auch der 5090, hauptsächlich wegen des kranken Preises), gleichzeitig froh, dass meine 4090 immernoch die zweitbeste Karte ist und dies mindestens noch 1 Jahr sein wird (wenn nv mal eine 5080 ti überhaupt bringt), ansonsten auch 2 Jahre.

Sisko - Gast
2025-02-04, 12:22:57
Also irgendwie kann einem die X080 Serie in letzter Zeit wie eine Serie des Testballons vorkommen.
- die 12 GB RAM Geschichte
- die Geschichte mit der absurden Bepreisung um ca. 1199$
- die die Geschichte mit Rückstufung/ Downsizing der Serie des zugrundeliegenden CHIPS A102/103
- nun die Geschichte des Nullperformancezuwachses, was eine versteckte Wiederholung der Geschichte um Punkt 2 ist. Zum Teil will wohl hier getestet werden, ob der Konsument reine Softwaregewinne in der Performance schluckt?

Ist die x080 Serie inzwischen so "Auflagenschwach", dass hier gefahrlos getestet werden kann?
Eigentlich ist das Schade, war die Serie bisher genau die passende Größe, vielleicht für einige?

Gast
2025-02-04, 13:34:04
Der Vergleich der Spec-Tabellen ist schon ziemlich traurig.

7900 XTX vs RTX 5080
+50% Speicher für AMD
+10% Rohleistung für AMD
+50% Cache für AMD
Gleiche Speicherbandbreite
Gleiche TDP
+8-pol statt 16-VHTMP für AMD
-PCIe 5.0 bei nVidia, was aber irrelevant ist für den Markt
Fast gleiche Display-Standards (HDMI 2.1, Displayport 2.1)
(AMD hat UHBR13.5, nVidia hat UHBR20)
+30% günstiger bei AMD
+AMD Dezember 2022, statt Frühjahr 2025

AMD-Treiber vs NV-Treiber
-Kein CUDA bei AMD
-Kein DLSS bei AMD
-Kein FG bei AMD
-Kein NVENC und NVDEC bei AMD bzw. sind die AMD-Encoder nach wie vor schlechter und werden nur selten von Software unterstützt
-Kein NVJPEG bei AMD

Zeigt eigentlich, dass die Probleme bei AMD halt nach wie vor primär Software sind. Die Hardware ist im Kern besser. Aber das war ja schon anno 2012 nicht anders.

Dorn
2025-02-04, 13:51:45
Alle Negativ Punkte zutreffend.

Flusher
2025-02-04, 14:44:48
-Kein FG bei AMD



AMD hat doch mit FSR3.1 FG - sogar kompatibel zu Nvidia GPUs? :confused:

redpanther
2025-02-04, 16:00:47
Vermutlich meint er MFG.
Aber statt DLSS hat amd eben auch FSR. Wenn auch qualitativ schlechter.

Und für die Rohleistung kann ich mir eben nix kaufen, wichtig ist was hinten raus kommt, und das ist im Raster ~10% weniger (was imho egal ist), mit RT aber deutlich mehr.

Lehdro
2025-02-04, 16:08:35
Vermutlich meint er MFG.
Aber statt DLSS hat amd eben auch FSR. Wenn auch qualitativ schlechter.

FSR + FG ist kein Pluspunkt, weil das NV genauso kann. Es ist unabhängig von der Farbe deiner Grafikkarte.

FG über den Treiber AFMF hingegen schon, weil das nur mit AMD Treiber geht. Muss man aber auch mögen ;)

redpanther
2025-02-04, 16:46:52
Ja, aber auch kein Minus Punkt. Und Treiber FG kann NV jetzt auch, zumindest erstmal die 5000er

Robbson
2025-02-04, 17:18:28
-Kein CUDA bei AMD

Was kann AMD dafür, wenn Nvidia auf proprietäre Schnittstellen setzt?
AMD kann auch kein G-Sync. Und Audi hat auch kein iDrive.

Ich sehe da eher die Software Entwickler in der Verantwortung. Denn AMD bietet längst SDKs, um aus einer Codebase heraus Software für AMD und Nvidia zu schreiben.

Aber Nvidia bietet und vermarktet halt wie eh und je massiv Bildungsmöglichkeiten für die eigenen Schnittstellen, das fängt schon beim den Hochschulen an. Da müsste AMD ran.

4medic
2025-02-04, 21:11:38
Für die UVP, noch nicht mal den aktuell aufgerufenen Betrag:
Zu Wenig Mehrleistung zum Vorgänger und zu wenig Speicher.

No way!

Gruß

Platos
2025-02-04, 22:55:34
Die Umfrage hat für mich wieder zu wenig Auswahl bzw. ist die Auswahl zu aufgestückelt. Für mich ist es der Preis, der Speicher und der fehlende Fortschritt in Effizienz und der niedrigen Perfomancesteiferung. Aber mangels auswahlmöglichkeit habe ich dann den Preis genommen.

Das Ding sollte eig. maximal 699$ kosten und nicht 999$.

Leonidas
2025-02-05, 03:47:15
Verglichen mit der 3080, die auf dem größten Ampere-Chip basierte: Ja.

2B-Maverick
2025-02-05, 07:17:17
Verglichen mit der 3080, die auf dem größten Ampere-Chip basierte: Ja.

Im Grunde, wenn man die 2000er Generation betrachtet, ist die 5080 doch eher eine "5060Super".
Und dafür dann 1000€. No Way...

Flusher
2025-02-05, 09:51:35
Verglichen mit der 3080, die auf dem größten Ampere-Chip basierte: Ja.

Inflation bitte nicht vergessen. 699 USD aus 2020 sind heute rund 850 USD.

Aber ja - Netto immer noch ein Aufschlag von rund 150 USD.

Gast
2025-02-05, 10:47:30
Was haben Brotpreise (=CPI) mit GPU-Preisen zu tun?! Das sind maximal durchautomatisiert gefertigte Produkte! Finde diesen ständigen Gesang auf die Inflation um deren Preistreiberei auch noch zu rechtfertigen ehrlich gesagt komplett daneben. Von 2000 bis 2020 gab es anscheinend auch keine Inflation. Aber jetzt plötzlich :)

PS: Es gibt einen separaten CPI für Computer. Und der ist extrem deflationär bis 2020 gewesen. Weil das gleiche Geld im nächsten Jahr immer einen besseren Computer gekauft hat. Bis 2020.

Flusher
2025-02-05, 15:01:52
Was haben Brotpreise (=CPI) mit GPU-Preisen zu tun?! Das sind maximal durchautomatisiert gefertigte Produkte! Finde diesen ständigen Gesang auf die Inflation um deren Preistreiberei auch noch zu rechtfertigen ehrlich gesagt komplett daneben. Von 2000 bis 2020 gab es anscheinend auch keine Inflation. Aber jetzt plötzlich :)

PS: Es gibt einen separaten CPI für Computer. Und der ist extrem deflationär bis 2020 gewesen. Weil das gleiche Geld im nächsten Jahr immer einen besseren Computer gekauft hat. Bis 2020.

Der Preis für belichtete Wafer ist in den letzten Jahren auch enorm gestiegen. Wir haben die Situation, dass wir zwar tatsächlich Jahr zu Jahr mehr Transistoren auf Wafer quetschen, aber der monetäre Einsatz ebenfalls massiv angestiegen ist.

Vor kurzem wurde doch berichtet, dass die GB202 Chips 4+ Monate im Fertigungsprozess benötigen, bis die tatsächlich in Platinen gepflanzt werden können.

skanti
2025-04-14, 17:15:03
Die 4080 hatte ich von der Umfrage besser eingestuft, aber der gesamte Launch der 5000er Serie war ein Desaster. Mich würde interessieren, ob sich das auch in Zahlen für Nvidia bemerkbar macht.

Neosix
2025-04-14, 18:59:12
Die verdammte RTX 5060TI hat ein MSRP von 429$ und hat genau so viel VRAM wie die 5080 die mehr als doppelt so teuer ist (999$ msrp), muss man mehr sagen x_x

Raff
2025-04-15, 00:09:18
Doof, aber ein klares Luxusproblem. Mit 16 GiB kommt man in beiden Fällen prima aus. Problematisch ist das Zeugs rund um die RTX 5060 Ti 16GB (Ti 8GB insbesondere, die RTX 5070 zumindest perspektivisch).

MfG
Raff

Neosix
2025-04-15, 10:57:02
Aber das stimmt auch nicht immer. Indiana Jones auf Ultra frisst bereis ohne PT 16GB VRAM. Mit PT crasht das Spiel weil VRAM einfach nicht reicht. Obwohl die GPU selber für PT schnell genug wäre.
Du willst doch nicht Day One bei einer 1200-1500€ GPU anfangen Textur Regler runterdrehen? Jetzt kann man Spekulieren ob das nur ein ausreiser ist, oder man in Zukunft öffter in VRAM Probleme läuft. Zugegeben in 4k, aber ist jetzt die 5080 eine 4K Karte? ;)

aths
2025-04-15, 20:08:45
Wird seit der 40-er Serie nicht besser. Im Jahr 2025 würde ich 8-Gigabyte-Modelle im Einsteigerbereich zu sehen wenn das Budget wirklich begrenzt ist, zumal 1440p-Monitore mit 27" seit einiger Zeit schon recht günstig zu bekommen sind und man spätestens dann gerne >8 GB hat. Gerade die Käufer einer Nicht-Spitzen-Karte rüsten in der Regel seltener auf als Fans von Highend-Modellen.

Ab 12 GB wird es beim Neukauf interessant, das reicht bei Nvidia für eine 50"70". 70-er das war früher eine leicht reduzierte 80-er (mit Aunahme 970). Die 70-er ist jetzt eine ziemlich deutlich verkleinerte Version zur 80-er, wobei die 80-er kaum den 80-er Begriff verdient wenn sie eine halbierte Version des Spitzenmodells ist.

Wie die meisten Monopolisten werden die Modelle so zugeschnitten, dass außer dem Top-Modell keines wirklich rund ist. Am ehesten wäre es wohl die 5070 Ti, die kostet aber aktuell rund einen Tausi. Für, in den Worten von Robbitop, die neue GF2 MX.

Die 5080 hat ein paar Shader mehr. Juhu!!!

Gast
2025-04-15, 20:42:55
Wird seit der 40-er Serie nicht besser. Im Jahr 2025 würde ich 8-Gigabyte-Modelle im Einsteigerbereich zu sehen wenn das Budget wirklich begrenzt ist, zumal 1440p-Monitore mit 27" seit einiger Zeit schon recht günstig zu bekommen sind und man spätestens dann gerne >8 GB hat. Gerade die Käufer einer Nicht-Spitzen-Karte rüsten in der Regel seltener auf als Fans von Highend-Modellen.
Ab 12 GB wird es beim Neukauf interessant, das reicht bei Nvidia für eine 5

Heutzutage gibt es optimierte Settings für alle populären Games über die NVIDIA App für 8GB Modelle, aber die meisten Leute wollen einfach nur loszocken und werden die Grafiksettings nicht einmal anrühren! Bitte aufhören mit solchen Schwachsinn, von wegen 8GB seien zu wenig. ;-)

Raff
2025-04-15, 21:14:05
#boycott8gb ;)

A5zg4wptBS4

MfG
Raff

Leonidas
2025-04-16, 03:04:09
in den Worten von Robbitop, die neue GF2 MX.

Ich frage im Jahr 2000 nach, was man von einer GF2MX für gut 2000 DM hält ;)