PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 22. September 2025


Leonidas
2025-09-23, 09:31:15
Link zur News:
https://www.3dcenter.org/news/news-des-22-september-2025

ChaosTM
2025-09-23, 09:39:54
Mit 30-40% wäre ich schon sehr zufrieden, solange man sich das nicht wieder durch noch mehr Strom erkauft.

Mit den 600 von Big Blackwell ist meine persönliche Schmerzgrenze definitiv erreicht, auch weil ich bei noch mehr Saft das NT tauschen müsste. ;)

Lehdro
2025-09-23, 13:33:09
Damit läßt sich durchaus etwas zählbares anfangen, denn die GeForce RTX 5090 hängt erstaunlich stark an ihrer ROP-Performance, wie deren "ROP-Affäre" mit den 8 fehlenden ROPs belegt.
Das stimmt aber nur in Synthetics oder leichten 1080p Benchmarks. Sobald mal wirklich Last auf die Karte wirft, also RT oder 4K reicht auch schon, sind die Unterschiede lächerlich gering.

Wenn NV die Karte in Synthetics oder 1080p wirklich pushen will, sollte sie lieber mal am Treiberoverhead schrauben, es gibt Szenarien da überholt ein 9070 non XT eine 5090 in 1080p dick zweistellig, weil die NV Karte so dermaßen an der CPU nuckelt. (https://www.techspot.com/review/3021-ryzen-5800x3d-cpu-gpu-scaling/)

crnkoj
2025-09-23, 15:07:38
kleiner fehler?: "welcher ab sofort nur noch den Support der Intel-Generationen Meteor Lake bis Raptor Lake und Alchemist sowie Battlemage umfasst. "
Arrow/Lunar/Panther Lake gemeint ?

Leonidas
2025-09-23, 16:20:15
Logisch. Gefixt.

Gast
2025-09-23, 16:56:16
Also den ROPs soviel Performance zuzuschreiben ist schon sehr gewagt.

Der relativ hohe Performanceverlust in einigen Benchmarks kann nicht rein durch die Anzahl erklärt werden, da müssen auch andere Effekte dafür verantwortlich sein. Eventuell dass quasi an einer Stelle zu viele ROPs deaktiviert wurden, und dass man das innerhalb des Chips nicht so verteilen kann, dass das ausgeglichen wird und man im Endeffekt in einem Chipteil Überlastung hat während sich ein anderer langweilt.

iamthebear
2025-09-24, 01:26:17
1.) Dass 11% weniger ROPs automatisch 11% weniger Performabce bedeuten daran habe ich auch meine Zweifel. Wenn dem so wäre dann würde Nvidia deutlixh mehr davon verbauen.
Ja die 5090 skaliert bei Weitem nicht mehr linear mit TFlops und Speicherbandbreite aber das hat auch nichts mit den ROPs zu tun, da die Skalierung gleich ist unabhängig von Auflösung, Details, RT Nutzung etc.

2.) Das Ding wird doch offensichtlich als KI Karte vermarktet (siehe A100/H100/GB200). Da werden wieder massig Tensor Cores drin sein, mehr FP64 etc. aber anteilsmäßig weniger FP32. Das Ganze ist einfach ein GB200 Nachfolger mit GDDR7 Interface.

Gast
2025-09-24, 05:53:15
Theoretisch kann die Architektur einige "Bottlenecks" entfernen.
Denn eigentlich ist ja der rechnerische Unterschied zwischen 4090 und 4080 auch fast 75%, zwischen 5090 und 5080 fast 100%.
In der Realität kommen aber nichtmal die Hälfte an. Entweder eben weil es in der Architektur "Bottlenecks" gibto der weil Rastern einfach nicht mehr Effizient genug ist.

Dann kann man einfach hoffen, dass es möglich ist die Raytracing-Performance in Zukunft linear zu steigern.

Da ich persönlich keine 200+ Watt GPU kaufen möchte (Ich spiele in einem eher kleinen Homeoffice, das heizt sich schnell auf... aber auch aus Umweltgründen) hoffe ich, dass die kommenden Karten ordentlich an Leistung zulegen, aber nicht, damit die 6090 für mich doppelt so schnell ist, sondern eher, dass die Leistung einer 5080 um in einer 200W Karte angeboten werden kann (ich mag kein händisches Nachjustieren).

Gast
2025-09-26, 07:28:08
In der Realität kommen aber nichtmal die Hälfte an. Entweder eben weil es in der Architektur "Bottlenecks" gibto der weil Rastern einfach nicht mehr Effizient genug ist.



Weil CPUs nicht schnell genug sind. Wenn man die CPU-Bottlenecks durch Auflösungen die hoch genug sind weitestgehend eliminiert kommt man diesen Werten auch nahe.

Lehdro
2025-09-26, 13:50:30
Weil CPUs nicht schnell genug sind. Wenn man die CPU-Bottlenecks durch Auflösungen die hoch genug sind weitestgehend eliminiert kommt man diesen Werten auch nahe.
Selbst dann nicht, es sei denn du streckst dein "nahe" auf "besser als vorher".

Bei CB liegt die 5090 zur 5080 bei 4k ohne RT 49% vorne (https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160), mit RT sogar nur 47%. Für quasi verdoppelte Hardware ist das lächerlich wenig. Selbst mit PT bei PCGH (https://www.pcgameshardware.de/Geforce-RTX-5080-Grafikkarte-281030/Tests/Release-Preis-kaufen-Benchmark-Review-vs-4080-Super-1464610/5/) sind es "nur" 66%, weit entfernt von der verbauten Hardware. Mit RT und Raster hat PCGH 51% & 52% ermittelt - also ziemlich konsistent mit CB. Wenn du also 4K Pathtracing nur zu 2/3 der theoretischen Leistungssteigerung animieren kannst, kann man wahrlich von Skalierungsschwäche sprechen.

Nehmen wir mal 5060 Ti 16 GiB vs 5080 als Vergleich, bei PCGH (https://www.pcgameshardware.de/Geforce-RTX-5060-Ti-16GB-Grafikkarte-281131/Tests/Release-Review-Preis-kaufen-Benchmark-Specs-1470373/3/):
Raster 4K: +107%
Raytracing 4K: +212%
Pathtracing 4K: +221%

Zwischen 5060 Ti und 5080 liegen:
CUDA Cores: +133%
Cache: +100%
Speicherbandbreite: +114%

Wie man sieht: Blackwell kann sauber skalieren, die 5090 tut es allerdings gar nicht. Ich tippe auf Cache (nur +50%), ROPs (+58%) und das zu schwache Frontend um die riesige GPU effizient zu füttern.

Gast
2025-09-29, 13:05:38
Bei CB liegt die 5090 zur 5080 bei 4k ohne RT 49% vorne (https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160), mit RT sogar nur 47%. Für quasi verdoppelte Hardware ist das lächerlich wenig.


4k ist für 4090/5090 zu wenig, die sind immer noch nicht vollständig GPU-Limitiert.

Um deren Leistung zu sehen musst du auf 6k/8k gehen.

Lehdro
2025-09-29, 16:19:29
4k ist für 4090/5090 zu wenig, die sind immer noch nicht vollständig GPU-Limitiert.

Um deren Leistung zu sehen musst du auf 6k/8k gehen.
Theoretisch richtiger Ansatz, fällt aber in der Praxis auf die Nase: Die 5090 skaliert ausgehend von 2160p nur minimal besser als die 5080 in 4320p, zumindest solange deren Speicher nicht begrenzt. Die 2160p bzw. Pathtracing Werte sind schon nahe am Optimum was die 5090 überhaupt leisten kann. Übrigens, bei meinen Tests war der Abstand der 5090 zu 4090 ab 2160p fast identisch, getestet habe ich 2880p und 4320p. Einziger Ausreißer war TWWH3, da gab es größere Steigerungen, das Spiel reagiert in hohen Auflösungen aber auch extrem auf Speicherbandbreite (siehe auch hier der OC Test bei Igor (https://www.igorslab.de/geforce-rtx-5090-rtx-5080-rtx-5070-ti-und-rtx-5070-deutlich-schneller-machen-eine-blackwell-overclocking-anleitung-nicht-nur-fuer-dummies/4/))
Zudem: Solange die 5090 in 2160p weniger FPS als in 1080p hat, herrscht dort keine GPU Limitierung vor. Die CPU Last bleibt gleich, egal wie viele Pixel du durch die Gegend schubst. Erst Aspektverhältnisse (16:9 vs 21:9 z.B.) oder andere Renderingtechnologien verschieben die CPU Last. Die 5090 ist wie auch die 4090 zuvor vor allem durch den Beschnitt bei Cache deutlich skalierungsunfreudiger und braucht viele Pixel um halbwegs auf Touren zu kommen. Dafür reicht allerdings 2160p oder PT schon völlig aus.