Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 21. August 2025


Leonidas
2025-08-22, 08:11:29
Link zur News:
https://www.3dcenter.org/news/news-des-21-august-2025

Rabiata
2025-08-22, 09:53:51
Den Nvidia-Generationsvergleich (und auch den AMD - Generationsvergleich vom Juli) finde ich gut. Er zeigt, daß sich P/L weit besser entwickelt hat als das Gejammer einiger Forumsmitglieder uns weismachen will.

Manchmal ist es auch sinnvoll, entgegen der Nomenklatur des Herstellers mit der nächst niedrigere Klasse zu vergleichen. Zum Beispiel die 5060 Ti gegen die 70er Modelle der älteren Generationen. Da sieht die 2070 rundum schlecht aus gegen die 5060 Ti, und das bei niedrigeren Preisen der 5060 Ti. Auch der Stromverbrauch ist in diesem Fall wieder vergleichbar, die 5060 Ti braucht sogar etwas weniger als die 2070.

Blase
2025-08-22, 10:12:11
Zum Beispiel die 5060 Ti gegen die 70er Modelle der älteren Generationen. Da sieht die 2070 rundum schlecht aus gegen die 5060 Ti, und das bei niedrigeren Preisen der 5060 Ti. Auch der Stromverbrauch ist in diesem Fall wieder vergleichbar, die 5060 Ti braucht sogar etwas weniger als die 2070.

Hey, wir können 7 Jahre später die Leistung der Karte bei (etwas) niedrigerem Stromverbrauch und Preis überbieten... :tongue:

;)

EDIT: Ich habe mir mal die Mühe gemacht, und bin die 7 Jahre einmal in die andere Richtung gegangen. Also weitere 7 Jahre zuvor (2011) gab es z.B. die GTX580, die - von der Dual Chip GeForce GTX 590 mal abgesehen - seinerzeit die stärkste nVidia Karte war. Einführungspreis der Karte 499$. Aber da wir uns hier auf die "xx70er" Karten konzentrieren, nehme ich die GTX 570, welche es als zweitstärkste Karte für 399$ gab.

Dankenswerter Weise führt Leo ja hervorragende Übersichten über die Karten. Aus der Marktübersicht aus 2011 (https://www.3dcenter.org/artikel/grafikkarten-marktueberblick-dezember-2011) und der Gesamtübersicht (https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2025) bekommt man dann das relevante Zahlenmaterial...

Zusammenfassend also:

GTX 570 laut Index bei 240% (399$ Einführungspreis, 219W )
GTX 580 laut Index bei 280% (499$ Einführungspreis, 244W)
RTX 2070 laut Index bei 1060% (599$ Einführungspreis, 191W)
RTX 5060 Ti laut Index bei 1980% (449$ Einführungspreis, 180W)
RTX 5070 laut Index bei 2560% (549$ Einführungspreis, 250W)

Viel Zahlenmaterial. Auch wenn Turing (die 20er Gen) bezüglich P/L eine ganz miese Generation war, verglichen mit dem Vorgänger oder auch dem Nachfolger, so kann man anhand dem Sprung von GTX 570 zu RTX 2070 im Vergleich zum Sprung RTX 2070 zu RTX 5060 Ti (wie von dir gewünscht) einiges ablesen:

Von einer 570 zu einer 2070 hat sich im Zeitraum von ca. 7 Jahren die Leistung mehr als vervierfacht. Im selben Zeitraum von der 2070 ausgehend heute zur 5060 Ti hat sich die Leistung aber grade mal verdoppelt.

Wenn du also das "Gejammer" hinterfragst, ist das in etwa die Antwort. Zusammen mit dem Umstand, dass du Anno 2011 für das selbe Geld den TopDog bekommen hast und heute schon nach unten in die Schublade greifen musst ;)

Die aufregenden Zeiten der Anfänge sind vorbei...

Aber ja, das waren halt auch andere Zeiten, welche unweigerlich vorbei sind. Aber eben wegen dieser Zeiten gibt es halt den Aufschrei seit einigen Jahren. Man hatte gehofft bzw. sogar erwartet, dass es genau so weiter geht.

Heute kann eine GPU auch mal 4-5 Jahre im PC verbleiben, das war einst undenkbar.

Eben. Das wäre früher so nur unter größten Einschränkungen möglich gewesen...

MfG Blase

Gast Ritis
2025-08-22, 10:58:50
Die Kritik an der allgemeinen GPU-Entwicklung ist doch letztlich Too-Little-Too-Late. Bei Nvidia muss man immer deren RZ-Beschleuniger mit teils zweifelhaften Softwaregimmiks fürs Gaming hypen und bei AMD kommt deren Softwaresupport zu diesen künstlichen Hypes nicht hinterher. Am Ende stagniert der Fortschritt beim Gaming aber so oder so im Massenmarkt mit den Konsolen und überbordenden Budgets beim ungleichen Duopol der GPU-Hersteller.
Die aufregenden Zeiten der Anfänge sind vorbei, aber in wenigen Jahren sind die die es erlebt haben auch schon unter der Erde. Heute kann eine GPU auch mal 4-5 Jahre im PC verbleiben, das war einst undenkbar. Dass Echtzeit-Raytracing fürs Gaming eigentlich mal von ImgTech für GPUs eingeführt wurde erinnern nur Insider, gleichermassen zuvor Tiled-Based Rendering.
Die letzte Gen von Nvidia konnte schon nicht mehr als Hype die Masse erfassen. High-End Gaming ist in weinigen Jahren genauso Geschichte wie High-End-Hifi. Gibt es noch, sind aber nur aussterbende Freaks, das Schlangenöl hat den Brunnen längst vergiftet. So etwas wie HDR hat auch kaum jemand verstanden, wird kaum umgesetzt. Fast so tot wie realistischer 3d-Sound, redet auch bei der PS5 schon keiner mehr drüber, das x-te Mal die letzen 20 Jahre, ist halt nur was für Freaks.
Braucht doch mit der nächsten Gen nur noch ne APU für Full-HD oder WQHD mit RT und Upscaling. Für 4k und 120Hz ne Mittelklasse GPU. Teurer und Mehr muss man sich heute schon schönreden mit starrem Blick auf den FPS-Counter. ;D

Rabiata
2025-08-22, 12:47:13
Die aufregenden Zeiten der Anfänge sind vorbei, aber in wenigen Jahren sind die die es erlebt haben auch schon unter der Erde. Heute kann eine GPU auch mal 4-5 Jahre im PC verbleiben, das war einst undenkbar.
Der technische Fortschritt in der Wafer-Fertigung, der das erlaubt hat, ist auch deutlich langsamer geworden. Vor allem auch im Preis pro Transistor. Siehe Leos Artikel vom 15. August, in dem er über Kosten pro Transistor referiert.

Wenn sich der dort dargestellte Trend bewahrheitet, sehe ich ab der nächste GPU-Generation (RTX6000, RX???) eine längere Stagnation kommen. Das Heulen und Zähneklappern hier in Forum wird groß sein. Wir hatten vierzig Jahre lang einen großartigen Lauf, von den Computern der 1980er (C64!) bis heute. Aber nichts hält ewig.

Exxtreme
2025-08-22, 12:58:08
Die Problematik ist nicht nur Wafferproduktion sondern auch die ganzen Oligopole, die Innovationen stark ausbremsen. Ein Pferd springt halt nur so hoch wie es muss.

Gast
2025-08-22, 13:23:24
Wenn man verschiedene Grafikkartengenerationen vergleicht sollte man meiner Meinung nach auch den Stromverbrauch mit beachten:

Wenn ich jetzt in ne 2070RTX 250W Reinpumpe komme ich Milchmädchen mäßig gerechnet z.B. auf eine FHD Raster Leistung von 142%. Da ist der Unterschied zu den 250% einer 5070 schon deutlich weniger. Oder umgekehrt eine 5070 RTX mit 175W kommt (wieder Milchmädchen Rechnung) auf 175%.

Gast
2025-08-22, 21:55:16
Interessant auch die Größenvergleiche und auch ein Hinweis auf die Produktionskosten des Chips:
2070 445 mm² 12NM
3070 393 mm² Samsung 8nm
4070 295 mm² N4
5070 263 mm² N4

die Chips werden immer kleiner

Leonidas
2025-08-23, 05:15:01
AMD hat es über höhere Abgabekosten gelöst. NV verlangt in der 70er Klasse kaum mehr Geld - aber hat viel kleinere Chips, daher weniger Kosten. Wäre auch ansonsten nicht NV-typisch, wenn man nicht die Marge gesteigert hätte ;)

RawMangoJuli
2025-08-24, 17:16:25
Die 4070 hat nur 36MB L2 Cache.

Leonidas
2025-08-25, 04:31:23
In der Tat! Gefixt.