PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 4. April 2023


Leonidas
2023-04-05, 09:42:12
Link zur News:
https://www.3dcenter.org/news/news-des-4-april-2023

Gast
2023-04-05, 09:56:39
Es stellt sich eher die Frage warum man beim Vergleich der Grafikkartengenerationen ausgerechnet die 10er vs. 20er Serie ausgelassen hat.

aceCrasher
2023-04-05, 10:53:16
Am 30er Graphen erkennt man schön dass auch dort schon die 3060 nicht-Ti und 3050 geradezu unverschämt bepreist waren. In den vorherigen Serien steigt das P/L Verhältnis mit absteigendem Marktsegment an, hier fällt es nach 3060ti ab. Es wirkt fast so als würde Nvidia nur unter starken Schmerzen Modelle in der <400€ Klasse anbieten heutzutage. Diese werden dann absichtlich so unattraktiv gestaltet, dass man fast zwangsläufig zur 3060ti getrieben wird.

AMDs 6000er Serie hatte das wesentlich rundere Low-End Angebot - wenn man von der 6500XT einmal absieht.

GerryB
2023-04-05, 10:54:18
Wow,
gerade die 6950 für 649€ bei MF, ... da wirds enge für die 4070.

Leonidas
2023-04-05, 11:01:28
Es stellt sich eher die Frage warum man beim Vergleich der Grafikkartengenerationen ausgerechnet die 10er vs. 20er Serie ausgelassen hat.

Schlechter Sprung beim P/P-Verhältnis - und damit keine gute Demonstration des "Normalzustand".

crnkoj
2023-04-05, 11:15:06
Also entsprechend diesen Graphen lohnt sich die 4090 am meisten diese gen, insbesondere wenn man die mit etwas Geduld und Glück für unter 1500e kriegen kann (heute manli 4090 für 1470e kaufbar gewesen).

Platos
2023-04-05, 11:19:43
Also entsprechend diesen Graphen lohnt sich die 4090 am meisten diese gen, insbesondere wenn man die mit etwas Geduld und Glück für unter 1500e kriegen kann (heute manli 4090 für 1470e kaufbar gewesen).

Nein, eine höhere Position an der Y-Achse heisst ein besseres P/L. Das beste ist also nach Grafik eine 4070Ti bzw. (falls richtig eingeschätzt) eine 4070.

GerryB
2023-04-05, 11:22:27
Aber solche Werte wie bei der 1660S oder 1080Ti >133% werden schmerzlich vermisst.
im Umkehrschluss
wäre ne 4070 mit 100% eigentlich gar nix Interessantes, eher nur ne minimale Pflicht

Blase
2023-04-05, 11:36:20
Schlechter Sprung beim P/P-Verhältnis - und damit keine gute Demonstration des "Normalzustand".

Verstehe grundsätzlich was du meinst, aber sich nur die (noch) älteren Generationen herauszupicken, um den "üblichen" Sprung zu zeigen, ist halt auch nicht das ganze Bild.

Es stellt sich eher die Frage warum man beim Vergleich der Grafikkartengenerationen ausgerechnet die 10er vs. 20er Serie ausgelassen hat.

Ich finde auch, dass man der Vollständigkeit halber einfach sämtliche Generationen - meinetwegen seit Maxwell - mit der jeweiligen nächsten vergleichen sollte. Zur Wahrheit gehört auch nun einmal, dass Turing mitnichten so viel besser bezüglich P/L ausgesehen hat, als andere Generationen. Sich jetzt - überspitzt gesagt - nur die Generation herauszusuchen, die einen tollen Sprung gemacht hat, und dann zu sagen, das wäre nVidia Standard und sollte immer so sein, ist nicht zielführend. Zumal Pascal 7 Jahre her ist - und was kostet heute schon das selbe, was es vor 7 Jahren gekostet hat....

MfG Blase

Gast
2023-04-05, 11:59:03
Schlechter Sprung beim P/P-Verhältnis - und damit keine gute Demonstration des "Normalzustand".

Genau deshalb gehört diese Generation mit rein, einerseits um zu zeigen, dass die 40er Generation eben keineswegs die Ausnahme ist, welche diese News zu suggerieren versucht und andererseits weil sie zeigt die "neue Normalität" post Moores Law zeigt.

Was hier gemacht wird ist Cherry Picking der best Cases.

Tobalt
2023-04-05, 12:12:58
Gibt es eine ähnliche Grafik mit allen Generationen seit Einführung des aktuellen 3DC Performance Index?

Ich denke man könnte darin vor allem sehen, dass die Schritte bei Preis/Leistung stets kleiner werden gefühlt.

GerryB
2023-04-05, 12:29:00
Zur Wahrheit gehört auch nun einmal, dass Turing mitnichten so viel besser bezüglich P/L ausgesehen hat, als andere Generationen.

1660S = Turing,
nee war ein Scherz, weil ja nur innerhalb der Gen der Supereffekt rausgearbeitet wurde.
(da hatten die RX die normalen Turings ganz schön unter P/L-druck gesetzt)

Was will ich damit sagen, ... Jensen macht net freiwillig gute Angebote.

hardtech
2023-04-05, 12:34:52
Wow,
gerade die 6950 für 649€ bei MF, ... da wirds enge für die 4070.

https://www.3dcenter.org/artikel/grafikkarten-marktueberblick-januar-2023

348w echten verbrauch will aber keiner.
hab mir notgedrungen einen 4070 ti tuf gekauft, da a) kein spulenfiepen und b) in meinem spiel in 4k die karte keine 90w zieht mit 60fps limit max details.
das kann keine 3xxx gen und keine amd karte.
zumal der idle verbrauch auch gut ist im ggsatz zu den amd karten.

jemandem, dem das alles mit verbrauch und lautstärke egal ist, kann zu solchen "schnappern" greifen.

derF
2023-04-05, 13:29:42
Zur PS5 Pro:

Ein Argument dafür wäre die Unterstützung von FSR3. Damit wäre der nötige "Leistungs"-Sprung für eine Pro zu erreichen.

Ich bin erst wegen PSVR2 Besitzer einer PS5, würde also den plötzlichen Preisverfall meiner "neuen" Konsole nicht begrüßen, aber gerade für VR wäre mehr Leistung natürlich immer gut.

Blase
2023-04-05, 13:30:27
Ich denke man könnte darin vor allem sehen, dass die Schritte bei Preis/Leistung stets kleiner werden gefühlt.

Hätte es den Mining Boom nicht gegeben. Ist nVidia an dieser Stelle nicht vorzuwerfen...

Zitat Leo bezüglich des Tests der 3080:

Gegenüber der GeForce RTX 2080 Super erreicht die GeForce RTX 3080 (unter der UltraHD/4K-Auflösung) ein um +58% besseres Preis/Leistungs-Verhältnis, gegenüber der GeForce GTX 1080 Ti sind es sogar +87%. Hier wird also endlich wieder klar mehr fürs gleiche Geld geboten – ganz so, wie es bei einer neuen Hardware-Generation auf Basis eines besseren Fertigungsverfahren sein sollte. Dass man dann das vorherige Enthusiasten-Modell (in Form der GeForce RTX 2080 Ti) mittels mehr Performance zum (klar) besseren Preispunkt entthront, ist nur das i-Tüpfelchen bzw. der plastische Beweis für das (überaus) bessere Preis/Leistungs-Verhältnis der GeForce RTX 3080.

Unter normalen Umständen wäre die Ampere Generation wahrscheinlich durchaus eine sehr wohlwollend aufgenommene Gen gewesen....

MfG Blase

Leonidas
2023-04-05, 13:58:33
Denke ich auch. Unter normalen Umständen wäre es am Anfang schwer mit $699 für die 3080 geworden. Aber das hätte sich ausgefranst und irgendwann 2021 wäre Ampere zu Listenpreis erhältlich gewesen. Der Cryptowahn hat dies maßgeblich verhindert, NVs kleine Schumelei beim Listenpreis war der weit geringere Effekt.

Gast
2023-04-05, 15:07:52
Die ganze P/L-Vergleicherei ist müßig, wenn man nicht auch die Kaufkraft(verluste) berücksichtigt.

gnomi
2023-04-05, 15:18:22
Gerade 3080 war ja das schräge.
Breite Verfügbarkeit zur UVP nicht gegeben 2020.
Bis Ostern auch kaum Karten. Zum UVP eh nicht.
Und dann im Sommer 2021 ne schön teurere 3080TI nachgeschoben.
Erst sehr spät 3080 12GB und erste Abverkäufe.
Unterm Strich Minimum 500€ Aufpreis, Warterei und eher spät was von.
So mies war keine Generation in der Praxis für den Großteil der Zielgruppe der Karte.
Das einzig halbwegs Brauchbare ist, dass man die Karten nun zwei Jahre länger nutzen kann, weil die neue Generation nach unten hin stark kastriert und weiter teuer ist. Unter 4070 kann man quasi nicht auf hohem Niveau zocken. :freak:

Blase
2023-04-05, 15:27:53
Auch wenn ich zu den wenigen Glücklichen gehört habe, die ne 3080 nahe der UVP (na Asus TUF OC für 789€) bekommen haben, hast du natürlich Recht. Man muss hier klar Theorie und Praxis unterscheiden. Schrieb ich ja, wäre der Mining Boom nicht gewesen... :freak:

Aber er war da und so sind wir nicht bei wünsch dir was, sondern bei so isses! :P

Und nVidia hat sich - natürlich - der Situation angepasst und die nachgeschobenen Modelle schon bezüglich der UVP so hoch angesetzt, dass sie selbst den größten Teil des Kuchens abbekommen haben. Aber auch das kann man nVidia nicht vorwerfen. Die sind nicht die Wohlfahrt...

MfG Blase

Leonidas
2023-04-06, 03:55:36
Die ganze P/L-Vergleicherei ist müßig, wenn man nicht auch die Kaufkraft(verluste) berücksichtigt.

Innerhalb des Vergleichs von Gen zu direktem Nachfolger muß man das nicht wirklich tun, dass sind gerade 2J Differenz.

Zudem verkompliziert es die Rechnung ungemeint, weil man ja für jede Grafikkarte nach exaktem Tagesdatum rechnen müsste. Die Release-Termine innerhalb derselben Gen können durchaus ein Jahr auseinanderliegen.

GerryB
2023-04-06, 07:53:21
https://www.3dcenter.org/artikel/grafikkarten-marktueberblick-januar-2023
348w echten verbrauch will aber keiner.

aus der Praxis:
https://www.computerbase.de/forum/threads/xfx-speedster-merc319-rx-6950xt-besser-und-effizienter-als-ihr-denkt.2129358/#post-27858671

Bis auf ein paar Highscorejäger wird kaum Einer für 24/7 die vollen W
nutzen.
Geht auch ohne Perf.verlust sparsamer.