Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Shader-Cluster von "Ada Lovelace" mit deutlich höherer Rechenkraft


Leonidas
2022-05-13, 09:13:22
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-shader-cluster-von-ada-lovelace-mit-deutlich-hoeherer-rechenkraft

Sweepi
2022-05-13, 09:36:53
ich kaufe ein '/'
rein FP32 / rein INT32 / dual-use Einheiten 64 / 64 / –– ............. 64 / –– / 64............. 128 / 64 / ––

Leonidas
2022-05-13, 10:54:12
Dankend angenommen und eingebaut.

WedgeAntilles
2022-05-13, 11:09:51
3,4 fache Rohleistung.
Was soll daraus an echten Frames übrig bleiben?
2,4 fache?
Und trotzdem soll man den Stromverbrauch noch mal anheben "müssen"?
Weil - bei gleichem Stromverbrauch - 2,2 fache Leistung nicht reichen würde?

Nachdem in den letzten Generationen jeweils ein Zuwachs vom 1,3, 1,4, 1,5 fachen, etwas in der Art erreicht wurde, könnte man mit 2,2 nicht leben?

Ich halte diese gigantischen Steigerungen für unplausibel. AMD und Nvidia.

Theoretisch könnte ich es mir vorstellen, wenn ich das gesamte Portfolio eine Kategorie nach oben rücke, auch preislich.

Eine 4070 wird also nicht das Pendant von einer 3070 sondern von einer 3080 (mit entsprechenden Preisen von ca. 900 Euro).
Eine 4080 wird der 3090 entsprechen.
Und eine 4090 wird eine komplett neue Kategorie bilden, im Bereich 2500 Euro aufwärts.

Wenn dann eine 4070 das 2,2 fache einer 3070 liefert mag das möglich sein. Wenn sie aber eben 900 Euro kostet müsste der eigentliche Vergleich mit der 3080 sein. Namen sind Schall und Rauch, man kann ein Produkt nicht stumpf mit dem Namensvorgänger vergleichen. Sondern muss es mit der Preiskategorie vergleichen.
Da wäre man dann bei 1,8 fache Leistung oder etwas in der Art.

Das wäre immer noch viel, aber plausibel.


Ich kann mir einfach nicht vorstellen, dass eine 4070 mit 2,x facher Leistung zu einer 3070 kommen wird, zu einem Preis der auch nur ansatzweise mit dem der 3070 vergleichbar ist. (also ca. 650 Euro)

Für AMD gilt genau das gleiche.


Klar, vielleicht liege ich völlig falsch und wir bekommen mehr als doppelt so schnelle Karten trotzdem zu ähnlichen Preisen - wäre schön, ich kaufe mir ja eine.
Aber IMO klingt das viel zu gut um wahr zu sein.
Und erfahrungsgemäß entpuppt sich sowas dann eigentlich auch immer als "es war tatsächlich nicht wahr."

Gast
2022-05-13, 11:10:23
Wenn das Schaltbild von kimi stimmt, dann ist dieser komplette Artikel nonsens.

Separate INT32 und FP32 ALUs bringen keinerlei Mehrdurchsatz so lange der Scheduler bei 32thread/clock bleibt. Die wären schon mit FP32 alleine ausgelastet, oder eben mit 1/2 FP32 + INT32.

Ich halte es zwar für fragwürdig, dass Lovelace so wie hier skizziert aussehen wird, ua. wäre beispielsweise noch mehr preassure auf den Registern wenn die bei 16k@32bit bleiben, und mehr Threads on the fly im SM sein können. Von daher wirkt das skizzierte Design nicht unbedingt ausgewogen, aber wie erwähnt die hier in den News erwähnten Schlussfolgerungen stimmen eben überhaupt nicht mit dem was gezeigt wird überein.

basix
2022-05-13, 11:11:47
Das mit getrennt 2x FP32 + 1x INT32 hatte ich ja schon lang vorgeschlagen. Mit dem und den anderen Erweiterungen am SM, wäre ein Lovelace SM in der Theorie genau 2x so schnell wie Turing.
- Doppelte FP32 Performance
- Doppelter L1 Cache
- Doppelte Anzahl Warps
- Doppelte Anzahl Threads
- Doppelt so schnelle RT-Cores (von Ampere)
- Doppelte ROPs

3,4 fache Rohleistung.
Was soll daraus an echten Frames übrig bleiben?
2,4 fache?

Typischwerweise erreicht man 70...80% Scaling bei verdoppelter Breite. 2.5x Realperformance scheinen bei 100 TFLOPs nicht unabwegig zu sein.

Leonidas
2022-05-13, 11:22:32
Nachdem in den letzten Generationen jeweils ein Zuwachs vom 1,3, 1,4, 1,5 fachen, etwas in der Art erreicht wurde, könnte man mit 2,2 nicht leben?

Vorsicht! Der genannte Performance-Zuwachs gilt nur für AD102. Dort sind vielleicht das 2,5fache drin. Der Hardware-Sprung ist bei den kleineren Ada-Chips deutlich geringer, so dass ich kürzlich beispielsweise von 3080 auf 4080 auf das 1,7-1,8fache an Performance geschätzt habe. Bei den anderen kleinen Grafikkarten wird es ähnlich ausfallen.

WedgeAntilles
2022-05-13, 11:33:58
Vorsicht! Der genannte Performance-Zuwachs gilt nur für AD102. Dort sind vielleicht das 2,5fache drin. Der Hardware-Sprung ist bei den kleineren Ada-Chips deutlich geringer, so dass ich kürzlich beispielsweise von 3080 auf 4080 auf das 1,7-1,8fache an Performance geschätzt habe. Bei den anderen kleinen Grafikkarten wird es ähnlich ausfallen.

Ah, richtig, das hatte ich falsch gelesen.

Da würde meine Vermutung, dass eine "neue" Kategorie mit 2500 Euro aufwärts kommt ja vielleicht hinkommen.

Dann könnte zwischen einer 4080 und einer 4090 tatsächlich ein sehr großer Performancesprung sein - aber auch ein massiver Preissprung. (Und das dann auch in Kombination mit einer deutlich gestiegenen Stromaufnahme - also ein neues Leistungsniveau, Preisniveau und Verbrauchsniveau. Erscheint eigentlich recht plausibel.)

Edit: Das wäre auch für den Kunden "schön" - der Enthusiast bekommt gigantisch Mehrperformance zum aktuellen Flaggschiff - muss dafür aber eben auch 2500 Euro oder mehr zahlen.
Und andere Kunden bekommen einen großen Performanceboost von 70% - das wäre in Anbetracht der letzten Generationen immer noch viel. Wenn dafür aber die Preise nicht explodieren, wäre das für die meisten Käufer ein super Deal. Und der Verbrauch steigt dann hoffentlich auch überschaubar.

Mir persönlich würden 60-70% Performanceplus bei 270W und maximal 650 Euro für eine 4070 am besten gefallen.

Gast
2022-05-13, 13:31:29
Die Frage ist wie das erkauft wird, auf der einen Seite steht die Datenverarbeitungsgeschwindigkeit und auf der anderen Seite die Energie pro Zeitspanne für diesen Zyklus.

Bei der 4080 die dann vermutlich auf Level der 3090/3090ti agiert, bleiben dann die 30-40 Prozent mehr, plus Takt und trotzdem 450W Verbrauch (geschätzt). Das sich jeder eine 3k Grafikkarte leisten kann glaube ich nicht und genau dort wird die 4090 bzw. AD102 landen. Da AMD seinen MCM anscheinend überarbeitet, glaube ich nicht das sie da mitgehen wollen. Wäre auch kaum das Gamer-Klientel das sie bedienen wollen.

Letztlich ist wichtig was davon an der Basis ankommt, nicht was in der Theorie möglich ist. Nvidia will anschienend mit Lovelace eine Grenze ziehen, weil AMD ihnen mit RDNA2 zu Nahe kommt, was auf mich eher wie eine Blindstudie wirkt, (seht wir können es noch), als dann wirklich sinnvoll. Hauptsache man hat den Längsten (was auch immer...was die größte Anzahl an Gamern kaum interessiert). Das hat Ampere aufgezeigt. Schön zu wissen, aber das war es dann auch. Was wäre wenn, mit sehr vielen "wenn".

Also bitte den Hype lassen wo er hingehört...

iamthebear
2022-05-13, 15:30:21
Wenn das Schaltbild von kimi stimmt, dann ist dieser komplette Artikel nonsens.

Separate INT32 und FP32 ALUs bringen keinerlei Mehrdurchsatz so lange der Scheduler bei 32thread/clock bleibt. Die wären schon mit FP32 alleine ausgelastet, oder eben mit 1/2 FP32 + INT32.

Das hast du Recht. Es braucht auch Änderungen im Scheduler, damit alles ausgelastet werden kann. So wie bei Hopper hat es zumindest wenig Sinn.

Das mit getrennt 2x FP32 + 1x INT32 hatte ich ja schon lang vorgeschlagen. Mit dem und den anderen Erweiterungen am SM, wäre ein Lovelace SM in der Theorie genau 2x so schnell wie Turing.
- Doppelte FP32 Performance
- Doppelter L1 Cache
- Doppelte Anzahl Warps
- Doppelte Anzahl Threads
- Doppelt so schnelle RT-Cores (von Ampere)
- Doppelte ROPs

Wenn ich die 4 Mrd. Transistoren für die 86MB zusätzliches SRAM bei AD102 abziehe und AD102 wie von kopite angedeutet 70-80 Mrd. Transistoren hat, dann sind das 36-56% mehr pro SM als GA102 bzw. 77-100% mehr als TU102. Von daher sehe ich das nicht unbedingt als unrealistisch an.

Typischwerweise erreicht man 70...80% Scaling bei verdoppelter Breite. 2.5x Realperformance scheinen bei 100 TFLOPs nicht unabwegig zu sein.

Das wird stark darauf ankommen unter welchen Einstellungen man testet. Bei 3x wird 4K für AD102 ca. das sein was 1080p für die 3090 ist.

Meine Performanceprognose:
Schau dir in Reviews an wie groß die Steigerung in 1080p von der 3060 zur 3090 Ti sind. Das sind auch ungefähr 3x theoretische Performance.
Genauso wird es unter 4K von der 3090 zu AD102 aussehen.

Ich würde also einmal vorsichtig behaupten, dass AD102 vs. AD103 nicht mehr viel Sinn ergibt wenn man nicht entweder auf RT setzt oder Auflösungen > 4K. Bei Navi31 vs. Navi32 wird es wohl ähnlich aussehen.
Ich denke, dass AD102 die erste Karte sein wird, die man wirklich als 8K oder RT fähig einstufen kann. Eventuell könnte DLDSR aber auch ganz interessant sein.

Leonidas
2022-05-13, 16:28:07
Schau dir in Reviews an wie groß die Steigerung in 1080p von der 3060 zur 3090 Ti sind.

Lieber nicht. Im FHD-Index sind das nur +49%. FHD kann man oberhalb einer 3070 immer mehr vergessen.

Gast
2022-05-13, 20:47:24
Ich denke, dass AD102 die erste Karte sein wird, die man wirklich als 8K oder RT fähig einstufen kann. Eventuell könnte DLDSR aber auch ganz interessant sein.

8k halte ich doch für sehr gewagt, aber 4k max Details durchgängig 3-Stellig würde mir fürs erste mal reichen.

FarCry
2022-05-13, 22:00:29
8k halte ich doch für sehr gewagt, aber 4k max Details durchgängig 3-Stellig würde mir fürs erste mal reichen.

Ja, recht gewagt. Für 8k braucht man, so denke ich, die vierfache Leistung von 4k, will man dieselben fps erzielen.

Gast
2022-05-13, 22:49:58
Da selbst unter den PClern so gut wie keiner Bock hat auf 400 - 500 W Grafikarten, oder +1500 € (selbst ~ 1000 €), ist dies alles eh Wurscht.
Der Großteil der high-end Käufer zwischen 500- 1000 € (lol, 1000 € war vor wenigen Jahren noch Enthusiast) gibt es dann halt irgendwas zwischen + 70 - 100 % Zuwachs auf das nominelle Modell.

Den Preisanstieg von geschätzt 10, 20+ %, je nach Modell eine Serie fast vergessen.


So viel Geld in Hardware zu investieren ist unter der Masterrace imho eh verschwendet. Am Ende guckt die Mehrheit doch immer noch auf doofe und winzige LCD-Monitore. In mehr Bildqualität wandelt sich der Grafikkartenzuwachs nicht.
Gescheiter großer TV, OLED oder fald-LCD, bringt da deutlich mehr, als alle zwei Jahre eine neue Grafikkarte.

Gast
2022-05-13, 23:14:21
Typischwerweise erreicht man 70...80% Scaling bei verdoppelter Breite. 2.5x Realperformance scheinen bei 100 TFLOPs nicht unabwegig zu sein.
Die 3090 hat 2,66x FP32-Leistung einer 2080TI und ist dafür grob 45% schneller in 4k bei natürlich auch deutlich höherer Board Power. Wo genau sind da also die 70-80%? Man muss die FP32 Leistung auch nutzen können, sonst bringt einem das gar nichts. Insofern sind so pauschale Aussagen einfach sinnlos.

Gast
2022-05-13, 23:19:54
Bei Navi31 vs. Navi32 wird es wohl ähnlich aussehen.
Naja, AMDs RT Logik ist ja viel mehr auf FP32 Leistung angewiesen. Bei NVidia hat man da ja extra Schaltungen, bei AMD nicht. Insofern hat AMD die Leistung viel mehr nötig als NVidia, zumindest bei RT.

iamthebear
2022-05-14, 00:34:55
Ja, recht gewagt. Für 8k braucht man, so denke ich, die vierfache Leistung von 4k, will man dieselben fps erzielen.

Wenn die Vermutungen von kopite annähernd stimmen dürfte die 4090 Ti ca. 4x 2080 Ti sein und mit der 2080 Ti kann man durchaus schon als 4K fähig bezeichnen. Zwar vielleicht nicht auf Ultra Settings und man muss vielleicht gegelgentlich mal DLSS im Quality Modus dazu schalten aber das wäre ja kein Drama. Das größere Problem ist derzeit eher HDMI 2.1, der nur 8K60 ermöglicht und das nur mit DSC.

Da selbst unter den PClern so gut wie keiner Bock hat auf 400 - 500 W Grafikarten, oder +1500 € (selbst ~ 1000 €), ist dies alles eh Wurscht.
Der Großteil der high-end Käufer zwischen 500- 1000 € (lol, 1000 € war vor wenigen Jahren noch Enthusiast) gibt es dann halt irgendwas zwischen + 70 - 100 % Zuwachs auf das nominelle Modell.

Den Preisanstieg von geschätzt 10, 20+ %, je nach Modell eine Serie fast vergessen.


So viel Geld in Hardware zu investieren ist unter der Masterrace imho eh verschwendet. Am Ende guckt die Mehrheit doch immer noch auf doofe und winzige LCD-Monitore. In mehr Bildqualität wandelt sich der Grafikkartenzuwachs nicht.
Gescheiter großer TV, OLED oder fald-LCD, bringt da deutlich mehr, als alle zwei Jahre eine neue Grafikkarte.

Und für den Großteil auf durchschnittlichen 4K Monitoren werden 70% mehr Leistung auch völlig ausreichend sein.
AD102 ist dann eben für die Minderheit mit speziellen Bedürfnissen.

Die 3090 hat 2,66x FP32-Leistung einer 2080TI und ist dafür grob 45% schneller in 4k bei natürlich auch deutlich höherer Board Power. Wo genau sind da also die 70-80%? Man muss die FP32 Leistung auch nutzen können, sonst bringt einem das gar nichts. Insofern sind so pauschale Aussagen einfach sinnlos.

Das mit Ampere und den FP32 Einheiten ist leider ein weit verbreitetes Missverständnis:
Turing hatte pro SM 64 FP32 Einheiten + 64 INT.
Ampere hat pro SM 64 FP32 Einheiten + 64 Kombieinheiten, die je nach Bedarf FP32 oder INT Berechnen können.
Theoretisch ist das die doppelte FP32 Performance. In der Praxis sind von diesen 64 Kombieinheiten jedoch ca. die Hälfte mit INT Operationen beschäftigt d.h. 96 FP32 + 32 INT.

Das macht aus 2.4x nur mehr 1.7x-1.8x, was bei 70%-80% Skalierung dann 50% Performance ergeben.

Naja, AMDs RT Logik ist ja viel mehr auf FP32 Leistung angewiesen. Bei NVidia hat man da ja extra Schaltungen, bei AMD nicht. Insofern hat AMD die Leistung viel mehr nötig als NVidia, zumindest bei RT.

Also ich würde davon ausgehen, wass die RT Performance bei Nvidia und AMD annaähernd so stark skaliert wird wie die Rasterization Performance. Bei den Gaming fps wird vielleicht etwas mehr übrig bleiben da weniger CPU limitiert aber grundsätzlich sehe ich da wenig Unterschiede. Auch bei Nvidia ist nicht klar wieviel Arbeit dabei noch an den Shadern hängen bleibt. Ich denke immer noch relativ viel aber halt etwas weniger als bei AMD.

iamthebear
2022-05-14, 00:51:18
Lieber nicht. Im FHD-Index sind das nur +49%. FHD kann man oberhalb einer 3070 immer mehr vergessen.

Das kommt ganz darauf an welchen Spiele Mix man verwendet.

Bei den Average fps bei Techpowerup sind es 1.84x: https://www.techpowerup.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/31.html

Bei Computerbase sind es hingegen 2.18x:
https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3090-ti-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_1920__1080_und_2560__1440_updat e

Was 3070 vs. 3080/90 angeht: Hier ist ein nicht unwesentlicher Faktor, dass hier die Shader zwar 1.7x ansteigen aber ROPs z.B. nur deutlich weniger.
Bei der 3060 vs. 3090 Ti skaliert jedoch so gut wie alles annähernd 3x sei es Shaderleistung, Speicherbandbreite, TDP aber auch ROPs.

Zur Erklärung wie ich zu der Einsätzung komme:
Eine 3060 unter 1080p hat in etwa dieselbe Framerate wie eine 3090 unter 4K:

https://www.techpowerup.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/31.html

Wenn also die CPU ab 150fps unter 1080p die GPU ausbremst, dann wird ein ähnliches Verhalten auch unter 4K auftreten wenn die GPU dementsprechend höher ist.

Leonidas
2022-05-14, 03:28:32
Bei den Average fps bei Techpowerup sind es 1.84x: https://www.techpowerup.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/31.html

Bitte niemals average fps verwenden, um relative Differenzen über einen Mix an Spielen zu bestimmen! Grund: High-fps-Spiele verzerren die ganze Mathematik und erzeugen eine scheinbar höhere Differenz. Nebenbei errechne ich in Deinem Beisiel aber nur 1.45x, nicht 1.84x.

Reale Differenz eine Seite später: 3090Ti zu 3060 bei 1.43x:
https://www.techpowerup.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/32.html



Bei Computerbase sind es hingegen 2.18x:
https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3090-ti-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_1920__1080_und_2560__1440_updat e

Meine Rechnung (auf Basis dieser CB-Werte) bei 1920x1080 Rasterizer sind 1.64x, nicht 2.18x.

WedgeAntilles
2022-05-14, 10:23:12
Bitte niemals average fps verwenden, um relative Differenzen über einen Mix an Spielen zu bestimmen! Grund: High-fps-Spiele verzerren die ganze Mathematik und erzeugen eine scheinbar höhere Differenz.


Ganz enorm wichtig!!

Kann man gar stark genug betonen, daher zitiere ich es auch noch mal.

"Durchschnittswerte" über alle Spiele hinweg (ohne, dass die Spiele auf "1") normiert werden, sagen gar nichts aus.

Beispiel:
Spiel 1 bringt bei Hersteller A 500 Frames, bei Hersteller B 450 Frames.
Spiel 2 bringt bei Hersteller A 100 Frames, bei Hersteller B 130 Frames.

Wenn du die Frames nicht auf "1" normierst, hättest du bei Hersteller A unterm Strich 600 Frames vs Hersteller B mit 580 Frames.
Hersteller A wäre ca. 3% vor Hersteller B.
Wenn du es normierst hat Hersteller A einmal 10% Vorsprung und einmal 23% Rückstand.
Womit er im Durchschnitt aber 6,5% HINTER Hersteller B wäre.

Je weiter die absoluten Framezahlen auseinander driften, desto sinnloser ist die Aussagekraft. (Und diese sehr hohen Zahlen sind ja auch nicht unrealisistisch, RainbowSix Siege z.B. ist in vielen Parcours enthalten und hat zig hundert Frames.)

Platos
2022-05-14, 14:37:11
Ja Frames einfach addieren und dann durchschnitt ausrechnen ist lächerlich. Ist etwa so, als würde man die Durchschnittsgeschwindigkeit vom 100m Lauf einfach so mit dem eines Maraton verrechnen und dann sagen, ist durchschnittlich so und so gelaufen :D

Gast
2022-05-14, 23:34:40
3,4 fache Rohleistung.
Was soll daraus an echten Frames übrig bleiben?
2,4 fache?
Und trotzdem soll man den Stromverbrauch noch mal anheben "müssen"?
Weil - bei gleichem Stromverbrauch - 2,2 fache Leistung nicht reichen würde?

Nachdem in den letzten Generationen jeweils ein Zuwachs vom 1,3, 1,4, 1,5 fachen, etwas in der Art erreicht wurde, könnte man mit 2,2 nicht leben?

Ich halte diese gigantischen Steigerungen für unplausibel. AMD und Nvidia.

Theoretisch könnte ich es mir vorstellen, wenn ich das gesamte Portfolio eine Kategorie nach oben rücke, auch preislich.

Eine 4070 wird also nicht das Pendant von einer 3070 sondern von einer 3080 (mit entsprechenden Preisen von ca. 900 Euro).
Eine 4080 wird der 3090 entsprechen.
Und eine 4090 wird eine komplett neue Kategorie bilden, im Bereich 2500 Euro aufwärts.

Wenn dann eine 4070 das 2,2 fache einer 3070 liefert mag das möglich sein. Wenn sie aber eben 900 Euro kostet müsste der eigentliche Vergleich mit der 3080 sein. Namen sind Schall und Rauch, man kann ein Produkt nicht stumpf mit dem Namensvorgänger vergleichen. Sondern muss es mit der Preiskategorie vergleichen.
Da wäre man dann bei 1,8 fache Leistung oder etwas in der Art.

Das wäre immer noch viel, aber plausibel.


Ich kann mir einfach nicht vorstellen, dass eine 4070 mit 2,x facher Leistung zu einer 3070 kommen wird, zu einem Preis der auch nur ansatzweise mit dem der 3070 vergleichbar ist. (also ca. 650 Euro)

Für AMD gilt genau das gleiche.


Klar, vielleicht liege ich völlig falsch und wir bekommen mehr als doppelt so schnelle Karten trotzdem zu ähnlichen Preisen - wäre schön, ich kaufe mir ja eine.
Aber IMO klingt das viel zu gut um wahr zu sein.
Und erfahrungsgemäß entpuppt sich sowas dann eigentlich auch immer als "es war tatsächlich nicht wahr."

Erinner dich mal an die GPU Preise stark konkurrierender Generationen ohne Miner und Pandemie Käse .

Die genannten 650+ für eine 3070 sind nur wegen dieser temporären Faktoren möglich.

Proof of stake wirft jetzt schon Schatten voraus und selbst china wird akzeptieren müssen das selbst bei Delta covid der IFR noch unter einigen Influenza Stämmen liegt und die Bevölkerung wieder auf Freigang lassen.

Mit Inflation und generationsaufschlag sind wir dann bei 600-650 für eine 4070.

Die letzten Jahre haben ja auch gezeigt das Preise in den Regionen von 1000€ für eine x070 klasse vom angedachten Käufer zum Großteil ausgesessen werden
.

Gast
2022-05-14, 23:51:55
Da selbst unter den PClern so gut wie keiner Bock hat auf 400 - 500 W Grafikarten, oder +1500 € (selbst ~ 1000 €), ist dies alles eh Wurscht.
Der Großteil der high-end Käufer zwischen 500- 1000 € (lol, 1000 € war vor wenigen Jahren noch Enthusiast) gibt es dann halt irgendwas zwischen + 70 - 100 % Zuwachs auf das nominelle Modell.

Den Preisanstieg von geschätzt 10, 20+ %, je nach Modell eine Serie fast vergessen.


So viel Geld in Hardware zu investieren ist unter der Masterrace imho eh verschwendet. Am Ende guckt die Mehrheit doch immer noch auf doofe und winzige LCD-Monitore. In mehr Bildqualität wandelt sich der Grafikkartenzuwachs nicht.
Gescheiter großer TV, OLED oder fald-LCD, bringt da deutlich mehr, als alle zwei Jahre eine neue Grafikkarte.

Der Preis ist für mich kein so hartes Argument für einen Kaufausschluss in der Masse der Zielgruppe, Autos , Motorräder, Fahrräder , Handys usw. sind in den letzten Jahren auch massiv im Preis gestiegen trotzdem wird ordentlich abgesetzt , Kauf auf Raten und co. hat sich hier etabliert um die Preise irgendwie zu stemmen , wirklich verzichten tun die wenigsten.