PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 2. August 2021


Leonidas
2021-08-03, 09:44:50
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2-august-2021

madshi
2021-08-03, 11:01:04
Das ist ja crazy: Nvidia mit einem großen Performance-Sprung von 30xx auf 40xx, und *trotzdem* könnte AMD diesmal die Nase vorn haben? Wenn jetzt noch die Preise wieder auf UVP runter gehen, dann könnten das ja großartige Zeiten für Gamer werden!

Ich hoffe nur, daß die Miner dann bei der neuen GPU-Generation nicht wieder alles weg kaufen.

FrozenPie
2021-08-03, 11:36:20
Die Aussage mit den 440 mm² finde ich interessant, da ich erst letzten Mittwoch im CB-Forum eine Milchmädchenrechnung zur Die-Größe von Navi 31 von Navi 21 ausgehend aufgestellt habe :D
Achtung, Milchmädchenrechnung! :D
Navi 21 hat bei 5120 Shadern eine Größe 520 mm², davon 102 mm² für den Infinity Cache.
Bei Navi 31 befindet sich kein Infinity Cache auf dem GCD sondern auf dem MCD, aber die Shaderzahl wird um 50% auf 7680 Shader angehoben. In N7 würde das Round-About 627 mm² ergeben, wenn der Rest unverändert mit übernommen wird und es identische Shader wären.
Bei einem Shrink um 30% (Pessimistisch von den 45% für N5 ausgehend) wäre die Größe dann bei ca. 439 mm². Bei optimaler Shrink-Rate von 45% sogar 345 mm².
Nach meinem letzten Kenntnisstand lässt sich Logik auch besser shrinken als SRAM und andere Dinge wie ein halbiertes DRAM-Interface pro GCD und aufgebohrte Shader kommen auch noch hinzu bei Navi 31.


@Leonidas
Für die 6nm-Fertigung wäre dies im Vergleich zu den 628mm² von Navi 21 ziemlich viel [...]
628 mm² ist die Größe von GA102, die von Navi 21 sollte 520 mm² betragen, laut TPU Datenbank :)

Gast
2021-08-03, 11:36:34
Das ist ja crazy: Nvidia mit einem großen Performance-Sprung von 30xx auf 40xx, und *trotzdem* könnte AMD diesmal die Nase vorn haben? Wenn jetzt noch die Preise wieder auf UVP runter gehen, dann könnten das ja großartige Zeiten für Gamer werden!

Du kannst dir ziemlich sicher sein, dass AMDs Multichip 800-1000mm² Monster im Preis alles andere als runtergehen wird. Da sind wir definitiv im 4-stelligen Bereich.

Im Grunde ist es dann auch ein vergleich einer Single-GPU vs. einer Multi-GPU-Grafikkarte (wenn auch hoffentlich ohne die AFR-Nachteile), und dass da letztere vorne liegt ist eigentlich zu erwarten.

basix
2021-08-03, 12:58:40
Ich behaupte, Bondrewd hat mit "less memory than N22" mist erzählt und N21 gemeint. "Less" bedeutet in diesem Fall 192bit und 12GByte. Das passt deutlich besser für einen Chip, welcher vermutlich schneller als eine 6900XT sein wird, aber eher für 1440p anstatt 4K gedacht ist. 8GByte? Nie und Nimmer. Weniger Infinity Cache? Bei schmalerem SI aber schnellerer GPU eher unwahrscheinlich, 96MB anstatt 128MB wären aber denkbar und noch passend für 1440p (ca. 35% Missrate -> 384GByte/s / 0.35 = 1100 GByte/s effektive Bandbreite).

Ausgehend von N21 = 520mm2; N33 mit ein paar Dingen weggezwackt und auf 6nm portiert (ausgehend, dass RDNA3 nicht mehr Fläche pro CU benötigt wie RDNA2 und ebenfalls 128MByte IF$):
- 2x xGMI (~15mm2)
- 64bit SI (~15mm2)
- *0.9 (6nm)
= 441mm2

Wenn man nun noch auf 96MB IF$ runter geht, könnten es auch 420mm2

madshi
2021-08-03, 13:11:21
Du kannst dir ziemlich sicher sein, dass AMDs Multichip 800-1000mm² Monster im Preis alles andere als runtergehen wird. Da sind wir definitiv im 4-stelligen Bereich.

Im Grunde ist es dann auch ein vergleich einer Single-GPU vs. einer Multi-GPU-Grafikkarte (wenn auch hoffentlich ohne die AFR-Nachteile), und dass da letztere vorne liegt ist eigentlich zu erwarten.
Da hast Du natürlich Recht. Wobei dieser Multi-GPU Ansatz nicht die Nachteile von SLI haben sollte, sondern sich aus Sicht der Spiele/OS wie eine Single-GPU verhalten sollte, soweit ich das verstehe, korrekt?

In jedem Fall denke ich, daß es für das gesamte GPU-Preis-Niveau hilfreich sein sollte, wenn AMD zur Abwechslung mal on-top wäre. Auch wenn das Multichip Monster selbst sehr teuer sein wird. Dafür denke/hoffe ich, daß die kleineren Modelle dann halbwegs vernünftige Preise bekommen werden...

Wenn AMD nicht konkurrieren würde/könnte, dann könnte Nvidia weiterhin schlechte(re) Samsung Fertigungsverfahren nutzen, um Geld zu sparen, mit der 40xx Generation nur mäßige Speed-Gewinne bringen, und trotzdem noch die Preise erhöhen. Dank AMD muß Nvidia sich richtig anstrengen, die beste TSMC Fertigung verwenden, und kann trotzdem keine Mondpreise abrufen. Oder zumindest hoffe ich das. Wir werden sehen...

Gast
2021-08-03, 13:52:36
also wenn man sich die Preise aktuell ansieht und davon ausgeht,d ass diese zumindest bis Q1/2022, vielleicht Q2 nicht zumindest an die UVP rankommen, kann man sich diese Generation wirklich sparen und dann eine NV 70er/AMD 700er karte kaufen, welche besser als die aktuellen Top karten sein werden und hoffentlich im normalen Preisbereich sein werden.

WedgeAntilles
2021-08-03, 14:25:09
Na, wenn AMD für eines nicht bekannt war in den letzten 12 Monaten, dann für technisch gute Produkte attraktive Preise aufzurufen.

Die GraKa Preise werden nicht auf dem Niveau 900 Euro+ für eine 4070 bleiben, aber sie werden fürchte ich merklich über den ursprünglich geplanten Preisen von RDNA2 / Ampere sein.

Platos
2021-08-03, 14:58:39
Sehe ich auch so. AMD ist keine Heilsbringer-Firma. Die haben in der Vergangenheit auch nur so viel Speicher geboten, weil das immer eines der einzigen Kaufargumente war. (Dass sie genau so schamlos ihre Stellung ausnutzen, zeigt ja Zen3.)

Jetzt sind sie nicht mehr hinterher mit der Stromeffizienz, auch die Leistung stimmt im Bezug auf den Konkurrenten (abgesehen von RT). Wenn sie komplett aufschliessen (RT und DLSS), dann wird wahrscheinlich mit dem Speicher geknausert, wie bei Ampere und die Preise werden hoch sein.

Man sieht ja jetzt schon, wo die Reise hingeht. 8GB Speicher (weniger als beim Konkurrent), bei etwa ähnlichem P/L wie das Konkurrenzprodukt, aber deutlich weniger RT Leistung.

Gast
2021-08-03, 15:02:25
Da hast Du natürlich Recht. Wobei dieser Multi-GPU Ansatz nicht die Nachteile von SLI haben sollte, sondern sich aus Sicht der Spiele/OS wie eine Single-GPU verhalten sollte, soweit ich das verstehe, korrekt?


Ja, aus OS-Sicht ist es wie eine GPU, AFR-Ruckler gibt es also definitiv nicht. Ob und welche Nachteile es gibt wird sich erst zeigen müssen, beispielsweise hat ja jeder GPU-DIE einen Speichercontroller, wodurch es beim Zugriff auf den jeweils anderen Speichercontroller zwangsweise zumindest Latenznachteile geben muss. Auch ist die kolportierte Anordnung etwas seltsam mit anscheinend 2 GPU-DIEs + 1 IFC DIE. Das würde nämlich bedeuten, dass alles was aus dem IFC fliegt erstmal über einen der GPU-DIEs in den VRAM wandern muss, oder der IFC verwendet eine write-through Strategie, was aber zusätzlich Bandbreite benötigt.

Ohne Nachteile wird es also vermutlich nicht gehen, auch wenn die deutlich anders aussehen werden als bei bisherigen Multi-GPU-Lösungen.


In jedem Fall denke ich, daß es für das gesamte GPU-Preis-Niveau hilfreich sein sollte, wenn AMD zur Abwechslung mal on-top wäre. Auch wenn das Multichip Monster selbst sehr teuer sein wird. Dafür denke/hoffe ich, daß die kleineren Modelle dann halbwegs vernünftige Preise bekommen werden...


Allerdings nur wenn man das übers gesamte Portfolio halten kann. Ein hochgezüchteter Multi-GPU Top-Dog wird höchstens einer möglichen Titan das Leben schwer machen.


Wenn AMD nicht konkurrieren würde/könnte, dann könnte Nvidia weiterhin schlechte(re) Samsung Fertigungsverfahren nutzen, um Geld zu sparen, mit der 40xx Generation nur mäßige Speed-Gewinne bringen, und trotzdem noch die Preise erhöhen. Dank AMD muß Nvidia sich richtig anstrengen, die beste TSMC Fertigung verwenden, und kann trotzdem keine Mondpreise abrufen. Oder zumindest hoffe ich das. Wir werden sehen...

Das Nvidia teurer fertigen muss wird dem Preisgefüge bestimmt nicht helfen. Insgesamt sollte es für den Kunden am besten sein wenn beide annähernd gleich auf sind.

Wenn ein Hersteller deutliche Vorteile hat kann sich dieser immer entsprechende Mehrpreise genehmigen, egal wer dieser Hersteller ist und zu verschenken haben sie beide nichts.

matty2580
2021-08-03, 16:09:25
Fest steht, dass sowohl RDNA 3.0 und Lovelace deutlich mehr verbrauchen werden.

Die Preisdiskussionen sind großteils unfruchtbar.
Ampere wird trotz abartigen Preislage gekauft, wie man auch bei Steam gut sehen kann.
Und Menschen wie ich mit wenig Kaufkraft, ich bin EU Rentner auf Hartz IV Niveau, sind komplett verdrängt aus dem PC Gaming.
D.h. hier wird man nie einen gemeinsamen Nenner finden, oder eine allgemeingültige Empfehlung.
PC Gaming konnte ich mir fast 30 Jahre lang leisten, und jetzt nicht mehr.....

Leonidas
2021-08-03, 16:21:44
Wenn jetzt noch die Preise wieder auf UVP runter gehen, dann könnten das ja großartige Zeiten für Gamer werden!

Die spannende Frage hierzu ist: Welche Höhen werden die UVPs für RTX40 und RX7000 erklimmen?



Die Aussage mit den 440 mm² finde ich interessant, da ich erst letzten Mittwoch im CB-Forum eine Milchmädchenrechnung zur Die-Größe von Navi 31 von Navi 21 ausgehend aufgestellt habe :D

628 mm² ist die Größe von GA102, die von Navi 21 sollte 520 mm² betragen, laut TPU Datenbank :)

Aaaah ... gefixt.

Aber auch eine Korrektur für Dich: Navi 31 wird keinen IFC auf GCD tragen - aber Navi 33 hingegen schon. Aber nur 128 MB. Und außerdem ist Navi 33 dann wiederum 6nm.

WedgeAntilles
2021-08-03, 16:22:36
Die aktuellen Preise sind durchs Mining so hoch - das wird nicht so bleiben.

Klar ist aber: Die Preise für GraKas sind schon bei der vorherigen Generation deutlich hoch gegangen und sie gehen weiter hoch.

Ich habe immer "oberes Mittelfeld" gekauft, was inzwischen die xx70 Klasse ist.
4200TI, GTX 970 und so weiter.

Die GTX 970 hat 330 Euro gekostet, so viel hatte ich noch nie gezahlt für eine GraKa.
Und das konnte man bei der 2070 noch mal um 70% erhöhen.

Wenn man ein bestimmtes Budget hat muss man inzwischen mindestens 1 Kategorie kleiner einkaufen. Das wird sich nicht ändern, eher wird es 2 Kategorien niedriger sein.

Ob sich die GraKa Hersteller auf DAuer einen gefallen tun, wenn man die Konkurrenz der Konsolen beachtet weiß ich nicht.

Gast32
2021-08-03, 18:33:41
Die UVPs sind wirklich unverschämt hoch. Ich kaufe erst wieder wenn doppelte RX 470-Leistung für 300 € zu bekommen ist.

iamthebear
2021-08-03, 22:23:58
Also ich muss feststellen, dass die meisten hier den Sprung von Maxwell auf Pascal ganz falsch in Erinnerung haben.

Es gab damals bezogen auf den Top Karten (980 Ti vs. 1080 Ti)
.) ca. 25% mehr SM
.) ca. 50% mehr Taktraten

Wobei die 1080 Ti ja erst 7 Monate später released wurde. Das war schon fast ein Pascal Refresh.

Wenn man das mit Ampere vergleicht (2080 Ti vs. 3090)
.) ca. 25% mehr SM
.) ca. 50% mehr Leistung pro SM, da die 64 INT Einheiten wieder durch 64 FP32 Einheiten ersetzt wurden.

Der Sprung von Maxwell zu Pascal war also ziemlich ident zum Sprung von Turing zu Pascal.

FrozenPie
2021-08-03, 23:17:37
Aber auch eine Korrektur für Dich: Navi 31 wird keinen IFC auf GCD tragen - aber Navi 33 hingegen schon. Aber nur 128 MB. Und außerdem ist Navi 33 dann wiederum 6nm.
Habe ich doch auch so geschrieben und alle Rechnungen wurden mit rausgerechnetem IFC gemacht? Bei Navi 31 ist der IFC im MCD und nicht in den GCDs und ich habe auch nur die Größe eines GCDs "berechnet"... :confused:
Darauf zielte auch der letzte Satz in meinem Selbstzitat ab, dass Logik besser geshrinkt werden kann als SRAM. Da die GCD keinen IFC mehr enthalten sollten sie sich besser shrinken lassen. Zumindest ist das meine Aussage dahinter.

Leonidas
2021-08-04, 04:50:35
@FrozenPie: Ich hatte mißverstanden, dass Du es auf N33 bezieht. Deine Rechnung galt aber N31. Der soll im übrigen unter 350mm² landen (pro GCD).

FrozenPie
2021-08-04, 08:10:33
@FrozenPie: Ich hatte mißverstanden, dass Du es auf N33 bezieht. Deine Rechnung galt aber N31. Der soll im übrigen unter 350mm² landen (pro GCD).
Missverständnisse gibt es immer und überall, passiert halt :)
Umso faszinierender, dass bei der Milchmädchenrechnung im Falle der optimalen Shrink-Rate 345 mm² am Ende pro GCD stehen ;D

Gast
2021-08-04, 08:12:00
Wenn man ein bestimmtes Budget hat muss man inzwischen mindestens 1 Kategorie kleiner einkaufen. Das wird sich nicht ändern, eher wird es 2 Kategorien niedriger sein.


Man muss dem aber auch zugutehalten, dass der Hardwareaufwand in jeder Kategorie immer weiter ansteigt.

Am oberen Ende werden immer neue Limits ausgelotet und alles darunter rückt entsprechend nach, das was heute die 70er Kategorie ist war vor einigen Generationen noch eher die absolute Leistungsspitze, und die Leistungsspitze von heute ist teilweise schon eher mit den Multi-GPU-Lösungen von früher vergleichbar.

WedgeAntilles
2021-08-04, 10:31:39
Man muss dem aber auch zugutehalten, dass der Hardwareaufwand in jeder Kategorie immer weiter ansteigt.

Am oberen Ende werden immer neue Limits ausgelotet und alles darunter rückt entsprechend nach, das was heute die 70er Kategorie ist war vor einigen Generationen noch eher die absolute Leistungsspitze, und die Leistungsspitze von heute ist teilweise schon eher mit den Multi-GPU-Lösungen von früher vergleichbar.
Nein, lasse ich nicht gelten.
Mit dem Argument müssten CPUs und GPUs ja Millionen an Euro kosten.
Die Leistung ist seit Jahr und Tag explodiert.

Und bei CPUs macht es Intel mit dem 10400F ja z.B. vor, wie man gute Leistung sehr preisgünstig bekommen kann.
Und AMD hat das mit dem 3600 vor einem Jahr ebenfalls vorgemacht.
Klasse CPU mit einem UVP von 200 Euro - die dann im Laufe der Monate auf einen Marktpreis von 130 Euro etwa kam. War das der High-End CPU Bereich? Nein. Aber es war eine CPU mit klasse Preis-Leistungs-Verhältnis, so wie es das schon immer gegeben hat.

Schau dir bei den GraKas mal die Preisentwicklung an - die begann extrem mit dem ersten Miningboom.
Da schossen die Preise nach oben - und haben sich anschließend (auch nach dem Ende des Booms) nie wieder auf dem Preisniveau etabliert wie davor.
Einfach weil sich die Käufer an 500 Euro für eine xx70 gewöhnt hatten.
Und ich fürchte jetzt hat man sich halt an 700 Euro für eine xx70 gewöhnt.

Ram wird immer mehr und schneller
CPU wird immer schneller
SSDs werden größer und schneller

Alles wird im Technikbereich schneller und besser - und überall bleiben die Preise halbwegs ähnlich. Bzw. sanken die Preise im Vergleich zu 1995 sogar.
Nur bei GraKas explodierten die Preise in den letzten 3 Jahren. Eben wegen dem Mining.
Und Nvidia und AMD sehen eben, dass die Kundschaft sich daran gewöhnt - und passen entsprechend ihre Preise nach oben an.

madshi
2021-08-04, 10:42:11
Naja, um fair zu sein, sollten wir natürlich die Kosten der Hersteller mit einbeziehen. Ich denke mal, die Chipfläche der CPUs ist über die letzten Jahre nicht dramatisch nach oben gegangen, oder? (Hab da nicht wirklich drauf geachtet.) Von daher kann man auch schon erwarten, daß die Preise dann auch nicht dramatisch steigen.

Aber bei GPUs ist es schon so, daß die Chipfläche tendenziell immer größer wird (und damit auch der Stromverbrauch). Da ist es dann auch schon vertretbar, daß die GPUs dann halt auch entsprechend teurer werden. Allerdings würde ich schon argumentieren, daß heutige GPUs, die eine ähnliche Chipfläche haben wie GPUs von vor 5 Jahren dann auch nicht dramatisch teurer sein sollten.

Leider werden ja aber auch die neueren/kleineren Chipfertigungs-Verfahren immer teurer. Von daher muß man den GPU Herstellern auch zugute halten, daß die gleiche Chipfläche heute wahrscheinlich ein Stück teurer ist als vor 5 Jahren. Von daher kann ich mit moderaten Preiserhöhungen (bei gleicher Chipfläche) leben. Aber klar sind die aktuellen Mondpreise langfristig nicht akzeptabel.

WedgeAntilles
2021-08-04, 11:09:45
Hast du Zahlen wie die Chipfläche z.B. der Geforce 1 oder Geforce 4 gewesen sind?
Und wie die Chipfläche z.B. des Pentium 1 oder des Pentium 4 waren?

Auf die Schnelle habe ich für Kepler (2012)

https://de.wikipedia.org/wiki/Nvidia_Tesla 294mm + 561mm - je Modell gefunden.

Ein Weltenunterschied sehe ich da jetzt irgendwie nicht, oder?

Dazu zeigt eine Entwicklung der Gewinne auch eindrucksvoll, dass Nvidia heute deutlich mehr verdient.
Die Umsatzrendite ist inzwischen bei über 30%.
Die war 2014 noch bei 13%.
Natürlich müsste man da jetzt viel mehr Arbeit reinstecken und das im Detail prüfen.
Haben die Zukäufe von Nvidia ggf. die Umsatzrendite positiv beeinflusst?
Gab es früher höhere Prozentsätze an F+E, was sich im Laufe der späteren Jahre ausgewirkt hat?

Aber das alles wird wohl nicht ausreichen, einen Umsatzrenditesprung von 13% auf über 30% zu erklären.
Nein, ohne stark steigende Gewinne pro verkaufter GraKa wird sich das bei Nvidia wohl nicht erklären lassen.

Alleine, dass die Preise sich ja analog zum Miningboom so entwickelt haben.
Die Karten waren ja nicht "puff" plötzlich in der Herstellung 50% teurer - sie waren nur plötzlich im Verkaufspreis 50% teurer. Und blieben dann halt auf diesem Niveau.


Nicht böse sein, aber du bist der "perfekte Kunde" - schön darauf bedacht zu erklären, warum die armen Firmen halt ihre Preise verdoppeln mussten, obwohl sie das ja gar nicht wollten ;)

Irgendwie sind Gamer eine merkwürdige Kundschaft.
Die 50%ige Preiserhöhung bei Zen 3 gegenüber Zen 2 wurde hier im Forum ja auch von vielen abgefeiert.
Und bei Spielen verdient man als Entwickler am meisten Kohle, wenn man einen scheiß Ingameshop hat, in dem man Lootboxen, XP Booster, Skins und was weiß ich was für massig Kohle kaufen kann. Da verdient man zig mal mehr als wenn man ein gutes Spiel rausbringt.

Ja, Gamer sind schön "abartig"

Gast
2021-08-04, 13:08:11
Nein, lasse ich nicht gelten.
Mit dem Argument müssten CPUs und GPUs ja Millionen an Euro kosten.
Die Leistung ist seit Jahr und Tag explodiert.



Bei CPU´s sind aber nicht die DIE-Sizes explodiert.
Ein NV40 hatte ~280mm², heutige Top GPUs haben 600mm² und mehr. Der Vergleich mit einer Multi-GPU von damals ist nicht so verkehrt. Damals hatten 2 DIEs weniger Silizium als heute ein einziger. Dass sich neue Fertigungsprozesse nicht mehr kostenneutral bezüglich der Fläche realisieren lassen ist noch nicht mal mit eingerechnet.

Bei CPU´s ist genau das Gegenteil passiert, durch immer neue Fertigungsprozesse bei gleichzeitig immer noch 4 Kernen wurden die DIEs immer kleiner, und sind erst jetzt durch die AMD Konkurrenz und die damit steigenden Kernzahlen wieder auf "normale" Größen angewachsen.

Auch der Vergleich CPU vs. Grafikkarte hinkt, bei CPUs bekommst du einen Siliziumchip auf einem Package das wars.

Bei einer Grafikkarte bekommst du dazu ein PCB mit aufwändiger Spannungsversorgung + RAM und Kühler.

Wenn man schon vergleicht dann müsste man ein Bundle aus CPU + RAM + Mainboard + Kühler mit einer Grafikkarte vergleichen, und da wird man beispielsweise sehen dass insbesondere Mainboards in den letzten Jahren auch deutlich teurer wurden.

Und dass ein PCB + Kühlkörper für 300W wesentlich aufwändiger als für 100W ist sollte auch klar sein.

Gast
2021-08-04, 13:47:31
Hast du Zahlen wie die Chipfläche z.B. der Geforce 1 oder Geforce 4 gewesen sind?


NV10: 139mm²
NV20: 128mm²
NV30: 199mm²
NV40: 287mm²
G70: 333mm²
G80: 484mm²
G92: 324mm²
GT200: 576mm²
GF100: 529mm²
GF110:: 520mm²
GK110: 561mm²
GM200: 601mm²
GP102: 471mm²/GV100: 815mm²
TU102: 754mm²
GA102: 628mm²


Pentium 4:
Wilamette: 217mm²
Northwood: 146mm²
Prescott 2M: 135mm²
Cedar Mill: 81mm²

Core 2:
Conroe: 143mm²
Allendale: 111mm²
Wolfdale: 107mm²
Kentsfield: 143mm² (pro DIE)
Yorkfield: 107mm² (pro DIE)
Merom: 143mm²
Penryn: 107mm²

Core i:

Nehalem:
Lynfield: 296mm²
Bloomfield: 263mm²
Gulftown: 248mm²

Sandy Bridge:
Sandy Bridge Duo (2-Kern): 131mm²
Sandy Bridge (4-Kern): 216mm²
Sandy Bridge E (6-Kern): 435mm²

Ivy Bridge:
Duo (2-Kern): 94mm²
Quad (4-Kern): 160mm²

Haswell:
4-Kern: 177mm²
Haswell-E (6-Kern): 356mm²

Skylake:
Dualcore: 102mm²
Quadcore: 122mm²

Kabylake:
Quadcore: 126mm²


Coffee Lake:
Quadcore: 126mm² (identischer DIE zu Skylake)
Hexacore: 150mm²
Octacore: 174mm²

Leonidas
2021-08-04, 14:12:41
:up:

Ab GT200 war NV im (damaligen) Grenzbereich.

WedgeAntilles
2021-08-04, 14:28:30
NV10: 139mm²
NV20: 128mm²
NV30: 199mm²
NV40: 287mm²
G70: 333mm²
G80: 484mm²
G92: 324mm²
GT200: 576mm²
GF100: 529mm²
GF110:: 520mm²
GK110: 561mm²
GM200: 601mm²
GP102: 471mm²/GV100: 815mm²
TU102: 754mm²
GA102: 628mm²


Super, danke!

Das belegt eindrucksvoll, dass das Argument "Größe" nicht stichhaltig ist. Von NV20 auf G80 hat es sich vervierfacht!!!
GM200 auf GA102 ist es grad mal um 3% gestiegen.
Und von GT200 in 2008 auf GA102 in 2020 sind es gerade mal 10%.

Die Preisentwicklung skaliert nicht einmal im Ansatz mit der Chipgröße.

Dazu will ich noch mal auf die hohe Steigerung der Umsatzrendite in den letzten Jahren hinweisen.

Die meisten Firmen müssen wahnsinnig viel Kohle ins Marketing investieren, um den Leuten beizubringen warum ihr neues, teures Produkt gut ist und sein Geld wert ist.
Im Gamingbereich rechtfertigen die User selber sogar exorbitante Preissteigerungen.

Was stimmt mit uns Gamern nicht???

Freestaler
2021-08-04, 14:50:00
Hmm verschiebt sich das Durchschnittsalter der PC-Gamer und somit vermutlich auch das Einkommen evtl. linear nach oben? Ist evtl. Das Hobby im vergleich zu vielen anderem noch immer günstig? Empfinden wir als Einzelgänger die Errungenschaft beim Kauf einer Graka so stark als Belohung/Anerkennung unseres selbst?

Gast
2021-08-04, 15:07:12
Das belegt eindrucksvoll, dass das Argument "Größe" nicht stichhaltig ist. Von NV20 auf G80 hat es sich vervierfacht!!!


Das bestätigt eindrucksvoll, dass das Argument Größe definitiv einen gewichtigen, wenn auch sicher nicht den einzigen, Einfluss hat.



GM200 auf GA102 ist es grad mal um 3% gestiegen.
Und von GT200 in 2008 auf GA102 in 2020 sind es gerade mal 10%.


Cherry Picking at it´s best. G92 --> GA102 fast verdoppelt.

Zumal Nvidia die Preissteigerungen natürlich nicht von einer Generation auf die andere komplett weitergeben konnte sondern andere Mittel und Wege gefunden hat die Kosten zu decken.

Unter anderem auch durch die längere Laufzeit.

Bei Kepler gab es in der 600er Reihe maximal GK104. Erst mit der 700er Generation wurde GK110 draufgepackt.

Mit Maxwell war es ähnlich, da läuft es zwar alles im 900er Namen aber von den Zeitpunkten war GM200 mit der 980Ti praktisch ein Refresh, und die ursprüngliche Topkarte war GM104 basiert.

Gleiches Spiel mit Pascal, die 1080Ti mit GP102 war quasi ein Refresh von der 1080 mit GP104.

Seit Turing gibt es GX102 wieder mehr oder weniger zeitgleich mit GX104, dafür muss man für 102 aber einen ordentlichen Aufpreis zahlen.



Die Preisentwicklung skaliert nicht einmal im Ansatz mit der Chipgröße.


Doch schon einigermaßen mit ein paar Ausreißern in die eine oder andere Richtung.

Man hat eigentlich immer ~400mm² um ~ 500€ bekommen, nur war das früher eben eine GTX...80 (Ti/Titan gab es ja noch nicht), heute wäre es eine RTX..70 wenn man nach UVP geht und vom Miningwahnsinn mal absieht.

Was stimmt mit uns Gamern nicht???

Keine Ahnung vielleicht sind wir keine Teenager mehr und stehen mittlerweile im Arbeitsleben und verdienen unser eigenes Geld und haben daher mitbekommen dass man für sein Geld auch was leisten muss. Und wir haben auch gelernt wertzuschätzen was man für sein Geld bekommt und da bekommt man bei Grafikkarten nicht unbedingt weniger als vor 10 Jahren.