Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Detaillierte und teils abweichende Specs zu den drei RDNA3-Grafikchips
Leonidas
2022-08-14, 10:54:51
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-detaillierte-und-teils-abweichende-spezifikationen-zu-den-drei-rdna3-grafikchip
Platos
2022-08-14, 12:21:07
Ich glaube auch kaum, dass Navi 33 sich mit Navi 21 messen kann. Für die 6900XT gibts ja schon Benchmarkleaks und die stimmen mit der 4090 überein. Und bei nvidia gibts schon Wertebereiche zur 4080 und 4070. Navi 33 hat viel zu wenige Einheiten, um ne 6900XT zu schlagen. Vlt. in FHD, wo alles CPU Limitiert ist, aber nichtim GPU Limit.
Und die 4070 ist auf 3090 Ti Niveau, also etwas höher wie 6900XT und Navi 33 ist Sicherlich nicht der Konter dafür.
Bei der Tabelle der Grafikchips muss es bei der Fläche von Navi 31 6 (statt 4) x 37,5 mm² heißen.
Linmoum
2022-08-14, 13:08:23
Natürlich wäre ein N33 bei ~200mm2 kein AD104-Gegenspieler. Da werden Welten zwischen liegen bei der Die Size und den Transistoren - und die 4070 basiert auch noch auf einem N5-Chip.
Das wird eine klare FHD-Karte mit diesen Specs. Je höher die Auflösung, desto stärker wird man auch gegenüber einer 6900XT abfallen. Dass man aber auch in die Performanceregion einer 6900XT vorstoßen kann, who knows. In FHD würde ich das nicht pauschal ausschließen, womöglich wird das auch schlicht abhängig von Spielen sein. Dafür ist einfach noch viel zu unklar, wie viel besser RDNA3 als solches ggü. RDNA2 performen wird. Einzig einen massiven Taktsprung kann man eigentlich als gesichert ansehen.
Wenn das am Ende im Schnitt dann halt auf 6800-Perf +10-15% bei 150W-170W hinausläuft, dann wäre das für N6 und ~200mm2 dennoch sensationell. Dazu noch deutlich gesteigerte RT-Performance, bei der man ggf. die 6900XT dann auch deutlicher distanziert...
Das wäre nach langem mal wieder eine Karte, die den kompletten Massenmarkt aufmischen kann.
Leonidas
2022-08-14, 13:43:08
Bei der Tabelle der Grafikchips muss es bei der Fläche von Navi 31 6 (statt 4) x 37,5 mm² heißen.
Natürlich. Gefixt. Danke!
iamthebear
2022-08-14, 14:40:43
Was Navi33 angeht so sollte man sich im Hinterkopf behalten:
Navi23 hatte 237mm². Der Shrink von N7P auf N6 bringt um die 10% Density. Das wären dann um die 210-220mm². Also alles Navi33 schneller ist als Navi23 ist bereits ein Erfolg.
Performance nur auf Architekturseite ohne neue Fertigung oder Vergrößerung des Chips zu holen ist verdammt schwierig.
Zum Vergleich: Würde Navi33 Navi22 Performance erreichen wäre das nur von Architekturseite ein größerer Fortschritt wie die Vollkatastrophe Radeon VII vs. 6700 XT.
Wie man da ernsthaft noch Navi21 Performance für realitsisch halten kann ist mir ein Rätsel.
Man darf jetzt nicht den Fehler machen von N33 auf die N31/32 schließen zu wollen. Anhand der Die size kann man schon erkennen, dass Kepler L2 Recht hatte mit seiner Aussage, dass N33 abgespeckte WGPs mit weniger IPC hat.
Grundsätzlich ist das ja die richtige Entscheidung von AMD, denn es gibt einen sehr großen Markt an Gamern, die nach einer günstigeren Karte suchen. Ich hoffe nur stark, dass die geleakten 400$ dann ebenso Schwachsinn waren wie die N21 Performance und der Preis eher Richtung 200-300$ geht (bei aktuellen Dollarkurs 250-350€)
Im Gegensatz zu Navi 23 hat sich AMD bei Navi 33 wohl voll auf den Flächenvorteil gestürtzt. Eine hohe Taktrate sehe ich hier nicht kommen.
Eher so wie bei der 6800, vor allem wegen << They expect robust sales of AMD Advantage laptops with it, as the design is drop-in compatible with Navi23 PCBs, minimizing OEM board re-spin headaches. They aim to ship more Navi33 silicon for mobile than to desktop AIB cards. >>
Ich weiß nicht ob sich AMD so einen Gefallen damit tut, die Karten derart auflösungsseitig (FHD 4K etc) festzulegen durch SI und IF$.
Gruß
Torg
amdfanuwe
2022-08-14, 17:11:59
Die N33 Gerüchte bezüglich N21 Performance basierten wohl auf dem ursprünglichen Gerücht mit 5120 ALUs für N33, also soviel wie auch N21 hat.
Beim Preis kommt es darauf an, was AMD erreichen will.
Wird nach Preis/Leistung einsortiert und N33 erreicht 6800 Leistung, wären wir aktuell bei 700€.
Aber wo will man doch noch mit N32 und N31 hin?
Will man die 6600, aktuelle ab 300€ und 6650XT ab 400€, ersetzen, ist auch diese Preislage wieder drin. Kommt auch darauf an, was Nvidia bringt.
Zumindest muss 6600 bis 6800 erstmal weitestgehend abverkauft sein, bevor eine schnellere und günstige N33 auf den Markt kommt.
morbidmorgis
2022-08-14, 17:23:39
Referenz-Karten im 3-Fan-Design und zwei 8-Pin-Stromsteckern
Sollte Navi3 nicht vollständig mit PCI5 und daher mit H+ Konnektoren daher kommen? Das war zumindest meine letzte Info...
Platos
2022-08-14, 17:24:11
Kommt auch noch auf den Gebrauchtmarkt an. Wenn dieser überschwemmt wird und die Preise niedrig sein werden, können auch die Neupreise nicht allzu hoch sein. Man hat als Konkurrenz nicht nur den Kontrahenten und seine alten Karten, die im Abverkauf sind. Wenns Gebrauchtüberschwemmungen gibt, sind auch die eine ernsthafte Konkurrenz.
CD-LABS
2022-08-14, 18:13:02
Ich kann mir nicht helfen; mir kommt die DIE-Size für die MCDs einfach für die genannte Kapazität zu groß vor. Das V-Cache-DIE vom 5800X3D belegt schließlich in N7 41mm² und bietet dafür 64MiB Kapazität. Die 128MiB Infinity Cache von der 6900XT haben dort auf dem DIE 102mm² belegt, GPU-Cache und CPU-Cache wirken da also noch halbwegs vergleichbar; mit Vorteil für das V-Cache-DIE auf Grund der Bauweise, die sich aber auch bei den MCDs fortsetzen sollten. Dem gegenüber klingen die Daten von den MCDs hier einfach zu schwach --- es sei denn natürlich, der Cache ist um Welten schneller.
Linmoum
2022-08-14, 18:53:45
Du hast einen kleinen Denkfehler drin: Die MCDs bestehen nicht nur aus Cache. ;)
iamthebear
2022-08-14, 19:01:37
Auf den MCDs ist ja nicht nur der Cache, sondern auch das Speicherinterface.
Es sieht wohl so aus:
12mm² 64 Bit SI
15mm² 16MB IF$
10mm² Die to Die Kommunikation
Klar die effektive Speicherbandbreite ist etwas dünn. Aber wenn man etwas darüber nachdenkt macht es durchaus Sinn:
.) Sowohl SRAM als auch Speicherinterface skalieren durch den Shrink sehr schlecht bis gar nicht
.) Logic skaliert jedoch relativ gut besonders nachdem der Fokus noch weiter auf die Kompaktheit gelegt wurde.
Der Anteil von SI+Cache am Gesamtchip ist bereits größer als der der FP32 Einheiten. Da macht es doch durchaus Sinn, dass man versucht eher beim SI/Cache zu sparen und dass die Architektur genauso speicher- wie shaderlimitiert ist.
Nvidia hatte keine Wahl, da diese noch gar keinen IF$ hatten aber diese sind auch bei derselben idealen Cachegröße gelandet.
bloodflash
2022-08-14, 19:22:03
N23 Dropin sagt doch schon alles.
PCIex8 in Gen4
1080p Zielmarkt
Optimiert auf DIE-Size
Dann machen auch die 8 GB Sinn und der kleine Cache. Mal Performance auf 6800, mal auf 6700, mal auf 6600-Niveau, je nach Game. RT-Leistung evtl. Auf 6900-Niveau.
Aber für dasselbe Budget baubar wie eine 6600xt.
WinWin für alle Aufrüster, vorausgesetzt das bleibt unter 200W.
CD-LABS
2022-08-14, 19:40:29
Du hast einen kleinen Denkfehler drin: Die MCDs bestehen nicht nur aus Cache. ;)
Auf den MCDs ist ja nicht nur der Cache, sondern auch das Speicherinterface.
Es sieht wohl so aus:
12mm² 64 Bit SI
15mm² 16MB IF$
10mm² Die to Die Kommunikation
Klar die effektive Speicherbandbreite ist etwas dünn. Aber wenn man etwas darüber nachdenkt macht es durchaus Sinn:
.) Sowohl SRAM als auch Speicherinterface skalieren durch den Shrink sehr schlecht bis gar nicht
.) Logic skaliert jedoch relativ gut besonders nachdem der Fokus noch weiter auf die Kompaktheit gelegt wurde.
Der Anteil von SI+Cache am Gesamtchip ist bereits größer als der der FP32 Einheiten. Da macht es doch durchaus Sinn, dass man versucht eher beim SI/Cache zu sparen und dass die Architektur genauso speicher- wie shaderlimitiert ist.
Nvidia hatte keine Wahl, da diese noch gar keinen IF$ hatten aber diese sind auch bei derselben idealen Cachegröße gelandet.
Danke für eure Erläuterungen. Das war mir nicht klar, ich hielt die für reine Cache-DIEs.
Wie passt das ganze denn dann zu den Erläuterungen bzgl V-Cache? Möchte AMD dafür ein MCD nutzen und das SI darauf deaktivieren? Wirkt gegenüber der Lösung für Vermeer-X wie ein Rückschritt.
Convertible
2022-08-14, 20:38:03
Jetzt kommen endlich die Cachegrößen bei den MCDs in die richtige Größenordnung.
Was nämlich bisher bei der ganzen Spekulation vernachlässigt wurde, ist der L2-Cache. Nur den Cache auf der MCD-Seite zu haben ergibt für mich wenig Sinn, da man auf der GCD-Seite nicht zwischenpuffern kann, und damit die Kommunikation zwischen MCD und GCD zum Nadelör werden könnte.
64 MB IF auf MCD-Seite und auf der GCD-Seite dann 32MB L2-Cache beim Navi 32 würde für mich eine Runde Sache egeben. Ähnlich dann auch beim Navi 31-Chip
Bei Navi 33 braucht man den vergrößerten L2-Cache nicht, da die Speichercontroller nicht ausgelagert sind, dennoch wird die Leistung der Ausführungseinheiten niedrieger ausfallen, da der L2-Cache eben nicht vergrößert wird.
Rabiata
2022-08-14, 20:55:18
Natürlich wäre ein N33 bei ~200mm2 kein AD104-Gegenspieler. Da werden Welten zwischen liegen bei der Die Size und den Transistoren - und die 4070 basiert auch noch auf einem N5-Chip.
Das wird eine klare FHD-Karte mit diesen Specs. Je höher die Auflösung, desto stärker wird man auch gegenüber einer 6900XT abfallen.
[...]
Wenn das am Ende im Schnitt dann halt auf 6800-Perf +10-15% bei 150W-170W hinausläuft, dann wäre das für N6 und ~200mm2 dennoch sensationell. Dazu noch deutlich gesteigerte RT-Performance, bei der man ggf. die 6900XT dann auch deutlicher distanziert...
Das wäre nach langem mal wieder eine Karte, die den kompletten Massenmarkt aufmischen kann.
Ein bißchen optimistisch. Speicherinterface und Infinity Cache entsprechen dem der 6600 XT, da wird bestenfalls ein Taktratenvorteil dazukommen. Beim VRAM vielleicht von 16 GB/s zu 18 GB/s? Das wären 12%.
Beim ASIC hat AMD bei der RX 6500 schon den Sprung von TSMC N7 zu N6 gemacht. Gegenüber den den höchst getakteten N7 Modellen in der 6000er Serie hat es beim ASIC etwa 10% Takt gebracht. Zur Zahl der Transistoren denke ich daß iamthebear einen guten Punkt hat:
Was Navi33 angeht so sollte man sich im Hinterkopf behalten:
Navi23 hatte 237mm². Der Shrink von N7P auf N6 bringt um die 10% Density. Das wären dann um die 210-220mm². Also alles Navi33 schneller ist als Navi23 ist bereits ein Erfolg.
Unterstellen wir mal, daß AMD eine kleine Architekturverbesserung mitbringt und Navi33 in Performance/Takt zumindest nicht schwächer als Navi23 ist.
Dann sollten mindestens die 10% aus dem Taktratensprung drin sein.
Wenn die Architekturverbesserung größer ist, sind natürlich auch mehr als 10% drin. Aber mehr als RX 6700 XT Niveau erwarte ich auf keinen Fall.
Linmoum
2022-08-14, 21:55:56
Die Diskussion hatten/haben wir schon im RDNA3-Thread, aber auch hier noch mal:
Wie soll ein N33 bei 4096 ALUs vs. 2560 ALUs und womöglich 20% höherem Takt langsamer als eine 6700XT sein? Das ist doch völlig absurd.
Ob das jetzt für eine 6800XT/6900XT reicht ist ja noch mal was ganz anderes, aber mit solchen Specs wird/würde man einen N22 definitiv hinter sich lassen. Realistisch ist damit eigentlich viel eher, dass man sich irgendwo leicht vor einer 6800 einsortiert.
Gast 32
2022-08-14, 22:07:02
@iamthebear ich kann deine Zahlen nicht nachvollziehen. Wenn das V-Cache-DIE in N7 41 mm2 hat und ich 10 mm2 DIE-DIE abziehe Rest 31 mm2. Dann brauche ich für deine 16 MB IF$ nur 8 mm2 im MCD oder ein MCD hat doch 32 MB IF$.
Ich kann mir auch für Navi33 Chiplets vorstellen. Weil damals zur Zen-2 Vorstellung viele gesagt haben der 6-Kerner kommt nicht als Chiplet da zu teuer, es wurden doch Chiplet. Chiplet macht die Produktion wunderbar flexibel. Daher könnten die Chiplets auch so aussehen.
Navi33=1xGDC+1xMCD(128bSI+64Mb-IF$)+1xIOD
Navi32=2xGDC+2xMCD+1xIOD
Navi31=3xGCD+3xMCD+1xIOD
Damit hätte Navi31 wieder 7 Chiplets und die Produktion wird sehr flexibel. Man entscheidet die Chip-Klasse praktisch erst beim Packaging. Wenn sich Navi31 nicht gut verkauft werden einfach mehr IOD-Chiplets produziert und somit mehr Navi32 oder Navi33 ohne große Chips auf Halde zu haben.
Die Diskussion hatten/haben wir schon im RDNA3-Thread, aber auch hier noch mal:
Wie soll ein N33 bei 4096 ALUs vs. 2560 ALUs und womöglich 20% höherem Takt langsamer als eine 6700XT sein? Das ist doch völlig absurd.
Ob das jetzt für eine 6800XT/6900XT reicht ist ja noch mal was ganz anderes, aber mit solchen Specs wird/würde man einen N22 definitiv hinter sich lassen. Realistisch ist damit eigentlich viel eher, dass man sich irgendwo leicht vor einer 6800 einsortiert.
sehe ich auch so. sollte so auf 6800xt Niveau sein. RT vermutlich schneller als 6800xt/6900xt
Wie soll ein N33 bei 4096 ALUs vs. 2560 ALUs und womöglich 20% höherem Takt langsamer als eine 6700XT sein?
Die andere Frage ist halt, wie soll man doppelt so viele ALU unterbringen, wenn man nur auf 6nm wechselt und die Chipfläche sogar kleiner wird. Keine "Vollwertigen" ALUs?
Rabiata
2022-08-14, 23:08:49
Die Diskussion hatten/haben wir schon im RDNA3-Thread, aber auch hier noch mal:
Wie soll ein N33 bei 4096 ALUs vs. 2560 ALUs und womöglich 20% höherem Takt langsamer als eine 6700XT sein? Das ist doch völlig absurd.
Das funktioniert so aber nur, wenn die neuen ALUs in in der Performance halbwegs vergleichbar zu den alten sind.
4096 ALUs auf N33 vs. 2048 ALUs auf N23 bei etwas knapperer Transistoranzahl (Siehe iamthebears Ansatz zu Shrink und Chipfläche) bedeutet erst mal, daß die neuen ALUs nur halb so viele Transistoren wie die alten haben können.
Das ohne Performanceverlust pro ALU hinzukriegen, wäre in der Tat sensationell. Bevor wir genauere Infos zu Architekturdetails und unabhängige Benchmarks haben, vermute ich eher daß hier irgendwie "halbierte" ALUs zugange sind. Welche nicht annnähernd dieselbe Performance wie die N23 ALUs bieten.
Aber ich denke auch nicht, daß sich AMD auf eine Verschlechterung in Performance zu Transistorzahl einlassen wird. Bulldozer war hoffentlich ein einmaliger Fehlgriff :frown:.
Navi 31 könnte auch mit obigen Annahmen ein Monster sein:
Nach den Angstronomics-Gerüchten hat Navi 31 in jeder Hinsicht das 3-fache von N33. ALUs, Speicherinterface und Cache. Die 6650XT x3 plus Taktzuschlag könnte plausibel doppelt so schnell wie die 6950XT sein. Dazu noch eine kleine Architekturverbesserung, und wir sind auf dem Niveau von früheren Spekulationen (https://www.3dcenter.org/news/news-des-30-juni-2022), in denen Greymon55 n31=2.1-2.2x n21 erwartet.
bbott
2022-08-14, 23:11:37
Wäre eine Hardware Kompression, um den IF Cache besser ausnutzen zu können nicht eine elegante Lösung um DIE Size zu sparen?
Dürfte natürlich keine all zu aufwendige Kompression sein, damit Performance und Effizenz nicht leiden.
Leonidas
2022-08-15, 06:19:21
Ich weiß nicht ob sich AMD so einen Gefallen damit tut, die Karten derart auflösungsseitig (FHD 4K etc) festzulegen durch SI und IF$.
Das habe ich auch schon gesehen - das wird in Zukunft deutlicher werden, das verschiedene Karten nur für bestimmte Auflösungen sind, wegen der Menge an L2/IF$. Aber: Das ist wohl unvermeidlich, ansonsten müsste man die Speicherinterfaces zu sehr hochziehen, was die Boards zu stark verteuert.
Wie passt das ganze denn dann zu den Erläuterungen bzgl V-Cache? Möchte AMD dafür ein MCD nutzen und das SI darauf deaktivieren? Wirkt gegenüber der Lösung für Vermeer-X wie ein Rückschritt.
Der 3D V-Cache bei Navi 31 wird dann einfach ein extra Cache, der auf dem MCD draufgepappt wird und den IF$ verdoppelt.
Aber Du hast Recht: Man könnte dafür theoretisch vielleicht auch teildefekte MCDs verwenden.
gfx1101
"Plum Bonito"
Auf angstronomics ist Navi 31 gfx1100.
Legendenkiller
2022-08-15, 08:59:16
N23 Dropin sagt doch schon alles.
PCIex8 in Gen4
1080p Zielmarkt
Optimiert auf DIE-Size
Dann machen auch die 8 GB Sinn und der kleine Cache. Mal Performance auf 6800, mal auf 6700, mal auf 6600-Niveau, je nach Game. RT-Leistung evtl. Auf 6900-Niveau.
Aber für dasselbe Budget baubar wie eine 6600xt.
WinWin für alle Aufrüster, vorausgesetzt das bleibt unter 200W.
Jup. Die 6600 XT hat eine UVP von 379 Euro.
Wäre imo völlig ok, wenn die Karte dann auch in der Preisregion landet.
Nur mal als vergleich eine 1060 war 200mm² groß, eine 3050 hat bereits 270mm².
Eine 1070 hat mit 314 mm² und eine ebenfalls für 400€ kaufbare 2060 hatte 445 mm² und 419€ UVP.
Klar Inflation und N5 ist pro Fläche teurer ... aber sicher nicht das doppelte, oder ?
bad_sign
2022-08-15, 09:47:34
Die andere Frage ist halt, wie soll man doppelt so viele ALU unterbringen, wenn man nur auf 6nm wechselt und die Chipfläche sogar kleiner wird. Keine "Vollwertigen" ALUs?
Auf die Entschlackung bin ich auch gespannt. Auch was das für folgen für alte Spiele hat.
Klar Inflation und N5 ist pro Fläche teurer ... aber sicher nicht das doppelte, oder ?
Vielleicht schon. Die 1060 war in N16, die 2060 in N12. Verglichen damit können die Kosten pro Wafer grob doppelt so hoch sein.
Seit spätestens N7 sind die Kosten pro Wafer relativ hoch und vor einiger Zeit geisterten Zahlen von knapp unter 10000 Dollar pro N7-Wafer und etwa 17000 Dollar je N5-Wafer durch die Welt. Solide bestätigte Zahlen sind jedoch Mangelware.
Wäre eine Hardware Kompression, um den IF Cache besser ausnutzen zu können nicht eine elegante Lösung um DIE Size zu sparen?
Verlustfreie Kompression, und eine andere kann es hier ja nicht geben, spart nur Bandbreite, keinen Speicherplatz, da man im ungünstigsten Fall immer davon ausgehen muss, dass sich die Daten gar nicht komprimieren lassen und einen entsprechenden Speicherplatz reservieren muss.
Rabiata
2022-08-15, 12:29:13
Vielleicht schon. Die 1060 war in N16, die 2060 in N12. Verglichen damit können die Kosten pro Wafer grob doppelt so hoch sein.
Seit spätestens N7 sind die Kosten pro Wafer relativ hoch und vor einiger Zeit geisterten Zahlen von knapp unter 10000 Dollar pro N7-Wafer und etwa 17000 Dollar je N5-Wafer durch die Welt. Solide bestätigte Zahlen sind jedoch Mangelware.
Wir können trotzdem mal rechnen/raten. Toms Hardware hat eine Tabelle mit geschätzten Preisen:
https://cdn.mos.cms.futurecdn.net/Unwdy4CoCC6A6Gn4JE38Hc-970-80.jpg
extrahiert aus einem Paper (https://cset.georgetown.edu/wp-content/uploads/AI-Chips%E2%80%94What-They-Are-and-Why-They-Matter.pdf) von CSET. Dabei ist die letzte Zeile besonders interessant, in der die Autoren Saif M. Khan und Alexander Mann auf eine bestimmte Transistorzahl umrechnen. Grundlage der Berechnung, zu finden im Paper:
"Our model uses, as a baseline, a hypothetical 5 nm GPU with the specifications of Nvidia’s Tesla P100 GPU, which OpenAI used in 2018 to train the breakthrough AI algorithm OpenAI Five. 191 The P100 GPU is fabricated at TSMC at the 16 nm node and contains 15.3 billion transistors in a chip (die) area of 610 mm2"
Die Transistorzahl ist nahe am GA104 Chip der GeForce RTX 3070 mit 17,1 Milliarden Transistoren. Auf der AMD-Seite wäre Navi 22 das Gegenstück mit 17,2 Milliarden Transistoren. Also durchaus relevant für eine moderne GPU.
Wenn die Autoren richtig schätzen, können wir in absehbarer Zukunft auch keine Preissenkungen mehr erwarten. Vielleicht läßt sich über preiswertere Stromversorgung und Kühlung noch etwas herausholen, aber die ASICS werden eher teurer.
Ist ja eine nette Theorie, dass GraKas teurer werden MÜSSEN.
Es gibt nur eine winzige Kleinigkeit die dazu nicht passt.
Die Geschäftszahlen von AMD + Nvidia.
Aber hey, wenn schon die Kunden erklären warum die armen Hersteller gar keine andere Wahl haben als stetig die Preise zu erhöhen - warum sollten sie es nicht tun.
Einfach pervers.
Hofentlich werden AMD und Nvidia noch viel gieriger und verdoppeln die Preise am besten noch mal.
Ich habe kein Problem damit auch 1000 Euro für eine 4070 oder eine 7800 zu zahlen. Dafür bekomme ich hier ja beste Unterhaltung wenn dann wieder erklärt wird, warum AMD und Nvidia gar nicht anders können als diese Preise zu verlangen :roll:
Exxtreme
2022-08-15, 13:19:22
Wenn die Autoren richtig schätzen, können wir in absehbarer Zukunft auch keine Preissenkungen mehr erwarten. Vielleicht läßt sich über preiswertere Stromversorgung und Kühlung noch etwas herausholen, aber die ASICS werden eher teurer.
Wenn die Grafikkarten zu teuer sind dann bleiben sie im Lager liegen. Nvidia macht gerade diese Erfahrung. Ergo gehe ich davon aus, dass sich die Preise wieder normalisieren werden.
Rabiata
2022-08-15, 13:30:07
Ist ja eine nette Theorie, dass GraKas teurer werden MÜSSEN.
Es gibt nur eine winzige Kleinigkeit die dazu nicht passt.
Die Geschäftszahlen von AMD + Nvidia.
Aber hey, wenn schon die Kunden erklären warum die armen Hersteller gar keine andere Wahl haben als stetig die Preise zu erhöhen - warum sollten sie es nicht tun.
Einfach pervers.
Warte mal die Quartalszahlen für das 3. Quartal 2022 ab. Im 2. Quartal waren noch die Ausläufer des Miningbooms in den Preisen mit drin. Nvidia spürt den Druck schon richtig. Dauerhaft noch niedrigere Preise dürften da schwierig werden.
Und auch wenn es aktuell noch Marge abzubauen gibt, der Langfristrend in der Chipfertigung spricht dafür, daß es nicht ewig so weitergehen kann.
Warte mal die Quartalszahlen für das 3. Quartal 2022 ab. Im 3. Quartal waren noch die Ausläufer des Miningbooms in den Preisen mit drin.
Und auch wenn es aktuell noch Marge abzubauen gibt, der Langfristrend in der Chipfertigung spricht dafür, daß es nicht ewig so weitergehen kann.
Du solltst dir die Zahlen der letzten 5 Jahre anschauen und nicht einzelne Quartalszahlen.
Dann wird dir auffallen, dass die Gewinnmargen stark gestiegen sind.
Die Steigerung der GPU Preise in den letzten 5-10 Jahren mit höheren Produktionskosten zu begründen ist schlicht und ergreifend falsch.
Ansonsten würde Nvidia nicht mit jedem Euro Umsatz der im GraKa Bereich erzielt wird mehr Gewinn machen wie vor einigen Jahren.
Nvidia (und AMD) hat die Verkaufspreise deutlich stärker erhöht als die Kosten gestiegen sind. Nur so kann man seine Gewinnmarge nämlich steigern.
Das ist simple Mathematik und Betriebswirtschaft.
Rabiata
2022-08-15, 15:04:53
Die Steigerung der GPU Preise in den letzten 5-10 Jahren mit höheren Produktionskosten zu begründen ist schlicht und ergreifend falsch.
Nicht Steigerung. Stillstand oder langsame Senkungen bezogen auf die selbe Leistung.
Beispiele: Eine RTX 3060 performt marginal besser als eine RTX 2070 und diese wiederum etwas besser als eine GTX 1080. Siehe Performanceüberblick.
Gleichzeitig sind die Preise für vergleichbar starke GPUs runtergegangen. Für die Founders Editionen:
GTX 1080: $699
RTX 2070 Original, nicht "Super": $599
RTX 3060: $329
AMD macht es nicht viel anders, siehe RX 5700XT zu RX 6600XT. Kleine Senkung im Listenpreis für etwa dieselbe Leistung (je nach Bildschirmauflösung),
Dieser Trend scheint jetzt fertigungstechnisch an sein Ende zu stoßen. Trotzdem haben die Leute noch die Erwartung, daß sie für dasselbe Geld die üblichen 30% mehr Leistung bekommen. Das funktioniert immer weniger.
Leonidas
2022-08-15, 15:12:59
Auf angstronomics ist Navi 31 gfx1100.
Mein Fehler, falsch übertragen. Gefixt & Danke für den Hinweis.
Lehdro
2022-08-15, 15:24:58
Nicht Steigerung. Stillstand oder langsame Senkungen bezogen auf die selbe Leistung.
Beispiele: Eine RTX 3060 performt marginal besser als eine RTX 2070 und diese wiederum etwas besser als eine GTX 1080. Siehe Performanceüberblick.
Gleichzeitig sind die Preise für vergleichbar starke GPUs runtergegangen. Für die Founders Editionen:
GTX 1080: $699
RTX 2070 Original, nicht "Super": $599
RTX 3060: $329
AMD macht es nicht viel anders, siehe RX 5700XT zu RX 6600XT. Kleine Senkung im Listenpreis für etwa dieselbe Leistung (je nach Bildschirmauflösung),
Dieser Trend scheint jetzt fertigungstechnisch an sein Ende zu stoßen. Trotzdem haben die Leute noch die Erwartung, daß sie für dasselbe Geld die üblichen 30% mehr Leistung bekommen. Das funktioniert immer weniger.
Und ich Depp schau mir einfach die steigenden Margen an und denke: "Man sind die gierig alle miteinander."
Aber das gleiche Leistung zu einem leicht sinkenden Preis jede Gen jetzt schon Fortschritt ist, vor allem mit den schön gerechneten Preisen: Die GTX 1080 fiel zum Release der 1080 Ti noch auf 499 $ UVP (https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/4/#abschnitt_geforce_gtx_1080_im_preis_gesenkt). Hast du wohl vergessen. Und eine RTX 3060 für den UVP musst du mir auch erst einmal zeigen. Die Karte wird bald 2 Jahre alt und krebst immer noch bei 400€ rum. Das sind wahnsinnige 20% Preisdrop für die Leistungsklasse in 5,5 Jahren - ich lach mich schlapp und NV wischt sich die Freudentränen mit Geld weg. Gerade die Mittel- und Oberklasse GPUs sind mal sowas von absurd was das angeht.
Wir können trotzdem mal rechnen/raten. Toms Hardware hat eine Tabelle mit geschätzten Preisen:
Ein Wafer mit 300 mm Durchmesser hat eine Fläche von pi mal (150 mm)^2. Wenn Verschnitt und Fehler zu 15% Verlusten führen, passen auf ein solches Wafer also grob 100 Chips a 600 mm² wie AD102 oder 300 a 200 mm² wie Navi33. Das entspräche nach der (inzwischen wohl veralteten) Tabelle also 169,88 $ je AD102 und 31,15$ je Navi33.
Eine GTX 1060 mit 200mm² wäre für 13,28 $ zu haben, seinerzeit war der Fertigungsprozess aber vielleicht noch teurer.
Die These, dass der vergangene Anstieg der Preise durch die Fertigung begründet ist, ist eher schwach. Dafür ist der Anstieg der Chipfertigungskosten noch etwas zu klein. Aber auch nicht so klein, dass flächenmäßig gleich große Chips zum gleichen Preis angeboten werden können wie früher. Spätestens ab N5 fällt es schon ins Gewicht, für N3 wird es noch schlimmer.
Rabiata
2022-08-16, 15:53:22
Und ich Depp schau mir einfach die steigenden Margen an und denke: "Man sind die gierig alle miteinander."
Aber das gleiche Leistung zu einem leicht sinkenden Preis jede Gen jetzt schon Fortschritt ist, vor allem mit den schön gerechneten Preisen
In fast allen Bereichen ist das so. Inflation ist der Normalfall in unserem Wirtschaftssystem, auch wenn sie gering ist. Wobei der Miningboom sicher einiges verzerrt hat, da konnten die Hersteller stärker hinlangen und auch mehr Marge herauspressen.
In der IT hat der technische Fortschritt dies lange Zeit übertüncht, nur scheint das langsam an Grenzen zu stoßen.
Und was die Diskussion insgesamt angeht, bist Du noch einer der wenigen, die bereit sind in Leistungsklassen zu denken. Ich habe den Eindruck, daß viele hier nur die Modellnummer sehen und denken "die RX 6700 XT ist 20% teurer als die die RX 5700 XT im UVP, was für gierige Säcke". Daß dabei der Chip 41% größer und der VRAM 50% größer ist, scheint nur wenige zu interessieren.
In fast allen Bereichen ist das so. Inflation ist der Normalfall in unserem Wirtschaftssystem, auch wenn sie gering ist. Wobei der Miningboom sicher einiges verzerrt hat, da konnten die Hersteller stärker hinlangen und auch mehr Marge herauspressen.
In der IT hat der technische Fortschritt dies lange Zeit übertüncht, nur scheint das langsam an Grenzen zu stoßen.
Und was die Diskussion insgesamt angeht, bist Du noch einer der wenigen, die bereit sind in Leistungsklassen zu denken. Ich habe den Eindruck, daß viele hier nur die Modellnummer sehen und denken "die RX 6700 XT ist 20% teurer als die die RX 5700 XT im UVP, was für gierige Säcke". Daß dabei der Chip 41% größer und der VRAM 50% größer ist, scheint nur wenige zu interessieren.
Bist du Pressesprecher bei AMD oder Nvidia?
Da machst du einen guten Job.
Du kommst mit Dingen wie Inflation und völlig irrelevanten Zahlen.
Was interessiert ob die 6700XT 41% größere Chipfläche hat?
Das Ding ist 27% schneller als die 5700XT.
Die 27% ist doch der interessante Faktor.
Chipfläche interessiert mich als Endanwender 0, es gab btw auch schon vor 10 Jahren Chips die groß waren.
Hör doch auf hier das Märchen zu verbreiten, das wäre etwas völlig einmaliges und vor allem lineares. IST ES NICHT!!!!!
https://de.wikipedia.org/wiki/Nvidia-GeForce-900-Serie
Du bringst Zahlen, ignorierst die einzige Zahl aber die tatsächlich objektiv ist - und die OFFIZIELL von AMD und Nvidia veröffentlich wird und jedem einsehbar ist.
Die Umsatzrenditen.
Das habe ich dir jetzt schon dreimal gesagt - schau dir die Bilanzen einfach mal an.
Das widerlegt sämtliche deiner "Argumente", dass die GPU Preise zwangsläufig sind.
Warum die diese Zahl ignorierst und völlig unwichtige Nebelkerzen zündest (wenn die Umsatzrendite kontinuierlich steigt, kann ja deine geliebte Chipfläche wohl nicht so teuer sein wie die Preiserhöhungen bei den GPUs suggieriert?).
Du musst nur Zahlen vergleichen.
1,2,3...
Größere Umsatzrendite = überproportional steigende Preise im Vergleich zu den Kosten.
Inflation ist da btw völlig irrelevant.
Falls dich das Thema Geschäftszahlen völlig überfordert - ok, ist ja nicht schlimm.
Dann rede aber BITTE nicht über Themen, von denen du offensichtlich 0 Ahnung hast.
Lehdro
2022-08-16, 18:05:10
In fast allen Bereichen ist das so. Inflation ist der Normalfall in unserem Wirtschaftssystem, auch wenn sie gering ist. Wobei der Miningboom sicher einiges verzerrt hat, da konnten die Hersteller stärker hinlangen und auch mehr Marge herauspressen.
Unbestreitbar Faktoren, aber nicht die einzigen.
In der IT hat der technische Fortschritt dies lange Zeit übertüncht, nur scheint das langsam an Grenzen zu stoßen.
Um bei deinem Beispiel zu bleiben: Bei AMD gibt es diese Leistungsklasse ab ~300€. Es sind also gerade die NV Karten das Problem. Unterhalb der 3080 kam der Preisrutsch nie an. Und selbst die 3080 bis 3080 Ti, hat es nur in die Nähe der UVP gedrückt. 3090 und 3090 Ti haben als einzige Karten wirklich nachgelassen. Trifft auch bei AMD zu, aber nicht ganz so extrem. Es wird also trotz Crash immer noch hart gemolken, das war zu den anderen beiden Miningcrashes noch komplett anders.
Ich habe den Eindruck, daß viele hier nur die Modellnummer sehen und denken "die RX 6700 XT ist 20% teurer als die die RX 5700 XT im UVP, was für gierige Säcke". Daß dabei der Chip 41% größer und der VRAM 50% größer ist, scheint nur wenige zu interessieren.
Stimmt, wobei die 3060 dann wieder ein unscharfes Beispiel war. Der Leistungszuwachs war auch eher gering, dafür ist der Speicher für NV Verhältnisse explodiert.
Leonidas
2022-08-17, 05:07:30
Du kommst mit Dingen wie Inflation und völlig irrelevanten Zahlen.
Was interessiert ob die 6700XT 41% größere Chipfläche hat?
Das Ding ist 27% schneller als die 5700XT.
Die 27% ist doch der interessante Faktor.
Der relevante Teil der Rede war, dass man nicht nach SKU-Nummern vergleichen sollte.
Der relevante Teil der Rede war, dass man nicht nach SKU-Nummern vergleichen sollte.
Der relevante Teil sind die GESCHÄFTSZAHLEN.
Steigende Gewinnmarge bedeutet stärker steigende Verkaufspreise als Kosten.
Die Geschäftszahlen sind offiziell von AMD und Nvidia veröffentlicht.
0 Spekulation, 0 Vermutungen, 0 Prognosen, 0 Unklarheiten.
Ich begreife nicht, wie man anhand dieser unbestreitbaren Fakten ernsthaft darüber diskutieren kann, ob die Preiserhöhungen die wir sehen zwangsläufig sind oder nicht.
SIND SIE NICHT.
Die Geschäftszahlen beweisen das.
Glaubt ihr, dass die Geschäftszahlen von AMD und Nvidia gefälscht sind?
Falls ja, glaubt ihr das hätte keiner bemerkt? Glaubt ihr ernsthaft, die fälschen die Geschäftszahlen und machen sich damit massiv strafbar?
Falls nein:
Über was zum Teufel wird also diskutiert?
Leonidas
2022-08-17, 11:31:07
Ich glaub, wir sind deutlich vom Gesprächsthema abgekommen. Wer hat was von gefälschten Geschäftszahlen behauptet??? BTT please.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.