Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD könnte mit nur zwei 14nm-Chips im Jahr 2016 tatsächlich ohne ...
Leonidas
2015-12-13, 10:53:48
Link zur News:
http://www.3dcenter.org/news/amd-koennte-mit-nur-zwei-14nm-chips-im-jahr-2016-tatsaechlich-ohne-rebrandings-auskommen
Grafikkartenkauf macht einfach keinen Spass mehr.
Habe Anfang 2013 eine 7950 Boost für 260€ gekauft, Performance Index 310%. Sollten die Spekulationen so ungefähr eintreten wären es mehr als drei Jahre später, selbe Preisregion, ~450% +- irgendwas.
Selbst mit dem alten Eurokurs wäre es vielleicht eine 60% Steigerung bei gleichem Preis.
Je nach Launchtermin wären es sogar fast 4 Jahre (Boost kam Spätsommer 2012).
MrSpadge
2015-12-13, 19:56:28
Wenn man HBM2 konsequent nutzt, gibt es noch eine weitere interessante Möglichkeit: multi-GPU Module. Bisher kranken Multi-Chip-Karten daran, dass die Chips dem OS/Treiber gegenüber als 2 unabhängige Chips erscheinen. Das ist bisher nötig, weil die Chips miteinander nur viel langsamer als intern kommunizieren können. Verbaut man jedoch sowieso einen Interposer für HBM-RAM, könnte man diesen auch für breitbandige Hochgeschwindigkeitsbusse zwischen Chips nutzen.
Ich könnte mir gut einen Chip vorstellen, der 1/4 der Recheneinheiten der maximal geplanten Konfiguration und ein 1024 Bit HBM2 Interface trägt. Von diesem könnten 1 bis 4 Stück jeweils mit ihrem RAM auf einem Interposer montiert werden. Die Rechenleistung würde durch den zusätzlichen RAM pro Chip gut skalieren, während das Ganze nach Außen hin als 1 Chip wirken müsste (um die Software-Nachteile durch Crossfire zu vermeiden). Die Kommunikation zwischen den Chips müsste ähnlich schnell wie jetzt zwischen den SMX + Speichercontroller-Blöcken (bei nVidia) sein. Die gesamte Speichermenge kann man bei HBM2 durch die verschieden großen Stacks gut anpassen.
Die Kosten für die Montage und den Interposer steigen dabei kaum, da man den Interposer eh herstellen muss (bzw. sinken die Herstllungskosten für kleinere Interposer mit weniger Fläche sogar). Hinzu kommen mehrere Flip-Chip Bondprozesse für die zusätzlichen GPU-Chips, was man aber gut beherrscht. Dazu kommen Einsparungen:
- kleinere Chips haben bessere Ausbeute und weniger Verschnitt auf dem Wafer
- kleinere Chips lassen sich höher takten (und je nach Qualität in Güteklassen sortieren und paaren)
- weniger Entwicklungs- und Validierungskosten durch weniger verschiedene Chips (besonders wichtig, je komplexer & feiner die Prozesse werden)
- evtl. Verwendung sehr ähnlicher PCBs (Unterschied: Leistungsaufnahme)
- höhere Stückzahl eines einzelnen Chips ist immer gut für die Herstellungskosten, vor allem wenn der eigene Marktanteil bedenklich schwindet
Bei 2 14 nm Chips könnte man darüber nachdenken, einen Chip mit 1:2 DP:SP und einen mit 1:16 - 1:32 aufzulegen. Den low-end Bereich könnten relativ problemlos die bisherigen 28 nm Chips bestreiten, da diese pro Transistor eh günstiger sein sollten. Problematisch würde dies nur für Notebooks werden, wo ein verringerter Stromverbrauch helfen würde. Alternativ könnte der 2. Chip dann genau für diesen Bereich ausgelegt werden und aus Kostengründen auf HBM verzichten.
Hätte man von solch einer unkonventionellen Lösung schon etwas hören müssen? Da bin ich mir nicht sicher, da AMD die Lecks in letzter Zeit bis wenige Monate vor den Produktvorstellungen doch sehr gut abgedichtet hat.
MrS
Limit
2015-12-14, 18:01:25
Ich frage mich, ob man überhaupt noch einen Chip für den Low-Cost-Bereich braucht. In entsprechenden Systemen werden doch mittlerweile durchweg APUs verbaut. Mit DDR4 und später mit HBM dürften die GPUs bis hin zum (unteren) Mainstream-Bereich obsolet werden.
y33H@
2016-01-22, 09:39:17
Charlie sagt, Greenland sei tot und es seien 3 GPUs.
Ravenhearth
2016-01-22, 09:54:06
AMD spricht doch selbst von zwei.
y33H@
2016-01-22, 14:26:27
2 für 2016.
Ravenhearth
2016-01-22, 20:06:45
Eben. Der Artikel heißt "AMD könnte mit nur zwei 14nm-Chips im Jahr 2016 tatsächlich ohne Rebrandings auskommen". Dass 2017 noch mehr kommt war eigentlich zu erwarten.
Mann muss auch immer im Hinterkopf behalten, dass Fiji rein von der shaderleistung 40~50% vor Hawaii liegen müsste, oft genug sind es aber nur traurige 10~20%. Ein "Fiji-artiger"-polaris ohne Flaschenhals konnte also noch sehr ordentlich drauf legen. Daher bin ich mir auch nicht sicher, ob man das si auf die Hälfte schrumpfen kann. Gerade, da bis 2017 nichts in der Leistungsklasse kommt und man sicher auch mal Hawaii bei den firepros ablösen will.
Ravenhearth
2016-01-23, 10:18:28
2048 bit statt 4096 bit ergäbe bei doppelter Frequenz die gleiche Bandbreite, das sollte also reichen. Außerdem hätte man 8GB statt 4GB VRAM.
AnarchX
2016-01-23, 10:35:41
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10921348#post10921348
Wenn der Chip näher an den 200mm² liegt, dann könnte ich mir auch 256-Bit GDDR5(X) vorstellen. Mit >256GB/s hat man durchaus eine Basis deutlich über einer GTX 980 zu landen.
Spekulation: "Back-To-School-Duell" - Spätsommer 2016
GTX P180 (GP104): 2048SPs @1,2-1,5GHz, 256-Bit 8GiB 8/10Gbps - 160W
R9 480X (Polaris11): 3072SPs @1,0GHz, 256-Bit 8GiB 8/10Gbps - 180W
Preislicher Start: $449-399.
Ravenhearth
2016-01-23, 12:16:38
Das wäre von der Effizienz her aber arg enttäuschend. Der GM204 erreicht ja jetzt schon 2048 SPs bei 1,2-1,4 GHz und 200W, da reichen auch 7 Gbps.
2048 bit statt 4096 bit ergäbe bei doppelter Frequenz die gleiche Bandbreite, das sollte also reichen. Außerdem hätte man 8GB statt 4GB VRAM.
Ich spreche nicht von Speicherbandbreite, sondern von -menge. Ich habe ja auch explizit die FirePROs genannt. Man braucht mit keinem Polaris mit grosser Mehrleistung ggue. Hawaii aber mit weniger als 16 GiB antreten und 8Hi Stacks sind noch nicht in Sicht. Nachdem Maxwell nicht fuer HPC taugt, legt Nvidia hier mit Pascal nach. Da besteht imho auf jeden Fall Handlungsbedarf und ich glaube nicht, dass man bis Ende 2017 oder noch laenger wartet, um dann einen HPC Riesen zu bringen. In dem Markt steht Hawaii aktuell zwar noch sehr gut da, wird aber gegen GP104 oder GP100 sehr alt aussehen.
Zudem ist auch die Bandbreite auch bei Fiji nicht allzu ueppig. Overclocking (was offiziell nicht geht) ergab Leistungszuwaechse und auch die 390X steht ggue. der 290X etwas besser da, wobei hauptsaechlich am Speichertakt und -timings geschraubt wurde.
AnarchX
2016-01-24, 17:50:29
Das wäre von der Effizienz her aber arg enttäuschend. Der GM204 erreicht ja jetzt schon 2048 SPs bei 1,2-1,4 GHz und 200W, da reichen auch 7 Gbps.
Man kann die Veränderungen in Pascal noch nicht ganz einschätzen.
Sinnvolle wäre auf jeden Fall eine bessere Concurrent-Ausführungfähigkeit und weiter wachsende Caches, NV nutzt wohl schon in Maxwell massiv TBDR.
Und wenn man teilweise per GameWorks und Co. "FP32-Code" auf "FP16-Code" umstellen kann, erreichen solche 2048SPs@1,3GHz effektive >8 TFLOPs, was über den GM200-Karten liegt.
Mit GDDR5X kann man auch genügend Bandbreite für neue AA-Modi und andere ROP-basierte Optimierungen liefern.
GP100 wird ja bei wohl 4-5K SPs immerhin 1TB/s Bandbreite haben.
aufkrawall
2016-01-24, 17:54:32
Womöglich werden Spiele auf absehbare Zeit erstmal nur shaderbasierte, temporale AA-Verfahren haben.
Die kosten kaum Performance und glätten mit zunehmender Pixelanzahl immer besser. Eigentlich wär man bescheuert, noch in etwas anderes Ressourcen für R&D etc. zu investieren.
AnarchX
2016-01-24, 17:57:20
So ein Shader-AA mit relativ viel FP16 könnte halt auf Pascal-GPUs um einiges schneller sein.
aufkrawall
2016-01-24, 18:04:11
Das kostet offenbar jetzt schon so gut wie keine Leistung, wenn man es richtig macht:
http://www.computerbase.de/2014-10/ryse-benchmark-grafikkarten-vergleich-test/
(Aber keine Gewähr, ob der CB-Benchmark wirklich etwas taugt.)
Bei Battlefront kostete das TAA auf meiner 980 ~10%.
aufkrawall
2016-02-06, 00:58:59
Brauchbares Post-AA muss wirklich fast überhaupt nichts kosten, ich habs selbst mal in Ryse an einer festen Stelle gebencht.
1xAA:
http://abload.de/thumb/1xaatykek.png (http://abload.de/image.php?img=1xaatykek.png)
TAA:
http://abload.de/thumb/taauwk3t.png (http://abload.de/image.php?img=taauwk3t.png)
TAA + in-game sharpen:
http://abload.de/thumb/taasharpenu8kly.png (http://abload.de/image.php?img=taasharpenu8kly.png)
CPU-Limit:
http://abload.de/thumb/cpulimityvj99.png (http://abload.de/image.php?img=cpulimityvj99.png)
TAA + sharpen kostet nur läppische ~2,5% Performance.
Viele andere Entwickler sollten dringend mal verstehen, wie Crytek das gemacht hat.
UniGast
2016-02-08, 02:04:35
...
dGPU project F: (Global Foundry/SAMSUNG 14LPP, 430 blocks, 232mm2)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.