PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

horn 12
2015-12-03, 10:50:16
http://wccftech.com/amd-1416nm-arctic-islands-launching-summer-2016/

Ende Sommer 2016 Launch der R9 400-er Serie
Oder nur für Clicks bestimmt ...

HOT
2015-12-03, 10:59:31
Wenn man sich zuerst auf Summit Ridge konzentriert in der Fertigung klingt das schon plausibel.

reaperrr
2015-12-03, 12:59:24
Vielleicht ist AMD in der Lage mit den beiden Grafikchips eine grössere Bandbreite zu bedienen. Möglicherweise ist es mit der 14/16 nm Generation günstiger die nun flächenmässig kleineren Chips stärker beschnitten zu verkaufen, als für jedes Segment einen anderen Chip aufzusetzen.

Erst mit der Refreshgeneration könnte man dann die einzelnen Segmente mit dedizierten GPUs ausstatten. Bis dahin dürften Fertigungs- und Designkosten weiter gesunken sein.
Macht Sinn.

Meine Spekulation:

Ein Chip
-24 CUs
-32 ROPs
-128bit Bonaire SI + GDDR5X-Support
~130mm²

und ein Chip
-48 CUs
-64 ROPs
-2048 bit HBM2 (2x4GB)
~250mm²

könnten mit entsprechenden Taktraten und Architektur-Verbesserungen quasi das gesamte aktuelle Line-Up ersetzen.
Anfang 2017 dann noch ein richtiger High-End-Chip mit 96 CUs, 128 ROPs und 4x4GB HBM2, der mit zwei teildeaktivierten Versionen (1x 88 CUs, etwas niedrigerer Takt und sonst Vollausbau, 1x 80 CUs, 96 ROPs und nur 3 HBM2-Stacks sowie noch niedrigerer Takt) auch den Bereich darunter abdeckt.

Etwas später dann noch ein "Low-End"-Chip mit 12-16 CUs, 16 ROPs und 64-bit GDDR5(X) SI.

Dann würde das Line-Up ziemlich gut aussehen.

horn 12
2015-12-03, 13:11:05
Und Fury X - Fury und Furx X² (Alle mit HBM1 Speicher) würden bis Ende 2016 bestehen bleiben, bzw. die schnellsten Karten bis dahin verweilen.

Nightspider
2015-12-03, 13:14:26
Wieso sollten die Furz Karten bis Ende 2016 bestehen bleiben?

Die werden doch jetzt schon kaum gekauft und werden in der Produktion eh viel billiger bis dahin und 4GB VRAM ist 2016 ein noch viel größerer Nachteil.

Sobald die 14nm Karten da sind (Spätsommer) gibts keine Fury/Furx/Furz Karten mehr.
Die werden ganz sicher schon ende des zweiten Quartals oder im 3. Quartal EOL gehen.

HOT
2015-12-03, 13:18:47
AMDs erste GPU-Produkt muss ja Greenland sein, denn das ist der Chip, den man in allen Märkten am allerdingensten braucht. Das ist völlig unzweifelhaft aus meiner Sicht, es stellt sich nur noch die Frage, was noch dazu kommt. Da finde ich den Ersatz von Hawaii bei Weitem am sinnvollsten.
Also: Sommer 2016
Greenland mit 8TFLOPs SP und 4TFLOPs DP mit >1000MHz als FuryII(X); 1GHz im Profisektor, >1GHz im Gamingsektor.
Herbst 2016
Ellesmere/Baffin als (M)395(X) oder FuryM mit 4TFLOPs SP bei 1000MHz (1/2 Greenland), bei Desktop einiges über 1GHz, im Notebookbereich einiges <1GHz

AMD plant die 14nm-Generation doch nicht in die 28nm-Generation hinein, das ist doch Schwachsinn. Die planen die komplette 28nm-Generation > Bonaire zu ersetzen. Das heißt, die nehmen auf Fiji usw. ganz sicher keine Rücksicht bei der neuen Generation, die planen sicher insgesamt 4 FinFET-GPUs mit 2-12TFLOPs @ 1GHz, wobei Greenland den DP-Markt abdecken soll.
Den Rest des 14/16nm-Lineups gibts dann 2017, eine neue Inselgeneration. Statt der 8 28nm-Desktop-GPUs will man sicherlich diesmal mit 4 auskommen. Das ist auch sinnvoller.

Wahrscheinliche Tapeouts aus meiner Sicht:
SummitRidge -> Juni 2015 (14LPP)
Greenland -> Juli 2015 (14LPP)
Ellesmere/Baffin -> September 2015 (14LPP o. 16FF+)
K12 -> Oktober 2015 (16FF+)

Noch ausstehend: (GPUs auf 1000MHz normiert)
14/16nm 2TFLOPs GPU
14/16nm 12TFLOPs GPU
14nm RavenRidge CPU

@Flusher korrigiert, sry.

Käsetoast
2015-12-03, 13:42:39
Meiner Meinung nach muss AMD 2016 drei neue Chips bringen. Einmal High-End, einmal Mid-Range und einmal Low-End. Nachdem die seit 2012 nahezu nur nach oben hin neue Chips nachgeschoben haben, ist es bitter nötig das gesamte Portfolio zu erneuern. High-End ist nötig, da man auf Hawaii bzw. Fury nicht sitzen bleiben kann. Hawaii war an sich war nur mäßig überzeugend und Fury ist ja mehr ein Gimmick und könnte neben einem generellen Architekturupgrade dann auch den Wechsel zu HBM2 vertragen, der sich hier ja geradezu anbietet. Mid-Range ist nötig, da man hier immer noch 2012er Pitcairn unter neuem Namen verkauft. Generell ist auch hier eine neue Architektur nötig, die an der Effizienz was tut, denn wenn Nvidia mit Pascal da noch mehr Fortschritte gemacht hat was die reine Architektur angeht, wird man mit Tonga Verhältnissen (der gegenüber Tahiti nur wenig Fortschritt aufweisen konnte) alt aussehen. Schließlich wird man noch einen Low-End-Chip brauchen, weil anständige APUs mit Zen wohl auf sich warten lassen werden. Ist in meinen Augen dann vielleicht die letzte Generation, wo es diese Art von Low-End-GPUs geben wird. Sobald man HBM auf die APUs packen kann wäre es ein leichtes eine APU mit der Grafikpower eines Cap Verde und vielleicht sogar Pitcairn anzubieten. Das macht die kleinen GPUs dann einfach obsolet bzw. jetzt wo Intel ja GPU-technisch aufgewacht ist wird der Markt für einfache Grafikkarten immer weiter schrumpfen, die früher ja bitter nötig waren, um nicht Intels grottige iGPU nutzen zu müssen, die ja sowohl was hardware- als auch treibertechnisch schlimm waren...

2017 kann AMD dann immer noch einen echten Fury-Nachfolger im Sinne eines sehr großen Chips bringen, wenn die neue Fertigung dann kosteneffizienter angeboten wird. Generell glaube ich auch, dass das Release Datum der neuen GPUs primär davon abhängen wird, wie sich der neue Fertigungsprozess macht. Ansonsten kann ich für AMD nur hoffen, dass sie auch überzeugende Fortschritte bei der Architektur an sich gemacht haben um zuallermindest mit der Effizienz von Maxwell gleichzuziehen - eigentlich müsste man das sogar übertrumpfen um gegen Pascal einen guten Stand zu haben. Nachdem man die letzten paar Jahre auf dem Gebiet im Vergleich zur Konkurrenz recht zurückhaltend war muss jetzt einfach eine merkbare Verbesserung kommen wie NVIDIA sie mit Maxwell ja schon lange auf dem Markt hat...

Thunder99
2015-12-03, 14:04:30
Was haltet ihr von einem Fiji Shrink mit verbesserter Architektur und 8GB HBM2?

horn 12
2015-12-03, 14:15:04
Somit bleibt Fury X und die noch zu erwartende Fury X² die schnellsten Karten für etwa zumindest noch 9 bis 12+ Monate.
Man weiss wohl warum man die Karten noch bringt...

Bei NV wird es wohl nicht besser aussehen...
Dies war es dann wohl mit der weitaus besseren Performance im Jahr 2016, oder zumindest Mitte 2016 :-) :-)

Flusher
2015-12-03, 14:38:02
Nein das ist sinnlos. AMDs erste GPU-Produkt muss ja Greenland sein, denn das ist der Chip, den man in allen Märkten am allerdingensten braucht. Das ist völlig unzweifelhaft aus meiner Sicht, es stellt sich nur noch die Frage, was noch dazu kommt. Da finde ich den Ersatz von Hawaii bei Weitem am sinnvollsten.
Also: Sommer 2016
Greenland mit 8TFLOPs SP und 4TFLOPs DP mit >1000MHz als FuryII(X); 1GHz im Profisektor, >1GHz im Gamingsektor.
Herbst 2016
Ellesmere/Baffin als (M)395(X) oder FuryM mit 4TFLOPs SP bei 1000MHz (1/2 Greenland), bei Desktop einiges über 1GHz, im Notebookbereich einiges <1GHz

AMD plant die 14nm-Generation doch nicht in die 28nm-Generation hinein, das ist doch Schwachsinn. Die planen die komplette 28nm-Generation > Bonaire zu ersetzen. Das heißt, die nehmen auf Fiji usw. ganz sicher keine Rücksicht bei der neuen Generation, die planen sicher insgesamt 4 FinFET-GPUs mit 2-12TFLOPs @ 1GHz, wobei Greenland den DP-Markt abdecken soll.
Den Rest des 14/16nm-Lineups gibts dann 2017, eine neue Inselgeneration. Statt der 8 28nm-Desktop-GPUs will man sicherlich diesmal mit 4 auskommen. Das ist auch sinnvoller.

Wahrscheinliche Tapeouts aus meiner Sicht:
SummitRidge -> Juni 2015 (14LPP)
Greenland -> Juli 2015 (14LPP)
Ellesmere/Baffin -> September 2015 (14LPP o. 16FF+)
K12 -> Oktober 2015 (16FF+)

Noch ausstehend: (GPUs auf 1000MHz normiert)
14/16nm 2TFLOPs GPU
14/16nm 12TFLOPs GPU
14nm RavenRidge CPU

Falsch zitiert? Ich kann bei bestem Willen keinen Zusammenhang zu meinem Posting finden :confused:

mckenzie
2015-12-03, 15:14:10
Ich habe bereits im Forum gesucht, aber noch keine Antwort gesehen, daher würde ich gerne hier die Frage stellen:

Wieso entwickelt AMD so lange an HBM Speicher und verlangt dann von Nvidia nichtmal Lizenzgebühren um diese Technologie ebenfalls einzusetzen?
Gerade als derzeitiger "Underdog" sollte man sich doch so einen Technologievorsprung bewahren um endlich mal ein bisschen Luft zu gewinnen. Man könnte gelassen zusehen wie NV sich mit GDDR5(x) herumschlägt und die bessere Perfàmance/Watt + Speicherbandbreite in 2016 schön vermarkten.

Was ist hier die rationale Erklärung?

Käsetoast
2015-12-03, 15:21:15
Wieso entwickelt AMD so lange an HBM Speicher und verlangt dann von Nvidia nichtmal Lizenzgebühren um diese Technologie ebenfalls einzusetzen?

Was ist hier die rationale Erklärung?
Hbm ist keine AMD Technologie. Die kaufen nur die Chips ein und lassen sie entsprechend verbauen bzw müssen natürlich ihre Architektur entsprechend anpassen. Warum Nvidia das nicht nutzt kann man nur spekulieren. Wahrscheinlich hat man den Zeitpunkt zu dem die Technologie marktreif ist falsch eingeschätzt oder man empfand das 4GB Limit als Ko Kriterium. Wobei ansonsten Nvidia auch nun wirklich nicht die technologischen Vorreiter waren in den letzten Jahren, von daher überrascht das wenig...

mckenzie
2015-12-03, 15:29:21
Man liest doch vielerorts (z.B. hier (http://www.tweakpc.de/hardware/tests/grafikkarten/amd_hbm_technologie/s01.php) ), dass AMD 7 Jahre daran mit SK Hynix entwickelt hat.
Die Entwicklungszeit- und kosten wird man doch nicht danach an den Konkurrenten verschenken...

Unicous
2015-12-03, 15:46:49
Was hat man davon wenn man eine Technologie entwickelt aber keine Möglichkeit sie zu produzieren. Außerdem hat AMD es nicht allein entwickelt sondern unter anderem mit SK hynix und anderen (Amkor, GF, etc.) und es dann an die JEDEC weitergegeben. Jetzt kann jeder HBM produzieren und nutzen und AMD hat die Möglichkeit bei mehreren Herstellern einzukaufen. Zumindest SK hynix und Samsung sind gerade dabei HBM zu produzieren.

Und GDDR5X ist nichts anderes als Produktpflege und ein Technologieupdate. Ob und wie es genutzt wird muss sich noch herausstellen.

Schaffe89
2015-12-03, 19:18:57
Ich versteh überhaupt nicht wieso AMD wirklich noch die Fury X2 bringt und da Manpower reinsteckt.
Ohne 8GB Speicher pro Karte ist die Karte noch mehr unbrauchbar als damals die 2GB GTX 690.
Man kann sowieso nurnoch schwer die Entscheidungen das Managements nachvollziehen.

Kartenlehrling
2015-12-03, 19:23:23
Heute Nacht bzw. Morgen Früh sehen wir vielleicht etwas.

https://pbs.twimg.com/media/CVQgqXlU8AAfYHS.jpg

Nakai
2015-12-03, 20:05:02
Eher FuryX Dual.

Raja hat gesagt, dass für 2016 nur zwei neue GPUs präsentiert werden. Bei AMD gehe ich eher von der Annahme aus, dass sie alles auf HBM2 setzen und keine GDDR5 GPU mehr kommt. Und wenn sie MGPU auf Interposer bringen, dann sind mehr als 2 GPUs eh nicht notwendig.

Das hat schon ein paar Vorteile, man braucht nicht mehr GPUs sondern nimmt einen Interposer, der eben für zwei GPUs ausgelegt ist. Voila...neue Grafikkarte.

OBrian
2015-12-03, 20:44:03
Also Pitcairn muß ersetzt werden, da fehlt inzwischen so viel, das geht gar nicht mehr. TrueAudio mag ja weniger wichtig sien, weil das vermutlich leider eine Totgeburt bleiben wird (da NV es nicht einsetzt, entwickelt auch keiner Spiele dafür), aber DX12 soll ja auch nicht gehen und HDMI 2.0 ist auch wichtig. Mit dem Chip kann man entweder in den Tonga-Bereich reinfahren oder in den Bonaire-Bereich, wird in jedem Falle eine Brot-und-Butter-Karte. Und das wird sicherlich die erste Karte, die kommt. Irgendwie unauffällig in den Markt geschmuggelt, ohne neue Serie, wie die 750 Ti von NV.

Für den low-End-Bereich, also wo Shader völlig egal sind und nur Ausgänge benötigt werden, da muß es kein moderner Chip sein, da kann Oland die Stellung halten, es werden ja auch noch eine Menge oller 5450 vertickt.

Also ist der zweite Chip darüber irgendwo. Der kommt dann ein paar Monate später, eher Richtung Herbst. Ich denke, der könnte Hawaii überflüssig machen, das ist die technisch unattraktivste Karte in dem Bereich (schlechteste Performance-pro-Watt-Werte). Tonga könnte längerfristig auch zwischen den beiden Chips zerrieben werden; die sind von der Performance her zwar weiter auseinander, aber der Preis könnte sie näher zusammenbringen. Das wird aber wohl erst 2017 passieren.

Wenn die Nano dann noch ein Refresh bekommt, indem 8 GB HBM2 draufkommen, dann kann man damit einige Zeit auskommen. Die X2 hält dann die Stellung als Topkarte. Nvidia wird seinen Pascal-Top-Chip auch sicherlich erstmal nur als Profis vergeben und sich vergolden lassen, so daß das eh keine ernsthafte Konkurrenz wird.

HOT
2015-12-03, 21:47:44
Das ist der falsche Ansatz. AMD muss nicht Pitcairn ersetzen, sondern einen Chip ab dem Segment anbieten. Wobei man sich darüber streiten kann, ob die Ablösung von Heizspirale Hawaii nicht noch dringender ist als Pitcairn.

reaperrr
2015-12-04, 00:03:23
Das ist der falsche Ansatz. AMD muss nicht Pitcairn ersetzen, sondern einen Chip ab dem Segment anbieten. Wobei man sich darüber streiten kann, ob die Ablösung von Heizspirale Hawaii nicht noch dringender ist als Pitcairn.
Ersatz für Pitcairn und Tonga ist mMn etwas dringender. Pitcairn ist technisch zu veraltet mit zu wenig "Checkbox-Features" für die Vermarktung, Tonga für die Leistungs- und Preisklasse zu groß und stromhungrig. Hawaii schlägt sich außer beim Verbrauch ja noch relativ gut gegen GM204 (und Fiji...).

Aber generell ist bei AMD natürlich so ziemlich alles dringender als bei Nvidia, von oben bis unten.

OBrian
2015-12-04, 02:30:55
Wenn AMD 2017 eine APU mit HBM rausbringt (CPU- und GPU-Die getrennt), dann werden sie dafür einen Die wiederverwenden wollen. Ein Chip mit 1024 Shadern wäre super dafür, ein Stack HBM2 würde gut ausreichen, das wären bis zu 2 GB, was auch ausreicht. Angenommen, die IPC dieser 1024 Shader steigt noch etwas, dann wäre das doch eine gute Ablösung von Pitcairn, sehr sparsam und wohl auch ziemlich billig herzustellen: Nur ein Speicherchip statt acht, sehr einfaches PCB (dürfte aussehen wie eine USB-Controllerkarte^^), sehr einfacher Kühler möglich. Die Diefläche der GPU wird wohl nicht größer als die des HBM-Chips daneben, schätze ich.

Davon kann AMD dann jahrelang Abermillionen Stück verscherbeln und hoffentlich ordentlich Gewinn machen und gleichzeitig seinen Marktanteil nach oben katapultieren.

Wo der andere Chip dann angesetzt wird, hängt davon ab, wann der dritte Chip kommt und welche Chips der 300er Serie in welcher Reihenfolge sterben sollen. Wenn er mittig zwischen den o.g. 1024er und Fiji gesetzt wird, dann macht er längerfristig Tonga und Hawaii überflüssig, sobald das Preisniveau die Karten zusammenschiebt (Nano bei 300 € in 12-18 Monaten?). Und diese Größe (vielleicht 2500 Shader und 2 HBM-Chips) kann auf einer großen APU verbaut werden, die sich in professionellen Umgebungen verwenden läßt.

So, und dann lassen wir 2016 damit ausklingen, 2017 gibt es dann einen ganz fetten großen Chip und einen, der Fiji ziemlich gleichwertig ersetzt (nur eben billiger und etwas modernisiert). Man muß sich ja die Fertigung einteilen, nicht gleich alles verpulvern ;)

horn 12
2015-12-04, 10:19:43
Fand nicht gestern abend ein Event, Vorstellung für die Presse bei AMD statt
Durchgesickert ist da nix, von Artic Island oder der Fury X² Karte?

y33H@
2015-12-04, 11:25:36
Ein ein paar Stunden mit Raja gab's, ja. Stay tuned ;-)

Brillus
2015-12-04, 11:58:49
Wenn AMD 2017 eine APU mit HBM rausbringt (CPU- und GPU-Die getrennt), dann werden sie dafür einen Die wiederverwenden wollen. Ein Chip mit 1024 Shadern wäre super dafür, ein Stack HBM2 würde gut ausreichen, das wären bis zu 2 GB, was auch ausreicht. Angenommen, die IPC dieser 1024 Shader steigt noch etwas, dann wäre das doch eine gute Ablösung von Pitcairn, sehr sparsam und wohl auch ziemlich billig herzustellen: Nur ein Speicherchip statt acht, sehr einfaches PCB (dürfte aussehen wie eine USB-Controllerkarte^^), sehr einfacher Kühler möglich. Die Diefläche der GPU wird wohl nicht größer als die des HBM-Chips daneben, schätze ich.

Davon kann AMD dann jahrelang Abermillionen Stück verscherbeln und hoffentlich ordentlich Gewinn machen und gleichzeitig seinen Marktanteil nach oben katapultieren.

Wo der andere Chip dann angesetzt wird, hängt davon ab, wann der dritte Chip kommt und welche Chips der 300er Serie in welcher Reihenfolge sterben sollen. Wenn er mittig zwischen den o.g. 1024er und Fiji gesetzt wird, dann macht er längerfristig Tonga und Hawaii überflüssig, sobald das Preisniveau die Karten zusammenschiebt (Nano bei 300 € in 12-18 Monaten?). Und diese Größe (vielleicht 2500 Shader und 2 HBM-Chips) kann auf einer großen APU verbaut werden, die sich in professionellen Umgebungen verwenden läßt.

So, und dann lassen wir 2016 damit ausklingen, 2017 gibt es dann einen ganz fetten großen Chip und einen, der Fiji ziemlich gleichwertig ersetzt (nur eben billiger und etwas modernisiert). Man muß sich ja die Fertigung einteilen, nicht gleich alles verpulvern ;)

Ich habe im Kopf das HBM2 sogar bis zu 4GB pro Stack hinbekommt.

y33H@
2015-12-04, 12:08:23
Hynix und Samsung bauen Stacks mit 8 GByte.

Nakai
2015-12-04, 13:56:39
Ein ein paar Stunden mit Raja gab's, ja. Stay tuned ;-)

Kommt da noch was? ;)

Eventuell kommt etwas in Hinsicht von Multi-GPUs.
Wenn die Folien von Fudzilla einigermaßen Legit wären, und Zeppelin und Greenland per GMI-Links angebunden werden können, dann sollte das auch zwischen mehreren GPUs funktionieren. Bis zu 4 GMI-Links für ZEN und einer Greenland GPU.

AMD wird es definitiv versuchen ihre GPUs deutlich abstrahierter anzusprechen. Sei es einerseits wegen VR und andererseits wegen HPC mit Multiuser GPUs.

Nakai
2015-12-08, 15:19:35
Ahja, auf Zauba:

https://www.zauba.com/import-video-graphic-card-hs-code.html

1-Dec-2015 84733030 PRINTED CIRCUIT BOARD ASSEMBLY (VIDEO/GRAPHIC CARD)P/N 102-C98001-00 (FOC) Canada Hyderabad Air Cargo NOS 7 283,408 40,487

102-C98001-00

Fiji-Gemini ist das eher nicht, siehe Preis.

C98001 ist teurer als jeglicher Tonga und Hawaii.

Eine Arctic Island GPU?

€: Reinher vom Preis geht es eher in Richtung Performance-Finfet-GPU mit einem kleinem oder keinem Interposer.

Unicous
2015-12-08, 16:10:44
Reinher vom Preis "kostete" das mutmaßliche Nano PCB über 1,1K Dollar und ein paar Monate später nur noch ca. 450 Dollar.

1-Sep-2015 84733030 PRINTED CIRCUIT BOARD ASSEMBLY FOR PERSONAL COMPUTER(VIDEO/ GRAPHICS CARD) P/N .102-C88202-00 (FOC) Hong Kong Hyderabad Air Cargo NOS 4 121,194 30,298

26-Aug-2015 84733030 AMD C882 PRINTED CIRCUIT BOARD ASSEMBLY(VIDEO GRAPHIC CARD) P/N:102-C88202-00(FOC) Canada Hyderabad Air Cargo NOS 8 638,038 79,755

https://www.zauba.com/import-C88202-hs-code.html

Die Zollpreise sind Fantasiewerte, nichts weiter.;)

Arnoldie
2015-12-08, 16:19:06
AMD Radeon 2016: Spitzengrafik durch echtes HDR, DisplayPort 1.3 und HDMI 2.0a (http://www.heise.de/newsticker/meldung/AMD-Radeon-2016-Spitzengrafik-durch-echtes-HDR-DisplayPort-1-3-und-HDMI-2-0a-3035100.html)

Richtiges HDR unterscheidet sich dabei von dem gerne als "HDR" bezeichneten 3D-Effekt in Spielen, der lediglich einen HDR-ähnlichen Eindruck simuliert. Echte Hochkontrast-Bilder müssen Radeon-Grafikkarten mit 10 Bit pro Farbkomponente berechnen (1,07 Mrd. statt 16,7 Mio. Farben) und sie auf einem Monitor mit HDR-kompatiblem 10-Bit-Panel ausgeben. Derzeit gibt es lediglich einige wenige HDR-fähige Fernsehgeräte. Geeignete Computermonitore sollen im zweiten Halbjahr 2016 erscheinen

Können die Radeons seit dem R520 nicht 1010102 ausgeben?

w0mbat
2015-12-08, 16:20:20
Das ist nicht der Wert der Ware, sondern die Höhe der Versicherung.

Unicous
2015-12-08, 16:28:20
Das ist der von AMD selbst festgelegte Zollwert, denn da steht es ist free of charge (FOC). Den Zoll interessiert nicht, wie hoch die Ware versichert ist.:wink:

w0mbat
2015-12-08, 17:04:20
Der festgelegte Werte ist die Höhe der Versicherungssumme. Das ändert auch ein Smiley nicht.

Unicous
2015-12-08, 17:10:55
Ich kenne noch eins::rolleyes:

Belege es doch einfach, anstatt hier immer mit "Ich weiß es besser muss es aber nicht beweisen" aufzufallen.

Wenn überhaupt ist der Versicherungswert im Zollwert inkludiert und wird nicht extra ausgewiesen.

;):wink:

HOT
2015-12-08, 17:12:26
AMD Radeon 2016: Spitzengrafik durch echtes HDR, DisplayPort 1.3 und HDMI 2.0a (http://www.heise.de/newsticker/meldung/AMD-Radeon-2016-Spitzengrafik-durch-echtes-HDR-DisplayPort-1-3-und-HDMI-2-0a-3035100.html)



Können die Radeons seit dem R520 nicht 1010102 ausgeben?

Das nährt meine Theorie, dass da gar nix recycled wird und die aus 2 GPUs 6-7 Produkte zaubern werden.

y33H@
2015-12-08, 17:15:58
LE, SE, Pro, XT und XTX :biggrin:

Unicous
2015-12-08, 17:16:30
Das nährt meine Theorie, dass da gar nix recycled wird und die aus 2 GPUs 6-7 Produkte zaubern werden.
:confused:


Da steht u.a., dass die 300er Serie die meisten Features eh schon unterstützt, wenn überhaupt könnte man zu der Vermutung gelangen, dass fast nur "Produktpflege" betrieben wird.

w0mbat
2015-12-08, 18:12:32
Wenn überhaupt ist der Versicherungswert im Zollwert inkludiert und wird nicht extra ausgewiesen.

;):wink:

Da könnte was dran sein. Ich weiß nur, dass das etwas mit dem Versicherungswert zu tun hat.

Hübie
2015-12-08, 20:14:03
LE, SE, Pro, XT und XTX :biggrin:

THIS! Back to the roots ;D

@Unicous: Ich denke auch dass der Zollwert nicht gleich der Versicherungswert ist, sondern letzterer ein Teil des Zollwerts ist, aber woher weiß man das schon? :freak:
Hat sich jemand schon mal die Mühe gemacht darüber Buch zu führen? Wie war das bei GK110, GM200, Hawaii und Fiji? :confused:

Unicous
2015-12-10, 03:07:40
There were no GPU designs for 20nm they said. It couldn't be done they said.:rolleyes:

Unfortunately for RTG, they’re playing a bit of catch-up here, as the HDMI 2.0 standard is already more than 2 years old and has been supported by NVIDIA since the Maxwell 2 architecture in 2014. Though they didn’t go into detail, I was told that AMD/RTG’s plans for HDMI 2.0 support were impacted by the cancelation of the company’s 20nm planar GPUs, and as a result HDMI 2.0 support was pushed back to the company’s 2016 GPUs.
http://www.anandtech.com/show/9836/amd-unveils-2016-vistech-roadmap


Thanks Obam... GF and/or TSMC.

Kartenlehrling
2015-12-10, 09:19:00
Auch wenn es gerade bei Grafikkarten ein leichtes ist ein Firmware update durchzuführen, war der "Standard" mit sicherheit nicht vor 2 Jahr fest.
Wurde nicht anfang dieses Jahres ein HDMI2.0a festgelegt wo da schon nicht alle verkaufen HDMI2.0 TV-Geräte ein Update bekommen können?
Erst gestern habe ich gelesen das Ende August 2015 (war das nicht unsere IFAzeit) HDR (HDMI2.0a) abgesegnet wurde und da schreiben sie schon von HDMI2.1 .
Ausserdem habe ich auf eine Vesa pdf gelesen das HDMI2.0 aufjedenfall von DP1.2a erreicht wird, Club3D hat uns ja ein 35€ aktiven Adapter versprochen der alles kann.

Also HDMI das sowieso eine Erfindung unserer Film- und Medienindustrie ist als GPU-Designfeature zu nehmen, halte ich für Quatsch.
Das wichtigste an HDMI2.0 ist für die industrie nicht die Farben oder Gammerwerte sonder die Möglichkeit ihre Metadaten jederzeit abzufragen und manipulation zu verhindern.

fondness
2015-12-21, 19:49:19
Greenland kommt angeblich im Sommer 2016, Mass production Q2/2016 und wird in Samsung 14nm LPP Prozess hergestellt:
http://news.mydrivers.com/1/462/462538.htm

Unicous
2015-12-21, 20:17:32
Das kommt aber nicht von mydrivers direkt sondern irgendeinem Typen bei Weibo.

http://img1.mydrivers.com/img/20151221/edf6b26e9e4747868e6c9e3e2e26cec6.jpg

Ob es Greenland überhaupt gibt muss sich eh noch herausstellen.

fondness
2015-12-22, 14:02:12
Jedenfalls verdichten sich die Hinweise auf Samsung:
http://uk.reuters.com/article/us-samsung-elec-amd-chips-idUKKBN0U500P20151222

Scheint mal wieder so, als ob es GF nicht rechtzeitig gebacken bekommt....

Unicous
2015-12-22, 14:39:03
Ja, denn das waren nachweislich zwei unabhängige Quellen die das bestätigt haben.;)

Hier ist übrigens der Artikel auf den sich Reuters bezieht.

http://english.etnews.com/20151222200002


“Because Samsung Electronics and GF have same IP for 14-nano processing, chips that are designed by AMD will all be produced at both factories.” said a person who is familiar with this industry. “If products are produced from both factories, AMD won’t have to worry about a problem regarding lack of supplies.”

Diese Allgemeinplätze hätte wirklich jeder Spinner, der halbwegs einen geraden Satz zusammenbekommt, von sich geben können. Im Journalismus gilt übrigens das Prinzip der zwei voneinander unabhängigen Quellen. Von "verdichten" kann hier also nicht die Rede sein.;)

Das die Möglichkeit besteht, sollte nicht verwundern, darum ging es ja die ganze Zeit: GF als Second Source für Samsung. Nur stellt sich bei AMD die Frage: Warum? Rechnen sie wirklich mit so hohen Volumen, dass sie sich absichern. Oder ist GF's Variante so beschissen, dass sie auf den mittlerweile tried and true Prozess (als zumindest 14LPE) von Samsung aufspringen müssen um überhaupt noch Chips 2016 verkaufen zu können.

Im Endeffekt kostet das nämlich Geld. Und nein man kann natürlich nicht einfach das Design von einer Foundry zur anderen migrieren auch wenn sich die sehr stark ähneln. Es ist also nicht damit getan Samsung den Vertrag zu faxen und dann gehts los mit Produzieren.

Wenn an dem Gerücht wirklich etwas dran ist, hat GF mal wieder ordentlich verkackt. Denn AMD müsste sein Auftragsvolumen schon um ein Vielfaches erhöhen um GFs Foundries auszulasten. Näher liegt da die Erklärung, dass GF es nicht hinbekommen hat den Prozess rechtzeitig auf Massenproduktion hochzufahren bzw. die Yield-Rate ist weiterhin in den Kellergewölben angesiedelt.

Kartenlehrling
2015-12-22, 15:12:37
Kann doch was für Apple sein.

iuno
2015-12-22, 15:25:00
Was soll Apple damit zu tun haben? Ist doch klar, dass naechstes Jahr Summit Ridge und Arctic Islands kommen.
Waurm schreibt Reuters eigentlich, Samsung wuerde aktuell Chips fuer Nvidia bauen? Was soll das sein? Aktuelle GPUs und Tegra sind doch alle bei TSMC

Sunrise
2015-12-22, 16:05:23
Waurm schreibt Reuters eigentlich, Samsung wuerde aktuell Chips fuer Nvidia bauen? Was soll das sein? Aktuelle GPUs und Tegra sind doch alle bei TSMC
Es besteht die Möglichkeit, dass auch Parker von Samsung kommt. Der 14nm LPP eignet sich wohl auch hervorragend dafür. Fraglich, ob die Kapazität bei Samsung aber nicht langsam zur Neige geht. Ich bin immer noch fassungslos was die bald alles alleine stemmen, ohne jegliche Hilfe von extern.

Ob Reuters das aber gemeint hat ist fraglich, denn die beziehen sich wohl eher auf die Deal-Geschichte zwischen Samsung und NV, die vor einiger Zeit im Netz rumging.

DinosaurusRex
2015-12-22, 16:17:17
Die meinen sicher GDDR5 RAM Chips. HBM2 wird auch zum Teil von Samsung und von Hynix kommen.

iuno
2015-12-22, 18:09:48
Das hat aber mit Auftragsfertigung nichts zu tun. Nvidia oder die Boardpartner kaufen Speicher dort ja ganz normal ein.

Skysnake
2015-12-22, 23:16:52
Ja, denn das waren nachweislich zwei unabhängige Quellen die das bestätigt haben.;)

Hier ist übrigens der Artikel auf den sich Reuters bezieht.

http://english.etnews.com/20151222200002



Diese Allgemeinplätze hätte wirklich jeder Spinner, der halbwegs einen geraden Satz zusammenbekommt, von sich geben können. Im Journalismus gilt übrigens das Prinzip der zwei voneinander unabhängigen Quellen. Von "verdichten" kann hier also nicht die Rede sein.;)

Das die Möglichkeit besteht, sollte nicht verwundern, darum ging es ja die ganze Zeit: GF als Second Source für Samsung. Nur stellt sich bei AMD die Frage: Warum? Rechnen sie wirklich mit so hohen Volumen, dass sie sich absichern. Oder ist GF's Variante so beschissen, dass sie auf den mittlerweile tried and true Prozess (als zumindest 14LPE) von Samsung aufspringen müssen um überhaupt noch Chips 2016 verkaufen zu können.

Im Endeffekt kostet das nämlich Geld. Und nein man kann natürlich nicht einfach das Design von einer Foundry zur anderen migrieren auch wenn sich die sehr stark ähneln. Es ist also nicht damit getan Samsung den Vertrag zu faxen und dann gehts los mit Produzieren.

Wenn an dem Gerücht wirklich etwas dran ist, hat GF mal wieder ordentlich verkackt. Denn AMD müsste sein Auftragsvolumen schon um ein Vielfaches erhöhen um GFs Foundries auszulasten. Näher liegt da die Erklärung, dass GF es nicht hinbekommen hat den Prozess rechtzeitig auf Massenproduktion hochzufahren bzw. die Yield-Rate ist weiterhin in den Kellergewölben angesiedelt.
Normal ja, aber sind die Prozesse bei GF und Samsung nicht 100% identisch in diesem Fall.

GF, Samsung und IBM waren ja zusammen in einer FAB-Allianz, wo es darum ging Kunden eben genau diese Möglichkeit zu Eröffnen. Wirklich gesehen hat man davon bisher meines Wissens nach nur noch nichts. Wäre also durchaus machbar, sofern es wirklich wirklich um den gleichen Prozess handelt.:wink:

Unicous
2015-12-23, 00:56:58
Es sind nicht 100% die gleichen Prozesse, schon allein weil GF wohl einige Arbeitsschritte (und Tools?!) von 14XM im FEOL übernommen hat, so jedenfalls die Gerüchte vor fast 1 1/2 Jahren.

Und natürlich gibt es die ein oder anderen kleinen Unterschiede, es dürfte mE daher auch Mehrkosten geben, wenn sie ein design bei beiden Foundries in Auftrag geben. Und weder hat AMD das standing noch lässt sich Samsung übervorteilen. Nur ein OEM darf sie erpressen und das ist Apple.;)

Das passt IMO nicht zusammen. Entweder sie lassen verschiedene designs fertigen, was durchaus Sinn machen würde oder sie denken sie hätten so ein heißes Eisen im Feuer, dass sie die nicht vorhandene Kohle verfeuern müssten.


Oder sie wollen in einem großen Fiasko untergehen. Diese Möglichkeit besteht auch noch.:freak:

Nakai
2015-12-23, 01:12:18
Die Kosten, wenn man zwei "unterschiedliche" Prozesse unterstützt, gehen definitiv nach oben. Bestimmte IP wird dann eben für zwei Prozesse integriert, was definitiv den Aufwand erhöhen wird, je nachdem wie unterschiedlich die Prozesse sind.

Ich denke, der Zen ging auf den GF-Prozess und die GPUs gehen zu Samsung. Kann auch ein Grund bezüglich den Stückzahlen des Prozesses sein, je nachdem wie hoch Yields und die Produktionsrate ist.

y33H@
2015-12-23, 10:04:43
Die Frage ist, welcher Chip das ist, der in 14LPP vom Band läuft. Grönland ist größer als die Baffininsel, aber vll ist das ja Verschleierungstaktik. Einerseits traue ich GF kein hohes Voumen zu um genug kleine Chips zu bauen, mit Samsung parallel aber schon. Umgekehrt scheint TSMCs 16FF+ gut zu laufen.

fondness
2015-12-23, 10:09:21
Das bisschen Volumen das AMD benötigt kann GF locker liefern. Das Problem ist für GF zurzeit eher, dass AMD zu wenig Wafer abnimmt. Der Vergleich 14nm LPP vs. 16FF+ lässt sich zurzeit noch unmöglich bewerkstelligen, da es von beiden Prozessen noch keine Chips im Handel gibt AFAIK. Die mobil-Prozessoren laufen alle mit der ersten Generation von FinFET Prozessen.

HOT
2015-12-23, 10:23:14
Wenn die bei Samsung als Fertiger gewählt haben, dann haben die das schon vor MONATEN getan. Dabei auf GloFos Yield zu schließen ist total bescheuert.

horn 12
2015-12-23, 10:53:24
Die Frage ist ab wann es AMD schafft die Fury X um mindestens +30% zu überflügeln, gepaart mit 8GB HBM-2.
Dies wird in knapp einem Jahr sein, wenn gar nicht erst 2017

Leonidas
2015-12-23, 12:57:15
Im Endeffekt kostet das nämlich Geld. Und nein man kann natürlich nicht einfach das Design von einer Foundry zur anderen migrieren auch wenn sich die sehr stark ähneln. Es ist also nicht damit getan Samsung den Vertrag zu faxen und dann gehts los mit Produzieren.


Jein. Grundsätzlich hast Du Recht. Aber in diesem Fall werben Samsung & GF regelrecht damit, daß diese einfache Übertragung möglich sein soll.

Unicous
2015-12-23, 14:30:14
Und ich sagte ja bereits, dass die Prozesse nicht 100% die Gleichen sind auch wenn es so propagiert wurde. Für Apple sind die zusätzlichen Kosten wahrscheinlich nicht vorhanden, denn man schluckt die als Foundry eben bei solchen Volumen. AMD kann sich solche Mehrausgaben nicht leisten denn die paar Milliönchen Chips die sie verkaufen sind im Vergleich nur ein Tropfen auf den heißen Stein.

Nicht zuletzt auch wegen der Gerüchte, dass die Yield-Rate für die Apple SoCs bei 30%(LPE) gelegen haben soll, zeigt ja eindeutig, dass bei dem "kopierten" Prozess nicht viel rund läuft (auch wenn es bei Samsung wohl seinerzeit auch nicht besser aussah).

Menace
2015-12-23, 14:45:11
Nicht zuletzt auch wegen der Gerüchte, dass die Yield-Rate für die Apple SoCs bei 30%(LPE) gelegen haben soll, zeigt ja eindeutig, dass bei dem "kopierten" Prozess nicht viel rund läuft (auch wenn es bei Samsung wohl seinerzeit auch nicht besser aussah).

:eek: Gerücht zeigt eindeutig? Ich liebe ja rhetorische Stilmittel, wie zum Beispiel hier das Paradoxon. Aber obwohl man gerne Spekulieren kann, sollte man nicht ins esoterische Abdriften und auch auf die Wahl der Wörter achten.
Kannst Du Deine Thesen belegen?

Unicous
2015-12-23, 15:36:27
Thesen belegen?

Die Gerüchte gab es schon vor Monaten und GF hinkt defacto ihrem Zeitplan hinterher. Es gibt zahlreiche Berichte über Probleme bei GF bezüglich 14nmLPE, ist ja jetzt nicht so als würde ich mir das ausdenken.

Dorn
2015-12-23, 17:17:23
Die Frage ist ab wann es AMD schafft die Fury X um mindestens +30% zu überflügeln, gepaart mit 8GB HBM-2.
Dies wird in knapp einem Jahr sein, wenn gar nicht erst 2017

Also Zeitlich finde ich das äußerst negativ gesehen. Ich hoffe doch sehr, das Anfang Herbst 2016 entsprechendes Erscheint.

Menace
2015-12-23, 18:33:50
Thesen belegen?


Was denn sonst. (https://de.wikipedia.org/wiki/These)
"Eine These ist ein Gedanke oder Satz, dessen Wahrheitsinhalt eines Beweises bedarf."

Unicous
2015-12-23, 21:45:12
Da quatscht du hier großmäulig von Spekulationen und dann willst du das ich das belege.
Ich könnte ja für dich die Bilanzbücher klauen um es dir zu beweisen, habe aber keinen Lust dafür ins Gefängnis zu wandern.

So bleibt nur 1 und 1 zusammenzählen. Die besagten Gerüchte a.k.a schlecht gehütete Geheimnisse sollten ja bei GF nicht zu Nasenrümpfen führen.
GF bekommt es nicht gebacken und hat an allen Fronten Probleme. Sie bekommen den Laden einfach nicht auf Vordermann. Und das ist ein Dauerzustand seit mittlerweile über 6 Jahren.

Menace
2015-12-23, 22:05:52
Deine persönlichen Angriffe treffen mich immer noch nicht; Du kannst also Deine Dampfplauderei sparen ;). Ich rümpfe auch weiterhin die Nase, wenn man "Gerücht" und "eindeutig belegen" in einen Topf schmeißt und nicht weiß, was Thesen sind.

Unicous
2015-12-24, 02:21:28
Na dann.

Leonidas
2015-12-24, 08:47:00
Das mit der weihnachtlich besinnlichen Stimmung müsst ihr noch üben ...

Hübie
2015-12-24, 09:06:58
X-D Ich dachte auch nur, was für eine tolle weihnachtliche Stimmung hier wieder herrscht.

Im Grunde hat Menace ja Recht, denn Gerüchte müssen bestätigt werden um eindeutig belegt zu sein. Auch wenn wir alle stark vermuten dass es so ist wie Unicous sagt. Nur sind beide eben keine Leuchten was soziale Kompetenz angeht. ;D In diesem Sinne: Frohes Weihnachtsfest.

Menace
2015-12-24, 09:31:18
. Nur sind beide eben keine Leuchten was soziale Kompetenz angeht. ;D In diesem Sinne: Frohes Weihnachtsfest.

Bei Deiner Wortwahl kann ich jetzt Deine Anfrage bestätigen: Du bist in unserem Bunde der Dritte (http://www.kombu.de/buergsch.htm). :biggrin: [Edit: Natürlich der Sozial-Kompetenten Dimmlichtern]

Ailuros
2015-12-24, 15:52:02
Frohe Weihnachten an alle und ich will auch mit meinem Dickkopf gegen die Wand knallen. Ich wette eher auf 16FF+ TSMC weil:

1. es bis jetzt nicht eine einzige GPU Generation der letzten Jahre gab die nicht "angeblich" bei Glofo hergestellt wurde....dummerweise jedesmal Duenschiss sondern immer bis jetzt APUs.

2. Samsung's Prozesse haben schon zumindest seit 28nm zu hohe variable voltages; klingt nicht besonders "ideal" fuer einen hochkomplizierten GPU chip.

3. Sind wir mit den Maerchen mit dem uebertollen Samsung FF Prozess immer noch nicht ueber den Berg? Ja das Zeug ist "toll" fuer ihre eigenen SoCs die sie auch zufaellig selber entwickelt haben, aber TSMC hat auch jahrelange Erfahrung mit hochkomplizierten GPU chips.

4. AMD ist gerade JETZT in der Position irgendwelche sehenswerte Risikos einzugehen....

:rolleyes:

Es besteht die Möglichkeit, dass auch Parker von Samsung kommt. Der 14nm LPP eignet sich wohl auch hervorragend dafür. Fraglich, ob die Kapazität bei Samsung aber nicht langsam zur Neige geht. Ich bin immer noch fassungslos was die bald alles alleine stemmen, ohne jegliche Hilfe von extern.

Ob Reuters das aber gemeint hat ist fraglich, denn die beziehen sich wohl eher auf die Deal-Geschichte zwischen Samsung und NV, die vor einiger Zeit im Netz rumging.

Ich will zwar nicht darauf bestehen aber meine Infos insgesamt tape out fuer Parker sind alle fuer 16FF+ TSMC und das schon seit vorigen Fruehling.

Locuza
2015-12-24, 16:20:15
Frohe Weihnacht. =)

1. Irgendwann muss es aber klappen. :redface:
2. Für High-Performance-CPUs ist das noch weniger "ideal".
3. Super toll nicht, hoffentlich aber auch nicht super crappy.
4. Wenn ich wetten müsste, würde ich meinen es bleibt bei TSMC und GloFo.

2016 gibt es keine FinFET APUs von AMD*, sondern nur GPUs und Zen CPUs.
Eine Sache hat AMD bisher bestätigt und das sind mehrere Tape-Outs von irgendwelchen Chips bei GloFo.

* Wer weiß, was genau AMD als Semi-Custom, unter welchen Prozess brütet.

iuno
2015-12-24, 16:31:31
Und woher weißt du, dass Bristol und Stoney Ridge definitiv nicht in einem FinFET kommen? Je nachdem wann Raven Ridge kommt könnte sich ein shrink vielleicht schon noch lohnen. Es hieß ja BR kommt erst kurz vor SR, zudem gibt es ja bisher nichts für AM4 sondern nur mobil. Ganz ausschließen würde ich das noch nicht

Btt: so viel schlechter kann der Samsung Prozess doch fast nicht sein. Zudem ist ja wohl ohne Zweifel alles deutlich besser als aktuell 32/28nm. Wenn GF selbst sagt, dass irgendwas von AMD von GF kommt, wird das wohl stimmen. Ist eigentlich noch davon auszugehen, dass AMD bei GF billiger weg kommt?

Locuza
2015-12-24, 16:37:05
Wie viel Sinn macht es, noch einmal ordentlich Geld in einen shrink zu pumpen, für veraltete IP?

Hübie
2015-12-24, 16:54:11
Öhm. Warte. Null? Zumindest nicht für den Markt. Zu Testzwecken kann man das machen.

@Menace: Ich wusste dass du das sagst :D Auch wenn man es im Nachhinein immer sagen kann...

Unicous
2015-12-24, 19:32:49
@iuno

Weil Bristol Ridge Carrizo ist, da gibt es auch keine Debatte.

Stoney Ridge ist ein kastrierter Carrizo, warum sollte man so einen Nischen-Chip in einem teuren Verfahren fertigen, wenn es eh nur ein Lückbüßer wie Bristol Ridge ist und man den Chip von Grund auf neu designen müsste (hinzu kommen die prozesstechnischen Schmankerl die AMD Carrizo angedeihen ließ).

28nm ist nunmehr tried an true und so etwas wie Stoney ist jetzt kein großer Akt. 2 Cores, 5 CUs, ein Speichercontroller weg und fertig ist der Chip.

Was meinst du übrigens "zudem gibt es ja bisher nichts für AM4 sondern nur mobil"?. Die Test-Boards fliegen schon umher und ich habe auch schon einen Eintrag bei Sisoft Sandra gefunden (über Google und Snippets, leider kann man nicht mehr unangemeldet zugreifen).


edit: Von Stoney gab es ja auch schon einen Eintrag.

http://cdn.wccftech.com/wp-content/uploads/2015/11/AMD-Stoney-Ridge-Processor.jpg

Sunrise
2015-12-24, 21:20:59
Ich will zwar nicht darauf bestehen aber meine Infos insgesamt tape out fuer Parker sind alle fuer 16FF+ TSMC und das schon seit vorigen Fruehling.
Dafür ist aber Erinyes die derzeit einzige Quelle. Und der ist sich nicht sicher. ;)
16FF+ TSMC ist der Tipp, wenn man auf Nummer sicher gehen will. 14nm LPP hat noch keiner gesehen, mit dem 14nm der ersten Generation kann man den nicht vergleichen.

Ist eigentlich auch egal, bei TSMC sollte jedenfalls mehr Kapazität frei sein. Schöne Weihnachten!

y33H@
2015-12-24, 21:57:36
Ich hatte Anfang November schon gesagt, GPUs werden von GloFo (14LPP) und und TSMC (16FF+) kommen, meine Quellen waren ziemlich deutlich.

iuno
2015-12-24, 22:55:51
@unicous: damit meine ich natürlich nicht, dass nichts existiert, sondern dass es nichts auf dem Markt zu kaufen gibt. Die boards haben davon mal ab mit der Fertigung der APU ja nichts zu tun.
Dass Stoney und Bristol keine Veränderungen an der Architektur bringen ist schon klar. Aber stoney gibt es noch nicht, wird also auf jeden Fall neu aufgelegt. Warum also nicht in 14FF? Das zeug ist vergleichsweise winzig und wenn die yields nicht so schäbig sind ist das dann nicht exorbitant teuer. Und weil es so sehr auf Zen und Arctic ankommt wäre doch ein kleiner testchip durchaus nicht verkehrt. War nicht intels erster in 14nm der Core M?
Und wie gesagt, die Sinnhaftigkeit dieser Überlegungen hängt auch stark davon ab, für welchen Zeitraum RR geplant ist. Carrizo ist nicht schlecht, wird aber trotzdem nicht verbaut. Für hohe Taktraten taugt er offenbar zudem weniger als der Vorgänger. Sollte raven also erst Ende 2017 kommen hat man schon ein ziemlich dickes Problem, imho.
Aber das ist hier langsam ziemlich OT
Frohe Weihnachten :)

Ailuros
2015-12-26, 09:15:11
Dafür ist aber Erinyes die derzeit einzige Quelle. Und der ist sich nicht sicher. ;)
16FF+ TSMC ist der Tipp, wenn man auf Nummer sicher gehen will. 14nm LPP hat noch keiner gesehen, mit dem 14nm der ersten Generation kann man den nicht vergleichen.

Ist eigentlich auch egal, bei TSMC sollte jedenfalls mehr Kapazität frei sein. Schöne Weihnachten!

Erinyes ist nicht der einzige Vogel der oeffentlich zwitschert und dabei ist in letzter Zeit mit Absicht mit seinen Aussagen vorsichtiger geworden. Aber wenn es schon sein muss: https://forum.beyond3d.com/posts/1848483/

So wie voltages auf Samsung's Prozessen schwanken wuerde ich keine so hohe GPU Frequenzen unter diesem haben wollen.

OBrian
2015-12-26, 14:19:56
Aber stoney gibt es noch nicht, wird also auf jeden Fall neu aufgelegt. Warum also nicht in 14FF? Weil man dann nicht die Zen-Kerne, die in 14-nm-Bauform in der Schublade liegen, verwenden könnte, sondern die alte Architektur nochmal portieren müßte, das ist viel größerer Aufwand als gleich eine Zen-APU zu bauen (an der ja auch schon gewerkelt wird, bzw. dürfte auch schon ziemlich fertig sein). Mit der alten Architektur einen neuen Chip zu bauen, ist in 28nm praktisch nur copy&paste, bzw. muß man sogar nur vom Carrizo-Bauplan was wegschneiden und hat Stoney fertig. 5 Minuten Arbeit sozusagen.

Stoney wird damit dann kein Pilotchip für 14nm, aber ob man den überhaupt braucht? Wahrscheinlich reichen da auch Testchips. Anfängliche Yield-Probleme mit der Zen-8c-CPU sind evtl. nicht so schlimm, da der in einen Marktbereich geht, wo die Preise das abfangen und auch nicht so irre Mengen gebraucht werden wie bei Chips des unteren Mainstreams.

horn 12
2015-12-28, 22:47:41
Nix Neues auf Zauba von Artic Island oder gar von NV ?

HOT
2015-12-29, 09:55:32
Ich hatte Anfang November schon gesagt, GPUs werden von GloFo (14LPP) und und TSMC (16FF+) kommen, meine Quellen waren ziemlich deutlich.
Da liegen deine "Quellen" wohl daneben, wenn jetzt nur noch ausschließlich von GloFo und Samsung die Rede ist.
http://www.planet3dnow.de/cms/21675-samsung-als-chip-fertiger-fuer-amd-ab-2016/
Natürlich gibt es weiterhin keine Fakten, aber ich wette, dass TSMC erst mal aus dem Rennen ist bei AMD. AMD soll angeblich auf 14LPP Gen.2 setzen, was erst bei Samsung vom Band laufen wird und erst später bei GloFo. Es bleibt alles also weitestgehend unklar, was genau passieren wird.

Ailuros
2015-12-29, 10:45:56
Er hat mit Sicherheit Quellen und dazu auch ziemlich akkurate im Gegensatz zu Deiner konstanten Kaffesatzleserei.

AffenJack
2015-12-29, 11:19:13
Da liegen deine "Quellen" wohl daneben, wenn jetzt nur noch ausschließlich von GloFo und Samsung die Rede ist.
http://www.planet3dnow.de/cms/21675-samsung-als-chip-fertiger-fuer-amd-ab-2016/
Natürlich gibt es weiterhin keine Fakten, aber ich wette, dass TSMC erst mal aus dem Rennen ist bei AMD. AMD soll angeblich auf 14LPP Gen.2 setzen, was erst bei Samsung vom Band laufen wird und erst später bei GloFo. Es bleibt alles also weitestgehend unklar, was genau passieren wird.

Du warst vor 1 Woche auch hier im Thread, als Samsung als Fertiger ins Spiel gebracht wurde ausgehend von der gleichen Quelle. Nun postest nochn Link zu dem gleichen Zeug und fühlst dich davon untermauert? Rofl. Ne Quelle wird nicht glaubwürdiger, desto öfter man sie posted:wink: Die koreanischen Medien sind in Sachen Samsung meist ganz gut, aber man sollte sie nicht ernst nehmen in Sachen TSMC, bei den taiwanern genau andersrum. Glaubwürdig ist, dass AMD auch Samsung mit im Boot hat. Aber ich bezweifle, dass TSMC draussen ist.

davidzo
2015-12-29, 11:55:04
Wieso wird eigentlich das einfachste aller Argumente außer acht gelassen?


Samsung kommt weder für eine AMD APU noch Arctic Islands in Frage, nicht aus technischen Gründen (auch wenn es da genug gibt, technische Gründe sind selten für Firmenpolitische Entscheidungen ausschlaggebend, leider), sondern aus finanziellen- und Kapazitätsgründen!

Samsung hat gerademal ein Zehntel des Halbleiterumsatzes von TSMC. Die haben neben dem Apple Auftrag kaum genug Kapazität um selber ein bisschen an Exynossen herumzubasteln. Samsung hat in den Top3 der Foundries gar nichts zu suchen, da sind TSMC, UMC, GloFo, die jeder ein vielfaches des Umsatzes der samsung sparte machen.
Auch Globalfoundries hat fast den doppelten Umsatz mit Halbleitern und das gänzlich ohne umsatzstarke moderne Prozesse kleiner als 28nm (stand ende 2014)...

Sicher, die marktanteile sind nicht bezogen auf die fortschrittlichsten Prozesse 14/16nm, aber es zeigt einmal mehr, das Samsung eine exotische Exklusivmanufaktur ist. Wenn man nach Stückzahlen geht liegt Samsung noch viel weiter hinten im Feld, erziehlen die 14nm chips doch eher einen hohen ASP.
Ein teures Hobby der größten Elektroniktechnologiefirma der Welt!
Wieso verzichtet man auf die günstigeren nodes? - Weil man das ganze Foundrybusiness eher als Forschungs- und Patentgeschäft sieht in dem man nicht zurückbleiben möchte und man es sich leisten kann.
Die Tatsache dass ein zugekaufter Snapdragon insgesamt billiger ist als ein selbst hergestellter Exynos, was samsung offen zugibt, spricht Bände.

APUs und GPUs bringen mit am wenigsten $ pro Fläche ein, verglichen mit anderen 14/16nm Anwendungen. Dafür kommt nur das absolut billigste in Frage. Globalfoundries braucht solange für die Umrüstung auch nicht weil der Prozess so schwierig ist, sondern weil man das ganze auf einen ganz anderen Kostenrahmen auslegt als Samsung. Es soll schließlich am Ende rentabel große GPUs und APUs ausspucken, ohne exorbitante Investitionssummen zu verschlingen. Das war ja der eigentliche grund wieso man samsungs lizenz hat und nicht selber entwickelt. Da spielt der Zeitrahmen kaum eine Rolle, eher wieviele alte werke und maschinen können wir noch benutzen und wie optimiert man die serienfertigung und den warenfluss?

Bei TSMC ist es dasselbe, die sind auf Massenproduktion ausgelegt und deutlich günstiger als Samsung. Allerdings scheint TSMC den beinahe 50% Marktanteil den man hat, auch gut auszunutzen um die Preise oben zu halten. Die Gewinne die man in Taiwan einfährt sind jedenfalls die letzten Jahre nicht übel, obwohl ein Großteil davon gerade wieder in neues Equipment gesteckt wird. Trotzdem ist TSMC zu ganz anderen Volumen und Chipgrößen fähig als Samsung und wahrscheinlich auch noch wirtschaftlicher als Glofo.


Samsung kommt aber durchaus für eine test/risk produktion in Frage, umd ie chips früher testen zu können. Zumal man dann die Masken mitnehmen kann und billig bei Glofo weiter bauen kann. Samsung für eine Serienproduktion von amd APUs / GPUs? = keine Chance.

reaperrr
2015-12-29, 13:01:31
@davidzo: Meinst du das ernst?

Zunächstmal reden wir bei AMD von Stückzahlen, die verglichen mit Samsung selbst, Qualcomm und mittlerweile (leider) selbst Nvidia absolut lächerlich sind.

Wenn Samsung für 14LPP nur ein Zehntel der TSMC-16FF+ Kapazitäten hat, reicht das noch immer doppelt und dreifach, um ein oder zwei (oder mehr) Chips für AMD im Tandem mit GloFo herzustellen. Dass Apple die 14LPP Kapazitäten von Samsung zu 100% auslastet kann ich mir nicht ganz vorstellen, an Apple's Stelle würde ich nicht mehr Auftragsvolumen als unbedingt notwendig an direkte Konkurrenten vergeben.

Ich glaube, du überschätzt den Bedarf von AMD.

Nightspider
2015-12-29, 14:17:36
Wie kommst du darauf das die Stückzahlen von AMD im Vergleich zu Nvidia lächerlich sind? Realitätsverweigerung? :ugly:
Oder definiere mal "lächerlich klein" für uns.

fondness
2015-12-29, 14:25:14
Wenn Zen gut wird, braucht AMD auf jeden Fall eine ganze Fab nur dafür. Natürlich, wenn man weiter bei keinem Marktanteil herum murkst, dann reicht auch weniger.

Hübie
2015-12-29, 14:39:08
Mich beschleicht das Gefühl er meint damit jegliche Chips. Egal ob SoC, SB, Graka oder CPU. :|

Ailuros
2015-12-29, 15:28:32
Mich beschleicht das Gefühl er meint damit jegliche Chips. Egal ob SoC, SB, Graka oder CPU. :|

Das ist doch die ewige Geschichte mit AMD; sie stellen seit Glofo gegruendet wurde bei diesen her nur eben keine GPU chips bis jetzt. Eine jegliche Aussage dass AMD bei GloFo und/oder Samsung herstellt muss nicht automatisch heissen dass auch reine GPU chips darunter liegen und wenn ja dann auch nicht unbedingt alle. Ich weiss zwar nicht wie sie es bei AMD sehen, aber ich wuerde persoenlich nicht das Risiko eingehen und meine komplizierten Tiere rueberschicken.

Hübie
2015-12-29, 15:47:12
Wenn überhaupt, dann nur bekanntes Design mit bekannten Prozess portieren. Ansonsten hätten deren Manager bei der Entscheidungstheorie gepennt.

Unicous
2015-12-29, 16:09:37
Das ist doch die ewige Geschichte mit AMD; sie stellen seit Glofo gegruendet wurde bei diesen her nur eben keine GPU chips bis jetzt. Eine jegliche Aussage dass AMD bei GloFo und/oder Samsung herstellt muss nicht automatisch heissen dass auch reine GPU chips darunter liegen und wenn ja dann auch nicht unbedingt alle. Ich weiss zwar nicht wie sie es bei AMD sehen, aber ich wuerde persoenlich nicht das Risiko eingehen und meine komplizierten Tiere rueberschicken.

Es wurde wohl schon mindestens ein GPU-design bei GF hergestellt.

https://www.techpowerup.com/gpudb/images/c389.jpg
"Oland"
https://www.techpowerup.com/gpudb/2727/radeon-r5-330-oem.html

TSMC hat mE keine Fab bzw. Assembly Line in Malaysia, AMD schon (/noch).

OBrian
2015-12-29, 23:20:06
und lange schon APUs, die ja auch GPUs enthalten. Warum soll man für Llano/Trinity/Kaveri kein GPU-Knowhow benötigen bzw. sich erarbeiten, nur weil eine CPU mit dranhängt?

Ebenso baut TSMC die ganzen Cat-APUs, d.h. da wurden genauso CPUs für entwickelt.

Aber mit einerseits neuer Fertigung und andererseits neuer Architektur (nicht nur Zen, auch Arctic Islands soll substanziell anders sein) muß man doch eh komplett neu anfangen, die 14nm-Fertigung eines Fertigers hat doch mit der 28-nm-Version aus gleichem Hause so wenig zu tun wie mit der jedes anderen Fertigers. Also können sie auch zu Samsung oder wem auch immer gehen.

davidzo
2015-12-29, 23:57:26
@davidzo: Meinst du das ernst?

Zunächstmal reden wir bei AMD von Stückzahlen, die verglichen mit Samsung selbst, Qualcomm und mittlerweile (leider) selbst Nvidia absolut lächerlich sind.

Wenn Samsung für 14LPP nur ein Zehntel der TSMC-16FF+ Kapazitäten hat, reicht das noch immer doppelt und dreifach, um ein oder zwei (oder mehr) Chips für AMD im Tandem mit GloFo herzustellen. Dass Apple die 14LPP Kapazitäten von Samsung zu 100% auslastet kann ich mir nicht ganz vorstellen, an Apple's Stelle würde ich nicht mehr Auftragsvolumen als unbedingt notwendig an direkte Konkurrenten vergeben.

Ich glaube, du überschätzt den Bedarf von AMD.

Der Bedarf von AMD ist "billig" zu sein. In sofern ist man dort mit Qualcomm und Apple einfach nicht vergleichbar. Man braucht eine neue Technologie, aber nicht um jeden Preis. In erster Linie braucht man einen geringen Preis pro Transistor, der Rest ist zweitrangig...

Wie kommst du darauf das die Stückzahlen von AMD im Vergleich zu Nvidia lächerlich sind? Realitätsverweigerung? :ugly:
Oder definiere mal "lächerlich klein" für uns.

Dito, aktuell hat AMD trotz kleinerem Marktanteil bei GPUs die teils deutlich größeren chips, von der waferabnahme werden die nicht groß hinter nvidia liegen. Auch dass seit 3 Jahren dieselben ollen Chips gebaut werden spricht eher für einen "masse statt klasse" Deal.

Allerdings glaube ich das Samsung einfach in erster Linie wegen des Preises nicht infrage kommt, weil deren Fertigungsprozesse nicht auf den günstigsten durchsatz optimiert sind, wie etwa glofo oder tsmc. Dafür ist samsung zu viel technologiefirma und technologieführer. Für ein Ramschprodukt wie AMD APUs oder den kleinen Markt der Highend Grafikchips ist das nicht das richtige.

Nirgendwo in der Industrie bekommt man so viele Transistoren für so wenig Geld, wie bei GPUs. Da kommen eben nur die billigsten Fertigungsprozesse in Frage...

basix
2015-12-30, 09:38:10
Nirgendwo in der Industrie bekommt man so viele Transistoren für so wenig Geld, wie bei GPUs. Da kommen eben nur die billigsten Fertigungsprozesse in Frage...

Ramsch, billig, Masse statt Klasse...hast du auch positive Beschreibungen für AMD im petto? :rolleyes:

GPUs sind definitiv nicht günstig, ebenso CPUs. Allein durch die Chipgrösse und Design-Kriterien (Komplexität, Taktrate, Packdichte, Watt/mm2, etc) sind sie Hochtechnologie, egal von welchem Designer/Hersteller. Und ausserdem: Am meisten Transistoren fürs Geld bekommt man schon immer bei Speicher, z.B. Flash oder DRAM ;)

Ailuros
2015-12-30, 10:27:06
Es wurde wohl schon mindestens ein GPU-design bei GF hergestellt.

TSMC hat mE keine Fab bzw. Assembly Line in Malaysia, AMD schon (/noch).

i stehe corrected :freak:

reaperrr
2015-12-30, 11:37:56
Wie kommst du darauf das die Stückzahlen von AMD im Vergleich zu Nvidia lächerlich sind? Realitätsverweigerung? :ugly:
Oder definiere mal "lächerlich klein" für uns.
Bezogen auf GPUs und ~20% Marktanteil. Also nur ~1/4 des (GPU-)Volumens von Nvidia. Gut, "lächerlich" mag in dem Fall übertrieben sein. Das war auch mehr auf den Vergleich mit Samsung und QC bezogen.

Ich bleibe jedenfalls dabei, dass die Produktion bei Samsung mMn nicht an Kapazitätsgründen scheitern würde, so klein sind Samsungs Fabriken nun auch wieder nicht (sonst hätten sie Apple gar nicht erst als Kunden gewinnen können).

Es ist eher so, dass TSMC im Vergleich einfach riesig ist.

reaperrr
2015-12-30, 11:50:43
Dito, aktuell hat AMD trotz kleinerem Marktanteil bei GPUs die teils deutlich größeren chips, von der waferabnahme werden die nicht groß hinter nvidia liegen.
Sorry, aber das ist Blödsinn.

Einziger echter Negativ-Ausreißer ist Tonga, der deutlich größer als GM206 und nah an GM204 ist.
Die restlichen AMD-Chips sind kaum größer als der jeweilige direkte Konkurrent. Fiji ~= GM200, Hawaii ~= GM204 +10%, Pitcairn ~= GM206 -5%, Bonaire ~= GM107 +15%. Alles vernachlässigbar.
Alles unter 3-fachem Wafer-Volumen für Nvidia würde mich stark wundern. Ich tippe auf mehr, zumal sie von GM200 sicher einige wegwerfen müssen (alle, bei denen was anderes als 1-2 SMM kaputt ist).

davidzo
2015-12-30, 12:35:51
Ramsch, billig, Masse statt Klasse...hast du auch positive Beschreibungen für AMD im petto? :rolleyes:

Ich finde das nicht negativ, "so viele Transistoren für so wenig Geld" finde ich eigentlich ne positive Sache. Das ist es doch was GPUs neben den Spielen so interessant macht: Man bekommt Silizium das sonst nur in supercomputern eingestetzt mit einer leistung wie ganze serverschränke mit cpus, erschwinglich und für zu hause.


GPUs sind definitiv nicht günstig, ebenso CPUs. Allein durch die Chipgrösse und Design-Kriterien (Komplexität, Taktrate, Packdichte, Watt/mm2, etc) sind sie Hochtechnologie, egal von welchem Designer/Hersteller. Und ausserdem: Am meisten Transistoren fürs Geld bekommt man schon immer bei Speicher, z.B. Flash oder DRAM ;)

Vorsicht, ich habe nicht gesagt günstig. Sondern günstig pro Transistor. Das ist ein erheblicher Unterschied!

Pro Transistor wird hier so wenig Handarbeit wie möglich angelegt, anders wären die 8Milliardenmonster von heute mit einer Entwicklungszeit von wenigen Jahren kaum denkbar.
Speicher ist damit nicht vergleichbar, das weißt du auch, weil wirklich andere Prozesse eingesetzt werden als für Logik. Das wäre jetzt ein bewusstes Missverstehen von dem Kontext den ich ausgeführt habe.
Wir wissen alle, dass in CPUs wie intels skylake, apples a9 oder qualcomms snapdragion 820 und selbst in amds jaguar deutlich mehr engineering pro transistor steckt als in einem 8Milliarden Transistor Fiji chip.

Apple hat schon immer gerne große Caches verbaut. Das erhöht die Leistung ohne den Lastverbrauch groß zu beeinflussen und da die CPUkosten bei Apple kaum eine rolle spielen...
Beim A9X den L3-cache wegzugelassen kann also als Novum gesehen werden. Sicher, lpddr4 ist schnell und das doppelt so breite Interface holt einiges wieder heraus, nichtsdestotrotz haben die Fertigung bzw. Kosten bei dieser Entscheidung sicher auch eine Rolle gespielt.
Und der A9x ist nur 147mm2...

http://www.hardwareluxx.com/index.php/news/hardware/cpu/37333-apples-a9x-to-have-less-cache-custom-gpu-and-higher-memory-bandwidth.html

Spätestens dann sollte einem klar sein, dass die Fertigungsmethoden des A9X nicht direkt auf eine 500mm2 GPU übertragbar sind. Da müssen noch viele Produktionsoptimierungen passieren bevor es sich (auch kostentechnisch) für GPUs eignet. Ich glaube dass TSMC und Glofo eher darauf spezialisiert sind die produktionslogistik zu optimieren um die kosten zu senken, während samsung eher in technisch höher entwickelte prozesse investiert. Es macht für samsung selber (mobile chips) einfach mehr sinn wenn man sich jetzt darauf konzentriert möglichst den nächsten node bzw. eine noch energieoptimiertere nodevariante zu erreichen, als auf chipgröße und produktionslogistik zu optimieren. Der Foundrybereich von Samsung ist halt nur 10% so groß wie TSMCs, da wird man nicht so viel gleichzeitig entwickeln wie TSMC es tut.

zu den marktanteilen im foundry business:
http://www.analog-eetimes.com/en/umc-rises-as-ranking-shows-foundry-market-grew-in-2014.html?cmp_id=7&news_id=222907164

AffenJack
2015-12-30, 12:43:13
Allerdings glaube ich das Samsung einfach in erster Linie wegen des Preises nicht infrage kommt, weil deren Fertigungsprozesse nicht auf den günstigsten durchsatz optimiert sind, wie etwa glofo oder tsmc. Dafür ist samsung zu viel technologiefirma und technologieführer. Für ein Ramschprodukt wie AMD APUs oder den kleinen Markt der Highend Grafikchips ist das nicht das richtige.


Die Frage ist, woher du zum Geier auf den Trichter kommst, dass Samsungs Prozess teuer sein soll. Samsung optimiert genauso auf Kosten wie alle anderen. Apple und Qualcomm wären nicht zu Samsung gegangen, wenn die Kosten nicht niedrig wären. Samsung soll TSMC in den Preisen unterboten haben und deshalb auch mehr Deals bekommen haben.

Sunrise
2015-12-30, 19:00:18
Apple und Qualcomm wären nicht zu Samsung gegangen, wenn die Kosten nicht niedrig wären.
Samsung ist der erste Semi, der massenmarktfähige 14nm FinFET-Produkte (SoCs) liefern konnte und das gibt normalerweise einen kräftigen Preisaufschlag. Ob das jetzt teurer oder gleich teuer wie TSMC ist, entscheiden die Verträge, da haben wir keinen Einblick.

Dass die Kosten hier "niedrig" sind, will ich mal ganz stark bezweifeln, vor allem weil Apple das vollkommen egal ist. Apple benötigt so schnell als möglich genug SoCs, weil sie sonst Geld verlieren, insofern werden Verträge dort gemacht, wo Kapazität angeboten wird. Samsung und TSMC wiederum müssen ihre Fabs auslasten, weil sie sonst Verluste machen (Fixkosten), weshalb man sich hier immer irgendwo trifft, das ist reines Verhandlungsgeschick.

Was auch noch ein Punkt ist, Samsungs LPE ist (zumindest beim A9) deutlich flächeneffizienter (etwa 10%) als TSMCs 16FF+, insofern hat das Marketing hier auch gute Argumente, vor allem für SoCs, denn das spart im Endeffekt auch Fläche. Schon der Exynos 7420 war geradezu winzig, was ja als Vorzeige für deren Prozess galt. Da hatte TSMC ganz schlechte Karten, weshalb man ja sofort zu 16FF+ sprang und jetzt quasi alles daran setzt, bei 10nm wieder einigermaßen führend zu sein. Nur kennen wir ja TSMC, die reden viel, wenn der Tag lang ist und Samsung liefert hier wie ein Uhrwerk.

Nightspider
2015-12-30, 19:07:49
Bezogen auf GPUs und ~20% Marktanteil. Also nur ~1/4 des (GPU-)Volumens von Nvidia. Gut, "lächerlich" mag in dem Fall übertrieben sein.

Und du meinst das sich das nicht innerhalb von einer Generation ändern kann? :freak:

Gerade mit dem Hintergrund das AMD Chips in den Konsolen stecken und AMD mit DX12 und Vulkan ordentliche Zugpferde hat um die Leistung zu verbessern bzw. Vorteile gegenüber Nvidia zu haben, könnte es sein das AMD mit einer tollen GPU Architektur schnell mal auf 30% oder 35% Marktanteile kommt.

Unicous
2015-12-30, 20:21:45
Könnte sein, dass aus Arctic tatsächlich Polaris wurde bzw. Ersteres wieder nur ein Codename für den Codenamen war.:freak:

http://www.hwbattle.com/data/editor/1512/92d129551b4dd2b22676276d4111a08d_1451478310_7063.jpg
http://www.hwbattle.com/bbs/board.php?bo_table=news&wr_id=15345

Wie bei Carribean Islands -> Volcanic/Sea Islands oder was auch immer sich AMD da mal wieder zusammengereimt hat.:uponder:


edit:
Neuer Eintrag? Mal wieder Fiji X2? (Zu "Gemini" gab es ja keine P/N)? Ein anderer Chip?

PRINTED CIRCUIT BOARD ASSEMBLY FOR PERSONAL COMPUTER(VIDEO/ GRAPHICS CARD) P/N .102-C98101-00

OBrian
2015-12-30, 22:09:46
Könnte sein, dass aus Arctic tatsächlich Polaris wurde bzw. Ersteres wieder nur ein Codename für den Codenamen war.das liest sich ja eher, als wäre Polaris der Nachfolger von GCN, Architektur eben. Wobei der Name ja nun wirklich egal ist und auch mehr Unterschiede suggerieren könnte als da sind.

Viel interessanter finde ich, daß es so eine Folie bereits gibt und sie irgendwo gezeigt wird. Das bedeutet, es wird schon präsentiert und das macht man nicht, wenn es noch lange nichts zu verkaufen gibt.

Unicous
2015-12-30, 22:24:13
Ich schätze das war auf dem mehrtägigen RTG-Event bei dem einige Eckdaten für 2016 abgesteckt wurden. So wie ich das verstanden habe, wurde da noch deutlich mehr erzählt, aber die Anwesenden stehen unter NDA.

Raja Koduri und Chris Hook hatten Polaris ja schon bei Twitter geteasered.

Und das mit Nachfolger von GCN verstehe ich nicht. Was für ein Nachfolger? GCN wird stetig ausgebaut. Es folgt also die vierte Generation.

Genau das, was Nvidia jetzt mit Fermi -> Kepler -> Maxwell gemacht hat.

Grabhopser
2015-12-30, 22:41:52
Fiji X2 ist vermutlich C888 oder nicht ?
PRINTED CIRCUIT BOARD ASSEMBLY (VIDEO GRAPHIC CARD)ATTACHED WITH COOLER MASTER HEATSINK P/N:102-C88801-00(FOC)


C981 und C980 ist hoffentlich was interessanteres.

-/\-CruNcher-/\-
2015-12-30, 22:52:44
Vor allem der Text das deutet irrgendwie doch auf eine andere Denkweise im Design hin oder ?

Der Text würde ja so etwas aussagen wie als das man sich bei Polaris an die Sterne ihre Funktionsweise und Effizienz orientiert ?

Philosophical Marketing at it's best ;)

Ob das Koduri Persönlich gedichtet hat als er am Meditieren war ;) ?

horn 12
2015-12-30, 23:01:23
Wohl die Ablöse von R9 390 und 390X mit etwa Fiji Plus xxx % Mehrperformance!
Oder knapp über Fiji X und extrem sparsam, ähnlich der R9 Nano
Da beist sich aber etwas mit der Nano beim Preis zusätzlich und Polaris klingt extrem kühl und wahrscheinlich auch sparsamst!

-/\-CruNcher-/\-
2015-12-30, 23:05:01
Kalte Fusion hmmm immer her damit ;)
oder deutet es vieleicht daraufhin das die nächste Karte vielleicht mit Sub zero Kühlung geliefert wird ;)

Das Aggregat so groß wie der Rechner die karte so klein wie nie zuvor 1000W das Aggregat und 100W die Karte ;)

OBrian
2015-12-30, 23:35:32
Und das mit Nachfolger von GCN verstehe ich nicht. Was für ein Nachfolger? GCN wird stetig ausgebaut. Es folgt also die vierte Generation.naja, weil da eben steht "introducing the Polaris Architecture", nicht "the Polaris family of chips". Arctic Islands ist eine Chipfamilie, GCN eine Architektur. Also löst Polaris was ab?

Die Ablösung ist ja wie gesagt möglicherweise nur begrifflich und nicht inhaltlich. Es wird ja gerne zur Verwirrung oder aus Marketinggründen was umbenannt. Komplett neue Architektur klingt eben besser als "GCN 1.3" oder sowas. Was es tatsächlich ist, muß man eben abwarten, wenn sich jemand herabläßt, dem Plebs was mitzuteilen.

iuno
2015-12-30, 23:56:11
Das muss ja nicht heißen, dass gcn über Bord geworfen wird. Möglicherweise ist das nur eine marketingtechnische Maßnahme

horn 12
2015-12-31, 01:01:03
Ablöse von Fiji glaube ich kaum bis garnicht.
Wenn wohl Karten welche auf Effizienz getrimmt sind, ähnlich der Nano.
Ersatz der R9 390(X) wäre durchaus denkbar und würde AMD wohl mehr als nur gut tun, obwohl R9 390 sind recht positiv verkauft...

Mal sehen was diese Tage noch so an Vorab-Infos zu Tage kommt.

Unicous
2015-12-31, 02:22:58
@OBrian

http://cdn.wccftech.com/wp-content/uploads/2015/05/AMD-GCN-GPU-Optimization-2015.jpg

GCN ist nicht Bulldozer.;)

AnarchX
2015-12-31, 09:16:33
Fragt sich nur ob der Ruf von Graphics Core Past Next, noch gut genug ist, als dass man hier weiter im Marketing darauf setzen möchte.
Intern gibt es ja auch schon die Graphics IP v... Einordnung.

Die Geschichte mit den Sternen klingt doch ziemlich nett und Koduri hat ja schon eine Andeutung mit 2,5x gemacht. Was gut zu ein verbesserten/neuen Architektur passt und den Vorteilen durch 16nm.

Da kann man nur hoffen, dass man da möglichst schnell ~200mm² Polaris und einen 4GiB HBM2-Stack auf einen kleinen Interposer bringt.

HOT
2015-12-31, 10:27:22
@OBrian

http://cdn.wccftech.com/wp-content/uploads/2015/05/AMD-GCN-GPU-Optimization-2015.jpg

GCN ist nicht Bulldozer.;)
Dennoch wollte man sicher noch keine große Ankündigung machen und stapelte deshalb bewusst tief. Und sicher kann GCN einen Nachfolger haben.

AffenJack
2015-12-31, 11:26:06
Bei der GPU Open Vorstellung bezog man sich auch auf Polaris:

http://www.hwbattle.com/data/editor/1512/59ac148abcc7d39d04a212e619b129ce_1451534288_0215.png
http://www.hwbattle.com/bbs/board.php?bo_table=news&wr_id=15373

Sieht für mich auch etwas danach aus, dass GCN nach außen hin vielleicht tot ist und man nun einen neuen Architekturnamen hat um sich davon abzugrenzen.

fondness
2015-12-31, 11:42:40
Sieht für mich auch etwas danach aus, dass GCN nach außen hin vielleicht tot ist und man nun einen neuen Architekturnamen hat um sich davon abzugrenzen.

Oder viel einfacher: nächstes Jahr kommt eine neue Architektur und diese bekommt natürlich auch einen neuen Namen. :-)

Wer sich mal ein bisschen AMDs Historie anschaut, der wird auch schnell drauf kommen, dass neue GPU Architekturen im fünf Jahres Rhythmus kommen, dazwischen wird optimiert. Terascale wurde auch nach fünf Jahren von GCN abgelöst, und GCN ist nächstes Jahr wie alt? Eben.

AffenJack
2015-12-31, 11:53:05
Da haste natürlich recht, nur im Mai wie man bei Unicous Post sieht hat man anscheinend noch keinen Namen gehabt und es GCN Optimizations betitelt;) Aber ob man das ganze nun GCN 2.0 oder sonstwie nennt ist auch egal. Namen sind Schall und Rauch. Es sollte mal wieder seit GCN 1.0 größere Änderungen in der Architektur geben, die hoffentlich einige Schwachpunkte in der Skalierung beheben und die Energieeffizienz verbessern.

Nakai
2015-12-31, 12:28:24
Raja Koduri meinte, man wolle von Bottom bis Top alles abdecken und teilt diese Vision:

He has a vision or a goal that 90% of the pixels as you see in graphics that’s a term of art that he uses that AMD’s technology on the graphic side is participating or impacting 90% of the pixels across the world. That’s very ambitious goal. But as you look at the trends that are happening over time, graphics are becoming more and more critical

Das geht nur mit richtig guter Skalierung. GCN hatte seit jeher ein Skalierungsproblem, weswegen man das als eine ziemlich gute Neuigkeit verstehen könnte. Eine 2.5fache höhere Effizienz/Performance-per-Watt ist auch schonmal eine nette Ankündigung.

Wenn man aber 90% der Pixel abedecken möchte, muss Polaris nicht nur gut skalierbar, sondern auch gut integrierbar sein. Für AMDs Semicustom-Sparte ist eine starke Synthetisierbarkeit sowie gute Integrierbarkeit verdammt wichtig. Evtl geht man sogar soweit und liefert IP-Blöcke aus und geht auf ein Lizenzmodell über. Anders kann man sich die 90% Pixelabdeckung schwer vorstellen. Und anscheinend geht man damit wieder in den Sektor, welche die damalige Mobile-Sparte (Imageon, Adreno) abgedeckt hatte.

Polaris-IP, ähnlich zu ARM Mali und PowerVR RGX, könnte lizensierbar werden. Wir werden es sehen...


Für die Semicustom-Sparte ist Zen/K12 und Polaris unabdingbar. Ein logischer Schritt.

AffenJack
2015-12-31, 12:43:21
Eine 2.5fache höhere Effizienz/Performance-per-Watt ist auch schonmal eine nette Ankündigung.

Wir wissen nicht ob das eine Ankündigung von 2,5 facher Effizienz war. Vielleicht war das auch einfach ne Werbeaussage um auf Polaris aufmerksam zu machen. Vielleicht gehts bei brighter auch um HDR. Wir sollten uns da nicht drauf versteifen, auch wenn ich mir von Polaris auch einiges erwarte. Aber ich hab keine Lust, dass wir wieder einen Hype wie jedesmal bei AMD haben, wo die Vorstellungen einfach unrealistisch werden und dann wieder alle enttäuscht sind. Fiji und HBM war da ja mal wieder das beste Beispiel.

Unicous
2015-12-31, 12:46:42
Der Vergleich mit Terascale ist doch völliger Humbug. Allein der Umstieg von VLIW5 auf VLIW4 war schon ein Umschwung den man auch entsprechend betitelt hat.

http://icrontic.com/uploads/features/tech/2009/09/radeon_hd5870_terascale.jpg

Hier geht es aber nicht darum eine völlig neue Architektur aus dem Boden zu stampfen sondern die Weiterentwicklung von GCN herauszustellen. Bei VLIW war das Ende der Fahnenstange erreicht und man wollte eine neue Architektur mit der man auch ein wenig länger planen kann. Wurde alles schon über die Jahre verlautbart.


Nvidia macht das auch deutlich cleverer, auch wenn es am Ende ziemlich langweilig (für uns) ist.

Auf Tesla folgt Fermi, Kepler, Maxwell, Pascal...

Das sind einprägsame Namen, die für sich selbst stehen und eine neue Generation repräsentieren. Bei AMD ist das Ganze einfach nur konfus, wenn man zwischen GCN 1.0, 1.1. oder Gen 1 und Gen 2, oder IP v6, 7 etc. und Volcanic, Sea, Topaz, Arctic, Tahiti unterscheiden muss.

Am Ende steht aber weiterhin das Grundgerüst der GCN Architektur. Welcher PR-Name am Ende für die Massen draufgeklatscht wird, sollte hier doch eher beiläufig sein und maximal als Stichpunktgeber dienen.

fondness
2015-12-31, 12:54:41
Und das weiß du alles anhand der einen Folie oben? Mutig. :)

Zudem finde ich den Vergleich mit TeraScale in keinster Weise "völliger Humbug", auch GCN wurde die letzten Jahre weiterentwickelt. Das man die eine ALU entfernt hat pro SIMD war jetzt sicher auch kein Hexenwerk, sonst hätte man das wohl kaum noch so kurz vor GCN
gemacht. Auch GCN3 bekam bsw ein erweitertes IS.

Jetzt kommt jedenfalls ein größerer Umschwung, klar hätte man das Ding auch GCN2 nennen können, aber das ist immer so, niemand erfindet das Rad neu.

Nakai
2015-12-31, 12:57:03
Wir wissen nicht ob das eine Ankündigung von 2,5 facher Effizienz war. Vielleicht war das auch einfach ne Werbeaussage um auf Polaris aufmerksam zu machen. Vielleicht gehts bei brighter auch um HDR. Wir sollten uns da nicht drauf versteifen, auch wenn ich mir von Polaris auch einiges erwarte. Aber ich hab keine Lust, dass wir wieder einen Hype wie jedesmal bei AMD haben, wo die Vorstellungen einfach unrealistisch werden und dann wieder alle enttäuscht sind. Fiji und HBM war da ja mal wieder das beste Beispiel.

Naja Faktor 2 wurde "bestätigt". Dass das nur Marketing-Aussagen sind, sollte auch klar sein. Außerdem weiß man nicht, mit was verglichen wird.

AMd kocht auch nur mit Wasser. Ich gehe eher in die Richtung, dass Polaris eine gut-skalierbare Architektur wird. Also skalierbar von ULP bis hin zu HPC. Das ist genau das, was AMD benötigt. Eine GPU-Architektur für den Desktop/Notebook-Bereich wird in Zukunft auch nicht mehr ausreichen. Selbst NV geht mit ihren Architekturen in den SOC-Bereich, siehe Tegra K1 und Tegra X. Bei AMD steht das noch aus...bzw. nicht wenn man Qualcomms Adreno einbezieht. :D

€:
Ich sehe Polaris == GCNv2 als nicht sonderlich verwirrend an. GCN ist eine sehr gute Architektur, welche eine bessere Skalierbarkeit und Effizienz fehlt. Polaris wird bei SIMD bleiben, nicht so wie der Wechsel von Terascale zu GCN. Ergo wird man die Grundzüge von GCN immer noch sehen. Dass wohl sehr vieles, sehr stark umgekrempelt wird, sollte klar sein.

fondness
2015-12-31, 13:04:02
Wir wissen nicht ob das eine Ankündigung von 2,5 facher Effizienz war.

Wie kommt ihr überhaupt auf die 2,5x Effizienz? Wegen dem alten Tweet von Raja?

AffenJack
2015-12-31, 13:05:36
Wie kommt ihr überhaupt auf die 2,5x Effizienz? Wegen dem alten Tweet von Raja?

Ja genau, da hat Nakai sich drauf bezogen. Deswegen wollte ich ihn da etwas bremsen;)

fondness
2015-12-31, 13:08:53
Ja genau, da hat Nakai sich drauf bezogen. Deswegen wollte ich ihn da etwas bremsen;)

Und wie kommt man von dem "2,5 times brighter" überhaupt auf Energieeffizienz?^^

Zwar ist AMD durchaus dafür bekannt, solche versteckten Hinweise zu platzieren, aber das kann alles mögliche bedeuten.

OBrian
2015-12-31, 13:23:11
evtl. die Helligkeit der Schriftfarbe auf der AMD-Webseite :freak:

Je mehr das Marketing tobt, desto weniger kommt dabei raus.

Unicous
2015-12-31, 13:32:47
Oder viel einfacher: nächstes Jahr kommt eine neue Architektur und diese bekommt natürlich auch einen neuen Namen. :-)



Jetzt kommt jedenfalls ein größerer Umschwung, klar hätte man das Ding auch GCN2 nennen können, aber das ist immer so, niemand erfindet das Rad neu.

Du weißt schon, dass GCN seit Jahr und Tag GCN heißt und AMD selbst sagte, es gäbe keine offizielle Unterscheidung, außer den IP-Level.
Der Marketingname ist daher egal, denn das Grundgerüst bleibt bestehen. Du tust so, als würde es eine Revolution geben, dabei könnte Koduri lediglich mit dem Codenamen-Wirrwarr aufräumen während GCN eine weitere Iteration erfährt.

Wo du hernimmst, dass ein größerer Umschwung bevorsteht würde ich daher gerne mal erfahren. Bislang kann man einen Großteil der Effizienzsteigerungen auch wunderbar an FinFET+HBM"2" festmachen. Auch als AMD-ler sollte man mit etwas mehr Nüchternheit an die Sache herangehen. Gutes Marketing nutzt nichts, solange das Produkt nicht abliefert.

Ob 2016 das gesamte! Portfolio "erneuert" wird steht derweil auch noch in den Polarsternen.

Kartenlehrling
2015-12-31, 13:37:01
Auch als AMD-ler sollte man mit etwas mehr Nüchternheit an die Sache herangehen.
Genau !!! Lasst doch erstmal die grüne dicke Dame singen.

horn 12
2015-12-31, 14:08:54
Dann sollte wohl Fiji ein Update erhalten, mehr Takt und Fury X2 mit 8 GB HBM-2 Speicher kommen.

HOT
2015-12-31, 14:39:19
Du weißt schon, dass GCN seit Jahr und Tag GCN heißt und AMD selbst sagte, es gäbe keine offizielle Unterscheidung, außer den IP-Level.
Der Marketingname ist daher egal, denn das Grundgerüst bleibt bestehen. Du tust so, als würde es eine Revolution geben, dabei könnte Koduri lediglich mit dem Codenamen-Wirrwarr aufräumen während GCN eine weitere Iteration erfährt.

Wo du hernimmst, dass ein größerer Umschwung bevorsteht würde ich daher gerne mal erfahren. Bislang kann man einen Großteil der Effizienzsteigerungen auch wunderbar an FinFET+HBM"2" festmachen. Auch als AMD-ler sollte man mit etwas mehr Nüchternheit an die Sache herangehen. Gutes Marketing nutzt nichts, solange das Produkt nicht abliefert.

Ob 2016 das gesamte! Portfolio "erneuert" wird steht derweil auch noch in den Polarsternen.
Diese Strategie kann mit der Abspaltung vom Hauptunternehmen auch genausogut wieder völlig überholt sein.
Wie gesagt, der Zeitrahmen für eine neue Architektur passt und man sieht ja auch an Fiji und Tonga, dass man mit GCN selber keine großen Sprünge mehr gemacht hat.
Wobei "neue Architektur" natürlich sehr schwammig ist. Es kann eben alles umgeworfen werden, wie beim Wechsel von Terascale auf GCN oder es kann sehr viel GCN-Genmaterial enthalten sein und dennoch viel geändert worden sein. Sowas kann man dann GCN2 oder eben Polaris nennen.

Raja Koduri meinte, man wolle von Bottom bis Top alles abdecken und teilt diese Vision:



Das geht nur mit richtig guter Skalierung. GCN hatte seit jeher ein Skalierungsproblem, weswegen man das als eine ziemlich gute Neuigkeit verstehen könnte. Eine 2.5fache höhere Effizienz/Performance-per-Watt ist auch schonmal eine nette Ankündigung.

Wenn man aber 90% der Pixel abedecken möchte, muss Polaris nicht nur gut skalierbar, sondern auch gut integrierbar sein. Für AMDs Semicustom-Sparte ist eine starke Synthetisierbarkeit sowie gute Integrierbarkeit verdammt wichtig. Evtl geht man sogar soweit und liefert IP-Blöcke aus und geht auf ein Lizenzmodell über. Anders kann man sich die 90% Pixelabdeckung schwer vorstellen. Und anscheinend geht man damit wieder in den Sektor, welche die damalige Mobile-Sparte (Imageon, Adreno) abgedeckt hatte.

Polaris-IP, ähnlich zu ARM Mali und PowerVR RGX, könnte lizensierbar werden. Wir werden es sehen...


Für die Semicustom-Sparte ist Zen/K12 und Polaris unabdingbar. Ein logischer Schritt.
Das stimmt zwar, aber das muss in Zeiten von Interposern so nicht ablaufen.

Unicous
2015-12-31, 15:41:57
Was für eine Abspaltung?:confused: Die Radeon Technologies Group ist weiterhin integraler Bestandteil von AMD und ist weder eine Tochter noch anderweitig von AMD losgelöst.

Denkt ihr wirklich, nur weil AMD Ross und Reiter umbenennt, dass jetzt alles revolutioniert wurde. Es war eine weitere Konsolidierungsmaßnahme und eine durchaus richtige. Denn man hat sich vorher Ineffizienz geleistet, die man momentan gar nicht gebrauchen kann.

GCN bleibt. Das hat AMD selbst verlautbart:


“Where we’ve been incredibly protective in maintained investment is in where we are banking the future of the company,” said Mark Papermaster, chief technology officer of AMD, at the at Pacific Crest annual global technology leadership forum, reports Tech Trader Daily. “So it is on that next generation of CPUs starting with ‘Zen’. It is on successive generations of our graphics core next. Huge volume in what we have in not only in discrete graphics and our APU, but the game console wins are all on graphics core next and we have a very strong roadmap for that graphics core next IP going forward.”

Anton Shilov ist jetzt nicht der hellste Stern am IT-Journalismus-Firmament, besonders kein Polarstern, und das was er hier schreibt ist auch offensichtlich aber AMDs xPU Strategie über die nächsten Jahre wird GCN enthalten. Und ich schätze GCN wird auch über 2017 hinaus die Basisarchitektur bleiben, so ähnlich wie es Fermi bei Nvidia war.

Based on previous comments of Mr. Papermaster made in late-2014 and mid-2015, next year the company intends to release graphics processors that will be based on an architecture that will be considerably different than today’s GCN. In particular, the next iteration of GCN architecture is projected to be two times more energy efficient compared to current GCN and will support new features. Since AMD intends to use 14nm or 16nm FinFET process technologies to make its next-gen GPUs, increased performance and energy efficiency is not surprising.

What is noteworthy is that this year year AMD’s GCN turns four years old. Previously AMD has never used one ISA [instruction set architecture] for over four years. AMD introduced three generations of its TeraScale architectures over four years (in 2006 – 2010), each time bringing major improvements. GCN has also evolved significantly since late 2011 and it looks like AMD wants to continue developing generations of GCN-based GPUs.

http://www.kitguru.net/components/graphic-cards/anton-shilov/amd-we-have-very-strong-roadmap-for-gcn-architecture/

iuno
2015-12-31, 16:07:56
http://www.hwbattle.com/data/editor/1512/59ac148abcc7d39d04a212e619b129ce_1451534288_0215.png
Tatsaechlich, ist damals keinem aufgefallen...
Wird etwas ot, aber zu der Folie:
Material factors that could cause actual results to differ materially from current expectations include, without limitation, the following: Intel Corporation’s dominance of the microprocessor market and its aggressive business practices may limit AMD's ability to compete effectively;
AMD relies on GF to manufacture most of its microprocessor and APU products and certain of its GPU and semi-custom products. If GF is not able to satisfy AMD's manufacturing requirements, its business could be adversely impacted;
Was hat das denn bitte in solch einem Dokument zu suchen? :freak:

btw: weil ich gerade ein paar Praesentationen ueberflogen habe, als ich die passende gesucht habe, ist mir aufgefallen, dass AMD von mehreren Design wins fuer 2016H2/2017 im Semi-Cusom/Konsolenbereich spricht. Was soll denn damit gemeint sein? Die neue Nintendo waere eine Moeglichkeit, aber da steht sonst nur 'previously announced' und dass sie in 3 Jahren 1 Mrd. $ Umsatz damit erwarten.

Die Sache mit den 90% der Pixel ist uebrigens nicht nur eine Aussage, die Kodouri nebenbei getaetigt hat, sondern offiziell angepeiltes Ziel bis 2020...

Goal to impact 90%+ of immersive pixels worldwide by 2020 with AMD Radeon IP

Und um die Erwartungen an eine 400er Serie ohne Rebrandings zu schmaelern, hier noch ein Zitat zur 300er Serie:
Now have full stack of new GPU products from Value to Enthusiast segments

Zwar ist AMD durchaus dafür bekannt, solche versteckten Hinweise zu platzieren, aber das kann alles mögliche bedeuten.
Oder gar nichts. Es koennte aber auch mit der HDR Geschichte zu tun haben, die auch auf dort besprochen wurde, dabei ging es immerhin auch um die max. luminance.

Wie gesagt, der Zeitrahmen für eine neue Architektur passt und man sieht ja auch an Fiji und Tonga, dass man mit GCN selber keine großen Sprünge mehr gemacht hat.
Aber Maxwell oder wie? Was erwartest du denn von einer "komplett neuen" Architektur?
PowerTune z.B. wurde fuer Fiji stark ueberarbeitet und arbeitet lt. Igor sogar feiner als das Maxwell-Pendant. Ich denke auch, dass man das moeglicherweise leicht unterschaetzt, weil der HBM Vorteil ueberschaetzt wird. Das SI ist ja auch viel groesser als zunaechst angenommen, schon moeglich, dass es gar nicht so wahnsinnig viel einspart. Trotz dem starken PowerTune spart man aktuell nicht so viel Watt ein wie Nvidia, wenn die GPU (wie so oft) nicht komplett ausgelastet wird. Daran wird man sicherlich arbeiten und weiter auf Effizienz setzen. Ein aktuell grosses Problem sind imho die riesigen Schwankungen der Chips. Es kann doch nicht sein, dass viele GPUs problemlos mal 50-100mV undervoltet werden koennen. Die Schwankungen hat man ja auch bei Tonga, der kann sehr viel effizienter sein als Tahiti (siehe iMac), aber andererseits auch wieder ziemlich mies. Vermutlich sind ueberall die Spannungen vorsichtshalber wieder sehr hoch, deshalb kommt die 380X ja auch nicht gut an. Das Problem, dass GCN schlecht ausgelastet wird, wird sich wohl mit neuerer Software langsam loesen. Dann bringt der Shrink natuerlich einiges und man wird sicher nicht allzu groesse Risiken gleich in die erste FF Generation einbauen wollen.
Dazu ist GCN lansgam (endlich) in aller Munde, dadurch dass sie bei Konsolen eingesetzt wird und die neuen API mit async compute Faehigkeiten im Gespraech sind.
Ich sehe einfach keinen Grund, GCN abzuschaffen. Und davon ab auch keine Notwendigkeit. Wie es aussieht, wird sich Pascal ja auch kaum von Maxwell unterscheiden, also ist ja nicht zu erwarten, dass AMD komplett von der Konkurrenz ueberfahren wird. Warum sollte man also so ein Risiko eingehen, wo von der Generation doch viel abhaengt?
Es gibt schon noch einige Baustellen, die angegangen werden muessen, ueber Bord schmeissen muss man deshalb aber nichts.

-/\-CruNcher-/\-
2015-12-31, 16:18:46
@OBrian

http://cdn.wccftech.com/wp-content/uploads/2015/05/AMD-GCN-GPU-Optimization-2015.jpg

GCN ist nicht Bulldozer.;)

Wäre schon was wenn AMD es schafft Nvidia bei der Effizienz einzuholen selbst wenn sie nur genau so nah ran kommen würden.
Glaube den nächsten Cycle schaffen sie es sogar, das sieht doch alles garnicht so schlecht aus seit GCN + updates :)

Vor allem kann Nvidia momentan teils nicht so schnell reagieren, selbst Pascal wird nichts größeres gegen GCN bringen was als wichtig erscheinen würde. :D

Aber Nvidia hat so viel in Tegra gebuttert um diese Effizienz zu erreichen über die Jahre das selbst die Investoren nicht sehr begeistert waren/sind ;)

Und ob Android TV Shield vor allem mit der Abhängigkeit zu Google so große Gewinne abschlägt steht auch noch in den Sternen.

Notebook/Laptop Mobile sieht sehr gut aus da hat AMD noch keinen Fuß setzen können vor allem durch die noch teils inneffizienz.

Da können wir gespannt sein ob sich das 2016 ändert :)

Konzentriert man sich aber zu sehr auf AMD und Nvidia vergisst man ganz schnell Intel und das ist ja auch einen riesen Fehler den viele Analysten machen ;)

Ich bin sehr gespannt wie Koduri das ganze Managed um den Druck 2016 zu erhöhen gegen Intel + Nvidia ;)

Das SU ihm da freie hand gibt find ich sehr vertrauensvoll von Ihr das wird schon was heisen so von Engineer zu Engineer :)

Unicous
2015-12-31, 16:33:25
@iuno

Diese Art von Disclaimer findest du bei so gut wie jeder Technologie-Vorstellung. Ist einfach eine rechtliche Absicherung, da AMD ein börsennotiertes Unternehmen ist.

Locuza
2015-12-31, 17:51:15
AMD ist aber das einzige Unternehmen, welches es überall reinhaut und noch in schöner Ausführlichkeit, mit Definitionen.

Unicous
2015-12-31, 18:17:59
Der slide ist wahrscheinlich von einem Analysten-Treffen am Rande dieses RTG-Events.

Diese cautionary statements werden dort gemacht um sich gegen die Aktionäre abzusichern. "Wir haben doch gesagt, dass es auch daneben gehen kann."

Der normale Legal Disclaimer sieht z.B. so aus.

http://cdn.wccftech.com/wp-content/uploads/2015/07/AMD-Radeon-R9-Fury_Fiji-Pro_Disclaimer.jpg

Und Bei Intel sieht es auch nicht anders aus, sie müssen sogar anscheinend weiterhin den Compiler Disclaimer einbauen.

http://www.inteldevconference.com/wp-content/uploads/2015/03/1-Roadmap.pdf

iuno
2015-12-31, 18:57:18
Der slide ist wahrscheinlich von einem Analysten-Treffen am Rande dieses RTG-Events.
Die Folie gehoert zur gpuopen praesentation, die Slides wurden ja (einzeln) von news-seiten veroeffentlicht. Das pdf habe ich hier (https://www.reddit.com/r/Devalate/comments/3x7ncu/linux_amd_going_full_open_source_with_amdgpu/) gefunden. Der 'normale' Disclaimer folgt ganz am Ende.
Wer da zur Praesentation anwesend war oder in welchem Rahmen das genau beim RTG tech summit stattgefunden hat, kann ich natuerlich nicht sagen.
Bei gpuopen soll ja nichts verkauft werden, es geht auch nicht um neue Produkte oder roadmaps fuer Produkte. Deshalb war ich etwas verwundert, vor allem weil 'Abhaengigkeiten' so detailliert ausgefuehrt werden etc.

Unicous
2015-12-31, 19:08:53
Da es Teil des Technology Summit ist und dort neue Information zur roadmap vorgestellt wurden gibt es dieses cautionary statement.

Findet man auch bei den normalen roadmaps.

http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MjYxMjY0fENoaWxkSUQ9LTF8VHlwZT0z&t=1

Zudem:

This is something that initially caught me off-guard when I first realized it, but AMD historically hasn’t liked to talk about their GPU plans much in advance. On the CPU size we’ve heard about Carrizo and Zen years in advance. Meanwhile AMD’s competitor in the world of GPUs, NVIDIA, releases some basic architectural information over a year in advance as well. However with AMD’s GPU technology, we typically don’t hear about it until the first products implementing new technology are launched.

With AMD’s GPU assets having been reorganized under the Radeon Technologies Group (RTG) and led by Raja Koduri, RTG has recognized this as well. As a result, the new RTG is looking to chart a bit of a different course, to be a bit more transparent and a bit more forthcoming than they have in the past. The end result isn’t quite like what AMD has done with their CPU division or their competition has done with GPU architectures – RTG will talk about both more or less depending on the subject – but among several major shifts in appearance, development, and branding we’ve seen since the formation of the RTG, this is another way in which RTG is trying to set itself apart from AMD’s earlier GPU groups.

http://anandtech.com/show/9836/amd-unveils-2016-vistech-roadmap


Und hier zum Vergleich eine Intel roadmap.

http://www.intel.com/content/dam/www/public/us/en/documents/roadmaps/public-roadmap-article.pdf


Ich sehe nicht, dass AMD irgendetwas anders macht oder warum das überhaupt von Interesse ist.;)

iuno
2015-12-31, 19:20:43
Sorry, wollte das Thema nicht so abdriften lassen, daher war es ja auch als ot in spoiler-tags.
Ich kannte das halt nicht und es erschien mir komisch, dass AMD da Intels 'aggressive Geschaeftspraktiken' auffuehrt, die sie daran hindern koennten, wettbewerbsfaehig zu agieren. :freak: Auch die starke Abhaengigkeit zu GF wird genannt, aber nicht TSMC oder etwa Nvidia. Das hat aber denke ich eher historische Gruende (AMD 'darf' Intel vielleicht aufgrund frueherer Urteile 'beschuldigen' und bei GF halt doch aus der starken Abhaengigkeit und der gemeinsamen Vergangenheit).
Intel fuehrt das auch nicht so ausfuehrlich auf, obwohl sie z.B. auch keine Mainboards mehr bauen und so genauso von den Herstellern abhaengig sind.

Unicous
2015-12-31, 19:42:33
Intel hat aber auch eigene Fabs und stellt weiterhin eigene Mainboards her (bzw. lässt sie herstellen?), nur eben nicht im Mainstream-Bereich.
Nebenbei sind die Mainboard-Hersteller abhängig von Intel, nicht andersherum. :tongue:

Intel ist nur von sich selbst und dem Markt abhängig.

AMD hingegen ist fabless und hat ein spezielles Agreement mit GF und ist damit auch abhängig von ihnen.
Bei Nvidia ist das nicht so. Sie können theoretisch bei jeder Foundry herstellen lassen, solange sie sich Kapazitäten sichern können.

Skysnake
2016-01-01, 14:13:56
Was hat das denn bitte in solch einem Dokument zu suchen? :freak:

btw: weil ich gerade ein paar Praesentationen ueberflogen habe, als ich die passende gesucht habe, ist mir aufgefallen, dass AMD von mehreren Design wins fuer 2016H2/2017 im Semi-Cusom/Konsolenbereich spricht. Was soll denn damit gemeint sein? Die neue Nintendo waere eine Moeglichkeit, aber da steht sonst nur 'previously announced' und dass sie in 3 Jahren 1 Mrd. $ Umsatz damit erwarten.
Naja, Morpheus wird sicherlich auf AMD Hardware setzen, wie Nintendo eben.

Nakai
2016-01-01, 16:38:20
Vor einiger Zeit kam der Begriff "Vega10" auf:
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1415-november-2015

Vega ist ein Stern der nördlichen Hemisphäre:
https://en.wikipedia.org/wiki/Vega

Kurz, die Sternnamen sind schon etwas länger unterwegs.
Dass sich AMD den Sternnamen bedient ist eh schon bekannt, siehe Deneb und Thuban.

Aber Namen sind Schall und Rauch.


Im Anandtech-Forum wird auf ein Paper verlinkt (http://forums.anandtech.com/showthread.php?t=2459137&page=2):
http://people.engr.ncsu.edu/hzhou/ipdps14.pdf

Dementsprechend etwas gesucht und das hier gefunden:
http://lpgpu.org/wp/wp-content/uploads/2014/09/lpgpu_scalarization_169_Jan_Lucas.pdf

Diesbezüglich ein Paper, wäre das hier:
http://dl.acm.org/citation.cfm?id=2811402


Um was geht es?
Die Papers gehen in die Richtung, die skalare Einheit einer CU besser und gezielter Anzusprechen, um auf diese Einheit Sparse-SIMT Operationen, also welche eine SIMT-Einheit nicht voll auslasten auf eine oder mehrere skalare Einheiten auszulagern. Damit entgeht man der Problematik der leeren "Bubbles" einer SIMT-Einheit, welche einfach "nichts" tun und ausmaskiert werden. Dadurch könnte man viel Energie sparen, und natürlich Performance erreichen.
Ein gutes Beispiel diesbezüglich wären parallele Reduktionen, welche ab einem bestimmten Grad eine CU schwer auslasten, wenn man deutlich unterhalb der Wavefront/Warp-Size pro Reduktions-Schritt geht. Da solche Technologien/Informationen in Zusammenhang mit AMD meistens aufkommen, wäre eine nexte GCN-Iteration ein Umbau der CUs, dass die integrierte skalare Einheit separat ansprechbar gemacht wird.

Diesbezüglich forschen auch Intel und NV natürlich in diesem Gebiet. Breite SIMT-Kerne sind eben bei kleinen skalaren Tasks ineffizient. In Zukunft könnte die Entwicklung in bessere und flexiblere Kerne gehen. Damit wäre es auch naheliegender, dass diese CUs deutlich "eigenständiger" agieren können. Das wäre auch ein Punkt im Bezug zu besserer Skalierbarkeit.

Interposer-Skalierung sehe ich erstmal nicht als eine Möglichkeit zur besseren Integration an, da die Schnittstellen in diesen Bereichen erstmal entstehen müssen.

€:
http://search.proquest.com/docview/1643246408

http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=5749714&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D5749714

Andere Papers, welche Effizienzsteigerungen ansprechen.

Hübie
2016-01-01, 17:58:13
Du meinst im Grunde entkoppelte scalar-ALUs? Kostet dass dann nicht immens (?) Fläche bei der Kommunikation? :| Oder hab ich das jetzt falsch verstanden? Danke jedenfalls für die Recherche. Die papers schau ich mir später gern an. :up:
Bist du eigentlich Coder? Nur aus Neugier...

Nakai
2016-01-01, 18:53:40
Du meinst im Grunde entkoppelte scalar-ALUs? Kostet dass dann nicht immens (?) Fläche bei der Kommunikation? :| Oder hab ich das jetzt falsch verstanden? Danke jedenfalls für die Recherche. Die papers schau ich mir später gern an. :up:


Es sieht erstmal nach einer Erweiterung von GCN aus. Die skalare Unit pro CU wird weiter entkoppelt. Eine GCN CU kann bis zu 5 Operationen gleichzeitig ausführen (1xSkalar + 4xSIMD), dabei fließen die skalaren Instruktionen über das gleiche Frontend, wie die SIMD-Instruktionen. Kurz, derzeit sind die skalaren Einheiten fest in die CU implementiert.
Eine erweiterte CU-Logik wäre, dass die skalare Einheit unabhängig von den SIMD-Einheiten operieren kann (oder in beiden Modi). Hierzu bräuchte die skalare Einheiten ein eigenes Frontend und auch einen Program Counter.
Eine eigene Registerfile hat die Skalare Einheit bei GCN bereits.

Im Grunde geht es darum, dass man bei SIMD-Einheiten irgendwann keine gute Auslastung mehr hat, wenn die "Bubbles/Holes" (oder wie man das nennt) zuviel werden. Wenn ich nur einen Slot bei einer SIMD-Einheit verwende und ich SIMD16-Einheiten habe, habe ich nur 1/16 des Durchsatz. Da wäre es besser, dies auf einer skalaren Einheit auszulagern. Es sind keine völlig unabhängige skalaren Einheiten, sondern sind parallel zum den SIMT-Blöcken.

Im ersten Paper werden immer Kernel-Paare geliefert, einen skalaren und einen SIMT. Wenn die SIMT-Units zu sparse ausgenutzt werden, ist es besser den skalaren Kernel auszuführen. Dabei müssen natürlich erst einmal die Daten von der einen RegisterFile zu anderen transportiert werden.

Wenn man in Richtung skalarer Ausführung geht, ist AMD deutlich weiter als NV. Bei NV weiß man nicht, wie weit das intern gehandelt wird.

Im einen Paper steht dieser Absatz:
Similar to the GCN architecture, our proposed
architecture contains both a scalar unit and a SIMT/vector
unit, as shown in Fig. 2. The key difference from the GCN
architecture is that the scalar unit can fetch and execute its
own instruction stream. Both the scalar unit and the SIMT
unit support multithreaded execution. The scalar unit can run
multiple scalar threads as long as there are sufficient scalar
registers. The SIMT units can run multiple warps and the
(vector) register file and the shared-memory usage
determines the number of concurrent warps in each SIMT
unit. In other words, both the scalar unit and the SIMT unit
support the SIMT-style instruction processing. Similar to the
warp scheduler in the SIMT unit, which manages concurrent
multiple warps and issues (vector) instructions, we introduce
a scalar-thread scheduler to manage multiple concurrent
scalar threads and issue scalar instructions to the scalar
pipeline. The instruction multiplexer (I-MUX) in Fig. 2 can
also be configured such that scalar instructions are issued by
the warp scheduler in the SIMT unit. With this configuration,
our proposed architecture can operate in the same way as the
GCN architecture, where the scalar operations are embedded
in the SIMT/vector instruction stream and encoded with a
scalar operation type.

Bist du eigentlich Coder? Nur aus Neugier...

Wenn es die Frage ist, was ich derzeit tue, dann eher "arbeitssuchend nach dem Studium". ;D
Wenn es die Frage ist, in welchem Bereichen ich tätig war:
Im Studium war ich in Projektarbeiten bzw. Forschungsarbeiten im medizinischen Bereich für Softwares für Segmentierung/Klassifizierung (Machine Learning) auf GPGPUs tätig. Davor in der auotmotive embedded Entwicklung für Infotainmentsystem (HMI, Tegra, iMX). Abschlussarbeit behandelte Implementierungen von neuronalen Netzen in Software, auf GPGPU und auf FPGA (VHDL).
Und eben derzeit Suche nach einem passenden Job.;)

Locuza
2016-01-01, 19:08:57
Ich glaube Sebastian Aaltonen von RedLynx hat ebenso exzellente Beiträge dazu geschrieben:

https://forum.beyond3d.com/threads/dx12-performance-discussion-and-analysis-thread.57188/page-19#post-1869700
https://forum.beyond3d.com/threads/gpu-driven-rendering-siggraph-2015-follow-up.57240/page-2#post-1870274
https://forum.beyond3d.com/threads/really-wide-simt-in-gpus.57178/#post-1863656
https://forum.beyond3d.com/threads/direct3d-feature-levels-discussion.56575/page-21#post-1854986
https://forum.beyond3d.com/threads/amd-pirate-islands-r-3-series-speculation-rumor-thread.55600/page-124#post-1858671
https://forum.beyond3d.com/threads/amd-pirate-islands-r-3-series-speculation-rumor-thread.55600/page-124#post-1858718
https://forum.beyond3d.com/threads/amd-pirate-islands-r-3-series-speculation-rumor-thread.55600/page-127#post-1859114

Angerissen werden die Vorteile von der Scalar-Unit, die bei GCN verbaut ist und dabei helfen könnte, Vector Register zu sparen und die Auslastung zu erhöhen.
Problematisch ist, dass es keinen direkten Weg gibt die Scalar-Unit zu programmieren und man darauf angewiesen ist, dass der Compiler gewisse Dinge bemerkt und entsprechend optimiert.
Und wir wissen, wie gut AMD bei Software ist...

Naja, jedenfalls hat AMD schon ein Fundament gelegt.
Ab GCN Gen 3 hat AMD die Scalar-Unit auch verbessert.

Vielleicht und vermutlich verbessert AMD mit Polaris erneut an dieser Stelle.

Hübie
2016-01-01, 19:28:35
Bei nVidia ist viel Kaffeesatzleserei. Soviel mir noch bekannt ist wird immer versucht vec+scalar zusammen loszuschicken. Wie die jetzt im SMM angebunden sind und wie die "gefüttert" werden können ist mir ebenfalls nicht bekannt. Gipsel hat eigentlich immer ganz gute Einblicke, wenn ich mich nicht irre, aber er ist seit längerem ziemlich passiv.
Mit GCN kenne ich mich überhaupt nicht aus, da keiner auf OpenCL scharf war.

@Nakai: Dein Verlauf klingt doch sehr gut, also wirst du dir sicher einen Job aussuchen können. Google z.B. ist ein sehr guter Arbeitgeber *hust* :smile:

Locuza
2016-01-04, 07:35:42
http://cdn.videocardz.com/1/2016/01/AMD-Polaris-GPU-Diagram.jpg
+ FinFET Folien:
http://videocardz.com/58031/amd-announces-polaris-architecture-gcn-4-0

Ein bisschen Kaffeesetzleserei aus abstrahierten Logik-Bildern, wo man nicht weiß was AMD genau als neu definiert:

- Der Command-Processor ist neu.
Wir "wissen" das AMDs CP bei Hawaii bei vielen Draw-Calls überfordert ist.
In der Star-Swarm Demo hatte Oxide Games Batches zusammengefügt, um den CP zu schonen, was soweit ich mich noch richtig erinnere ungefähr 16% Performance für Hawaii gebracht hat.

Keine Ahnung, ob GCN Gen 3 hier irgendetwas verbessert hat, aber sicherlich ist es allgemein keine schlechte Stelle, hier anzulegen.
Der CP kümmert sich um viele Dinge und könnte bei der Skalierung sehr helfen.

Es gab auch ein Research Paper bezüglich möglicher Verbesserung, wie ein breiterer CP, ein CP mit Out-of-Order Execution usw.
Die Befunde sind vermutlich dann in Polaris eingeflossen.

- Geometry-Processor
Oh das wird spannend, wie Tessellation abschneidet und natürlich, ob es daneben auch Verbesserungen gibt.

- Interessant ist das beim Rasterizer kein "new" steht.
- Ebenso wenig beim Backend.

Verbesserungen sind natürlich nicht ausgeschlossen, aber das Konstrukt hat AMD anscheinend nicht grundlegend überarbeitet.
Ich hätte z.B. vermutet, dass AMD auch Richtung Tiled-Based Renderer geht, wie Nvidia mit Maxwell und wie im mobile-space schon üblich, aber die Folie suggeriert keine großen Unterschiede.

- Interessant das der L2$ und Memory-Controller als "new" bezeichnet werden.
Ich stelle mir in erster Linie eine etwas andere Konfiguration vor, um die Effizienz zu erhöhen.

- Multimedia-Cores und Display-Controller.
Wohl das "übliche" Upgrade.

- Die CUs werden als 4th Generation GCN bezeichnet.
Womit Polaris nur übergreifend ein neuer Name für die Architektur ist.

Ich bin gespannt, vor allem da uns vielleicht bald mehr und ausführlichere Folien erwarten.

Hübie
2016-01-04, 08:21:03
Im Grunde steht da gar nichts. :D Aber danke für den Link

AffenJack
2016-01-04, 08:24:28
Morgen soll das NDA ja ablaufen oder sogar heute. Denke da wird es etwas mehr Infos geben als nur das, was auf den Folien steht. Interessant ja auch die Perf/W Folie:
http://cdn.videocardz.com/1/2016/01/AMD-Polaris-Architecture-8.jpg

Sieht für mich so aus, als wenn zuerst so ein kleiner Chip wie bei NV damals GM107 kommen wird, sonst würde man nicht mit der GTX 950 vergleichen. Betrachtet man aber, dass dies wohl Systemverbrauch sein sollte, sieht Polaris schon gut aus. Da AMD im Notebooksegment kaum mehr vertreten ist gerade, sollte man damit auch gut Geld machen können.

R.I.P.
2016-01-04, 08:27:05
http://cdn.videocardz.com/1/2016/01/AMD-Polaris-GPU-Diagram.jpg
+ FinFET Folien:
http://videocardz.com/58031/amd-announces-polaris-architecture-gcn-4-0

Ein bisschen Kaffeesetzleserei aus abstrahierten Logik-Bildern, wo man nicht weiß was AMD genau als neu definiert:

- Der Command-Processor ist neu.
Wir "wissen" das AMDs CP bei Hawaii bei vielen Draw-Calls überfordert ist.
In der Star-Swarm Demo hatte Oxide Games Batches zusammengefügt, um den CP zu schonen, was soweit ich mich noch richtig erinnere ungefähr 16% Performance für Hawaii gebracht hat.

Keine Ahnung, ob GCN Gen 3 hier irgendetwas verbessert hat, aber sicherlich ist es allgemein keine schlechte Stelle, hier anzulegen.
Der CP kümmert sich um viele Dinge und könnte bei der Skalierung sehr helfen.

Es gab auch ein Research Paper bezüglich möglicher Verbesserung, wie ein breiterer CP, ein CP mit Out-of-Order Execution usw.
Die Befunde sind vermutlich dann in Polaris eingeflossen.

- Geometry-Processor
Oh das wird spannend, wie Tessellation abschneidet und natürlich, ob es daneben auch Verbesserungen gibt.

- Interessant ist das beim Rasterizer kein "new" steht.
- Ebenso wenig beim Backend.

Verbesserungen sind natürlich nicht ausgeschlossen, aber das Konstrukt hat AMD anscheinend nicht grundlegend überarbeitet.
Ich hätte z.B. vermutet, dass AMD auch Richtung Tiled-Based Renderer geht, wie Nvidia mit Maxwell und wie im mobile-space schon üblich, aber die Folie suggeriert keine großen Unterschiede.

- Interessant das der L2$ und Memory-Controller als "new" bezeichnet werden.
Ich stelle mir in erster Linie eine etwas andere Konfiguration vor, um die Effizienz zu erhöhen.

- Multimedia-Cores und Display-Controller.
Wohl das "übliche" Upgrade.

- Die CUs werden als 4th Generation GCN bezeichnet.
Womit Polaris nur übergreifend ein neuer Name für die Architektur ist.

Ich bin gespannt, vor allem da uns vielleicht bald mehr und ausführlichere Folien erwarten.

Danke für deinen Post

Sunrise
2016-01-04, 08:38:03
Haut mich jetzt nicht vom Hocker. Bei den Multimedia-Features zieht man endlich mit NVs GM206 quasi gleich und für eine Midrange-GPU sind das einfach nur zu erwartende Werte. Da muss schon mehr kommen (auch wenn es jetzt abgedroschen klingt) oder NV hat mit Pascal leichtes Spiel.

NV hat nun sogar volle VP9-Beschleunigung (in Hardware) nachgezogen, alles noch auf aktueller HW.

Dennoch wäre eine schnellere Fury Nano mit neuen Multimedia-Features und halbierter TDP sicherlich sehr fein. Mich interessiert aber vor allem, ob diverse Flaschenhälse gelöst wurden.

Locuza
2016-01-04, 09:07:48
Irgendwie macht mir die Folie mit Rasterizer und Backend nun Angst.
Kein Conservative Rasterizer und keine ROVs confirmed?
Neue Gen ohne DX12 FL12.1 wäre schon bemerkenswert.

dildo4u
2016-01-04, 09:13:17
Wie sind die eigentlich auf 140 Watt für die 950 gekommen?Selbst ein OC Modell liegt bei 110.


http://ht4u.net/reviews/2015/amd_radeon_r7_370_vs_nvidia_geforce_gtx_950_test/index19.php

Das soll doch nicht das ganze System sein?Der I7 sollte mindestens was um 60 Watt ziehen dann würde das System mit der 950 um 160Watt liegen.

dargo
2016-01-04, 09:23:52
Wie sind die eigentlich auf 140 Watt für die 950 gekommen?Selbst ein OC Modell liegt bei 110.

Gesamtsystem.

dildo4u
2016-01-04, 09:24:58
Das passt nicht wirklich.

Hier steht was von 215 Watt mit einem i7 4970k unter dem Crysis 3 Screen.

http://www.eurogamer.net/articles/digitalfoundry-2016-graphics-card-upgrade-guide?page=2

dargo
2016-01-04, 09:26:29
http://ht4u.net/reviews/2015/amd_radeon_r7_370_vs_nvidia_geforce_gtx_950_test/index19.php

Das soll doch nicht das ganze System sein?Der I7 sollte mindestens was um 60 Watt ziehen dann würde das System mit der 950 um 160Watt liegen.
Deine Links sind völlig irrelevant ohne zu wissen wie AMD den Gesamtverbrauch ermittelt hat. Meine Theorie ist entweder Framelimit von 60fps oder Vsync On @60Hz. Da interessieren max. Verbräuche Null.

PS: AMD wird sich sicherlich auch die beste Szene für sich ausgesucht haben. Schließlich sind das nur Marketingfolien.

dildo4u
2016-01-04, 09:29:40
Stimmt sie nutzen nur Medium Setting's kann sein das der AMD GPU nur ne GPU im Bereich der GTX 750 ist vermutlich muss der Fury im High End bis 2017 reichen.Macht Sinn so lange hat es von der 750 zur Titan X gebraucht.

Nightspider
2016-01-04, 09:48:22
Morgen soll das NDA ja ablaufen oder sogar heute. Denke da wird es etwas mehr Infos geben als nur das, was auf den Folien steht. Interessant ja auch die Perf/W Folie:

Woher stammt die Info?
Soll die Architektur auf der CES vorgestellt werden?

Und soll der kleine Chip noch in 28nm oder schon in 14/16nm produziert werden?

Infos zur Markteinführung gabs ja sicherlich noch nicht hinter vorgehaltener Hand oder?

dildo4u
2016-01-04, 09:52:45
Steht doch da Finfet 16nm.

http://videocardz.com/58031/amd-announces-polaris-architecture-gcn-4-0

mboeller
2016-01-04, 09:56:23
Verbesserungen sind natürlich nicht ausgeschlossen, aber das Konstrukt hat AMD anscheinend nicht grundlegend überarbeitet.
Ich hätte z.B. vermutet, dass AMD auch Richtung Tiled-Based Renderer geht, wie Nvidia mit Maxwell und wie im mobile-space schon üblich, aber die Folie suggeriert keine großen Unterschiede.



ich lese den den Text hier schon so:

"Primitive Discard Architecture"

http://cdn.videocardz.com/1/2016/01/AMD-Polaris-Architecture-1.jpg

AffenJack
2016-01-04, 10:00:40
Woher stammt die Info?
Soll die Architektur auf der CES vorgestellt werden?

Und soll der kleine Chip noch in 28nm oder schon in 14/16nm produziert werden?

Infos zur Markteinführung gabs ja sicherlich noch nicht hinter vorgehaltener Hand oder?

Guck doch auf die Folie, unten steht NDA bis 4 Januar, 9Uhr EST, also heute 15uhr

Kartenlehrling
2016-01-04, 10:13:52
driver 16.10beta

Sollte das nicht crimson 16.01beta heissen für 01.2016?

Locuza
2016-01-04, 10:32:42
ich lese den den Text hier schon so:

"Primitive Discard Architecture"

http://cdn.videocardz.com/1/2016/01/AMD-Polaris-Architecture-1.jpg
Ich lese den Text als:
"Primitive Discard Accelerator".
:tongue:

Und wenn wir schon dabei sind, würde ich das heftig finden, wenn sie zu GCN 4 nirgendwo Conservative Rasterization oder ähnliches hinschreiben.
Oh AMD, don't screw it up.

Kartenlehrling
2016-01-04, 11:01:10
witzig finde ich das sie beim Video decoden von h265 main10 up to 4k,
aber beim encoden von nur 4k h.265 60fps schreiben, somit nur 8bit

fondness
2016-01-04, 11:13:52
Irgendwie macht mir die Folie mit Rasterizer und Backend nun Angst.
Kein Conservative Rasterizer und keine ROVs confirmed?
Neue Gen ohne DX12 FL12.1 wäre schon bemerkenswert.

Wie man bei nvidia über Jahre gesehen hat stört das offenbar keinem wenn man nicht jedes FL mitnimmt, zumal ohnehin die Konsolen die Basis darstellen. Aber mal abwarten, aktuell ist das noch schwer zu beurteilen.

/Edit: Was anderes: Sieht jedenfalls schwer danach aus, als würden die GPUs von TSMC und GF kommen, denn man legt sich bewusst nicht auf eine Strukturbreite fest sondern erwähnt nur FinFET.

mboeller
2016-01-04, 11:22:58
Ich lese den Text als:
"Primitive Discard Accelerator".
:tongue:


UPPS!

Locuza
2016-01-04, 11:29:57
Früher hatte Nvidia aber das Glück, dass die höheren FLs oder die neuen APIs keine gravierend neue Features eingeführt* haben und Intel meanwhile Kleber gefressen hat.
Jetzt haben wir aber mit Conservative Rasterization und ROVs zwei starke Rendering-Features, welche Intel und Nvidia supporten.
Nvidia kann das ganze jetzt auch mit GameWorks direkter pushen.

Keine schöne Situation.

* Wobei DX10.1 teilweise starke Verbesserung hatte.

fondness
2016-01-04, 11:51:02
Gerade Conservative Rasterization und ROVs benötigen eine breite Hardwarebasis für eine Unterstützung, ein Fallback ist sehr aufwändig und/oder langsam und daher der Einsatz wohl kaum in nächster Zeit realistisch, egal was AMD nächstes Jahr bringt. Womöglich dauert es sogar bis zur nächsten Konsolengen ehe wir das wirklich sehen werden. Ich sehe auch nicht, wie man das groß über Gameworks pushen kann, das sind grundsätzliche Rendertechniken. Aber wie schon gesagt mal abwarten.

Kartenlehrling
2016-01-04, 11:52:37
Ich leier das gerne runter .... wie lange hat Nvidia PCSS gebraucht bis es "wirklich" ins Spiel einzug fand, genau 7!! Jahre.

Locuza
2016-01-04, 12:13:25
Gerade Conservative Rasterization und ROVs benötigen eine breite Hardwarebasis für eine Unterstützung, ein Fallback ist sehr aufwändig und/oder langsam und daher der Einsatz wohl kaum in nächster Zeit realistisch, egal was AMD nächstes Jahr bringt. Womöglich dauert es sogar bis zur nächsten Konsolengen ehe wir das wirklich sehen werden. Ich sehe auch nicht, wie man das groß über Gameworks pushen kann, das sind grundsätzliche Rendertechniken. Aber wie schon gesagt mal abwarten.
VXGI von Nvidia verwendet CR und hat einen Software-Modus durch Geometry-Shader.
Nvidia könnte einige Rauch und Flüssigkeitsalgorithmen mit DX12 umsetzen und AMD weiterhin ausschließen.
Eine prekäre Situation wäre das.

Intel hat auch Algorithmus den sie als ROV-Version und auch als DX11 Version haben.
ROVs sollen laut einem Entwickler auch zu den wenigen Features gehören, die man ohne größere Probleme schon in heutige Rendering-Pipelines integrieren könnte.

Klar ist aber das Problem, dass ohne IHV Support sich wohl kaum ein Studio finden lassen wird, welches diese Features umsetzen würde.

fondness
2016-01-04, 12:17:08
Der Software-Modus durch Geometry-Shader ist mit hoher Wahrscheinlichkeit viel zu langsam um ihn in einem Spiel einzusetzen. Klar kann Nvidia AMD einfach ausschließen, aber das können sie jetzt auch schon wenn sie wollen, dazu braucht es kein spezielles Feature. Hat man ja auch tw. gesehen in der Vergangenheit. Aber man sollte sich ohnehin nicht über ungelegte Eier den Kopf zerbrechen.

Locuza
2016-01-04, 12:22:57
Jetzt bräuchte es aber teilweise weniger Überzeugungsarbeit, anstatt zu sagen, hier habt ihr unsere Nvidia exklusive API und macht mal PhysX oder CUDA.
Jetzt könnte man einfach sagen, hey hier habt ihr den Effekt mit der Standard-API DX12 umgesetzt, die auch Intel vollständig unterstützt.

Ailuros
2016-01-04, 12:27:36
Ob es Vorteile gibt fuer eine so fruehe generische marketing-zentrische Vorstellung bleibt abzusehen.

AffenJack,

Lies mal das feingedruckte; es steht ziemlich klar drin dass die Polaris GPU um die 85W gegen die GTX950@140W verbraucht. Ihre zukuenftige mainstream Loesung verbraucht um sooooo viel weniger unter einem FinFET Prozess.....es steht zwar im text des slides drin dass all dieses auf vorzeitiger hw und sw gemessen wurde, aber besonders begeistert bin ich von der Behauptung jetzt nicht. Ausser man ist mit Absicht mit dem generischen marketing BS einfach zu bescheiden, obwohl es eigentlich auch nichts aendern wird denn die Konkurrenz fischt vertrauliches Material auch nicht aus solchem Zeug.

fondness
2016-01-04, 12:34:04
Ganz davon abgesehen, dass man die Daten eh schwer für voll nehmen kann: Es wären 65% bessere Perf/Watt wie bei Maxwell. NV verspricht ~70% bessere Perf/Watt für Pascal ggü. Maxwell anhand ihrer Roadmap mit SGEMM-Werten. Wäre also IMO im Rahmen. Wunder wird es keine geben das sollte klar sein, aber eine ähnliche Perf/Watt wie Nvidia wäre schon mal nicht übel nach heutigen Maßstäben IMO.

Locuza
2016-01-04, 12:37:43
Ich finde es aber nett, dass man den GM206 genommen hat.
Man hätte auch den eigenen Bonaire oder Pitcairn nehmen können und astronomische Verbesserungen aufzeigen und sich extrem vage gegenüber der Konkurrenz halten.

Jetzt hat man aber einen groben Leitfaden.
Bombastisch sind 86W sicher nicht, aber early Pascal Stuff ist im Labor vermutlich nicht viel besser oder überhaupt?
Nvidia hatte zwei Marketing-Folien gezeigt.
Eine mit Faktor 2 besserer Effizienz und die andere mit 66% bzw. 2/3.
Im optimal Fall wäre Nvidia ein gutes Stück effizienter, aber nicht mehr so gravierend wie mit Maxwell, womit AMD unter vielen Märkten stark verloren hat.
Im worst case für Nvidia, wäre man Nacken an Nacken oder AMD würde ein paar % gewinnen.

Ailuros
2016-01-04, 12:43:49
Ich finde es aber nett, dass man den GM206 genommen hat.
Man hätte auch den eigenen Bonaire oder Pitcairn nehmen können und astronomische Verbesserungen aufzeigen und sich extrem vage gegenüber der Konkurrenz halten.

Jetzt hat man aber einen groben Leitfaden.

Einen Leitfaden fuer was genau? Der generische Duenschiss ist total wertlos momentan.

Bombastisch sind 86W sicher nicht, aber early Pascal Stuff ist im Labor vermutlich nicht viel besser oder überhaupt?

Haetten sie einen so deutlichen Vorteil mit dem groessten core haetten sie wohl diesen erwaehnen koennen. Dass alles Maxwell schon auf einem FinFET Prozess schon so weit kommen koennte leuchtet wohl keinem ein oder?

Nvidia hatte zwei Marketing-Folien gezeigt.
Eine mit Faktor 2 besserer Effizienz und die andere mit 66% bzw. 2/3.
Im optimal Fall wäre Nvidia ein gutes Stück effizienter, aber nicht mehr so gravierend wie mit Maxwell, womit AMD unter vielen Märkten stark verloren hat.
Im worst case für Nvidia, wäre man Nacken an Nacken oder AMD würde ein paar % gewinnen.

NV hat sich streng auf HPC/compute bezogen und dieses mit einem 17Mrd. Transistoren schweren core der wohl schwer nur 85W verbraucht oder?

Locuza
2016-01-04, 12:51:40
Fazit?
Wir bekommen PR Stuff, wir sagen Bullshit und dann warten wir neuere Infos ab und zum Ende hin die ganzen Tests.

dargo
2016-01-04, 12:52:33
Ganz davon abgesehen, dass man die Daten eh schwer für voll nehmen kann: Es wären 65% bessere Perf/Watt wie bei Maxwell. NV verspricht ~70% bessere Perf/Watt für Pascal ggü. Maxwell anhand ihrer Roadmap mit SGEMM-Werten. Wäre also IMO im Rahmen. Wunder wird es keine geben das sollte klar sein, aber eine ähnliche Perf/Watt wie Nvidia wäre schon mal nicht übel nach heutigen Maßstäben IMO.
Bitte nicht jetzt schon mit Zahlen wild rumhantieren. Noch gibt es viel zu viele Fragezeichen. Das beste Szenario für AMD anhand der Gesamtmessung.

60W fürs restliche System außer der Graka bei AMD = 26W nur für die Graka
60W fürs restliche System außer der Graka bei Nvidia = 80W nur für die Graka

55W fürs restliche System außer der Graka bei AMD = 31W nur für die Graka
55W fürs restliche System außer der Graka bei Nvidia = 75W nur für die Graka

oder, oder, oder....

Und schon passt deine Rechnung hinten und vorne nicht.

Troyan
2016-01-04, 13:05:21
Die Folie bezieht sich klar auf die Karte. Und eine GTX950 verbraucht keine 140W.
Selbst die ineffiziensten GTX960 Karten liegen in Anno2070 bei ~120W: http://www.hardware.fr/articles/945-6/consommation-efficacite-energetique.html

Eine GTX950 braucht ca. 10-15W weniger: http://www.hardware.fr/articles/941-5/consommation-efficacite-energetique.html

Und die Referenzkarte liegt bei 90W.

Also lügt AMD einfach dreist auf der Folie. Aber so kann man seine "Verbesserungen" auch 6 Monate lang als überragend hinstellen.

dargo
2016-01-04, 13:10:15
Nochmal groß für den Troll.
Gesamtsystem-Verbrauch!

Troyan
2016-01-04, 13:12:31
Gesamtsystem? Wie steht es um deine Englischkenntnisse?

"The Polaris card on Med Preset @ 1080p scored 60FPS and consumed 86W. The GTX950 card on Med Preset @ 1080p scored 60FPS and consumed 140W".

dargo
2016-01-04, 13:16:41
Wie steht es um deine Logikkenntnisse? Wie kann eine GTX950 140W bei einer TDP von 90W verbrauchen? Kopf einschalten!

Kriton
2016-01-04, 13:18:35
Die Folie bezieht sich klar auf die Karte. Und eine GTX950 verbraucht keine 140W.
Selbst die ineffiziensten GTX960 Karten liegen in Anno2070 bei ~120W: http://www.hardware.fr/articles/945-6/consommation-efficacite-energetique.html

Eine GTX950 braucht ca. 10-15W weniger: http://www.hardware.fr/articles/941-5/consommation-efficacite-energetique.html

Und die Referenzkarte liegt bei 90W.

Also lügt AMD einfach dreist auf der Folie. Aber so kann man seine "Verbesserungen" auch 6 Monate lang als überragend hinstellen.

Bullshit. Die Amerikaner erlauben eindeutig vergleichbare Werbung - aber eben nur im Rahmen dessen was real ist. Bei deren Strafsystem bleibt man auch in diesem Rahmen. Sie werden cherry picking betrieben haben (das kann man aus dem Kleingedruckten lesen), aber die Werte werden reproduzierbar sein. Es sollte auch klar sein, dass Karten in unterschiedlichen Szenen und Spielen unterschiedlichen Verbrauch haben.
Mir sollte aber vermutlich aber auch klar sein, dass unsere Nvidia-Jünger nicht anders können. :rolleyes:

Troyan
2016-01-04, 13:23:31
Achje, Logik.
Nirgendwo auf der Folie wird der Stromverbrauch in Verbindung mit dem Gesamtsystem gebracht. Der Fakt ist, dass AMD klar von der Karte spricht und nicht vom System sollte dir zeigen, dass der Stromverbrauch sich auch auf die Karte bezieht.

Anderenfalls: Warum sollte man Werte für voll nehmen, die man erst in 6 Monaten verifizieren kann.

Kartenlehrling
2016-01-04, 13:33:09
Ihr habt vergessen das AMD einen Wundertreiber benutzt der erst Oktober 2016 (driver 16.10beta) veröffentlich wird.

Kriton
2016-01-04, 13:43:37
Achje, Logik.
Nirgendwo auf der Folie wird der Stromverbrauch in Verbindung mit dem Gesamtsystem gebracht. Der Fakt ist, dass AMD klar von der Karte spricht und nicht vom System sollte dir zeigen, dass der Stromverbrauch sich auch auf die Karte bezieht.

Anderenfalls: Warum sollte man Werte für voll nehmen, die man erst in 6 Monaten verifizieren kann.

Da Du Dich vermutlich auf meinen Post beziehst: Ich habe auch nicht vom Gesamtsystem gesprochen. Deine Aussage geht (sofern sie an mich gerichtet war) also fehl.

Troyan
2016-01-04, 13:48:41
Nein, ich bezog mich auf Dargo, der vom Gesamtsystem gesprochen hat.

Hübie
2016-01-04, 13:51:18
Also selbst Igor Wallossek von THG misst mit seinem hochauflösendem Equipment "nur" 118 Watt bei einer OC-Karte. Wie zum Henker willst du dann die 140 Watt erreichen? In Ultra kommt diese auf 44 fps also Medium 60. Es wird sich hierbei schon um das Gesamtsystem handeln, jede Wette.

Troyan
2016-01-04, 13:57:30
Das weiß ich. Deswegen sage ich es auch. :freak:

Und ich sage es nochmal: Nirgendwo wird der Verbrauch direkt mit dem Gesamtsystem in Verbindung gebracht. Und jede normale Firma ist in der Lage den Stromverbrauch der Karte direkt zu messen und nicht mit Werten von einem 10€ Gesamtstrommesser von Conrad seine Marketingfolien zu pflastern.

Hübie
2016-01-04, 14:05:16
Da magst du durchaus Recht haben, jedoch gibt man vorab auch ungern allzu viel preis, da die Mitbewerber sich dann leichter positionieren können. Das nennt sich taktisches Handeln. ;)

fondness
2016-01-04, 14:15:27
Vielleicht ist es auch einfach ein Tippfehler und es soll GTX970 heißen :ugly:

AMD hat jedenfalls natürlich Profi-Equipment um die Karte alleine oder wenn man will selbst den Chip alleine zu messen. Aber wer weiß, das heißt ja nicht, dass man nicht doch das Gesamtsystem gemessen hat, ganz einfach um nicht viel zu verraten.

Korvaun
2016-01-04, 14:29:42
Wie auch immer es gemessen wurde, solange beide Karten gleich gemessen wurden kann man zumindest grob vergleichen. Und dann hat man halt ne 28nm NV-Karte mit ner 16nm AMD-Karte verglichen.
Dafür sind die Werte nicht berauschend, sondern im Rahmen des erwarteten allein durch die Umstellung auf den neuen Prozess. Wie viel da jetzt wirklich durch die neue GCN-Version kommt ist für mich nicht ersichtlich...

Hübie
2016-01-04, 14:44:34
Wieso? Faktor 1,6 ist doch im angegeben Rahmen. Du weißt ja auch gar nicht wie klein dieser Chip letztendlich ist.

r-or
2016-01-04, 14:47:14
es gab auch noch nie Fehler auf AMD Folien

iuno
2016-01-04, 14:59:41
Gesamtsystem? Wie steht es um deine Englischkenntnisse?
Und wie sieht es bei dir so aus?
Board manufacturers may vary configurations yielding different results.
Damit ist wohl kaum das PCB der Grafikkarte gemeint -> Gesamtsystem
Dieses Training ist darueber hinaus nicht sehr anspruchsvoll, in der Luft hat man deutlich mehr FPS (logisch), als im normalen Spiel. Noch dazu hat es in dem Training hoechstens mal 5 bots gleichzeitig. In der Situation ist mit framelock auf 60 Stromsparen angesagt.

Troyan
2016-01-04, 15:01:04
Ja, und? Bezieht sich wohl kaum auf das Motherboard.

BlacKi
2016-01-04, 15:01:12
so 15 uhr, wo bleiben die neuigkeiten?^^

iuno
2016-01-04, 15:01:20
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Specials/AMD-Polaris-Daten-Release-1182286/
http://www.computerbase.de/2016-01/amd-polaris-next-gen-radeon-14-nm-finfet/
CB nennt "14 nm", schreibt aber eigentlich nur von TSMC :facepalm:

BlacKi
2016-01-04, 15:03:08
dangeeeeee^^

fondness
2016-01-04, 15:04:20
BTW, der Chip müsste im übrigen schon verdammt winzig sein um bei 14/16nm FinFET Prozess nur GTX950-Leistung zu erreichen. Dürfte also klar lowend sein, wenn das Testexemplar dort nicht sehr niedrig taktet oder teildeaktiviert ist.

iuno
2016-01-04, 15:05:47
150 mm² laut Schaetzung von PCGH.
und "made in taiwan" ;)

Der Chip ist uebrigens fuer Notebooks gedacht

Troyan
2016-01-04, 15:06:40
Oder er ist "verdammt groß" - so wie fiji zu GM204. Ein 200mm^2 Chip sollte daher locker auf deutlich weniger Strom gebracht werden können, wenn er in "Medium" nur 60FPS erreichen soll.

Und die Stromverbrauchsangaben kommen von AMD und wurden laut Computerbase nicht vorgeführt.

fondness
2016-01-04, 15:08:28
Oder er ist "verdammt groß" - so wie fiji zu GM204. Ein 200mm^2 Chip sollte daher locker auf deutlich weniger Strom gebracht werden können, wenn er in "Medium" nur 60FPS erreichen soll.

Und die Stromverbrauchsangaben kommen von AMD und wurden laut Computerbase nicht vorgeführt.

Bitte nur einmal sachlich bleiben. Alleine durch 14/16nm schrumpft der Chip Minimum um die Hälfte vs. 28nm.

150 mm² laut Schaetzung von PCGH.
und "made in taiwan" ;)

Der Chip ist uebrigens fuer Notebooks gedacht

Ein 150mm² FinFET Chip sollte erheblich mehr Leistung wie eine GTX950 erreichen können.

Locuza
2016-01-04, 15:08:44
http://anandtech.com/show/9886/amd-reveals-polaris-gpu-architecture

Laut Anandtech sah das Ding so aus, als ob der Chip sogar kleiner als Cape Verde wird.
Also definitiv low-end und Trollyaner, extra für dich:
The purpose of this demonstration for RTG was threefold: to showcase that a Polaris GPU was up and running, that the small Polaris GPU in question could offer performance comparable to GTX 950, and finally to show off the energy efficiency advantage of the small Polaris GPU over current 28nm GPUs. To that end RTG also plugged each system into a power meter to measure the total system power at the wall. In the live press demonstration we saw the Polaris system average 88.1W while the GTX 950 system averaged 150W. Meanwhile in RTG’s own official lab tests (and used in the slide above) they measured 86W and 140W respectively.

fondness
2016-01-04, 15:10:33
http://anandtech.com/show/9886/amd-reveals-polaris-gpu-architecture

Laut Anandtech sah das Ding so aus, als ob der Chip sogar kleiner als Cape Verde wird.
Also definitiv low-end und Trollyaner, extra für dich:

Okay also ganz klar Gesamtsystemmessung, und wie ich schon dachte sehr klein, danke.

BlacKi
2016-01-04, 15:12:27
hört sich viel zu krass an... eigentlich unglaublich... scheiße wird dieses jahr geil^^

iuno
2016-01-04, 15:15:04
Der Anandtech Redakteur schaetzt das aber ganz grob mit Bezug auf Kodouris Hand ab. Da finde ich die Angabe von PCGH doch deutlich glaubwuerdiger, die hatten das Teil auch in der Hand und sich prompt eine Skizze gemacht.
150mm² waeren aber wirklich recht gross. "Doppelt so gross" in 28nm waere zwischen Pitcairn und Tahiti. Aber es ist ja gut moeglich, dass man bei dem Chip nicht gleich an die Grenze des machbaren geht, was die Packdichte anbelangt.

fondness
2016-01-04, 15:16:50
hört sich viel zu krass an... eigentlich unglaublich... scheiße wird dieses jahr geil^^

Das stimmt, wenn man für die GTX950 mal die üblichen 90W annimmt, dann dürfte die Polaris GPU keine 30W schlucken?! Aber wie schon gesagt: Marketingfolien, daher abwarten.

Unicous
2016-01-04, 15:19:40
Folglich auch

Der – ansonsten baugleiche – Rechner mit der Polaris-Grafikkarte kam dabei auf Werte zwischen etwa 85 und 90 Watt, während der Rechner mit der GeForce GTX 950 auf 140 bis 150 Watt gekommen ist.
Quelle-CB-Artikel

Somit dürfte klar sein, dass Troyan oder wer auch immer hinter dem nick steckt, nur wieder stänkern wollte.

Das ist nämlich das Problem. Die Folien ersetzen nicht die Präsentation, wo das Ganze nochmals in Perspektive gesetzt wird und man genauer ins Detail geht.

edit:

Und auch noch wichtig (Auch das erfahren wir nicht aus den Folien ;) )

Laut AMD soll dies aber noch nicht das Ende der Fahnenstange sein. Das gezeigte Exemplar soll auf die Werte nur durch die reinen Prozess- und die Architekturverbesserungen gekommen sein. Energiesparmechanismen wie Power Gating oder variierende Taktraten und Spannungen waren noch nicht aktiviert, sodass die finale GPU theoretisch noch genügsamer ist.

Wer nun denkt, dass die AMD-Hardware durch HBM einen zusätzlichen Vorteil bei der Leistungsaufnahme erhält, der liegt falsch. Denn die kleine Polaris-GPU kommt mit GDDR5-Speicher daher. HBM bleibt den größeren Modellen beziehungsweise wahrscheinlich nur deren Umsetzung auf einem Flaggschiff vorbehalten.

Genau deswegen braucht man eigentlich die scheiß NDA-Breaker nicht unterstützen. Sie haben nämlich keine Ahnung was sie posten und können es nicht einmal ansatzweise einordnen.

fondness
2016-01-04, 15:22:27
Auch wird ja ziemlich deutlich zugegeben, dass die kleine GPU von GF kommt und die große wohl von TSMC, was ich recht interessant finde.

Mögliche Schlussfolgerung: Der GF-Prozess ist energieeffizienter, aber der TSMC-Prozess erlaubt höhere Taktraten?

BlacKi
2016-01-04, 15:23:32
Das stimmt, wenn man für die GTX950 mal die üblichen 90W annimmt, dann dürfte die Polaris GPU keine 30W schlucken?! Aber wie schon gesagt: Marketingfolien, daher abwarten.
naja, die fps sind gecapped also etwas weniger als 90w. ich würde auf 40-45w tippen für die polaris karte . die 90w für die gtx 950 sind schon recht sparsam, aber der polaris chip selbst toppt das ganze nochmals um das 2x des maxwellchips.

wenn man pitcairn nimmt kann man hier wirklich um den faktor 3x sprechen. einfach wow!

Schnoesel
2016-01-04, 15:24:14
Das einzig für mich wirklich interessante ist das bereits ein lauffähiges Exemplar gezeigt wurde. Überrascht mich dann doch etwas muss ich sagen. Bei Rest kann man jetzt spekulieren oder einfach mal auf die Tests warten.

Unicous
2016-01-04, 15:25:54
Was übrigens passiert, wenn inkompetente Menschen auf Internet-Gerüchte hereinfallen weil sie nicht einmal ansatzweise nachgedacht haben kann man hier erleben.

Microsoft Could Refresh Xbox One Design with Polaris Based SoC (http://www.techpowerup.com/218897/microsoft-could-refresh-xbox-one-design-with-polaris-based-soc.html)


Mein Gesicht ist vor Fremdscham ganz rot. :redface::redface::redface:

iuno
2016-01-04, 15:26:38
Etwas seltsam ist, dass sowohl Anandtech als auch CB wissen wollen, dass der kleine Polaris in 14 FF gefertigt wird, also Samsung/GF
To that end we know that the small Polaris GPU that RTG previewed will be produced by GlobalFoundries on their 14nm process
Für beide [GPUs] hat Koduri nun bestätigt, dass sie auf die FinFET-Fertigung und die kleinere der beiden auf eine Strukturbreite von nur 14 nm setzen wird.
[...]
[Die GPU] sei vor weniger als zwei Monaten von Globalfoundries zurückgekommen

Und PCGH nennt "1543 ES Made in Taiwan" als Aufschrift auf dem Sample...

Auch interessant bzgl. der Fertigung, ist dass nicht unbedingt wie bisher von vielen angenommen 16 FF+, sondern auch 16 FF bei der grossen GPU zum Einsatz kommen koennte. Laut Macri (Quelle CB) gaebe es da naemlich "deutlich gesteigerte Leckströme".

Dural
2016-01-04, 15:28:04
@Schnoesel

wie so überrascht das den? wenn die Karten Mitte 2016 in den Handel kommen, müssen da lauffähige Karten vorhanden sein.

Das einzige was wirklich überrascht ist das sehr frühe zeigen der neuen Hardware, und da frage ich mich wie so genau. Das kann man drehen und machen wie man will, aber wirklich positives kommt für AMD dabei nicht raus.

Unicous
2016-01-04, 15:28:25
@iuno

Tja, da stößt der Journalismus mal wieder an seine Grenzen.;)

fondness
2016-01-04, 15:31:43
Das einzige was wirklich überrascht ist das sehr frühe zeigen der neuen Hardware, und da frage ich mich wie so genau. Das kann man drehen und machen wie man will, aber wirklich positives kommt für AMD dabei nicht raus.

Warum hat Intel den Core 2 damals schon ein halbes Jahr vor Markteinführung benchen lassen? Wirklich nicht schwer zu erraten: Man hat aktuell nicht die besten Produkte am Markt und hofft durch eine offensive Vermarktung der zukünftigen Generation potentielle Kunden zum warten zu bewegen, weil man der Meinung ist mit der neuen Generation deutlich besser dazustehen. Man will schließlich nur so wenig Kunden wie möglich an Nvidia verlieren.

w0mbat
2016-01-04, 15:33:28
Das kann man drehen und machen wie man will, aber wirklich positives kommt für AMD dabei nicht raus.

Echt? Ich sehe das ausschließlich als Positiv. Die wissen dass sie was geiles in der Hand haben, was sie auch schon zeigen könne. Wenn es schlecht wäre, würden wir Infos nur direkt vor dem Launch bekommen.

Unicous
2016-01-04, 15:46:34
Auf diese billige Trollerei braucht man doch nicht hereinfallen.:biggrin:

Wann hat Dural denn das letzte Mal irgendetwas Kohärentes zum Thema beigetragen.:rolleyes:

fondness
2016-01-04, 15:47:21
Noch ein paar genauere Infos zum Testsystem etc:

5g3eQejGJ_A

MechWOLLIer
2016-01-04, 15:48:10
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Specials/AMD-Polaris-Daten-Release-1182286/
http://www.computerbase.de/2016-01/amd-polaris-next-gen-radeon-14-nm-finfet/
CB nennt "14 nm", schreibt aber eigentlich nur von TSMC :facepalm:
Dann schaue dir den Text mal genauere an anstatt direkt rumzuflamen:facepalm:

"Das eigentliche Highlight war allerdings ein lauffähiges System mit Polaris-GPU. Diese sei vor weniger als zwei Monaten von Globalfoundries zurückgekommen, funktioniere aber bereits gut. "

Korvaun
2016-01-04, 15:49:13
2 sehr positive Punkte für mich:

- AMD hat gut lauffähige Hardware, da die Präsi ja schon Anfang Dez. war + 2 Monate hat AMD also schon knapp 3 Monate lauffähige Chips.

- Das gezeigte Exemplar soll auf die Werte nur durch die reinen Prozess- und die Architekturverbesserungen gekommen sein. Energiesparmechanismen wie Power Gating oder variierende Taktraten und Spannungen waren noch nicht aktiviert, sodass die finale GPU theoretisch noch genügsamer ist. Wenn das dann so reinhaut wie bei Maxwell kann da noch sehr ordentlich was besser werden.

Jetzt bin ich gespannt ob sich NV herablässt und Pascal zeigt/bencht oder ob sie das schlicht ignorieren...

fondness
2016-01-04, 15:50:06
http://s23.postimg.org/w1bcbi9dn/Clipboard01.jpg (http://postimg.org/image/xgcx08agn/full/)

MechWOLLIer
2016-01-04, 15:52:31
Carsten hatte in seiner Interviewgruppe ja anscheinend das Glück, dass Koduri das Package gezeigt hat - das hat er in meiner leider nicht (oder wir haben die falschen Fragen gestellt:D).

Koduri hat bei der Präsentation definitiv 14 nm GF gesagt. Die GPU die Carsten sehen konnte spricht aber natürlich nicht unbedingt dafür (aber auch nicht zwangsweise dagegen).

Botcruscher
2016-01-04, 16:08:43
Mögliche Schlussfolgerung: Der GF-Prozess ist energieeffizienter, aber der TSMC-Prozess erlaubt höhere Taktraten?

Bei den Billigchips ist es doch eher egal. AMD wird von GF schlicht Wafer abnehmen müssen.

Unicous
2016-01-04, 16:13:23
Bei den Billigchips ist es doch eher egal. AMD wird von GF schlicht Wafer abnehmen müssen.

Schon lange nicht mehr.

Hübie
2016-01-04, 16:13:34
Es ist ein Unterschied zwischen dem Assembling des Packages und der Lithographie des Die ;) Also kann es gut sein, dass der Die von GF kommt aber in Taiwan zusammengesetzt wurde. Kenne AMDs Standorte nicht so, aber wenn die was in Taiwan haben wäre das die plausibelste Erklärung.

Unicous
2016-01-04, 16:16:36
Haben sie aber nicht.;)

Locuza
2016-01-04, 16:17:34
Schon lange nicht mehr.
War nicht im letzten Call (XYZ, irgendeiner :tongue:) bzw. vielleicht war es der FAD, die Rede davon das man weiterhin immer mit GloFo verhandelt, aber dank einer so tollen Beziehung das letzte mal einfach keine Strafe bezahlen musste?

fondness
2016-01-04, 16:24:15
Jedenfalls ist das sicher nicht die optimale Lösung, viele Logikblöcke müssen auf den Fertigungsprozess angepasst werden und deshalb wohl mehr oder weniger doppelt designet werden. Ist die Frage was der Grund dafür ist, entweder es gibt einen guten technischen Grund warum der eine Prozess für lowend besser geeignet ist und der andere besser für highend, oder es liegt doch am Wafer-Agreement mit GF. zB ist ja schon bekannt, dass der Samsung/GF-Prozess bessere Packdichten erlaubt, könnte natürlich bei lowend wo es auf den Preis und Stückzahlen ankommt ein Vorteil sein, ob es sich deswegen allerdings lohnt zwei Fabs zu verwenden? Ich weiß nicht.

Locuza
2016-01-04, 16:27:09
Wobei AMD vermutlich schon effektiv was dafür unternommen hat, wie bei Jaguar weniger spezifische Makros verwenden.
Aus Kostensicht haut es vielleicht gar nicht so sehr rein, für beide zu fertigen, dafür büßt man möglicherweise bei der Performance oder dem Verbrauch etwas ein, wenn man etwas generischer spezifiziert.

Dural
2016-01-04, 16:27:39
Echt? Ich sehe das ausschließlich als Positiv. Die wissen dass sie was geiles in der Hand haben, was sie auch schon zeigen könne. Wenn es schlecht wäre, würden wir Infos nur direkt vor dem Launch bekommen.

aha und dabei schon jetzt ihre aktuellen Produkte dermassen schlecht da stehen zu lassen, extrem positiv für AMD wenn man in einem halben Jahr noch mal weniger Verkauft! Mit der Präsentation haben sie heute schlicht zugegeben das die aktuellen Produkte nicht Marktfähig sind.

Warum hat Intel den Core 2 damals schon ein halbes Jahr vor Markteinführung benchen lassen? Wirklich nicht schwer zu erraten: Man hat aktuell nicht die besten Produkte am Markt und hofft durch eine offensive Vermarktung der zukünftigen Generation potentielle Kunden zum warten zu bewegen, weil man der Meinung ist mit der neuen Generation deutlich besser dazustehen. Man will schließlich nur so wenig Kunden wie möglich an Nvidia verlieren.

Wir werden sehen, sag mir nur eine GPU Generation wo dies der Fall war.
Zudem die Werte die AMD liefert für 28nm vs 14nm jetzt wirklich nichts spezielles sind, vor allem bei lächerlichen 850MHz Takt und 0,8Volt ?!?

Viel Theater um nichts, wie so immer.

Kartenlehrling
2016-01-04, 16:59:42
Viel Theater um nichts, wie so immer.

Genau lass doch erstmal die grüne dicke Dame singen, mitte 2016 ist also Juni somit verdammt lang.

Flusher
2016-01-04, 17:14:59
Das einzige was wirklich überrascht ist das sehr frühe zeigen der neuen Hardware, und da frage ich mich wie so genau. Das kann man drehen und machen wie man will, aber wirklich positives kommt für AMD dabei nicht raus.

a) wieso sollte dabei nix Positives rauskommen für AMD?
b) um die Aktionäre bei Laune zu halten.

iuno
2016-01-04, 17:17:43
Dann schaue dir den Text mal genauere an anstatt direkt rumzuflamen:facepalm:

"Das eigentliche Highlight war allerdings ein lauffähiges System mit Polaris-GPU. Diese sei vor weniger als zwei Monaten von Globalfoundries zurückgekommen, funktioniere aber bereits gut. "
Wenn ich flamen wollte wuerde ich in euer Forum gehen :facepalm:
Das war kein Geflame sondern eher die Aufregung darueber dass es dazu weiterhin keine sicheren Informationen gibt. Fuer AMD steht ja fest, wo sie fertigen lassen, wir wissen es halt noch nicht. Die Infos sind eben auch nur scheinbar eindeutig, wenn sich das derart mit der Info die wir von PCGH haben beisst.
Warum schreibst du die Info, das Sample sei von GF gekommen dann nicht klipp und klar in den 'passenden' Absatz?

Locuza
2016-01-04, 17:19:50
Alle drei Quellen sagen, dass AMD gesagt hat, dass der kleine Chip bei GloFo gefertigt wird.
Nur hat PCGH eben beim Package eine Aufschrift gefunden, die dem immerhin für das Sample widerspricht.

Nakai
2016-01-04, 17:21:54
Laut PCGH (Link (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Specials/AMD-Polaris-Daten-Release-1182286/)):

Insgesamt, so Raja Koduri im Gespräch mit PC Games Hardware, sei man für die Polaris-Architektur bei bis zu 2,5-facher Energieeffizienz der Vorgängergeneration angekommen - genauer wollte er diesen Vergleich allerdings nicht spezifizieren.

Reinher von den Benchmarkwerten, wird diese Polaris-GPU im Mobile-Faktor etwas stärker als Pitcairn sein. Wenn die PCGH-Angaben von etwa ~150mm² stimmen und es eine Notebook-GPU ist, hat es noch nichts mit der Desktop-Performance zu tun.
Bei 150mm² und mehr als doppelter Packdichte, handelt es sich eher um eine Tahiti/Tonga-artige GPU, reinher von der Performance.
Auch wird man eher auf GDDR5/X gehen, wie es aussieht. Da kann ich mir nicht mehr als ein 128Bit SI vorstellen. Eventuell hat man sogar ein 192Bit SI verbaut, belässt dies jedoch erstmal für den Desktop oder verbaut dann GDDR5X. Eine bessere DCC wäre auch von Vorteil.



Eventuell sehen wir mit Polaris eine deutlich größere Effizienz pro FLOP. Jedenfalls wird es auf die Folien angedeutet und die "neuen" Änderungen sprechen auch dafür. Ich vermute seit längerer Zeit, dass das Front aka CP die CUs nicht gut genug auslasten kann, vor allem wenn man nur eine CommandQueue verwendet. Eventuell wird da der Rotstift angesetzt. Dafür spricht auch das "Instructon pre-fetch" und andere Anmerkungen.

Ansonsten kann man hier derzeit nichts weiteres herauslesen. Die überarbeiteten CUs sind jedenfalls auch ein interessanter Punkt.

captain_drink
2016-01-04, 17:24:47
Die Folie ist sicherlich cherrypicking, denn das Vsync-Cap kommt AMDs Powertune tendenziell entgegen.
Die astronomischen Verbräuche der größeren Chips ab ~350mm² sind ja ebenfalls nur dann zu beobachten, wenn es kein Cap welcher Art auch immer gibt.
Um ein aussagekräftiges Urteil zu ermöglichen, müsste AMD also den großen Chip ohne Cap antreten lassen.

Nakai
2016-01-04, 17:32:07
Zauba:

https://www.zauba.com/import-video-graphics-card-hs-code.html

Es gibt zwei Boards:
C98101 aus Hong Kong
C98001 aus Canada

€:
Ahja, es wird wohl mit ziemlicher Sicherheit die gezeigte GPU sein. Etwas anderes ist erstmal nicht wahrscheinlich.

Sunrise
2016-01-04, 17:32:53
AMD hat nicht wirklich viele Mittel mehr, mit scheinbar Positivem zu glänzen. Dass uns hier eine Marketingvorstellung mit etwas technischem Hintergrund nicht sonderlich beeindruckt ist doch normal, für uns machen sie das aber auch nicht.

Dass AMD uns hier effektiv eine Prozesspräsentation als Polaris-Architektur verkauft merken nur die Wenigsten. Interessant auch, wie sie gleichzeitig tiefstapeln und andeuten, dass finale HW noch besser wegkommen soll, da nicht alles aktiv ist. Man könnte ja schon fast annehmen, man sagt zwar Polaris, zeigt uns aber HW die durch einen Shrink von 28nm auf 16nm entstanden ist, und somit das gezeigte Sample in Wahrheit noch von TSMC kommt. ;)

@fondness:
Es gibt aktuell abseits von purem Marketing nur wieder das A9/A9X-Beispiel, ansonsten sind Fab- bzw. Prozessvergleiche leider Mangelware.

Bei voller Last im iPhone 6S gewinnt immer TSMC bei der Batterielaufzeit. Ebenso wird der A9X mit deutlich höherem Takt (ggü. dem A9) bei TSMC gefertigt. Währendessen ist zumindest LPE bei Samsung flächeneffizienter (10%). Daraus lässt sich auch etwas schlussfolgern...

Nightspider
2016-01-04, 17:34:24
Vergesst bitte nicht das beide Grafikkarten konstant 60fps lieferten aber dadurch nicht mit Sicherheit gesagt werden kann das Karte A vielleicht 80fps hätte liefern können und Karte B 100fps.
Wir wissen gar nichts über die exakte Performance von dem gezeigten Chip von daher könnte es schon ein ~150mm² großer Chip sein selbst wenn ein ~110mm² großer Chip schon für die Leistung gereicht hätte.

So wie es aussieht können wir wohl mitte des Jahres mit einem ~150mm² und einem 300-350mm² Chip rechnen, sofern wirklich nur 2 vers. GPUs dieses Jahr von AMD kommen.

Da können wir nur hoffen das wir 1. Quartal 2017 auch einen fetten GP100 Konkurrenten bekommen werden mit ~500-550mm².

h.265 in 4K mit 60fps und 10Bit finde ich top! (y)

Sunrise
2016-01-04, 17:39:31
Die Folie ist sicherlich cherrypicking, denn das Vsync-Cap kommt AMDs Powertune tendenziell entgegen.
Die astronomischen Verbräuche der größeren Chips ab ~350mm² sind ja ebenfalls nur dann zu beobachten, wenn es kein Cap welcher Art auch immer gibt.
Um ein aussagekräftiges Urteil zu ermöglichen, müsste AMD also den großen Chip ohne Cap antreten lassen.
Richtig, das hatte man schon bei der Fury gesehen, dass das Limitieren hier starke Verbrauchsvorteile zeigt.

aufkrawall
2016-01-04, 17:41:34
h.265 in 4K mit 60fps und 10Bit finde ich top! (y)
Ist aber auch absolutes Mindestmaß, kann die GTX 960 schon seit einem Jahr.
Hoffentlich kann die VPU auch nativ VP9 dekodieren.

Unicous
2016-01-04, 17:43:37
Zauba:

https://www.zauba.com/import-video-graphics-card-hs-code.html

Es gibt zwei Boards:
C98101 aus Hong Kong
C98001 aus Canada

€:
Ahja, es wird wohl mit ziemlicher Sicherheit die gezeigte GPU sein. Etwas anderes ist erstmal nicht wahrscheinlich.

Woher nimmst du diese Sicherheit?:confused:

iuno
2016-01-04, 17:45:08
Die Folie ist sicherlich cherrypicking, denn das Vsync-Cap kommt AMDs Powertune tendenziell entgegen.
Dabei, so AMD mündlich, seien gut ein Dutzend Stromsparfeatures der Polaris-GPU im Prototypen noch gar nicht aktiv - ob diese aber auch unter Last oder eher im Leerlauf wirken, ließ man offen
Energiesparmechanismen wie Power Gating oder variierende Taktraten und Spannungen waren noch nicht aktiviert, sodass die finale GPU theoretisch noch genügsamer ist.
Man wird den Chip fuer die Demo wohl eher taktmaessig so eingestellt haben, dass er gerade die 60 FPS knackt und ist dann mit der Spannung runter, bis es nicht mehr ging.

Bei 150mm² und mehr als doppelter Packdichte, handelt es sich eher um eine Tahiti/Tonga-artige GPU, reinher von der Performance.
Auch wird man eher auf GDDR5/X gehen, wie es aussieht. Da kann ich mir nicht mehr als ein 128Bit SI vorstellen. Eventuell hat man sogar ein 192Bit SI verbaut, belässt dies jedoch erstmal für den Desktop oder verbaut dann GDDR5X. Eine bessere DCC wäre auch von Vorteil.
Ich denke nicht, dass man direkt an die Grenze des machbaren geht, was die Packdichte anbelangt. Ueber die Lebenszeit des 28 nm Prozesses wurde die Packdichte ja noch deutlich erhoeht (Tahiti: 12,2, Fiji: 14,9 Mio. Transistoren pro mm²).

Und warum GDDR5X? Soweit ich weiss macht den nur Micron, da muesste man sich also an einen Hersteller nageln. Zudem hatte AMD tendenziell ja eher niedrig taktende SIs, das waere schon eine ziemliche Wende.

fondness
2016-01-04, 17:48:11
Die Folie ist sicherlich cherrypicking, denn das Vsync-Cap kommt AMDs Powertune tendenziell entgegen.
Die astronomischen Verbräuche der größeren Chips ab ~350mm² sind ja ebenfalls nur dann zu beobachten, wenn es kein Cap welcher Art auch immer gibt.
Um ein aussagekräftiges Urteil zu ermöglichen, müsste AMD also den großen Chip ohne Cap antreten lassen.

Da die Tester nur scharf auf irgend welche unrealistischen Maximalverbräuche sind, wird es in Zukunft ebne ein engeres Cap geben und fertig.

Ailuros
2016-01-04, 17:49:25
Die Folie ist sicherlich cherrypicking, denn das Vsync-Cap kommt AMDs Powertune tendenziell entgegen.
Die astronomischen Verbräuche der größeren Chips ab ~350mm² sind ja ebenfalls nur dann zu beobachten, wenn es kein Cap welcher Art auch immer gibt.
Um ein aussagekräftiges Urteil zu ermöglichen, müsste AMD also den großen Chip ohne Cap antreten lassen.

Jemand sollte mal bedenken "likes" auch hier im Forum einzufuehren, dann koennte ich mir diesen Post z.B. auch gleich sparen. Sonst "bravo" da es doch noch einen gibt der es schafft die richtige Perspektive zu erreichen ausserhalb von marketing BS.

Da die Tester nur scharf auf irgend welche unrealistischen Maximalverbräuche sind, wird es in Zukunft ebne ein engeres Cap geben und fertig.

Unrealistisch ist jediglich die einseitige Perspektive der jeweiligen gruenen oder roten Fraktion hier. Von mir aus koennt Ihr von jetzt nur noch mit Kopfstaenden, Handschellen und Maulkoerben messen wenn es einer neu erfundenen "Objektivitaet" helfen sollte.

aufkrawall
2016-01-04, 17:52:13
Da die Tester nur scharf auf irgend welche unrealistischen Maximalverbräuche sind, wird es in Zukunft ebne ein engeres Cap geben und fertig.
Für dich sind Torture und maximaler Durchschnittsverbrauch in Spielen das Gleiche?
Ach ja, ist ja nichts neues. Schließlich stehen Radeons dabei ja nicht glänzend da :freak:

HOT
2016-01-04, 17:53:07
Alle drei Quellen sagen, dass AMD gesagt hat, dass der kleine Chip bei GloFo gefertigt wird.
Nur hat PCGH eben beim Package eine Aufschrift gefunden, die dem immerhin für das Sample widerspricht.
Nein, die haben ein Package gefunden, auf dem Taiwan stand. Das heißt aber gar nix, denn auf den Sockel-Kabinis steht ebenfalls "Made in Taiwan". Da wurd der Chip aber nur verpackt, sonst nix. Allerdings steht auf dem Kabinis auch "Assembled in Germany", der Chip wurde also in Dresden, also bei GloFo, gefertigt.
Natürlich ist der Vergleich mit der GTX950 total nichtssagend. Wenn die GPU 150mm² hat, wird er ca. 12CUs haben. Also taktet man übelst runter und betreibt den Chip quasi im Mobil-Modus. Natürlich schafft man dann so bahnbrechende Werte, denn mit FF hat man ja extrem weniger Leckströme zu beklagen, da kann man auch einen eigentlich breiteren Chip nehmen als den kastrierten GM206. So stellt man natürlich den FF-Vorteil am effektivsten dar.

fondness
2016-01-04, 17:57:08
@fondness:
Es gibt aktuell abseits von purem Marketing nur wieder das A9/A9X-Beispiel, ansonsten sind Fab- bzw. Prozessvergleiche leider Mangelware.

Bei voller Last im iPhone 6S gewinnt immer TSMC bei der Batterielaufzeit. Ebenso wird der A9X mit deutlich höherem Takt (ggü. dem A9) bei TSMC gefertigt. Währendessen ist zumindest LPE bei Samsung flächeneffizienter (10%). Daraus lässt sich auch etwas schlussfolgern...

Zwei gleiche Chips wird es wohl auch von AMD nicht geben, aber zumindest wird man dann halbwegs vergleichen können welcher Prozess welche Vor- bzw. Nachteile hat. Aber ich denke auch, dass der TSMC-Prozess eher besser ist und für GF vor allem das Wafer-Agreement spricht, zumal es bei den kleinen Chips wohl eher egal ist. Für TSMC spricht natürlich auch, dass sie viel Erfahrung haben mit komplexen GPUs.