PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Locuza
2014-04-11, 14:16:50
In dem Fall kann man doch einfach sagen, dass es BS ist.

Unicous
2014-04-11, 14:21:27
Habe ich ja schon vor ein paar Seiten.

Aber nicht mit dieser "Bestimmtheit". Das ist schon putzig. Als ob Duplex es aus erster Hand erfahren hätte.;D
Dabei tut er nur seine eigene Meinung kund.

robbitop
2014-04-11, 14:59:49
Noch mal. Fondness wählt das falsche Wort und sagt es sei kein Qualitätsmerkmal möglichst viel flops "auf die Straße" zu bringen.
Ich widerspreche und sage dass gerade das eines sei.
Dann kommst du daher und widersprichst mir es sei allein kein Qualitätskriterium. :rolleyes:
Was soll ich deiner Meinung nach dazu sagen / davon halten.

Trägt aber gerade nix zum Thema bei.
Ich halte es für sinnfrei, sich an einzelnen Worten festzuklammern, wenn im Kontext ganz klar zu lesen ist, was gemeint ist. Das hilft der Diskussion nicht.
Und wenn man schon beim Wort "Qualitätskriterium" ist: die Auslastung einer µ-Arch hat sicher nichts mit "Qualität" nach ISO oder IEC Norm zu tun.

Eine µ-Arch zu designen, welche eine extrem hohe Auslastung hat, ist doch nichts besonderes. Das ist einfach nur eine Frage vom Einsatz von Transistoren (für Kontrolllogik, Caches und I/O). Am Ende ist es entscheident, wieviel Leistung bei wieviel Einsatz herauskommt. Wie man also die möglichst ideale Gewichtung aller Kriterien erreicht.
Da führen verschiedene Wege nach Rom.

Nightspider
2014-04-11, 15:39:28
Eine Firepro mit R9 390X Chip würde dann ja quasi 4-4,5 TFlops DoublePrecision leisten.

Wenn Nvidia im gleichen Zeitraum nur einen kleinen GM104 herausbringt, welcher vllt wieder sehr langsambei DP ist, könnte AMD einen guten Impact haben.

mrck
2014-04-11, 16:03:02
...

Ailuros
2014-04-11, 16:05:13
Klar, ich bau auch immer 14 CUs, wenn ich ne 16 CUs Grundstruktur schon hab mit Tahiti... so ein Schwachsinn...

Krumme Einheitszahlen sind nicht taboo wenn man eine gewisse Zielschwelle nicht ueberschreiten will.

So wie die ganzen 20nm-Utopisten?

Sie nagen alle an Deinem Trollstuhl.

Knuddelbearli
2014-04-11, 16:17:07
Das Apple Argument ist keines.

Apple braucht gigantische mengen für einen Launch.
Da kann man wohl, schätze ich, von locker 2-3Mio Geräten ausgehen und das bei schätzungsweise 120mm² ist weit mehr als AMD benötigt

Dawn on Titan
2014-04-11, 17:00:00
Trotzdem hat TSMC nur eine endliche Anzahl Wafer und was Apple und Qualcom abgreifen, steht eben nicht zur Verfügung.

Ailuros
2014-04-11, 17:12:29
Trotzdem hat TSMC nur eine endliche Anzahl Wafer und was Apple und Qualcom abgreifen, steht eben nicht zur Verfügung.

Schon nur ist der Faktor QCOM nichts Neues fuer die letzten Jahre und vergleichbare Mengen. Apple ist jetzt ein neuer Zusatz und wie ich schon sagte hoffentlich nur eine Eintagsfliege fuer TSMC. Sonst fuer 20SoC wird TSMC wohl wie bei anderen Prozessen vorgehen. Man startet mit irgendwo 1% Produktion fuer den neuen Prozess fuer das erste Halbjahr und danach werden die Kapazitaeten durch mehrere fabs radikal skaliert. Fuer Q3 14' duerften schon eine heftige Anzahl an 20nm wafers aus fab12 und 14 kommen.

Unicous
2014-04-11, 18:31:16
Juli-August für R9 370X in 20nm macht diese News unglaubwürdig. Wenn AMD mit einem relativ großen Chip (deutlich) vor Apple mit 20nm auf den Markt kommt, würde es sehr verwundern in dieser Runde! Iphone 6 wird nicht vor September erwartet.



http://blogs.barrons.com/techtraderdaily/2014/04/09/tsm-pushing-forward-on-20-nano-iphone-6-chip-says-bluefin/

Wie Knuddelbärli schon sagte, wenn Apple im September ihr iPhone 6 vorstellt, dann werden womöglich JETZT schon die Chips, Chassis, Displays etc. hergestellt um die Nachfrage, die in die Abermillionen geht. Unglaubwürdig ist gerade das dann eben nicht.

Ailuros
2014-04-11, 18:44:50
http://forum.beyond3d.com/showpost.php?p=1840654&postcount=25

He also clearly has no knowledge of the capabilities of current ASICs.

Unicous
2014-04-11, 18:53:58
sushiwarrior, der ja in der Vergangenheit immer für ein paar Leaks gut war, behauptet das über Fiji:


Fiji will be something new and different, with respects to memory config. Big die.
http://forums.anandtech.com/showpost.php?p=36253890&postcount=83


Big die strategy anyone?

Akkarin
2014-04-11, 19:22:08
Was hat big die mit der memory config zu tun ? Großes interface ? Viel on-die memory (eSRAM/eDRAM/cache) ? Stacked ram TSV ?

Nakai
2014-04-11, 19:24:44
GDDR6? Dual-Die über TSV? Cache? HMC?

Nightspider
2014-04-11, 19:27:39
2*400mm² Die über TSV und Preis over 9000! ;D

Aber mal im Ernst: es ist nur eine Frage der Zeit bis wir irgendwann Grafikkarten mit gestapelten GPUs mit TSV Verbindungen sehen werden. Damit könnte man eine viel bessere Effizienz als mit bisherigen Multi-GPU Lösungen erreichen und wahrscheinlich sogar eine 1:1 Skalierung und man würde nicht den doppelten VRAM für 2 GPUs bzw. dreifachen VRAM für 3 GPUs benötigen. Eine GPU mit 3 GPU Dice würde sich so verhalten wie ein GPU Die mit drei mal so großer Fläche.

Sowas wird aber bestimmt noch 5-10 Jahre dauern.

M4xw0lf
2014-04-11, 19:29:16
PS4, XBoxOne, und Hawaii auf einem Die?

Unicous
2014-04-11, 19:35:55
Was hat big die mit der memory config zu tun ? Großes interface ? Viel on-die memory (eSRAM/eDRAM/cache) ? Stacked ram TSV ?

Das big die muss sich ja nicht zwangsläufig nur auf die memory config beziehen.

Es ist ja auch egal, ob sich durch on-die-Memory die Die-Größe erhöht, aber bis jetzt hat sich AMD ja da meist zurückgehalten, weil sie ja auch nicht die großen Aufträge im Professional-Sektor hatten.

Vllt. ändert sich das ja. Denn die wollen vor Allem viel Speicher.

I/O könnte ja dadurch auch gespart werden, bzw. der MemController effizienter gestaltet werden. Denn der "shrinkt" ja sehr schlecht mit.

basix
2014-04-11, 21:58:55
2*400mm² Die über TSV und Preis over 9000! ;D

Hehe :biggrin:

Blediator16
2014-04-11, 22:11:09
PS4, XBoxOne, und Hawaii auf einem Die?

Da wird höchstens noch eine WiiU passen für die xbone war kein Platz mehr aus unverlässlich sicheren Quellen gehört.

Gabs vor kurzem nicht mal zu lesen, dass AMD Konsolen und "GPUs" bei GF produzieren lassen soll?

Mandalore
2014-04-11, 23:35:08
Hmmm er meint mit memory config meint er nicht "unbedingt" sowas wie HBM.


Aber passen würde es. Ich meine AMD hatte schon bei der HD7970 3D-RAM in Planung. Und jetzt zum Release dann 3 Jahre danach, passt eigentlich:rolleyes:

CountDoku
2014-04-12, 00:00:41
Mal ne Frage an die Experten hier. nVidia hat doch "pro Kern (Shader)" wie Intel auch einen Vorteil gegenüber AMD. Wie sollte man dann, nehmen wir mal an die Shaderzahl hier würde stimmen, das einstufen? Wäre AMD nicht hoffnungslos Maxwell unterlegen? Ich meine hier ist das alles Spekulation und die Maxwell Architektur ist schon lange auf dem Markt. Ich denke AMD muss sich was einfallen lassen speziell die "Pro Kern" Leistung zu steigern und den Stromverbrauch senken.

Ich frage nur nach und würde gern die Einschätzung der Experten, speziell Ailuros und Co hören.

OBrian
2014-04-12, 00:25:37
Big Die kann auch nur bedeuten, daß der Takt niedrig ist und dafür mehr Einheiten verbaut werden. Speicherinterface breiter und dafür langsamerer RAM war bei Hawaii eine gute Strategie bzgl. des alles entscheidenden Maßstabs "Performance pro Watt", also werden sie wohl nicht wieder schmal+schnell zurückgehen. Und genauso kann es sein, daß 20nm keine hohen Takte erlaubt, also kein 1 GHz sondern nur 700 MHz oder so, dafür dann eben mehr Fläche verballern. Was natürlich für 28nm genauso passen würde, größeres Die dürfte bei inzwischen guter Ausbeute kein Problem mehr darstellen.

Für Stacked RAM ist es wohl noch etwas zu früh, das geht erstmal noch ohne. Aber wie Nightspider oben gesagt hat, damit könnte man bei richtiger Config die sinnlose Mehrfachbelegung des RAMs bei CF vermeiden. Aber nicht, wenn man das einfach so wie jetzt organisiert und nur den RAM von der Platine auf das Die verlegt, man muß also erstmal etwas Umorganisieren. Evtl. gibt es da einen Fortschritt in diese Richtung, als Vorbereitung für stacked RAM später, was aber jetzt ggf. schon CF zu Gute kommt. Immerhin pusht AMD ja auch den gemeinsamen RAM für CPU und GPU (siehe Kaveri), das muß ja auch irgendwie auf Karten ausgedehnt werden. Evtl. haben sie sich da was Interessantes einfallen lassen. Inwiefern DAS dann aber mehr Diefläche beanspruchen soll, kann ich mir auch nicht vorstellen.

CountDoku
2014-04-12, 00:35:07
Aber über die neue Architektur von AMD ist nichts bekannt? Ich meine Maxwell wurde schon gelauncht! Hat AMD da nicht Zugzwang? An AMD`s Stelle würde mir der Arsch auf Grundeis gehen.

Auf gut Deutsch gesagt es wird Zeit für AMD mal was zu zeigen. Sonst siehts düster aus.

Unicous
2014-04-12, 01:44:59
Oh ja. AMD schaudert geradezu vor Angst. *brrr

Nvidia hat einen Testpiloten auf Erkundung geschickt, aber weder einen Wingman noch ein ganzes Geschwader hinterhergeschickt und es scheint da kommt erst einmal nicht mehr viel. Ich sehe AMD in den Bunkern zittern.:rolleyes:

So wie es aussieht wird Nvidia wohl 204 und 206 auf 20nm fertigen und erst im 1H2015 mit 20nm starten. AMD könnte entweder das Gleiche machen oder gleich komplett auf 20nm setzen... aber natürlich min. ein Quartal vorher. Egal wie, im Zugzwang sind sie nur bedingt, also nur der üblichen Marktgepflogenheiten wegen: Du zeigst mir was, dann zeige ich dir auch was.

Dawn on Titan
2014-04-12, 09:14:59
AMD ist doch heute schon überlegen. Man hat mehr Reserve beim Diesize, man hat mehr Rechenpower, warum sollte sie das ändern.

Skysnake
2014-04-12, 09:50:59
2*400mm² Die über TSV und Preis over 9000! ;D

Aber mal im Ernst: es ist nur eine Frage der Zeit bis wir irgendwann Grafikkarten mit gestapelten GPUs mit TSV Verbindungen sehen werden. Damit könnte man eine viel bessere Effizienz als mit bisherigen Multi-GPU Lösungen erreichen und wahrscheinlich sogar eine 1:1 Skalierung und man würde nicht den doppelten VRAM für 2 GPUs bzw. dreifachen VRAM für 3 GPUs benötigen. Eine GPU mit 3 GPU Dice würde sich so verhalten wie ein GPU Die mit drei mal so großer Fläche.

Sowas wird aber bestimmt noch 5-10 Jahre dauern.
Die gestackten GPUs schminken wir uns lieber mal ganz schnell ab fürs Erste.

Bevor wir das sehen, werden wir erstmal RAM auf dem gleichen Package wie die GPU sehen, dann den RAM + GPU auf nem Interposer, oder gleich GPU auf den RAM gestacked, oder halt RAM auf GPU gestacked.

Und erst dann werden wir Multi-GPU auf einem Interposer gestacked sehen, und da danach dann vielleicht irgendwann mal GPU on GPU, wobei ich das nicht zwingend für eine optimale Lösung halte. Man muss das Zeug ja auch noch mit Strom versorgen, und auch mit dem RAM-Verbinden. Da läuft man leider egal bei welcher Variante dann in Probleme, so lange RAM und Logik auf unterschiedlichen Prozessen gefertigt werden.

"Optimal" Wäre RAM und Logik auf einem DIE, die kann man dann nämlich beliebig übereinander und nebeneinander stacken.

Darüber machen wir uns aber vielleicht in 5-10 Jahren mal Sorgen.

uweskw
2014-04-12, 16:45:39
Wie ist das denn mit der 20nm Fertigung? Es hiess doch mal, dass 20nm keine "echte" 20nm Fertigung sei. Da wurde doch nur mit den Bezeichnungen rumgespielt??? Oder war das ne Ente?

Greetz
U.S.

Knuddelbearli
2014-04-12, 16:59:37
ne das was du meinst ist 16nm ( TSMC ) bzw 14XM ( GloFo ) bzw alles was Intel fertigt.

uweskw
2014-04-12, 17:11:27
Thanks, also dürfen wir erwarten, dass die Vorteile der veringerten Strukturbreite voll durchschlagen?
Great!

Knuddelbearli
2014-04-12, 17:12:56
nicht ganz da es ja keinen HP Prozess mehr gibt sondern nur noch einen SOC Prozess, außerdem nimmt Vorteil ja immer weiter ab je kleiner man wird, aber insgesamt ja.

Unicous
2014-04-12, 17:21:48
Leider ist 20nm sehr undurchsichtig. Mein weiß so gut wie nichts, obwohl bei TSMC ja die Produktion angelaufen sein müsste.

Auf die Marketingfolien kann man nichts geben, aber soweit ich das mitbekommen habe, ist der Shrinkfaktor etwas geringer als bei vorherigen Generationen. Aber das auch nur gerüchteweise. Jedenfalls meckert jeder über das 28nm vs. 20nm Verhältnis. Die Kosten pro Transistor steigen und gleichzeitig sollen die positiven Effekte wie gesagt, geringer ausfallen.
Deswegen wollen sie ja auch so schnell wie möglich auf FinFET und?/oder FD-SOI umstellen. Und das sind eben "16nm" bzw. 14XM (bzw. theoertisch auch 20nm FD-SOI bei GF).

Nakai
2014-04-12, 17:22:50
Fiji wird anscheinend ein sehr großer Chip, wenn man sushiwarrior vertrauen kann. Hinzu kommt noch ein neues Speichersystem oder irgendwas mit dem Speicher. HBM wurde ausgeschlossen! Also extra großer Cache, EDRAM auf dem Package oder GDDR6? Im Anandtech-Forum wird heiß diskutiert.
Ein großer Die spricht für einen 28nm-Prozess. Es sieht so aus, dass es derzeit wenig Sinn macht auf 20nm zu gehen, da der Effizienzvorteil gering ausfällt. Ein großer 28nm-Chip ist wohl "besser" und "billiger".

Unicous
2014-04-12, 17:30:16
Leider ist Anandtech ein Haifischbecken voller Idioten. Und nur ganz, ganz wenige haben da wirklich Ahnung. Noch viel weniger als hier würde ich behaupten.

By different memory config I don't mean HBM necessarily. I said BIG die. 550mm^2 doesn't hold a candle to it.
http://forums.anandtech.com/showpost.php?p=36254580&postcount=109

Again, 500-550mm^2 isn't even in the same ballpark AFAIK. It's not that big because they're cramming shaders in though.
http://forums.anandtech.com/showpost.php?p=36254685&postcount=114

Und das meine ich halt mit "Big Die Strategy". Ist ja erst einmal egal, was sie draufpappen, aber bisher hat sich AMD da zurückgehalten, große Dies mit entsprechender Yield-Kurve und Kosten zu designen. Ich denke sie wollen hier einfach Nvidia im professionellen Bereich Paroli bieten.

Akkarin
2014-04-12, 17:47:30
>>550mm ? Wie zur Hölle soll das funktionieren ? Selbst wenn davon die hälfte memory ist dürften die kosten doch explodieren, oder ?

Unicous
2014-04-12, 17:57:01
Du weißt doch gar nicht für welche Kundschaft designt wird.

Bei Nvidia ist das ok, bei AMD soll es nicht funktionieren? IBM hat noch größere Dies. Ich sehe da außer der Yield-Rate keine Probleme.

Iruwen
2014-04-12, 18:02:19
Hängt doch auch davon ab, wie dicht man packt oder nicht? AMD und NV packen um 6-7 Milliarden Transistoren auf um die 500mm² in 28nm, ein 8-core POWER7+ 80M L3 in 32nm hat 2,1 Milliarden auf fast 600mm².

Akkarin
2014-04-12, 18:10:31
Laut deiner quelle wäre der neue AMD chip aber deutlich größer als 500mm^2, also auch deutlich mehr als nVidia benutzt.

IBM hat eigene Fertigung und dürfte auch ne deutlich stabilere nachfrage und höhere Preise haben als AMD, die eher der "underdog" bei professionellen/HPC GPU chips sind. Das ist also nur sehr beschränkt vergleichbar. Zumal afaik noch nie ein GPU Chip aufgesetzt wurde der nur an Professionelle kunden verkauft wurde, oder ?

Unicous
2014-04-12, 18:15:03
Ist schwer zu vergleichen: Gate Last vs Gate First. Bulk vs SOI. Main/Full-Node vs. Half-Node.

Es ging mir generell nur um die Die-Größe. Und da ist es bei so einer Größe dann auch egal, was drauf ist und "wieviele" Transistoren . Die Yield-Rate ist immer bescheiden. Bei IBM war es durch den SOI-Prozess wahrscheinlich noch schlimmer als z.B. bei GF110/GK110.

@Akkarin.

Nvidias Chips sind um die 550mm² groß. Und es gibt auch eine physikalisch-ökonomische Grenze bei den Dies. Kann mich aber im Moment nicht, wo die liegt bzw. von welchen Faktoren das abhängt.

Es ist auch nicht "meine" Quelle, sondern sushiwarrior der in der Vergangenheit Informationen über AMD und Nvidia GPUs geleakt hat. D.h. aber nicht automatisch, dass es stimmt.

Akkarin
2014-04-12, 19:14:19
Ich meinte auch sushiwarrior. Und der sagt halt sachen wie

550mm^2 doesn't hold a candle to it.

Again, 500-550mm^2 isn't even in the same ballpark AFAIK.

Was für weit über 550 spricht. Wenn es hieße AMD macht größere chips um die 550mm^2 hätte vermutlich niemand was gesagt, aber >>550mm^2 ist nunmal was andres als 550mm^2.

Ailuros
2014-04-12, 19:22:23
@Akkarin.

Nvidias Chips sind um die 550mm² groß. Und es gibt auch eine physikalisch-ökonomische Grenze bei den Dies. Kann mich aber im Moment nicht, wo die liegt bzw. von welchen Faktoren das abhängt.

Es ist auch nicht "meine" Quelle, sondern sushiwarrior der in der Vergangenheit Informationen über AMD und Nvidia GPUs geleakt hat. D.h. aber nicht automatisch, dass es stimmt.

GT200@65nm war sogar 575mm2 gross. Intel's Larabee Enkelkinder fuer HPC sind auch 600-er chips. Ich sag mal so viel bis wir zuverlaessigeres Material haben: mir ist egal wie gross AMD's naechster GPU chip sein wird. Sie sollen gefaelligst dafuer sorgen dass sie diesmal den launch nicht wieder mit einem 0815 Luefter verpatzen wie bei der 290X.

horn 12
2014-04-12, 19:41:52
So schlimm ist nach einigen Monaten der AMD R9 290 (X) Referenz Lüfter gar nimmer!
Hoffe dies können einige Enduser gar bestätigen, nach dem Richtigen Einlaufen ist die Geräuschkilisse um Einiges Angenehmer als beim kauf und dem Ersten zocken!
Läuft permanent auf 49% und sicherlich leiser als vorher die 45% waren.
40% ist nur sehr dezent hörbar!

Knuddelbearli
2014-04-12, 19:46:28
Würde mal zu einem Ohrenarzt gehen ^^

Ailuros
2014-04-12, 19:47:31
So schlimm ist nach einigen Monaten der Lüfter gar nimmer
und hoffe dies können einigen gar bestätigen.
Läuft permanent auf 49% und sicherlich leiser als vorher die 45% waren.
40% so gut wie nicht mehr hörbar!

Es schadet NIEMAND wenn Kritikpunkte zur Verbesserung betont werden, ueberhaupt bei einem IHV der offensichtlich ein IMAGE Problem hat und nicht schlechte hw.

matty2580
2014-04-12, 22:15:32
Sie sollen gefälligst dafür sorgen, dass sie diesmal den Launch nicht wieder mit einem 0815 Luefter verpatzen, wie bei der 290X.
Besser wäre es gleich zum Launch eine Vielzahl an Custom-Designs zu haben.
Nvidia schafft das ja auch.
Ich hatte erst gehofft, dass sich die Gerüchte nicht bestätigen das Hawaii erst einmal nur mit Ref-Design kommen wird.
Leider bestätigten sich diese, und es wurde in allen Foren nur noch über den Lüfter geredet. Der Chip selbst rückte in den Hintergrund.
Leo hat mit seiner Einschätzung des Launch schon Recht gehabt.

Der Launch der Radeon R9 290 & 290X gerät (leider) immer mehr zur Chaos-Veranstaltung, bei welcher AMD nahezu alles mißlingt, was schiefgehen kann.

Ailuros
2014-04-12, 22:19:48
Sie koennen und muessen alles richtig machen diesmal ueberhaupt wenn es sich wirklich um einen sehr grossen die handeln sollte.

Locuza
2014-04-12, 22:31:18
Mir war so gelesen zu haben das TSMC bis 600mm² belichtet.
Wäre natürlich schön zu wissen, ob das ganze stimmt(e) und wie es jetzt aussieht, aber die Formulierung 550mm² können nicht einmal eine Kerze dagegen halten hört sich stark übertrieben an.
Das würde für mich heißen 600mm² und aufwärts.
Power 8 verbraucht zwar 650mm², aber IBM ist auch ihr eigener Fertiger.

@ Ail

Hinter dem Vorhang hast du einen besseren Draht zu Nvidia Informationen oder?
AMD fällt weniger darunter?

Sunrise
2014-04-12, 22:32:18
Dass der nächste GCN größer wird als das, was AMD aktuell hat, ist glaube ich jetzt keine Überraschung. Schon alleine aufgrund der wachsenden Caches und der Problematik, dass man fertigungstechnisch bis weit ins nächste Jahr recht stark limitiert ist, wird sich das so ergeben. Wenn das Ding aber über 550mm² geht, dann ist das ein klarer Angriff (evtl. auch eine neue Strategie) um mehrere Bereiche aggressiver anzugreifen.

...Nvidias Chips sind um die 550mm² groß. Und es gibt auch eine physikalisch-ökonomische Grenze bei den Dies. Kann mich aber im Moment nicht, wo die liegt bzw. von welchen Faktoren das abhängt.
Es gibt (bei TSMC) ein Reticle-Limit bei etwa 600mm². Intel liegt wohl irgendwo um die 700mm².

Ailuros
2014-04-12, 22:45:33
@ Ail

Hinter dem Vorhang hast du einen besseren Draht zu Nvidia Informationen oder?
AMD fällt weniger darunter?

Der Draht koennte gleich gross sein, wenn AMD PR sich nicht so albern verhalten wuerde.

Die stellenweise uebertriebene Geheimnistuerei ist sowieso nutzlos; es wird kein IHV kurzfristig etwas besonderes an N zukuenftigem Projekt aendern koennen. Sie wollen offensichtlich nicht so stark im Gespraech sein? Ihr Problem.

Nakai
2014-04-12, 23:22:16
Fiji mit 48CUs bei 550mm²+?

Dann wohl unter 28nm. Mit ~150mm² mehr Platz lässt sich doch Einiges erreichen. 4-8 RISC-Cores und 8MB L2/L3-Cache. Wieviel kostet eigentlich so T6-SRAM-Zellen in 28nm?

Gipsel
2014-04-12, 23:42:23
Es gibt (bei TSMC) ein Reticle-Limit bei etwa 600mm². Intel liegt wohl irgendwo um die 700mm².Das Reticle-Limit ist eine Funktion der Belichtungsmaschine, die beide nur zukaufen (vermutlich sogar von der gleichen Firma, müßte man mal nachforschen). Die gut 600mm² Limit gelten nur für quadratische Dies. Weil beim Belichten typischerweise gescannt wird (für bessere Abbildungsqualität wird nur ein schmaler Streifen der Maske belichtet und dann sowohl Maske als auch Wafer nanometergenau synchronisiert unter dem Lichtstreifen durchgeschoben, um die komplette Maske auf den Wafer zu bringen), ist das Reticle-Limit aber rechteckig. Bei ASML z.B. (http://www.asml.com/asml/show.do?lang=EN&ctx=46772&dfp_product_id=8036) beträgt die absolut maximale Maskengröße bei den meisten modernen Maschinen 26x33 = 858mm² oder sowas in der Region. Bei quadratischem Die und ein wenig Luft an der Seite werden dann daraus die oft zitierten 25x25=625mm².

Sunrise
2014-04-12, 23:48:42
Fiji mit 48CUs bei 550mm²+?

Dann wohl unter 28nm. Mit ~150mm² mehr Platz lässt sich doch Einiges erreichen. 4-8 RISC-Cores und 8MB L2/L3-Cache. Wieviel kostet eigentlich so T6-SRAM-Zellen in 28nm?
http://www.chipworks.com/en/technical-competitive-analysis/resources/blog/a-review-of-tsmc-28-nm-process-technology/

Earlier this year, we completed a limited analysis of the high density SRAM on the AMD RadeonTM HD 7970 215-0821060 graphics processor, which was fabricated with TSMC’s HP process. Our TEM analysis confirmed the 215-0821060 transistor structure was identical to that seen in the Altera Stratix V device, as would be expected since both are based on the TSMC 28 nm HP process. The 215-0821060 features a 0.16 µm2 6T-SRAM with the transistors arranged in a uniaxial layout.

Ailuros
2014-04-13, 08:32:00
Fiji mit 48CUs bei 550mm²+?

Dann wohl unter 28nm. Mit ~150mm² mehr Platz lässt sich doch Einiges erreichen. 4-8 RISC-Cores und 8MB L2/L3-Cache. Wieviel kostet eigentlich so T6-SRAM-Zellen in 28nm?

>550mm fuer 48CUs? Ich hab den Rest zwar gelesen, aber ich muss wesentliches verpassen.

Gipsel
2014-04-13, 09:49:09
Der Sushiwarrior meint ja sogar weit weit größer als 550mm², eine andere Größenordnung (vermutlich nicht wörtlich gemeint). Ein 700+mm² Monster in 20nm klingt nicht sehr überzeugend. Also entweder wäre das noch in 28nm, oder wir sprechen von ebenfalls sehr überraschendem wie einer Multi-Die-Interposer-Lösung. Oder es stimmt einfach nicht.

Botcruscher
2014-04-13, 10:13:33
ebenfalls sehr überraschendem wie einer Multi-Die-Interposer-Lösung

Ist doch bei jedem Chip der letzten 10 Jahre spekuliert wurden. Irgendwann muss es ja mal kommen.:freak:

Skysnake
2014-04-13, 10:17:27
Interposer ist durchaus möglich. Xilinx baut ja jetzt seit 2 Jahren schon solche Chips. So langsam sollten Sie das dann auch mal in den Griff bekommen haben.

Man hat ja auch von AMD+GF ja immer wieder was in die Richtung gesehen. Die Frage ist halt nur immer, wann jemand die Eier in der Hose hat, das auch wirklich auf den Markt zu bringen. Einer muss immer der Erste sein. Der hat dann zwar auch richtig große Vorteile, trägt aber auch das volle Risiko, das es ne fette Bauchlandung wird, und die kann sich keiner heutzutage leisten außer Intel vielleicht.

Die neue Führung bei AMD ist auch ganz anders drauf als die Alte. Die Neue hat durchaus Eier in der Hose, aber ich glaube ehrlich nicht, das Sie so viele haben. Da gibt es aktuell einfach tiefer hängende Früchte für Sie wie MCM, womit Sie ja VIEL Erfahrung haben, und ganz allgemein halt DRAM mit auf dem Package. Da den Interposer-"Joker" jetzt schon raus zu hauen wäre ziemlich gewagt und irgendwo auch auf lange Sicht gesehen eine ganz schöne Beschneidung von Optionen.

Daher glaube ich aktuell eher daran, das man wenn dann den RAM mit aufs Package packt, und eben alles zusammen zählt. In 1-2 Jahren MUSS man eh damit kommen, wenn nVidia es bringt, ansonsten sieht man kein Land.

Mehr als 550-600mm² für einen DIE kann ich mir beim besten Willen nicht vorstellen. Warum auch? Die haben auch so noch genug Luft nach oben, um einen ausreichend schnelleren Chip zu bringen unter 28nm. Und wenns eng wird, dann doch wirklich lieber den RAM mit aufs Package bringen. Das können die Jungs und Mädels von AMD ganz sicher.

Das Reticle-Limit ist eine Funktion der Belichtungsmaschine, die beide nur zukaufen (vermutlich sogar von der gleichen Firma, müßte man mal nachforschen). Die gut 600mm² Limit gelten nur für quadratische Dies. Weil beim Belichten typischerweise gescannt wird (für bessere Abbildungsqualität wird nur ein schmaler Streifen der Maske belichtet und dann sowohl Maske als auch Wafer nanometergenau synchronisiert unter dem Lichtstreifen durchgeschoben, um die komplette Maske auf den Wafer zu bringen), ist das Reticle-Limit aber rechteckig. Bei ASML z.B. (http://www.asml.com/asml/show.do?lang=EN&ctx=46772&dfp_product_id=8036) beträgt die absolut maximale Maskengröße bei den meisten modernen Maschinen 26x33 = 858mm² oder sowas in der Region. Bei quadratischem Die und ein wenig Luft an der Seite werden dann daraus die oft zitierten 25x25=625mm².
Naja, soweit ich das verstanden habe, muss man vom Maximum auch immer etwas abknappsen fürs Zerteilen der Chips, was ja nicht einfach nur Freifläche ist, sondern wo die Fertiger Kontrollstrukturen drauf packen, um zu schauen, ob die Prozessparameter passen.

So ~600mm² sind schon eine ganzgute Richtschnur. Zumal ja TSMC usw auch nicht das absolute Maximum normal anbieten werden. Klar, wenn der Kunde das volle Risiko alleine übernimmt, aber wer wird das schon?

Knuddelbearli
2014-04-13, 10:39:07
Fiji mit 48CUs bei 550mm²+?

Dann wohl unter 28nm. Mit ~150mm² mehr Platz lässt sich doch Einiges erreichen. 4-8 RISC-Cores und 8MB L2/L3-Cache. Wieviel kostet eigentlich so T6-SRAM-Zellen in 28nm?

dürfte locker machbar sein, bezweifle ich aber trotzdem auch wenn es mir gefallen würde ( alleine die DP Leistung!!!!!! )

Unicous
2014-04-13, 12:47:34
AMD/GF und Amkor arbeiten seit einigen Jahren zusammen und vor einiger Zeit haben sie sich ja mit Hynix verbrüdert.

Das habe ich gerade beim googleln gefunden.

http://electroiq.com/blog/2014/03/highlights-from-the-imaps-device-packaging-conference/

Bryan Black, Sr Fellow at AMD brought some good news for the 3D community when he stated “Die stacking is catching on in FPGAs, Power Devices, and MEMs but there is nothing in mainstream computing CPUs, GPUs, and APUs …HBM Stacked DRAM will change this!” He predicts that we will see 3X the bandwidth/watt using stacked memory.

Black indicates that AMD and partner Hynix are currently looking for partners to develop such products.

Aber. Ich habe irgendwie das Gefühl, dass AMD da noch etwas anderes versucht und da eher ne stop gap Variante draus wird z.B. nur GDDR5 stacked und das entsprechend angebunden. Oder irgendwie noch primitiver eine Art eDRAM als großer L3-Cache.:biggrin:




Übrigens wusste sushiwarrior schon im Oktober letzten Jahres, dass Vesuvius/295X2 ne Asetek-LQS bekommt.;D
http://forums.anandtech.com/showpost.php?p=35572519&postcount=171

Blediator16
2014-04-13, 13:06:50
Man kann ja einiges raten, aber ein Asetek WK ratet man normalerweise nicht einfach so.

Nakai
2014-04-13, 13:44:53
http://www.chipworks.com/en/technical-competitive-analysis/resources/blog/a-review-of-tsmc-28-nm-process-technology/

Natürlich spielen noch andere Faktoren in die Größe eines SRAM rein. In einer Fläche von 100mm2 würden 0,787*10^9 SRAM-Zellen passen, was ~90MB wären. Intel Haswell unter 22nm ist der 8MB-L3-Cache ~14,75mm² groß. Bei der Angabe von TSMC bei den SRAM-Zellen fehlen definitiv noch die gesamte Kontrolllogik und mögliche Redundanzen.

@Ail:
>550mm fuer 48CUs? Ich hab den Rest zwar gelesen, aber ich muss wesentliches verpassen.

sushiwarrior hat irgendwas bezüglich Die-Größe jenseits der 550mm2 für Fiji gepostet und, dass ein Großteil des Dies nicht aus CUs besteht. Und jetzt rotiert das gesamte Internet.

€:
Man kann ja einiges raten, aber ein Asetek WK ratet man normalerweise nicht einfach so.

Lest man sich die älteren Beiträge von sushiwarrior durch, fällt auf, dass er bei allem Recht hatte. Seine Andeutungen waren alle korrekt.
- Wasserkühlung(2Slot) für Vesuvius angekündigt
- hohe DP-Rate für Hawaii und Konkurrenz zu Tesla angemerkt
- gewissen Treibersupport für Produkte augegklärt
- das gesamte VI-Lineup mehr oder weniger aufgeklärt
- ...etc

Wen er jetzt schreibt, dass Fiji groß wird(in welcher Form auch immer) und nicht nur aus CUs besteht, da nehme ich das mal für gegeben hin.

Welche Diesize er auc für Fiji im Kopf hat, ich denke nicht wirklich, dass es nur aus einem Die erreicht wird.

Knuddelbearli
2014-04-13, 14:02:16
@ Gipsel Ailuros oder wer sich da sonst noch gut auskennt.

Würde sich der Bermuda von WCCF in 28nm ausgehen?
Also jetzt rein spekulativ und theoretisch.
Wenn ich so über den Hawaii DIE Shot gucke sind da grob 2/3 des Platzes ( eher weniger als mehr ) für die Shader+ROPs. Davon dann +50% mehr wären +33% des Gesamtchips und damit eine Punktlandung auf GK110.

Ailuros
2014-04-13, 14:02:25
Wir wissen alle wie gross Hawaii ist. Wenn es hypothetisch um die 550 für die clusters sind dann werden es um einiges mehr als "nur" 4 mehr als auf Hawaii.

Als ich das letzte Mal über interposers fragte hieß es dass es noch auf sich warten lässt, aber meine Hand lege ich nicht ins Feuer dank zwielichtiger Quelle (SA).

fondness
2014-04-13, 14:39:57
Das AMD "aufs Ganze" geht überrascht mich wenig. Die sog. "small Die"-Leute wurden mehr oder weniger unsanft entsorgt, Rory Read ist dafür bekannt keine halben Sachen zu machen, das sollte spätestens seit den 220W FXen oder der 295X2 klar sein. Man geht damit natürlich auch ein größeres Risiko ein.

Duplex
2014-04-13, 23:00:20
>550mm² DIEs sind nichts besonderes, GT200 65nm, GF100 oder GK110 sind alles größere DIEs, bisher hat AMD im Vergleich zu Nvidia immer auf kleinere DIEs gesetzt, wahrscheinlich wegen den Kosten, ich kann mir nicht vorstellen warum AMD plötzlich das Rad wenden sollte, nichtmal im Prozessor Bereich gibt es größere DIEs, obwohl das technisch kein Problem sein sollte, warum sollte AMD jetzt plötzlich auf größere DIEs setzen, AMD kann sich nur mit Konsolen Deals halten, die aktuellen GPUs sind vollkommen ausreichend. In 20nm wird man vermutlich wieder 350-400mm² DIEs bauen, ganz einfach weil man nicht viel Geld übrig hat.

Knuddelbearli
2014-04-13, 23:06:32
Was sollte AMD im CPU Bereich größere DIEs bringen? mehr Kerne machen keinen Sinn da sie selten ausgenutzt werden und mehr Shader werden durch DDR3 limitiert

Schaffe89
2014-04-14, 03:46:08
Die sog. "small Die"-Leute wurden mehr oder weniger unsanft entsorgt, Rory Read ist dafür bekannt keine halben Sachen zu machen,

Du pickst dir auch immer nur das positive raus.
Der Hawai Launch war mies, der Referenzkühler in Kombination mit dem Chip war mies und der FX-9590 ist einfach nur peinlich.

Die R9 295 ist vernünftig und auch vernünftig gelauncht worden.

Dawn on Titan
2014-04-14, 08:36:59
Das AMD "aufs Ganze" geht überrascht mich wenig. Die sog. "small Die"-Leute wurden mehr oder weniger unsanft entsorgt, Rory Read ist dafür bekannt keine halben Sachen zu machen, das sollte spätestens seit den 220W FXen oder der 295X2 klar sein. Man geht damit natürlich auch ein größeres Risiko ein.

Hier muss man "auf ganze gehen" definieren. Ein großer 28nm Die ist wahrscheinlich sicherer als ein normale großer 20nm.


Die R9 295 ist vernünftig und auch vernünftig gelauncht worden.

Nur die Wahl der Kühllösung ist daran vernünftig.

Skysnake
2014-04-14, 10:04:09
Mit den CUs skaliert der L1, aber nicht der L2. Der ist natürlich wie bisher an die Speichercontroller gekoppelt. Alles andere wäre wohl zuviel Aufwand.
Nicht nur zu viel Aufwand, sondern sogar eine ziemlich bescheidene Idee.

Man muss sich ja immer überlegen, was der L2 Cache in den neuen GPUs denn genau macht.

Der L2 puffert lese und schreiboperationen auf dem RAM ab, wobei er KEIN! Cachecohärenzprotokoll unterstützen muss! Der Programmierer muss sich selbst darum kümmern, das expliziet gesynct wird über fances/barrier. Die kann man recht kostensparend implementieren, indem man einfach schaut, das es eben keine ausstehenden reads/writes mehr gibt und gut ist.

Dann muss man sich ja überlegen, dass der fette Speicherbus ja immer aus 64er Packeten aufgebaut ist, also praktisch vielen unabhängigen Memory-Controllern. Man kann den Cache also segmentieren. Ist halt quasi wie ein Cache mit entsprechend niedrigerer Assoziativität.

Damit kann dann jeder L2-Cache slice an nem 64Bit-Memory-Controller völlilg unabhängig voneinander behandelt werden. Ergo macht es natürlich sinn, das zu den Controllern zu packen und nicht zu den CUs.

L2 Cache zwischen CUs und Memory Controller, wobei jeder L2 Slice einem Controller zugeordnet ist, sollte mit sehr sehr hoher Wahrscheinlichkeit die effizienteste Implementierung sein. Man nutzt halt so manche Eigenheiten von GPU-Architekturen beim Cachedesign aus. Hatte genau darüber mal eine sehr angeregte Diskussion. Man kann nur schwer worst-Cases sich ausdenken, wo so ein Design schlechter ist als ein anderes. Um ehrlich zu sein, wir hatten in unserer Diskussion garkeinen Fall gefunden, wo es etwas besseres gibt.

Hier muss man "auf ganze gehen" definieren. Ein großer 28nm Die ist wahrscheinlich sicherer als ein normale großer 20nm.

Kann durchaus sein. Die tools&libs sind schon gut entwickelt. Die Transistoren und Standardzellen sind gut charakterisiert usw usw.

Kann mir schon vorstellen, das es so ist. Gerade auch beim Analogteil, der doch einiges an Platz frisst, gewinnt man erstmal nicht so viel durch eine neue Fertigung. Die Designconstraints sind einfach noch nicht so weit entwickelt wie bei reiferen prozessen, also kann man den Prozess für Analogschaltungen auch nicht so gut ausreizen, wie einige Jahre später.

Sunrise
2014-04-14, 11:03:05
...bisher hat AMD im Vergleich zu Nvidia immer auf kleinere DIEs gesetzt, wahrscheinlich wegen den Kosten, ich kann mir nicht vorstellen warum AMD plötzlich das Rad wenden sollte...
AMD (ATI) ist bisher immer extrem früh auf die kleineren Strukturen gesprungen, daher waren (mal mit Ausnahme von R600, wo man sich in die Nesseln gesetzt hat) die Dinger auch kleiner.

TSMC 20nm SoC wird dieses Mal abseits der Flächenvorteile aber quasi keinerlei andere Vorteile bringen, zudem auch wieder teurer werden, und ebenso werden die Yields für größere GPUs wohl erst irgendwann im nächsten Jahr tragbar (siehe NV).

28nm für Fiji wäre also vollkommen nachvollziehbar, will man noch bis spätestens Ende 2014 so ein Monster launchen.

Die Kosten relativieren sich schnell, wenn man auf 28nm sowohl die besseren zu erwartenden Yields und die günstigeren Wafer hat. Mal davon ab, dass der Rest auch schon eingefahren ist.

Ailuros
2014-04-14, 17:13:40
Die Kosten relativieren sich schnell, wenn man auf 28nm sowohl die besseren zu erwartenden Yields und die günstigeren Wafer hat. Mal davon ab, dass der Rest auch schon eingefahren ist.

Es ist schwer von unserer User-Perspektive zu beurteilen, eben weir wir meistens nur Bruchteile von Infos bekommen und zuverlaessig sind sie auch nicht immer.

GT200 war bis heute NV's groesster die mit 575mm2 unter dem damals weniger problematischeren und noch reifereren fuer die Zeit 65nm. Wafer yields bei genau 52.5% und ca. $120/core Herstellungskosten. Die Herstellungskosten sind in etwa so viel wie AMD fuer die ersten Cypress cores am Anfang von 40G bezahlte, ergo ja bei wafer yields und Herstellungskosten zumindest auf ersten Blick duerftest Du recht haben. Wobei aber die Cypress Herstellungskosten nur in einem Quartal sich um 25% reduzierten.

Das "aber" ist dann dass keiner binning yields oben mitberechnet hat oder die Tatsache dass NV alleschnellstens auf 55nm damals schrumpfte und erst dort nach zwei metal spins mit zwei kastrierten GT200@55nm cores auf mGPU gehen konnte.

Sonst ist es weniger wichtig was fuer Prozesse verfuegbar sind fuer die Zukunft sondern wie dringend man den selbst minimal kleineren Prozess wirklich braucht.

Ich weiss ja jetzt nicht wirklich was AMD vorhat, aber falls sie auch irgendwie professionelle Maerkte zuerst mit einem angeblich riesigen die wie Fiji bedienen will, Hut ab fuer sie. In jedem anderen Fall kann ich das ohne weitere details noch nicht beurteilen. Nach einem gewissen Zeitpunkt ist ein bombastischer die unter 28nm auch nicht mehr billiger; die Frage ist nur wie lange es dauern wird.

HOT
2014-04-14, 18:21:08
AMD (ATI) ist bisher immer extrem früh auf die kleineren Strukturen gesprungen, daher waren (mal mit Ausnahme von R600, wo man sich in die Nesseln gesetzt hat) die Dinger auch kleiner.

TSMC 20nm SoC wird dieses Mal abseits der Flächenvorteile aber quasi keinerlei andere Vorteile bringen, zudem auch wieder teurer werden, und ebenso werden die Yields für größere GPUs wohl erst irgendwann im nächsten Jahr tragbar (siehe NV).

28nm für Fiji wäre also vollkommen nachvollziehbar, will man noch bis spätestens Ende 2014 so ein Monster launchen.

Die Kosten relativieren sich schnell, wenn man auf 28nm sowohl die besseren zu erwartenden Yields und die günstigeren Wafer hat. Mal davon ab, dass der Rest auch schon eingefahren ist.

Der R600 war 80nm und der G80 90nm. Auch beim R600 ist AMD früh eine Stufe heruntergesprungen. Vor allem die kleineren 600er waren früh dran mit 65nm.
Diesmal wird das aber kein Shrink. Ich bleibe dabei, es gibt weder von NV noch von AMD 20nm-Grafikchips, die sind mMn alle 28nm. Fiji und Bemuda sind sicherlich 28nm SHP GloFo, damit lässt sich die Größe ganz gut erklären. Ein 300W 600mm²-Monster bringt man einfach nicht im 20nm LP Prozess, der für SoCs mit maximal 20w TDP optimiert ist... Wenn TSMC einen 20nm HP-Prozess entwickelt hat (der SoC-Prozess ist damit aber nicht vergleichbar), wäre das möglich aber auch hier wäre mit 600mm² anzufangen doch recht gewagt. Bei GloFo braucht man erst recht keinen 20nm HP-Prozess erwarten. Alles was von da kommt ist sehr sicher 28nm.

Locuza
2014-04-14, 18:50:59
Also werden wir von AMD nur 20nm ARM Chips sehen?
Weil AMD meinte das man zuerst auf 20nm umsteigt und dann auf FinFETs.
Kann man mit dem 20nm SoC Prozess überhaupt etwas brauchbares herstellen, weil laut Folie ist es ein Hybrid aus Low-Power und High-Power Anforderungen, also nichts Ganzes und Halbes?
Ich denke wir werden auch keine Mobile-Chips in 20nm sehen.
Skaliert sicher auch schlecht.

Ich lasse am Ende noch drei Punkte hier ...

Nakai
2014-04-14, 19:16:01
Das Reticle-Limit ist eine Funktion der Belichtungsmaschine, die beide nur zukaufen (vermutlich sogar von der gleichen Firma, müßte man mal nachforschen). Die gut 600mm² Limit gelten nur für quadratische Dies. Weil beim Belichten typischerweise gescannt wird (für bessere Abbildungsqualität wird nur ein schmaler Streifen der Maske belichtet und dann sowohl Maske als auch Wafer nanometergenau synchronisiert unter dem Lichtstreifen durchgeschoben, um die komplette Maske auf den Wafer zu bringen), ist das Reticle-Limit aber rechteckig. Bei ASML z.B. (http://www.asml.com/asml/show.do?lang=EN&ctx=46772&dfp_product_id=8036) beträgt die absolut maximale Maskengröße bei den meisten modernen Maschinen 26x33 = 858mm² oder sowas in der Region. Bei quadratischem Die und ein wenig Luft an der Seite werden dann daraus die oft zitierten 25x25=625mm².

Mhh, interessant. Also es müsste über 600mm² damit man davon sprechen könnte, dass es nicht vergleichbar ist. Damit wären Speicherinterfaces jenseits der 512Bit möglich...mehr erwarte ich jedoch nicht, reinher der Shrinkproblematik.

Mandalore
2014-04-14, 19:34:10
Der R600 war 80nm und der G80 90nm. Auch beim R600 ist AMD früh eine Stufe heruntergesprungen. Vor allem die kleineren 600er waren früh dran mit 65nm.
Diesmal wird das aber kein Shrink. Ich bleibe dabei, es gibt weder von NV noch von AMD 20nm-Grafikchips, die sind mMn alle 28nm. Fiji und Bemuda sind sicherlich 28nm SHP GloFo, damit lässt sich die Größe ganz gut erklären. Ein 300W 600mm²-Monster bringt man einfach nicht im 20nm LP Prozess, der für SoCs mit maximal 20w TDP optimiert ist... Wenn TSMC einen 20nm HP-Prozess entwickelt hat (der SoC-Prozess ist damit aber nicht vergleichbar), wäre das möglich aber auch hier wäre mit 600mm² anzufangen doch recht gewagt. Bei GloFo braucht man erst recht keinen 20nm HP-Prozess erwarten. Alles was von da kommt ist sehr sicher 28nm.


Wieso provozierst du eigentlich das 20nm SOC-Thema immer wieder?:mad:

Es ist der einzige 20 nm Prozess und 16nm (TSMC) würde deiner Theorie nach auch nur für SoCs sein. Also werden wir bis auf alle Ewigkeit mit 28nm HP(M) verbringen müssen oder was?:upicard::uclap:

Ich hoffe, dass Nvidia und AMD ihre Monster in 20nm SOC schnellstmöglich rausbringen und dieser Theorie ein Ende setzen....

Ailuros
2014-04-14, 19:47:21
Wieso provozierst du eigentlich das 20nm SOC-Thema immer wieder?:mad:

Es ist der einzige 20 nm Prozess und 16nm (TSMC) würde deiner Theorie nach auch nur für SoCs sein. Also werden wir bis auf alle Ewigkeit mit 28nm HP(M) verbringen müssen oder was?:upicard::uclap:

Ich hoffe, dass Nvidia und AMD ihre Monster in 20nm SOC schnellstmöglich rausbringen und dieser Theorie ein Ende setzen....

Es hat keinen Zweck. Wenn jemand so weit luegen muss um 20SoC mit Absicht auf LP zu degradieren, dann hilft selbst Mitleid nichts mehr. Uebrigens These und nicht Theorie.

Nakai
2014-04-14, 20:06:17
Man kann in 20SoC GPUs bauen, nur tut man sowas nicht bei einem Prozess, der erst in die Volumen Produktion gegangen ist. Ich erwarte sogar noch 20nm-GPUs dieses Jahr, aber Fiji wird ziemlich sicher ein 28nm-Bolide.

Ailuros
2014-04-14, 20:10:26
Man kann in 20SoC GPUs bauen, nur tut man sowas nicht bei einem Prozess, der erst in die Volumen Produktion gegangen ist. Ich erwarte sogar noch 20nm-GPUs dieses Jahr, aber Fiji wird ziemlich sicher ein 28nm-Bolide.

Fiji ist doch der mittlere chip der neuen Familie; wenn dieser riesig sein soll was wuerde dann Bermuda genau sein?

Es schwirrt schon eine Ewigkeit rum dass ein mainstream PI irgendwo Ende Sommer/Anfang Herbst ankommen soll; in dem Fall kannn es gar nichts anderes als 28HP sein. Bermuda aber dann wohl nicht mehr.

Nakai
2014-04-14, 20:31:06
Fiji ist doch der mittlere chip der neuen Familie; wenn dieser riesig sein soll was wuerde dann Bermuda genau sein?

Es schwirrt schon eine Ewigkeit rum dass ein mainstream PI irgendwo Ende Sommer/Anfang Herbst ankommen soll; in dem Fall kannn es gar nichts anderes als 28HP sein. Bermuda aber dann wohl nicht mehr.

Genau das denke ich auch, nur dass ich Bermuda dieses Jahr nicht mehr vermute.
Evtl verwechselt sushiwarrior irgendeinen Chip, weil einen übergroßen Chip im Mainstream-Bereich erwarte ich eigentlich nicht.


mfg

Botcruscher
2014-04-14, 20:36:07
Bei den 600mm² stört mich irgendwie das Timing. Da hätte man auch Hawaii größer machen können.

fondness
2014-04-14, 20:49:58
Es hat keinen Zweck. Wenn jemand so weit luegen muss um 20SoC mit Absicht auf LP zu degradieren, dann hilft selbst Mitleid nichts mehr. Uebrigens These und nicht Theorie.

Ganz unbegründet ist die These ja nicht, immerhin war 28nm HPm anscheinend auch ungeeignet für GPUs. Gibt es denn konkrete Hinweise für 20SoC GPUs von TSMC? NV scheint ja GM204 und GM206 auch in 28nm zu bringen.

HOT
2014-04-14, 21:41:42
Es hat keinen Zweck. Wenn jemand so weit luegen muss um 20SoC mit Absicht auf LP zu degradieren, dann hilft selbst Mitleid nichts mehr. Uebrigens These und nicht Theorie.
Lügen... aha. Mod hin oder her aber das geht einfach zu weit, sry. Ich kann sowieso nicht verstehen, warum du meine Meinung nicht einfach als Meinung akzeptierst und immer gleich ausfallend werden muss was das Thema angeht.
Vielleicht wird mir das Gegenteil bewiesen, vielleicht aber auch nicht. Der Punkt ist, dass du meine Meinung dazu nicht ändern wirst und ich nicht aufhören werde, diese kundzutun, bis ich gute Argumente dagegen höre. Bisher gab es solche Argumente nicht, die Sache ist ganz einfach. Ich war nie wirklich aggressiv, deshalb verstehe ich diese "Kampagne" deinerseits nicht so ganz.

Bei den 600mm² stört mich irgendwie das Timing. Da hätte man auch Hawaii größer machen können.

Vielleicht führt Hawaii dann sein Leben als Chip für den professionellen Einsatz fort, während im Desktop was anderes, effizienteres kommt.

nalye
2014-04-14, 21:45:21
Jetzt kommen wir alle mal wieder runter und machen entspannt weiter...

Nightspider
2014-04-14, 22:14:55
Wenn viel dieser 600mm² großen Fläche keine Logik enthält kann das ja nur Cache sein oder?

Aber kann Cache so viel bringen das man dafür einen so viel teureren Chip produzieren möchte?
Das bezweifel ich etwas.

Akkarin
2014-04-14, 22:36:55
Wäre es möglich dass Fiji und Treasure Island in 28nm HP/HPM/SHP kommen und Hawaii und Tahiti im Spiele Markt ersetzen ? Könnten dann eine spanne von etwa ~350 +-20% für Treasure Island Pro, 420 +-20% für Treasure Island XT, 500% +-30% für Fiij Pro und 600 +-30% für Fiji XT. Damit hätte wäre man schneller als nVidia, es passt zum früher Erscheinungsdatum, der spekulierten größe der chips und dem Hawaii release.

Bermuda könnte dann mit FinFets kommen, zusammen mit shrinks für Treasure Island, Fiji und evt. noch einem chip darunter.

edit: 600mm^2 für nen 600% gaming chip wären jedoch etwas wenig, es sei denn man will die perf/w extrem hoch bringen. Ka, wie kann man das schätzen ?

Gipsel
2014-04-14, 23:20:40
Wäre es möglich dass Fiji und Treasure Island in 28nm HP/HPM/SHP kommen und Hawaii und Tahiti im Spiele Markt ersetzen ?Der Sushiwarrior meint ja sogar weit weit größer als 550mm², eine andere Größenordnung (vermutlich nicht wörtlich gemeint). Ein 700+mm² Monster in 20nm klingt nicht sehr überzeugend. Also entweder wäre das noch in 28nm, oder wir sprechen von ebenfalls sehr überraschendem wie einer Multi-Die-Interposer-Lösung. Oder es stimmt einfach nicht.;)
Also möglich wären 28nm schon. 20nm bietet ja außer etwas geringerem Stromverbrauch oder höherer Performance im Wesentlichen deutlich höhere Kosten (pro Transistor! Ein 700mm² Die in 28nm ist also billiger zu fertigen als ein 350mm² Die in 20nm). Wenn man mit dem Design erstmal genug Strom spart, um die Einführung von 20nm auf einen Refresh zu schieben (Crossover der Kosten pro Transistor nach einem Jahr?), warum nicht?

Knuddelbearli
2014-04-14, 23:33:27
sagte / fragte ich ja schon vor einigen seiten ...

Timbaloo
2014-04-14, 23:48:32
Aber kann Cache so viel bringen das man dafür einen so viel teureren Chip produzieren möchte?
Das bezweifel ich etwas.
Wenn ich mir die Änderungen von GK107 -> GM107 anschaue, von 256kb auf 2048kb, also Faktor 8, zweifle ich da nicht so stark.

Nakai
2014-04-15, 00:06:10
Naja wenn Fiji Tahiti ersetzt(~350mm²), rechnen wir doch einfach hoch. Damit kommt man auf etwa 650mm² für Fiji. Ein 384Bit SI macht Sinn, wenn man noch shrinken muss. Ebenso passt viel Cache rein. Da könnte wirklich was zwischen 3000 und 4000SPs rauskommen. Ich befürchte da eine dramatisch Cachesteigerung und eventuell zusätzliche Erweiterungen in der Form von CPU-artigen Strukturen. Wieviel Cache pro MC wären denn möglich und sinnvoll. Ich schätze etwas zwischen 1-2MB. Machen bei 6 MCs 6 - 12MB L2-Cache.
Bei den Frontends müsste auch skaliert werden.

6 SEs x 10 CUs -> 3840 SPs
6 SEs x 8 CUs -> 3072 SPs
4 SEs x 14 CUs -> 3584 SPs


Der Cache könnte direkt auch Energie sparen, was bei einer großen Fläche die Kühlung optimiert und ermöglicht den Takt hochzuziehen. Dann würden auch die WCCF-spekulierte 3072SPs möglich sein...aber was wird mit der restlichen Fläche getan. Mhh, ich speku morgen darüber weiter...:rolleyes:

OBrian
2014-04-15, 06:40:31
Also meinetwegen können sie der High-End-Karte einen Die verpassen, der so groß wie die ganze Karte ist und ein Kilowatt verbrät. Ist alles kein Problem, wenn das Teil dann genug kostet, weil es dann eh nur wenige kaufen, die auch darauf vorbereitet sind. Also keine Yield-Probleme, keine Kostenprobleme, keine Beschwerden wegen Stromverbrauch.

Aber als Tahiti-Ersatz? Das ist inzwischen Mainstream, das muß eine normale Karte werden, da kann man keine Monsterdies verbauen. Klar könnte man den Verbrauch noch in Grenzen halten, wenn man den Takt nur weit genug senkt, aber irgendwie will ja AMD auch Gewinn machen... ok, eigentlich nicht, wenn man sich die Bilanzen anschaut^^ Naja wie auch immer, ich halte das für nicht finanzierbar, den Die eben mal doppelt so groß zu machen.

Selbst was Kleineres aber immer noch Fettes wie Hawaii werden sie ungern für unter 300$ verramschen, eine Ersatzkarte für die 280X-Marktposition auf etwa Hawaii-Niveau sollte also billiger zu fertigen sein.

Also wenn Fiji ein Riesen-Die bekommt, dann ist das kein Performance-Chip für die gehobene Mittelkasse, sondern High-End, womöglich eher ein spezieller Profichip. Wenn Eure Spekulation mit den Cache stimmt, wofür bräuchte man denn Cache in Spielen? Der Nutzen hält sich da doch in Grenzen.

Interessanter ist doch eher, wie will AMD Karten für den mitttleren Bereich bauen, die günstiger herzustellen sind und weniger Strom verbrauchen als die bisherigen, so daß man bei einem bestimmten Preis mehr Performance anbieten kann. In der Frage kommt man mit stumpfem Die-Vergrößern überhaupt nicht weiter.

Ailuros
2014-04-15, 07:16:13
Ganz unbegründet ist die These ja nicht, immerhin war 28nm HPm anscheinend auch ungeeignet für GPUs. Gibt es denn konkrete Hinweise für 20SoC GPUs von TSMC? NV scheint ja GM204 und GM206 auch in 28nm zu bringen.

28HPm ist alles anderes als ungeeignet fuer GPUs es bringt nicht genug gegenueber 28HP dass jeglicher IHV den Schwung machen wuerde.

Skysnake
2014-04-15, 07:22:27
Andersherum, warum sollte ein größerer Cache nicht auch in Spielen etwas bringen?

Gerade da hat man doch auch immer wieder den Fall, das man die immer gleichen Texturen usw lesen muss.

Auch was Tesselation usw angeht, sollte ein Cache durchaus Potenzial haben die Karte zu beschleunigen, wobei das wohl eher durch Register&L1 abgefangen wird/werden muss.


Wenn viel dieser 600mm² großen Fläche keine Logik enthält kann das ja nur Cache sein oder?

Aber kann Cache so viel bringen das man dafür einen so viel teureren Chip produzieren möchte?
Das bezweifel ich etwas.
Dir ist schon klar, was man so ziemlich als erstes lernt, wenn man GPGPU lernt?

Richtig, man lernt, das man eigentlich NIE genug Speicherbandbreite hat, und alles tut, um Speicherzugriffe zu minimieren. Und das macht man, indem man die Register und SharedMemory/Caches möglichst effizient versucht zu nutzen, indem man möglichst Werte neu berechnet, wenn man Sie braucht und NICHT! zwischenspeichert, weil man sich damit die wertvollen Register/Cachelines zuballern würde.

GPUs haben im Vergleich zu CPUs winzige Caches, und ich glaube nicht, das hier die Leute der Meinung sind, das ne CPU auch mit 1/10 der Caches doch völlig ausreichen würde.

Lügen... aha. Mod hin oder her aber das geht einfach zu weit, sry. Ich kann sowieso nicht verstehen, warum du meine Meinung nicht einfach als Meinung akzeptierst und immer gleich ausfallend werden muss was das Thema angeht.
Vielleicht wird mir das Gegenteil bewiesen, vielleicht aber auch nicht. Der Punkt ist, dass du meine Meinung dazu nicht ändern wirst und ich nicht aufhören werde, diese kundzutun, bis ich gute Argumente dagegen höre. Bisher gab es solche Argumente nicht, die Sache ist ganz einfach. Ich war nie wirklich aggressiv, deshalb verstehe ich diese "Kampagne" deinerseits nicht so ganz.

Wie wäre es denn, wenn du einfach mal darlegst, warum du dieser Meinung bist. Also wirklich Gründe vorträgst. Und ich meine da jetzt wirklich echte! Gründe, und nicht nur sich wegen dem Namen etwas aus den Fingern zu saugen...

Bzgl dem Namen habe ich ja auch schon etwas mal geschrieben, was aber geflissentlich ignoriert wurde....

Ailuros
2014-04-15, 07:22:53
Lügen... aha.

Ja es ist gelogen. LP != HPm bzw. SoC im gegebenen Fall egal wie lange Du daran drehen willst. 20SoC liegt im relativem Sinn auf 28HPm Nivaeu und dieses liegt in der Mitte zwischen 28LP und 28HP.

http://extrahardware.cnews.cz/sites/default/files/styles/epc-galerie-clanek-500-nowatermark/public/pictures/novinky/ehw/2012/10rijen/roadmapa-vyrobnich-procesu-u-tsmc/tsmc_roadmap.jpg

Mod hin oder her aber das geht einfach zu weit, sry. Ich kann sowieso nicht verstehen, warum du meine Meinung nicht einfach als Meinung akzeptierst und immer gleich ausfallend werden muss was das Thema angeht.

Deine Meinung ist eine Sache und Deine Trollerei eine zweite. Falls Du Probleme mit der Moderation haben solltest beschwer Dich gefaelligst im Kontaktforum.

Vielleicht wird mir das Gegenteil bewiesen, vielleicht aber auch nicht. Der Punkt ist, dass du meine Meinung dazu nicht ändern wirst und ich nicht aufhören werde, diese kundzutun, bis ich gute Argumente dagegen höre. Bisher gab es solche Argumente nicht, die Sache ist ganz einfach. Ich war nie wirklich aggressiv, deshalb verstehe ich diese "Kampagne" deinerseits nicht so ganz.

Es haben Dich in der Zwischenzeit genug andere User genau wegen dem Thema quer angemacht, eben weil es nicht mehr "es ist meine Meinung" Bereich liegt sonder im klaren Troll-Bereich. Dabei hast Du gelegentlich auch andere dabei quer angepikelt fuer welches ich Dir auch keinen Punkt verpasst habe, haette es aber tun sollen.

Weitere "Klagen" im Kontaktforum und NICHT hier und sonst bleib sachlich bei Deiner Meinung, wir wissen schon seit ueber 10 Seiten was Deine Meinung fuer 20SoC ist und unser echtes Leben geht trotzdem weiter.


Wie wäre es denn, wenn du einfach mal darlegst, warum du dieser Meinung bist. Also wirklich Gründe vorträgst. Und ich meine da jetzt wirklich echte! Gründe, und nicht nur sich wegen dem Namen etwas aus den Fingern zu saugen...

Bzgl dem Namen habe ich ja auch schon etwas mal geschrieben, was aber geflissentlich ignoriert wurde....

20SoC ist "nur" fuer SoCs geeignet (vielleicht weil es zufaelligt "SoC" heisst) und 16FinFET eine "Eulogie" fuer GPUs (womoeglich dank 3D transistors). Nein es ist kein Witz.

Wir sind nicht das einzige forum wo ein Haufen Mist ueber Prozesse erzaehlt wird: http://forums.anandtech.com/showpost.php?p=35559109&postcount=22

Die eigentliche Realitaet ist dass 16FinFET die "absolute" Eulogie fuer SoCs am Ende ist, eben weil sich foundries eher auf das groessere Herstellungsvolumen konzentrieren muessen. Das heisst jetzt auch nicht dass Prozess ploetzlich "jack of all trades, master of none" werden oder sind, man kann GPUs durchaus fuer jeglichen dieser Prozesse anpassen und sogar im perf/W Gewinn sein am Ende.

Knuddelbearli
2014-04-15, 07:45:38
Also wenn Fiji ein Riesen-Die bekommt, dann ist das kein Performance-Chip für die gehobene Mittelkasse, sondern High-End, womöglich eher ein spezieller Profichip. Wenn Eure Spekulation mit den Cache stimmt, wofür bräuchte man denn Cache in Spielen? Der Nutzen hält sich da doch in Grenzen.


Cache kann extrem Energie sparen wenn man dadurch zugriffe auf den RAM deutlich verringert

Leonidas
2014-04-15, 16:20:58
Die eigentliche Realitaet ist dass 16FinFET die "absolute" Eulogie fuer SoCs am Ende ist, eben weil sich foundries eher auf das groessere Herstellungsvolumen konzentrieren muessen.



Genau das könnte die Begründung dafür sein, daß die Auftragsfertiger etwas aus Sicht von Grafikchips eigentlich unsinniges machen. Aber die extremen Anlaufkosten für neue Fertigungsverfahren zwingen zur Optimierung - und am Ende könnten die Grafikchips für TSMC als Geschäft zu klein sein, um zukünftig noch eine Extrawurst zu braten. Man bedenke hierbei folgende Punkte:

- so einfach können AMD/NV nicht zu anderen Fertigern wechseln, deren Möglichkeiten sind meistens viel schlechter
- von den TSMC-Kunden braucht außer AMD/NV kaum jemand in dieser Größenordnung die HP-Prozessse
- wenn 20nmSOC für Grafikchips keine Vorteile gegenüber 28nmHP bietet, bedeutet das nicht das Ende der Welt für AMD/NV, sondern schlicht einfach nur eine temporäre Verzögerung - schon 16nmSOC wird dann wieder Vorteile bieten, sprich man würde einfach eine Generation verlieren
- mit jeder neuen Fertigungstechnologie verbleiben mehr Chips bei der jeweils älteren Technologie und machen den Sprung nicht mehr mit, weil es für die jeweiligen Chips einfach nicht lohnt - dies reduziert das Umsatzpotentail neuer Fertigungsverfagren für die Fertiger erheblich

Bleibt am Ende aber dennoch nur eine Spekulation.

redfirediablo
2014-04-15, 17:30:42
Wie wahrscheinlich ist eigentlich, dass die neuen 20nm Highendchips tatsächlich bedeutend schneller werden als die alten 28nm? Hat nicht auch Intel bei den aktuellen Prozessoren damit zu kämpfen, dass langsam die Fläche zu klein wird um effektiv die Verlustleistung abzuführen? Großartiger OC Spielraum besteht ja nicht mehr, ganz im Gegensatz zu früher.

Wäre es da nicht wahrscheinlich, dass nochmal größere Chips auf dem mittlerweile günstigen und ausgereiften 28er Prozess kommen?

15.3. :D

Ailuros
2014-04-15, 18:16:38
Genau das könnte die Begründung dafür sein, daß die Auftragsfertiger etwas aus Sicht von Grafikchips eigentlich unsinniges machen. Aber die extremen Anlaufkosten für neue Fertigungsverfahren zwingen zur Optimierung - und am Ende könnten die Grafikchips für TSMC als Geschäft zu klein sein, um zukünftig noch eine Extrawurst zu braten. Man bedenke hierbei folgende Punkte:

Fuer ULP SoCs optimieren ARM und IMG ihre GPUs fuer jeden Prozess schon vor damit die Integrierung ihrer Partner unter N Prozess so und schmerzlos wie moeglich geht; auf SoC level so: http://www.imgtec.com/dok/

- so einfach können AMD/NV nicht zu anderen Fertigern wechseln, deren Möglichkeiten sind meistens viel schlechter

Ausser Intel die aber auch wirklich erst ab 14nm mit besseren Optimierungen auch fuer GPUs in ihren Prozessen loslegen gibt es nichts wirklich besseres fuer GPUs. Gupta und co. @AMD versuchen mit testchips etwas bei Glofo 20lpm etwas auf die Beine zu stellen, aber es wird noch dauern.

Samsung 20nm ist in einem um zich Mal miserablerem Zustand als 20SoC@TSMC eins der Gruende weil Apple mal schnell zu TSMC rannte. Ich will hoffen dass Apple nach 20SoC zu Samsung zurueckhuepft und Intel ihnen endlich den lang erwuenschten 14nm Herstellungsvertrag fuer dual sourcing goennt.

- von den TSMC-Kunden braucht außer AMD/NV kaum jemand in dieser Größenordnung die HP-Prozessse

Brauchen heutige und noch mehr zukuenftige GPUs eher stur mehr Leistung oder N mehr Leistung bei X weniger leakage?

- wenn 20nmSOC für Grafikchips keine Vorteile gegenüber 28nmHP bietet, bedeutet das nicht das Ende der Welt für AMD/NV, sondern schlicht einfach nur eine temporäre Verzögerung - schon 16nmSOC wird dann wieder Vorteile bieten, sprich man würde einfach eine Generation verlieren

Natuerlich bietet 20SoC Vorteile gegenueber 28HP nur sind wir wohl alle vom 40G zu 28HP Umstieg zu verwoehnt und vergessen dass zwischendrin 32nm weggefallen ist. Seite 19 http://www.eda-stds.org/edps/Papers/4-4%20FINAL%20for%20Tom%20Quan.pdf

- mit jeder neuen Fertigungstechnologie verbleiben mehr Chips bei der jeweils älteren Technologie und machen den Sprung nicht mehr mit, weil es für die jeweiligen Chips einfach nicht lohnt - dies reduziert das Umsatzpotentail neuer Fertigungsverfagren für die Fertiger erheblich

Bleibt am Ende aber dennoch nur eine Spekulation.

Die Tendenz der Problematik von Herstellungsprozessen ist generell und macht keine Ausnahmen weder fuer foundries noch fuer Prozess-Varianten selber.

Behaupten zu wollen dass 16FinFETs "besser" ist fuer GPUs waehrend 20SoC dafuer nutzlos sein soll (wobei 16FF = 20nm + FinFETs) ist momentan eher ein Witz. Vor 2016 und das nicht mal am Anfang sieht es nach nichts kompliziertem auf 16FF aus, eben weil die 3D Transistoren auch verdammt teuer sind.

Wenn 16FF so toll sein soll frag ich mich ernsthaft warum NVIDIA sowohl ihre desktop GPU als auch ULP SoC roadmaps umgekrempelt hat und fuer beide Zwischenschieber benutzt um ihre 16FF um zumindest ein Jahr zu verspaeten.

Cliff notes: Stets IMHO bleiben AMD und NVIDIA mit so grossen chips bei 28nm wie es sich noch lohnt. Da wo es sich nicht lohnt wird zu 20SoC gegriffen und es wird auch wohl noch 20SoCs refreshes spaeter geben.

Unicous
2014-04-15, 18:23:52
15.3. :D

Am 15.03.2014 (nach christlicher Zeitrechnung) um 16 Uhr und 26 Sekunden spekulierte der Nutzer redfirediablo über "nochmal größere Chips". So steht es geschrieben in den historischen Büchern.

Am 15.03.2014 (nach christlicher Zeitrechnung) um 16 Uhr und 27 Sekunden fiel ein umgefüllter UNWFP-Reissack in Nordkorea um.




scnr

N0Thing
2014-04-15, 18:59:45
Behaupten zu wollen dass 16FinFETs "besser" ist fuer GPUs waehrend 20SoC dafuer nutzlos sein soll (wobei 16FF = 20nm + FinFETs) ist momentan eher ein Witz.

Warum reitest du darauf so rum? Niemand behauptet 16nm von TSMC sei als Prozess besser für GPUs geeignet als 20nmSoC. Es ging doch immer nur um den Preis im Zusammenhang mit den Verbesserungen gegenüber 28nm HP.

Du sagst es doch selbst: Stets IMHO bleiben AMD und NVIDIA mit so grossen chips bei 28nm wie es sich noch lohnt. Da wo es sich nicht lohnt wird zu 20SoC gegriffen

Die spannende Frage ist eben: Wann lohnt sich 20nmSoC für AMD und Nvidia?

Es hat hier mal jemand im Thread den Witz gerissen, daß TSMCs 16nm besser für GPUs geeignet sei wegen der "3D"-Transistoren. Vielleicht hast du das für einen ernst gemeinten Kommentar gehalten?

Ailuros
2014-04-15, 19:13:01
Warum reitest du darauf so rum? Niemand behauptet 16nm von TSMC sei als Prozess besser für GPUs geeignet als 20nmSoC. Es ging doch immer nur um den Preis im Zusammenhang mit den Verbesserungen gegenüber 28nm HP.

Weil sich die 16FF Brauchbarkeit um einiges mehr verspaeten wird als andere Prozesse.

Du sagst es doch selbst: Stets IMHO bleiben AMD und NVIDIA mit so grossen chips bei 28nm wie es sich noch lohnt. Da wo es sich nicht lohnt wird zu 20SoC gegriffen

Die spannende Frage ist eben: Wann lohnt sich 20nmSoC für AMD und Nvidia?

NVIDIA hat einen 16FF SoC und eine desktop GPU Familie 16FF vor ein paar Wochen um einiges zeitlich versetzt.

Ein Prozess lohnt sich wenn die Kapazitaeten hoch genug sind damit die Herstellung sich bei diesem lohnt.

Es hat hier mal jemand im Thread den Witz gerissen, daß TSMCs 16nm besser für GPUs geeignet sei wegen der "3D"-Transistoren. Vielleicht hast du das für einen ernst gemeinten Kommentar gehalten?

Vielleicht waere es eine Idee fuer Dich mal zu versuchen mit eigenen Worten zu gerechtfertigen warum 16FF nicht gravierend besser ist fuer GPUs? Wie billig wird denn die Herstellung eines komplizierten GPU chips unter 16FF Deiner Meinung nach im naechsten Jahr sein?

smalM
2014-04-15, 21:20:52
Samsung 20nm ist in einem um zich Mal miserablerem Zustand als 20SoC@TSMC eins der Gruende weil Apple mal schnell zu TSMC rannte. Ich will hoffen dass Apple nach 20SoC zu Samsung zurueckhuepft und Intel ihnen endlich den lang erwuenschten 14nm Herstellungsvertrag fuer dual sourcing goennt.

Apple wird ja nur dann zu Samsung zurückkehren, wenn deren 14XM-Prozeß zumindest die gleiche Güte hat wie der 16FF TSMCs und in einem ähnlichen Zeitrahmen zur Verfügung steht.
Glaubst Du das?

Unicous
2014-04-15, 21:30:35
Zurückkehren? Bis jetzt sieht es so aus, als hätten sie Samsung noch nicht mal den Rücken gekehrt. Der A8 wird wohl auch wieder von Samsung und erstmals (?) TSMC gefertigt.

Aber was hat das Ganze mit dem Thema zu tun?

Duplex
2014-04-16, 00:09:35
Wer glaubt im ernst das zwischen 20SOC & 20FineFET über 50% Unterschied liegen?
Ihr tut ja so als ob 20SOC für GPUs komplett ungeeignet wäre, wenn der Prozess tatsächlich nicht für GPUs geeignet ist, dann sollte man von den 3D Transistoren auch nicht viel erwarten, am Ende werden einige hier enttäuscht weil der Unterschied nur blöde 20-30% beträgt.
PS: In 20SOC könnte AMD locker über 5000 GPU Shader einbauen, wenn die Karten dann für +600 Euro angeboten werden sehe ich kein Problem wegen hohen Herstellungskosten.

OBrian
2014-04-16, 00:29:42
Ja, Cache mag immer gut sein, ist ja nun mal schneller als RAM und näher dran. Aber man muß dafür auch programmieren; wenn die Engine lieber alles neu berechnet statt einen Speicherzugriff zu machen, und der RAM nur für Streaming genutzt wird, wo Cache so und so nichts bringt, dann bringt er eben nichts. Im GPGU-Bereich sind die Programmierer schneller mit der Anpassung, also ist viel Cache für eine Profikarte super und kann gut genutzt werden. Aber eine Gamerkarte wird sich mit alten und auf den (mit Cache sehr mager ausgestatteten) Mainstream ausgerichteten Spielengines rumschlagen müssen.

Wenn man also für den Gamerbereich mehr Cache bringen will, dann muß man das über Generationen machen und immer noch stückchenweise, nicht einfach mal 8 MB statt 64 kB hinklotzen, nur damit man 700 mm² vollkriegt.

Nicht unbedingt wahrscheinlich, daß AMD eine reine Profikarte bringt, weil sie das bisher nie gemacht haben. Andererseits ist der kommende ARM-Opteron auch eine konsequent auf eine Profianwendung ausgerichteter Chip (irre fette I/O, keine GPU, kein "Consumer-Mist" wie USB in der SB usw.), es könnte also sein, daß das wirklich ein reiner Profichip wird.

Natuerlich bietet 20SoC Vorteile gegenueber 28HP nur sind wir wohl alle vom 40G zu 28HP Umstieg zu verwoehnt und vergessen dass zwischendrin 32nm weggefallen ist.32nm ist doch ne Fullnode, aber TSMC baut doch seit längerer Zeit die GPUs nur noch in Halfnodes:

full - half
65nm - 55nm
45nm - 40nm
32nm - 28nm
22nm - 20nm
16nm - 14nm

Nein, es ist schon so, daß die Sprünge auch immer kleiner werden, und nicht nur mit mehr Abstand, weil sie teurer sind. Übrigens "von 40 auf 28 verwöhnt" kann man auch nicht sagen, da haben auch genug Leute gemeckert, daß nicht so viel passiert ist wie erwartet.

Ailuros
2014-04-16, 07:40:59
Apple wird ja nur dann zu Samsung zurückkehren, wenn deren 14XM-Prozeß zumindest die gleiche Güte hat wie der 16FF TSMCs und in einem ähnlichen Zeitrahmen zur Verfügung steht.
Glaubst Du das?

Ist zwar OT aber Apple hat Samsung NIE verlassen; es ging nur darum ein bisschen mit Sammys Nerven zu spielen und niedrigere Preise fuer den neuen Vertrag zu erreichen. Dual sourcing brauchen sie so oder so.

Wer glaubt im ernst das zwischen 20SOC & 20FineFET über 50% Unterschied liegen?
Ihr tut ja so als ob 20SOC für GPUs komplett ungeeignet wäre, wenn der Prozess tatsächlich nicht für GPUs geeignet ist, dann sollte man von den 3D Transistoren auch nicht viel erwarten, am Ende werden einige hier enttäuscht weil der Unterschied nur blöde 20-30% beträgt.
PS: In 20SOC könnte AMD locker über 5000 GPU Shader einbauen, wenn die Karten dann für +600 Euro angeboten werden sehe ich kein Problem wegen hohen Herstellungskosten.

Das ist mein ein und einziger Punkt jetzt schon seit Gott weiss wann.


32nm ist doch ne Fullnode, aber TSMC baut doch seit längerer Zeit die GPUs nur noch in Halfnodes:

full - half
65nm - 55nm
45nm - 40nm
32nm - 28nm
22nm - 20nm
16nm - 14nm

45 und 40nm war ein und das Gleiche; TSMC hat es lediglich 40G genannt. Der Punkt war dass 32nm gestrichen wurde und man von 40G auf 28HP einen fast zwei Mal so grossen Sprung gesehen haben als sonst. 14nm nennt TSMC bis jetzt 10 FinFET :D

Nein, es ist schon so, daß die Sprünge auch immer kleiner werden, und nicht nur mit mehr Abstand, weil sie teurer sind. Übrigens "von 40 auf 28 verwöhnt" kann man auch nicht sagen, da haben auch genug Leute gemeckert, daß nicht so viel passiert ist wie erwartet.

Na dann wundert es mich nicht dass viele heute ueber den Unterschied von 28 zu 20nm so stark meckern.

Nach TSMC's Behauptungen (siehe oben verlinktes pdf):

28HPm-->16FF
Speed@same total power 38%
Total power saving@same speed 54%
Gate density 2x

20SOC-->16FF
Speed@same total power 20%
Total power saving@same speed 35%
Gate density 1.1x

Der Unterschied zwischen 28HPm und 20SOC sieht dann wohl so aus:

28HPm-->20SOC
Speed@same total power 18%
Total power saving@same speed 19%
Gate density 1.9x

Jetzt kommt natuerlich noch das Totschlagargument dass 28HPm planar oder fast oder sogar gleichwertig mit vorigen LP Prozess-Varianten sein soll etc etc. nur ist leider eben so dass 20SOC und 16FF (20SOC+FinFET) in die genau gleiche Kategorie gehoeren und deshalb werden sie auch nur mit 28HPm im gegebenen Fall verglichen.

Gipsel
2014-04-16, 09:14:13
Die Gate-Density geht mit 20SoC gegenüber 28nm (egal welche Variante) natürlich schon hoch (vermutlich x1.8 oder x1.9).

Ailuros
2014-04-16, 09:22:44
Die Gate-Density geht mit 20SoC gegenüber 28nm (egal welche Variante) natürlich schon hoch (vermutlich x1.8 oder x1.9).

Angenommen IHV N hat einen chip mit 12Mrd. Transistoren geplant; geht man bei einer hypothetischen Packdichte von ~14Mio/mm2 auf 857mm2@28nm oder wohl doch eher wenn der Prozess reif genug ist auf 20SoC und mit einer Milchmaedchen-rechnung auf irgendwo 480-500mm2?

Dawn on Titan
2014-04-16, 09:38:09
28HPm-->20SOC
Speed@same total power 18%
Total power saving@same speed 19%
Gate density 1,8x

oder habe ich da gerade einen Denkfehler?

Ailuros
2014-04-16, 09:40:02
28HPm-->20SOC
Speed@same total power 18%
Total power saving@same speed 19%
Gate density 1,8x

oder habe ich da gerade einen Denkfehler?

Nein. Ich hab stets ein Problem mit Prozent-rechnungen ueberhaupt beim sehr schnellen tippen.

Skysnake
2014-04-16, 09:52:04
Die Gate-Density geht mit 20SoC gegenüber 28nm (egal welche Variante) natürlich schon hoch (vermutlich x1.8 oder x1.9).
Supi, und was bringt dir ne super dui gesteigerte Gate-Density, wenn du nicht in der Lage bist, die Gates auch zu connecten...

Bei dem ganzen deep submicron Kram haste doch das Problem, und es wird immer schlimmer. Die Vias sind einfach ein gewaltiges Problem, genau wie die Dotierungen.

Knuddelbearli
2014-04-16, 10:19:53
Wer glaubt im ernst das zwischen 20SOC & 20FineFET über 50% Unterschied liegen?
Ihr tut ja so als ob 20SOC für GPUs komplett ungeeignet wäre, wenn der Prozess tatsächlich nicht für GPUs geeignet ist, dann sollte man von den 3D Transistoren auch nicht viel erwarten, am Ende werden einige hier enttäuscht weil der Unterschied nur blöde 20-30% beträgt.
PS: In 20SOC könnte AMD locker über 5000 GPU Shader einbauen, wenn die Karten dann für +600 Euro angeboten werden sehe ich kein Problem wegen hohen Herstellungskosten.

28nm vs 14XM bei GloFO
http://www.elektroniknet.de/halbleiter/prozessoren/artikel/98082/2/

Ailuros
2014-04-16, 14:08:12
28nm vs 14XM bei GloFO
http://www.elektroniknet.de/halbleiter/prozessoren/artikel/98082/2/

Aus dem Link:

Diese neumodischen Flossen werden zudem nicht billig sein. Nach GLOBALFOUNDRIES’ Annahmen werden sich die Kosten für die Wafer-Lithografie ungefähr noch einmal verdoppeln, weil einige Schichten Triple-Patterning erfordern.

In Anbetracht der Tatsache, dass die Logik-Dichte dieser anfänglichen FinFET-Prozesse weniger als das Doppelte der heutigen 28-nm-Prozesse betragen wird, während sich die Wafer-Verarbeitungskosten mehr als verdoppeln werden, werden sich die Kosten pro Transistor wahrscheinlich bei 14 nm zum ersten Mal in der Geschichte der Chip-Industrie gegenüber der vorherigen Strukturgröße erhöhen. In anderen Worten: Es wird für Chiphersteller billiger, ihre Designs in 28 nm oder 20 nm zu behalten, als auf 14 nm zu gehen. Bild 3 zeigt die steigenden Kosten und Komplexität, denen sich die Chip-Fertiger gegenübersehen.

http://www.elektroniknet.de/uploads/media_uploads/images/1370261341-171-foundry-events-03.jpg

...und natuerlich noch mehr weiter unten. Dass soll jetzt nicht GEGEN 14XM bzw. 16FF sprechen, aber dass die Kosten fuer beide am Anfang suendhaft teuer sein werden wurde schon zich Male erwaehnt.

Knuddelbearli
2014-04-16, 14:33:08
hab den Artikel doer den Prozess ja nirgendwo bewertet.

Aber wenn du es jetzt schon ansprichst. Für die meisten Chipverbraucher lohnt sich ja nichtmal 28nm, Gibt ja nicht umsonst immer noch 130nm 90nm usw Fabs

Nightspider
2014-04-16, 15:54:30
http://www.elektroniknet.de/uploads/media_uploads/images/1370261341-171-foundry-events-03.jpg

...und natuerlich noch mehr weiter unten. Dass soll jetzt nicht GEGEN 14XM bzw. 16FF sprechen, aber dass die Kosten fuer beide am Anfang suendhaft teuer sein werden wurde schon zich Male erwaehnt.

Wobei dieses Bild natürlich nicht zeigt wie viel Zeit und Kosten die zusätzlichen Schritt im Verhältnis zu vorher benötigen.

Bei 4 Schritten anstatt 3 müssen es hinterher ja nicht 33% höhere Kosten sein.

Vergessen sollte man bei der Diskussion aber auch nicht das die Chipkosten bisher auch nur rund ein Drittel der Gesamtkosten einer Grafikkarte ausgemacht haben. Wenn die Kosten pro Generation jetzt um 20-30% steigen explodiert nicht gleich der Grafikkartenpreis. Kepler war bisher ja auch schon etwas teuer. Die Kunden werden allmälig an die steigenden Kosten gewöhnt.

Unterm Strich bekommt man ja nicht weniger Leistung pro Euro als vorher. Die Preise sinken nur langsamer als früher von Generation zu Generation.

Ailuros
2014-04-16, 16:03:50
Wobei dieses Bild natürlich nicht zeigt wie viel Zeit und Kosten die zusätzlichen Schritt im Verhältnis zu vorher benötigen.

Bei 4 Schritten anstatt 3 müssen es hinterher ja nicht 33% höhere Kosten sein.

Vergessen sollte man bei der Diskussion aber auch nicht das die Chipkosten bisher auch nur rund ein Drittel der Gesamtkosten einer Grafikkarte ausgemacht haben. Wenn die Kosten pro Generation jetzt um 20-30% steigen explodiert nicht gleich der Grafikkartenpreis. Kepler war bisher ja auch schon etwas teuer. Die Kunden werden allmälig an die steigenden Kosten gewöhnt.

Unterm Strich bekommt man ja nicht weniger Leistung pro Euro als vorher. Die Preise sinken nur langsamer als früher von Generation zu Generation.

Das einzige was das Bild im gegebenen Fall zur zeitigen Debatte zu tun hat, ist dass 16FF nicht so bald kommen wird wie geschaetzt eben weil es teurer ist.

Du hast keine GTX780 bekommen als mainstream Kunde als jeder chip noch ueber $200 in der Herstellung gekostet hat sondern nur HPC mit Tesla Wucherpreisen; Du konntest eine 780 erst kaufen als die Herstellungskosten um einiges niedriger waren.

Wenn sich jetzt im Gegenfall in der Zukunft jeglicher Kunde an $1000 MSRPs fuer performance GPUs gewoehnen sollte, dann schrumpft eben der Markt einfach ziemlich radikal in absehbarer Zukunft.

HOT
2014-04-16, 16:24:24
16FF ist schon in Risc-Produktion. Finale Produkte sind zum Jahreswechsel 15/16 zu erwarten. Warum sollte man sich die doch recht hohen Kosten für 20nm für ganze 1 1/2 Jahre bis dahin ans Bein hängen? 16FF ist sicher ein Prozess, den man 3-5 Jahre fahren wird. Aber 20? Das wäre eine (in Worten und in Zahlen auch) Generation, die mit 20 kommen würde, NV hat das doch sogar schon Kommuniziert, dass Pascal in 16FF kommt. Da macht man doch lieber noch eine optimierte 28er und wartet bis der "richtige" Prozess soweit ist, den man auch jahrelang fahren wird, mal ganz abseits der technischen Aspekte.

Unicous
2014-04-16, 16:27:23
Also wenns nach mir ginge könnte das Forum mal eine "no 20nm for me"-Pause vertragen.

Wie wäre es HOT. Einfach mal die gefaltete Alufolie vom Kopf nehmen und sich anderen Themen widmen. Nur ein Vorschlag.

Ailuros
2014-04-16, 16:44:04
16FF ist schon in Risc-Produktion. Finale Produkte sind zum Jahreswechsel 15/16 zu erwarten.

Wenn nicht spaeter wenn es zu hochkomplizierten GPU chips kommt.

Warum sollte man sich die doch recht hohen Kosten für 20nm für ganze 1 1/2 Jahre bis dahin ans Bein hängen?

16FF wird teurer sein als 20SoC und nicht billiger.

16FF ist sicher ein Prozess, den man 3-5 Jahre fahren wird. Aber 20? Das wäre eine (in Worten und in Zahlen auch) Generation, die mit 20 kommen würde, NV hat das doch sogar schon Kommuniziert, dass Pascal in 16FF kommt.

Wo gibt es einen link zu einer zuverlaessigen Quelle die 16FF fuer Pascal selbst erwaehnt?

Lassen wir erstmal 20SoC anfahren und wir werden dann schon sehen ob und wie lange IHVs auf diesem bleiben werden.

Da macht man doch lieber noch eine optimierte 28er und wartet bis der "richtige" Prozess soweit ist, den man auch jahrelang fahren wird, mal ganz abseits der technischen Aspekte.

Ergo wartet ein IHV im Fall eines 10-12 Mrd. Tranistoren grossen chip bis Anfang 2016. Klingt plausibel :rolleyes:

N0Thing
2014-04-16, 17:52:39
Ein Prozess lohnt sich wenn die Kapazitaeten hoch genug sind damit die Herstellung sich bei diesem lohnt.

Mit wann meinte ich nicht die dafür notwendigen Umstände sondern den Zeitpunkt.


Vielleicht waere es eine Idee fuer Dich mal zu versuchen mit eigenen Worten zu gerechtfertigen warum 16FF nicht gravierend besser ist fuer GPUs? Wie billig wird denn die Herstellung eines komplizierten GPU chips unter 16FF Deiner Meinung nach im naechsten Jahr sein?

Hast du nicht verstanden was ich geschrieben habe? :confused:
Und warum sollte ich die Behauptung formulieren, 16FF wäre weniger für GPUs geeignet als seine Vorgänger?
Und zu deiner Frage: Billig ist eine neue Fertigung wie, deshalb kann ich dir auch nicht sagen wie billig 16FF nächstes Jahr sein wird. Aber ich bin sehr sicher, daß 16FF dann mehr kosten wird als 20nmSoC oder 28nm HP.

Bist du da anderer Ansicht??

Ailuros
2014-04-16, 18:05:14
Und warum sollte ich die Behauptung formulieren, 16FF wäre weniger für GPUs geeignet als seine Vorgänger?

16FF definitiv nicht weniger geeignet fuer GPUs als seine Vorgaenger; die Frage ist nur warum es gravierend besser sein soll.

Und zu deiner Frage: Billig ist eine neue Fertigung wie, deshalb kann ich dir auch nicht sagen wie billig 16FF nächstes Jahr sein wird. Aber ich bin sehr sicher, daß 16FF dann mehr kosten wird als 20nmSoC oder 28nm HP.

Bist du da anderer Ansicht??

Selbstverstaendlich nicht. Wenn Du aber den Bogen zum eigentlichen Ausgangspunkt machst, koenntest Du vielleicht auch verstehen wieso es zu diesem extrem albernen perpetuum mobile gekommen ist.

Skysnake
2014-04-17, 08:01:26
16FF definitiv nicht weniger geeignet fuer GPUs als seine Vorgaenger; die Frage ist nur warum es gravierend besser sein soll.

FinFets erlauben halt niedrigere Threshold Voltages, was man wiederum für niedrigere Versorgungsspannungen und damit Stromverbrauch, oder halt schnellere Logik verwenden kann.

Und die Leakage kann man auch verringern, da man längere Transistoren bei gleicher Geschwindigkeit verwenden kann.

Dafür hat man halt all die anderen Probleme am Hals. SRAM usw werden gut davon profitieren, aber der ganze IO Kram eher weniger, und der nimmt immer mehr Platz in Anspruch, weil das Zeug einfach nicht so gut skaliert.

Dawn on Titan
2014-04-17, 08:39:45
So schwer ist es gar nicht. Der Zeitpunkt ab der ein Prozess für die Massenfertigung von GPUs geeignet ist verschiebt sich auf der Zeitschiene. Während es früher meist sofort soweit war, wenn der Prozess fertig für die Massenproduktion war, verschiebt sich dieser Zeitpunkt nun in Abhängigkeit von den Herstellungskosten immer weiter nach hinten. Und mit jedem zusätzlichen Fertigungsschritt verschiebt sich dieser Punkt weiter. Es ist daher davon auszugehen dass 16nm FF noch länger unattraktiv sein wird als 20nm SOC.

Wir werden uns auch daran gewöhnen müssen, dass man den neuen Prozess nur nehmen wird, wenn man zwangsweise muss, weil das geplante Transistorbudget in dem alten Prozess nicht mehr machbar ist. Die dicken Chips könnten daher nun oft die ersten im neuen Prozess sein, auch weil man die ersten Chargen gut in den Profimarkt drücken kann, wo man eben ganz andere Margen hat.

Realistisch ist für mich.
Perf-M ~ Ende 2014 in 28nm
Big-M ~ Mitte/Ende 2015 in 20nm
Perf-P ~ Anfang 2016 in 20nm
Big-P ~ Ende 2016 in 16nm

AMD könnte, da man ja noch Reseven bei der Die-Fläche hat, auch alles in 28nm lösen und dann erst mit dem Refresh oder der nächsten Generation auf 20nm wechseln.

Akkarin
2014-04-17, 23:39:27
Welchen Einfluss könnte GloFos/Samsungs ankündigung haben ? Wenn ich das vokabular ("mass production" "ramping up" etc) richtig versteh wäre 14 XM/14nm FinFet/20nm + FinFet ende 2014 schon so reif dass produkte drauf gefertigt werden können, würde also ca. zeitgleich mit TSCMs 20nm SoC/Planar fertig sein.

Unicous
2014-04-18, 00:09:36
Habe leider nicht mehr den genauen Wortlaut im Ohr, aber Lisa Su hat gerade im Earnings Call gesagt, dass sie 20nm Designs vorbereiten.

Lügt Lisa Su etwa, HOT? :eek:


Edit:

Sie ist der Frage ausgewichen ob 20nm noch in diesem Jahr kommt. Suspicious. :|


Samsung und GF behandeln 20nm wie ne bittere Schluckimpfung die aber trotzdem eingenommen wird, weils nix Besseres gibt.
Both foundry execs agreed that the 20 nm planar node will have a short life.

"We are prototyping products in it now, but we don't expect it to be a big node," Hunter says. "We have customers at the leading edge designing at 20 nm, but we expect they won't remain very long and start moving to FinFETs soon."
http://www.eetimes.com/document.asp?_mc=RSS_EET_EDT&doc_id=1321974&page_number=2

fondness
2014-04-18, 12:50:49
Der zweite Teil widerspricht dem allerdings ein bisschen:

Jim McGregor, principal of the market watcher Tirias Research, says most customers "are likely to move directly from 28 nm to 14 nm, which is a significant jump" of about 40% in performance and 55% in power. "I think we are likely to see the mobile SoC vendors jump first, and then the PC/server and graphics."

Sieht also nur sehr eingeschränkt nach 20nm Chips aus, womöglich nur im low-end-Bereich. War aber bei GF auch zu erwarten, wenn sie schon Ende der Jahren den 14nm FF Prozess in Massenproduktion schicken wollen.

AffenJack
2014-04-18, 13:31:37
Wie kommst du auf den Low-End Bereich? Gerade zu dem gehören die "most customers" die 20nm überspringen. Für Low-End ist 20nm zu teuer und man kann einfach überspringen. High-End dagegen ist in 28nm recht ausgereizt und wird selbst bei der Kurzlebigkeit auf 20nm gehen. Man nutzt 20nm da, wo es nicht anders geht.

Klar, GF schaffts auch bestimmt Ende des Jahres mit 14nm FF anzufangen. Es gibt noch nichtmal neuere Aussagen, wann 20nm denn endlich mal was wird. Aber bei 14nm sindse schon ganz weit. Leider sind sie in Sachen glaubwürdigkeit noch ein ganzes Stück hinter TSMC.

Akkarin
2014-04-18, 13:40:29
Um mal nochmal nachzufragen was "mass production" heißt: Bedeutet dass chips Anfang 2015 oder dauert dass danach noch 1/2-1 Jahre ?

Unicous
2014-04-18, 13:42:39
Da hat wahrscheinlich das HOT'sche Märchen wieder seine Wunder gewirkt.

Es ist ja auch unerheblich, ob GF 20nm auffährt oder nicht (übrigens ist 14XM noch nicht ganz tot, GF sagt sie "evaulieren" noch), AMD sagt es gibt 20nm Chips und die können ja nur entweder von TSMC oder GF kommen. Da GF in der Hinsicht hinterhinkt, kommt doch eher TSMC in Frage.

@Akkarin
Leider ist mass production zu einem Marketing-Wort verkommen und manchmal habe ich das Gefühl, dass sie das ein bißchen mit risk production verweben. Aber im eigentlichen Sinne heißt es, dass ab diesem Zeitpunkt der Prozess soweit vorangeschritten ist, dass im großen Volumen und mit verschiedenen Designs produziert werden kann. Wenn die Marketing-Leute recht behalten also Anfang 2015 bzw. bei Samsung Ende 2014.

fondness
2014-04-18, 14:21:01
Hm, also sicher bin ich mir nicht ob AMD GPUs in 20nm bringt, auf die explizite Frage weicht Lisa Su mehrmals aus:

David Wong - Wells Fargo
Great. And when will we expect you to introduce GPU products at a node below 28 nanometers? Will have you have any 20-nanometer GPUs this year or next year?

Lisa Su - SVP and General Manager of Global Business Units
David, I think what I said earlier sort of what we're doing in terms of technology strategy, we are 28 this year, we have 20-nanometer in design, and then FinFET thereafter. So that's the overall product portfolio.

David Wong - Wells Fargo
That includes GPUs, Lisa?

Lisa Su - SVP and General Manager of Global Business Units
That's the overall product portfolio, so I'm not being specific about graphics versus other products.

Nakai
2014-04-18, 14:34:08
Eine APU hat auch eine Grafikeinheit. ;)

Da hat wahrscheinlich das HOT'sche Märchen wieder seine Wunder gewirkt.

Deine Häme in allen Ehren, aber nahezu jeder deiner Beiträg trieft nur so davon. Wäre es möglich, das sein zu lassen?

Lisa Su - SVP and General Manager of Global Business Units
That's the overall product portfolio, so I'm not being specific about graphics versus other products.

20SoC wird wohl sehr stiefmütterlich in anderen Segmenten, außerhalb des SOC-Bereichs, behandelt werden. Eventuell sehen wir hier und da eine GPU in einem bestimmten Segment, aber ich erwarte das nicht wirklich. Erst FinFet liefern wohl deutlich bessere thermische und energetische Eigenschaften, um eine weitere Skalierung zu ermöglichen. Fiji mit ~600mm2 wäre mit 20nm+Finfet ~300mm² mit "ähnlichen" sonstigen Eigenschaften. Ist das der Plan?

Unicous
2014-04-18, 14:42:04
Wenn jemand etwas so oft wiederholt, bis es zu den Ohren herausquillt muss man eben solange dagegen halten, bis es aufhört. Ignorieren klappt nur schwerlich, wenn das dann sogar für voll genommen wird. (Siehe Fondness' Skepsis)


@fondness

Sie haben 20nm Designs aber werden nichts in 20nm herausbringen? Ist diese Behauptung nicht etwas paradox?

Ich habe ja schon gesagt, dass sie der Frage ausgewichen ist. Aber sie ist der Frage ausgewichen ob 20nm in diesem oder nächsten Jahr kommt. Das kansnt du bei dem Transkript nicht "heraushören", da werden ja manchmal noch Sachen glattgebügelt, z.B. Rumgestottere oder Wiederholungen.

Was ich live gehört habe, war dass sie zuerst auf 20nm zu sprechen kam und diese Frage später kam, als es um den Zeitpunkt ging.

Aber auch hier kann man nur spekulieren, denn sie will sich nicht im Detail äußern, wie ja auch Nakai nochmal mit dem Zitat herausgestellt hat.

Duplex
2014-04-18, 14:42:15
Die neuen Prozesse sind erstmal irrelevant, man sollte erstmal abwarten ob AMD demnächst einen kleinen 28nm Chip mit neuer Architektur bringen wird, wenn die Effizienz durch das bessere Design deutlich zulegen kann (z.b. 30%), dann kann ich mir vorstellen das AMD auch Anfang 2015 einen großen 20nm Chip bringen wird. In 20nm sollte ein doppelter Hawaii möglich sein, 5632 1D-Shader, bei 30% mehr Design Effizienz & 20% mehr Prozess Effizienz gegenüber 28nm HP sollte das alles bei <300W kein Problem sein.

Unicous
2014-04-18, 14:47:08
Und wie oft möchtest du das jetzt noch wiederholen, Duplex?

Allein in diesem Thread hast du es sicherlich schon 2,3 Mal wiederholt, wir müssen nicht alle paar Tage daran erinnert werden. Sammelst du zitierwürdige Kommentare deinerseits?


@Fondness
Christopher Rolland - FBR Capital Markets

Hey guys. Congrats on the quarter and thank you for letting me ask question as well. Can you guys talk about the puts and takes of either moving or perhaps not moving your next-generation follow-on to Kaveri to the next node here and how this might affect your decisions to move other products and families to the next node, or not to move them? Thanks.


Lisa Su - SVP and General Manager of Global Business Units

Sure, Chris. So let me take that and give you a little bit of our thinking.

So in terms of product and technology selection, certainly we need to be at the leading-edge of the technology roadmap. So what we've said in the past is certainly this year all of our products are in 28-nanometer across both, you know, graphics client and our semi-custom business. We are, you know, actively in the design phase for 20-nanometer and that will come to production. And then clearly we'll go to FinFET. So that would be the progression of it.

Finde ich doch ziemlich eindeutig, oder. Wir designen für 20nm und das wird auch in die Produktion übergehen. Also nicht immer Zitate für die eigene Narrative heraussuchen. ;)

fondness
2014-04-18, 15:26:22
Sie haben 20nm Designs aber werden nichts in 20nm herausbringen? Ist diese Behauptung nicht etwas paradox?


Du hast mich falsch verstanden. Sie weicht explizit der Frage aus ob auch GPUs in 20nm kommen, sondern verweist immer nur auf 20nm Produkte in ihrem Portfolio. Irgendetwas kommt in 20nm keine Frage, zB der Beema/Mullins-Nachfolger, ob allerdings auch standalone GPUs kommen scheint mir nach dem Statement ungewiss. Ansonsten hätte man die Frage auch schlicht mit ja oder nein beantworten können, wäre ja nichts ungewöhnliches wenn neue GPUs im nächsten Herstellungsverfahren kommen würden.

Unicous
2014-04-18, 15:43:55
Weil sie es nicht darf/will.

Du liest doch solche Earnings Calls nicht zum ersten Mal, oder?

Wenn einer Frage ausgewichen wird, heißt dass entweder, sie wollen es nicht sagen, oder sie können es nicht sagen, weil sie damit einen forecast machen würde.

Du kannst in einem Earnings Call leider keine Vorhersagen über das nächste halbe Jahr, Jahr machen sonst kommt dich das teuer zu stehen. Die Börse/Analysten/Aktionäre stürzen sich nämlich auf solche Schnipsel und schlachten sie aus bis nichts mehr da ist. Sobald du eine Frage stellst die über das nächste Quartal hinausgeht, wird konsequent abgeblockt. Diese Earnings Calls folgen einer stringenten Choreographie. Ein wenig preisgeben um zu hypen, die eigenen Produkte in den Klee loben, und sofort ablocken "we can't go into detail" wenn es um heikle Fragen geht oder um Prognosen die über ein halbes Jahr bzw. über ein Quartal hinausgehen.

Es ist überall das Gleiche. So lasch sind die Börsengesetze eben nicht. Man muss sich im Schlimmstenfalls dafür vor der SEC verantworten und noch schlimmer ist es wenn die Aktionäre und Analysten die Aktie abstrafen.:freak:


Edit:

Noch ein Beispiel
Ich glaube vor ein paar Quartalen ist man noch ausgewichen, was und wo in 28nm gefertigt wird. Da wollte man z.B. nicht zugegen, dass bei GF GPUs in Planung sind. und was ist gestern geschehen. Bei GF werden u.a. GPUs hergestellt.

ndrs
2014-04-19, 00:29:19
Hm, also sicher bin ich mir nicht ob AMD GPUs in 20nm bringt, auf die explizite Frage weicht Lisa Su mehrmals aus:
Vielleicht kann man die Aussage auch anders interpretieren:
Sie haben 20nm Design für das gesamte Portfolio in Arbeit, also mindestens je eine APU, GPU (und Konsolenchip).

fondness
2014-04-19, 10:00:04
Ja es ist schwer das jetzt eindeutig zu interpretieren. Einige interpretieren übrigens diese Aussagen dahingehend, dass es dieses Jahr keine 20nm Chips mehr geben wird:

So in terms of product and technology selection, certainly we need to be at the leading-edge of the technology roadmap. So what we’ve said in the past is certainly this year all of our products are in 28-nanometer across both, you know, graphics client and our semi-custom business. We are, you know, actively in the design phase for 20-nanometer and that will come to production. And then clearly we’ll go to FinFET. So that would be the progression of it.

Lisa Su - SVP and General Manager of Global Business Units
David, I think what I said earlier sort of what we're doing in terms of technology strategy, we are 28 this year, we have 20-nanometer in design, and then FinFET thereafter. So that's the overall product portfolio.

mrck
2014-04-19, 12:38:28
...

OBrian
2014-04-19, 21:03:01
mit "this year 28 nm" ist aber noch nicht genau gesagt, wann 20 nm GPUs kommen bzw. ob überhaupt. Die Aussage wäre noch zutreffend, wenn gegen Jahresende der erste 20-nm-Chip käme und weitere dann sukzessive in den Folgemonaten, was bedeuten würde, daß es keine weitere 28-nm-Generation mehr gibt. Aber die Aussage wäre auch zutreffend, wenn es in Bälde noch eine ziemlich komplette 28-nm-Generation gäbe (so wie bei NV) und dann 20 nm erst viel später oder gar nicht (weil die neue 28-nm-Generation dann ja wohl das komplette Jahr 2015 überbrücken würde).

Sprich, wir sind so schlau wie zuvor.

Unicous
2014-04-19, 21:20:11
Möchte auch noch auf das hier hinweisen.


http://videocardz.com/images/2013/02/AMD-Radeon-January-2013-Slide-2.jpg

Da waren Anfang 2013 alle ganz aufgeregt und haben sich über AMD echauffiert... und am Ende des Jahres kam dann Hawaii.:freak:

Auch das wurde in einem der Earnings Calls verlautbart, falls sich der ein oder andere noch erinnert, von daher kann es eintreffen es muss aber nicht.

Entweder keine 20nm GPUs in 2015 oder vllt. doch ein paper launch irgendwann zum Jahresende.

Ich hingegen lege mich nicht fest.

boxleitnerb
2014-04-19, 21:24:45
Die Folie wurde nur nicht verstanden, denn die zugrunde liegenden GPUs liefen ja tatsächlich weiter als Rebrands.

Nakai
2014-04-19, 21:47:23
Die Folie ging auch nur bis Q3 2013.

Unicous
2014-04-19, 21:55:08
@boxleitnerb

Nein, die Folie wurde sehr wohl verstanden. Es ging in der Folie auch nicht um OEM-Rebrands (sonst hätte dahinter OEM gestanden) sondern um Never Settle. Und da die Coupons bis Ende 2013 galten, gab es natürlich auch die GPUs bis zu diesem Zeitpunkt.

Es gibt da auch keinen Interpretationsspielraum. Ich bin mir auch ziemlich sicher, dass du es zu der Zeit genauso gesehen hast und jetzt nur Captain Hindsight spielen willst.:wink:


edit:

@Nakai

Sehr richtig. Das war aber den Leuten und auch Schreiberlingen zu der Zeit aber egal. Auf "Stable throughout" wurde das Augenmerk gelegt und bei der großen roten Schrift, zurecht. ;)



edit:
Sry Duplex, Freud'sche Fehlleistung meinerseits, hatte zu der Zeit in einem anderen Thread gelesen und da stand dein Accountname. Eine PM an mich hätte natürlich gereicht, aber gut. Zum Rest kein Kommentar und frohe Ostern.

Duplex
2014-04-19, 22:28:26
@Unicous / Mr. Klugscheisser

Lerne erstmal richtig zu lesen, dann würdest du merken das ich nichts gepostet habe.

Mir wird langsam klar wer sich hinter deinem Account versteckt.

Frohe Ostern

mrck
2014-04-20, 00:37:42
...

Oberst
2014-04-20, 00:41:25
Irgendetwas kommt in 20nm keine Frage, zB der Beema/Mullins-Nachfolger, ob allerdings auch standalone GPUs kommen scheint mir nach dem Statement ungewiss.

Die werden wohl gleich in 16nm FinFET kommen, denn die Fertigung soll bei TSMC kaum nach der 20nm starten. Zuerst soll da aber primär für AMD "mobile Chips" gefertigt werden, was wohl auf Jaguar-Derivate hinaus läuft.

this year all of our products are in 28-nanometer
Kann auch bedeuten: In diesem Jahr sind aktuell all unsere Produkte in 28nm. Das "are" ist da komisch. Wenn kein 20nm dieses Jahr kommt, dann hätte es "this year all of our products will be in 28-nanometer" heißen müssen. So ist das nur auf die Gegenwart bezogen, sagt eigentlich nichts über Ende 2014 aus. Ist insgesamt sehr schwammig formuliert, vermutlich mit Absicht (vielleicht hat TSMC noch Probleme und AMD lässt sich so ein Hintertürchen offen, um auf 2015 verschieben zu können).
Der Vergleich mit Apple ist ja ziemlich Sinn befreit...wieso sollte Apple denn bitte auf Einmal die Messlatte für die GPU Hersteller sein??? Die aktuellen A6(X) sind ja noch in 32nm, wieso sollte man dann jetzt auf einmal so aktuelle Fertigungen nutzen. Die Fertigung für Apple muss in erster Linie zuverlässig hohe Stückzahlen und yields liefern, daher sind die in der Regel nicht die Ersten bei neuen Fertigungen.

mrck
2014-04-20, 00:55:27
...

Felixxz2
2014-04-20, 09:08:57
Die aktuellen A6(X) sind ja noch in 32nm, wieso sollte man dann jetzt auf einmal so aktuelle Fertigungen nutzen. Die Fertigung für Apple muss in erster Linie zuverlässig hohe Stückzahlen und yields liefern, daher sind die in der Regel nicht die Ersten bei neuen Fertigungen.

Aktuell ist nicht der A6 sondern der A7 und der ist in 28nm. Natürlich wird man versuchen direkt auf 20 zu gehen, der A7 ist immerhin schon 1Mrd Transistoren und 100mm2 stark.

Oberst
2014-04-20, 16:08:28
Dass Apple auf 20nm will, bestreite ich ja nicht. Aber wieso sollte Apple denn bitte der Erste in 20nm sein? Da können doch andere Hersteller schon vorher kommen, und damit ist der Starttermin des A8 nun mal schön egal. Wie schon gesagt, früher war Apple auch nie der Erste bei neuen Fertigungen...
Das Argument, dass AMD keine 20nm Produkte bringt, weil Apple erst irgendwann auf 20nm umsteigt, taugt nun mal nicht wirklich. Da helfen auch keine Zitate.
AMD hat nun mal nichts mit Apple zu tun und wird für GPUs auch sicher einen anderen Fertigungsprozess als Apple für seine mobilen ARMs haben.

mrck
2014-04-20, 17:39:27
...

matty2580
2014-04-20, 19:33:12
Dann stellt sich aber die berechtigte Frage,
warum man noch auf 20nm setzen sollte, wenn "relativ" kurz danach schon 16nm verfügbar ist?
Ist es dann nicht sinnvoller für AMD und Nvidia die Zeit bis zu 16nm auszusitzen?

Gerüchte dazu gab es ja schon:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/AMD-Nvidia-kein-20-nm-Prozess-Spekulationen-1115226/

Nightspider
2014-04-20, 20:03:11
"Kurz danach"?

Du weißt doch gar nicht wie schnell 16nm bereit für die Massenproduktion ist.
Und sobald der Prozess reif ist werden sich ausnahmslos ALLE Firmen um 16nm Kapazitäten prügeln.

Abgesehen davon das 16nm erst mal wieder deutlich teurer sein wird.

20nm wird für den einen oder anderen Chip genau der richtige Prozess sein. Ob das für Grafikkarten in 2014 allerdings zutrifft ist eine ganz andere Frage.

Mittlerweile ist ein 600mm² Chip von AMD in 28nm mit am Wahrscheinlichsten.

matty2580
2014-04-20, 20:22:56
Deswegen habe ich "relativ" extra in Anführungszeichen gesetzt,
weil ein genauer Zeitraum schwer einzuschätzen ist. ^^
20nm wird ja auch nicht gerade günstig werden.
Das war ja eines der Argumente aus dem Gerücht gegen 20nm, und für den Sprung zu 16nm bei TSMC.

edit:
ok, thx N0Thing

Skysnake
2014-04-20, 23:24:37
Mittlerweile ist ein 600mm² Chip von AMD in 28nm mit am Wahrscheinlichsten.
Also 600mm² halte ich nicht wirklich für realistisch.

AMD hat dafür einfach zu viel Erfahrung bezüglich Multichip Packaging und wie man sowas designed. Auch Stacked DRAM on Package verspricht mehr als genug Potenzial für Leistungsteigerungen und auch Flächeneinsparung durch kleinere Treiber usw.

550mm², also wirklich als höchstes der Gefühle. Mehr erwarte ich einfach nicht als einen einzigen DIE. Mir erscheint da einfach alles andere als zu attraktiv an Alternativen.

Thunder99
2014-04-21, 00:22:11
Wer hat, außer IBM (Power8 ~650mm²) und evt noch Intel, es geschafft so ein Chip zu produzieren? Keiner soweit ich weiß. Selbst nvidia hat ihre dicksten Chips < 600mm² designt.

Erwarte daher auch nichts größeres als 550, eher deutlich kleiner

Sunrise
2014-04-21, 00:35:40
Evtl. war das auch einfach nur der Pinout vom Package insgesamt, der hier bekannt/gesehen wurde, und jetzt als "großer Die" durch die Welt geistert.

Schaut man sich Volta an, sieht das nämlich auch genauso aus.

N0Thing
2014-04-21, 01:42:05
Dann stellt sich aber die berechtigte Frage,
warum man noch auf 20nm setzen sollte, wenn "relativ" kurz danach schon 16nm verfügbar ist?
Ist es dann nicht sinnvoller für AMD und Nvidia die Zeit bis zu 16nm auszusitzen?

Gerüchte dazu gab es ja schon:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/AMD-Nvidia-kein-20-nm-Prozess-Spekulationen-1115226/

Laut Ailuros dauert es nach 20nmSoC noch länger als gedacht, bis die FINFET-Produktion marktreif wird, also zumindest deutlich mehr als ein Jahr nach 20nmSoC, was bisher von vielen Seiten als Zeitspanne angegeben wurde.

Das wird neben der Architekturstufe (GCN 2.0 oder weiterhin GCN 1.x) wohl die spannendste Frage bleiben, bis verlässliche Informationen verfügbar sind.

Loeschzwerg
2014-04-21, 20:04:25
Wer hat, außer IBM (Power8 ~650mm²) und evt noch Intel, es geschafft so ein Chip zu produzieren? Keiner soweit ich weiß. Selbst nvidia hat ihre dicksten Chips < 600mm² designt.

Erwarte daher auch nichts größeres als 550, eher deutlich kleiner

SPACR64-X gefertigt von Fujitsu in 28nm hat 587,5mm²

http://jp.fujitsu.com/platform/server/sparcenterprise/event/12/hotchips24/pdf/HotChips24_Fujitsu_presentation.pdf

Oberst
2014-04-21, 22:44:10
Laut Ailuros dauert es nach 20nmSoC noch länger als gedacht, bis die FINFET-Produktion marktreif wird, also zumindest deutlich mehr als ein Jahr nach 20nmSoC, was bisher von vielen Seiten als Zeitspanne angegeben wurde.

Das hat der CEO von TSMC aber auf dem Conference Call im Februar (oder um den Dreh rum) ganz anders gesehen. Das klang eher so, als würden die mit 16nm FinFET für mobile Chips bald in Massenfertigung gehen und noch in diesem Jahr erste Produkte für Endkunden verfügbar sein.
Wohl gemerkt: "mobile Chips" die Fertigung ist nicht für GPUs anwendbar, daher auch vorerst noch 20nm GPUs.
Wann dann die 16nm Fertigung für GPUs verfügbar ist, wurde da nicht explizit erwähnt. Entsprechend gibt's halt mindestens eine 20nm Generation, und da war von AMD ja der Plan Ende Q3, Anfang Q4 (was Verfügbarkeit Richtung Jahresende bedeutet, AMD rechnet ja immer mit ihren Auslieferungen an die Boardpartner). Das Ziel halte ich auch durchaus für möglich, wenn irgendwer von Marktstart Juli/August redet, dann hat das aber nichts mehr mit "möglich" zu tun...das sehe ich auch so.

HOT
2014-04-22, 13:54:02
SPACR64-X gefertigt von Fujitsu in 28nm hat 587,5mm²

http://jp.fujitsu.com/platform/server/sparcenterprise/event/12/hotchips24/pdf/HotChips24_Fujitsu_presentation.pdf
Ist das nicht alles (S)HP-Zeug? Das sind doch alles Prozessoren die so groß sind.

Passt da 20nm SoC überhaupt dazu? in 16nm wird man sicherlich was passendes hinbekommen. aber wahrscheinlich auch deutlich später als die klein-SoCs. Wenn man von 16nm dieses Jahr redet ist das evtl. was anderes als wenn man von 600mm²-Chips in 16nm redet.

Loeschzwerg
2014-04-22, 17:29:41
Ist das nicht alles (S)HP-Zeug? Das sind doch alles Prozessoren die so groß sind.


(S)HP-Zeug? Du meinst den Fertigungsprozess?

Der Sparc64 wird in Zusammenarbeit zwischen Oracle und Fujitsu entwickelt, gefertigt im 28nm HP Prozess. Da ging Fujitsu bei der Chipfertigung irgendwann ein Joint Venture mit TSMC ein und ich glaub mittlerweile hat man große Teile (wenn nicht alles) an TSMC übergeben, da bin ich aber nicht auf dem Laufenden.

horn 12
2014-04-24, 09:10:27
Wird die R9 290 bzw. R9 290X dieses Jahr von einer Neuen AMD Karte abgelöst werden, so wie bei NV mit GM204, oder werden die jetzigen Karten bis nächstes Jahr reichen müssen.
Falls Neue Karten kommen, wäre eine Mehrperformance von etwa 30% wohl mindestens angebracht ...

OBrian
2014-04-25, 13:43:50
...jedenfalls wenn Nvidia das 30-%-Plus der ersten Maxwell-Karte auch auf die anderen neuen Karten übertragen kann, dann sollte AMD sowas Ähnliches besser auch hinkriegen, wie auch immer.

Auf jeden Fall verlange ich *fußaufstampf* zumindest ein handfestes Gerücht (lies: inoffizielle Verlautbarung von AMD, als "Leak" getarnt) zu Launchtermin und ungefährer Performance neuer Radeons, sobald Nvidia mit den neuen Karten auf dem Markt ist. Man muß ja irgendwie planen können.

Leonidas
2014-04-26, 10:08:13
Stimmt. Bei AMD ist die Leakfront derzeit auffallend ruhig.

Gaestle
2014-04-26, 13:49:45
Wahrscheinlich wollen sie endlich mal R9 290(x) in Mengen verkaufen, nachdem die Lieferbarkeit lange schlecht war/ist...

horn 12
2014-04-27, 17:31:44
@Aurilius
Kommt dieses Jahr noch ein R9 290 Ablöser von AMD und kann man zum Weihnachtsgeschäft damit rechnen? Wie schätzt Du bitte die Situation ein?

M4xw0lf
2014-04-28, 10:20:55
Stimmt. Bei AMD ist die Leakfront derzeit auffallend ruhig.
Bei Hawaii standen wenige Tage vor Launch immer noch nicht die Specs eindeutig fest, und wenige Wochen zuvor gabs noch nichtmal irgendwas handfestes wie Bilder der Karte. Muss also nicht viel heißen.

@Aurilius
Kommt dieses Jahr noch ein R9 290 Ablöser von AMD und kann man zum Weihnachtsgeschäft damit rechnen? Wie schätzt Du bitte die Situation ein?
Ich denke "Aurilius" (:ulol:) möchte sich nicht dazu äußern, weil er sonst gleich irgendeinen AMD-Kettenhund am Arsch hängen hat ^^

HOT
2014-04-28, 11:57:33
Bei AMD hat man offenbar so ziemlich alles Leak-Lücken geschlossen. Auch zu Kaveri gabs bis zuletzt kaum Infos und selbst beim Launch war nicht deutlich, wie beispielsweise der Prozess denn jetzt wirklich aussah - SOI, kein SOI? Eigenentwicklung oder Standard? Einiges davon weiss man heute noch nicht. Der einzige aktuelle Leak-Faux-Pas, den ich jetzt im Kopf hab ist das 40h-Dokument mit dem 8-Moduler, und das war echt ein Versehen, da es in einem Entwicklerdokument auftauchte. Aber da Carrizo ja schon 60h ist, ist dieses Dokument eh outdated gewesen ;). Alle Infos zu Carrizo, die man jetzt kennt, sind beispielsweise offen bekanntgegeben worden.

Wenn es eine Hawaii-Ablösung gibt (Fiji?) dann sicherlich in erster Linie, weil man den Fertigungsstandort vor dem Wechsel auf 14nm ändern möchte und weil man deshalb ausnahmsweise so schnell überhaupt was in der Pipeline hat (wenn es denn stimmt, immer vorausgesetzt), denn normal sind solche Zeiträume nicht. Hawaii ist ja grade mal ein paar Monate draußen, wir haben gesehen, wie lange es vom Tahiti zu Hawaii gedauert hat (fast genau 2 Jahre) und von GF100 zu GK110 war es noch länger. Von GK110 zum nächsten Design wird ja offenbar noch länger dauern, weil ja jetzt der zweite GK110-Aufguss in Form des GK210 in der Pipeline ist, könnten als gut 3 Jahre werden. Kein Wunder, das Ding ist ja auch einfach richtig gut.

redfirediablo
2014-04-30, 01:21:09
Sie werden weiterhin die Chips parallel laufen lassen und ggf. rebranden. Nur weil nochmal ein neuer Chip kommt wird Hawaii nicht gleich obsolet. Tahiti wird abgelöst durch etwas kostengünstigeres, mehr aber auch nicht.

OBrian
2014-04-30, 16:51:04
Tahiti wird abgelöst durch etwas kostengünstigeresFalls es so käme, wäre das ja schon etwas Hochinteressantes, denn eine kostengünstigere Lösung auf Tahiti-Performanceniveau würde nicht nur Preissenkungen ermöglichen, sondern wahrscheinlich auch etwas effizienter arbeiten, sprich geringerer Verbrauch.

Tahiti ist auch der älteste Chip, macht also Sinn, den als erstes zu ersetzen. Ich würde ja den vollausgebauten Tahiti noch durch teildeaktivierte Hawaiis abdecken, einen neuen Chip darunter dann ansetzen, der Tahiti und Pitcairn überflüssig macht und den Bereich bis Bonaire abdeckt. 256-bit SI reicht da sicher.

Nur macht sowas mit 28nm wenig Sinn, wenn man nicht eine deutlich veränderte Architektur bringen will, so wie NV. Das ist aber wohl bei AMD eher nicht zu erwarten. Als 20-nm-Testballon wäre sowas aber nicht zu groß, würde also Sinn machen.

Nur WANN? Daß es bei AMD keine ernsthaften Leakinfos mehr gibt, ist ja bekannt, aber von Hawaii und anderen Chips wußte man zumindest einen groben Termin.

redfirediablo
2014-05-01, 02:57:33
28nm ist sehr sehr wahrscheinlich. Warten wir einfach mal ab was Nvidia noch an großen Chips bringt und wie gut die neuen AMD Chips sind.

OBrian
2014-05-01, 13:45:45
Hauptsache es kommt überhaupt was und es wird nicht einfach nur eine 370X auf Pitcairn-Basis und eine 380X auf Tahiti-Basis geben. Weil wirklich attraktiver werden die Karten dadurch FÜR MICH nicht. An den Highendkarten bin ich nicht interessiert, die verbrauchen mir zuviel, die 150-W-Klasse wäre was. Aber wie wollen die jemanden, der schon eine Pitcairn-Karte hat, überzeugen, nochmal Pitcairn zu kaufen, nur weil die jetzt billiger sind?

Ailuros
2014-05-01, 19:13:28
@Aurilius
Kommt dieses Jahr noch ein R9 290 Ablöser von AMD und kann man zum Weihnachtsgeschäft damit rechnen? Wie schätzt Du bitte die Situation ein?

http://www.brainyquote.com/quotes/quotes/m/marcusaure118617.html

:D

Mandalore
2014-05-11, 15:29:58
http://videocardz.com/50472/amd-launch-new-flagship-radeon-graphics-card-summer


Interessanter Artikel. Ich hoffe, dass es stimmt (HBM FTW!:D)

Duplex
2014-05-11, 15:38:24
http://videocardz.com/50472/amd-launch-new-flagship-radeon-graphics-card-summer
Interessanter Artikel. Ich hoffe, dass es stimmt (HBM FTW!:D)
Gab es vor kurzem nicht das Gerücht das GF den 20nm & 14XM Prozess gestrichen hat?

Unicous
2014-05-11, 15:58:20
Wie wäre es, wenn du diesen "Bericht" auch mal verlinken würdest?

Oder meinst du die Schmonzette aus einem dahergelaufenen IT-Blog?

Da AMD 2015 20nm APUs fertigen wird und das höchstwahrscheinlich bei GF passieren wird, kann man davon ausgehen dass es auch 20nm GPUs von GF gibt (Laut AMD werden bei GF ja schon 28nm GPUs hergestellt). Und eben nicht unbedingt von TSMC (bzw. nicht ausschließlich).

14XM ist offiziell auch nicht eingestellt, GF behauptet, sie evaluieren weiter und ich glaube auch sie sagten sie hätten Kundschaft für den Prozess.


Das HBM-Gerücht würde ich übrigens mit einer Wüste voll Salz betrachten, der (Nosta)Seronx Typ ist ein Schwätzer vorm Herren und erfindet zig Sachen die nicht stimmen und nicht mal ansatzweise nahe der Realität sind.

Die slides sind aber echt, hier ist die Präsentation.

http://www.microarch.org/micro46/files/keynote1.pdf

HOT
2014-05-11, 18:23:24
Gab es vor kurzem nicht das Gerücht das GF den 20nm & 14XM Prozess gestrichen hat?
[Edit] Es wurde kein Prozess gestoppt, nur ein neuer linzenziert. 20nm LPM eignet sich für einen Mullins-Ersatz und Low-Power-ARM, vielleicht auch kleine Mobil-Grafikchips, ist ja auch ein "SoC"-Prozess. Was High-Power so alles kommt ist bisher völlig unbekannt. Ich tippe auf 14nm HP (K12 und Grafik) als Nachfolger für 28SHP/A aber kein 20nm HP.

Unicous
2014-05-11, 18:33:04
http://www.eetimes.com/document.asp?doc_id=1321974&page_number=2

[...]Her company hasn't stopped development on its own 14XM process, she says, but it has not decided whether to complete it and bring it to market.

Gaestle
2014-05-12, 10:31:10
Was High-Power so alles kommt ist bisher völlig unbekannt.

Die Frage könnte auch sein, ob in Zukunft überhaupt noch explizite HighPowerProzesse kommen, wenn sich LowPower-Prozesse auch für GPUs eignen. Wenn sich der Gesamtmarkt immer mehr in Richtung LowPower verschiebt und auch separate GPUs auch in Zukunft mit dem Stromverbrauch zu kämpfen haben und man die GPU-Leistung durch Breite (und damit hohe Transitoranzahl) generiert...

Botcruscher
2014-05-12, 10:58:49
Natürlich kommen die, damit lässt sich Geld verdienen. Die nennt man nur nicht mehr anders. Wo soll bei 550mm² GPUs noch breite herkommen?

Gaestle
2014-05-12, 11:22:27
Wenn Prozesse kleiner werden, lässt sich auf ähnlicher Fläche mehr Breite unterbringen.

Darüber hinaus wird der Markt für explizite HighPowerLösungen vermutlich kleiner, während der Markt für LowPowerLösungen auch in nächster Zeit deutlich wachsen wird. Dazu kommt, dass die Einführung neuer Prozesse offenbar schwieriger wird und damit auch teurer. Deshalb könnte es dazu kommen, dass die Margen, die ein expliziter HighPowerProzess in Zukunft abwerfen kann, irgendwann uniteressant werden. Und wenn wir von 14nm reden, sind wir 3-4 Jahre in der Zukunft. Da kann die Welt schon anders aussehen, als heute.

Ich muss aber zugeben, dass mir die Bedeutung des von HOT in Klammern gesetzten "(K12 und Grafik)" gerade eben erst klar geworden ist. Mein Diskutieren bezieht sich auf GPUs, nicht auf CPUs.

HOT
2014-05-12, 12:35:27
Das wird zwar Ailuros jetzt wieder auf die Palme bringen, aber ich glaube wirklich, dass man das versucht hat, große GPUs und CPUs auf LP-Prozesse zu portieren und ich glaube aber auch, dass das großflächig gescheitert ist. Man kommt mMn um neue HP-Prozesse einfach nicht herum, wenn man entsprechende Leistung haben möchte. Eine GPU in LP kann ich mir eigentlich nur als kleine oder mittlere Grafikchips vorstellen (wie es ja offenbar auch kommt in 2015...). Wenn es wieder in die 100e-Watt-Regionen mit entsprechenden Chipgrößen geht, braucht man sowieso wieder HP. Deswegen bin ich ja so unglaublich skeptisch bei 20nm. GloFo beispielsweise bietet nur einen 20nm LPM-Prozess an (was einem Puma für LP als Mullins-Nachfolger und einem ARM-SoC für den Mobilbereich sicher gut zu Gesicht steht) und AMD selbst hat die Entwicklung des 20nm SHP-Prozess offiziell gecancelt, aber eben nur den. Daraus schließe ich, dass 14nm SHP weiter on Track ist. AMD hat sich bei 28nm nicht nur auf GloFo verlassen und wird das sicherlich auch weiterhin nicht tun.

http://www.computerbase.de/2014-05/neue-amd-grafikkarte-fuer-sommer-2014-vorgesehen/

Klingt gar nicht so unplausibel. Dann gibts einen GloFo Hawaii, Icland (Ersatz für Tahiti und Pitcairn?), Bonaire und Tonga (Oland und Cap-Verde-Ersatz) als 300er-Generation und nächstes Jahr dann 28nm Fiji + 20nm Mid (Bonaire-Ersatz) und Low-End-Mobil-Chips. AMD bereitet GCN ja eh für die kleinen 20nm-LP-APUs und sicherlich die Konsolen APUs vor. In 2016 kann man dann ja mit 14nm-High-End weitermachen.

OBrian
2014-05-13, 02:26:25
ja, was ist denn der Unterschied zwischen "Low-Power"- und "High-Performance"-Prozeß? wenn man in einem LP was groß genug baut, zieht es auch einiges an Saft. Man muß also die Grenze ziehen zwischen Ausrichtung auf hohen Takt oder auf geringe Leckströme. Und danach sind GPUs eigentlich immer schon in einem LP-Prozeß gefertigt worden, weil der Takt ja immer deutlich geringer war und ist als bei CPUs (wohl schon bedingt durch die Architektur), man also getrost auf Minimierung der Leckströme achten kann und sich um hohen Takt keine Sorgen machen muß.

Bei CPUs kann das neuerdings etwas geändert worden sein, bei Kaveri wurde ja ein niedrigerer CPU-Takt in Kauf genommen, um insgesamt ein brauchbares Gesamtpaket hinzubekommen, angeblich (ist ja nicht nachprüfbar) durch andere Fertigungsausrichtung, weniger auf hohen Takt und mehr auf Sparsamkeit. Und bei den kleineren SoCs (Bobcat-Reihe) stand ja von Anfang an nicht die CPU-Leistung im Vordergrund, daher auch die Fertigung in den GPU- und Chipsatz-typischen Fertigungsverfahren.

Insofern, wenn man schon eine Wegbewegung von HP in Richtung LP proklamiert, dann wird das aber in erster Linie die CPUs und weniger die GPUs betreffen. Eher gehen damit die GPUs in Richtung HP, wenn man nämlich den HP-Prozeß wegfallen läßt, weil der LP-Prozeß neuerdings auch höhere Taktraten ermöglicht.

Skysnake
2014-05-13, 08:15:22
Wenigstens einer mal, der sich die richtigen Fragen stellt...

Hier wird immer über Prozesse gefachsimpelt als, ob man voll den Plan hätte, dabei wissen wir nen feuchten Scheis!

Ohne sich die PDKs genau an zu schauen, kann man eigentlich gar nicht darüber reden, und diese PDKs wird im Normalfall keiner hier jemals zu Gesicht bekommen, es sei denn er ist selbst an der Entwicklung eines Chips beteiligt, und wenn das der Fall ist, musste er eh nen NDA mit TSMC unterzeichnen, wird hier also nie und nimmer auch nur irgend ein Detail fallen lassen, außer eventuell, das man es lieber sein lassen sollte sich darüber die Köpfe heis zu reden.

Gaestle
2014-05-13, 08:51:01
Also wird das Spekuforum wegen Ahnungslosigkeit geschlossen ? :P


@OBrian
Leckströme sind wahrscheinlich immer ein Problem. Meine These ist lediglich, dass es sich (inzwischen) nicht (mehr) lohnen könnte, einen bestimmten Prozess in einer bestimmten Strukturbreite zu entwickeln, wenn der Markt für diesen "Sonderprozess" immer kleiner wird, und gleichzeitig die Entwicklung des "Sonderprozesses" immer teurer wird. Wobei es wohl eher so ist, dass der als LP bezeichnete Prozess früher mal der "Sonderweg" war, aber inzwischen durch die massive Veränderung des Absatzmarktes zum neuen Standard geworden ist und der alte Standard inzwischen zum "Sonderweg" verkommen ist.

Und das hat nichts damit zu tun, wie es im Detail auf technischer Ebene aussieht. Es ist lediglich der Versuch 1+1 zusammenzurechnen, auch auf die Gefahr hin, dass man fälschlicherweise bei 8 landet. Aber hey, Spekuthread for everyone. ;)

HOT
2014-05-13, 12:54:35
Wenigstens einer mal, der sich die richtigen Fragen stellt...

Hier wird immer über Prozesse gefachsimpelt als, ob man voll den Plan hätte, dabei wissen wir nen feuchten Scheis!

Ohne sich die PDKs genau an zu schauen, kann man eigentlich gar nicht darüber reden, und diese PDKs wird im Normalfall keiner hier jemals zu Gesicht bekommen, es sei denn er ist selbst an der Entwicklung eines Chips beteiligt, und wenn das der Fall ist, musste er eh nen NDA mit TSMC unterzeichnen, wird hier also nie und nimmer auch nur irgend ein Detail fallen lassen, außer eventuell, das man es lieber sein lassen sollte sich darüber die Köpfe heis zu reden.
Das mag ja sein, aber wir sehen ja, dass die GPUs bisher in 28nm HP (wie übrigens alle Prozesse zuvor auch) gefertigt werden. Warum sollte sich das ändern?

ja, was ist denn der Unterschied zwischen "Low-Power"- und "High-Performance"-Prozeß? wenn man in einem LP was groß genug baut, zieht es auch einiges an Saft. Man muß also die Grenze ziehen zwischen Ausrichtung auf hohen Takt oder auf geringe Leckströme. Und danach sind GPUs eigentlich immer schon in einem LP-Prozeß gefertigt worden, weil der Takt ja immer deutlich geringer war und ist als bei CPUs (wohl schon bedingt durch die Architektur), man also getrost auf Minimierung der Leckströme achten kann und sich um hohen Takt keine Sorgen machen muß.

Bei CPUs kann das neuerdings etwas geändert worden sein, bei Kaveri wurde ja ein niedrigerer CPU-Takt in Kauf genommen, um insgesamt ein brauchbares Gesamtpaket hinzubekommen, angeblich (ist ja nicht nachprüfbar) durch andere Fertigungsausrichtung, weniger auf hohen Takt und mehr auf Sparsamkeit. Und bei den kleineren SoCs (Bobcat-Reihe) stand ja von Anfang an nicht die CPU-Leistung im Vordergrund, daher auch die Fertigung in den GPU- und Chipsatz-typischen Fertigungsverfahren.

Insofern, wenn man schon eine Wegbewegung von HP in Richtung LP proklamiert, dann wird das aber in erster Linie die CPUs und weniger die GPUs betreffen. Eher gehen damit die GPUs in Richtung HP, wenn man nämlich den HP-Prozeß weglassen läßt, weil der LP-Prozeß neuerdings auch höhere Taktraten ermöglicht.

Kaveri ist ein superschlechtes Beispiel. Du vergleichst den nämlich mit den SOI SHP-Prozessen von IBM, welche zwar enorme Taktraten ermöglichen aber eben auch enorme Leckströme in Kauf nehmen. Man darf aber eben nicht übersehen, dass Kaveri immer noch 4 GHz+ macht und der Prozess noch neu ist. Wenn der ein bisschen läuft, sind da die gleichen Taktraten drin wie bei Richland, nur der Prozess ist auch nach unten hin erheblich besser. Der geht nicht in Richtung LP, der ist einfach weniger "super" ("S"HP), aber immer noch SHP.

Natürlich ist die Klassifizierung von Prozessen eher eine "von-bis"-Sache und nix statisches. Dennoch ist eine Klassifizierung offenbar gegeben und Grafikchips wie CPUs werden nunmal nicht in LP klassifizierten Prozessen gefertigt, dafür wird es schon einen Grund geben.

robbitop
2014-05-13, 13:46:42
LP ist oftmals gar nicht LP sondern LC (Low Cost).
Intel nutzt für Haswell ein und denselben Fertigungsprozess und skaliert zwischen einem niedrigen einstelligen Watt-Bereich bei den Y-Modellen bis zu einem z.T niedrigen dreistelligen Bereich bei den So2011 Modellen. Ich kann mir gut vorstellen, dass ein sehr guter Prozess sehr sehr gut skalieren kann.
Erst mit Atom nutzt man IIRC eine abgewandelte low Power Version. Allerdings stellt sich hier die Frage ob low power nicht low cost ist. Die Atoms sind ja Produkte mit geringer Gewinnspanne. Da muss man schauen, dass man auch die Kosten drückt.

HOT
2014-05-13, 14:08:50
LP ist oftmals gar nicht LP sondern LC (Low Cost).
Intel nutzt für Haswell ein und denselben Fertigungsprozess und skaliert zwischen einem niedrigen einstelligen Watt-Bereich bei den Y-Modellen bis zu einem z.T niedrigen dreistelligen Bereich bei den So2011 Modellen. Ich kann mir gut vorstellen, dass ein sehr guter Prozess sehr sehr gut skalieren kann.
Erst mit Atom nutzt man IIRC eine abgewandelte low Power Version. Allerdings stellt sich hier die Frage ob low power nicht low cost ist. Die Atoms sind ja Produkte mit geringer Gewinnspanne. Da muss man schauen, dass man auch die Kosten drückt.
Sehr gut. Die Klassifizierung ist deutlich besser. Übrigens steht in dem druch Unicous oben verlinkten Artikel
http://www.eetimes.com/document.asp?doc_id=1321974&page_number=2
auch drin, dass sowohl Samsung als auch GloFo nicht mit einer langen Lebensdauer für 20nm planar rechnen und offenbar nicht allzu viel Energie da reinstecken wollen. Die FinFETs sind das Wichtige und da konzentriert man sich (zusammen) darauf. Ein 14nm HQ-Prozess ist also sicher zu erwarten.

robbitop
2014-05-13, 14:45:17
War Samsungs 14 nm nicht 16 nm FF?

Skysnake
2014-05-13, 21:47:07
Das mag ja sein, aber wir sehen ja, dass die GPUs bisher in 28nm HP (wie übrigens alle Prozesse zuvor auch) gefertigt werden. Warum sollte sich das ändern?


Vielleicht ändert sich ja etwas an den Rahmenbedingungen, oder der Art wie etwas gebaut wird, wer weiß das schon...

Auf jeden Fall könnt ihr euch die SOC, LP und HP Diskussion sonst wo hinschieben. Denn die ist soweit weg von der Realität, das tut beim lesen weh.

fondness
2014-05-13, 22:04:20
War Samsungs 14 nm nicht 16 nm FF?

Nope Samsungs 14nm Prozess (den jetzt auch GF verwendet) ist auch ein Shrink ggü. 20nm planar. Im Unterschied zu 16nm von TSMC.

AffenJack
2014-05-13, 22:09:54
Nope Samsungs 14nm Prozess (den jetzt auch GF verwendet) ist auch ein Shrink ggü. 20nm planar. Im Unterschied zu 16nm von TSMC.

Nen richtiger Shrink ist das doch glaube auch nicht, ist auch nur nen kleiner Shrink oder nicht?
Bei TSMCs ist das genauso. Allerdings nur 15% Flächenersparnis. Keine Ahnung wieviel Samsung angibt.

ndrs
2014-05-13, 22:59:43
ist auch nur nen kleiner Shrink oder nicht?
Logisch, 6nm ist halt schon sehr klein. :D Sry, musste mal sein^^

robbitop
2014-05-14, 10:16:55
Nope Samsungs 14nm Prozess (den jetzt auch GF verwendet) ist auch ein Shrink ggü. 20nm planar. Im Unterschied zu 16nm von TSMC.
Das meinte ich damit doch. Sind Samsungs 14 nm nicht in Wahrheit 16 nm mit FinFets und TSMCs 16FF und der alte 14XM "nur" 20 nm + FinFets?
Oder wieviele nm sind Samsungs 14 nm? 14?

Locuza
2014-05-14, 12:43:36
Charlie sprach mal von 7 bis maximal 15% Flächenreduktion bei Samsungs FinFET Prozess und damit wenigstens etwas, aber viel ist das schließlich auch nicht.

http://semiaccurate.com/2013/05/28/samsung-talks-about-their-14nm-finfet-process/

Aber was auf dem Papier steht, zeigt mir ja leider auch nicht wie es wirklich in der Realität steht.

robbitop
2014-05-14, 12:59:39
Das ist dann rechnerisch ein sehr kleiner Shrink (15 % Flächenreduktion). Ich weiß, dass man das so nicht rechnen kann, aber das wären 18,5 nm.

Vielleicht ist es auch weiterhin 20 nm und man hat nur die Packdichten jeweils etwas erhöht...

Duplex
2014-05-14, 14:03:23
Auf Die Prozesse von GF, Samsung oder IBM würde ich mich nicht verlassen, die werden nichtmal die Effizienz von Intels 22nm Prozess erreichen, da läuft eine Menge schief zwischen den Hersteller.

ndrs
2014-05-14, 14:15:17
Naja, da Intel keine größere Zahl von Kunden bedienen muss, kann man recht gut optimieren, was deine Aussage stützt. Aber wirklich beweisen kann man das mangels vergleichbarer Produkte nicht.

Das einzige mir bekannte vergleichbare Produkt ist wohl Kabini/Beema bzw. Temash/Mullins. Wenn sich da am Design so wenig geändert hat, wie es bisher den Anschein machte, schein GFs 28nm recht anständig zu sein.

Kennt jemand andere Vergleichsmöglichkeiten?

Unicous
2014-05-14, 14:34:37
GFs 28nm Prozess scheint nach Anlaufschwierigkeiten zumindest bei AMD gute Produkte auszuspucken.

Ich glaube darüber hinaus auch nicht, dass sich Apple über Samsung beschweren muss. Die Chips in 28nm waren allesamt gut. Dass Samsungs Exynos sehr bescheidene Performance/Watt haben muss ja nichts mit dem Prozess an sich zu tun haben.

Ich weiß auch nicht was IBM mit der ganzen Sache zu tun hat, die versuchen gerade ihre Fabs zu verkaufen und ihre Prozesse nutzen sie nun so gut wie exklusiv für sich selbst.

Sich jetzt schon über die Prozessqualität auszulassen finde ich demnach eher schäbig.
Intel schummelt genauso wie alle anderen und während Intel in einigen Parametern Vorteile hat, heißt das im Umkehrschluss nicht, dass die übrigen Mitstreiter nur schlechte Prozesse liefern können.
Also nichts als ein Fazit ohne Analyse und Fakten.

robbitop
2014-05-14, 15:38:16
Intel ist, was Fertigungstechnologie angeht, sowieso vollkommen außer Konkurrenz. Sie können es sich auch als einzige leisten, den Prozess auf das Design und das Design auf den Prozess zu entwickeln.

IBM und AMD waren die letzten, die das sonst noch konnten. Das ist nun aber auch passe. Jetzt muss man schauen, dass man die Designs gut auf Standardprozesse zurechtoptimiert.

Ich könnte mir allerdings mit Apple noch jemanden vorstellen, der richtig Geld in die Hand nimmt und sich mit einer Foundry zusammentut und sich einen eigenen (oder abgewandelten) Prozess entwickeln lässt. Ggf. sich von diesem eine eigene Fabrik bauen und betreiben lässt. Das Geld hätte Apple und deren Know How steigt auch kontinuierlich. Ein Fertigungsvorsprung vor der Konkurrenz wäre etwas Feines im hartumkämpften Elektronikmarkt.

@GF 28 nm

Das sehe ich auch so. Kaveri ist, wenn man nicht am oberen Frequenzlimit läuft, deutlich besser als ein Richland mit gleicher TDP. Man muss sich nur die Notebook APUs anschauen. Mit 19 und 35 W bekommt man nun deutlich höhere Taktraten hin. Trotz des SOI Wegfalls (dafür opfert man eben ein bisschen maximale Taktrate - das ist für die mobile APUs aber egal).
Auch Beema sieht fantastisch aus gegenüber Kanini.

Allerdings sind dies nur Indizien, da man nicht weiß, wieviel Anteil am Design hängt.

OBrian
2014-05-15, 00:48:11
Man darf aber auch nicht vergessen, daß Intel auch nur mit Wasser kocht. Die sind zwar schneller bei der nächsten Node als andere, aber es war regelmäßig so, daß die Fertigung der Anderen, sobald die auch bei dieser Node angekommen waren, etwas besser war (z.B. bzgl. Packdichte usw.), oder flapsig ausgedrückt, die Nanometer von Intel sind nicht ganz so viel wert wie die Nanometer von den Anderen. Und schließlich sind diese Nanometerangaben ja auch reines Marketing, nicht nur bei sowas wie "14XM" für 20nm+FF. Wieso muß Intel unbedingt 22 nm Gatelänge erreichen? Wenn es z.B. 23,4 sind und das auch nur in einigen kleinen Bereichen und woanders 26,4 bis 27,1, wäre es doch auch egal, sie bauen ja nur für sich was damit. Die Auftragsfertiger sind da sicher größeren Zwängen unterworfen, weil ihre Kunden sich auf bestimmte Bedingungen verlassen können müssen.

Aber um den Schlußsatz meines Vorposters zu bekräftigen, man kann eben die Fertigungen überhaupt nicht vergleichen, wenn man nicht die gleichen Designs darauf baut. Ein Haswell in 28 nm bei GF oder ein Bulldozer in 22 nm bei Intel wäre sicher aufschlußreich. Ich habe aber das dumpfe Gefühl, daß der BD dann immer noch nicht sonderlich überzeugend wäre...

robbitop
2014-05-15, 09:46:19
Ich denke, dass Intel gar nicht auf Packdichte optimiert. Ich kann mir gut vorstellen, dass Packdichte diametral zu anderen sehr wichtigen Kennwerten steht. Die optimieren vermutlich eher auf Performance und Leakage. Die Margen bei Intel sind hoch genug, dass sie ein wenig Packdichte liegen lassen können. Das Resultat ist vermutlich, dass TSMCs 16FF etwas kleiner ist als Intels 22 nm - aber ich würde jede Wette eingehen, dass Intels 22 nm Prozess TSMCs Prozess kräftig verdrischt was Performance und Leakage angeht.

Noch dazu ist Intel viel weiter als es nach außen aussieht. Nicht selten laufen Fertigungsprozesse schon > 1 ... 1,5 Jahren bevor darauf das erste Produkt gelauncht wird. Auch nicht selten ist das Launchprodukt schon der 3. oder 4. Spin auf diesem Prozess.

Alle anderen können sich diesen Luxus gar nicht leisten. Sobald die Yields einigermaßen passen wird möglichst A1 auf den Markt gebracht.

Wenn wir 22 nm den neuen 20 nm FinFet Prozessen gleichsetzen (ich nehme eher an, dass er sogar besser ist), sieht es beim zeitlichen Vorsprung wirklich böse aus.

Das erste Produkt launchte Q1 2012 mit Ivy Bridge. Engineering Samples gab es die ersten mind. 1 Jahr vorher. TSMC, GF und Samsung können vergleichbare Produkte (SFF SoCs sind nicht vergleichbar) ggf. Q2 2015 launchen - vielleicht auch erst Ende 2015.

Im Worst Case ist Intel fast 4 Jahre vorn. Ende 2015 läuft bei Intel schon der nächste Prozess in die Serienfertigung. Dann hat Intel 2x Nodes Vorsprung...

IMO ist das schon ziemlich krank... (um das zu kaschieren, nennen die Fertiger ihre 20 nm FinFet Prozesse halt 14 oder 16 nm)

Ich kann mich an Zeiten erinnern, da war AMD 3 Monate hinter Intel mit Fertigungsprozessen. (allerdings noch nicht das typische "Intel evaluiert und optimiert Jahr" inkludiert). TSMC und Co waren ein weiteres Jahr hinterher.

AMD/IBM wurde das zu teuer und Intel ist der einzige, der die Mittel hat, halbwegs in seinem Shrink-Trott zu bleiben. Bei allen anderen erhöhte sich die Nutzungsdauer der Prozesse um ~ 50 %. Jeder weitere Shrink erhöht nun den Rückstand auf Intel immer weiter.

YfOrU
2014-05-15, 09:58:40
Man darf aber auch nicht vergessen, daß Intel auch nur mit Wasser kocht. Die sind zwar schneller bei der nächsten Node als andere, aber es war regelmäßig so, daß die Fertigung der Anderen, sobald die auch bei dieser Node angekommen waren, etwas besser war (z.B. bzgl. Packdichte usw.), oder flapsig ausgedrückt, die Nanometer von Intel sind nicht ganz so viel wert wie die Nanometer von den Anderen ...



Wäre Intel nur einen Node weiter und seit längerer Zeit mit den Auftragsfertigern in zumindest indirekter Konkurrenz würde ich dir durchaus zustimmen. Entwicklungen wie FinFet und IVR fallen bei der Betrachtung aber unter den Tisch. Die Packdichte ist dabei zum Beispiel ein Thema für sich denn bevor Intel ernsthaft in das SoC Geschäft eingestiegen ist war das eher kein absolut kritischer Faktor.

Entsprechend steht die Packdichte auch erst bei den zukünftigen Prozessen im Fokus (Prozess-Roadmap, 14nm & beyond). IMHO wird sich Intel ein Stück von der bisherigen Super-High-Performance Ausrichtung der Prozesse wegbewegen. Im Gesamtbild erwarte ich dadurch aber keine signifikante Änderung der bestehenden Verhältnisse denn der Vorsprung in diesem Bereich ist viel zu groß. Intel ist zwar auch heute schon im ULP Bereich konkurrenzfähig (Fertigung) aber da ist sicher noch deutlichst mehr möglich.

robbitop
2014-05-15, 10:17:40
Wie bereits angemerkt, bedeutet Low Power oft nur Low Cost. Intels High Performance Prozesse sind sicherlich nicht weniger Low Power fähig als die der Mitbewerber. Wohl eher besser. Nur teurer sind sie eben.

YfOrU
2014-05-15, 10:22:44
Da stimme ich dir grundsätzlich auf jeden Fall zu. Mir schwebt in dem Kontext deshalb auch eher etwas wie TSMCs HPm als Orientierungspunkt statt LP vor ;)

robbitop
2014-05-15, 10:24:54
Ich würde darauf Tippen, dass Intel nichts anderes entwickelt als HPm. ;) Namen sind Schall und Rauch.

YfOrU
2014-05-15, 10:32:21
Sowieso. Das Beispiel habe ich genommen da TSMCs 28nm HPm einen guten Kompromiss darstellt (Skalierbarkeit, Effizienz, Packdichte). Bekommt Intel (22nm) im Endeffekt aktuell natürlich auch hin aber der Abstand müsste in Relation größer ausfallen. Zu dem Thema gab es auch eine Folie (IDF ?) denn am Optimum bewegt sich Intel in diesem Segment bisher noch nicht (->mehr Flexibilität, unterschiedliche Designs/Fertigung).

fondness
2014-05-15, 10:38:49
Wenn wir 22 nm den neuen 20 nm FinFet Prozessen gleichsetzen (ich nehme eher an, dass er sogar besser ist), sieht es beim zeitlichen Vorsprung wirklich böse aus.


Also wenn es rein nach der Transistorgröße geht ist 14nm von GF/Samsung und 14nm von Intel nicht weit auseinander. Man sollte nicht unterschlagen das Intel bis jetzt deutlich mehr geschummelt hat bei der Gatelänge.

IMHO wird sich Intel ein Stück von der bisherigen Super-High-Performance Ausrichtung der Prozesse wegbewegen. Im Gesamtbild erwarte ich dadurch aber keine signifikante Änderung der bestehenden Verhältnisse denn der Vorsprung in diesem Bereich ist viel zu groß. Intel ist zwar auch heute schon im ULP Bereich konkurrenzfähig (Fertigung) aber da ist sicher noch deutlichst mehr möglich.

Sehe ich auch so.

robbitop
2014-05-15, 11:03:11
Entscheidend ist doch wesentlich öfter die Performance und die Leakage. Ich kann mir nicht vorstellen, dass TSMC, GF, Samsungs 20 nm FF sich dort mit Intels 14 nm Prozess anlegen kann. Eventuell mit dem 22 nm Prozess.

mrck
2014-05-15, 13:32:53
...

fondness
2014-05-15, 13:34:46
Bis 22nm war das so. Ändert sich mit 14nm.

In Relation zu GF/TSMC. Deshalb ist es auch unfair den Intel Prozess 14nm zu nennen und den von GF/TSMC 20nm FinFET.

robbitop
2014-05-15, 13:37:13
Von der Fläche her gesehen ja. Von der Performance/Leakage gesehen, ist es vermutlich ok.
Jetzt kann jeder entscheiden, was wichtiger ist. ;)

mrck
2014-05-15, 13:37:18
...

fondness
2014-05-15, 13:39:07
Von der Fläche her gesehen ja. Von der Performance/Leakage gesehen, ist es vermutlich ok.
Jetzt kann jeder entscheiden, was wichtiger ist. ;)

Wenn du die Performance/Leakage beschreiben willst ist Nanometer sicher nicht das richtige Maß. :)

robbitop
2014-05-15, 13:50:07
Wenn du die Performance/Leakage beschreiben willst ist Nanometer sicher nicht das richtige Maß. :)
Das ist klar. Aber was ist es denn dann?

Skysnake
2014-05-15, 13:55:07
Gatekapacity und transconduction

robbitop
2014-05-15, 14:19:11
Tja nur sind die Dinge öffentlich einsehbar? ;)

Skysnake
2014-05-15, 19:43:07
für irgendwelche Asbach uralt Prozesse eventuell.

Für alles <400nm aber wohl eher nicht.

btw der Widerstand von Vias und Wires, sowie derenKapazitäten sind natürlich auch ziemlich relevant. Das wird man aber wohl genau so wenig finden.

Wenn jemand lust hat, kann er ja mal auf die Suche gehen, ob er irgendwelche Datasheets findet. Einfach schauen, ob auf jeder Seite FETT CONFIDENTIAL drauf steht. Wenn ja, das sind die interessanten Sachen

Hübie
2014-05-16, 02:04:32
Das gibts alles, aber muss man halt bezahlen :P

Unicous
2014-05-16, 05:48:21
Ein GM107 Konkurrent mit ähnlicher Perf/Watt?

http://videocardz.com/50506/exclusive-amd-working-tonga-gpu

AnarchX
2014-05-16, 06:52:16
Ein GM107 Konkurrent mit ähnlicher Perf/Watt?

http://videocardz.com/50506/exclusive-amd-working-tonga-gpu
Mir sieht das eher nach einem Oland/Mars @ V.I. aus: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10202009#post10202009 ... eventuell aus GF-Fertigung.

Die gesichtete Iceland Karte würde ich vielleicht im Pitcairn Niveau vermuten.

Dawn on Titan
2014-05-16, 06:52:41
Erster Hinweis auf den NExt-Gen-Battle.

robbitop
2014-05-16, 09:42:48
für irgendwelche Asbach uralt Prozesse eventuell.

Für alles <400nm aber wohl eher nicht.

btw der Widerstand von Vias und Wires, sowie derenKapazitäten sind natürlich auch ziemlich relevant. Das wird man aber wohl genau so wenig finden.

Wenn jemand lust hat, kann er ja mal auf die Suche gehen, ob er irgendwelche Datasheets findet. Einfach schauen, ob auf jeder Seite FETT CONFIDENTIAL drauf steht. Wenn ja, das sind die interessanten Sachen
Tja dann bleibt es halt weiter bei der Gatelänge als Vergleich. Man kann nur das vergleichen, was einem vorliegt.

fondness
2014-05-16, 10:44:33
... eventuell aus GF-Fertigung.


Definitiv aus GF-Fertigung, das ist nach dem letzten Conference Call auch schon ziemlich offiziell. Und wenn auch nur die Richtung stimmt die videocardz anschlägt dürfte der Chip wohl wesentlich mehr sein als nur ein kleinerer Hawaii (macht auch wenig Sinn).

robbitop
2014-05-16, 10:51:52
Definitiv aus GF-Fertigung, das ist nach dem letzten Conference Call auch schon ziemlich offiziell. Und wenn auch nur die Richtung stimmt die videocardz anschlägt dürfte der Chip wohl wesentlich mehr sein als nur ein kleinerer Hawaii (macht auch wenig Sinn).
Meinst du Tonga? Tonga ist doch eher ein 750Ti Gegenspieler. Was hat der mit Hawaii zu tun? Oder meinst du jetzt bezogen auf die GCN Architektur? :)

fondness
2014-05-16, 10:53:17
Ja bezogen auf die Architektur.

Hübie
2014-05-16, 11:09:21
Wieso macht ein kleiner Hawaii wenig Sinn? Wegen Perf/sqmm oder Perf/Watt?

Botcruscher
2014-05-16, 11:19:01
Weil damit nichts ersetzt werden kann.

YfOrU
2014-05-16, 11:23:21
Eben und es macht Sinn zuerst die Produkte (TSMC) durch neue Äquivalente von GF zu ersetzen welche ein hohes Volumen haben. Also wie mit Mullins und Beema. Das es 8 Jahre gedauert hat (ausgehend von der ATI Übernahme) ist halt leider eine totale Katastrophe. AMD wird entsprechend zügig soviel Volumen wie möglich zu GF transferieren. Sehe ich für AMD als essentiell an um in Zukunft verlässlich Gewinne erwirtschaften zu können. Gleichzeitig ist es auch wichtig um bei GF nennenswerten Einfluss zu haben denn ohne substantielle Umsätze hat man natürlich schlechte Karten.

Hübie
2014-05-16, 11:49:16
Ah okay. Daran hab ich weniger gedacht ;)
AMD ist doch auch an Volumina bei GF gebunden oder?

Knuddelbearli
2014-05-16, 11:52:09
ja wobei ich nicht weiß wie der stand nach den ganzen Strafzahlungen ist.

Waren ja nicht nur Strafzahlungen sondern immer auch Vertragsänderungen dabei

YfOrU
2014-05-16, 12:05:33
ja wobei ich nicht weiß wie der stand nach den ganzen Strafzahlungen ist.

Im Endeffekt werden die Kosten für Prozessentwicklung, Ausstattung der Fabs und Betrieb auf die Wafer umgelegt. Da AMD aus der Vergangenheit heraus teilweise bis heute nahezu exklusive Prozesse benötigt wurde das richtig teuer. Am Ende muss das auch bei geringerer Abnahme irgendwie bezahlt werden.


Waren ja nicht nur Strafzahlungen sondern immer auch Vertragsänderungen dabei

Kann mir nicht vorstellen das AMD wirklich die gesamten real bei GF angefallenen Kosten tragen konnte. Am wahrscheinlichsten dürfte sein das man sich in der Mitte getroffen hat und im Umkehrschluss die Exklusivität (GF) bestehen geblieben ist. Vor allen da GF jetzt die Möglichkeit hat praktisch AMDs gesamtes Portfolio zu fertigen. AMD zu ruinieren ist nicht im Interesse von ATIC/Mubadala. Auf der anderen Seite will man natürlich Umsatz @ GF sehen. Hat zwar heute Seltenheit aber die denken sehr langfristig.

fondness
2014-05-16, 12:09:22
Eben und es macht Sinn zuerst die Produkte (TSMC) durch neue Äquivalente von GF zu ersetzen welche ein hohes Volumen haben. Also wie mit Mullins und Beema. Das es 8 Jahre gedauert hat (ausgehend von der ATI Übernahme) ist halt leider eine totale Katastrophe. AMD wird entsprechend zügig soviel Volumen wie möglich zu GF transferieren. Sehe ich für AMD als essentiell an um in Zukunft verlässlich Gewinne erwirtschaften zu können. Gleichzeitig ist es auch wichtig um bei GF nennenswerten Einfluss zu haben denn ohne substantielle Umsätze hat man natürlich schlechte Karten.

Die SOI IBM-Prozesse waren leider absolut ungeeignet für etwas anderes als Hochtakt-CPUs.

YfOrU
2014-05-16, 12:11:17
Die Entscheidung hin zu IBM-SOI war im Kontext der ATI Übernahme einer der katastrophalsten Fehler in AMDs Geschichte. Für ATI deutlichst zu viel bezahlt und dann konnten die Produkte (effektiv bis heute) nicht selbst bzw. später beim exklusiven Partner gefertigt werden. Wirkt sich bis heute massiv negativ auf AMDs Bilanzen aus und man musste über Jahre gezwungenermaßen weiter Kapital bei GF in SOI versenken. Das mal von den ganzen damit direkt verbunden Verzögerungen bei Produkten (->APUs, SOI) abgesehen. Genaugenommen hatte man bei AMD noch sowas von Glück das überhaupt jemand gefunden wurde der die Fabs in der Gesamtheit übernehmen und das halbwegs kompensieren konnte. Das war ein Fass ohne Boden und ich bin mir nicht so sicher ob die bei GF bis heute überhaupt einen in Sichtweite haben ;)

Für AMD ist das jetzt auf jeden Fall eine absolut überfällige und sehr positive Entwicklung. Viel wichtiger als ein paar Prozent in irgend welchen Benchmarks auch wenn das bei GF aktuell (28nm) sowieso ganz gut aussieht.

Mandalore
2014-05-16, 15:28:53
Müsste der Tonga dann nicht massive Architekturänderungen vorweisen (wie Maxwell z.B.)? Weil es wird ja gesagt, dass das noch nicht GCN2 darstellen soll.:confused:

Nakai
2014-05-16, 15:44:02
Mir gefällt nicht, in welchem Segment Tonga liegen sollte.
Tonga als Tahiti-Pitcairn-Ersatz? Vor allem wird Tonga mit GM107 verglichen. Tonga wird eher Bonaire-Ersatz. Würde auch dazu passen, dass Bonaire im Mobile-Bereich bis heute nicht aufgetroffen ist.

€: Müsste der Tonga dann nicht massive Architekturänderungen vorweisen (wie Maxwell z.B.)? Weil es wird ja gesagt, dass das noch nicht GCN2 darstellen soll.

Ich bin mir nicht sicher, aber wenn ich mir die Verbrauchswerte von Bonaire in der Form der HD7790 und 260X angucke, braucht letztere mal locker 20% mehr Energie bei etwa 10% Mehrperformance. Vor allem auffallend ist das komische Powertune der neueren Serie, welche die Temperaturen der Karte ziemlich hoch werden lässt. Ich glaube, hier liegt der Hund begraben. Ich befürchte, dass GCN bei höheren Temperaturen mehr Strom frisst und dadurch heißer wird.

http://www.computerbase.de/2013-11/neun-radeon-r9-270x-test/2/

Bei AMD sehe ich seit langem das Problem, dass sie ihre GPUs ziemlich ausreizen, was eigentlich ziemlich dämlich ist. Das zieht sich durch alle Bereiche durch. Die sollten ganz schnell damit aufhören, ihre GPUs über 1GHz zu prügeln oder dafür die Kühllösung wenigstens anpassen.

Das was Tonga werden könnte, ist ein breiterer Bonaire mit 256Bit SI und mehr Cache. 1024SPs, 256Bit SI, 1MB L2-Cache, max 1GHz Core, max 1,25Ghz Mem

ndrs
2014-05-16, 16:13:52
Ich denke, dass sie zuerst versuchen werden, die alten Chips loszuwerden. Schließlich brauchen sie irgendwann auch mal ein komplettes Lineup, was sämtliche beworbenen Features, wie TrueAudio, unterstützt.

Skysnake
2014-05-16, 16:20:08
Das gibts alles, aber muss man halt bezahlen :P
Und, ist doch gar nicht so teuer, wie ich gerade gesehen habe. 2800$ (https://www.cmc.ca/en/WhatWeOffer/Products/CMC-00200-01413.aspx) sind ja mal echt ein Schnäppchen im Vergleich zur Software, damit man mit den Daten auch was anfangen kann.

Man kann sich aber z.B. einfach mal das hier anschauen (http://www.tsmc.com/english/dedicatedFoundry/technology/65nm.htm), und sich mal die Zahlen da durch den Kopf gehen lassen. Nach eurer einfachen Theorie, wie alles läuft, passt das nämlich nicht so wirklich zusammen, vor allem, wenn man bedenkt, das SRAM so ziemlich am dichtesten gepackt ist.

Ach und wenn wir schon dabei sind, dann schaut euch auch noch gleich mal das hier mit an (http://projects-web.engr.colostate.edu/ece-sr-design/AY08/CMOS/Website_Documents/ECE402_Spring_Report_CMOS_final.pdf) auf Seite 12. Komisch gell, an sich das gleiche Ding, aber nen ziemlich heftiger Größenunterschied...

Woher der wohl nur kommen mag...

Ach ja, wenn wir schon dabei sind. Die PDKs der FABs sind halt auch verdammt wichtig. Kann man sich ja mal das hier dazu anschauen (http://www.integrandsoftware.com/papers/presentation_CICC2010.pdf), und darüber nachdenken.


In einem Punkt muss ich mich aber revidieren. Es gibt im Netz doch tatsächlich PDK Files für 65nm TSMC und 45nm SOI von IBM.

Das TSMC Ding werde ich sicherlich nicht verlinken, und beim IBM File bin ich noch am überlegen. Ihr könnt ja gern danach selbst suchen, das ist dann nicht mein Problem.

Btw. Eine Sache habe ich aber noch gefunden, die ich auch verlinken kann. Einfach mal um ein Gefühl dafür zu bekommen, wieviele Parameter es eigentlich gibt, die am Ende darüber entscheiden, wie gut ein Prozess ist, könnt ihr euch das hier mal anschauen: http://www.idea2ic.com/PlayWithPerl/Bsim_Ref/bsim4_table_BW.pdf


EDIT:
Die SOI IBM-Prozesse waren leider absolut ungeeignet für etwas anderes als Hochtakt-CPUs.
Weil du das jetzt sagst, oder gibts dafür auch einen echten Grund?

OBrian
2014-05-16, 16:47:21
Ich schätze mal, wahrscheinlich deswegen ungeeignet, weil es zu teuer gewesen wäre. SOI ist ja genommen worden, um die Leckströme zu verringern und auch um höhere Schaltgeschwindigkeiten hinzukriegen. Bei CPUs bitter nötig (vor allem wenn die Designer auf hohe IPC scheißen^^), aber bei Chips mit um 1 GHz eher egal, und dafür wären dann die teuren SOI-Wafer Perlen vor die Säue gewesen.

Um zu Tonga zurückzukommen: Ein 256-bittiger Ersatz mit etwas mehr Performance als Pitcairn, um alles zwischen Bonaire und Hawaii (genauer gesagt einem noch teilzudeaktivierenden Hawaii LE) zu ersetzen wäre sehr sinnvoll. Das strafft das Portfolio und ersetzt die beiden ältesten Chips durch was mit den neuesten Goodies wie TrueAudio usw. Außerdem müßte eine 256-bit-Karte günstiger herzustellen sein als Tahiti-Karten, die sinken ja langsam in den Preisbereich, wo das eine Rolle spielt.

Bonaire zu ersetzen würde dagegen wenig Sinn ergeben, die Karte ist noch relativ neu aus technologischer Sicht (i.e. gleiches Level wie Hawaii) und gut aufgestellt. Wenn ich was von meinen Produkten ersetzen muß/will (z.B. weil was bei GF gefertigt werden muß), dann gucke ich mir doch den Bereich aus, der es am nötigsten hat.

fondness
2014-05-16, 21:48:59
Ich schätze mal, wahrscheinlich deswegen ungeeignet, weil es zu teuer gewesen wäre. SOI ist ja genommen worden, um die Leckströme zu verringern und auch um höhere Schaltgeschwindigkeiten hinzukriegen. Bei CPUs bitter nötig (vor allem wenn die Designer auf hohe IPC scheißen^^), aber bei Chips mit um 1 GHz eher egal, und dafür wären dann die teuren SOI-Wafer Perlen vor die Säue gewesen.


Das wäre das kleinste Problem gewesen. Die Packdichte war schlecht, auch die Energieeffizienz bei moderaten Taktraten war unzureichend. Die Prozesse waren eben voll und ganz auf IBMs Power-Design zugeschnitten. Das "Bulldozer"-Design ist auch aus der Verlegenheit heraus entstanden nur den IBM Prozess zur Verfügung zu haben. Man hat auch nicht aus Geldmangel wie gerne behauptet auf IBMs 22nm SOI Prozess verzichtet, sondern ausschließlich aus strategischen Gründen.

Kriton
2014-05-16, 23:26:58
Hat Reed nicht seinerzeit auch mal gesagt, dass man "time to market" reduzieren will? Das klang für mich im damaligen Kontext (z.B. auch die Bezeichnung der Karten auf das Jahr und nicht den Tech-Level bezogen) als ob wir mehr evolutionäre Schritte statt revulutionärer sehen würden. Oder sind dafür (bei inkrementellen Änderungen) bereits die Fixkosten (Masken etc.) zu hoch?

fondness
2014-09-12, 12:18:04
AMD Radeon R9 390X cooling pictured

http://s27.postimg.org/dug43vhwj/AMD_Radeon_R9_390_X_cooling.jpg (http://postimage.org/)

http://videocardz.com/52302/amd-radeon-r9-390x-cooling-pictured

Angeblich wieder Hybrid-Kühler in Zusammenarbeit mit Asetek.

-/\-CruNcher-/\-
2014-09-12, 12:20:46
Och es leaked ja nix sind ja meister in der leak protection schon klar auser zum Marketing attack da leaked dann schonmal was ooops ;)

fondness
2014-09-12, 12:24:32
Och es leaked ja nix sind ja meister in der leak protection schon klar auser zum Marketing attack da leaked dann schonmal was ooops ;)

Es wird dann etwas "geleaket" wenn es Sinn macht. ;)

Unicous
2014-09-12, 12:25:22
Och es leaked ja nix sind ja meister in der leak protection schon klar auser zum Marketing attack da leaked dann schonmal was ooops ;)

:confused:

https://translate.google.com/


"Could not translate."

Nightspider
2014-09-12, 12:43:17
Ist es normal das die finalen Kühler schon so zeitig gezeigt werden oder könnte Fiji vllt wirklich noch dieses Jahr kommen?

Soul
2014-09-12, 12:45:16
AMD wird abwarten was die die Nv's können und dann kontern wenn sie können.

Unicous
2014-09-12, 12:47:21
@Nightspider

Muss ja nicht final sein. Kann genauso gut eine Studie/Prototyp sein. Kann auch Fake sein.:wink:

Besonders geil sieht das Ding imho nicht aus und "fertig" auch nicht. "Jeder" mit einer industriellen CNC-Fräse bekommt das besser hin.:tongue:


@Soul

Das ist dann aber definitiv nicht Fiji und VCZ behauptet und dass das "Gehäuse" einer R9 3xx wäre. Alles was VCZ hat ist ein Foto. Der Rest ist mMn zu 99% erfunden.

fondness
2014-09-12, 12:54:38
Nachdem der Design-Win von Asetek erst im ersten Halbjahr 2015 ausgeliefert werden soll ist dieses Jahr unrealistisch.

-/\-CruNcher-/\-
2014-09-12, 13:00:10
AMD wird abwarten was die die Nv's können und dann kontern wenn sie können.

Dann sollten sie aber besseres Marketing betreiben als mit so einer Energieschleuder aber ich vergesse ja Gamer Gamer ;)

mironicus
2014-09-12, 13:00:35
AMD baut einen richtig großen Single-Chip und spendiert dazu eine Wasserkühlung die weit über 300 Watt locker wegkühlen kann. Das wird interessant wie sich Fiji gegenüber dem großen Maxwell schlagen wird.

fondness
2014-09-12, 13:05:31
Vor allem sollte das Ding nach den Erfahrungen mit der 295X2 bei nur einem Chip die Temps locker bei 60°C halten können und dabei leise sein. Das spart auch Strom, ermöglicht höhere Taktraten und mehr OC-Spielraum und erspart damit schlechte Reviews^^

Der Chip dürfte allerdings wenn die Angaben stimmen nur minimal über 500mm² liegen, also nicht ganz so groß wie manche NV-Kaliber.