PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Nightspider
2014-12-09, 16:06:45
Da haben die alten Konsolen mit 256MB VRAM aber noch eher die Entwicklung ausgebremst. ;)

HOT
2014-12-11, 18:49:36
Da haben die alten Konsolen mit 256MB VRAM aber noch eher die Entwicklung ausgebremst. ;)
Bei einigen Titeln vielleicht, aber fast alle größeren Spiele seit Farcry hängen an der Adressraumgrenze. Natürlich auch, weil die Konsolen so wenig Speicher nur boten, da lohnte ja kein Alleingang für PC.

Unicous
2014-12-12, 22:28:36
Habe zufällig über den GF Twitter Account (whuat?:freak:)

dieses "Webinar" zu Stacking gefunden.

po29B53bpic

Ist schon von letztem Monat.

Über den Twitter-Account wird auch offizielle behauptet/bestätigt, dass sie die "erste" Foundry sind (ausgenommen natürlich Samsung), die FinFET liefern wird.



Vllt. ist es hier nicht so gut aufgehoben...

Edit:

Ich weiß nicht, ich weiß nicht. Für micht stellt es sich gerade so dar, dass es doch noch eine Weile braucht bis sie 2.5D Stacking produktionsbereit haben (also erst nächstes Jahr). Und das würde dann mMn bedeuten, dass Fiji erst im H2 kommt. Andererseits könnte er aber auch nur aus Foundry-Sicht sprechen und dabei wird AMD als special costumer ausgeklammert, wie auch bei anderen Prozessen (32nm SOI, 28nm SHP).

Diese mixed signals sind ja schlimmer als beim Speed Dating.:ulol4:

MilesEdgeworth
2014-12-13, 00:32:05
Diese mixed signals sind ja schlimmer als beim Speed Dating.:ulol4:

Ist zwar offtopic, aber da muss wohl jemand mit einer Fourieranalyse ran, um das zu deuten .. :freak:

Pirx
2014-12-13, 08:45:41
Die Erfahrung lehrt eigentlich, daß GF eher sehr viel später als bald produktionsbereit sein wird.

AffenJack
2014-12-13, 09:52:45
@ Unicous

Also für meinen Eindruck zeigen sie nur wann GF 2.5D liefern kann und somit hats mit Fiji keinen direkten Zusammenhang. Sie reden ja auch von der TSV Produktion in Malta. Aber Fiji wird sowieso bei TSMC und nicht Gf produziert und andere Partner übernehmen das Packaging.

Skysnake
2014-12-13, 11:25:18
Habe zufällig über den GF Twitter Account (whuat?:freak:)

dieses "Webinar" zu Stacking gefunden.
Ist schon von letztem Monat.

Über den Twitter-Account wird auch offizielle behauptet/bestätigt, dass sie die "erste" Foundry sind (ausgenommen natürlich Samsung), die FinFET liefern wird.



Vllt. ist es hier nicht so gut aufgehoben...

Edit:

Ich weiß nicht, ich weiß nicht. Für micht stellt es sich gerade so dar, dass es doch noch eine Weile braucht bis sie 2.5D Stacking produktionsbereit haben (also erst nächstes Jahr). Und das würde dann mMn bedeuten, dass Fiji erst im H2 kommt. Andererseits könnte er aber auch nur aus Foundry-Sicht sprechen und dabei wird AMD als special costumer ausgeklammert, wie auch bei anderen Prozessen (32nm SOI, 28nm SHP).


Danke für den Link erst mal :up:

Ich seh aber nicht, wo du siehst, das 2.5D oder 3D stacking erst nächstes Jahr bereit wären :confused: In den Folien ist doch ganz klar dargestellt, das man ab Q4/14 in Produktion gehen kann/wird/ist. Also spricht da an sich überhaupt nichts gegen einen Launch in Q1.

Diese mixed signals sind ja schlimmer als beim Speed Dating.:ulol4:
Hab ich was verpasst? Da wird doch rein gar nichts über Mixed-Signals erzählt :confused:

M4xw0lf
2014-12-13, 12:01:25
Hab ich was verpasst? Da wird doch rein gar nichts über Mixed-Signals erzählt :confused:
Ich glaube, er meint die widersprüchlichen Informationen bezüglich Fiji und neuen AMD-Chips generell. Q1, H1, H2, 28nm, 20nm, 14nm... alles dabei ;)

Unicous
2014-12-13, 12:57:08
@ M4xw0lf Danke.:wink:


@Affenjack

Du weißt mit hundertprozentiger Gewissheit, dass Fiji bei TSMC hergestellt wird?


@Skysnake

Ich bin mir eben nicht sicher was damit gemeint ist. Produktionsstart für Prototypen, für eingereichte Designs oder "Wir sind dann jetzt fertig und könnten dann eventuell vielleicht im nächsten Jahr mal anfangen zu produzieren".

Skysnake
2014-12-13, 13:03:02
Was ist womit gemeint?

Nur ums klar zu stellen, Mixed-Signal ist ein feststehender Begriff für Chips, die sowohl digitale als auch analoge Schaltungen haben. Also typischerweise das, was man bei einem SOC, aber auch bei GPUs/CPUs mit hohen Frequenzen bei den Interfaces hat, oder halt bei WiFi usw.

Unicous
2014-12-13, 13:41:37
:rolleyes:

http://www.urbandictionary.com/define.php?term=Mixed%20Signals







Ja, mixed signals ist ein feststehender Begriff.

AffenJack
2014-12-13, 15:16:19
@Affenjack

Du weißt mit hundertprozentiger Gewissheit, dass Fiji bei TSMC hergestellt wird?


Nein, aber ich gehe zu 95% davon aus. Wir haben die Synapse Presentation die von 2 Chips bei TSMC spricht und da Tonga sich schon bestätigt hat ist dies für mich die glaubwürdigste Quelle die es bisher gibt. Wenn Fiji nicht für einen anderen Chip als den großen 500 mm² Die steht, wird er wohl bei TSMC produziert werden. Später im Jahr kann ich mir dann kleinere 14nm Gpus von Gf vorstellen.

Edit: Oder verwechsle ich das gerade und auf der Präsentation war kein TSMC erwähnt?
Edit2: Nagut, war nur HPM erwähnt und am Ende war Tonga ja glaube nichtmal HPM. Trotzdem würde ich da immernoch vermuten, dass es um den gleichen Prozess wie bei Tonga geht und wir damit bei TSMC landen.

Skysnake
2014-12-13, 15:37:05
:rolleyes:

http://www.urbandictionary.com/define.php?term=Mixed%20Signals







Ja, mixed signals ist ein feststehender Begriff.
Yeah, steht ja auch total im Kontext zu Berichten von FABs :rolleyes:

In diesem Kontext daher von Mixed Signals zu sprechen ist zumindest sehr unglücklich. Vor allem da 2.5 und 3D Stacking insbesondere auch für Mixed Signal Chips sehr interessant ist.

Unicous
2014-12-13, 17:57:58
@AffenJack

Wenn der 500mm²+ Chip von TSMC kommt halte ich es im Gegenzug für eher fraglich, ob das dann Fiji ist.:tongue:

Es gibt TSMC betreffend nur wenige Meldungen zu Stacking und HBM soweit ich das mitbekommen habe. Außerdem gibt es zwei unterschiedliche "Philosophien" bei der Herstellung. TSMC (und Samsung) verfolgt die Turnkey-Philosphie, also das Produkt wird samt und sonders bei TSMC hergestellt. Bei GF und anderen Firmen verfolgt man die Hybrid-Methode. Der Interposer und das Chip Bonding wird von GF übernommen, aber das Packaging wird outgesourced. Mir stellt sich da die Frage... wie weit ist TSMC damit, wenn z.B. Nvidia erst Stacked RAM und GPU auf einem Interposer nutzen wird (und die Pläne ja nach hinten verschoben hat).

Auf der Folie wird übrigens u.a. auch 28SLP erwähnt, ein GF-Prozess. Es liegt also im Bereich des Möglichen, dass es ein Übertragunsfehler ist. Es ist eben Vieles im Unklaren.

Fiji soll ja noch 2015 kommen. Einige sagen H1, andere meinen H2. Sicher ist sich keiner. Für mich ist das jedenfalls nicht zu 95% sicher.

@Skysnake

Es steht im Kontext zu den Sätzen davor. Entspann dich mal. Kleine Gags erhalten die Freundschaft.

reaperrr
2014-12-14, 03:12:43
Möchte an dieser Stelle nur mal erwähnen, dass die Fiji-Inseln Vulkane haben, würde also davon ausgehen, dass Fiji architekturell wie Tonga und Iceland den Volcanic Islands zuzurechnen ist (Hawaii war im Grunde nur Sea Islands).

Coda
2014-12-14, 06:24:09
Hawaii ist auch ein Vulkan. Du interpretierst da zu viel rein.

AnarchX
2014-12-14, 10:07:41
Die Inseln werden mittlerweile nicht mehr für die Einordnung des IP Gen Levels genutzt. Da kann Fiji durchaus +1 sein bzw. vielleicht auch +0,5.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10367098#post10367098

HOT
2014-12-14, 10:42:15
Ich bleib dabei, der 500mm²-Chip kommt von TSMC und hat kein HBM. Zudem wird er das gleiche Featurelevel wie Tonga haben. Diese beiden Chips werden zusammen gehören. Tonga war einfach nur früher fertig (wobei ich mir nicht sicher bin, ob da nicht noch ein Tonga-Respin kommt, beim 300er-Release).
HBM kommt nächstes Jahr mit GloFos 20nm-Zeug, das passt auch zeitlich gut zusammen und TSMC ist aus dem Spiel.
Und FinFETs gibts auch nicht, AMD geht erst mal auf 20nm. die Aussage war doch ziemlich eindeutig. FinFETs haben lt. AMDs Aussagen keine Eile. Wenn ein Unternehmen sowas verlautbart, dann kann man das ganz sicher glauben. Ist ja auch logisch, diese ganzen Projekte bei AMD wurden gestartet, als noch niemand über den Samsung-Deal nachgedacht hat. Man wird GloFos 20nm weiterentwickelt haben, wie man GloFos 28nm weiterentwickelt hat bei Kaveri, das ist alles.

Menace
2014-12-14, 10:44:13
Einmal eine blöde Frage. Die größere Variante vom Tonga wird ja (falls ich es richtig verstanden habe) in den Apple-PCs auf Wunsch verbaut. Werden diese schon verkauft?

Gipsel
2014-12-14, 11:45:34
Ich bleib dabei, der 500mm²-Chip kommt von TSMC und hat kein HBM.
Sehr gut möglich. Nach der GF-Präsentation zu dem Thema sieht es ein wenig danach aus, daß man auf "full fill" (in dem Sinne, daß man die maximale Maskengröße des Belichters ausnutzt) Interposer begrenzt ist, also offenbar maximal 26x32mm. Da wird es etwas knapp, zusätzlich zu einem >500mm² GPU-Die noch vier HBM-Stacks draufzuquetschen. Aber ganz unmöglich ist es nicht. Oder man muß mal ein paar Milliönchen an ASML überweisen, daß sie einem ein paar alte 65nm Belichter (reicht für Interposer völlig aus, Teil der Erklärung, warum die trotz der Größe nicht übermäßig teuer sind) auf eine größere Maske erweitern.
Obwohl es schon noch gerade so passen könnte. GPU mit 26mm x 20mm = 520 mm² mittig plaziert, dann hat man auf jeder Seite noch einen 6mm breiten Streifen für die HBM-Stacks. Müßte mal nachsehen, wie groß die sind und ob das zumindest theoretisch passen würde.

Edit: Die HBM-Stacks von Hynix messen (inklusive 0,19mm side mold rundherum, die Dies selber also entsprechend 0,38mm weniger) angeblich 5,48mm x 7,29mm (mit 25µm spezifizierter Toleranz). Es könnte also tatsächlich gerade so passen. Das würde aber mächtig eng werden.

Skysnake
2014-12-14, 12:10:10
Es gibt aber auch Waferscale Interconnects auf den obersten Metallagen.

GF könnte das durchaus wohl auch machen für Interposer, also "einfach" den Interposer in mehreren Schritten belichten. Die Strukturen sind ja vergleichsweise gigantisch. Da kann man sich einen Versatz um ein paar µm durchaus erlauben.

AffenJack
2014-12-14, 12:26:43
@AffenJack

Wenn der 500mm²+ Chip von TSMC kommt halte ich es im Gegenzug für eher fraglich, ob das dann Fiji ist.:tongue:

Es gibt TSMC betreffend nur wenige Meldungen zu Stacking und HBM soweit ich das mitbekommen habe. Außerdem gibt es zwei unterschiedliche "Philosophien" bei der Herstellung. TSMC (und Samsung) verfolgt die Turnkey-Philosphie, also das Produkt wird samt und sonders bei TSMC hergestellt. Bei GF und anderen Firmen verfolgt man die Hybrid-Methode. Der Interposer und das Chip Bonding wird von GF übernommen, aber das Packaging wird outgesourced. Mir stellt sich da die Frage... wie weit ist TSMC damit, wenn z.B. Nvidia erst Stacked RAM und GPU auf einem Interposer nutzen wird (und die Pläne ja nach hinten verschoben hat).


Nunja TSMC produziert seit 1 Jahr 2.5D Chips von Xilinx in Massenproduktion. Das sind zwar nur FPGAs, aber ich wüsste im Moment von keinem anderen Hersteller, der sonst noch 2.5D Chips liefert. 1 Jahr in Massenproduktion ist dann schon ne gute Zeit um genug Erfahrung zu sammeln und die Ausbeuten deutlich zu erhöhen. Wenn die anderen noch am Entwickeln der Technologie sind, könnte TSMC auch vorne sein. Ich weiß es nicht, es wird spannend was das ganze angeht.

Unicous
2014-12-14, 13:04:30
Und ich bin mir ziemlich sicher, dass man das nicht vergleichen kann. Soweit ich das mitbekommen habe, nutzt Xilinx einen passiven! Interposer um die Signale der einzelnen FPGAs schnell und mit geringer Latenz herauszuführen, bin mir aber nicht mal sicher ob es da Chip-to-Chip Kommunikation gibt. Soweit ich weiß braucht man aber einen aktiven Interposer um z.B. eine "latenzarme" Kommunikation zwischen z.B. HBM und GPU zu ermöglichen.

Die Erfahrungen die sie gemacht haben werden ihnen sicherlich bei komplexeren Designs helfen, aber wie gesagt ich glaube nicht, dass sie weiter sind als GF und andere (wenn es um Memory+GPU/SoC auf Interposer geht).

Edit:

http://m.eet.com/media/1119957/xi-bc-00.jpg

Die Dies liegen nebeneinander auf dem Interposer. Stacking kann man es nur nennen weil es auf dem Interposer "gestacked" ist (IMHO).

http://www.eetimes.com/document.asp?doc_id=1316816

Bei HBM musst du die TSV-Kanäle ansprechen können und dann müssen die einzelnen Chips mit der GPU kommunizieren können. Xilinx "stacked" die 5 4 Chips um Fläche und Energie zu sparen. (Xilinx schreiben in einem slide es wären 5 Chips... meinten wohl den Interposer als 5. Chip:rolleyes:)

http://low-powerdesign.com/sleibson/wp-content/uploads/2011/10/Xilinx-Virtex-7-2000T-Power-Advantage.jpg

AffenJack
2014-12-14, 14:13:46
Ja da magst du recht haben. Auf dem Interposer nebeneinander ist nunmal 2.5D Stacking, außer bei Ram wirds zu 3D Stacking noch etwas dauern.

Habe gerade die wohl aktuellste Roadmap von TSMC gefunden:
http://www.3dincites.com/wp-content/uploads/TSMCroadmap.jpg
http://www.3dincites.com/2014/01/2014-european-3d-tsv-summit-get-ready-domino-effect/

Jeder weiß ja, was aus TSMCs 16nm Plänen geworden ist, aber vielleicht schaffts HBM on Cowos trotzdem früher zur Marktreife, da beide ja nicht unbedingt miteinander zusammenhängen oder? Man kann doch Chips beliebiger Prozesse stacken oder?

Deutlich mehr Sorgen macht mir aber der Preis, wenn ich diesen Bericht vom April bedenke:

In fact, TSMC and the other foundries are among the few suppliers of fine-pitch 2.5D interposers in the market, which, in turn, keeps the prices high for these components. “Generally, interposers go for about 25 cents per square millimeter. DRAM that you go buy at the local store goes for less than a nickel per square millimeter. So interposers, which have nothing but some wires on them, are selling for five times the cost of DRAMs,” said Tezzaron’s Patti. “But it isn’t going to stay that way. Ultimately, silicon interposers will get down to two cents per square millimeter.”

http://semiengineering.com/time-to-revisit-2-5d-and-3d/

Selbst wenn der Preis von 25cent pro mm² nun in einem Jahr auf 5 cent pro mm² runtergeht, bis wir bei 2 cent sind wirds bestimmt noch länger dauern. Da sind wir beim 800mm² Interposer den man für sonen großen Chip braucht bei 40$ nur für den Interposer. Da fange ich gerade auch an an Interposern für Fiji zu zweifeln.

Gipsel
2014-12-14, 14:25:26
Es gibt aber auch Waferscale Interconnects auf den obersten Metallagen.Die erwähnt GF aber nicht. Die sprechen explizit von den 26mm x 32mm. Daß man auch größer werden kann (ein wenig mit angepaßten Belichtern, mehr mit den Waferscale-Interconnects, wobei da die Güte der Verbindungen etwas leiden könnte) steht ja außer Frage.
Und ich bin mir ziemlich sicher, dass man das nicht vergleichen kann. Soweit ich das mitbekommen habe, nutzt Xilinx einen passiven! Interposer um die Signale der einzelnen FPGAs schnell und mit geringer Latenz herauszuführen, bin mir aber nicht mal sicher ob es da Chip-to-Chip Kommunikation gibt. Soweit ich weiß braucht man aber einen aktiven Interposer um z.B. eine "latenzarme" Kommunikation zwischen z.B. HBM und GPU zu ermöglichen.Nö, für HBM reichen natürlich auch rein passive Interposer, auf dem es nur Leitungen gibt. Die aktiven Komponenten sitzen in den PHYs des GPU-Dies und im untersten Layer des Stacks. Aktive Interposer wären eine Optimierung um bestimmte Teile (z.B. externe Interfaces [PCIe, Display-Ausgänge], die praktisch nicht vom teuren 28/20nm Prozeß profitieren) aus der GPU auf den Interposer auszulagern. Das dauert sicher noch eine Weile (falls es überhaupt kommt und man das nicht lieber in einen kleinen separaten Chip neben der GPU auf einem weiterhin passiven Interposer auslagert).

Unicous
2014-12-14, 14:36:49
@AffenJack

Ich hatte ja schon geschrieben, bei TSMC ist der Ansatz "Alles aus einem Guß", daher denke ich nicht, dass sie verschieden Prozesse nutzen werden. Und 16nmFF ist ja auch offensichtlich verschoben, deswegen wurde sicherlich auch Pascal verschoben.

Schon lustig, dass ein Chip der in 65nm? gefertigt wird, so teuer sein kann.:freak:
Aber: die Mehrkosten werden ja sicherlich aufgewogen durch ein weniger anspruchsvolles PCB (das sind zwar wahrscheinlich auch nur Cent-Beträge aber immerhin), Spawas, evtl. vereinfachte Kühllösung und andere Kleinigkeiten. Und das liegt natürlich auch daran, dass Interposer nocht nicht in Massen genutzt werden. (Bzw. fraglich wie alt diese Zahlen zu dem Zeitpunkt waren). Und nur weil TSMC diese Preise verlangt, heißt das ja nicht, das der "Rest" der Industrie das auch tut.:wink:

@Gipsel

Ja, "kann" sicherlich. Im konkreten Fall denke ich aber ist es nicht so. Denn Amkor z.B. zeigt bei aktiven Interposer Schemata einen DRAM-Stack mit TSV-Kanälen und nimmt bei passiven Interposern das Beispiel des Xilinx FPGAs

http://www.meptec.org/Resources/7%20-%20Amkor%20Keynote%20-%20Lee.pdf

Skysnake
2014-12-14, 14:44:13
Du KANNST bei TSMC das volle Packet nehmen, aber dich zwingt meines Wissens nach niemand dazu.

Unicous
2014-12-14, 14:53:25
Es ist dennoch unerheblich. TSMC bietet laut roadmap GPU+HBM nur für 16nmFF an, wenn Fiji@28nm+HBM 2015 kommt, dann nicht von TSMC. AMD hat kein gutes Verhältnis zu TSMC und daher sehe ich nicht wie das vom Timing zusammenkommen soll.


Pervers, wäre natürlich wenn TSMC e: die GPU liefert und es von GF samt HBM Stacks von sk hynix auf den Interposer gesetzt wird und dann von irgendjemand anderem aufs Package gepflanzt wird. Aber das ist mir zu crazy und wahrscheinlich gar nicht möglich.

AffenJack
2014-12-14, 15:52:06
Das ist einmal 16nm erwähnt, heißt aber nicht, dass es nicht mit 28nm auch möglich ist. Wenn du das so siehst kann Gf nämlich sowieso auch nicht liefern, denn Gf redet auch nur von 20nm und 14nm. Wie Skysnake auch schreibt kann man bei TSMC wahrscheinlich auch nur den Die fertigen lassen und Amkor oder keine Ahnung wer die weiteren Schritte macht, den Rest übernehmen lassen. Von wem kamen denn die Interposer Testgpus die es bei Amd mit Hynix mal gab?

HOT
2014-12-14, 15:52:22
@Unicous
Hm, ganz unmöglich ist diese Theorie aber auch nicht.

Wenn die 16nm schreiben, das hat das seine Gründe. Vermutlich in erster Linie zeitliche. Wenn die das mit 28nm verkaufen könnten, würden die das definitiv schreiben.

Unicous
2014-12-14, 16:09:52
@ AffenJack


:confused:

GF bietet 2.5D@28nm an, siehe die .pdf (von Unigast:wink:) und das Video das ich gepostet hatte.

e:

http://electroiq.com/insights-from-leading-edge/wp-content/uploads/sites/4/2014/03/tsmc-2.jpg

TSMC plant laut TSMC ;) erste tapeouts für HBM auf ihrem Cowos PR-Gedöns für Q4'14... und das wäre dann sicherlich 16nmFF. Ich denke nicht, dass sie dass dann noch für 28nm oder 20nm (der ja eh schon so gut wie tot ist) machen würden. Das würde nämlich heißen, dass sie viel zu spät sind, im Vergleich zum zu GF.

Und der 500mm2 Chip hatte ja schon längst sein tapeout. Das passt zeitlich nichtmal ansatzweise.


TSMC ist echt schlimm. Man kann die nicht festnageln. Einerseits sagen sie, wir können alles integrieren und 3 Dies hergestellt mit drei verschiedenen Prozessen sind kein Problem. Andererseits sind 3rd Party Dies (Wide I/O... HBM) total problematisch. Und eine halbwegs aussagekräftige roadmap gibt es auch nirgends.

http://www.leti-innovationdays.com/presentations/D43DWorkshop/Session2-AdvancesTechnology/D43D13_Session_2_2_FrankLee.pdf?PHPSESSID=f7b640026ea14ad29a39a245618e010d

http://www.techdesignforums.com/blog/2013/11/07/3d-ic-tsmc-demonstrator-info-interposer/

Gipsel
2014-12-14, 18:48:55
@Gipsel

Ja, "kann" sicherlich. Im konkreten Fall denke ich aber ist es nicht so. Denn Amkor z.B. zeigt bei aktiven Interposer Schemata einen DRAM-Stack mit TSV-Kanälen und nimmt bei passiven Interposern das Beispiel des Xilinx FPGAs

http://www.meptec.org/Resources/7%20-%20Amkor%20Keynote%20-%20Lee.pdfUnd? Beinahe alle (Speicher-)Stacks (Ausnahme ist z.B. PSVita mit face-to-face Stacking) benötigen TSVs. Auch der Interposer für die Xilinx-FPGAs benutzt TSVs (zum Durchleiten der Stromversorgung und externen Interfaces vom Package durch den Interposer zu den FPGA-Slices). Das ist doch nichts, was irgendwie angesteuert werden müßte. Das sind schlicht durch den Wafer verlaufende elektrische Verbindungen. Man "bohrt" ein 10µm großes Loch in den Wafer, füllt es mit einem metallischen Leiter und kontaktiert das dann auf beiden Seiten. Das war's. HBM benötigt sicher keinen aktiven Interposer für die Verbindung zur GPU.

Btw., das was dort in der Präsentation (von 2011) als aktiver Interposer bezeichnet wurde, ist der unterste Logiklayer eines DRAM-Stacks, wie er z.B. auch bei HBM oder HMC zum Einsatz kommt. Der zählt dort aber laut Spec noch zum Stack selber. Wenn man bei Hynix HBM-Stacks ordert, ist der schon dabei und man pflanzt den zusammen mit einem Logikchip auf einen passiven Interposer. In einer Abbildung weiter hinten in der Präsentation von Amkor sieht man eindeutig ein komplettes eigenes Package um den DRAM-Stack. Das ist dort also gar kein HBM.

AffenJack
2014-12-14, 19:12:53
GF bietet 2.5D@28nm an, siehe die .pdf (von Unigast:wink:) und das Video das ich gepostet hatte.


Hmm, kommt davon wenn man wie ich das nur überfliegt, nur 20nm und 14nm bei 3D Stacking in Erinnerung geblieben und nicht das ganze davor in 28nm.


TSMC plant laut TSMC ;) erste tapeouts für HBM auf ihrem Cowos PR-Gedöns für Q4'14... und das wäre dann sicherlich 16nmFF. Ich denke nicht, dass sie dass dann noch für 28nm oder 20nm (der ja eh schon so gut wie tot ist) machen würden. Das würde nämlich heißen, dass sie viel zu spät sind, im Vergleich zum zu GF.

Und der 500mm2 Chip hatte ja schon längst sein tapeout. Das passt zeitlich nichtmal ansatzweise.


Ja da das nur Tapeout sein soll, sieht das zumindest schlecht aus, wenn das nicht wer anders übernimmt. Ich hab nur die eine Folie gesehen. Wo ihr immer die Presentationen rauskramt;)


TSMC ist echt schlimm. Man kann die nicht festnageln. Einerseits sagen sie, wir können alles integrieren und 3 Dies hergestellt mit drei verschiedenen Prozessen sind kein Problem. Andererseits sind 3rd Party Dies (Wide I/O... HBM) total problematisch. Und eine halbwegs aussagekräftige roadmap gibt es auch nirgends.


Problematischer als alles von sich bestimmt, aber sie wollen ja die Probleme lösen und die 2 Links von dir zeigen ja auch die Chips mit Fremddies, also sollte dies schon gehen. Wann ist eher die Frage und da kommen wir bei Tapeout Ende 2014 wirklich erst bei Ende 2015 an und zu spät für Fiji.

Unicous
2014-12-14, 19:52:35
@Gipsel

Ok, dann habe ich das falsch interpretiert. Dennoch sind die TSVs ja nicht in den FPGA Dies sondern nur im Interposer. Daher nahm ich an, wenn die TSVs durch die Chips durchgehen wie z.B. bei einem HBM Stack braucht es dazu einen aktiven Interposer. Dass der Logic Die dieser aktive Interposer sein könnte... daran habe ich natürlich nicht gedacht.:hammer:

Jedenfalls, bin ich nicht schlauer als vorher. Mir schwirrt der Kopf, weil ich nicht checke, wie das alles zusammenkommen soll.

Der Sprecher zu dem geposteten Webinar sagt auch (ich weiß jetzt nicht ob das in dieser Presentation war oder in einer anderen)

“Kalahari mimics a real system that’s going to be built,” explained Alapati. “We have high confidence that we can take any 28nm technology in 2.5D very fast.”

http://www.3dincites.com/wp-content/uploads/kahlahari.png

http://www.3dincites.com/2014/11/globalfoundries-3d-ducks-row/

Die 3 Dies wären zusammen 486mm². Ich bin jetzt wieder bei der Überlegung angelangt, dass sushiwarrior den gesamten Interposer meinte und das mit dem größer als 500mm² eine kleine Finte war. Und bei Synapse frage ich mich das auch. Anderseits ergibt es eigentlich keinen Sinn.:ucrazy3:

Vor zwei Tagen hat die 3D ASIP (3D Architectures for Semiconductor Integration and Packaging) stattgefunden und u.a. hat da auch ein GF-Representant über 2.5D gesprochen. Vllt. gibt es dahingehend ja bald etwas Konkreteres.

Nakai
2014-12-14, 20:51:45
Nehmen wir die Fakten. Es ist ein weiterer Chip in der Pipeline. Dieser hat 4096SPs und HBM. EIN Chip wird bereits verschickt, siehe Zauba. Laut Synapse ist ein weiterer Chip mit 500mm²+ in der Pipeline, welcher in 28nm TSMC daherkommt(28HPM oder 28HP, mal keinen Unterschied). Welcher Chip sind jetzt die Gleichen bzw. unterschiedlich? Fiji auf Zauba ist mehr als doppelt so teuer wie Hawaii...muss nichts heißen, da unoffizielle Produkte keinen generellen Preis haben.

Sehr gut möglich. Nach der GF-Präsentation zu dem Thema sieht es ein wenig danach aus, daß man auf "full fill" (in dem Sinne, daß man die maximale Maskengröße des Belichters ausnutzt) Interposer begrenzt ist, also offenbar maximal 26x32mm. Da wird es etwas knapp, zusätzlich zu einem >500mm² GPU-Die noch vier HBM-Stacks draufzuquetschen. Aber ganz unmöglich ist es nicht. Oder man muß mal ein paar Milliönchen an ASML überweisen, daß sie einem ein paar alte 65nm Belichter (reicht für Interposer völlig aus, Teil der Erklärung, warum die trotz der Größe nicht übermäßig teuer sind) auf eine größere Maske erweitern.
Obwohl es schon noch gerade so passen könnte. GPU mit 26mm x 20mm = 520 mm² mittig plaziert, dann hat man auf jeder Seite noch einen 6mm breiten Streifen für die HBM-Stacks. Müßte mal nachsehen, wie groß die sind und ob das zumindest theoretisch passen würde.

Edit: Die HBM-Stacks von Hynix messen (inklusive 0,19mm side mold rundherum, die Dies selber also entsprechend 0,38mm weniger) angeblich 5,48mm x 7,29mm (mit 25µm spezifizierter Toleranz). Es könnte also tatsächlich gerade so passen. Das würde aber mächtig eng werden.

Der Kalahari-Interposer sieht es nur vor mit 28nm-Produkte zu kombiniert werden. Wären auch andere Fertigungsgrößen möglich? Grundsätzlich gibt es schon Fijis(Zauba, Sisoft) mit HBM. Gibt es noch andere Systeme? Wenn TSMC keinen Interposer für GPUs und HBM bietet, was heißt das dann?!

Also nochmal, AMD hat HBM+GPU in der Entwicklung. Es gibt noch ganz andere Zweifler bezüglich HBM. Man kann sich natürlich vorstellen, dass AMD das selber etwas mehr Hand anlegt, aber das bezweifle ich extrem.

Agent117
2014-12-14, 22:41:43
Nehmen wir die Fakten. Es ist ein weiterer Chip in der Pipeline. Dieser hat 4096SPs und HBM. EIN Chip wird bereits verschickt, siehe Zauba. Laut Synapse ist ein weiterer Chip mit 500mm²+ in der Pipeline, welcher in 28nm TSMC daherkommt(28HPM oder 28HP, mal keinen Unterschied). Welcher Chip sind jetzt die Gleichen bzw. unterschiedlich? Fiji auf Zauba ist mehr als doppelt so teuer wie Hawaii...muss nichts heißen, da unoffizielle Produkte keinen generellen Preis haben.


Naja das als Fakten zu bezeichnen halte ich dann schon für ein wenig übertrieben. Fakt ist nämlich auch, dass jener weiterer Chip >500mm², von der Folie, bisher nicht bei Zauba aufgetaucht ist, während dort etliche Tonga XT Einträge und 2 Fiji Einträge standen; sogar Hawaii wurde da doch nochmal verschickt vlt auch für die 300er Serie.

Aber ein Mysterium ist es auf alle Fälle.
Fankt ist ja dann auch dass TSMC für 28nm HBM ausscheidet.


Pervers, wäre natürlich wenn TSMC e: die GPU liefert und es von GF samt HBM Stacks von sk hynix auf den Interposer gesetzt wird und dann von irgendjemand anderem aufs Package gepflanzt wird. Aber das ist mir zu crazy und wahrscheinlich gar nicht möglich.

Für so richtig unwahrscheinlich halte ich das garnicht. AMD ist schon seit 2007 an HBM drann, da gab es ursprünglich mal Pläne irgendwann einmal pro Generation einen Grundchip zu entwickeln und diesen dann je nach Leistungssegment X-Mal auf einen Interposer zu setzen auch mit Stacked Ram.
Tut zwar nichts direkt zur Sache, aber kann mir durchaus vorstellen dass AMD da doch in der Entwicklung recht stark drinnenhängt.

Wäre natürlich jetzt interessant zu wissen, ob das ginge, was GF genau machen müsste (Interposer herstellen?, habe von HBM leider keine Ahnung)
und ob die sowas angesichts des Aufwands und der Erfahrung verglichen mit der Herstellung von GPUs eher jetzt schon können?

Wenn ja wäre das ein plausibler Weg, auch weil man ja langfristig komplett zu GF will.

Nakai
2014-12-14, 23:12:32
Naja evtl hat Fiji Kombi-PHYs für GDDR5 und HBM. Was wir auf Sisoft gesehen haben könnte ein Prototyp mit HBM gewesen sein. Der erste Fiji kommt mit GDDR5, dann in 2015, eher H2, kommt eine Version von GF mit HBM.

fondness
2014-12-14, 23:16:18
Das von Sisoft als Fakt darzustellen halte ich auch für ziemlich gewagt.

HOT
2014-12-14, 23:30:17
1.) Es gab den Hinweis des 500mm²-Chips von Synopsys, der eindeutig zuzuordnen war
2.) auf dieser Folie waren beide Chips mit "HPM" beschrieben. Da Tonga definitiv bei TSMC gefertigt wird und sehr sehr wahrscheinlich der 350mm²-Chip war, ist es sehr sehr wahrscheinlich, dass das für die 500mm² dann auch gilt
3.) Es gab einige Fiji-Sample-Boards die verschickt wurden

Das spricht erst einmal für einen Launch in den nächsten 2-3 Monaten dieses Chips. Ob das Fiji, Bermuda oder Laubsauger ist, spielt dabei ja keine Rolle.

Dann gab es Hinweise, die gerne mit diesen Fakten in Verbindung gebracht werden:
1.) Einträge von 4096 Shadern und HBM in der SiSoft-Datenbank
2.) Aussage von Lisa Su, dass es GloFo Grafikchips gibt
3.) Gerücht aus dem Anandtech-Forum, dass AMD ein Big-Die-GPU plant, die wirklich big ist und relativ stark anders sein soll als alle bisherigen GCN-Chips
4.) AMD bestätigte indirekt, dass GPUs in 20nm von GloFo kommen sollen
5.) AMD bestätigte indirekt GPUs mit HBM

Zu 1.) Das muss nicht der gleiche Chip gewesen sein, wie der der z.Z. auf seine Fertigstellung wartet. Das kann auch der GloFo-Chip sein, der dann ab Q3 2015 erscheinen könnte und der dann Fiji heißen könnte.
Zu 2.) es gibt sicher schon längere Zeit Samples von GloFo-Grafikchips, nur bisher hat es offenbar keiner zur Serienreife geschafft.
Zu 3.) Das kann auch was ganz anderes in 2016 sein. Vielleicht ist damit sogar ein Interposer gemeint
Zu 4.) Dass der 20nm-Prozess nix mit dem Chip zu tun hat, der jetzt erscheint sollte klar sein. Dass aber Chips relativ nah sind, die 20nm haben sollte damit ebenfalls klar sein, vorausgesetzt, es läuft alles wie es soll.
Zu 5.) Das muss aber nicht mal für die 20nm-GPUs von GloFo gelten. Das kann auch noch später sein

ndrs
2014-12-14, 23:48:45
Daher nahm ich an, wenn die TSVs durch die Chips durchgehen wie z.B. bei einem HBM Stack braucht es dazu einen aktiven Interposer. Dass der Logic Die dieser aktive Interposer sein könnte... daran habe ich natürlich nicht gedacht.:hammer:
Da hätte ich mal ne Grundlegende Begriffsfrage: Ich dachte Interposer bezeichnen immer Dies, auf denen weitere Chips nebeneinander aufgebracht sind. Ansonsten wäre ja jeder Die auf den drauf gestackt wird ein Interposer, oder?
Nach meiner ursprünglichen Definition, würdest du höchstwahrscheinlich nie einen Interposer ohne TSV zu gesicht bekommen. Möglich wäre er, aber nicht dann wurde beim Design verkackt :D

Naja evtl hat Fiji Kombi-PHYs für GDDR5 und HBM.
Ich glaube das wäre so ziemlich das ineffizienteste was man machen könnte. Die gemeinsam Nutzbaren teile wären vermutlich minimal und der Verdrahtungsaufwand immens. Das würde zuviel Die-Area und Leistungsaufnahme schlucken.

Unicous
2014-12-15, 00:15:22
Ein Interposer an sich ist einfach nur ein dummes Stück :biggrin: Silicium mit (TSV-)Kanälen und Verdrahtungen das zwischen die Chips und Packages "geschoben" (interponere) wird um zwei oder mehrere Chips zu verschalten. Das kann auch bedeuten, dass man zwei Interposer miteinander verschaltet, ähnlich wie bei MCM.

http://www.3dincites.com/wp-content/uploads/herbectc1.png

Theoretisch könnten man jetzt auch ein Die unter den Interposer schieben, bzw. nochmal einen Stack und der Interposer verbindet beide Ebenen.

http://www.i3electronics.com/index.php/download_file/view/323/169

Der Interposer ist also nur ein Verbindungsstück. In welche Richtung und Dimension ist dabei erst einmal egal.


Ein Chip mit HBM wird mE definitiv 2015 kommen. Wann und mit welchen Codenamen... da bin ich gerade wieder extrem verwirrt.

OBrian
2014-12-15, 00:57:51
da bin ich gerade wieder extrem verwirrt.ist ja auch Sinn der Sache. Wenn AMD schon alle Leaks konsequent gestopft hat und dafür offensichtlich hohen Aufwand betreibt, wieso sollte es dann solche Quellen wie diese Frachtlisten oder irgendwelche Benchmarkdatenbanken geben? Immerhin kann sich jeder AMD-Mensch denken, daß jegliche Daten darin schnell leaken werden. Also ist es doch höchst wahrscheinlich, daß die Daten darin gefälscht werden, immerhin will AMD nicht nur uns Spekulanten verwirren, sondern auch die Konkurrenz.

Deswegen ist es auch völlig normal, daß einige Dinge überhaupt nicht zusammenpassen. Und bei denen, die zusammenzupassen scheinen, glaube ich auch nichts.


Bei den verpassten Roadmaps gehe ich im Übrigen eher von einer Verschiebung aus als von einem völligen Umbau. Wenn man z.B. HBM in 16 nm 2014 bauen wollte und das nicht klappt, dann gibt es wahrscheinlicher 16 nm mit HBM zu einem späteren Zeitpunkt als HBM ohne 16 nm zum bisher angegebenen Zeitpunkt.


Zu den Extrakosten des Interposers sei angemerkt, daß man dadurch ja auch einiges spart:

- Die Performance durch mehr Speicherbandbreite wird insgesamt höher, man kann also den Chip kleiner machen, um eine bestimmte Performance zu erreichen.
- Die Abwärme wird verringert, das erlaubt einen kleineren, weniger aufwendigen Kühler (z.B. keine Kompaktwasserkühlung nötig)
- Die Platine wird viel einfacher und kleiner
- Die Effizienz der Karte (also Performance pro Watt) wird deutlich besser, was ggf. einen höheren Verkaufspreis ermöglicht

Kann gut sein, daß das schon bei der ersten Karte die Kosten des Interposers aufwiegt.

Nakai
2014-12-15, 01:30:47
Ich glaube das wäre so ziemlich das ineffizienteste was man machen könnte. Die gemeinsam Nutzbaren teile wären vermutlich minimal und der Verdrahtungsaufwand immens. Das würde zuviel Die-Area und Leistungsaufnahme schlucken.

Mhh, Hawaiis MC PHYs sind nicht sonderlich groß. Irgendwas zwischen 40~50mm². HBM sollte nicht wirklich größer sein. Eventuell kann man beide Teile zusammenlegen und Kombiinterfaces anbieten. Recht viel mehr als 80mm² sollten die PHYs dann nicht schlucken, wenn man dieselbe Größe von HBM und GDDR5-PHYs vergleicht. HBM-PHYs sollten sogar noch ein bisschen weniger Fläche fresen, Natürlich sollten sich die HBM PHYs von GDDR5 PHYs schon stark unterscheiden. Man müsste defintiv zwei Packages anbieten.

Es gibt ja noch das Speicherproblem. Entweder kein Fiji so schnell, obwohls Samples gibt. Ich hab eine miese Befürchtung. Es gab einen Semiaccurate Artikel(nur für Subscribers), welcher Fiji weiter in die Zukunft projeziert haben könnte, eher Q3/4. Ich kenn den Inhalt nicht, aber man kann das widergeben, was so als Bruchstücke umherschwirren. Ein Packaging-Problem wäre eine lange Verzögerung. Der Wechsel zu GF steht an.

Mit was wir rechnen könnten, wäre eine Hawaii Neuauflage neuerem Package.

ndrs
2014-12-15, 01:59:02
Ein Interposer an sich ist einfach nur ein dummes Stück :biggrin: Silicium mit (TSV-)Kanälen und Verdrahtungen das zwischen die Chips und Packages "geschoben" (interponere) wird um zwei oder mehrere Chips zu verschalten. Das kann auch bedeuten, dass man zwei Interposer miteinander verschaltet, ähnlich wie bei MCM.

Soweit klar. Das wäre dann wohl die Definition eines passiven Interposers.

Theoretisch könnten man jetzt auch ein Die unter den Interposer schieben, bzw. nochmal einen Stack und der Interposer verbindet beide Ebenen.

Naja, wenn du auf beiden Seiten des Interposers einen Die hast, kannst du dir den eigentlich auch sparen und direkt stacken (es sei denn die Pads liegen so blöde, dassnochmal mehrere Layer zur Umverdrahtung notwendig sind, wobei da ein, zwei Metalllagen mehr vielleicht schon reichen sollten; kA, was dann billiger ist.)
Dafür sehe ich nicht wirklich Anwendungsfälle.

Der Interposer ist also nur ein Verbindungsstück. In welche Richtung und Dimension ist dabei erst einmal egal.

Soweit ebenfalls klar. Nur sehe ich nicht wirklich einen Nutzen außerhalb von 2,5D-Stacking (was meine ursprüngliche Aussage darstellen sollte, falls das nicht so rüberkam :) ). Gegenbeispiele werden dankend angenommen. Man will ja dazulernen.

Mhh, Hawaiis MC PHYs sind nicht sonderlich groß. Irgendwas zwischen 40~50mm². HBM sollte nicht wirklich größer sein.

Bis hier hin gehe ich mit.
Eventuell kann man beide Teile zusammenlegen und Kombiinterfaces anbieten.
Wie gesagt: Halte ich für unwahrscheinlich. Vom Phy kannst du wohl so gut wie nichts nutzen, aufgrund der massiv unterschiedlichen Signalweglängen. Ich denke da sind wir uns einig.
Angenommen beim Logikteil könntest du einfach von 1024 auf 64 bit pro Channel runterschalten, musst du immernoch beide Phys damit verdrahten, was die Signalwege dazwischen erheblich verlängert.
Und wenn du den kompletten Speichercontroller für beide Interfaces inplementierst, sind es halt die Leitungen zum Rest vom Chip (waren das die ROPs? Bin kein GPU-Crack :D ), die du doppelt verlegen musst. Und die Komplexität der Verdrahtung steigt schneller als die der Logik. Ich halte das für nicht sinnvoll.

Unicous
2014-12-15, 02:00:46
@OBrian

Ach Quatsch. Man muss jetzt nicht schon wieder Verschwörungstheorien künstlich heraufbeschwören.

Jeder Mensch/jedes Unternehmen das etwas kommerziell verschickt/verschifft/... muss einen Frachtbrief ausfüllen, für die jeweiligen Einfuhrbehörden. Außerdem muss man deklarieren um was es sich handelt und welchen Wert das Ganze hat (usw.). Da schreibt man dann auch unbedarft den Codenamen hin um vllt. die Sache für den Empfänger zu erleichtern... die Poststelle bekommt am Tag zig dieser Pakete und C880/0815DINA3 sagt auf den ersten Blick erst einmal nichts.

Außerdem erkennt man ja auch, dass die Fracht von verschiedenen Standorten getätigt werden und z.T. AMD gar nicht explizit erwähnt wird.

Es gibt auch ein System. Der "Suffixe" 102 scheint für GPUs genutzt zu werden, 109 für Mainboards bzw. auch APUs. 151 auch. 002 könnte für Retail-Produkte genutzt werden.

Die Codenamen haben ein System, das leider nicht immer (bzw. sofort) nach außen hin ersichtlich ist.

Verwirrung stiften wir und "die Medien" nur selbst, weil wir versuchen den Sinn dahiner zu ergründen und eine Einteilung vorzunehmen, die dann nicht der Intention der Ingenieure die sich das ausgedacht haben entsprechen.


@ndrs

So richtig verstehen tue ich deine Frage immer noch nicht. 2.5D ist ein running gag der zur Nomenklatur wurde und austauschbar mit... Interposer. Der Interposer ist nur der Steigbügelhalter für die echte 3D IC Technologie. Bis man die Probleme (vor allem thermische Probleme) beseitigt hat nutzt man Interposer um verschiedene Dies kostengünstig auf geringer Fläche unterzubringen und miteinander zu verschalten.

Bzw. nutzt es wo "echtes" 3D stacking zu teuer wäre. Es geht ja auch darum, die Yieldraten zu erhöhen. Anstatt einen riesigen Die oder mehrere kleine Dies mit jeweils eigenem Package und Datenleitungen, etc. zu desigen bringt sie auf den Interposer auf verschaltet sie. Wie bei dem Xilinx Beispiel.

Skysnake
2014-12-15, 09:05:48
Nehmen wir die Fakten. Es ist ein weiterer Chip in der Pipeline. Dieser hat 4096SPs und HBM. EIN Chip wird bereits verschickt, siehe Zauba. Laut Synapse ist ein weiterer Chip mit 500mm²+ in der Pipeline, welcher in 28nm TSMC daherkommt(28HPM oder 28HP, mal keinen Unterschied). Welcher Chip sind jetzt die Gleichen bzw. unterschiedlich? Fiji auf Zauba ist mehr als doppelt so teuer wie Hawaii...muss nichts heißen, da unoffizielle Produkte keinen generellen Preis haben.

Wer sagt denn eigentlich, das es zwingend ein AMD Produkt sein muss?
Wir hatten das hier (https://translate.google.de/translate?hl=de&sl=ja&tl=de&u=http%3A%2F%2Fpezy.co.jp%2Fproducts%2Fpezy-sc.html) doch schon. Das Ding ist allein schon 411mm² groß, und für Wide I/O brauchste wohl auch nen Interposer. Da biste dann schnell bei >=500mm²


Der Kalahari-Interposer sieht es nur vor mit 28nm-Produkte zu kombiniert werden. Wären auch andere Fertigungsgrößen möglich?
An sich sollte es wohl mit jeder technologie machbar sein. Die Frage ist eher, ob jemand die ganzen Sachen auch spezifiziert oder eben nicht.


Grundsätzlich gibt es schon Fijis(Zauba, Sisoft) mit HBM. Gibt es noch andere Systeme? Wenn TSMC keinen Interposer für GPUs und HBM bietet, was heißt das dann?!

Xillinx nutzt Interposer bei TSMC. Es macht auch keinen Sinn, das an CPU/GPU/FPGA fest zu machen. Für die Fertigung ist es einfach ein Chip mit Schaltungen drauf. Was die dann machen ist doch scheis egal, so lange Sie sich an die Specs für den Interposer halten.


Also nochmal, AMD hat HBM+GPU in der Entwicklung. Es gibt noch ganz andere Zweifler bezüglich HBM. Man kann sich natürlich vorstellen, dass AMD das selber etwas mehr Hand anlegt, aber das bezweifle ich extrem.
Nicht unbedingt. Schau dir doch die CPUs an. Die werden wohl auch nicht direkt bei GF aufs Package gesetzt. Das ist halt immer eine Frage dessen, was es kostet, und wie hoch das Vertrauen auch ist, dass der Partner das auch mit nem hohen Yield hinbekommt.

Naja evtl hat Fiji Kombi-PHYs für GDDR5 und HBM. Was wir auf Sisoft gesehen haben könnte ein Prototyp mit HBM gewesen sein. Der erste Fiji kommt mit GDDR5, dann in 2015, eher H2, kommt eine Version von GF mit HBM.
Dann werden es ziemlich sicher zwei Chips sein. GDDR5 und dann noch HBM zu mischen wäre ziemlicher Overkill.

Da hätte ich mal ne Grundlegende Begriffsfrage: Ich dachte Interposer bezeichnen immer Dies, auf denen weitere Chips nebeneinander aufgebracht sind. Ansonsten wäre ja jeder Die auf den drauf gestackt wird ein Interposer, oder?

Ein Interposer ist einfach nur ein Stück Sililzium und Pads, um mehrere Chips miteinander zu verbinden. Nicht mehr aber auch nicht weniger.


Nach meiner ursprünglichen Definition, würdest du höchstwahrscheinlich nie einen Interposer ohne TSV zu gesicht bekommen. Möglich wäre er, aber nicht dann wurde beim Design verkackt :D

Warum nicht?

Es gibt noch immer Wirebonding. Wäre für manche Sachen sicherlich auch keine schlechte Idee, wenn ich so an Optoelektronik denke.

@Unicous:
Was ist jetzt eigentlich noch dein Problem mit Interposern? Das ist doch einfach nur nen Stück Silizium. Im Prinzip nichts anderes als ein Package, nur eben kein organisches/cheramisches, sondern eins aus Silizium

ndrs
2014-12-15, 10:16:58
Ein Interposer ist einfach nur ein Stück Sililzium und Pads, um mehrere Chips miteinander zu verbinden. Nicht mehr aber auch nicht weniger.

Richtig, mir ging es auch nur darum, ob es andere Anwendungsgebiete abseits von 2,5D gibt. Gründe, die mMn dagegen sprechen habe ich ja oben genannt. Das mit dem Wire-Bonding ist ein Gegenbeispiel, an das ich nicht gedacht habe. Danke dafür.

Nakai
2014-12-15, 11:35:51
Bis hier hin gehe ich mit.

Wie gesagt: Halte ich für unwahrscheinlich. Vom Phy kannst du wohl so gut wie nichts nutzen, aufgrund der massiv unterschiedlichen Signalweglängen. Ich denke da sind wir uns einig.
Angenommen beim Logikteil könntest du einfach von 1024 auf 64 bit pro Channel runterschalten, musst du immernoch beide Phys damit verdrahten, was die Signalwege dazwischen erheblich verlängert.
Und wenn du den kompletten Speichercontroller für beide Interfaces inplementierst, sind es halt die Leitungen zum Rest vom Chip (waren das die ROPs? Bin kein GPU-Crack :D ), die du doppelt verlegen musst. Und die Komplexität der Verdrahtung steigt schneller als die der Logik. Ich halte das für nicht sinnvoll.

AMD forscht an Exascale-Computing und hierzu zwei Speicherpools(kleiner schneller(HBM); großer langsamer(DDR4)). Der Vorteil von HBM ist eher der niedrige Verbrauch, nicht die höhere Bandbreite. Bei meiner Kalkulation von 80mm² habe ich es schon extra getrennt gesehen und nicht irgendwie kombiniert. Ich vermute sowieso, dass AMD bei HBM etwas grundlegend ändern müsste. Pro HBM-Stack hat man bereits 8 Speicherkanäle, bei 4 Stacks müsste man 32 Kanäle ansteuern. Derzeit bei GDDR5 fasst AMD zwei 2*32Bit zu einem MC zusammen. Hawaii hat 8 MCs, Fiji müsste das mindestens verdoppeln.

Ich hoffe mal nicht, dass sich AMD richtig verkalkuliert hat. IMO sieht es langsam danach aus. Wenn Fiji irgendwie mit HBM "bald" kommen möge, sollte er schon irgendwie in irgendeiner Folie o.Ä geteasert worden sein.

Unicous
2014-12-15, 12:16:30
@Skysnake

Was soll ich für ein Problem haben? Das haben eher die Ingenieure.

Another thing that I had not thought of is that 2.5D is expensive compared to true 3D. Of course you have to manufacture the interposer, which is done in a non leading edge process such as 65nm. But the TSV and bumping it requires is very costly since it is large so not many interposers-per-wafer. There are some savings since the die don't need TSVs, but they still all need bumping. Qualcomm, in particular, maintain that interposers are the wrong way to go (not that they have any 3D chips in production though). At a conference in Europe recently someone had numbers showing 2.5D was 6 times the cost of true 3D although that seems high to me (but I've not seen those numbers).

https://www.semiwiki.com/forum/content/4100-will-3dic-ever-cheap-enough-high-volume-products.html

@Nakai

Diestackigishappening.gif

Wo kommt denn jetzt schon wieder das Relativieren her? AMD forscht und lässt daran seit Jahren forschen und entwickeln.
Im Januar wird Bryan Black, auf einer Konferenz sprechen und seinen allseits bekannten Vortrag halten, aber wahrscheinlich mit Twist

We are particularly excited to have Bryan Black with us this year. He is a senior fellow at AMD. Bryan will take advantage of his keynote speaking role at the European 3D TSV Summit to present attendees with new important information about AMD’s activity. As you know, AMD has been working closely with memory partners to develop a disruptive product that would solve the bandwidth crisis. Let’s wait a few weeks and we will see what he will present. I’m convinced it will be a major announcement.

http://www.3dincites.com/2014/12/story-behind-european-3d-tsv-summit/

Yole Développement (Consulting und Analysten Unternehmen mit Fokus auf Halbleiter Fertigung und alles drumherum) geht auch davon aus, dass AMD 2015 ein reales Produkt auf den Markt bringen wird.

https://www.semiwiki.com/forum/content/attachments/12744d1418282441-3d-1.jpg

https://www.semiwiki.com/forum/content/4098-3d-state-staten.html

Das ist schon alles in trockenen Tüchern. Aber ob die Informationspuzzleteile die wir haben richtig zusammengesetzt haben, ist eine ganz andere Frage. Ob einige falsche Teile vllt. sogar von unangenehmen Gestalten in die Packung gelegt wurde, wissen wir auch nicht.

Eine GPU mit HBM von AMD wird 2015 kommen, das dürfte beschlossene Sache sein. Wann und wie und wo, sind die Fragen die offen bleiben.

Sunrise
2014-12-15, 12:40:41
...Ich hoffe mal nicht, dass sich AMD richtig verkalkuliert hat. IMO sieht es langsam danach aus. Wenn Fiji irgendwie mit HBM "bald" kommen möge, sollte er schon irgendwie in irgendeiner Folie o.Ä geteasert worden sein.
Normalerweise präsentiert man so eine industrieweite Neuerung nicht einfach mal so per Folie, wenn es denn auch in die Tat umgesetzt wurde und bald zu kaufen sein wird.

Wenn AMD und Ihr Marketing-Team das richtig machen wollen und man an einem Produkt arbeitet (nicht erst PoC [Proof of Concept] oder PoD [Proof of Design]), dann sollte man das auf passenden Veranstaltungen (mit den richtigen Zielgruppen) machen. Man forscht und bringt hier schließlich nicht erst seit HBM die Industrie weiter. Ohne GDDR5 hätten wir auch eine ganze Zeit lang in die Röhre geguckt.

Und HBM ist IMHO schon ein ziemlich revolutionärer Schritt, im Vergleich mit etlichen GDDR-X-Varianten. Denn in 3D und mit TSVs (oder wie auch immer es bezeichnet wird) liegt die Zukunft. Es hat lange genug gedauert, es sollte bald soweit sein.

Wenn Fiji oder was auch immer das haben sollten, dann wird er schon noch kommen und das wohl früher als NV mit Pascal wird kontern können.

Skysnake
2014-12-15, 14:09:22
HBM ist aber auch "nur" eine Technik von vielen. Es gibt noch HMC und Wide I/O. Zu GDDR5 gabs an sich nur XDRAM als Alternative, und das eben von Rambus.

Hübie
2014-12-15, 14:36:17
@Nakai: Waren das nicht acht mal 128 Bit für zwei Stacks (2 GiB VRAM)? :| D. h. 50% Fläche wird "gespart". Ihr wisst was ich meine.

Edit: HBM habe ich jetzt nur als Oberbegriff verstanden.

Nakai
2014-12-15, 14:53:50
Nein, jeder Slice im HBM-Stack hat zwei 128Bit-Channels. Bei einem 4Hi-Stack sind das 8 Channels pro kompletten Stack. 8*128 = 1024.

Bei 4 Stacks sind das 32 Channels, die angesprochen werden müssten. Hawaii hat 16 Channels á 32Bit angeordnet in 8 Memory Controller mit je 2 32Bit Channels. Wenn man es direkt überträgt, dann sollte Fiji 16 Memory Controller mit je 2 128Bit Channels besitzen. Reinher von der Anzahl der MCs sollte doppelt soviele RBEs vorhanden sein und somit 128 ROPs resultieren.

Normalerweise präsentiert man so eine industrieweite Neuerung nicht einfach mal so per Folie, wenn es denn auch in die Tat umgesetzt wurde und bald zu kaufen sein wird.

Ne, das meinte ich nicht. AMD hat schon in der Exascale/PIM-Foliensatz HBM geteast und vor allem die Stromeinsparungen angepreist. Das sollte schon realistisch sein.

Kriton
2014-12-15, 15:31:04
Ich warte darauf, dass AMD mit HBM kommt, der Chip relativ stromsparend ist, einige auf die Stromersparnis durch HBM verweisen und dann meinen wie schlecht das Design doch wäre, weil das ja "nur" über HBM erreicht werden würde.

Hübie
2014-12-15, 17:04:38
Sorry meinte 128 Bit für zwei Kanäle und 2 GiB sind zwei Stacks hoch. Oder sind das tatsächlich 4 Lagen?

Nakai
2014-12-15, 17:44:13
Sorry meinte 128 Bit für zwei Kanäle und 2 GiB sind zwei Stacks hoch. Oder sind das tatsächlich 4 Lagen?

Ja, einen Basis-Die und dementsprechend Speicherschichten mit TSVs. Ein Stack muss derzeit 1024Bit ansprechbar sein. Pro Slice(also über dem Basis-Die) werden 2*128Bit durchgereicht. Das sind aber nur die derzeitigen HBM-Stacks, in Zukunft gibt es noch mehr Variationen und Erweiterungen(2-Hi(512Bit),8-Hi Stack(1024Bit, pro Slice aber nur 2*64Bit(wird dann über Pseudochannels realisiert))). Ich warte selber noch auf gute Artikel diesbezüglich, welche wohl erst mit passenden Produkten erscheinen werden.

Wie schon gesagt, sollte GDDR5M bzw. GDDR6 ein Zwischenschritt sein. Diese gibt es jetzt wohl nicht, weswegen GDDR5 auf 8Gbps erhöht wurde. NV wird vor 2016 NICHT mit HBM aufkreuzen.

Hübie
2014-12-15, 23:57:31
Glaube das war auch schon recht früh so kommuniziert worden. Daher ist man ja jetzt die LLC-Strategie eingegangen.
Danke jedenfalls für die Aufklärung :up: Wie es aussieht nimmt so ein PHY dann gar nicht so viel mehr Platz ein ggü. GDDR5. Fiji wird in jedem Falle ein interessanter Launch.

AnarchX
2014-12-16, 07:04:20
http://www.chiphell.com/thread-1196441-1-1.html

Fiji XT, Bermuda XT (Hybrid-Cooling) VS GM200 ES (21SMM), GM200 Full

MR2
2014-12-16, 07:25:13
20nm GF ? Mhh, na mal schauen;-)

"Fidschi XT ist nicht extrem, aber Bermuda XT, beendete den Test 65 Prozent schneller als die 290X "

Ailuros
2014-12-16, 07:42:00
Falls die graphs im originalen link nicht zu sehen sind dann: https://translate.google.gr/translate?sl=auto&tl=en&js=y&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.chiphell.com%2Fthread-1196441-1-1.html&edit-text=

Die 60% Unterschied sind in 4k.

Tarkin
2014-12-16, 07:42:42
welchen Test? Chiphell ist gerade down...

Ailuros
2014-12-16, 07:51:38
welchen Test? Chiphell ist gerade down...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10455335&postcount=1309

Tarkin
2014-12-16, 07:58:58
danke :)

M4xw0lf
2014-12-16, 08:31:50
Bermuda also als neues Dickschiff? Hatte ich bisher gar nicht auf dem Schirm, höchstens als Hawaii-Neuauflage. Wenn an diesen angeblichen Benchmarks irgendwas dran ist, dann wirds auf dem Grafikkartenmarkt mal wieder ordentlich spannend :)

chetigol
2014-12-16, 08:38:02
die sollen sich beeilen, ich brauch neue hardware! :D

blaidd
2014-12-16, 09:42:12
Ui, das wäre nett. Ich könnte ein bisschen extra Power für 4K gebrauchen :cool:

Naja, mal abwarten, was im Endeffekt davon auf der Straße landet.

HOT
2014-12-16, 11:38:45
Aha also doch, 500mm² Fiji (28nm TSMC+GDDR5) nur 380(X) und Bermuda (20nm GloFo+HBM) dann 390(X).

Unicous
2014-12-16, 11:42:47
Tja, das wäre dann natürlich doch noch eine kleine Überraschung. Ich hoffe das stimmt mit 20nm@GF.

Da wir ja die ganze Zeit von 28nm ausgegangen sind, habe ich einfach angenommen, dass Fiji das Ende der Fahnenstange ist. Nur wissen wir weiterhin nicht, ob beide oder nur Bermuda HBM nutzt. Wenn jetzt dieser Junmiu innerhalb kurzer Zeit zwei weitere ES (beider Hersteller) bekommen hat, muss er ja irgendwo in der supply chain arbeiten...behaupte ich mal.

Die Leistungsaufnahme soll laut Googlish akzeptabel sein, wenn man das von Hawaii auch dachte.;D

Wenn man jetzt ES hat... warum sollte AMD dann bis H2 warten um es mit Nvidia aufzunehmen, zumal Nvidia ja durchaus zur CES neue Chips ( u.a. Tegra?) vorstellen könnte.

HOT
2014-12-16, 11:45:46
Hawaii ist ja nur im Uber-Modus schlimm, weil da das Powertarget auf 300W oder so hochgestellt wird. Normalerweise braucht ne 290X 230-250W, je nach Herstellereinstellung. Fiji XT wird sich wahrscheinlich in ähnlichem Rahmen bewegen. Interessant wird sein, wie dann Bermuda aussieht. Der Chip dürfte dann ja nur noch 350mm² haben ca.
Interessant wird sein, ob AMD aus Fiji erst mal ne 295X macht oder direkt eine 380(X) einführt.

wuzetti
2014-12-16, 12:08:14
Aha also doch, 500mm² Fiji (28nm TSMC+GDDR5) nur 380(X) und Bermuda (20nm GloFo+HBM) dann 390(X).

Wo liest Du das bzw. woraus leitest Du das ab? Also ich versteh den möglichen Sinn dahinter immer noch nicht. Wenn Fiji > 500 oder gar 550 mm² groß ist, warum sollte dann nur eine Leistung von knapp über GM980 herauskommen? Weiters kommt es mir komisch vor, dass AMD mit ihrem Top Dog und dem am schwierigsten zu fertigen Produkt auf einen völlig anderen, neuen Prozess geht, der, so er überhaupt für größere GPU's Verwendung findet, mehr nach einem Zwischenschieber ausschaut. Eher riecht alles nach 28nm, aber die Performance von Bermuda schaut noch ein wenig komisch aus.

Aber wenn irgendwas an den Grafiken stimmt, dann braucht Nvidia den GM200 Salvage Part, um Fiji alias Captain Jack zu schlagen.

Käsetoast
2014-12-16, 12:15:35
Da wir ja die ganze Zeit von 28nm ausgegangen sind, habe ich einfach angenommen, dass Fiji das Ende der Fahnenstange ist.
Och - 20nm Spekulatius gab's hier doch von mehreren Seiten. Dann war die Einschätzung, dass Tonga ursprünglich ein 20nm Design war vielleicht doch richtig. Aus Vertragsgründen mit Apple bzw. vielleicht auch weil man ein entsprechendes FirePro Modell wollte, musste das dann eben in 28nm gegossen werden - was wir als 285 sehen waren dann tatsächlich nur die Reste die nicht als FirePro / Apple Vollausbau verwurstet werden konnten und ein Desktop 285X war wohl nicht vorgesehen, weil man da nur so viel von produzieren will wie man braucht, weil das Ganze sowieso in 20nm kommen wird. Tonga in 20nm wäre ein guter R9 370, also ein Pitcarin/Curacao Nachfolger. Einen noch größeren Chip in 20nm zu bringen fände auch ich dann überraschend, denn auf solch anspruchsvollen Chips soll GFs 20nm Prozess ja eigentlich nicht ausgelegt sein - ich hätte da schon Tonga als grenzwertig empfunden. Wäre natürlich klasse wenn da noch mehr ginge - bei einem sehr großen Chip finde ich 28nm dann auch gar nicht mehr so "schlimm". In dem Bereich beklagt sich doch eh keiner mehr über Stromverbräuche bzw. die WaKü Fraktion hätte mal wieder was wofür sich ihre Kühlung richtig lohnt... ;)

Unicous
2014-12-16, 12:34:45
Sry, ich meinte seit "HOT's Offenbahrung", dass es kein 20nm geben wird, weil ungeeignet für GPUs:rolleyes: und es weder von TSMC noch GF realistisch Volumen zu bekommen gab (GF 20nm Prozess immer noch m.i.a.).

Deswegen haben wir 28nm angenommen. Ob das mit 20nm stimmt, ist noch nicht abschließend geklärt.

Dass 20nm theoretisch möglich ist, habe ich nie in Abrede gestellt, wenn man die Threads verfolgt hat, eher genau das Gegenteil.:wink:

Tonga PRO ist warum auch immer extrem ineffizient im Vergleich zu Tonga XT@Apple. Daher würde ich ersteinmal abwarten was da passiert.


Thereotisch könnte AMD nun eine 3xx Series mit 390(X)-Bermuda PRO/XT,380(X)Fiji PRO/XT, und 370(X) Tonga PRO/XT herausbringen.

edit:
Jedenfalls konnte/könnte AMD mit 20nm rumspielen und dann mit der Erfahrung relativ bequem auf 14nmFF wechseln. Ob sie dennoch 16nmFF nutzen erscheint mit daher fraglich. 20nm@Samsung ist natürlich auch noch drin. MUAHAHAHa

foenfrisur
2014-12-16, 12:50:15
also wenn die nv-karte in 28nm etwas langsamer ist, weil sie kein hbm nutzt und diese energie sparen kann, dann wird wohl auch die bermuda xt in 28nm sein.

würde zumindest von den werten und dem (hawaii-)verbrauch her passen.
ebenso die starke hybrid-kühlung.

mfg

HOT
2014-12-16, 13:13:32
Wo liest Du das bzw. woraus leitest Du das ab? Also ich versteh den möglichen Sinn dahinter immer noch nicht. Wenn Fiji > 500 oder gar 550 mm² groß ist, warum sollte dann nur eine Leistung von knapp über GM980 herauskommen? Weiters kommt es mir komisch vor, dass AMD mit ihrem Top Dog und dem am schwierigsten zu fertigen Produkt auf einen völlig anderen, neuen Prozess geht, der, so er überhaupt für größere GPU's Verwendung findet, mehr nach einem Zwischenschieber ausschaut. Eher riecht alles nach 28nm, aber die Performance von Bermuda schaut noch ein wenig komisch aus.

Aber wenn irgendwas an den Grafiken stimmt, dann braucht Nvidia den GM200 Salvage Part, um Fiji alias Captain Jack zu schlagen.
Nein, das stimmt so nicht. Fiji @500mm² (sicher nur knapp drüber) ist sicher billiger als Bermuda 20nm 350mm². Zwar ist die Fläche enorm, aber 20nm ist auch enorm teurer. Zudem scheint Fiji mehr dem Salvagepart des GM200 nahe zu kommen, was sicher im Bereich des Möglichen liegt. NV hat alles in eine neue µArchitektur gesteckt, AMD hat dies nicht getan sondern das nur weiterentwickelt und HSA implementiert, muss man dabei auch bedenken.

@Unicous
Meine "Offenbarung" galt in erster Linie TSMC. Mit GloFo hat zu der Zeit keiner gerechnet, dass es da einen 20nm HP geben könnte (obwohl es immer mal wieder Gerüchte um einen 20nm HPM-Prozess gab), was jetzt offenkundig der Fall ist. Bei TSMC gibts den jedenfalls nicht.
Und bei NV hatte ich sogar recht :D.

also wenn die nv-karte in 28nm etwas langsamer ist, weil sie kein hbm nutzt und diese energie sparen kann, dann wird wohl auch die bermuda xt in 28nm sein.

würde zumindest von den werten und dem (hawaii-)verbrauch her passen.
ebenso die starke hybrid-kühlung.

mfg
Wie groß soll der denn werden? 700mm²? Nein, der wird schon 20nm+HBM sein, zumal der Prozess ja jetzt nach den ganzen "Ankündigungen" halbwegs offiziell zu sein scheint. Der kommt aber sicherlich in als Endprodukt auch nicht vor Q3, wahrscheinlich eher Q4.

Kriton
2014-12-16, 13:22:12
Hawaii ist ja nur im Uber-Modus schlimm, weil da das Powertarget auf 300W oder so hochgestellt wird. Normalerweise braucht ne 290X 230-250W, je nach Herstellereinstellung.

Unter Marketinggesichtspunkten war das (jedenfalls im Nachhinein) dumm. Nvidia hat das mit 970/980 besser gemacht.

Unicous
2014-12-16, 13:24:08
@HOT

Es gibt laut GF nur 20LPM, der sich über die gesamte Bandbreite (HPC, Networking, Mobile) erstreckt, und da GF in der von mir verlinkten .pdf auch keinen "customer specific" Prozess wie bei 32/28nm ausgelobt hat (also 32nm SOI und 28SHP), können wir auch davon ausgehen, dass es keinen extra HP Prozess gibt.

Außerdem warst du es doch auch, der behauptet hat, die Namen (HPP,SLP,,...) seien nur Schall und Rauch.:rolleyes::freak::freak::freak:


Und auch bei TSMC übernimtt 20SOC die gesamte Bandbreite. Also was ist es denn nun? Es gibt nur einen Prozess, oder es gibt auf einmal zwei, obwohl es ja eigentlich nur ein Prozess ist. Man muss dann auch irgendwann einmal mit harten Fakten kommen.

HOT
2014-12-16, 13:33:35
Es gibt nicht nur LPM oder besser gesagt, der Prozess ist sicherlich auch "HPM" mittlerweile. Sicherlich führen die nur den LPM auf z.Z., das kann aber Millionen Gründe haben. AMD hat einen HP-fähigen 20nm-Prozess bei GloFo zu Verfügung (es könnte der gleiche sein wie gesagt), alles andere geht einfach nicht. Ich spekuliere ja immer noch, wass AMD das Gleiche veranstaltet hat, wie bei 28nm. GloFos Prozess war unzureichend, da hat man eben etwas nachgeholfen.

Unicous
2014-12-16, 13:43:35
Komm doch endlich mal mit Fakten, oder nimm die von Nakai vorgeschlagenen Tags.

Ich finde es einfach unverschämt wie du hier andauernd versuchst deine substanzlosen Behauptungen unterzubringen und dich dann auch noch selbst widersprichst.

HOT
2014-12-16, 13:45:06
Komm doch endlich mal mit Fakten, oder nimm die von Nakai vorgeschlagenen Tags.

Ich finde es einfach unverschämt wie du hier andauernd versuchst deine substanzlosen Behauptungen unterzubringen und dich dann auch noch selbst widersprichst.
Aha. Mir total egal :D, ehrlich.
Edit: Auf die Diskussion lass ich mich nicht ein.

Unicous
2014-12-16, 13:47:50
Alles klar. Dann halte dich einfach entsprechend zurück mit deinen "Offenbahrungen" wenn du sie nicht einmal ansatzweise mit Fakten belegen kannst.

Du weißt es zwar besser aber leider, leider möchtest du deine Weisheit nicht teilen.:rolleyes:

Nakai
2014-12-16, 13:58:01
Also Fiji fällt so ziemlich auf den Captain Jack, welcher vor einigen Wochen auch geleakt wurde. Bermuda ist eine andere Geschichte, vor allem da keine Verbrauchswerte angegeben sind. Anscheinend ist GFs 20nm-Prozess "besser" als der von TSMC. Ob da eine Hybrid-Kühlung notwendig ist...;)

Unicous
2014-12-16, 13:59:11
Der Poster ist der gleiche Typ, also logisch, dass Captain Jack "ähnlich" performed.:wink:


Die Hybrid-Lösung wird für Bermuda im Post erwähnt.

Nakai
2014-12-16, 14:05:06
Fiji ist etwa 33% vor Hawaii. Bermuda ist nochmal 10~20% vor Fiji.

Zwei Chips? Oder ähnlicher Chip(GDDR5 vs HBM)?

IMO passen die Fiji-Werte zu einem Chip mit 4096SPs. Bermuda dagegen eher weniger und ich bezweifle, dass HBM für den Performancevorteil schuldig ist.

€:

Die Hybrid-Lösung wird für Bermuda im Post erwähnt.

Ja, was eigentlich gegen HBM bzw. 20nm spricht. Was aber wohl bei HBM ein Problem sein könnte ist der Verbrauch des Packages. IMO könnte es dank HBM noch mehr Hotspots geben. Das Package heizt sich stärker auf -> Hybridkühlung.

€2:
https://www.zauba.com/import-video+graphics+card/fp-hong+kong-hs-code.html

Grafikkarten aus Hong Kong mit AMD-typischer C-Kennung dahinter.

Aus China direkt eher weniger.

https://www.zauba.com/import-video+graphics+card/fp-china-hs-code.html

Da sind viele Kennungen, welche ich noch nicht gesehen habe. Außerdem werden da viele Karten geliefert. Könnte sein, dass AMD einen größeren Launch vorbereitet.

Unicous
2014-12-16, 14:10:27
Was will der Autor (über mir) uns damit sagen?


Ich interpretiere mal: Es ist Fake. Ja, gut. Das haben wir auch schon beim ersten "Leak" diskutiert. Wir können uns nicht sicher sein.

Nutzen beide HBM? Keiner der Beiden. Beide 20nm. Nur einer. Oder doch 28nm.

Wir wissen nichts Konkretes und können es daher eh nicht einordnen. Im Nachhinein können wir dann sagen ob es authentisch war. Aber das ist bei fast jedem Leak so.


Warum spricht die Kühllösung gegen 20nm? Huh. Habe ich was verpasst? Ist 20nm Fertigung hydrophil oder was?

Nakai
2014-12-16, 14:15:11
Was will der Autor (über mir) uns damit sagen?


Ich bin skeptisch...an Fake will ich eigentlich nicht glauben. Damit wäre AMD sehr stark aufgestellt. Für mich sind Bermuda und Fiji zu nah zusammen -> eventuell gleicher Chip oder Bermuda hat starke DP und Compute-Features, welche die Größe und somit Performance begrenzen.

€:

Warum spricht die Kühllösung gegen 20nm? Huh. Habe ich was verpasst? Ist 20nm Fertigung hydrophil oder was?

Ich weiß nicht.
http://www.globalfoundries.com/technology-solutions/leading-edge-technology/20-lpm

GFs 20nm-Prozess klingt besser, als der von TSMC. 61% lower Power, 42% Faster und doppelte Packdichte, klingt stärker als TSMCs 20nm. 20nm sollte die Leistungsaufnahme reduzieren, womit einer stärkeren Kühlung gegengewirkt wird.

Unicous
2014-12-16, 14:28:23
Dort wird 28SLP (den es ja eigentlich gar nicht gibt:rolleyes:) vs. 20LPM verglichen. 20nm sollte eigentlich nicht signifikant die Leistungsaufnahme verringern. Siehe TSMC.


Nochmal was interessiert uns der Fertigungsprozess bei der Kühllösung. Sie muss in der Lage sein, die ausgestrahlte Wärme abzutransportieren und eine Wasserkühlung dürfte dafür sehr gut geeignet sein. Ich wüsste auch nicht, was da für krasse Hot Spots entstehen sollten. HBM ist deutlich sparsamer als GDDR5. Wenn sie die Hotspots innerhalb unterhalb des Stacks und oder des Interposers nicht unter Kontrolle halten können, war die jahrelange Forschung eh für die Katz.

Nakai
2014-12-16, 14:50:16
Nochmal was interessiert uns der Fertigungsprozess bei der Kühllösung. Sie muss in der Lage sein, die ausgestrahlte Wärme abzutransportieren und eine Wasserkühlung dürfte dafür sehr gut geeignet sein. Ich wüsste auch nicht, was da für krasse Hot Spots entstehen sollten. HBM ist deutlich sparsamer als GDDR5. Wenn sie die Hotspots innerhalb unterhalb des Stacks und oder des Interposers nicht unter Kontrolle halten können, war die jahrelange Forschung eh für die Katz.

Für die Katz nicht, nur sind die derzeitigen und baldigen HBM-Designs nicht wirklich mit einer GPU+HBM vergleichbar. Nehmen wir mal an, dass es nur HBM ist. Ergo wird die Leistungsaufnahme dank HBM schon gedrückt. Die Komponenten wandern ins Package. Gleichzeitig sinkt die Leistungsaufnahme auch global gesehen. Das ermöglicht Spielräume. Jedoch wandert alles ins Package. Kurz bis auf die Spawas verbraucht das Package nahezu den gesamten Stromverbrauch. Bei Hawaii haben die GDDR5-Chips auch Strom geschluckt und Wärme produziert, diese waren aber nicht im Package.

Im Schnitt spart HBM Strom ein, dafür wandern weitere Heizwerke ins Package. Ich denke die Leistungsaufnahme wird zwar ingesamt gedrückt, aber der Packageverbrauch sollte insgesamt nicht wirklich ansteigen bzw. fallen. Ist alles nur meine eigene Meinung, aber ich denke der Teufel steckt im Detail.

Nehmen wir AMDs nette Folie.
HBM: ~30W (PHYs: leicht über 10W; Speicher: leicht über 15W)
GDDR5: ~85W(PHYs: ~50W; Speicher: ~35W)

Milchmädchen:
Annahme: Karte GDDR5 Verbrauch 250W
Ohne Speicher & Spawas & Sonstiges: imo ~175W -> ungefährer Verbrauch vom Package

Wechsel zu HBM.
Annahme: Gleiche Karte sonst nur mit HBM etwa Verbrauch 200W
Ohne Spawas & Sonstiges(Speicher im Package): 160W -> ungefährer Verbrauch vom Package

So das ist nur bei gleicher Bandbreite. Ich glaube kaum, dass die Bandbreite die HBM so bringt auch voll ausgenutzt werden muss, vor allem die DCompression etc. Derzeit gibt es auch kein GDDR5-PHY seitens AMD, welche den GDDR5-Speicher voll auffährt. IMO sind die Einsparung von HBM nicht ganz so groß, wie es gerne suggeriert wird.

Unicous
2014-12-16, 15:09:53
Wem erklärst du das gerade?

Zum Teil werden die GDDR5 Module heutzutage schon nicht ordentlich gekühlt und jetzt verbreitest du Unruhe weil die HBM Module unter den Heatspreader wandern?

Die Hot Spots entstehen wie gesagt eher im unter dem Stack selbst und wandern in den Interposer->Package. Da gibt es die ärgsten Probleme. Und wie gesagt, wenn sie die nicht ausgemerzt haben, dann könnten sie HBM gar nicht erst implementieren.

In jeder Präsentation kannst du das lesen. Überall wird von den Challenges bei Thermal Dissipation gesprochen. Ist doch jetzt nichts Neues.

In letzter Zeit kommt da sehr viel FUD aus deiner Richtung, warum auch immer.

Entweder es funktioniert, oder es funktioniert nicht. Wenn es nicht funktioniert, dann wird es eben (noch) nicht implementiert. Das sind doch keine Amateure bei Amkor, GF und Co..

Ich sehe da nicht das Problem. Eine Wasserkühlung würde mE "das Problem" soweit mindern, dass es nicht zum Problem wird. Es wird ja auch nicht automatisch davon ausgegangen, dass der Chip wassergekühlt wird, daher muss man auch für Fälle gerüstet sein, bei denen die Kühlung gerade so ausreichend ist.

Nakai
2014-12-16, 15:20:11
Wem erklärst du das gerade?


Jeder der aufmerksam mitliest bzw. HBM ist Evolution, mehr nicht.

Zum Teil werden die GDDR5 Module heutzutage schon nicht ordentlich gekühlt und jetzt verbreitest du Unruhe weil die HBM Module unter den Heatspreader wandern?

Die Hot Spots entstehen wie gesagt eher im unter dem Stack selbst und wandern in den Interposer->Package. Da gibt es die ärgsten Probleme. Und wie gesagt, wenn sie die nicht ausgemerzt haben, dann könnten sie HBM gar nicht erst implementieren.

Ich sagte nie, dass es nicht möglich ist. Es ist wie gesagt schon ein Punkt der nicht unerheblich ist, welcher gerne unberücksichtigt bleibt.

In jeder Präsentation kannst du das lesen. Überall wird von den Challenges bei Thermal Dissipation gesprochen. Ist doch jetzt nichts Neues.


Das war nie etwas Neues. Leistungsaufnahme, W/mm², Hotspots, etc. sind schon immer Größen und Faktoren die berücksichtigt werden müssen. Solange diese Faktoren keine gravierenden Auswirkungen haben, machen sie keine Probleme. Reinher von der Leistungsaufnahme die wir mittlerweile mit GPUs erreichen, wird es mittlerweile ein gewichtiges Kriterium.

In letzter Zeit kommt da sehr viel FUD aus deiner Richtung, warum auch immer.

*Hust*
Mit Bermuda als zusätzlichen Topdog wird es interessant, vor allem klärt sich der Nebel langsam.

Entweder es funktioniert, oder es funktioniert nicht. Wenn es nicht funktioniert, dann wird es eben (noch) nicht implementiert. Das sind doch keine Amateure bei Amkor, GF und Co..

Ich sehe da nicht das Problem. Eine Wasserkühlung würde mE "das Problem" soweit mindern, dass es nicht zum Problem wird. Es wird ja auch nicht automatisch davon ausgegangen, dass der Chip wassergekühlt wird, daher muss man auch für Fälle gerüstet sein, bei denen die Kühlung gerade so ausreichend ist.

Mit dem letzten Absatz fällt unsere Meinung zusammen. Eine Wasserkühlung könnte für einen HBM-Topdog notwendig sein.

HOT
2014-12-16, 15:29:25
AMD wollte doch ab 2015 IVR verwenden. Sowas könnte den Stromverbrauch des Packages ebenfalls in die Höhe treiben.
http://images.anandtech.com/doci/7974/Screen-Shot-2014-04-29-at-1.08.08-AM.jpg

Zudem hat Unicous recht, mehr als 15% Performance/Watt in der Praxis sind bei 20nm unwahrscheinlich. Zudem gibts ja doppelte kosten bei doppelter Packdichte.

StefanV
2014-12-16, 15:31:51
Zum Teil werden die GDDR5 Module heutzutage schon nicht ordentlich gekühlt und jetzt verbreitest du Unruhe weil die HBM Module unter den Heatspreader wandern?
Ja, aber genau das is ja der Punkt.

Aktuell sind die Speicherchisp ganz weit von der GPU entfernt und heizen die nicht weiter auf.
Mit HBM wird der Speicher aufm Package sein und heizt das GPU Die mit auf.

Auch steigt die vom GPU Kühler zu kühlende Abwärme etwas an. Der Speicher muss ja jetzt nicht soo stark gekühlt werden. Bzw gibt das meiste der Wärmeentwicklung eher ans PCB ab...

HOT
2014-12-16, 15:38:19
Oft wird GDDR5 gar nicht gekühlt. Auch viele VR-Module sind ungekühlt. AFAIK war das erst ab Hawaii Pflicht (und früher schonmal bei der 4000er-Generation ebenfalls). Meine 7950 hatte beides ungekühlt, da reichte der Lüfter.
Erst mit dem Arctic AcceleroIII wurde die Passivkühlung für diese Module nötig, da die Lüfter zu langsam drehen.

Der Hybridkühler könnte ganz einfach auch ein Versuch sein, endlich mal einen 250W-Referenz-Kühler hinzubekommen, der endlich mal erträgliche Lautstärken mitbringt :D.

N0Thing
2014-12-16, 15:57:47
Nochmal was interessiert uns der Fertigungsprozess bei der Kühllösung. Sie muss in der Lage sein, die ausgestrahlte Wärme abzutransportieren und eine Wasserkühlung dürfte dafür sehr gut geeignet sein.



Der Hybridkühler könnte ganz einfach auch ein Versuch sein, endlich mal einen 250W-Referenz-Kühler hinzubekommen, der endlich mal erträgliche Lautstärken mitbringt :D.


Ich denke, eine Wasserkühlung als Referenz ist nicht das, was von "dem Kunden" gewünscht wird. In Benchmarks macht sich der Hybridkühler bestimmt gut, dank geringerer Lautstärke und guter Kühlung, aber sofern man noch den Radiator im Gehäuse unterbringen muß, wirken Grafikkarten mit einem leisen Luftkühler deutlich attraktiver.

Unicous
2014-12-16, 15:59:45
@Nakai

Sind wir jetzt schon wieder am Anfang angekommen?

HBM ist Evolution dahingehend, dass normaler DRAM dafür genutzt. HBM ist aber Revolution in einem Markt der seit Jahren nach mehr Bandbreite lechzt, aber gleichzeitig die Konsequenzen (höhere LA, höhere Wärmeentwicklung, ergo höhere Kosten) fürchtet und deswegen andere Wege (DCC) findet um das Problem zu umgehen.

@StefanV

Captain Obvious hätte es nicht besser sagen können. Wir diskutieren hier gerade über ein Problem, das seit Anbeginn der Semiconductor-Forschung besteht. Silicium ist ein großer Kompromiss, dem man mit vielen Tricks dazu bewegen muss nicht unter Belastung zu Sand zu zerbröseln.

Warum müssen wir jetzt ausdiskutieren, ob und wann und wie und wo wieviele Hotspots zur gleichen Zeit oder abhängig vom Load entstehen?

Ich verstehe es nicht. Diese Fragestellungen haben sich unzählige Entwicklungsabteilungen über die letzten Jahre/Jahrzehnte gestellt. Und jetzt "kurz" vor Markteinführung soll es ein großes Problem darstellen?

Nicht die GPU hat das Problem sich aufzuheizen, die Stacks selbst haben das Problem. Wenn mitten im Stack ein hot spot entsteht, ist das geringste Problem, dass die GPU sich an den Randbereichen aufheizen könnte.
Genau deswegen gibt es Test Vehicles. Um diese Probleme zu analysieren und auszumerzen.

Ich könnte mir auch weiterhin vorstellen, dass das Ding doch in 28nm hergestellt wird. Der Kalahiri Interposer als direktes Test Vehicle für eine GPU mit HBM Stacks.

Nightspider
2014-12-16, 16:10:06
Aha also doch, 500mm² Fiji (28nm TSMC+GDDR5) nur 380(X) und Bermuda (20nm GloFo+HBM) dann 390(X).


Ich kann mir ehrlich gesagt nicht vorstellen, das so ein großer Fiji Chip mit 500mm² nur 30% über Haiwaii liegen sollte.
Das würde darauf schließen das sich die Architektur kaum verbessert hat und auch nicht viel effizienter geworden ist.

So ein 350mm² 20nm Chip wäre knapp 700mm² in 28nm. 700mm² für 60% mehr Leistung wäre auch schwach und bei Verwendung von HBM erst recht.

Bermuda im 4.Q 2015 wäre viel zu spät. Wenige Monate später knüppelt den Nvidia mit Pascal und HBM2 nieder mit einer viel(!) effizienteren Architektur und dadurch viel mehr Leistung. Selbst der kleine Pascal (sicherlich ~300mm²) wird sicherlich 20-40% vor GM200 liegen.

Ich hatte gehofft das AMDs neuer HighEnd-Chip spätestens im 2. Quartal 2015 auf dem Markt kommt.

Unicous
2014-12-16, 16:28:20
@Nightspider


Sehe ich auch so. Wenn und falls AMD im ersten oder zweiten Q die 3xxer Serie startet, wäre aber auch noch genug Zeit um 2016 auf 14nmFF umzuschwenken. Denn Pascal wird glaube ich nicht für Anfang 2016 erwartet (Ob Pascal soviel effizienter wird, ist aber noch fraglich. Soviel soll sich ja im Vergleich Kepler->Maxwell gerüchteweise nicht ändern). AMD sagt/behauptet für 2015 nur 28nm und 20nm. Aber über 2016 sagt das ja nichts aus.

Gäbe mehrere Szenarien.

Man ist doch noch auf 28nm und lässt 20nm links liegen. Öffnet dennoch die Möglichkeit für entweder 14nmFF oder 16nmFF.

Man ist auf 20nm gegangen und portiert das Ganze 2016 auf FinFET, diesen Weg zeichnet ja u.a. auch GF bei 20LPM auf, nur eben noch mit 14XM.:freak:

Man geht 2016 komplett zu GF und lässt die bittersüße (Kosten, 32nm, kein garantiertes Volumen, xte Geige nach Apple, QC und Nvidia) Geschäftsbeziehung mit TSMC hinter sich.

Letzteres Szenario finde ich ja schon prickelnd, aber dennoch eher unwahrscheinlich. Anderseits hat AMD kaum einen großen Einfluss um wie Apple beide Foundries (bzw. GF/Samsung) gegeneinander auszuspielen.

Nightspider
2014-12-16, 16:36:51
Klar weiß man noch nicht wie schnell Pascal wird aber die Zeichen stehen sehr gut das Pascal die Vorgänger in die Tonne treten wird.

Schon Maxwells Archtitektur war deutlich effizienter als Kepler. Bis zu Pascal sind nochmals 2 Jahre Entwicklungszeit vergangen und mit schwenkt auf den viel besseren 16FF Prozess um UND hat die Möglichkeit HBM2 zu verbauen.
Das sind 3 sehr große Vorteile. Maxwell hat nur einen benötigt um den Markt zu dominieren (Effizienzsteigerung).

Wenn Small Pascal nicht wengistens 20-30% über GM200 liegt oder zumindest ein kleiner Chip mit hoher Leistung und großer Marge wird fresse ich einen Besen.

Deswegen würde AMD immer nur kürzeste Zeit mit einem Bermuda und 60% Ende 2015 die Krone innehaben und dann wieder 1-2 Jahre hinterher hängen.

Unicous
2014-12-16, 16:57:18
Das glaube ich nicht.

AMD hat zwar oft betont und wiederholt, dass sie nicht mehr die Bleeding Edge Standarte tragen wollen, aber ich denke sie meinen einfach, dass sie sich aus der Risk Produktion heraushalten und auf etablierte Standardprozesse setzen (im Gegensatz zu 32nm SOI und 28nm SHP zum Beispiel).

Samsung ist u.U. nicht ehrlich was die 14nm Produktion angeht und GF scheint nicht soweit hinterherzuhinken wie gedacht. TSMCs 16nmFF verspätet sich. D.h. für AMD keine FinFETs 2016. AMD kann und will sich keinen verkorksten product ramp wie z.B. bei 32nm SOI mehr lseiten, wo ein mittelmäßiges Produkt gepaart mit einem unterirdischen Prozess nichts als Verluste beschert hat. Sie werden also ein paar Monate ausharren, bis z.B. GF mit kleinen Chips den Yield des Prozesses im Griff hat und dann mit ihren Designs kommen um die Lernkurve mitzunehmen.

Bzw. könnte auch 20nm Teil dieser Lernkurve sein wenn er auf 14nm umgestellt wird.

wuzetti
2014-12-16, 17:02:03
[QUOTE=HOT;10455710]Nein, das stimmt so nicht. Fiji @500mm² (sicher nur knapp drüber) ist sicher billiger als Bermuda 20nm 350mm². Zwar ist die Fläche enorm, aber 20nm ist auch enorm teurer. Zudem scheint Fiji mehr dem Salvagepart des GM200 nahe zu kommen, was sicher im Bereich des Möglichen liegt. NV hat alles in eine neue µArchitektur gesteckt, AMD hat dies nicht getan sondern das nur weiterentwickelt und HSA implementiert, muss man dabei auch bedenken.

wie meinen? wo hab ich denn was von billiger oder teurer geschrieben? es geht um die sinnhaftigkeit bzw. um aufwand und ertrag. und genau das verhältnis scheint mir bei beim flaggschiff (evt. auch noch mit HBM) auf einem völlig neuen prozess, der wenig vorteile bringt, nicht gegeben.

aber das ist natürlich genauso spekulation, keine frage.

was mir aber komisch vorkommt warum so gut wie niemand hier darauf eingehen möchte, warum ein so grosses teil wie Fiji anscheinend sein soll nur wenig schneller ist als GM204 oder auch wie Hawaii ist. macht vorne und hinten wenig sinn.
auch steht eine wesentliche architekturverbesserung bei AMD an. wer glaubt dass AMD wirklich so dämlich ist und mit einer nicht oder nur wenig verbesserten architektur antreten möchte? und das noch dazu mit einiger verspätung gegenüber NV? macht auch nicht mehr sinn. und ja, ich weiss natürlich, dass das hier ein spekuforum ist. aber manche der spekus hier machen einfach keinen sinn oder werden gar nicht erst begründet.

HOT
2014-12-16, 18:39:22
[...]

Gäbe mehrere Szenarien.

Man ist doch noch auf 28nm und lässt 20nm links liegen. Öffnet dennoch die Möglichkeit für entweder 14nmFF oder 16nmFF.

Möglich, das war ja auch meine erste Spekulation zu dem Thema aber ich hab mittlerweile Zweifel an dieser "Ehrgeiz-Theorie". Die letzten Aussagen von AMD hörten sich eher so nicht an. Das kam mir eher so vor, als möchte man 20nm nicht nur nutzen, sondern auch ausreizen.

Man ist auf 20nm gegangen und portiert das Ganze 2016 auf FinFET, diesen Weg zeichnet ja u.a. auch GF bei 20LPM auf, nur eben noch mit 14XM.:freak:

Halte ich genauso wie du für unwahrscheinlich, genau wegen GloFos Abkehr vom eigenen FinFET-Prozess. Der 20nm-Prozess könnte aber eben auch so lange genutzt werden, bis man eine risikofreie Perspektive für neue Produkte im FinFETs-Prozess von wem auch immer sieht. Damit wirds dann wieder eher wahrscheinlich, damit würde es bei AMD sicher bis 2017 dauern, bevor man FinFET-Produkte anbieten kann.
Wahrscheinlich gucken die sich alles an, auch fdSOI und sonstige Spielchen und entscheiden erst, wenn das Risiko minimal ist und das beste Kosten/Nutzen-Verhältnis gegeben ist.

Man geht 2016 komplett zu GF und lässt die bittersüße (Kosten, 32nm, kein garantiertes Volumen, xte Geige nach Apple, QC und Nvidia) Geschäftsbeziehung mit TSMC hinter sich.

Letzteres Szenario finde ich ja schon prickelnd, aber dennoch eher unwahrscheinlich. Anderseits hat AMD kaum einen großen Einfluss um wie Apple beide Foundries (bzw. GF/Samsung) gegeneinander auszuspielen.
Ich glaube nicht, dass AMD hier TSMC und GloFo gegeneinander ausspielen möchte. Wie du schon sagst fehlt dazu einfach die Marktmacht. AMD wird es allein um das Kosten/Nutzen-Verhältnis gehen, das sehen sie offenbar weder bei 20nm SoC noch bei 16FF(+). GloFo scheint insgesamt für AMD einfach günstiger zu kommen für < 28nm. Wäre TSMC die bessere Alternative, würde man sicher bei TSMC bleiben. Wie gesagt, vielleicht hat man auch selber Arbeit in die Optimierung von 20 LPM gesteckt, auch wenn du das offenbar wehement dauernd bestreites, warum sollte das so unwahrscheinlich sein?

Unicous
2014-12-16, 19:01:53
Ich bin mir ziemlich sicher, dass es 2016 FinFET-Chips von AMD gibt. In welcher Form und zu welchem Zeitpunkt... keine Ahnung.

AMD gibt generell nichts mehr an, was über 1 Jahr hinaus geht (außer wenn es fette Strategiewechsel sind, wie das Core Update). AMD sagt einfach: "Für 2015 kommen weiterhin 28nm/20nm Produkte... danach FinFETs". Wenn und falls sie wirklich auf 20nm gehen, ist es nur logisch, dass sie dann auf 14nm gehen, sie brauchen nur die FEOL-Teil (also von planar auf FinFET) umstellen, der "Rest" bleibt ja gleich. Es wäre hingegen total idiotisch es nicht zu tun.

reaperrr
2014-12-16, 19:09:29
Ich kann mir ehrlich gesagt nicht vorstellen, das so ein großer Fiji Chip mit 500mm² nur 30% über Haiwaii liegen sollte.
Das würde darauf schließen das sich die Architektur kaum verbessert hat und auch nicht viel effizienter geworden ist.
Warum nicht? 64 CUs wären nur 45% mehr ALUs/TMUs, Zahl der ROPs und evtl. auch Shader-Engines bliebe wohl gleich gegenüber Hawaii. Mehr ist in 28nm nicht drin. Die Skalierung mit zusätzlichen CUs ist so gut wie nie perfekt, vergleiche mal die 285 mit der 270 ohne X, das sind nur sehr selten 40% mehr Performance, trotz doppeltem Frontend, stark verbesserter Tesselation und DCC. Laut computerbase.de @ 1080p mit 4xAA/16xAF sind es im Schnitt 26%, also zwei Drittel der zusätzlichen CUs.
Wieviel sind zwei Drittel von 45? Richtig, 30.
Das würde sogar bedeuten, dass Fiji im Durchschnitt tatsächlich ähnlich hoch takten müsste wie Hawaii XT, in dem Fall wäre der niedrige Stromverbrauch sogar ziemlich beeindruckend (für AMD-Verhältnisse...).

So ein 350mm² 20nm Chip wäre knapp 700mm² in 28nm. 700mm² für 60% mehr Leistung wäre auch schwach und bei Verwendung von HBM erst recht.
700mm² wäre zufällig genau 60% größer als 438mm². Also perfekte Skalierung bei Perf./mm² gegenüber Hawaii. Nicht bahnbrechend, aber noch ok. Außerdem sind, wenn man Tonga als Maßstab nimmt, seit Hawaii/GCN 1.1 offenbar einige Dinge hinzugekommen, die recht viel Platz und Transistoren brauchen und recht wenig zur Performance beitragen, dafür wäre es erst recht in Ordnung (wobei ich mich immer noch frage, was bei Tonga so viele zusätzliche Transistoren ggü. Tahiti braucht).

Unicous
2014-12-16, 19:15:57
700mm²?:eek::eek::eek:

Wovon träumt ihr denn?:confused::confused:

HOT
2014-12-16, 19:18:21
Ich bin mir ziemlich sicher, dass es 2016 FinFET-Chips von AMD gibt. In welcher Form und zu welchem Zeitpunkt... keine Ahnung.

AMD gibt generell nichts mehr an, was über 1 Jahr hinaus geht (außer wenn es fette Strategiewechsel sind, wie das Core Update). AMD sagt einfach: "Für 2015 kommen weiterhin 28nm/20nm Produkte... danach FinFETs". Wenn und falls sie wirklich auf 20nm gehen, ist es nur logisch, dass sie dann auf 14nm gehen, sie brauchen nur die FEOL-Teil (also von planar auf FinFET) umstellen, der "Rest" bleibt ja gleich. Es wäre hingegen total idiotisch es nicht zu tun.
Na ja, es kann AMD da ziemlich egal sein, ob man dann den Prozess komplett wechselt, die bauen ja keine Prozesse, die konfigurieren sich das höchstens neu, wie bei 28nm SHP. Und wenn Zen beispielsweise dann in FinFETs kommt, braucht man ja auch nix umzustellen, sondern man verwendet einfach den richtigen Prozess dafür schon jetzt. Ähnliches würde für eine GCN-Nachfolgearchitektur gelten. Je nachdem wie AMD die Prozesse verwendet hätte man durch durch eine evtl. Ähnlichkeit der Prozesse keinen wirklichen Vorteil.
Aber du wirst mit 2016 schon recht haben, was Zen und K12 angeht. Die werden sicherlich FinFET sein. Bei Grafikchips hab ich so meine Zweifel - die kann man ja in 20nm machen, bis man eine neue µArchitektur zur Verfügung hat.

700mm²?:eek::eek::eek:

Wovon träumt ihr denn?:confused::confused:
Einiges Posts früher hat jemand gemeint, ein 65% schnellerer Chip als Hawaii wär in 28nm realisierbar. Daraus wurden dann 700mm² :D.

Unicous
2014-12-16, 19:40:55
GF und andere Foundries sind keine Frittenbuden wo man einmal das XXL-Menü bestellt und es sich dann liefern lässt. Das ist eine Kollaboration beider Unternehmen. GF verbessert durch Test-Chips seine Produktionsabläufe und durch diese Erfahrungen kann AMD dann seine Prototypen abstimmen, die dann wieder an die Fab geschickt werden und dann Produktionsmasken erstellt werden. Wenn AMD 20nm für GPUs nutzt, ist es daher keine unüberwindbare Hürde, Designs auf FinFET zu portieren. Auch Nvidia posaunt nicht aus dem Blauen die Verfügbarkeit von Pascal für 2016 hinaus, wenn sie nicht schon irgendeine Rückmeldung aus ihren und TSMCs Laboren hätten.

AMD will lediglich nicht mehr das Versuchskaninchen sein. Man kann und will es sich nicht mehr leisten. Apple hingegen ist das egal. Ihre Devise ist: "Passt auf Leute. Ihr bekommt uns als Kunden, d.h. fettes Volumen und damit Umsatz und dafür stellt ihr xx Millionen Chips pro Quartal her. Wie ihr das macht ist uns egal. Bei Vertragsbruch, schneiden wir euch sämtliche Gliedmaßen ab." Ok, letzterer Teil ist vllt. doch eher einem Mafia-Film entlehnt (aber die Parallelen sind offenkundig:eek:).

AMD hat sicherlich auch GF in der Vergangenheit, den ein oder anderen Taler extra gezahlt, für die custom Prozesse. Das haben sie jetzt eingestellt und nehmen die Standardprozesse und warten ein wenig länger bis der Prozess wenigstens ein wenig ausgereifter ist. Wenn die Margen höher wären, würde AMD sich darum nicht kümmern. Aber 60%+ ist einfach nicht drin. Unternehmen wie Xilinx interessiert das weniger, die haben eine Bruttomarge von knapp 70% und ein Virtex-7 FPGA kostet mehrere $1000.


edit: Ja, das mit den 700mm² hatte ich überlesen.

foenfrisur
2014-12-16, 19:49:42
die 700mm² hast du ja in den raum geworfen.
ein effizienter kepler hat ja auch schon 550mm².
und gf hat nun ibm-patentwissen oder?

und die 65% müssen ja nun mal nicht stimmen oder glaubt jetzt hier sofort jeder, das die werte echt sind?

ist es denn möglich, das ein so großes ES schon heute in 20nm gefertigt werden kann? also sind die prozesse für testzwecke bereits so weit? kann das nicht einschätzen.

mfg

HOT
2014-12-16, 20:01:49
700mm² für einen Grafikchip ist nicht mehr sinnvoll produzierbar würd ich jetzt mal behaupten. Nicht bei 300mm-Wafern. Sowas geht bei Prozessoren, wo das Stück für 3k-10k € über den Ladentisch wandert.

Sicher sind das keine Frittenbuden und sicher ist das Kooperation vonnöten, das bezweifelt doch keiner, dennoch widersprichst du ja meiner Aussage eigentlich nicht. Wenn AMD jetzt 20nm für die Klein-APUs (wozu auch die Konsolen-SoCs gehören) und GCN1.x-Grafikchips auflegt und den Samsung-Prozess dann für Zen, K12 und post-GCN verwendet wird das schon kostentechnisch nicht so ins Gewicht fallen, dass der Samsung-Prozess 20nm LPMwasauchimmer nicht als Basis nutzt, das wird sicher gehen (zumal das Ergebnis vermutlich erheblich überzeugender ist als 14XM :D).
Die Frage ist eh akademisch, AMD geht auf 20nm GloFo (zumindest bei klein-APUs, da aber zu 99,999%) und GloFo hat 14XM quasi eingestellt und bietet nur noch Samsung-FinFETs (vielleicht später mal IBM-SOI-FinFETs). Da bleibt doch gar kein Spielraum für Spekus. Den einzigen Ausweg, den ich da noch sehe, ist, GloFo hätte 14XM zwar eingestellt, die Entwicklung geht aber dennoch weiter als AMD-Variante und das ist doch arg unwahrscheinlich.

Unicous
2014-12-16, 20:06:58
@foenfrisur

Ich habe nichts in den Raum geworfen.

Und was IBM damit zu tun hat, frage ich mich auch. Wenn IBM mit Pi mal Daumen 10% Yield mal ihre Fabs anschmeißt um 1-2 Dies herzustellen kann man doch nicht davon ausgehen, dass AMD mit einem deutlich höheren Volumen Yielderwartungen und vor allem Marge das Gleiche versucht.

Das wäre Design-Suizid.

foenfrisur
2014-12-16, 20:18:53
ich meinte auch HOT :)
er kam mit den 700mm², weil ich der meinung bin, das der bermuda auch in 28nm möglich ist.
wie auch immer dieser dann aussieht.

aber auch nvidia schafft es ja, mit deutlich weniger tranistoren deutlich schneller zu werden und dabei sparsamer.

ich kann es mir unter gewissen umständen durchaus gut vorstellen, trotz des hohen hbm-platzbedarfs.

aber kann mir dennoch mal jemand auf die frage zum ES des bermuda beantworten?

ibm meinte ich nur rein vom patent-wissen für glofo....

mfg

HOT
2014-12-16, 20:28:20
Ich will dir ja nicht zu nahe treten, aber ein Chip, der in 28nm kommt und 65% schneller als Hawaii ist in 28nm? Da frag ich mich wirklich wie das gehen soll. Das ist ja jetzt auch keine nagelneue Architektur, von der wir hier reden, wie bei Maxwell beispielsweise. Das mit den 700mm² war nur scherzhaft gemeint, das hat sich offenbar verselbstständigt :D. Aber ich bezweifle sehr stark, dass ein Chip mit 500mm² wie bei Fiji vermutet, 65% mehr auf Hawaii drauflegen kann.

Wenn diese Sachen wirlich stimmen sollten ... SOLLTEN ... dann muss das eigentlich ein anderer Prozess sein, oder AMD hat gezaubert.

Ailuros
2014-12-16, 21:12:31
Wieso genau ist es keine neue Architektur?

Locuza
2014-12-16, 21:40:12
Die Aussage "neue Architektur" ist ja relativ.
Vermutlich macht es dank prinzipiell gleicher Compute Units keinen so starken Eindruck wie bei Nvidia, die für den Laien offenkundig von Fermi bis Maxwell jedes mal ihre Shader-Cluster re-organisiert und verändert haben.

Gibt es eig. fundierte Vermutungen das Fiji/Bermuda eine IP-Version über Tonga (IP v8) eingeordnet werden?

HOT
2014-12-16, 21:55:04
Die zeitliche Nähre von Fiji und Tonga legt das nahe, dass da keine gewaltigen Änderungen zu erwarten sind. Kann natürlich auch ganz anders sein. Kann auch sein, dass Bermuda ne ganz andere Architektur ist. Aber ich halte das doch für eher unwahrscheinlich.

Nightspider
2014-12-16, 21:58:29
Warum nicht? 64 CUs wären nur 45% mehr ALUs/TMUs, Zahl der ROPs und evtl. auch Shader-Engines bliebe wohl gleich gegenüber Hawaii. Mehr ist in 28nm nicht drin. Die Skalierung mit zusätzlichen CUs ist so gut wie nie perfekt, vergleiche mal die 285 mit der 270 ohne X, das sind nur sehr selten 40% mehr Performance, trotz doppeltem Frontend, stark verbesserter Tesselation und DCC. Laut computerbase.de @ 1080p mit 4xAA/16xAF sind es im Schnitt 26%, also zwei Drittel der zusätzlichen CUs.
Wieviel sind zwei Drittel von 45? Richtig, 30.

Weil das bedeuten würde, das AMD keine Fortschritte in der Architektur gemacht hat in den 1,5 Jahren sondern den Chip bloß aufbläht - vereinfacht gesagt.


700mm²?:eek::eek::eek:

Wovon träumt ihr denn?:confused::confused:

Nein ihr lest alle nicht richtig. Es ging um Bermuda welcher 350mm² sein soll, was hypothetische 700mm² in 28nm wären.

Unicous
2014-12-16, 22:12:35
Natürlich wird es über Tonga IP liegen. Aber was heißt das konkret? Das kann keiner beantworten. Dennoch schätze ich, dass es Unterschiede gibt... denn auch Carrizo liegt ja schon auf und über Tonga-Level. Man erinnere sich an die Effizienz Feature roadmap. Einiges sicherlich eher für APUs gedacht, vieles auch auf GPUs übertragbar.


@Nightspider

So hatte ich es ursprünglich auch gelesen, aber mich dann irritieren lassen.:tongue:

AffenJack
2014-12-16, 22:18:04
Weil das bedeuten würde, das AMD keine Fortschritte in der Architektur gemacht hat in den 1,5 Jahren sondern den Chip bloß aufbläht - vereinfacht gesagt.


Doch, Effizienzverbesserungen, denn mit der aktuellen "Architektur" würde man bei Verbrauchswerten jenseits von gut und böse landen, insofern da nicht nen Shrink weiterhilft.

Generell glaube ich, dass wir bei den nächsten Chips architektonisch hauptsächlich nur Änderungen in eine Richtung wie HBM sehen und nicht soviele Verbesserungen auf allen Ebenen. Amd entwickelt seine Gpus nun seit Jahren eher in einer Evolution weiter und jedes mal werden ein paar neue Features eingebaut. Die Baustelle Shadereffizienz ala Maxwell verbessern wird es glaube ich erst mit 14nm geben.

foenfrisur
2014-12-16, 22:18:13
so isses.

der gm200 scheint über 20 spiele etwas schneller zu sein, aber auch etwas mehr zu verbrauchen...zumindest bei 2560er auflösung.
unter 4k siehts dann vermutlich für amd besser aus, wie auch oft schon beim hawaii zu sehen.

hat sich mal jemand die mühe gemacht, alle benches prozentual zu bewerten?
vielleicht sind die 65% eher best case bei 4k und tendenz geht dann eher zu 55-60% bei den
AMD-affinen spielen, die genommen wurden.

ich bin gespannt und vermute aber immer noch 28nm @vielleicht ~600mm²+.

mfg

Locuza
2014-12-16, 22:20:27
Ich beziehe mich konkret auf AMDs Versions-Einordnung, welche AMD vermutlich nach prinzipiellen Fähigkeiten macht.

Zwischen Bonaire und Hawaii liegt ein halbes Jahr und im Detail unterscheiden sich auch beide, aber grundsätzlich zählt AMD beide zu IP v7.

Neben Tonga gehört auch Iceland der IP Version 8 an, aber von dem Chip höre ich nicht mehr viel.
Und ob Fiji schon zur 9-Version oder immer noch zur 8 gezählt wird? :confused:

Duplex
2014-12-16, 22:30:59
Wenn AMD ein 20nm Prozess für seine neue High End GPUs verwendet, dann sind das bestimmt <350mm2 Chips (neue Architektur) mit +40-60% mehr GPU Performance als Hawaii XT.

28nm GPUs mit 500mm2 Fläche sind nicht interessant.

Unicous
2014-12-16, 22:33:09
Wenn AMD ein 20nm Prozess für seine neue High End GPUs verwendet, dann sind das bestimmt <350mm2 Chips (neue Architektur) mit +40-60% mehr GPU Performance als Hawaii XT.

28nm GPUs mit 500mm2 Fläche sind nicht interessant.

Disst du gerade GM200?





:rolleyes:

Nightspider
2014-12-16, 22:33:09
28nm GPUs mit 500mm2 Fläche sind nicht interessant.

Für dich vielleicht nicht.

Duplex
2014-12-16, 22:35:00
Disst du gerade GM200?
:rolleyes:
Maxwell hat ein ganz anderes P/W Verhältniss im Vergleich zu GCN 28nm.
Nvidia ist bei gleicher Struktur viel effizienter als AMD, das liegt an der Architektur :)
Für dich vielleicht nicht.
GCN hat eine schlechte effizienz, der ist inzwischen veraltet.

Nightspider
2014-12-16, 22:36:02
GCN hat eine schlechte effizienz, der ist inzwischen veraltet.

Was hat das mit 500mm² in 28nm zu tun?

Du weißt doch gar nicht ob Fiji / Bermuda CGN1.2 haben. Die kommen vllt mit 2.0

Duplex
2014-12-16, 22:37:29
Was hat das mit 500mm² in 28nm zu tun?

Du weißt doch gar nicht ob Fiji / Bermuda CGN1.2 haben. Die kommen vllt mit 2.0
Ein +500mm² Maxwell Chip wäre Meilenweit besser bzw. effizienter als ein +500mm² GCN Chip.

Aktuell hat AMD mit dieser Architektur keine Chancen mehr gegen Nvidia.

Skysnake
2014-12-16, 22:46:24
Das würde ich auf keinen Fall unterschreiben. GCN ist eine "schöne" Architektur. Sich davon grundsätzlich zu verabschieden wäre ein Verbrechen!

Die Architektur an sich passt wunderbar, Sie braucht eben "nur" noch Feinschliss an vielen Stellen. Hier paar Latenzen optimiert, dort das Power/Clock Gating und an anderer Stelle noch was an der Datenlokalität bzw Workdistribution gedreht.

Das hat aber alles an sich erst mal nichts mit der GCN Architektur an sich zu tun, sondern nur mit der Implementierung eben selbiger.

hasebaer
2014-12-16, 22:54:08
Wenn AMD ein 20nm Prozess für seine neue High End GPUs verwendet, dann sind das bestimmt <350mm2 Chips (neue Architektur) mit +40-60% mehr GPU Performance als Hawaii XT.

Mach 30% draus, dass wäre für einen 350mm^2 Chip in 20nm schon gut.

28nm GPUs mit 500mm2 Fläche sind nicht interessant.

Ja dieser Vergleich 20nm vs. 28nm ist in der Tat uninteressant.
Grade dann wenn AMD mit einem 500+X nm^2 Chip in 20nm GloFo + HBM, nur eine Idee vor Nvidia in 28nm "ohne Alles" landet.

Da kann man sich an einer Hand abzählen, was Nvidia in 16nm FinFET (+ HBM) leisten kann/könnte.

Duplex
2014-12-16, 22:55:35
Das würde ich auf keinen Fall unterschreiben. GCN ist eine "schöne" Architektur. Sich davon grundsätzlich zu verabschieden wäre ein Verbrechen!

Die Architektur an sich passt wunderbar, Sie braucht eben "nur" noch Feinschliss an vielen Stellen. Hier paar Latenzen optimiert, dort das Power/Clock Gating und an anderer Stelle noch was an der Datenlokalität bzw Workdistribution gedreht.

Das hat aber alles an sich erst mal nichts mit der GCN Architektur an sich zu tun, sondern nur mit der Implementierung eben selbiger.
Was willst du Implementieren? :rolleyes:
Ich will 30% mehr Performance sehen, unabhängig vom Prozess und Speicher.
Nvidia ist in 28nm nur mal eben 50% effizienter geworden...In 16nm TSMC können die 2,5x schneller als 28nm werden.

Unicous
2014-12-16, 23:17:35
Es ist scheiß egal wie das erreicht wird, solange das Endprodukt rund und stimmig ist. Siehe Apple. Die haben 20nm nicht gewählt weil der Prozess so geil ist, sondern weil er für ihre Zwecke ausreicht und sie dennoch vor der Konkurrenz landen.

Diese substanzlose Rumgetrolle von dir ist aber eigentlich nicht der Mühe wert. Du kannst dich gerne wieder in deine Troglodytenhöhle zurückziehen.

Ich zitiere mal aus dem AT-Forum:

NV focus group/PR is already meeting on how to prepare negative marketing spin on forums and media to suggest that:

1) AMD needed 20nm to compete with NV's 28nm. Boohoo, AMD using cutting edge node to compete, suckers!
2) AMD needed WC to cool down the volcano that is 390X. Without it, the card would be running 100C in idle!
3) AMD needs 100W more power to beat out 980 by X%, which means they are still far behind us in perf/watt. Perf/watt > absolute performance! Yay!

Ist natürlich generell fanboy-Blödsinn... aber auf dich trifft es natürlich punktgenau zu.;D

Duplex
2014-12-16, 23:42:50
Ich glaube nicht das AMD vor der Konkurrenz landen wird, GM200 wird noch >50% auf GM204 drauflegen können, Nvidia braucht keine neue Fertigung im gegensatz zu AMD.
Durch eine neue Fertigung wäre dann Nvidia wieder deutlich vor AMD wegen der Effizienz Stärke, AMD soll erstmal eine Architektur zeigen die viel effizienter arbeiten kann, lächerliche 10-20% bringen nicht viel.

Unicous
2014-12-16, 23:46:27
Es ist immer die gleiche Leierleierleierleierleierleierleierleier.

AffenJack
2014-12-16, 23:57:40
Durch eine neue Fertigung wäre dann Nvidia wieder deutlich vor AMD wegen der Effizienz Stärke, AMD soll erstmal eine Architektur zeigen die viel effizienter arbeiten kann, lächerliche 10-20% bringen nicht viel.

Wenn AMD 20nm plus HBM braucht um GM200 in 28nm zu schlagen ist das ok, solange man in einem zeitlich vergleichbaren Rahmen kommt. Wen interessiert der Rest? Bis 16/14nm ists dann ein weiteres Jahr hin, wo Nv wahrscheinlich nur nen Pascal bringt, der Maxwell plus HBM @16nm ist, während AMD dann genug Zeit hatte um ihre Architektur effizienztechnisch zu trimmen.

Nightspider
2014-12-17, 00:13:13
Ich glaube nicht das AMD vor der Konkurrenz landen wird, GM200 wird noch >50% auf GM204 drauflegen können, Nvidia braucht keine neue Fertigung im gegensatz zu AMD.
Durch eine neue Fertigung wäre dann Nvidia wieder deutlich vor AMD wegen der Effizienz Stärke, AMD soll erstmal eine Architektur zeigen die viel effizienter arbeiten kann, lächerliche 10-20% bringen nicht viel.

Wegen deinem Nvidia Avatar?

Eine 290X liegt in 4K selbst jetzt schon öfter mal vor einer GTX980 oder zumindest auf dem gleichen Niveau. Und dabei ist GM204 schon ordentlich gewachsen. Für GM200 gibts nicht mehr so viel Spielraum was Diefläche betrifft.

AMD muss also nur die Architektur etwas verbessern und 45% mehr Einheiten verbauen um auf GM200 Niveau zu kommen. Für den Rest reicht die 4K Auflösung, in welcher die GCN Architektur gut austeilt.
Was anderes als 4K ist für 2015 eh nicht mehr zeitgemäß.

Blediator16
2014-12-17, 00:41:43
Ich glaube nicht das AMD vor der Konkurrenz landen wird, GM200 wird noch >50% auf GM204 drauflegen können, Nvidia braucht keine neue Fertigung im gegensatz zu AMD.
Durch eine neue Fertigung wäre dann Nvidia wieder deutlich vor AMD wegen der Effizienz Stärke, AMD soll erstmal eine Architektur zeigen die viel effizienter arbeiten kann, lächerliche 10-20% bringen nicht viel.

Hätte wäre wenn. Das gilt für alles und jeden. Wenn Nvidia die Priorität auf 28nm gelegt hat und an Maxwell gearbeitet gut, wenn AMD glaubt lieber auf 20nm oder was auch immer gehen zu müssen, dann wollen sie das eben so. So zu tun alsob AMD nicht in der Lage wäre mitzuhalten ist aktuell noch ziemlich abwägig. Es führen bekanntlich mehrere Wege nach Rom. Ob 28nm und durch die Architektur oder ein Shrink das juckt niemanden solange es produzierbar und konkurrenzfähig ist.

Nakai
2014-12-17, 01:15:22
@Nakai

Sind wir jetzt schon wieder am Anfang angekommen?

HBM ist Evolution dahingehend, dass normaler DRAM dafür genutzt. HBM ist aber Revolution in einem Markt der seit Jahren nach mehr Bandbreite lechzt, aber gleichzeitig die Konsequenzen (höhere LA, höhere Wärmeentwicklung, ergo höhere Kosten) fürchtet und deswegen andere Wege (DCC) findet um das Problem zu umgehen.


Jetzt warten wir mal ab, was kommen wird. Ansonsten merkt man dir eine postivere Tendenz bzgl. HBM an. Ich hoffe mal, die ist nicht unbegründet.
Wenn man schon eine Wasserkühlung benötigt, um die zentrale lokale Hitzeentwicklung Herr zu werden, heißt das hoffentlich nicht, dass keine "sparsameren" Versionen kommen werden. Diese sollten dann mit Luftkühlung zurechtkommen. Ich stelle mir Probleme in Hinblick auf den HPC- und Professional-Bereich vor. Nicht jeder will sein System mit einer WaKü kühlen, vor allem bei Serversystemen, bei welchen die GPUs passiv durch den Luftstrom gekühlt werden, wäre eine Umstellung nachteilig. Ich bin mir zwar sicher, dass AMD das bestimmt nicht unberücksichtigt hält, ob es jedoch ohne Konsequenzen einhergeht, ist eine andere Sache.

Reinher von den "Leaks"(denn es ist nicht ausgeschlossen, dass es keine Fakes sind) kommen zwei Chips, nämlich Fiji und Bermuda. Die Specs auf Sisoft passen besser zu Fiji XT, reinher von den Leistungsdaten. Also 4096SPs und HBM mit vier Stacks also 4GB. Was ist aber dann Bermuda XT? Noch ein größerer Chip? Bermuda XT ist etwa 25% vor Fiji XT. Also das könnte man leicht auf über 5000SPs approximieren. 5120SPs also 80CUs. Eine interessante Zahl um die 10 TFLOPs Grenze pro Karte für SP zu knacken.
Jedenfalls würden HBM in Spielen viel bringen? Ich bezweifle es. DCC bringt erstmal genug Spiele-Bandbreite. Für den professionellen Bereich wäre HBM lohnenswert. Eine Theorie meinerseits wäre gewesen, dass Bermuda Fiji+HBM ist. Aber zwei Interfaces, einmal für HBM und einmal für GDDR5, sind unwahrscheinlich. Die Theorie von 20nm Fertigung ist ziemlich gewohnungsbedürftig. Fiji XT wäre wohl ~300mm² dann groß(wenn man von 4096SPs ausginge), Bermuda ist noch ein anderes Fragezeichen. 20nm sollte sogar teuerer sein als 28nm. Wenn eine GPU in 28nm bei ~500mm² ist, wäre eine 350mm² 20nm GPU teurer?

Unicous
2014-12-17, 01:36:51
Was willst du uns hier wieder erzählen?

Wenn man schon eine Wasserkühlung benötigt, um die zentrale lokale Hitzeentwicklung Herr zu werden, heißt das hoffentlich nicht, dass keine "sparsameren" Versionen kommen werden.

Vesuvius hat eine Wasserkühlung bekommen, weil AMD gecheckt hat, dass sie mit einem Brülllüfter nicht weit kommen. Das setzen sie jetzt vermutlich fort, beim HighEnd Modell. Das sagt rein gar nichts über HBM aus. Das konstruierst du warum auch immer.

Die Hybrid-Kühlung ist ein Zugeständnis an den Enthusiasten-Markt, keine Voraussetzung für die Nutzbarkeit.:rolleyes:

Warum sollte man übrigens keine "positive Tendenz" gegenüber HBM haben? Diese Technologie und später Wide I/O 2 werden die Industrie wieder voranbringen, nach Jahren der Stagnation. Nvidia wird davon profitieren, Intel wird (HMC) wird davon profitieren und sicherlich überlegt sich Intel auch schon wie sie es bei ihren Consumer "CPUs" einsetzen können. Im Mobilbereich könnte es noch ein Weilchen dauern und LPDDR4 soll ja auch 2015 kommen

http://2.f.ix.de/imgs/18/1/2/8/2/5/7/9/DDR4-Roadmap-Mai-2013-910359b1ac2cd118.png


Ob das wirklich 20nm Chips sind, oder nur einer der Chips, ob es Fake ist, alles Banane. HBM ist gute Technologie (als Oberbegriff) die hoffentlich 2015 zur Marktreife gebracht und dann in Mobilegeräte Einzug hält.

Interposer ist eine stepping stone Technologie für echte 3D Stacked ICs und auch das wird bald Einzug halten. Die nächsten zwei Jahre werden jedenfalls IMHO deutlich spannender als die letzten drei.

Ailuros
2014-12-17, 06:38:04
Ich glaube nicht das AMD vor der Konkurrenz landen wird, GM200 wird noch >50% auf GM204 drauflegen können, Nvidia braucht keine neue Fertigung im gegensatz zu AMD.
Durch eine neue Fertigung wäre dann Nvidia wieder deutlich vor AMD wegen der Effizienz Stärke, AMD soll erstmal eine Architektur zeigen die viel effizienter arbeiten kann, lächerliche 10-20% bringen nicht viel.

Wenn Du den PC in die Gefriertruhe steckst erreicht GM200 dann sicher mehr als 50% durchschnittliche Mehrleistung als GM204. Von weder/noch eine wirkliche Ahnung zu haben und dann auch noch so zu uebertreiben, grenzt an die Laecherlichkeit.

Wenn eine GPU in 28nm bei ~500mm² ist, wäre eine 350mm² 20nm GPU teurer?

Bei 20SoC schon. Dich kostet unter 28HP ein wafer ungefaehr um die $4000 und Du bekommst wafer yields >60%; beim zweiten bist Du bei guten $6500 immer noch und die yields sind selbst fuer 350mm2 noch nicht so weit wie im ersten Fall. Ist mein Taschenrechner wieder kaputt?

Käsetoast
2014-12-17, 08:29:22
Ganz ehrlich - ich halte so einen Hybridkühler sogar für eine gute Idee, solange das Konzept ordentlich ist. Ich meine auf der einen Seite beschweren sich die Leute, dass die AMD Stock Kühler zu laut / schlecht sind weil ihre Kühlleistung eher auf's Nötigste reduziert ist. Dann kommen Gerüchte über eine aufwendigere Kühlmethode und das ist dann auch wieder nicht richtig...

Mir als Kunde kann es doch egal sein wie das gekühlt wird, Hauptsache es funktioniert gut, ist leise und geht nicht nach 2 Jahren kaputt oder dergleichen. Der Preis ist natürlich auch ein Punkt, aber in der Region von der wir nun reden werden doch sowieso Mondpreise gezahlt und warum sollte auf eine Top-Grafikkarte nicht auch ein Top-Kühler drauf?

Ich bin mal gespannt, ob an dem Hybridkühler-Gerücht was dran ist. Tendentiell könnte ich mir auch vorstellen, dass nur Bermuda über HBM Speicher verfügt - generell sollte das ja mehr kühltechnische Probleme erzeugen, da die Speicher-Chips nicht mehr irgendwo auf dem PCB verteilt sind, sondern alles nun mehr oder weniger in einem großen Hotspot liegt. Zu sagen, dass man in dem Fall einen deutlich besseren Kühler braucht fände ich schon nachvollziehbar, aber da heißt es abwarten und Tee trinken. Vielleicht ist auch alles was in letzter Zeit an Gerüchten kam Blödsinn... :)

Dawn on Titan
2014-12-17, 08:42:27
Wer glaubt schon, dass irgendwer Zugriff auf E-Samples von GM200 + Fiji + Bermuda hat und dann Benchmarks leakt....

Ihr diskutiert heiße Luft.

Ailuros
2014-12-17, 08:42:45
Wenn AMD 20nm plus HBM braucht um GM200 in 28nm zu schlagen ist das ok, solange man in einem zeitlich vergleichbaren Rahmen kommt. Wen interessiert der Rest? Bis 16/14nm ists dann ein weiteres Jahr hin, wo Nv wahrscheinlich nur nen Pascal bringt, der Maxwell plus HBM @16nm ist, während AMD dann genug Zeit hatte um ihre Architektur effizienztechnisch zu trimmen.

Ich verpasse offensichtlich wieder etwas bei der Geschichte; mit einer konservativ eingeschaetzten Packdichte fuer 20nm komm ich auf fast 40% mehr Transistoren fuer Bermuda; das soll dann "nur" um ca 10% oder sogar weniger schneller sein als GM200? Ich persoenlich unterschaetze AMD's engineers nicht wirklich sooo stark und ja ich folge diesmal meinem Instinkt und halte die 20nm Geschichte fuer reinen bullshit.

Dawn on Titan
2014-12-17, 08:46:18
Ist doch lustig, man nehme kreative Benchmarks und baue sich den Chip passend.

Skysnake
2014-12-17, 08:53:38
Du hast nicht verstanden was ein HotSpot ist. HBM sorgt höchstens dafür, dass die Randbereiche etwas wärmer sind vom Kühler, wobei das nicht sonderlich ins Gewicht schlagen sollte. Das "sehen" die HotSpots irgendwo auf der GPU fast nicht. Lass es am Ende 1-2°C Unterschied sein. Das macht am Ende auch nichts mehr aus. Entweder ist es eh inakzeptabel, oder eben nicht. Niemand näht etwas derart Spitz auf Knopf.

Ich glaube nicht das AMD vor der Konkurrenz landen wird, GM200 wird noch >50% auf GM204 drauflegen können, Nvidia braucht keine neue Fertigung im gegensatz zu AMD.

Nein, GM200 wird mindestens!!11einself hundertdrölf Prozent auf GM204 drauflegen :facepalm:


Durch eine neue Fertigung wäre dann Nvidia wieder deutlich vor AMD wegen der Effizienz Stärke, AMD soll erstmal eine Architektur zeigen die viel effizienter arbeiten kann, lächerliche 10-20% bringen nicht viel.
Ok, ich versuch es nochmal. Es gibt zwei Dinge, die dir die Effizienz verhageln können. 1. Eine ineffiziente Architektur, die z.B. oft leer läuft, und damit unnötig Energie verbrennt, bzw Arbeit schlicht schlecht verteilt wird und 2. Die Implementierung dieser Architektur, also z.B. kein Power/Clock-Gating, Clocktreiber die Saufen wien Loch, große fette Treiber beim Registerfile, weil man Geschwindigkeit XY erreichen wollte, die außerhalb vom Sweetspot der Technologie liegt, oder what ever.

Das eine hat mit dem anderen absolut nichts, aber wirklich rein gar nichts zu tun.... Die GCN Architektur an sich ist von der Idee her absolut geil. Da gibt es nicht wirklich was dran auszusetzen. Vor allem ist die Architektur wirklich auf sehr sehr lange Sicht konkurrenzfähig, weil im Prinzip wirklich fast alles drin ist, was man sich nur wünschen kann. Was halt fehlt sind Optimierungen bei der Implementierung, das ist aber nichts, was GCN an sich absolet macht.

Jetzt warten wir mal ab, was kommen wird. Ansonsten merkt man dir eine postivere Tendenz bzgl. HBM an. Ich hoffe mal, die ist nicht unbegründet.
Wenn man schon eine Wasserkühlung benötigt, um die zentrale lokale Hitzeentwicklung Herr zu werden, heißt das hoffentlich nicht, dass keine "sparsameren" Versionen kommen werden. Diese sollten dann mit Luftkühlung zurechtkommen. Ich stelle mir Probleme in Hinblick auf den HPC- und Professional-Bereich vor. Nicht jeder will sein System mit einer WaKü kühlen, vor allem bei Serversystemen, bei welchen die GPUs passiv durch den Luftstrom gekühlt werden, wäre eine Umstellung nachteilig. Ich bin mir zwar sicher, dass AMD das bestimmt nicht unberücksichtigt hält, ob es jedoch ohne Konsequenzen einhergeht, ist eine andere Sache.

Wer sagt denn, das AMD nicht "nur" gut in Reviews dastehen will, wegen der geringen Lautstärke, niedrigen Temps, und damit verbunden eben auch einem niedrigeren Verbrauch?

Nur weil eine WaKü verbaut wird, heist das noch LANGE! nicht, dass Sie auch am Ende wirklich nötig ist. WaKü verbaut man eher wegen Lautstärke, bzw. um bei niedriger Lautstärke noch niedrigere Temps zu erreichen, damit der Chip effizienter wird.

Und über passive ServerGPUs würde ich mir absolut keine Gedanken machen. Die Dinger werden zur Not etwas niedriger getacktet und gut ist. Da werden wir never ever eine Kompakt-WaKü sehen..

HOT
2014-12-17, 10:10:52
Ich verpasse offensichtlich wieder etwas bei der Geschichte; mit einer konservativ eingeschaetzten Packdichte fuer 20nm komm ich auf fast 40% mehr Transistoren fuer Bermuda; das soll dann "nur" um ca 10% oder sogar weniger schneller sein als GM200? Ich persoenlich unterschaetze AMD's engineers nicht wirklich sooo stark und ja ich folge diesmal meinem Instinkt und halte die 20nm Geschichte fuer reinen bullshit.
Irgendwie find ich das cool :D. (nicht böse sein)
Wenn AMD solche Ergebnisse in 28nm schafft, dann echt Hut ab vor den Jungs und Mädels.

Dawn on Titan
Bei heißer Luft wirds doch erst richtig lustig ;).

Käsetoast
2014-12-17, 10:25:00
Du hast nicht verstanden was ein HotSpot ist. HBM sorgt höchstens dafür, dass die Randbereiche etwas wärmer sind vom Kühler, wobei das nicht sonderlich ins Gewicht schlagen sollte. Das "sehen" die HotSpots irgendwo auf der GPU fast nicht. Lass es am Ende 1-2°C Unterschied sein. Das macht am Ende auch nichts mehr aus. Entweder ist es eh inakzeptabel, oder eben nicht. Niemand näht etwas derart Spitz auf Knopf.
Also bei den Hawaii Karten konnte man meiner Meinung nach schon gut sehen, dass auch schon wenige °C Unterschied deutlich merkbare Einflüsse hat bzw. das die Hawaii Serie bzw. die zugehörige Architektur stark mit Hotspots zu kämpfen hat. Wenn wir jetzt noch davon ausgehen, dass es tatsächlich 8GB Speicher werden würden, so ist das auch bei deutlich geringerem HBM Verbrauch (gegenüber GDDR5) immer noch eine ansehnliche Heizung die da unter den Heatspreader wandert. Da denke ich schon, dass das merkbar problematischer zu kühlen ist bzw. dass sich die Problematik der Hotspots im eigentlichen GPU Chip verstärkt. Ich stelle mir den HBM Einfluss da doch problematischer vor als nur die 1-2 °C. Deswegen kann ich mir auch vorstellen, dass man da auf den Hybridkühler setzen will, einfach weil nicht nur das Abführen von etwas Wärme am Chiprand auf dem Plan steht, sondern generell auch ein Kühlproblem der Hotspots des ja auch nicht gerade kleinen Chips...

Ailuros
2014-12-17, 10:29:51
Irgendwie find ich das cool :D. (nicht böse sein)
Wenn AMD solche Ergebnisse in 28nm schafft, dann echt Hut ab vor den Jungs und Mädels.



Hawaii hat 6.2Mrd@438mm2/28HP TSMC, ergo einer Packdichte von ~14+Mio/mm2 Transistoren. Hypothetisch zumindest 20Mio/mm2 fuer 20nm bei 550mm2 gibt 11Mrd ergo knapp 80% mehr Transistoren. Wenn ich mit Apple's A8X 24Mio/mm2 rechnen wuerde wird es noch kunterbunter.

Ergo bei einer 180-gradigen Drehung und wenn 20nm und die restlichen Daten stimmen sollten, haben die AMD engineers einen tollen FLOP entwickelt.

Skysnake
2014-12-17, 10:50:52
Also bei den Hawaii Karten konnte man meiner Meinung nach schon gut sehen, dass auch schon wenige °C Unterschied deutlich merkbare Einflüsse hat bzw. das die Hawaii Serie bzw. die zugehörige Architektur stark mit Hotspots zu kämpfen hat. Wenn wir jetzt noch davon ausgehen, dass es tatsächlich 8GB Speicher werden würden, so ist das auch bei deutlich geringerem HBM Verbrauch (gegenüber GDDR5) immer noch eine ansehnliche Heizung die da unter den Heatspreader wandert. Da denke ich schon, dass das merkbar problematischer zu kühlen ist bzw. dass sich die Problematik der Hotspots im eigentlichen GPU Chip verstärkt. Ich stelle mir den HBM Einfluss da doch problematischer vor als nur die 1-2 °C. Deswegen kann ich mir auch vorstellen, dass man da auf den Hybridkühler setzen will, einfach weil nicht nur das Abführen von etwas Wärme am Chiprand auf dem Plan steht, sondern generell auch ein Kühlproblem der Hotspots des ja auch nicht gerade kleinen Chips...
Du hast wohl nicht verstanden, was HotSpots wirklich sind. Das ist nichts! Was du auslesen kannst mit Afterburner oder so. Da geht es um einige µm²-mm² große Bereiche auf dem Chip, die viel viel viel heiser werden als alles andere drum rum, und vor allem, innerhalb sehr kurzer Zeitskalen. Da interessiert dich die Temperatur 5mm weiter nicht die Bohne, und selbst der Kühler über die DIE ist da nicht mehr so interessant, einfach weil das System viel zu agil ist. Das sind rein lokale Effekte durch die sehr kurzen Zeitskalen, die du da normal hast. Das ist ms Bereich und weniger, nicht Sekunden und größer. Klar, mit nem besseren Kühler kannste noch minimal was rausholen, aber das ist absolut nichts, was Signifikant ist, so lange da überhaupt ein Kühler drauf ist. Dafür streuen andere Parameter viel viel viel stärker, als dass das auch nur irgendwie besonders ins Gewicht fällt.

Sprich, entweder es geht auch ohne, oder das Design ist eh kaputt.

Käsetoast
2014-12-17, 11:13:54
Du hast wohl nicht verstanden, was HotSpots wirklich sind. Das ist nichts!
Da musst du mich wohl missverstanden haben. Ich rede von dem Phänomen der Taktbarkeit und des Verbrauchs auf "makroskopischer Ebene". Da merkt man gerade bei den Hawaii Referenzdesigns, dass schon relativ geringfügig bessere globale Kühlung deutlich bessere Ergebnisse erzielen. In dem Sinne meine ich mit Hotspot dann eben nicht die einzelnen Unterelemente, sondern die Blöcke, in denen das alles angeordnet ist wo man regional dann schon Temperaturunterschiede auf dem Chip bzw. unter dem Heatspreader hat...

AffenJack
2014-12-17, 11:21:30
Hawaii hat 6.2Mrd@438mm2/28HP TSMC, ergo einer Packdichte von ~14+Mio/mm2 Transistoren. Hypothetisch zumindest 20Mio/mm2 fuer 20nm bei 550mm2 gibt 11Mrd ergo knapp 80% mehr Transistoren. Wenn ich mit Apple's A8X 24Mio/mm2 rechnen wuerde wird es noch kunterbunter.

Ergo bei einer 180-gradigen Drehung und wenn 20nm und die restlichen Daten stimmen sollten, haben die AMD engineers einen tollen FLOP entwickelt.

Das stimmt, aber bei 28nm macht das ganze auch keinen Sinn. Man hat Tonga mit 360mm² und jetzt soll noch nen Fiji mit 450mm²? und Bermuda mit 550mm² kommen? Macht genausowenig Sinn in meinen Augen. Da dann schon eher die Theorie, dass das 1Die ist der Gddr und HBM gleichzeitig kann und dann Fiji mit Gddr und Bermuda mit HBM. Wenn 20nm, dann denke ich nicht, dass es nen so großer Die ist, sondern eher was im 350mm² Maßstab.
Alles sowieso nur, wenn da was dran ist und da muss man wie Dawn on Titan schreibt schon deutliche Zweifel anmelden.

OBrian
2014-12-17, 11:23:39
@Käsetoast: naja, vergiss nicht, daß der Stromverbrauch des RAMs (bei HBM statt herkömmlicher Verbauweise auf dem PCB) deutlich geringer ist, d.h. der HBM-Teil neben dem Chip dürfte nur wenige Watt zusätzlich bedeuten. Das wird also die Kühlung der eigentlichen GPU praktisch nicht verändern.

Das Problem, die Kühlung der abgegebenen Wärmeenergie anpassen zu müssen, ohne daß es zu teuer wird, bleibt natürlich unverändert bestehen.

Dural
2014-12-17, 11:34:04
Die Festtage kommen, man sieht es hier deutlich mit "Wünsch dir was" postings :rolleyes:

wuzetti
2014-12-17, 12:17:54
Das stimmt, aber bei 28nm macht das ganze auch keinen Sinn. Man hat Tonga mit 360mm² und jetzt soll noch nen Fiji mit 450mm²? und Bermuda mit 550mm² kommen? Macht genausowenig Sinn in meinen Augen. Da dann schon eher die Theorie, dass das 1Die ist der Gddr und HBM gleichzeitig kann und dann Fiji mit Gddr und Bermuda mit HBM. Wenn 20nm, dann denke ich nicht, dass es nen so großer Die ist, sondern eher was im 350mm² Maßstab.
Alles sowieso nur, wenn da was dran ist und da muss man wie Dawn on Titan schreibt schon deutliche Zweifel anmelden.

Bitte verzeih dass ich mich hier von der Seite aufdränge aber warum soll das in 28nm keinen Sinn machen? Natürlich ist der endgültige Sinn von Tonga heute immer noch nicht klar, aber wäre es nicht eine Möglichkeit, Tonga als reine "Apple Bestellung" zu sehen, die vielleicht noch den Nebenzweck erfüllt, dass er in Zukunft, wenn sich das Lineup auf R3x irgendwas ändert, die heutige 270x ersetzt? Das einzige, was da nicht ins Bild passt, ist der große und somit teurere Die.

Und nochmal eine generelle Frage - auch auf die Gefahr hin, dass ich hier ignoriert werde :biggrin:: Warum sollte es AMD nicht schaffen, mit einer neuen Architektur ähnlich effizient wie NV zu sein? Sie gehen ohnehin schon ein hohes Risiko ein, um einiges später als NV damit anzukommen. Wenn sie es sich dann noch einen leisten würden, dass der Effizienzunterschied zu NV noch größer wird, können sie den Laden dicht machen.
Und nur weil Tonga diese Architekturverbesserungen nicht hat, muss das noch lange nicht heißen, dass das auch für Fiji & Co gilt.

Gibts hier niemanden der ein paar Wetten eröffnet? ;D

Käsetoast
2014-12-17, 12:21:25
@Käsetoast: naja, vergiss nicht, daß der Stromverbrauch des RAMs (bei HBM statt herkömmlicher Verbauweise auf dem PCB) deutlich geringer ist, d.h. der HBM-Teil neben dem Chip dürfte nur wenige Watt zusätzlich bedeuten. Das wird also die Kühlung der eigentlichen GPU praktisch nicht verändern.

Das Problem, die Kühlung der abgegebenen Wärmeenergie anpassen zu müssen, ohne daß es zu teuer wird, bleibt natürlich unverändert bestehen.
Ich habe da die genauen Zahlen nicht mehr im Kopf, aber wenn 8GB HBM Speicher soviel Wärme verpuffen wie 4GB GDDR5, dann ist das schon "nicht Nichts" und wie gesagt: Da Hawaii schon relativ empfindlich ist was Temperaturen angeht, könnte das meiner Meinung nach schon zu miderschweren Problemchen führen - gerade wenn wir jetzt von einem Chip von noch größeren Dimensionen reden...

Prinzipiell hast du aber natürlich nicht Unrecht...

AffenJack
2014-12-17, 12:37:45
Bitte verzeih dass ich mich hier von der Seite aufdränge aber warum soll das in 28nm keinen Sinn machen? Natürlich ist der endgültige Sinn von Tonga heute immer noch nicht klar, aber wäre es nicht eine Möglichkeit, Tonga als reine "Apple Bestellung" zu sehen, die vielleicht noch den Nebenzweck erfüllt, dass er in Zukunft, wenn sich das Lineup auf R3x irgendwas ändert, die heutige 270x ersetzt? Das einzige, was da nicht ins Bild passt, ist der große und somit teurere Die.


Der Größenunterschied 450mm² zu 550mm² ist zu gering und man hat zu wenig Platz für nen Salvagepart. Nen großen Die zur Marktreife zu bringen kostet auch einfach ne Menge und das gleich für 2 Chips zu machen die sich nicht so deutlich unterscheiden macht für mich keinen Sinn. Das sieht man in meinen Augen auch an den Chiphellgraphen, wenn diese nicht gefaked sind, dass da kaum Platz fürn Salvagechip ist. Deswegen denke ich wenn dann eher 1 Die mit und ohne HBM.

wuzetti
2014-12-17, 13:31:08
Der Größenunterschied 450mm² zu 550mm² ist zu gering und man hat zu wenig Platz für nen Salvagepart. Nen großen Die zur Marktreife zu bringen kostet auch einfach ne Menge und das gleich für 2 Chips zu machen die sich nicht so deutlich unterscheiden macht für mich keinen Sinn. Das sieht man in meinen Augen auch an den Chiphellgraphen, wenn diese nicht gefaked sind, dass da kaum Platz fürn Salvagechip ist. Deswegen denke ich wenn dann eher 1 Die mit und ohne HBM.

Puh, wo kommen denn die 450 mm² her? Kann aber sehr gut sein, dass ich das nicht mitbekommen oder überlesen habe. Aber wenn ich zu NV rüberschiele, dann haben die auch ein ~ 400 mm² Die und höchstwahrscheinlich eines mit um die 550 mm² (GM200)
Bei den Chiphellgraphen wär zumindest theoretisch möglich (wenn sie nicht überhaupt erfunden sind), dass u.u. das Bermuda Teil (weil das erst später releast wird) noch nicht den vollen Speed auf die Straße bringt, ist aber zugegebenermaßen wild spekuliert.
Und ansonsten hast Du natürlich Recht - es sind auch 2 Versionen von Fiji möglich. Wobei naja, dann seh ich immer noch das Problem, dass ein so großes Die (die 550 mm² scheinen ja doch recht fix zu sein) wenig Mehrperformance gegenüber GM204 liefert. hmmmm :confused:

Ailuros
2014-12-17, 13:41:29
Ein GM200 salvage part macht auch keinen besonderen Sinn im Vergleich zur GTX980. Was ich im Hinterkopf habe ist ein core der Hawaii abloesen wird wobei man aber schoen jeglichen HPC Firlefanz weglassen hat koennen und ein ziemlich groesserer core der sich Nacken an Nacken mit GM200 schlagen wird.

Kriton
2014-12-17, 14:02:06
Zudem gibts ja doppelte kosten bei doppelter Packdichte.

Jedenfalls bei TSMC (ich vermute mal, dass Deine Aussage daher stammt). Wir kennen die Kosten von Globalfoundries 20nm im Vergleich zu TSMC 28nm nicht. Oder doch?

Kriton
2014-12-17, 14:16:32
Es ist scheiß egal wie das erreicht wird, solange das Endprodukt rund und stimmig ist. Siehe Apple. Die haben 20nm nicht gewählt weil der Prozess so geil ist, sondern weil er für ihre Zwecke ausreicht und sie dennoch vor der Konkurrenz landen.

Diese substanzlose Rumgetrolle von dir ist aber eigentlich nicht der Mühe wert. Du kannst dich gerne wieder in deine Troglodytenhöhle zurückziehen.

Ich zitiere mal aus dem AT-Forum:

NV focus group/PR is already meeting on how to prepare negative marketing spin on forums and media to suggest that:

1) AMD needed 20nm to compete with NV's 28nm. Boohoo, AMD using cutting edge node to compete, suckers!
2) AMD needed WC to cool down the volcano that is 390X. Without it, the card would be running 100C in idle!
3) AMD needs 100W more power to beat out 980 by X%, which means they are still far behind us in perf/watt. Perf/watt > absolute performance! Yay!

Ist natürlich generell fanboy-Blödsinn... aber auf dich trifft es natürlich punktgenau zu.;D

Und gleich danach:

Ich glaube nicht das AMD vor der Konkurrenz landen wird, GM200 wird noch >50% auf GM204 drauflegen können, Nvidia braucht keine neue Fertigung im gegensatz zu AMD.
Durch eine neue Fertigung wäre dann Nvidia wieder deutlich vor AMD wegen der Effizienz Stärke, AMD soll erstmal eine Architektur zeigen die viel effizienter arbeiten kann, lächerliche 10-20% bringen nicht viel.

Ich würde mal sagen, das klingt nach Nr. 1 und Nr. 3. :weg:

Kriton
2014-12-17, 14:20:05
Was willst du Implementieren? :rolleyes:
Ich will 30% mehr Performance sehen, unabhängig vom Prozess und Speicher.
Nvidia ist in 28nm nur mal eben 50% effizienter geworden...In 16nm TSMC können die 2,5x schneller als 28nm werden.

Jetzt tust Du aber so als wäre das architekturbedingt. Dabei scheint doch klar, dass ein nicht unbeträchtlicher Teil "nur" durch besseres Powermanagement erfolgt. Das ist auch gut, aber sagt nichts darüber ob die Maxwellarchitektur diesbezüglich besser wäre/ist als GCN X.0.

Locuza
2014-12-17, 14:39:48
Jetzt tust Du aber so als wäre das architekturbedingt. Dabei scheint doch klar, dass ein nicht unbeträchtlicher Teil "nur" durch besseres Powermanagement erfolgt. Das ist auch gut, aber sagt nichts darüber ob die Maxwellarchitektur diesbezüglich besser wäre/ist als GCN X.0.
Einspruch, Maxwell hat auch die Architektur deutlich verbessert, nicht nur das Energy-Management.
Und auch das Powermanagement muss AMD hinbekommen, dass ist ja keine Ausrede für schlechte Ergebnisse am Ende.
Das klingt ja auch fast so, als könnte AMD schnippen und zack hat man auch so etwas.

Tonga hat schon gezeigt, dass es deutlich besser geht, leider schneiden die meisten Karten crappy ab.
Bisher habe ich einen schlechten Überblick, um wie viel GCN in seiner dritten Iteration besser geworden ist.

Ich hoffe das AMD trotzt Armut mit ihrer jetzigen Execution-Pipeline ihre Graphics IP deutlich weiter entwickeln können.
GM204 hat ordentlich vorgelegt.

wuzetti
2014-12-17, 14:48:32
Ein GM200 salvage part macht auch keinen besonderen Sinn im Vergleich zur GTX980. Was ich im Hinterkopf habe ist ein core der Hawaii abloesen wird wobei man aber schoen jeglichen HPC Firlefanz weglassen hat koennen und ein ziemlich groesserer core der sich Nacken an Nacken mit GM200 schlagen wird.

Vielen Dank für die Info. So macht das gleich nochmal mehr Sinn.

Gipsel
2014-12-17, 19:36:54
Was willst du Implementieren? :rolleyes:Man will die Architektur bzw. das doch etwas abstrahiert vorliegende Design eines bestimmten Chips in eine konkrete Anordnung von miteinander verschalteten Transistoren umsetzen. Das nennt sich dann die physische Implementation (oder auch physical design). Die (bzw. die eventuell dabei gemachten Fehler) entscheidet zu einem doch sehr großen Teil darüber, ob der Chip zum einen überhaupt funktioniert, und wenn ja wie hoch er sich takten läßt und wieviel Strom er dabei zieht. Das exakt gleiche logische Design kann in verschiedenen Implementationen stark unterschiedliche Kenngrößen für Taktbarkeit und Stromverbrauch besitzen. Deren Optimierung ist der Inhalt solcher Jobs (https://intel.taleo.net/careersection/10000/jobdetail.ftl?job=748313&src=JB-10400).

Skysnake
2014-12-17, 21:15:50
Wie man ne Sicherheitsfreigabe für die Stelle brauch :crazy2: Die ham se doch nicht mehr alle... Na ich hoffe, das sieht bei ähnlichen Stellen anders aus, sonst hab ich echt nen Problem ;( Das wär ne ganz interessante Stelle an sich...

Ansonsten kann man zu Gipsels Aussage an sich nichts mehr hinzufügen.

Gipsel
2014-12-17, 21:25:23
Wie man ne Sicherheitsfreigabe für die Stelle brauch :crazy2: Die ham se doch nicht mehr alle... Na ich hoffe, das sieht bei ähnlichen Stellen anders aus, sonst hab ich echt nen Problem ;( Das wär ne ganz interessante Stelle an sich...Das ist eine Tochterfirma von Intel, die ausschließlich Regierungsaufträge abarbeitet. ;)
/OT

Kriton
2014-12-17, 23:59:26
Einspruch, Maxwell hat auch die Architektur deutlich verbessert, nicht nur das Energy-Management.
Und auch das Powermanagement muss AMD hinbekommen, dass ist ja keine Ausrede für schlechte Ergebnisse am Ende.
Das klingt ja auch fast so, als könnte AMD schnippen und zack hat man auch so etwas.


Ich gebe Dir recht, das Maxwell einen besseren Verbrauch als Tonga(und Kepler) hat. darüber brauchen wir nicht diskutieren (wobei ich jetzt nicht die Werte von Apple mit Maxwell verglichen habe - sofern die Annahme zutrifft, dass die 285 nur das "Abfallprodukt" ist). Mir geht es nur darum was die generelle GCN-Architektur betrifft oder oder "sonstige" Gründe. Wie "einfach" das ist will ich damit gar nicht aussagen (davon verstehe ich zu wenig). Mir geht es nur um die Frage ob GCN (insoweit) schlecht(er) ist (als Maxwell). Ich wollte nur dem Aspekt entgegentreten, das GNC so schlecht sein soll was den Energieverbrauch angeht. Du hast natürlich recht, dass das Powermanagement nicht die einzige Verbesserung ist, welche den niedrigeren Verbrauch verursacht. Aber es ist sicherlich auch nicht unerheblich in dem Sinne. Oder gibt Nvidia dort etwa eine TDP an? Habe ich jedenfalls nicht gefunden.

Locuza
2014-12-18, 00:53:53
Mir geht es nur um die Frage ob GCN (insoweit) schlecht(er) ist (als Maxwell). Ich wollte nur dem Aspekt entgegentreten, das GNC so schlecht sein soll was den Energieverbrauch angeht. Du hast natürlich recht, dass das Powermanagement nicht die einzige Verbesserung ist, welche den niedrigeren Verbrauch verursacht. Aber es ist sicherlich auch nicht unerheblich in dem Sinne. Oder gibt Nvidia dort etwa eine TDP an? Habe ich jedenfalls nicht gefunden.
Letztendlich ist es praktisch egal, ob GCN logisch gesehen eine bessere, gleich gute oder schlechtere Architektur ist, solange AMDs Produkte im Vergleich einfach deutlich schlechter abschneiden.

Maxwell ist ja wirklich ~50% besser dabei (970 und 285 ähnlicher Verbrauch):
http://ht4u.net/reviews/2014/nvidia_maxwell_next-gen_geforce_gtx_970_und_gtx_980_im_test/index48.php

Tonga Pro ist im Rating nach all den Jahren auch nur 10-15% besser , als ein alter Tahiti 280(X).
Nach 3 Jahren schreit das praktisch nach Abfall oder AMD hat den Teufel da eingebaut, dessen Zweck wir vielleicht irgendwann später verstehen werden.
Ich weiß nicht ob es schon brauchbare Messungen von Tonga XT gibt, aber die sind hoffentlich deutlich besser.
Aber wie gesagt, mir fehlt der Überblick um GCN IP v8 brauchbar einzuschätzen.
Mit Tonga Pro haben wir jedenfalls ein ziemlich unbrauchbares Produkt.

GCN selber halte ich grob gesehen aber für eine ausgeklügelte Architektur, dessen Urteil ich mir anhand der Experten-Meinungen gemacht habe. :biggrin:
Ich denke was die Eckpfeiler angeht hat sich AMD an den meisten Stellen für richtige Sachen entschieden.
Maxwell selber sieht grob gesehen ja auch mehr wie GCN aus.
Nvidias hat ihre Entscheidung das ALU:TMU Verhältnis von 1:12 (Kepler) auf 1:16 zu "verschlechtern" damit begründet, dass es energieeffizienter sei.
Das ist vielleicht nur grob auf GCN übertragbar, aber es erweckt auf mich schon den Eindruck das AMD von vornherein gute Entscheidungen getroffen hat.
Bloß leider erfüllt GCN irgendwie nicht die (subjektiven) Erwartungen, welche man sich ausgehend vom Papier möglicherweise zusammenkleistert hat.

Ob AMD mal das theoretische Potential ausschöpft, mal sehen, Tonga Pro scheint jedenfalls die Frage nicht beantworten zu können und ich pflege noch Vorbehalte gegenüber Fiji/Bermuda.

Kriton
2014-12-18, 01:12:48
Ich habe auch primär auf Duplex geantwortet, der mir einfach zu eindimensional pro Nvidia war. Ich verstehe letztlich zu wenig davon um mit Dir wirklich auf Deinem Niveau diskutieren zu können (wobei ich auch davon ausgehe, das Du neutraler als Duplex bist).


GCN selber halte ich grob gesehen aber für eine ausgeklügelte Architektur, dessen Urteil ich mir anhand der Experten-Meinungen gemacht habe. :biggrin:
Ich denke was die Eckpfeiler angeht hat sich AMD an den meisten Stellen für richtige Sachen entschieden.
Maxwell selber sieht grob gesehen ja auch mehr wie GCN aus.
Nvidias hat ihre Entscheidung das ALU:TMU Verhältnis von 1:12 (Kepler) auf 1:16 zu "verschlechtern" damit begründet, dass es energieeffizienter sei.
Das ist vielleicht nur grob auf GCN übertragbar, aber es erweckt auf mich schon den Eindruck das AMD von vornherein gute Entscheidungen getroffen hat.
Bloß leider erfüllt GCN irgendwie nicht die (subjektiven) Erwartungen, welche man sich ausgehend vom Papier möglicherweise zusammenkleistert hat.

Ob AMD mal das theoretische Potential ausschöpft, mal sehen, Tonga Pro scheint jedenfalls die Frage nicht beantworten zu können


Dem ist meinerseits nichts hinzuzufügen.

Nakai
2014-12-18, 01:16:37
Der Leak erinnert mich irgendwie an den Leak von R600 damals auf einer omniösen "fake" Seite, welche dem R600 ein gutes Stück über G80 prophezeite. Wer kann sich noch erinnern?

Loeschzwerg
2014-12-18, 07:48:46
Der Leak erinnert mich irgendwie an den Leak von R600 damals auf einer omniösen "fake" Seite, welche dem R600 ein gutes Stück über G80 prophezeite. Wer kann sich noch erinnern?

Ja, an den kann ich mich noch erinnern :D Ich mag den R600 trotzdem.

Der Leak ist fast zu schön um wahr zu sein. Mehrere ES von verschiedenen Herstellern + den jeweiligen Treibern... Keine Ahnung wo man da in der Kette sitzen muss.

Dural
2014-12-18, 09:24:31
und sie machen auch noch immer keinen Sinn, es gibt keinen Grund zwei Chip zur gleichen Zeit bei nur ca. 20% Differenz zu Entwickeln.

wuzetti
2014-12-18, 11:52:48
und sie machen auch noch immer keinen Sinn, es gibt keinen Grund zwei Chip zur gleichen Zeit bei nur ca. 20% Differenz zu Entwickeln.

Und wer sagt dass die geleakten Graphen der absoluten Wahrheit entsprechen? Am logischsten wäre doch, wenn es ein AMD Pendant zu GM204 und eins zu GM200 geben würde. Und ich glaube auch nicht, dass die beiden NV Teile dramatisch weit auseinanderliegen werden. Die Vorgängergeneration bei NV (GTX 770, GTX780 Ti als Produkte) lag auch nur 35% auseinander. Wie die Sache im professionellen Bereich ausschaut, ist allerdings eine andere Frage.

Kriton
2014-12-18, 12:45:13
Bei ES tut sich doch eh noch einiges, beispielsweise hinsichtlich des Takts, oder?

wuzetti
2014-12-18, 12:48:23
Bei ES tut sich doch eh noch einiges, beispielsweise hinsichtlich des Takts, oder?

Ohne hier im technischen Detail Bescheid zu wissen würde ich das ganz genauso sehen. Wir können schlecht beurteilen, ob die in den Chiphell Graphen angeführten ES im selben Entwicklungsstadium waren. Immer vorausgesetzt, es gibt die Dinger überhaupt in der Form ;D

boxleitnerb
2014-12-18, 12:52:35
Und wer sagt dass die geleakten Graphen der absoluten Wahrheit entsprechen? Am logischsten wäre doch, wenn es ein AMD Pendant zu GM204 und eins zu GM200 geben würde. Und ich glaube auch nicht, dass die beiden NV Teile dramatisch weit auseinanderliegen werden. Die Vorgängergeneration bei NV (GTX 770, GTX780 Ti als Produkte) lag auch nur 35% auseinander. Wie die Sache im professionellen Bereich ausschaut, ist allerdings eine andere Frage.

Die 770 und die 780 Ti liegen aber bei der TDP näher zusammen als es vermutlich GTX 980 und die Top GM200 SKU sein werden. Wobei da wieder die Frage nach der Die Größe ist, die stattdessen den GM200 kleinhalten könnte...

wuzetti
2014-12-18, 14:55:39
Hier gings aber erstmal ausschliesslich um Performance und nicht um TDP.

boxleitnerb
2014-12-18, 15:13:17
Hier gings aber erstmal ausschliesslich um Performance und nicht um TDP.

TDP begrenzt immer die Performance, wenn sie zu niedrig angesetzt ist. Beides ist untrennbar miteinander verbunden. Was meinst du, warum Karten mit Boost mehr Performance in einer "maximierten" Einstellung bringen? Siehe Nvidia PT, z.B. hier:
http://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/4/

Leonidas
2014-12-18, 15:23:03
hat sich mal jemand die mühe gemacht, alle benches prozentual zu bewerten?
vielleicht sind die 65% eher best case bei 4k und tendenz geht dann eher zu 55-60% bei den AMD-affinen spielen, die genommen wurden.



Prozentuale Bewertung sagt 66,5% gegenüber 290X. Aber da man nicht weiss, welche 290X nun benutzt wurde, ist der Vergleich zur 980 besser: +50,7%. Aber nur unter dem extrem gut skalierendem 4K natürlich. 1920 und 2560 werden etwas schlechter aussehen.

Unicous
2014-12-19, 13:31:08
Nanu?

Geht keiner mehr zauba'n?

https://www.zauba.com/import-c83001-hs-code.html

Gab zwei Lieferungen eines C830? Chips in den letzten zwei Wochen. Leider bis auf den Preis nichts (fast 1/3 so "teuer" wie z.B. Fiji, ~$400 vs. ~$1200) Inkriminierendes.

Man kann also festhalten, dass es in den letzten Monaten durchaus erhöhte Aktivität gab.

Ich denke auch, dass die Zahlen nicht unbedingt willkürlich gewählt werden und speziell die letzte Ziffer für eine SKU steht/stehen könnte, einigermaßen gut zu sehen bei Hawaii.

C67101 Hawaii XT
C67501 Hawaii PRO
C67601 Hawaii XT GL44 (44? CUs?)

Fragt sich nur ob die erste Ziffer, die Generation angibt und die zweite den IP Level/den Chip. Die Zahlen sind da eher inkonsistent. (Manchmal sicherlich auch falsch deklariert:wink:)

Nakai
2014-12-19, 13:45:03
Nanu?

Geht keiner mehr zauba'n?

https://www.zauba.com/import-c83001-hs-code.html


*Hust*

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10455777&postcount=1333

Da ist, wie schon gesagt, einiges unterwegs.

horn 12
2014-12-19, 14:01:36
Da duerfte wohl Hawai schon EOL sein, und nur mehr die Restposten im wohl gefuellten Lager geleert werden.
Wuerde mich nicht wundern wenn es knapp vor Weihnachten einen Paperlaunch geben koennte.
PS: Spaetestens zur CES 2015 sollte ansonsten vieles klarer werden.
Schoene Gruesse aus Brasilien, horn 12

Unicous
2014-12-19, 14:23:29
Es wird (mMn) keinen paper launch vor Weihnachten oder nach Weinachten geben. Und auch keinen Launch vor Jahresende.
CES könnte sein... glaube ich aber irgendwie auch nicht. Ich könnte mir aber etwas Mitte Ende Q1 vorstellen.

AMD krempelt wohl immer noch seine roadmaps um. Sie haben mehrere Sachen ausfallen lassen. Es gab keinen Analyst Day. Keine "Fusion"/HSA Developer Summit.

Zur CES wird langweiliges Gelaber zu Carrizo kommen und noch ein paar andere langweilige Sachen dafür konzentriert man sich auf Freesync, aber ich vermute, dass da sonst nichts Spannendes zu neuen GPUs kommt. Maximal ein Teaser, aber das macht AMD eigentlich nicht. Das erwarte ich eher von Nvidia. Da kann man ein paar interessante Sachen erwarten.

@Nakai

Na cool. Du hast Video Graphic Cards eingegeben.:P

Da sind wie du sagst viele Kennungen dabei die vorher noch nicht aufgefallen sin. Aber das können auch ganze viel alte Chips sein für die wir uns nicht interessiert haben.:wink:

edit: Die C663 Chips sind vermutlich weitere Litho Chips. e: Vllt. ist die zweite Ziffer auch eine Kennung für das Marktsegment und die erste IP-Level?

Nakai
2014-12-19, 14:29:45
@Nakai

Na cool. Du hast Video Graphic Cards eingegeben.:P

Da sind wie du sagst viele Kennungen dabei die vorher noch nicht aufgefallen sin. Aber das können auch ganze viel alte Chips sein für die wir uns nicht interessiert haben.:wink:

Du hast jetzt nicht im ernst versucht, Zahlenkombinationen einzugeben!? :D

Reinher von der Kennung sollten das sogar ein paar ältere Chips sein.

Unicous
2014-12-19, 14:36:35
Nein habe ich nicht?:confused:

Ich habe aber die Litho Kennung verglichen.

Litho XT C66341

C66431
https://www.zauba.com/import-c66431-hs-code.html

Einfacher Zahlendreher?! oder andere SKU?

C63402
https://www.zauba.com/import-c63402-hs-code.html

Nichts sagender Leadin über einen Subscriber-Artikel bis auf

As you probably recall, we told you about AMD’s Fiji secret sauce here, were the first to tell you that, “Nvidia wins for the last few months of 2014“. They did. SemiAccurate was also the first to tell you about Nvidia moving to 16nm last July. We also told you what would happen afterwards in Q1 and Q2, that is the part that has changed a bit. Lets take a look at those changes, why they happened, and what they mean to users and the companies.

http://semiaccurate.com/2014/12/19/amd-nvidia-cell-phones-process-tech-schedules/

Hmmmmmmm. Hört sich irgendwie nicht so gut an. Launch-Verschiebungen?

HOT
2014-12-19, 15:18:33
Ich vermute ja schon länger, dass das so hätte aussehen sollen schon im Juni/Juli 2014:
R7 255(X) -> Iceland (stattdessen wurd Cap-Verde aufgewärmt) -> Cancel
R9 285(X) -> Tonga (Tonga nur Nische, Tahiti blieb) -> Minimargen für Mobile, Apple und W7100, Reste als 285 verkauft
R9 295(X) -> Maui (Hawaii Upgrade "XTX") -> Cancel
Später
R9 390(X) -> Fiji (500mm²-GCN 1.2-Die, WaKü) -> jetzt als 295(X) mit niedrigeren Takten und ohne Wakü denkbar.

und zum Jahresende dann Sprung auf 300er-Serie mit Fiji XT als 390(X) und WaKü, wahrscheinlich @300-350W. Danach war dann wahrscheinlich Sprung auf 16nm TSMC gedacht.
PlanB angewendet, weil GloFo einen passenden Prozess anbot: 20nm ist weit früher fertig als 16nm TSMC, Ersatzchip für Fiji in 20nm und neuer Big-Chip alias Bermuda ab Q3 2015 (gibt ja offensichtlich jetzt schon Samples).
Das wäre ein plausibles Scenario. So verschwanden die Pirate-Islands komplett und geboren wurden die Caribbean-Islands.

R9 350(X) Samoa 28nm
R9 380(X) Fiji - Ersatz -> Treasure-Island 20nm + HBM kein WaKü ca. 150W TDP
R9 390(X) neuer High-End-Chip -> Bermuda 20nm + HBM kein WaKü ca. 200W TDP

Sicherlich kommt Fiji jetzt noch als FireGL W8200/9200 und S9250.

Dawn on Titan
2014-12-19, 16:15:32
Ich glaube nicht, dass AMD Resourcen hat um so viele Chips parallel zu bearbeiten.

Nakai
2014-12-19, 16:24:13
Ich würde mir den Delay anhand des Wechsels auf GF erklären.

http://www.amkor.com/index.cfm?objectid=4A303D98-0146-4300-7F2900BBF9555BF3

Copper Pillar Wafer Bump Technology wird für Stacking Chip auf Chip und für TSV benötigt. Da Amkor scho lange mit AMD bzw. sogar GF zusammenarbeitet, verwundert der Schritt nicht, ebenso wird AMD eher auf Amkor-Technologie arbeiten.

Ob es jetzt für 20nm oder 28nm spricht, kann man schwierig sagen. Jedenfalls hat GF nun Packaging-Optionen für TSV, HBM, etc.

€:
Nein habe ich nicht?:confused:

Ich habe aber die Litho Kennung verglichen.


Oke, mir bleiben die Kennungen rätselhaft. Man kann zwar anhand der Nummer zwar schon etwas anhand der Chips approximieren. Größere Nummer -> neueres Design. Mehr kann man irgendwie jedoch nicht erkennen. Und ja Zahlendreher machen auch noch Probleme...

€2: Ahja, ich halte Tonga mittlerweile für Abfall, welcher nur veröffentlicht wurde, wegen dem Apple-Deal.

Unicous
2014-12-19, 17:00:58
@ Tonga-Abfall

Die W7100 (Tonga PRO) ist jetzt offiziell im channel verfügbar und hat eine TDP von 150 Watt und so wie es aussieht die gleichen Specs wie die R9 285... die wiederum eine TDP von 190 Watt hat.:wink:

Von daher Full Ack.

Und wer weiß... vllt. liegt das auch an GF vs. TSMC???? Wäre jedenfalls plausibler, als das was in den letzten Monaten hier und anderswo vom Stapel gelassen wurde. Andererseits, zwei Masken? Erklärung könnte natürlich der Retina iMac sein.

edit.
Könnte das mit Amkor darauf hinweisen, dass GF auch das Packaging übernimmt? Sie bieten ja theoretisch auch Turnkey an, aber auch für 28nm und niedriger?

Hübie
2014-12-19, 17:18:34
842 MHz Chiptakt. ;) Da kannst du leichter Spannung senken.

Unicous
2014-12-19, 17:20:59
Quelle?


Die W7100 hat genau wie die r9 285 28 CUs und 3,3 (3,29) Tera FLOPS. Wie kommst du da auf 842MHz?

Nakai
2014-12-19, 17:26:00
Und wer weiß... vllt. liegt das auch an GF vs. TSMC???? Wäre jedenfalls plausibler, als das was in den letzten Monaten hier und anderswo vom Stapel gelassen wurde. Andererseits, zwei Masken? Erklärung könnte natürlich der Retina iMac sein.

edit.
Könnte das mit Amkor darauf hinweisen, dass GF auch das Packaging übernimmt? Sie bieten ja theoretisch auch Turnkey an, aber auch für 28nm und niedriger?

Ich bin mir nicht sicher, ob GF gleich das Packaging übernimmt, sie verwenden jedoch Copper Pillar Wafer Bump Technology, um 2.5D und TSV-Packaging zu ermöglichen. Wo/wer genau das Packaging übernimmt, sieht man nicht, es ist aber naheliegend, dass es GF bereits macht.

Ein Wechsel von TSMC auf GF ist möglich. GFs 20nm-Prozess sieht "besser" aus als der 20nm-Prozess von TSMC.

€: Neue TSV-Technologien zwingen die Foundries mehr zu übernehmen, wie es scheint.

HOT
2014-12-19, 17:59:10
Ich glaube nicht, dass AMD Resourcen hat um so viele Chips parallel zu bearbeiten.
Normal würd ich dir absolut zustimmen, aber im Falle eines Wechsels des Fertigers muss man ja auch mit einem PlanB rechnen, das wird dann zwar teurer, weil man mehr Chips macht, aber man geht auf nummer Sicher, dass man auch Produkte hat, selbst wenn Verzögerungen eintreten. Von daher könnte ich in dem Falle tatsächlich Überlappungen verstehen.

Dawn on Titan
2014-12-19, 18:26:41
Normal würd ich dir absolut zustimmen, aber im Falle eines Wechsels des Fertigers muss man ja auch mit einem PlanB rechnen, das wird dann zwar teurer, weil man mehr Chips macht, aber man geht auf nummer Sicher, dass man auch Produkte hat, selbst wenn Verzögerungen eintreten. Von daher könnte ich in dem Falle tatsächlich Überlappungen verstehen.

Das sehe ich nicht. Bei GF + TSMC wären das praktisch 2 völlig eigene Chipfamilien, weil der Prozesse eben doch stark unterschiedlich sind. Gut es gäbe noch die Möglichkeit einer "schnellen" Anpassung, aber da würde das Ergebnis imho suboptimal sein. Und von der Kostenseite kann es sich AMD imho schon mal gar nicht leisten GPUs bei zwei Foundreis zu entwickeln.

Ich hätte da zwar ein Gerücht im Angebot, aber das will hier sicher niemand hören. Es ist nämlich ziemlich ernüchternd.

Unicous
2014-12-19, 18:40:23
:confused:

Warum will das niemand hören? Wir sind hier im Spekulations-Unterforum. Wenn du es von WTF-Tech und Co. hast, würde ich hingegen zustimmen.

HOT
2014-12-19, 23:25:42
Das sehe ich nicht. Bei GF + TSMC wären das praktisch 2 völlig eigene Chipfamilien, weil der Prozesse eben doch stark unterschiedlich sind. Gut es gäbe noch die Möglichkeit einer "schnellen" Anpassung, aber da würde das Ergebnis imho suboptimal sein. Und von der Kostenseite kann es sich AMD imho schon mal gar nicht leisten GPUs bei zwei Foundreis zu entwickeln.

Ich hätte da zwar ein Gerücht im Angebot, aber das will hier sicher niemand hören. Es ist nämlich ziemlich ernüchternd.
Neee, das war ja nicht soo gemeint. Man musste Fiji bei TSMC auf jeden Fall machen, falls sich der GloFo-Chip zu sehr verzögert. Daher sind die zeitlich sehr nah und man hat 2 Top-Dogs im Prinzip. Wenn die GloFo-Chips aber zeitig fertig sind ist Fiji quasi "über". Sowas macht man nicht, wenn man kein Risiko sieht. Ansonsten ist so ein Vorgehen natürlich überhaupt nicht denkbar.
Was da jetzt letztendlich an Endprodukten zustande kommt werden wir dann sehen. Aber die widersprüchlichen Aussagen verschiedener Quellen deutet ja darauf hin, dass die 20nm-Chips nicht vor Q3 zu erwarten sind und gleichzeitig dass Fiji nicht 390(X) sein kann. Falls Fiji tatsächlich noch im Consumerbereich released wird könnte er als 295(X) oder 380(X) released werden, für 390(X) ist offenbar Bermuda zu nah dran, dann wird der das halt.
Und ich frag mich immer, was sich Leute von 20nm planar für Wunder versprechen - 65% besser als Hawaii bei sagen wir 400mm² in 20nm bei 220-250W TDP wär eine gute Leistung.

Nakai
2014-12-19, 23:56:46
Neee, das war ja nicht soo gemeint. Man musste Fiji bei TSMC auf jeden Fall machen, falls sich der GloFo-Chip zu sehr verzögert. Daher sind die zeitlich sehr nah und man hat 2 Top-Dogs im Prinzip. Wenn die GloFo-Chips aber zeitig fertig sind ist Fiji quasi "über". Sowas macht man nicht, wenn man kein Risiko sieht. Ansonsten ist so ein Vorgehen natürlich überhaupt nicht denkbar.
Was da jetzt letztendlich an Endprodukten zustande kommt werden wir dann sehen. Aber die widersprüchlichen Aussagen verschiedener Quellen deutet ja darauf hin, dass die 20nm-Chips nicht vor Q3 zu erwarten sind und gleichzeitig dass Fiji nicht 390(X) sein kann. Falls Fiji tatsächlich noch im Consumerbereich released wird könnte er als 295(X) oder 380(X) released werden, für 390(X) ist offenbar Bermuda zu nah dran, dann wird der das halt.
Und ich frag mich immer, was sich Leute von 20nm planar für Wunder versprechen - 65% besser als Hawaii bei sagen wir 400mm² in 20nm bei 220-250W TDP wär eine gute Leistung.

Ich sehe keine großen Probleme, zwischen dem Wechsel äquivalenter Prozesse. Siehe IP-Unternehmen, welche PHYs oder anderen Kram, für bestimmte Fertigungsprozesse bereitstellen.

Agent117
2014-12-20, 01:12:15
Ich sehe keine großen Probleme, zwischen dem Wechsel äquivalenter Prozesse. Siehe IP-Unternehmen, welche PHYs oder anderen Kram, für bestimmte Fertigungsprozesse bereitstellen.

Sehe ich prinzipiell auch nicht, auch wenn mir im Detail das wissen zur genauen Beurteilung fehlt.
Klar muss man 2 Masken machen, die kosten schon par zig tausend.

Wenn da jetzt wirklich ein Bermuda noch kommt, der nochmal größer als der >500mm² Fiji ist, dann wird dieser doch sicherlich in keinen 28nm Prozess hergestellt werden (außer GF kann in 28nm die Packdichte deutlich erhöhen),
sondern in 20nm.

Dann käme erst Fiji als R9 380 gegen GM204, natürlich spürbar schneller und dann im Q3-Q4 Bermuda.
Fiji ist dann wahrscheinlich ein reiner Gaming Chip; mit Hawai ist man auch gegen GM200 keinesfalls schlecht aufgestellt.

Wie sieht es eigentlich mit TSMCs 20nm Prozess für große GPUs aus?
Mann kann mit diesem die Packdichte ja deutlich erhöhen, wie auch bisher bei allen vollen Strukturverkleinerungen, aber die Leistungsaufnahme sinkt dabei nur minimal.
Für einen Bermuda, den man zeitig rausbringen will, wäre das ja mit KompaktWakü eine Option.

Gipsel
2014-12-20, 02:12:13
Klar muss man 2 Masken machen, die kosten schon par zig tausend.Du meinst wohl eher, ein paar Millionen? :wink:

tm0975
2014-12-20, 09:15:39
Wie sieht es eigentlich mit TSMCs 20nm Prozess für große GPUs aus?

nach all dem,was bisher zu lesen war,wird es weder amd noch nvidia gpus in 20 nm von tsmc geben. nvidia überspringt den prozess und amd soll ihn wohl zumindest etwas nutzen,allerdings von glofo. es wird wohl bei einem prozess für handy- und tablet-chips bleiben. auch bei glofo sollerst der folgeprozess nach 20nm wieder ein großer werden. gab dazu kürzlich ein interview von glofo.

fondness
2014-12-20, 09:59:48
Laut Videocardz: http://videocardz.com/54166/nvidia-geforce-gtx-960-to-arrive-on-january-22nd

Oh boy, we have not posted anything in a week! And before you ask, we did see the leak about ‘Fiji/Bermuda/GM200′ performance from Chiphell. Of course it was fake, because no one has access to those GPUs, especially to all of them at the same time.

Hübie
2014-12-20, 11:09:07
Quelle?


Die W7100 hat genau wie die r9 285 28 CUs und 3,3 (3,29) Tera FLOPS. Wie kommst du da auf 842MHz?

Das ist die Untergrenze vom Takt im P0-State.

M4xw0lf
2014-12-20, 11:42:59
Laut Videocardz: http://videocardz.com/54166/nvidia-geforce-gtx-960-to-arrive-on-january-22nd
Es muss natürlich nicht eine einzelne Person mit Zugriff auf diese GPUs geben. Die Benchmarks können ja auch unabhängig voneinander gemacht worden und dann zusammengefasst worden sein.
Fake war und ist aber natürlich schon sehr wahrscheinlich.

Dawn on Titan
2014-12-20, 12:01:27
Mal als Gedanke. Was wäre wenn der Foundrywechsel aus vertraglicher Notwendigkeit auf die GPU-Sparte kam und nicht weil man es technisch wollte. Was wäre nun wenn man eigentlich TSMC 28nm anstrebte, auf GF 28nm wechselte, dort nicht zum Erfolg kam und nun auf GF 20nm LPM gehen muss.

Unicous
2014-12-20, 13:11:54
Laut Videocardz: http://videocardz.com/54166/nvidia-geforce-gtx-960-to-arrive-on-january-22nd

Und nu? Seit wann ist WhyCry eine seriöse Quelle für Leak-Debunking. Dass die Fake-Wahrscheinlichkeit nicht gering ist, wussten wir auch vorher schon, da brauchten wir nicht das "Urteil" eines Möchtegern-Leakers nicht, der selbst jeden Scheiße für bare Münze nimmt. Die 20nm Aussage wurde hier von vornherein mit Argwohn aufgenommen.


Das ist die Untergrenze vom Takt im P0-State.

Cool. Quelle? Oder extrapolierst du das jetzt von der R9 285? Was sagt uns das jetzt genau? Die W7100 muss dennoch 918 MHz erreichen um auf 3,3 TeraFLOPS zu kommen. Die M295X soll eine TDP von 130 Watt haben und der Takt liegt bei 850 MHz.

Ich verstehe nicht, was du uns sagen willst.

Hübie
2014-12-20, 13:30:12
Dich wundert die TDP, mich nicht. Die 3,3 werden eh nicht erreicht. In der Praxis läufts bei Profi-Karten etwas anders.

Ailuros
2014-12-20, 13:44:23
Mal als Gedanke. Was wäre wenn der Foundrywechsel aus vertraglicher Notwendigkeit auf die GPU-Sparte kam und nicht weil man es technisch wollte. Was wäre nun wenn man eigentlich TSMC 28nm anstrebte, auf GF 28nm wechselte, dort nicht zum Erfolg kam und nun auf GF 20nm LPM gehen muss.

AMD und NV's top dogs werden auf sich warten lassen nach allen Indizien.

Unicous
2014-12-20, 13:49:28
@Hübie

Mich wundert die TDP?

Es gibt kaum Specs zur W7100 und du behauptest sie taktet eh viel niedriger als die R9 285. Das mag durchaus sein, dennoch hätte ich dazu gerne eine Quelle.

Tonga XT taktet mit bis zu 850 MHz (und Apple hat wohl thermische Probleme) und soll eine TDP von 130 Watt haben. Tonga PRO soll laut dir nochmal leicht darunter liegen und eine höhere TDP haben.

Woher hast du die Informationen? In der Praxis läuft bei "Profi"-Karten was anders? Wir betreten hier gerade esoterische Gefilde.

Dawn on Titan
2014-12-20, 15:50:32
AMD und NV's top dogs werden auf sich warten lassen nach allen Indizien.

Müsse nja auch ne lange Zeit aushalten, wenn sie erstmal da sind.

Nakai
2014-12-20, 16:00:05
Sehe ich prinzipiell auch nicht, auch wenn mir im Detail das wissen zur genauen Beurteilung fehlt.
Klar muss man 2 Masken machen, die kosten schon par zig tausend.


Sicherlich, die Masken kosten Geld. Das tut es immer. Es ist aber weniger ein Problem, als man denkt. Viele IP, vor allem in diesem Bereich, werden bereits für verschiedene Prozesse entwickelt. Es wird auch wohl in Zukunft einfacher gestrickt sein. Synapse und Synopsys bieten bereits IPs für TSMCs 16FF an. Genauso werden viele verschiedene ältere Prozesse unterstützt. Das hängt immer vom Einsatzgebiet ab. Ein Großteil von AMDs APUs, SOCs, und andere Chips verwenden bereits IPs von Synopsys und Synapse, ergo PHYs, Interfaces, Prozessor-IP, etc.

Tonga wäre ohne den IMac Design-Win eine Nullnummer gewesen, jetzt ist er so profitabel, dass es sich gelohnt hat, ihn zu produzieren. Ich vermute, wir sehen Tonga noch als R9 370X o.Ä. Wahrscheinlich wurde in Tonga noch einiges anderes "Fremdes" inkludiert. Ich könnte mir vorstellen, dass noch andere IO-Sachen verbaut sind. Ansonsten ist die R9 285 nur ein Ramsch-Chip, wie effizient Tonga sein kann, sieht man am IMac und an der W7100.

GM200 kommt doch erst als Profi-Chip, der Gaming-Markt braucht erstmal nichts Neues.

Skysnake
2014-12-20, 17:59:08
Nakai, IP gibt es wie Sand am Meer. Die spannende Frage ist aber, funktioniert Sie überhaupt? Und wenn ja, funktioniert Sie auch noch komplett innerhalb der Specs, also gerade auch im Hinblick auf Yields.

"So mal eben" portierst du keinen Chip. Es gibt mehr als genug Firmen, die sich nur darum kümmern, irgendwelche >>180nm Chips auf neuere Prozesse zu portieren, und dabei alle Specs einzuhalten. Das ist bei analogen Schaltungen gar nicht so einfach, und gerade bei so Chips wie GPUs machste nicht einfach mal so nen Multi-Node Ding...

Selbst bei reinen Digitaldesigns müsste bei den Anforderungen an Latenz, Busbreiten und Taktraten ziemlich viel Hand anlegen. Ist ja nicht so, dass das völlig im luftleeren Raum gebaut wird. Wenn nen neuerer Prozess verwendet wird, musste auch einen Vorteil dadurch haben. Reine Shrinks gibts heute eher nicht mehr. Es lohnt einfach kaum.

Und bzgl Synopsis usw.:
Klar, die ganze IP gibts umsonst, und ist auch alles nen 1:1 Replacement... :rolleyes:
Da zahlste dich dumm und dämlich und musst dennoch noch einiges an Arbeit reinstecken. Allein ein Power-delivery-Network oder nen Clocktree zu bauen ist ne heiden Arbeit. Da wird rein gar nichts einfach mal so gemacht.

Nakai
2014-12-20, 18:23:39
Nakai, IP gibt es wie Sand am Meer. Die spannende Frage ist aber, funktioniert Sie überhaupt? Und wenn ja, funktioniert Sie auch noch komplett innerhalb der Specs, also gerade auch im Hinblick auf Yields.


Das schöne an den ganzen IP-Unternehmen ist doch, dass sie alles für einen übernehmen bzw. einen Großteil davon. Und natürlich wird sie wohl funktionieren, wenn bereits Produkte seitens AMD darauf basieren? Ich erwarte natürlich auch Probleme, wenn es zu Mischung von IP geht. Die meiste IP gibt es bereits für viele verschiedene Prozesse, Probleme sehe ich eher bei Kombination Fremd-, Eigen-, bzw. Dritt-IP(Aufbau von Building Blocks, Clock Tree, Routing, Floor Planning, etc.), deswegen arbeitet AMD derzeit sehr stark mit Synopsys bzw. Synapse Design zusammen, um diese Probleme zu beseitigen. Und ebenfalls traue ich AMD, in dieser Hinsicht, genug Expertise zu, welche diese Sachen ermöglichen.

Und bzgl Synopsis usw.:
Klar, die ganze IP gibts umsonst, und ist auch alles nen 1:1 Replacement...
Da zahlste dich dumm und dämlich und musst dennoch noch einiges an Arbeit reinstecken. Allein ein Power-delivery-Network oder nen Clocktree zu bauen ist ne heiden Arbeit. Da wird rein gar nichts einfach mal so gemacht.

Diese Dienstleister übernehmen meistens große Teile der Synthese und Integration.

Skysnake
2014-12-20, 18:58:19
Das schöne an den ganzen IP-Unternehmen ist doch, dass sie alles für einen übernehmen bzw. einen Großteil davon. Und natürlich wird sie wohl funktionieren, wenn bereits Produkte seitens AMD darauf basieren? Ich erwarte natürlich auch Probleme, wenn es zu Mischung von IP geht. Die meiste IP gibt es bereits für viele verschiedene Prozesse, Probleme sehe ich eher bei Kombination Fremd-, Eigen-, bzw. Dritt-IP(Aufbau von Building Blocks, Clock Tree, Routing, Floor Planning, etc.), deswegen arbeitet AMD derzeit sehr stark mit Synopsys bzw. Synapse Design zusammen, um diese Probleme zu beseitigen. Und ebenfalls traue ich AMD, in dieser Hinsicht, genug Expertise zu, welche diese Sachen ermöglichen.

Das kostet aber Ressourcen, und zwar nicht zu knapp, und niemand hat Manpower im Überfluss, sondern das genaue Gegenteil.


Diese Dienstleister übernehmen meistens große Teile der Synthese und Integration.
Und die machen das natürlich komplett umsonst :rolleyes:

Bei IP stehste immer wieder vor den gleichen Problemen.

Ist es wirklich Silicon prooven?
kenne ich alle Specs, bzw habe ich meine eigenen Specs hinreichend genau spezifiziert?
Wie Effizient ist denn die zugekaufte IP denn nun am Ende?

Nur wenn alles zur eigenen Zufriedenheit erfüllt ist, und dann auch noch der Preis stimmt, ist es ein gute Geschäft, aber das ist gar nicht so einfach, und vor allem musst du da richtig Arbeit reinstecken, um diese Fragen überhaupt beantworten zu können.

Die tollste IP bringt dir nichts, wenn Sie zu groß, zu stromhungrig, oder zu schlechte Yields liefert, oder ganz schlicht und einfach doch irgendwo mit deinen Specs kollidiert...

In nem ultra Deep submicron Prozess auch nur irgend ne Schaltung abseits von reinem TRL Digitalzeugs zum Laufen zu bekommen ist alles nur nicht einfach. Es gibt drölf Millionen Gründe warum dir etwas dann doch um die Ohren fliegen kann. Eine Schaltung wirklich vollumfänglich zu charakterisieren ist eine Heidenarbeit, und selbst wenn du ne voll charakterisierte IP bekommst, bei der die Hosen runtergelassen werden, brauchste noch immer Leute, die sich das dann auch anschauen, ob es mit dem eigenen Zeug funktioniert. Da ist nichts, aber auch rein gar nichts "mal eben" gemacht. Das artet alles immer unglaublich schnell aus.

Nakai
2014-12-20, 19:13:58
Und die machen das natürlich komplett umsonst

Selbstverständlich nicht. :freak:

Ich will hier blos dagegen halten, dass es immer als so schwierig angesehen wird. Es muss viel getan werden, ja, vor allem bei fetten Designs, wie GPUs, APUs und große SOCs.

Nur wenn alles zur eigenen Zufriedenheit erfüllt ist, und dann auch noch der Preis stimmt, ist es ein gute Geschäft, aber das ist gar nicht so einfach, und vor allem musst du da richtig Arbeit reinstecken, um diese Fragen überhaupt beantworten zu können.

Es ist Arbeit, welche getan werden muss. Synapse/Synopsys gehen auch nicht zum Spaß Partnerschaften mit AMD ein. Einerseits will die eigene IP erweitern und selber Expertise sammeln. APUs bzw. SOCs sind da ein interessantes Feld, was in der Zukunft noch weiter expandiert wird. Vor allem mit HBM oder andere Stacking-Optionen müssen IP-Firmen ihr KnowHow verbessern. Dienstleister eben...

Ein interessanter Punkt ist Kaveri -> Carrizo. Einerseits wurde die SB integriert und andererseits die NB bzw. IO deutlich geändert. Das ist imo schon der Hauptpunkt von Carrizo. Ich vermute, dass in Carrizo sehr viel IP von Synopsys steckt.

Skysnake
2014-12-20, 19:40:29
Ja, das fällt aber alles nicht vom Himmel, und als "early Adopter", die AMD usw definitiv sind, immerhin sind sie ja immer mit die ersten, die dann was fettes bringen, spielste in einer ganz anderen Liga. Du hast ja im Normalfall noch gar kein funktionierenden Chip mit den Schaltungen usw. Das ist ja alles noch im Fluss und wird dann innerhalb des Projekts entwickelt.

Die werden da sehr sehr eng zusammenarbeiten, und es ist ja auch durchaus gut für Firmen wie AMD, das es Firmen gibt, die IP verkaufen, und daher Ingis haben, die sich mit allen möglichen Schaltungen verdammt gut auskennen. Das beschleunigt den Designprozess natürlich, aber die wollen eben am Ende auch Geld sehen, und AMD muss auch besondere Ergebnisse haben, ansonsten setzt man sich nicht von der Konkurrenz ab, und immer nur hinterherlaufen ist auch nicht Sinn und Zweck der Sache.

Hübie
2014-12-20, 23:35:55
Ich hatte das so herausgelesen, Unicous. Gleiche specs aber zwei TDP - Angaben hattest du ja hingeschrieben. Und dann halt dein smiley.
Die 842 MHz hatte ich aus Tonga extrapoliert. Erfahrungsgemäß ist es so dass die Quadros z. B. eher am unteren Ende des Nenntaktes agieren. Obwohl es da teilweise auch keinen boost gibt. Da Tonga Pro bei 842 MHz beginnt vermute ich einfach das die TDP einerseits durch selektierte Chips und geringeren Takt "entsteht". Sind typische von bis Angaben. Je nachdem was marketing-technisch besser passt. Hatte wenig Zeit, daher knappe Sätze ;)
Ich kann gerne mal in unserer Entwicklungsabteilung nachfragen, denn soviel ich weiß kommt im Frühjahr ein Schwung neuer Systeme.

fondness
2014-12-21, 10:50:34
Zarte Andeutung von Mark Papermaster:

So you’ll see continued very, very strong graphics, we’ll have a refresh that you’ll see, that we’ll talk about later in 2015 that we are excited about.

http://seekingalpha.com/article/2743255-advanced-micro-devices-amd-management-presents-at-barclays-global-technology-conference-transcript?page=4

Skysnake
2014-12-21, 11:11:51
hmmm...

Das klingt nicht wirklich so, als ob etwas in H1 kommen würde. Das wäre ziemlich schade.

N0Thing
2014-12-21, 11:21:17
Refresh klingt für mich auch nicht nach was Neuem, sondern nach einer Neuauflage bekannter Hardware. Normalerweise wird im Marketing Blabla immer von "something new" geredet.

fondness
2014-12-21, 11:30:04
Habe ich mir auch gedacht. Allerdings ist Papermaster kein Markting-Mann sondern CTO, und die Aussagen kommen auch von einer Technology Conference.

AffenJack
2014-12-21, 11:40:14
And what I am excited about going forward is that you go into 2016 and beyond. Now you will start to see the benefit of those new IPs that they have a long lead-time development. So new CPU cores, new graphics substations with yet again much higher performance per watt,

http://seekingalpha.com/article/2743255-advanced-micro-devices-amd-management-presents-at-barclays-global-technology-conference-transcript?page=6

Dieser Teil spricht auch von "Grafik Substations" die ich als neue Architektur mit viel mehr Perf/W interpretieren würde. Es ist für mich unklar ob er damit nur die 2016 Produkte meint oder ob man da erst die ganze Bandbreite der Entwicklungen sehen wird, da die neuen CPU Sachen erst 2016 kommen. Kann aber auch sein, dass 2015 nur eher Refreshes sein werden und 2016 mit Finfet dann nen größerer Architektursprung.

horn 12
2014-12-21, 13:10:28
Somit duerfte Fiji nur ein Aufguss werden und wohl 25 bis 30% auf eine R9 290X drauflegen koennen, genug um mit der GTX 980 Paroli bieten zu koennen und erst im 2-ten Halbjahr erst Bermuda antreten.
Haette mir einen richtig fetten GPU Chip auch im Maerz erhofft und somit meine R9 290 Referenz karte ersetzt.
Ob Fiji fuer mich ausreichend genug ist, sprich wirkt, vor allem da bei mir 2015 ein UDH Monitor ansteht.

Ailuros
2014-12-21, 16:29:58
http://seekingalpha.com/article/2743255-advanced-micro-devices-amd-management-presents-at-barclays-global-technology-conference-transcript?page=6

Dieser Teil spricht auch von "Grafik Substations" die ich als neue Architektur mit viel mehr Perf/W interpretieren würde. Es ist für mich unklar ob er damit nur die 2016 Produkte meint oder ob man da erst die ganze Bandbreite der Entwicklungen sehen wird, da die neuen CPU Sachen erst 2016 kommen. Kann aber auch sein, dass 2015 nur eher Refreshes sein werden und 2016 mit Finfet dann nen größerer Architektursprung.

Afaik sieht AMD unter Pirate/Carebeean/Mirscheissegalwieichheisse eine neue Aera mit HBM, welches auch nicht ungerechtigt ist. Es faengt relativ bescheiden an und wird wie zu erwarten mit der Zeit skalieren. Ein Pessimist wird daraus nur sehr wenig lesen, ein Optimist sehr viel. Jemand mit einfacher Logik weiss wie weit AMD fuer den naechsten Schub innherhalb 2015 wirklich gehen kann.

Godmode
2014-12-21, 17:10:21
AMD und NV's top dogs werden auf sich warten lassen nach allen Indizien.

Von daher war die 980 doch kein so großer Fehlkauf. Momentan würde ich GM200 nichtmal kaufen, da ich eh keine Zeit zum Spielen habe.

Weiß man was die Verzögerung verursacht?

Agent117
2014-12-21, 18:17:41
Nein, weiß man nicht, dafür gibt es zu viele Unbekannte.
Vlt gibt es zumindest was Fiji betrifft auch keine Verzögerung und er kommt im Q1 15 (sofern das nicht später ist als mal geplant).
Wenn Fiji, wie in der berühmten Synapse Design Folie behauptet, in 28nm TSMC >500mm² kommt, hat eine etwaige Verzögerung vmtl was mit HBM zu tun. (Kann aber auch trotz bekannten Prozess kaputter Chip --> Respin sein)

Der ursprüngliche Plan seitens AMD wird doch gewesen sein, die Rohleistung von Hawaii in etwa zu verdoppeln; das war alle Generationen bisher so( Refreshgenerationen wie die HD 6000er oder R9 200er Serie ausgenommen)
Das sähe dann wie folgt aus: (Alles nur Spekulation)

Bermuda: 88CU Compute Chip HBM 400-450mm²
Fiji: 64CU reiner Gaming Chip HBM 250-300mm²
Tonga: 32 CU reiner Gaming Chip GDR 180 - 200mm²
vlt noch Hawaii für die Lücke mit 384 Bit Package

Ursprünglich sollten die 3 neuen Chips mal in 20nm gefertigt werden ob bei TSMC oder GF weiß man nicht.

Nun war absehbar dass das mit 20nm nicht rechtzeitig was wird.
Tonga und Fiji legte man deshalb in 28nm TSMC auf, bei Fiji ging das wegen vmtl 500 - 550mm² noch gerade so; Bermuda ist zu groß.

Klar war ja auch dass Nvidia GM204 zuerst bringen wird und GM200 fürs Gaming Segment, solange er konkurenzlos dasteht, sehr teuer verkauft wird, wenn überhaupt.
Dann wollte man vlt Fiji, in etwa zeitgleich mit Tonga, gegen GM204 stellen, diesen auch deutlich schlagen und im professionellen Segment mit Bermuda in 20nm später 2015 angreifen. Gm200 wird da Hawaii nicht bedeutend schlagen können; der Handlungsbedarf ist also nicht so sehr groß.

Alles nur Spekulation. Im Worst Case gibt es keinen Bermuda mit 88CU sondern nur einen Fiji (dann auch für Compute mit 1/2 DP Rate) mit 64CU und HBM der sich bis Sommer/Herbst 2015 verspätet und Gm204 und GM200 bleiben bis dahin konkurenzlos.

Nakai
2014-12-21, 19:14:22
Ich vermute, AMD hat ihre neuen GPUs von TSMC zu GF transferiert, um HBM zu ermöglichen. TSMC scheint in dieser Hinsicht etwas nachteilig zu sein. Ergo heißt das eine Verschiebung um 3~6 Monate.

Nun die große Frage: Welcher Prozess? Ich vermute 28SHP oder 28HPP. Eventuell kommt sogar was in 20nm von GF, aber das erst später.

Unicous
2014-12-21, 19:29:49
Bitte was?:eek:

Eine Verschiebung von 3-6 Monaten? Transferierung? Von einer Fab zu einer fremden Fab? Anderes Tooling, andere Design-Philosphie... und Zeugs?

Muahahaha.

Hau noch mal 6 Monate drauf und dann wird es einigermaßen realistisch. Vom Zeitrahmen.

Du transferierst nicht einfach mir nichts dir nichts ein GPU-Design mit einem fetten Die. Das klappt vllt. einigermaßen bei Kabini und Co. (und auch da geschieht das nicht auf magische Weise in in einem halben Jahr) aber nicht bei großen Designs. Selbst Apple springt nicht einfach mit einem Design zwischen den Fabs umher auch wenn sie die Kapazität durchaus brauchen könnten.

Hinzu kommt, dass GF unter 28nm noch Gate First nutzt, TSMC schon lange ihre Chip im Gate Last Prozess fertigt. Bei 28nm mMn also no way. Bei 20nm auch no way, denn es gab nie Kapazitäten für AMD.

robbitop
2014-12-21, 19:33:01
Wenn man schon etwas um 6 Monate verschiebt, sollte man IMO gleich 20 nm nehmen.

Ansonsten denke ich, dass ein IHV Prozess und Fertigungspartner schon recht langfristig vor der Massenproduktion wählt. Also egal in welchem Prozess die neue Generation erscheint - die Entscheidung dafür ist sicher schon sehr sehr lange getroffen worden.

Nakai
2014-12-21, 19:38:13
Hinzu kommt, dass GF unter 28nm noch Gate First nutzt, TSMC schon lange ihre Chip im Gate Last Prozess fertigt. Bei 28nm mMn also no way. Bei 20nm auch no way, denn es gab nie Kapazitäten für AMD.

Mhh, immerhin hat man schon Kaveri in einem GF-Prozess gefertigt. Aber dennoch, Gate First vs. Gate Last, da sollte Gate Last doch eine höhere Dichte besitzen? Ansonsten, Ja, es würde nochmal deutlich länger dauern...


Wenn man schon etwas um 6 Monate verschiebt, sollte man IMO gleich 20 nm nehmen.

Ansonsten denke ich, dass ein IHV Prozess und Fertigungspartner schon recht langfristig vor der Massenproduktion wählt. Also egal in welchem Prozess die neue Generation erscheint - die Entscheidung dafür ist sicher schon sehr sehr lange getroffen worden.

Vll, doch gleich 20nm? Egal, ich erwarte so schnell kein HBM hier. Eventuell sehen wir doch bald was. Ganz 2014 kein neuer Chip (bis auf Tonga), der irgendwie etwas gebracht hat.

Unicous
2014-12-21, 19:40:38
Ansonsten denke ich, dass ein IHV Prozess und Fertigungspartner schon recht langfristig vor der Massenproduktion wählt. Also egal in welchem Prozess die neue Generation erscheint - die Entscheidung dafür ist sicher schon sehr sehr lange getroffen worden.

Sehr richtig. Und Apple hat sicherlich die Knebel nochmals deutlich früher angezogen und einen Vertrag aufgesetzt. Aber das heißt ja nicht, dass TSMC nicht doch dem einen oder anderen Kunden Kapazitäten "später" angeboten hat.
Nur ist man als "Bestandskunde" sicherlich deutlich vorsichtiger seit der 32nm Misere geworden.:rolleyes:


@Nakai

Warum sollte man Kaveri nicht bei GF fertigen? Oder meinst du den Kabini Port. Wie gesagt Gate Last -> Gate First. Komplett neues Design. Kabini als komplett synthetisiertes Design hat es da aber sicherlich leichter "geported" zu werden.

Grabhopser
2014-12-21, 20:33:44
Aber dennoch, Gate First vs. Gate Last, da sollte Gate Last doch eine höhere Dichte besitzen?


Ganz im Gegenteil mit Gate-Last verlierst du ca. 10-20% Packdichte…

Bei 20nm stellt sich die Frage aber nicht mehr, da GF dort auch auf Gate-Last setzt.

Nakai
2014-12-21, 20:38:29
@Nakai

Warum sollte man Kaveri nicht bei GF fertigen? Oder meinst du den Kabini Port. Wie gesagt Gate Last -> Gate First. Komplett neues Design. Kabini als komplett synthetisiertes Design hat es da aber sicherlich leichter "geported" zu werden.

Nein, ich meinte das nicht. Es gibt Density Unterschiede zwischen Gate Last und Gate First. Gate First sollte 10~20% höhere Dichte ermöglichen, aber auch andere Probleme mit sich bringen. GF hat nur Gate First 28nm-Prozesse(ich hoffe ich erzähle keinen Unsinn). Bei 20nm benutzt GF auch Gate Last. Und klar, natürlich ist da alles unterschiedlich. Der gesamte Gate Stack ist uterschiedlich.

Kaveri wird ja bei GF gefertigt, dementsprechend meinte ich, dass man bereits Erfahrung mit GPU-Fertigung für GF hat. Dennoch ist Kaveri ein SOC und daher ist die Vergleichbarkeit wieder problematisch.

Es schwirren auf Zauba viele GPUs von AMD derzeit rum, mit Kennungen, welche schwer zu zuordnen sind. Ich hoffe einfach mal, dass das Schweigen bald gelüftet wird.

€:
Ganz im Gegenteil mit Gate-Last verlierst du ca. 10-20% Packdichte…

Ich hatte es vorhin genau anders im Kopf.

Unicous
2014-12-21, 21:08:59
Soweit ich mich erinnern kann, war Gate First nötig um SOI überhaupt nutzen zu können, weil weniger "Metallschichten" benötigt werden und man dadurch auch die zusätzlichen Kosten ausgleichen konnte. Darüber hinaus wurde auch die höhere Packdichte angepriesen (da wird aber immer wieder debattiert, ob es der Wahrheit entspricht). e: Ich bin gerade unsicher, ob durch Gate First nicht auch höhere Spannungen nötig sind, als bei Gate Last... (Gate Last hat ca. 100mV geringere Schwellenspannung, also ein ordentliches Pfund)

Wie man aber bei GFs 32nmSOI (und theoretisch auch bei IBM) sieht, ist der Plan nicht sonderlich gut aufgegangen.

Dahingehend wäre ein 20nm Prozess-Vergleich sehr spannend... aber leider wird das irgendwie nichts.

reaperrr
2014-12-21, 22:43:19
Zum Thema Stromverbrauch an dieser Stelle, die Tonga-basierte FirePro W7100 kommt mit einem 6-Pin Anschluss aus, hat nur einen Single-Slot Kühler und der Verbrauch wird mit <150W angegeben. Die Radeon 285 reizt den Chip in Sachen Perf./Watt also wirklich nicht annähernd aus. Demnach sollte Fiji mit den kolportierten Specs abzüglich ~50W für die Einsparungen durch HBM tatsächlich in 250W TDP unterzubringen sein.

Nightspider
2014-12-21, 23:09:05
Ich vermute, AMD hat ihre neuen GPUs von TSMC zu GF transferiert, um HBM zu ermöglichen. TSMC scheint in dieser Hinsicht etwas nachteilig zu sein. Ergo heißt das eine Verschiebung um 3~6 Monate.

Nun die große Frage: Welcher Prozess? Ich vermute 28SHP oder 28HPP. Eventuell kommt sogar was in 20nm von GF, aber das erst später.

Du hast echt eine sehr wilde Fantasie. Wirklich stichhaltig ist aber nichts von dem was du da für Spekulationen in den Raum wirfst. Das macht einfach keinen Sinn wie die anderen schon sagen.

Nakai
2014-12-21, 23:26:50
http://forums.anandtech.com/showpost.php?p=37012489&postcount=227

Ja, anscheinend ist ein 28nm Chip auf dem Weg, welcher HBM verwendet. Und es wird ~500mm² angegeben,

Klingt nach Fiji. Was war dann der Chip auf der Synapse Folie? 28HPM deutet eindeutig auf TSMC hin, außer es war absichtlich falsch geschrieben, oder sonst allgemeine Fehlinfo. Man könnte nun viel hinein interpretieren, aber es war niemals sichergestellt, dass es sich um Fiji und Tonga gehandelt hat. NV scheint kein Kunde von Synapse Design zu sein und eher selber die Chips validieren.

@Unicous:
Ich bin auch nur ein Laie und bekomm vieles in den falschen Hals. Aber ein Wechsel zwischen Gate Last und Gate First wäre schon ziemlich dramatisch. Da muss wirklich alles neu gemacht werden.

Zuerst bringt GF 20nm Gate Last und später womöglich noch Gate First. Für SOI sieht Samsungs FDSOI 28nm interessant aus. Womöglich hauptsächlich für Mobile.

Also 20nm schätze ich, wegen dem Oberen, als ziemlich unwahrscheinlich, vor allem wegen HBM und einem 500mm²-Die. Fiji mit GF28HPP und Gate First scheint interessant zu sein. Ob man von der höheren Packdichte von 10~20%, dank Gate First, profitieren kann, wird interessant.

Skysnake
2014-12-22, 00:00:41
Was soll denn bitte der Analog, oder gar RTL Designer denn bitte alles neue machen müssen, wenn man von Gate-first auf Gate-last wechselt? :rolleyes:

Also rein von meinem Kenntnisstand ändert sich selbst für nen Analogdesigner erstmal rein gar nichts. Man muss sich "nur" darüber im klaren sein, dass der Prozess eben anders abläuft, und es daher andere Fehlerquellen geben kann. An sich ist das aber vor allem ein Problem der FABs und eben der Tool Hersteller, die die Prozesse, Tools und Modelle validieren müssen.

Soweit ich mich erinnern kann, war Gate First nötig um SOI überhaupt nutzen zu können, weil weniger "Metallschichten" benötigt werden und man dadurch auch die zusätzlichen Kosten ausgleichen konnte. Darüber hinaus wurde auch die höhere Packdichte angepriesen (da wird aber immer wieder debattiert, ob es der Wahrheit entspricht). e: Ich bin gerade unsicher, ob durch Gate First nicht auch höhere Spannungen nötig sind, als bei Gate Last... (Gate Last hat ca. 100mV geringere Schwellenspannung, also ein ordentliches Pfund)

Gate fist/laste hat apriori rein gar nichts mit SOI zu tun. Das kann man völlig unabhängig voneinander betrachten. Gate-laste wird nur deswegen nötig, weil sich bei den kleinen Strukturen während der Fertigung durch die starken Temperaturschwankungen so hohe Verspannungen aufbauen, dass die Gates kaputt gehen können, bzw eben die Streuung der Transistoren sooo groß wird, dass du mit den Transistoren keine venünftigen Prozesse mehr realisieren kannst, einfach wegen den großen Schwankungen.

Gate-laste bedeutet ja "nur", das man erstmal ein Dummygate aufbringt, dann den Inplant von Drain und Source macht, welche sehr hohe Temperaturen benötigen, und dann danach eben wieder das Dummygate abträgt und das finale Gate aufbringt.

Ailuros
2014-12-22, 00:06:52
Gate fist/laste hat apriori rein gar nichts mit SOI zu tun.

Hat auch nichts mit Prozess-technologie zu tun so wie es da steht. Muss irgend eine italienische Schweinerei sein :freak:

Spass beiseite wer und warum hat genau Zweifel dass AMD's kommende GPUs auf 28nm hergestellt werden?

fondness
2014-12-22, 00:22:06
Niemand.

Unicous
2014-12-22, 00:42:37
@Skysnake

Darum geht es nicht. Du brauchst mir nicht den Unterschied zwischen Gate Last und Gate First erklären... der Name ist im Gegensatz zu anderen Prozesstechniken geradezu explizit.

Zu der Zeit, als entschieden wurde weiterhin Gate First und SOI beim 32nm Prozess zu nutzen, hatten die Briefköpfe noch drei Buchstaben. IBM und AMD haben beide Architekturen mit hochfrequenten Chips designt und brauchten SOI um den Takt hoch und Leakage niedrig zu halten. SOI und Gate Last ist einfach viel zu teuer und iirc erhöht sich auch der "Stress" auf den Wafer, daher ist es nicht so gut für Gate Last geeignet.

@Nakai

Nvidia validiert seine Chips, wie u.a. auch AMD mit Hilfe von Synopsys, Mentor Cadence und Co. Niemand macht das "selbst".

Das verlinkte Video... hatte ich schon verlinkt.

Agent117
2014-12-22, 00:54:53
Spass beiseite wer und warum hat genau Zweifel dass AMD's kommende GPUs auf 28nm hergestellt werden?

Naja wenn man die wccftech benchmarks nicht sicher als fake betrachtet und laut diesen noch ein schnellerer Chip als Fiji mit seinen schon 500-550mm2 in der Pipeline ist, dann wird ein solches in 28nm, bestimmt 700mm² großes Monstrum doch eher nicht in 28nm hergestellt werden.
Irgendwann ist halt Schluss bei 600 - 650mm².

Nakai
2014-12-22, 01:21:11
@Nakai

Nvidia validiert seine Chips, wie u.a. auch AMD mit Hilfe von Synopsys, Mentor Cadence und Co. Niemand macht das "selbst".


Interessant.

Das verlinkte Video... hatte ich schon verlinkt.

Dann Credits zu dir.

Skysnake
2014-12-22, 01:25:53
@Skysnake

Darum geht es nicht. Du brauchst mir nicht den Unterschied zwischen Gate Last und Gate First erklären... der Name ist im Gegensatz zu anderen Prozesstechniken geradezu explizit.

Zu der Zeit, als entschieden wurde weiterhin Gate First und SOI beim 32nm Prozess zu nutzen, hatten die Briefköpfe noch drei Buchstaben. IBM und AMD haben beide Architekturen mit hochfrequenten Chips designt und brauchten SOI um den Takt hoch und Leakage niedrig zu halten. SOI und Gate Last ist einfach viel zu teuer und iirc erhöht sich auch der "Stress" auf den Wafer, daher ist es nicht so gut für Gate Last geeignet.

@Nakai

Nvidia validiert seine Chips, wie u.a. auch AMD mit Hilfe von Synopsys, Mentor Cadence und Co. Niemand macht das "selbst".

Das verlinkte Video... hatte ich schon verlinkt.
Gate first ist halt bisher immer verwendet worden, und genau deswegen wollte GF/IBM das auch weiter verwenden, weil man eben perfektes selfallignment von Drain und Source hat. Bei Gate last haste ja das Problem, dass du das neue Gate an der gleichen Stelle wie das dummy gate wieder herstellen musst/willst. Da gab es zeitweise große Zweifel, dass das ordentlich geht. Zudem haste halt auch neue Tools gebraucht usw. Das hat aber nichts mit SOI zu tun, zumal, soweit ich mich erinnere, der inplant für die Wannen vor allem anderen stattfindet. Also das Gate eh gar nicht direkt beeinflusst.

Hierzu auch mal noch die zwei Links. Mehr gibt es dazu nicht zu sagen, insbesondere der erste Link sollte klar machen, das SOI und gate last absolut kein Widerspruch sind.

http://www.goldstandardsimulations.com/index.php/news/blog_search/fd-soi/
http://scsong.wordpress.com/2010/03/10/gate-first-or-gate-last-technologists-debate-high-k-2010-03-10-154115-semiconductor-international/

Unicous
2014-12-22, 01:45:46
@Nakai

Nix Credits (kann sich davon was kaufen?:eek: Ist die Standard-Währung bei Star Wars). Ich habe es hier einfach schon verlinkt, es dürfte also keine Neuigkeit an sich sein.:wink:

Die Schlussfolgerungen die der Typ bei AT zieht sind auch völliger Blödsinn, die copper bumps sind völlig nebensächlich wenn das Interposer test vehicle nur einen large die hat der 324mm² groß ist und sie Probleme beim yield haben, je größer die dies bzw. der Interposer ist.

Ist jedenfalls keine Bestätigung für ein Endprodukt.


@Skysnake

Was soll denn das schon wieder? Niemand hat gesagt, dass Gate Last und SOI "unmöglich" ist. Es geht einfach um die Kosten. Vor denen hat Intel sich auch gesträubt und hat sich für FinFET entschieden (wobei ich mich frage, was im Endeffekt teurer gewesen wäre). Da 28nm der neue Mainstream-Prozess wird und man schaut ob man es mit FD-SOI noch etwas aufpeppt ist klar, dass man auch guckt ob man Gate Last nutzen könnte.
Rein von den Kosten wird sich dafür aber sicherlich kaum ein Kunde finden.

Sinnlos sich darüber zu streiten.

Skysnake
2014-12-22, 02:23:38
Aha, dann ist das wohl reine Einbildung von mir, dass du das hier geschrieben hast.

Soweit ich mich erinnern kann, war Gate First nötig um SOI überhaupt nutzen zu können, weil weniger "Metallschichten" benötigt werden und man dadurch auch die zusätzlichen Kosten ausgleichen konnte. Darüber hinaus wurde auch die höhere Packdichte angepriesen (da wird aber immer wieder debattiert, ob es der Wahrheit entspricht). e: Ich bin gerade unsicher, ob durch Gate First nicht auch höhere Spannungen nötig sind, als bei Gate Last... (Gate Last hat ca. 100mV geringere Schwellenspannung, also ein ordentliches Pfund)

Wie man aber bei GFs 32nmSOI (und theoretisch auch bei IBM) sieht, ist der Plan nicht sonderlich gut aufgegangen.

Dahingehend wäre ein 20nm Prozess-Vergleich sehr spannend... aber leider wird das irgendwie nichts.
Du schmeist da einfach viele Dinger durcheinander. Klar sind Kosten eine Frage, aber mit Gate-First haste auch kosten, weil du eben höhere Streuungen von V_TH hast im Vergleich zu Gate-last.

Hat ja auch durchaus seine Gründe, warum Gate-last am Ende doch von allen verwendet werden wird.

Dawn on Titan
2014-12-22, 09:15:11
Ich würde den HBM Hypezug für 2015 in den Bahnhof fahren.

Unicous
2014-12-22, 12:04:43
Ach Skysnake.

Natürlich wird Gate Last verwendet weil es deutliche Vorteile bietet, aber auch deutlich teurer (schwieriger zu fertigen) ist als Gate First. Genau deswegen wurde SOI verwandt um den Nachteilen die Gate First gegenüber Gate Last (für IBM und AMD) entegegen zutreten. Deine Rechthaberei ist völlig daneben. Es gibt defacto keine High Volume Gate Last+SOI Produkte. Das könnte, muss sich aber nicht mit FD-SOI ändern. Samsung jedoch wird weiterhin auf Gate First setzen und daher denke ich wird auch GF (falls sie 28nm Bulk auf FD-SOI "umtoolen") bei Gate First bleiben. FD-SOI bietet Kostenvorteile, die Priorität vor den Performance-Vorteilen von Gate Last haben. Nicht umsonst wird dabei der 20nm Prozess gegengerechnet und die Common Platform hatte sich ja ab 20nm auf Gate Last geeinigt.

Was in Zukunft geschieht, liegt weiterhin in den Sternen. Man denkt jedenfalls über 14nm FD-SOI nach.

Skysnake
2014-12-22, 13:41:48
An sich hatte ich ne längere Antwort darauf geschrieben, aber vergiss es einfach. So lange klar ist, das SOI und Gate-first/last erstmal nichts miteinander zu tun haben, und mehr oder weniger nach belieben gemischt werden können, ist meine Intension erfüllt.

horn 12
2014-12-22, 13:47:34
Wie gross stehen die Chanchen dass wir Fiji zur CES sehen werden, oder zumindest Ende Jaenner 2015 mit Hardlaunch ?

ndrs
2014-12-22, 13:55:18
genau (37,48 + pi/4)%. Es sei denn es regnet vorher nochmal in Bielefeld während Westwind herrscht und in China noch genau drei Säcke Reis umfallen. Dann verdoppelt sich die Chance.

Unicous
2014-12-22, 15:08:12
ist meine Intension erfüllt.

Wenn du meinst, dass sich deine Anspannung und dein Eifer (http://de.wiktionary.org/wiki/Intension) gelöst haben, bin ich auch mehr als froh.:rolleyes:

Ailuros
2014-12-22, 16:02:46
Naja wenn man die wccftech benchmarks nicht sicher als fake betrachtet und laut diesen noch ein schnellerer Chip als Fiji mit seinen schon 500-550mm2 in der Pipeline ist, dann wird ein solches in 28nm, bestimmt 700mm² großes Monstrum doch eher nicht in 28nm hergestellt werden.
Irgendwann ist halt Schluss bei 600 - 650mm².

Seit wann haben die Deppen bei wccftech irgendwelche "Quellen" oder noch schlimmer sogar eigene benchmark Resultate von unveroeffentlichten Produkten? Der grosse chip (nennt ihn wie Ihr wollt) wird nicht vor Fruehling antanzen, es ist nicht das neue Zeug daran schuld und ich bezweifle auch dass es mit dem Prozess zu tun hat.

Agent117
2014-12-22, 18:18:42
Und ich dachte die Chinesen bei Chiphell sind sehr zuverlässig:biggrin: Nein Spaß.

Keine Probleme mit HBM und wahrscheinlich auch nciht mit dem Prozess.
Bei Tonga IP dann vlt doch die Abwärme; wäre in meinen Augen ein absolutes No Go wenn die Partner keine leisen Luftkühler draufkriegen und Fiji nur sinnvoll mit Kompakt Wakü zu kühlen ist.

Ailuros
2014-12-22, 18:25:30
Chiphell ist eher 50:50. Es reicht mir aber wenn die Haelfte davon auch stimmt. Die Gruenen gedeihen den top dog wohl eher im HPC Gewachshaus in der Zwischenzeit und die 204 Kuh bekommt vielleicht noch eine drite unerwartete Titte.