PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Unicous
2014-11-14, 03:14:30
Häh? Was verpasse ich gerade?

Die gleiche Fiji vom 7.November und eine alte Matrox Parhelia, wo siehst du eine weitere Fiji?

Nakai
2014-11-14, 16:24:06
Häh? Was verpasse ich gerade?

Die gleiche Fiji vom 7.November und eine alte Matrox Parhelia, wo siehst du eine weitere Fiji?

Das war gestern schon zu spät...ja. Eigentlich wollte ich das hier posten:

http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d994d0f0a2c3a7c2adc3e3a4d6b7c7afc6a5d6f097aa87b690e2dfef c9a09dbbd3eec8b08dabceab96a680f3cefe&l=de

http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcbfed8b9d8e5d6e2d5e3c5b78aba9cf99ca191b7c4f9c9&l=de

http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfcdabbdae7d5e1d1e5d2e6c0b28fbf99fc99a494b2c1fccc&l=de

Unicous
2014-11-14, 16:29:56
Hmm, ja gut. Und warum ist das eine "weitere" Fiji? Ich sehe da maximal weitere Skalierungstests und tippe mal auf das gleiche System.


(Und was ich auch noch sagen möchte: Sisoft Sandra hat einer der dilettantischen Auftritte die ich kenne. Nichts funktioniert ordentlich und mit das Wichtigste fehlt: eine Suche. Und die gesamte Website sieht aus als wäre sie in den 90er stehengeblieben)



AMD bekommt weiterhin Geld vom DoE für Fast Forward (2). Das DoE scheint aber noch einmal ordentlich aufgestockt zu haben (außer es ist ein dreijähriger Vertrag e:...LOL es ist ein dreijähriger Vertrag ;D)

http://finance.yahoo.com/news/amd-awarded-32-million-extreme-160907393.html

HOT
2014-11-14, 23:11:54
Cool mit einem Crosshair IV Formula, wahrscheinlich mit K10 getestet, weil FX darauf nicht doll laufen.

horn 12
2014-11-15, 15:20:06
http://www.redgamingtech.com/amd-r9-380x-february-r9-390x-370x-announced/

Nakai
2014-11-15, 15:32:31
Die News ist alt und nicht wirklich richtig. Fiji ist der Topdog und nicht Bermuda. 20nm wird nur für APUs genutzt.

HOT
2014-11-15, 16:03:43
Wär auf jeden Fall ne riesen Überraschung, wenn Fiji nicht Top-Dog wär. Im Moment ist aber alles möglich.

Nakai
2014-11-16, 22:58:43
Wär auf jeden Fall ne riesen Überraschung, wenn Fiji nicht Top-Dog wär. Im Moment ist aber alles möglich.

Naja Sisoft sollte man erstmal nicht einbeziehen. Es ist schon lächerlich, was hier fehlerkannt wird:
http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfddbbadbe6deeddaeed6f082bf8fa9cca994a482f1ccfc&l=de

Interessant ist zwar, dass ein 384Bit SI und 3GB angezeigt werden, aber wie wir wissen ist Sisoft etwas buggy.

Ahja, Fiji ist 25% größer und bringt 45% mehr SPs und HBM. Wenn HBM tatsächlich 50W sparen könnte, wäre Fiji vom Verbrauch etwas über 50W.
AMDs Folie ist da sehr kryptisch. Man vergleicht 512Bit GDDR5 8Gbps mit 4xHBM(4096Bit wie Fiji ;)) 1Gbps. HAwaiis SI ist zwar so breit, aber 8Gbps GDDR5 wird nicht wirklich unterstützt. Der Speicher auf Hawaii sollte eh schon deutlich weniger verbraten. ICh könnte mir vorstellen, dass HBM auf Fiji eher 20~30 W-Einsparung, ausgehend von Hawaii, bringt. Ohne andere Effizienzverbesserung kann Fiji locker mal 300W schlucken. Kein Wunder, dass man langsam in Wasserkühlungsregionen geht.

fondness
2014-11-17, 17:40:05
Also wenn das stimmt kommt Fiji wohl nicht so bald:

AMD preparing faster Hawaii GPU: XTX, XTL or XT2, no matter how it’s called, is supposedly a faster Hawaii variant that is being prepped for few months now. Today Fudzilla reports AMD may finally launch this processor early next year, right before flagship Fiji silicon.

The new Hawaii-based graphics card would probably fall into Radeon R9 300 series, otherwise it wouldn’t really make any sense. Hawaii XTX was previously planned as Radeon R9 295X (this was the actual codename), but right now Radeon R9 380X is what we expect to see.

NVIDIA has completed its roadmap for this year. There are no new graphics card planned for this and next month. Maxwell GM200 is not expected to launch before Fiji, and GeForce GTX 960 was never planned for November (that’s why we never posted the rumors).

That said we shall expect at least 5 graphics cards in first quarter of 2015: R9 390(X), R9 380(X) and GTX 960. As for GM200 (TITAN II) we are still waiting for solid information.

http://videocardz.com/54065/amd-preparing-faster-hawaii-gpu
http://www.fudzilla.com/home/item/36326-amd-to-launch-faster-hawaii-iteration

Unicous
2014-11-17, 17:45:07
Erstens: Eine VCZ-Meldung die sich auf einen FUD-zilla Artikel... da weiß man gar nicht wem man mehr misstrauen sollte.
Zweitens steht da, early next year, right before [Fiji].

Dein Kommentar korreliert nicht mit dem Geschriebenen.

fondness
2014-11-17, 17:46:16
Man bringt wohl kaum ein paar Wochen vor Fiji noch einen neuen Hawaii. Andererseits könnte der Chip auch parallel zu Fiji als Rebrand mit etwas mehr Takt kommen und die neue R9 3xx Serie einleuten.

horn 12
2014-11-17, 18:16:39
Oder aber man will mit Fiji uns KUNDEN recht toll MELKEN
und die Hawai XTX kann es mit der GTX 980 aufnehmen 1200+ Mhz und wohl selektierte Chips, oder gar im Neuen Verfahren!

Nakai
2014-11-17, 18:50:35
Man bringt wohl kaum ein paar Wochen vor Fiji noch einen neuen Hawaii. Andererseits könnte der Chip auch parallel zu Fiji als Rebrand mit etwas mehr Takt kommen und die neue R9 3xx Serie einleuten.

Ein Hawaii mit 384Bit SI, DCCompression und niedrierem DP:SP-Ratio wäre doch was. Ich erwarte eher eine Sparversion mit reduziertem SI und sonst nichts.

Dawn on Titan
2014-11-17, 18:52:03
Ich denke Hawaii XTTX wird GM204 locker dominierne und Fiji GM200.

fondness
2014-11-17, 19:00:28
Falls noch nicht gepostet, HBM-Speicher ist laut Hynix verfügbar:
http://www.skhynix.com/inc/pdfDownload.jsp?path=/datasheet/Databook/Databook_Q4%272014_Graphics.pdf

Ein Hawaii mit 384Bit SI, DCCompression und niedrierem DP:SP-Ratio wäre doch was. Ich erwarte eher eine Sparversion mit reduziertem SI und sonst nichts.

IMO wird mehr als genug Luft zwischen Hawaii und Fiji sein, sodass eine schnellere Version auf jeden Fall Sinn macht. Eine langsamere Version macht nicht wirklich Sinn, da von unten eh Tonga drückt.

Unicous
2014-11-17, 19:04:30
HBM ist seit Q3 in der SK hynix Produkmap, das ist keine News und wurde mE exakt in diesem Thread schon behandelt.

Nakai
2014-11-17, 19:14:36
HBM ist seit Q3 in Sk hynix Produkmap, das ist keine News und wurde mE exakt in diesem Thread schon behandelt.

Jap. :)

IMO wird mehr als genug Luft zwischen Hawaii und Fiji sein, sodass eine schnellere Version auf jeden Fall Sinn macht. Eine langsamere Version macht nicht wirklich Sinn, da von unten eh Tonga drückt.

Hawaii hat imo keine Luft nach oben mehr. Hawaii sollte durch eine bessere Gaming-Version ersetzt werden, welche ein Stück besser ist. Gamin heißt, mit weniger DP und kleineres SI mit DCC. Da kommt man sehr nahe zu Tonga. Hawaii ist eh schon sehr nah an Tonga.

AnarchX
2014-11-17, 19:26:31
Maui XT (Device-ID 67E0) könnte der überarbeitete Hawaii sein.

Unicous
2014-11-17, 19:32:24
Ich glaube es ist eher das hier:

https://www.zauba.com/import-amd-batgirl-hs-code.html


Btw. um mal etwas Interessanteres zu bringen. Ich glaube das wurde noch nicht gepostet. Hatte ich schon vor ein paar Tagen gefunden, aber so wichtig erschien es mir nicht.

https://www.zauba.com/import-c87201-hs-code.html

Da Fiji XT ja anscheinend C880 als Code hat könnte das ja u.U. eine "neue" Mainstream-Karte sein sein, jedenfalls laut Manifest eher unter 200 Euro, als darüber.

HOT
2014-11-17, 20:33:13
Maui XT (Device-ID 67E0) könnte der überarbeitete Hawaii sein.
Genau. Ich spekulierte ja schon länger, dass Hawaii im 384-Bit-Packege Maui heißt. Ich hätte den aber deutlich früher erwartet, Maui + Tonga + Iceland. Hätte eigentlich spätestens im August aufschlagen müssen.

Nakai
2014-11-17, 20:51:56
Ich glaube es ist eher das hier:

https://www.zauba.com/import-amd-batgirl-hs-code.html


Btw. um mal etwas Interessanteres zu bringen. Ich glaube das wurde noch nicht gepostet. Hatte ich schon vor ein paar Tagen gefunden, aber so wichtig erschien es mir nicht.

https://www.zauba.com/import-c87201-hs-code.html

Da Fiji XT ja anscheinend C880 als Code hat könnte das ja u.U. eine "neue" Mainstream-Karte sein sein, jedenfalls laut Manifest eher unter 200 Euro, als darüber.


Hawaii: C67
Tonga: C76/C67 (zwei Angaben mit Mitsubishi; evtl Zahlendreher, es gibt Tonga und Hawaii mit gleichem Code)
Fiji: C88
Bonaire: C58
Samoa: C87

Ich denke Samoa könnte die neue Mainstream-Karte sein. 2GB DDR3 klingt endlich nach Hainan/Mars Nachfolger.

Unicous
2014-11-17, 21:03:28
Nja, so richtig stimmen kann das aber auch nicht, bei Tonga gibt es z.B. auch noch C78401, die sogar pro Stück rund doppelt so viel wert ist. Und die 76/67 ist ein Zahlendreher (sieht man an der Part Number)

https://www.zauba.com/import-tonga-printed-hs-code.html

Es könnte Samoa sein, aber es könnte auch ein anderer Chip sein, ich denke nämlich es sind 3 Zahlen die wichtig sind und nicht nur 2. Die "01" verändert sich oft nicht.

Ein Fall wo sich mehr verändert, aber die ersten beiden Zahlen nichts aussagen:

C33108 - FP 3900
C33802 - FP 4900

Pick
2014-11-17, 21:04:16
80SP per CU architecture (GCN 2.0?)
44CU = 3520SP, Hawaii => Maui
http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d0b1c6a7cea781e6dbf6c7e193ae9eb8d1ecddfb93ae9bbdc5f8c9ef 8aefd2e2c4b78ab2&l=en

Unicous
2014-11-17, 21:06:22
It's most probably a wrong read-out/fake.

Especially since there are Russian? Cyrillic letters in there.

AnarchX
2014-11-17, 21:06:28
80SP per CU architecture (GCN 2.0?)
44CU = 3520SP, Hawaii => Maui
http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d0b1c6a7cea781e6dbf6c7e193ae9eb8d1ecddfb93ae9bbdc5f8c9ef 8aefd2e2c4b78ab2&l=en

Just wrong detection of Hawaii. Since AMD was a long time on 80SPs, this is the base at SiSoft if a AMD GPU is not fully detected.


Ich denke Samoa könnte die neue Mainstream-Karte sein. 2GB DDR3 klingt endlich nach Hainan/Mars Nachfolger.
Aber dafür gäbe es ja eigentlich Iceland. :ulol: Mit DDR3 ist die Richtung ziemlich klar, ein Pitcairn-Ersatz wird es wohl nicht sein. Aber im H1 2015 muss da wohl spätestens auch ein entsprechender Ersatz vorgestellt werden.

Unicous
2014-11-17, 21:11:05
this is the base at SiSoft if a AMD GPU is not fully detected.

Interesting. You know that for a fact, or are you speculating?


Spekulierst du nur oder ist das so schon öfter passiert (habe da keine Erinnerung dran, dass die Architektureigenschaften so falsch ausgelesen wurden.)

Nakai
2014-11-17, 21:21:05
Aber dafür gäbe es ja eigentlich Iceland. :ulol: Mit DDR3 ist die Richtung ziemlich klar, ein Pitcairn-Ersatz wird es wohl nicht sein. Aber im H1 2015 muss da wohl spätestens auch ein entsprechender Ersatz vorgestellt werden.

Im Ernst, ich denke bei AMD lachen sich ein paar Leute ins Fäustchen, wegen diesem ganzen Codenamen Murks den es derzeit gibt. Ich gehe davon aus, dass Iceland nichts anderes, als Hainan/Mars mit Feature-Update, ist.

AnarchX
2014-11-17, 21:21:47
Spekulierst du nur oder ist das so schon öfter passiert (habe da keine Erinnerung dran, dass die Architektureigenschaften so falsch ausgelesen wurden.)

Scheint jedenfalls öfters aufzutreten: http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcdf4d2b3d2efdde4d6e0d4e3c5b78aba9cf99ca191b7c4f9c1&l=en
Grundsätzlich melden die Karten über OpenCL ja nur ihre CUs.

Im Ernst, ich denke bei AMD lachen sich ein paar Leute ins Fäustchen, wegen diesem ganzen Codenamen Murks den es derzeit gibt. Ich gehe davon aus, dass Iceland nichts anderes, als Hainan/Mars mit Feature-Update, ist.
Trotz allem ein neuer ASIC (btw. Hainan=Sun/Jet, Oland=Mars/Opal). Im ~200mm² Segment muss man sich bald 3 Jahre mit dem gleichen Die zufriedengeben, der nur zwischendurch ein neues Package spendiert bekommen hat.

Nakai
2014-11-17, 22:05:11
Trotz allem ein neuer ASIC (btw. Hainan=Sun/Jet, Oland=Mars/Opal). Im ~200mm² Segment muss man sich bald 3 Jahre mit dem gleichen Die zufriedengeben, der nur zwischendurch ein neues Package spendiert bekommen hat.

Ich zähl die meistens immer als eine SKU. :freak:

Oland ist der 6CU Chip mit Displayausängen, Hainan hat diese nicht, afaik, und eine CU weniger. Dann gibt es auch noch Topaz, welcher nach Rename stinkt. IMO wäre Iceland dann ein Hainan-Nachfolger, ohne Display und anderen IO-Kram.

Tja und Tonga war ja als Pitcairn-Ersatz geahndet...ist leider nicht passiert. Pitcairn ist ziemlich preisstabil, einen Nachfolger kann man so schnell nicht erahnen.

OBrian
2014-11-18, 01:41:02
nee, stimmt, das wundert mich aber immer noch. Pitcairn ist ohne TrueAudio usw. relativ alt von der Technik her, der Chip ist eigentlich überfällig bzgl. Ablösung.

Aber die bisher auf dem Markt befindliche Tonga-Variante ist duchaus für deutlich geringere Verkaufspreise gebaut, das ist ja offensichtlich. Kann sein, daß sich in der 300er Serie das einfach alles zusammenschiebt. Bisher gibt es ja offenbar erstmal einen Tahiti-Abverkauf, der würde ja sabotiert, wenn man die Karten drumherum genauso reduziert.


Topaz wird wohl einfach der Codename für eine Mobilvariante eines Chips sein, ist ja keine Insel.

Käsetoast
2014-11-18, 08:07:52
Aber die bisher auf dem Markt befindliche Tonga-Variante ist duchaus für deutlich geringere Verkaufspreise gebaut, das ist ja offensichtlich.
Ist der Chip nicht zu groß um ernsthaft ein R9 370er Pitcairn Ersatz zu werden? Tonga ist doch locker 50% größer als Pitcairn wenn ich das richtig im Kopf habe. Kann mir nur schwerlich vorstellen, dass man da großartige Gewinne macht wenn man auf lange Sicht Tonga zu Pitcairn Preisen verkaufen will. Ich sehe Tonga mehr als Feature-Upgrade von Hawaii mit einigen Architekturverbesserungen und da könnte Tonga Hawaii durchaus in der 300er Serie komplett ersetzen. Als Pitcairn Ersatz müsste ein anderer Chip herhalten, selbst wenn der ebenfalls nur das macht was Tonga mit Hawaii gemacht hat, also ein Pitcairn 2.0 sozusagen...

HOT
2014-11-18, 09:21:36
Im Ernst, ich denke bei AMD lachen sich ein paar Leute ins Fäustchen, wegen diesem ganzen Codenamen Murks den es derzeit gibt. Ich gehe davon aus, dass Iceland nichts anderes, als Hainan/Mars mit Feature-Update, ist.
Das wird eher Samoa sein mit seinem DDR3-Speicher und 384 Shadern. Iceland ist sicherlich eher ein CapVerde- oder gar Pitcairn-Ersatz gewesen. Ob wir den je zu Gesicht bekommen wird sich zeigen.

340(X) = Samoa 28nm + opt.HBM
350(X) = Iceland 28nm + 2GB
360(X) = Treasure 20nm + opt.HBM (20nm Test-Chip)
370(X) = Tonga 28nm + 4GB
380(X) = Hawaii (Maui) 28nm + 6GB
390(X) = Fiji 28nm + HBM
395(X) = Bermuda 20nm + HBM

400er-Generation dann 2016/17 20nm und 20nm-FinFET

OBrian
2014-11-20, 05:47:53
nee, das sind viel zu viele Chips, zu teuer.

Man wird sowieso nicht alle Chips auf einmal bringen, es kommen ja mittlerweise nur noch einzelne Chips neu, nicht ganze Generationen.

Ich denke eher, daß von den vielen Codenamen einige absichtlich zur Verwirrung gestreut wurden. Die Leaker denken, sie bringen hier echte Geheimnisse ans Licht, dabei werden sie einfach nur vom AMD-"Geheimdienst" getäuscht und benutzt. Wie in letzter Zeit üblich werden sie wohl erst eine Woche vor dem Launch mitkriegen, was es wirklich gibt, und vom Rest nichts mehr hören.

Es wird auf jeden Fall die Vollversion von Tonga geben, soviel ist ja wohl erwiesen. Bauen wir doch mal um die beiden Karten Tonga Pro und Tonga XT ein brauchbares Portfolio auf. Meinetwegen mit einer Lücke, die erst noch durch alte Chips gefüllt wird und dann später mit neuen, um in dem Schema "nicht alles auf einmal ersetzen" zu bleiben.

HBM wird ganz bestimmt nicht mehr bei einem 28-nm-Chip kommen, auf dieser einen Folie dazu stand ja mal, was für Vorteile HBM bietet, da stand was von "bei 20 nm wenig, erst bei 16nm richtig viel", also denke ich, daß es erst bei 20 nm kommt und dann auch erstmal nur beim fetten Top-Chip, weil da die TDP-Einsparung so wichtig ist. Und da AMD ja 20 nm schon am Laufen hat (in Form der XBox-APU), werden damit sicherlich auch GPUs kommen. Nvidia muß das ja nicht dank der Effizienzsteigerungen durch Maxwell, die fahren evtl. eine andere Strategie und überspringen 20 nm.

Von den alten Chips halte ich noch Bonaire und Hawaii für brauchbar, weil die TrueAudio und allgemein die neueste Technik haben. Allerdings wäre es möglich, daß DX12 irgendwelche Hardwaregeschichten erfordert, die Tonga schon (deaktiviert) mitbringt, die anderen Chips natürlich nicht. Ich würde die 300er Serie trotzdem erstmal noch mit Bonaire und Hawaii füllen und nur einen ganz großen (mit HBM) und ganz kleinen Chip (nur halbe Handvoll Shader, 64-bit Speicher) dazu machen, beide in 20 nm.

Tonga hat zwar einen reichlich großen Die, die Kosten pro mm² könnten innerhalb der 28-nm-Fertigung aber seit Pitcairn runtergegangen sein (dank höherer Ausbeute und anderer Kosteneinsparungen), so daß der Die nicht wirklich teurer wäre als der kleinere früher. Die nur 2 GB RAM bei der Tonga Pro sprechen für mich recht eindeutig für eine Positionierung im eher unteren Preisbereich, d.h. als Pitcairn-Ersatz.

Andererseits kann es natürlich auch ganz anders kommen. Ich bin ziemlich sicher, die bei AMD sitzen da, lesen solche Beiträge in allerlei Speku-Foren und lachen sich schlapp.

Käsetoast
2014-11-20, 17:13:54
Tonga hat zwar einen reichlich großen Die, die Kosten pro mm² könnten innerhalb der 28-nm-Fertigung aber seit Pitcairn runtergegangen sein (dank höherer Ausbeute und anderer Kosteneinsparungen), so daß der Die nicht wirklich teurer wäre als der kleinere früher. Die nur 2 GB RAM bei der Tonga Pro sprechen für mich recht eindeutig für eine Positionierung im eher unteren Preisbereich, d.h. als Pitcairn-Ersatz.
Da ist zwar was dran, aber ich sag's mal so: Eine HD7850 hat zu Release auch so 220-240 € gekostet, also die Preisregionen wo Tonga Pro jetzt ist. Im Gegensatz zu Tonga gab's dann aber ja noch so einiges an Verbesserungspotential was Yields & Co angeht, während der 28nm Prozess, der bei Tonga Anwendung findet, ja schon ziemlich ausgereift ist. Ich persönlich bin daher nicht davon überzeugt, dass der rund 50% größere Tonga diesen Preisverfall so locker mitmachen kann. Ich würde eher annehmen, dass da ein weiterer ~200 mm² Chip herhalten muss, der dann eben den ganzen GPGPU Spökes über Bord wirft und im Vollausbau auch nicht die 2000 Recheneinheiten hat. Ich sehe den noch ausstehenden Tonga Vollausbau auf lange Sicht halt nicht bei den 150-160 € die man derzeit für einen Pitcairn Vollausbau bezahlt. Da müsste aus meiner Sicht wie gesagt ein anderer Chip her, der nicht ganz so groß ist. Ich sehe Tonga Pro mehr so im 180-200 € Bereich und Tonga XT dann im 200-220 € Bereich. Gerade bei den vielen Codenamen, die derzeit durch die Gegend schwirren, sollte sich doch einer finden lassen, der die Pitcairn Nachfolge antritt... ;)

Die 2GB bei Tonga Pro sehe ich auch nur als künstliche Grenze an, denn vor Release gab es ja durchaus Boxshots von etwa einer 4GB Sapphire Version, die ich nicht als Fake einordnen würde, sondern nur als nicht releast bzw. von AMD eventuell für einen gewissen Zeitraum verboten (ähnlich wie bei den 8GB für Hawaii). Mal abwarten in welcher Variante der Tonga Vollausbau in den Apples erscheinen wird...

Letztendlich dürfte diese Problematik auch namenstechnisch interessant sein, denn die 370er bis 390er Benennung von HOT macht prinzipiell ja erstmal Sinn, nur das die 370er Reihe meiner Argumentation folgend dann eine Preisklasse höher liegt als die derzeitigen 270er. Marketingtechnisch sicherlich eher unschön...

Unicous
2014-11-21, 12:34:51
LOL?

https://www.zauba.com/import-litho-xt-hs-code.html

Also doch Litho(sphere) XT, Strato(sphere) XT?

Nakai
2014-11-21, 12:50:02
Ja, sieht nach Mobile-OEM-Serie für 2015 aus.
Ansonsten reinher von der C-Nummer, sieht Strato nach LowEnd-Part aus und Litho eher nach Tonga(?!) oder etwas anderes.

Unicous
2014-11-21, 12:56:02
Ich würde rein gar nichts auf die Nummern geben die sind nämlich mMn "all over the place" und ich habe bislang kein Muster entdeckt.

Dass das Mobile Chips sind, sollte wohl klar sein (MXM :wink:). Wobei es u.U. auch Embedded sein könnte. Who knows.

Nakai
2014-11-21, 13:03:48
Ich zwar auch nicht, aber die Nummern gehen schon in irgendeine Richtung, welche das "Level" der Karte irgendwie darstellt.

Reinher vom Namen sollte es eher Mobile, also sonst was sein. Wobei ich die Embedded-GPUs sehr interessant finde, mit ihrem Speicher onPackage. Könnte eine Vorstufe zu HBM on Package angesehen werden.

Unicous
2014-11-21, 13:29:13
Sehe ich nicht so. Schon allein, dass Cx nicht das Jahr, die Series oder IP-Level angibt und das was danach kommt auch völlig zufällig ist, die letzten beiden Zahlen zumeist 01 oder 02 sind aber manchmal auch 41 oder 08... whatever, zeigt mir dass da kein für mich erkennbares System hinter steckt. Wenn wir nicht den Warenwert für die einzelnen Chips hätten, könnte man gar nichts einschätzen.

Wofür steht C8? Für Fiji Level IP? Für HighEnd? Für Pirate Islands? Für 2015? für Desktop? Kann nicht sein, "Samoa" ist auch C8 hat aber nur einen Wert von 13000 INR (210 USDollar), hat 2GB DDR3 Speicher und könnte u.U. auch ein Rebrand sein.

Wofür steht C7? Tonga? Könnte sein, aber warum variiert die zweite und die dritte Zahl? (C765 und C784)

Wofür steht C6? Mobile? Kann irgendwie auch nicht sein C69301 ist z.B. Mullins/Discovery Tablet

Dann gibt es eine MXM Adapater Card C79101, die sicherlich keine GPU darstellt.

https://www.zauba.com/import-c79101-hs-code.html

Wie gesagt... die Zahlen sind "all over the place" es gibt kein Muster. (Das einzige Muster, ist dass es entweder APUs oder GPUs sind bzw. damit zu tun hat. Bei CPUs gibt es andere P/Ns...ach ney das stimmt irgendwie auch nicht, aber "109" ist wohl eher für APUs vllt. auch Mainboards? gedacht, denke ich... übrigens Crossgar (https://www.zauba.com/import-crossgar-hs-code.html)heißt wohl die Rev-Plattform für FS1B/AM1)

Unicous
2014-11-25, 18:00:22
Keine Ahnung was das sein soll, wahrscheinlich eine 380X (edit: Tonga XT?) oder doch nur eine 390X?


http://www.chiphell.com/data/attachment/forum/201411/25/011503yjegz86eyes86w8e.jpg
http://www.chiphell.com/data/attachment/forum/201411/25/011518p1h2dduhz6xuo9j9.png

http://www.chiphell.com/thread-1182382-1-1.html

Captain Jack dürfte jedenfalls eine Anspielung auf Pirate Islands sein. (entsprechende Bilder von Jensen und Jack Sparrow gibt es im Thread)
Da beides nahe am Wasser gebaut ist, riecht es natürlich sehr nach Fisch.:freak:

Nightspider
2014-11-25, 18:02:04
Keine Ahnung was das sein soll, wahrscheinlich eine 380X (edit: Tonga XT?) oder doch nur eine 390X?


http://www.chiphell.com/data/attachment/forum/201411/25/011503yjegz86eyes86w8e.jpg
http://www.chiphell.com/data/attachment/forum/201411/25/011518p1h2dduhz6xuo9j9.png

http://www.chiphell.com/thread-1182382-1-1.html

Captain Jack dürfte jedenfalls eine Anspielung auf Pirate Islands sein. (entsprechende Bilder von Jensen on Jack Sparrow gibt es im Thread)
Da beides nahe am Wasser gebaut ist, riecht es natürlich sehr nach Fisch.:freak:

Darauf wird angespielt:

https://www.youtube.com/watch?v=boNRVXR7bqg

;)

Wenn es jetzt aber schon Benchmarks gibt würde das doch für eine baldige Einführung der 300 Serie sprechen.

:confused:

http://meta.filesmelt.com/downloader.php?file=hidden_trollface1.png

Unicous
2014-11-25, 18:04:25
:confused:

AnarchX
2014-11-25, 19:26:27
Hawaii + 30%. Das müsste wohl eine Fiji-Variante sein.
So ein niedriger Verbrauch wäre natürlich zu begrüßen. Eventuell fährt man hier deutlich unter 1GHz GPU (4096SPs mit hoher Auslastung als Basis)? Für den WaKü-Enthusiasten ohne Angst vor >>300W gäbe es vielleicht da noch erheblich mehr Potential.

Pick
2014-11-25, 19:39:30
Keine Ahnung was das sein soll, wahrscheinlich eine 380X (edit: Tonga XT?) oder doch nur eine 390X?


http://www.chiphell.com/thread-1182382-1-1.html

Captain Jack dürfte jedenfalls eine Anspielung auf Pirate Islands sein. (entsprechende Bilder von Jensen und Jack Sparrow gibt es im Thread)
Da beides nahe am Wasser gebaut ist, riecht es natürlich sehr nach Fisch.:freak:

370X TongaXT mit HBM :rolleyes:

fondness
2014-11-25, 19:43:12
Fiji muss mindestens 50% auf Hawaii drauf legen um gegen GM200 zu bestehen.

Unicous
2014-11-25, 19:44:00
@Pick

That was my first uneducated thought as well, but alas i think it may be Fiji... PRO?

But the power consumption (and performance) is a little low for such a "Big Die" HighEnd GPU.


We'll have to see if it's a fake or genuine.

AnarchX
2014-11-25, 19:44:15
Für eine solche Leistung müsste man Tonga XT wohl mit LN2 kühlen (~2GHZ), da würde selbst kein TB/s HBM helfen.

Sofern die Ergebnisse stimmen sollte, dürfte das Fiji sein. Der dann erheblich weniger verbraucht, als was der Kühler-Leak suggiert hat.


That was my first uneducated thought as well, but alas i think it may be Fiji... PRO?

But the power consumption (and performance) is a little low for such a "Big Die" HighEnd GPU.
.
Skaliert man Linear von Hawaii XT, wären das 4096SPS @ 850MHz. Durchaus der effiziente Mobile-Bereich von 28nm.

Unicous
2014-11-25, 19:47:42
AMD hat erkannt, dass sie gute Kühler anbieten müssen und dass sie im HighEnd-Bereich solche AIO-Lösungen anbieten können/sollten. Daher habe ich da nicht gleich Kühllösung=hohe TDP gedacht.


Das mit Tonga XT war natürlich eine Luftnummer. Habe nicht nachgedacht.:freak:


edit: Ney, ich meine da gibt es ja durchaus noch deutlich Luft nach oben. Angenommen es sind 200 Watt TDP... da könnten sie ja auch auf 250 hochgehen. Daher ist es mE eher Fiji PRO. (immer vorausgesetzt, der Chiphell-Typ will uns keinen Bären aufbinden)

M4xw0lf
2014-11-25, 20:09:23
Da gibts leider nix mehr zu sehen... gibts die Bilder noch irgendwo?

Unicous
2014-11-25, 20:13:08
Bei mir gehts mit drei verschiedenen Browsern. Habs hier noch mal hochgeladen.

50430
50431

M4xw0lf
2014-11-25, 20:26:49
Bei mir gehts mit drei verschiedenen Browsern. Habs hier noch mal hochgeladen.

50430
50431
Öhm... Opera 12 :redface:

Danke ;)

Nakai
2014-11-25, 22:05:22
if(Leak!=fake)
{
Nakai.SetRegFacialExp(:eek:);
}
else
{
Nakai.SetRegFacialExp(:mad:);
}

So, jetzt mal abwarten...;)

basix
2014-11-25, 22:11:07
while(1){
if(Leak!=fake){
Nakai.SetRegFacialExp(:eek:);
}
else{
Nakai.SetRegFacialExp(:mad:);
}
}

So, jetzt mal abwarten...;)

Eher so muss das sein ;D

Hübie
2014-11-25, 22:23:15
Für mich sieht das auch eher nach einem feuchten Traum aus...

samm
2014-11-25, 22:33:02
Eher so muss das sein ;DBusy wait ohne break um die Schlaufe unelegant zu verlassen? Oder absichtliche Endlosschlaufe? Hm... So oder so: Sieht komplett erfunden aus, einfach zu schnell und effizient, um wahr zu sein.

Nakai
2014-11-25, 22:48:50
Naja AMD beschreibt den Energieffizienz bei HBM ziemlich eindeutig:
http://www.tomshardware.de/hbm-speicher-radeon,news-250622.html

Es sind etwa 55W Einsparung zwischen GDDR5 und HBM bei gleicher Bandbreite.

Der Stromverbrauch einer R9 290 ist 45W darüber. Nichts destotrotz müsste man nochmal 50% effektiver agieren.

Unicous
2014-11-25, 23:21:24
Für mich sieht das auch eher nach einem feuchten Traum aus...

Warum? Bis auf die Leistungsaufnahme wäre die Performance doch eher enttäuschend (für Fiji XT zumindest).

Hübie
2014-11-25, 23:28:27
Für einen 550 sqm-Chip einfach zu traumhafte TDP, aber andererseits zu geringe Leistung. Wirkt auf mich nicht schlüssig. TongaXT ist doch nur ein Mythos (im Desktop) oder habe ich was verpasst? Dazu würde die Leistung aber wieder nicht passen. Viel zu schnell. Was hat AMD denn noch in Petto? Maui?

Nakai
2014-11-25, 23:42:30
Das sieht wirklich nach Fiji PRO aus. Es ist unwahrscheinlich, dass AMD das TDP-Limit von Hawaii nicht ausfüllt. Fiji XT wär nochmal ein Stück schneller und hätte eine TDP von 250W+. Wenn es dennoch stimmt, hat AMD ihre Effizienz dramatisch erhöht. Ich frage mich wie. HBM sollte für diesen Effizienzanstieg nicht alleine verantwortlich sein.

€: GM200 sollte man dennoch ein Stück darüber ansiedeln. Wenn man nach der TDP geht sollten es +33% vor GM204 sein und damit vor dem vermutetem Fiji. Dennoch, diese Perf/Watt ist beachtlich.

Duplex
2014-11-25, 23:45:30
GCN war doch nur der Anfang, irgendwann kommt halt ein Effizientes Design raus, AMD hatte lange genug Zeit.

Unicous
2014-11-25, 23:46:44
@Hübie

Für Fiji und HBM macht das Sinn. Wir hatten die Diskussion doch schon.

Wenn der GDDR5 RAM bei 80-90 Watt liegt, kann HBM 50-60 Watt einsparen.

Der Anteil des RAM an der Leistungsaufnahme beträgt zwischen 30-40% (leider finde ich das paper dazu nicht in dem es ein entsprechendes Diagramm gibt, ich weiß nicht ob es hier schon mal gepostet wurde)

Tonga XT (bzw. das Pirate Island Äquivalent?) wird es nicht sein, dann müssten irre Takte gefahren werden, was natürlich die Leistungsaufnahme wiederum erhöht. Tonga XT für Desktop wird meines Erachtens kommen. Im iMac soll der Chip eine TDP von 125 Watt (850MHz, 4 GB GDDR5) haben. Im Desktop könnte man sicherlich bis zu 1 GHz fahren. Tonga Pro scheint wirklich sehr schlechte bins zu haben und die guten bins wurden Apple übereignet.

Skysnake
2014-11-26, 06:48:05
Naja, hat jemand etwas anderes bei Apple erwartet? ;)

Das sieht wirklich nach Fiji PRO aus. Es ist unwahrscheinlich, dass AMD das TDP-Limit von Hawaii nicht ausfüllt. Fiji XT wär nochmal ein Stück schneller und hätte eine TDP von 250W+. Wenn es dennoch stimmt, hat AMD ihre Effizienz dramatisch erhöht. Ich frage mich wie. HBM sollte für diesen Effizienzanstieg nicht alleine verantwortlich sein.

€: GM200 sollte man dennoch ein Stück darüber ansiedeln. Wenn man nach der TDP geht sollten es +33% vor GM204 sein und damit vor dem vermutetem Fiji. Dennoch, diese Perf/Watt ist beachtlich.
Resonant clock Mesh könnten Sie noch einbauen, das kann auch massig sparen.

Den aktuellen Verbrauch um 50% zu senken ist durchaus drin in meinen Augen, man muss halt "nur" die ganzen Sachen auch umgesetzt bekommen.

Nightspider
2014-11-26, 07:00:47
50% hat Nvidia selbst ohne HBM geschafft. Dürfte also im Bereich des Möglichen liegen.

Hübie
2014-11-26, 07:20:45
Man muss dabei bedenken dass der VRAM nicht kontinuierlich x Watt verbrät. Also ich könnte mir vorstellen dass dies wie bereits erwähnt ein salvage-part ist aber nimmer Fiji im Vollausbau. Macht keinen Sinn.
Ich muss natürlich auch zugeben dass ich aktuell nicht so im Bilde bin was AMD für ein lineup fährt. Also vielleicht haben wir was übersehen.

Dawn on Titan
2014-11-26, 07:34:35
Die "Benchmarks" sehen nach einer konservativen Schätzung aus.

MilesEdgeworth
2014-11-26, 08:53:13
Man sollte auch bedenken, dass im Fall einer stärker angepassten Architektur die Treiber nur rudimentär auf die Hardware abgestimmt sind.
Wenn die Leistung pro CU nicht gesteigert wurde, könnte man den Ergebnissen nach tatsächlich von einem verdoppelten Tahiti mit niedrigerer Taktung ausgehen. Wobei das sicherlich ein teurer Chip wäre, 4096 Shader passen nur auf einen Riesenchip. Würde ja aber zu den Gerüchten passen, die sushiwarrior damals gestreut hat? (Ich hoffe ich verwechsel da nichts :ugly:)

Drogenbaron
2014-11-26, 11:58:04
Merkwürdiger Benchmark. Besonders die ganzen SLI/Crossfire-Gespanne. Haben doch nun wirklich null Relevanz zu einer SingleGPU-Karte.

Liest sich eher, als wolle sich jemand aufspielen.

Nightspider
2014-11-26, 12:36:43
Wieviele Monate vor Release tauchten bisher immer Benchmarks bei AMD auf?

M4xw0lf
2014-11-26, 13:11:39
Wieviele Monate vor Release tauchten bisher immer Benchmarks bei AMD auf?
Zuletzt gar nicht mehr, höchstens Tage davor.

reaperrr
2014-11-26, 13:26:04
Wie wär's mit folgendem Szenario? (reine Spekulation)

Fiji kommt zuerst Anfang nächsten Jahres als XT mit vollen 4096 ALUs (64 CUs), aber niedrigem Takt von 850 MHz um eine neidrige Spannung ansetzen zu können. ~15-20% mehr Leistung als die GTX 980 und zudem etwas bessere Perf./W.

Fiji Pro hat dann etwa GTX 980-Performance (z.B. 56 CUs @ 800 MHz) und noch etwas niedrigeren Stromverbrauch.

Fiji Pro wird dann zum gleichen Preis wie die GTX980 angeboten, Fiji XT für 150-200 €/$ mehr.

Irgendwann zwischen Juni und September nächstes Jahr kommt dann noch eine Fiji XTX mit 1 GHz Takt, 300W und dem geleakten AIO-Wasserkühler, als Konkurrenz zu GM200. Wird wohl verlieren, dafür aber auch günstiger angeboten werden.

Dawn on Titan
2014-11-26, 14:52:16
Das dürfte Fiji pro sein. Und zwar nicht auf dem endgültigen Takt für den Einsatz als Radeon. Imho eine Fire Testsample.

Käsetoast
2014-11-26, 15:45:23
Naja, aber wenn an den Verbrauchswerten was dran ist, wäre Tonga ja ein Rohrkrepierer und man müsste sich fragen, warum der in der Form noch herausgebracht wurde. Nur am etwaigen HBM kann der geringe Verbrauch ja nicht liegen und wenn tatsächlich ordentliche Architekturverbesserungen vorliegen, muss man sich fragen, wieso Tonga nur wenige Monate vor dem Fiji Release noch mit "veralteter" Architektur auf den Markt gebracht werden musste. Gerade wegen der Tahiti Abverkäufe, die ja immer noch anhalten, bestand doch kein wesentlicher Bedarf für diesen Chip bzw. die paar Monate hätte man noch abwarten können um dem Chip dann die bessere Architektur zu verpassen...

Unicous
2014-11-26, 16:05:34
@Käsetoast

Wir haben das doch schon zig mal diskutiert. Die Antwort auf deine Frage gibt dir AMD selbst:

http://www.pcper.com/files/review/2014-09-01/slides-16.jpg


IP Level Hawaii+ bei einem Preispunkt von 250 Euro/Dollar. Ich wüsste auch nicht wo Tonga veraltet wäre. DCC kommt nicht von irgendwoher.

Tonga PRO ist scheinbar Abfall bei der "Apfel"mus-Produktion geworden. II. Wahl. Falls die I.Wahl auch noch mal in den retail-Handel kommt ohne AIO-Monstrum dran können wir sehen ob Tonga ein Rohrkrepierer ist.

Käsetoast
2014-11-26, 17:18:42
@Käsetoast

Wir haben das doch schon zig mal diskutiert. Die Antwort auf deine Frage gibt dir AMD selbst:

http://www.pcper.com/files/review/2014-09-01/slides-16.jpg


IP Level Hawaii+ bei einem Preispunkt von 250 Euro/Dollar. Ich wüsste auch nicht wo Tonga veraltet wäre. DCC kommt nicht von irgendwoher.


Naja, wenn ich da Grafiken von einem Chip mit wahrscheinlich fast doppelt so vielen Einheiten sehe der dann auch noch weniger verbraucht als Tahiti dann ist das schon ein enormer Unterschied der sich nicht über HBM erklären lässt. Entweder ist das nun also in Hinblick auf Tonga Fake oder AMD muss sich die Frage gefallen lassen was Tonga in der jetzigen Form soll - eine deutlich effizientere Architektur ist ja wohl quasi fertig und da die Äpfel Fall Tongas immer noch nicht am Markt sind ist Zeitmangel auch keine Ausrede. Dann hätte man Tonga auch 4 Monate später und deutlich verbessert auf den Markt bringen können...

Ich tendiere eher dazu dass die gezeigten Leistungsaufnahmen Fake sind..

ndrs
2014-11-26, 17:29:32
Apple ist was seine Lieferverträge angeht äußerst streng. Wenn AMD den Deal haben wollte, musste zu dem und dem Zeitpunkt was auf der Matte stehen. Und wer weiß wie lange die Produktion schon läuft. Da musste sich AMD sicher erstmal ansehen, wieviele Chips zu Äpfeln und wieviele zu Apfelmuß werden, um dann die finalen Taktraten und Spannungen für die 285 festzulegen. Und wenn die Chips eh da sind, kann man sie auch verkaufen, eh sie noch weniger wert sind.

Unicous
2014-11-26, 17:48:20
@Käsetoast

Ich glaube niemand hier nimmt den "Leak" für voll, aber du darfst eben auch nicht vergessen, dass solche Designs Zeit kosten und Tonga möglicherweise schon eine Weile auf Halde lag bis man ihn dann als 285 herausgebracht hat, bzw. als Apple-exklusiven M295X (bis jetzt). Tonga PRO kann bei ca. 165 Watt landen wie der ht4u-Test gezeigt hat. Tonga hat aber eben nicht HBM sondern "nur" GDDR5.

Ich könnte mir auch vorstellen, dass Tonga ein Rückport auf 28nm ist und man u.U. sogar mal 20nm angepeilt hat. Denn für mich bleibt das Jahr 2014 auf GPU-Seite weiterhin mysteriös. Sowohl bei AMD, als auch Nvidia.

Käsetoast
2014-11-26, 17:53:58
@ndrs
Die Chips werden aber ja auch von langer Hand geplant. Ist ja nicht so dass die großartig sagen können: "Oh wir könnten den Zeitplan um 8 Wochen verfehlen - dann nehmen wir wenige Monate vor Release eben noch schnell Konzept xyz aus unserer Architektur heraus. Die haben für Tonga ja deutlich an der Architektur gearbeitet (siehe Kompression). Nur wenige Monate danach eine deutlich überlegene Architektur zu bringen mag ich da halt nicht so recht glauben. Macht nur wenig Sinn in einem derartig engen Zeitrahmen zwei Architekturen zu entwickeln. Da hätte Tonga direkt die bessere bekommen und gerade bei Maxwell sieht man ja mal wieder das die Firma gut entscheiden kann in welcher Reihenfolge die Chips es an den Markt schaffen...

Blediator16
2014-11-26, 18:06:15
Ist sicher eine 980TI :freak:

Unicous
2014-11-26, 22:50:26
@ Käsetoast

Tonga war die einzige "neue" GPU 2014m mal abgesehen von Vesuvius/Hawaii x2, der Rest waren Rebrands/neu aufgelegte Dies?.

Ich habe nicht das Gefühl, dass das so geplant war. Ich gehe davon aus, das ursprünglich noch 2014 etwas kommen sollte und man "kurzfristig" (sprich Ende letzten Jahres/ Anfang diesen Jahres) etwas umgestellt hat bzw. die Einführung einiger Chips gestrichen hat. Ob aus finanziellen Gründen, taktischen Gründen (eher zweifelhaft) oder organisatorischen Gründen (neuer CEO Umgestaltung der Führungsebene, Nachwirkung der Entlassungen). Das sieht man auch bei Carrizo. Ich bin mir nicht sicher, dass das Vorwegnehmen von "Skybridge" so geplant war, sonst hätte man das doch sicherlich mit in die Planung mit aufgenommen.

Die IP Tonga stand sicherlich schon 2013 fest, ich denke mal seit 2012 oder 2011 wird sie geplant. Die endgültigen Specs legt man frühestens fest, wenn der Chip vom tapeout wiederkommt (und einem gefällt was man sieht) aber man kann bis zur letzten Minute noch an den Takt- und TDP-Zielen schrauben. Tonga war also auch keine Notlösung.

Es sind auch nicht zwei verschieden Architekturen sondern IP-Level der gleichen Grundarchitektur. Ich könnte mir vorstellen, dass sie mehrere Teams haben die zeitgleich an mehreren Designs arbeiten, das Grunddesign aber ist das Gleiche. Sobald Team 1 fertig ist widmet es sich dem nächsten Design, während Team 2 noch an ihrem Design arbeitet bzw. die Errungenschaften von Team 1 überarbeitet und verbessert. Ich denke das hat sich grundlegend verändert. Bei den vorherigen Designs schätze ich, haben die Teams eher ihr eigenes Süppchen gekocht, sieht man mE auch an dem Tohuwabohu bei den vorherigen Designs und den APUs. Das hat ja gar nicht aufeinander aufgebaut sondern war geradeaus ohne um sich zu blicken. Während die ersten GCN GPUs gestartet sind, war man noch bei VLIW5...

Es scheint jetzt deutlich geradliniger in der Entwicklung zu sein und die Iterationen kommen, wenn sie kommen, in kürzeren Abständen, aufbauend auf der gleichen Grundarchitektur. Das war ja auch das Credo für Bulldozer nur hat das alles nicht so geklappt wie erhofft.

Wenn und falls Fiji im H1'2015 erscheint sind es dennoch ein halbes bis dreiviertel Jahr seit Tonga Erscheinen (ich denke nicht, dass die Chips im Januar oder Februar kommen) und es waren ca. 11? Monate von Hawaii bis Tonga.
Im nächsten Jahr gibt es dann sicherlich ein neues line up mit bestimmt ein paar Rebrands und zwei oder drei neuen Chips (samt PRO und XT Aufteilung, vllt. auch LE und Co.) und 2016 (/Ende 2015?) 14nm Chips.

Ich habe immer noch das Gefühl, dass die 20nm Produktion bzw. fehlende Kapazität der Übeltäter ist (unter Umständen auch der MIA 20nm Prozess von GF)..

Nakai
2014-11-26, 23:57:45
Ich könnte mir auch vorstellen, dass Tonga ein Rückport auf 28nm ist und man u.U. sogar mal 20nm angepeilt hat. Denn für mich bleibt das Jahr 2014 auf GPU-Seite weiterhin mysteriös. Sowohl bei AMD, als auch Nvidia.

Also Apples A8X hat eine Dichte von 24Mio Transen/mm². Tonga ist etwa bei 14Mio Transen/mm². Gehe ich damit auf Tonga über, komme ich etwa auf 210mm². Das ist zwar arg milchmädchenhaft, aber das wäre die Größe von Pitcairn und wäre in diesem Bereich auch verwendbar. Fiji in 20nm wäre auch irgendwas zwischen 300~350mm² groß, in 20nm. Dementsprechend wäre Fiji eher ein Tahiti-"Nachfolger". Eventuell war noch eine höherer ASIC geplant, was natürlich Verwirrung gestiftet haben könnte.;)

Ailuros
2014-11-27, 07:02:24
Also Apples A8X hat eine Dichte von 24Mio Transen/mm². Tonga ist etwa bei 14Mio Transen/mm². Gehe ich damit auf Tonga über, komme ich etwa auf 210mm². Das ist zwar arg milchmädchenhaft, aber das wäre die Größe von Pitcairn und wäre in diesem Bereich auch verwendbar. Fiji in 20nm wäre auch irgendwas zwischen 300~350mm² groß, in 20nm. Dementsprechend wäre Fiji eher ein Tahiti-"Nachfolger". Eventuell war noch eine höherer ASIC geplant, was natürlich Verwirrung gestiftet haben könnte.;)

Apple scheint aber auch nicht besonders zufrieden zu sein mit 20SoC wegen dem Stromverbrauch. Sonst sollte man bedenken dass ein anderer IHV selbst mit einem ultra thin tablet SoC wahrscheinlich nicht nur mehr Transistoren/mm2 reinpacken wuerde, sondern auch brutal hoeher takten wuerde (warte auf Erista ab ;) ). Kein Vergleich fuer ultra thin tablet SoCs und schon gar nicht fuer GPU chips.

So lange TSMC's 20SoC nicht die unter normalen Umstaenden Stromersparnisse liefert interessiert es um Grund auch die Bohne ob irgend ein Maxwell oder irgend ein Fiji vor N Jahren noch fuer 20nm geplant war; zu dem Zeitpunkt waren die chips wohl nichtmal so weit dass es einen besonderen Unterschied machte und TSMC nannte den Prozess wohl damals "22nm" oder weiss der Geier was.

Noch weiter: hat AMD einen Ass im Aermel und wird Maxwell regelrecht die Hosen runterziehen oder ist es etwas am Ende dass sich innerhalb der logischen Konkurrenzfaehigkeit bewegt? Mein Bauchgefuehl liegt beim letzten und das haette sich auch mit 20SoC nicht geaendert weil eben der Stromverbrauch hier wieder begrenzt haette.

Den Scheiss duerfte aber eigentlich nur die hardcore fanboys interessieren; der Endverbraucher bekommt nach dem geleakten graph (ob fake oder nicht scheissegal) eine ausgezeichnete Aufruestung fuer die heutigen 280/280X.

Nakai
2014-11-27, 12:55:52
Apple scheint aber auch nicht besonders zufrieden zu sein mit 20SoC wegen dem Stromverbrauch. Sonst sollte man bedenken dass ein anderer IHV selbst mit einem ultra thin tablet SoC wahrscheinlich nicht nur mehr Transistoren/mm2 reinpacken wuerde, sondern auch brutal hoeher takten wuerde (warte auf Erista ab ;) ). Kein Vergleich fuer ultra thin tablet SoCs und schon gar nicht fuer GPU chips.


Samsung konzentriert sich hier eher auf FDSOI, genau aus diesem Grund. Die Packdichte wird zwar nicht wirklich erhöht, die Kosten steigen leicht an, dafür hat man bessere Stromverbrauchseinsparungen. 20SOC sollte aber auch noch optimierbar sein. Die Frage ist, eher ob es sich so lohnt.

So lange TSMC's 20SoC nicht die unter normalen Umstaenden Stromersparnisse liefert interessiert es um Grund auch die Bohne ob irgend ein Maxwell oder irgend ein Fiji vor N Jahren noch fuer 20nm geplant war; zu dem Zeitpunkt waren die chips wohl nichtmal so weit dass es einen besonderen Unterschied machte und TSMC nannte den Prozess wohl damals "22nm" oder weiss der Geier was.

Ich habe zwar wenig Einblick darin, aber wie in jeden technischen Bereich wird man den Stromverbrauch hier in Relation setzen. Watt/mm², Watt-Delta/mm²,... 20SOC sieht eher danach aus, dass die Relation zwischen Packdichte und Energieeinsparung nicht mehr so gut liegt und deswegen andere Auswege gesucht werden müssen. Wenn Fiji in 20/22nm geplant war, war wohl eine Diesize um die 350mm² geplant, ähnlich, wie Tahiti, Cayman, Cypress, etc.

Ich halte die geleakten Stromwerte und Leistungswerte für Fiji für möglich. Wenn NV in der Lage ist, den Stromverbrauch durch deutlich bessere Powergating und anderen intelligenten Optimierungen zu reduzieren, schafft AMD das auch. Mit HBM wäre noch zusätzlich eine Einsparung möglich.

http://www.anandtech.com/show/8742/amd-announces-carrizo-and-carrizol-next-gen-apus-for-h1-2015

Vergleicht man das mit der älteren "gleichen" Folie:

http://www.anandtech.com/show/7974/amd-beema-mullins-architecture-a10-micro-6700t-performance-preview

Um die Jahreswende, sei es Carrizo oder irgendwelche anderen Chips, werden neue Stromsparfeatures inkludiert. Und natürlich sind davon auch dedizierte GPUs betroffen, alles andere wäre komisch. Man arbeitet mit der gleichen bzw. ähnlichen IP.

Leonidas
2014-11-27, 14:21:41
Das übliche Gegenargument ist: Wenn man bei 200W herauskommen würde, dann setzt man mehr Einheiten oder mehr Takt an, damit man 250W ausschöpfen kann. Bei rein mehr Takt wäre dies Mehrperformance zum Nullkostenpreis. In diesem Performance- und Preissegment muß man nicht an der Leistungsaufnahme sparen, schon gar nicht, wenn es nur bis zu 250W geht.

Skysnake
2014-11-27, 14:28:34
Und wer sagt einem, dass der Chip den höheren Takt auch mit macht? Und vor allem, wer sagt einem, dass der Chip den höheren Takt in Zusammenspiel mit eventuell mehr Spannung auch über 2+ Jahre mit macht?

Nakai
2014-11-27, 15:00:22
Laut Sisoft erreicht Fiji 1GHz. Die meisten GCN-Chips gehen nicht weit über 1GHz hinaus. Ohne mehr Hintergrundwissen, kann man eh nur spekulieren.
IMO würden die Werte auch für Fiji XT passen. GCN skaliert eben nicht sonderlich gut.

€: Was viele vergessen, ist, dass Chiphell Leaks meistens ziemlich akkurat sind. Würde mich nicht wundern, wenn es stimmt, obwohls ziemlich unglaubwürdig aussieht.

Nightspider
2014-11-27, 16:50:51
Und wenn Fiji Pro mit 4GB HBM1 zeitig, vllt zum Jahreswechsel erscheint und Fiji XT mit 8GB HBM 2 Ende 2Q15 oder Anfang 3Q15?

Nakai
2014-11-27, 17:07:54
Und wenn Fiji Pro mit 4GB HBM1 zeitig, vllt zum Jahreswechsel erscheint und Fiji XT mit 8GB HBM 2 Ende 2Q15 oder Anfang 3Q15?

Woher sollen wir das wissen? Kann natürlich so kommen.
Wenn AMD HBM + dramatisch verbessertes Powertune/gating bringt und damit Maxwell-Effizienz + HBM-Effizienz bringt, ist das schon ziemlich mächtig. HBM bringt eben nochmal ein paar zusätzliche zweistellige Watts an Ersparnis.
Ich hoffe mal, man bringt einen kleinen Sneakpeak Ende des Jahres.:)

Unicous
2014-11-27, 17:11:22
HBM 2 ist doch erst für 2016 angekündigt... jedenfalls laut SK hynix.

fondness
2014-11-27, 17:12:58
Deshalb bleibt nach wie vor ein großes Fragezeichen ob oder wie AMD mehr als 4GB realisieren will.

Gipsel
2014-11-27, 18:08:55
Und wenn Fiji Pro mit 4GB HBM1 zeitig, vllt zum Jahreswechsel erscheint und Fiji XT mit 8GB HBM 2 Ende 2Q15 oder Anfang 3Q15?
HBM 2 ist doch erst für 2016 angekündigt... jedenfalls laut SK hynix.
Deshalb bleibt nach wie vor ein großes Fragezeichen ob oder wie AMD mehr als 4GB realisieren will.
HBM1 ist bis mindestens 4GB pro Stack fertig spezifiziert. Man benötigt kein HBM2 für mehr als 1GB pro Stack, sondern z.B. lediglich 4GBit pro Die für 2GB pro Stack (bereits absolut Standard bei GDDR5 bzw. langsam schon die kleinen bei DDR4). Die eigentlichen Änderungen bei HBM2 finden bei der Ansteuerung des Speichers statt, nicht bei der Kapazität. Daß später, in kleineren Strukturen produzierte Speicherchips tendenziell eine größere Kapazität aufweisen, bleibt davon ja unbenommen. Aber es gibt wie gesagt bereits heute DRAM-Dies mit 4 (die Mehrheit) bzw. sogar 8 GBit, dazu braucht man nicht auf HBM2 warten.

Unicous
2014-11-27, 18:20:57
Meine Antwort war ja explizit auf HBM Gen 2 bezogen. Ich könnte mir auch vorstellen, das sie die Kapazität erhöhen könnten, ich behaupte auch mal gelesen zu haben, dass HBM 1 theoretisch bis 8 GB per Stack? spezifiziert sei. Leider kann man ja die JEDEC Spec nicht einsehen.;(

Nightspider
2014-11-27, 18:27:28
HBM1 ist bis mindestens 4GB pro Stack fertig spezifiziert. Man benötigt kein HBM2 für mehr als 1GB pro Stack, sondern z.B. lediglich 4GBit pro Die für 2GB pro Stack (bereits absolut Standard bei GDDR5 bzw. langsam schon die kleinen bei DDR4). Die eigentlichen Änderungen bei HBM2 finden bei der Ansteuerung des Speichers statt, nicht bei der Kapazität. Daß später, in kleineren Strukturen produzierte Speicherchips tendenziell eine größere Kapazität aufweisen, bleibt davon ja unbenommen. Aber es gibt wie gesagt bereits heute DRAM-Dies mit 4 (die Mehrheit) bzw. sogar 8 GBit, dazu braucht man nicht auf HBM2 warten.

Kann sein aber bisher war die offizielle Angabe ja 4GB bei HBM1.

Und vllt ist Fiji ja auch wirklich mit HBM2 kompatibel, wenn das PHY sowieso im Stack steckt und nicht mehr in der GPU oder gibts da trotzdem Schwierigkeiten bei der Kompatibilität?

HBM 2 ist doch erst für 2016 angekündigt... jedenfalls laut SK hynix.

Kann aber auch heißen das die großen Kapazitäten für alle Kunden erst zu Jahresbeginn verfügbar sind, also 2016. AMD als Mitentwickler könnte möglicherweise ja schon ~2 Quartale eher dran kommen, wenn die ersten Chips vom Band fließen und nahtlos nach der Riskproduktion einsteigen.

HBM2 wird eh hohen Bedarf haben, da viele den verbauen wollen. Ich kann mir zumindest gut vorstellen, das nicht alle Fabriken gleichzeitig mit der Massenproduktion beginnen und eine gewisse Stückzahl schon eher für einen Mitentwickler zur Verfügung stehen könnten.

Unicous
2014-11-27, 18:35:32
Das hängt für mich in der Schwebe. AMD könnte davon profitieren und schon seit September oder so die ersten HBM-Stacks geliefert bekommen, es könnte aber auch sein, dass AMD auf die Massenproduktion wartet. Mit Prototypen und Vorserien-Modellen hantieren sie ja schon seit Ewigkeiten.

Hmm, ok "Package Density"...ist damit jetzt ein Stack gemeint oder nicht... und heißt HBM jetzt Gen 1 oder ist das Gen 2 mit reingemischt. Ooooh. Es müsste eigentlich Gb heißen. :facepalm: (Oder? Ich bin verwirrt.)

https://www.semiwiki.com/forum/content/attachments/11891d1408787824-table.jpg
https://www.semiwiki.com/forum/content/3793-cadence-white-paper-helps-you-selecting-what-come-after-ddr4.html

Ailuros
2014-11-27, 18:45:36
Ich habe zwar wenig Einblick darin, aber wie in jeden technischen Bereich wird man den Stromverbrauch hier in Relation setzen. Watt/mm², Watt-Delta/mm²,... 20SOC sieht eher danach aus, dass die Relation zwischen Packdichte und Energieeinsparung nicht mehr so gut liegt und deswegen andere Auswege gesucht werden müssen. Wenn Fiji in 20/22nm geplant war, war wohl eine Diesize um die 350mm² geplant, ähnlich, wie Tahiti, Cayman, Cypress, etc.

Ich halte die geleakten Stromwerte und Leistungswerte für Fiji für möglich. Wenn NV in der Lage ist, den Stromverbrauch durch deutlich bessere Powergating und anderen intelligenten Optimierungen zu reduzieren, schafft AMD das auch. Mit HBM wäre noch zusätzlich eine Einsparung möglich.

http://www.anandtech.com/show/8742/amd-announces-carrizo-and-carrizol-next-gen-apus-for-h1-2015

Vergleicht man das mit der älteren "gleichen" Folie:

http://www.anandtech.com/show/7974/amd-beema-mullins-architecture-a10-micro-6700t-performance-preview

Um die Jahreswende, sei es Carrizo oder irgendwelche anderen Chips, werden neue Stromsparfeatures inkludiert. Und natürlich sind davon auch dedizierte GPUs betroffen, alles andere wäre komisch. Man arbeitet mit der gleichen bzw. ähnlichen IP.

Wer sagt denn dass es sich bei dem angeblichem "Captain Jack" oder wie immer sie das Ding nennen wirklich um Fiji handelt? Aber ich spiel mal auf der hypothetischen Masche mit und akzeptiere dass ein chip der in etwa so gross ist wie ein GM200 um die 15% mehr leistet als eine volle GM204 mit ca. 6% mehr Stromverbrauch. Und jetzt bin ich wohl der einzige dem irgend etwas nicht ganz ins Bild passt oder? Anders wenn dem so ist: schnarch :rolleyes:

AffenJack
2014-11-27, 18:52:30
Außer Fiji macht kein anderer Chip Sinn, wenn man annimmt, dass dies ein echter Chip ist. Dafür ist er einfach zu schnell. Es kann aber durchaus ein Vorserienexemplar sein, was niedriger getaktet ist und damit im Effizienzsweetspot läuft. Die nächsten 10% könnten den Verbrauch nen gutes Stück erhöhen. Nichts genaues weiß man halt nicht.

fondness
2014-11-27, 20:04:25
HBM1 ist bis mindestens 4GB pro Stack fertig spezifiziert. Man benötigt kein HBM2 für mehr als 1GB pro Stack, sondern z.B. lediglich 4GBit pro Die für 2GB pro Stack (bereits absolut Standard bei GDDR5 bzw. langsam schon die kleinen bei DDR4). Die eigentlichen Änderungen bei HBM2 finden bei der Ansteuerung des Speichers statt, nicht bei der Kapazität. Daß später, in kleineren Strukturen produzierte Speicherchips tendenziell eine größere Kapazität aufweisen, bleibt davon ja unbenommen. Aber es gibt wie gesagt bereits heute DRAM-Dies mit 4 (die Mehrheit) bzw. sogar 8 GBit, dazu braucht man nicht auf HBM2 warten.

Okay dann wäre ja durchaus eine 4Gb Version im Frühjahr und eine 8GB dann eventuell im Herbst absolut denkbar. Eventuell gibt es auch schon bis zum Fiji-Launch 2GB pro Stack und damit 8Gb insgesamt, aber mal sehen.

Loeschzwerg
2014-11-27, 20:39:53
HBM1 ist bis mindestens 4GB pro Stack fertig spezifiziert.

Hm?

http://www.memcon.com/pdfs/proceedings2014/NET104.pdf (Folie 19 und 21)

Da steht 2Gb (also 2048 Mbit => 256MB) und die einzelnen Sub-Banks werden mit 64Mbit angegeben.

Wo liegt da bei mir der Denkfehler bzw. wie kommst du auf 4GByte pro Stack wenn ein Dram DIE mit 256MByte angegeben wird.

Folie wohlgemerkt von Oktober 2014.

Unicous
2014-11-27, 21:08:55
Es gibt ja schon noch einen Unterschied zwischen der Spec und dem was der Hersteller dann produziert bzw. produzieren kann.

"HBM Gen. 2" ist ja eher eine Erfindung von Sk hynix und spiegelt nicht das wieder was die Spec hergibt, die sicherlich zukunftssicherer ausgelegt ist. Leider müsste man sich den Zugang zur Spec erst erkaufen um das zu verifizieren.

Loeschzwerg
2014-11-27, 21:27:47
Eigentlich sind per JEDEC JESD235 sogar bis 32GB pro Stack spezifiziert wenn man Mike O'Connor glauben darf. Ist halt die Theorie und in Praxis hat Hynix aktuell nur 1Gb im offiziellen Angebot (2Gb dann evtl. im 1Q 2015 Katalog).

Mehr gibt es erst mit der internen 2ten Generation.

Ich bin da leider pessimistisch :(

Unicous
2014-11-27, 21:49:09
Auf dem IEEE 2015 Symposium im Feburar werden jedenfalls ein paar AMD Fellows ihre Exascale-Pläne näher bringen und die mission impossible of misching Memory:tongue::

“Heterogeneous Memory Architectures: A HW/SW Approach for Mixing Die-stacked and Off-package Memories”

http://darksilicon.org/hpca/?page_id=53

fondness
2014-11-27, 21:59:48
Das hört sich wohl nicht ganz zufällig genau nach dem an was man für Fiji und Konsorten (zumindest für den professionellen Bereich) benötigt.

Nakai
2014-11-27, 22:03:46
Auf dem IEEE 2015 Symposium im Feburar werden jedenfalls ein paar AMD Fellows ihre Exascale-Pläne näher bringen und die mission impossible of misching Memory:tongue::

“Heterogeneous Memory Architectures: A HW/SW Approach for Mixing Die-stacked and Off-package Memories”

http://darksilicon.org/hpca/?page_id=53

Vielleicht ist meine(bzw genau diese) Annahme bei Fiji etwas verfrüht. Aber in diesem Fall, war mein ständiges bestehen darauf kein Zufall.

Eigentlich sind per JEDEC JESD235 sogar bis 32GB pro Stack spezifiziert wenn man Mike O'Connor glauben darf. Ist halt die Theorie und in Praxis hat Hynix aktuell nur 1Gb im offiziellen Angebot (2Gb dann evtl. im 1Q 2015 Katalog).

Ich hoffe mal, dass wir das sehen werden.
Wer sagt denn dass es sich bei dem angeblichem "Captain Jack" oder wie immer sie das Ding nennen wirklich um Fiji handelt? Aber ich spiel mal auf der hypothetischen Masche mit und akzeptiere dass ein chip der in etwa so gross ist wie ein GM200 um die 15% mehr leistet als eine volle GM204 mit ca. 6% mehr Stromverbrauch. Und jetzt bin ich wohl der einzige dem irgend etwas nicht ganz ins Bild passt oder? Anders wenn dem so ist: schnarch :rolleyes:

Hawaii ist ungefähr 10% größer als GM204, etwas mehr als 10% langsamer als dieser und verbraucht 100W mehr.
Selbst wenn Hawaii mal den Compute-Ballast nicht hätte und er dementsprechend kleiner wäre und weniger Strom verbrauchen würde, würde sich die Relation dramatisch ändern? Aber um mal auf deine Masche zu springen. ;)

Was wäre, wenn dieser Chip NICHT Fiji ist. Der 4096SP-Chip ist nicht Fiji. Es ist kein Compute-Chip. Was wäre wenn es Treasure Island, Bermuda oder Maui ist? Was ist, wenn Fiji eher Ende 2015 kommt, also Anfang 2015? Was ist, wenn erstmal ein Gaming-Ersatz kommt. Wieso muss AMD den Compute-Chip schon ablösen? Hawaii ist so ziemlich das Stärkste derzeit auf dem Markt. Eventuell ist Fiji der Heterogene-Memory-Chip(PIM). Das würde zu sushiwarriors Aussage passen.

€: Bzw. was wir unter Fiji verstehen, ist nicht das was wir meinen.

fondness
2014-11-27, 22:13:21
Hawaii ist ungefähr 10% größer als GM204, etwas mehr als 10% langsamer als dieser und verbraucht 100W mehr.


Aber auch nur wenn man ausschließlich 1080p betrachtet und nur das Referenzdesign vergleicht. Ab 1600p oder bei Custom-Design sieht dich Sache schon etwas anders aus.


Was wäre, wenn dieser Chip NICHT Fiji ist. Der 4096SP-Chip ist nicht Fiji. Es ist kein Compute-Chip. Was wäre wenn es Treasure Island, Bermuda oder Maui ist? Was ist, wenn Fiji eher Ende 2015 kommt, also Anfang 2015? Was ist, wenn erstmal ein Gaming-Ersatz kommt. Wieso muss AMD den Compute-Chip schon ablösen? Hawaii ist so ziemlich das Stärkste derzeit auf dem Markt. Eventuell ist Fiji der Heterogene-Memory-Chip(PIM). Das würde zu sushiwarriors Aussage passen.

€: Bzw. was wir unter Fiji verstehen, ist nicht das was wir meinen.

Es gibt schon länger Überlegungen das Fiji womöglich ein reiner Gaming-Chip ist. Realistisch betrachtet macht es aber wohl keinen Sinn ein solches Monster zu bauen und den professionellen Bereich nicht mit zu nehmen. Ich erwarte eher noch zusätzlich einen Gaming-Chip als Hawaii-Ersatz bzw. GM204 Gegenpart.

Nakai
2014-11-27, 22:23:07
AMDs Namensgebung im allgemeinen ist sowieso Humbug. Sei es CPU-Kerne(Jaguar, Jaguar+, Puma+, Puma, K12, Zen), sei es APUs(Carrizo-L, Nolan, Amur, etc) oder eben GPUs(Tonga).

Um ehrlich zu sein, war Synapse damals für die beiden AMD-Chips(Tonga und ein anderer 500mm²-Chip) zuständig. Synapse Design wirkt nicht wie eine Firma, die für Compute-Chips zuständig ist. Da passt was nicht. Damit wäre auch meine Anmerkung, dass reines HBM nich für den HPC-Bereich ausreicht, auch vom Tisch. 8GB HBM sollten bald möglich sein, mehr braucht es erstmal nicht.

ndrs
2014-11-27, 22:28:21
Und vllt ist Fiji ja auch wirklich mit HBM2 kompatibel, wenn das PHY sowieso im Stack steckt und nicht mehr in der GPU oder gibts da trotzdem Schwierigkeiten bei der Kompatibilität?
Das PHY steckt bei HBM wie eh und je in der GPU UND im Speicher. Weil jeder "Signale losschicken" muss. Durch HBM wird es nur deutlich kleiner.
Hmm, ok "Package Density"...ist damit jetzt ein Stack gemeint oder nicht
Da sich auch die Bandbreite auf den Stack bezieht, würde ich davon ausgehen. In der Regel ist das Package ja alles, was in diesem schwazen Klotz drin ist :)

Ich glaube Ailuros spielt hier einfach darauf an, dass der ominöse Chip einfach ein GM200 ist :D

Unicous
2014-11-27, 22:35:55
@Nakai

Synapse Design arbeitet seit 2004 mit AMD bzw. Ati zusammen, ich wüsste jetzt nicht warum die ihnen die Expertise absprichst.

Und was hast du gegen die Namensgebung? Ist doch eine lustige Raterunde. Besser als GXxxx oder Laketrailbridge ist es allemal.:biggrin:


@ndrs

Wäre das nicht arg traurig, wenn das "nur" GM200 wäre?

Nakai
2014-11-27, 22:55:17
@Nakai
Synapse Design arbeitet seit 2004 mit AMD bzw. Ati zusammen, ich wüsste jetzt nicht warum die ihnen die Expertise absprichst.

So meinte ich das zwar nicht. Aber, wenn man die Synapse-Folie mal betrachtet, fällt auf, dass es um Audio- und Videosignalprozessoren geht. Multimedia Market Sector. Man kann zwar viel hineininterpretieren, einen computelastigen Chip würde ich anders präsentieren. Ich geh mal davon aus, dass AMD die 500mm² Marke nur knapp bricht.


Ich glaube Ailuros spielt hier einfach darauf an, dass der ominöse Chip einfach ein GM200 ist :D

:O:freak:
Das könnte sehr gut möglich sein.


@ndrs

Wäre das nicht arg traurig, wenn das "nur" GM200 wäre?

Naja GM200 kann man reinher vom TDP-Limit eh nur 30~40% vor GM204 einordnen. Ein GM200 auf 200W dementsprechend langsamer.

Gipsel
2014-11-27, 23:02:06
Ich könnte mir auch vorstellen, das sie die Kapazität erhöhen könnten, ich behaupte auch mal gelesen zu haben, dass HBM 1 theoretisch bis 8 GB per Stack? spezifiziert sei. Leider kann man ja die JEDEC Spec nicht einsehen.;(Theoretisch gehen bis zu 32GB pro Stack. Und doch, die HBM-Specs sind (kostenlos) einsehbar, man muß sich nur bei der JEDEC registrieren. Ich habe das pdf-File mit 124 Seiten hier bei mir auf der Platte liegen (müßte mal schauen, ob es inzwischen eine neue Version gibt).
Kann sein aber bisher war die offizielle Angabe ja 4GB bei HBM1.Nein. Und welche offizielle Angabe? Hynix hat 4GB lieferbar. Da geht aber mehr. Auch offiziell.
Und vllt ist Fiji ja auch wirklich mit HBM2 kompatibel, wenn das PHY sowieso im Stack steckt und nicht mehr in der GPU oder gibts da trotzdem Schwierigkeiten bei der Kompatibilität?Es gibt immer Paare von PHYs, einer sitzt in der GPU/der CPU, der andere im Speicherchip. Die müssen sich also schon irgendwie verstehen ;).
Hmm, ok "Package Density"...ist damit jetzt ein Stack gemeint oder nicht... und heißt HBM jetzt Gen 1 oder ist das Gen 2 mit reingemischt. Ooooh. Es müsste eigentlich Gb heißen. :facepalm: (Oder? Ich bin verwirrt.)Ich denke, der Author war auch etwas verwirrt ("Please note that HBM is still parallel protocol") :rolleyes:.Hm?

http://www.memcon.com/pdfs/proceedings2014/NET104.pdf (Folie 19 und 21)

Da steht 2Gb (also 2048 Mbit => 256MB) und die einzelnen Sub-Banks werden mit 64Mbit angegeben.Das ist ja auch richtig für die momentan lieferbaren 1GB-Stacks. Und die ersten HBM2-Stacks plant Hynix offensichtlich mit 8GBit pro Die. Was spricht dagegen, daß die in der Zwischenzeit HBM1-Stacks mit 4GBit/Die einschieben? Doch nur, daß es bisher nicht von Hynix angekündigt worden ist, oder?
Wo liegt da bei mir der Denkfehler bzw. wie kommst du auf 4GByte pro Stack wenn ein Dram DIE mit 256MByte angegeben wird.In der HBM-Spec sind in den Tabellen zur Adressierung des Speichers 1GBit, 2GBit und 4GBit pro Channel (also 1, 2 bzw. 4 GB pro Stack) explizit mit allen Angaben aufgeführt. Die Einführung der Spec erwähnt als Maximalwert sogar 32GBit pro Channel, die Anzahl der Addresslines gibt das auch her und es ist implizit angegeben, wie man das adressieren würde (es ist also nicht in Tabellenform beschrieben, aber für jeden klar, wie es aussehen würde).
"HBM Gen. 2" ist ja eher eine Erfindung von Sk hynix und spiegelt nicht das wieder was die Spec hergibt, die sicherlich zukunftssicherer ausgelegt ist. Leider müsste man sich den Zugang zur Spec erst erkaufen um das zu verifizieren.Der Zugriff auf die Spec ist wie gesagt umsonst (die von HBM2 gab es aber noch nicht bei der JEDEC als ich das letzte Mal geschaut habe). Es kann auch sein, daß "HBM2" in ein Update zur HBM-Spec einfließt, da die Änderungen doch überschaubar sind.
Im Wesentlichen betreffen die Unterschiede bei HBM2 eine Unterteilung jedes einzelnen 128Bit-Channels in zwei 64Bit Pseudo-Channel. Das ist auch in dem schon von Löschzwerg verlinkten pdf (http://www.memcon.com/pdfs/proceedings2014/NET104.pdf) beschrieben (Seite 13 und ab Seite 23), was vor allem Vorteile (Geschwindigkeit und Verbrauch) bei eher zufälligem Zugriff bietet (es können schlicht mehr Bänke pro Zeiteinheit aktiviert werden, weil die Pagegröße halbiert wird und damit auch der Strombedarf für die Aktivierung). Also HBM2 bringt schon etwas mehr als nur höheren Takt bzw. höhere Kapazitäten innerhalb der HBM-Spec, sondern durchaus auch ein paar interne Optimierungen (unabhängig davon, unter welchem Label das bei der JEDEC laufen wird).

Unicous
2014-11-27, 23:32:57
Also ist Gen. 2 keine "Erfindung" von SK hynix und spiegelt nicht ihren technologischen bzw. fertigungstechnischen Entwicklungsstand wieder, sondern ist ein zukünftiges Spec-Addendum der JEDEC. Ich ging die ganze Zeit von ersterem aus.

Gut zu wissen.

Bzw. scheint es bei den Präsentationen dennoch eine Vermischung aus Beidem zu sein. :mad:

Agent117
2014-11-28, 00:53:56
Mal eine andere Frage: Weiß jemand, wieviel DIE-Space die Farbkompression eigentlich kostet.
Wie bekannt und schon oft diskutiert ist Tonga ja sehr groß geraten.
Was bisher nicht diskutiert wurde ist, dass auch GM204 im Grunde recht groß geraten ist.
Ich meine sogar es gab hier im Forum eine Quelle, die <350mm² nannte und auch die meisten Spekulationen gingen von deutlich unter 400mm² aus.
Nicht dass ich daraus jetzt sicher schlussfolgern würde, der zusätzliche Platz sei auf die Kompression zurückzuführen; wenn dem so wäre, könnte Fiji vlt ohne Kompression auskommen und als reiner Gaming Chip.
So könnte man 4096 Shader schon ohne platzsparende Architekturverbesserungen in knapp über 500mm² realisieren.

Noch zu dem vermeintlichen Leak: Es ist der erste richtige Leak mit Aussagen über die performance überhaupt (von den Sisoft Einträgen mal abgesehen) und da werden dann gleich 19 Spiele gebencht? Möglich ist es, aber in der Vergangenheit waren gerade diese Leaks doch meistens Fake.
Oder Lisa Su hat den Laden nicht so gut im Griff wie Rory Read:biggrin:
Leaks gab es während seiner Amtszeit ja eigentlich keine

Nakai
2014-11-28, 01:05:19
Wenn das der GM200 ist und die Leistung linear mit den Einheiten skaliert, müsste GM200 irgendwie zwischen 900MHz und 1GHz takten, um Ergebnisse, wie im Leakrzu erhalten. Ich bin gespannt.

Unicous
2014-11-28, 01:08:30
@Agent117

Nvidia behauptet, sie nutzen Delta Color Compression schon deutlich länger, denn GM204 bzw. die 900er Serie hat ja bereits die dritte Generation integriert.
Frage ist, wie sie rechnen. In Architektur-Schritten oder in Series Schritten. Das könnte dann Kepler GK204 sein und danach GK110. Oder eben schon seit Fermi.

Fakt ist, dass Nvidia schon eine Weile gut mit im Vergleich geringerer Brandbreite auskommt.
Falls Nvidia's Behauptung stimmt, dürfte der sich der "Platzbedarf" (wenn überhaupt vorhanden) bei Maxwell in Grenzen halten.


Zu den Benchmarks. "Die Chinesen" sind meist sehr gründlich und Chiphell (oder auch Expreview und wie sie alle heißen) hat auch früher schon ausführliche "Previews" gepostet die nahe an der "Retailität" waren, das ist an sich kein Indiz für ein Fake.

Es natürlich aber auch kein Garant dafür, dass wir dennoch nicht an der Nase herumgeführt werden. Aus China kamen auch schon genauso viele Fakes.:freak:

Also bleibt das Fazit: Nichts genaues weiß man nicht. Und wenn dann auch noch Ailuros weitere Sämlinge des Zweifels sät, kann man eigentlich den Leak wieder vollkommen ausblenden.

Agent117
2014-11-28, 01:31:26
Stimmt, dass Nvidia die Kompression in Maxwell in der dritten Generation verbaute, hatte ich auch schonmal gehört; sagten sie glaube ich sogar direkt zum GM 204 Launch.
Irgendwo habe ich aber auch mal aufgeschnappt, dass die Kompression in Hardware angeblich gar nichts so besonderes sei, was man auch schon Jahre früher hätte bringen können.
Man tat es wohl nicht, weil es in deutlich gröberen Nodes wie zum Beispiel 90nm dann vielleicht wirklich bedeutend viel DIE-Space gekostet hätte.
In 28nm würde es demnach nur noch ein vertretbares Maß DIE-Size kosten und bei den mittlerweile wahrscheinlich sehr geringen Waferkosten für 28nm spielt DIE Size vermutlich sowieso nicht mehr so die Rolle, wie noch Anfang 2012. Deshalb der Gedanke, dass es vlt doch 30 bis 40mm² kostet aber kA.

Wenn der kommende 4096 SP-Chip tatsächlich nur knapp über 500mm² groß ist, bietet er ausgehend von Tonga ein deutlich besseres CU/mm² Verhältnis. Ein Teil wird sicherlich auf das dank HBM einfachere Interface zurückzuführen sein, aber auch ein nicht zu geringer Teil auf architektonische Verbesserungen. Das macht zumindest Hoffung, die Verbesserungen auch die FPS/Watt spürbar steigern.

Ailuros
2014-11-28, 06:16:13
Ich glaube Ailuros spielt hier einfach darauf an, dass der ominöse Chip einfach ein GM200 ist :D

Spass beiseite nein. Wenn dieses Captain Jack ein salvage part von Fiji sein sollte dann gibt es keinen Grund zur Unruhe.


Hawaii ist ungefähr 10% größer als GM204, etwas mehr als 10% langsamer als dieser und verbraucht 100W mehr.
Selbst wenn Hawaii mal den Compute-Ballast nicht hätte und er dementsprechend kleiner wäre und weniger Strom verbrauchen würde, würde sich die Relation dramatisch ändern? Aber um mal auf deine Masche zu springen. ;)

Was wäre, wenn dieser Chip NICHT Fiji ist. Der 4096SP-Chip ist nicht Fiji. Es ist kein Compute-Chip. Was wäre wenn es Treasure Island, Bermuda oder Maui ist? Was ist, wenn Fiji eher Ende 2015 kommt, also Anfang 2015? Was ist, wenn erstmal ein Gaming-Ersatz kommt. Wieso muss AMD den Compute-Chip schon ablösen? Hawaii ist so ziemlich das Stärkste derzeit auf dem Markt. Eventuell ist Fiji der Heterogene-Memory-Chip(PIM). Das würde zu sushiwarriors Aussage passen.

€: Bzw. was wir unter Fiji verstehen, ist nicht das was wir meinen.

Nach dem Zeug vom Hintergrund "soll" GM200 nicht nur um 15% schneller sein als GM204. Es muss nicht stimmen, aber so oder so wenn das wirklich der volle Fiji sein sollte dann mein eigenes "meh" denn ich hab ehrlich mehr erwartet.

Dawn on Titan
2014-11-28, 06:54:01
Das Sample ist ein teil deaktivierter Fiji mit niedrigem Takt. Ein Fire-Sample.

Unicous
2014-11-28, 12:03:01
Wäre natürlich schön, wenn du uns auch noch erläutern würdest wie du auf dieses Fazit kommst, oder uns die Quelle nennst.

ndrs
2014-11-28, 13:00:06
Oder den Satz in Richtung Konjunktiv editierst.

Nakai
2014-11-28, 15:47:39
Oder den Satz in Richtung Konjunktiv editierst.

Oder wir führen Seronx-Tags ein.

Unicous
2014-11-28, 15:48:20
Hihi, das habe ich mich nicht getraut zu schreiben.:tongue:

Ailuros
2014-11-28, 17:44:08
bitte loeschen :(

Godmode
2014-11-28, 18:16:48
Spass beiseite nein. Wenn dieses Captain Jack ein salvage part von Fiji sein sollte dann gibt es keinen Grund zur Unruhe.



Nach dem Zeug vom Hintergrund "soll" GM200 nicht nur um 15% schneller sein als GM204. Es muss nicht stimmen, aber so oder so wenn das wirklich der volle Fiji sein sollte dann mein eigenes "meh" denn ich hab ehrlich mehr erwartet.

Ein nur um 15% schnellerer GM200 wäre auch uninteressant, das erreicht man billiger mit einem Respin von GM204. GM200 wird schon wieder seine 30-40% drauflegen, da verwette ich einen Besen. :)

Ailuros
2014-11-28, 18:18:45
Ein nur um 15% schnellerer GM200 wäre auch uninteressant, das erreicht man billiger mit einem Respin von GM204. GM200 wird schon wieder seine 30-40% drauflegen, da verwette ich einen Besen. :)

Wunderbar; und wieso genau sollten AMD's engineers so besoffene Affen sein dass ein fast gleich so grosser chip nur so (relativ) wenig leisten sollte?

Nakai
2014-11-28, 18:28:24
Hihi, das habe ich mich nicht getraut zu schreiben.:tongue:

Ist auch ehrlich, nicht sonderlich böse gemeint. Wenn man mit Leib und Seele mitspekuliert, hofft man auf neue Technologien, Leistung, etc. Ich muss auch sagen, dass SeronX auch nicht sonderlich schlechte Spekulationen macht. Er recherchiert schon intensiv, seine Schlussfolgerungen sind meistens etwas an den Haaren herbeigezogen. Humorvoll finde ich seine Beiträge allemal.

Ein nur um 15% schnellerer GM200 wäre auch uninteressant, das erreicht man billiger mit einem Respin von GM204. GM200 wird schon wieder seine 30-40% drauflegen, da verwette ich einen Besen.

GM204 hat eine TDP und einen realen Verbrauch von 185W bzw. 165W. 250W ist 35% davor. GM200 hat 3072SPs, ergo 50% Mehrperformance. Der Takt wird noch so krass hoch sein, wie bei GM204, weswegen man eine Performance leicht über 35% spekulieren kann. GM200 wird etwa 35~40% vor GM204 landen. Das TDP-Limit wird NV ein bisschen stören, aber nicht viel.

GM200:
6 GPCs
4 SMMs pro GPC
3072SPs
6 ROP-Partitionen
96 ROPs
384 Bit SI (6*64 Bit)
3 MB L2-Cache

Passt einfach zu gut und ist ziemlich stark.

Reinher von Fiji's Specs, also 4096SPs, wird man nicht vor GM200 landen können...

Ailuros
2014-11-28, 19:09:07
Seit wann skaliert Leistung linear zum Stromverbrauch? Selbst die angeblichen Captain Jack Resultate sprechen dagegen denn sie zeigt sich um ca. 16% schneller als eine 980 bei 6% mehr Stromverbrauch oder auch GTX680= 195W TDP vs. GTX780Ti= 250W TDP und deren Leistungs-Unterschied ist auch um die 50% im Durchschnitt.

***edit: dieses Schlammasel mit den Verbrauchswerten hilft auch nicht. Eine 680 verbraucht in Echtzeit in Spielen auch keine 195W genauso wenig wie eine 780Ti 250W; der Unterschied zwischen den beiden duerfte aber schon im ~25% Bereich liegen was den Verbrauch betrifft.

Wenn etwas primaer die GM200 Leistung begrenzen wird, dann wohl eher fehlende Bandbreiten-steigerung. Bei 7 Gbps GDDR5@384bit sind es aber dann schon 336GB/s.

Nakai
2014-11-28, 19:18:58
Seit wann skaliert Leistung linear zum Stromverbrauch? Selbst die angeblichen Captain Jack Resultate sprechen dagegen denn sie zeigt sich um ca. 16% schneller als eine 980 bei 6% mehr Stromverbrauch oder auch GTX680= 195W TDP vs. GTX780Ti= 250W TDP und deren Leistungs-Unterschied ist auch um die 50% im Durchschnitt.

GK110 hat 87,5% mehr SPs als GK104. Man muss wohl die Taktraten etwas runterziehen, um im TDP-Limit zu bleiben. Beim GK110 tendenziell etwas mehr, was insgesamt für eine höhere Performance in diesem TDP-Bereich spricht. GM200 ist eben doch ein bisschen mehr von der Diesize eingeschränkt, als GK110 damals. GM200 wird wohl eher 3072SPs haben und hat dadurch "nur" 50% mehr SPs als GM204. Bis TDP von 250W passen, von GM204 aus gesehen, nur noch 65W rein, ergo 35% mehr Stromverbrauch zu verschleudern. Sind alle Einheiten aktiv, wird wohl der Takt ein bissche gesenkt werden um im TDP-Bereich zu passen. Bei nur 1,1GHz für einen hypothetischen GM200 gegenüber einen 1,2GHz GM204, steigt die Leistung gegenüber diesem um etwa 37,5% an.

Der Captain Jack Leak, würde auch für eine TitanII mit nur 2560SPs und leicht niedrigerem Takt sprechen. Ich denke damit würde man auch auf ~200W TDP kommen.


€:
***edit: dieses Schlammasel mit den Verbrauchswerten hilft auch nicht. Eine 680 verbraucht in Echtzeit in Spielen auch keine 195W genauso wenig wie eine 780Ti 250W; der Unterschied zwischen den beiden duerfte aber schon im ~25% Bereich liegen was den Verbrauch betrifft.

Naja GM20x kann direkt wohl die TDP konfiguriert werden. Wenn man 250W einstellt, wird der Chip auch max das verbrauchen.

Ailuros
2014-11-28, 19:28:10
GK110 hat 87,5% mehr SPs als GK104. Man muss wohl die Taktraten etwas runterziehen, um im TDP-Limit zu bleiben. Beim GK110 tendenziell etwas mehr, was insgesamt für eine höhere Performance in diesem TDP-Bereich spricht. GM200 ist eben doch ein bisschen mehr von der Diesize eingeschränkt, als GK110 damals. GM200 wird wohl eher 3072SPs haben und hat dadurch "nur" 50% mehr SPs als GM204. Bis TDP von 250W passen, von GM204 aus gesehen, nur noch 65W rein, ergo 35% mehr Stromverbrauch zu verschleudern. Sind alle Einheiten aktiv, wird wohl der Takt ein bissche gesenkt werden um im TDP-Bereich zu passen. Bei nur 1,1GHz für einen hypothetischen GM200 gegenüber einen 1,2GHz GM204, steigt die Leistung gegenüber diesem um etwa 37,5% an.

Eine GTX980 hat eine offizielle default Frequenz von 1.126GHz und weiss der Geier wie sich NV die angebliche 165W TDP dieser ausgerechnet hat. Aber wenn dann bescheiss wenigstens anstandshalber so gut wie NV, denn dann hast Du ploetzlich von 165 auf 250W (hypothetisch) ganze 95W Unterschied und ja weiss der Geier was ein voller GM200 mit boost und allen bells&whistles durchschnittlich in Echtzeit verbrauchen wird.

Das soll jetzt nicht heissen dass GM200 um 50, 60 oder sogar mehr Prozent skalieren wird, ich sehe lediglich nicht den Zusammenhang zum Stromverbrauch ueberhaupt da NV eine ganz "neue Perspektive" fuer TDPs erfunden hat.

Naja GM20x kann direkt wohl die TDP konfiguriert werden. Wenn man 250W einstellt, wird der Chip auch max das verbrauchen.

Echt? Warum verbrauchen dann die GM204 SKU um einiges mehr in Echtzeit als die von NV selber angegebene "TDP"?

Black-Scorpion
2014-11-28, 19:34:24
Da will man was neues zu AMDs GPUs lesen und was sieht man? Die Beweihräucherung wie gut oder schlecht die NV GPUs sind oder werden.

Nakai
2014-11-28, 19:59:01
Echt? Warum verbrauchen dann die GM204 SKU um einiges mehr in Echtzeit als die von NV selber angegebene "TDP"?

Ich präzisiere:
Nvidia gibt nur eine MGCP an. TDP gibts doch bei NV gar nicht mehr. NV konfiguriert ihre GPUs mit einem angepeilten Verbauch und die regeln sich dann selber in diesem Bereich. Dass es Abweichungen nach oben oder nach unten gibt ist doch dann normal.

http://www.computerbase.de/2014-11/manli-geforce-gtx-970-im-test/2/

Anscheinend gibt es viele Regelungsmöglichkeiten. Aufgelistet werden Temperatur und Powertarget.

Dass NV bescheisst ist doch klar. In anderen Foren vergleichen die Nutzer ihre GPUs, welche Qualität diese haben und wieviel Verbrauch diese bei Stock o.Ä haben. Im Endeffekt ist es egal, wie NV ihre Chips taktet. Es ist leider irgendwie schade, dass Reviews dadurch ziemlich lächerlich werden. Review-Samples können schön ausgewählt werden, damit ein besseres Bild entsteht. AMd macht das dann genauso.

Ailuros
2014-11-28, 20:01:22
Da will man was neues zu AMDs GPUs lesen und was sieht man? Die Beweihräucherung wie gut oder schlecht die NV GPUs sind oder werden.

Noch ein besonders konstruktiver und sachlicher Beitrag. Wenn Du wirklich etwas zum Thema beizutragen hast, dann schiess ruhig los.

Ich präzisiere:
Nvidia gibt nur eine MGCP an. TDP gibts doch bei NV gar nicht mehr. NV konfiguriert ihre GPUs mit einem angepeilten Verbauch und die regeln sich dann selber in diesem Bereich. Dass es Abweichungen nach oben oder nach unten gibt ist doch dann normal.

http://www.computerbase.de/2014-11/manli-geforce-gtx-970-im-test/2/

Anscheinend gibt es viele Regelungsmöglichkeiten. Aufgelistet werden Temperatur und Powertarget.

Dass NV bescheisst ist doch klar. In anderen Foren vergleichen die Nutzer ihre GPUs, welche Qualität diese haben und wieviel Verbrauch diese bei Stock o.Ä haben. Im Endeffekt ist es egal, wie NV ihre Chips taktet. Es ist leider irgendwie schade, dass Reviews dadurch ziemlich lächerlich werden. Review-Samples können schön ausgewählt werden, damit ein besseres Bild entsteht. AMd macht das dann genauso.

Darum geht es doch nicht im Grund. Es geht darum mit welchen Konstanten sich die IHVs bewegen und ich bezweifle dass AMD den Weg vermeiden wird. Mir geht es lediglich darum dass das was wir angeblich gesehen haben eben nicht die ganze Geschichte sein kann, eben weil 195W Verbrauch auch nicht wirklich das Ende der Leine sein kann, wenn dieses Ding auch wirklich etwas mit Fiji zu tun hat.

Nakai
2014-11-28, 20:27:14
Captain Jack klingt mir eher nach Häme gegen AMDs Pirate Islands.

Wenn der Chiphell Leak was mit Fiji zu tun hat und Fiji bei 15% Mehrperformance kaum mehr als GM204 verbraucht, natürlich ist dann noch Luft nach oben. Die Frage ist eher, wie gut der Chip skaliert. Bis 250W ist noch etwas Luft. Dass dann manche Chips +- 250W haben, ist doch egal.

Mich würde es nicht wundern, wenn ein Chip, welcher dementsprechend gut skaliert, erstmal unter dem Möglichen veröffentlicht wird.

Ailuros
2014-11-28, 20:31:40
Captain Jack klingt mir eher nach Häme gegen AMDs Pirate Islands.

Wenn der Chiphell Leak was mit Fiji zu tun hat und Fiji bei 15% Mehrperformance kaum mehr als GM204 verbraucht, natürlich ist dann noch Luft nach oben. Die Frage ist eher, wie gut der Chip skaliert. Bis 250W ist noch etwas Luft. Dass dann manche Chips +- 250W haben, ist doch egal.

Mich würde es nicht wundern, wenn ein Chip, welcher dementsprechend gut skaliert, erstmal unter dem Möglichen veröffentlicht wird.

28nm hat den Nachteil dass er die IHVs bis zu einem Punkt an der oberen Grenze begrenzt, hat aber auch den Vorteil dass es als Prozess auf ziemlich reifen und stabilen Beinen steht.

Agent117
2014-11-28, 21:11:25
Wenn der Chiphell Leak was mit Fiji zu tun hat und Fiji bei 15% Mehrperformance kaum mehr als GM204 verbraucht, natürlich ist dann noch Luft nach oben. Die Frage ist eher, wie gut der Chip skaliert. Bis 250W ist noch etwas Luft. Dass dann manche Chips +- 250W haben, ist doch egal.

Mich würde es nicht wundern, wenn ein Chip, welcher dementsprechend gut skaliert, erstmal unter dem Möglichen veröffentlicht wird.

Ist halt die frage, wieviel Luft da nach oben noch ist.
Hier hat man sich mal die Mühe gemacht und die Effizienzkurve einer GTX 970 ermittelt mit sehr genauen Messmethoden.
http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652-4.html

Man sieht dort, dass der Sweet Spot der GTX 970 bei ca. 125Watt liegt, was ca 1220 Mhz entspricht.
Die Endprodukte im Consumerbereich werden in der Regel, auf die Taktrate bezogen, oberhalb dieses Sweet Spots aufgelegt, wie auch die GTX 970.

Fiji und Tonga waren auf der Synapse Design Folie beide mit 1Ghz angegeben.
Ich denke aber, dass damit die Zieltaktrate für endprodukte gemeint ist und nicht der Sweet Spot.

Die Leistung der Leaks würde gut zu einen Fiji mit 4096SP und ca 850 Mhz passen.
Geht man von der Zieltaktrate von 1Ghz aus und setzt die Effizienzkurve der GTX 970 an (weiter nach unten verschoben, denn maxwell ist offensichtlich für sehr hohe Taktraten ausgelegt), liegt der Sweet Spot von Fiji genau bei genannten 850 Mhz. Dies entspricht auch genau einer Verbrauchsdifferenz von 50Watt; ein Fiji mit 1Ghz im Vollausbau verbraucht demnach genau 250 Watt, was ja für Radiallüfter bisher immer das Maximum darstellte.

Auch wenn die Kurve von Fiji sicher nicht ganz der von GM 204 entsprechen wird, finde ich das insgesammt recht stimmig; besonders die Relation 200W zu 250W = 850Mhz zu 1Ghz (Zieltaktrate). Je nach Skalierung kann man also nochmal 12 bis 18 Prozent Leistung auf die geleakten (oder doch gefakten) Benchmarks drauflegen.

Man wäre damit ca 30% vor der GTX 980. GM 200 wird auch nicht viel schneller als +30% zur GTX 980 sein, wenn überhaupt.

horn 12
2014-11-29, 09:26:53
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Sapphire-Feedback-R9-290X-Tri-X-Vapor-X-1144064/

Hoffe diesesmal wirklich auch auf einen guten, von Haus aus AMD Referenz Kühler für die Neue Generation R9 390
Mit 40% könnte man schon leben, besser wären 35% des AMD R9 290 Referenz Lüfters.
Sollten die knapp 200 Watt wirklich stimmen , sollte es gar mit einem weitaus Besseren AMD Referenz Kühler möglich sein, die R9 390 doch recht leise kühlen zu können!!

Kriton
2014-11-29, 15:43:19
GM204 hat eine TDP und einen realen Verbrauch von 185W bzw. 165W.

Ich finde dies immer grenzwertig. Viele custom designs liegen in der TDP deutlich drüber. Gutes Marketing von Nvidia, aber ich habe immer das Gefühl (auch hier im Forum) verwirbelt man die Leistungsdaten der customs mit der TDP der Referenz.

Nakai
2014-11-29, 16:10:17
Ich finde dies immer grenzwertig. Viele custom designs liegen in der TDP deutlich drüber. Gutes Marketing von Nvidia, aber ich habe immer das Gefühl (auch hier im Forum) verwirbelt man die Leistungsdaten der customs mit der TDP der Referenz.

Custom Designs halte ich aueßen vor. Die schießen deutlich höher, da diese nahezu kein Powerlimit haben. Bei Compute gehen die schon an die 300W und erreichen dann sogar Tahiti-Niveau(2048SPs vs 2048SPs). Also alles gut.

Es ist eh bitter für NV nichtmal im Ansatz an AMD anzukommen, im Bereich von Compute. Dass NV nichtmal OpenCL gut unterstützt, sagt schon alles über die Motivation von NV aus. NV will in ihrem eigene Bereich eben König bleiben. Hoffentlich wird NV bald mal ordentlich abgestraft, dass sie OpenCL nur so mangelhaft unterstützen.

Wie schon von mir, woanders erwähnt, wenn der Leak Fiji entspricht, ist AMD wieder eine Gen weiter als NV.

Hübie
2014-11-29, 16:10:44
Das liegt auch an der Intransparenz der Kommunikation. Vorgestellt wird z. B. das Referenzdesign, aber getestet wird dann eine Custom mit 250 Watt. Fakt ist aber auch dass selbst die "Referenzkarte" der 970 mit R9 290 mit hält oder überholt.
Also ists am Ende nicht so wild.

Dawn on Titan
2014-11-29, 16:19:09
Wäre natürlich schön, wenn du uns auch noch erläutern würdest wie du auf dieses Fazit kommst, oder uns die Quelle nennst.
Weil das nach meinen Infos die einzige reale Option wäre wie man die Benches erstellt haben kann. Alles andere wäre sehr überraschend oder Fake - zumindest wenn der Big-Chip auf der Karte war.

Nakai
2014-11-30, 18:21:01
https://www.zauba.com/import-printed+circuit+board+assembly/fp-canada-hs-code.html

Anscheinend noch ein Fiji unterwegs auf Zauba. Diesmal steht zwar kein Fiji dabei, aber die C-Nummer ist identisch, der Preis auch so ziemlich.^^;)

john carmack
2014-12-02, 09:47:51
Hey Leute...
Wenn wirklich HBM Verbaut werden sollte - mit welcher Bandbreite ist dann zu rechnen?

Gibt es dazu irgendwelche Hinweise?

M4xw0lf
2014-12-02, 09:55:44
Viel.

http://www.3dcenter.org/news/was-man-mit-high-bandwith-memory-anfangen-kann ;)

john carmack
2014-12-02, 09:58:09
hmmm, ok,

weiß auch keiner wie hoch so ein HBM getaktet sein könnte?

Locuza
2014-12-02, 10:29:09
weiß auch keiner wie hoch so ein HBM getaktet sein könnte?
1 Ghz und mehr.
Wenn es bei 640 GB/s für Fiji bleibt, 1.25 Ghz bei Fiji für den HBM.

ndrs
2014-12-02, 10:31:43
hmmm, ok,

weiß auch keiner wie hoch so ein HBM getaktet sein könnte?
Ja, steht alles hier und im HBM-Thread.

y33H@
2014-12-02, 12:42:05
1 Ghz und mehr. Wenn es bei 640 GB/s für Fiji bleibt, 1.25 Ghz bei Fiji für den HBM.Gen2 kann 1+ GHz, Gen1 nicht. Für 640 GB/s reicht mit Gen1 bei 4096 Bit SI ein Takt von knapp 650 MHz.

john carmack
2014-12-02, 12:44:22
1 Ghz und mehr.
Wenn es bei 640 GB/s für Fiji bleibt, 1.25 Ghz bei Fiji für den HBM.


Wie funktioniert HBM eigentlich?
also - DDR überträgt Daten auf der ansteigenden und abfallenden Flanke.
Bedeutet das aus 1GHz Takt effektiv 2GHz werden.

Wie ist das bei HBM?

ndrs
2014-12-02, 12:57:18
Genauso. Schau halt mal in den entsprechenden Thread. Da sind alle Präsentationen verlinkt oder direkt drin.

Locuza
2014-12-02, 13:04:36
Gen2 kann 1+ GHz, Gen1 nicht. Für 640 GB/s reicht mit Gen1 bei 4096 Bit SI ein Takt von knapp 650 MHz.
Ich habe schon den "effektiven" Takt gemeint.
Ansonsten wären es 625 Mhz.


Wie ist das bei HBM?
DDR like, effektiv 1 Ghz.

StefanV
2014-12-02, 14:52:43
...nur, dass das DDR Verfahren die BUSBREITE verdoppelt, nicht den Takt. Das ist einfach PR-Gewäsch von irgendwelchen Firmen, die hier prahlen wollten.

Ergo:
128bit DDR-SDRAM entspricht 256bit SDR-SDRAM, bei gleichem Takt...
Dieser 'Effektive Takt' ist einfach nur Marketing Blödsinn, den irgendwer in die Welt gesetzt hat...

ndrs
2014-12-02, 15:48:56
...nur, dass das DDR Verfahren die BUSBREITE verdoppelt, nicht den Takt. Das ist einfach PR-Gewäsch von irgendwelchen Firmen, die hier prahlen wollten.

Da würde ich widersprechen. Die zusätzlichen Daten werden ja NACH den anderen übertragen, nicht gleichzeitig. Die Daten insgesamt kommen also mit einer höheren Frequenz an.

HOT
2014-12-02, 15:58:12
Da an jeder Taktflanke ein Signal übertragen wird, verdoppelt sich effektiv der Takt. Da verändert sich gar nix an der Busbreite. Du brauchst ebenfalls nur 128 Signale für 128Bit DDR wie für SDR.

Locuza
2014-12-02, 16:17:48
http://www.xbitlabs.com/images/memory/ddr2/timing2.gif

Ghz haben sich bei Laiengesprächen mittlerweile eingebürgert, ich gewöhne mir selber in Zukunft Gbps an, dann kommt es hoffentlich nicht zu Verwirrungen.

y33H@
2014-12-02, 17:44:48
DDR like, effektiv 1 Ghz.Das ist in der Tat etwas verwirrend, wenn GHz statt Gbps genutzt werden ... ich glaube aber, man kann das den Lesern zumuten, also künftig Gbps :biggrin:

Raff
2014-12-02, 17:54:10
Die MHz-Angaben sind eigentlich schon seit dem Wechsel von SDR- auf DDR-SDRAM irreführend. Gbps FTW! ;)

MfG,
Raff

Nightspider
2014-12-02, 17:57:03
Spannend wird eben wie sich sich die doppelte Bandbreite auf 4K Benchmarks auswirken wird.

Würde mich nicht wundern wenn alleine die Bandbreite ein Boost von ~10% bringt.

Fiji dürfte auf jeden Fall die optimale Karte für 4K werden. (Vielleicht sogar im Vergleich zu GM200)

ndrs
2014-12-02, 18:02:12
Die MHz-Angaben sind eigentlich schon seit dem Wechsel von SDR- auf DDR-SDRAM irreführend. Gbps FTW! ;)

Ach, ich finde das kommt immer auf den Kontext an. Wenn ich bei DDR davon spreche, dass die Daten mit einem Takt von x übertragen werden ist das zumindest richtiger als "Der Speicher läuft mit Frequenz x".
Wenn man Gbps verwendet muss man wieder aufpassen, dass es der Leser nicht mit der Gesamtbandbreite verwechselt, also kommt es auch wieder auf den Kontext an. Vielleicht sollte man Gbpspl (Gpbs per lane) einführen :D

Locuza
2014-12-02, 18:10:05
ich glaube aber, man kann das den Lesern zumuten, also künftig Gbps :biggrin:
Auf jeden Fall lieber früher als später Umerziehen. :)



Würde mich nicht wundern wenn alleine die Bandbreite ein Boost von ~10% bringt.

Wobei wenn bei 100% mehr Bandbreite nur 10% herauskommen, dass reichlich mager wäre, aber auch zeigt wie gut beim Flaschenhals optimiert wurde.
Bei Compute sollte es sich allerdings nennenswert durchschlagen.

Mit HBM wäre ein GPU-Launch so spannend wie lange nicht mehr.

Nightspider
2014-12-02, 18:19:30
Naja es gibt auch Einzelfälle wo manche bei einer R9 290X den VRAM um 25-30% übertakten konnten aber das hat auch nicht extrem viel gebracht. Wobei die damals auch nicht in 4K getestet haben.
Aber stell mir mal vor da würden wirklich 20% bei rumkommen, dann kann GM200 unter 4K ja einpacken. Gerade weil der AMD Architektur so gut 4K liegt. (42% mehr Einheiten und 20% durch Bandbreite wären schon 70% mehr Leistung nach Mildmädchenrechnung)

Skysnake
2014-12-02, 18:40:34
Das ist in der Tat etwas verwirrend, wenn GHz statt Gbps genutzt werden ... ich glaube aber, man kann das den Lesern zumuten, also künftig Gbps :biggrin:
Naja, das kann auch wieder zu Verwirrung führen. Man kann ja auch mehr als 1 Bit pro Takt übertragen pro Kanal, oder eben mehrere Datenkanäle zusammenfassen usw usw.

Die Angabe der Frequenz + takt/flankensteuerung + #Zustände ist an sich die einzige vollständige Angabe für die Bruttodatenraten, was ja noch nichts über die Nettodatenrate aussagt ;)

samm
2014-12-02, 20:02:16
Mit HBM wäre ein GPU-Launch so spannend wie lange nicht mehr.Genau deswegen vermute ich, dass erstmal für ne Zeit noch nichts mit HBM kommt :freak:

Schaffe89
2014-12-02, 20:22:22
Aber stell mir mal vor da würden wirklich 20% bei rumkommen, dann kann GM200 unter 4K ja einpacken. Gerade weil der AMD Architektur so gut 4K liegt. (42% mehr Einheiten und 20% durch Bandbreite wären schon 70% mehr Leistung nach Mildmädchenrechnung)

Ich vermute mal dass Captain Jack unter 4k in etwa 25% vor einer GTX 980 war.
Wenn man davon ausgeht, dass dies lediglich eine beschnittene Karte mit 900 mhz war, ein Vollausbau mit 1ghz durchaus GM200 erreichen.

Ich denke AMD geht mit dem schnellsten Chip + Wasserkühlung keine Kompromisse.
Außer Nvidia legt mit Wakü nach, glaube ich aber nicht.

blaidd
2014-12-02, 20:26:18
Captain "Calico" Jack Rackham (wohl historisches Vorbild für Johnny Depps Charakter) - Bevorzugtes Operationsgebiet: Bermuda
Erste historische Erwähnung: Als Quartiermeister eines Schiffes namens "Treasure"

Die anderen AMD-"Inseln" liegen alle im Pazifik.

;) Nur mal so zur Anregung. Das weiß ich zufällig, weil meine in den USA (und in der Nähe eines angeblichen Anlaufhafens Captain Jacks) lebende Tante riesen Fan von ihm ist. Sie hat sogar ihren Hund nach ihm benannt...

Agent117
2014-12-02, 23:21:52
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Sapphire-Feedback-R9-290X-Tri-X-Vapor-X-1144064/

Hoffe diesesmal wirklich auch auf einen guten, von Haus aus AMD Referenz Kühler für die Neue Generation R9 390
Mit 40% könnte man schon leben, besser wären 35% des AMD R9 290 Referenz Lüfters.
Sollten die knapp 200 Watt wirklich stimmen , sollte es gar mit einem weitaus Besseren AMD Referenz Kühler möglich sein, die R9 390 doch recht leise kühlen zu können!!

Da steht ja ein Fragezeichen aber immernoch davon ausgehend, dass die geleakten Benchmarks stimmen, sollte Fiji in der Gaming Version mit 1Ghz und 250Watt Spieleverbrauch daherkommen.
Der Tri-X Lüfter war doch auf der 290X schon hervorragend.
Bei >=300W mahcht er sicher keine so gute Figur mehr.

An und für sich auch garnicht so verkehrt von AMD für das Referenzdesign auf einer Kompakt-Wasserkühlung zu setzen.
Damit kriegt man gute Presse und die Partnerdesigns, auf denen kein Radiallüfter verbaut werden muss sind auch schön leise und kriegen auch gute Presse. Die bekämen unter Umständen nur ein Problem, wenn Fiji deutlich mehr als 250W verbrät; noch mehr als 300W was dann irgendwann nur noch laut mit Luft zu kühlen ist.

Botcruscher
2014-12-03, 10:44:31
Das mit der WaKü finde ich ganz anders. NV hat es mit einer nicht existierenden Referenz viel besser gemacht. Alles schön den Herstellen überlassen. Gerade beim Verbrauch hat das super funktioniert. Da hat jeder die kleinen Modelle im Kopf während der Rest auch seine 200W aufwärts nimmt. Der Start der 290 vs 970/980 zeigt doch was bei AMD schief läuft.

differenzdiskriminator
2014-12-03, 11:34:24
während der Rest auch seine 200W aufwärts nimmt.
Auch das ist für die gebotene Leistung konkurrenzlos wenig.

Da wird AMD erstmal zeigen müssen, dass sie es besser können.

Agent117
2014-12-03, 11:40:32
Das mit der WaKü finde ich ganz anders. NV hat es mit einer nicht existierenden Referenz viel besser gemacht. Alles schön den Herstellen überlassen. Gerade beim Verbrauch hat das super funktioniert. Da hat jeder die kleinen Modelle im Kopf während der Rest auch seine 200W aufwärts nimmt. Der Start der 290 vs 970/980 zeigt doch was bei AMD schief läuft.

Wird aber denke ich ähnlich sein wie bei der GTX 970. So eine Kompakt Wakü kostet schon was und die Hersteller werden lieber ihre eigenen, billigeren Designs verkaufen wollen.
Von der GTX970 gibt es ja gerade mal ein inofizielles Referenzdesgn; könnte mir vorstellen, dass das bei der R9 390(X) ähnlich werden wird.

Hübie
2014-12-03, 12:30:52
Das würde ich sogar begrüßen. AMD bekommts net auf die Reihe vernünftige Kühler zu konstruieren X-D

edit: okay allgemein sind Ref-Kühler fürn Arsch.

OBrian
2014-12-03, 16:15:34
Das Referenzmodell der 970 ist ja eh offensichtlich ein Blendwerk, was nicht in der Form den Markt großartig abdecken sollte (vorhersehbar, wenn die Herstellungskosten höher sind als nötig). Bißchen niedriger getaktet für weniger Abwärme, einen etwas teureren Kühler für weniger Lautstärke und bessere Kühlung - alle Reviewer jubeln, aber was hinterher hauptsächlich im Markt ist, sind die Modelle mit mehr Abwärme und schlechterer, ggf. lauterer Kühlung.

So kann man das sicherlich machen (der eine bezeichnet es als Kundeverarsche, der andere als gutes Marketing; ich sage, das ist dasselbe). Nur sollte man dann den Maßstab auch für AMD anwenden. Wenn die ein Referenzmodell bringen, was tatsächlich marktfähig ist, dann sollte man das bitte auch mit dem vergleichen, was als 970 verkauft wird und nicht an den getesteten 970-Alibimodellen. Es ist ja nicht so, daß es schwierig wäre, einen guten Kühler zu konstruieren. Es ist schwierig, einen guten und gleichzeitig günstigen Kühler zu konstruieren. Die Referenzmodelle bei AMD waren immer die Untergrenze, das Mindestmögliche, und die Herstellerdesigns durften sich dann nach oben hin absetzen. Nvidia setzt den Referenzkühler qualitativ höher an, dann werden die Hersteller das eben unterbieten, um günstigere Modelle anbieten zu können.

Leonidas
2014-12-03, 16:43:41
So weit ich weiss, hat keiner 970er Alibi-Modelle getestet. Es wurden ausschließlich Herstellerversionen getestet, die auch so in den Markt gingen. Referenzmodelle zur 970 gibt es gar nicht, nicht einmal bei NV. Ergo gab es auch keine Tests damit.

Generell gesprochen hast Du natürlich trotzdem Recht.

Menace
2014-12-03, 17:10:45
Nvidia setzt den Referenzkühler qualitativ höher an, dann werden die Hersteller das eben unterbieten, um günstigere Modelle anbieten zu können.

Was ich in diesem Fall aber absolut legitim finde. AMD stellt sich da extrem idiotisch an. Wenn der Referenzkühler Mist ist und das auch in den Tests steht, wird das entsprechend bei den Kunden abgespeichert. Da können später noch so gute Custom-Designs kommen, die Karten sind einfach weniger gefragt (mich als Kunde freut es, da die Preise dann niedriger sind).

Welchen Grund hat es eigentlich, wenn GPU-Hersteller so lange das Custom-Design unterbinden?

Agent117
2014-12-03, 18:28:01
Ihr müsst aber auch bedenken, dass die Referenzkühler alle Radiallüfter sind und da ist es dann um einiges schwieriger 250Watt leise wegzukühlen, wenn die komplette Abluft nur durch die Slotblende ausströmen kann, anstatt sich im kompletten PC zu verteilen.
Ein gleich guter Radiallüfter wird daher in der Regel aufwendiger und auch teurer sein.

@Leonidas

http://extreme.pcgameshardware.de/grafikkarten/363833-user-review-palit-gtx-970-radial-design.html

Hier wurde eine pseudo Referenzkarte mit dem Lüfter der GTX 980 getestet.
Kostet auch 100 mehr als die billigsten Herstellerdesigns.

ndrs
2014-12-03, 18:39:17
Ihr müsst aber auch bedenken, dass die Referenzkühler alle Radiallüfter sind und da ist es dann um einiges schwieriger 250Watt leise wegzukühlen, wenn die komplette Abluft nur durch die Slotblende ausströmen kann, anstatt sich im kompletten PC zu verteilen.
Ein gleich guter Radiallüfter wird daher in der Regel aufwendiger und auch teurer sein.

Darum ging es doch. Zum Launch teure Referenzkühler an die Redaktionen verteilen. Gute Pressestimmen sammeln. Und dann die Hersteller auf die Kostenoptimierung mittels Billigkühler loslassen.

Hier wurde eine pseudo Referenzkarte mit dem Lüfter der GTX 980 getestet.
Kostet auch 100 mehr als die billigsten Herstellerdesigns.
Leo meinte sicherlich die Launch-Reviews in seinem Post, da es ja um den Ersteindruck ging.

OBrian
2014-12-03, 23:44:29
Was ich in diesem Fall aber absolut legitim finde. AMD stellt sich da extrem idiotisch an. Im Sinne des Marketings sicherlich, der Eindruck ggü. dem Endkunden leidet darunter. Aber es geht wohl darum, den Herstellern von Anfang an ein Design zur Verfügung zu stellen, daß sie günstig herstellen und damit auch günstig verkaufen können, so daß die Endkundenpreise so niedrig wie möglich sind und die Kartenhersteller trotzdem was dran verdienen. Und zudem haben die Kartenhersteller dann die Möglichkeit, qualitativ bessere Produkte selber nachzuschieben und dafür auch mehr Geld zu verlangen. So eine Haltung stimmt die Kartenhersteller ggü. AMD sicher freundlicher.

Drogenbaron
2014-12-04, 00:20:38
So kann man das sicherlich machen (der eine bezeichnet es als Kundeverarsche, der andere als gutes Marketing; ich sage, das ist dasselbe).
Sorry, aber wenn man hier im Forum (durchaus begründet) argumentiert, dass AMD-Karten viel Leistung aufnehmen, damit aber eben auch heiß und laut sind, wir immer als erstes mit Customdesigns argumentiert und behauptet, niemand würde eine AMD-Referenzkarte kaufen.

Für die StateoftheArt Karte ist allerdings sicherlich TtM (Time to Market) nicht uninteressant und daher ein Referenz-only Design deutlich wichtiger. So pappt der OEM einfach nur seinen Sticker drauf und gut. Custom braucht natürlich einige Wochen/Monate länger.

Darum ging es doch. Zum Launch teure Referenzkühler an die Redaktionen verteilen. Gute Pressestimmen sammeln. Und dann die Hersteller auf die Kostenoptimierung mittels Billigkühler loslassen.
Die OEMs optimieren in Sachen Kosten eher die PCBs als die Kühler. Der muss halt möglichst leise sein (egal wo die Hitze hin geht) und funky aussehen. Rest ist egal.

Ich bin über meine GTX980 im Referenzdesign also tatsächlich froh. Ich denke all-in-all besser geht nicht - außer ich akzeptiere deutlich höhere Temperaturen im Gehäuse, weil das Customdesign die Wärme eben schön im Gehäuse verteilt.

Agent117
2014-12-04, 01:15:24
Bei der GTX 970 gabs doch direkt nur Custom Designs. Wie lange ein Custom Design dauert, hängt doch einzig davon ab, ab wann AMD und Nvidia alle zur Entwicklung notwendigen Informationen an die Partner bekannt gibt bzw. Samples verschickt und natürlich ob sie Custom-Designs überhaupt von Anfang an erlauben.

Wenn zum Beispiel die R9 390X auch 250W Spieleverbrauch wie die 290X hat und sich auch PCB relativ ähneln sollte es kein Problem sein für die Hersteller sämtliche Custom Kühler der 290X mit geringen Modifikationen weiterzuverwenden.

Leonidas
2014-12-04, 03:09:38
@Leonidas

http://extreme.pcgameshardware.de/grafikkarten/363833-user-review-palit-gtx-970-radial-design.html

Hier wurde eine pseudo Referenzkarte mit dem Lüfter der GTX 980 getestet.
Kostet auch 100 mehr als die billigsten Herstellerdesigns.



Kam später, ist ergo für den Ersteindruck nicht mehr relevant.

Außerdem ist das kein Referenzdesign. Es ist ein Eigendesign von Palit. Niemand anderer bietet das in dieser Form an.

MechWOLLIer
2014-12-04, 09:21:43
Es ist das (inoffizielle) Referenzdesign ;) Gibts auch noch von anderen Herstellern.

Schnitzl
2014-12-04, 12:52:43
Entschuldigung hab mich verlesen, Beitrag kann gelöscht werden.

Drogenbaron
2014-12-04, 12:59:13
das wäre mir neu, dass die Referenzkarte die Wärme im Gehäuse verteilt.
(egal ob GTX980 oder R290x)
Streiche Referenz, setze Custom, war wohl schon zu spät ;D

OBrian
2014-12-04, 17:37:16
Sorry, aber wenn man hier im Forum (durchaus begründet) argumentiert, dass AMD-Karten viel Leistung aufnehmen, damit aber eben auch heiß und laut sind, wird immer als erstes mit Customdesigns argumentiert und behauptet, niemand würde eine AMD-Referenzkarte kaufen.

ja, später. z.B. VTX hat erst Referenzdesign-Karten vertickt, dann durch die v2 vollständig abgelöst, die einen anderen Kühler haben. Das Referenzdesign ist, wie Du ja auch sagst, für die erste Zeit wichtig, später fällt es dann weg, weil es uninteressant geworden ist. Gäbe es das noch, würden es sicher auch einige Leute kaufen, wenn es das billigste ist, Kühlerreviews lesen ja auch nicht alle, und in PC-Läden gibt es oft sowieso nur eine Version.

Bei nur anderem Kühler wird die Leistungsaufnahme ja nicht unbedingt besser, die Referenz-Radiallüfter sind aber meist relativ laut, die anderen üblicherweise alle leiser. Das ist ja schon ein Vorteil.

Was ich meine, die Meinung über eine Karte wird bestimmt durch die Launch-Reviews. Also ist das zuerst verfügbare Design entscheidend für das "Gefühl" des Kunden über die ganze Lebenszeit der Karte. Bei der 970 denkt man nun also "viel sparsamer und effizienter als die Konkurrenz", selbst wenn die meisten 970, die nun und in Zukunft verkauft werden, weniger effizient als die ersten Testobjekte sind.

Und sie wird nebenbei gesagt auch bestimmt durch den Preis zu der Zeit, wo die Launch-Reviews verfaßt werden. Z.B. die 5850 war als super bekannt, aber neben den technischen Fähigkeiten auch deswegen, weil der Preis dafür anfänglich sehr (zu) niedrig angesetzt war. Als er dann marktbedingt stieg und lange deutlich höher blieb, hat sich trotzdem immer noch die Einschätzung "Preis-Leistungs-Sieger, muß man unbedingt kaufen" in den Reviews und Kommentaren lesen lassen, obwohl es bei 280 statt 200 € gar nicht mehr so eindeutig das beste Preis-Leistung-Verhältnis war. Das war aber wohl eher ein Glücksfall, den AMD gar nicht als solchen erkannt geschweige denn geplant hat. Unter ihren eigenen Marketing"fähigkeiten" haben sie ja immer schon gelitten...


Eigentlich rege ich mich dabei gar nicht so sehr über das Verhalten der Firmen auf, eher über die Dummheit oder besser gesagt Faulheit der Leute, die es einfach für unnötig erachten, sich mit einem Sachverhalt genau auseinanderzusetzen, um eine ernsthaft fundierte Entscheidung zu treffen. Nee, lieber für hundert Euro zuviel irgendeinen Schund kaufen, als 5 min die Denkmurmel anzuwerfen. Ist dasselbe überall, in der Politik z.B., wo anhand des besten Wahlplakat-Lächelns gewählt wird, oder beim Tanken, wo in Zeiten komplett transparenter und sekundengenauer Preisvergleiche immer noch nur ein Drittel der Leute überhaupt auf den Preis achtet: "naja, dann zahl ich eben 10 € pro Tankfüllung mehr" - 20 sek per Smartphone ins Internet zu schauen und noch einen Kilometer weiterzufahren ist schließlich zu aufwendig :]

Boah ich kann manchmal gar nicht soviel essen wie ich kotzen möchte. Aber egal, lassen wir das.

Drogenbaron
2014-12-05, 09:12:49
Bei der 970 denkt man nun also "viel sparsamer und effizienter als die Konkurrenz", selbst wenn die meisten 970, die nun und in Zukunft verkauft werden, weniger effizient als die ersten Testobjekte sind.
Auch wenn die neuen CustomDesigns "weniger effizent" sind, sind sie dennoch "viel sparsamer und effizenter als die Konkurrenz".

Es passt daher alles.

Dural
2014-12-05, 09:21:45
Das war bei AMD schon jemals anders, oder? :rolleyes:

AMD geht noch viel schlimmer gegenüber ihren Kunden vor, den da gab es schon extrem effiziente Referenz Karten die so nie in den Handel gelangten.

Ich sehe das Problem nicht ganz, jede 970 die getestet wurde kam auch in den Handel, und wer OC Versionen kauft muss bei jeder Grafikkarte egal welches Modell mit einer schlechteren Energiebilanz leben.

Ailuros
2014-12-05, 10:25:56
Auch wenn die neuen CustomDesigns "weniger effizent" sind, sind sie dennoch "viel sparsamer und effizenter als die Konkurrenz".

Es passt daher alles.

Eins der drei ITX 970 Varianten die seit kurzem erschienen sind:

http://www.gigabyte.com/products/product-page.aspx?pid=5252#ov

System power supply requirement: 400W (with one 8-pin external power connectors)

Drogenbaron
2014-12-05, 10:40:30
Siehst du, 100W weniger als die NV-Angabe :)

Min. erforderliche Systemleistung 500 W

http://www.nvidia.de/object/geforce-gtx-970-de.html#pdpContent=2

reaperrr
2014-12-05, 10:43:13
Eins der drei ITX 970 Varianten die seit kurzem erschienen sind:

http://www.gigabyte.com/products/product-page.aspx?pid=5252#ov

System power supply requirement: 400W(with one 8-pin external power connectors)

Worauf willst du damit hinaus?

400W-Netzteil ist für diese Performance-Klasse eine extrem niedrige Empfehlung, für eine GTX 760 wird z.B. mindestens ein 500W-NT empfohlen, für die Sapphire 270X Toxic Boost sogar 600W.

Ailuros
2014-12-05, 10:57:47
Worauf willst du damit hinaus?

400W-Netzteil ist für diese Performance-Klasse eine extrem niedrige Empfehlung, für eine GTX 760 wird z.B. mindestens ein 500W-NT empfohlen, für die Sapphire 270X Toxic Boost sogar 600W.

Es soll heissen dass es nicht nur die super duper OC Varianten einer 970 gibt (wobei auch manche 600W Netzteile vorraussetzen) sondern auch bescheideneres Material mit nur einem 19cm PCB wie im Fall der Gigabyte ITX 970. Du darfst Dich aber bei Gigabyte beschweren warum sie nur einen 8 pin Anschluss fuer die GPU installiert haben.

Sonst liegt hier keine Parallele zu voriger Generation GPUs, ueberhaupt da es auch 270X Varianten gibt wo der Hersteller nur 500W PSUs vorschlaegt.

differenzdiskriminator
2014-12-05, 11:05:40
Es soll heissen dass es nicht nur die super duper OC Varianten einer 970 gibt (wobei auch manche 600W Netzteile vorraussetzen) sondern auch bescheideneres Material mit nur einem 19cm PCB wie im Fall der Gigabyte ITX 970. Du darfst Dich aber bei Gigabyte beschweren warum sie nur einen 8 pin Anschluss fuer die GPU installiert haben.
8 PIN sollte doch locker für eine GTX970 reichen, sind dann ja mit PCIe 225W.

Es ist eben die Frage von welchem CustomDesign mal grundsätzlich geredet wird. Aber selbst wenn man schlechteste in Sachen Effizienz heraussucht wird es eine bessere Effizienz haben als eine ähnliche schnelle Radeon.

Und darauf kommt es an.

HOT
2014-12-05, 13:01:29
Für ne 280 wird 650-750W vorgeschlagen, je nach Anbieter und Variante. Das liegt daran, weil die Peak-Leistung bei ca. 350W liegt und nur der Durchschnitt bei beispielsweise 200W und die Rest-System-Last mit ca. 300W gerechnet wird.

Bei NV ist das aber so, dass die bei der 980 ne Marketing-"TDP" von 165W angeben und damit sowas wie durchschnittliche Spielebelastung meinen, das Powertarget aber höher liegt (also Durchschnittverbrauch bei Vollast) beim Referenzmodell, ich weiss nicht genau - 180W? - und Peak bei ca. 350W liegt, die Verlustleistung also von 40-350W schwankt.

AMD macht das seit der 200-Serie genau so. Eine 280 verhält sich anders als eine 7950, das konnte ich selbst testen. Wenn man beispielsweise TR mit SSAA auf meiner 7950 laufen lässt, sprengt die jeden TDP-Rahmen, eine 280 taktet da einfach herunter. Der Vorteil bei dieser Technologie ist, dass die Hersteller den Verbrauch ihres Boliden fast bis auf das Watt genau einhalten können, was vorher nicht möglich war (deswegen sind auch fast alle, ich nenns mal, Leien-Stromverbrauchs-Tests für Grafikkarten absolut fürn Popo. Wenn man wissen will, was eine Karte wirklich verbraucht, muss man nur das Powertarget auslesen, da hat man dann präzisen Wert). Der Preis dafür sind Peaks bis 450W bei Hawaii und GK110 in extrem kleinen Zeitintervallen beispielsweise, womit lange nicht jedes Netzteil umgehen kann.

Kriton
2014-12-05, 23:28:58
So weit ich weiss, hat keiner 970er Alibi-Modelle getestet. Es wurden ausschließlich Herstellerversionen getestet, die auch so in den Markt gingen. Referenzmodelle zur 970 gibt es gar nicht, nicht einmal bei NV. Ergo gab es auch keine Tests damit.

Generell gesprochen hast Du natürlich trotzdem Recht.

Gefühlt werden ständig die niedrigen Verbrauchswerte der "Referenz" und der dortigen base clocks mit den hohen Leistungen der customs und deren Boost-Leistungen verbunden. Ist das ein Problem der Reviews? Ich bin vorsichtig damit, andererseits: Wenn die grundsätzliche Aussage richtig ist: Woher kommt das sonst, wenn nicht aus den (ggfs. nicht deutlich genug anmerkenden) Reviews?


Eigentlich rege ich mich dabei gar nicht so sehr über das Verhalten der Firmen auf, eher über die Dummheit oder besser gesagt Faulheit der Leute, die es einfach für unnötig erachten, sich mit einem Sachverhalt genau auseinanderzusetzen, um eine ernsthaft fundierte Entscheidung zu treffen.

Ich zitiere in diesem Zusammenhang mal Jeff Walden:

"Stupid" is the wrong way to put it. There's a finite amount of time in the day. There's a finite number of things any person can care about. Under those limitations, lots of people don't prioritize understanding the particular tradeoffs here to decide whether to download a 32-bit build or a 64-bit build. And that's not necessarily a bad thing -- maybe they're doing something much more "important" the rest of the time, like doing drug research on treatments for pancreatic cancer or something.

It is possible to be under-informed, even rationally under-informed, without being stupid.

Nakai
2014-12-06, 01:56:56
Woanders wird eher spekuliert, ob es eine R9 380X ist und keine R9 390X(Fiji). IMO halte ich das für lächerlich. Das wird Fiji sein, ein anderer Chip ist nicht in der Pipeline. Wenn das Fiji ist, dann kann locker noch eine 250W+ Version hinterhergeschmissen werden. Da wäre Fiji auf spekuliertem GM200-Niveau. Ich glaube GM200 wird man nicht ganz erreichen(GM204+40%).

fondness
2014-12-06, 09:33:55
Ein anderer Chip ist sicher in der Pipeline, siehe zB Threadtitel. Der nächste Chip ist allerdings Fiji das sollte klar sein. Und es bleibt ja noch immer die Frage offen ob die Messungen dort überhaupt authentisch waren.

HOT
2014-12-06, 10:12:42
Außerdem könnte eine 380 auch schlicht Hawaii alias Maui sein. Da brauchts u.U. gar keinen neuen Chip.

Hübie
2014-12-06, 12:25:08
Na ich gehe doch davon aus dass Maui schon ein paar Updates gegenüber Hawaii erhalten hat. Sonst macht ein neuer codename imo wenig Sinn.

Pick
2014-12-06, 12:45:56
summer 2015? :facepalm:
http://www.fudzilla.com/home/item/36492-amd-next-gen-graphics-are-caribbean-islands

AnarchX
2014-12-06, 12:56:21
Na ich gehe doch davon aus dass Maui schon ein paar Updates gegenüber Hawaii erhalten hat. Sonst macht ein neuer codename imo wenig Sinn.
Curacao. ;)

Laut diesem UEFI-Eintrag dürfte es das gleiche Silizium sein, eventuell vielleicht ein Metalspin.

Hübie
2014-12-06, 13:02:52
Pitcairn hatte imo auch eine sehr gute Balance... Das kann man von Hawaii nicht behaupten. Da gibt's ein paar Stellschrauben die man drehen sollte.

Kriton
2014-12-06, 13:45:09
summer 2015? :facepalm:
http://www.fudzilla.com/home/item/36492-amd-next-gen-graphics-are-caribbean-islands

People tend to call the first part Fiji, but our industry sources said that AMD's next generation graphics, slated to launch in the summer of 2015, is codenamed Caribbean Islands.

Bin ich der Einzige, der keinen Widerspruch zwischen einem Codenamen für eine Karte und einem anderen für eine Generation erkennen kann?

fondness
2014-12-06, 13:46:45
IMO bezieht sich FUAD hier bereits auf die nächste Generation nach Pirate Islands und mischt mangels Verständnis irgendwie Fiji mit rein.

Nakai
2014-12-06, 14:31:56
Curacao. ;)

Laut diesem UEFI-Eintrag dürfte es das gleiche Silizium sein, eventuell vielleicht ein Metalspin.

AMD will ernsthaft Hawaii gegen GM204 stellen?! Wie dumm ist denn das? In hohen Auflösungen mag man gegen GM204 ankommen können, aber der Verbrauch von Hawaii ist ein Witz, genauso die Lautstärke. NV könnte einfach GM204 etwas hochdrehen, falls AMD mit einem HawaiiB ankommen will.

Und zu FUAD sage ich mal nichts.

Schaffe89
2014-12-06, 17:15:03
Ein Hawai mit 3072 Shadern und etwas Verbesserter IPC kann durchaus der Captain Jack sein.
Mit 1100 Mhz Takt, gesteigerter IPC und leicht mehr Shadern dürfte man mit GM204 doch gar kein Problem haben.

Schattenseite dürfte dann aber der Verbrauch sein.

Duplex
2014-12-06, 17:16:47
Ein Hawai mit 3072 Shadern und etwas Verbesserter IPC kann durchaus der Captain Jack sein.
Mit 1100 Mhz Takt, gesteigerter IPC und leicht mehr Shadern dürfte mit GM204 doch gar kein Problem haben.
Das wäre doch sehr langweilig, Hawaii...altes Eisen...Ich will etwas effizientes sehen was überzeugen kann.
Eine neue Architektur mit kleinen und großen Ablegern.

MilesEdgeworth
2014-12-06, 18:35:57
Dazu würden die Verbrauchswerte aber ganz und gar nicht passen. Es sei denn es wurde granulareres Powermanagement à la Maxwell in den Chip integriert. Wobei das ja dann auch kein "richtiger" Hawaii mehr wäre..

Schaffe89
2014-12-06, 20:32:44
Ich finde es spricht vieles dafür.
AMD hat die gleiche Verwandlung mi GCN1.0 durchgeführt und danach Tonga entworfen.
Warum sollte man das gleiche nicht mit Hawai machen?
Ich denke dass noch im Dezember eine r9 370x oder 380x kommen wird.

Die 280x Karten werden immer weniger erhältlich.

HOT
2014-12-07, 00:13:01
So schlimm ist Hawaii ja jetzt auch nicht. Ein evtl. HawaiiB mit einem neuen billigeren 384Bit Package (das wäre dann Maui) mit 6GB RAM und redesigntem PCB könnte da sicherlich noch was reißen.

Blediator16
2014-12-07, 01:39:05
AMD will manufacture GPUs at Global Foundries

http://www.guru3d.com/news-story/amd-will-manufacture-gpus-at-global-foundries.html

Pentium M
2014-12-07, 02:59:48
Sign In

Menace
2014-12-07, 08:57:43
Wenn das mal gut geht. :eek:

Skysnake
2014-12-07, 09:01:54
Ich hatte von diesem Investorcall auch gelesen. Da war aber meinem Verständnis nach nicht klar, ob es sich um dGPUs handelt, oder eben "nur" um GPUs in SOCs, was ja bei den Konsolenchips der Fall ist.

Müsste man nochmal das Orginaltranscript raussuchen. War von SCSC oder so. Irgend ein Investorreport von ner Bank oder so.

EDIT:
Das hier meinte ich
http://semiaccurate.com/2014/12/05/amds-cfo-devinder-kumar-talks-amds-restructuring/

EDIT2:
Und hier noch die entsprechende Aussage:

He also noted that AMD is now producing computing, graphics, and semi-custom products all at Global Foundries which is a big change from 2012 when at least two of those product lines were produced only at TSMC.

Also daraus kann man wohl eher nicht schliesen, dass es sich um dGPUs handelt. Wie gesagt, man müsste mal ins Orginal reinschauen, wie das GENAU! formuliert wurde.

EDIT3:
Hier gibts die Anmeldung, aber keine Ahnung, wie das läuft:
http://cc.talkpoint.com/cred001/120114a_ae/?entity=88_TT7RO6L

fondness
2014-12-07, 09:29:55
Hier das original:

John Pitzer-Credit Suisse Securities - Credit Suisse Securities
How do you think - one, are you on track to meet the $1.2 billion for this year; and 2, as we go into 2015 and beyond, how do you think that relationship will evolve between yourselves and GlobalFoundries?

Devinder Kumar - SVP and CFO
You know, if I step back, and I have been involved in the GlobalFoundries transaction way back in 2008. GlobalFoundries [indiscernible] in 2009. I can tell you that with the changes that have occurred on GlobalFoundries with the management team and the focus that Abu Dhabi has and the investment that they have as a partnership with GlobalFoundries, the relationship between AMD and GlobalFoundries is the best in the history of the relationship. The folks that we're working on in fact we just had a meeting in Abu Dhabi just a couple of weeks ago. Really good discussions, very business oriented.

And I think the execution of GlobalFoundries has improved significantly and that helps us from an overall standpoint. In 2014 for the first time, some folks may not know then. For the first time in the history of the relationship we went beyond PC product and actually we are making graphics, PC, and semi-custom products at GlobalFoundries in 2014 and that continue into 2015. When you diversify the product that you make at a foundry like GlobalFoundries, it benefits them from a mix standpoint and benefits us from a mix standpoint. And like I said, the execution is continuing to get better and we are very pleased - very, very pleased with that relationship.

Skysnake
2014-12-07, 09:38:16
hm...

Das klingt schon irgendwie nach dGPU. An sich sollte dann aber wohl auch bald etwas auf dem Markt aufschlagen.

HOT
2014-12-07, 10:28:44
Ganz einfach: Genau wie der XBox-APU-Shrink kommen künftige GPUs in einem GloFo 20nm-planar (HPM? Wieder SHP?) Prozess.

Ich bin sogar der Meinung, dass das einfach Tonga und Fiji als Shrink sind, damit die möglich schnell zur Verfügung stehen. Diese Projekte wurde mMn gleichzeitig gestartet, in 28nm TSMC und 20nm GloFo, und zwar um von beiden Foundries Chips anbieten zu können in dieser Übergangszeit.
4k Shader + Full HSA 1:4 DP/SP 28nm TSMC Fiji (R9 380) = 20nm GloFo Bermuda (R9 390, ca. 300mm²) (das würde auch erklären, warum beide als High-End-Chip gelten)
2k Shader + Full HSA 1:4 DP/SP 28nm TSMC Tonga (R9 285) = 20nm GloFo Treasure Island (R9 370, ca. 200mm²)

Schaffe89
2014-12-07, 12:49:59
Naja, das könnte dann mal wieder richtig interessant werden, allerdings habe ich meine Zweifel dass das mit Globalfoundries klappen wird.

Allerdings hat AMD, was die größe der Chips angeht, dann erhebliche Vorteile.
Bei den Mengen der Konsolenchips die dann dort gefertigt werden, würde der Prozess insgesamt dann auch günstiger werden.

Und das würde letztendlich auch erklären, warum Captain Jack deutlich effizienter rechnet wie Hawai.

Dann könnte man TSMC´s 16nm überspringen und gleich auf den 14nm FinFet Prozess setzen.
Ich glaube das wird ne heiße Zeit, die nächsten Jahre, es entscheidet sich vielleicht doch mehr an den Prozessen, als an der GPU Architektur.

Nakai
2014-12-07, 13:16:33
http://www.globalfoundries.com/technology-solutions/leading-edge-technology/20-lpm

http://www.tsmc.com/english/dedicatedFoundry/technology/20nm.htm

Reinher von den Specs ist GFs 20nm-Prozess deutlich erfolgsversprechender, als der von TSMC.

Ich bin sogar der Meinung, dass das einfach Tonga und Fiji als Shrink sind, damit die möglich schnell zur Verfügung stehen. Diese Projekte wurde mMn gleichzeitig gestartet, in 28nm TSMC und 20nm GloFo, und zwar um von beiden Foundries Chips anbieten zu können in dieser Übergangszeit.
4k Shader + Full HSA 1:4 DP/SP 28nm TSMC Fiji (R9 380) = 20nm GloFo Bermuda (R9 390, ca. 300mm²) (das würde auch erklären, warum beide als High-End-Chip gelten)
2k Shader + Full HSA 1:4 DP/SP 28nm TSMC Tonga (R9 285) = 20nm GloFo Treasure Island (R9 370, ca. 200mm²)

Also bei Fiji erwarte ich eher DP:SP-1:2, bei Tonga sinds doch nur DP:SP-1:16.

Duplex
2014-12-07, 15:33:56
Mit einem neuen Prozess sollte der große Chip (R9-390X) dann 50% schneller als GM204 ausfallen.

GTX980 > R9-380X +10%
GTX980 > R9-390 +30%
GTX980 > R9-390X +50%
GM200 > R9-390X +-0

Agent117
2014-12-07, 16:29:23
Das mit Globalfoundries ist sicher ganz interessant und wird ja auch schon seit Ewigkeiten gemutmaßt dass das irgendwann einmal kommt.
Vlt wurde Tonga ja ursprünglich wirklich mal für GF designed und als absehbar war, dass GF noch nciht so weit ist musste man, um Apple beliefern zu können, Tonga auf TSMC 28nm schnell umsatteln. Deswegen ist er dann vlt auch recht groß geraten. Kann aber auch völliger Schwachsinn sein und vlt sehen wir selbst Fiji noch von TSMC

juno
2014-12-07, 20:30:06
hat das jetzt überhaupt Auswirkungen auf Fiji? Meint ihr der Chip verspätet sich daher nochmal deutlich oder kommt der trotzdem noch in 28nm von TSMC?

Schaffe89
2014-12-07, 22:06:59
@ Agent117

Das wäre eine Vermutung, wobei Tonga selbst mit den vielen Transistoren gar nicht groß ist.
Sollte AMD bei Glofo fertigen können, dann hätten sie Nvidia jedenfalls ein Schnippchen geschlagen, denn 20nm Chips vs 28nm Chips.
Da hat Nvidia diesmal bei Leistung/mm denke ich keine Chance, effizienztechnisch womöglich schon.

OBrian
2014-12-07, 22:29:39
Wieso ist das denn so eine Sensation, bzw. überhaupt eine Frage, ob sie bei GF Grafik fertigen können? Wenn sie bei einer APU oder einem der Konsolenchips einfach die CPU und den Chipsatz deaktivieren, dann wäre das doch bereits eine reine GPU. D.h. sie sind über den Punkt "ob" längst hinaus. Das scheint irgendwie keiner mitzukriegen.

Früher gabs das nicht, weil GF nur Prozesse angeboten hat, die für GPUs (maximal 1 GHz) unnötig waren, aber zu teuer. Gegangen wäre es aber sicherlich, nur hätte das dann wer anders bezahlen müssen.

Käsetoast
2014-12-07, 23:35:45
Wieso ist das denn so eine Sensation, bzw. überhaupt eine Frage, ob sie bei GF Grafik fertigen können? Wenn sie bei einer APU oder einem der Konsolenchips einfach die CPU und den Chipsatz deaktivieren, dann wäre das doch bereits eine reine GPU. D.h. sie sind über den Punkt "ob" längst hinaus. Das scheint irgendwie keiner mitzukriegen.
Ich denke hier ging es eher um den Blick auf eine dedicated GPU. So eine SoC GPU fährt im Vergleich ja doch immer mit angezogener Handbremse - ein hochtaktendes, großes, komplexes, stromfressendes Monster von dGPU ist da schon ein ganz anderes paar Schuhe als die Grafikeinheit, die neben die CPU gequetscht wird... :smile:

Ansonsten bin ich mal verhalten pessimistisch was das Ganze angeht, denn gefühlt kamen bei GloFo nach dem 90nm Prozess nur noch halbgare Sachen bei raus...

maximus_hertus
2014-12-08, 00:24:56
Ich denke hier ging es eher um den Blick auf eine dedicated GPU. So eine SoC GPU fährt im Vergleich ja doch immer mit angezogener Handbremse - ein hochtaktendes, großes, komplexes, stromfressendes Monster von dGPU ist da schon ein ganz anderes paar Schuhe als die Grafikeinheit, die neben die CPU gequetscht wird... :smile:

Ansonsten bin ich mal verhalten pessimistisch was das Ganze angeht, denn gefühlt kamen bei GloFo nach dem 90nm Prozess nur noch halbgare Sachen bei raus...

45nm? Der lief beim Phenom II (X6) ja richtig gut.

Agent117
2014-12-08, 01:20:38
Zumindest nach dieser Folie, die ja auch hier schon mehrfach erwähnt wurde, kommt wohl noch ein Big Chip in 28nm.

http://www.3dcenter.org/dateien/abbildungen/Synapse-Design-Praesentationsfolie.preview.jpg

Ob das jetzt TSMC 28nm oder GF 28nm ist steht da nicht aber 28nm bei GF würde ja nur Sinn machen wenn:
1: Der Prozess von GF bringt deutliche Vorteile ggü TSMC hinsichtlich Stromverbrauch und/oder Packdichte

2: Um die Volumenverträge mit GF zu erfüllen. Dafür eignet sich aber ein High End Chip wie Fiji eher schlecht, da deutlich geringerer Absatz als im unteren Preissegment.

Ich denke also dass wir Fiji erst in 28nm bei TSMC sehen. Dass langfristig auf GF gewechselt wird, vlt auch in Form eines Shrinkes auf GF 20nm von Fiji und Tonga, kann ja gut sein.

HOT
2014-12-08, 01:56:21
AMD hätte vielleicht auch gern wieder einen 20nm planar TSMC-Chip gehabt, aber es deutete sich ja auch bei NV so an, dass das einfach nicht möglich war. Da AMD sowieso den 20nm-Prozess bei GloFo für Custom-APUs vorbereitet, war es natürlich naheliegend lieber diesen Prozess dafür zu nutzen, sodass TSMC da schlicht aus dem Rennen war. AMD stellte ja schon Anfang 2014 mehr oder weniger klar, dass man gern 20nm-APUs anbieten möchte mit Skybridge, also muss GloFo einen geeigneten Prozess liefern können, sonst wär man nicht so freigiebig mit dieser Information gewesen.
Mein Verdacht ist ja, dass AMD zusammen mit GloFo in Dresden nicht nur den 28nm-SHP-Prozess in Zusammenarbeit entwickelt hat, sondern auch den jetzt verwendeten 20nm-Prozess.
Damit wär es auch kein Wunder, dass man erst mal nicht auf Samsung-FinFET geht, denn dann ist dieser Prozess u.U. für die eigenen Zwecke einfach besser geeignet. Samsung selbst bezeichnet den FinFET-Prozess als LP - kein gutes Zeichen für die Eignung für stromhungrige Riesenchips. FinFETs stellen ja eine zusätzliche Schwierigkeit dar, die nicht unerheblich ist - AMD und GloFo gingen da lieber auf Nummer Sicher meiner Ansicht nach. Mit dieser Nachricht, dass AMD auf einen GloFo 20nm-Prozess setzt und dort jetzt auch GPUs produzieren will, rücken FinFETs bei AMD auf jeden Fall in weite Ferne, vielleicht gibts dann Ende 2016/Anfang 2017 einen entsprechenden FinFET-Prozess aus Dresden (nicht Samsung). TSMC scheint jedenfalls damit erst mal zum Ersatzpartner degradiert zu werden, der noch 28nm-Krempel dazuschießen kann.

Hübie
2014-12-08, 08:26:18
Interessant wirds wenn wir uns mal über die Kostenfrage unterhalten :) Soweit mir bekannt ist hat AMD ja einen Pauschalpreis für Volumen X bis Zeitpunkt Y ausgehandelt. Nur kenne ich hiervon keinerlei Zahlen. Ihr etwa? :)

R.I.P.
2014-12-08, 08:26:41
AMD hätte vielleicht auch gern wieder einen 20nm planar TSMC-Chip gehabt, aber es deutete sich ja auch bei NV so an, dass das einfach nicht möglich war. Da AMD sowieso den 20nm-Prozess bei GloFo für Custom-APUs vorbereitet, war es natürlich naheliegend lieber diesen Prozess dafür zu nutzen, sodass TSMC da schlicht aus dem Rennen war. AMD stellte ja schon Anfang 2014 mehr oder weniger klar, dass man gern 20nm-APUs anbieten möchte mit Skybridge, also muss GloFo einen geeigneten Prozess liefern können, sonst wär man nicht so freigiebig mit dieser Information gewesen.
Mein Verdacht ist ja, dass AMD zusammen mit GloFo in Dresden nicht nur den 28nm-SHP-Prozess in Zusammenarbeit entwickelt hat, sondern auch den jetzt verwendeten 20nm-Prozess.
Damit wär es auch kein Wunder, dass man erst mal nicht auf Samsung-FinFET geht, denn dann ist dieser Prozess u.U. für die eigenen Zwecke einfach besser geeignet. Samsung selbst bezeichnet den FinFET-Prozess als LP - kein gutes Zeichen für die Eignung für stromhungrige Riesenchips. FinFETs stellen ja eine zusätzliche Schwierigkeit dar, die nicht unerheblich ist - AMD und GloFo gingen da lieber auf Nummer Sicher meiner Ansicht nach. Mit dieser Nachricht, dass AMD auf einen GloFo 20nm-Prozess setzt und dort jetzt auch GPUs produzieren will, rücken FinFETs bei AMD auf jeden Fall in weite Ferne, vielleicht gibts dann Ende 2016/Anfang 2017 einen entsprechenden FinFET-Prozess aus Dresden (nicht Samsung). TSMC scheint jedenfalls damit erst mal zum Ersatzpartner degradiert zu werden, der noch 28nm-Krempel dazuschießen kann.

Das mit Finfet nicht Samsung habe ich jetzt nicht richtig verstanden. Samsung ist doch bezüglich GloFo eine Partnership bezüglich finfet Prozess eingegangen. Zusammen mit dem Knowhow das von Ibm aufgekauft wurde, steht GloFo so gut wie noch nie da. Amd kann doch nur davon profittieren!

Käsetoast
2014-12-08, 09:21:42
45nm? Der lief beim Phenom II (X6) ja richtig gut.
Der Prozess war ok. So richtig gut erschien er meiner Meinung nach aber nur zu sein, weil man den 65nm irgendwie versaut hatte - die Athlons in 65nm konnten sich weder in Punkto Leisutng noch Verbrauch von den 90nm Varianten abheben und letztendlich war der 65nm Prozess dann wohl auch dafür verantwortlich, warum die ersten Phenoms nur niedrig takten konnten und gleichzeitig viel Strom gefressen haben. Das wird vor allem klar wenn man sich vor Augen hält, dass die Phenom II plötzlich bis zu 1 GHz mehr Takt schafften bei weniger Verbrauch. Beim Wechsel von 45 auf 32nm hatte man dann wiederum den Eindruck, dass das Ganze nicht viele Vorteile gebracht hat - zumindest waren die 32nm APUs (mit Bulldozern kann man aufgrund von Architekturproblemen ja schlecht Vergleiche anstellen) von der Prozessorseite her ja nicht wirklich merkbar besser als die 45nm Pendants. Natürlich könnte man jetzt einen Tick Tock Trend sehen, wo ein Prozess ok ist und der nächste dann schlecht, womit der kommende Prozess wieder gut wäre, aber ich bin da wie gesagt eher pessimistisch - die Prozesse werden eher schwieriger zu handeln als leichter und eine GPU ist dann nochmal ganz was Anderes als eine CPU. Vor allem wenn der Prozess von GloFo auch für APUs gedacht ist und dementsprechend Spagate zwischen CPU und GPU Fertigungsoptimierungen machen muss...

Nicht dass ich was dagegen hätte - ich hatte eigentlich vor einen Tonga Vollausbau mit 4GB zu kaufen sofern der Preis stimmt. Inzwischen kann ich dann wohl direkt auf die 300er Serie warten und gegebenfalls einige Verbesserungen mitnehmen. Die Argumentation Tonga war ursprünglich ein für 20nm geplanter Chip ist natürlich interessant bzw. das Problem das ich bei Tonga im Sinne einer Pitcairn Nachfolge sehe - nämlich die deutlich zu große Chipgröße - würde sich bei einem 20nm Chip ja wohl erledigen. Vielleicht macht AMD ja ähnlich wie bei der 7900er Serie wieder so einen Weihnachts-Paperlaunch. Fände ich gut sofern irgendwelche neuen Chips es bis Februar an den Markt schaffen könnten - ansonsten müssen wir uns wohl bis zur Computex im Januar gedulden...

HOT
2014-12-08, 09:28:41
Das mit Finfet nicht Samsung habe ich jetzt nicht richtig verstanden. Samsung ist doch bezüglich GloFo eine Partnership bezüglich finfet Prozess eingegangen. Zusammen mit dem Knowhow das von Ibm aufgekauft wurde, steht GloFo so gut wie noch nie da. Amd kann doch nur davon profittieren!
Das ist klar, aber du musst ja mit Zeitfenster denken. Anfang 2014 bestand weder die Aussicht, dass die IBM-Fertigung übernommen wird noch die Partnerschaft mit Samsung. AMD hat aber schon in früheren Jahren planen müssen, welchen Prozess man nach 28nm nutzen möchte.
Was nach 20nm passiert wird sich zeigen, aber es besteht mit einem "eigenen" 20nm-planar-Prozess ja nicht so viel Druck, dass man jetzt möglichst direkt auf FinFETs umsteigen müsste. Man wird das tun, aber AMD wird sich anschauen, welche Prozesse in Frage kommen und welche nicht. Ich glaube nicht, dass die da was dem Zufall überlassen oder sich auf irgendwelche Partner blind verlassen werden. Das ist 2010-2012 schon öfter kräftig schiefgegangen.

john carmack
2014-12-08, 11:54:17
Ganz einfach: Genau wie der XBox-APU-Shrink kommen künftige GPUs in einem GloFo 20nm-planar (HPM? Wieder SHP?) Prozess.

Ich bin sogar der Meinung, dass das einfach Tonga und Fiji als Shrink sind, damit die möglich schnell zur Verfügung stehen. Diese Projekte wurde mMn gleichzeitig gestartet, in 28nm TSMC und 20nm GloFo, und zwar um von beiden Foundries Chips anbieten zu können in dieser Übergangszeit.
4k Shader + Full HSA 1:4 DP/SP 28nm TSMC Fiji (R9 380) = 20nm GloFo Bermuda (R9 390, ca. 300mm²) (das würde auch erklären, warum beide als High-End-Chip gelten)
2k Shader + Full HSA 1:4 DP/SP 28nm TSMC Tonga (R9 285) = 20nm GloFo Treasure Island (R9 370, ca. 200mm²)


aha... und was ist mit dem Gerücht das AMD an etwas großem arbeitet? >500mm2...?!

HOT
2014-12-08, 14:06:59
Fiji -> 28nm TSMC -> 500mm² -> R9 380 Series.
Bermuda -> 20nm GloFo -> 300mm² -> R9 390 Series aber gleiches Design wie Fiji
So war das von mir ausgedacht. Das bringt einfach alle bisherigen Gerüchte unter einen Hut. Da waren:
- "Big Chip is coming"
- Folie mit 350mm² (Tonga) und 500mm² (Fiji) GPUs für AMD in 28nm HPM(TSMC)
- High-End im Sommer/Herbst (sehr wahrscheinlich R9 390)
- 20nm GloFo für GPUs quasi bestätigt
- "Captain Jack" (Pirate-Islands -> Caribbian Islands) mit deutlich besserer Effizienz als GM204, 20nm GloFo Sample?
- Fiji @ R9 380 (Fudzilla?)


vielleicht fällt mir noch was ein :D.

Gibt aber noch Ungereimtheiten. Am auffälligsten ist da HBM.
- bisher nur 4GB für HBM serienproduktionsreif offenbar
- Fiji wirklich HBM oder gilt das evtl. nur für Bermuda/Treasure Island?
- Tonga hat auch kein HBM
- HBM offenbar bei TSMC gar nicht möglich, Kooperation läuft doch zwischen AMD/SK Hynix und GloFo

möglicher Fahrplan:
Tonga Pro -> schon draußen
Tonga XT -> 285X Februar/März 2015
Fiji Pro -> 295X Februar/März 2015
Fiji Pro -> FirePro W8200 16GB GDDR5
Fiji XT -> FirePro W9200 16GB GDDR5
Fiji Pro -> Rename R9 380 Juli/August
Fiji XT -> R9 380X im Juli/August
Tonga Pro/XT -> R9 360(X) mit 2-4GB GDDR5 Juli/August
Samoa Pro/XT -> R9 345/355 mit DDR3/GDDR5
Bermuda Pro/XT -> R9 390(X) mit 8GB HBM Juli/August
Treasue Island -> R9 370(X) mit 4GB HBM September/Oktober

Grabhopser
2014-12-08, 14:16:13
Fiji mit HBM...
Bermuda ohne ....
:rolleyes:


Vg

john carmack
2014-12-08, 17:02:58
wie jetzt, doch 20nm Chips?
dachte der Prozess wird übersprungen und ND/AMD gehen direkt zu 16nm ab 2016 über?!?

Timbaloo
2014-12-08, 17:16:53
Und Bermuda und Fiji sollen sich eklatant in der Speicheranbindung unterscheiden, aber das gleiche Design sein? Das wäre doch sehr verwunderlich...

HOT
2014-12-08, 17:21:07
Das ist die große Frage ;). Ich hab noch nie an TSMC-Fiji mit HBM geglaubt... das waren immer andere.

Kleine Zusammenfassung der letzten Seiten bezüglich AMD und Fertigung:
Jo, AMD springt erst mal auf einen GloFo 20nm Prozess mit Klein-APUs, Custom SoCs und GPUs in 2015. AMD arbeitet AFAIK bisher auch nicht mit TSMC bei "16nm" zusammen. Es wird wohl auf GloFo eigene Prozesse hinauslaufen in Zukunft (also auch kein Samsung-Prozess). Ab 2015 gibts dann bei AMD also erst mal 20nm (SHP?) und später 2016/17 dann wohl auch FinFETs, aber welcher Prozess (16FF+ TSMC, Samsung 14nm LPx oder ein eigener 20nm FinFET-Prozess aus Dresden) ist bisher vollkommen offen. AMD hat es nicht eilig umzusteigen nach eigenem Bekunden - offenbar soll es ein Prozess bei einem Fertiger für alles richten demnächst - das ist der derzeitige Stand. Gut spart ja auch Kosten ;).

Käsetoast
2014-12-08, 17:59:35
wie jetzt, doch 20nm Chips?
dachte der Prozess wird übersprungen und ND/AMD gehen direkt zu 16nm ab 2016 über?!?
Es wäre natürlich möglich, dass man den großen 550mm² Chip & Co in 28nm bringt, aber die obere Mid-Range im 20nm Bereich bringt - solche Chips dürften mit dem 20nm Prozess machbarer sein als ein High-End Monster. So könnte man etwa Tonga auf 20nm shrinken und alles was größer und leistungsfähiger ist bei 28nm belassen. An und für sich macht AMD ja sowieso Erfahrungen mit dem 20nm Prozess, also wäre es vielleicht gar nicht so dumm den für Produkte zu nutzen, die sich im Prozess unterbringen lassen, auch wenn man dann nicht eine ganze Palette von kleinen bis großen Chips anbieten kann. Tonga würde dann halt als 370X der 270X Pitcairn Nachfolger in ähnlicher Chipgröße von um die 200 mm²...

Ailuros
2014-12-08, 18:54:41
Und was genau soll ihnen 20SoC bringen? Nicht nur das aber wenn ein core fuer 28nm ausgelegt ist dauert es im besten Fall 6 Monate fuer einen shrink.

Unicous
2014-12-08, 19:25:25
Ein gewisser "Unigast":wink: hatte vor ein paar Tagen
eine nette .pdf namens "GlobalFoundries 2014 US Tech Seminar" gefunden:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10440458&postcount=2

https://scribd.com/doc/248650452/GlobalFoundries-2014-US-Tech-Seminar-Proceeding-book-pdf

In der gibt es unzählige Seiten vollgespickt mit bekannten, interessanten und neuen Informationen.

GF strebt den Produktionsstart von 14nm für (Ende) Q1'15 an.

Stacking ist production ready@28nm.

@HOT

Was hat TSMC mit HBM zu tun? Der Speicher kann überall hergestellt werden, wichtig ist das TSV-Bonding und da haben viele Firmen Expertise gesammelt, u.a. auch TSMC. Aber auch sk Hynix.

Gipsel
2014-12-08, 19:52:29
Jap. Und wenn alle Stricke reißen, nimmt man die irgendwo gefertigten Wafer und schickt die zu einer spezialisierten Packaging Firma (z.B. Amkor (http://www.amkor.com)), die dann das Stacking übernimmt. Für diejenigen, die es vergessen haben, Amkor war der Partner von AMD bei den Stacking-Prototypen mit Interposer (wo dann z.B. HBM-Speicherwürfel von Hynix draufkommen können).

Unicous
2014-12-08, 20:09:42
Die Interposer-(Prototypen/test vehicle?-)systeme von Amkor (Kalahari und Atacama) werden explizit in der .pdf gezeigt ( z.B. S.31), man kann also davon ausgehen, dass Amkor weiterhin im Boot sitzt.

AffenJack
2014-12-08, 20:29:39
Interessant für die Gpus ist aus der pdf auch, dass es nur 1 20nm Prozess gibt, während 14nm explizit nen eigenen High Performance Prozess hat. Ich glaube nicht, dass wir von Amd 20nm Gpus sehen werden, aber dadurch dass Samsung und GF früher dran ist als TSMC könnte es im Herbst schon 14nm geben.

Unicous
2014-12-08, 20:34:02
Neu ist das aber nicht. Das ist seit April bekannt, als Samsung und GLF die Partnerschaft öffentlich gemacht haben.

Und 14nm LPP ist wohl das Äquivalent zu FF+ von TSMC. Das E in LPE steht laut Samsung für... Early. :freak:


Interessant ist, was ich beim ersten Durchblättern übersehen habe, dass für 3D TSV explizit 20nm und 14nm genannt wird(das hieße also kein "3D" Stacking @28nm zumindest bei GF) und sie auch im Q4'14 production ready sein wollen.

Die .pdf ist glaube ich von November (könnten aber auch verschieden alte .pdfs zusammengeschmissen worden sein).

john carmack
2014-12-09, 13:49:40
3dcenter.org

"Einzig "Fiji" würde nicht mehr wirklich zu den "Caribbean Islands" passen – aber auch hier sind Umbennungen und Neudeutungen jederzeit möglich, AMD verfolgt leider kein konsequenten bzw. von außen erkennbares Namensschema."

welchen Sinn macht das?
Ich hasse es wenn man durch die Produktpalette eines Herstellers nicht mehr durchblicken kann!!!
Würde mich nicht wundern wenn bei AMD auch intern so ein Chaos herrscht...

AMD sollte sich ein Beispeil an Simyo´s Werbespruch nehmen:

"weil einfach, einfach einfach ist"
Das gilt im übrigen auch für Sony und Samsung und wie sie alle heißen...
*kopfschüttel*

Unicous
2014-12-09, 13:58:41
Wie oft wird diese Diskussion eigentlich noch geführt?

Was interessiert dich der Codename, der nicht in den Produktnamen einfließt?

Magst du keine Rätsel? Ist Pirate Islands nur ein Codename für den Codenamen Sea Islands bzw. C.I. bzw. Carribean Islands? Ist Pirate Islands ein Hirngespinst um den guten Theo Valich vorzuführen (der das vor einer Weile überhaupt erst als Einziger? "berichtet" hat), oder vllt. Lecks zu stopfen?

Man weiß es nicht.

Es ist aber ziemlich egal. Denn Codenamen machen keine Produkte, siehe Bulldozer.:freak:

Knuddelbearli
2014-12-09, 14:01:00
AMD betreibt seit ca 2 Jahren Rolling release.
Neue Karten werden gebracht wenn sie bereit sind und nicht mehr auf ein ganzes Lineup gewartet. Das selbe gilt für Features. Weshalb es jetzt eben diese durchmischten Lineups gibt.

Und Leute die sich über INTERNE Namen aufregen kann man eh nicht ernst nehmen ...

robbitop
2014-12-09, 14:04:14
Meine Güte. Die Codenamen sind sowieso nur interne Arbeitstitel. Die betreffen den Normalkäufer überhaupt nicht. Da braucht man sich IMO nicht aufzuregen.
Ansonsten wäre es toll, wenn NV und AMD ihrem alten internen Namensschema treu geblieben wären:
NVXX und RXXX.

Und ansonsten ist es nunmal so, dass sogar Marketing Schemen regelmäßig geändert werden. Das machen alle Großen. Auch die die richtig erfolgreich sind. Das wird schon seinen Grund haben.

Ich persönlich habe auch kein Mitleid mit Leuten, die sich dadurch verwirren lassen. Bevor man sich etwas kauft sollte man sich schon informieren (oder beraten lassen). Wer das nicht tut ist IMO selbst Schuld.

Käsetoast
2014-12-09, 14:32:42
Es ist aber ziemlich egal. Denn Codenamen machen keine Produkte, siehe Bulldozer.:freak:
Also als ich die ersten Tests vom Bulldozer gelesen habe war ich erstmal platt. In der Hinsicht war der Name doch Programm! :D

Ich finde es ehrlich gesagt viel schlimmer, dass es gerade bei der GCN Geschichte kein einheitliches Schema gibt, unter Anderem auch weil das soviel Kleinkram-Gewusel ist. Sieht man ja jetzt etwa bei der VSR Geschichte - welcher Chip da jetzt welche Auflösung wegen irgendwelcher in Hardware umgesetzter Scaler unterstützt ist doch extrem undurchsichtig - da wünscht man sich ein einheitliches Featureset, das es durch die Bank gibt anstatt dem ständigen, punktuellen Nachtröpfeln von Features von einzelnen Chips...

robbitop
2014-12-09, 14:34:21
Es ist davon auszugehen, dass VSR in Phase 2 über die Shader downsamplet. Somit sollte das dann glattgezogen sein. IMO ist der aktuelle Catalyst Omega einfach nur eine Preview. Eine schnell umgesetzte Reaktion auf DSR.

Käsetoast
2014-12-09, 14:54:01
Ich fand das über Hardwareeinheiten zu regeln eigentlich eleganter, weil es an sich dann ja keine Leistung kostet. So gesehen nehme ich an, dass diese Hardwarelösung bleiben wird. Ansonsten hätte man doch direkt über die Shader scalen können was wahrscheinlich doch leichter zu coden gewesen wäre als das über die Hardwareeinheiten zu koordinieren. Die Shader-Lösung kann ich mir höchstens als Fallback für die GPUs ohne entsprechende Hardwareeinheiten vorstellen, während die "moderneren" Chips das jetzt und auch in Zukunft über die Hardwareeinheiten regeln...

Das ist halt einer der Punkte, wo die GCN Architektur vielleicht ein paar zu zahlreiche Unterversionen hat mit nur kleinen Updates. Das wird halt schnell unübersichtlich, auch wenn es an sich nur um weniger bedeutende Mini-Features geht...

Nightspider
2014-12-09, 15:23:52
@robbitop: Das sind allerdings auch nur Vermutungen. Andeutungen dahingehend gabs noch keine.

Wir können nur hoffen das Fiji mit deutlich aufgebohrten VSR Features und mehr Effizienz daherkommt.

robbitop
2014-12-09, 15:50:56
AMD hat der PCGH mitgeteilt, dass es eine Phase 2 gibt, die die Restriktionen beheben wird. Und das geht nunmal dann nur noch durch Downsampling über die Shader.

Und das wäre auch kein Problem. In gut 10...100 Takten (je nach Filterart) hast du mit Sicherheit jeden Filter pro Pixel erschlagen. Da kommt man dann bei einer aktuellen High End Karte auf eine Größenordnung von 10...100 µs pro Frame. Was das in fps bedeutet, kannst du dir über das Reziproke selbst umrechnen. Praktisch nichts.

Ich habe das Gefühl, dass nicht jedem klar ist, welche Größenordnungen von Aufwand für die Berechnung eines Pixels eines modernen Spiels anfallen und wie lächerlich wenig Aufwand es ist ein einziges Bild herunterzurechnen.

DSR funktioniert ja u.A. deswegen genau so.

Nightspider
2014-12-09, 15:55:59
AMD hat der PCGH mitgeteilt...

Achso, das ist natürlich gut.

Dann frage ich mich nur warum man das nicht gleich eingebaut hat, wenn es so wenig Rechenleistung benötigt.
Ist das so komplex zu programmieren?

Um mal wieder ontopic zu kommen: Wäre toll wenn Fiji DS bis 8K beherrschen würde für ältere Games. ^^
Ich spiele auh noch manchmal alte Mutliplayer-Schinken. Dafür wäre 8K schon ganz nett. Oder wenigstens um tolle Screenshots machen zu können. ^^

In jedem Fall braucht man 8GB VRAM. Würde mich auch nicht wundern wenn Nvidia dem GM200 auch 8K DSR Support spendiert.

Käsetoast
2014-12-09, 16:00:16
Ist das so komplex zu programmieren?
Ich würde das mal als verhältnismäßig easy bezeichnen, weil irgendnen bikubischen Algorithmus da draufzuhauen oder was auch immer dürfte nicht schwer sein bzw. sogar einfacher als das an die Hardwareeinheiten auszulagern. Deswegen gehe ich auch davon aus, dass da neben dem reinen Skalieren auch noch irgendwelche anderen Bildverbesserchen, die man für Videos hat, auch mit reinspielen. Ansonsten wüsste ich nicht, warum man das zuerst über die Hardwareeinheiten realisiert hat, es sei denn jemand aus dieser Abteilung war zu der Zeit der Einzige, der ein wenig Zeit hatte um sich damit zu beschäftigen... ;)

HOT
2014-12-09, 16:00:43
High-End unter 8GB würd ich auch nicht mehr nehmen. Wer weiss wie die Speicherverbräuche in den nächsten Jahren explodieren werden - immerhin hat der Markt Nachholbedarf nach jahrelangen Festhängen an den 2GB Windows-Adressraum (4GB bot Win32 nie an) wegen dem Scheiss XP mit seinen 32Bit.