PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Dural
2014-09-12, 13:42:26
Der Chip dürfte allerdings wenn die Angaben stimmen nur minimal über 500mm² liegen, also nicht ganz so groß wie manche NV-Kaliber.

Habe ich was verpasst oder wie kommst du darauf?

reaperrr
2014-09-12, 15:05:32
Habe ich was verpasst oder wie kommst du darauf?
Auf der Präsentation, auf die er sich bezieht, gibt Synapse Tape-Outs eines ">350mm²"-Grafikchips und eines ">500mm²"-Grafikchips an. Da der >350mm²-Chip wohl Tonga war und dieser nur etwas über den 350mm² lag, meint er wohl jetzt, das wäre bei Fiji ähnlich. Ich denke aber, dass die Angaben ziemlich grob und wohl einfach auf die nächst-niedrigeren 50mm² abgerundet sind, könnte also auch 549mm² für Fiji sein, was größer als GK110 wäre.

Außerdem weiß man ja nicht, ob die Angaben nicht vorher mit AMD abgesprochen wurden, um der Konkurrenz keine zu genauen Hinweise zu geben. Vielleicht ist Fiji sogar größer als 550mm², die Angabe >500mm² schließt das ja nicht wirklich aus.

fondness
2014-09-12, 15:09:39
Ja genau reaperrr, das war meine Schlussfolgerung...

BTW, es gibt wohl einige die davon ausgehen das der Kühler oben für eine R9 295X (= höher getakteter Hawaii) gedacht ist, mal sehen.

Dural
2014-09-12, 15:20:01
aha OK, diese Schlussfolgerung hat seine Berechtigung.

295x könnte es aber natürlich auch sein.

AffenJack
2014-09-12, 15:45:22
BTW, es gibt wohl einige die davon ausgehen das der Kühler oben für eine R9 295X (= höher getakteter Hawaii) gedacht ist, mal sehen.

Möglich, dann muss das Ding aber noch dieses Jahr kommen. Anfang nächsten Jahres wird man kaum noch ne 295X bringen, wenn Fiji nicht weit entfernt ist.

Nakai
2014-09-12, 16:02:16
Also die neue Kühler ist sicher ein Wasserkühler. Man hat auch Platz für 2 8Pin-Anschlüsse. Maximaler Verbrauch wird über 300W liegen. Es ist sicher ein Kühler für eine SingleGPU-Karte. Die Kühlung der Spawas ist größer als bei Hawaii. Die Karte wird mehr verbrauchen als Hawaii. Wenn man bei dieser Karte auf HBM setzt, dann macht die Wasserkühlung schon Sinn, da das Package stärker gekühlt werden muss. Es ist zwar ein beschissenes Foto, aber es sieht so aus, also ob es keine oder eine kleinere Metalplatte zur Kühlung der GDDR5-Speicherchips gibt. Oder diese ist noch nicht vorhanden, da diese mit der Wasserkühlung verbaut wird. Es ist definitiv eine Hybridkühlung.

horn 12
2014-09-13, 11:52:24
@Nakai

Was denkt bringt AMD dieses Jahr als GTX 970/ 980 Konter
Eine R9 295 mit 1,2 Ghz und dem Wasserkühler AIO
oder eine andere, auf Tonga getrimmt GPU mit >1,1 Ghz Taktraten und vollen 36 CU?

Duplex
2014-09-13, 11:56:30
Warum postest du das im Pirate Islands Thread?

Pirate Island ist ganz bestimmt nicht eine R9 295, sondern R9 3xx oder R9 4xx.

Pick
2014-09-19, 15:20:36
AMD access to a range of Synopsys DesignWare® interface, memory compiler, logic library and analog IP on advanced 16/14-nanometer (nm) and 10-nm FinFET process technologies
http://finance.yahoo.com/news/amd-synopsys-expand-ip-partnership-210000396.html

Nakai
2014-09-19, 15:59:55
Und wieso sollte Hynix nicht genug HBM liefern können? Der Preis von HBM mag am Anfang hoch sein, aber Lieferbarkeit sollte nun nicht das Problem darstellen. Fiji wird keine Mainstreamkarte die sonstwie hohes Volumen benötigen wird.

Ich gehe eigentlich von Q1 für Fiji aus. Wir wissen, dass das Tapeout schon etwas her ist und man wird Fiji recht schnell bringen um Hawaii ausmustern zu können.

Nein, ich spreche von Speichergröße von HBM. Die skaliert mit Stack-Anzahl. Laut Hynix 1/2GB pro Stack. Ein Stack hat immer 1024Bit, ergo etwa ~128GB/s bei 0,8~1 Ghz. Wieviele Stacks sollen denn verbaut sein? Ich denke es werden 4, ergo maximal 4/8GB, was viel zu wenig ist.

Das war einen Monat vor Enthüllung der W7100 und die Leute heißen Synapse. :wink:

Und dass das Tonga war oder ist, kann man nicht mit 100%er Sicherheit sagen. Ich würde aber sagen zu 99% ist es Tonga.:tongue:

Von Fiji kennen wir ja auch nur den Codenamen und sushiwarriors halbprophetischen Aussagen, die wir zu deuten immer noch nicht in der Lage sind.:freak:

Es macht einfach keinen Sinn, zwei Chips in einer ähnlichen Größe zu liefern.
Wenn ich mir die Synapse-Folie angucke und Tonga bei 359mm² sehe und dort etwas von ~350mm² steht, denke ich, dass Fiji leicht über 500mm² groß wird.
Der Rest vom extrem-großen Die könnte durch andere Sachen erreicht werden.

€:
AMD access to a range of Synopsys DesignWare® interface, memory compiler, logic library and analog IP on advanced 16/14-nanometer (nm) and 10-nm FinFET process technologies
http://finance.yahoo.com/news/amd-synopsys-expand-ip-partnership-210000396.html

Erinnert mich an PIM.

Ailuros
2014-09-19, 18:18:20
Es kommt von einer "Quelle" die ich nicht zuverlaessig nennen wuerde, aber ich habe von ueber 550 gehoert. Wobei ueber 500 oder ueber 550 auch nicht gerade den Tag retten oder ruinieren wuerde.

Dawn on Titan
2014-09-19, 19:05:29
550 + die Gerüchte hinsichtlich einer Wakü als Refrenz lassen für die Effizienz jetzt nichts gutes erwarten. Ich hoffe ich liege falsch, aber ein 300W 550mm Chip muss verdammt fix werden um NV zu schocken. NV erscheint bei GM200 dagegen fast primär nur flächenlimitiert zu sein

fondness
2014-09-19, 19:10:03
Naja die OC-GTX980-Custom Designs verbrauchen nicht wirklich weniger wie eine GTX780Ti.

Nightspider
2014-09-19, 19:13:43
Es kommt von einer "Quelle" die ich nicht zuverlaessig nennen wuerde, aber ich habe von ueber 550 gehoert. Wobei ueber 500 oder ueber 550 auch nicht gerade den Tag retten oder ruinieren wuerde.

Hast du vielleicht etwas aktuellere Angaben zu einem möglichen Releasezeitraum?

Und hat deine HBM Aussage im anderen Forum auf einer Vermutung oder Quelleninfos beruht?

Ailuros
2014-09-19, 20:10:14
Hast du vielleicht etwas aktuellere Angaben zu einem möglichen Releasezeitraum?

Ich weiss es nicht aber ich stimme AffenJack zu dass es irgendwo Anfang 2015 bzw. H1 um sicher zu sein ankommen sollte.

Und hat deine HBM Aussage im anderen Forum auf einer Vermutung oder Quelleninfos beruht?

Offiziell weiss ich gar nichts nur um AMD PR Germany hoffentlich nerven zu koennen ;D

fondness
2014-09-23, 17:15:55
Digit: What can you tell me of the Pirate Islands low power, high performance GPUs that you guys are working on?

David Bennett: I can’t really comment on this but what I can say is that we believe that we offer the best in terms of graphics technology. We know the GPU market really well and we have a good idea about what our competition is doing. So, whatever we launch, we believe that we will be able to tackle whatever our competition pushes out.

Let me put it this way, when I started out 2 years ago, two companies would keep me awake at night- Intel and Nvidia. Today, only one company does that- Intel. We are 100% committed to graphics and gaming, we’re not going to be distracted.


http://www.digit.in/pc-components/amds-david-bennett-on-gaming-great-apus-the-competition-23989.html#sthash.ljKwL0zz.dpuf

Unicous
2014-09-23, 17:43:03
Das ist nichtssagend wie ein Graffiti auf einem versifften Klo.

Dawn on Titan
2014-09-23, 17:44:21
Klare Aussage vom AMD. Maxwell wird vernichtet.

Unicous
2014-09-23, 17:47:43
Was soll ein Marketing-Fuzzi auch sonst sagen.:rolleyes:

w0mbat
2014-09-23, 19:04:49
Let me put it this way, when I started out 2 years ago, two companies would keep me awake at night- Intel and Nvidia. Today, there are three companies that do that - Intel, Nvidia and ARM. We are 100% committed to graphics and gaming, we’re not going to be distracted.

Unicous
2014-09-23, 19:14:06
Und nu? Du musst es nicht wiederholen.

Ein AMD Fuzzi hat auch gesagt, dass sie Nvidia bei BF4 "total zerstören" werden.:rolleyes:


Bleibt doch mal bitte auf dem Teppich. Der Typ ist AMDs Verkaufshäuptling im APAC-Gebiet und hat u.a. japanische Literatur studiert.:freak:

Selbst wenn jetzt Raja Koduri erzählt, dass er wegen Nvidia nicht mehr um den Schlaf gebracht wird, sollte man das mit einer Tasse Salz und einer Prise Tee (oder andersrum?) nehmen.

Lasst euch doch nicht andauernd von diesen Autoverkäufern vor den Karren spannen. Im wahrsten Sinne des Wortes. Nachher landet ihr noch als Kühlerfiguren auf dem "Fan"blade. So jetzt aber genug mit den schlechten puns.

Pick
2014-09-24, 12:29:11
AMD's R9 390X will not become available until the first half of 2015, but the GPU vendor has already started cutting some of its GPU prices to boost sales
http://digitimes.com/news/a20140924PD203.html

Unicous
2014-09-24, 13:15:12
Hey there, Pick.

Digitimes is not known to be an accurate source. The fact that they have a name for the SKU implies to me that they have just written down a rumor to be fact, as they have many times before.

Ailuros
2014-09-24, 14:25:40
Digitimes behauptet im gegebenen Fall auch nichts besonderes was Fiji betrifft; die angegebene Zeitspanne duerfte sogar stimmen. Es ist generell ein ziemlich inhaltsloser newsblurb wie es oefters bei digitimes ueblich ist.

Hübie
2014-09-24, 18:45:59
Vor allem hängen die Preissenkungen wohl weniger mit kommenden AMD-Chips zusammen als mit dem Druck von nVidia. Bis da was kommt dauerts ja noch.

john carmack
2014-09-26, 14:41:24
Ich habe mal irgendwo gelesen das AMD´s Fiji evtl. schon mit "Stacked dRAM" komemn soll.

Wie dem auch sei, auch wenn "Stacked dRAM" erst mit der 400er Geneartion kommen soll.

Wie muss ich mir das vorstellen?

1. Ist das dann so wie auf dem Xbox One Chip? Also ist ein Teil des RAM´s direkt auf dem Die der GPU verbaut? Wenn JA, mit wieviel MB des "Stacked dRAM" kann man dann rechnen?

2. Oder wird der gesammte RAM durch "Stacked dRAM" ersetzt und auf dem PCB rund um den Chip angeordnet?

Nakai
2014-09-26, 15:10:29
Ich habe mal irgendwo gelesen das AMD´s Fiji evtl. schon mit "Stacked dRAM" komemn soll.

Wie dem auch sei, auch wenn "Stacked dRAM" erst mit der 400er Geneartion kommen soll.

Wie muss ich mir das vorstellen?

1. Ist das dann so wie auf dem Xbox One Chip? Also ist ein Teil des RAM´s direkt auf dem Die der GPU verbaut? Wenn JA, mit wieviel MB des "Stacked dRAM" kann man dann rechnen?

2. Oder wird der gesammte RAM durch "Stacked dRAM" ersetzt und auf dem PCB rund um den Chip angeordnet?

1. Stacked RAM sind mehrere gestapelte Ramchips, welche insgesamt sehr breit angebunden sind. Niedriger Takt große breite von 1024 bit. Von solchen stacks kann man mehrere verbauen. Pro stack derzeit 1 GB Volumen und etwa 128 GB/s.

2. Ich spekulieren auf beides.

Akkarin
2014-09-26, 15:19:20
Gibt 2 (3) möglichkeiten.

1. Der gesamte "normale" RAM wird mit stacked RAM ersetzt, das ganze wird dann auf das Package(PCB geht afaik schlecht weil man dann wieder große treiber bräuchte) gepackt. 2-8 GB nach bisherigen Gerüchten, in Zukunft dann natürlich mehr wenn die chips selbst höhere Kapazitäten haben und höher gestackt werden kann.

2. Das ganze via interposer oder TSV direkt mit dem chip verbinden. Ist zZ noch zu schwierig afaik und erlaubt nur kleinere mengen and Speicher, ist aber natürlich nochmals schneller und energiesparender.

3. Das ganze kannst du dann natürlich auch mit normalen Schnittstellen verbinden. Der nächste Xeon Phi ist bspw. mit "up to" 16 GB stacked ram + "up to" 386 GB DDR4.

Nightspider
2014-09-26, 15:25:20
Wenn Haiwaii schon 4GB VRAM hatte und Mantle mehr VRAM benötigt wird Fiji sicherlich mit 6 oder 8GB Stacked VRAM kommen. Das wären dann 768 bis 1024GB/s.

Bleibt nur die Frage ob die Stacked-DRAM Module teurer sind als schnell GDDR5 Module.

Hat da jemand Infos zum möglichen Preis im Vergleich zu GDDR5?
Die Tatsache, dass die gleichen Stacks auch als Hauptspeicher verkauft werden können wird die Preise langfristig sinken lassen. Denn GDDR-Speicher wurde ja bis auf die PS4 nur als Grafikspeicher verbaut.

Mandalore
2014-09-26, 17:21:43
Geht man bei Fiji eigentlich immer noch von 20nm aus oder hat sich 20nm@GPUs endgültig erledigt?


Noch ne Frage zu dem HBM:

In welchen Bereichen würde sich eine solche derart gesteigerte Bandbreite stark bemerkbar machen?



Danke

Akkarin
2014-09-26, 18:13:51
HBM ist nicht nur schneller, sondern außerdem auch stromsßarender. Bei high-end karten könnte das durchaus mal 50W ausmachen afaik.

Besonderst stark bringt die Bandbreite natürlich was für GPGPU, aber auch bei normalen games kann es helfen.

Kriton
2014-09-26, 22:55:32
Ich habe mal irgendwo gelesen das AMD´s Fiji evtl. schon mit "Stacked dRAM" komemn soll.


Die Basis dessen (ohne Wertung meinerseits) war die Aussage im beyond3D-Forum von Dave Baumann Anandtech-Forum von sushiwarrior (IIRC - ich finde den Post aber nicht mehr) hinsichtlich eines wirklich großen Chips. Daraufhin starteten die Überlegungen was damit gemeinst sein könnte. Und AMD werkelt ja schon länger an stacked RAM.

http://forums.anandtech.com/showthread.php?p=36253890#post36253890

Fiji will be something new and different, with respects to memory config. Big die.

mironicus
2014-09-29, 13:28:26
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/AMD-Pirate-Islands-Radeon-R9-390X-Veroeffentlichung-20-nm-1137597/

Man spekuliert schon auf 20 nm-Fertigung. Das wäre auch bitter nötig für AMD wieder eine Führung übernehmen zu können, sei es auch für ein paar Monate.

Dawn on Titan
2014-09-29, 13:39:35
Das kann schon ein Trumpf gegen GM200 sein.

Unicous
2014-09-29, 13:48:46
Ich bleibe skeptisch. Klingt für mich eher nach einem media circle jerk und die Quelle ist der allseits bekannte Ur-anus.

wuzetti
2014-09-29, 14:02:04
Seh ich auch so. Dicke neue GPU mit HBM ausgerechnet auf einem neuem Prozess? Ich halte das aus nachvollziehbaren Gründen für ein NoGo.

Ailuros
2014-09-29, 14:08:08
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/AMD-Pirate-Islands-Radeon-R9-390X-Veroeffentlichung-20-nm-1137597/

Man spekuliert schon auf 20 nm-Fertigung. Das wäre auch bitter nötig für AMD wieder eine Führung übernehmen zu können, sei es auch für ein paar Monate.

=/>550mm2 und auf 20SoC? :eek: :freak: ;D

Das kann schon ein Trumpf gegen GM200 sein.

Trumpf wie die meisten Watts/fps?

differenzdiskriminator
2014-09-29, 14:27:11
=/>550mm2 und auf 20SoC? :eek: :freak: ;D
Endlich mal ne Herausforderung :eek:

Trumpf wie die meisten Watts/fps?
Bei den Autos gibt es bereits Coal Runner:
http://www.alan.com/2014/07/06/conservatives-intentionally-making-their-cars-spew-black-smoke-to-stick-it-to-obama-liberals/

Warum nicht auch bei GPUs? ;D

Unicous
2014-09-29, 14:30:16
Seh ich auch so. Dicke neue GPU mit HBM ausgerechnet auf einem neuem Prozess? Ich halte das aus nachvollziehbaren Gründen für ein NoGo.

HBM direkt wäre da aber nicht das Problem, denn der kann/wird? schon unter 20nm gefertigt.

Und AMD ist ja bei neuen Nodes gerne mal der Erste (wenn es um GPUs geht ;))

Aber, da Apple, Qualcomm und Co. anscheinend eh die ganzen TSMC-Kapazitäten für 2015 2014 aufgefressen haben, scheint eher hier das Problem zu liegen.

Und von Globalfoundries hört man auch nichts mehr über 20nm LPM (wobei der wohl eh nicht geeignet wäre), ich frage mich ob er nicht schon KIA ist und für 14nm geopfert wurde.

Ich denke weiterhin, dass der 20nm Prozess nicht wegen der geringen Vorteile (oder u.a. hier kolportierten Nicht-Eignung), sondern wegen der Wirtschaftlichkeit und TTM übersprungen wird. Und das wusste man vlt. schon vor zwei Jahren, denn TSMC macht ja keine Wochenpläne für ihre Produktion sondern Monate (sprich Jahre) im Voraus.

Dawn on Titan
2014-09-29, 14:37:04
Trumpf wie die meisten Watts/fps?

Dafür gibt es doch ne Wakü.... :D

Und im Winter spart man sich die Heizung. "For those who demand the best for their Money" ;D

Die Liste war einfach zu geil, nie hat man mich mehr überzeugt. ;D

1. The Future of Gaming
2. For those who demand the best for their Money
3. AMD Radeon Graphics – Upto 26% higher performance over the GTX 760
4. Freesync
5. Eyefinity
6. True Audio
7. 4K ready
8. DirectX 12 and Mantle
9. AMD Powertune Technology
10. Unique Board Designs
11. AMD Gaming Evolved Client
12. Latest Graphics Core Next Architecture

http://www.4gamer.net/games/234/G023455/20140927004/

HOT
2014-09-29, 15:08:16
Da wohl Nolan und der ARM-Shrink von GloFo kommen und TSMC offenbar keine verfügbare 20nm-Kapazität hat dürften potenzielle 20nm Grafikchips auch von GloFo kommen. Das könnte durchaus im Laufe des nächstens Jahres passieren, aber nicht mit dem jetzigen 500mm²-Chip, der ist 99% 28nm und der kommt sicherlich noch dieses Jahr als 295X (Maui). Dass Tonga nicht im Vollausbau kommt dürfte daran liegen, dass man wohl nicht damit rechnet, die Tahitis noch dieses Jahr komplett loszuwerden. Iceland steht auch noch aus, das könnte der erste GloFo-Chip sein. Ergänzen könnte man mit 20nm Bermuda und Treasure, später im Jahr dann mit Fiji.

Unicous
2014-09-29, 15:15:01
Dazu hätte ich dann gerne eine Quelle. Weder AMD noch TSMC, noch GF haben etwas dazu verlautbart und ich wüsste nicht, dass das durch die Gerüchteküche gewandert wäre. Bis jetzt wird davon ausgegangen, dass die 20nm Produkte bei TSMC gefertigt werden.

Von GF hat man zu 20nm (iirc) seit 2012 nichts Neues gehört.

wuzetti
2014-09-29, 15:18:46
HBM direkt wäre da aber nicht das Problem, denn der kann/wird? schon unter 20nm gefertigt.

Und AMD ist ja bei neuen Nodes gerne mal der Erste (wenn es um GPUs geht ;))

Aber, da Apple, Qualcomm und Co. anscheinend eh die ganzen TSMC-Kapazitäten für 2015 aufgefressen haben, scheint eher hier das Problem zu liegen.

Und von Globalfoundries hört man auch nichts mehr über 20nm LPM (wobei der wohl eh nicht geeignet wäre), ich frage mich ob er nicht schon KIA ist und für 14nm geopfert wurde.

Ich denke weiterhin, dass der 20nm Prozess nicht wegen der geringen Vorteile (oder u.a. hier kolportierten Nicht-Eignung), sondern wegen der Wirtschaftlichkeit und TTM übersprungen wird. Und das wusste man vlt. schon vor zwei Jahren, denn TSMC macht ja keine Wochenpläne für ihre Produktion sondern Monate (sprich Jahre) im Voraus.

ich meinte damit in erster linie dass ein ohnehin hochkomplexer chip (neue architektur, sehr grosses die möglicherweise am rande des machbaren) durch HBM sicher nicht einfacher zu fertigen sein wird. das noch dazu in einem neuen prozess, diesem risiko wird man sich ganz einfach nicht aussetzen. zumal die zugewinne durch den neuen prozess minimal sind, wie du völlig richtig sagst.

außerdem kann man dann die neue architektur mit dem 16FF prozess shrinken und hat da nochmal schönes potential für verbesserungen aller art.

differenzdiskriminator
2014-09-29, 15:23:57
Wo kommt denn jetzt plötzlich GlobalFoundries wieder her?

Die hatten doch schon 2013 gesagt, kein HP bei 20nm anzubieten?!

Nakai
2014-09-29, 15:38:42
AMD bringt einen 500mm²+ Chip in 28HPM, laut Synapse-Folie. Fiji in 20nm...extrem unwahrscheinlich. Wenn Tonga die ganzen Compute-Features hat, sollte Tonga DP:SP von 1:2 haben.

Fiji in 20nm und so extrem groß? Da sind locker 5000SPs möglich. Mhh, eventuell ist dieser 500mm² Chip nicht Fiji sondern Maui/Bermude/Treasure, welcher gegen GM204 angelegt ist. Selbstverständlich mit Compute-Features.

Ailuros
2014-09-29, 15:45:05
AMD bringt einen 500mm²+ Chip in 28HPM, laut Synapse-Folie. Fiji in 20nm...extrem unwahrscheinlich. Wenn Tonga die ganzen Compute-Features hat, sollte Tonga DP:SP von 1:2 haben.

Fiji in 20nm und so extrem groß? Da sind locker 5000SPs möglich. Mhh, eventuell ist dieser 500mm² Chip nicht Fiji sondern Maui/Bermude/Treasure, welcher gegen GM204 angelegt ist. Selbstverständlich mit Compute-Features.

Ich hab hier die einzige glaubwuerdige "Quelle" die alles klar stellen wird:

http://wccftech.com/amd-fiji-gpu-stacked-dram-hbm/

[Rumor] Before we begin, a short reminder that this post is tagged as rumor, so take it with that famous pinch of salt. The aptly named SemiAccurate.com has published something that sounds quite interesting. The article hints at some unique feature in Fiji GPU and then just states that it wont be arriving for a while. Because I didn’t cough up a thousand bucks, I can literally see only 3 lines of text and I am not sure what to make of it.

I will attempt to deduce anything and everything from these lines, so this article is mostly pure educated speculation. If this isn’t your cup of tea, you might want to skip this write up. Basically the article hints that: “AMD’s upcoming Fiji has something fun, something that will provide some very interesting numbers”. Now depending on when Fiji launches, it might be based on the 20nm node but that isn’t really something unique or ‘fun’ as Charlie puts it. Its just standard lithographic progression so I very much doubt he is referring to that. No, in my opinion there is only one feature that fits the bill and that is HBM or stacked dRAM if you may. There is a very very huge amount of evidence on AMD working on stacked dram for graphical uses and this seems like the ideal fit to “something fun”. An alternative would be an ARM core on the GPU but somehow I think thats too much of a long shot.

We know for a fact that AMD is working with Hynix to introduce HBM into its graphical solutions and I have found evidence of as big as 8-Hi HBM Stacks. For the nomenclature averse, this means 8 stacks of dRAM core dies with the control die at the bottom and TSVs (through silicon vias) connecting the stacks. HBM uses a very low amount of voltage (1.2V) and delivers upto 256 GB/s (8-Hi) per chip of throughput which is quite an insane amount. In comparison modern GDDR5 ram delivers only 28GB/s per chip. Now here is the thing, the very shoddy leak we received a long time back was only good for a few facts, and one of these was the nomenclature of AMD’s R9 300 GPUs. Because of that we know that Fiji XTX is not actually the highest end chip, rather Bermuda XTX is (unless AMD has decided to do a shuffle). So why exactly is the source talking about Fiji like that? Well, if I were to take a guess at AMD’s road map, I would say that Fiji XTX is probably 28nm with HBM while Bermuda XTX is 20nm with HBM. Or it could be that Fiji is 20nm with HBM while Bermuda is 28nm without HBM, that would fit in with the leak mentioned above since it said that Bermuda would arrive first. The 3 lines say its not arriving soon, but of course I have no idea weather not arriving soon is described as by months or years or what.

*faints* :eek:

Unicous
2014-09-29, 15:46:19
@Nakai

Das ist immer eine Möglichkeit, (wenn auch sehr gering:tongue:): Der 500mm+² könnte ein anderer Chip sein.


Aaaber: Das ist wirtschaftlicher Blödsinn.:D

@Ailuros

Der money quote ist natürlich


of course I have no idea

differenzdiskriminator
2014-09-29, 15:53:34
Musst man nach "semiaccurate" noch weiterlesen?

Wieder nur Fanboy-Gebrüll vom Charlie :rolleyes:

Unicous
2014-09-29, 15:59:13
Nein, man muss gar nicht erst auf den Link klicken. Außerdem ist der "Artikel" schon einen Monat alt und bezieht sich lediglich auf einen Teaser von S|A.

Nakai
2014-09-29, 16:11:12
Ich hab hier die einzige glaubwuerdige "Quelle" die alles klar stellen wird:

http://wccftech.com/amd-fiji-gpu-stacked-dram-hbm/

*faints* :eek:

Jedes Mal wenn ich von HBM etwas lese, verstehe ich es weniger. Ein HBM-Package hat ein Base-Die und mehrere Stacked-Dies, welche die Leitungen durchreichen. Ein Package hat maximal 1024Bit Breite. Bei 4-Hi-Stack muss jeder Stacked-Die 256Bit erhalten. Bei 8-Hi-Stack demzufolge 128Bit.
Ergo steigert sich die Bandbreite von 4-Hi auf 8-Hi nicht.

Außer ein HBM-Stack hat maximal 1024Bit und die 4-Hi Variante hat nur 512Bit Anbindung.

Ahja, 8-Hi-Stack wären für Fiji in Ordnung. Pro Stack maximal 2GB, bei 4 Stacks sind das 8GB-RAM. Durch Shrink gibts Ende 2015 auch 16GB-Versionen für HPC-Bereich.

Unicous
2014-09-29, 16:17:59
@Nakai

Keine Sorge, die Leute bei WTF-Tech haben naturgemäß eh keinen Schimmer von was sie quatschen und können froh sein, dass sie trotzdem immer und immer wieder geklickt werden, von Leuten die noch weniger Ahnung haben und es dann in diversen Foren verbreiten.

Heftig.co meets IT.

Nakai
2014-09-29, 16:29:46
Es macht nicht viel Sinn ja. Ich verzweifle eher noch daran, wieso HBM derzeit verwendet wird. Man kann nicht genug Speicher-Volumen liefern.
Deswegen vermute ich seit je her, dass man noch ein 256Bit GDDR5-SI mitliefern wird. Bzw. man koppelt je ein HBM-Interface mit einem 64Bit-GDDR5-MC.
Eventuell sind die ROPs bzw. das Backend für PIM aufgewertet worden, wodurch es möglich ist, das transparent gegenüber der Architektur bereitzustellen.
Ergo 4 globale PIM-MCs, welche ein HBM-Channel und ein GDDR5-Channel besitzen.
Damit würde man maximal 16GB Volumen erreichen, was erstmal genug wäre.
Später wären 24GB bzw sogar 32GB möglich.

€: AMD muss mehr als nur 3000SPs mit ihrem HighEnd-Chip liefern. Maxwell ist extrem effizient und muss Paroli geboten werden. Wenn man nur die AMD-typischen 20~40%+ zur letzten Generation liefert, wird man von GM200 erledigt.

Mandalore
2014-09-29, 17:34:53
Es macht nicht viel Sinn ja. Ich verzweifle eher noch daran, wieso HBM derzeit verwendet wird. Man kann nicht genug Speicher-Volumen liefern.
Deswegen vermute ich seit je her, dass man noch ein 256Bit GDDR5-SI mitliefern wird. Bzw. man koppelt je ein HBM-Interface mit einem 64Bit-GDDR5-MC.
Eventuell sind die ROPs bzw. das Backend für PIM aufgewertet worden, wodurch es möglich ist, das transparent gegenüber der Architektur bereitzustellen.
Ergo 4 globale PIM-MCs, welche ein HBM-Channel und ein GDDR5-Channel besitzen.
Damit würde man maximal 16GB Volumen erreichen, was erstmal genug wäre.
Später wären 24GB bzw sogar 32GB möglich.

€: AMD muss mehr als nur 3000SPs mit ihrem HighEnd-Chip liefern. Maxwell ist extrem effizient und muss Paroli geboten werden. Wenn man nur die AMD-typischen 20~40%+ zur letzten Generation liefert, wird man von GM200 erledigt.


Woher weiß man das mit den geringen HBM-Volumen? Gibts Quellen dazu, oder ist es nur ein weiteres Gerücht (ernst gemeinte Frage:D)?

Unicous
2014-09-29, 17:43:07
Oooh. Ich habe wohl gerade die Hot Chips Slides der SK hynix Präsentation gefunden:

http://www.setphaserstostun.org/hc26/HC26-11-day1-epub/HC26.11-3-Technology-epub/HC26.11.310-HBM-Bandwidth-Kim-Hynix-Hot%20Chips%20HBM%202014%20v7.pdf


Vllt. steht ja etwas Nettes drin.


Anscheinend hostet die Seite die HC26 Präsentationen, falls jemand Interesse hat:

http://www.setphaserstostun.org/hc26/

fondness
2014-09-29, 17:47:24
"Power consumption is decreased by 42% compared with GDDR5" ist schonmal nett.

mironicus
2014-09-29, 17:58:36
Und wieviel % mehr Geschwindigkeit wird die GPU denn schneller, wenn man nur die Bandbreite so stark erhöht?

ndrs
2014-09-29, 18:16:22
Und wieviel % mehr Geschwindigkeit wird die GPU denn schneller, wenn man nur die Bandbreite so stark erhöht?
Kommt drauf an.

Unicous
2014-09-29, 18:28:29
Gute Antwort, ich wollte eigentlich "zig" schreiben.:tongue:

@mironicus

Das kann dir hier sicherlich niemand beantworten, aber HBM verspricht schon mal das Bandbreitenproblem für den Moment deutlich zu verringern vllt. sogar temporär zu "lösen" und beeinflusst andere Parameter, wie benötigte Fläche ("pro Bandbreite") und Leistungsaufnahme positiv. Dieses Budget kann natürlich anderweitig genutzt werden.

Nachteilig ist natürlich die vermutetlich erhöhte Komplexität die durch die Implementierung entsteht. Ob ein hypothetisches Fiji-PCB mit HBM im Vergleich zu einem Fiji-Board mit GDDR5 günstiger ist, scheint bis jetzt eher fraglich. Anderseits verringern sich vermutlich auch die Anforderungen an die VRMs und es könnte ein Nullsummenspiel sein.


Die HBM roadmap in der Präsentation startet Ende 2014, falls der Pfeil den Produktions-/Auslieferungsstand wiederspiegelt.

memoal
2014-09-29, 19:44:30
Ich glaube nicht das HBM im Bereich der dedizierten GPUs ein muss ist bzw. unbedingt sein müsste, in diesem und Anfang nächsten Jahres sowieso nicht. Absolut profitieren würden AMDs APUs, da diese immer noch am DDR3 Interface/Bandbreite hängen und dies mehr Nachteile hat, als wenn man vorerst im GPU Bereich auf GDDR6 setzen würde. Der Stromverbrauch relativiert sich, desto höher die Taktrate bei gleicher Spannung sein kann und dann zu einem Performanceanstieg beitragen kann.

Zudem soll der HBM wohl in 20nm gefertigt werden, und deren Prozesskapazitäten sind nicht gerade überragend, könnte also auch dazu beitragen das AMD ggf. Lieferprobleme bekommen könnte, wenn man im gesamten GPU Bereich auf HBM setzen würde.

AMD und Hynix haben zugleich (also vor und neben HBM) auch gemeinsam am GDDR6-Standard entwickelt. Denke mal für eine gesamte GPU Generation würde die Bandbreite und der Verbrauch (1,2v vs. 1,5) ggf. noch zu kompensieren sein, soweit man nicht Speichermengen über 8-12GB bräuchte. Ob die kommenden GPUs die Unterstützung bereits schon beherrschen ist vllt. ein anderes Thema.

Unicous
2014-09-29, 19:58:05
Das Thema wurde hier und in anderen Threads schon zu Genüge erläutert.

HBM würde bei APUs natürlich Sinn machen, allein die Kosten rechtfertigen es nicht. Selbst GDDR5 scheint AMD zu teuer zu sein, sonst hätten sie es hiermit versucht und damit sicherlich auch gute Ergebnisse erzielt. Da Carrizo Delta Color Compression wie Tonga bekommt, wird das prekäre Bandbreitenproblem ein weiteres Jahr aufgeschoben.

GDDR6 ist tot. Es wird von HBM ersetzt. Niemand arbeitet daran, auch die JEDEC hat keine Spec veröffentlicht, wie vor 2 Jahren für 2014 postuliert. (Dass Hynix und AMD explizit an GDDR6 geforscht haben wäre mir übrigens neu: gibt es eine Quelle dazu?)

Dass HBM auch und insbesondere für GPUs konzipiert wurde, zeigt auch die verlinkte Präsentation die von "High End Graphics" direkt auf Seite 1 spricht (nebst Crysis Bild) und als "Post GDDR5" Lösung tituliert wird. GDDR6 wird nicht erwähnt.

Nightspider
2014-09-29, 19:58:58
"Power consumption is decreased by 42% compared with GDDR5" ist schonmal nett.

Bleibt nur die Frage wie viel Watt das effektiv sind. Ich würde mal raten das 8GB VRAM 30-40W verbrauchen. Also würde man "nur" 15-20W sparen aber immerhin macht Kleinvieh auch Mist.

Am wichtigsten dürfte immer noch die Bandbreite sein und wenn Fiji mit HBM kommt sehe ich ihn in 4K den GM200 vernichten schlagen, wenn schon der oldschool Hawaii in 4K meistens vor Maxwell liegt.

Mich würde es fast nicht wundern wenn man mit HBM 20-30% Leistung in 4K herausholen könnte, wenn es sonst keine Flaschenhälse gibt. Man sieht ja selbst bei der GTX980, welche nicht extrem im Bandbreitenlimit ist, das bei VRAM OC einige Prozente zu holen sind, selbst wenn die Takterhöhung nur zu 30-50% durchschlägt. Sicherlich wird der durchschnittliche Vorteil keine 20-30% sein sondern bei einigen Games eventuell nur bei 5-10% liegen aber im Extremfall wird HBM schon ordentlich abgehen.

Mit den anderen Vorteilen (Stromersparnis, frei werdende Fläche in der GPU und geringere Schwingkreis-Effekte) wird das schon ein dickes Feature sein, wenn die reine GPU Leistung stimmt.

Bei der Spieleleistung unter 2,5K muss man einfach hoffen das Fiji mit GM200 konkurrieren kann.

fondness
2014-09-29, 20:22:13
Mal sehen was Fiji bringt. Ein aufgeblasener Hawaii mit HBM wird jedenfalls zu wenig sein, das weiß auch AMD.

Nightspider
2014-09-29, 20:34:13
Was bedeutet denn die Zeile mit mm²@128GB/s?

Wie viel Platz auf dem PCB für die Datenleitungen benötitgt werden um 128GB/s zu erreichen? Denn 3744mm² wäre ja schon knapp 7 fache GK110 Größe bzw. Platzbedarf.

http://abload.de/img/hbmkya6e.jpg

Sunrise
2014-09-29, 20:37:47
Ich glaube nicht das HBM im Bereich der dedizierten GPUs ein muss ist bzw. unbedingt sein müsste, in diesem und Anfang nächsten Jahres sowieso nicht.
Ein Muss ist immer relativ, du siehst ja wo AMD bereits steht, nämlich an der Wand. AMD (ATI) war da auch schon immer radikal, was neue Prozesse oder Speicher-Technologien in neuen diskreten GPUs betrifft.

Spekuliert wird über eine Einführung Ende Q1 bzw. Q2 2015, Hynix wird die Massenfertigung in der zweiten Jahreshälfte 2014 starten, hat damit also auch evtl. schon begonnen. Das passt alles gut zusammen. Mit GDDR5 lässt sich auch kein Blumentopf mehr gewinnen. Dass wusste AMD auch bereits vor etlichen Jahren schon. Ebenso wie sie wissen, dass sie aufgrund ihrer hohen TDP nach jedem Strohhalm greifen müssen, den sie bekommen können.

Noch als Zusatz:

Wenn Fiji wirklich noch 28nm ist, ergibt die späte Einführung in Q2 2015 sonst keinen Sinn für mich.

ndrs
2014-09-29, 20:38:53
Oooh. Ich habe wohl gerade die Hot Chips Slides der SK hynix Präsentation gefunden:

http://www.setphaserstostun.org/hc26/HC26-11-day1-epub/HC26.11-3-Technology-epub/HC26.11.310-HBM-Bandwidth-Kim-Hynix-Hot%20Chips%20HBM%202014%20v7.pdf

Danke. Sehr interessant. Zum Beispiel die Auswirkungen der Dummy-Bumps für die Wärmeableitung.
Zudem soll der HBM wohl in 20nm gefertigt werden, und deren Prozesskapazitäten sind nicht gerade überragend,
Gibt's dazu nähere Infos? Ich hoffe du beziehst dich nicht auf die Meldungen zu TSMC und GloFo. DRAM wird wie NAND-Flash in vollkommen anderen Prozessen gefertigt. Bei denen ist 19nm schon seit längerem Standard und kurzes googeln hat mir zum Beispiel folgendes aus 2013 ergeben: sk-hynix-startet-massenfertigung-von-16-nm-flash/ (http://www.computerbase.de/2013-11/sk-hynix-startet-massenfertigung-von-16-nm-flash/) Das muss natürich nicht vollständig für HBM gelten, aber mit den Auftragsfertigern sollte man das trotzdem nciht gleichsetzen.
Bleibt nur die Frage wie viel Watt das effektiv sind. Ich würde mal raten das 8GB VRAM 30-40W verbrauchen. Also würde man "nur" 15-20W sparen aber immerhin macht Kleinvieh auch Mist.

Dazu kommt noch die geringere Leistungsaufnahme des Speicherinterfaces auf GPU-Seite.

Irgendwo gab es auch mal einen eigenen HBM-Thread. Vielleicht könnte ein Mod die relevanten Sachen mal dort rüberschieben, falls es zunehmend Fiji-unspezifischer wird.

Edit:
Was bedeutet denn die Zeile mit mm²@128GB/s?

In dem Bild drüber geht's um die Platzverschwendung durch das Bonding. Ich vermute mal die 3700mm^2 sind die Fläche die man brauchen würde um x Lagen DDR3-Dies übereinanderzustapeln und zu Bonden. Bei so vielen Etagen nehmen natürliche die Bonddrahte wesentlich mehr Fläche ein als ein Die an sich. Kann natürlich auch sein, dass ich's falsch interpretiere :)

Unicous
2014-09-29, 20:44:48
@Nightspider

Ich glaube, das ist eine "theoretische" Größenangabe.:wink: Soviel "Platz" bräuchte das DDR3 Äqivalent um auf die Bandbreite von HBM zu kommen.

Wahrscheinlich 32 Dies à 117mm² im Gegensatz zu mickrigen 42mm² bei stacked DRAM bzw. HBM.

Könnte aber auch sein, dass ich Blödsinn Rede. Aber zusammen mit dem vorherigen slide (Bottleneck 1) Bandwidth) macht es schon Sinn.

fondness
2014-09-29, 20:51:00
Ein Muss ist immer relativ, du siehst ja wo AMD bereits steht, nämlich an der Wand. AMD (ATI) war da auch schon immer radikal, was neue Prozesse oder Speicher-Technologien in neuen diskreten GPUs betrifft.

Spekuliert wird über eine Einführung Ende Q1 bzw. Q2 2015, Hynix wird die Massenfertigung in der zweiten Jahreshälfte 2014 starten, hat damit also auch evtl. schon begonnen. Das passt alles gut zusammen. Mit GDDR5 lässt sich auch kein Blumentopf mehr gewinnen. Dass wusste AMD auch bereits vor etlichen Jahren schon. Ebenso wie sie wissen, dass sie aufgrund ihrer hohen TDP nach jedem Strohhalm greifen müssen, den sie bekommen können.

AMD hat maßgeblich an HBM mitentwickelt, wie auch schon an GDDR5 und 4. Fiji wurde für HBM designet und genau so getimed das er mit der Massenprodutkion von HBM zusammen fällt. Kurzfristig kann man soetwas sicher nicht mehr implementieren weil "man mit den Rücken zur Wand steht" oder "nach jedem Strohhalm greifen muss".


Noch als Zusatz:

Wenn Fiji wirklich noch 28nm ist, ergibt die späte Einführung in Q2 2015 sonst keinen Sinn für mich.

Als ob GM200 wesentlich früher kommen würde...und nein ein Quartal ist für mich nicht wesentlich.

Sunrise
2014-09-29, 21:10:24
Kurzfristig kann man soetwas sicher nicht mehr implementieren weil "man mit den Rücken zur Wand steht" oder "nach jedem Strohhalm greifen muss".
Kurzfristig? Wo liest du das denn raus? Ich sage genau das Gegenteil von dem, was du gelesen hast. "Das wusste AMD vor etlichen Jahren...." Nicht deutlich genug? ;)

Als ob GM200 wesentlich früher kommen würde...und nein ein Quartal ist für mich nicht wesentlich.
NV könnte GM200 wohl schon Ende 2014 raushauen, wenn da nichtsmehr schief geht. Das sind eher zwei Quartale bei mir.

memoal
2014-09-29, 21:13:17
Naja weil man derzeit wie wild für die Haswell E produziert, da werden DDR4 ECC Stacked Module gefertig (glaube 64GB pro Riegel vs 72GB (8GB ab wegen Fehlerkorrektur), kann mir nicht vorstellen das Hynix sich sowas entgehen lässt, Samsung produziert jedenfalls wie verrückt. Aber gut AMD wird schon die entsprechende Verträge abgeschlossen haben. Muss auch damit nichts zu tun haben, stimmt.

War Fiji nicht sowieso in 20nm geplant? Wer weiß ob das jetzt so effizient wird wie geplant.

Die Ersparnisse seitens HBM (ja klar insbesondere die Controller verbrauchen 75% weniger Energie) aber die umgehenden Fakten zu HBM und alles weitere dazu stammen vorerst allesamt von Hynix Präsentationfolien.

Unicous
2014-09-29, 21:15:57
@Sunrise

Wenn man an der Wand steht wird man "radikal" und nutzt neue (cutting-edge non-Intel) Prozesse und Speichertechnologien?

HBM ist seit Ewigkeiten in Entwicklung. Eine GPU mit stacked RAM auch. Fiji, der wahrscheinlich das Licht der Welt erblicken wird, war mindestens 2 Jahre, wenn nicht gar 3 oder 4 Jahre in Entwicklung.

Zu der Zeit wussten sie nicht, was Nvidia mit Maxwell vorhat und wann sie launchen werden. Daher konnten sich auch nicht wissen dass sie ab Q3'14 "an der Wand stehen". Ganz einfach.

Sunrise
2014-09-29, 21:21:12
@Sunrise
Wenn man an der Wand steht wird man "radikal" und nutzt neue (cutting-edge non-Intel) Prozesse und Speichertechnologien?
Nochmal lesen, da steht das AMD (ATI) schon immer radikal waren. Und das sie aktuell an der Wand (hinsichtlich Bandbreite, TDP, etc.) stehen, und das wussten sie auch bereits dann schon, als Hawaii entworfen wurde, denn bereits Hawaii musste auf 512bit gehen, da man ansonsten nicht an die Bandbreite gekommen wäre, die man wollte. Das ist mit Wand gemeint. Aber auch der relativ große Die und die TDP spielen da stark mit rein.

memoal
2014-09-29, 21:28:32
Nochmal lesen, da steht das ATI schon immer radikal waren.
Definitiv.;)

Das AMD an er Wand steht, ich wüsste erstmal nicht wo? Preis-/Leistungsmäßig sind sie etwas unter Druck geraten, aber nV scheint das Fehlen des 20nm Fertigungsprozess besser/schneller überwunden zu haben/können, als AMD.

Wenn AMD dieses Jahr nichts mehr Grundlegendes launchen, wird nV glaube ich erstmal garnichts machen. War beim GK104 nicht anders. Da kommt sicherlich noch GM206 und dann wird man warten was passiert und erstmal den Profimarkt bedienen. Das könnte AMD wiederrum etwas Zeit für Fiji und Co verschaffen. Ich glaube die kommen schon klar.

del_4901
2014-09-29, 21:30:31
HBM reduziert auch Latenz und damit Registerpressure.

fondness
2014-09-29, 21:36:43
Kurzfristig? Wo liest du das denn raus? Ich sage genau das Gegenteil von dem, was du gelesen hast. "Das wusste AMD vor etlichen Jahren...." Nicht deutlich genug? ;)

Okay dann habe ich es falsch aufgefasst. Ich sehe allerdings nicht wo AMD "an der Wand steht". AMD geht endlich mal wieder in die Vollen was Die-Size betrifft, man will endlich wieder im High-End konkurrieren. Wenn du das als "an der Wand stehen" interpretierst dann stand NV schon immer an der Wand. Bei der TDP muss man erstmal sehen wie es bei Fiji aussieht, auch AMD entwickelt weiter und bleibt nicht stehen.


NV könnte GM200 wohl schon Ende 2014 raushauen, wenn da nichtsmehr schief geht. Das sind eher zwei Quartale bei mir.

Ich habe bewusst deine Daten genommen du schriebst Ende Q1/Q2 oder habe ich das etwa auch falsch aufgefasst?

[..] denn bereits Hawaii musste auf 512bit gehen, da man ansonsten nicht an die Bandbreite gekommen wäre, die man wollte.

Die Bandbreite hätte man auch mit 384bit haben können, Hawaii hat 512bit primär wegen den 16GB VRAM für den Profi-Bereich IMO.

Sunrise
2014-09-29, 21:36:54
Ich glaube die kommen schon klar.
Maxwell wird sie zumindest bis Q2 2015 stark unter Druck setzen. AMD kann noch im Profi- und Compute-Bereich punkten, vieles andere kann NV derzeit besser. Das drückt bei AMD auf zukünftige R&D, daher werden sie denke ich wieder mehr Risiken eingehen. Was auch immer das heißen mag.

Sunrise
2014-09-29, 21:41:25
Die Bandbreite hätte man auch mit 384bit haben können, Hawaii hat 512bit primär wegen den 16GB VRAM für den Profi-Bereich.
Nach Aussage von Eric war das eine bewusste Designentscheidung aufgrund der besseren "Power"Effizienz bei niedrig getaktetem GDDR5. Klar, der maximale Speicherausbau war sicher auch relevant, das hat man dann gerne mitgenommen.

Ich habe bewusst deine Daten genommen du schriebst Ende Q1/Q2 oder habe ich das etwa auch falsch aufgefasst?
Ich gehe von Ende Q1 frühestens aus. Wenn NV schon Ende 2014 es schaffen sollte kommt das doch mit den 2 Monaten eher hin oder nicht? Auf jedenfall halte ich das für signifikant, vor allem wenn du bedenkst wie lange AMD da schon seit Hawaii drauf sitzt.

Unicous
2014-09-29, 21:41:50
Maxwell wird sie zumindest bis Q2 2015 stark unter Druck setzen. AMD kann noch im Profi- und Compute-Bereich punkten, vieles andere kann NV derzeit besser. Das drückt bei AMD auf zukünftige R&D, daher werden sie denke ich wieder mehr Risiken eingehen. Was auch immer das heißen mag.

Die zwei Quartale, oder auch mehr ändern nichts am R&D Budget. Das ist im Moment auf einem Tiefststand und ich wüsste nicht warum Nvidia das direkt beeinflusst.

Und es ist auch eigentlich total unwichtig.

memoal
2014-09-29, 21:48:34
HBM reduziert auch Latenz und damit Registerpressure.
Also als Spieler ist sicherlich der höhere Takt von Vorteil als denn niedrige Latenz, oder liege ich da falsch? Direkt beim Spielen merkt man den Unterschied von CL7 vs. CL9 jedenfalls nicht so sehr, den höheren Takt aber schon.

Wenn natürlich ein hoher Takt und niedrige latenzen machbar sind, dann ist es definitiv von Vorteil. Muss man sehen wie hoch man erste Revisionen takten kann.

Sunrise
2014-09-29, 21:49:04
Die zwei Quartale, oder auch mehr ändern nichts am R&D Budget. Das ist im Moment auf einem Tiefststand und ich wüsste nicht warum Nvidia das direkt beeinflusst.

Und es ist auch eigentlich total unwichtig.
Die zwei Quartale (genauer eher 3, Maxwell ist ja bereits schon länger draußen) sind mit die wichtigsten Quartale des Jahres. Oder hast du einen anderen Kalender als ich? Natürlich werden die beeinflussen, was danach kommt. Das hat mit Fiji natürlich aber direkt nichts mehr zu tun, da der fertig ist, da sind wir uns sicher einig.

Ich will damit nur sagen, dass AMD ggü. NV wohl keinen 2. Maxwell zaubern wird können. Sie machen das eben auf ihre Art.

Nightspider
2014-09-29, 21:50:25
HBM reduziert auch Latenz und damit Registerpressure.

Was würdest du schätzen, wie viel % das bringen kann? 0-10% ?

Ich weiß, die Frage ist blöd. Ich will nur grobe Rahmen haben.

del_4901
2014-09-29, 21:56:33
Was würdest du schätzen, wie viel % das bringen kann? 0-10% ?

Ich weiß, die Frage ist blöd. Ich will nur grobe Rahmen haben.
Ganz recht, bloede Frage. Schlechte Occupancy durch hohe VGPR Usage laeuft halt besser, da die Wavefronts schneller wieder frei werden.

ndrs
2014-09-29, 22:02:10
Also als Spieler ist sicherlich der höhere Takt von Vorteil als denn niedrige Latenz, oder liege ich da falsch?
HBM taktet aber niedriger :) Was du meintest ist sicher Bandbreite.
Ganz recht, bloede Frage.
Ich hab mir mein "kommt drauf an schon verkniffen :D
VGPR
Wofür steht das? Für den wissbegierigen Ahnungslosen :)

Unicous
2014-09-29, 22:06:39
@Sunrise

Du behauptest das R&D Budget wäre davon betroffen. Warum? Es ist wie gesagt schon auf einem Tiefststand, warum sollte Nvidias Produktpalette das beeinflussen. Ich sehe die Logik dahinter nicht. Andererseits...es ist egal.


@memoal

Du hast bei HBM schon eine um ein Vielfaches höherere Bandbreite im Vergleich zu DDR3/GDDR5, warum willst du den (Speicher-?)Takt erhöhen?
Das soll jetzt nicht schnippisch sein, aber deswegen heißt es ja High Bandwidth Memory. Der DRAM ist sehr breit ausgelegt und kann dadurch z.B. auch bei 1.2V operieren (wobei hier natürlich auch der Fertigungsprozess eine Rolle spielt). GDDR5 ist dafür nicht ausgelegt.


@ndrs

Vector General Purpose Registers

memoal
2014-09-29, 22:08:54
HBM taktet aber niedriger :) Was du meintest ist sicher Bandbreite
Nee, nicht auf HBM bezogen, ich meinte ganz einfach gesehen, dass man höheren Takt schneller bemerkt als denn niedrigere (oder verkürzte) Latenz, ein CL7 1333 Riegel arbeitet nicht viel schneller als CL9 1600, wobei @alphatier eher professionelle Zwecke meinte. Denke ich zumindestens. HBM ermöglich ja noch mehr, als nur niedrigere Latenzen.

@unicous
Die Bandbreite muss man auch nutzen können.

Kriton
2014-09-29, 22:15:59
Bei der TDP muss man erstmal sehen wie es bei Fiji aussieht, auch AMD entwickelt weiter und bleibt nicht stehen.


Ja, aber Tonga vs. Maxwell. ist schon eine Ansage was die TDP angeht. Auch wenn man sehen muss, dass die wirklich gute TDP nur beim Referenzdesign steht und die Leistung immer bei den custom designs betrachtet wird (ich rede von der 970).

Nightspider
2014-09-29, 22:16:14
Schlechte Occupancy durch hohe VGPR Usage laeuft halt besser, da die Wavefronts schneller wieder frei werden.

Leider verstehe ich bei diesem Satz nur Bahnhof. :uconf2::uconf2::uconf2:

Deswegen die dumme Frage nach Prozentzahlen. :D

Unicous
2014-09-29, 22:19:48
@memoal

DDR3 ungleich GDDR5.
DDR3 ungleich HBM.

Du kannst nicht die Latenzen oder Taktraten von DDR3 mit GDDR5 oder HBM vergleichen. Das sind zwei paar verschieden Schuhe (bzw. 3).

memoal
2014-09-29, 22:25:16
Ja, aber Tonga vs. Maxwell. ist schon eine Ansage was die TDP angeht.
Wenn Tonga Pro womöglich ein teildeaktiviertes Speicherinterface mitbringt dann nicht, dann dürfte AMD sehr tief gestapelt haben. Die Antwort dazu fehlt noch. Es sagt niemand etwas, die schweigen sich aus. Könnte möglich sein das daher nur 2GB Varianten im Umlauf sind.

del_4901
2014-09-29, 22:25:25
Deswegen die dumme Frage nach Prozentzahlen. :DProzentzahlen ohne Kontext sind wertlos. Wenn ich jetzt behaupte, dass SSR oder HBAO bei gleichen Umgebung etwa 25% durch halbe Latenz bringt, dann waehre das 1 an den Haaren herbeigezogen und 2 nicht sehr Aussagekraeftig.

Mit andern Worten: Schlechter Code laeuft besser.

mczak
2014-09-29, 22:31:09
Leider verstehe ich bei diesem Satz nur Bahnhof. :uconf2::uconf2::uconf2:

Das ist ganz einfach, wenn die einzelnen Wavefronts weniger lange auf den Speicher warten müssen dann brauchst du eben weniger Wavefronts um den Chip immer beschäftigt zu halten. Bei weniger Wavefronts in-flight brauchst du dann natürlich auch weniger Register.

Deswegen die dumme Frage nach Prozentzahlen. :D
Die Frage ist gar nicht dumm würde mich auch interessieren. Wenn die Latenz bloss etwas kleiner ist ändert das nicht so viel. Wäre aber die Latenz erheblich anders würde man wohl auch das Design des Chips etwas ändern (eben weil das dann beeinflussen würde wieviel Wavefronts gleichzeitig sinnvoll sind, damit verschiebt sich dann evtl. die Balance wieviele Register sinnvoll sind etc.). Aber wieviel das bei einem fixen Design bringen würde kann man wohl nicht wirklich beantworten, kommt ja auch immer darauf an wieviele Register die einzelnen Wavefronts brauchen, was für Speicherzugriffe die haben etc.

memoal
2014-09-29, 22:33:41
Wenn ich jetzt behaupte, dass SSR oder HBAO bei gleichen Umgebung etwa 25% durch halbe Latenz bringt
Was nicht mal unmöglich erscheint, soweit man Framerateneinbrüche dadurch reduzieren könnte. Würde ja flüssiger laufen.

Coda
2014-09-29, 22:35:53
Leider verstehe ich bei diesem Satz nur Bahnhof. :uconf2::uconf2::uconf2:

Deswegen die dumme Frage nach Prozentzahlen. :D
Ich hoffe ich kann das soweit vereinfachen das man es versteht.

GPUs machen mit anderen Daten weiter (andere Pixel z.B.), wenn sie auf Speicher warten müssen. Dafür brauchen sie Platz auf dem Chip um Buch über die Zustände zu führen die alle aktiv sind.

Je mehr ein Programm von dem Platz auf dem Chip braucht, desto weniger davon können in der Warteschlange sein und desto größer ist die Wahrscheinlichkeit, dass der Chip gar nichts machen kann, weil alle schon auf Speicher warten.

Mit HBM ist die Latenz geringer, deshalb muss der Chip weniger lange auf den Speicher warten und die Gefahr ist geringer dass nichts in der Warteschlange ist was er stattdessen ausführen kann.

Kriton
2014-09-29, 22:40:26
Wenn Tonga Pro womöglich ein teildeaktiviertes Speicherinterface mitbringt dann nicht, dann dürfte AMD sehr tief gestapelt haben. Die Antwort dazu fehlt noch. Es sagt niemand etwas, die schweigen sich aus. Könnte möglich sein das daher nur 2GB Varianten im Umlauf sind.


Aber wozu dann zu dem Zeitpunkt bringen? Hat da schon niemand vom Hocker gehauen, und dass Maxwell kommt wusste AMD auch. Wenn man also solchen Spielraum mit seinem Chip hat: Warum nicht schauen was die Konkurrenz macht und dann kontern?

Momentan haben Sie ein ****-Momentum wenn man sich 285 vs. 970 ansieht.

memoal
2014-09-29, 22:41:12
Mit HBM ist die Latenz geringer, deshalb muss der Chip weniger lange auf den Speicher warten und die Gefahr ist geringer dass nichts in der Warteschlange ist was er stattdessen ausführen kann.
Heisst selbst ein niedriger Takt, sagen wir mal von ca. max 800 mhz würde da nichts schaden?

@Kriton
Die kann man beide so erst mal nicht vergleichen. Warum, weshalb oder so, muss AMD allein beantworten.

Kriton
2014-09-29, 22:42:12
Ich hoffe ich kann das soweit vereinfachen das man es versteht.

GPUs machen mit anderen Daten weiter (andere Pixel z.B.), wenn sie auf Speicher warten müssen. Dafür brauchen sie Platz auf dem Chip um Buch über die Zustände zu führen die alle aktiv sind.

Je mehr ein Programm von dem Platz auf dem Chip braucht, desto weniger davon können in der Warteschlange sein und desto größer ist die Wahrscheinlichkeit, dass der Chip gar nichts machen kann, weil alle schon auf Speicher warten.

Mit HBM ist die Latenz geringer, deshalb muss der Chip weniger lange auf den Speicher warten und die Gefahr ist geringer dass nichts in der Warteschlange ist was er stattdessen ausführen kann.

:up: Gut verständlich.

Nightspider
2014-09-29, 22:42:27
Danke Coda! (y)

Coda
2014-09-29, 22:50:18
Heisst selbst ein niedriger Takt, sagen wir mal von ca. max 800 mhz würde da nichts schaden?
Kommt drauf an wie breit das Interface ist. Viel von der GDDR5-Latenz kommt auch vom physikalischen Interface (analoges Encoding/Decoding) das würde da wesentlich einfacher ausfallen, weil man direkter am Chip ist

memoal
2014-09-29, 23:11:55
Danke, ich hatte bei CAS noch die Zyklen im Hinterkopf die bei höheren Takt auch doppelt so hoch sein könnten, womit der Duchsatz bei dem Takt auch deutlich steigt, aber HBM bringt vieles mehr mit.

Hübie
2014-09-29, 23:19:40
Woher nimmst du deine Zahlen? Der VRAM vebrät ja nicht dauerhaft Energie.
Edit: und wenn du 66-100% Kapazität nennst solltest du wenigstens einen Bereich eingrenzen. ;)

Unicous
2014-09-29, 23:23:37
Nvidia wollte ja auf 3DS setzen.

Was nichts anderes heißt als 3D Stacked. Da HBM "auch" 3DS ist und Nvidia vor ein paar Monaten einen Vortrag dazu gehalten hat, ist die Wahrscheinlichkeit groß, dass sie auch HBM nutzen werden... oder eben HMC, das Konkurrenzkonzept von Micron u.a.

Hynix' HBM Stacked Dies takten übrigens aktuell bei 800Mhz-1 GHz (nominell?).

Unicous
2014-09-29, 23:51:51
Die 85 Watt beziehen sich auf diese Folie und sind inklusive PHY.

http://i.imgur.com/ynRr3Q1.png

Der GDDR5 RAM an sich verbraucht nur 35 Watt. HBM 15 Watt.

Hübie
2014-09-30, 00:09:24
War auf HBM bezogen.

http://www.tomshardware.de/hbm-speicher-radeon,news-250622.html

@Unicous
Ja, danke hab die PDF gesehen.

War mir klar. Nur stimmen die Zahlen halt nicht. Wenn du eine Quelle als Grundlage nimmst verlinke das bitte. Die 85 Watt sind nicht nur DRAM sondern auch das Phy (wie Unicous schon sagte).
Na ja jetzt haben wir das ja geklärt.

differenzdiskriminator
2014-09-30, 09:02:43
Okay dann habe ich es falsch aufgefasst. Ich sehe allerdings nicht wo AMD "an der Wand steht". AMD geht endlich mal wieder in die Vollen was Die-Size betrifft, man will endlich wieder im High-End konkurrieren.
Ist doch irgendwie ziemlich an der Wand stehen, wenn die Strategie offensichtlich nicht aufgegangen ist, die man vor einigen Jahren vollmundig verkündet hat:

http://www.anandtech.com/show/2556/2

Die Formulierung ist wohl etwas hart, aber durchaus zutreffend.

StefanV
2014-09-30, 12:13:24
Ich glaube nicht das HBM im Bereich der dedizierten GPUs ein muss ist bzw. unbedingt sein müsste, in diesem und Anfang nächsten Jahres sowieso nicht.
Ich schon, weil es einige Dinge ändert und gegenüber GDDR5 so gewaltige Vorteile hat, dass es schlicht alternativlos ist.

Was du nämlich vergisst ist die Leistungsaufnahme der Treiber, die bei HBM deutlich kleiner/sparsamer ausfallen können, da schlicht die Signale weniger Leistung verbraten, da der Weg kürzer ist und man nur ein paar millimeter zu einem Tochter Die muss, aber nicht vom Package runter.


Absolut profitieren würden AMDs APUs, da diese immer noch am DDR3 Interface/Bandbreite hängen und dies mehr Nachteile hat, als wenn man vorerst im GPU Bereich auf GDDR6 setzen würde.
Ja, wäre aber dafür zu teuer und zu unflexibel. Als 'End User' möchte man halt den Speicher aufrüsten können, was aber bei HBM nicht geht. Ergo ist das für GPUs momentan eher weniger praktikabel. Da muss man dann halt auf DDR4 warten, bis das implementiert ist und in der Zwischenzeit halt die Kompression von Tonga in die APUs implementieren.

Dass es GDDR6 geben wird, halte ich für quatsch. Wird eher nicht passieren, aus diversen Gründen...


Zudem soll der HBM wohl in 20nm gefertigt werden, und deren Prozesskapazitäten sind nicht gerade überragend, könnte also auch dazu beitragen das AMD ggf. Lieferprobleme bekommen könnte, wenn man im gesamten GPU Bereich auf HBM setzen würde.
Und das weißt du jetzt woher genau? Hast du bei GF und/oder TMSC persönlich nachgeschaut? Oder hast du Dokomente gesehen, die nicht für die Öffentlichkeit gedacht sind?

Kurz: WIR als 'Normalos' können gar nicht wissen, wie es mit den Kapazitäten für 20nm ausschaut, weder beim einen noch beim anderen. Ganz ab davon ist das auch nur ein Chip, der das bisher können täte. Dafür braucht man gar nicht soo hohe Mengen...


AMD und Hynix haben zugleich (also vor und neben HBM) auch gemeinsam am GDDR6-Standard entwickelt.
GDDR4 und 5 warens AFAIR; von GDDR6 hab ich noch nie was gehört. Wenn man sich auch mal diverse Dinge anschaut, kann auch bezweifelt werden, dass man überhaupt drüber nachgedacht hat.

Kurz: Die Leistungsaufnahme, die man für den Transfer der Daten bräuchte wäre schlicht zu hoch.

Ja, aber Tonga vs. Maxwell. ist schon eine Ansage was die TDP angeht. Auch wenn man sehen muss, dass die wirklich gute TDP nur beim Referenzdesign steht und die Leistung immer bei den custom designs betrachtet wird (ich rede von der 970).
Du vergisst 2 Dinge:
a) die aktellen GM204 sind auf 250W Verbrauch ausgelegt und können 'frei arbeiten', die ganzen 'Verbesserungen' kommen durch agressive Stromsparmechanismen, die aber das Netzteil u.U. recht stark belasten.

b) hat der Tonga 'ne relativ hohe VCore. Die könnte man ja auch zum Beispiel mal senken und das ganze 'nen bisserl mehr auf Verbrauch optimieren - und schon schauts für Maxwell gar nicht mal so gut aus...

Also erst mal abwarten was kommt, bevor hier irgendwelche Verschwörungen theorisiert werden.

differenzdiskriminator
2014-09-30, 12:30:14
b) hat der Tonga 'ne relativ hohe VCore. Die könnte man ja auch zum Beispiel mal senken und das ganze 'nen bisserl mehr auf Verbrauch optimieren - und schon schauts für Maxwell gar nicht mal so gut aus...
Hach, doof, dass AMD das nicht wusste :rolleyes:

Ailuros
2014-09-30, 12:34:05
Du vergisst 2 Dinge:
a) die aktellen GM204 sind auf 250W Verbrauch ausgelegt und können 'frei arbeiten', die ganzen 'Verbesserungen' kommen durch agressive Stromsparmechanismen, die aber das Netzteil u.U. recht stark belasten.

Beweis es.

b) hat der Tonga 'ne relativ hohe VCore. Die könnte man ja auch zum Beispiel mal senken und das ganze 'nen bisserl mehr auf Verbrauch optimieren - und schon schauts für Maxwell gar nicht mal so gut aus...

Wieso sind die AMD engineers tatsaechlich so daemlich und wieso haben sie Dein Talent noch nicht engagiert bis jetzt?

Dawn on Titan
2014-09-30, 12:56:17
Was soll den akut von AMD kommen? Never Settle Re-Re-loaded?

Und wann wir die ersten Piraten sehen werden, ist noch eine Frage.

memoal
2014-09-30, 13:09:46
Dass es GDDR6 geben wird, halte ich für quatsch. Wird eher nicht passieren, aus diversen Gründen...
http://www.chip.de/news/GDDR6-Schneller-Speicher-fuer-schnelle-Grafikkarten_56409599.html

M4xw0lf
2014-09-30, 13:12:31
http://www.chip.de/news/GDDR6-Schneller-Speicher-fuer-schnelle-Grafikkarten_56409599.html
2012. Seitdem nie wieder was davon zu sehen oder zu hören gewesen.

Ailuros
2014-09-30, 13:22:30
2012. Seitdem nie wieder was davon zu sehen oder zu hören gewesen.

VR-Zone ist keine zuverlaessige Quelle und schon gar nicht Theo Valich :freak:

Unicous
2014-09-30, 13:25:37
VR-Zone ist keine zuverlaessige Quelle und schon gar nicht Theo Valich :freak:

Ergo wurde noch nie etwas zu GDDR6 berichtet, denn das ist der einzige Bericht auf den sich alle beziehen.;D

Wenn GDDR6 nach Jahren der Nicht-Existenz in den Medien oder anderen Kreisen von JEDEC spezifiziert wird, fresse ich einen Besen.

HBM ist GDDR6 nur ohne den "GDDR6"-Teil. Jeder der etwas anderes behauptet sollte auch entsprechende Beweise dafür liefern können.

memoal
2014-09-30, 13:27:09
2012. Seitdem nie wieder was davon zu sehen oder zu hören gewesen.
Ob die Jedec einen neuen Standard als gerechtfertigt ansah, kann ich nicht sagen. So könnte gut möglich sein das GDDR5 über 6gpbs schon der gemeinte GDDR6 sein könnte, dazu wurde aber nichts veröffentlich.

Mittlerweile könnte es möglich sein, dass man hinsichtlich des Fortschritts bei der 3DS-Entwicklung, diesen Part aufgegeben hat, weiss niemand genau. Man jetzt aber warten muss, bis es flächendeckend verfügbar ist. Zuletzt bedeutet es auch neue Designs etc., was die Kosten nach oben treibt. Sparsamer Speicher und große Mengen, schön und gut, aber das ist nicht alles.

Es gab/gibt aber mehr Anzeichen dafür das GDDR6 irgendwie kommen sollte, als das es nicht so war. Natürlich ist es wie mit jeder Info, sie beruht zumeist auf einer Quelle. Zu behaupten das sei alles Quatsch, naja. Soll mir egal sein.

Unicous
2014-09-30, 13:35:48
Es gab/gibt aber mehr Anzeichen dafür das GDDR6 irgendwie kommen sollte, als das es nicht so war. Natürlich ist es wie mit jeder Info, sie beruht zumeist auf eine Quelle. Zu behaupten das sei alles Quascht, naja. Soll mir egal sein.

Sie beruht meistens auf einer Quelle, richtig. Wo gibt es die Quelle bzw. die "Anzeichen" für GDDR6?

Jeder hat angenommen, dass nach GDDR5 GDDR6 kommt. Es ist ein reines Zahlenspiel. Es kam aber nichts. Der gute Theo hat vllt. wirklich gehört dass es einen neuen Grafik-Speicher gibt, der in Entwicklung ist, aber nicht gecheckt, dass HBM/HMC gemeint ist.

Wenn man sich verfahren hat, kann man es ruhig mal zugegeben anstatt einfach so zu tun als wäre es eigentlich total egal.

Es gibt übrigens einen Thread dafür:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=506896

Ailuros
2014-09-30, 13:35:53
Ergo wurde noch nie etwas zu GDDR6 berichtet, denn das ist der einzige Bericht auf den sich alle beziehen.;D

Wenn GDDR6 nach Jahren der Nicht-Existenz in den Medien oder anderen Kreisen von JEDEC spezifiziert wird, fresse ich einen Besen.

HBM ist GDDR6 nur ohne den "GDDR6"-Teil. Jeder der etwas anderes behauptet sollte auch entsprechende Beweise dafür liefern können.

Theo ist zwar ein netter Kerl aber leider strohdumm. Hoeflich kann ich es leider nicht ausdruecken und es ist auch wohl kein Zufall dass er nicht mehr aktiv ist. Nach so vielen Flops muss man sich wohl schon irgendwann zurueckziehen.

memoal
2014-09-30, 13:47:46
Wenn man sich verfahren hat, kann man es ruhig mal zugegeben anstatt einfach so zu tun als wäre es eigentlich total egal.
Dann halte dich doch daran. Beweis doch das deine Theroie stimmt.

3DS war zu dem Zeitpunkt der Aussage durch die Jedec schon spezifiziert.

Ailuros
2014-09-30, 13:52:32
Dann halte dich doch daran. Beweis doch das deine Theroie stimmt.

3DS war zu dem Zeitpunkt der Aussage durch die Jedec schon spezifiziert.

Er hat gar nichts zu beweisen im gegebenen Fall. EOD und zurueck zum Thema sonst knallt's.

Unicous
2014-09-30, 15:47:34
AHAHAHAHAHA.

Die Schweinchen von Reddit haben anscheinend gestern von hier den Link zur HotChips Präsentation geklaut (ohne credit zu geben), TechReport hat darüber berichtet und jetzt hat VCZ ganz investigativ auch einen Artikel mit den einzelnen Slides veröffentlicht.

Please do not hotlink to those images. sagt WhyCry, sonst muss er wahrscheinlich heulen. Ich überlege, die ganzen Slides einfach aus Spaß zu hotlinken.:freak:

Die Präsentation an sich hat gar keinen großen News-Wert. Es ist schon seit Monaten bekannt, dass es 2nd Generation HBM geben wird. Diese "IT-Journalisten" mal wieder.:rolleyes:

Ailuros
2014-09-30, 15:49:28
AHAHAHAHAHA.

Die Schweinchen von Reddit haben anscheinend gestern von hier den Link zur HotChips Präsentation geklaut (ohne credit zu geben), TechReport hat darüber berichtet und jetzt hat VCZ ganz investigativ auch einen Artikel mit den einzelnen Slides veröffentlicht.

sagt WhyCry, sonst muss er wahrscheinlich heulen. Ich überlege, die ganzen Slides einfach aus Spaß zu hotlinken.:freak:

Die Präsentation an sich hat gar keinen großen News-Wert. Es ist schon seit Monaten bekannt, dass es 2nd Generation HBM geben wird. Diese "IT-Journalisten" mal wieder.:rolleyes:

Ein link wuerde helfen damit wir auch mitlachen koennen.

Unicous
2014-09-30, 15:58:34
Ein link wuerde helfen damit wir auch mitlachen koennen.

Dann würde ich ja WhyCry in die Finger spielen.:tongue:

Aber hier ist der TechReport Artikel.

http://techreport.com/news/27129/hynix-slides-tease-vertically-stacked-memory-with-256gb-s-of-bandwidth


Ich wollte ihn schon posten als ich ihn gefunden hatte, weil ich dachte HBM hat es offiziell angekündigt. Ich lag falsch.:rolleyes:

w0mbat
2014-09-30, 16:44:37
Hier reddit: http://www.reddit.com/r/hardware/comments/2ht8hn/hynix_august_2014_hbm_presentationslides/ und der Schrecken des Internets: http://www.donotlink.com/buaw (danke für N0Thing :P)

N0Thing
2014-09-30, 16:46:17
(sorry, dont click it pls).

Dafür gibt es http://www.donotlink.com/ ;)

Who uses donotlink?

Skeptics, bloggers, journalists and friends on social media use donotlink to link to scams, pseudoscience, misinformation, alternative medicine, conspiracy theories, racist / sexist blog posts, etc. without improving the search engine position of the site they are discussing.

Nakai
2014-09-30, 16:47:17
Es ist unglaublich, die meisten Pdfs und Folien habe ich auch schon in den Weiten des Internets gefunden. Warum soll das jetzt einige News wert sein?!

Ailuros
2014-09-30, 19:09:06
Es ist unglaublich, die meisten Pdfs und Folien habe ich auch schon in den Weiten des Internets gefunden. Warum soll das jetzt einige News wert sein?!

Weil der Author im geheimen WhyAmIDesperate heisst :freak:

Nakai
2014-09-30, 19:28:56
Es ist eine ernste Frage, ob HBM bei Fiji so ohne Weiteres möglich ist.

http://www.skhynix.com/inc/pdfDownload.jsp?path=/datasheet/Databook/Databook_3Q'2014_GraphicsMemory.pdf.

Volumen von 1Gb pro Stack(oder ist das pro Stack?!)

In der HotChips-Konferenz steht aber 2Gb pro Stack.

Dann gibts noch diese netten Folien.

http://tech4gamers.com/amds-volcanic-islands-2-0-graphics-cards-will-equip-with-hbm-memory/

Also was sagt uns das?

Derzeit maximal 4-Hi-Stack mit 2Gb-Stacks, ergo 1GB pro Stack. Höhere Bandbreite gibts erst ab nächster Generation, wenn die Geschwindigkeit erhöht wird. Dann steigt auch gleich das Volumen.

Ahja pro Stack hat man 2 Channels a 128Bit, was bei 4 Stacks 1024 Bit breite ermöglicht. Auf der Hynix Seite zu Graphics Memory wird auch explizit ein 8-Hi Stack erwähnt, eventuell auch für diese Gen. Das ginge wohl nur, wenn jeder Stack nur als ein Channel a 128Bit angesprochen werden würde.
Das Volumen steigt dadurch auf 2GB pro Stack, die Geschwindigkeit nicht.

€: Wenn AMD Fiji bringt, entweder mit GDDR5+HBM oder pur HBM mit 8 4Hi-Stacks(1TB/s; 8GB) oder 4 8 Hi-Stacks(512GB/s; 8GB).

Hübie
2014-09-30, 23:35:29
Stand da nicht das 4Hi das aktuelle Maximum darstellt? :|

Nakai
2014-09-30, 23:47:16
Stand da nicht das 4Hi das aktuelle Maximum darstellt? :|

Ja, das stimmt, aber ich vermute, dass 8-Hi-Stacks nur fertigungstechnisch, also das Stacking noch etwas problematisch ist. Ich habe irgendwo mal gelesen, dass HBM in zwei Modi laufen kann(1/2Channels). Ich vermute, dass beim 8-Hi-Stack nichts anderes passiert, dass die Channels anders aufgeteilt werden. Mehr als 8-Hi-Stack gibt es bis 2016 erstmal nicht.

Es ist einfach mein Problem, dass ich mir nicht mehr als 4 Stacks ehrlich vorstellen kann. Die Bandbreite ist schon bei über 500GB/s dann und mehr sollte Fiji irgendwie nicht benötigen imo.

Aber um ehrlich zu sein, wären es bei 8 4-Hi-Stacks auch nur 32 Ramchips. Hawaii hat maximal 32 GDDR5-Chips(16GB). Aber selbst 8 Stacks wären nur 8GB maximal. Ergo irgendwas passt nicht. Ich bleibe eher bei meiner These von HBM+GDDR5.

HOT
2014-09-30, 23:52:46
Erst wird Interposer-Stacked-RAM kommen, erst als L3-Cache für APUs, dann bei GPUs evtl. volle Speicherbestückung erst mit der neuen Architektur würd ich mit echtem HBM rechnen. Vielleicht gibts einen Testchip mit 1.Generation HBM, aber die neuen Architekturen 2016 werden dann sicherlich mit 2.Generation HBM gerüstet sein, also bis 32GB mitbringen. Fiji mit 1. Generation HBM wäre echt Unsinn.

Gipsel
2014-09-30, 23:55:20
Ahja pro Stack hat man 2 Channels a 128Bit, was bei 4 Stacks 1024 Bit breite ermöglicht.Pro Die gibt es 2 channels (bei den 4er stacks), ein Stack hat dann schon 8 channels, also 1024Bit Anbindung.
Auf der Hynix Seite zu Graphics Memory wird auch explizit ein 8-Hi Stack erwähnt, eventuell auch für diese Gen. Das ginge wohl nur, wenn jeder Stack nur als ein Channel a 128Bit angesprochen werden würde.Da kommt dann von jedem Die nur noch ein Channel, der Stack verbleibt bei 8 Channels insgesamt.
In dem vorher im Thread verlinkten PDF ist übrigens bei der Zugriffsgranularität ein Fehler. Die liegt mit HBM nicht bei 256Byte, sondern bei 256 Bit=32Byte, genauso wie bei einem 32bit GDDR5 Device. Der Grund ist schlicht, daß die einzelnen 128Bit breiten Kanäle bei HBM unabhängig adressiert werden. Und da ergibt sich dann die Granularität eben zu 128Bit*2Bit Prefetch = 256Bit.

Nakai
2014-10-01, 00:17:08
Pro Die gibt es 2 channels (bei den 4er stacks), ein Stack hat dann schon 8 channels, also 1024Bit Anbindung.
Da kommt dann von jedem Die nur noch ein Channel, der Stack verbleibt bei 8 Channels insgesamt.


Das war anders ausgedrückt meinerseits. Ich meinte pro Stack(Chip) gibt es zwei Channels. Ein 4-Hi-Stack bestünde aus 4 solcher Stacks(Chips).

Da kommt dann von jedem Die nur noch ein Channel, der Stack verbleibt bei 8 Channels insgesamt.

Jup, ähnlich bei GDDR5, wo die Chips wahlweise im 16Bit bzw. 32Bit Modi angesprochen werden können. Dadurch wäre es möglich den maximalen Speicher zu verdoppeln, also 2GB pro 8Hi-Stack, bei gleichem Shrinklevel wohlgemerkt.
Die nächste Gen wird das laut Roadmap dann 2016 definitiv bringen, mit wahlweise 2/4/8-Hi-Stacks. Damit sind maximal 2/4/8GB pro 2/4/8-Hi-Stack möglich.

€: Was müsste denn getan werden, dass eine GPU zwei Speicherpools verwenden kann? Wäre das auch HSA-konform?

ndrs
2014-10-01, 00:49:49
Das war anders ausgedrückt meinerseits. Ich meinte pro Stack(Chip) gibt es zwei Channels. Ein 4-Hi-Stack bestünde aus 4 solcher Stacks(Chips).

Um die Verwirrung gering zu halten, wäre es vllt nicht schlecht, die einzelnen Lagen nicht Stacks (Stapel) zu nennen (die Bezeichnung hab ich auch noch nie irgendwo so gesehen), sondern, wie es die anderen tun, Die, Slice Lage, ...

Ich hab mich schon die ganze Zeit gefragt, wo der Unterschied zwischen stack und stack ist :D

Hübie
2014-10-01, 06:21:50
Ein Stapel ist ja auch erst ein solcher wenn schon etwas gestapelt wurde :D

Kriton
2014-10-01, 09:40:39
Ich bleibe eher bei meiner These von HBM+GDDR5.

Ich weiß nicht, dass macht das Speicherinterface doch wieder komplizierter/teurer/größer/stromfressender.

Wozu dann überhaupt HBM? Wegen der Bandbreite? Eigentlich kein AMD-Problem. Erscheint mir in der Kombo einfach nicht logisch.

ndrs
2014-10-01, 10:46:42
Ein Stapel ist ja auch erst ein solcher wenn schon etwas gestapelt wurde :D
Oder wir definieren die kleinstmögliche Stapelhöhe auf 1. Dann darf ich auch eine Bordsteinkante als Treppe bezeichnen :D

Unicous
2014-10-01, 10:54:36
Da man trotzdem noch einen Logic/Base Die benötigt können wir uns auf den Einser-Stapel einigen.:tongue:

HOT
2014-10-01, 12:53:30
Ich weiß nicht, dass macht das Speicherinterface doch wieder komplizierter/teurer/größer/stromfressender.

Wozu dann überhaupt HBM? Wegen der Bandbreite? Eigentlich kein AMD-Problem. Erscheint mir in der Kombo einfach nicht logisch.
- Bandbreite
- Latenz
- Stromverbrauch

Das sind 3 verdammt gute Gründe...

Skysnake
2014-10-01, 13:22:07
Wobei man dann den HBM quasi zum LLC macht, was nicht so schick ist, wie ein einheitlicher Speicher.

Das läuft dann quasi auf PS vs XBone hinaus. Zwar bei weitem nicht so extrem, aber vom Grundsatz her das Gleiche.

"Wenig" RAM, also "nur" 8GB würde ich da für den Anfang als das kleinere Übel betrachten.

Akkarin
2014-10-01, 16:39:42
Für gamer reichen 4-8GB ja erstmal völlig. Frage ist also der professionelle bereich, vor allem server/HPC.

Könnte man es nicht einfach wie Intel machen und an den top chip ein (kleines ?) DDR4 interface dran hängen ?

Nakai
2014-10-01, 16:55:29
Für gamer reichen 4-8GB ja erstmal völlig. Frage ist also der professionelle bereich, vor allem server/HPC.

Könnte man es nicht einfach wie Intel machen und an den top chip ein (kleines ?) DDR4 interface dran hängen ?

Im HPC-Bereich sind eben 8GB zu wenig. Intel hat aber ein anderes Konzept. Man baut auf Micron Short-Reach-HMC auf. Intel benutzt wohl 4 von diesen HMCs. Jeder HMCs hat bis zu 128GB/s und 2GB oder 4GB.

Ahja, so meiner Namenskonvention äußere ich mich mal nicht. :freak:;D

Ich machs einfach besser...:)

Nightspider
2014-10-01, 17:26:42
Bei einer HighEnd karte von AMD will ich auch zukünftig 8GB. 4GB sind zu wenig, gerade wenn Mantle mehr braucht.

Hübie
2014-10-01, 17:28:52
Oder wir definieren die kleinstmögliche Stapelhöhe auf 1. Dann darf ich auch eine Bordsteinkante als Treppe bezeichnen :D

Abstraktion zählt nicht :freak:

Botcruscher
2014-10-01, 17:51:35
Erst wird Interposer-Stacked-RAM kommen, erst als L3-Cache für APUs, dann bei GPUs evtl. volle Speicherbestückung erst mit der neuen Architektur würd ich mit echtem HBM rechnen.

Warum Perlen vor die Säue für Pfennigartikel? Eine APU nimmt man mit. Da gibt es keine Zielgruppe. Selbst der Mobilmarkt ist überschaubar. Grafikkarten haben selbst bei 500€ aufwärts ihren Markt.

Gipsel
2014-10-01, 21:18:28
Bei einer HighEnd karte von AMD will ich auch zukünftig 8GB. 4GB sind zu wenig, gerade wenn Mantle mehr braucht.Mantle "braucht" nur mehr, wenn man sich der Entwickler keine Muehe beim Speichermanagement gibt (bzw. dem geringen Speicherverbrauch keine Prioritaet einraeumt). Prinzipiell koennte man sogar mit weniger als bei DX auskommen.

Und zu den HBM-Groessen:
Bei GDDR5 sind inzwischen 4 GBit-Dies ueblich, bei DDR3/4 gibt es schon 8 GBit-Dies. Dass es bisher nur 2GBit pro Die bei HBM sind, ist ja nicht zwingend. Man legt nur anfangs Wert auf erprobte Einzeldies, aber es spricht nichts dagegen, zeitnah 4GBit pro Die anzubieten, was dann bei 4Hi-Stacks bereits 2GB pro Stack waeren. Auf einer NextGen-Highend-Karte mit 4 Stacks resultiert das dann in im Consumer-Bereich absolut ausreichenden 8GB. Bei den professionellen Karten kann man dann ja in einem Jahr die deutlich teureren (da geringerer Yield) 8Hi-Stacks verbauen, um auf 16GB zu kommen (und in zwei Jahren sollten auch bereits 8Hi-Stacks mit 8GB pro Stack verfuegbar sein).

Hübie
2014-10-01, 21:26:38
Ist letztlich eine wirtschaftliche Frage. Da dies eine neue Technologie ist (zumindest neu am Markt), kann man auch noch keine exakten Aussagen zu yield, reliability und vorangegangene Kosten treffen. Wird wohl wie üblich in homöopathischen Dosen geliefert und dann entweder im Profi-Segment eingeführt, oder bei guten yields im heterogenen Massenmarkt.
In jedem Fall bin ich sehr gespannt auf die praktischen Auswirkungen bezüglich Kühlung und Verbrauch sowie auf die Geschwindigkeit. Neues Spielzeug ist immer geil :D

Edit: Eins noch: AMD hat ja ne ARM-Lizenz, nech? Könnte man die nicht dazu gebrauchen eine MMU zu integrieren:confused:

Locuza
2014-10-01, 21:38:07
Könnte es dann sein, dass AMD in Zusammenarbeit mit Hynix bei Fiji mehr realisieren kann, als offiziell für 1-st Gen angeboten werden soll aka 4GB @ 512 GB/s?
Intel will im zweitem Halbjahr 2015 mit Micron immerhin 16 GB @ 512 GB/s für Knights Landing durch MCDRAM anbieten.

Hübie
2014-10-01, 21:41:59
Möglich schon, aber eher unwahrscheinlich. Tier 1 soll ja "nur" 4Hi-Stacks haben. Zwei Kanäle/die à 128 Bit. Kann natürlich auch sein dass sich Tier 1 (ich nenne dass jetzt mal so, analog zu D3D :D) auf APUs bezieht, Tier 2 schon bereit ist und für GPUs gedacht ist.
Ein Carizzo braucht sicher keine 512 GB/s.

Mal noch ne Frage zusätzlich zur MMU-Geschichte: Wieviel Bandbreiten overhead hat man eigentlich bei üblichen Datenübertragungen zum VRAM (falls überhaupt?!)?? Sorry, falls dass ne blöde Frage ist :P

Locuza
2014-10-01, 21:49:02
Für mich sieht die Situation dann halt nicht sexy aus, wenn Fiji nur 4 GB @ 512 GB/s anbietet, wenn paar Monate später Knights Landing mit gleich 16 GB auftrumpft.
Intel verwendet aber eben nur eine Form von HMC und realisiert sein eigenes Interface.

Die Roadmap von Hynix zeigt eine lange Durststrecke bis 8Hi, mit höheren Speicherdichten und Geschwindigkeiten:
http://media.bestofmicro.com/hbm-hynix-amd-stacking-3d-memory,W-U-435342-22.png

Indem Sinne hoffe ich schon, dass AMD ähnlich wie Intel etwas custom mäßiges erstellt und Fiji mehr Speicher anbieten kann.

Nightspider
2014-10-01, 22:05:40
4GB wäre mir definitiv auch zu wenig bei einer HighEnd Karte.

Schon in BF4 belegt das Game fast die kompletten 4GB VRAM durch Mantle.
Und das neue Herr der Ringe Game belegt ja bis zu 6GB VRAM.

HOT
2014-10-02, 01:29:57
Warum Perlen vor die Säue für Pfennigartikel? Eine APU nimmt man mit. Da gibt es keine Zielgruppe. Selbst der Mobilmarkt ist überschaubar. Grafikkarten haben selbst bei 500€ aufwärts ihren Markt.
Genau umgekehrt wird ein Schuh daraus. AMD shrinkt die APUs auf 20nm, und HBM kann erstmal maximal 4GB, also eignet sich das hervorragend als Testsubjekt für Skybridge. AMD sieht genau diese Produkte als Zugpferde an für 2015. GPUs mit HBM ist erstmal Unsinn, vielleicht stacked auf dem Träger/Interposer. Für echtes HBM wird man eine neue GPU-Architektur brauchen und die ist erst für 2016 zu erwarten. Auch Carrizo könnte als Version mit Träger(Interposer)-stacked-L3-Cache erscheinen (ziemlich wahrscheinlich, ist quasi angekündigt und das macht bei keiner anderen APU einen erkennbaren Sinn). Es wär jetzt mehrere Male die Rede von HBM auf APUs und von stacked-L3 für APUs und SoCs (ARM). Es war nirgendwo die Rede von GPUs.

Hübie
2014-10-02, 06:58:22
Muss das nicht sowieso auf einen Interposer? Is ja höher als der die und erzeugt ebenfalls Wärme. Wäre ja sinnvoll da einen kleinen Abstand hinzubekommen. Man spekuliert nur auf HBM weil (ich glaub im anandtech-forum) gesagt wurde dass Fiji anders in Sachen Speicher sein würde. Das AMD das natürlich noch nicht verrät is irgendwie klar. ;) Kann auch sein das damit z.B. ARM-Prozessor als MMU gemeint ist. Oder weiß der Teufel...

Kriton
2014-10-02, 08:28:31
Edit: Eins noch: AMD hat ja ne ARM-Lizenz, nech? Könnte man die nicht dazu gebrauchen eine MMU zu integrieren:confused:

Wofür? Ich denke in diesem Zusammenhang an HSA - das würde eine MMU doch überflüssig machen?

Warum wird eigentlich immer damit arguementiert, dass HBM eine neue Architektur braucht, weswegen HBM (noch) nicht genutzt werden kann/wird für Fiji? Ist ja nicht so als ob Hynix HBM jetzt plötzlich aus dem Hut gezaubert hat.
Die Partnerschaft hinsichtlich HBM ist IIRC zwar noch relativ frisch, aber so etwas macht man ja auch nicht in 1 Woche.

Unicous
2014-10-02, 09:56:34
@ HOT

"Genau umgekehrt wird ein Schuh daraus."
Warum sollte AMD bei Skybridge Prozessoren (also Katzennachfolger und ARM) HBM verbauen? Das ist totaler Overkill. Preislich, als auch von der benötigten Bandbreite.

Du behauptest hier Sachen die im Übrigen nicht stimmen. Nirgendswo ist "quasi" angekündigt, dass Carrizo HBM/Interposer Cache o.ä. bekommt (abgesehen von feuchten Träumen einiger Autoren oder "Forumsweisen"). Und wo bitte war die Rede von HBM auf APUs und ARM?

Es war im Gegenteil überall die Rede von High End GPUs (AMD wollte seit spätestens 2009 Stacked RAM in 2012er GPUs verbauen->"Tiran") und sk Hynix hat das noch einmal bestätigt. Ich behaupte sogar, dass die eine Folie eine Produktsegmente roadmap darstellt "HBM will scale-out to various segments" und da werden GPUs als erster Nutznießer genannt.

Und ja, für HBM braucht man u.U. eine neue Architektur. Fiji ist eine "neue" Architektur. Ein neues Design, dass höchstwahrscheinlich HBM nutzen kann. Es braucht wohl nicht viel mehr als die PHYs auszutauschen, denn HBM "funktioniert" nicht fundamental anders als DDR3/GDDR5. Es ist immer noch DRAM.

Hübie
2014-10-02, 10:29:06
Wofür? Ich denke in diesem Zusammenhang an HSA - das würde eine MMU doch überflüssig machen?

Warum wird eigentlich immer damit arguementiert, dass HBM eine neue Architektur braucht, weswegen HBM (noch) nicht genutzt werden kann/wird für Fiji? Ist ja nicht so als ob Hynix HBM jetzt plötzlich aus dem Hut gezaubert hat.
Die Partnerschaft hinsichtlich HBM ist IIRC zwar noch relativ frisch, aber so etwas macht man ja auch nicht in 1 Woche.

Ich denke da eher an large-scaling. Datenverwaltung (ob flüchtig oder nicht) ist ein immer mehr aufkommendes Problem.

Dural
2014-10-02, 11:20:39
ich sage es ja schon lange, amd will mal wieder einen r600 basteln ;) die ähnlichkeiten sind doch verplüffent:

-wakü / hohe verlustleistung
-grösste die in der firmen geschichte
-sinnlos viel bandbreite die ein gamer nicht braucht

passt ja wunderbar auch auf den r600 zu. ;) ich bin gespannt was da am ende dabei raus kommt.

Ailuros
2014-10-02, 11:24:57
ich sage es ja schon lange, amd will mal wieder einen r600 basteln ;) die ähnlichkeiten sind doch verplüffent:

-wakü / hohe verlustleistung
-grösste die in der firmen geschichte
-sinnlos viel bandbreite die ein gamer nicht braucht

passt ja wunderbar auch auf den r600 zu. ;) ich bin gespannt was da am ende dabei raus kommt.

Gar nichts; jeglicher aehnlicher sinnloser Versuch wird lediglich in Zukunft als spam geloescht.

Nakai
2014-10-02, 20:05:53
Schön, dass die HBM-Problematik endlich mal etwas genauer auf der 3DC-Mainpage ausgeführt wird. Ich hoffe, dass damit auch der Letzte kapiert, dass HBM derzeit nicht praktikabel ist.

@Gipsel:
Und zu den HBM-Groessen:
Bei GDDR5 sind inzwischen 4 GBit-Dies ueblich, bei DDR3/4 gibt es schon 8 GBit-Dies. Dass es bisher nur 2GBit pro Die bei HBM sind, ist ja nicht zwingend. Man legt nur anfangs Wert auf erprobte Einzeldies, aber es spricht nichts dagegen, zeitnah 4GBit pro Die anzubieten, was dann bei 4Hi-Stacks bereits 2GB pro Stack waeren. Auf einer NextGen-Highend-Karte mit 4 Stacks resultiert das dann in im Consumer-Bereich absolut ausreichenden 8GB. Bei den professionellen Karten kann man dann ja in einem Jahr die deutlich teureren (da geringerer Yield) 8Hi-Stacks verbauen, um auf 16GB zu kommen (und in zwei Jahren sollten auch bereits 8Hi-Stacks mit 8GB pro Stack verfuegbar sein).

Mhh, das wäre ja schön, aber ich bezweilfe, dass es so kommen wird. So TSVs brauchen auf dem Die auch Platz und nicht am Rand. Ich habe meine Zweifel, dass es so einfach eine Erhöhung geben wird. Ich denke eher, man will mehr Schichten ermöglichen, um die Speichergröße zu erhöhen.

ich sage es ja schon lange, amd will mal wieder einen r600 basteln ;) die ähnlichkeiten sind doch verplüffent:

-wakü / hohe verlustleistung
-grösste die in der firmen geschichte
-sinnlos viel bandbreite die ein gamer nicht braucht

passt ja wunderbar auch auf den r600 zu. ;) ich bin gespannt was da am ende dabei raus kommt.

R600 hatte leider eine neue unerprobte Architektur. Ich glaube nicht, dass man bei Fiji so einen Fehler nochmal macht.

Skysnake
2014-10-02, 23:11:31
@ HOT

"Genau umgekehrt wird ein Schuh daraus."
Warum sollte AMD bei Skybridge Prozessoren (also Katzennachfolger und ARM) HBM verbauen? Das ist totaler Overkill. Preislich, als auch von der benötigten Bandbreite.

Du behauptest hier Sachen die im Übrigen nicht stimmen. Nirgendswo ist "quasi" angekündigt, dass Carrizo HBM/Interposer Cache o.ä. bekommt (abgesehen von feuchten Träumen einiger Autoren oder "Forumsweisen"). Und wo bitte war die Rede von HBM auf APUs und ARM?

Es war im Gegenteil überall die Rede von High End GPUs (AMD wollte seit spätestens 2009 Stacked RAM in 2012er GPUs verbauen->"Tiran") und sk Hynix hat das noch einmal bestätigt. Ich behaupte sogar, dass die eine Folie eine Produktsegmente roadmap darstellt "HBM will scale-out to various segments" und da werden GPUs als erster Nutznießer genannt.

Und ja, für HBM braucht man u.U. eine neue Architektur. Fiji ist eine "neue" Architektur. Ein neues Design, dass höchstwahrscheinlich HBM nutzen kann. Es braucht wohl nicht viel mehr als die PHYs auszutauschen, denn HBM "funktioniert" nicht fundamental anders als DDR3/GDDR5. Es ist immer noch DRAM.
Also APU+HBM=Nutzlos/Overkill kann man so apriori nicht sagen.

Schau dir doch den Micro-Servermarkt usw an. Da ist durchaus öfters rein I/O Limitierung ein Grund. Klar, auch oft HDD/SSD, aber es gibt auch genug Probleme, bei denen man rein am Speichr hängt im Endeffekt. Schau dir doch mal Datenbanken an. Da ist das durchaus oft genug der Fall, auch wenn hier dies meist mit sehr großen Datenmengen einher geht, also 100GB+

Aber auch schon 20+ GB Datenbanken können "fordernd" sein.

Ich seh HBM aber auch durchaus eher bei dGPUs als erstes.

Unicous
2014-10-02, 23:25:11
Wenn die Sache ausgereift ist und die Preise soweit unten sind, dass sich der Einsatz lohnt, habe ich damit auch kein Problem (Auch sk Hynix sieht das ja so "Client" ist der letzte Punkt beim "HBM market").

49711

Jedoch gibt es auch Wide I/O 2, dass sich dafür auch sehr gut eignen würde, aber wohl auch entsprechend nochmals teurer. HBM soll mE erst einmal auf Low Power getrimmt werden bis es in diesen Markt eindringen kann. Und das könnte noch ein paar Jahre dauern.

Ailuros
2014-10-03, 09:40:46
Wenn die Sache ausgereift ist und die Preise soweit unten sind, dass sich der Einsatz lohnt, habe ich damit auch kein Problem (Auch sk Hynix sieht das ja so "Client" ist der letzte Punkt beim "HBM market").

49711

Jedoch gibt es auch Wide I/O 2, dass sich dafür auch sehr gut eignen würde, aber wohl auch entsprechend nochmals teurer. HBM soll mE erst einmal auf Low Power getrimmt werden bis es in diesen Markt eindringen kann. Und das könnte noch ein paar Jahre dauern.

Ab 16FF wird es auch wider I/Os in ULP SoCs geben; es steht ja auch nicht zufaellig im slide low power/automotive drin. Kurz wider I/Os wird ein trend den die gesamte Industrie ausnutzen wir. [/OT]

Agent117
2014-10-06, 23:52:20
Ausgehend hiervon http://i.imgur.com/ABzFRth.jpg kann man doch ganz gut spekulieren, wieviele Shader Cluster Fiji maxinal haben kann, wenn die einzelnen CUs in die dort angegebenen Blöcke miteingerechnet sind.
Tonga = 50 Blöcke = 32Cus + 18 sonstige Blöcke
Fiji = 80 Blöcke = maximal 62 CUs + minimal 18 weitere Blöcke

Da für einen größeren Chip vmtl auch etwas mehr "weitere Blöcke" benötigt werden spekuliere ich mal auf 56 CUs (8-fach Frontend mit je 7 CUs) oder 54 CUs (6-fach Frontend mit je 9 CUs). 6*8 CUs wären zu wenig, da zu nahe an Hawaii.

Das ergäbe dann für Fiji:
3456 bis 3584 Shader Einheiten
Boost Takt: 1 bis 1,1 Ghz
So wird man auf Hawaii maximal 30% drauflegen können.
Angenommen die Energieeffizienz verbessert sich nicht, wird man mit einer guten Kompaktwasserkühlung (gab dazu ja Gerüchte) auf einen geschätzten Spieleverbrauch von 300Watt kommen.
Man wäre somit 20% vor der GTX 980, gegen GM 200 aber vmtl. chancenlos.

Nochmal ein Gedanke zum Frontend von Tonga und der grottigen IPC im vergleich zum auch 2048 Shader umfassenden GM 204:

Eventuell gingen hier doch deutlich mehr Transistoren für ein stärker unterteiltes Frontend drauf. Seit dem Sprung von RV770/790 zu RV870 sehen wir, wie das Verteilen der einzelnen Threads in Wavefronts auf die einzelnen CUs ineffizienter wurde; sprich das Mehr an Rohleistung kam nicht auf die Straße. Man las die Jahre drauf ständig bei diversen Seiten was von einem "Frontend Problem". Der Vergleich 280 mit 285 zeigt, dass das verdoppelte Frontend der 285 so gut wie keine Vorteile bringt außer bei Tesselation.
Vielleicht ist das Frontend der 285 aber auch stärker unterteilt, bzw. früher unterteilt, so dass die Threads eher wie auf 4 einzelne Grafikkarten in Crossfire aufgeteilt werden. Quasi 4 Grafikkarten auf einem Chip mit gemeinsamen Backend und keinen MiKrorucklern.
http://media.redgamingtech.com/rgt-website/2014/09/AMD-Radeon-R9-285-technical-diagram.jpg
Um mich mal auf das Schaubild zu beziehen: Das Frontend unterteilt komplett in 4 getrennte Command Prozessoren engegen dem Schaubild, mit jeweils 2 ACEs. Der Treiber verteilt die Threads dann wie auf 4 Grafikkarten.

Man sah ja damals, dass eine HD 4870X2 trotz geringerer Rohleistung leicht schneller war als eine HD 5870.
Die zunehmende Ineffizienz mit zunehmender Anzahl an zu verteilenden Threads auf einer GPU setzte sich dann die folgenden Generationen fort. Irgendwann muss man dem ja irgendwie entgegenwirken.
Im nächsten Jahr bringt man dann einen neuen Treiber, den Frontendspalttreiber und überbietet mit Tonga die IPC von GM 204. Für diese Leistungsregionen braucht man dann auch das 384 Bit Interface bei vom IMC her maximal 5,5 GHZ möglichen Speichertakt. Eventuell mit neuem package und Bermuda als Namen. Fiji vermöbelt dann GM 200 und man hat zwar nach wie vor die geringere FPS / Watt, ist aber schneller und dank Kompakt Wasserkühlung angenehm leise.

Gruß Agent 117

reaperrr
2014-10-07, 01:20:45
Die Skalierung mit zusätzlichen CUs ist bei GCN mit neuesten Treibern und in neueren Spielen aber mittlerweile eigentlich ziemlich gut nachdem was ich zuletzt so in Reviews gesehen habe, sogar Tahiti schneidet gegen Pitcairn ganz gut ab, wenn man das identische Front- und Backend bedenkt.

Auffällig finde ich eher, dass die 285 nur etwa 2/3 von Chiptakterhöhungen auch in Mehrleistung ummünzt, 10% mehr Chiptakt bringen nur ca. 6-7% mehr Leistung (und nein, ich rede nicht von Spielen, wo Speichermenge oder -bandbreite limitieren könnten).

Mein Verdacht ist, dass der Catalyst-Treiber unter D3D11 wesentlich mehr CPU-Overhead produziert (schlechteres Threading und generell ineffizienter) als Nvidia's Treiber, nachdem NV ihren ja dahingehend auch noch weiter optimiert haben.
Problem für AMD: wenn sie das angehen, reduzieren sie den Vorsprung von Mantle gegenüber DX11. Quasi nach der Gleichung:
Begrenzte Resourcen beim Treiberteam + Interessenskonflikt = "lassen wir erstmal so, lässt Mantle besser aussehen und mit DX12 und OpenGL Next kommt das von API-Seite, also wozu treiberseitig optimieren".

Kriton
2014-10-07, 08:26:45
Mantle hat ja noch einige weitere Vorteile neben geringerem CPU-Overhead.
Ressourcen mögen natürlich ein Problem sein, aber ich vermute mal, dass es 2 Teams für Mantle und DX gibt.

differenzdiskriminator
2014-10-07, 09:16:31
Mein Verdacht ist, dass der Catalyst-Treiber unter D3D11 wesentlich mehr CPU-Overhead produziert (schlechteres Threading und generell ineffizienter) als Nvidia's Treiber, nachdem NV ihren ja dahingehend auch noch weiter optimiert haben.
Problem für AMD: wenn sie das angehen, reduzieren sie den Vorsprung von Mantle gegenüber DX11. Quasi nach der Gleichung:
Begrenzte Resourcen beim Treiberteam + Interessenskonflikt = "lassen wir erstmal so, lässt Mantle besser aussehen und mit DX12 und OpenGL Next kommt das von API-Seite, also wozu treiberseitig optimieren".
Völlig richtig, gut erkannt.

Zumal AMD was solche Ressource angeht eher sparsam ist. Das rächt sich dann eben Doppelt.

HOT
2014-10-07, 10:22:35
Für 14.6 stimmt das noch aber schon 14.7 geht offenbar viel besser mit den CPU-Ressourcen um, jedenfalls wenn ich mir die neuen Benchmarks in der PCGH anschaue, die mit dem 14.7 beta 3 gemacht wurden. Offenbar gab es da deutilich Besserung, ist nur keinem so richtig aufgefallen und AMD hat das auch nicht an die große Glocke gehängt.
AMD ist ein CPU-Hersteller, der eigene Libs für die eigenen CPUs schreibt, das ist eigentlich total peinlich, dass man so lange brauchte, um die Catalyst-Treiber wirklich anzupassen, vor allem auf die eigenen CPUs.

Und soviel effizienter pro Shader ist der GM20x auch nicht, das sind nur ca. 10% Leistungssteigerung pro Takt und Schader ggü. Kepler. Aber man hat die Taktbarkeit verbessert, das ist vermutlich auch der Grund für den hohen Transistorenverbrauch und Chipgröße.
Und Tonga ist sicherlich mit massiv Profikrempel bedacht worden, das Frontend allein kann nicht soviele Transistoren fressen. Ich nehme an, dass sowohl Tonga als auch Fiji das neue FirePro-Lineup stellen werden, mit massiver DP und Compute-Power.

Dawn on Titan
2014-10-07, 10:29:01
Sagen wir mal die Medien verkaufen gute News bei AMD nicht so gerne wie bei NV.

differenzdiskriminator
2014-10-07, 10:33:28
Sagen wir mal die Medien verkaufen gute News bei AMD nicht so gerne wie bei NV.
Man kann eben schlecht was verkaufen, was es nicht gibt.

M4xw0lf
2014-10-07, 10:34:37
Meine Fresse, kann man bestimmten Usern Hausverbot für bestimmte Threads erteilen? Nervt endlos.

Agent117
2014-10-07, 11:07:09
Und Tonga ist sicherlich mit massiv Profikrempel bedacht worden, das Frontend allein kann nicht soviele Transistoren fressen. Ich nehme an, dass sowohl Tonga als auch Fiji das neue FirePro-Lineup stellen werden, mit massiver DP und Compute-Power.

Sinn würde das schon ergeben aber Dave Baumann hat dem widersprochen.
http://beyond3d.com/showthread.php?p=1871610#post1871610

Bei DP ist auch maximal eine 1/2 Rate bei GPUs sinnvoll und die hat ja Hawaii schon. Gut, AMD könnte vlt zusätzlich noch dezidierte Einheiten verbauen aber das klingt zunächst mal nach Quatsch.

Die zusätzlichen Transistoren wurden dann ja neuen HSA Features zugesprochen.

Nakai
2014-10-07, 11:19:18
Tonga ist zu groß für die Specs. Irgendeine Secret Sauce wird da drin sein.

Agent117
2014-10-07, 21:05:10
Gibt es eigentlich irgendwo schon einen DIE-Shot von Tonga. Hab auf die Schnelle nix brauchbares gefunden. Selbst von Hawaii gibt es keinen brauchbaren DIE-Shot, nur von Thaiti.

Hier sieht man, dass Hawaii verglichen mit Thaiti ein sehr rechteckiges DIE hat.
Kommt vermutlich daher, dass die 11 CUs umfassenden Frontend Blöcke in einer Reihe nebeneinander liegen.

http://cdn.wccftech.com/wp-content/uploads/2013/12/AMD-Hawaii-GPU.jpg
Quelle: overclock.net

Angenommen bei Tonga lägen die 4 Frontend Blöcke, mit nur noch jeweils 8 CUs, auch nebeneinander, müsste Tonga ja noch rechteckiger als Hawaii sein - so jedenfalls meine Vorstellung.

Hier sieht man jedoch, dass dem keinesfalls so ist. Tongas DIE hat ein zu Thaiti sehr ähnliches Länge zu Breite Verhältnis.

http://pics.computerbase.de/5/9/6/4/4/8.jpg
Quelle: Computerbase. links ist Tonga

Geometrisch würde es da eher passsen, wenn quasi in jeder "Ecke" des Chips ein Frontend Block liegt. Also 2 oben nebeneinander und 2 unten nebeneinander ähnlich zu Nvidias GF 100, GK 104 oder GM 204.

Ein solches Frontend hätte Ati zum ersten mal designen müssen, Nvidia macht es schon seit GF 100. Ohne dass ich jetzt ernsthaft beurteilen könnte inwieweit die chipinterne Verdrahtung dadurch aufwendiger wird, - ein par mehr Transistoren könnte das ganze tatsächlich kosten. Hab von GF100 noch so Schlagworte wie ringbusähnlicher Interconnect im Gedächnis und meine auch, dass der prozentuale Flächenanteil der CUs bei AMD immer höher war als bei Nvidia, womöglich auch, weil das Frontend immer einfacher war.

lukart
2014-10-07, 22:00:40
Ausgehend hiervon http://i.imgur.com/ABzFRth.jpg kann man doch ganz gut spekulieren, wieviele Shader Cluster Fiji maxinal haben kann, wenn die einzelnen CUs in die dort angegebenen Blöcke miteingerechnet sind.
Tonga = 50 Blöcke = 32Cus + 18 sonstige Blöcke
Fiji = 80 Blöcke = maximal 62 CUs + minimal 18 weitere Blöcke

Da für einen größeren Chip vmtl auch etwas mehr "weitere Blöcke" benötigt werden spekuliere ich mal auf 56 CUs (8-fach Frontend mit je 7 CUs) oder 54 CUs (6-fach Frontend mit je 9 CUs). 6*8 CUs wären zu wenig, da zu nahe an Hawaii.

Das ergäbe dann für Fiji:
3456 bis 3584 Shader Einheiten
Boost Takt: 1 bis 1,1 Ghz
So wird man auf Hawaii maximal 30% drauflegen können.
Angenommen die Energieeffizienz verbessert sich nicht, wird man mit einer guten Kompaktwasserkühlung (gab dazu ja Gerüchte) auf einen geschätzten Spieleverbrauch von 300Watt kommen.
Man wäre somit 20% vor der GTX 980, gegen GM 200 aber vmtl. chancenlos.

Nochmal ein Gedanke zum Frontend von Tonga und der grottigen IPC im vergleich zum auch 2048 Shader umfassenden GM 204:

Eventuell gingen hier doch deutlich mehr Transistoren für ein stärker unterteiltes Frontend drauf. Seit dem Sprung von RV770/790 zu RV870 sehen wir, wie das Verteilen der einzelnen Threads in Wavefronts auf die einzelnen CUs ineffizienter wurde; sprich das Mehr an Rohleistung kam nicht auf die Straße. Man las die Jahre drauf ständig bei diversen Seiten was von einem "Frontend Problem". Der Vergleich 280 mit 285 zeigt, dass das verdoppelte Frontend der 285 so gut wie keine Vorteile bringt außer bei Tesselation.
Vielleicht ist das Frontend der 285 aber auch stärker unterteilt, bzw. früher unterteilt, so dass die Threads eher wie auf 4 einzelne Grafikkarten in Crossfire aufgeteilt werden. Quasi 4 Grafikkarten auf einem Chip mit gemeinsamen Backend und keinen MiKrorucklern.
http://media.redgamingtech.com/rgt-website/2014/09/AMD-Radeon-R9-285-technical-diagram.jpg
Um mich mal auf das Schaubild zu beziehen: Das Frontend unterteilt komplett in 4 getrennte Command Prozessoren engegen dem Schaubild, mit jeweils 2 ACEs. Der Treiber verteilt die Threads dann wie auf 4 Grafikkarten.

Man sah ja damals, dass eine HD 4870X2 trotz geringerer Rohleistung leicht schneller war als eine HD 5870.
Die zunehmende Ineffizienz mit zunehmender Anzahl an zu verteilenden Threads auf einer GPU setzte sich dann die folgenden Generationen fort. Irgendwann muss man dem ja irgendwie entgegenwirken.
Im nächsten Jahr bringt man dann einen neuen Treiber, den Frontendspalttreiber und überbietet mit Tonga die IPC von GM 204. Für diese Leistungsregionen braucht man dann auch das 384 Bit Interface bei vom IMC her maximal 5,5 GHZ möglichen Speichertakt. Eventuell mit neuem package und Bermuda als Namen. Fiji vermöbelt dann GM 200 und man hat zwar nach wie vor die geringere FPS / Watt, ist aber schneller und dank Kompakt Wasserkühlung angenehm leise.

Gruß Agent 117

Das ist eine gute Studie, aber ich frage mich ob AMD diese neue Technologie mit DDR5 kombinieren wird? Wir wollen keinen Speicherengpass für 4k Monitore...

Hübie
2014-10-08, 06:45:36
Was meinst du mit "frontend-Blöcke"? Die ACEs? Das vordere Ende besteht aus etwas mehr. Allen voran der command processor, welcher soviel ich weiß nicht gesplittet ist (bzw. gesplittet werden kann). Entweder den CP oder den L2$ müsste man teilen wenn man sich den "Schaltblock" mal vorstellt.

Locuza
2014-10-08, 13:38:50
Gibt es eigentlich irgendwo schon einen DIE-Shot von Tonga. Hab auf die Schnelle nix brauchbares gefunden. Selbst von Hawaii gibt es keinen brauchbaren DIE-Shot, nur von Thaiti.

Hier sieht man, dass Hawaii verglichen mit Thaiti ein sehr rechteckiges DIE hat.
Kommt vermutlich daher, dass die 11 CUs umfassenden Frontend Blöcke in einer Reihe nebeneinander liegen.
[]

Weder von Hawaii, noch Tonga habe ich einen die-shot gesehen.
Dein Bild zitiertes Bild ist kein echter die-shot, sondern eine Vermutung von irgendeinem Mensch in irgendeinem Forum, der Pitcairn die-shot Elemente mit Tahiti gemixt hat, um grob auf eine Hawaii Vorschau zu kommen.

Was du übrigens als Frontend-Block bezeichnest, nennt AMD selber offiziell Shader-Engine:
http://images.anandtech.com/doci/7457/ShaderEngine.jpg

Beim Layout, also der Anordnung der Elemente, sind die Ingenieure auch flexibel.
Z.B. kannst du mal Xbox One und PS4 mal vergleichen, Interface und CUs selber unterscheiden sich und somit kannst du natürlich auch deine Chipfläche etwas formen.
http://images.anandtech.com/doci/7546/diecomparison.jpg

Das ist eine gute Studie, aber ich frage mich ob AMD diese neue Technologie mit DDR5 kombinieren wird?

Welche neue Technologie und was ist DDR5? :)

Agent117
2014-10-08, 14:47:33
Was du übrigens als Frontend-Block bezeichnest, nennt AMD selber offiziell Shader-Engine:
http://images.anandtech.com/doci/7457/ShaderEngine.jpg

Beim Layout, also der Anordnung der Elemente, sind die Ingenieure auch flexibel.
Z.B. kannst du mal Xbox One und PS4 mal vergleichen, Interface und CUs selber unterscheiden sich und somit kannst du natürlich auch deine Chipfläche etwas formen.
http://images.anandtech.com/doci/7546/diecomparison.jpg


Danke, Shader Engine ist das richtige Wort und das was ich auch meinte.

Mit dem erweiterten Frontend stellte ich mir auch je Shader Engine getrennte Command Prozessoren vor. Dann wie schon hier geschrieben wurde auch mit jeweils eigenen L2 Cache oder so doch ein Shared L2 Cache wie bei Jaguar?
Das war aber nur reines Wunschdenken meinerseits um die Shader Engines dann treiberseitig wie eigene GPUs anzusprechen, die jeweils nur noch 1/4 der Threads auf ihre CUs aufteilen müssen und sollte einen Ansatz darstellen der mit größerer Threadanzahl einhergehenden Ineffizienz entgegenzuwirken. (Man vergleiche GF100 mit GK 110 oder RV 770--> RV870-->R1000/Thaiti)

Hübie
2014-10-08, 17:03:46
Wenn der L2 partitioniert ist, okay. Damit schrumpft aber die Assoziativität. Der command processor hat ziemlich viel Logik und wohl auch register.

Agent117
2014-10-08, 18:30:03
Wenn der L2 partitioniert ist, okay. Damit schrumpft aber die Assoziativität. Der command processor hat ziemlich viel Logik und wohl auch register.

Hmh hört sich nicht gut an, dann wird der Cache langsamer, das wäre sicher auch für professionelle Anwendungen schlecht.
Dann doch lieber pro Shader Engine getrennte L2 Caches.
Bei Jaguar ist das mit dem Shared Cache vermutlich kein Problem, weil das Design auf Low Power und auch keine hohe IPC ausgelegt ist.
IPC stärkere CPUs wie z.B. der Athlon II hatten ja demgegenüber für jeden Kern getrennten Cache.

sklave_gottes
2014-10-08, 18:46:37
Hmh hört sich nicht gut an, dann wird der Cache langsamer, das wäre sicher auch für professionelle Anwendungen schlecht.
Dann doch lieber pro Shader Engine getrennte L2 Caches.
Bei Jaguar ist das mit dem Shared Cache vermutlich kein Problem, weil das Design auf Low Power und auch keine hohe IPC ausgelegt ist.
IPC stärkere CPUs wie z.B. der Athlon II hatten ja demgegenüber für jeden Kern getrennten Cache.


Denke nicht das dies ein Grund ist, siehe Core2Duo, der hatte auch einen Shared Cache für alle "Kerne"

Agent117
2014-10-08, 20:03:29
Denke nicht das dies ein Grund ist, siehe Core2Duo, der hatte auch einen Shared Cache für alle "Kerne"

Alle heißt hier aber maximal 2 Kerne. Die Quadcores waren damels 2 Dualcores auf einem Package.

Aber du hast schon recht, es muss nicht der Grund sein, beim Cache spielen natürlich auch voramllem seine Latenzen eine wichtige Rolle. (Hier ist z.B. der L2 von Bulldozer sehr schlecht)

Bei den modernen Prozessorarchitekturen von Intel mit hoher IPC sind die L2-caches auch wieder seperat und der L3 Cache Shared. Dieser ist logischerweise deutlich langsamer als der L2, verfügt also über viel höhere Latenzen.

Ich hab von Cache nur wenig Ahnung. Aber wenn ich zum Beispiel 4 Kerne mit je 512kB L2 Cache 16-fach assoziativ hab und demgegenüber 2048kB L2 Cache als shared Cache für 4 Kerne habe auch 16-fach assoziativ angebunden, dann sind die Blöcke beim Shared Cache ja 4 mal größer als beim seperaten Cache. Dies würde den Cache wahrscheinlich langsamer machen. Der Shared Cache von jaguar besteht aber aus 4 512kB großen 16-fach assoziativ angebundenen Bänken. Das Sharing wird vermutlich schon die Geschwindigkeit etwas verlangsamen und für etwas höhere Latenzen sorgen, hat aber mit der Assoziativität in dem fall dann erstmal nichts zu tun.

Um nochmal bei der Frontendsache zu bleiben.
Ich könnte den L2 Cache doch auch vergrößern, im Optimalfall vervierfachen und die Assoziativität dann um den entsprechenden Faktor verkleinern, so dass die Blockgröße gleich bleibt. Wäre nur die Frage ob das die Latenzen beeinflusst.

Nakai
2014-10-08, 20:32:32
AMD R9 290X sollte so ziemlich genau doppelt so schnell sein, wie R9 270X.
Das erreicht man nur annähernd unter großen Auflösungen. Bei normalen Settings sind es nur 60~70% meistens. AMD hat eine Wavefrontgröße von 64? NVidia von 32? Wäre ein Grund, wieso die AMDs bei hohen Auflösungen besser abschneiden, da die Dreiecke größer werden. Bei GPGPU-Geschichten ist AMD gut dabei. GM204 ist dabei ungefähr auf Tahiti/Tonga-Niveau.

AMDs Frontend ist mit Tonga eh schon dramatisch überarbeitet worden und erreicht endlich NV-Niveau. Das wirkt sich jedoch nicht wirklich auf die Spiele aus. Was fehlt also noch?

d2kx
2014-10-09, 02:44:46
Revelant/AMDs Treiberstrategie in Zukunft: ab http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10381311#post10381311

john carmack
2014-10-21, 22:28:25
http://www.xtremesystems.org/forums/showthread.php?289673-AMD-to-Enter-Another-Round-of-Restructuring-This-Month&p=5239914&highlight=#post5239914

-=DVS=-: "The latest rumor is AMD refresh gpus will have stacked ram and will be released early 2015 , while Nvidias HBM counter parts will be out 1016 a whole year later. This might turn tables in AMDs favor."

PedantOne: "In new gpus are NOT HBM, AMD has delta compression, new chips dont NEED expensive HBMs, it is only dream classic amd fans here"


Der User PedantOne scheint ja immer recht gut informiert zu sein - Er hatte zumindest was die 970/980 schon anfang des Jahres mit allem Recht was er vorausgesagt hatte - auch das die Karten noch in 28nm kommen.....

Also wohl leider kein HBM. :(

Unicous
2014-10-21, 22:34:09
Erzähl keinen Stuss. Es gibt einen extra Thread der seine Kommentare, backpaddling etc. auseinander nimmt und aufzeigt, dass er wenn überhaupt die entfernte Tante des Onkels eines Arbeiters bei einem Schraubenunternehmens kennt, dass die Holzschrauben für Jensens Fermi mock up gefertigt hat.

Der Typ hat keine Ahnung von nichts und tut als hätte er die Weisheit gepachtet.


Oh Mann. Der Post ist auch noch drei Wochen alt?:rolleyes:


(ps. Es besteht übrigens weiterhin die Möglichkeit, das PedantOne einfach nur der bei xtremesystems gebannte OBR ist)

Nightspider
2014-10-21, 22:57:11
Er hatte zumindest was die 970/980 schon anfang des Jahres mit allem Recht was er vorausgesagt hatte - auch das die Karten noch in 28nm kommen.....


Das haben wir alle vorausgesagt. :wink:

Duplex
2014-10-21, 22:59:19
Der Typ hat keine Ahnung von nichts und tut als hätte er die Weisheit gepachtet.
PedantOne oder auch OBR war doch mal eine Seriöse Quelle zu Bulldozer Zeiten, wer sich noch errinern kann, die Jünger behaupteten nachdem er die Leaks eines FX8150 zeigte, das AMD absichtlich bei BD-Samples Funktionen deaktiviert hätte :D Aber später war es Tatsache das Bulldozer 1/4 weniger IPC als K10 hatte. :smile: Das wollte damals keiner glauben, Netburst Reloaded, AMDs Prescott...

Unicous
2014-10-21, 23:18:30
Gähn. War mir klar dass du angekrochen kommst. OBR war nie eine seriöse Quelle und schon immer ein riesiges Arschloch, Jahre bevor er der Sache mit den Bulldozer Leaks.

OBR/PedantOne? hat seit Ewigkeiten nichts auf die Reihe bekommen und die einzige Quelle die er hat... ist wahrscheinlich Charlie Demerjian.:freak: Ich bin mir ziemlich sicher, dass er jemanden kennt, der Zugriff auf die Artikel hat.

Oder er labert einfach nur Bullshit. Ich finde leider gerade nicht den Post, wo genüsslich seine nostradamischen Prophezeiungen auseinander genommen wurden.

Akkarin
2014-10-21, 23:20:23
Und kurze zeit später bei GCN war OBR wieder komplett falsch...

Raff
2014-10-21, 23:24:47
OBR ... Charlie ... was treiben die eigentlich? Ist ruhig geworden um diese bekannten Hate-Tratschtanten. Die haben doch jetzt nicht etwa etwas besseres zu tun als Gerüchtesüppchen umzurühren? :freak:

MfG,
Raff

Unicous
2014-10-21, 23:30:20
Charlie Demerjian behauptet, Fiji hat etwas Besonderes und Neues. sushiwarrior, der im Vergleich zu OBR eine seriöse Quelle ist, hat für Fiji etwas Besonderes vorrausgesagt, Ailuros war der Meinung, dass Fiji HBM hat und ein dahergelaufener Troll, der nichts Gutes über AMD GPUs zu sagen hat, aber immer angebliche scoops zu Nvidia hat ist nun über alledem erhaben. :rolleyes:

Ich glaube nicht, Tim.

Nightspider
2014-10-21, 23:41:52
Einen genaueren Status als 1.Quartal 2015 gibts bisher nicht oder?

Unicous
2014-10-22, 00:11:04
1. Quartal?

Ich glaube das ist eher eine Hoffnung. Soweit ich das mitbekommen habe wurde ohne konkreten Anlass über H1 2015 spekuliert. Ob das wirklich der Wahrheit entspricht keine Ahnung.

samm
2014-10-22, 00:37:48
Das substantiellste bezüglich HBM auf den Pirate Islands ist, sofern ich den Thread hier und die auf andern Foren aktiv genug verfolgt habe, nur die (alte!) Aussage von sushiwarrior, dass da was Besonderes am Speicher sei, und noch die (alten!) Folien zur AMD-Zusammarbeit bei der Enwicklung von stacked RAM. Insofern muss der Pedantische da gar nicht falsch liegen, auch wenn er nur rät...

OBrian
2014-10-22, 04:12:51
wenn man genug rät und dabei die ganz unwahrscheinlichen Sachen ("Fiji enthält Ufo-Technologie") wegläßt, dann wird immer irgendwas zutreffen. Und immer schön schwammige Aussagen treffen, Prinzip jedes Wahrsagers. Nicht etwa "Fiji enthält HBM-RAM in der und der Konfig", sondern "bei AMD kommt bald was Besonderes". :rolleyes:

Dawn on Titan
2014-10-22, 09:48:05
Ganz ehrlich, die Ruhe ist doch wohl laut genug. Wenn die üblichen AMD Gerüchteküchen jetzt nicht brodeln, dann ist da auch akut nicht viel am Kochen. Guckt euch doch Tonga an.... was der doch alles haben sollte 3000+ SP 384 Bit etc. pp.

Verlässlich ist momentan höchstens der dicke Designwin für ne Wakü und das hört sich imho nicht gut an.

HOT
2014-10-22, 11:38:13
Ich mach mal wieder ne Liste, weils cool ist :D (und weil hier mal wieder so eine destruktive Stimmung herrscht).

R7 350(X) = Iceland
R7 360(X) = Curacau (2-4GB GDDR5)
R9 370(X) = Tonga (350mm², 150-200W, 4GB GDDR5) (eigentlich auch als 285X geplant, aber verschoben)
R9 380(X) = Maui (HawaiiB im 384Bit Package) (420mm², 200-250W, 6GB GDDR5) (eigentlich als 295(X) geplant, aber verschoben)
R9 390(X) = Fiji (550mm², 300-375W, WaKü, 8GB GDDR5)

Ab Q3/Q4 2015:
R7 365(X) = Treasure (20nm+HBM (4GB) GloFo)
R9 385(X) = Bermuda (20nm+HBM (4-8GB) GloFo)
Beide vermutlich im gleichen Prozess wie die Skybridge-APUs

Ab Q3 2016:
Rx 4xx = FinFET-Interposer-Generation 2016, komplett neue µArch, bis 16GB HBM2 VRAM.

OBrian
2014-10-22, 11:59:58
Den ollen Pitcairn willste immer noch mitschleppen? wäre es nicht mal an der Zeit, die 300er Serie nur mit TrueAudio-fähigen Chips zu befeuern? wie wäre es mit ersatzlosem Wegfall von Pitcairn? Tonga ist jetzt schon bei nur 200€, wird nach Abverkauf der Tahitis weiter absinken (immerhin nur 2 GB, das zeigt ja die klar ambitionslose Ausrichtung). Bonaire-Karten mit OC gibt es bis rauf zu 150 €. So ein Riesenabstand ist das nicht, und der wird zuerst noch durch die alten 270er Karten abgedeckt, aber längerfristig muß in der 300er Serie nichts mehr zwischen Bonaire und Tonga Pro sein.

Kann ja auch gut sein, daß als erste 20-nm-Karte was für unter Tonga kommt, mit etwas mehr Performance als Bonaire.

HOT
2014-10-22, 12:28:33
Pitcairn ist nicht so viel größer als Bonaire und erheblich leistungsfähiger, Bonaire ist als 360er einfach zu schlapp. Wen interessiert Trueaudio in x60iger-Bereichern bitte? Und ersetzt wird er evtl. durch Treasure dann in 2015. Reicht doch.

samm
2014-10-30, 00:05:29
Referenzdesigns auf nVidia-LevelDie 295x2? :)

Etwas DSR-artiges wäre wirklich wünschenswert, ich bin die Limitierung des Downsamplings auf 2720 leid... Derzeit wird aber das Treiber-Team andere Prioritäten haben mit dem Rewrite, s.d. einzelne Komponenten sauber getrennt sind, der Linux-Open-Source-Sache, und dem neuen CCC.

krötenfresse
2014-10-30, 07:13:01
kurze frage: wann kommt die r9 370 raus?
eigentlich sollte es die doch jetzt schon geben, oder?

Nightspider
2014-10-30, 07:27:10
Meine Glaskugel sagt wenn die Planeten in einer Reihe stehen.

AffenJack
2014-10-30, 07:42:15
kurze frage: wann kommt die r9 370 raus?
eigentlich sollte es die doch jetzt schon geben, oder?

Wie kommst du darauf? Man hat vor kurzem erst die 285 gelauncht, die 285X könnte unter Umständen noch kommen. Bis zur 370 wirds bestimmt noch 3 Monate dauern, da man diese wohl eher nach Fiji (R9 390) launchen wird. Die 390 sollte irgendwann in Q1 2015 kommen.

Dural
2014-10-30, 11:13:35
bringt doch mal Fakten, das meiste hier ist ja OT. :rolleyes:

was weis man den bis jetzt? nicht wirklich viel:
um die 500mm2 gross
noch in 28nm
AMD hat Wakü bestellt

wer 1+1+1 zusammen zählen kann kommt auf jeden fall auf eine Karte die ziemlich viel verbrauchen dürfte. Dazu müsste man aber auf dem Papier und vor allem auf dem Monitor auch ziemlich viel erreichen, den sonst ist es ziemlich schnell ein Fail.

Das was ich mich Aktuell am meisten Frage, wie so erst im Q1 2015! In 28nm kann das doch kein Plandatum sein, sondern spricht doch mehr für Verzögerungen.

differenzdiskriminator
2014-10-30, 11:52:23
Das was ich mich Aktuell am meisten Frage, wie so erst im Q1 2015! In 28nm kann das doch kein Plandatum sein, sondern spricht doch mehr für Verzögerungen.
AMD hat in den letzten Monaten und Jahren viele Leute entlassen und auch die Ausgaben für R&D massiv reduziert. Ist doch logisch, dass das irgendwann sich auch in den Produkten niederschlägt.

Deshalb weiß man auch noch nichts und es gibt keine Leaks. Die gibt es erst dann so richtig, wenn die Chips/Karten sich außerhalb von AMD befinden, z.B. an Partner geschickt werden.

Gerade wenn der Chip so groß ist, wird es wohl eher Ende Q1, wenn gar nicht sogar noch später, als Januar.

maximus_hertus
2014-10-30, 12:05:04
AMD hat in den letzten Monaten und Jahren viele Leute entlassen und auch die Ausgaben für R&D massiv reduziert. Ist doch logisch, dass das irgendwann sich auch in den Produkten niederschlägt.

Deshalb weiß man auch noch nichts und es gibt keine Leaks. Die gibt es erst dann so richtig, wenn die Chips/Karten sich außerhalb von AMD befinden, z.B. an Partner geschickt werden.

Gerade wenn der Chip so groß ist, wird es wohl eher Ende Q1, wenn gar nicht sogar noch später, als Januar.

AMD hat wohl alle Löcher gestopft, Leaks gibts da schon länger quasi nicht mehr bzw. wenn, dann nur in den letzten Momenten vor dem Launch.

differenzdiskriminator
2014-10-30, 12:15:05
AMD hat wohl alle Löcher gestopft, Leaks gibts da schon länger quasi nicht mehr bzw. wenn, dann nur in den letzten Momenten vor dem Launch.
Echt? Dann muss die 285X wohl doch nicht von AMD sein, denn da gab es Wochen vorher schon Leaks.

Thomas Gräf
2014-10-30, 16:11:18
bringt doch mal Fakten, das meiste hier ist ja OT. :rolleyes:

was weis man den bis jetzt? nicht wirklich viel:
um die 500mm2 gross
noch in 28nm
AMD hat Wakü bestellt

wer 1+1+1 zusammen zählen kann kommt auf jeden fall auf eine Karte die ziemlich viel verbrauchen dürfte. Dazu müsste man aber auf dem Papier und vor allem auf dem Monitor auch ziemlich viel erreichen, den sonst ist es ziemlich schnell ein Fail.

Das was ich mich Aktuell am meisten Frage, wie so erst im Q1 2015! In 28nm kann das doch kein Plandatum sein, sondern spricht doch mehr für Verzögerungen.

Wenn das wirklich Spuren hinterlassen hat was differenzdiskriminator sagt dann war die Wakü Bestellung von AMD ein Täuschungsmanöver in Richtung nV. Damit nV mit BigMax einen richtig teuren Chip raushaut der dann in über 1000$ Regionen sowieso nix am Markt anrichtet.
Denkemal AMD werden ihren BigChip auf ca 25-30% über 980 trimmen,allerdings zum 980 Preis.
Probleme werden sie mit dem Verbrauch haben, denn der muß natürlich genauso sexy rüberkommen wie die Mehrleistung zur 980....deswegen die Verzögerung meiner Meinung nach. Sie haben ja die Zeit für Optimierungen, das Weihnachtsgeschäft is quasi gelaufen jetzt warten nur noch die Highender
mit viel Geld, bzw die mit vieiviel Geld. ;)

Glaub mehr Wunder kann man nicht erwarten...naja den Treiber noch ;) ;) ;)

Sunrise
2014-10-30, 16:28:00
...Denkemal AMD werden ihren BigChip auf ca 25-30% über 980 trimmen...
Da kommt wohl ein doppelter Tonga mit bis zu 300W (ob Referenz oder Partner-Designs werden wir dann sehen).

Wenn man jetzt noch an die Wakü-Geschichte glaubt, durchbricht man also die 4000 SPs, die bei entsprechendem Takt auch gekühlt werden müssen.
Das ist der einzige Grund, den ich mir für eine Verschiebung vorstellen kann, weil AMD hier aufs Ganze geht.

Das Ding hätte zumindest genug Performance, dass man min. den 980er Preis dann verlangen kann, was AMDs Ziel sein sollte.

Knuddelbearli
2014-10-30, 16:38:04
Meine Glaskugel sagt wenn die Planeten in einer Reihe stehen.


also am 6. Mai 2492?

Thomas Gräf
2014-10-30, 17:04:11
@Sunrise...tja das isses, keiner weiß halt wie AMD derzeit wirklich aufgelegt ist.
Aber an Wakü glaube ich nicht. Die hätten sie doch ohne Verzögerung draufklatschen können.
Gerade weil sie es ohne Wakü schaffen wollen dauert es länger.

Skysnake
2014-10-30, 17:30:07
WaKü bedeutet recht sicher niedrigere GPU-Temperaturen als mit LuKü, und damit auch weniger Verbrauch. Kann also auch genauso eine Effizienzoptimierung sein.

Nakai
2014-10-31, 01:21:22
Eventuell sehen wir doch was bald. Wenn man jetzt schon WaKü vorbestellt hat, sollte eventuell Ende des Jahres noch ein SneakPeak kommen. Fji wird fett sein und wohl erstmal mit GDDR5 kommen. HBM stell ich mir erstmal nicht vor. Hynix hat Spec Sheet für Graphic Memory Q4 rausgebracht. Es gibt nur noch eine Art von HBM mit 128GB/s und noch nur 1Gbit Volumen. AMD wird wohl auf Hynix setzen.

krötenfresse
2014-10-31, 07:50:46
wenn es nun also doch noch länger dauert mit der r9 370, welche karte dieser leistungsklasse würdet ihr empfehlen, die jetzt schon am markt ist?

Raff
2014-10-31, 08:09:42
wenn es nun also doch noch länger dauert mit der r9 370, welche karte dieser leistungsklasse würdet ihr empfehlen, die jetzt schon am markt ist?

Niemand weiß, was eine "R9 370" leistet. Du suchst ein Mittel- bis Oberklasse-Modell? Dann nimm eine 280, solange es noch geht: http://preisvergleich.pcgameshardware.de/?cat=gra16_512&asuch=r9+280&asd=on&v=e&filter=aktualisieren&sort=p&xf=1440_R9+280#xf_top :)

MfG,
Raff

maximus_hertus
2014-10-31, 09:02:57
Echt? Dann muss die 285X wohl doch nicht von AMD sein, denn da gab es Wochen vorher schon Leaks.

Welche Leaks? Die offiziellen von AMD? Benchmark-technisch gab es bis zum iMac nichts, oder?

differenzdiskriminator
2014-10-31, 09:14:27
WaKü bedeutet recht sicher niedrigere GPU-Temperaturen als mit LuKü, und damit auch weniger Verbrauch. Kann also auch genauso eine Effizienzoptimierung sein.
Die WaKü reduziert die Marge aber immens. Genau das Gegenteil von dem, was AMD im Moment braucht. Die bräuchten eine GTX980, kleiner Chip, günstige Herstellung, hoher Verkaufspreis.

Welche Leaks? Die offiziellen von AMD? Benchmark-technisch gab es bis zum iMac nichts, oder?
Es gab Wochen vor Vorstellung der 285X schon erste Bilder und Benchmarks. Darfst du gerne bei Google nachschauen.

y33H@
2014-10-31, 11:16:40
Welche vorgestellte 285X? Es gibt derzeit nur eine 285.

john carmack
2014-10-31, 11:37:53
Wenn das wirklich Spuren hinterlassen hat was differenzdiskriminator sagt dann war die Wakü Bestellung von AMD ein Täuschungsmanöver in Richtung nV. Damit nV mit BigMax einen richtig teuren Chip raushaut der dann in über 1000$ Regionen sowieso nix am Markt anrichtet.

Glaub mehr Wunder kann man nicht erwarten...naja den Treiber noch ;) ;) ;)

was ist das denn für eine Vorhersage? :)

differenzdiskriminator
2014-10-31, 11:38:45
Welche vorgestellte 285X? Es gibt derzeit nur eine 285.
Whoops, die meinte ich natürlich :redface:

Akkarin
2014-10-31, 12:56:34
Ich kann mich an keine größeren leaks größere zeit vorher Erinnern. Eher im gegenteil, es wurde andauernd davon gesprochen wie still alles ist.

Ein paar Tage vorher haben wir ein paar Bilder und ein oder zwei synthetische gesehen, aber das wars auch schon.

Knuddelbearli
2014-11-01, 00:55:25
Die WaKü reduziert die Marge aber immens. Genau das Gegenteil von dem, was AMD im Moment braucht. Die bräuchten eine GTX980, kleiner Chip, günstige Herstellung, hoher Verkaufspreis.



Wo ist ein GM204 klein? kaum kleiner als 290X trotz extrem kastrierter DP usw

differenzdiskriminator
2014-11-01, 11:55:15
Wo ist ein GM204 klein? kaum kleiner als 290X trotz extrem kastrierter DP usw
GTX980: 5,2 Mrd. Transistoren, 398mm²
R9 290X: 6,2 Mrd. Transistoren, 440mm²

Die eine Karte geht für unter 300€ über den Ladentisch, die andere für über 500.

reaperrr
2014-11-01, 12:49:58
GTX980: 5,2 Mrd. Transistoren, 398mm²
R9 290X: 6,2 Mrd. Transistoren, 440mm²

Die eine Karte geht für unter 300€ über den Ladentisch, die andere für über 500.
Die Mehrheit der verkauften GTX sind aber 970er.

maximus_hertus
2014-11-01, 13:27:21
Whoops, die meinte ich natürlich :redface:

Damit sollte meine Aussage bzgl. der nichtvorhandenen AMD-Leaks ja korrekt sein. Oder gibt es da noch ein Einspruch deinerseits?


Zum Thema Marge: Ein dicker Luftkühler kostet nicht wenig (für die IHVs afair 40$+), da sollte eine AIO-Wakü nicht so deutlich teurer sein.

Ich kann AMD jedoch nicht verstehen, dass man das Weihnachtsgeschäft so ignoriert? Selbst wenn man keine neuen Chips hat, sollten Refreshes möglich sein? Einfach 8 GiB High-End Karten als 295(X) verkaufen. Dazu nur Custom Varianten, die dank besserer Kühlsysteme z.B. 1100 MHz bieten können. Diese Karten könnte man dann gemütlich für 500(X) / 350(Non-X) anbieten. Dazu hätten diese Karten den "Geruch der neuen Hardware".
Dazu eine "Stromspar" 295 mit 4 GiB (Takt/Spannung etwas unterhalb der 290, Spieleverbauch <200W) für ca. 250 Euro und man hätte ein ordentliches Weihnachtsgeschäft-Lineup.

Selbst wenn AMD schon im Januar soweit wäre (mit der neuen Gen), würde ich das Weihnachtsgeschäft doch nicht einfach "aufgeben".

Warten wir mal die nächste Woche mit den 290X 8 GiB-Karten ab.

differenzdiskriminator
2014-11-01, 13:38:14
Die Mehrheit der verkauften GTX sind aber 970er.
So what, auch die sind teurer als die 290X Modelle.

Weniger Kosten und höhere Marge, oben drauf die 980er Modelle mit 200€ mehr Reingewinn.

Genau das braucht AMD und nicht irgendein extrem teures Modell mit WaKü, nur um irgendwie die Leistung wegzukühlen.

Damit sollte meine Aussage bzgl. der nichtvorhandenen AMD-Leaks ja korrekt sein. Oder gibt es da noch ein Einspruch deinerseits?
Nur weil ich mich beim Namen des Modells vertan habe? :confused:

Google doch selbst nach, wenn du mir nicht glaubst, es gab mehrere Wochen vor Vorstellung der 285 Leaks im Internet.

Zum Thema Marge: Ein dicker Luftkühler kostet nicht wenig (für die IHVs afair 40$+), da sollte eine AIO-Wakü nicht so deutlich teurer sein.
Was kostet denn die WaKü der 295X2?

Bezüglich deiner Refreshes: Da ist offensichtlich nicht viel rauszuholen. Bedenke, dass auch so ein Refresh viele Engineeringressourcen kostet. Und die hat AMD heute schlicht nicht mehr. Wenn du jetzt noch zwei/drei "neue" Chips einschiebst, verschiebt sich die 300er Serie noch mehr.

Blediator16
2014-11-01, 13:59:38
Damit sollte meine Aussage bzgl. der nichtvorhandenen AMD-Leaks ja korrekt sein. Oder gibt es da noch ein Einspruch deinerseits?


Zum Thema Marge: Ein dicker Luftkühler kostet nicht wenig (für die IHVs afair 40$+), da sollte eine AIO-Wakü nicht so deutlich teurer sein.

Ich kann AMD jedoch nicht verstehen, dass man das Weihnachtsgeschäft so ignoriert? Selbst wenn man keine neuen Chips hat, sollten Refreshes möglich sein? Einfach 8 GiB High-End Karten als 295(X) verkaufen. Dazu nur Custom Varianten, die dank besserer Kühlsysteme z.B. 1100 MHz bieten können. Diese Karten könnte man dann gemütlich für 500(X) / 350(Non-X) anbieten. Dazu hätten diese Karten den "Geruch der neuen Hardware".
Dazu eine "Stromspar" 295 mit 4 GiB (Takt/Spannung etwas unterhalb der 290, Spieleverbauch <200W) für ca. 250 Euro und man hätte ein ordentliches Weihnachtsgeschäft-Lineup.

Selbst wenn AMD schon im Januar soweit wäre (mit der neuen Gen), würde ich das Weihnachtsgeschäft doch nicht einfach "aufgeben".

Warten wir mal die nächste Woche mit den 290X 8 GiB-Karten ab.

Könnte daran liegen, dass man nicht alles einfachmal so produzieren kann, weil es einfach die Kapazitäten bei den Herstellern überschreitet.

maximus_hertus
2014-11-01, 14:02:27
Vor der AMD-30-Years-Veranstaltung gab es keine "seriösen" Leaks. Klar hat der ein oder andere richtig "geraten", aber einen 360mm² Chip mit 5 Mrd. Transistoren hatte so ziemlich niemand auf der (Leak-)Rechnung.

Zum Refresh: Aufkleber runter, neuer Aufkleber rauf, dazu ein neues Bios. Das kann man nebenher machen, selbst AMD. Das Problem sind nicht die Engineeringressourcen, sondern primär die Product-Manager / Marketing-Abteilung.

differenzdiskriminator
2014-11-01, 14:24:09
Vor der AMD-30-Years-Veranstaltung gab es keine "seriösen" Leaks. Klar hat der ein oder andere richtig "geraten", aber einen 360mm² Chip mit 5 Mrd. Transistoren hatte so ziemlich niemand auf der (Leak-)Rechnung.
Stimmt. Es wird ja bis heute noch von irgendwelche nicht aktivierten Chipbereichen fabuliert, die auf dem Chip stecken sollen...

Bilder und Benchmarks gab es trotzdem. Spätestens ab August.

Zum Refresh: Aufkleber runter, neuer Aufkleber rauf, dazu ein neues Bios. Das kann man nebenher machen, selbst AMD. Das Problem sind nicht die Engineeringressourcen, sondern primär die Product-Manager / Marketing-Abteilung.
Und was bringt dir dann eine minimal schnellere Karte, die immer noch keine Chance gegen Maxwell2 hat?

Entweder du machst einen Chiprefresh (-> Engineering) oder du lässt es bleiben. Aber den bisherigen Chip mit einem neuen BIOS verkaufen - das können auch die OEMs über Customdesigns.

PS: Mich würde immer noch interessieren, was denn der 295X2 WaKü kosten soll...

Thunder99
2014-11-01, 14:49:42
Viele vergessen das AMD immer noch sein Spiele-Bundle hat was ordentlich Cash back ist.

Also über den Preis sind die schon jetzt besser als nvidia, Effizient hin oder her. Was zählt ist immer noch das Gesamt Paket

Mancko
2014-11-01, 17:11:29
Viele vergessen das AMD immer noch sein Spiele-Bundle hat was ordentlich Cash back ist.

Also über den Preis sind die schon jetzt besser als nvidia, Effizient hin oder her. Was zählt ist immer noch das Gesamt Paket

Scheinen die meisten Kunden anders zu sehen.

maximus_hertus
2014-11-01, 17:49:26
Und was bringt dir dann eine minimal schnellere Karte, die immer noch keine Chance gegen Maxwell2 hat?

Entweder du machst einen Chiprefresh (-> Engineering) oder du lässt es bleiben. Aber den bisherigen Chip mit einem neuen BIOS verkaufen - das können auch die OEMs über Customdesigns.

PS: Mich würde immer noch interessieren, was denn der 295X2 WaKü kosten soll...

Eine 8 GiB Custom "295X", die minimal schneller als die 290X ist wäre auch schneller als die GTX 970. Durch den doppelten VRAM könnte man einen höheren Preis verlangen. Und das wichtigste: NEUE Karte. nV macht es doch immer wieder vor, z.B. GTX 680 => GTX 770 (hier sogar ohne mehr VRAM).

horn 12
2014-11-02, 14:01:09
Eventuell sehen wir doch was bald. Wenn man jetzt schon WaKü vorbestellt hat, sollte eventuell Ende des Jahres noch ein SneakPeak kommen. Fji wird fett sein und wohl erstmal mit GDDR5 kommen. HBM stell ich mir erstmal nicht vor. Hynix hat Spec Sheet für Graphic Memory Q4 rausgebracht. Es gibt nur noch eine Art von HBM mit 128GB/s und noch nur 1Gbit Volumen. AMD wird wohl auf Hynix setzen.


Was meinst Du damit bitte?
Sollte doch in gut einem Monat was kommen zum Weihnachtsgeschäft, aber dies müsste doch wohl bedeutend früher kommen, will man am Kuchen teilhaben.
Die R9 290X 8GB ist eine Restverwertung der Hawai GPU und soll wohl auch dem Abverkauf dienen.
Oder aber es kommt der Fiji Ausschuss Anfang Jänner und dann Ende Februar/ Anfang März der Full GPU Chip

Brillus
2014-11-02, 15:32:56
Google doch selbst nach, wenn du mir nicht glaubst, es gab mehrere Wochen vor Vorstellung der 285 Leaks im Internet.


Meine Erinnerung ist eher das man noch 1 Woche vorher über einen Paperlaunch spekuliert hat weils keine Leaks gab.

differenzdiskriminator
2014-11-03, 08:50:30
Eine 8 GiB Custom "295X", die minimal schneller als die 290X ist wäre auch schneller als die GTX 970. Durch den doppelten VRAM könnte man einen höheren Preis verlangen. Und das wichtigste: NEUE Karte. nV macht es doch immer wieder vor, z.B. GTX 680 => GTX 770 (hier sogar ohne mehr VRAM).
Toll, schneller als die GTX970, aber immer noch langsamer als eine 980. Was willst du dafür verlangen? 350-400€? Wo soll sich das rechnen?

Meine Erinnerung ist eher das man noch 1 Woche vorher über einen Paperlaunch spekuliert hat weils keine Leaks gab.
War ja auch ein Paperlaunch, zu kaufen gab es die Karte erst im September.

Godmode
2014-11-03, 09:09:42
Viele vergessen das AMD immer noch sein Spiele-Bundle hat was ordentlich Cash back ist.

Also über den Preis sind die schon jetzt besser als nvidia, Effizient hin oder her. Was zählt ist immer noch das Gesamt Paket

Es ist schön das gratis Spiele dabei sind, aber für eine Kaufentscheidung hätte das für mich keine Relevanz.

maximus_hertus
2014-11-03, 10:14:50
Toll, schneller als die GTX970, aber immer noch langsamer als eine 980. Was willst du dafür verlangen? 350-400€? Wo soll sich das rechnen?

Situation JETZT: R9 290X geht für 320-350 Euro über die Ladentheke.
Potentielle Situation mit einer R9 295X 8 GiB mit ca. +10% Performance:
Sie ist neu, in 4K+ tendenziell eher schneller als die GTX 980, kann alle Games in Ultra (bisher eine Domäne der Titans). Kosten: VRAM, Bios-Update, neue Aufkleber und Kartons. Nichts was besonderes Engineering oder sonstwas verlangt. VK-Preise: um 500-550 Euro. Also rund 200 Euro mehr bei deutlich weniger Einsatz, ergo höhere Margen für AMD.


War ja auch ein Paperlaunch, zu kaufen gab es die Karte erst im September. Hö? War die GTX 970/980 Launch auch ein Paperlaunch, da es diese Karten auch erst im September kaufbar gab? Kapiere jetzt deine Aussage nicht?

Dural
2014-11-03, 10:26:21
lol wie irgend einer eine 295X für um die 500.- Euro kaufen würde. :freak:

maximus_hertus
2014-11-03, 10:29:48
lol wie irgend einer eine 295X für um die 500.- Euro kaufen würde. :freak:

Begründung?

differenzdiskriminator
2014-11-03, 10:36:49
VK-Preise: um 500-550 Euro. Also rund 200 Euro mehr bei deutlich weniger Einsatz, ergo höhere Margen für AMD.
Traumtänzer.

Warum sollte eine Karte, die aktuell 300€ wert ist, mit nicht mal 10% mehr Leistung plötzlich fast das doppelte Wert sein? :freak:

Knuddelbearli
2014-11-03, 11:08:40
das selbe könntest über Titan heulen ;-)
und 980 kostet auch 200€ mehr für ca 15% mehr Leistung ohne mehr VRAM usw

aber das ja nicht AMD ...

maximus_hertus
2014-11-03, 11:22:24
Traumtänzer.

Warum sollte eine Karte, die aktuell 300€ wert ist, mit nicht mal 10% mehr Leistung plötzlich fast das doppelte Wert sein? :freak:


GTX 780 - wurde unmittelbar nach Release für ca. 500 Euro angeboten. Dann haben wir die TITAN, die zwischen 7-8% bei Launch-Tests schneller war - für ca. 1000 Euro. Dann schauen wir uns an, dass die Titan für Enthusiasten-Verhältnisse kein Ladenhüter war, ergo das reine P/L-Verhältnis nicht immer ausschlaggebend ist.

Dann schauen wir uns an, dass es bereits HEUTE Spiele gibt, die eine GTX 980 in 1080p nicht perfekt flüssig wiedergeben kann (klar sind nur Ausnahmen, aber immerhin). Eine 295X mit 8 GiB jedoch schon - warum sollte man dafür keine 500+ Euro verlangen können?

Was ist eigentlich mit der Paperlaunch-Diskussion @ differenzdiskriminator?

differenzdiskriminator
2014-11-03, 11:24:16
das selbe könntest über Titan heulen ;-)
Schnellste SingleGPU-Karte bei ihrer Vorstellung.

Dazu eher homöopathische Dosen und noch dazu eine gewisse Nische (CUDA-Entwickler, die keine Tesla/Quadro bezahlen können).

und 980 kostet auch 200€ mehr für ca 15% mehr Leistung ohne mehr VRAM usw
Auch hier wieder: Schnellste SingleGPU-Karte. Noch dazu eine niedrige Leistungsaufnahme, ein sehr gutes Referenzdesign.

Das ist doch was anderes, als eine ausgequetschter Hawaii, der schlussendlich bei 10% mehr über 300W liegt.

Also mal ehrlich, unter uns, ohne Fanboybrille:

Würdest du dir für 500€ lieber eine 980 kaufen oder eine 295X mit über 300W Leistungsaufnahme,die langsamer ist?

differenzdiskriminator
2014-11-03, 11:28:05
GTX 780 - wurde unmittelbar nach Release für ca. 500 Euro angeboten. Dann haben wir die TITAN, die zwischen 7-8% bei Launch-Tests schneller war - für ca. 1000 Euro. Dann schauen wir uns an, dass die Titan für Enthusiasten-Verhältnisse kein Ladenhüter war, ergo das reine P/L-Verhältnis nicht immer ausschlaggebend ist.
s.o.

Schnellste SingleGPU-Karte ist eben 200€ wert. Wer P/L kauft, der endet natürlich bei der 970.

Dann schauen wir uns an, dass es bereits HEUTE Spiele gibt, die eine GTX 980 in 1080p nicht perfekt flüssig wiedergeben kann (klar sind nur Ausnahmen, aber immerhin). Eine 295X mit 8 GiB jedoch schon - warum sollte man dafür keine 500+ Euro verlangen können?
Weil sie keiner kauft, ganz einfach.

Warum kostet wohl die 290X aktuell nur 300€? Weil sie für 400€ keiner kaufen würde, ganz einfach.

Und da willst du mit 10% Mehrleistung nochmal einen Hunderter mehr kassieren?

Was ist eigentlich mit der Paperlaunch-Diskussion @ differenzdiskriminator?
Da gibt es nichts zu diskutieren. Die Karte wurde am 30th Day von AMD angekündigt und war Wochen später erst zu kaufen, wurde so auch von AMD kommuniziert. Das ist für mich ein klassischer Paperlaunch und deshalb findet sich z.B. bei Wikipedia auch das tatsächliche Verkaufsdatum in der Tabelle und nicht die Ankündigung.

Und was das jetzt damit zu tun haben soll, dass es auch schon Wochen vor der Vorstellung entsprechende Leaks gab, weiß ich auch nicht. Und das war ja die Behauptung, AMD hätte inzwischen ihre Leute so unter Kontrolle, dass es keine Leaks mehr gäbe :rolleyes:

HOT
2014-11-03, 11:36:04
Eine 295X ist meiner Ansicht nach keine Hawaii sondern Fiji-Salvage-Krempel. Die machen dann sicherlich sowas ähnliches wie mit Tonga, man bleibt bei Hawaii-Pinout und nutzt dessen PCB weiter. Damit kann man den "Schrott" schonmal abverkaufen und die Rosinen für andere Dinge behalten. Die bekommen dann einfach ein 250W Powertarget, werden auf 44CUs beschränkt und fertig. Sowohl Tonga als auch Fiji meiner Ansicht nach einfach nicht zeitig auf den Markt gekommen, weil man sich gehörig verkalkuliert hat.
Zudem ist das hier:
http://www.tomshardware.de/leistungsaufnahme-grafikkarte-netzteil-wechselwirkung-messung,testberichte-241622.html
ein gigantisches Problem für Chips wie Fiji und GM200. Der Markt hält einfach viel zu wenig passende Netzteile für die feine Granularität beim Powermanagement bereit in Größenordnungen von 300W und mehr. Das ist ein sehr, sehr lesenswerter Artikel wie ich finde und der zerstört i.Ü. auch den Mythos, dass 2 8-Pin-Stecker für die 295X2 zu wenig seien und das (z.B. 290X) Grafikkarten über ihrer TDP agieren. Das tun sie, wie alle Karten von beiden Herstellern, aber nicht im Durchschnitt. Da wurde nur zu 99% totaler Mist gemessen, weil man ganz einfach die Messgenauigkeit nicht hat, um ein ordentliches Ergebnis ausmessen zu können. Grafikkarten brauchen, sofern sie vernünftig designt wurden, ihr Powertarget, punkt. Ich denke, darauf kann man sich ziemlich verlassen (Powertarget bei Tonga scheint übrigens 170W zu sein, nur so zur Info).

Die Hersteller sind sich der Problematik bewusst. Das geht sogar so weit, dass mittlerweile auf Packungen für R9 280 (ohne X!) ein 750W (!!!) Netzteil empfohlen wird, was vollkommen absurd ist. Ist mir letztens aufgefallen, als ich eine TUL 280 in der Hand hatte.

GPU-mässig war 2014 ein schlechtes Jahr als AMD-Kunde, weil man nur zwei Chips hatte für Spezialbareiche. Tonga ist für Mobil und Apple und Fiji für Profisegment.

Die eigentlich interessanten AMD-Chips kommen dann erst nächstes Jahr in 20nm, ich würd da mal auf Q3 für die R300 Serie tippen. Bis dahin kommt man mit der 200-Serie plus 285 und 295X noch klar. Nach dem Shrink der Konsolen SoCs halte ich 20nm-GPUs bei AMD für absolut sicher. Bis auf Carrizo kommt eben alles in 20nm, Fiji und Carrizo sind die letzten 28nm-Produkte und ich bezweifel sogar, dass wir Fiji im Vollausbau im Desktop-Markt sehen werden, der wird rein für den Profimarkt vorbehalten bleiben im Vollausbau. Man wird davon auch nur relativ wenige Einheiten produzieren, das Ding ist zu teuer.
HBM und Interposerzeug wird man erst in 2016/2017 im Grafikkartenbereich sehen, wenn die ersten echten GPUs bei GloFo/Samsung vom Band laufen. Bei 20nm Planar gibts genausowenig wie bei 28nm TSMC kein HBM, das gibts offenbar nur bei GloFo-Produkten.

maximus_hertus
2014-11-03, 11:43:40
s.o.

Schnellste SingleGPU-Karte ist eben 200€ wert. Wer P/L kauft, der endet natürlich bei der 970.

Weil sie keiner kauft, ganz einfach.

Warum kostet wohl die 290X aktuell nur 300€? Weil sie für 400€ keiner kaufen würde, ganz einfach.

Und da willst du mit 10% Mehrleistung nochmal einen Hunderter mehr kassieren?

Also hätte ich doch Recht, da eine 295X mit 8 GiB = schnellste Single-GPU-Karte für Enthusiasten für 4K/5K...



Da gibt es nichts zu diskutieren. Die Karte wurde am 30th Day von AMD angekündigt und war Wochen später erst zu kaufen, wurde so auch von AMD kommuniziert. Das ist für mich ein klassischer Paperlaunch und deshalb findet sich z.B. bei Wikipedia auch das tatsächliche Verkaufsdatum in der Tabelle und nicht die Ankündigung.

Deine Meinung, ok. Aber Ankündigung eines neuen Chips ist kein Produktlaunch. Ansonsten wurde die GTX 9x0 auch schon im Februar vorgestellt (der dazugehärige Maxwell-Chip beim Ti 750 Launch). Wo ist da bei dir die Grenze?



Und was das jetzt damit zu tun haben soll, dass es auch schon Wochen vor der Vorstellung entsprechende Leaks gab, weiß ich auch nicht. Und das war ja die Behauptung, AMD hätte inzwischen ihre Leute so unter Kontrolle, dass es keine Leaks mehr gäbe :rolleyes:

Ok, bitte zeige mir auch nur einen Link, in dem man VOR der AMD-Veranstaltung einen Tonga "sehen" konnte (also 359mm², 384-Bit Interface, knapp 200W Stromverbrauch, trotz 256-Bit-Karte gleiche Leistung wie Tahiti (ca.), langsamer als 280X, 250 Dollar Launchpreis).
Wenn es diese Leaks gab, warum wurde im 3DC während der AMD-Veranstaltung kräftig diskutiert? Die Leaks hätten doch dafür sorgen müssen, dass das alles eh klar ist und man nicht mehr zu schreiben braucht?

PuppetMaster
2014-11-03, 13:56:40
Also hätte ich doch Recht, da eine 295X mit 8 GiB = schnellste Single-GPU-Karte für Enthusiasten für 4K/5K...

Die 295X ist keine Single-GPU-Karte.

maximus_hertus
2014-11-03, 14:18:07
Es gibt keine 295X. Du meinst die 295X2. Ich rede von einem hypothetischen 290X-Refresh.

Agent117
2014-11-03, 14:20:05
Die eigentlich interessanten AMD-Chips kommen dann erst nächstes Jahr in 20nm, ich würd da mal auf Q3 für die R300 Serie tippen. Bis dahin kommt man mit der 200-Serie plus 285 und 295X noch klar. Nach dem Shrink der Konsolen SoCs halte ich 20nm-GPUs bei AMD für absolut sicher. Bis auf Carrizo kommt eben alles in 20nm, Fiji und Carrizo sind die letzten 28nm-Produkte und ich bezweifel sogar, dass wir Fiji im Vollausbau im Desktop-Markt sehen werden, der wird rein für den Profimarkt vorbehalten bleiben im Vollausbau. Man wird davon auch nur relativ wenige Einheiten produzieren, das Ding ist zu teuer.
HBM und Interposerzeug wird man erst in 2016/2017 im Grafikkartenbereich sehen, wenn die ersten echten GPUs bei GloFo/Samsung vom Band laufen. Bei 20nm Planar gibts genausowenig wie bei 28nm TSMC kein HBM, das gibts offenbar nur bei GloFo-Produkten.

Wo soll denn jetzt noch eine 295X herkommen? Das übernehmen doch die 290X partnerdesigns.
Fakt ist doch auch dass noch ein >500mm² 28nm Chip aussteht. Das könnte Fiji sein, aber auch Bermuda, namen sind da absolut unsicher seit den Insel-generatiopnen bei AMD.
Ein solcher >500mm² (sollte zwischen 500mm2 und 550mm² liegen; Tonga war als >350mm2 angegeben und ist 369)
wird doch, große architektonische Verbesserungen mal ausgenommen, maximal 25% schneller als die 290X.
Dann jetzt noch eine 295X zu bringen, sei es als Hawai XTX oder, wie du oben schreibst, als Fiji Salvage part lässt die zukünftige R9 300er Serie doch in einen viel schlechteren Licht stehen, mit dann maximal 15% Leistungssteigerung an der Spite ggü. der 200 Serie.
Ich denke, eine R9 295X kann man daher Quatsch einstufen.

Eine viel wichtigere Frage ist für mich, ob AMDs >500mm² Chip mit Gm200 so gut konkurrieren kann, wie Hawai mit GK 110. Kann er dies nicht, sehen wir womöglich von GM200 zunächst nur eine Titan 2 zu Titan 1 Einführungspreisen.

maximus_hertus
2014-11-03, 14:42:39
Ein solcher >500mm² (sollte zwischen 500mm2 und 550mm² liegen; Tonga war als >350mm2 angegeben und ist 369)
wird doch, große architektonische Verbesserungen mal ausgenommen, maximal 25% schneller als die 290X.


Tonga ist afaik 359mm² groß. Und architektonische Verbesserungen können eine Menge ausmachen. Wenn die R300 erst im Sommer kommt, sollten deutlich(!) mehr als +25% zu Hawaii dazukommen.

differenzdiskriminator
2014-11-03, 16:45:00
Also hätte ich doch Recht, da eine 295X mit 8 GiB = schnellste Single-GPU-Karte für Enthusiasten für 4K/5K...
Auch in 4K hat eine "295X" keine Chance gegen eine 980, der Abstand zur 290X ist größer als die 10%, über die du diskutierst.

Deine Meinung, ok. Aber Ankündigung eines neuen Chips ist kein Produktlaunch. Ansonsten wurde die GTX 9x0 auch schon im Februar vorgestellt (der dazugehärige Maxwell-Chip beim Ti 750 Launch). Wo ist da bei dir die Grenze?
AMD hat zum 30th Event eine 285 vorgestellt. Kein neuer Chip, ein neues Produkt. Lieferbar war es erst deutlich später. Das ist die Definition eines Paperlaunches.

Ok, bitte zeige mir auch nur einen Link, in dem man VOR der AMD-Veranstaltung einen Tonga "sehen" konnte (also 359mm², 384-Bit Interface, knapp 200W Stromverbrauch, trotz 256-Bit-Karte gleiche Leistung wie Tahiti (ca.), langsamer als 280X, 250 Dollar Launchpreis).
Ein Leak ist nur dann ein Leak, wenn alle Details bekannt sind?

Du hast echt merkwürdig Ansichten...

Hier aber gern mal ein Beispiel:

"Nun werden diese Gerüchte konkreter und deuten auf einen R9 285 hin, welcher bereits in wenigen Wochen erwartet wird.
[...]
Technisch interessant ist, dass Tonga gemäß der spekulierten Spezifikationen mit einem 256 Bit breiten Speicher-Interface arbeiten wird."

Der Leak war im Juli.

Gipsel
2014-11-03, 16:54:13
Nur mal so als Anmerkung, diese sinnbefreiten Preisdiskussionen zur 290X/295/GTX780/whatever passen nicht so recht zum Thema "Pirate Islands: Bermuda, Fiji, Treasure - 2015".

Unicous
2014-11-03, 17:02:38
Was ist das für ein peinlicher LoveSuckZ-Kindergarten hier.


Zum AMD30 Event oder wie auch immer es hieß wurde die 285 vorgestellt und am 02.09. gelauncht.

Diese peinlichen Troll-und Rechthabereiversuche können jetzt also beendet werden.




Ooops. Gipsel war schneller.


Für seine Trollheit noch einmal der Videobeweis. Hat mich ne Minute gekostet, es zu finden.

https://www.youtube.com/watch?v=EzYBOGzUzKI&feature=player_detailpage#t=1664

Effe
2014-11-03, 17:03:29
AMD hat zum 30th Event eine 285 vorgestellt. Kein neuer Chip, ein neues Produkt. Lieferbar war es erst deutlich später. Das ist die Definition eines Paperlaunches.

Riesenschwachsinn, den Du da vorbetest. Sie haben beim Event die Karte maximal angeteasert.
http://pics.computerbase.de/5/9/5/0/5/1.png
Beispielsweise Computerbase konstatierte einen Hardlaunch:
http://www.computerbase.de/2014-09/amd-radeon-r9-285-220-euro-lieferbar/

Und selbst wenn man den Event als Launch ansieht, sich wegen einer Woche ins Hemd zu machen, und zu jammern, "Mimimi Paperlaunch!, Paperlaunch!", ist höchst sinnlos.