PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - HD8000 alias Sea Islands (2013er HD 7000)


Seiten : 1 2 3 4 [5]

Godmode
2013-05-27, 21:22:24
Was sind eigentlichen eure Vermutungen, warum AMD ein so langweiliges Portfolio für 2013 geplant hat? Kann es sein, dass sie mit 20nm früher gerechnet haben und durch die Verschiebungen überrumpelt worden sind?

fondness
2013-05-27, 21:28:12
Was sind eigentlichen eure Vermutungen, warum AMD ein so langweiliges Portfolio für 2013 geplant hat? Kann es sein, dass sie mit 20nm früher gerechnet haben und durch die Verschiebungen überrumpelt worden sind?

Nope, das 20nm nicht so bald kommt ist schon lange bekannt. Die Sache ist für mich relativ einfach: Durch die 7970Ghz macht ein Refresh keinen Sinn mehr. Sea Islands alias GCN1.1 bringt neue HSA-Feature, diese werden eh bei den SoCs verbaut. CI bringt aber keine relevanten Effizienzsteigerungen und damit wäre auch mehr Leistung nur eingeschränkt möglich. Man konzentriert sich also stattdessen darauf VI früher zu bringen, diese soll deutliche Effizienzsteigerungen mit bringen und macht auch in 28nm Sinn.

Nightspider
2013-05-27, 21:29:10
Was heißt denn langweiliges Sortiment? Ein breiteres Portfolio kostet auch viel Geld.

Und mit 20nm hat AMD garantiert nicht eher gerechnet, sondern eher später.
Schließlich wird 20nm sogar eher fertig als geplant. (laut TSMC)

Ein zu großen Teilen umgelabeltes Sortiment wie bei Nvidia ist auch nicht viel spannender.

Zudem ist das Jahr 2013 noch lange nicht um. ;)

mczak
2013-05-27, 21:43:03
http://www.3dcenter.org/artikel/grafikkarten-marktueberblick-mai-2013
und folgende.

Kommt auf das Modell an. Jedenfalls ist Bonaire nix Besonderes, wenn man sich die Zahlen da anschaut.
Dass da Cape Verde ineffizient sein soll sehe ich trotzdem nicht (auch wenn nur 7770 gelistet ist - wenn ich das richtig im Kopf habe hat 7750 eine bessere Energieeffizienz). Die einzigen die abfallen sind die Tahiti Modelle der Rest ist praktisch im Fehlerbereich.

boxleitnerb
2013-05-27, 21:54:14
Die Übersicht hat mehr als eine Seite. Die 7750 hat eine bessere Effizienz, ja. Ansonsten sind alle Pitcairn-Modelle besser. Ich wollte Bonaire wie gesagt nur in den richtigen Kontext rücken. Ggü. der 7770 ist man effizienter, ja. Ggü. der 7850 dann aber eben nicht.

mczak
2013-05-27, 22:12:24
Die Übersicht hat mehr als eine Seite. Die 7750 hat eine bessere Effizienz, ja. Ansonsten sind alle Pitcairn-Modelle besser. Ich wollte Bonaire wie gesagt nur in den richtigen Kontext rücken. Ggü. der 7770 ist man effizienter, ja. Ggü. der 7850 dann aber eben nicht.
Ach die zweite Seite habe ich glatt übersehen. Also laut den Zahlen dort ist die 7750 (die alte Version) effizienter als sämtliche Karten mit Pitcairn und auch Bonaire...
Aber wie gesagt allzu viel würde ich auf die Zahlen nicht geben der Fehlerbereich ist zu gross.

reaperrr
2013-05-27, 22:30:10
Ach die zweite Seite habe ich glatt übersehen. Also laut den Zahlen dort ist die 7750 (die alte Version) effizienter als sämtliche Karten mit Pitcairn und auch Bonaire...
Aber wie gesagt allzu viel würde ich auf die Zahlen nicht geben der Fehlerbereich ist zu gross.
Die Effizienz hängt bei AMD auch relativ stark an der Speicherbandbreite.

Würde man eine 7790 mit Chiptakt und Spannung der 7750 V1, aber vollen 6 GHz Speichtakt antreten lassen, würde diese Karte vermutlich alle anderen Modelle in Sachen Effizienz schlagen.

robbitop
2013-05-28, 09:29:44
Es sieht einfach so aus, als ob AMD Ende 2013 eine HD9-Serie veröffentlicht. Wie die genau aussieht? Keine Ahnung, sieht jedoch nach einem ziemlichen Gepfusche aus.
Kannst du das erläutern? Wieso sieht es nach Gepfusche aus? Mir liegen keine Daten über HD9 vor, als dass ich das beurteilen könnte. Weißt du mehr?

Skysnake
2013-05-28, 09:40:19
Kommt auf den Code drauf an ;)

boxleitnerb
2013-05-28, 09:42:41
Sweclockers meint, Volcanic Islands kommt zum BF4 Release, das Ende Oktober ist:
http://translate.googleusercontent.com/translate_c?act=url&depth=1&hl=de&ie=UTF8&prev=_t&rurl=translate.google.de&sl=sv&tl=en&u=http://www.sweclockers.com/nyhet/17078-amd-synkar-nya-radeon-med-battlefield-4&usg=ALkJrhj0XDcR14bAZ-Oj3qV5ca8mM3X4ug

Ich glaube daher nicht mehr an 20nm, das wäre nun wirklich zu früh. Die "Roadmap" mit "stable throughout 2013" endet aber mit Q3. Ende Oktober ist schon Q4, das würde also passen.

fondness
2013-05-28, 09:46:52
Sweclockers meint, Volcanic Islands kommt zum BF4 Release, das Ende Oktober ist:
http://translate.googleusercontent.com/translate_c?act=url&depth=1&hl=de&ie=UTF8&prev=_t&rurl=translate.google.de&sl=sv&tl=en&u=http://www.sweclockers.com/nyhet/17078-amd-synkar-nya-radeon-med-battlefield-4&usg=ALkJrhj0XDcR14bAZ-Oj3qV5ca8mM3X4ug

Ich glaube daher nicht mehr an 20nm, das wäre nun wirklich zu früh. Würde aber nicht zu AMDs Aussage passen, dass die 7970 GHz die schnellste Karte dieses Jahr bleiben soll.

Das 4.Quartal wurde sicher nicht ohne Grund offen gelassen. Aber gehört eigentlich in den VI-Thread, dieser Thread ist im Grunde obsolet, da kommt wohl nicht mehr viel, außer einer weiteren Lowend GPU.

Ansonsten nennt man das nicht Gepfusche, sondern flexible execution. :)

boxleitnerb
2013-05-28, 09:48:04
Habs schon gemerkt und editiert.

2phil4u
2013-05-28, 18:12:14
Warum wurde dieser Artikel noch nicht erwaehnt ?

Dürfte dann vom Performanceindex bei Titan liegen, 9790 + 35%

http://www.3dcenter.org/news/angebliche-spezifikationen-zu-amds-radeon-hd-8800-8900-serien

ndrs
2013-05-28, 18:17:43
Dann lies nochmal die letzten paar Seiten. Da steht genau das drin, inklusive, dass es Fake ist.

Nakai
2013-05-28, 18:32:20
Wenn die Codenamen schon falsch sind, ist es meistens Fake.


Ansonsten nennt man das nicht Gepfusche, sondern flexible execution. :)

Ach komm, man kann gar nichts mehr zueinander einordnen. Die Namensgebung ist dank OEM-Modelle, APUs, Notebooks und der weiterführenden Desktop-Serie so ziemlich ohne Struktur. Das ist Gepfusche und wird wohl auch Ende des Jahres so weitergehen, sonst würden wir schon lange die HD8-Serie sehen. Zwei Chips sind schon draußen, wieso hat man die anderen zurückgehalten, wenn sie nicht gecancelt wurden. Das macht keinen Sinn, ergo kommt Ende des Jahres HD9-Serie in 28nm und 20nm(eher Ende 2013/Anfang 2014, Midrange/Lowend). Was anderes kann ich mir nicht vorstellen.

Gipsel
2013-05-29, 18:19:34
Mal was Anderes, wir sind ja davon ausgegangen, daß auf der HD7790 mit dem Bonaire-Chip das ganz normale GCN1 zum Einsatz kam. Dort fehlen ja sowohl die aufgebohrten (und mehr) ACEs, das FLAT-Adressraum und noch so ein paar Kleinigkeiten der GCN1.1/"C.I."-Generation. Nun bin ich gerade über diese Benchmarks (ein paar OpenCL-Tests von Sandra2013) (http://www.sisoftware.info/redirect/review.php?id=8975) gestolpert (die gibt es auch noch in double precision (http://www.sisoftware.co.uk/?d=qa&f=gpu_finance_fp64&l=de&a=)). Und irgendwie hängt da eine 7790 eine HD7850 z.T. sehr massiv ab. Ich traue ja normalerweise Sandra nicht über den Weg (und ihren ominösen Tests noch weniger, vielleicht haben die auch die 7850 und die 7750 mit irgendeiner Uralt-Treiberversion gefahren), aber irgendwas muß das ja verursachen. Artefakt des Benchmarks oder hat AMD da doch irgendwo unter der Haube geschraubt, nur eben das es normalerweise nicht so auffällt? Ideen?
http://www.sisoftware.co.uk/images/gpgpu_mc32.png

mczak
2013-05-29, 19:56:50
Mal was Anderes, wir sind ja davon ausgegangen, daß auf der HD7790 mit dem Bonaire-Chip das ganz normale GCN1 zum Einsatz kam. Dort fehlen ja sowohl die aufgebohrten (und mehr) ACEs, das FLAT-Adressraum und noch so ein paar Kleinigkeiten der GCN1.1/"C.I."-Generation. Nun bin ich gerade über diese Benchmarks (ein paar OpenCL-Tests von Sandra2013) (http://www.sisoftware.info/redirect/review.php?id=8975) gestolpert (die gibt es auch noch in double precision (http://www.sisoftware.co.uk/?d=qa&f=gpu_finance_fp64&l=de&a=)). Und irgendwie hängt da eine 7790 eine HD7850 z.T. sehr massiv ab. Ich traue ja normalerweise Sandra nicht über den Weg (und ihren ominösen Tests noch weniger, vielleicht haben die auch die 7850 und die 7750 mit irgendeiner Uralt-Treiberversion gefahren), aber irgendwas muß das ja verursachen. Artefakt des Benchmarks oder hat AMD da doch irgendwo unter der Haube geschraubt, nur eben das es normalerweise nicht so auffällt? Ideen?
http://www.sisoftware.co.uk/images/gpgpu_mc32.png
Naja also die HD7970 verhält sich ja zu HD7790 etwa so wie erwartet (rund doppelt so schnell) nur die 7750/7850 fallen aus dem Rahmen, tippe also auf einen Fehler im Treiber.
Sowas kann offenbar ziemlich leicht passieren, z.B. sind alle Luxmark 2.0 Kabini Ergebnisse die ich gesehen habe auch viel zu tief (bei nur-GPU - nimmt man die CPU+GPU Variante stimmt's dann etwa wieder, ist dann auch deutlich schneller als die CPU und GPU Ergebnisse zusammengerechnet was soviel ich weiss eigentlich unmöglich ist (denn ich glaube nicht dass der Benchmark die Last so verteilen kann dass Teile die besser auf der CPU laufen eben auf der CPU ausgeführt werden und der Rest auf GPU, das wäre aber nötig) und auch sonst bei keiner CPU/GPU Kombination auftritt (ganz im Gegenteil).
Dass HD7790 aber etwas schneller ist als HD7850 kann sicher durchaus passieren, hat ja praktisch gleich viele Gflops (sogar etwas mehr), jedenfalls wenn die benötigte Speicherbandbreite nicht allzu hoch ist, denn es kann ja gut sein dass auch manche compute-Benchmarks etwas besser mit Takt skalieren. Der Faktor 3 aber macht hier sicher keinen Sinn, und ich glaube auch nicht dass der etwas mit den Fähigkeiten des Chips zu tun hat. Das heisst aber auch nicht dass Bonaire nicht doch neue Fähigkeiten hat...

HOT
2013-05-30, 09:55:15
Sweclockers meint, Volcanic Islands kommt zum BF4 Release, das Ende Oktober ist:
http://translate.googleusercontent.com/translate_c?act=url&depth=1&hl=de&ie=UTF8&prev=_t&rurl=translate.google.de&sl=sv&tl=en&u=http://www.sweclockers.com/nyhet/17078-amd-synkar-nya-radeon-med-battlefield-4&usg=ALkJrhj0XDcR14bAZ-Oj3qV5ca8mM3X4ug

Ich glaube daher nicht mehr an 20nm, das wäre nun wirklich zu früh. Die "Roadmap" mit "stable throughout 2013" endet aber mit Q3. Ende Oktober ist schon Q4, das würde also passen.

Dazu gibts zwei Anmerkungen: 1.) 20nm läuft dann wirklich besser als erwartet und 2.) es wird ein Paperlaunch, Massenverfügbarkeit erst in 2014.

Botcruscher
2013-05-30, 10:28:58
Wenn man nicht liefern kann nutzt eine Vorstellung mit BF4 wenig. Was ein besser als erwartet von TSMC bedeutet will ich lieber auch nicht wissen.

boxleitnerb
2013-05-30, 10:42:26
Vielleicht hat sweclockers auch die Codenamen der GPU-Familien vertauscht und es ist doch Sea Islands?

S940
2013-05-30, 14:02:55
Mal was Anderes, wir sind ja davon ausgegangen, daß auf der HD7790 mit dem Bonaire-Chip das ganz normale GCN1 zum Einsatz kam. Dort fehlen ja sowohl die aufgebohrten (und mehr) ACEs, das FLAT-Adressraum und noch so ein paar Kleinigkeiten der GCN1.1/"C.I."-Generation. Nun bin ich gerade über diese Benchmarks (ein paar OpenCL-Tests von Sandra2013) (http://www.sisoftware.info/redirect/review.php?id=8975) gestolpert (die gibt es auch noch in double precision (http://www.sisoftware.co.uk/?d=qa&f=gpu_finance_fp64&l=de&a=)). Und irgendwie hängt da eine 7790 eine HD7850 z.T. sehr massiv ab. Ich traue ja normalerweise Sandra nicht über den Weg (und ihren ominösen Tests noch weniger, vielleicht haben die auch die 7850 und die 7750 mit irgendeiner Uralt-Treiberversion gefahren), aber irgendwas muß das ja verursachen. Artefakt des Benchmarks oder hat AMD da doch irgendwo unter der Haube geschraubt, nur eben das es normalerweise nicht so auffällt? Ideen?
Hmm läuft Dein Milkyway-Boinc-Projekt noch auf den aktuellen GPUs? Das benötigte doch auch DP, sollte also ne gute Verifikation geben, denn Vergleichswerte mit anderen Karten sollte es zuhauf geben. Wenn sich dort die Sandra-Werte bestätigen, kann man mit der Spekulation anfangen.

Gipsel
2013-05-30, 14:18:51
Hmm läuft Dein Milkyway-Boinc-Projekt noch auf den aktuellen GPUs? Das benötigte doch auch DP, sollte also ne gute Verifikation geben, denn Vergleichswerte mit anderen Karten sollte es zuhauf geben. Wenn sich dort die Sandra-Werte bestätigen, kann man mit der Spekulation anfangen.Das ist schon lange nicht mehr meins. Ich habe ehrlich gesagt keine Ahnung, was und wie die da jetzt genau rechnen. Aber nach entsprechenden Werten könnte man mal stöbern, das stimmt.
Edit: Auf die Schnelle finde ich da nichts. Probiert sowas niemand einfach mal aus?

fondness
2013-05-30, 17:38:52
Dazu gibts zwei Anmerkungen: 1.) 20nm läuft dann wirklich besser als erwartet und 2.) es wird ein Paperlaunch, Massenverfügbarkeit erst in 2014.

Mit Abstand am Wahrscheinlichsten: 28nm Prozess.

john carmack
2013-05-30, 18:19:25
Mit Abstand am Wahrscheinlichsten: 28nm Prozess.


Laut AMD kommen die Karten auf jeden Fall 2013!
http://www.eteknix.com/rumour-amds-next-gen-20nm-volcanic-island-gpus-coming-in-2013/

Ob 20nm oder 28nm wird nicht gesagt...

Wobei ich mich wirklich frage ob im Nov. - Dez. ein "28nm" refresh noch Sinn ergibt?!
Vor allem deswegen weil es die ersten 28nm Karten ja schon 16 Monate gibt.

M4xw0lf
2013-05-30, 19:16:52
Laut AMD kommen die Karten auf jeden Fall 2013!
http://www.eteknix.com/rumour-amds-next-gen-20nm-volcanic-island-gpus-coming-in-2013/

Ob 20nm oder 28nm wird nicht gesagt...

Wobei ich mich wirklich frage ob im Nov. - Dez. ein "28nm" refresh noch Sinn ergibt?!
Vor allem deswegen weil es die ersten 28nm Karten ja schon 16 Monate gibt.
Leider ist das nicht "Laut AMD". Der Mensch bei Rage3d hat zwar Interviews geführt mit Jim Keller und Chekib Akrout, aber die Aussage über VI ist kein Zitat daraus, sondern eine Aussage vom Autor.

][immy
2013-05-30, 20:01:48
würde nicht eigentlich 24nm erst mal sinn ergeben, wenn 20 noch nicht bereit ist. ich weiß es ist nur ein halber schritt, aber sollte die kosten doch bereits senken können und den verbrauch und die abwärme ebenfalls geringfügig.

2phil4u
2013-05-30, 20:17:59
Was ist denn mit FDSOI ?

Klar waers teuer wie die Sau, aber eine etwas niedriger getaktete Grafikkarte, die mit 0.7 Volt laueft (FDSOI und Finfet sind bei niedrigeren Takraten umso efffektiver, da sie sehr weit mit der Spannung runtefahren knönnen)bei doppelt soviel Shadern waere doch von der Performance/Watt Seite her genial.
Aber halt gross.

fondness
2013-05-30, 21:02:02
Laut AMD kommen die Karten auf jeden Fall 2013!
http://www.eteknix.com/rumour-amds-next-gen-20nm-volcanic-island-gpus-coming-in-2013/

Ob 20nm oder 28nm wird nicht gesagt...

Wobei ich mich wirklich frage ob im Nov. - Dez. ein "28nm" refresh noch Sinn ergibt?!
Vor allem deswegen weil es die ersten 28nm Karten ja schon 16 Monate gibt.

Man darf die Bedeutung des Fertigungsprozesses auch nicht überschätzen. Die größten Fortschritten bei Perf/Watt werden durch das Design gemacht. Der Einfluss des Fertigungsprozesses wird in Zukunft weiter abnehmen. 20nm wird zu Beginn teuer sein und schlechte Yield-Raten sowie eine unzureichende Verfügbarkeit ausweisen.

Godmode
2013-05-30, 21:21:09
Richtig, Stichwort "on die data movement".

robbitop
2013-05-31, 10:00:10
Man darf die Bedeutung des Fertigungsprozesses auch nicht überschätzen. Die größten Fortschritten bei Perf/Watt werden durch das Design gemacht. Der Einfluss des Fertigungsprozesses wird in Zukunft weiter abnehmen. 20nm wird zu Beginn teuer sein und schlechte Yield-Raten sowie eine unzureichende Verfügbarkeit ausweisen.
Bringt ein Shrink nicht normalerweise fast doppelt so viele Transistoren bei ähnlicher Fläche und ähnlichem Verbrauch? Und selbst wenn es nur 1,5-1,6x ist. Sind dann gleich mal 50-60% mehr Leistung/W.

HOT
2013-05-31, 10:24:47
Mit Abstand am Wahrscheinlichsten: 28nm Prozess.
Wär ne Option. Allerdings, wie groß soll das Teil werden? Wenn diese gewaltigen Shadermengen kommen brauchts nen Shrink, da kommen die denke ich nicht drumherum.

Man darf die Bedeutung des Fertigungsprozesses auch nicht überschätzen. Die größten Fortschritten bei Perf/Watt werden durch das Design gemacht. Der Einfluss des Fertigungsprozesses wird in Zukunft weiter abnehmen. 20nm wird zu Beginn teuer sein und schlechte Yield-Raten sowie eine unzureichende Verfügbarkeit ausweisen.

Bei CPU vllt. aber bei GPU ist die Einflussmöglichkeit der Arch beschränkt. Die neue Arch wird viele Transistoren brauchen weil sie viel mehr Einheiten bietet. Da kommst nicht dran vorbei. Bei CPU übrigens auch, siehe BD :D.

Der erste VI ist denke ich ganz normal 20nm popelig planar aber dafür früh.

fondness
2013-05-31, 11:20:36
Bringt ein Shrink nicht normalerweise fast doppelt so viele Transistoren bei ähnlicher Fläche und ähnlichem Verbrauch? Und selbst wenn es nur 1,5-1,6x ist. Sind dann gleich mal 50-60% mehr Leistung/W.

Das war einmal. Wenn du heute einen Chip einfach nur shrinkst ohne etwas am Design zu verändern bringt das nicht mehr so viel und es wird auch in Zukunft immer weniger bringen. Die Schaltgeschwindigkeit der Transistoren, womit die Foundries immer so toll werben spielen kaum mehr eine Rolle. Der Verbrauch geht vielleicht um 20% herunter wenn man Glück hat (hängt natürlich immer vom konkreten Fall ab), aber sicher nicht analog zur Flächenersparnis. Das Potential für die Zukunft und die tollen Fortschritte welche in letzter Zeit gemacht wurden sind größtenteils auf das Design zurück zu führen.

robbitop
2013-05-31, 11:25:21
Von 40 nm auf 28 nm hat man bei gleicher Leistungsaufnahme GF110 -> GK110 fast doppelte Leistung und fast doppelt so viele Transistoren geschafft. Kann also schonmal nicht ganz stimmen, was du sagst.

Godmode
2013-05-31, 11:26:35
Von 40 nm auf 28 nm hat man bei gleicher Leistungsaufnahme GF110 -> GK110 fast doppelte Leistung und fast doppelt so viele Transistoren geschafft. Kann also schonmal nicht ganz stimmen, was du sagst.

Das meinst du jetzt aber nicht ernst oder? GF110 != GK110
Nur weil GK110 so ausgelegt wurde, konnte dieser Wert erreicht werden. Wenn sie GF110 nur geschrinkt hätten, hätte sie niemals die doppelte Leistung/mm² geschafft. Das wurde hier schon von einigen anderen Leuten gesagt, die sich besser auskennen, als ich.

fondness
2013-05-31, 11:28:02
Von 40 nm auf 28 nm hat man bei gleicher Leistungsaufnahme GF110 -> GK110 fast doppelte Leistung und fast doppelt so viele Transistoren geschafft. Kann also schonmal nicht ganz stimmen, was du sagst.

Ist ja auch die selbe Architektur. :freak:
Der Perf/Watt Fortschritt bei AMD war bsw. nicht mal halb so groß von 40nm auf 28nm.
NV hat bei GK110 einige "Sündenfälle" beseitigt, welche für den verhältnismäßig hohen Verbrauch verantwortlich war.

robbitop
2013-05-31, 11:56:05
Klar und ohne Shrink hätte man den Großteil dessen dennoch realisieren können.... :freak:

boxleitnerb
2013-05-31, 11:57:19
Hatte Ailuros nicht mal gemeint, Nvidia hätte GF110 probeweise auf 28nm geshrinkt und das Ergebnis wäre ziemlich gut geworden?

robbitop
2013-05-31, 12:02:47
Die genau selbe Architektur hat man leider selten zwischen 2x Shrinks. Aber auch GT200 wurde ~60...70 % schneller als G80. Bei ähnlicher Architektur, ähnlicher Leistungsaufnahme und ähnlicher Kerngröße. Da kam vieles vom Shrink. Analog ähnliches von GT200 auf die Fermi Reihe - insbesondere GF110.

Ich kann mir nicht vorstellen, dass Shrinks so unwichtig sein sollen. Dafür kam dadurch in der Vergangenheit einfach zu hohe Einheitensteigerungen aus Shrinks.

fondness
2013-05-31, 12:03:09
Klar und ohne Shrink hätte man den Großteil dessen dennoch realisieren können.... :freak:

Die Perf/Watt eines Kepler in 40nm wäre nicht so viel schlechter gewesen wie du offenbar glaubst. :)

fondness
2013-05-31, 12:08:40
Die genau selbe Architektur hat man leider selten zwischen 2x Shrinks. Aber auch GT200 wurde ~60...70 % schneller als G80. Bei ähnlicher Architektur, ähnlicher Leistungsaufnahme und ähnlicher Kerngröße. Da kam vieles vom Shrink. Analog ähnliches von GT200 auf die Fermi Reihe - insbesondere GF110.

Ich kann mir nicht vorstellen, dass Shrinks so unwichtig sein sollen. Dafür kam dadurch in der Vergangenheit einfach zu hohe Einheitensteigerungen aus Shrinks.

Ich habe nicht gesagt das sie vollkommen unwichtig sind, ich habe gesagt das ihre Bedeutung zunehmend abnimmt und von vielen überschätzt wird. Es dürfte auch kein Geheimnis sein das seit vielen Jahren das oberste Ziel eines jeden Chip-Architekten die Perf/Watt ist. Ich arbeite in einem Unternehmen wo immer wieder absolut funktionsfähige Chips neu designt werden müssen weil sie ganz einfach zu viel Strom schlucken. Da hilft kein Shrink um das auszugleichen, die Fortschritte welche hier alleine durch das Design erreicht werden sind beeindruckend. Was für dich oberflächlich die selbst Architektur sein mag, hat unterm Kern womöglich erhebliche Änderungen erfahren um die Energieffizienz zu erhöhen.

HOT
2013-05-31, 12:15:33
"Zunehmend Abnehmen" (geil) ja, aber wir sind noch sehr weit davon entfernt, dass es irrelevant wird. Selbst wenn du nicht das Doppelte mit 20nm schaffst, 50% mehr Shader mit veränderter Arch schaffst du auf jeden Fall, aber nur mit neuer Fertigung, nicht ohne. Da es gerüchteweise ja doppelt so viele Shader werden sollen, wird wohl der Takt sinken (weniger Spannung) und die Größe steigen (400mm²+). Damit kommt man dann wieder auf die üblichen 60-80% Leistungszuwachs bei einer neuen Generation - aber nicht ohne neue Fertigung.

AnarchX
2013-06-01, 10:37:33
http://news.mydrivers.com/img/20130531/s_7a86d051c2104e8697e8b0bb4412fd15.jpg

http://news.mydrivers.com/img/20130531/s_6535e167745b406497a869ba90107f79.jpg

http://news.mydrivers.com/1/265/265147.htm

Aus der gleichen Präsentation, wie die Kaveri Folie?

M4xw0lf
2013-06-01, 10:53:14
Man beachte das böse Wort "OEM"...

Knuddelbearli
2013-06-01, 12:22:43
8990 Series ?!?

Akkarin
2013-06-01, 12:29:59
Wird wohl einfach eine umbenannte 7990 sein ?

Zergra
2013-06-01, 12:42:10
Wird wohl einfach eine umbenannte 7990 sein ?
Genau so ist es auch, die meisten Karten von der Folie gibt es so schon.

Knuddelbearli
2013-06-01, 13:03:14
geht mir um das Series. außerdem hätte ich noch nie eine Dual OEM gesehen

Ronny145
2013-06-01, 13:33:08
http://news.mydrivers.com/img/20130531/s_7a86d051c2104e8697e8b0bb4412fd15.jpg

http://news.mydrivers.com/img/20130531/s_6535e167745b406497a869ba90107f79.jpg

http://news.mydrivers.com/1/265/265147.htm

Aus der gleichen Präsentation, wie die Kaveri Folie?



Ja, hier: http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MTg3NTM3fENoaWxkSUQ9LTF8VHlwZT0z&t=1

mczak
2013-06-07, 04:20:14
Hat jemand eine Ahnung was eine Radeon HD8890A sein soll? Die steckt im Asus All In One 2702.

john carmack
2013-06-07, 09:41:29
Hat jemand eine Ahnung was eine Radeon HD8890A sein soll? Die steckt im Asus All In One 2702.


Wenn es dieser hier ist:
https://www.asus.com/AllinOne_PCs/ET2702IGTH/

dann handelt es sich wohl um eine Mobil-Lösung also aus der "hd8xxx m" Serie...

mczak
2013-06-07, 23:19:32
Wenn es dieser hier ist:
https://www.asus.com/AllinOne_PCs/ET2702IGTH/

dann handelt es sich wohl um eine Mobil-Lösung also aus der "hd8xxx m" Serie...
Naja also da gibt es ja auch keine 8890 (jedenfalls keine die bekannt wäre). Könnte dann ein relativ niedrig getakteter Bonaire sein? Jedenfalls sicher nichts wirklich neues.

Zergra
2013-06-07, 23:44:55
Naja also da gibt es ja auch keine 8890 (jedenfalls keine die bekannt wäre). Könnte dann ein relativ niedrig getakteter Bonaire sein? Jedenfalls sicher nichts wirklich neues.
Würde eher sagen das es dabei um eine HD7790 handelt ...

Pentium M
2013-06-08, 02:49:40
Hätte auch auf Bonaire getippt. Pustekuchen (http://www.techpowerup.com/gpudb/2213/radeon-hd-8890m.html) Released:Apr 1st, 2013 Ein Schelm wer böses dabei denkt.

mczak
2013-06-08, 05:00:17
Hätte auch auf Bonaire getippt. Pustekuchen (http://www.techpowerup.com/gpudb/2213/radeon-hd-8890m.html) Released:Apr 1st, 2013 Ein Schelm wer böses dabei denkt.
Also den TPU-Tabellen glaube ich keinen einzigen Eintrag :-)
Venus wäre dann ein Cape Verde mit 256bit Bus, und das bei genau gleicher Grösse. Die Wahrscheinlichkeit dafür dürfte ziemlich genau bei 0.0% liegen.
Ein Cape Verde _könnte_ es aber schon auch sein (allerdings müsste der etwas höhere Taktraten haben, denn so wie bei TPU gelistet entspräche das genau der HD8870M), auch wenn man da noch 8890M vs. 8890A klären müsste - kann ja unter Umständen etwas ganz anderes sein.

Skysnake
2013-06-08, 10:05:43
War das nicht die Seite, die vor dem Launch der HD7k Serie nicht total ins Klo gegriffen hat mit so ziemlich jedweder Information?

Die sind doch nen "zweiter" OBR, und ändern mit der Zeit alles mögliche relativ klamm heimlich um, damits so aussieht, als ob Sie "getroffen" hätten, aber real rennen die halt wohl durch Foren wie hier und saugen alles auf...

AnarchX
2013-06-08, 10:16:18
Die Datenbank von TPU ist schon eine gute Sache. Es fehlen aber halt Quellen und die spekulativen SKUs sollte man rauslassen.

M4xw0lf
2013-06-09, 11:31:15
Wie kommts, dass DAS hier:

http://cdn3.wccftech.com/wp-content/uploads/2013/06/Radeon-HD-89701.jpeg

noch nicht verlinkt wurde? Tsts. ;)
Angebliche Specs: 2304 SPs, ~1GHz Takt, 250W TDP, 3GB 3250 MHz GDDR5, 48 ROPs, 144 TMUs.
Klingt langweilig genug um wahr zu sein.
http://wccftech.com/rumor-amd-radeon-hd-8970-pictured-features-curacao-xt-core-2304-sps/

boxleitnerb
2013-06-09, 11:36:40
Das Bild ist wohl Fake, denn das Logo wurde schon vor längerer Zeit geändert laut Videocardz.com. Angeblich eine Montage auf Basis von Malta.
Die Specs klingen aber glaubwürdiger als das, was bis vor Kurzem im Netz kursierte (6 GB, 1100 Basistakt, 1750 MHz Speichertakt).

Knuddelbearli
2013-06-09, 11:40:32
wäre wohl knapp 10% mehr FPS aber auch nur bei einem dreifachen front end

na das will ich mal nicht hoffen ^^

M4xw0lf
2013-06-09, 11:41:42
Logos sind Schall und Rauch, GERADE bei AMD ^^
Ich finde das Bild sieht schon ziemlich gut aus, mir fallen keine Stellen auf wo es offensichtlich bearbeitet wurde.

Skysnake
2013-06-09, 11:48:36
Vorallem passt der Kühler zum neuen Ref Design, welches auch bei der 7990 verwendet wird ;)

Match-Maker
2013-06-09, 16:53:35
wäre wohl knapp 10% mehr FPS aber auch nur bei einem dreifachen front end

na das will ich mal nicht hoffen ^^
Wobei, mit den Specs und dreifachem Frontend tippe ich eher auf etwa 20% mehr Fps.

Nakai
2013-06-09, 17:18:59
Wobei, mit den Specs und dreifachem Frontend tippe ich eher auf etwa 20% mehr Fps.

Ich glaube eher an einem Fake, aber ansonsten kann man sagen, dass 20% ziemlich pessimistisch geschätzt sind. Zum einen hat das Ding 48 ROPs und ein 50% größeres Frontend. An der reinen Rechenleistung und Füllrate hat es Tahiti noch nie gefehlt, da waren eher das Backend(wenig ROPs) und Frontend ein Problem. Kleinere GCN-Karten zeigen ja, was die Architektur wirklich leistet, wenn nix limitiert. Schon allein das bessere Frontend und das stärkere Backend sollten locker für 10 bis 20% Mehrperformance ausreichen, dazu noch etwas mehr Rechenleistung und man wird einen Sprung von etwa 30% erreichen.

Für mich macht die Karte keinen Sinn...

boxleitnerb
2013-06-09, 17:27:49
Naja Pitcairn ist zwar etwas effizienter was die Umsetzung der Rohleistung angeht als Tahiti, aber rein von den Daten her müsste er die 660 Ti schlagen, wozu ihm aber noch 10-15% fehlen. Da limitiert also auch noch irgendwas.

Duplex
2013-06-09, 19:21:44
Wird sicher ein Fake sein, wenn überhaupt gibt es erst 1 Monat vor Release glaubwürdige Informationen.

Was die Performance angeht, diesmal braucht man nicht wie Cayman die Tesselation Performance verbessern, man braucht nur die Einheiten erweitern und dafür sorgen das es noch besser skaliert, Frontend aufbohren und das Problem ist gelöst, bei angenommenen "450mm²" sollte man mit +30% Leistung rechnen.

Zergra
2013-06-09, 20:13:06
Wird sicher ein Fake sein, wenn überhaupt gibt es erst 1 Monat vor Release glaubwürdige Informationen.

Was die Performance angeht, diesmal braucht man nicht wie Cayman die Tesselation Performance verbessern, man braucht nur die Einheiten erweitern und dafür sorgen das es noch besser skaliert, Frontend aufbohren und das Problem ist gelöst, bei angenommenen "450mm²" sollte man mit +30% Leistung rechnen.
Wenn AMD gesagt hat das sie das ganze Jahr die Performance Krone halten möchten, und da sie wohl nicht mit Titan gerechnet haben werden sie nachlegen. Nur weil irgendwelche Folien was anderes sagen müssen wir das nicht glauben.

M4xw0lf
2013-06-09, 20:16:08
Wenn AMD gesagt hat das sie das ganze Jahr die Performance Krone halten möchten [...]
Wo sagen sie das denn?:confused:

Zergra
2013-06-09, 21:00:39
Wo sagen sie das denn?:confused:
Gab doch damals einen Text, als die Ghz Edition rauskram. Den müsste ich suchen .

Gipsel
2013-06-09, 22:35:44
Die neueste Ruby-Demo lief laut AMD auf der "world's fastest graphics card", der HD7990. ;)

Spasstiger
2013-06-09, 23:27:50
Naja Pitcairn ist zwar etwas effizienter was die Umsetzung der Rohleistung angeht als Tahiti, aber rein von den Daten her müsste er die 660 Ti schlagen, wozu ihm aber noch 10-15% fehlen. Da limitiert also auch noch irgendwas.
Die HD 7870 liegt von den Rohdaten her ziemlich gleichauf mit der GTX 660 Ti. Bei der Rechenleistung und der Speicherbandbreite liegt die HD 7870 minimal vorne, bei der Texelfüllrate hat die GTX 660 Ti einen klaren Vorteil (+28%).
Und je nach Spiel und Setting liegt auch die eine oder die andere Karte von der Performance her vorne. In FullHD hat meistens noch die 660 Ti den Vorteil von rund 10%, aber in 2560x1600 zieht die 7870 schon öfters mal vorbei. Die Performance von Pitcairn ist konsistent mit den Rohdaten im Vergleich zu Nvidia.

boxleitnerb
2013-06-09, 23:43:22
Dafür hat die 7870 deutlichst mehr Pixelfüllrate, das hast du vergessen. So ganz konsistent ist das für mich nicht.

Gipsel
2013-06-09, 23:59:18
Dafür hat die 7870 deutlichst mehr Pixelfüllrate, das hast du vergessen. So ganz konsistent ist das für mich nicht.Die eigentliche Anzahl der ROPs ist oft gar nicht so wichtig im Vergleich zur Bandbreite (deswegen hat ja auch Tahiti nur 32ROPs bekommen aber ein 384Bit Interface). Außerdem kann das Setup beim GK104 (auch bei der GTX660Ti) bis zu 4 Dreiecke pro Takt durchschleusen, das bei Pitcairn nur 2, die Rasterleistung ist für große Dreiecke (>>16 Pixel) identisch bei 32Pixel/Takt. Die GTX660Ti kommt aber insgesamt besser mit vielen kleinen Dreiecken aus (wo sie dann bis fast Faktor 2 schneller sein kann, mit Tess gegebenenfalls sogar mehr). Das Frontend der GTX660Ti ist also in der Beziehung deutlich robuster.

M4xw0lf
2013-06-10, 09:15:06
Wenn AMD gesagt hat das sie das ganze Jahr die Performance Krone halten möchten, und da sie wohl nicht mit Titan gerechnet haben werden sie nachlegen. Nur weil irgendwelche Folien was anderes sagen müssen wir das nicht glauben.
Die neueste Ruby-Demo lief laut AMD auf der "world's fastest graphics card", der HD7990. ;)

Ja so hab ich mir das gedacht - das "Halten der Performancekrone" ist also definitiv kein Hinweis auf eine neue highend single-GPU Lösung.

gedi
2013-06-11, 15:40:03
http://up.picr.de/14806807ik.jpg

M4xw0lf
2013-06-11, 15:44:01
http://up.picr.de/14806807ik.jpg
Da rechts unter Memory konnte jemand nicht rechnen (bei der Bandbreite).

Iruwen
2013-06-11, 15:59:14
Wollte auch grad fragen obs da noch einen Faktor gibt den ich nicht kenne oder ob das einfach Blödsinn ist.

Nakai
2013-06-11, 16:06:32
2304SPs (32 CUs) -> 3fach Frontend (16 ROPs pro Frontend)
2560SPs (40 CUs) -> 4fach Frontend (12 ROPs pro Frontend)

Ich glaube, dass weder das eine noch das andere kommt.

gedi
2013-06-11, 16:10:34
Quelle (http://gpuboss.com/gpus/Radeon-HD-8970-vs-GeForce-GTX-780)

LSSJBroly
2013-06-11, 16:16:05
Quelle (http://gpuboss.com/gpus/Radeon-HD-8970-vs-GeForce-GTX-780)

Ändert dennoch nichts daran, dass die Angabe der Bandbreite und der Texture-Füllrate der GTX 780 falsch ist.

Gipsel
2013-06-11, 16:38:51
2304SPs (32 CUs) -> 3fach Frontend (16 ROPs pro Frontend)
2560SPs (40 CUs) -> 4fach Frontend (12 ROPs pro Frontend)

Ich glaube, dass weder das eine noch das andere kommt.Das mag sicher so sein (den angegebenen Link kann man ja kaum als vertrauenserweckende Quelle bezeichnen), allerdings wäre es schon möglich, daß AMD die Anzahl der ROPs von der Breite des Frontends entkoppelt (wie es auch schon weitgehend von der Breite des Speicherinterfaces entkoppelt ist). Bei nVidia gibt es ja auch keine Beziehung von der Anzahl der Setup/Raster-Einheiten zur Anzahl der ROPs (die aber bei nV fest an die Speicherkanäle gebunden sind). 48 ROPs würden eigentlich für so ziemlich Alles ausreichen, insbesondere auch durch den hohen Takt. Ein robusteres Frontend mit bis zur 4 Dreiecken pro Takt (maximal 64 Pixel pro Takt gerastert) wäre allerdings wünschenswert und würde vermutlich mehr bringen als mehr ROPs. Allerdings könnte das durchaus ein paar Umbauten erfordern, da ja die ROPs auch die Hierarchical-Z Daten erzeugen (die zum frühzeitigen Verwerfen von Dreiecken in den Setup/Raster-Einheiten dienen). Mittel- bis langfristig wäre das sicherlich sinnvoll (macht das Design flexibler auf verschiedene GPU-Größen konfigurierbar), aber ob es bereits mit der nächsten Generation kommt, keine Ahnung.

Nakai
2013-06-11, 17:40:30
Das mag sicher so sein (den angegebenen Link kann man ja kaum als vertrauenserweckende Quelle bezeichnen), allerdings wäre es schon möglich, daß AMD die Anzahl der ROPs von der Breite des Frontends entkoppelt (wie es auch schon weitgehend von der Breite des Speicherinterfaces entkoppelt ist). Bei nVidia gibt es ja auch keine Beziehung von der Anzahl der Setup/Raster-Einheiten zur Anzahl der ROPs (die aber bei nV fest an die Speicherkanäle gebunden sind). 48 ROPs würden eigentlich für so ziemlich Alles ausreichen, insbesondere auch durch den hohen Takt. Ein robusteres Frontend mit bis zur 4 Dreiecken pro Takt (maximal 64 Pixel pro Takt gerastert) wäre allerdings wünschenswert und würde vermutlich mehr bringen als mehr ROPs. Allerdings könnte das durchaus ein paar Umbauten erfordern, da ja die ROPs auch die Hierarchical-Z Daten erzeugen (die zum frühzeitigen Verwerfen von Dreiecken in den Setup/Raster-Einheiten dienen). Mittel- bis langfristig wäre das sicherlich sinnvoll (macht das Design flexibler auf verschiedene GPU-Größen konfigurierbar), aber ob es bereits mit der nächsten Generation kommt, keine Ahnung.

Ich stimme dir zu. Ich wollte jedoch eher auf ein Ungleichgewicht zwischen Rasterleistung und ROP-Leistung hindeuten. Wie findet die Verteilung zwischen den Renderblöcken(Tahiti hatte pro Frontend 16 CUs) aus? Liegen die Daten nach dem Frontend unwiderruflich auf einem Block/Modul, oder gibt es hier auch eine dynamischere Lösung(noch ne Crossbar?).
Je Frontend können ja 16 Pixel gerastert werden, welche dann auf 12 bzw. 16 ROPs stoßen(je nach Config).

Ich sehe die 2304SP-Version als etwas wahrscheinlicher an, als jegliche 2560SP-Version. Ich denke zwar, dass wir kein SeaIslands mehr sehen werden, sondern ein Volcanic Islands in 28nm für Ende/Q4 2013.

Achja, die neuen Gerüchte sprechen für GCN 2.0 für eine theoretische HD8970 was VI andeutet.

Knuddelbearli
2013-06-12, 07:30:37
2560SPs (40 CUs) -> 4fach Frontend

würde ich mir dann vermutlich sogar kaufen XD

sonst halt auf 20nm warten

AnarchX
2013-06-12, 08:30:05
Wie kommts, dass DAS hier:

http://cdn3.wccftech.com/wp-content/uploads/2013/06/Radeon-HD-89701.jpeg

noch nicht verlinkt wurde? Tsts. ;)
Angebliche Specs: 2304 SPs, ~1GHz Takt, 250W TDP, 3GB 3250 MHz GDDR5, 48 ROPs, 144 TMUs.
Klingt langweilig genug um wahr zu sein.
http://wccftech.com/rumor-amd-radeon-hd-8970-pictured-features-curacao-xt-core-2304-sps/

Wohl eine 8970 OEM (797GHz Rebrand) mit neuem Lüfter-Design: http://www.techpowerup.com/gpudb/1972/radeon-hd-8970-oem.html

M4xw0lf
2013-06-12, 08:56:43
Wohl eine 8970 OEM (797GHz Rebrand) mit neuem Lüfter-Design: http://www.techpowerup.com/gpudb/1972/radeon-hd-8970-oem.html
Macht Sinn. Schade.

V2.0
2013-06-12, 15:21:26
Würde auch Sinn machen den Kühler für Curacao XT zu verwenden.

Nakai
2013-06-12, 15:23:41
2560SPs (40 CUs) -> 4fach Frontend

würde ich mir dann vermutlich sogar kaufen XD

sonst halt auf 20nm warten

20nm in einem Jahr, früher gehts ned.

GCN2.0(VI) soll ja eine doppelte Effizienz bringen(?), ergo reicht 28nm immer noch. Außerdem wird gerne vergessen, dass die Grafikeinheiten in den APUs auch zu irgendeiner Serie gehören. Kabini hat eine SI-GPU drin. Kaveri wird eine VI-GPU enthalten(GCN 2.0). Sea Islands ist bereits ausgerollt, wurde wohl nur zusammengestrichen.

Zergra
2013-06-12, 15:31:24
20nm in einem Jahr, früher gehts ned.

AMD lässt heimlich bei Intel in 22nm Fertigen :freak:

Gipsel
2013-06-12, 15:57:48
Außerdem wird gerne vergessen, dass die Grafikeinheiten in den APUs auch zu irgendeiner Serie gehören. Kabini hat eine SI-GPU drin. Kaveri wird eine VI-GPU enthalten(GCN 2.0). Sea Islands ist bereits ausgerollt, wurde wohl nur zusammengestrichen.
Kabini ist weiterentwickelt als die SI-Generation. Er entspricht dem C.I./GCN1.1-Level, wie man z.B. an den vier aufgebohrten ACEs (mit jeweils 8 statt nur einer Queue) und dem FLAT-Adressierungsmodell (beides hat z.B. auch Bonaire nicht, welcher demzufolge technisch zu S.I. zählt) erkennt. Kabini dürfte auf einem Techlevel mit der PS4/Orbis sein (enthält ebenfalls die erweiterten ACEs).

Nakai
2013-06-12, 16:25:48
Ich weiß nicht was Bonaire ist. Es wird gerne zu Sea Islands gezählt, da es schon ein verbesserten Funktionsumfang zu Southern Islands besitzt. Sea Islands zähle ich eher zu GCN1.1, während VI zu GCN2.0 zählt. Ich kenne auch keine AMD Präsentation wo eindeutig steht, dass Bonaire GCN 1.1 ist. In vielen Reviews wird gerne auf GCN 1.1 verwiesen, in anderen wird kein Wort über GCN1.1 verloren.

GCN 1.0 Souther Islands
|
Bonaire
|
GCN 1.1 Kabini, Sea Islands
|
GCN 2.0 Kaveri, Volcanic Islands

Für mich sieht das alles nach einem starken Gepfusche(auch dynamic execution) aus. Da wurde einiges vor einem halben bis einem Jahr geändert, Chips gestrichen, geändert etc. Mit der Einführung der HD7970GHz wurde wohl einigen Leuten bei AMD bewusst, dass der geplante und mögliche Tahitinachfolger viel zu wenig Performanceplus bringt, dass er ohne weiteres einfach gestrichen worden ist.

Locuza
2013-06-12, 17:12:25
Und was genau hat Bonaire mehr?
Und bei Kaveri glaube ich eher an GCN1.1.

Gipsel
2013-06-12, 17:22:30
Ich weiß nicht was Bonaire ist. Es wird gerne zu Sea Islands gezählt, da es schon ein verbesserten Funktionsumfang zu Southern Islands besitzt.Tut es nicht. Es ist schlicht GCN 1.0 in einer neuen Zusammenstellung.
Sea Islands zähle ich eher zu GCN1.1, während VI zu GCN2.0 zählt. Ich kenne auch keine AMD Präsentation wo eindeutig steht, dass Bonaire GCN 1.1 ist. In vielen Reviews wird gerne auf GCN 1.1 verwiesen, in anderen wird kein Wort über GCN1.1 verloren.Die Bezeichnung GCN1.1/2.0 ist ja auch nicht offiziell. AMD ist "on record", daß die Techlevels und Produktgenerationen nicht mehr übereinstimmen müssen. Das beobachtet man ja auch schon eine Weile. Die Technik erfährt eine laufende Weiterentwicklung und welche Version davon genau zu einem Produkt wird, wird bei jedem Produkt neu entschieden. Unabhängig von dieser Weiterentwicklung der Technik wird das Ganze unter jährlich wechselnden Namen vermarktet (wie z.B. "Sea Islands"). Sea Islands und "GCN 1.1" sind nicht deckungsgleich, wie man an Bonaire sieht (ganz klar GCN1.0-Technik). Das ISA-Manual, was die "GCN1.1"-Architektur beschrieben hat wurde ja auch deshalb zurückgezogen (offenbar nach Intervention seitens Dave Baumanns, der darauf bei B3D angesprochen wurde), weil die dort benutzte Bezeichnung ("C.I.", nichts Ausgeschriebenes) nicht so richtig paßte. Das "GCN 1.1" ist daraufhin in den Foren entstanden, weil man dem Kind ja irgendwie einen Namen geben muß, offiziell ist das wie gesagt nicht.
GCN 1.0 Souther Islands
|
Bonaire
|
GCN 1.1 Kabini, Sea Islands
|
GCN 2.0 Kaveri, Volcanic Islands
Wie gesagt:
Southern Islands: Produktlinie für 2012 (Vorstellung Ende 2011)
Sea Islands: Produktlinie für 2013 (bei diskreten Grafikkarten mit reiner GCN1.0-Technik identisch zu Southern-Islands)
Volcanic Islands: Produktlinie für 2014 (Vorstellung vermutlich Ende 2013)

Bonaire ist Null-Weiterentwicklung vom ursprünglichen GCN. Kabini (und zumindest PS4) sind auf GCN1.1-Stand. Kaveri wird vermutlich auch nur GCN1.1 sein, nur eben mit einer noch etwas mehr aufgebohrten integrierten Northbridge für die zusätzlichen HSA-Features.

Locuza
2013-06-12, 17:29:20
Irgendwie muss AMD ja auch das technische IP-Level definieren und in ihren Optimierungsguides schreiben.
Da überlegt sich AMD wohl, wie man das ganze nennen sollte.
Das macht die Sache in Zukunft hoffentlich klarer.

Nakai
2013-06-12, 17:40:36
Tut es nicht. Es ist schlicht GCN 1.0 in einer neuen Zusammenstellung.

Laut Anandtech sollte es doch Unterschiede geben.

Zusätzliche Powerstate-Feature sind enthalten, welche natürlich nicht zum GCN-Feature-Umfang gehören.

Wie gesagt:
Southern Islands: Produktlinie für 2012 (Vorstellung Ende 2011)
Sea Islands: Produktlinie für 2013 (bei diskreten Grafikkarten mit reiner GCN1.0-Technik identisch zu Southern-Islands)
Volcanic Islands: Produktlinie für 2014 (Vorstellung vermutlich Ende 2013)

Ach komm, nur weil AMD gesagt hat, dass Sea Islands zur 2013-Produktlinie gehört, muss es technologisch nicht so sein. Ich bin auch vollkommen gegen die Ansicht, dass Techlevel untereinander vermischt werden sollten(weg vom jeglichen Namensschema). Und ja es ist klar, dass die Featureentwicklung für Hardware ein fließender Vorgang ist.

Bonaire ist Null-Weiterentwicklung vom ursprünglichen GCN. Kabini (und zumindest PS4) sind auf GCN1.1-Stand. Kaveri wird vermutlich auch nur GCN1.1 sein, nur eben mit einer noch etwas mehr aufgebohrten integrierten Northbridge für die zusätzlichen HSA-Features.

Welche Features hat dann GCN2.0? GCN 1.1 hat ja mehr ACEs und verbesserte Working-Queues.

Locuza
2013-06-12, 17:57:53
Laut Anandtech sollte es doch Unterschiede geben.
http://www.anandtech.com/show/6837/amd-radeon-7790-review-feat-sapphire-the-first-desktop-sea-islands/2

Und das falsch in den Hals bekommen vermutlich.
Bonaire bietet ja wohl weder neue Instruktionen noch die verbesserten ACEs.
Die mehr P-States bleiben.

Ach komm, nur weil AMD gesagt hat, dass Sea Islands zur 2013-Produktlinie gehört, muss es technologisch nicht so sein. Ich bin auch vollkommen gegen die Ansicht, dass Techlevel untereinander vermischt werden sollten(weg vom jeglichen Namensschema). Und ja es ist klar, dass die Featureentwicklung für Hardware ein fließender Vorgang ist.
Hat doch Gipsel auch so bisher gesagt?
Unter Sea Island kann sich GCN1 und GCN1.1 verbergen.
Kabini ist glaube ich die erste GPU mit GCN1.1.

Welche Features hat dann GCN2.0? GCN 1.1 hat ja mehr ACEs und verbesserte Working-Queues.
Da kann man ja nur spekulieren, paar Teile davon könnten die sein, die man bei der HSA-Roadmap auflistet:
http://www.abload.de/img/slide-33-102489int.jpg

fondness
2013-06-12, 17:59:38
Kaveri bekommt mit ziemlicher Sicherheit kein GCN2.0. Die Vorlaufzeiten für ein Hochtaktdesign mit Handarbeit wie Steamroller sind viel zu lange. Es hat schon seinen Grund warum es so lange dauert bis es GCN in einen solchen SoC schafft.

Nakai
2013-06-12, 18:10:26
Hat doch Gipsel auch so bisher gesagt?
Unter Sea Island kann sich GCN1 und GCN1.1 verbergen.
Kabini ist glaube ich die erste GPU mit GCN1.1.

Klar hat er das gesagt und es ist schon richtig, nur bin ich einfach der Meinung, dass so eine Granularisierung der Features zwischen den GPUs zu Problemen führen kann, vor allem wenn hier und da Features existieren oder nicht vorliegen.

Gipsel
2013-06-12, 18:41:16
http://www.anandtech.com/show/6837/amd-radeon-7790-review-feat-sapphire-the-first-desktop-sea-islands/2

Und das falsch in den Hals bekommen vermutlich.
Bonaire bietet ja wohl weder neue Instruktionen noch die verbesserten ACEs.Ganz genau. Der Teil ist schlicht falsch. Bei der Kabini-Vorstellung wurde dagegen explizit auf die neuen ACEs und die neuen Instruktionen hingewiesen.
Klar hat er das gesagt und es ist schon richtig, nur bin ich einfach der Meinung, dass so eine Granularisierung der Features zwischen den GPUs zu Problemen führen kann, vor allem wenn hier und da Features existieren oder nicht vorliegen.Es gibt Features der Hardware und es gibt APIs, um diese zu nutzen. Die APIs hinken typischerweise hinterher, sind aber letztendlich das Entscheidende für jede Anwendung. Falls ein API-Feature zwingend auf ein Hardware-Feature angewiesen ist (und ein Feature nicht nur bessere Performance ermöglicht), merkt man das als Endnutzer typischerweise erst ein oder zwei Jahre nach Einführung der Hardware. Und dann kann es eben so sein, daß z.B. irgendwas mit der HD8870 funktioniert aber mit der HD8750 nicht. HD6900 und HD6800 unterscheiden sich doch auch in der Architektur (die HD6900 kann z.B. DP, HD6800 nicht). Kümmert das außer einer Handvoll Leute wirklich die breite Masse?

Nightspider
2013-06-12, 19:09:35
20nm in einem Jahr, früher gehts ned.

9 Monate ;)

Gipsel
2013-06-12, 19:30:37
Gerade noch gesehen:
Ich stimme dir zu. Ich wollte jedoch eher auf ein Ungleichgewicht zwischen Rasterleistung und ROP-Leistung hindeuten. Wie findet die Verteilung zwischen den Renderblöcken(Tahiti hatte pro Frontend 16 CUs) aus? Liegen die Daten nach dem Frontend unwiderruflich auf einem Block/Modul, oder gibt es hier auch eine dynamischere Lösung(noch ne Crossbar?).Das sagt einem keiner so recht. Vermutlich ist es fest.
Je Frontend können ja 16 Pixel gerastert werden, welche dann auf 12 bzw. 16 ROPs stoßen(je nach Config).Es gibt noch eine Export-Crossbar hinter den CUs (bzw. vor den ROPs). D.h., soweit ich weiß kann jede CU Fragments/Pixel an alle ROPs senden, nicht nur einen Teil davon. Es müssen also keine Gruppen von Rasterizern und ROPs gebildet werden (bzw. ROPs einer Shader-Engine zugeordnet werden), selbst wenn die Zuordnung von Rasterizer zu Shader-Engine fest wäre. Es gibt doch so jede Menge Crossbars in einer GPU :rolleyes:.

Etwas mehr Rasterleistung als ROP-Leistung ist im Übrigen eigentlich gar nicht so schlecht. Die nominelle Rasterleistung wird ja nur bei relativ großen Dreiecken erreicht (>>16 Pixel), die maximale ROP-Leistung wird dadurch aber nicht beeinflußt und die frühen Z-Tests verwerfen ja auch noch gegebenenfalls etliche bereits gerasterte Pixel vor den Pixelshadern (und Pixelshader selber können die Pixel auch noch für ungültig erklären, womit der ROP-Export unterbleibt).

Nakai
2013-06-13, 00:56:31
Es gibt noch eine Export-Crossbar hinter den CUs (bzw. vor den ROPs). D.h., soweit ich weiß kann jede CU Fragments/Pixel an alle ROPs senden, nicht nur einen Teil davon. Es müssen also keine Gruppen von Rasterizern und ROPs gebildet werden (bzw. ROPs einer Shader-Engine zugeordnet werden), selbst wenn die Zuordnung von Rasterizer zu Shader-Engine fest wäre. Es gibt doch so jede Menge Crossbars in einer GPU :rolleyes:.


Hu? Vor und nach den ROPs ist eine Crossbar? Das ist sehr interessant und würde so ein Ungleichgewicht aufheben.

Dann ist auch:
Etwas mehr Rasterleistung als ROP-Leistung ist im Übrigen eigentlich gar nicht so schlecht. Die nominelle Rasterleistung wird ja nur bei relativ großen Dreiecken erreicht (>>16 Pixel), die maximale ROP-Leistung wird dadurch aber nicht beeinflußt und die frühen Z-Tests verwerfen ja auch noch gegebenenfalls etliche bereits gerasterte Pixel vor den Pixelshadern (und Pixelshader selber können die Pixel auch noch für ungültig erklären, womit der ROP-Export unterbleibt).

Dann hätte sich sowas erklärt. 48 ROPs reichen dann auch locker aus. Ich dachte, dass die ROPs direkt zu den Modulen zugeordnet werden.

Gipsel
2013-06-13, 08:52:34
Hu? Vor und nach den ROPs ist eine Crossbar? Das ist sehr interessant und würde so ein Ungleichgewicht aufheben.Hinter den ROPs ist keine komplette Crossbar von allen RBEs/ROP-Partitionen zu allen Speichercontrollern. Tahiti hat 6x64-Bit-Controller (zu je 2x32bit Kanälen) und 8 RBEs. Statt einer 8x6 Crossbar gibt es offenbar zwei 4x3 Crossbars (ist weniger Aufwand, der skaliert bei einer Crossbar mit dem Produkt aus Ein- und Ausgängen). Dadurch kann nur mit 128Bit-Granularität der Speichercontroller beschnitten werden (ansonsten würde es ziemlich üble Ungleichgewichte geben, selbst wenn es vielleicht funktionieren würde). wie das bei den kleineren Chips aussieht, weiß man nicht so recht. Könnte sein, daß da die Crosbar hinter den ROPs weggelassen wurde, es also eine feste Zuordnung von ROPs zu Speicherkanälen gibt (wie bei nV).

Dann ist auch:

Dann hätte sich sowas erklärt. 48 ROPs reichen dann auch locker aus. Ich dachte, dass die ROPs direkt zu den Modulen zugeordnet werden.Die ROPs sind auch bei nV nicht den GPCs zugeordnet.

john carmack
2013-06-13, 18:05:29
20nm in einem Jahr, früher gehts ned.

GCN2.0(VI) soll ja eine doppelte Effizienz bringen(?), ergo reicht 28nm immer noch. Außerdem wird gerne vergessen, dass die Grafikeinheiten in den APUs auch zu irgendeiner Serie gehören. Kabini hat eine SI-GPU drin. Kaveri wird eine VI-GPU enthalten (GCN 2.0). Sea Islands ist bereits ausgerollt, wurde wohl nur zusammengestrichen.


Von der ersten kaufbaren 28nm zur ersten kaufbaren 20nm GraKa wären das dann aber über 30 Monate für einen neuen Fertigungsprozess.

Halte ich für ganz schön viel...

Aber im Oktober ein 20nm GCN 2.0 zu bringen, - dafür ist schon fast zu wenig Zeit.

Skysnake
2013-06-13, 18:07:39
Gwöhn dich dran!

Die Prozesse müssen länger halten, weil es immer schwieriger wird.