PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Southern Islands - 28nm - Q3 11 - Q2 12


Seiten : [1] 2 3 4 5 6 7 8 9 10 11

AnarchX
2011-02-24, 10:29:01
AMD even plans to exclusively contract TSMC to build its 28nm Southern Islands chip in the second quarter of 2012.
http://news.cens.com/cens/html/en/news/news_inner_35399.html

Damit hätte der unrühmliche 40nm Prozess 3 Jahre Lebensdauer erreicht...
Dadurch sollte auch 40nm Refreshes bei AMD und Nvidia denkbar werden: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=497622

Neue Codenamen:

http://forum.beyond3d.com/showpost.php?p=1564045&postcount=443

New Zealand (Dual-GPU)
Tahiti
Cape Verde
Pitcairn

Lombok (wohlmöglich VLIW4 für Dual-Graphics mit Trinity)

Nightspider
2011-02-24, 10:41:06
Toll...also noch ewig bei ähnlicher Leistung rumhängen...und zum nächsten Fertigungsprozess wird es bestimmt wieder 3 Jahre dauern...

Nvidia wird wohl auch kaum noch einen neuen Chip auf den Markt werfen und man muss mit der DualChip-Karte GTX590 ein ganzes Jahr überbrücken.

boxleitnerb
2011-02-24, 10:50:40
War da nicht was mit Ende diesen Jahres? Wieso jetzt über ein halbes Jahr später?

AnarchX
2011-02-24, 10:53:31
Die Notebook GPUs wurden für Ende 2011 spekuliert: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=499877

Aber wohl möglich wurde auch hier der Zeitplan an aktuelle Ergebnisse des Prozess angepasst.

Leonidas
2011-02-24, 11:50:22
Ist das nicht immer so, daß Fertigungsprozessse sich nach hinten verschieben? Wenn Anfang des Jahres Q4 gesagt wird, kann man immer damit planen, daß es real ein bis zwei Quartale später wird.

Ansonsten verweis ich mal dezent auf die Sammel-Newseite zu dieser Generation:
http://www.3dcenter.org/news/amd-28nm-gen

AffenJack
2011-02-24, 11:51:12
Ich bin gespannt, dachte das der Prozess vll gar nicht so schlecht vorran kommt, wo man doch schon 5000Wafer/Monat mit 28nmLP produziert. Aber da hat man glaube auch kein HKMG, vll verzögert das den Prozess doch etwas.

Leonidas
2011-02-24, 11:55:34
Ja, es gibt immer einen Riesenunterschied zwischen den verschiedenen Fertigungstechniken für LP und HP. In anderen Bereichen (DRAM, Flash) ist man ja auch schon weiter als 28nm. Einfachere Chips, weniger Stromverbrauch = schneller neue Fertigungstechnologie. Komplizierte, große Chips mit hohem Stromverbrauch = dauert am längsten, ehe eine neue Fertigung steht.

Ragor
2011-02-24, 23:51:12
Daher wundert es mich auch, dass man immer liest AMD/Nvidia würden zuerst ihre Highend Modelle in 28nm auf den Markt bringen. Ich könnte mir vorstellen, dass man erst einen nicht so aufwendigen Chip in 40nm raus bringt. Ähnlich wie damals bei der 4770.

Leonidas
2011-02-25, 15:55:38
Ja, das kann locker passieren. Aber dann wird das ein Chip der alten Architektur. Die neue Architektur wird generell von der Spitze weg angefangen (Cayman ist die Ausnahme von der Regel).

Nightspider
2011-02-25, 16:06:40
Da sich die Abstände zwischen den Shrinks verlängern wäre imho sinnvoll für Nvidia und AMD umzudenken und ab jetzt immer mit kleineren Chips in neue Fertigungsgrößen einzusteigen.

Quaker
2011-02-25, 16:09:44
Da sich die Abstände zwischen den Shrinks verlängern wäre imho sinnvoll für Nvidia und AMD umzudenken und ab jetzt immer mit kleineren Chips in neue Fertigungsgrößen einzusteigen.
Ist ja bei AMD bereits mit der 6000er Serie geschehen...

Duplex
2011-02-25, 16:12:46
wenn AMD den Cypress um 50% vergrößert hätte, dann wäre er heute in 40nm besser als Cayman! Klar größere Chipfläche & höherer Stromverbrauch, aber Cayman ist mit 4AA im schnitt nur 15% schneller als Cypress & benötigt dafür auch noch über 20% mehr Fläche, die 4D Shader sind nicht so gut.

Leonidas
2011-02-25, 19:17:14
Die 4D-Shader kommen vielleicht mit der Zeit, das läßt sich derzeit noch nicht abschließend beurteilen.



Da sich die Abstände zwischen den Shrinks verlängern wäre imho sinnvoll für Nvidia und AMD umzudenken und ab jetzt immer mit kleineren Chips in neue Fertigungsgrößen einzusteigen.


Aus Sicht der Fertigungstechnologisch logisch. Aus Sicht der Grafikchip-Architektur schwierig: Wie will man mit LowCost-Chips die neuen Architektur-Verbesserungen austesten und feinjustieren? Noch dazu, wo die meisten Architektur-Verbesserungen in dem Performance-Segment der LowCost-Chips gar nicht wirklich gebraucht werden. Niemand sagt, daß wenn der LowCost-Chip, der zuerst kommt, gut funktioniert, daß es dann dieselbe Sache bei einem Chip mit achtfacher Größe immer noch genauso gut passt. Kann sein, daß es dort völlig danebengeht - nur dann ist es zu spät, um umzusteuern.

Coda
2011-02-25, 19:30:41
wenn AMD den Cypress um 50% vergrößert hätte, dann wäre er heute in 40nm besser als Cayman! Klar größere Chipfläche & höherer Stromverbrauch, aber Cayman ist mit 4AA im schnitt nur 15% schneller als Cypress & benötigt dafür auch noch über 20% mehr Fläche, die 4D Shader sind nicht so gut.
Milchmädchenrechnung.

john carmack
2011-03-10, 12:06:27
Jemand ne Ahnung was nach 28nm bei Nvidia oder AMD kommen soll?

Ailuros
2011-03-10, 12:19:01
Jemand ne Ahnung was nach 28nm bei Nvidia oder AMD kommen soll?

20nm.

][immy
2011-03-10, 15:48:02
wurde bestimmt schon irgendwo geklärt, aber finde es grad nicht, daher die frage, was ist mit 32nm?
wäre dies nicht eine denkbare lösung für einen re-refresh?
immerhin hat man auch früher schon solche zwischenschritte durchgeführt. oder macht es kaum einen unterschied ob nun 32nm oder 28nm aufgrund der komplexität und ausbeute?

deekey777
2011-03-10, 15:56:31
32 nm wurde übersprungen und wird nicht angeboten, darum solche Notfälle wie Cayman oder Barts.

Nakai
2011-03-10, 15:57:10
[immy;8612931']wurde bestimmt schon irgendwo geklärt, aber finde es grad nicht, daher die frage, was ist mit 32nm?
wäre dies nicht eine denkbare lösung für einen re-refresh?
immerhin hat man auch früher schon solche zwischenschritte durchgeführt. oder macht es kaum einen unterschied ob nun 32nm oder 28nm aufgrund der komplexität und ausbeute?

Wurde von TSMC gecancelt.

john carmack
2011-03-10, 16:26:23
Immerhin ist der Sprung von 40nm auf 28nm der Größte seit Jahren.

Ganze 51% mehr Flächeneinsparung :)

so einen Sprung gabe es bestimmt schon 5 Jahre nicht mehr... wenn nicht sogar länger.

Schaffe89
2011-03-10, 17:48:45
Die Entwicklung der Grafikchips geht aber immer mehr in die Richtung --> schei[ ] auf den Stromverbrauch.
Ich möchte wieder eine High End Grafikkarte die im Vergleich zur letzten Generation nicht mehr Strom aufnimmt und deutlich effizienter arbeitet.
HD4870->HD5870 war so ein Fall.
Aber spätestens mit der GTX480 hat man ja die 200watt TDP Grenze überschritten mit Single GPU und in dem Bereich wirds wohl auch so weitergehen.

Ailuros
2011-03-10, 20:55:29
32 nm wurde übersprungen und wird nicht angeboten, darum solche Notfälle wie Cayman oder Barts.

Ist zwar OT aber Intel hat 32nm.

Die Entwicklung der Grafikchips geht aber immer mehr in die Richtung --> schei[ ] auf den Stromverbrauch.
Ich möchte wieder eine High End Grafikkarte die im Vergleich zur letzten Generation nicht mehr Strom aufnimmt und deutlich effizienter arbeitet.
HD4870->HD5870 war so ein Fall.
Aber spätestens mit der GTX480 hat man ja die 200watt TDP Grenze überschritten mit Single GPU und in dem Bereich wirds wohl auch so weitergehen.


Wie ich schon sagte ich bezweifle zwar nicht dass der Stromverbrauch weiterhin zunehmend steigen wird aber in der heutigen (oder besser seit Ende 2009) Situation ist eher 40G schuld als alles andere. Erstens hat 40G zwar heutzutage ausgezeichnete yields aber die Leckstroeme sind nach wie vor problematisch IMO und das nicht nur bei einem chip. Noch schlimmer TSMC stornierte 32nm und es blieb den IHVs eben kein anderer Ausweg.

GF100 und auch GF110 sind die beschissensten Beispiele ueberhaupt. Weiss der Geier in welche Richtung die NV engineers genau gefurzt haben mit GF100, aber da sie mit 110 nicht besonders viel Zeit hatten haben sie einfach die highest leakage Transistoren ausgesucht und diese ersetzt. Ich kann mir gut vorstellen dass wenn sie den ganzen chip nochmal ueberarbeteit haetten die Sache noch um einiges besser bezueglich Stromverbrauch bei GF110 aussehen wuerde. Aehnliches aber bei begrenzterem Mass dank geringerer Komplexitaet sieht man auch bei Radeons; die 6970 ist alles andere als super-sparsam im Vergleich zur 5870.

Uebrigens fuer die geschichtlichen Hintergrund der letzten Jahre: GTX280 erschien unter 65nm mit einem 236W TDP, wobei GTX285 unter 55nm mit hoeheren Frequenzen bei nur 204W lag und aus dem letzteren bekamen sie auch mit reduzierten chips eine 295 mit einem 289W TDP zu stande. Ohne kleineren Herstellungsprozess (selbst half node) wird der Stromverbrauch bei steigender Leistung natuerlich auch steigen. Leistung ist nie umsonst.

Knuddelbearli
2011-03-10, 21:22:31
naja das problem ist wenn sie von den jetzigen 280W für single bei NV und 340W für Dual bei ATI runtergehen wird die leistungssteigerung "zu gering" also wirds eher so bleiben vor allem bei NV ging es zuletzte ja nur mehr nach oben mit ausnahme der refreshes

8800 9800 bisschen runter 280 rauf 285 leicht runter 480 extrem rauf 580 minimal runter

bei ati 2900 extremst rauf 3870 extrem runter 4870 minimal rauf 4890 rauf 5870 runter und 5970 rauf da man irgenwie mit NV Konkurieren musste egal was es kostet

Ailuros
2011-03-11, 08:14:51
naja das problem ist wenn sie von den jetzigen 280W für single bei NV und 340W für Dual bei ATI runtergehen wird die leistungssteigerung "zu gering" also wirds eher so bleiben vor allem bei NV ging es zuletzte ja nur mehr nach oben mit ausnahme der refreshes

8800 9800 bisschen runter 280 rauf 285 leicht runter 480 extrem rauf 580 minimal runter

bei ati 2900 extremst rauf 3870 extrem runter 4870 minimal rauf 4890 rauf 5870 runter und 5970 rauf da man irgenwie mit NV Konkurieren musste egal was es kostet

Es aendert aber trotz allem nichts an meinem Verdacht dass vieles auf 40G zurueckzuleiten ist. 40G hat gegenueber 55nm nur mehr Luftraum fuer hoehere Chip-komplexitaet geliefert aber keine besondere Frequenz-steigerungen. Zwischen NV und AMD hatte NV bisher die groessten Problem was leakage transistors betrifft (auch u.a. dank hoeherer Chip-komplexitaet und hot-clocks).

Die "runter/rauf" Beispiele sagen mir persoenlich gar nichts wenn man die jeweiligen benutzten Herstellungs-prozesse und dessen Toleranzen nicht mitberechnest. Mal anders illustriert: haette AMD oder NV in der Vergangenheit auch auf 2*8pin Designs gesetzt waere auch damals die Leistung um einiges hoeher gewesen.

aylano
2011-03-11, 12:23:51
Wenn TSMC den 40nG-Prozess in Sachen Stromverbrauch noch immer nicht vernünftig hinbekommt, hört sich das mit großer Möglichkeit nach einem 28nm-GF vs. 28nm-TSMC-"Effizienz"-Schlacht an.

Natürlich ist der 40nm --> 28nm - Prozess nicht vergleichbar, aber da der 40nm-Prozess bei TSMC noch viele viele Jahre verwendet wird, hätte ich einen Fortschritt schon noch erwartet.

Da fragt man sich schon, wie sie 28nm planmäßig entwickeln konnten, wenn sie a) den 40nm-Prozess weiterentwickeln mussten und b) ihn in trotzdem nach 2-3 Jahren nicht planmäßig hinbekommen.
Wenn 28nm dann wirklich Ende 2011 kommt, dann braucht er 2,5 Jahre von eh schon verspäteten & Problematischen 40nm.
Das sieht nicht gerade berauschend aus.
Natürlich ist GF auch sehr ungewiss, da sie ja (so wie es momentan aussieht) auch nicht gerade früher dahertanzen.

Das wird sicher sehr interessant.

Duplex
2011-03-11, 15:45:35
hoffentlich hat der 28nm Chip von AMD dann um Faktor 2,5 mehr Shader als Cayman, so ein sprung wie RV670 > RV770 braucht AMD wieder, der letzte gute Prozess war 55nm, mit 40nm gibt es von anfang an zu viele schwierigkeiten.

Coda
2011-03-11, 17:25:31
Das ist sehr unwahrscheinlich. RV670 war ein reiner Shrink und RV770 der eigentliche High-End-Chip in der 55nm-Node.

Duplex
2011-03-11, 20:11:09
ich weis das der RV670 ein R600 Shrink war, Ziel war es damals die kosten zu senken damit man sich zum großen auf RV770 konzentrieren konnte. Vielleicht wird der 28nm Chip sowas wie RV770 > RV870, nur mit dem unterschied das man keine neue DX Schnitstelle diesmal erweitern braucht, evtl. aber mehr Arbeit in Shader investiert, diesmal hat man also mehr Zeit für Rechenleistung! hat jemand schon was von DX11.1 gehört?

Knuddelbearli
2011-03-11, 20:16:43
nein und hoffe ich auch nicht sonst kommt das selbe chaos wie imemr raus ATI untertützt es NV nicht und setzt sich dadurch eh nie durch.

ausser man kann sie irgenwie dazu zwingen

Duplex
2011-03-11, 20:27:37
nein und hoffe ich auch nicht sonst kommt das selbe chaos wie imemr raus ATI untertützt es NV nicht und setzt sich dadurch eh nie durch.:confused:
für das Marketing kann das schon wichtig sein :)
Vorteile gegenüber andere Hersteller ausnutzen, Nvidia macht das mit PhysX nicht anders ;)
und wenn eine Engine von DX11.1 profitiert, dann sind die Balken vielleicht mit einer günstigeren Karte länger als DX11.0
ist bei Intel bei SSE Code gegenüber AMD nicht anders ;)

Knuddelbearli
2011-03-11, 20:29:36
tja nur meistens hatte ATi am Ende doch die Arschkarte sowas baut sich ja nicht kostenlos ein und gab immer nur 1-2 brauchbare Spiele

Duplex
2011-03-11, 20:31:27
wenn DX11 länger als DX10 lebt, dann kann das nutzen von DX11.1 mehr als nur 1-2 Games werden.
http://www.pcgameshardware.de/aid,643633/Assassins-Creed-Patch-102-im-PCGH-Benchmark-Test-Stellungnahme-von-Nvidia/Assassins-Creed/Test/

Coda
2011-03-11, 21:57:14
Von D3D11.1 ist derzeit noch nichts am Horizont zu sehen. Wenn ich es richtig in Erinnerung habe wurde D3D10.1 zumindest ein halbes Jahr vorher angekündigt.

Spasstiger
2011-03-11, 22:17:02
Erstmal die von Epic gezeigt DX11-Demo "Samaritan" in Echtzeit @ FullHD mit einer GPU hinbekommen (vorgeführt wurde sie auf drei GTX 580), dann können wir über D3D11.1 reden. ;)

Coda
2011-03-11, 22:18:05
Neue D3D-Versionen machen Sachen höchstens schneller bei gleicher BQ.

Spasstiger
2011-03-11, 22:22:19
Andererseits kosten neue Features Transistoren, die man evtl. lieber in eine breitere Architektur stecken möchte.
Ein AMD Cedar mit seinen 292 Mio. Transistoren ist z.B. deutlich langsamer in Spielen als ein ATI RV570 mit 330 Mio. Transistoren.

LovesuckZ
2011-03-11, 22:25:15
Andererseits kosten neue Features Transistoren, die man evtl. lieber in eine breitere Architektur stecken möchte.

Meinst du so wie AMD mit Cypress? Nur geringe Anpassungen an die neue API, dafür deutlich Rohleistung für vorhandene Anwendungen?

Das Problem an dem Weg ist - und das hat die Vergangenheit gezeigt - dass entsprechende neue Features, die nicht vernünftig anwendbar sind, einfach deutlich später in den Markt kommen. Ohne Fermi und nVidia's Pushen von Tessellation gäbe es z.B. in der neuen UE3 nicht die Möglichkeit von "Multiple Displacements".

Knuddelbearli
2011-03-11, 22:53:14
und ohne Ati gäbs vielleicht überhaupt keine Tess usw da kann man sich ewig drum streiten
das selbe gilt für die dx 10.1 sachen wo Nv erst nach ewigkeiten auf extremen druck der oems nachzog
oder wenn ATI bei Physikx mitgemacht hätte oder NV Physikx endlich freigibt usw usf

da beisst sich am ende eh der hund in den schwanz

y33H@
2011-03-11, 22:59:49
Ähm, die Specs für DX11 werden nicht von AMD festgesetzt. NV hatte halt eine heftige Verzögerung, aber keine Tessellation ohne AMD?

LovesuckZ
2011-03-11, 23:05:12
und ohne Ati gäbs vielleicht überhaupt keine Tess usw da kann man sich ewig drum streiten


Die Aussage ist mal sowas von falsch. Und anhand von Fermi sollte man sich mal zweimal fragen, wer die treibende Kraft hinter Tessellation für DX11 war.

Knuddelbearli
2011-03-11, 23:07:38
Nur gabs das in Form von Trueform schon vor ewigkeiten bei Ati

wollte mit dem Vergleichen nichts anderes zeigen das man keinen von beiden Irgendwas zu oder absprechen kann

y33H@
2011-03-11, 23:12:50
Und was hat Matrox gemacht? Richtig, Displacement Mapping Engine. Und die hat tesselliert. Anno 2002, kurz nach TruForm (ohne "e"). Aber vor 10/9 Jahren wollte das keiner so wirklich.

LovesuckZ
2011-03-11, 23:15:46
Tessellation bzw. whatever-Patches wurden schon in DX8 spezifiziert und auch von nVidia unterstützt. Trueform war nur der Marketingname von AMD.

Das es wieder in DX11 spezifiziert wurde, hat also überhaupt nichts mit AMD alleine zu tun, sondern wurde anscheinend von mehreren Herstellern als wichtig empfunden.

Knuddelbearli
2011-03-11, 23:25:21
ihr wollt einfach nicht verstehen was ich damit sagen wollte lieber stürtzt ihr euch auf ne kleinigkeit und zerpflückt sie immer das selbe...

wie gesagt man kann keinem der Hersteller irgenwas zuerkennen oder aberkennen weder NV das Tesselieren noch Ati das "alte" Tesselieren

das einzige was bleibt ist das es immer ärgerlich ist wenn einer der 2 grossen irgend eine offiziele entwicklung nicht mitmach und da wars halt zufällig das letzte mal NV mit 10.1 da das alles dann einfach eingebremst wird

y33H@
2011-03-11, 23:28:14
NV hat DX10.1-Karten. Für G200 kam es wohl zu spät, Fermi war schon DX11. Also gab es DX10.1 nur für die "Kleinen" und bei AMD. NV hat damals den Schritt zu SM3 gemacht, erstmal alleine. Der war größer als DX10.1.

Knuddelbearli
2011-03-11, 23:36:27
ah SM3 dachte es war 9.0c wo ATI solange gebraucht hat
SM3 war doch b oder? alles solange her ...
und das es zu spät kam naja ... das kann ich irgenwie nicht glauben ATi brachte 10.1 Feb. 2008 raus GT200b Jan. 2009. und trotzdem noch nur die billig ableger auf dx 10.1 ?

aber wie gesagt wir verwirren usn hier in kleinigkeiten wie gesagt meine Aussage war einfach nur das es immer scheisse ist wenn ein Anbieter nicht die offizielen Specs schnellstmöglich unterstützt und oder sein eigenes Süppchen kocht

y33H@ hast du ne Ahnung wieso MS nicht auch gleich ne Physik Bibliothek in Dx 11 inplementiert hat? zu Aufwendig oder Lizenzrechtliche Probleme?

LovesuckZ
2011-03-11, 23:36:36
ihr wollt einfach nicht verstehen was ich damit sagen wollte lieber stürtzt ihr euch auf ne kleinigkeit und zerpflückt sie immer das selbe...

wie gesagt man kann keinem der Hersteller irgenwas zuerkennen oder aberkennen weder NV das Tesselieren noch Ati das "alte" Tesselieren

das einzige was bleibt ist das es immer ärgerlich ist wenn einer der 2 grossen irgend eine offiziele entwicklung nicht mitmach und da wars halt zufällig das letzte mal NV mit 10.1 da das alles dann einfach eingebremst wird

Was redest du hier? Ich habe darauf keinen Bezug genommen. Ich habe klar geschrieben, dass auch die Geschwindigkeit einer Umsetzung entscheidend ist. Zwischen GF100 und Cypress herrscht eine Tessellationleistungslücke von Generationen. Wäre GF100 nur auf Cypress-Niveau gäbe es auch kein "multiple Displacement Mapping", weil nVidia nichtmal die hardwaretechnischen Möglichkeiten gehabt hätte.

Schaffe89
2011-03-11, 23:38:21
wie gesagt man kann keinem der Hersteller irgenwas zuerkennen oder aberkennen weder NV das Tesselieren noch Ati das "alte" Tesselieren

Richtig. Fakt ist nur AMD hat schon seit längerem die Funktion dafür eingebaut gehabt, ob das was bedeutet oder nicht sei dahingestellt.
Ich denke auch Nvidia hat Tesselation in letzter Zeit mehr forciert. Sie wussten ja imho, dass sie mehr Tess-Performance bieten.

NV hat DX10.1-Karten.

Was stellvertretend aussagen soll, die hätten die Entwicklung nicht aufgehalten? Ähem...
Die wolltens nur für das Windows 7 Siegel.:usad:

Zwischen GF100 und Cypress herrscht eine Tessellationleistungslücke von Generationen.

Wenn zuviel Dreiecke die Pipiline von AMD verstopfen, dann mag dies zutreffen.
Leistungslücke von Generationen halte ich aber für übertrieben.

y33H@
2011-03-11, 23:48:22
Was stellvertretend aussagen soll, die hätten die Entwicklung nicht aufgehalten?Deine Interpretation. Ich sagte nur "NV hat DX10.1-Karten" und sonst nichts. G200 war halt kurz vorher und Fermi danach, Pech.

Gipsel
2011-03-12, 00:55:45
ah SM3 dachte es war 9.0c wo ATI solange gebraucht hat
SM3 war doch b oder? alles solange her ...
SM3 war 9.0c
Von SM2 gab es a und b Profile. Da habe ich jetzt aber auch schon vergessen, was AMD und nvidia war.

Brillus
2011-03-12, 01:48:30
Tessellation bzw. whatever-Patches wurden schon in DX8 spezifiziert und auch von nVidia unterstützt. Trueform war nur der Marketingname von AMD.
Ati: n-Patches = Tesselation im eigentlichen sinn.
NV: RT-Patches = Kurvendefintion per Bezierkurzen.

Hugo
2011-03-12, 06:07:19
könntet ihr bitte beim Thema bleiben?

Ailuros
2011-03-12, 08:43:52
SM3 war 9.0c
Von SM2 gab es a und b Profile. Da habe ich jetzt aber auch schon vergessen, was AMD und nvidia war.

Unter DX9.0 wenn ich mich nicht irre:

SM2.0
SM2.0_extended
SM3.0

NV war a und AMD b.

Wenn TSMC den 40nG-Prozess in Sachen Stromverbrauch noch immer nicht vernünftig hinbekommt, hört sich das mit großer Möglichkeit nach einem 28nm-GF vs. 28nm-TSMC-"Effizienz"-Schlacht an.

Die heutigen chips wurden fuer einen problematischen Herstellungs-prozess ausgelegt. Zwar hatte wohl NV das groessere Problem bei GF100, aber keiner der beiden haben die originalen chips durch einen kompletten re-spin zu jagen.

Einfacher: ein Prozess hat Leckstroem-Probleme; je besser man die Transistoren dagegen anlegt desto besser.

Natürlich ist der 40nm --> 28nm - Prozess nicht vergleichbar, aber da der 40nm-Prozess bei TSMC noch viele viele Jahre verwendet wird, hätte ich einen Fortschritt schon noch erwartet.

Ein totaler re-spin haette =/>1 Jahr egal bei wem gedauert. Das hat nichts mehr mit 40G/TSMC direkt zu tun sondern eher den schon vorhandenen chips den man eben nur ein paar Pflaster verpassen kann damit Leckstroeme so gut wie moeglich reduziert werden.

Da fragt man sich schon, wie sie 28nm planmäßig entwickeln konnten, wenn sie a) den 40nm-Prozess weiterentwickeln mussten und b) ihn in trotzdem nach 2-3 Jahren nicht planmäßig hinbekommen.
Wenn 28nm dann wirklich Ende 2011 kommt, dann braucht er 2,5 Jahre von eh schon verspäteten & Problematischen 40nm.
Das sieht nicht gerade berauschend aus.
Natürlich ist GF auch sehr ungewiss, da sie ja (so wie es momentan aussieht) auch nicht gerade früher dahertanzen.

Das wird sicher sehr interessant.

Mist kann bei jeder foundry passieren; kommt drauf an wie gut eine foundry X Probleme fuer Y Prozess einschaetzen kann und die IHVs rechtzeitig und korrekt ueber diese warnt.

28HP wird bei beiden wohl nicht mit besonders grossem Unterschied erscheinen. Keiner der beiden IHVs will sich schon in 2011 die kompliziertesten chip zu einer Massen-produktion jagen.

aylano
2011-03-12, 09:09:18
28HP wird bei beiden wohl nicht mit besonders grossem Unterschied erscheinen.

Und du weißt schon, wie gut beide sind?


Keiner der beiden IHVs will sich schon in 2011 die kompliziertesten chip zu einer Massen-produktion jagen.
Die GPU-Welt besteht nicht nur aus High-End.
Außerdem ist die Frage der Yield & Fertigungs-Qualität (=Performnace/Watt) und Ramp-Geschwindigkeit auch wichtig. (siehe 40nm)

Und ob AMD vorhat, gleichzeitig das ganze Portfolie bei GF & TSMC zu rampen will/wird, muss sich auch erst einmal zeigen.
Es könnte ja auch zuerst ein "Probe-Chip" sein und ein Jahr im GPU-Refresh in der Halbzeit der 28nm-Fertigung dann ein ganzes bei GF.

Ailuros
2011-03-12, 10:47:14
Und du weißt schon, wie gut beide sind?

Erkennen IHVs selber wohl erst nachdem sie in die eigentliche Massenproduktion gehen mit komplizierteren chips.

Die GPU-Welt besteht nicht nur aus High-End.
Außerdem ist die Frage der Yield & Fertigungs-Qualität (=Performnace/Watt) und Ramp-Geschwindigkeit auch wichtig. (siehe 40nm)

Selbst SoCs mit 28HP werden wohl nur in geringer Anzahl dieses Jahr in die Produktion gehen. Zwar OT aber Apple scheint einen Anteil ihrer A5 Produktion zu TSMC zu schicken, genau wegen den momentanen besseren yields bei TSMC als bei SAMSUNG.

Vor dem Fermi launch kreischte NV dass TSMC fuer weniger transistoren leakage sorgen sollte. Wie schon oefters erwaehnt haben sie beim GF110 eine geringe Anzahl an hoher leakage Transistoren ersetzt aber eben nicht alle.

Und ob AMD vorhat, gleichzeitig das ganze Portfolie bei GF & TSMC zu rampen will/wird, muss sich auch erst einmal zeigen.

Die grobe Mehrzahl bleibt vorruebergehend bei TSMC. Glaubst Du wirklich dass AMD irgend ein grosses Risiko eingehen will?

Es könnte ja auch zuerst ein "Probe-Chip" sein und ein Jahr im GPU-Refresh in der Halbzeit der 28nm-Fertigung dann ein ganzes bei GF.

Ich lass mich gerne eines besseren belehren, aber bei einer foundry bei der man noch nicht hoch-komplizierte GPU chips hergestellt hat, geht man normalerweise vorsichtig Schritt fuer Schritt an. AMD ist mit ihrer Execution mit TSMC alles andere als im Nachteil; in einem Fall wo sich das Ganze dank GloFo verzoegern sollte waere es eine ziemlich grosse Schnappsidee seitens AMD.

aylano
2011-03-12, 15:54:21
Erkennen IHVs selber wohl erst nachdem sie in die eigentliche Massenproduktion gehen mit komplizierteren chips.

Und warum behauptest du, dass beide Fertigungen ähnlich sind, wenn die IHVs nicht wissen und du somit detto?

Selbst SoCs mit 28HP werden wohl nur in geringer Anzahl dieses Jahr in die Produktion gehen.
GF sagte selber, dass die ersten 28HP-Chips nicht GPUs sein werden.

Zwar OT aber Apple scheint einen Anteil ihrer A5 Produktion zu TSMC zu schicken, genau wegen den momentanen besseren yields bei TSMC als bei SAMSUNG.
Würde ich auch als OT sehen. Apple ist nicht für modernste Technik oder frühe Fertigung bekannt. Gerade bei Apple kann dieser Wechsel eben mehrere Gründe haben.

Die grobe Mehrzahl bleibt vorruebergehend bei TSMC. Glaubst Du wirklich dass AMD irgend ein grosses Risiko eingehen will?
Ein Risko wäre es nur, wenn man nicht genügend R&D-Teams hat und sonst in nicht unwesentlichen Bereichen einsparen müsste.

Gleichzeitig je ein GPU-Portfolie in GF & TSMC wäre sonst weniger Risikoreich, als sich nur für einen (auch wenn Erfahrener) zu entscheiden?


Ich lass mich gerne eines besseren belehren, aber bei einer foundry bei der man noch nicht hoch-komplizierte GPU chips hergestellt hat, geht man normalerweise vorsichtig Schritt fuer Schritt an. AMD ist mit ihrer Execution mit TSMC alles andere als im Nachteil; in einem Fall wo sich das Ganze dank GloFo verzoegern sollte waere es eine ziemlich grosse Schnappsidee seitens AMD.
Welchen Zwischenschritt soll man denn noch machen als ein Probe-Chip?

Ailuros
2011-03-12, 21:07:42
Und warum behauptest du, dass beide Fertigungen ähnlich sind, wenn die IHVs nicht wissen und du somit detto?

Damit Du Grund zum fragen hast :P Ich meinte den zeitlichen Unterschied.

GF sagte selber, dass die ersten 28HP-Chips nicht GPUs sein werden.

Nichts Neues.

Würde ich auch als OT sehen. Apple ist nicht für modernste Technik oder frühe Fertigung bekannt. Gerade bei Apple kann dieser Wechsel eben mehrere Gründe haben.

Na dann steig mal aus Deiner Zeitkapsel aus seh Dir an was sie mit ihrem i-Zeug anrichten. Was heisst mehrere Gruende? Es sind hauptsaechlich die yields bei TSMC fuer 40nm momentan und es gibt momentan KEINEN anderen erhaeltlichen SoC mit einem kleineren Herstellungsprozess als 40nm.


Ein Risko wäre es nur, wenn man nicht genügend R&D-Teams hat und sonst in nicht unwesentlichen Bereichen einsparen müsste.

Gleichzeitig je ein GPU-Portfolie in GF & TSMC wäre sonst weniger Risikoreich, als sich nur für einen (auch wenn Erfahrener) zu entscheiden?

Macht so oder so kein IHV und noch weniger AMD wo sie nicht gerade den Luxus haben mit Resourcen nur so herumzuschmeissen. Nichtdestominder dauert es im allerbesten Fall ueber 6 Monate um auf einen Prozess einer anderen foundry zu steigen.

Welchen Zwischenschritt soll man denn noch machen als ein Probe-Chip?

Man steckt nur den grossen Zehen in den Teich um die Wasser-temperatur abzufuehlen.

aylano
2011-03-13, 22:49:58
Damit Du Grund zum fragen hast :P
Wenn du dir immer gerne alles aus der Nase ziehen willst, gerne.


Ich meinte den zeitlichen Unterschied.

Ich nicht. Bei einer Foundry-Schlacht geht es mehr als nur die Zeit.
Wann wurde nochmal 40nm-TSMC eingeführt? April 2009 (erste GPUs) oder Jan 2010 (halbwegs Verfügbarkeit von HD 5870) oder Ende 2010 als die Yield dann super war?

Wichtig sind eben auch Wafer-Kapazitäten & Yield & Effizienz (Performance-pro-Watt)
Und genau an 40nm-TSMC sah man, wie lange es brauchte vernünftige funkionierende Mengen an GPU-Wafern zu bekommen.

z.B. eine 15% gesteigerte Effizienz (Performance-pro-Watt) bedeutet in der GPU schon die halbe Welt.

Deshalb bin ich schon sehr auf diese Foundry-Schlacht gespannt.


Na dann steig mal aus Deiner Zeitkapsel aus seh Dir an was sie mit ihrem i-Zeug anrichten. Was heisst mehrere Gruende?Es sind hauptsaechlich die yields bei TSMC fuer 40nm momentan und es gibt momentan KEINEN anderen erhaeltlichen SoC mit einem kleineren Herstellungsprozess als 40nm.
Chipkosten & vorallem Wafer-Kapazitäten könnte auch ein Grund sein.

Apple investiert auch in Display-Fabriken, um eben seine Ware in geforderten Massen pünktlich liefern zu können.

Macht so oder so kein IHV und noch weniger AMD wo sie nicht gerade den Luxus haben mit Resourcen nur so herumzuschmeissen.
Dubai hat auch nicht den Luxus, zik Mrd. $ schwere Fabriken nach vielen Mrd. $ investitionen herumzustehen zu lassen.
Aus wirtschaftlicher Sicht würde ich nicht so ein Problem sehen zusätzliche R&D-Teams aufzubauen. Eher aus Zeitlichen bzw. Menschlicher Sicht wird es lange dauern, erfahrene Teams aufzubauen.

Immerhin hat AMD in den letzten 6 Jahren ihr R&D-Team im CPU-Bereich auch deutlich erweitert.

Zuerst bleibt die Frage, ob sie zusätzlich (GPU-)-Teams gründeten und zweitens, wann diese Teams Früchte tragen werden.
Falls sie doch solche Teams gründen, würde ich die ersten Früchte mit 28nm-GPUs @ GF Ende 2011 noch nicht erwarten, da sie wahrscheinlich kaum so ein Team aufbauten, als sie in der Wirtschaftskrise R&D-Kosten teils senkten, was ja nicht so lange her war.

Immerhin stellt AMD auch mal Leute ein.
http://career-resources.dice.com/articles/content/entry/amd_ramps_up_hiring_for


Nichtdestominder dauert es im allerbesten Fall ueber 6 Monate um auf einen Prozess einer anderen foundry zu steigen.
Oder man berücksichtigt gleich beide Foundry, was AFAIK aber noch nicht mit 28nm geht, sondern mit 20nm, weil GF dann auch auf Gate-Last umsteigen soll.



Man steckt nur den grossen Zehen in den Teich um die Wasser-temperatur abzufuehlen.
Und das haben die nach 5 Jahren ATI-Kauf noch nicht/kaum gemacht?

PS: Um mein gesagtes zu verdeutlichen.
Ende 2011/Anfang 2012 steigt Intel auf 22nm um und TSMC & GF gerade 28nm.
Also, an Intel sieht man, dass der (Bulk-)Fertigungs-Vorsprung mit 1-2 Jahren sehr groß sein kann.

Warum TSMC jetzt 2,5 Jahre brauchte um vom verspäteten & problematischen 40nm auf 28nm umzusteigen, ist mir momentan noch ein Rätsel.
Aber irgendwann erfahren wir eh, warum TSMC & GF so lange für 28nm brauchten, wobei bei GF die Unerfahrenheit der Hauptgrund sein könnte.

john carmack
2011-03-30, 00:19:21
28nm - Its comming! :D
65x65 = 4225
55x55 = 3025 (~ minus 28,25%)
40x40 = 1600 (~ minus 47,10%)
28x28 = 784 (exakt minus 51,00%)
Und ganz nebebei der größte Sprung seit Jahren! :D

Ailuros
2011-03-30, 07:11:07
28nm - Its comming! :D
65x65 = 4225
55x55 = 3025 (~ minus 28,25%)
40x40 = 1600 (~ minus 47,10%)
28x28 = 784 (exakt minus 51,00%)
Und ganz nebebei der größte Sprung seit Jahren! :D

Wie bitte? :rolleyes:

john carmack
2011-03-30, 08:13:32
Naja, soweit ich weiß wird die Fläche im Quadrat gemessen...

65 / 55 / 40 / 28 sind die Fertigungsgrößen von Grafikchips der letzten Jahre.

und bei 28x28 = 784 (exakt minus 51,00%) machen wir einen gewaltigen schritt :)

Sollte gut Leistung rauskommen bei der GTX680 / HD7970...

deekey777
2011-03-30, 10:41:51
Was für ein Unsinn...

AMD’s Southern Islands tapes out (http://semiaccurate.com/2011/03/29/amds-southern-islands-tapes-out/)

CI? 101? Hekatoncheiren?
Irgendwie ist der Artikel zu optimistisch. Zwei Respins werden es schon sein, oder?

Knuddelbearli
2011-03-30, 11:42:26
glaub er berechnet da das einsparungsmass im idealfall also um wieviel kleiner die chips maximal sein können

edit 2 te seite übersehen -.-

naja hoffe eher nicht auf viel mehr leistung dafür keine einzelchips über 200W ...
aber glaube das bleibt wunschedenken auch wenn Leonidas davon überzeugt ist

Ailuros
2011-03-30, 14:43:52
glaub er berechnet da das einsparungsmass im idealfall also um wieviel kleiner die chips maximal sein können

edit 2 te seite übersehen -.-

naja hoffe eher nicht auf viel mehr leistung dafür keine einzelchips über 200W ...
aber glaube das bleibt wunschedenken auch wenn Leonidas davon überzeugt ist

Wenn es nur perfektes scaling geben wuerde :rolleyes: Es gab auch ziemlich viel Optimismus bevor die eigentliche Qualitaet von 40G bekannt wurde. Diesmal will ich erst etwas sehen bevor ich es glaube ueberhaupt wenn es TSMC betrifft.

Was für ein Unsinn...

AMD’s Southern Islands tapes out (http://semiaccurate.com/2011/03/29/amds-southern-islands-tapes-out/)

CI? 101? Hekatoncheiren?
Irgendwie ist der Artikel zu optimistisch. Zwei Respins werden es schon sein, oder?

Vorletzter Paragraph; selbst wenn die chips tatsaechlich fruehzeitig fertig sind, soll sie AMD wo genau produzieren wenn TSMC's 28nm Herstellungskapazitaeten am Anfang beschissen sind?

deekey777
2011-03-30, 15:10:18
...
Vorletzter Paragraph; selbst wenn die chips tatsaechlich fruehzeitig fertig sind, soll sie AMD wo genau produzieren wenn TSMC's 28nm Herstellungskapazitaeten am Anfang beschissen sind?
So ein Gedanke würde die News aber absurd machen.

Ailuros
2011-03-30, 22:05:41
So ein Gedanke würde die News aber absurd machen.

Ich weiss zwar nicht was Charlie denkt (und es ist mir auch egal), aber ich haette persoenlich schon einen guten Grund es zu berichten. TSMC soll endlich ihren Misthaufen aufraeumen denn so langsam werden sie nicht mehr alleine sein.

Bei 40G war es uebrigens auch nicht anders; die yields in Q3 2009 waren so beschissen dass damals AMD ueber 2x Mal mehr pro chip bezahlen musste als heute bei aehnlicher chip-Komplexitaet. Am Anfang war es fuer 5870-er gerade noch etwas Gewinn pro GPU und bei den 5850 ging es schon fast in die roten Zahlen deshalb erhoeten sie nachtraeglich dessen Preis um $20.

Knuddelbearli
2011-03-30, 22:27:57
wie kann bitte eine voll funktionsfähige 5870 bei nem beschissene prozess gewinn sein und eine 5850 dann verlust?

und muss sagen seit der 480 habe ich zwar charly nimemr so verfolgt aber damals hatte er schon verdammt viele treffer mehr als die meisten anderen "neutralen" zeitschriften charlys problem ist nur das er zwar meistens auf fakten stützt sie dann aber recht einseitig beleuchtet. aber seine infoquellen scheinen schon klasse zu schein

LadyWhirlwind
2011-03-31, 02:27:21
Ich weiss zwar nicht was Charlie denkt (und es ist mir auch egal), aber ich haette persoenlich schon einen guten Grund es zu berichten. TSMC soll endlich ihren Misthaufen aufraeumen denn so langsam werden sie nicht mehr alleine sein.


Weiss man schon genaueres wie es nun bei der konkurenz (Global Foundries?) aussieht?

Vielleicht reicht ja die Yield Rate im Sommer um im Herbst nen PR-stunt abzuziehen, sprich aller Welt zu zeigen, WIR haben die schnellsen Karten und damit Nvidia PR mässig den Wind aus den Segeln nehmen.

Knuddelbearli
2011-03-31, 03:55:56
und damit NV die Möglichkeit zu geben zu Countern? die 480 hätte sicher nicht so ausgesehen wie sie aussieht wenn die 5870 zeitgleich oder später gekommen wäre

V2.0
2011-03-31, 07:14:19
wie kann bitte eine voll funktionsfähige 5870 bei nem beschissene prozess gewinn sein und eine 5850 dann verlust?


Die Verteliung an Chipdefekten muss nicht linear sein Es kommt auf die Summe verwertbarer Chips pro Wafer an, die den notwendigen durchschnittlichen Preis pro GPU bestimmt. Am bemerkenswertesten an Charlies News ist allerdings wie sehr die Erwartungen an SI gedrosstelt werden.

Ich erinere mich an die Geschichten zu Northern Islands. Die NI wären ja nur ein aufgewärmter Evergreen bei dem man einige Teile der SI schon übernommen hat, während SI die komplett neue Architektur wäre. Heute sagt Charlie SI ist auch nur ein aufgewärmter NI Shrink und somit eigentlich immer noch ein Evergreen.

Ailuros
2011-03-31, 07:48:28
wie kann bitte eine voll funktionsfähige 5870 bei nem beschissene prozess gewinn sein und eine 5850 dann verlust?

und muss sagen seit der 480 habe ich zwar charly nimemr so verfolgt aber damals hatte er schon verdammt viele treffer mehr als die meisten anderen "neutralen" zeitschriften charlys problem ist nur das er zwar meistens auf fakten stützt sie dann aber recht einseitig beleuchtet. aber seine infoquellen scheinen schon klasse zu schein

Neben dem guten Punkt von V2.0 was chip-Defekte betrifft, mit welchem Preis wurde eine 5870 und eine 5850 beim launch genau verkauft? AMD bezahlte uebrigens fuer jeglichen operativen Cypress chip an TSMC die gleiche Summe.

Charlie ist ein Fall fuer sich, aber ohne weiter OT zu gehen so toll sind seine "Quellen" nun auch wieder nicht. Vor Tagen sagte er dass 2 von den 3 Herstellern sich schon fuer die naechste Konsolen-Generation entschieden hat. "Entscheidung" kann man zwar auch interpretieren wie man will aber selbst Nintendo hat noch nichts in Stein gemetzelt afaik und die anderen beiden evaluieren immer noch.

Weiss man schon genaueres wie es nun bei der konkurenz (Global Foundries?) aussieht?

Vielleicht reicht ja die Yield Rate im Sommer um im Herbst nen PR-stunt abzuziehen, sprich aller Welt zu zeigen, WIR haben die schnellsen Karten und damit Nvidia PR mässig den Wind aus den Segeln nehmen.

Ich bezweifle dass es selbst die IHVs schon wissen. Wenn ein hoch-komplizierter chip nicht bei GloFo in die Produktion geht ist und bleibt es leider nur Marketing-Geschwafel seitens GloFo. Persoenlich wuensche ich mir zwar dass GloFo das liefert was es verspricht weil es die gesamte Industrie auch wirklich braucht, aber sonst sehe ich AMD weder vorzeitig ein groesseres Risiko einzugehen noch den gleichen chip parallel bei beiden foundries herzustellen. Ich stelle mir eher vor dass AMD irgend einen mittleren oder kleinen chip zuerst zu GloFo schickt und je nach Resultaten dann die Bestellungen Schritt fuer Schritt bei GloFo skaliert.

Falls aber AMD die Resourcen aufweisen wird koennten sie durchaus ihren groessten SI chip zu GloFo schicken, da sie um den chip fuer GloFo's Prozess auszulegen zumindest 6 Monate brauchen. Bis TSMC 28nm Kapazitaeten anstaendig werden hat man durchaus Zeit fuer so etwas. Die Frage ist lediglich ob AMD die Kosten dafuer tragen wuerde.

und damit NV die Möglichkeit zu geben zu Countern? die 480 hätte sicher nicht so ausgesehen wie sie aussieht wenn die 5870 zeitgleich oder später gekommen wäre

War das eigentliche Problem vom GF100 dass er spaeter ankam oder eher dass der Leistungs-abstand zu klein war im Vergleich zu Cypress und ueberhaupt im Vergleich zum Stromverbrauch?

Mit was soll den NV ueberhaupt fruehzeitiger gegenschlagen? NV haette theoretisch schon in Q4 2009 GF100 herstellen koennen nur waren die yields so beschissen dass jeder die sie etwas unter 2xMal eines Cypress damals gekostet haette. NV hat sogar die Tegra2 Produktion etwas verspaetet und ging mit diesem erst im ersten 2010 Quartal in die Produktion. Dabei ist das T2 SoC lediglich 49mm2 gross unter 40G.

Ausser NV plant irgend einen 28nm high end Fermi refresh, Kepler wird dank sehr hoher Chipkomplexitaet wieder auf sich warten lassen.

V2.0
2011-03-31, 08:31:07
Wobei man die Geschichte vom Fermi Shrink schon öfters hört. Kepler braucht eine "Best Case" Entwicklung bei TSMC.

Ailuros
2011-03-31, 08:36:23
Wobei man die Geschichte vom Fermi Shrink schon öfters hört. Kepler braucht eine "Best Case" Entwicklung bei TSMC.

Es spricht auch nichts gegen einen Fermi shrink, ganz im Gegenteil; ueberhaupt wenn SI nur eher ein leicht ueberarbeiteter NI sein sollte. Es gibt weder eine neue API Generation noch irgend einen DX11.x update in Sicht.

john carmack
2011-03-31, 09:14:32
Verstehe ich euch richtig?

Kann mir bitte jemand in einfachen Worten erklären warum die 28nm Generation nicht ca.70-90% schneller sein wird als die Aktuelle?

Danke :)

boxleitnerb
2011-03-31, 09:26:04
Schreibt doch keiner, dass es so sein wird. Der Chip kann leicht überarbeitet sein und trotzdem in die Breite gehen und/oder deutlich mehr Takt haben.

john carmack
2011-03-31, 09:33:33
so hab ichs aber verstanden...

Muss doch einen großen Voretil bringen wenn man bei 28nm mehr Platz einspart als bei den letzten 4 Generations wechseln.

boxleitnerb
2011-03-31, 10:07:03
Mehr als eine Verdopplung der Einheiten wirst du höchstwahrscheinlich nicht sehen. Man will ja auch Luft für Refreshes lassen. Solange der Stromverbrauch im Rahmen bleibt, würde ich von einer Steigerung wie von der 4890 zur 5870 ausgehen (ohne Spezialfälle wie Tessellation oder so, wo man vielleicht nochmal an den Einheiten gebastelt hat).

V2.0
2011-03-31, 10:14:07
Es spricht auch nichts gegen einen Fermi shrink, ganz im Gegenteil; ueberhaupt wenn SI nur eher ein leicht ueberarbeiteter NI sein sollte. Es gibt weder eine neue API Generation noch irgend einen DX11.x update in Sicht.
Richtig und wenn aus 40G was gelernt hat, dann dass es gefährlich ist gleich den Grenzen des Prozesses zur Einführung zu testen. Gerade weil beide heute Architekturen haben, die man relativ einfach skalieren kann.

Wobei wahrscheinlich wieder TSMC der entscheidende Faktor ist. Je später sie 28nm massenverfügbar haben, desto höher stehen die Chancen, dass 28nm gleich mit Kepler kommt.

Ailuros
2011-03-31, 11:06:25
so hab ichs aber verstanden...

Muss doch einen großen Voretil bringen wenn man bei 28nm mehr Platz einspart als bei den letzten 4 Generations wechseln.

Ich hab lediglich gesagt dass es kein perfektes scaling gibt bei die shrinks. So wie es aussieht wird SI eher in die Breite gehen als uebermaessig auf Frequenz-Steigerungen zu setzen. Wieviel jetzt genau von der Verbreitung einer Architektur herausspringen kann ist dann eher Architektur-bedingt oder besser inwiefern Leistung skaliert bei zunehmender Breite.

Natuerlich wird 28nm zu einer gesunden Leistungssteigerung fuehren, auch weil 32nm entfallen ist. Von sich alleine ist der Herstellungs-prozess lediglich eine Indizie fuer die maximalen Moeglichkeiten und keinerlei Garantie.

Bis zu 90% im Durchschnitt duerften schon moeglich sein, bleibt aber dann auch die Frage ob die IHVs vorhaben den Stromverbrauch so hoch zu halten wie mit dem zweiten 40G Schub.

Nochmal eine aehnliche Euphorie gab es auch schon seit 65nm Zeiten fuer 45/40nm. Wie sich diese Geschichte am Ende entwickelt hat, brauchen wir wirklich nicht endlos wiederholen.

Undertaker
2011-03-31, 11:23:34
War der 40nm Prozess abgesehen von den lange Zeit schlechten Yields denn so mies? Selbst von der 55nm Generation ausgehend sahen wir doch ganz ordentliche Steigerungen bzgl. Performance und Performance/Watt, gerade bei ATI.

john carmack
2011-03-31, 12:16:35
Nochmal eine aehnliche Euphorie gab es auch schon seit 65nm Zeiten fuer 45/40nm. Wie sich diese Geschichte am Ende entwickelt hat, brauchen wir wirklich nicht endlos wiederholen.

Da muss ich was verpasst haben... kann mich nicht mehr so erinnern... Wie war das doch gleich?

Meinst du jetzt CPU oder GPU?

boxleitnerb
2011-03-31, 12:31:53
Der 40nm Prozess für GPUs bei TMSC war nicht das gelbe vom Ei zu Beginn. Echt nicht mitgekriegt?

Ailuros
2011-03-31, 12:50:49
Da muss ich was verpasst haben... kann mich nicht mehr so erinnern... Wie war das doch gleich?

Meinst du jetzt CPU oder GPU?

Southern islands ist offensichtlich keine CPU. TSMCs 40G hat mit sehr schlechten yields angefangen, TSMC's Herstellungskapaezitaeten fuer 40G waren alles andere als optimal bis zu Q3 2010 und der Prozess leaked wie verrueckt. Vergleich mir nochmal die Chipkomplexitaet die 65nm erlaubte mit 40nm und dann koennen wir darueber reden wieso die Euphorie fuer 40nm wohl nichts brachte bevor mit diesem hergestellt wurde.

Prozente und Zahlen sind goldig auf Papier nur sind sie leider nur einfache sterile Daten.

john carmack
2011-03-31, 12:57:35
achso... ja, klar... :)

Dachte den Sprung von 65 zu 45...22 den gab es ja nur bei CPUs

Bei den GPU´s ging es 65 -> 55 -> 40 -> 28...

Ailuros
2011-03-31, 13:16:38
GPUs haetten eigentlich 65-55-40-32-28 sein sollen. Deshalb erscheint der Sprung zu 28 von 40nm auch so relativ gross.

john carmack
2011-03-31, 13:19:03
GPUs haetten eigentlich 65-55-40-32-28 sein sollen. Deshalb erscheint der Sprung zu 28 von 40nm auch so relativ gross.


Er erscheint nicht nur groß sondern er ist tatsächlich sehr groß. Der größte seit Jahren...

Ailuros
2011-03-31, 13:34:26
Er erscheint nicht nur groß sondern er ist tatsächlich sehr groß. Der größte seit Jahren...

Nochmal Deine Rechnung diesmal mit dem stornierten 32nm:

65x65 = 4225
55x55 = 3025 (~ minus 28,25%)
40x40 = 1600 (~ minus 47,10%)
32x32 = 1024 (minus 36,00%)
28x28 = 784 (minus 25%)

Der Sprung von 90 auf 65nm war uebrigens groesser, nur war eben leider die GT200@65nm durchschnittliche Leistung im Vergleich zum G80 nicht analog zum hypothetischen Herstellungsprozess-Unterschied.

Im Gegensatz ist der Unterschied zwischen 40 und 55nm um einiges kleiner als zwischen 90 und 65nm, jedoch ist GF1x0 um einiges schneller im Durchschnitt im Vergleich zu GT200@55nm als GT200@65nm vs. G80. Hoffentlich hilft es diesmal zu verstehen was ich meine.

deekey777
2011-03-31, 13:42:28
Er ist nicht groß.
G80 -> GT200 -> GF100/110:
90 nm -> 65 nm -> 40 nm
R600 -> RV770 -> Cypress/Cayman:
80 nm -> 55 nm -> 40 nm
(den RV670 habe ich unterschlagen).
Es gab deutlich größere Sprünge, zB von RV530 auf RV630.
80 nm, 55 nm und auch 32 nm sind nur "half nodes" oder wie das auch sonst heißen mag: Es sind bloß Shrinks.

w0mbat
2011-03-31, 13:56:21
32nm ist ne half-node?

Ailuros
2011-03-31, 14:04:59
32nm ist ne half-node?

Afaik nein.

AnarchX
2011-03-31, 14:10:34
TSMCs 32nm war ein Half-Node zu 40nm. Hier wären wohl optische Shrinks möglich gewesen.

deekey777
2011-03-31, 14:14:37
Ist Cayman eigentlich ein Vorbote der SI-Generation?

AnarchX
2011-03-31, 14:17:21
Laut AMD war der Schritt auf VLIW4 doch eher HPC orientiert.

Da wäre es nicht verwunderlich, wenn SI-High-End wieder auf VLIW4 setzt (vielleicht gar mit 32 ALUs pro SIMD), während die Einsteiger-GPUs weiterhin auf VLIW5 setzen.

deekey777
2011-03-31, 14:39:42
32 VLIW4/5-ALUs per SIMD? Das glaube ich weniger.
Aber darum geht's mir eigentlich nicht. Für mich war es schon überraschend, dass die "engines" je 12 SIMDs haben.
Was ist Cayman wirklich? Wenn man daraus eine HD7000er macht, dann wäre es eine Art das, was heute HD6800 ist, vielleicht so gar eine Etage tiefer (RV830 ist ja fast RV770).
Ein Highend-SI wird wohl mindestens 50% mehr des Cayman, vielleicht so gar +75/100%. Andererseits stellt sich die Frage, wie groß so ein doppelter Cayman in 28 nm wäre (dass der Cayman so groß wird, war auch etwas überraschend).

robbitop
2011-03-31, 15:04:16
Er ist nicht groß.
G80 -> GT200 -> GF100/110:
90 nm -> 65 nm -> 40 nm
R600 -> RV770 -> Cypress/Cayman:
80 nm -> 55 nm -> 40 nm
(den RV670 habe ich unterschlagen).
Es gab deutlich größere Sprünge, zB von RV530 auf RV630.
80 nm, 55 nm und auch 32 nm sind nur "half nodes" oder wie das auch sonst heißen mag: Es sind bloß Shrinks.
Ich meine mich erinnern zu können, dass 40 nm nur ein half node von 45 nm ist und dass der 45 nm full node einfach nur übersprungen / gecancelt wurde. 32 nm wäre folgerichtig auch ein full node.

Ailuros
2011-03-31, 15:19:52
Ich meine mich erinnern zu können, dass 40 nm nur ein half node von 45 nm ist und dass der 45 nm full node einfach nur übersprungen / gecancelt wurde. 32 nm wäre folgerichtig auch ein full node.

Obwohl es sinnlose Haarspalterei war 45 bzw. 40nm bei TSMC ein und dasselbe. Ich sagte afaik war 32nm ein full node, ist aber auch verdammt nebenwichtig wie man eine Leiche genau nennt.

32 VLIW4/5-ALUs per SIMD? Das glaube ich weniger.

So absurd klingt es auf jeden Fall nicht. Ich bezweifle uebrigens dass SI alles andere als VLiW4 ALUs hat. Die eigentliche Frage in solch einem Fall waere ob es bei 4 TMUs/cluster bleibt oder ob sie 8 TMUs/cluster steigen.

Ein Highend-SI wird wohl mindestens 50% mehr des Cayman, vielleicht so gar +75/100%. Andererseits stellt sich die Frage, wie groß so ein doppelter Cayman in 28 nm wäre (dass der Cayman so groß wird, war auch etwas überraschend).

Sie muessen ja auch nicht alles verdoppeln fuer SI. Ich bin zwar nicht besonders gut mit Transistoren-Einschaetzungen aber ich bezweifle dass SI die 4 Mrd. Grenze sprengen wird.

mboeller
2011-03-31, 15:20:13
Verstehe ich euch richtig?

Kann mir bitte jemand in einfachen Worten erklären warum die 28nm Generation nicht ca.70-90% schneller sein wird als die Aktuelle?

Danke :)

Dark silicon! :cool: ;)

AnarchX
2011-03-31, 15:47:35
Ich meine mich erinnern zu können, dass 40 nm nur ein half node von 45 nm ist und dass der 45 nm full node einfach nur übersprungen / gecancelt wurde. 32 nm wäre folgerichtig auch ein full node.
TSMC hatte 32nm als Cost-Down zu 40nm bezeichnet. Während 28nm eher einem Full-Node gerecht sei. Litographie war wohl bei beiden Prozessen aber gleich, sodass ein optischer Shrink von 40 auf 32nm wohl doch nicht möglich gewesen wäre.


So absurd klingt es auf jeden Fall nicht. Ich bezweifle uebrigens dass SI alles andere als VLiW4 ALUs hat. Die eigentliche Frage in solch einem Fall waere ob es bei 4 TMUs/cluster bleibt oder ob sie 8 TMUs/cluster steigen.

Im Bezug auf TMU-Effektivität hat AMD definitv etwas zu tun. Das Patent mit den zwei Micro-Quad-TMUs die für anspruchsvollere Formate zusammenarbeiten wurde ja nicht in NI umgesetzt.

Auf der anderen Seite wäre für die ersten Charge an 28nm Chips eher konservative Design auf Basis aktueller Designs denkbar:
Cayman mit ein paar mehr SIMDs @ ~250mm²
Barts @ 128-Bit 6Gbps @ ~ 150mm²

Nvidia könnte wohl ähnlich vorgehen und GK100 zu Beginn ein paar 28nm GF11x zur Seite stellen, die Mitte bis Ende 2012 durch GK1xx ersetzt werden.

deekey777
2011-03-31, 16:32:58
...


So absurd klingt es auf jeden Fall nicht. Ich bezweifle uebrigens dass SI alles andere als VLiW4 ALUs hat. Die eigentliche Frage in solch einem Fall waere ob es bei 4 TMUs/cluster bleibt oder ob sie 8 TMUs/cluster steigen.
.
Vielleicht liege ich ganz daneben:
Ein SIMD bearbeitet aktuell zwei Wavefronts in einem Wisch (= acht Takte). 32 ALUs führen zwangsläufig zu einem größeren Eingriff als bloß die Halbierung der Latenz. 32 ALUs führen zwangsläufig zur Erhöhung der Anzahl der TMUs.

Ach, keine Ahnung.

john carmack
2011-03-31, 17:03:10
Dark silicon! :cool: ;)


Sehr einfach und einleuchtend!

:confused:


Wäre schön wenn AMD und Nvidia mal wenigstens ein paar kleine winzige Details rausrücken würden.

Nakai
2011-03-31, 17:58:42
So absurd klingt es auf jeden Fall nicht. Ich bezweifle uebrigens dass SI alles andere als VLiW4 ALUs hat. Die eigentliche Frage in solch einem Fall waere ob es bei 4 TMUs/cluster bleibt oder ob sie 8 TMUs/cluster steigen.

Wäre das wirklich vorteilhaft? Dazu benötigen die SIMDs deutlich mehr Bandbreite für die TMUs. Wäre das der Fall, wird deutlich mehr an der Architektur geändert werden müssen.

IMO hat AMDs Architektur derzeit genug Texturleistung im Verhältnis zur Shaderleistung. Man wird wohl eher die bestehenden Textureinheiten etwas aufbohren um mehr Funktionalität und mehr Performance rauszuholen. Das wäre dann auch ein Grund endlich ein besseres AF anzubieten.

Durch 28nm werden die Chips etwa 50% kleiner. Da ist einiges möglich.

Was ich erwarten würde:
- verbessertes Frontend(stärkerer Tesselator, besserer Rasterizer)
- breiteres Frontend(doppelter Cayman)
- überarbeitete SIMDs(mehr Bandbreite)
- verbesserte TMUs(FP16 extra, mehr Bandbreite)
- mehr ROPs(48+)
- falls kein sehr schneller GDDR5 verwendet wird, dann wäre ein 384Bit SI nett
- in etwa doppelte Anzahl der Recheneinheiten.

Naja mal guckn was kommt. Performance brauch ich eh ned. Mehr Funktionalität und bessere TMUs sind wünschenswert.


mfg

mboeller
2011-03-31, 18:32:47
Sehr einfach und einleuchtend!

:confused:



Einfach; Leakage und generell der Verbrauch gehen nach oben, die Grenze ist mit 300Watt aber bereits erreicht. Deshalb müssen immer größere Bereiche der GPUs stromlos geschaltet werden um beim Verbrauch nicht über die Stränge zu schlagen. Die Leistung der CPUs, APUs und GPUs steigt deshalb sehr wahrscheinlich nur noch geringfügig an (IMHO +20-30% pro xx nm-Generation bei den GPUs).

Eine nette Zusammenfassung, was Dark Silicon meint (ist sowieso nur ein fancy word ;) ) findest du hier:

http://www.hotchips.org/uploads/archive22/HC22.23.240-Goulding-GreenDroid.pdf

homepage: http://greendroid.ucsd.edu/

john carmack
2011-03-31, 20:49:25
- falls kein sehr schneller GDDR5 verwendet wird, dann wäre ein 384Bit SI nett


Naja mal guckn was kommt. Performance brauch ich eh ned. Mehr Funktionalität und bessere TMUs sind wünschenswert.


mfg

Soweit ich weiß ist doch GDDR5 schon fast an der Grenze.
Die 6970 taktet glaub mit 2,8Ghz/1,4Ghz... Ich erinnere mich gelesen zu haben das bei etwa 3,2Ghz/1,6Ghz schluss ist!

Und GDDR6 ist glaub auch noch net in sichtweite.

384Bit / 512Bit SI halte ich für wahrscheinlicher.

Ailuros
2011-04-01, 07:24:01
Wäre das wirklich vorteilhaft? Dazu benötigen die SIMDs deutlich mehr Bandbreite für die TMUs. Wäre das der Fall, wird deutlich mehr an der Architektur geändert werden müssen.

IMO hat AMDs Architektur derzeit genug Texturleistung im Verhältnis zur Shaderleistung. Man wird wohl eher die bestehenden Textureinheiten etwas aufbohren um mehr Funktionalität und mehr Performance rauszuholen. Das wäre dann auch ein Grund endlich ein besseres AF anzubieten.

Durch 28nm werden die Chips etwa 50% kleiner. Da ist einiges möglich.

Was ich erwarten würde:
- verbessertes Frontend(stärkerer Tesselator, besserer Rasterizer)
- breiteres Frontend(doppelter Cayman)
- überarbeitete SIMDs(mehr Bandbreite)
- verbesserte TMUs(FP16 extra, mehr Bandbreite)
- mehr ROPs(48+)
- falls kein sehr schneller GDDR5 verwendet wird, dann wäre ein 384Bit SI nett
- in etwa doppelte Anzahl der Recheneinheiten.

Naja mal guckn was kommt. Performance brauch ich eh ned. Mehr Funktionalität und bessere TMUs sind wünschenswert.


mfg

32 ALUs + 4 TMUs/cluster bedeutet ein 8:1 ALU:TMU ratio oder anders 2x Mal so viel wie heute. Mir klingt es noch zu frueh fuer eine Steigerung zu 8:1 von 4:1. Aus dem Grund alleine frage ich mich ob bei hypothetischen 32 ALUs/cluster dann auch 8 TMUs mehr Sinn machen wuerden.

Und nochmal bei 28nm werden chips nur bei idealen shrinks um 50% kleiner.

***edit:

http://www.centrale3d.com/IMG/jpg/tsmc28nm1.jpg

http://www.centrale3d.com/?TSMC-en-route-pour-le-28-nm

Das Zeug ist das typische TSMC Geschwafel dass sie meistens nicht unbedingt einhalten koennen. Der slide klingt uebrigens eher an LP Prozessen orientiert; falls es der Realitaet entsprechen sollte sind sie tatsaechlich auf einer sehr guten Schiene.

Eingentlich nur typischer Marketing-Mist von TSMC auf die die meisten Leser leider meistens reinfallen. Nur mal so nebenbei die ersten drei Punkte im slide sind nicht gleichzeitig anwendbar ;)

V2.0
2011-04-01, 08:10:43
Wenn man über neue Chips spricht sollte man nicht vergessen, das es leien neue API gibt. Wenn also die heutigen Chips nahe an einer optimalen Balance für DX11 wären, dann kann man für 28nm keine gravierenden Veränderungen erwarten, sondern eher ein Verbreiterung der bestehnden Architektur.

Ailuros
2011-04-01, 08:23:45
Wenn man über neue Chips spricht sollte man nicht vergessen, das es leien neue API gibt. Wenn also die heutigen Chips nahe an einer optimalen Balance für DX11 wären, dann kann man für 28nm keine gravierenden Veränderungen erwarten, sondern eher ein Verbreiterung der bestehnden Architektur.

Cayman war original unter 32nm geplant (unter dem codenamen "Ibiza"?). Bei einem optimalem shrink waere das Ding um die 250+mm2 gewesen. Unter 28nm und angenommen sie wollen die Cayman die area nicht ueberschreiten passen nochmal >30% Transistoren rein. Unter 4 Mrd. schaetze ich persoenlich so oder so und irgendwo zwischen 3.5 und <4.0 duerfte eine logische Spekulation sein.

Leakage soll diesmal dank HKMG (sowohl bei TSMC als auch bei GloFo - neben den gate first/gate last Unterschieden) kein so grosser Kopfschmerz sein wie bei 40nm.

Vom obrigen kann man dann eventuell etwas weiterspekulieren. Ein guter Punkt war dass Cypress in zwei 10-er cluster Bloecke aufteilte und Cayman in zwei 12-er. Ich bezweifle dass sich die Anzahl pro Block steigern wird sondern eher die Anzahl der Bloecke selber koennte aber auch total falsch liegen.

***edit: dass der feature-Druck dank DX11 diesmal fehlt hab ich schon vor einigen Posts erwaehnt. Ich will lediglich davor warnen dass 28nm ploetzlich der absolute Wunderbringer sein wird; ueberhaupt wenn es mit TSMC zu tun hat. Deren schlimmstes Problem ist so oder so Kapazitaet. Dass NV uebrigens fuer T3 von 28nm auf 40nm wandelte heisst fuer mich nichts gutes was deren 28nm Kapazitaeten betrifft und dabei war afaik T3 anfangs nur fuer 28LP geplant und nicht wie T2 auf 40G.

mboeller
2011-04-01, 10:04:14
Leakage soll diesmal dank HKMG (sowohl bei TSMC als auch bei GloFo - neben den gate first/gate last Unterschieden) kein so grosser Kopfschmerz sein wie bei 40nm.


in deinem Slide oben wird aber nur SiON erwähnt, kein HKMG. Hat TSMC noch einen 2. 28nm Prozess in der Entwicklung (incl. HKMG)?

Ailuros
2011-04-01, 10:56:02
in deinem Slide oben wird aber nur SiON erwähnt, kein HKMG. Hat TSMC noch einen 2. 28nm Prozess in der Entwicklung (incl. HKMG)?

Zu schnell den Post durchgelesen? Hier nochmal was unter dem Bildchen steht:

Das Zeug ist das typische TSMC Geschwafel dass sie meistens nicht unbedingt einhalten koennen. Der slide klingt uebrigens eher an LP Prozessen orientiert; falls es der Realitaet entsprechen sollte sind sie tatsaechlich auf einer sehr guten Schiene.

aylano
2011-04-01, 13:29:37
Deren schlimmstes Problem ist so oder so Kapazitaet. Dass NV uebrigens fuer T3 von 28nm auf 40nm wandelte heisst fuer mich nichts gutes was deren 28nm Kapazitaeten betrifft und dabei war afaik T3 anfangs nur fuer 28LP geplant und nicht wie T2 auf 40G.
Kapazitätsprobleme könnte doch stark auf Yield-Probleme hindeuten.

Probleme wären ja nicht verwunderlich, wenn 28HP 2 Jahr nach 40G kommt, die erst 1Q 2010 nur die Yield halbwegs in Griff hatten.

in deinem Slide oben wird aber nur SiON erwähnt, kein HKMG. Hat TSMC noch einen 2. 28nm Prozess in der Entwicklung (incl. HKMG)?
Es waren mal 3 geplant
28LP & 28HP & 28HPL
http://www.tsmc.com/tsmcdotcom/PRListingNewsArchivesAction.do?action=detail&newsid=4041&language=E

Ich finde die Meldungen über die TSMC-28nm-GPUs komisch, wo zuerst Poly verwendet werden soll.

Ailuros
2011-04-01, 13:46:50
Kapazitätsprobleme könnte doch stark auf Yield-Probleme hindeuten.

Bei 40G gab es am Anfang sowohl Kapazitaets- als auch Yield-Probleme. Ausser ich hab etwas verpasst redet TSMC fuer den 28nm nur von Fab12. Auch 40G hat nur mit einer Fab angefangen. Dass am Anfang eine geringe Anzahl von wafers nur weniger als eine handvoll operative dies gab (ja fuer AMD) ist dann ein anderes Kapitel. Cypress yields waren trotz allem am Anfang irgendwo <50% was nicht miserabel ist insgesamt aber geschichtlich waren bis zu 65nm dessen 63% yields die schlechtesten.

Probleme wären ja nicht verwunderlich, wenn 28HP 2 Jahr nach 40G kommt, die erst 1Q 2010 nur die Yield halbwegs in Griff hatten.

Eben.

aylano
2011-04-01, 18:36:52
Bei 40G gab es am Anfang sowohl Kapazitaets- als auch Yield-Probleme. Ausser ich hab etwas verpasst redet TSMC fuer den 28nm nur von Fab12. Auch 40G hat nur mit einer Fab angefangen. Dass am Anfang eine geringe Anzahl von wafers nur weniger als eine handvoll operative dies gab (ja fuer AMD) ist dann ein anderes Kapitel.

Ich Verstehe nicht, warum es ein Kapazitäts- und ein Yield-Probleme gab.

Meiner Meinung, ergäbe Kapazitätsprobleme nur Sinn, wenn die Yield-Probleme dann zu einer Kapazitätsproblem geführt hat.
Kapazitätsproblem wären auswirkungen, wenn man zu wenig Tools bestellt hätte oder keine mehr "kurzfristig" (einige Quartale) bestellen kann oder die Fabriken zu klein dimensioniert hätten, (was man aber von der Giga-Fab mit 100.000 12"-Wafer pro Monat ja nicht sagen kann.)

----

Interessant waren die Kapazitäts-Probleme von TSMC allemal. Denn da ging es nur um AMD & Nvidia-GPUs. (Tegras dürften bis zumindestens Mitte 2010 kaum eine Rolle gespielt haben)
Man stelle sich vor, Tegra 2 wäre schon ab 1Q 2010 ein Erfolg mit riesen Stückzahlen in Tablets (& Smartphones) und Ontario-40nm wäre genau 1 Jahr früher gekommen.
Andere ARM-Hersteller kamen erst ab Mitte 2010 in die TSMC-Produktion, sodass AMD jetzt mit Ontario trotz 2. 40nm-Fabrik (Fab14) wieder einen 40nm-Wafer-Engpass hat.

Ob da nicht eine Giga-Fabrik nicht schon zu wenig ist?
Denn ab Ende 2011/Anfang 2012 kommen neben AMD-&-Nvidia-GPUs eben auch noch "Ontario-28nm" und Tegra-28nm hinzu?

Da kann man über den GF-Einstieg mit 28nm sehr froh sein, aber die Fab1 Modul 2 hat ja "nur" 30.000 Wafer-pro-Monat, welche primär für 28nm-Bulk verwendet werden soll.

Ailuros
2011-04-01, 19:46:31
Ich Verstehe nicht, warum es ein Kapazitäts- und ein Yield-Probleme gab.

Am Anfang gab es nur eine Fab die fuer 40G herstellte und zur gleichen Zeit mit schlechten yields. Ab Q3 2010 wurde in zwei Fabs (12 & 14) mit 40G hergestellt und die maximale Kapazitaet von wafers stieg von 80.000 zu 160.000 wafer. Immer noch schwer zu verstehen?

Wenn nicht spar mir die Muehe so viel irrelevantes durchlesen zu muessen; der eigentliche Punkt ist dass es von grossen GPUs innerhalb von 2012 wohl nichts geben wird.

aylano
2011-04-01, 21:14:24
Am Anfang gab es nur eine Fab die fuer 40G herstellte und zur gleichen Zeit mit schlechten yields. Ab Q3 2010 wurde in zwei Fabs (12 & 14) mit 40G hergestellt und die maximale Kapazitaet von wafers stieg von 80.000 zu 160.000 wafer. Immer noch schwer zu verstehen?

Wie wäres, den Sinn des Textes zu verstehen!

a) Du weißt anscheinend auch nicht, dass es Fab (12 &) 14 schon viel länger gibt und
b) ist es egal wie hoch die Kapazitäten von 40nm sind, wenn AMD im 1Q 2011 nicht genug 40nm-Wafer bekommt.
c) Ist jetzt TSMC unfähig geworden, genügend Tools / Kapazitäten bereitzustellen)?


Wenn nicht spar mir die Muehe so viel irrelevantes durchlesen zu muessen;
Dann solltest du den Sinn des Textes verstehen, damit er relevant wird und du nichts irrelevantes Schreibst indem du teils das schreibst was ich eh schrieb. (siehe schlechte Yield bei Anfnags nur einer "Fabrik"; No na ned, das hätte ich jetzt nicht gedacht)


der eigentliche Punkt ist dass es von grossen GPUs innerhalb von 2012 wohl nichts geben wird.
Schön zu wissen, aber was ist nun groß?
Ist ein Caymann & GF114-Shrink schon groß?

Größere Dies zur Halbzeit einer jungen Fertigung wäre ja nichts neues.

Ailuros
2011-04-01, 22:16:55
Wie wäres, den Sinn des Textes zu verstehen!

Wobei ich mit Dir spezifisch konstant ein Problem zu scheinen habe.

a) Du weißt anscheinend auch nicht, dass es Fab (12 &) 14 schon viel länger gibt und

Nur waren beide nicht schon seit 2009 operativ fuer 40G sondern es kam die zweite erst in Q3 2010 mit 40G wafer Herstellung dazu.

b) ist es egal wie hoch die Kapazitäten von 40nm sind, wenn AMD im 1Q 2011 nicht genug 40nm-Wafer bekommt.

Es ist eben nicht egal; denn von den Kapazitaeten selber haengt es teilweise fuer jeglichen IHV ab ob es sich lohnt bei X Zeitpunkt herzustellen oder nicht und nein AMD wird in keinem Fall benachteiligt gegenueber jeglichem anderen.

c) Ist jetzt TSMC unfähig geworden, genügend Tools / Kapazitäten bereitzustellen)?

Falls es Dir bis jetzt nicht aufgefallen ist NV hat bis zum GF100 nie den neuesten Herstellungsprozess fuer ihre high end chips benutzt, im Gegensatz zu ATI. Zwei grosse IHVs zu bedienen ist schon ein Unterschied als nur einen.

Dann solltest du den Sinn des Textes verstehen, damit er relevant wird und du nichts irrelevantes Schreibst indem du teils das schreibst was ich eh schrieb. (siehe schlechte Yield bei Anfnags nur einer "Fabrik"; No na ned, das hätte ich jetzt nicht gedacht).

Ich bin Dir ueberhaupt nichts schuldig. Ich muss jedesmal gewaltig Geduld aufweisen um Deiner uebertriebenen Schreibfreudigkeit folgen zu koennen. Wie waere es mit cliff notes ausnahmsweise? Oder ist es zu schwer einen Punkt in einen Satz unterzubringen als in zich Paragraphen und unendlichen Quote-Orgien?

TSMC faengt wieder mit nur einer fab die 28nm Produktion an *punkt*

Schön zu wissen, aber was ist nun groß?
Ist ein Caymann & GF114-Shrink schon groß?

Ditto fuer AMD, NV taucht den Zehen ins Wasser mit einem low end chip.

Gipsel
2011-04-02, 17:19:59
Ich finde die Meldungen über die TSMC-28nm-GPUs komisch, wo zuerst Poly verwendet werden soll.
28nm Poly-Gates werden wohl leaken wie die Hölle, wenn man nicht absolut niedrige Spannungen fährt bzw. fast ausschließlich High-Vt-Transistoren verbaut. Schon mit 40nm gab es genügend Probleme in der Hinsicht (Leakage ~50% des Stromverbrauch behaupet Konkurrent GF). Für etwas, daß irgendwo High-Performance sein soll, benötigt man in 28nm wohl zwingend HKMG.

aylano
2011-04-02, 19:17:46
Wobei ich mit Dir spezifisch konstant ein Problem zu scheinen habe.

Und, was soll ich drauf sagen?
Schön für dich. (= vor dir gewünschter kurzer Satz)

Meine Meinung ist leider länger.
Vielleicht liegt es daran, weil dir kaum wer widerspricht, wenn es um Hardware-Spekulations-Produkte geht, wo du was wissen könntest.


Nur waren beide nicht schon seit 2009 operativ fuer 40G sondern es kam die zweite erst in Q3 2010 mit 40G wafer Herstellung dazu.

Schön, dass du zweiteres mehrmalig wiederholst.

Aber warum es im 4Q keinen Engpass gab und im 1Q bei AMD schon wieder, darauf bist du eben nicht eingangen und das wäre eben das interessante bzw auf das was ich hinauswollte, weil sich das IMO eventuell auch in der Zukunft (28nm) wiederholen könnte.
Das würe man auch Topic-Verfehlung nennen, wenn man sich auf das Ursprungs-Posting bezicht.
In einem Spekulationsforum reicht es nicht nur Fakten zu bringen, sondern da überlegt man sich auch die Entwicklungen (wenn man mal keine Fakten kennt)

Also, 2 Fabriken reichen jetzt schon nicht aus, warum sollte es dann in Zukunft eine Ausreichen?

Die Sache ist die. AMD bekommt seit ca. März 2010 3 Mio. 40nm-GPUs. Und im 4Q war es mit ca. 3,5 Mio. 40nm-GPUs auch nicht viel anders

Abgesehen, dass die die +80.000 40nm-Wafer-STARTS!!! durch Fab 14 im 3Q 2010 bezweifel ( außer du & wer anderer kann mich mit einem Link belehren), wäre der Engpass von AMD umso-Rätselhafter, wenn sie eigentlich gar nicht mehr so viele 40nm-Wafer führ ihre GPUs von der Fab 14 bräuchten, die sagenhafte 80.000 Wafer produzieren könnte.

PS: Damit es jetzt ganz kompliziert wird.
Der Ausdruck Fabrik ist so eine Sache.
http://techon.nikkeibp.co.jp/english/NEWS_EN/20080804/155981/
http://www.fabtech.org/news/_a/tsmc_adds_capacity_with_fab12_phase_5_and_fab_14_phase_4_expansions/
Die Fabriken sind in Phasen unterteilt wie GF mit Modulen, wobei die Phase/das Modul wieder so groß sind wie eine Fabrik ist.

http://english.ime.cas.cn/ns/es/201003/t20100302_51092.html
Und wenn das stimmt bzw. richtig interpretiere, dann werden alte Fabriken nie auf neue Fertigungen umgestellt (siehe erste Grafik) sondern für jede kleinere Fertigung zumindestens eine Phase gebaut.



Es ist eben nicht egal; denn von den Kapazitaeten selber haengt es teilweise fuer jeglichen IHV ab ob es sich lohnt bei X Zeitpunkt herzustellen oder nicht und nein AMD wird in keinem Fall benachteiligt gegenueber jeglichem anderen.

Wie soll ich das verstehen?
Die Yield bestimmt den Einführungszeitpunkt?
Öhm, nicht zufällig was ich zuerst sagte? (Was übrigend der Grund für unsere lange Diskussion ist.)

Meiner Meinung, ergäbe Kapazitätsprobleme nur Sinn, wenn die Yield-Probleme dann zu einer Kapazitätsproblem geführt hat.

AMD hätte sehrwohl mehr Wafer bestellen können, ohne ein Verlustgeschäft machen zu müssen.

Der Unterschied von dir AFAIK ist die Umgekehrte Betrachtungsweise, indem die Kapazitäten für immer fix sind, während ich die Kapazitäten etwas flexibler sehe.
Also, wenn man schon 1 Jahr die schlechten Yields kennt, war schon 1 Jahr davor klar, dass aufgrund der schlechten Yield für die gleiche Menge an funktionierenden Dies mehr Wafer-Kapazitäten gebraucht werden und somit die Belichtungs-Tools schneller in die Fabrik installiert werden sollten.
Wobei das wieder nur den Ramp betrifft.
Anderes Problem ist, wenn es zu wenig FAbriken bei angeblich guten Yield gibt.

Falls es Dir bis jetzt nicht aufgefallen ist NV hat bis zum GF100 nie den neuesten Herstellungsprozess fuer ihre high end chips benutzt, im Gegensatz zu ATI. Zwei grosse IHVs zu bedienen ist schon ein Unterschied als nur einen.
???

GF100 kam 9 Monate nach GT215 & GT216.
Wie ist "NEU" definiert??

Du weißt, dass die High-End-Chips die meisten Wafer benötigen? Warum schriebst/schreibst du immer nur, dass die Lieferengpässe des HD 5870 von dem plötzlich fallenden & unregelmäßigen Yield verursacht war? Ich kann man nicht erinnern gelesen zu haben, dass die High-End-Chips generell (also auch bei guter Yield) massig/am meisten Wafer benötigen, was auch ein massiver Grund für die schlechte HD 5870 war.

Ich bin Dir ueberhaupt nichts schuldig. Ich muss jedesmal gewaltig Geduld aufweisen um Deiner uebertriebenen Schreibfreudigkeit folgen zu koennen. Wie waere es mit cliff notes ausnahmsweise?
Verstehe ich. Da du immer nur Sachen weißt und du dir kaum Spekulierst (= Mehere Möglichkeiten = brainstorming = Viel text = non-Eine-Reale-kurze-Information) verstehe ich, warum das durchgehen von Möglichkeiten für dich fremd ist.

Und wenn du etwas mal nicht weißt und du die selbe Situations wie andere in diesem Spekulationsforum hast, merkt man es auch sehr deutlich. ;)

PS: Leider hatte ich ja deinen Rat angenommen. Siehe Seite 3 alias "Foundry-Schlacht".
Und genau das führte eben auch zu einer langen Diskussion.
(Ironischerweise überlegte ich hier ein bischen, ob ich es nicht genauer schreiben sollte, was damit genau gemeint ist, damit es nicht zu missverständisse kommt. Witzigerweise, hast gerade du es missverstanden.)
Dir kann man es sowieso nicht recht machen.
Außerdem wäre "die Diskussion" auch damals erheblich kürzer gewesen, wenn du den Text mal genauer gelesen hättest.

Abgesehen davon ist das Problem, wenn man Texte zu kurz schreibt, dass gewisse Fanboys reagieren und das will ich vermeiden ;)
Also, für dich irrelevante lange Texte hat eben auch seinen Sinn.

Oder ist es zu schwer einen Punkt in einen Satz unterzubringen als in zich Paragraphen und unendlichen Quote-Orgien?

Dann schreib eben nur das Wesentliche, was mit dem Topic zu tun hat :-)

Sorry, aber ich finde es schon etwas lächerlich, wenn du mir vorwirfst, irrelevante Text-Abschnitte zu schreiben, wenn du im selben Postigen teile meines Posting (detto irrelevant) wiederholst.

TSMC faengt wieder mit nur einer fab die 28nm Produktion an *punkt*
Schön, war aber nicht das Thema.

Es geht darum, ob in Zukunft schon 2 Fabriken nötig sind, damit es zu keinen Lieferengpässen kommt.
Das ist nähmlich ein Schritt weiter als deine Ausage
Eine 28nm-Fabrik + Fertigungsprobleme = Engpässe ???

Das könnte schlimm aussehen, wenn TSMC jetzt schon mit 2 Fabriken nicht nachkommt.


Ditto fuer AMD, NV taucht den Zehen ins Wasser mit einem low end chip.
Hört sich nach schweren 28nm-Problemen an.

So kann man natürlich auch Liefer-Engpässe vermeiden, indem man im Jahre 2012 einfach keine High-end-Chips liefert. Und vielleicht sogar keine Performance-GPUs.
Tja, das werden dann alle Überraschen, die schon Anfang 2012 High-End-Chips (= zumindestens schneller als die aktuellen) erwarten.

28nm Poly-Gates werden wohl leaken wie die Hölle, wenn man nicht absolut niedrige Spannungen fährt bzw. fast ausschließlich High-Vt-Transistoren verbaut. Schon mit 40nm gab es genügend Probleme in der Hinsicht (Leakage ~50% des Stromverbrauch behaupet Konkurrent GF). Für etwas, daß irgendwo High-Performance sein soll, benötigt man in 28nm wohl zwingend HKMG.
Es ist schon seltsam, wenn TSMC einen 28HP-Poly & 28HP-HKMG entwickeln würde.
Entweder 28HP-Poly ist völlig unnötig, wenn 28HP-HKMG 3-6 Monate später kommt oder 28HP-HKMG kommt nach einem Jahr, aber dann hätten sei gleich einen 32nm-Poly (ebenfalls verspätet aber deutlich vor 28HP-Poly) und 28nm-HKMG entwicklen können

Falls die Poly-28nm-Gerüchte stimmen, deutet das eben auf heftige 28nm-HKMG Probleme hin, was dann eben eine Chance für GF wäre (, die sich selbstverständlich ja auch erst beweisen müssen)

Gipsel
2011-04-02, 20:04:17
Auf der Roadmap, die ich vor einiger Zeit mal gesehen habe, gab es Poly-Gates für den 28LP-Prozeß. Wie gesagt sollte HKMG für andere Anwendungen eigentlich auch deutlich besser sein.

Ailuros
2011-04-03, 08:39:29
aylano,

Es ist nicht dass ich Dich nicht als User schaetze, aber mit Verlaub mir ist meine Zeit zu wertvoll mich ueber solche Monster-posts zu beugen. Sonst ist das Internet und dessen Such-maschinen Dein Freund.

deekey777
2011-04-12, 17:35:22
AMD to launch three new Radeon HD 6000 series cards on April 19 (http://www.digitimes.com/news/a20110411PD227.html)
With its Radeon HD 6000 series product lines fully filled, AMD is already in preparation for the next generation Radeon HD 7000 series (Southern Islands) GPUs and is set to mass produce the GPU in May this year.
Report: Radeon HD 7000 series about to hit mass production (http://techreport.com/discussions.x/20756)
An 28 nm glaube ich irgendwie nicht.

Hugo78
2011-04-12, 17:58:08
Hmm vielleicht klingt im Englischem mit chinesischem Akzent ein "Risk", ähnlich "Mass".

Wobei grundsätzlich würde mich ja jede positive Neuigkeit zum 28nm freuen.
Wäre cool wenns da schneller voran geht als erwartet.

Spasstiger
2011-04-12, 18:27:25
Es gab doch erst vor ein paar Tagen eine Tapeout-Meldung der 28-nm-Generation (http://semiaccurate.com/2011/03/29/amds-southern-islands-tapes-out/), da wird man wohl kaum schon in einem Monat mit der Massenfertigung beginnen. Normalerweise vergehen zwischen dem ersten Tapeout und der Massenfertigung 4-6 Monate, bei einem neuen Fertigungsprozess durchaus auch mal mehr.

/EDIT: Wobei nach der Meldung von Charlie durchaus schon 8 Wochen nach Tapeout schon mit der Massenfertigung begonnen werden könnte, vorausgesetzt, es ist kein Respin erforderlich. Und der Tapeout erfolgte anscheinend bereits im Februar.
Also möglicherweise gibts tatsächlich schon im Sommer 28-nm-GPUs, wenn auch nicht mit gesteigerter Performance, sondern lediglich in Form von Dieshrinks der aktuellen 40-nm-Generation.
Aus der Radeon-HD-6900-Familie wird dann die Radeon-HD-7800-Familie und die Radeon-HD-7900-Familie (mit gefixtem AF) erscheint später, wenn der 28-nm-Prozess reif genug für große Dies ist.

aylano
2011-04-12, 18:47:33
Hmm vielleicht klingt im Englischem mit chinesischem Akzent ein "Risk", ähnlich "Mass".

Wenn man sich die Yield/Stückzahlen von RV740 anschaut, dürfte diese quasi mit Risk-Produktion gelauncht worden sein.

Mal sehen, ob AMD so gscheit ist und diesesmal Low-End & Mainstream zuerst launcht.

IMO profitierte Nvidia stark indem sie ihre Low-End-&-Mainstream-GPU sehr früh auf 40nm umstellte, während AMD ihre DX11-Flotte forcierte. (Neue Führung neue Strategie?)
Da Nvidia wegen geringeren Die-Flächen wahrscheinlich früher bessere Yields als AMD hatte, konnte Nvidia wahrscheinlich wegen den Frühen & Sinnvolleren Massen-Einstieg in 40nm die ganze Zeit mehr Wafer für sich beanspruchen.

Auf alle Fälle kann ich mir irgendwie nicht vorstellen, dass AMD oder Nvidia auf 28nm-Wafer-Kapazitäten verzichtet und beide werden wahrscheinlich versuchen ihre Low-End-&-Mainstream GPUs so schnell wie möglich auf den Markt zu bringen.

Um Massen-Design-Wins für den Meilenstein Ivy-Bridge zu ergattern, wäre eine Risk-Produktion vielleicht etwas zu spät und für die Mass-Produktion vielleicht etwas zu früh.

Auf alle Fälle bin ich gespannt, ob AMD wieder (etwas) unproblematischer (bessere Yield bei selber Diegröße) die neue Fertigung einführt.

S940
2011-04-12, 18:58:53
Report: Radeon HD 7000 series about to hit mass production (http://techreport.com/discussions.x/20756)
An 28 nm glaube ich irgendwie nicht.
Zitat aus dem Link:
saying retail cards might arrive some time between July 2011 and July 2012.
Na komm, bis Juli 2012 wird da wohl was in 28nm kommen ;-)

Hugo78
2011-04-12, 21:06:55
@S940
Das von 2011-2012 stammt von Char_lie.

So gut wie jeder, sieht 28nm Karten nicht vor Herbst, wenn überhaupt frühstens Weihnachten im Laden.
Wenn nicht gar noch später ...
Mit Blick auf TSMC's 40nm Problem und der eigenen Ankündigung, sich für den 28nm mehr Zeit nehmen zuwollen.
Da bricht sich Char_lie auch grade zu ein ab, mit seinem "Ein-Jahres-Zeitfenster". :ulol:

aylano
2011-04-13, 01:20:44
@S940
Das von 2011-2012 stammt von Char_lie.

Da bricht sich Char_lie auch grade zu ein ab, mit seinem "Ein-Jahres-Zeitfenster". :ulol:
Von den ersten 40nm-Low-End-&-Mainstream-GPUs bis zur Verfügbarkeit von AMD-&-Nvidia-High-End-GPUs war es auch fast 1 Jahr.

Passt irgendwie.

Also, falls TSMC Ende 2011 keine Low-End-&-Mainstream-GPUs herstellen kann, warum sollten sie dann in den nächsten 3-6 Monaten High-End-GPUs schaffen?

Und wenn TSMC Ende 2011 keine Low-End-&-Mainstream-GPUs herstellen kann, wie problematisch wäre dann die 28nm-Fertigung, wenn sie mit 2,5 Jahren (deutlich) über dem 2-jahres-Rythmus, ausgehend von der Problematischen 40nm-Fertigung, ist?

Bei so solchen Verspätungen/Problemen könnte GF schon eine wesentliche Rolle/Entscheidung spielen, auch wenn die ersten GPUs paar Monate später kommen mag.

So gut wie jeder, sieht 28nm Karten nicht vor Herbst, wenn überhaupt frühstens Weihnachten im Laden.
Low-End-& Mainstream-GPUs hatten bisher schon nicht diese Priorität wie es die High-End-GPUs haben. Bei manchen geht diese GPUs in der Wahrnehmung etwas unter.

Ich schäte mal: Je später TSMC mit 28nm daher, desto mehr könnte AMD wegen GF und GF selber durch diese Verspätung profitieren.

Nightspider
2011-04-13, 01:29:44
Erst das untere "Lowend" und Mainstream Marktsegment zu beliefern ist imho der einzig richtige Weg.
Ich hoffe Nvidia wird bei 28nm auch zuerst das Mainstream Segment beliefern.

Sonst geht es wieder wie mit Fermi in die Hose.

V2.0
2011-04-13, 06:59:52
Low-End ist aber extrem preissensibel und braucht daher Volume und Yield. Natürlich ist es technisch einfacher zuerst einen Low-End-Chip starten zu lassen, aber nur wenn er zu diesem Zeitpunkt maximal ergänzend zum aktuellen Angebot ist.

Ailuros
2011-04-13, 07:15:38
Erst das untere "Lowend" und Mainstream Marktsegment zu beliefern ist imho der einzig richtige Weg.
Ich hoffe Nvidia wird bei 28nm auch zuerst das Mainstream Segment beliefern.

Sonst geht es wieder wie mit Fermi in die Hose.

GT21x/DX10.1 wurde auch auf 40G hergestellt vor Fermi.

aylano
2011-04-13, 11:25:35
Low-End ist aber extrem preissensibel und braucht daher Volume und Yield. Natürlich ist es technisch einfacher zuerst einen Low-End-Chip starten zu lassen, aber nur wenn er zu diesem Zeitpunkt maximal ergänzend zum aktuellen Angebot ist.
Im Schlimmsten Fall verkauft man die GPUs nur im Notebook-Markt und zwar um so viel teurer, wie er in Performance-Pro-Watt besser ist.

Und wenn der 32nm-Prozess noch schlechter ist, dann verkauft man die Low-End-&-Mainstream nur an Hersteller, die ihre Notebooks generell teurer verkaufen (Apple, Sony, ...)

Dass es schlimmer als 40nm kommt, will ich mir jetzt noch nicht vorstellen.

Auch wenn 40nm-Problematisch war, mit den 40nm-GPUs von Nvidia konnte Nvidia das davor kontenuierliche Marktanteil-Wachstum stoppen und sogar Marktanteile bis zur HD5000er-Massen-Auslieferung zurückgewinnen und dabei machten sie nicht weniger Gewinn als heute.

So schlimm dürften sich die 40nm-Probleme bei Low-End & Mainstream nicht gewesen sein.
Nicht zu vergessen, wer schlimmere Probleme vermutet, vermutet auch automatisch größere Verzögerungen oder Probleme mit High-End-GPUs.

R.I.P.
2011-04-13, 14:44:41
Verstehe im Moment wieder nur Bahnhof :freak: Massenfertigung im Mai 2011 und Karten erst 2012? Habe ich etwas verpaßt? Vergeht auch normalerweise so viel Zeit zwischen "Massenfertigung" und Release?

M.(to_the)K.
2011-04-13, 14:54:27
Interessant wird es alle mal. Wenn wirklich zuerst der rv 1040 kommt und man wie mit der 4770 erstmal gucken möchte, dann wird es sehr interessant. Wenn man jetzt mal die Daten der 7990 nimmt, dann hat der rv1070:
ca. 2048 (512 4D)-3200 (800 4D) Streamprozzis, vllt. 3072 (768 4D)
ca. 128-200 Textureinheiten, vllt. 192 Textureinheiten
48 ROPs,
384 bit @ 3GB DDR 5 @ 2500 mhz @ 240.000 MB/s
ca. 3,8-6 TFlops Rechenleistung vllt. 5,8 TFlops
bei ca. 4,5 Milliarden Transistoren auf ca. 380 mm2 (rv 970 2,65 bei 389)

DAS ist mal ne Ansage. Wenn es denn stimmt. Durch 28 nm spart man ja ca. 52% Diefläche ein, wenn der Shrink ideal verläuft. Da kann natürlich einieges mit aufgebohrt bzw. verdoppelt werden, auch wenn 5,3 auf 389 mm2 wohl nich möglich sind, da das ja ur theoretisch geht.

der RV 1040 müsste dann, ausgehend von der 5770 etwa ein halber rv1070 werden. der 940 war ja son hybride und bei der 7000er wird wohl alles auf 4D umgestellt. also kann man wohl einfach wieder den High-End chip halbieren und höher takten:

ca. 1024 (256 4D)-1600 (400 4D) Stream-prozzis, vllt. 1536 (384 4D)
ca. 64-100 Textureinheiten vllt. 96
32 ROPs
256 bit @ 1/2GB GDDR 5 @ 2800mhz @ 180.000 MB/s
ca. 2,1-3,2 TFlops vllt. 3 TFlops
bei ca. 2,25 Milliarden auf ca. 190mm2 (rv940 1,7 auf 255mm2)



Haltet ihr sowas für realistisch? Der rv940 sollte von der Anzahl der Transistoren etwas unter dem rv970 landen und vonner Perforamnce etwas drüber. Das weglassen von 32 Textureinheiten gegenüber dem rv970 kann wohl durch mehr takt dank 28 nm und Deatailverbesserungen in den vorhanden Einheiten Teilweise ausgeglichen werden.


Allerdings würde dann die 7870 der 6950 und 6970 das laben ganz schön schwer machen, denn wer kauft dann noch veraltete chips?
Wenn der rv1040 dann schon im Sommer/Herbst erscheint wäre das SUPER: Passend zum Bulldozer hätte man dann auch gleich die passende nagelneue Grafikarte, ich würde da sofort zuschlagen. Denn die Massenfertigung eines 28nm Chips könnte ja bald einsetzen und der rv 1070 ist womöglich ne nummer zu groß und zu riskant und schon im mai in massenfertigung zu gehen. der rv 1040 wäre wohl erstmal unschlagbar was das performance/Watt Verhältniss angeht und würde Nvidias 570 gtx und Atis 6870/6950/6970 ordentlich ins schwitzen bringen. Wenn der dann noch für ca. 250 euro angeboten wird, könnte man mit Bulldozer im Sommer/Herbst mehr verkaufen als sie in 2 Jahren produzieren können.

Edit: Überarbeitet

Coda
2011-04-13, 14:55:17
Vermutlich ist der Tape-Out gemeint. Von dem vergehen i.d.R. mindestens 6 Monate bis Karten draußen sind.

AnarchX
2011-04-13, 14:58:34
@M.(to_the)K.
Diese HD 7990 Spekulation passt nicht zu AMDs VLIW4 Architektur (4 TMUs + 64SPs).

Vermutlich ist der Tape-Out gemeint. Von dem vergehen i.d.R. mindestens 6 Monate bis Karten draußen sind.
Was spräche gegen eine Produktion mit Per-Chip-Zahlung, damit man für den Launch zum Jahreswechsel eine entsprechend hohe Menge an Chips hat?

Coda
2011-04-13, 15:01:50
Hä? Man kann durch Geld nicht irgendwie magisch den Tape-Out-Prozess beschleunigen. Entweder es läuft alles glatt, oder eben nicht und man braucht Respins, etc.

Ailuros
2011-04-13, 15:04:12
Was spräche gegen eine Produktion mit Per-Chip-Zahlung, damit man für den Launch zum Jahreswechsel eine entsprechend hohe Menge an Chips hat?

Bei TSMC? Schoen waere es fuer alle IHVs, aber das Maerchen galt nie selbst nicht fuer NVIDIA.

AnarchX
2011-04-13, 15:06:53
Hä? Man kann durch Geld nicht irgendwie magisch den Tape-Out-Prozess beschleunigen. Entweder es läuft alles glatt, oder eben nicht und man braucht Respins, etc.

Laut Charlie war das Tape-Out Mitte Februar: http://semiaccurate.com/2011/03/29/amds-southern-islands-tapes-out/

Wenn das stimmen sollte, stellt sich die Frage ob es sich schon jetzt lohnt in Massenproduktion zu gehen, obwohl das Yield für 28nm bei TSMC höchstwahrscheinlich noch sehr gering ist.

Coda
2011-04-13, 15:08:55
Warum verlinkst du semiaccurate? Du kannst mir auch Scheißhauspapier hinhalten auf dem draufsteht wann der Tapeout war und es hätte für mich exakt den gleichen Wert.

Vielleicht hat er mal wieder einen Glückstreffer, aber das ist doch keine Diskussionsgrundlage.

AnarchX
2011-04-13, 15:10:46
Es passt jedenfalls zur Meldung über die Massenproduktion im Mai von Digitimes.

Coda
2011-04-13, 15:10:58
Dann verlink auch Digitimes und nicht diesen Spinner.

Ailuros
2011-04-13, 15:13:13
Laut Charlie war das Tape-Out Mitte Februar: http://semiaccurate.com/2011/03/29/amds-southern-islands-tapes-out/

Wenn das stimmen sollte, stellt sich die Frage ob es sich schon jetzt lohnt in Massenproduktion zu gehen, obwohl das Yield für 28nm bei TSMC höchstwahrscheinlich noch sehr gering ist.

Haben wir doch schon besprochen in dem Thread hier. Der "clue" liegt im vorletzten Paragraph von Charlie's writeup.

Es ist bei TSMC nicht so dass die yields die Kosten der Herstellung ueberhaupt nicht beinflussen, ganz im Gegenteil. Der Unterschied ist eben dass wenn ein wafer 5000 kostet bei nur 5 operativen dies nicht ploetzlich 1000/core bezahlen. Trotz allem bezahlt ein IHV eben auch nicht nur 50/core in solch einem Fall. Bei hypothetischen yields die unter 40-45% pro wafer liegen (Durchschnitt) ist es Selbstmord fuer jeglichen IHV in die Produktion zu gehen.

Warum verlinkst du semiaccurate? Du kannst mir auch Scheißhauspapier hinhalten auf dem draufsteht wann der Tapeout war und es hätte für mich exakt den gleichen Wert.

Vielleicht hat er mal wieder einen Glückstreffer, aber das ist doch keine Diskussionsgrundlage.

Er mag zwar einen Haufen Mist blubbern wenn der Tag lang ist aber zumindest was tape outs betrifft trifft er so lange wie ich seine Artikel verfolge schon meistens den Nagel auf den Kopf. Wenn der tape-out wirklich so frueh stattgefunden hat wie Charlie behauptet, dann handelt es sich wohl leider doch um ziemlich bescheidene Aenderungen, welches aber alles andere als positiv ist.

M.(to_the)K.
2011-04-13, 15:19:37
@M.(to_the)K.
Diese HD 7990 Spekulation passt nicht zu AMDs VLIW4 Architektur (4 TMUs + 64SPs).





OK, wie muss das Verhältnis denn aussehen?

Edit: OK stimmt, dann bräuchte man ja 200 TMUs. Das is wohl etwas zu groß und heftig. 128 sind aber dann etwas wenig, bei dem was man alles an Platz einspart müssen da dann irgendwas zwischen 128 und 200 TMUs bei rumkommen.

fondness
2011-04-13, 15:35:15
Warum verlinkst du semiaccurate? Du kannst mir auch Scheißhauspapier hinhalten auf dem draufsteht wann der Tapeout war und es hätte für mich exakt den gleichen Wert.

Vielleicht hat er mal wieder einen Glückstreffer, aber das ist doch keine Diskussionsgrundlage.

Bei Tapeout-Meldungen wirst du keine bessere Quelle finden.

Spasstiger
2011-04-13, 15:52:15
OK, wie muss das Verhältnis denn aussehen?
Wenn der "RV1070" auf dem VLIW4-Design von Cayman basiert, werden wir im Idealfall 3072 SPs und 192 TMUs sehen. Das würde 48 SIMD-Prozessoren entsprechen, die man über drei oder vier Rasterizer füttern könnte. Ich denke, dass AMD die Rasterizer-Leistung weiter aufbohren wird und vielleicht auch jedem Rasterizer zwei Tessellatoren spendiert wie bei Barts.
Alles in allem die Leistung einer Radeon HD 6990 in einer einzelnen GPU ohne Crossfire-Nachteile. Aber vor Weihnachten ist damit wohl nicht zu rechnen, eher erst 2012.

Gipsel
2011-04-13, 16:07:01
Ich denke, dass AMD die Rasterizer-Leistung weiter aufbohren wird und vielleicht auch jedem Rasterizer zwei Tessellatoren spendiert wie bei Barts.Barts hat nur einen Tessellator für beide Rasterizer (Scanline converter) zusammen. In dem Punkt unterscheidet er sich Null von Cypress. Die Datenversorgung klappt nur einen Tick besser.

Spasstiger
2011-04-13, 16:37:59
Barts hat nur einen Tessellator für beide Rasterizer (Scanline converter) zusammen. In dem Punkt unterscheidet er sich Null von Cypress. Die Datenversorgung klappt nur einen Tick besser.
Stimmt, ich hab da was durcheinandergebracht. Das Barts- und Cypress-Frontend hat zwei Rasterizer-Units und eine Tessellation-Unit in einer Raster-Engine. Bei Cayman sind es zwei Rasterizer-Units und zwei Tessellation-Units in zwei Raster-Engines. Ein weiteres Aufbohren wären dann drei oder vier Raster-Engines.

M.(to_the)K.
2011-04-13, 16:47:53
Steigt die Transistordichte eigentlich von Generation zu Generation? ICh mein auch wenn man die Fertigung nicht verkleinert?

Dann wäre meine chips nämlich etwas groß, bzw. dann könnte man auf der fläche noch mehr transistoren unterbringen.

Oder fällt die Transistorendichte erstmal leicht? Also lässt sich sagen wenn 40 nm zu 28 nm 52% Fläche eingespart wird auf der gleichen Fläche mehr als doppelt so viele Transistoren unterbringen lassen? Oder noch mehr? Oder Weniger?

Nakai
2011-04-13, 19:52:33
Mhh, langsam wirds wieder interessant.

IMO wird AMD erst einen HD68xx-Nachfolger bringen, also zu Barts.
28nm ist noch nicht sooo weit und ein kleinerer Chip ist erstmal vorteilhaft.

Oder fällt die Transistorendichte erstmal leicht? Also lässt sich sagen wenn 40 nm zu 28 nm 52% Fläche eingespart wird auf der gleichen Fläche mehr als doppelt so viele Transistoren unterbringen lassen? Oder noch mehr? Oder Weniger?

Das wäre etwas zu optimistisch.;)
Zwischen neuen Fertigungen wurde kaum die direkte Skalierung erreicht.

Ein weiteres Aufbohren wären dann drei oder vier Raster-Engines.

AMD hat schon eine starke Variabilität bei den Modulgrößen gezeigt.
Barts hatte 7, Cypress 10 und Cayman sogr 12.

Ein Bartsnachfolger könnte auf 3 Rasterengines also Modulen mit je 8 SIMDs setzen. Das sollte auch noch bei ungefähr 250mm^2 möglich sein.

M.(to_the)K.
2011-04-13, 20:29:29
Ja der rv 1040. Die Frage ist wie stark er wird. wenn meine spekulationen stimmen, dann wirds ne Karte etwa auf niveau einer 6970.

Ich denke man wird versuchen unter 230mm2 zu bleiben, einfach weil man bei allen modellen auf VLIW 4 setzen möchte und ein halber rv 1070 wäre das einfachste. so wie bei 5870 und 5770. damit ist man sher gut gefahren. mit dem rv740 wusste man schon genau, wie das mit dem rv870 aussehen würde und konnte treiber und alles ideal anpassen, da der rv870 ja nur ein verdoppelter rv840 war.

Aber nochmal eine Frage, wieviel von der optimalen Skalierung weicht man denn so ungefähr ab? Wie hoch ist das so pi mal daumen oder wie hoc/stark war die Abweichung bei vergangenen Generationen?

Spasstiger
2011-04-14, 00:22:00
Aber nochmal eine Frage, wieviel von der optimalen Skalierung weicht man denn so ungefähr ab? Wie hoch ist das so pi mal daumen oder wie hoc/stark war die Abweichung bei vergangenen Generationen?
Das ist eine Frage, die man so nicht direkt beantworten kann. Denn es gibt kein Maß für die optimale Skalierung zwischen zwei Noden.
Ein Transistor ist nicht gleich ein Transistor. Chipstrukturen werden nämlich nicht auf einzelne Transistoren stets exakt gleicher Bauart runtergebrochen, sondern auf Logikgatter und Funktionsgruppen, die man zwar in Transistoräquivalenten ausdrücken kann, aber keine Gliederung in identische Transistoren erkennen lassen.
Außerdem bedeutet ein neuer Prozess einen neuen Satz an Designregeln, der unter Umständen ein wesentlich flächeneffizienteres Design bestimmter Logikgatter zulässt, als man bei einem puren Vergleich der minimalen Strukturgröße vermuten würde. Es kann aber auch das genaue Gegenteil der Fall sein, die minimale Strukturgröße beschönigt den Prozess.

In der Industrie vergleicht man ganz gerne über die Flächenbelegung einer S-RAM-Zelle. Und auch da gibt es innerhalb ein und derselben Node zig verschiedene Varianten:
In 2004, TSMC demonstrated a 0.296 square micrometer 45 nm SRAM cell. In 2008, TSMC moved on to a 40 nm process.
In January 2006, Intel demonstrated a 0.346 square micrometers 45 nm node SRAM cell.
In April 2006, AMD demonstrated a 0.370 square micrometer 45 nm SRAM cell.
In June 2006, Texas Instruments debuted a 0.24 square micrometer 45 nm SRAM cell, with the help of immersion lithography.
In November 2006, UMC announced that it had developed a 45 nm SRAM chip with a cell size of less than 0.25 square micrometer using immersion lithography and low-k dielectrics.

Quelle: http://en.wikipedia.org/wiki/45_nanometer

M.(to_the)K.
2011-04-14, 12:18:28
OK ich merke schon, so etwas abschätzen zu wollen ist ein Kampf gegen Windmühlen :D

Ich bleibe bei meinen 2,2 bis 2,3 Milliarden Transistoren für den rv 1040, ich glaube damit hätte man nen kleinen chip um 200mm2 und wäre performancetechnishc gut dabei. DAmit wäre man dann wohl etwa auf augenhöhe mit der 6970 und hätte im performancesegement wieder ne super Karte. Dann aht man genug Abstand zum rv 1070 pro und außerdem ne super Karte zumm Bulldozer im Juli. NVidia braucht wahrscheinlich noch etwas länger mit ihren Karten, wie üblich, und kann wahrscheinlich nur hoffen das ihre 580 gtx nicht zu sehr in bedrängnis kommt, gerade mit OC. Die 570 dürfte genau wie die 6970 einen schweren stand haben, wenn isch die gerüchte mit dem tapeout und der massenproduktion im mai denn als Wahrheit heraus stellen.

M.(to_the)K.
2011-04-14, 17:07:45
http://www.eetimes.com/electronics-news/4214881/Analysis--TSMC-reveals-less-but-says-more?pageNumber=1

Dieser Bericht sagt ganz klar, TSMC könnte mit 28nm schon weiter sein als wir denken. EINE Produktion mit 28nm chips ist dieses Jahr vllt. noch möglich, TSMC KÖNNTE bereits in den nächsten Monaten was in dieser Richtung im Angebot haben.

''At 28-nm, TSMC has six tape outs running. To date, I don’t believe any of their competitors are running 28-nm production. So from that standpoint, they are running ahead,’’ Freeman said.

''The Common Platform (CP group) have told the industry they will be running 28-nm in the second half of 2011,’’ he said. ''If the CP group meets this goal, then I would say they are on track. If they are not running production and shipping product before year end, then they are falling behind. So it is a bit early to tell.’’

Botcruscher
2011-04-14, 18:16:31
Nach den Erfahrungen von 40nm und 32nm glaub ich eher an denn Weihnachtsmann.

Ailuros
2011-04-14, 21:56:28
Nach den Erfahrungen von 40nm und 32nm glaub ich eher an denn Weihnachtsmann.

TSMC verspricht stets viel; man nennt es komischerweise "marketing" ;)

M.(to_the)K.
2011-04-14, 22:34:10
Habt ihr euch den Text eigentlich durchgelesen?

Da steht doch drin das TSMC selber gar keine großen Ankündiugnen gemacht hat und eher im stillen am Zimmern ist und das andere Kenner der Branche davon ausgehen das TSMC gerade bei 28nm nen lauf hat.

DESHALB finde ich das so interessant. Weil TSMC nix sagt, aber andere glauben den Braten zu riechen.

mAxmUrdErEr
2011-04-14, 22:51:45
Habt ihr euch den Text eigentlich durchgelesen?

Da steht doch drin das TSMC selber gar keine großen Ankündiugnen gemacht hat und eher im stillen am Zimmern ist und das andere Kenner der Branche davon ausgehen das TSMC gerade bei 28nm nen lauf hat.

DESHALB finde ich das so interessant. Weil TSMC nix sagt, aber andere glauben den Braten zu riechen.
Wär auch scheiße genug wenn sies jetzt wieder groß ankündigen wie bei 40nm und nochmal verkacken. Die wissen schon, warum sie schweigen.

Ailuros
2011-04-14, 23:09:01
Habt ihr euch den Text eigentlich durchgelesen?

Da steht doch drin das TSMC selber gar keine großen Ankündiugnen gemacht hat und eher im stillen am Zimmern ist und das andere Kenner der Branche davon ausgehen das TSMC gerade bei 28nm nen lauf hat.

DESHALB finde ich das so interessant. Weil TSMC nix sagt, aber andere glauben den Braten zu riechen.

Jeder kann glauben was er will. Ich hoffe dass TSMC's 28nm generell in einem besseren Zustand sein wird als 40nm (yields und Kapazitaeten), glaube es erst wenn ich es sehe.

Es ist nicht das erste Mal dass wir solche newsblurbs sehen auch ueber 40G bevor es in die Startloecher ging. Hast Du diese in der Vergangenheit zufaellig damals durchgelesen?

AnarchX
2011-04-19, 12:39:18
Added support of AMD future GPUs: TAHITI, NEW ZEALAND, THAMES, LOMBOK.
http://www.hwinfo.com/news32.html

Ob da schon ein paar ES unterwegs sind?

http://img844.imageshack.us/img844/619/onoimofs.png

http://www.donanimhaber.com/ekran-karti/haberleri/DH-Ozel-iste-AMDnin-28nm-GPU-yol-haritasi.htm

aylano
2011-04-19, 13:20:22
Sieht eigentlich so aus.

Nach
North-Island (Insel-Gruppe) (Desktop-GPU) & Vancouver (Stadt) (Notebook-GPU)
würde
South-Island (Insel-Gruppe) (Desktop-GPU) & London (Stadt) (Notebook-GPU)
passen.
Alles hat was mit England zu tun.

M.(to_the)K.
2011-05-03, 12:40:28
Wie weit lässt sich Gddr 5 eigentlich noch takten? Momentan hat AMD bei der 6970 mit 2750 mhz den schnellsten ram verbaut. Kann AMD bei der nächsten Generation noch einmal auf 256 bit setzen?


Update 7 (26.04.2011 - 19:12):

AMD hat heute im Rahmen der Bekanntgabe der Quartalszahlen für das abgelaufene Quartal erstmals bestätigt, das der 28nm Prozess und deren kommende Produkte schon recht weit fortgeschritten sind.

Auch bestätigte AMD, das die kommende Desktop Grafik Architektur "Southern Islands" (HD 7000 Serie) schon das Tape-Out hinter sich gebracht hat, so wie die Gerüchte es letzte Woche ebenfalls besagten.

Details zu einem möglichen Release machte man zwar explizit nicht, dennoch soll das Q3 bereits feststehen, laut Angaben aus der Insider Szene.

Die HD 7000 Serie wird die erste 28nm Grafik Generation und wird bei TSMC produziert. AMD erwägt aber eine zusätzliche spätere Auslagerung an Globalfoundries, die ebenfalls 28nm Produkte künftig produzieren sollen. Details dazu weiter oben.

http://www.hardwareboard.eu/content/1608-Ger%C3%BCchte-zur-Radeon-HD-7000-Serie-Kommt-definitiv-noch-2011-in-28nm!-UPDATE-7-AMD-best%C3%A4tigt-Tape-Out!

AnarchX
2011-05-03, 13:46:40
Wie weit lässt sich Gddr 5 eigentlich noch takten? Momentan hat AMD bei der 6970 mit 2750 mhz den schnellsten ram verbaut. Kann AMD bei der nächsten Generation noch einmal auf 256 bit setzen?

GDDR5 soll wohl noch bis 8Gbps skalieren, aber für Anfang 2012 sind wohl deutlich über 6Gbps nicht zu erwarten.

Wohl möglich geht AMD >256-Bit bei der High-End-GPU. Wie man Heathrow (192-Bit) sieht, wären wohl auch 320 oder 384-Bit denkbar.

mAxmUrdErEr
2011-05-03, 14:06:36
Wie weit lässt sich Gddr 5 eigentlich noch takten? Momentan hat AMD bei der 6970 mit 2750 mhz den schnellsten ram verbaut. Kann AMD bei der nächsten Generation noch einmal auf 256 bit setzen?


Update 7 (26.04.2011 - 19:12):

AMD hat heute im Rahmen der Bekanntgabe der Quartalszahlen für das abgelaufene Quartal erstmals bestätigt, das der 28nm Prozess und deren kommende Produkte schon recht weit fortgeschritten sind.

Auch bestätigte AMD, das die kommende Desktop Grafik Architektur "Southern Islands" (HD 7000 Serie) schon das Tape-Out hinter sich gebracht hat, so wie die Gerüchte es letzte Woche ebenfalls besagten.

Details zu einem möglichen Release machte man zwar explizit nicht, dennoch soll das Q3 bereits feststehen, laut Angaben aus der Insider Szene.

Die HD 7000 Serie wird die erste 28nm Grafik Generation und wird bei TSMC produziert. AMD erwägt aber eine zusätzliche spätere Auslagerung an Globalfoundries, die ebenfalls 28nm Produkte künftig produzieren sollen. Details dazu weiter oben.

http://www.hardwareboard.eu/content/1608-Ger%C3%BCchte-zur-Radeon-HD-7000-Serie-Kommt-definitiv-noch-2011-in-28nm!-UPDATE-7-AMD-best%C3%A4tigt-Tape-Out!
Sollen die News auf der Seite irgendeinen Sinn ergeben?

M.(to_the)K.
2011-05-03, 14:11:31
Naja dort wird eben alles zusammengetragen was so an Gerüchten/Informationen durchs Netz schwirrt. Ist doch ganz nett das sich jemand die Arbeit acht das alles auf einer Seite zu sammeln.

M.(to_the)K.
2011-05-03, 16:51:59
GDDR5 soll wohl noch bis 8Gbps skalieren, aber für Anfang 2012 sind wohl deutlich über 6Gbps nicht zu erwarten.

Wohl möglich geht AMD >256-Bit bei der High-End-GPU. Wie man Heathrow (192-Bit) sieht, wären wohl auch 320 oder 384-Bit denkbar.

aha ok, momentan hat man ja 5,5Gps bei der 6970. Knapp 10% könnten aber auch reichen, zumal die Architektur ja gleich bleibt und man die Leistung also eher moderat erhöht. Und wenn man auf 384 bit geht muss doch einiges an der Architektur geändert werden, oder irre ich mich?

Mit knapp über 6Gps würde man auf etwa 200.000 MB/s kommen. Damit läge man über der Speicherbandbreite der 580gtx (192.000Mb/s). Im Schnitt ist die 580 GTx 15% schneller. Wenn die 7970 also nur ein shrink ist könnte das durchaus reichen ohne den chip auszubremsen.

Spasstiger
2011-05-03, 17:59:42
Mit knapp über 6Gps würde man auf etwa 200.000 MB/s kommen. Damit läge man über der Speicherbandbreite der 580gtx (192.000Mb/s). Im Schnitt ist die 580 GTx 15% schneller. Wenn die 7970 also nur ein shrink ist könnte das durchaus reichen ohne den chip auszubremsen.
256 Bit @ 6 Gbps liefern genau die gleiche Speicherbandbreite wie 384 Bit @ 4 Gbps (GTX 580).

M.(to_the)K.
2011-05-03, 21:05:16
256 Bit @ 6 Gbps liefern genau die gleiche Speicherbandbreite wie 384 Bit @ 4 Gbps (GTX 580).

Ja genau das sag ich doch. bei einer taktfrequenz von etwas über 6Gps würde man 200.000 MB/s erreichen. UNd mit exakt 6Gps 192.000 MB/s. Und wo ist jetzt dein problem?:confused:

Spasstiger
2011-05-04, 00:46:28
Ja genau das sag ich doch. bei einer taktfrequenz von etwas über 6Gps würde man 200.000 MB/s erreichen. UNd mit exakt 6Gps 192.000 MB/s. Und wo ist jetzt dein problem?:confused:
Das "über" hab ich überlesen. :redface:

Beim nächsten High-End-Chip von AMD halte ich ein 384-Bit-SI durchaus für möglich. Denn für die doppelte Rechenleistung eines Cayman (und das kann man von einer 28-nm-High-End-GPU erwarten) reicht eine homöopathische Steigerung der Speicherbandbreite nicht aus. Schon Cayman hängt satt an der Speicherbandbreite.

Undertaker
2011-05-04, 08:18:57
Gibt es dazu einen brauchbaren Test? Denn mit HD4890->HD5870 hatten wir schon einen ähnlichen Fall, wo sich die Rechenleistung glatt verdoppelte, die Bandbreite aber gerade einmal um gut 20% wuchs.

Spasstiger
2011-05-04, 10:36:55
Gibt es dazu einen brauchbaren Test? Denn mit HD4890->HD5870 hatten wir schon einen ähnlichen Fall, wo sich die Rechenleistung glatt verdoppelte, die Bandbreite aber gerade einmal um gut 20% wuchs.
Das Freischalten von 2 SIMDs bringt bei Cayman trotz 9% mehr Rechenleistung und Texelfüllrate auf dem Papier bei gleichbleibenden Taktraen im Schnitt 4% mehr Performance: http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/dezember/radeon-hd-6950-zu-radeon-hd-6970-freigeschaltet/.
Eine Erhöhung des Speichertaktes um 10% bringt im Schnitt 2% mehr Performance: http://www.computerbase.de/artikel/grafikkarten/2011/kurztest-powercolor-radeon-hd-6950-pcs/3/#abschnitt_benchmarks (hatte ich doch etwas stärker eingeschätzt).

Allgemein ist die HD 6970 nur um 10% schneller als die HD 6950 trotz 20% höherer Rechenleistung/Texelfüllrate. Mit einer 10% Chiptakterhöhung skaliert Cayman um rund 4% (kann man auch aus den obigen Tests ablesen, indem man die SIMD-Skalierung rausrechnet). D.h. Cayman hängt weder stark am Chiptakt, noch bringt eine Erhöhung der Einheitenzahl einen großen Gewinn. Daraus hat man immer abgeleitet, dass Cayman am Speichertakt hängt.
Aber wenn ich den Test der Powercolor HD 6950 PCS+ anschaue, ist auch die Abhängigkeit vom Speichertakt nicht groß.

Allerdings werden selbst 20% Speichertakterhöhung ausgehend von der HD 6970 kein einfaches Unterfangen sein, das wäre mehr als jede verfügbare Spezifikation. AMD verwendet derzeit 6-Gbps-Speicher, um ihn mit 5,5 Gbps zu betreiben. Will man nun den Speicher mit 5,5*1,2 Gbps = 6,6 Gbps betreiben, welcher Speicher soll dann AMD nehmen? Gibt es irgendwo tatsächlich 7-Gbps-Speicher und nicht nur Ankündigungen? Für mich sieht es eher so aus, dass wir in diesem Jahr keine bedeutende Steigerung des Speichertakts mehr erleben werden. Selbst den 6-Gbps-Speicher auf der HD 6970 bringt man nicht ohne Weiteres auf 6 Gbps oder mehr, beim Übertakten ohne modifizierte Spannung ist meist schon vor den 6 Gbps Schluss. Und so oder so ist Overclocking kein Maßstab, da ein Massenprodukt Spezifikationen der Zulieferer einhalten muss und man eine gewisse Sicherheitsreserve braucht, sonst explodieren die RMA-Zahlen.

M.(to_the)K.
2011-05-04, 13:12:11
Das "über" hab ich überlesen. :redface:

Beim nächsten High-End-Chip von AMD halte ich ein 384-Bit-SI durchaus für möglich. Denn für die doppelte Rechenleistung eines Cayman (und das kann man von einer 28-nm-High-End-GPU erwarten) reicht eine homöopathische Steigerung der Speicherbandbreite nicht aus. Schon Cayman hängt satt an der Speicherbandbreite.

Cayman sollte aber ursprünglich auch kleiner werden. Dieser Riesen-die war mehr eine Notlösung um überhaupt ein neues Produkt auf den Markt bringen zu bringen, nachdem klar war das 32nm von TSMC nicht verwirklicht wird.

womöglich wird der rv1070 schlicht und einfach deutlich kleiner. Ist ja auch nur ein Die-Shrink. Zumal große chips bei neuen Fertigungstechniken immer am meisten probleme machen und man mit kleineren Chips eine höhere chipsausbeute hat. so hoch wird das Volumen bei tsmc auch nicht.

Außerdem muss man auch nicht auf Gedeih und Verderb die Performance nach oben prügeln, da sich nvdia sowieso bis 2012 zeit lässt. da kann man auch mit einer moderaten Leistungsstegerung von 20-25% nvdida ziemlich alt aussehen lassen. Gleichzeitig hat man hohe yields und geringe Produktionskosten.


Oder sie bringen zuerst den von mir spekulierten rv1040, also den halben rv1070. kann man den chip eigentlich halbieren und die anbingdung bei 256 bit lassen? oder wird die automatisch mithalbiert? (5870/5770?)

Sonst könnte man erstmal den kleinen chip auf den Markt werfen und bei dem großen warten bis schnellerer GDDR5 Ram end edes jahren in hohem Volumen verfügbar ist.

Wenn man natürlich den die anbindung verdopeln muss könnte es ein 512bit chip mit langsameren Gddr5 ram werden, so wie bei Nvidia.


Oder aber man geht auf 384 bit und macht den kleineren mit 192 bit. Dann müsste man dafür aber wieder verdammt schnellen GDDR5 ram kriegen um den nicht am bandbreitenlimit zu haben. Oder man müsste den rv1070 und rv1040 unabhängig voneinder entwickeln. dann würde 256 und 384 bit gehen.
Ging bei der 6000er ja auch.

Ohne neues Infos ist alles möglich.

Spasstiger
2011-05-04, 13:19:22
womöglich wird der rv1070 schlicht und einfach deutlich kleiner. Ist ja auch nur ein Die-Shrink.
Das was zuerst als 28-nm-Topmodell kommt, wird wohl ein Dieshrink des Cayman sein. Ich rede aber vom nächsten High-End-Chip mit wieder deutlich über 300 mm² Diesize, der wahrscheinlich erst Anfang 2012 kommt.

M.(to_the)K.
2011-05-23, 16:15:26
Obowohl anfang 2012 für die 8000er wohl doch shcon verdammt früh wäre.

erstmal kommt die 7000er. es wird mit einem pipiclenaer beginnen.

Wir wissen das es ein DIE-Shrink wird. Also bleibt man bei 256 bit anbindung. Man braucht also gedeih und verderb schnelleren GDDR5 Ram für die neue Serie. Naja die neue Highend serie kommt wohl wieder kurz vor weihnachten. mal schauen was samsung und co bis dahin aus dem hut gezaubert haben.

beim pipeclaener hoffe ich auf den rv 1040. so wie bei dem rv.840. ich hab jetzt gelsen das defacto wohl erstmal nur ne steigerung von factor 1,6 bei der transsitordichte möglich ist. plus 5-8 % durch packdichtenoptimierung. also ca. 1,66.

Das heißt der cayman lässt sich auf ca 230mm2 realisieren. Das ist glaube ich ne gute größe für den cayman. Dann nimmt man nur ein paar detailoptimeuirngen vor und kann dank 28 nm den takt anheben und fertig. insgesamt 10% über der 6970 und damit hinter der 580 gtx. wäre doch ideal. dann müsste auch der GDDR5 für deise karte nich viel schneller werden. Außerdem hätte ati und tsmc viel erfahrung mit der fertigung durch cayman. dadurch wäre das risiko minimiert. außerdem hätte man dann was für bie neue bulldozerplattfrom. Und die treiber wären auch schon zum release der karte sehr ausgereift.

AnarchX
2011-05-23, 16:56:30
Bei einem 230mm² Chip könnte es problematisch werden, mehr als 4,4Gbps GDDR5 @ 256-Bit zu erreichen.

M.(to_the)K.
2011-05-23, 20:35:28
wieviel Gps haben denn die 6970 und die 6870?

Ich hasse die vielen unterscheidlichen werte und angaben bei der speicherbandbreite. ich blick da nicht so ganz durch bei den ganzen angaben, um ehrlich zu sein.

Ich kenn leider nur die angabe von MB/s. Das einzeige was ich über die anderen Zahlen zur speicherbandbreite weiß, umso höher-> desto besser ;)

Neurosphere
2011-05-23, 22:37:20
Bringt ja nix mit dem geschrumpften Cayman wenn NV nicht ähnliche Pläne verfolgt. Bringt NV ne Powerkarte und ATI hätte nichts dagegen zu setzen siehts nicht gut aus. Außerdem, wer sagt denn das eine Verbreiterung der Anbindung so schwierig ist?

Duplex
2011-05-23, 22:54:44
So wird das bestimmt später aussehen mit neuer Fertigung.

High End HD4870 - 800 Shader 55nm > Mainstream HD5770 - 800 Shader 40nm
High End HD6970 - 1536 Shader 40nm > Mainstream HD7870 - 1536 Shader 28nm
High End HD7970 - 3072 Shader 28nm > Mainstream HD8870 - 3072 Shader 20nm
DX12 HD8970 - 6144 Shader 20nm > Mainstream HD9870 - 6144 Shader 16nm

Die Mainstream Chips haben mit neuer Fertigung fast immer die gleiche Shader Anzahl der alten High End Chips.

ndrs
2011-05-23, 23:41:30
Die Mainstream Chips haben mit neuer Fertigung fast immer die gleiche Shader Anzahl der alten High End Chips.

Bei gleichzeitig halbiertem Speicherinterface :)

Sorkalm
2011-05-23, 23:59:28
Bei gleichzeitig halbiertem Speicherinterface :)

Wobei der Barts aus der Rolle tanzt, aber der ist eh eine komische Konfiguration. Da dieser aber im Mainstreambereich agiert, kann ich mir schon vorstellen, dass es da in Zukunft auch 256 Bit gibt - einmal eben ein einfaches Speicherinterface und eins welches Hochtakt-Speicher erlaubt (diesen Unterschied gibts ja heute bei Barts und Cayman auch).

M.(to_the)K.
2011-05-24, 01:04:53
Bringt ja nix mit dem geschrumpften Cayman wenn NV nicht ähnliche Pläne verfolgt. Bringt NV ne Powerkarte und ATI hätte nichts dagegen zu setzen siehts nicht gut aus. Außerdem, wer sagt denn das eine Verbreiterung der Anbindung so schwierig ist?

ATI selbst sprach davon, das die neue generation nur ein dieshrink wird.

Nvidia selbst aht gesagt, das sie 2011 keine grafikkarte in 28nm auf den amrkt werfen werden. Umso schneller ati also macht, umso länger hat ati die besten karten. Wie schon mit der 5000 serie.

es gibt technische schwieirgkeiten. welche genau, das würde ich aber auch geren mal wissen. es ist eben nicht alles so einfach wie 1+1=2

M.(to_the)K.
2011-05-24, 01:08:15
Bringt ja nix mit dem geschrumpften Cayman wenn NV nicht ähnliche Pläne verfolgt. Bringt NV ne Powerkarte und ATI hätte nichts dagegen zu setzen siehts nicht gut aus. Außerdem, wer sagt denn das eine Verbreiterung der Anbindung so schwierig ist?
So wird das bestimmt später aussehen mit neuer Fertigung.

High End HD4870 - 800 Shader 55nm > Mainstream HD5770 - 800 Shader 40nm
High End HD6970 - 1536 Shader 40nm > Mainstream HD7870 - 1536 Shader 28nm
High End HD7970 - 3072 Shader 28nm > Mainstream HD8870 - 3072 Shader 20nm
DX12 HD8970 - 6144 Shader 20nm > Mainstream HD9870 - 6144 Shader 16nm

Die Mainstream Chips haben mit neuer Fertigung fast immer die gleiche Shader Anzahl der alten High End Chips.


naja gut, bei der 4870 auf die 5770 passt es. aber davon gleich auf die gesamten nächsten jahre bis hin zur 16nm fertigung zu schließen, das halte ich für sehr gewagt. :rolleyes:

ndrs
2011-05-24, 08:30:30
naja gut, bei der 4870 auf die 5770 passt es. aber davon gleich auf die gesamten nächsten jahre bis hin zur 16nm fertigung zu schließen, das halte ich für sehr gewagt. :rolleyes:
"Für diese repräsentative Statistik wurden zwei Personen befragt." :)
Aber immerhin wars von 3870 -> 4670 auch noch so. Weiter zurückzugehen ist wegen der Unified Architektur schwierig.

Schlammsau
2011-06-16, 17:44:42
Technische Details zu AMDs „Southern Islands“-GPU (http://www.computerbase.de/news/hardware/grafikkarten/ati/2011/juni/technische-details-zu-amds-southern-islands-gpu/)
Wie bereits erwähnt, wird sich AMD vom VLIW-Design verabschieden und geht stattdessen einen ähnlichen Weg wie Nvidia. Man wird primär auf skalare Einheiten setzen, die völlig unabhängig voneinander Daten berechnen können. Neben der Shaderarchitektur wurden darüber hinaus das Front End und die Cache-Struktur völlig neu gestaltet, um die Effizienz zu verbessern.

Zusätzlich gibt es bei der Southern-Island-Architektur so genannte „Asynchronous Compute Engines“ (ACE), die sich separat um GPU-Computing-Berechnungen kümmern, ohne in irgend einer Form für das 3D-Rendering zuständig zu sein. Bei älteren Designs waren dieselben Einheiten für beide Einsatzgebiete zuständig.

Die Geometrieberechnungen laufen auf Southern Island zukünftig parallel ab, was der Tessellation-Leistung zu Gute kommen wird. Die traditionellen SIMD-Einheiten gibt es nicht mehr. Deren Aufgabe wird nun von „Compute Units“ (CU) übernommen. Jede CU besteht aus einer skalaren Einheit sowie vier unabhängigen SIMD-Einheiten. Die CUs sollen theoretisch ähnlich leistungsstarkwie eine Cayman-SIMD sein, dabei jedoch deutlich effizienter arbeiten können, um die Rohleistung besser in Geschwindigkeit umzuwandeln. Ähnlich wie bei Nvidias Fermi-Generation wird Southern Island in sämtlichen Speichern eine ECC-Fehlerkorrektur unterstützen.


http://www.abload.de/img/img0032662jiir.jpg http://www.abload.de/img/img0032663xh8j.jpg

http://www.hardware.fr/news/11648/afds-architecture-futurs-gpus-amd.html

Botcruscher
2011-06-16, 18:17:16
Hm. Mal sehen was da raus kommt.

Superheld
2011-06-16, 18:26:38
na wenigstens zeigen sie was:cool:

aylano
2011-06-16, 18:29:29
Wobei Umstieg von 40nm auf 28nm auch sehr interessant wird.

Offiziell kommt Southern Island @ 28nm schon 2011 und bei Nvidia kommt 28nm-GPU 2012.
Mal sehen, ob der Abstand länger als ein Tag wird.

Mal warten, ob der Start mit einer neuen Architektur + neuen Fertigung so Problem-los über die Bühne gehen wird.
Tape-Outs von mindestens einem 28nm-GPU müsste laut Q1 2011 Geschäftsbericht-Call schon gewesen sein.

AnarchX
2011-06-16, 18:50:46
Offiziell kommt Southern Island @ 28nm schon 2011 und bei Nvidia kommt 28nm-GPU 2012.

Gibt es dazu eine Quelle?

M4xw0lf
2011-06-16, 18:52:10
Wie hart, eine völlig neue Architektur gleich in 28nm? Ich war ja fest davon überzeugt, dass sie erstmal Northern Islands auf 28nm schrumpfen ("Southern Islands" und so...) - jetzt sollen die neuen Chips praktisch gar nichts mehr mit den alten zu tun haben... na wenn das mal was wird ^^

aylano
2011-06-16, 20:07:42
Gibt es dazu eine Quelle?
http://extreme.pcgameshardware.de/user-news/141690-28-nm-chips-von-nvidia-erst-2012-a.html

Ein Grund, warum Kal-El noch in 40nm kommt.

LovesuckZ
2011-06-16, 20:56:40
http://extreme.pcgameshardware.de/user-news/141690-28-nm-chips-von-nvidia-erst-2012-a.html

Ein Grund, warum Kal-El noch in 40nm kommt.

Wow. Das hat genau 0 Wert in Bezug auf Kepler...

Bitte also kein Fud verbreiten.

Hugo78
2011-06-16, 22:09:44
Leute jetzt macht bloß kein Fass auf um Releasedates.
Da hat AMD, wie Nvidia mal verkackt, mal überrascht.

Wenn Jen-Hsun vor einen halben Jahr mal, mit Blick auf die winzigen und damit yield kritischen Tegra Chips meinte 28nm sein kein Thema in 2011,
und jetzt heute AMD von 28nm in 2011 redet, dann kann das im besten Fall heißen, TSMC macht grad große Fortschritte, wovon dann AMD wie NV profitieren.

Oder [pöse Spekulatius on] um die Südlichen Inseln wird grad ein PR Stunt abgezogen, um AMD's Investoren vom Bulli abzulenken.
Denn so zeigefreudig wie grade kennt ich AMD garnicht, wenn es um zukünftige GPUs geht. [pöse Spekulatius off] :cool:

M4xw0lf
2011-06-16, 22:34:26
Oder [pöse Spekulatius on] um die Südlichen Inseln wird grad ein PR Stunt abgezogen, um AMD's Investoren vom Bulli abzulenken.
Denn so zeigefreudig wie grade kennt ich AMD garnicht, wenn es um zukünftige GPUs geht. [pöse Spekulatius off] :cool:

Ich hab mich schon gefragt, seit wann AMD Produkte Monate vor ihrer Fertigstellung in der Öffentlichkeit bekanntgibt... macht Sinn ;D

VooDoo7mx
2011-06-16, 23:50:32
Es ist ja schön das ATi mal ne komplett neue Architektur mit anderen Aufbau bringt.
Nur frage ich mich, ob es Sinn macht extra Einheiten einzubauen, die nichts mit der Grafikberechnung zu tun haben.

Ich will jetzt nicht wie Lovesuckz GPGPU totreden aber wäre es nicht sinnvoller den bisherigen Weg weiterzugehen, also Einheiten die Grafik und GPGPU Berechnung können, weiter zu verwenden. Wenn dann GPGPU wirklich in Fahrt kommt, könnten man dann den Southern Islands Weg gehen und extra Einheiten verbauen.
Das es so eher kontraproduktiv war, hat ja schon GF100 aufgezeigt, die double Precision EInheiten haben den Chip, groß, heiß, fett und teuer gemacht. Man stelle sich mal einen GF104/GF114 mit dem Transistoren und thermischen Budget eines GF100/GF110 vor. So ein fiktiver GF100 mit 576 Cuda Cores, 96TMUs, 48ROPs 384Bit SI hätte problemlos mit allen ATi Lösungen bis heute den Boden aufgewischt. Aber nein, man musste ja sinnlosen GPGPU Kram verbauen.
Nur GPGPU ist fast immer noch an der selben Stelle wie vor 5 Jahren bei G80 Vorstellung. :ugly:
Ich hab mich schon gefragt, seit wann AMD Produkte Monate vor ihrer Fertigstellung in der Öffentlichkeit bekanntgibt... macht Sinn ;D
Das hat nVidia bei Thermi auch das erste mal gemacht.
Vielleicht will AMD da mitziehen. :ulol:

Gipsel
2011-06-17, 00:10:28
Es ist ja schön das ATi mal ne komplett neue Architektur mit anderen Aufbau bringt.
Nur frage ich mich, ob es sinn Macht extra Einheiten einzubauen, die nichts mit der Grafikberechnung zu tun haben.

Ich will jetzt nicht wie Lovesuckz GPGPU totreden aber wäre es nicht sinnvoller den bisherigen Weg weiterzugehen, also Einheiten die Grafik und GPGPU Berechnung können, weiter zu verwenden. Wenn dann GPGPU wirklich in Fahrt kommt, könnten man dann den Southern Islands Weg gehen.
Nur GPGPU ist fast immer noch an der selben Stelle wie vor 5 Jahren bei G80 Vorstellung. :ugly:
Die "ACE"s (asynchronous compute engines), sind doch optional, die Mainstreammodelle werden davon wohl keine oder höchstens eine haben, genau wie wohl keine double-precision Rate über 1/4 (die praktisch umsonst ist). Und vom Rest, da kann man höchstens sagen, daß das verdoppelte local memory (DX11 fordert nur 32kb, nicht 64kB, aber wer weiß, eventuell gibt es ja demnächst DX11.1 mit SM 5.1 oder so) etwas ist, was so nicht auch für Grafik nützlich sein kann (okay, virtual memory und ECC noch, das dürfte eher für Fusion bzw. HPC sein).

Botcruscher
2011-06-17, 08:58:06
Wenn es optional ist, dann ist es sinnbefreit. Optional ist in einer Multiplattformwelt sofort mit tot gleich zu setzen. Das ist einfach nur ein enormer Rückschritt. AMD macht sich auch sicher nicht die mühe wie NV mit GPU-Physx und steckt Millionen in Vorzeigetitel mit Witzphysik(die eh jeder Dualcore von anno domini auch rechnen könnte).

Bucklew
2011-06-17, 09:39:07
Nur GPGPU ist fast immer noch an der selben Stelle wie vor 5 Jahren bei G80 Vorstellung. :ugly:
Quatsch nicht, inzwischen laufen 3 der 5 schnellsten Supercomputer mit zusätzlichen Teslakarten. Das Buisness läuft, warum sollte ATI sonst nachziehen?

Gipsel
2011-06-17, 10:13:55
Wenn es optional ist, dann ist es sinnbefreit. Optional ist in einer Multiplattformwelt sofort mit tot gleich zu setzen. Das ist einfach nur ein enormer Rückschritt. AMD macht sich auch sicher nicht die mühe wie NV mit GPU-Physx und steckt Millionen in Vorzeigetitel mit Witzphysik(die eh jeder Dualcore von anno domini auch rechnen könnte).
Das ist optional in dem Sinne wie die zusätzliche Rechenleistung, die ein Highend-Modell einem Mainstream-Modell voraus hat. An den grundsätzlichen Möglichkeiten ändert sich nichts, nur die Anzahl der Einheiten wird skaliert.

Schlammsau
2011-06-17, 14:54:29
Weitere kleine Details zu AMD „Southern Island“ (http://www.computerbase.de/news/hardware/grafikkarten/ati/2011/juni/weitere-kleine-details-zu-amd-southern-island/)
Darüber hinaus wird die Next-Gen-GPU mit „x86-64 Memory Addressing“ umgehen können, was die Vereinheitlichung zwischen dem Speicher auf der Grafikkarte und dem Systemspeicher weiter voran bringen soll. Das soll unter anderem dafür sorgen, dass das Nachladen von Texturen ohne eine spürbare Verzögerung vonstatten geht.

boxleitnerb
2011-06-17, 15:01:42
Das klingt interessant! Bandbreite dürfte auch hoch genug sein. Wenn man dann auch den VRAM stark überlaufen lassen kann ohne dass die fps einbrechen, wären auch Karten mit kleinen Speichermengen keine VRAM-Krüppel mehr :D

LovesuckZ
2011-06-17, 15:44:49
Ich will jetzt nicht wie Lovesuckz GPGPU totreden [...]

Es ist ja nicht tot, nur fast annährend unbrauchbar im Consumermarkt. Und der Bereich, wo es am meisten bringt, wird von den Typen zerredet, die Llano aufgrund der GPU so toll finden - GPU-Physik.

Dural
2011-06-17, 15:46:54
echt komisch, ich habe schon im 2008 vermutet das AMD früher oder später mit skalare einheiten daher kommen wird, damals wurde ich von den bekannten AMDer blöd angemacht... :freak: :P

Gipsel
2011-06-17, 16:00:54
Immer diese Begriffsverwirrung. Bei AMD gibt es demnächst 4 Blöcke mit 16er-Vektor-ALUs in einem CU. In einem SM von nvidia sind entweder zwei Vec16 oder drei Vec16-Blöcke drin. Cayman hat im Prinzip auch 4 Vec16-Blöcke, die allerdings per VLIW-Anweisung von einem einzigen Thread (Wavefront) belegt wurden. Zukünftig werden vier Wavefronts (eine pro Block) gleichzeitig abgearbeitet, bei Fermi ist sind es zwei (Warps/Wavefront/Hardware-Thread).

Es gibt auch einen Thread zur Architektur der nächsten AMD-Generation, in dem auch die wahrscheinlichen Unterschiede zu Fermi angesprochen werden. Die werden meiner Meinung nach versuchen, die Scheduling-Hardware auch weiterhin nicht unnötig kompliziert werden zu lassen und deswegen einen etwas anderen Weg dort gehen als nv.

davidzo
2011-06-17, 20:36:01
Quatsch nicht, inzwischen laufen 3 der 5 schnellsten Supercomputer mit zusätzlichen Teslakarten. Das Buisness läuft, warum sollte ATI sonst nachziehen?

das wird man rein mit hardware aber nicht auf holen können. tesla ist erfolgreich wegen der software. ati täte besser den streamsdk für vliw architektur zu verbessern bevor man nochmal ganz von vorn anfängt. der rückstand zu nvidia wird durch ne neue architektur softwaretechnisch eher größer.

Das klingt interessant! Bandbreite dürfte auch hoch genug sein. Wenn man dann auch den VRAM stark überlaufen lassen kann ohne dass die fps einbrechen, wären auch Karten mit kleinen Speichermengen keine VRAM-Krüppel mehr :D

nicht bandbreite, latenzen. den pciebus kann man derzeit auch schonganz gut auslasten, nur sind die zwei adressysteme kompliziert und erzeugen in erster linie bei gpgpu unnötig lange wege.

Hugo78
2011-06-17, 22:22:08
das wird man rein mit hardware aber nicht auf holen können. tesla ist erfolgreich wegen der software. ati täte besser den streamsdk für vliw architektur zu verbessern bevor man nochmal ganz von vorn anfängt. der rückstand zu nvidia wird durch ne neue architektur softwaretechnisch eher größer.

Ich glaub, eher schaft es Intel mal "rundum-glücklich" Treiber für ihre GMA/HD Grafik zuschreiben, als das AMD Stream konkurrenzfähig macht. :tongue: :cool:
AMD mag ja nicht ganz so sehr saugen in Sachen Software, wie Intel, aber so viel besser sind sie auch nicht.
Na ja egal, wenn sie jetzt auch bald C/C++ mit der GPU können (und möglicherweise auch Fortran irgendwann mal), dann können sie "AMD Stream" auch zu Grabe tragen.

Mir drängt sich nur die Frage auf, welcher Hersteller sich das Thema Sicherheit bei GPGPU als erster auf die Fahne schreibt.
CPUs haben ja schon Mechanismen, die verhindern, dass Schadcode überhaupt ausgeführt werden kann.
GPGPUs stehen da doch noch recht am anfang oder?!

LovesuckZ
2011-06-18, 11:06:33
das wird man rein mit hardware aber nicht auf holen können. tesla ist erfolgreich wegen der software. ati täte besser den streamsdk für vliw architektur zu verbessern bevor man nochmal ganz von vorn anfängt. der rückstand zu nvidia wird durch ne neue architektur softwaretechnisch eher größer.


Du brauchst aber Hardware, um entsprechende Software anbieten zu können.
Nehmen wir den Punkt C++: AMD sagt, C++ sei Voraussetzung, dass sich GPGPU richtig durchsetzen werde. nVidia kann es aufgrund von Fermi seit über einem Jahr in angepasster Form anbieten. AMD spielt also ein bisschen "Catch-up" mit nVidia, weil diese eine Generation früher schon vieles implementiert haben.

fondness
2011-06-18, 11:20:56
das wird man rein mit hardware aber nicht auf holen können. tesla ist erfolgreich wegen der software. ati täte besser den streamsdk für vliw architektur zu verbessern bevor man nochmal ganz von vorn anfängt. der rückstand zu nvidia wird durch ne neue architektur softwaretechnisch eher größer.


Was genau sollen sie denn deiner Meinung nach am StreamSDK verbessern? Die OpenCL-Unterstützung ist in manchen Punkten weit fortschrittlicher als bei NV. Und was deine Software betrifft:

http://www.computerbase.de/news/hardware/grafikkarten/2011/juni/microsoft-macht-c-gpu-kompatibel/

VisualStudio ist die weltweit mit Abstand am häufigsten eingesetzte IDE, mehr Softwareunterstützung kannst du gar nicht haben. Sobald sich entsprechende Standards etabliert haben, und erst dann wird der Markt eine ernst zu nehmende Größe erreichen, zählt eben doch die Hardware. Da kann dann auch NV mit ihrem proprietären CUDA über kurz oder lang einpacken, den solche Sachen laufen natürlich nicht über proprietäre Schnittstellen.

Ich glaub, eher schaft es Intel mal "rundum-glücklich" Treiber für ihre GMA/HD Grafik zuschreiben, als das AMD Stream konkurrenzfähig macht. :tongue: :cool:
AMD mag ja nicht ganz so sehr saugen in Sachen Software, wie Intel, aber so viel besser sind sie auch nicht.
Na ja egal, wenn sie jetzt auch bald C/C++ mit der GPU können (und möglicherweise auch Fortran irgendwann mal), dann können sie "AMD Stream" auch zu Grabe tragen.


AMD Stream ist ein Sammelbegriff für GPGPU, CAL/Brook(+) wurde von AMD längst aufgegeben. Man konzentriert sich nur noch auf die offenen Schnittstellen OpenCL und DirectCompute.

Hugo78
2011-06-18, 12:12:24
Da kann dann auch NV mit ihrem proprietären CUDA über kurz oder lang einpacken, den solche Sachen laufen natürlich nicht über proprietäre Schnittstellen.

Bei NV läuft OpenCL über CUDA.
Genauso wie C++, Fortran, Python, .NET, Java, PhysX und wat weiß ich noch alles über CUDA rennt.
Was soll NV denn da einpacken?! :confused:

S940
2011-06-18, 12:27:09
Bei NV läuft OpenCL über CUDA.
Genauso wie C++, Fortran, Python, .NET, Java, PhysX und wat weiß ich noch alles über CUDA rennt.
Was soll NV denn da einpacken?! :confused:
Er meint den Programmiersprachenteil von CUDA, was Du meinst ist die Software-Zwischenschicht zur Hardware.
Beides heißt CUDA, da redet man schnell aneinander vorbei.
Natürlich braucht man die CUDA Zwischenschicht weiterhin, aber der Zwang in CUDA zu programmieren nimmt ab.

Bisher war der Löwenvorteil, dass es mit CUDA schon viele Bibliotheken, tools etc. gab, wenn da jetzt MS mit allen pipapo einsteigt, interessiert das keinen mehr.

fondness
2011-06-18, 12:28:09
Du brauchst aber Hardware, um entsprechende Software anbieten zu können.
Nehmen wir den Punkt C++: AMD sagt, C++ sei Voraussetzung, dass sich GPGPU richtig durchsetzen werde. nVidia kann es aufgrund von Fermi seit über einem Jahr in angepasster Form anbieten. AMD spielt also ein bisschen "Catch-up" mit nVidia, weil diese eine Generation früher schon vieles implementiert haben.

Was willst du damit eigentlich sagen? Brook+ oder Rapidmind sind auch nichts anderes als C/C++ compiler in "angepasster Form".

Bei NV läuft OpenCL über CUDA.
Genauso wie C++, Fortran, Python, .NET, Java, PhysX und wat weiß ich noch alles über CUDA rennt.
Was soll NV denn da einpacken?! :confused:

Weil CUDA eben auch nur ein Sammelbegriff ist wie Stream auch.

LovesuckZ
2011-06-18, 12:29:05
Er meint den Programmiersprachenteil von CUDA, was Du meinst ist die Software-Zwischenschicht zur Hardware.
Beides heißt CUDA, da redet man schnell aneinander vorbei.
Natürlich braucht man die CUDA Zwischenschicht weiterhin, aber der Zwang in CUDA zu programmieren nimmt ab.

Man programmiert nicht in CUDA, sondern in einer der angebotenen Sprachen. Es gibt kein "CUDA" als Programmiersprache. Es gab am anfang einzig C for Cuda.


Bisher war der Löwenvorteil, dass es mit CUDA schon viele Bibliotheken, tools etc. gab, wenn da jetzt MS mit allen pipapo einsteigt, interessiert das keinen mehr.

Das wird es auch weiterhin, da C++Amp an die Fähigkeiten von DC gekoppelt ist.

fondness
2011-06-18, 12:36:48
Man programmiert nicht in CUDA, sondern in einer der angebotenen Sprachen. Es gibt kein "CUDA" als Programmiersprache. Es gab am anfang einzig C for Cuda.

Und das nannte viele zu beginn vereinfacht eben auch CUDA, da man doch noch ein ganzen Stück vom eigentlichen C-Standard entfernt war.

AnarchX
2011-06-21, 12:22:17
AMD reportedly has completed the tape-out of its next-generation GPU, codenamed Southern Islands, on Taiwan Semiconductor Manufacturing Company's (TSMC) 28nm process with High-k Metal Gate (HKMG) technology, according to a Chinese-language Commercial Times report. The chip is set to expected to enter mass produciton at the end of 2011.
http://www.digitimes.com/news/a20110617PB200.html

mapel110
2011-06-21, 12:25:55
Wundert etwas, dass kein Probelauf mit einem Shrink eines bisherigen Designs kommt. Aber der Prozess scheint wohl gut zu laufen.

LovesuckZ
2011-06-21, 12:45:10
Hat denn der Vorgang mit dem 40nm Prozess nicht gezeigt, dass ein Probelauf vollkommen überbewertet ist? AMD's rv740 hat ihnen nicht geholfen, dass Cypress vernünftig produzierbar war. Und nVidia's GT200 Ableger haben ebenfalls nicht geholfen, dass bei Fermi es zu keinen Probleme mit der Architektur gekommen ist; die Chips waren dagegen im Rahmen des Zustandes des Prozesses zufriedenstellen zu fertigen.

Ailuros
2011-06-21, 12:53:47
Wundert etwas, dass kein Probelauf mit einem Shrink eines bisherigen Designs kommt. Aber der Prozess scheint wohl gut zu laufen.

Unvorhersehbare Probleme wie bei 40G (leakage transistors, Kapazitaeten relative Probleme) erscheinen leider erst wenn ein IHV mit dem spezifischen Prozess in die Produktion gehen.

Das einzige was digitimes berichtet (welches auch nicht gerade die zuverlaessigste Quelle ist fuer solches Zeug) ist dass SI fuer Massenproduktion Ende 2011 projeziert ist.

G 80
2011-06-21, 14:27:12
Hat denn der Vorgang mit dem 40nm Prozess nicht gezeigt, dass ein Probelauf vollkommen überbewertet ist? AMD's rv740 hat ihnen nicht geholfen, dass Cypress vernünftig produzierbar war. Und nVidia's GT200 Ableger haben ebenfalls nicht geholfen, dass bei Fermi es zu keinen Probleme mit der Architektur gekommen ist; die Chips waren dagegen im Rahmen des Zustandes des Prozesses zufriedenstellen zu fertigen.


Und was sagt deine Glaskugel wie schlimm die Probleme gewesen wären, hätten beide auf einen Probelauf verzichtet? ;D

LovesuckZ
2011-06-21, 14:38:05
Hätte sich nichts verändert. Die größten Probleme macht die Architektur. Den Prozess kann man nicht bändigen, weil überhaupt keine Zeit bleibt, die Erfahrungen einfließen zu lassen, außer man will zwischen "Pipe Cleaner" und "Massenprodukt" annährend ein Jahr vergehen lassen - siehe G71+ und G80.

Man kann auch G92 nehmen. Ein 330mm^2 großer Erstchip auf 65nm von nVidia. Lief auch vollkommen problemlos.

Ailuros
2011-06-21, 15:31:26
Nun die schlechten yields in 2009 fuer Q3/4, die eher beschissenen Kapazitaeten, yields und Leckstroeme fuer 40G waren alles andere als Architektur-bedingt.

AMD hatte den Vorteil einen kleineren chip zu haben und da hat es sich gelohnt frueher als spaeter in die Produktion zu gehen, obwohl sie nachtraeglich nochmal $20 auf die 5850 aufgesteckt haben.

Die Frage fuer SI im gegebenen Fall ist wie gross dieser werden koennte mit all den Aenderungen unter 28nm.

Screemer
2011-06-21, 20:05:05
Mark your calendars for July 16th! AMD and HardOCP are teaming up to deliver the community a GamExperience! Tourneys will be played. Raffles and tons of free stuff will be had. Free-for-all headshots will be made. Winners will be crowned. Losers will be chastised! VIP lounge for Tourney players, plenty of Fusion, Eyefinity, and Big Screen demo stations. And yes, we will give the HardOCP community their first hands-on GamExperience with AMD's next generation unannounced hardware. This event will be open to the public in Dallas, Texas. More details coming soon.

UPDATE - 06/20/11 - Yes, Bulldozer will be there and you will be able to get hands on! ->http://hardforum.com/showthread.php?t=1612784

Gipsel
2011-06-21, 20:14:58
Aber Du glaubst doch nicht, die zeigen da Bulldozer + SI, oder?

Blediator16
2011-06-21, 20:29:19
Die Frage wäre wohl was genau "unannounced" bedeutet.

Screemer
2011-06-21, 20:41:50
Aber Du glaubst doch nicht, die zeigen da Bulldozer + SI, oder?
ich würde mich schon sehr wundern. könnte auch ne stufe zwischen den derzeitigen 68er und 69ern sein oder aber dual 6950. letztere wurden ja von boardpartnern schon gezeigt, sind aber meiner erinnerung nach noch nix offizielles.

Coda
2011-06-21, 21:32:40
Es geht wohl eher um Bulldozer.

Gipsel
2011-06-22, 00:33:16
Übrigens, mein Tipp:

Trinity ist VLIW4
alles andere Neue von AMD allerdings bereits GCN

Sagt zumindest der aktuelle Cat11.6 Treiber so in etwa. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8799195#post8799195)

Ronny145
2011-06-22, 00:43:15
Übrigens, mein Tipp:

Trinity ist VLIW4
alles andere Neue von AMD allerdings bereits GCN

Sagt zumindest der aktuelle Cat11.6 Treiber so in etwa. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8799195#post8799195)

Der Tipp ist gut angelegt.

http://www.pcper.com/news/Graphics-Cards/AFDS11-Upcoming-Trinity-APU-will-use-VLIW4-Cayman-Architecture
http://www.computerbase.de/news/hardware/prozessoren/amd/2011/juni/amds-trinity-cpu-kommt-mit-vliw4-gpu/

Gipsel
2011-06-22, 00:58:36
Der Tipp ist gut angelegt.

http://www.pcper.com/news/Graphics-Cards/AFDS11-Upcoming-Trinity-APU-will-use-VLIW4-Cayman-Architecture
http://www.computerbase.de/news/hardware/prozessoren/amd/2011/juni/amds-trinity-cpu-kommt-mit-vliw4-gpu/
Trinity als BD + VLIW4 habe ich schon letztes Jahr getippt. Das Entscheidendere ist der zweite Punkt und daß es eine gewisse "Bestätigung" durch den Treiber gibt. ;)

AnarchX
2011-06-22, 09:52:13
Fragt sich nur ob bzw. wie man dann Dual-Graphics für Trinity umsetzen wird, eine vergleichbare VLIW4-GPU wird es wohl nicht geben. Oder kombiniert man nur eine ähnlich schnelle VLIW5- bzw. GCN-GPU, wobei das wieder für Homogenität der Frameausgabe problematisch wird.

Coda
2011-06-22, 12:54:55
Die Homogenität ist sowieso nicht vorhanden ;)

S940
2011-06-23, 15:15:40
Übrigens, mein Tipp:

Trinity ist VLIW4
alles andere Neue von AMD allerdings bereits GCN

Sagt zumindest der aktuelle Cat11.6 Treiber so in etwa. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8799195#post8799195)
Preisfrage, die gerade auf P3D aufkam:
Was ist mit kleinen Fusions? Die/der Zacatenachfolger, Krishna oder wie das Teil heißt. Vielleicht ist das ja auch irgendeiner der Codenamen?
Ok einfachste Antwort: Noch nicht integriert, da es noch kein Silizium gibt. Aber rein spekulationshalber sollte mans vielleicht im Hinterkopf behalten.

Gipsel
2011-06-29, 21:27:45
Charlie hat jetzt auch eine Story zu Southern Islands (http://semiaccurate.com/2011/06/29/amd-southern-islands-possible-for-september/). Spekuliert darüber, ob es eventuell schon im September ein paar Karten gibt und wie das von TSMC abhängen wird.

Und hat jetzt eigentlich jemand schon eine Idee, was das "CI" bedeuten soll, was er auch in diesem Artikel zu SI wieder in ein paar Wörter einbaut?

deekey777
2011-06-29, 21:32:35
Common Interface.
:biggrin:

Nightspider
2011-06-29, 21:34:26
Wäre natürlich hammer, wenn dieses Jahr doch noch neue HighEnd Karten auf den Markt kommen aber ich glaube ehrlich gesagt nichtmehr dran.

Gipsel
2011-06-29, 21:36:01
Common Interface.
:biggrin:
Wie, kein CI+? :freak:

deekey777
2011-06-29, 21:38:27
Wäre natürlich hammer, wenn dieses Jahr doch noch neue HighEnd Karten auf den Markt kommen aber ich glaube ehrlich gesagt nichtmehr dran.
Was ist eigentlich mit einem Update für DX11?
Es macht sonst keinen Spaß.
Wie, kein CI+? :freak:
Das ist dem Refresh vorbehalten.

Nightspider
2011-06-29, 21:48:18
Was ist eigentlich mit einem Update für DX11?
Es macht sonst keinen Spaß.

Davon würde man Anfangs doch eh nix haben. Wir brauchen erstmal genug Power für Downsampling und Co. =)

DX11 muss sich erstmal durchsetzen und die Entwickler scheinen ja auch überaus glücklich mit DX11 zu sein.

Duplex
2011-06-29, 21:58:56
Wahrscheinlich wird 28nm wie der RV870 (5870, 5850) Start mit schlechter Verfügbarkeit starten.

Ailuros
2011-06-29, 22:14:52
Das dumme ist dass ich bis jetzt ueberhaupt nichts ueber die die Groesse von SI gehoert habe. Haette man diesbezueglich wenigstens ein Geruecht koennte man vielleicht etwas in die Richtung wagen zu spekulieren.

Bei einer neuen Architektur jedoch wie GCN keine Ahnung. Ich erwarte lediglich keine besondere Aenderung was die Frequenz des cores betrifft.

Knuddelbearli
2011-06-30, 00:22:58
vielleicht kommt mit dx 11.1 wieder die erlaubniss im treiber offiziel an den aa modi rumzupfuschen


hoffen kann man ja ^^

AnarchX
2011-06-30, 10:15:24
Charlie hat jetzt auch eine Story zu Southern Islands (http://semiaccurate.com/2011/06/29/amd-southern-islands-possible-for-september/). Spekuliert darüber, ob es eventuell schon im September ein paar Karten gibt und wie das von TSMC abhängen wird.


40nm SI Chips!? Das würde sich wohl lohnen wenn GCN eine höhere Leistung pro mm² bietet.

Gipsel
2011-06-30, 14:22:22
New Zealand ist anscheinend die DualGPU-Karte mit zwei Tahitis (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8812968#post8812968), die werden schwerlich noch in 40nm hergestellt, solange das einen ordentlichen Performance-Schub geben soll.

kunibätt
2011-07-01, 11:36:17
Man könnte langsam meinen, dass AMD schneller launchen wird wie angenommen. Weiß jemand noch wann die ersten RV870-Treibereinträge gesichtet wurden? Daran könnte man vielleicht etwas ableiten...

Gipsel
2011-07-01, 11:40:36
Man könnte langsam meinen, dass AMD schneller launchen wird wie angenommen. Weiß jemand noch wann die ersten RV870-Treibereinträge gesichtet wurden? Daran könnte man vielleicht etwas ableiten...Bereits im Cat 8.12.
Hinweise auf VLIW4 in Northern Islands gab es mit dem Cat 9.8 (noch mit anderen Codenamen damals). Aber dann ging es ein wenig durcheinander mit dem VLIW4/VLIW5 Mix (würde fast sagen, daß war nicht so von Anfang an geplant, egal was AMD hinterher behauptet hat).

Also ein wenig später sind die mit SI schon dran (seit Cat 11.4 steht was drin, glaube ich, habe das aber nicht ganz eng verfolgt). Allerdings hat AMD die Entwicklung auch so ein wenig vom öffentlichen Treiber abgekoppelt. Mit dem Cat11.6 gab es z.B. beim Versuch, einen Shader für die Tahiti-Architektur zu kompilieren eine Fehlermeldung, daß eine entsprechende dll fehlt (in den der Compiler für GCN/SI ausgelagert ist). Beim Cat11.7 Preview direkt von der developer.amd-Seite, was die dort verlinkt haben, weil damit auch Unterstützung für ihren GPU-Debugger möglich ist, da ist der mit bei (kann aber sein, daß der in der finalen Version wieder rausoperiert wird).

kunibätt
2011-07-01, 11:43:31
Dann würde April aber trotzdem Worstcase bleiben.

robbitop
2011-07-01, 11:56:41
Also etwa 9 Monate vor dem Launch. Heißen die Einträge, dass es ab dem Cat 8.12 bereits lauffähige RV8xx Hardware gab?

Gipsel
2011-07-01, 12:00:03
Also etwa 9 Monate vor dem Launch. Heißen die Einträge, dass es ab dem Cat 8.12 bereits lauffähige RV8xx Hardware gab?
Keine Ahnung, aber einige Leute haben es (später) tatsächlich geschafft, den Cat8.12 auf einem Cypress zum Laufen zu bekommen. Also der Support war zum Großteil lauffähig. ;)

robbitop
2011-07-01, 13:48:59
Es ist also recht wahrscheinlich. Wundert mich auch nicht. Erste Engineering Samples der ersten Revisionen sind ja idR weit vor der marktfähigen Revision verfügbar. Wenn man bedenkt, wie lange ein Metalspin oder ein neues Tapeout an Durchlaufzeit kostet (und man darf die Zeit, die zur Analyse, Fehlerbehebung ..bis zum eigentlichen Tapeout nicht vergessen zu addieren).

Gipsel
2011-07-01, 18:03:50
Es ist also recht wahrscheinlich. Wundert mich auch nicht. Erste Engineering Samples der ersten Revisionen sind ja idR weit vor der marktfähigen Revision verfügbar. Wenn man bedenkt, wie lange ein Metalspin oder ein neues Tapeout an Durchlaufzeit kostet (und man darf die Zeit, die zur Analyse, Fehlerbehebung ..bis zum eigentlichen Tapeout nicht vergessen zu addieren).
Nun, es gibt auf jeden Fall schon einige Zeit lauffähiges SI-Silizium. Ansonsten würden einige Optionen für den Shadercompiler keinen Sinn machen, die verschiedene Bugs umgehen (SCOption_R1000_BYTE_SHORT_WRITE_WORKAROUND_BUG317611, SCOption_FRACT_R800R900R1000_BUG301460_WORKAROUND), einer davon wird offenbar schon seit Cypress (R800) mitgeschleppt und ist bis heute nicht gefixt. :rolleyes:

Und man sieht, daß in der dafür zuständigen Abteilung GCN R1000 heißt ;)

Ailuros
2011-07-02, 08:49:52
Die ersten Gefluester aus Taiwan klingen nicht besonders berauschend. Zwar noch nichts sicheres oder handfestes, aber ich bleib wohl doch bei meinem Bauchgefuehl dass die bisherige "Euphorie" fuer 28nm wohl doch zu vorzeitig war.

HPVD
2011-07-02, 10:45:37
Die ersten Gefluester aus Taiwan klingen nicht besonders berauschend. ...

Geflüster bzgl SI oder bzgl des 28nm Prozesses allg?

Gipsel
2011-07-02, 11:20:16
Geflüster bzgl SI oder bzgl des 28nm Prozesses allg?
Hat nicht irgendwer (Charlie?) letztens geschrieben, der 28nm Poly-Prozeß (LP) wäre okay, aber mit 28nm HKMG gäbe es noch Probleme?

Leonidas
2011-07-02, 11:57:38
Die ersten Gefluester aus Taiwan klingen nicht besonders berauschend. Zwar noch nichts sicheres oder handfestes, aber ich bleib wohl doch bei meinem Bauchgefuehl dass die bisherige "Euphorie" fuer 28nm wohl doch zu vorzeitig war.


War sie das nicht eigentlich immer? Wann haben wir im GPU-Bereich zuletzt einen Prozeß gesehen, der wirklich plangemäß antrat?

Ich verstehe echt nicht, wieso man da immer wieder den Hype lostritt und den dann vor allem mit unsachlichen Argumenten (Erfolgsmeldungen zu LP-Prozessen) am Leben erhält.

Hugo78
2011-07-02, 12:06:30
Ist nicht ein LP i.d.R. 6 Monate vor einem HP serienreif?
Wenn Ja muss man doch kein vermeintlicher Insider sein um hier 1 und 1 zusammenzuzählen.


Jensen hat im Februar gemeint, 28nm (LP oder ?!) wäre noch nix für Tegra 3 im Herbst, also zieht man T3 vor auf August, immernoch in 40nm.
T3 ist sicher sehr Yieldkritisch (60% und besser oder?), damit sich die Produktion rechnet.
Ein High End Chip hat sicher ne größere Marge, aber dennoch brauchen auch die "Großen" ne ausreichend Yield (30% und besser oder?), ansonst lohnt sich das nicht.
Und wenn jetzt HP i.d.R. später als LP serienreif ist, dann wirds "Pi mal Daumen" frühstens mitte/ ende Q1 2012 was mit neuen High End GPUs.