Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Southern Islands - 28nm - Q3 11 - Q2 12
Seiten :
1
[
2]
3
4
5
6
7
8
9
10
11
Ist nicht ein LP i.d.R. 6 Monate vor einem HP serienreif?
Wenn Ja muss man doch kein vermeintlicher Insider sein um hier 1 und 1 zusammenzuzählen.
Jensen hat im Februar gemeint, 28nm (LP oder ?!) wäre noch nix für Tegra 3 im Herbst, also zieht man T3 vor auf August, immernoch in 40nm.
T3 ist sicher sehr Yieldkritisch (60% und besser oder?), damit sich die Produktion rechnet.
Ein High End Chip hat sicher ne größere Marge, aber dennoch brauchen auch die "Großen" ne ausreichend Yield (30% und besser oder?), ansonst lohnt sich das nicht.
Und wenn jetzt HP i.d.R. später als LP serienreif ist, dann wirds "Pi mal Daumen" frühstens mitte/ ende Q1 2012 was mit neuen High End GPUs.
Das paßt für nvidia mit ihren Riesendies, aber ATi/AMD hat seit Ihrer Mittelklassedie-Strategie neue Prozesse immer früher benützt. Tahiti wird jetzt wohl wieder nicht so der Brummer, da weiterhin eine X2 Karte geplant ist. Da könnte es schon wieder sein, dass AMD geringe Yields riskiert.
Hugo78
2011-07-02, 13:51:42
Na die Frage ist halt, wie klein baut AMD in Zukunft, nachdem man formal vom VLIW weg ist.
Es gibt ja auch ne GTX 590 mit zwei "Riesendies".
Die Treibereinträge sagen ja auch nix aus, wann diese X2 kommt.
LovesuckZ
2011-07-02, 14:55:36
AMD hat auch mit ihren "Riesendies" eher auf neuere Prozesse gesetzt: 90nm und 80nm.
nVidia hat bei 40nm auch "sofort" auf den neusten gesetzt und wird es bei 28nm ebenfalls tun.
Duplex
2011-07-02, 15:02:53
Hoffentlich kommt die neue Architektur (alle Modelle) in 28nm, sonst ist die Rechenleistung uninteressant, wir wollen 70-100%+ gegenüber Cayman als minimum, sonst kauft sich doch kein Arsch eine neue ATI...
Die Chipfläche interessiert den Kunden nicht, meinetwegen kann der R1000 500mm² groß sein, Nvidia hat gezeigt das große DIEs kein Problem sind :)
Schaffe89
2011-07-02, 16:46:31
Vielleicht bringt AMD ja Caymen nochmal in 28 nm, so als Notlösung, falls die neue Architektur Dünnpfiff wird. Einfach so von der VLiW Struktur wegzugehen + neuer Prozess sieht wieder nach viel Risiko aus.
mapel110
2011-07-02, 17:42:58
Vielleicht bringt AMD ja Caymen nochmal in 28 nm, so als Notlösung, falls die neue Architektur Dünnpfiff wird. Einfach so von der VLiW Struktur wegzugehen + neuer Prozess sieht wieder nach viel Risiko aus.
Entwicklung ist zu teuer um einfach mal so etwas nebenbei zu machen. Afaik gabs das auch noch nie.
Na die Frage ist halt, wie klein baut AMD in Zukunft, nachdem man formal vom VLIW weg ist.
Es gibt ja auch ne GTX 590 mit zwei "Riesendies".
Na bis das kam, war 40nm schon 2 Jahre alt, wenn man mal den 4770er Start als Anfangszeitpunkt nehmen will. Das sind 2Paar Stiefel.
AMD hat auch mit ihren "Riesendies" eher auf neuere Prozesse gesetzt: 90nm und 80nm.
Ja und flogen damit famos auf die Nase ...
nVidia hat bei 40nm auch "sofort" auf den neusten gesetzt und wird es bei 28nm ebenfalls tun.Ja und sie flogen damit so auf die Nase, dass sie Fermis fehlerbereinigte B1 Revision gleich als neuen 500er Chip verkaufen. Einzig die 460er waren ok, aber das war eben auch wieder ein kleineres DIE, und als die kamen waren AMDs 40nm Chips schon ne halbe Ewigkeit am Markt.
LovesuckZ
2011-07-02, 18:03:40
Ja und flogen damit famos auf die Nase ...
Ändert nichts an der Aussage, dass AMD ihre Strategie nicht gewechselt hat.
Ja und sie flogen damit so auf die Nase, dass sie Fermis fehlerbereinigte B1 Revision gleich als neuen 500er Chip verkaufen. Einzig die 460er waren ok, aber das war eben auch wieder ein kleineres DIE, und als die kamen waren AMDs 40nm Chips schon ne halbe Ewigkeit am Markt.
Nö. GF100 hatte Architekturprobleme. Hatte mit dem Fertigungsprozeß nichts zu tun gehabt. Siehe dazu auch die kleinen Ableger.
Und wenn du mir nicht glaubst: Lass dir von Gipsel erklären dass das bessere Perf/Watt Verhältnis zu 99% nur durch den Kühlertausch zu stande kam. :D
Schaffe89
2011-07-02, 21:29:21
Nö. GF100 hatte Architekturprobleme. Hatte mit dem Fertigungsprozeß nichts zu tun gehabt.
Echt? Was hat man denn an der Architektur geändert bei GF110?
Man hat doch mehr oder weniger nur die Spannung gesenkt.
Hugo78
2011-07-02, 21:49:19
@Schaffe89
Jen-Hsun Huang selber sagte, dass die Verbindungseinheit im ersten Fermi nicht funktionierte.
Und sie mussten das ganze Ding überarbeiten. Dafür hatte man wohl ~ 6Monate benötigt.
GTX 480/470 werden hier also keine besonders optimierten Chips gehabt haben.
-> http://www.youtube.com/watch?v=9NjEviEPtZc
Es ist damit anzunehmen, dass insbesondere diese "Fabric" Einheit beim GF110, eine Änderung erfahren hat.
Die SMs ect. waren laut Jen-Hsun ja intakt, schon beim ersten Fermi.
Schaffe89
2011-07-02, 22:06:30
Danke für die Info :)
Ailuros
2011-07-02, 22:38:01
War sie das nicht eigentlich immer? Wann haben wir im GPU-Bereich zuletzt einen Prozeß gesehen, der wirklich plangemäß antrat?
Natuerlich war es schon immer so, nur wollen es leider manche nicht verstehen. Ich hab diesbezueglich immer und immer wieder gewarnt jedesmal wenn etwas "tolles" in den news ueber 28nm erschien. Es bleibt fuer mich dabei dass bis zum Punkt wo mindestens ein IHV mit einem komplizierten die in die Produktion geht unter 28nm gar nichts sicher ist. TSMC hat auch keinen Zauberstab.
Ich verstehe echt nicht, wieso man da immer wieder den Hype lostritt und den dann vor allem mit unsachlichen Argumenten (Erfolgsmeldungen zu LP-Prozessen) am Leben erhält.
LP hat offensichtlich nichts mit HP Prozessen zu tun.
---------------------------------------------------------------------------------------
Was den Bloedsinn jetzt mit Fermi betrifft, als manche von uns sehr frueh andeuteten dass Fermi moeglicherweise ein Problem mit seiner "interdie connection" hat wurde es wie ueblich als purer Bloedsinn abgestempelt. Ebenso als Geruechte erschienen sind dass NV beim GF110 stellenweise Transistoren ersetzt hat um Leckstroeme zu vermindern. Anstatt dass manche Papageien nur den Mist nachplappern dass Jensen gerade so passt wenn er mal schwierige Fragen beantworten muss: das Problem von GF100 war eine Kombination von beschissenen yields fuer 2009, sehr hohes leakage bei 40G generell, dass NV beim Auslegen von Fermi unter 40G ueberhaupt fuer die Leckstroeme geschlampt hat und dass der inter-die connect problematisch war und zu hohen Stromverbrauch generierte und in diesem Zusammenhang auch nicht der letzte cluster im GF100 eingeschaltet war.
NV haette mit GF100/A2 herstellen koennen, nur haette sie in Q3 oder 4 jeglicher core knapp unter $200 gekostet. Wer rechnen kann waren es zwar nicht die laecherlichen 4-5% yields die damals berichtet wurden sondern eher >30% mit einer begrenzten Anzahl an wafers die vielleicht nur 4 oder 5 operative dies ergeben haette, eben so wie es AMD selber mit Cypress erlebte. Fuer AMD's gesamte Produktion waren es lediglich ein paar hundert wafers. Jeglicher Cypress die soll nach damaligen Infos beim Start unter 40G um die $110-120 gekostet haben was auf 45-50% yields deutet welche vergleichsmaessig zu vorigen Prozessen miserabel war. Auch bei Cypress ging nicht alles nach Wunsch, da dank den zu hohen Leckstroemen AMD so manche cores schaufelte die nichtmal 700MHz ueberschreiten konnten.
Als NVIDIA in 1Q2010 mit GF100 und Tegra2 in die Massenproduktion ging waren die yields um einiges besser. GF100 gab dann um die >50% yields und einen Herstellungspreis von ~$110 wobei Cypress zum gleichen Zeitpunkt bei ca. $75-80 pro core lag. Haette NV je versucht mit allen clusters bei GF100 in die Produktion zu gehen zeigten ihre ersten Indizien bei der Massenproduktion dass sie pro die nur 1 und im besten Fall 2 operative dies/wafer gehabt haetten.
Kurz ich kann nachtraeglich den Bloedsinn nicht lesen dass nur die Architektur bei Fermi krumm war. Bei so komplizierten dies ist es stinknormal dass mal ein hw bug reinschleicht und es passiert sowieso bei den meisten IHVs. Das GF100 Fiasko war aber IMHO eine Kombination von relativ kleinen hw bugs und grossen Herstellungs-prozess Problemen.
NV's einziges Pech der letzten Jahre ist dass AMD konstant mit kleineren und verdammt effizienten cores ankommt. NV wurde dadurch gezwungen den Leistungspegel weiterhin erhoehen zu muessen und kamen so fuer den neuesten und kleinsten Herstellungsprozess zu entwickeln. Je groesser und komplizierter ein die desto groesser das Risiko und natuerlich Potential fuer Probleme. NV hat uebrigens tatsaechlich das meiste erst beim Start der Massen produktion erkennen koennen. Testruns in 2009 zeigten ~730+MHz Frequenz mit einem Stromverbrauch von ~230W.
Wen wundert es genau nochmal dass ATI als sie total auf die Nase mit R600@80nm sind, die monolithische high end single cores aufgegeben haben? Ja natuerlich setzte ATI stets auf den kleinsten und neuesten Prozess, aber seit R600 wird eben high end lediglich via mGPU bedient und ja bei dem neuesten Prozess handelt es sich in solch einem Fall um ein ziemlich kleineres Risiko und wie man oben am Cypress sieht war wohl auch dort nicht alles so wie es sein sollte, aber man konnte trotz allem in die Produktion gehen.
Schaffe89
2011-07-03, 01:11:39
Das war doch eine sehr ausführliche Information; danke.
Man kann also festhalten, dass es nicht nur an der Architektur lag, sondern maßgeblich auch an anderem.
robbitop
2011-07-03, 11:09:07
Entwicklung ist zu teuer um einfach mal so etwas nebenbei zu machen. Afaik gabs das auch noch nie.
Doch - R400 wurde storniert und stattdessen R420 (2xR3xx) gebracht.
aylano
2011-07-03, 13:47:52
LP hat offensichtlich nichts mit HP Prozessen zu tun.
Ich vermüte, dass einige Gerüchte-Schreiber vielleicht selber nicht mal den Unterschied zwischen LP & HP wussten bzw. falsch informiert wurden und so Erfolgsmeldungen von LP über HP darstellten und die Erwartungen über 28nm steigerten.
Natuerlich war es schon immer so, nur wollen es leider manche nicht verstehen. Ich hab diesbezueglich immer und immer wieder gewarnt jedesmal wenn etwas "tolles" in den news ueber 28nm erschien. Es bleibt fuer mich dabei dass bis zum Punkt wo mindestens ein IHV mit einem komplizierten die in die Produktion geht unter 28nm gar nichts sicher ist. TSMC hat auch keinen Zauberstab.
IMO hätte es am meisten Sinn
Low-End-&-Mainstream in 28nm und als VILW4 zu fertigen und die Next-Generation-Architektur in 40nm.
Denn damit können sie die OEMs Anfang 2012 besser versorgen
(Low-End-&-Mainstream-GPUs waren bei weitem nicht so problematisch wie High-End-Chips), wenn Ive-Brigde gestartet wird und andererseits die neue Architektur recht schnell & sicher einführen.
Das wäre IMO sehr Sinnig & Logisch.
Pünktliches Einführen statt ewiges Herumfrickeln ist für AMD jetzt wichtiger denn je, da sie mit ihrer eigenen Fertigung ja auch genug zu tun haben und bald Trinity & Komode rausbringen wollen.
Eine Sichere & Frühe Next-Gen-Architektur ist sehr wichtig, da das ja die große Fusion-&-OpenCl-Zukunft ist
Und vielleicht können die Low-End-&-Mainstream-GPUs mit VILW4 besser mit Trinitys-VILW4 per CF zusammenarbeiten als mit der Next-Gen-Architektur @ Low-End & Mainstream.
Aber was jetzt Sinn ergibt, muss nicht unbedingt Sinn gehabt haben, als die SI-GPU-Desgins begonnen wurden. --> Somit andere Entscheidungen.
Und welchen Einfluss GF-Fertigung & 32nm-Cancel auf die Entscheidungen von SI-28nm-TSMC hatten, wissen wir jetzt auch nicht.
High-End-GPUs-28nm in Vernünftiger Form (= Yield bestimmt ja auch Preis und Verfügbarkeit) rechne ich eh erst mit Mitte 2012 (eventuell noch später,) wenn man sich die langen Zeiträume von 40nm ansieht.
AnarchX
2011-07-03, 13:59:31
Neue Codenamen:
http://forum.beyond3d.com/showpost.php?p=1564045&postcount=443
New Zealand (Dual-GPU)
Tahiti
Cape Verde
Pitcairn
Lombok (wohl möglich VLIW4 für Dual-Graphics mit Trinity)
Duplex
2011-07-03, 14:01:47
Neue Codenamen:
http://forum.beyond3d.com/showpost.php?p=1564045&postcount=443
New Zealand (Dual-GPU)
Tahiti
Cape Verde
Pitcairn
Das sind wahrscheinlich die Codenames für die kommenden 28nm HP Produkte, zum Glück hat 40nm bald ein ende ;)
mapel110
2011-07-03, 16:00:49
Doch - R400 wurde storniert und stattdessen R420 (2xR3xx) gebracht.
R400 wurde aber sehr früh als Krüppel erkannt und hatte genug Zeit für R420. Würde nicht sagen, dass da etwas parallel lief.
Ailuros
2011-07-03, 16:07:43
aylano,
NI war original fuer 32nm TSMC geplant und SI fuer 28nm. SI waere theoretisch viel zu gross fuer SI; es ist kein Zufall dass sie fuer groesseren Aenderungen was die Architektur betrifft erst auf 28nm gewartet haben.
Denk nach um wieviel im Durchschnitt zwischen Cypress und Cayman die Leistung gewachsen ist und dann denk an Stromverbrauchs-vergleiche. Mit dem was Cayman schon verbratet klingt mir SI als eine ziemlich schlechte Idee auf 40G, ausser AMD wuerde die Leistung nur minimal steigern wollen.
Stets IMHO machen beide IHVs nichts falsch was die Wahl der Herstellungsprozesse betrifft. Wir als Verbraucher muessen eher einsehen dass chips und Herstellungsprozesse so kompliziert geworden sind dass wir etwas mehr darauf warten muessen.
Doch - R400 wurde storniert und stattdessen R420 (2xR3xx) gebracht.
Kommt drauf an was Du mit "storniert" meinst; ATI nahm lediglich die notwendigen Aenderungen fuer einen Konsolen-Design auf, ergo im Grund wurde der Design in seiner Mehrzahl im Xenos wiederbenutzt. R400 wurde uebrigens mit R5x0 ersetzt im desktop; dass sie den R3x0 Refresh der so oder so geplant war jetzt R420 nannten ist nebenwichtig.
robbitop
2011-07-03, 16:13:46
Kommt drauf an was Du mit "storniert" meinst; ATI nahm lediglich die notwendigen Aenderungen fuer einen Konsolen-Design auf, ergo im Grund wurde der Design in seiner Mehrzahl im Xenos wiederbenutzt. R400 wurde uebrigens mit R5x0 ersetzt im desktop; dass sie den R3x0 Refresh der so oder so geplant war jetzt R420 nannten ist nebenwichtig.
R400 war laut Roadmap von 2002 für den Zeitraum geplant, in dem R420 kam. Ende 03 / Anfang 04 etwa. R5xx kam erst 2005. Kann also nicht sein.
Also 130 nm, wesentlich weniger Einheiten als in der Xbox360, kein eDRAM.
Ich denke, dass man schon Erhebliches ändern musste, eh man es in die Xbox verbauen konnte. Natürlich hat man die Architektur wiederverwendet. Aber es wurde eine komplette GPU Familie storniert und redesignt. R420 musste - auch wenn es wohl nicht so viel aufwand war - auch erstmal bis zur Serienreife gebracht werden.
Gipsel
2011-07-03, 16:48:20
Das sind wahrscheinlich die Codenames für die kommenden 28nm HP Produkte, zum Glück hat 40nm bald ein ende ;)
Ich habe bei B3D (http://forum.beyond3d.com/showthread.php?p=1564063#post1564063) schon geantwort. Tahiti, CapeVerde und Pitcairn sind wahrscheinlich die GCN-Chips zu den 3 IDs für den Shadercompiler (Tahiti ist sicher und High-End, der Name wird direkt vom Shadercompiler dafür ausgespuckt).
Die Argumentation mit Thames = Notebookversion von Lombok ist auch schlüssig, zumal momentan die mobil-GPUs auch immer nach Örtlichkeiten in UK benannt werden.
Die Sache mit Lombok/Thames als VLIW4-Chips ist allerdings insofern etwas schwierig, als daß nur noch eine einzige VLIW4 ID frei ist und Trinity wohl sicher VLIW4 wird (hat Dave Baumann im B3D-Forum nochmal bestätigt*), also wohl diese letzte freie ID bekommt. Was dann also beim Blick in die Vergangenheit übrigbleibt, wäre das RV740-Modell des Pipecleaners im neuen Prozeß, der funktional absolut unverändert bleibt (um jegliches Risiko dort auszuschließen), also auch keine neue ID für den Shadercompiler benötigt. Genau dies war auch beim RV740 der Fall. Der sah softwaretechnisch wie ein RV770 mit 2 deaktivierten SIMDs aus (8 statt 10, allerdings hier wirklich entfernt, das stört den Compiler aber nicht, teildekativierte GPUs haben noch nie eigene IDs für den Compiler bekommen) und hatte demzufolge auch die gleiche ID.
Wenn Lombok/Thames also die Cayman-ID wiederverwerten sollen, könnten das praktisch ungeänderte Caymans in 28nm mit ein paar weniger SIMDs sein (z.B. 18 oder 20 statt 24). Da würde man in 28nm je nach genauer Auslegung wohl irgendwo etwas oberhalb Juniper-Größe mit ankommen. Das Einstiegsmodell wird das dann wohl nicht. Oder Lombok wird ein geshrinkter Barts :rolleyes:
Also wenn da nicht noch neue (zusätzliche) IDs auftauchen, will mir die Produktpalette noch nicht so ganz einleuchten.
I was talking about the supposed Freudian slip from Mr. Houston...
7:55 Trinity has a "6850" kind of thing....interesting....
7:55 I think that slipped!
7:56 But then he stated Trinity would be "VLIW4" so Cayman-based... interesting.
That was a confusion. He thought that the 6800 was based on VLIW4. He meant to say that the architecture is based on the 6900 series.
aylano
2011-07-03, 17:16:41
NI war original fuer 32nm TSMC geplant und SI fuer 28nm. SI waere theoretisch viel zu gross fuer SI; es ist kein Zufall dass sie fuer groesseren Aenderungen was die Architektur betrifft erst auf 28nm gewartet haben.
Wie man sieht, ist die 6000er-Serie auch mit 40nm statt 32nm ausgegangen.
Warum nicht jetzt auch?
Natürlich könnte die 2.Gen der 32/28nm-Generation (1.Gen ist quasi Shrink) erheblich größer (so 350-500mm²) sein, aber dann könnte es dann für 40nm und 28nm jeweils zu groß sein.
Ersteres (40nm) wegen der generellen (500-700mm²) Die-Größe und zweiteres (28nm) weil diese Fertigung wahrscheinlich diese 350-500mm² Ende 2011 nicht vernünftig fertigen kann.
Denk nach um wieviel im Durchschnitt zwischen Cypress und Cayman die Leistung gewachsen ist und dann denk an Stromverbrauchs-vergleiche. Mit dem was Cayman schon verbratet klingt mir SI als eine ziemlich schlechte Idee auf 40G, ausser AMD wuerde die Leistung nur minimal steigern wollen.
Klar, Noch mehr Tesselation & GPGPU-Transistoren "& neues/anderes Front-End" könnten IMO größerer Wahrscheinlichkeit zu mehr Die-Größe & Stromverbrauch führen.
Aber andererseits soll die neue Architektur durch besserer Skalierbarkeit effizenter werden.
AFAIK skalierte HD 4870 ---> HD 5870 schon so 70-80%.
Und HD 6970 kann die Tesselation-Performance trotz 2.Unit auch nicht wirklich stark steigern.
Tahiti, CapeVerde und Pitcairn sind wahrscheinlich die GCN-Chips zu den 3 IDs für den Shadercompiler (Tahiti ist sicher und High-End, der Name wird direkt vom Shadercompiler dafür ausgespuckt).
Was meinst du.
Hälst du 40nm-GPUs für Möglich?
Oder ist Tahiti für 28nm schon sicher?
Gipsel
2011-07-03, 17:53:14
Hälst du 40nm-GPUs für Möglich?
Oder ist Tahiti für 28nm schon sicher?
Da Tahiti das Topmodell werden wird, davon sogar eine Dual-GPU-Version geplant ist und AMD gesagt hat, daß die Einheitenzahl steigt, wäre das in 40nm wohl nur mit einem 550mm² Monster möglich, das dann entweder einen Stromverbrauch jenseits von Gut und Böse aufweist oder eben mit niedriger Spannung deutlich unter seinen eigentlichen Möglichkeiten betrieben werden muß, so daß dann außer in Spezialfällen vielleicht im Schnitt nur 20-30% Mehrleistung rauskommen würden, wenn überhaupt. Das sieht mir dann doch etwas unwahrscheinlich aus, da hat Ailuros schon recht.
Für eine schnelle Markteinführung der neuen Architektur bei den sicherlich anfangs begrenzten Kapazitäten und verbesserungsfähigen Yields in 28nm, könnte aber vielleicht ein kleines Einstiegsmodell (davon werden ja doch ziemlich viel verkauft) noch in 40nm kommen, was dann später durch ein 28nm-Modell ersetzt wird. Also sowas wie 4 CUs mit nur jeweils einer einzigen Raster- und Geometriepipeline. Wären dann 256 ALUs (16 TMUs, 8 ROPs?), also vermutlich flächenmäßig ganz grob Redwood-Klasse (fünf VLIW5-SIMDs), bzw. etwas drüber/drunter je nachdem wie gut sich die neue Architektur runterskalieren läßt und wie klein AMD den Flächenzuwachs der flexibleren Einheiten halten kann.
aylano
2011-07-03, 19:04:40
Da Tahiti das Topmodell werden wird, davon sogar eine Dual-GPU-Version geplant ist und AMD gesagt hat, daß die Einheitenzahl steigt, wäre das in 40nm wohl nur mit einem 550mm² Monster möglich, das dann entweder einen Stromverbrauch jenseits von Gut und Böse aufweist oder eben mit niedriger Spannung deutlich unter seinen eigentlichen Möglichkeiten betrieben werden muß, so daß dann außer in Spezialfällen vielleicht im Schnitt nur 20-30% Mehrleistung rauskommen würden, wenn überhaupt. Das sieht mir dann doch etwas unwahrscheinlich aus, da hat Ailuros schon recht.
Und was ist daran jetzt unwahrscheinlich?
Es geht nicht um Recht zu haben, sondern ob meine genannte Möglichkeit besteht.
Einerseits in der Technik, andererseits durch die Code-Namen im Treiber!!!!.
20-30% Mehr-Performance ist IMO ja sehr viel, wenn die Konkurrenz viele Monate (3-6M) nichts Nachlegen kann und dazwischen noch das Weihnachtsgechäft liegt.
Auch wenn der Stromverbrauch in diesem Maße steigen würde.
Aber ein steigender Stromverbrauch ist halt normal, wenn die neue Fertigung nicht fertig/reif ist, wie es beim 6000er wegen 32nm-Cancel war und AFAIK auch GF118 & GF116
HD 4890 ist ja auch wegen den 40nm-Problemen entstanden, der nur 10-15% Mehr Performance & Stromverbrauch erhielt.
Also, gerade bei Fertigungs-Problemen ist AMD in den letzten Jahren den Weg gegangen, mehr Performance in älterter & reiferen Fertigung (Caymann & HD 4890) mit mehr Stromverbrauch zu erreichen.
In in so einer Situation sind wir gerade.
Für eine schnelle Markteinführung der neuen Architektur bei den sicherlich anfangs begrenzten Kapazitäten und verbesserungsfähigen Yields in 28nm, könnte aber vielleicht ein kleines Einstiegsmodell (davon werden ja doch ziemlich viel verkauft) noch in 40nm kommen, was dann später durch ein 28nm-Modell ersetzt wird.
IMO kann man mit einer Einführung einer neuen Architektur nur mit den Top-Modell erreichen, da die Aufmerksamkeit (& Einschätzbarkeit der Architektur) auf dieser Karte liegt.
Low-End & Mainstream-GPUs waren damals in der neuen 40nm-Fertigung bei weitem nicht das Problem, wie mit High-End-GPUs.
Da sähe ich keinen Grund, diese Low-End & Mainstream nicht in 28nm zu machen.
... noch in 40nm kommen, was dann später durch ein 28nm-Modell ersetzt wird.
Genauso beim High-End-Modell.
-----
Eine schnelle & Sichere Einführung mit der neuen Architektur sehe ich deshalb so wichtig, weil AMD bei APU betonte, jedes Jahr eine neue APU-Konfiguration am Markt zu bringen.
Wenn man die neue GPU-Architektur dann schon Anfang 2013 im neuen APU haben will, wäre eine unproblematische Einführung (=ohne Verspätungen) 1 Jahr davor sehr wichtig, um den Zeitplan einhalten zu können.
Wobei das auch nur ein Zwischenschritt ist, da man die noch in die CPU-Architektur reinbringen will und da ist es besser, Produkte pünktlich am Markt zu bringen um mit diesen Erfahrungen "frühzeitig" weiterzuarbeiten, anstatt wegen Fertigungs-Problemen herumzumurksen.
Es sind für einen Riskanten Weg bzw. "wirtschaftslichen Die" IMO viel zu viele Abhängigkeiten in der neuen GPU-Architektur. Vorallem, wenn das R&D sehr beschränkt sind.
Duplex
2011-07-03, 19:32:27
GCN in 40nm macht keinen sinn, wie soll die neue Generation deutlich schneller werden?
Cayman vs. Cypress hat gezeigt das sich sowas nicht lohnt, höhere Leistungsaufnahme & größere Chipfläche für 15% deckt sich nicht...
Entweder braucht AMD für GCN noch etwas Zeit, ein letzter VLIW4 Chip mit 768-4D in 28nm kann 70% gegenüber Cayman schneller sein, dann kann man anschließend die neue Architektur nachschieben und konkurriert gegen Kepler.
Laut Gerüchte ist das VLIW4 Design mit weiteren Einheiten zu komplex für die Compiler Software, daher denke ich das die nächste Generation mit sicherheit schon die Neue Architektur in 28nm sein wird, also kein VLIW4 in 28nm!
Das VLIW Design hat im Mainstream/High End ausgedient, vielleicht kommt noch ein VLIW5 Chip (Barts Shrink) in kleineren Strukturen für den OEM Mark, das wars dann auch schon...schluss ende!
@aylano
Deine 40nm Diskussion macht absolut keinen sinn.
Wir sind im 2. Halbjahr 2011, die letzten Top Karten waren 5870 & GTX480.
AMD wird Nvidia nicht unterschätzen und Nvidia wird AMD auch nicht unterschätzen, die neue Chips müssen zwischen 70-100%+ gegenüber Cayman/Fermi zulegen, genau wie RV770, RV870, GT200 & Fermi.
Man bedenke das die neuen Karten bis 20nm Bulk ausdienen müssen, natürlich brauchen wir diesmal wieder einen größeren Sprung, wir wissen das ein Cayman Shrink mit 768-4Ds ca. 70-75% gegenüber Cayman zulegen könnte, GCN in 28nm mit neuer Architektur kann weitaus mehr rausholen, bis 20nm bulk macht die neue Architektur mehr sinn als ein alter scheiss VLIW Chip der für den Compiler & GPGPU sowieso nicht zu gebrauchen ist :rolleyes:
Außerdem hat doch der ATI Marketing Sprecher schon bestätigt das GCN schon 2011 kommen wird :D
Ailuros
2011-07-03, 21:22:38
R400 war laut Roadmap von 2002 für den Zeitraum geplant, in dem R420 kam. Ende 03 / Anfang 04 etwa. R5xx kam erst 2005. Kann also nicht sein.
ATI hatte ja den Luxus mit solcher Frequenz eine neue Technologie-Generation zu veroeffentlichen oder? Ja natuerlich kam R5xx "erst" in 2005 aber wiederum war R400 wohl eher das was sich ATI unter DX10 vorgestellt hatte. 2005 ist naeher an 2006. Bei Zweifel frag jemand bei AMD selber an.
Also 130 nm, wesentlich weniger Einheiten als in der Xbox360, kein eDRAM.
ROFL ok.... :rolleyes:
Ich denke, dass man schon Erhebliches ändern musste, eh man es in die Xbox verbauen konnte. Natürlich hat man die Architektur wiederverwendet. Aber es wurde eine komplette GPU Familie storniert und redesignt. R420 musste - auch wenn es wohl nicht so viel aufwand war - auch erstmal bis zur Serienreife gebracht werden.
So viel wie NV von G7x zu RSX. Und nein es wurde gar keine GPU Familie storniert da die Aenderungen so frueh vorkamen dass es zu diesem Zeitpunkt im besten Fall einen Test-run vom top dog gab. Waere es so weit gekommen haette es damals vielleicht sogar die Existenz von ATI damals gefaerdet.
Wie man sieht, ist die 6000er-Serie auch mit 40nm statt 32nm ausgegangen.
Warum nicht jetzt auch?
Och wenn Dir Stromverbrauch bzw. finale Kosten einer solchen GPU wurscht sind dann ist natuerlich alles moeglich.
Natürlich könnte die 2.Gen der 32/28nm-Generation (1.Gen ist quasi Shrink) erheblich größer (so 350-500mm²) sein, aber dann könnte es dann für 40nm und 28nm jeweils zu groß sein.
Ersteres (40nm) wegen der generellen (500-700mm²) Die-Größe und zweiteres (28nm) weil diese Fertigung wahrscheinlich diese 350-500mm² Ende 2011 nicht vernünftig fertigen kann.
Lies mal etwas oben nach was genau unter 40G passierte. Ich hab den Mist fuer eine Ewigkeit fuer mich behalten aber kann wohl heutzutage problemlos einiges herauslassen. Dieses erstmal zu sehr komplizierten chips und nein ein noch groesserer chip auf 40G heisst auch nicht dass alles so leicht machbar ist.
Ehrliche Frage: woher willst Du wissen wie gross SI ueberhaupt ist. Was koennte denn passieren wenn der chip unter 40G weit ueber 600mm2 gross waere? 600mm2 ist laut TSMC die oberste Toleranz vom Prozess.
Klar, Noch mehr Tesselation & GPGPU-Transistoren "& neues/anderes Front-End" könnten IMO größerer Wahrscheinlichkeit zu mehr Die-Größe & Stromverbrauch führen.
Aber andererseits soll die neue Architektur durch besserer Skalierbarkeit effizenter werden.
AFAIK skalierte HD 4870 ---> HD 5870 schon so 70-80%.
Und HD 6970 kann die Tesselation-Performance trotz 2.Unit auch nicht wirklich stark steigern.
Tja nur geht SI hoechstwahrscheinlich einige Schritte weiter mit Tessellation als nur eine oder mehr Tessellations-Einheiten dazuzupappen, die uebrigens so oder so laecherlich wenig vom gesamten die estate einnehmen.
Und was ist daran jetzt unwahrscheinlich?
Es geht nicht um Recht zu haben, sondern ob meine genannte Möglichkeit besteht.
Einerseits in der Technik, andererseits durch die Code-Namen im Treiber!!!!.
20-30% Mehr-Performance ist IMO ja sehr viel, wenn die Konkurrenz viele Monate (3-6M) nichts Nachlegen kann und dazwischen noch das Weihnachtsgechäft liegt.
Auch wenn der Stromverbrauch in diesem Maße steigen würde.
Aber ein steigender Stromverbrauch ist halt normal, wenn die neue Fertigung nicht fertig/reif ist, wie es beim 6000er wegen 32nm-Cancel war und AFAIK auch GF118 & GF116
HD 4890 ist ja auch wegen den 40nm-Problemen entstanden, der nur 10-15% Mehr Performance & Stromverbrauch erhielt.
Also, gerade bei Fertigungs-Problemen ist AMD in den letzten Jahren den Weg gegangen, mehr Performance in älterter & reiferen Fertigung (Caymann & HD 4890) mit mehr Stromverbrauch zu erreichen.
In in so einer Situation sind wir gerade.
Du willst keinen SI sehen sondern einen weiteren NI Refresh unter 40G; anders laesst sich das obrige nicht erklaeren.
Sonst eine neue Architektur nur begrenzt vorzustellen und dann erst unter 28nm heftig nachladen ist marketingtechnisch der groesste Bloedsinn ueberhaupt: denn man blamiert so beim ersten Streich SI und das Publikum bekommt erst nachtraeglich dass was von Anfang an haette sein sollen.
Da laesst man gleich die Finger weg von SI und veroeffentlicht einen leicht uebertakteten Cayman bei noch hoeherem Stromverbrauch um gerade Mal auf Gleichstand mit GF110 zu kommen mit hoeherem Stromverbrauch....au weia....
Außerdem hat doch der ATI Marketing Sprecher schon bestätigt das GCN schon 2011 kommen wird :D
Nun ich traue AMD keine Holzschrauben-stunts zu, aber errr..... :D:D:D
Gipsel
2011-07-03, 22:33:45
IMO kann man mit einer Einführung einer neuen Architektur nur mit den Top-Modell erreichen, da die Aufmerksamkeit (& Einschätzbarkeit der Architektur) auf dieser Karte liegt.
Genau! Und ein Top-Modell, was gerade mal so GF110 schlägt und vielleicht keine 6 Monate später durch ein neues Modell abgelöst wird, soll sinnvoll sein?
AMD plant bestimmt im Schnitt eine grobe Verdopplung der Cayman-Leistung (ups und downs gib es immer, insbesondere bei einer umgekrempelten Architektur). Willst Du das in 40nm erreichen, landest Du wohl eher bei 750mm², was TSMC (bzw. praktisch keine Fab der Welt) überhaupt produzieren kann, da das Limit der Belichtungsmaschinen bei den von Ailuros bereits erwähnten ~600mm² liegt. Du kannst natürlich extra für zig-Millionen eine eigene Baureihe mit erweitertem Reticle-Limit bei ASML in Auftrag geben (am besten aber schon ein paar Jahre vorher) oder Du fängst mit ganz exotischen Sachen an, wie eine GPU in getrennt belichtete Module zu unterteilen :freak:.
Low-End & Mainstream-GPUs waren damals in der neuen 40nm-Fertigung bei weitem nicht das Problem, wie mit High-End-GPUs.
Da sähe ich keinen Grund, diese Low-End & Mainstream nicht in 28nm zu machen.Da brauchst Du aber ordentlich Volumen und der Markt ist auch ziemlich preissensitiv. Ein High-End-Modell kannst Du im Notfall mit 10.000 guten Dies launchen, machst es halt sehr teuer (wenn es z.B. 60% schneller als GF110 wäre, kannst Du ja auch erstmal kräftig Geld dafür verlangen), dann muß der yield schon katastrophal niedrig sein, damit die Kapazität dafür nicht reicht.
Eine schnelle & Sichere Einführung mit der neuen Architektur sehe ich deshalb so wichtig, weil AMD bei APU betonte, jedes Jahr eine neue APU-Konfiguration am Markt zu bringen.Für die Marktdurchdringung sind die langsameren GPUs doch viel wichtiger als das High-End. Warum willst Du denn unbedingt das High-End auf 40nm quetschen?!?
Wenn man die neue GPU-Architektur dann schon Anfang 2013 im neuen APU haben will, wäre eine unproblematische Einführung (=ohne Verspätungen) 1 Jahr davor sehr wichtig, um den Zeitplan einhalten zu können.Und was haben Probleme mit TSMCs 28nm Prozeß mit einer Umsetzung ein Jahr später in GFs 32nm SOI HP oder dann später in GFs 22nm Prozeß zu tun? Verstehe ich nicht so ganz.
aylano
2011-07-04, 01:22:00
Ehrliche Frage: woher willst Du wissen wie gross SI ueberhaupt ist. Was koennte denn passieren wenn der chip unter 40G weit ueber 600mm2 gross waere? 600mm2 ist laut TSMC die oberste Toleranz vom Prozess.
Meine Größen waren "etwas" aus der Luft geholt.
Wobei, ich nahm so Fermi-Größen und etwas mehr an.
Aber die Frage könnte ich dir auch stellen.
Von Woher willst du wissen, wie groß SI ist?
Na ja, für den Fall, wenn du es nicht weißt.
Och wenn Dir Stromverbrauch bzw. finale Kosten einer solchen GPU wurscht sind dann ist natuerlich alles moeglich.
Das klingt so, als ob AMD mit Next-Grafik-Generaiton in Sachen Performance-pro-Watt und Performance-pro-mm² schlechter als Fermi wäre.
Du willst keinen SI sehen sondern einen weiteren NI Refresh unter 40G; anders laesst sich das obrige nicht erklaeren.
Ich will nichts sehen, sondern wie ich es schrieb, über die Möglichkeit. Und da ich ziemlich im Dunklen agieren, interessieren mich Meinungen & Reaktionen bestimmter Leute.
Sonst eine neue Architektur nur begrenzt vorzustellen und dann erst unter 28nm heftig nachladen ist marketingtechnisch der groesste Bloedsinn ueberhaupt: denn man blamiert so beim ersten Streich SI und das Publikum bekommt erst nachtraeglich dass was von Anfang an haette sein sollen.
Mit der Richtigen Aufklärung/Marketing, wäre das nicht so ein Problem.
Okay, diese Aufkärung wäre bei AMD mit ihrer schwachen Marketing-Abteilung genau das Problem.
Ich würde das weniger Problematisch sehen, als wenn nur ein Mainstream/Performance-GPU mit Next-Gen-GPU vorgestellt wird.
Genau! Und ein Top-Modell, was gerade mal so GF110 schlägt
Wann hat sich AMD mit gleichen Waffen deutlich von der Konkurrenz abgesetzt?
Es geht an der Spitze bzw. bei vorhandener Konkurrenz immer knapp zu.
und vielleicht keine 6 Monate später durch ein neues Modell abgelöst wird, soll sinnvoll sein?
Genau das war mal die Strategie, die AMD mal sagte.
Alle 6-9 Monate eine neue schnellere Grafikkarte.
So wie RV770 6 Monate nach RV670 kam und RV790 extra entwickelt wurde, weil sich der Abstand zwischen RV770 und RV870 wegen den 40nm-Problemen zu groß wurde.
Also, wo ist das Problem?
Willst Du das in 40nm erreichen, landest Du wohl eher bei 750mm², was TSMC (bzw. praktisch keine Fab der Welt) überhaupt produzieren kann, da das Limit der Belichtungsmaschinen bei den von Ailuros bereits erwähnten ~600mm² liegt.
Es klingt, als ob ihr die Die-Größe ziemlich gut einschätzen könnt.
Und es klingt so, als ob AMD die Die-Größe bei anderer Fertigung nicht reduzieren könnte. Und das vielleicht mehr als 1,5 Jahre vor der Markteinführung.
Nach dem 32nm-Cancel muss man sich doch was überlegt haben.
Ich mein, die 40nm-Fertigung hat doch gezeigt, dass die Probleme dann noch über 1 Jahr gehen können, obwohl sie sich schon viele Monate verspätete.
Und warum erwartest ihr einen größeren Die als Nvidia bei gleicher Performance?
Und was haben Probleme mit TSMCs 28nm Prozeß mit einer Umsetzung ein Jahr später in GFs 32nm SOI HP oder dann später in GFs 22nm Prozeß zu tun? Verstehe ich nicht so ganz.
Ich stell mal die Frage anders.
Warum wurden die onbaord-GPUs & Llano jetzt & Trinity bald mit der Vorgänger-GPU-Generation ausgestattet und nicht mit der aktuell neuen Architektur?
Oder warum wurde Kuma nach dem K10-B2 dann eingestellt?
R&D-Ressourcen sind begrenzt und bei Verspätungen könnten sie vielleicht noch was nachbearbeiten, was dann das Nachfolge-Produkt beeinflussen kann.
Oder auch nicht und du weißt es besser als ich.
Außerdem ist es für die Entwicklung besser, wenn man schon lauffähgies Material hat.
fondness
2011-07-05, 11:07:17
Auch eine kleine Info zu SI in der Kepler-Meldung:
ATI is still on schedule to launch its 28nm chip in 2011, other sources are telling us, and ATI’s chip will be affected by the same issues, mainly the poor yields of the 28nm process. Even if ATI launches in 2011, very late Q3 or first half of Q4 2011 were the dates that we’ve heard, the chip wont really be massively available until some point in 2012.
http://www.fudzilla.com/graphics/item/23282-kepler-28nm-to-launch-in-q1-2012
boxleitnerb
2011-07-05, 11:17:05
Das ist voll ätzend. Jedes Mal derselbe Mist. Zwar gibt es laut Ailuros immer Probleme bei neuen Prozessen, aber inzwischen häuft sich das doch mehr als früher imo.
Wann wird AMD denn bei Glofo fertigen lassen? Ist abzusehen, dass die komplett umsteigen, wenn die Kapazitäten mit den neuen Fabriken da sind?
fondness
2011-07-05, 11:23:16
Das ist voll ätzend. Jedes Mal derselbe Mist. Zwar gibt es laut Ailuros immer Probleme bei neuen Prozessen, aber inzwischen häuft sich das doch mehr als früher imo.
Naja, das ist aber das Problem der IHVs, wenn sie hoch-komplexe Chips in einem nagelneuen Fertigungsprozess fertigen wollen. Es dauert eben seine Zeit bis die Yield-raten für solch große Chips auf ein brauchbares Niveau steigen.
Das Problem ist eben das ein neuer Fertigungsprozess bei GPUs enorme Vorteile bringt, und keiner kann es sich leisten zu warten bis die Yields gut sind und der Prozess gereift. Früher war dieser Konkurrenzdruck hier IMO weniger stark ausgeprägt und die Chips waren auch deutlich kleiner. NV hatte ja nach dem NV30-Desaster deutlich später auf neue Prozesse umgestellt, inzwischen können sie sich das aber auch nicht mehr erlauben.
aylano
2011-07-05, 11:44:25
Wann wird AMD denn bei Glofo fertigen lassen? Ist abzusehen, dass die komplett umsteigen, wenn die Kapazitäten mit den neuen Fabriken da sind?
Meiner Meinung nach, was ich nicht aus Gerüchten ableite, würde ich jetzt einen Wechsel auf 28nm-GF recht spät annehmen.
Die Probleme von Llano & Bulldozer sind zu groß, um sich jetzt noch mit hoher Priorität mit GPUs herumzuschlagen.
GF kann mit Trinity & Komodo viel mehr Geld machen, wenn dieser bei einer unproblematischen frühen Erscheinung sich verkaufen lässt. Daher würde ich dort jetzt die höchste Priorität sehen.
Einen schnellen Umstieg werden wir wahrscheinlich kaum sehen. Nach all den Problemen würde ich eher auf einen "Probe-Chip" tippen, der aber auch ein Krishna sein kann.
Duplex
2011-07-05, 12:06:37
UMC bietet auch noch 28nm HP an http://www.umc.com/English/process/i.asp
Komisch das AMD & Nvidia weiterhin auf TSMC setzen, nach der schlechten Verügbarkeit für AMDs Cypress bzgl. 40nm HP bulk sieht das nicht gut aus, ich bezweifle das der 28nm Start besser laufen wird.
UMC hat früher neben TSMC auch den G92 für Nvidia produziert.
DragonGreen
2011-07-05, 14:41:55
AFAIK gibt es Gerüchte, dass die in dem Notebook Dell Vostro 3350 verbaute Grafikkarte HD7450M eine VLIW4-Architektur mit 160 Shadern ist und in 28nm hergestellt ist und im Q3 ausgeliefert werden soll. Damit wäre doch ein Pipecleaner wie damals HD4770 da?
Quelle (z.B., bemüht mal ruhig Google etc.): TechnoSurvivor.com (http://technosurvivor.com/2011/07/04/dell-vostro-3350-with-gpu-radeon-hd-7450m/)
EDIT: Falls das stimmt, hat Dell diese GPU bereits und validiert gerade, so dass davon ausgegangen werden kann, dass der 28nm-Prozess grundsätzlich funktioniert (wenn auch mit schlechten Yields) und somit der Weg frei ist für die richtigen SI-GPUs auf Basis der GCN-Architektur, d.h. die mit dem HD7450M-Chip gefundenen eventuellen Probleme umgangen werden können.
AnarchX
2011-07-05, 15:40:58
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=509367
Es ist wohl ein Datenbankfehler bei Dell und 160SPs sind nicht sinnvoll mit VLIW4 umsetzbar.
Deinorius
2011-07-05, 16:58:05
aber inzwischen häuft sich das doch mehr als früher imo.
Na einfacher wird es mit den feineren Strukturen sicher nicht. :whistle:
LovesuckZ
2011-07-05, 16:59:02
Und auch früher gab es Probleme: 130nm, 90nm...
Ailuros
2011-07-05, 21:19:29
Und auch früher gab es Probleme: 130nm, 90nm...
80nm fehlt auch noch ;)
Gab es denn Probleme mit G70@90nm (ehrliche Frage)?
deekey777
2011-07-05, 22:55:43
Das Ding heißt G71.
Kann mich nicht an irgendwas erinnern, wo es hieß, dass der G71 Probleme hatte. Im Vergleich zum G70 hatte der G71 auch weniger Transistoren.
Ailuros
2011-07-06, 12:26:58
Das Ding heißt G71.
Kann mich nicht an irgendwas erinnern, wo es hieß, dass der G71 Probleme hatte. Im Vergleich zum G70 hatte der G71 auch weniger Transistoren.
Stimmt Du hast recht. Ich kann mich auch nicht an Probleme mit G71 erinnern und G80 kam nur eine sehr relativ kurze Zeit an wieder unter 90nm mit fast 2.5x mal so vielen Transistoren. Sehr problematisch waren 130, 80 und 40nm in den letzten Jahren.
Leonidas
2011-07-09, 13:40:38
Da das schließlich der Spekulationsthread ist, spekuliere ich mal auf Basis des bekannten und halbwegs sicheren Wissens (Link (http://www.3dcenter.org/news/2011-07-08)):
Die beste Chance hat derzeit IMO diese Auflösung, daß AMD die GCN allein dem HighEnd-Chip Tahiti zukommen läßt. Gründe:
1. Die GPGPU-Ausrichtung von GCN macht den Chip nur größer, was nur etwas beim Spitzenchip bringt, die kleineren Chips sind fürs professionelle Segment eher uninteressant.
2. AMD war immer stolz darauf, die deutlich kleineren Chips herzustellen - mit GCN würde diese Grundausrichtung implodieren, wenn GCN auf alle Chips angewandt würde.
3. Man kann deutlich schneller mit den kleinen Chips im Markt sein, wenn diese weiterhin VLIW4 sind und nicht GCN - in letzterem Fall müsste man erst einmal abwarten, ob GCN keine bedeutenden Fehler aufweist. Aus der Sicht von "schneller in den Markt" ist VLIW4 für die kleinen Chips deutlich vorzuziehen.
4. VLIW4 bei Cayman würde keinen Sinn machen, wenn VLIW4 nicht auch weiterhin in Benutzung ist. AMD hat vermutlich VLIW4 bewußt bei Cayman aufgelegt in Erwartung einer weiteren Generation (oder gar mehrerer) mit vielen VLIW4-Chips. GCN existiert parallel davon - erst einmal im HighEnd-Bereich, später vielleicht auch bei den kleineren Chips.
Wenn wir also annehmen, daß alles unterhalb von Tahiti weiterhin VLIW4 ist, läßt sich auf Basis der AMD-Prognosen zur Leistungsfähigkeit der Mobile-Lösungen von SI eine gewisse Prognose zur Hardware-Gestaltung der kleineren SI-Chips treffen:
Lombok
frühere AMD-Roadmap sagt über die Mobile-Variante "Thames": 128 Bit DDR Speicherinterface, 1 bis 2 GB GDDR3 oder GDDR5, TDP 15 bis 20 Watt; 100% schneller als Seymour (RV910/Caicos)
Lombok sollte demnach antreten mit:
256-320 VLIW4 Shader-Einheiten
16-20 TMUs
128 Bit DDR Speicherinterface
Pitcairn
frühere AMD-Roadmap sagt über die Mobile-Variante "Chelsea": 128 Bit DDR Speicherinterface, 1 GB GDDR5 oder 2 GB GDDR3, TDP 20 bis 30 Watt; 30% schneller als Whistler (RV930/Turks)
frühere AMD-Roadmap sagt über die Mobile-Variante "Heathrow": 128 oder 192 Bit DDR Speicherinterface, 1,5 bis 2 GB GDDR5, TDP 33 bis 45 Watt; 30% schneller als Chelsea
Pitcairn sollte demnach antreten mit:
704-768 VLIW4 Shader-Einheiten
44-48 TMUs
192 Bit DDR Speicherinterface
Cape Verde
frühere AMD-Roadmap sagt über die Mobile-Variante "Wimbledon": 256 Bit DDR Speicherinterface, zusätzlicher Level3-Cache auf dem Chip-Package, 2 GB GDDR5, TDP 65+ Watt; 25% mehr als Blackcomb (RV940/Barts)
Cape Verde sollte demnach antreten mit:
ca. 1408 VLIW4 Shader-Einheiten
ca. 88 TMUs
256 Bit DDR Speicherinterface
Speziell bei Cape Verde liegt die größte Unsicherheit, weil sich die vorliegende Performance-Aussage nun einmal auf das Mobile-Segment bezieht und hierbei Verlustleistungs-Erwägungen die maximal mögliche Performance des zugrundeliegenden Grafikchips limitieren (den RV940/Barts hat AMD im Mobile-Segment bis dato nicht voll ausgefahren, die beste Variante hat nur 960 SE anstatt der maximal möglichen 1120 SE).
Der Tahiti-Chip unter GCN wird dagegen in jedem Fall sein ganz eigenes Ding werden. Weil AMD viele Transistoren für GPGU opfert und weil das Design dafür auch effizienter als VLIW4 sein dürfte, braucht es hier nicht die ansonsten übliche Verdoppelung der Shader-Einheiten. Am Ende dürfte aber in erster Linie der Punkt limitieren, wieviel Die-Fläche AMD zu akzeptieren bereit ist. Die letzten HighEnd-Chips von AMD sind zwar immer wieder etwas größer geworden, aber trotzdem noch weit weg vom nVidia-Standard. Ich würde Tahiti derzeit schätzen auf:
~ 2400-2800 1-D Shader-Einheiten
384 oder 512 Bit DDR Speicherinterface
Das krumme Speicherinterface scheint für AMD nicht mehr so das Problem (wie früher) zu sein, da man es im Mobile-Bereich sicher einplant, womöglich wird es auch im Desktop-Bereich genutzt. Womöglich geht AMD hier auf 1,5 GB Standard-Speicherbestückung - oder macht ein ähnliches Modell wie nVidia bei der GeForce GTX 550 Ti, die trotz 192-Bit-Interface ja auch nur 1 GB Speicher hat.
Viel wichtiger als die reinen Spekulationen zur Anzahl der Hardware-Einheiten sind natürlich die sich daraus ergebenden Performance-Prognosen:
Der LowCost-Chip Lombok könnte in etwa die Performance der Radeon HD 5570 errreichen, geschätzter Preis ca. 40 Euro.
Der Mainstream-Chip Pitcairn könnte in etwa die Performance der Radeon HD 6790 erreichen, geschätzter Preis ca. 80 Euro.
Der Performance-Chip Cape Verde könnte in etwa die Performance der Radeon HD 6950 erreichen, geschätzter Preis ca. 160 Euro.
Kleinere Grafikkarten-Varianten auf Basis dieser Grafikchips werden dann jeweils die sich ergebenden Zwischenräume schließen.
Gipsel
2011-07-09, 15:21:35
Das Problem mit der Interpretation ist die Anzahl der IDs für den Shadercompiler, die sich den verschiedenen Architekturen zuordnen lassen. Es gibt momentan genau 4 freie IDs (wenn man einen ominösen VLIW5-Eintrag bei Wrestler/Sumo/SuperSumo?!? mal wegläßt), von denen der einzige VLIW4-Eintrag höchstwahrscheinlich Trinity zusteht.
Bleiben genau 3 GCN-IDs, die zu Tahiti, Pitcairn und CapeVerde passen würden.
Wie schon mal erwähnt, gab es für einen straight shrink des RV770 (mit 2 entfernten SIMDs und ein paar Änderungen am Speichercontroller namens RV740) keine neue ID, die Shaderarrays waren offenbar identisch. Wenn also Lombok/Thames die Einsteigerversion darstellt, dürfte das damit dann (in Ermangelung eines passenden VLIW4-Modells) eventuell sogar noch ein VLIW5-Modell sein (Turks-Shrink mit 4/5 SIMDs). Da im Einstiegsbereich GPGPU nicht so der Schwerpunkt ist, dürfte man damit auch noch gut durchkommen.
Ein interessanter Punkt ist der Zeitraum der Markteinführung. Bisher tauchen nur Tahiti und Lombok/Thames mit DeviceIDs unterstützter Karten auf. Pitcairn und CapeVerde findet man zwar auch schon, allerdings noch ohne DeviceIDs. Deren Einführung könnte also etwas später erfolgen.
Edit:
Achja, GCN wird ja nicht nur für GPGPU nützlich sein, die ganzen "modernen" Workloads auch in Spielen sollten deutlich davon profitieren. Damit kann sich die Architektur durchaus nicht nur für das High-End sondern auch für das Performance-Segment lohnen. Zumal wohl außer Tahiti wohl kaum einer der Chips mit der maximalen DP-Rate (1/2) kommt, die anderen beiden haben das nicht nur deaktiviert/eingebremst, die Hardware selber wird weniger können, sprich, es wird eine andere Shaderversion verbaut (weswegen die eventuell auch später kommen?). Außerdem habe ich im passenden Thread ja schon erläutert, daß GCN so aussieht, als habe AMD den Zusatzaufwand für die Umstellung auf single issue Vektoreinheiten (statt VLIW Vektoreinheiten) möglichst klein halten wollen. AMD dürfte also immer noch einen (wenn auch etwas geschrumpften) Vorteil bei den Flops/mm² behalten (in der Beziehung wird Kepler interessant, nvidia wird das Problem schon erkannt und sich da wohl eine Strategie überlegt haben).
Und AMD hat einen Fahrplan für die Fusion System Architecture, da benötigt man früher oder später viele GCN-Karten im ganzen Bereich.
Leonidas
2011-07-09, 19:40:43
Genau deswegen ist es der Spekulations-Thread. Ich kann auch vollkommen falsch liegen mit obigem Gedankenmodell ;)
Das Problem mit der Interpretation ist die Anzahl der IDs für den Shadercompiler, die sich den verschiedenen Architekturen zuordnen lassen. Es gibt momentan genau 4 freie IDs (wenn man einen ominösen VLIW5-Eintrag bei Wrestler/Sumo/SuperSumo?!? mal wegläßt), von denen der einzige VLIW4-Eintrag höchstwahrscheinlich Trinity zusteht.
Bleiben genau 3 GCN-IDs, die zu Tahiti, Pitcairn und CapeVerde passen würden.
An dieser Stelle muß ich mal nachhaken: Üblicherweise benutzt AMD ja seine Codenamen, wobei ein Chip durchaus mehrere Codenamen haben kann. Gehen diese IDs für den Shadercompiler eher in die Richtung, daß ein Chip eine ID hat? Wenn dies so wäre, würde dies natürlich einen überaus starken Hinweis (auf 3x GCN + 1x VLIW4) ergeben. Der VLIW4-Eintrag wäre dann aber wohl eher Lombok, Trinity muß noch lange nicht im Treiber erwähnt werden.
Gipsel
2011-07-10, 02:37:04
An dieser Stelle muß ich mal nachhaken: Üblicherweise benutzt AMD ja seine Codenamen, wobei ein Chip durchaus mehrere Codenamen haben kann. Gehen diese IDs für den Shadercompiler eher in die Richtung, daß ein Chip eine ID hat? Wenn dies so wäre, würde dies natürlich einen überaus starken Hinweis (auf 3x GCN + 1x VLIW4) ergeben. Der VLIW4-Eintrag wäre dann aber wohl eher Lombok, Trinity muß noch lange nicht im Treiber erwähnt werden.
Ja, nur funktionell unterschiedliche Chips bekommen eine eigene ID fuer den Shadercompiler. Sprich, Desktop- und Notebook-Varianten haben die gleiche ID fuer den Shadercompiler.
Und bezueglich Trinity/Lombok/Thames, dies sind neben Tahiti die einzigen Chips fuer die es schon DeviceIDs gibt (fuer Trinity auch, die Devastator-Geschichte kommt ja genau da her), Pitcairn und CapeVerde fehlen noch. In einem simplizistischen Erklaerungsmodell kommen die also spaeter.
OgrEGT
2011-07-10, 11:56:19
Nur mal so ne Frage:
Könnte es von Vorteil sein, die Fusion APUs mit VLIW4 Shadern zu bauen, welche dann mit GCN-Shadern einer diskreten Karte kombiniert werden könnten, um so ein ausbalanciertes Setup für die verschiedenen Codes zu haben?
Wäre das eine Strategie, welche sich langfristig auszahlen könnte?
Brillus
2011-07-10, 15:58:44
Nur mal so ne Frage:
Könnte es von Vorteil sein, die Fusion APUs mit VLIW4 Shadern zu bauen, welche dann mit GCN-Shadern einer diskreten Karte kombiniert werden könnten, um so ein ausbalanciertes Setup für die verschiedenen Codes zu haben?
Wäre das eine Strategie, welche sich langfristig auszahlen könnte?
Wie ich es verstanden habe wäre es anders herum sogar sinniger. Weil GCN näher an CPUs dran ist wie die VLIW4, dann könnte man auf der APU GPCPU code ausführen, wo die nähe zur CPU von Vorteil ist. Und ie Grafik auf der dezidierten GraKa
Skysnake
2011-07-10, 16:42:36
Ja, das sehe ich auch so. Eventuell könnte man sogar wie bei einem echten Co-Prozessor auf Instruktionsebene die Verarbeitung auf die iGPU auslagern.
OgrEGT
2011-07-10, 20:24:10
Wie ich es verstanden habe wäre es anders herum sogar sinniger. Weil GCN näher an CPUs dran ist wie die VLIW4, dann könnte man auf der APU GPCPU code ausführen, wo die nähe zur CPU von Vorteil ist. Und ie Grafik auf der dezidierten GraKa
Ja aber wenn ich Gipsel richtig verstanden habe mit den Device ID's, dann werden wohl die Fusion APUs erst mal bei VLIW4 bleiben... :confused: und die kommenden diskreten Grafikkarten auf GCN basieren.
Leonidas
2011-07-10, 20:33:26
Wenn Trinity erst spät in 2012 kommt, wäre es vielleicht sinnvoller, dem gleich GCN mitzugeben. Andererseits isses schwer, eine noch nicht erprobte neue Architektur vorab einzubauen. Wahrscheinlicher ist es, daß erst die Nachfolger von Trinity auf GCN gehen. Sinnvoll ist das in jedem Fall für eine APU.
Anyway - wenn ich mal Gipsels Ausführungen folgen mag, stehen im Shadercompiler momentan vier neue IDs herum, welche vier neue Chips ergeben. Keine Codenamen oder Projekte, mit deren Vergabe AMD ja großzügig umgeht, sondern echte Chips. Davon ist einer ein VLIW4-Eintrag, die anderen drei sind GCN-Einträge. Wenn wir das als gegeben betrachten, ergibt sich auf Basis der vorliegenden Codenamen ein absolut klares Bild: Die 3x GCNs sind die größeren Chips von Southern Islands, der 1x VLIW4 der kleinste SI-Chip. Daß mit dem VLIW4-Eintrag Trinity gemeint ist, geht zwar auch, ist jedoch deutlich unwahrscheinlicher angesichts dessen, daß der kleinste SI-Chip schon länger im Treiber genannt wird und Trinity erst spät in 2012 antreten wird. Wenn es exakt vier neue Einträge sind, dann können zum jetzigen Zeitpunkt eigentlich nur die vier SI-Chips gemeint sein - und wenn drei davon GCN und einer VLIW4 ist, dann dürfte der LowCost-Chip VLIW4 sein.
So weit, so logisch. Daraus kann man jetzt natürlich auch wieder eine neue Spekulation basteln, wie diese vier neuen SI-Chips aussehen werden. Grundlage hierfür ist wieder das bekannte Wissen aus dem Mobile-Bereich (Link (http://www.3dcenter.org/news/2011-07-08)), ansonsten muß man spekulieren. Klar ist, daß AMD für SI das Doppelte der Performance von Evergreen anstreben sollte, genauso wie es zwischen den 55nm- und 40nm-Generationen von AMD das doppelte an Performance gab. Üblicherweise erreicht man dies mit dem Doppelten der Hardware-Einheiten, wobei speziell bei GCN das Problem auftaucht, daß diese Architektur effektiver aber gleichzeitig transistorenfressender ist - man braucht zum einen sowohl weniger (als das Doppelte) an Einheiten, kann aber zum anderen aus Platzgründen auch gar nicht das Doppelte verbauen.
Wieviel weniger Shader-Einheiten AMD benötigt für die gleiche effektive Rechenleistung, ist derzeit leider nur gron schätzbar, aber der Effizienzgewinn sollte doch deutlicher sein als zwischen VLIW5 und VLIW4 (da waren es leider nur wenige Prozentpunkte). Sagen wir mal 10-20% weniger Shader-Einheiten braucht AMD für die effektiv gleiche Rechenleistung unter GCN. Die Anzahl der TMUs dürfte wieder 4 pro Shader-Cluster (à 64 SE) liegen, da die Quad-TMUs sehr beliebt bei den Chip-Entwicklern sind und man kaum von diesem Modell Abstand nehmen wird. Es wäre allerhöchstens denkbar, daß es nur noch eine Quad-TMU pro gleich 2 Shader-Cluster gibt - aber dies würde bei nur 80-90% mehr Shader-Einheiten sogar einen Rückschritt bei der Texturierpower zumindest gegenüber Cayman ergeben, was dann doch nicht besonders wahrscheinlich ist. Möglicherweise wird man in zukünftigen Chip-Generationen das Verhältnis TMUs pro Shader-Cluster weiter absenken, aber vermutlich noch nicht bei SI.
Da die Speicherinterfaces bekannt sind, ergibt sich demnach folgende Hochrechnung:
Lombok
frühere AMD-Roadmap sagt über die Mobile-Variante "Thames": 128 Bit DDR Speicherinterface, 1 bis 2 GB GDDR3 oder GDDR5, TDP 15 bis 20 Watt; 100% schneller als Seymour (RV910/Caicos)
Lombok sollte demnach antreten mit:
256-320 VLIW4 Shader-Einheiten
16-20 TMUs
128 Bit DDR Speicherinterface
Pitcairn
frühere AMD-Roadmap sagt über die Mobile-Variante "Chelsea": 128 Bit DDR Speicherinterface, 1 GB GDDR5 oder 2 GB GDDR3, TDP 20 bis 30 Watt; 30% schneller als Whistler (RV930/Turks)
frühere AMD-Roadmap sagt über die Mobile-Variante "Heathrow": 128 oder 192 Bit DDR Speicherinterface, 1,5 bis 2 GB GDDR5, TDP 33 bis 45 Watt; 30% schneller als Chelsea
Pitcairn sollte demnach antreten mit:
576-704 1D Shader-Einheiten
36-44 TMUs
192 Bit DDR Speicherinterface
Cape Verde
frühere AMD-Roadmap sagt über die Mobile-Variante "Wimbledon": 256 Bit DDR Speicherinterface, zusätzlicher Level3-Cache auf dem Chip-Package, 2 GB GDDR5, TDP 65+ Watt; 25% mehr als Blackcomb (RV940/Barts)
Cape Verde sollte demnach antreten mit:
1152-1280 1D Shader-Einheiten
72-80 TMUs
256 Bit DDR Speicherinterface
Tahiti
Leider gibt es hier keine AMD-eigenen Performance-Aussagen, ergo kann man nur schätzen. Da Tahiti allerdings ziemlichen GPGPU-Ballast mit sich tragen wird, dürfte der Chip kaum eine glatte Verdopplung des RV870 oder RV970 sein, sofern AMD nicht in Richtung 500mm² Die-Size gehen will. Die Schätzungen für Tahiti müssen wohl etwas niedriger angesetzt werden (auch niedriger als ich das letzte mal getan habe):
~ 2048-2560 1-D Shader-Einheiten
~ 128-160 TMUs
384 oder 512 Bit DDR Speicherinterface
Das krumme Speicherinterface scheint für AMD nicht mehr so das Problem (wie früher) zu sein, da man es im Mobile-Bereich sicher einplant, womöglich wird es auch im Desktop-Bereich genutzt. Womöglich geht AMD hier auf 1,5 GB Standard-Speicherbestückung - oder macht ein ähnliches Modell wie nVidia bei der GeForce GTX 550 Ti, die trotz 192-Bit-Interface ja auch nur einen "geraden" Speicher von 1 GB hat.
Die sich daraus ergebenden Performance-Prognosen sind dann gleich zu den Prognosen auf Basis von (angenommen) VLIW4-Chips:
Der LowCost-Chip Lombok könnte in etwa die Performance der Radeon HD 5570 errreichen, geschätzter Preis ca. 35 Euro, geschätzter Verbrauch ca. 30W.
Der Mainstream-Chip Pitcairn könnte in etwa die Performance der Radeon HD 6790 erreichen, geschätzter Preis ca. 80 Euro, geschätzter Verbrauch ca. 60W.
Der Performance-Chip Cape Verde könnte in etwa die Performance der Radeon HD 6950 erreichen, geschätzter Preis ca. 160 Euro, geschätzter Verbrauch ca. 100W.
Der HighEnd-Chip Tahiti könnte in etwa die Performance der Radeon HD 6990 erreichen, geschätzter Preis ca. 400 Euro, geschätzter Verbrauch ca. 180W.
Kleinere Grafikkarten-Varianten auf Basis dieser Grafikchips werden dann jeweils die sich ergebenden Zwischenräume schließen. In jedem Fall dürfte die SI-Generation das pulverisieren, was wir derzeit für Preis/Leistungs-Verhältnisse haben - aber völlig normal, wenn eine neue Grafikchip-Generation auf Basis einer neuen Fertigung antritt.
aylano
2011-07-10, 20:41:45
Daß mit dem VLIW4-Eintrag Trinity gemeint ist, geht zwar auch, ist jedoch deutlich unwahrscheinlicher angesichts dessen, daß der kleinste SI-Chip schon länger im Treiber genannt wird und Trinity erst spät in 2012 antreten wird. Wenn es exakt vier neue Einträge sind, dann können zum jetzigen Zeitpunkt eigentlich nur die vier SI-Chips gemeint sein - und wenn drei davon GCN und einer VLIW4 ist, dann dürfte der LowCost-Chip VLIW4 sein.
Wer sagt, dass Trinity spät kommt?
Soviel ich weiß, hat AMD noch nie so frühe eine laufende CPU gezeigt.
Den VLIW4-Eintrag würde ich eher zu Trinity zuordnen.
Eventuell gibt es noch 2 GPUs (Low-End & Mainstream) mit VILW4, die eben keine neuen IDs benötigen.
Leonidas
2011-07-10, 21:10:13
Wenn sie VLIW4 sind, benötigen sie neue IDs, denn bislang hat AMD keine LowCost/Mainstream-Chips mit VLIW4.
Gipsel
2011-07-10, 21:15:54
Daß mit dem VLIW4-Eintrag Trinity gemeint ist, geht zwar auch, ist jedoch deutlich unwahrscheinlicher angesichts dessen, daß der kleinste SI-Chip schon länger im Treiber genannt wird und Trinity erst spät in 2012 antreten wird.
Das wuerde ich aber auch wie aylano sehen. Trinity steht schon beinahe ewig im Treiber (http://www.planet3dnow.de/vbulletin/showthread.php?p=4279245#post4279245), inklusive Device IDs. Das Design ist wohl schon laenger fertig und hat sich nur mitsamt Bulldozer nach hinten geschoben. Das kam nicht lange nach Wrestler (Ontario/Zacate) und Sumo (Llano) rein, wobei das schon bei Llano deutlich laenger mit der Markteinfuehrung gedauert hat, offenbar wegen der 32nm Probleme.
Und dass Trinity VLIW4 ist, hat AMD selber gesagt, kuerzlich Dave Baumann nochmal im B3D-Forum. Die zweite VLIW4 ID fuer den Shadercompiler tauchte uebrigens zeitgleich mit der von Cayman auf. Die ganze Geschichte der APUs hat sich also bis auf Ontario/Zacate eher durch Probleme mit dem CPU-Teil bzw. der Fertigung verzoegert. Aus den Abstaenden des Auftauchens im Treiber kann man da nur bedingt was folgern.
Leonidas
2011-07-10, 21:25:36
Ok, das bedeutet, daß wirklich nur drei IDs frei sind? Wäre seltsam angesichts von vier Chips bei SI.
AnarchX
2011-07-10, 21:36:29
Die eigene Compiler-ID wird wohl für Zero-Copy und Pin-in-Place für die APU benötigt?
http://www.4gamer.net/games/100/G010001/20110613042/screenshot.html?num=008
Ok, das bedeutet, daß wirklich nur drei IDs frei sind? Wäre seltsam angesichts von vier Chips bei SI.
Ebene ein VLIW4-Chip, für Dual-Graphics mit Trinity, der die Cayman-ID nutzt.
Leonidas
2011-07-10, 21:58:55
Wieso sollte dieser Chip die Cayman-ID nutzen? Er ist ein anderer Chip, braucht ergo eine andere ID. Wenn IDs nur für unterschiedliche Architekturen vergeben werden, dann brauchen die drei GCN-Chips keine drei IDs.
AnarchX
2011-07-10, 22:15:58
Vielleicht unterscheiden sich die GCN-Chip im Bezug auf Cache, ALUs und TMUs je Cluster, ähnlich wie GF110, GF104 und GF108?
Leonidas
2011-07-11, 05:56:30
Wäre eine Möglichkeit. Aber wenn dann denke ich an zwei unterschiedliche Architekture - eine GCN voll ausgefahren und eine GCN um das meiste GPGPU-Gerassel bereit. Gleich drei?
Sei es, wie es ist, jedenfalls kann man die Shadercompiler-IDs nicht mit Grafikchips gleichsetzen, sondern anscheinend nur mit architektonisch unterschiedlichen Grafikchips (was nicht die Einheiten-Anzahl betrifft, sondern nur die grundlegenden Dinge). Richtig? Wenn das stimmt, läßt sich letztlich gar nicht sagen, wieviele der SI-Chips nun GCN sind und wieviele vielleicht doch VLIW4 sind.
Ronny145
2011-07-12, 17:44:40
http://www.4gamer.net/games/135/G013536/20110711007/
Langer Artikel von 4gamer.
Gipsel
2011-07-12, 18:22:49
http://www.4gamer.net/games/135/G013536/20110711007/
Langer Artikel von 4gamer.
... der auch Central Islands erwaehnt, die Charlie schon vor einiger Zeit mehr oder weniger versteckt angedeutet hat.
OgrEGT
2011-07-12, 21:57:07
Wäre es möglich wenn jemand von euch mit genügend Hintergrundwissen das google-translate Kauderweulsch kurz zusammenzufassen könnte?
Wäre echt nett.
Tarkin
2011-07-13, 06:46:27
Behind the Scenes with AMD's Eric Demers - An Interview with Rage3D (http://www.rage3d.com/interviews/amdchats/eric_demers_july_2011/index.php?p=4)
"AMD's Graphics Core Next Gen architecture is scheduled to appear in products due in Q4, 2011, as both Eric Demers and Rick Bergman confirmed for us. It is likely they will use TSMC's 28nm process, and have a dual architecture split like Northern Islands. If so, then this time Cayman VLIW-4 architecture hits the mainstream, and the next generation architecture debuts in the high end - similar to AMD's deployment of VLIW-4 in the Radeon HD 6000 series. This makes sense for compatibility with APUs, if Trinity is using VLIW-4 then the discrete GPUs will need to as well for best compatibility and performance."
Ailuros
2011-07-13, 08:57:22
Wenn AMD schon Q4 SI auf Regalen verspricht, dann duerfte so weit auch alles wenn nicht das meiste nach Plan gelaufen sein. Da SI angeblich seinen tape-out schon in Q1 11' gehabt haben soll, haut es wohl unter normalen Bedingungen auch hin.
Wie dem auch sei ich wuerde trotz allem ein bisschen Vorbehalte reservieren bis die chips wirklich in Produktion gehen. Denn es gibt stets Einzelheiten die leider erst dann auftauchen, die meistens eher Prozess- bzw. Foundry-bedingt sind als alles andere.
Skysnake
2011-07-13, 11:40:40
Ja so sehe ich das auch. Ich rechne eigentlich immer auf jeden Termin nochmals 3-6 Monate drauf und überlege mir dann, ob dass noch ausgeht. Denn ein Respin kostet halt so 3-6 Monate, je nach dem wie schwerwiegend der Fehler ist.
Wenn AMD schon Q4 SI auf Regalen verspricht, dann duerfte so weit auch alles wenn nicht das meiste nach Plan gelaufen sein. Da SI angeblich seinen tape-out schon in Q1 11' gehabt haben soll, haut es wohl unter normalen Bedingungen auch hin.
Wie dem auch sei ich wuerde trotz allem ein bisschen Vorbehalte reservieren bis die chips wirklich in Produktion gehen. Denn es gibt stets Einzelheiten die leider erst dann auftauchen, die meistens eher Prozess- bzw. Foundry-bedingt sind als alles andere.
Wobei eben auch die kleinen VLIW4 GPU zu SI gehören und wenn man an die letzte Generation denkt, dann ist es nicht unwahrscheinlich, dass einer dieser der erste Chip sein könnte, der verfügbar wird. GNA könnte zeitgleich oder etwas später kommen.
Ailuros
2011-07-13, 12:20:57
Wobei eben auch die kleinen VLIW4 GPU zu SI gehören und wenn man an die letzte Generation denkt, dann ist es nicht unwahrscheinlich, dass einer dieser der erste Chip sein könnte, der verfügbar wird. GNA könnte zeitgleich oder etwas später kommen.
So wie sich der obrige quote lesen laesst oder besser so wie ich in interpretiere, hast Du zwar recht was die Produkt-Aufteilung betrifft innerhalb SI betrifft, aber es klingt nicht danach als ob der GCN high end chip spaeter auf Regalen erscheinen soll. Waere auch ziemlich merkwuerdig selbst fuer AMD; im besten Fall stellen sie parallel high end und mainstream vor und danach kommen kurzfristig die kleineren Varianten an.
Dass sie vor Weihnachten etwas haben wollen ist verstaendlich. Ob es wirklich moeglich sein wird, haengt wohl eher vom Laufband ab.
Mich würde nicht wundern wenn einer der VLIW4 als erster in Produtkion geht, man zum Launch aber GNA vorstellt, mit beschränkter Verfügbarkeit dieser Chips. Das hat man ja beim Wechsel auf 40nm auch gemacht, dass man mit einem kleine Chip erstmal das Wasser getestet hat.
Screemer
2011-07-13, 12:42:07
high end kam bei amd in den letzten generationen allerdings immer zu erst. obiges zitat verstehe ich so, dass gcn eben der high end chip wird.
€dit: war der tab wohl schon zu lange offen.
der 40nm prozess wurde schon ausgiebig mit der 4770 getestet. die ersten wirklich neuen karten waren dann schon high end 5870/50, wenn auch in kleineren stüchzahlen, die mid- und lowend karten kamen wesentlich später. ich denke so wird es bei si auch ablaufen.
Gaestle
2011-07-13, 14:22:10
Aber der Testlauf mit der 4770 hat angeblich wohl nicht so wahnsinnig viel gebracht (ein bißchen aber schon), weil die ergebnisse wohl nur bedingt einfach so auf 5870 und Co. zu übertragen waren. Insofern kann es auch gut sein, das sie es dieses mal nicht noch einmal so machen.
Gipsel
2011-07-13, 16:04:07
Behind the Scenes with AMD's Eric Demers - An Interview with Rage3D (http://www.rage3d.com/interviews/amdchats/eric_demers_july_2011/index.php?p=4)
Die Geschichte mit dem Split in GCN und VLIW4 wird von Demers allerdings nirgendwo im Interview angedeutet. Das ist eine reine Spekulation seitens Rage3D. Da aber wahrscheinlich 3 verschiedene GCN-Chips kommen, klingt das mit nur Tahiti ist GCN etwas unwahrscheinlich. Beim Einbau der VLIW4 IDs in den Shadercompiler hat es mit dem erst spaeter bekannt gewordenen Split gepasst, bei SI tut es das bisher nicht.
M.(to_the)K.
2011-07-13, 16:59:06
Die Geschichte mit dem Split in GCN und VLIW4 wird von Demers allerdings nirgendwo im Interview angedeutet. Das ist eine reine Spekulation seitens Rage3D. Da aber wahrscheinlich 3 verschiedene GCN-Chips kommen, klingt das mit nur Tahiti ist GCN etwas unwahrscheinlich. Beim Einbau der VLIW4 IDs in den Shadercompiler hat es mit dem erst spaeter bekannt gewordenen Split gepasst, bei SI tut es das bisher nicht.
UNd woher ist jetzt bekannt das es 3 GCN chips geben wird? GCN kostet viele transistoren die bei der spieleperformance die karten keinen %punkt nach vorne bringen. und das ist gerade für karten wie 7870 und 7770 tötlich. denn diese chips werden auf profikarten für aufwendige berechnungniocht genutzt. da kommt nur der rv 1070 (wenn er denn so heißt) zum einsatz. alle anderen chips würden die gcn features nur unnötig mit sich rumschleppen. da kann man besser die ebenso neue vliw 4 architektur verwenden und dann vllt. auch zuerst mit der 7870 am makrt sein. hat ja schon bei der 6000er serie funktioniert.
die 7870 kommt im oktober und die 7970 im dezember. stünde der aussage gcn im q4 nichts im wege. das würde auch erklären warum man schon so früh das erste tapeout hatte.
man shrinkt cayman und verbessert ihn noch und hat ne super performancekarte.
das einziege problem ist wohl das die 7870 der 7950 das leben ganz schln schwer machen könnte. denn der aht zum einen mehr "unnötige" transsitoren und zunächst schlechte treiber. da könnte ne 7870 schon gefährlich nah kommen.
Gipsel
2011-07-13, 17:37:27
UNd woher ist jetzt bekannt das es 3 GCN chips geben wird?
Aus der Anzahl der GCN ASIC IDs aus dem Shadercompiler des Treibers.
GCN kostet viele transistoren die bei der spieleperformance die karten keinen %punkt nach vorne bringen.
Das Argument hat schon bei Fermi so nicht gestimmt und wird es auch bei GCN nicht tun. Sicherlich gibt es Features, die fuer Grafik erstmal nichts bringen. Vieles ist aber sozusagen dual use und kann insbesondere in Zukunft auch Grafikanwendungen beschleunigen.
und das ist gerade für karten wie 7870 und 7770 tötlich. denn diese chips werden auf profikarten für aufwendige berechnungniocht genutzt. da kommt nur der rv 1070 (wenn er denn so heißt) zum einsatz. alle anderen chips würden die gcn features nur unnötig mit sich rumschleppen. da kann man besser die ebenso neue vliw 4 architektur verwenden und dann vllt. auch zuerst mit der 7870 am makrt sein. hat ja schon bei der 6000er serie funktioniert.Die kleinen Karten werden sicherlich kein half-rate DP bekommen und auch kein ECC. Und ob Du auf kleinen Karten zum Beispiel keine Megatextures (PRT) nutzen willst (dafuer ist der gemeinsame Adressraum ganz nuetzlich), hmm, ich wuerde das schon als ein eventuell spielrelevantes Feature bezeichnen.
AnarchX
2011-07-13, 17:41:19
Aus der Anzahl der GCN ASIC IDs aus dem Shadercompiler des Treibers.
Hatte bei Evergreen jeder Chip seine eigene ID oder nur Cypress und Juniper (mit den verwandten Rest-Chips)?
Gipsel
2011-07-13, 17:53:30
Hatte bei Evergreen jeder Chip seine eigene ID oder nur Cypress und Juniper (mit den verwandten Rest-Chips)?
Cypress, Juniper, Redwood und Cedar hatten alle eigene IDs, genau wie auch Barts, Turks und Caicos sowie Llano (Sumo) und Ontario/Zacate (Wrestler) auch eigene haben.
Wie schon oefter gesagt, der einzige Fall, wo sich mehrere Chips eine ID geteilt haben waren RV770/790/740. Dabei spielen fuer den Shadercompiler Speicherinterface oder Caches keine Rolle, den interessieren nur die eigentlichen SIMDs. Sobald da irgendwas anders ist, gibt es eine neue ID, z.B. auch um Bugs getrennt im Compiler beruecksichtigen zu koennen. RV740 war also offenbar ein einfacher Shrink, ohne was an den SIMDs zu aendern, genau wie bei RV790 wohl nur ein Kondensatorring aussen dazu kam.
Skysnake
2011-07-13, 18:27:49
UNd woher ist jetzt bekannt das es 3 GCN chips geben wird? GCN kostet viele transistoren die bei der spieleperformance die karten keinen %punkt nach vorne bringen. und das ist gerade für karten wie 7870 und 7770 tötlich. denn diese chips werden auf profikarten für aufwendige berechnungniocht genutzt. da kommt nur der rv 1070 (wenn er denn so heißt) zum einsatz. alle anderen chips würden die gcn features nur unnötig mit sich rumschleppen. da kann man besser die ebenso neue vliw 4 architektur verwenden und dann vllt. auch zuerst mit der 7870 am makrt sein. hat ja schon bei der 6000er serie funktioniert.
die 7870 kommt im oktober und die 7970 im dezember. stünde der aussage gcn im q4 nichts im wege. das würde auch erklären warum man schon so früh das erste tapeout hatte.
man shrinkt cayman und verbessert ihn noch und hat ne super performancekarte.
das einziege problem ist wohl das die 7870 der 7950 das leben ganz schln schwer machen könnte. denn der aht zum einen mehr "unnötige" transsitoren und zunächst schlechte treiber. da könnte ne 7870 schon gefährlich nah kommen.
Das würde ich aber auf keinen Fall sagen. Du musst ja bedenken, dass die APUs auch mal auf GCN gehen werden, und es für diese SEHR WICHTIG ist, dass es genug Software gibt, die die iGPU richtig einsetzt um damit die Akkulaufzeit zu erhöhen, als auch allgemein im Performanceranking besser gegen Intel dasteht.
Ronny145
2011-07-13, 22:57:48
Pure-play foundry Taiwan Semiconductor Manufacturing Company (TSMC) has said that its plans to start commercial production of chips using 28nm process this year remains unchanged. TSMC expects 28nm chips to start contributing to company revenues in the third quarter of 2011, and sales from the advanced technology will account for 2-3% of its total wafer sales in the last quarter of the year.
http://www.digitimes.com/news/a20110713PD214.html
Screemer
2011-07-13, 23:13:09
2-3% bei dem output den tsmc hat, ist doch gar nicht mal so wenig.
was kommt denn alles an 28nm-chips von tsmc in diesem jahr? gcn, kepler, tegra 3, was noch?
Deinorius
2011-07-13, 23:57:21
Meinst du jetzt 28 nm LP und HP, oder nur eines von beiden? Von ersterem wird ja eher was kommen, als vom letzterem. GCN (28 nm HP), wenn wir Glück haben, glaub ich aber weniger. Krishna (Bobcat Nachfolger) kommt so oder so erst nächstes Jahr.
Ronny145
2011-07-17, 19:59:25
http://www.donanimhaber.com/ekran-karti/haberleri/Ozel-Haber-AMD-HD-7000-serisi-ekran-kartlari-PCie-30-destegi-ile-geliyor.htm
HD7000 offenbar mit PCIe 3.0 Support.
boxleitnerb
2011-07-17, 20:21:08
Auch wenn es vermutlich nichts bringen wird, finde ich es gut, dass neue Standards vorangetrieben werden.
Ronny145
2011-07-17, 20:31:09
Auch wenn es vermutlich nichts bringen wird, finde ich es gut, dass neue Standards vorangetrieben werden.
Mit einer einzelnen Karte sicherlich nicht. Im Crossfire mit PCIe 3 Boards und 2x8 Aufteillung könnte man aber quasi auf die gleiche Bandbreite kommen wie derzeitig mit PCIe 2 und 2x16 Lanes Aufteilung. Das würde Panther Point betreffen. 2x8 sollte dann völlig ausreichend sein.
Skysnake
2011-07-18, 11:43:00
Was heißt hier Quasi. 8GB/s Nettotransferrate bei 16xPCI-E2.0 sind GENAU das gleiche wie 8 GB/s Nettotransferrate bei 8xPCI-E3.0
Die Latenzen werden aber wohl etwas höher sein, da eben keine 8/10 Bit Codierung mehr verwendet wird, sondern 128/130 Bit.
Außer bei low/midrange wird es aber hoffentlich kein 8x geben.
Für Gamer reicht das zwar, aber für alle anderen ist 16x besser.
EDIT:
Ich würde ja mal gern eine 32x Karte sehen + entsprechendes Board halt. Das wäre eine feine Sache für manche GPGPU Aufgaben :daumen:
Gipsel
2011-07-19, 23:59:41
Komisch, hat ja noch keiner auf Charlies Meldung (http://semiaccurate.com/2011/07/19/southern-islands-kepler-and-apples-a6-process-puzzle-outed/) verwiesen, nach der SI in TSMCs HPL Prozeß (ein low power Prozeß, der allerdings HKMG statt Polygates verwendet; ist also die high performance-Variante des LP Prozesses) hergestellt wird, im Gegensatz zu nvidias Kepler, der auf HP (Nachfolger des 40G) setzen soll.
Als Einwand von mir wäre da zu nennen, daß der HPL-Prozeß ursprünglich später als LP und HP kommen sollte, inzwischen aber als zeitgleich zu HP ausgewiesen ist (HPM gibt's auch noch). Laut TSMC ist LP schon im Production Ramp, HPL und HP sind beide "ready for production", HPM ist dann Ende 2011 bereit.
Wie ich schon sagte, wir wissen nicht welcher Teil von SI wie weit ist. Im Hinblick auf den Mobilemarkt kann ich mir durchaus vorstellen, dass die Massenverfügbarkeit zuerst für den 4VLIW Ableger gegeben sein könnte.
Ailuros
2011-07-20, 11:43:24
Komisch, hat ja noch keiner auf Charlies Meldung (http://semiaccurate.com/2011/07/19/southern-islands-kepler-and-apples-a6-process-puzzle-outed/) verwiesen, nach der SI in TSMCs HPL Prozeß (ein low power Prozeß, der allerdings HKMG statt Polygates verwendet; ist also die high performance-Variante des LP Prozesses) hergestellt wird, im Gegensatz zu nvidias Kepler, der auf HP (Nachfolger des 40G) setzen soll.
Als Einwand von mir wäre da zu nennen, daß der HPL-Prozeß ursprünglich später als LP und HP kommen sollte, inzwischen aber als zeitgleich zu HP ausgewiesen ist (HPM gibt's auch noch). Laut TSMC ist LP schon im Production Ramp, HPL und HP sind beide "ready for production", HPM ist dann Ende 2011 bereit.
Ich hab es selber erst jetzt gelesen. Das einzig "negative" duerfte wohl sein dass man in solch einem Fall eben nicht besonders auf den Frequenz-hebel druecken kann. Braucht aber AMD wohl nicht da ich selber keine Frequenzen ueber 900MHz erwarte fuer SI.
mboeller
2011-07-20, 12:29:27
1,5GHz sollten doch genug sein:
ARM and Cadence jointly presented a paper at today’s ARM Technology Conference discussing the steps needed to get the new ARM Cortex-A15 multi-processor core ready to run at or above 2.5GHz in a 32/28nm G/HP process technology and at or above 1.5GHz in a 32/28nm LP process technology.
http://eda360insider.wordpress.com/2010/11/09/realizing-the-arm-cortex-a15-what-does-the-road-to-2-5ghz-look-like/
Ailuros
2011-07-20, 12:44:36
1,5GHz sollten doch genug sein:
http://eda360insider.wordpress.com/2010/11/09/realizing-the-arm-cortex-a15-what-does-the-road-to-2-5ghz-look-like/
Na danke fuer den Link denn ich brauch ihn fuer einen anderen Thread. Sonst gilt natuerlich V2.0's Antwort.
Skysnake
2011-07-20, 15:55:43
Ich erwarte bei AMD auch nicht all zu hohe Taktraten. Auf Semiaccurate wird ja spekuliert, das AMD nicht mit dem erwarteten 28nm HKMG Prozess nutzt, sondern 28 nm HP Prozess.
Damit sind scheinbar nicht so hohe Taktraten möglich, da höhere Leckströme, aber AMD hat ja im Vergleich ja eh nicht die mörder Taktraten im Vergleich zu nVidia. Die Shader sind ja doppelt so hoch getaktet...
Die Sache bleibt auf jeden Fall spannend
Nakai
2011-07-20, 16:55:59
Man schafft es dadurch etwas früher auf dem Markt zu kommen, als die Konkurrenz, welche wohl gleich zum besseren Prozess geht.
mboeller
2011-07-20, 18:54:57
Man schafft es dadurch etwas früher auf dem Markt zu kommen, als die Konkurrenz, welche wohl gleich zum besseren Prozess geht.
Das sehe ich anders. Der Desktop-GPU Markt ist inzwischen sogar ein wenig kleiner als der Notebook-GPU Markt ohne IGP od. APU (zumindest laut Mercury Research). Wenn AMD es schafft, den Verbrauch der neuen GPU's massiv zu drücken dann haben sie hier einen großen Marktvorteil vor Nvidia. Und 1GHz sollte der neue 28nm-LP Prozess schon mitmachen.
[edit]:
Der Desktop-Markt für Grafikkarten (ohne APU's und IGP's) ist immer noch ein wenig größer als der Notebook-Markt. nur bei AMD ist der Notebook-Markt um einiges größer als der Desktop-Markt.
fondness
2011-07-20, 19:43:14
Das sehe ich anders. Der Desktop-GPU Markt ist inzwischen sogar ein wenig kleiner als der Notebook-GPU Markt ohne IGP od. APU (zumindest laut Mercury Research). Wenn AMD es schafft, den Verbrauch der neuen GPU's massiv zu drücken dann haben sie hier einen großen Marktvorteil vor Nvidia. Und 1GHz sollte der neue 28nm-LP Prozess schon mitmachen.
Aber doch nicht beim Topmodell. Ein Cypress oder Cayman kam auch nicht für Notebooks. Das ließt sich ohnehin nur wie eine blanke Spekulation seitens Carlies, die IMO nicht viel Sinn macht. Tahiti ist mit der neuen Architektur für Server und Desktop-High-End entwickelt, aber sicher nicht für Notebooks. Der LP-Prozess ist zudem eher für embedded-Produkte gedacht, auch die kleinen Varianten von AMD/NV wurden bis dato stets im HP-Prozess gefertigt. AMD wird schon wissen was sie tun wenn sie sagen das die neue Architektur noch diesen Jahr erscheint. Also entweder wirklich noch 40nm, oder die Yields sind doch nicht so schlecht unter 28nm. Vielleicht wird der Chip auch relativ klein und deshalb kann man ihn schon diesen Jahr fertigen.
Gipsel
2011-07-20, 20:14:09
Auf Semiaccurate wird ja spekuliert, das AMD nicht mit dem erwarteten 28nm HKMG Prozess nutzt, sondern 28 nm HP Prozess.
Siehe hier:
Komisch, hat ja noch keiner auf Charlies Meldung (http://semiaccurate.com/2011/07/19/southern-islands-kepler-and-apples-a6-process-puzzle-outed/) verwiesen, nach der SI in TSMCs HPL Prozeß (ein low power Prozeß, der allerdings HKMG statt Polygates verwendet; ist also die high performance-Variante des LP Prozesses) hergestellt wird, im Gegensatz zu nvidias Kepler, der auf HP (Nachfolger des 40G) setzen soll.
Alle TSMC 28nm Prozesse außer LP sind HKMG. HPL (von Charlie für SI vermutet) ebenso wie HPM und natürlich auch HP (laut Charlie der Prozeß für Kepler).
Hugo78
2011-07-20, 20:20:49
Mit den hier auf der Main [link] (http://www.3dcenter.org/artikel/prognosen-zu-amds-southern-islands-und-nvidias-kepler) spekulierten Daten zu "Cape Verde", der ja wohl "High End" im mobilen Bereich werden dürfte,
könnte ich mir schon eine Kopie des Releaseverlaufs der HD6k vorstellen.
Desktop/Server High End kommt dann ebend ein Quartal später.
Und die Taktraten werden im mobilen Bereich ja eh noch mal gesenkt, um unter 100W zukommen.
Skysnake
2011-07-20, 22:00:12
Siehe hier:
Alle TSMC 28nm Prozesse außer LP sind HKMG. HPL (von Charlie für SI vermutet) ebenso wie HPM und natürlich auch HP (laut Charlie der Prozeß für Kepler).
Wenn du das etwas aufklären könntest, dann tu dies bitte, geb ganz ehrlich zu, dass ich bei den unterschiedlichen xy nm Verfahren nicht durch steige :redface:
aylano
2011-07-21, 02:47:12
Ich erwarte bei AMD auch nicht all zu hohe Taktraten. Auf Semiaccurate wird ja spekuliert, das AMD nicht mit dem erwarteten 28nm HKMG Prozess nutzt, sondern 28 nm HP Prozess.
Deine Interpretation/Übersetzung ist falsch.
Denn HPL (was von Charlie für SI vermutet) hat HKMG und AMD wird somit HKMG bei SI nutzen.
Abgesehen davon hat 28HP auch HKMG.
Somit haben alle außer 28LP HKMG
mboeller
2011-07-21, 07:48:27
Siehe hier:
Alle TSMC 28nm Prozesse außer LP sind HKMG. HPL (von Charlie für SI vermutet) ebenso wie HPM und natürlich auch HP (laut Charlie der Prozeß für Kepler).
Irgendwie habe ich das mit dem "HPL" beim ersten Durchlesen überlesen. ;)
Der Vorteil von HPL gegenüber normalem HP scheint ziemlich groß zu sein bzgl. dem Verbrauch. Behauptet zumindest Xilinx:
http://www.xilinx.com/support/documentation/white_papers/wp312_Next_Gen_28_nm_Overview.pdf
http://www.xilinx.com/support/documentation/white_papers/wp373_V7_K7_A7_Devices.pdf
http://www.xilinx.com/support/documentation/white_papers/wp389_Lowering_Power_at_28nm.pdf
Zudem scheinen sie schon FPGA's in dieser Technik zu liefern. Zumindest aber haben sie die FPGA's vor ein paar Tagen schon vorgestellt.
Ich habe leider nichts dazu gefunden, wie schnell die FPGA's sind (MHz).
[edit] gefunden:
The Virtex-7 family more than doubles the maximum density to 2 million logic cells,
offers transceiver line rates up to 28.05 Gb/s, pushes the I/O bandwidth to 2.8 Tb/s,
and with up to 5,280 DSP48E1 slices running at 638 MHz, raises the DSP performance
to 6,737 GMACs (or 3,369 GMACs in non-symmetric mode).
Skysnake
2011-07-21, 09:29:57
Ja Xilinx hat die Virtex 7 jetzt dann bald raus ;)
Ok, dann sind HP und HPL also beide HKMG Verfahren, aber in was unterscheiden die sich denn jetzt? :ugly:
Und warum ist das eine ein Problem und das andere nicht???????????
Also wie gesagt, von LP und HKMG hab ich gehört und weiß zumindest bei HKMG was auch dahinter steckt, aber bei HP und HPL, kein Plan...
robbitop
2011-07-21, 10:02:00
Möglicherweise die Charakteristik der Transistoren. Mögliche Schaltzeiten (und damit Frequenz) ggü. Leckstrom pro Transistor.
Skysnake
2011-07-21, 11:32:38
Und genau?
Gipsel
2011-07-21, 14:00:18
Der Vorteil von HPL gegenüber normalem HP scheint ziemlich groß zu sein bzgl. dem Verbrauch. Behauptet zumindest Xilinx:
http://www.xilinx.com/support/documentation/white_papers/wp312_Next_Gen_28_nm_Overview.pdf
http://www.xilinx.com/support/documentation/white_papers/wp373_V7_K7_A7_Devices.pdf
http://www.xilinx.com/support/documentation/white_papers/wp389_Lowering_Power_at_28nm.pdf
Zudem scheinen sie schon FPGA's in dieser Technik zu liefern. Zumindest aber haben sie die FPGA's vor ein paar Tagen schon vorgestellt.
FPGAs sind allerdings im Vergleich zu CPUs und GPUs auch supereinfach zu fertigen (sehr regelmäßige und wiederkehrende Strukturen, viel Redundanz), das ist auf der "Schwierigkeitsskale" irgendwo knapp über SRAM, deswegen gibt es die auch immer als erstes in einem neuen Prozeß.
Aber vielen Dank für die Links. Ein Großteil der Argumente von Xilinx für HPL und gegen HP treffen ja auf GPUs genauso zu. Zudem ist es nicht TSMC direkt, so daß da schon anklingt, daß HP tatsächlich mehr Probleme als HPL aufweist (wohl hauptsächlich beim eSiGe strain engineering, HPL kommt ohne strained silicon aus). Im Prinzip läuft das darauf hinaus, daß nach Ansicht von Xilinx der HP-Prozeß durch seine Auslegung zu viel der Stromverbrauchsvorteile von 28nm HKMG für höhere Performance opfert, die aber dann nicht genutzt werden könnte, weil der Stromverbrauch zu hoch wäre. HPL erlaubt dagegen eine glatte Verdopplung (oder gar mehr) der Transistorzahlen bei gleichbleibendem oder sogar leicht sinkendem Stromverbrauch bei ähnlicher Geschwindigkeit wie in 40G. HP könnte deutlich schneller werden, allerdigs nur bei dramatisch steigendem Stromverbrauch oder nur moderat steigenden Transistorzahlen (was bei Sachen mit hoher Parallelität wie FPGAs [und GPUs] die Einheitenzahlen zu stark limitiert). Oder man schaltet immer die Hälfte der Einheiten ab. Dark Silicon läßt grüßen.
The 28 HPL process technology avoids any yield and leakage issues seen with the embedded SiGe process used in the 28 HP process and delivers a more cost-effective process solution. The larger design headroom (voltage headroom) in the HPL process allows the choice of operating VCC at a wider range of values and enables a flexible power/performance strategy—which is not possible with the 28 HP process. The benefits of 28 HPL also include:
• High-Performance Mode (VCC = 1.0V): 28 HPL offers better performance (see Figure 1) than 28 HP at lower static power in the range of performance targets for FPGAs.
• Low-Power Mode (VCC = 0.9V): 28 HPL offers 65% lower static power than 28 HP. The headroom in 28 HPL allows Xilinx to select portions on the distribution that have good performance, even at VCC = 0.9V. See Figure 1. Dynamic power is also reduced by ~20% at this lower voltage.
• Adaptive Voltage Scaling (AVS) or Voltage ID (VID) Modes: These modes give the customer the ability to reduce power through control of VCC and take advantage of extra performance in some devices. With VID, in particular, a voltage ID is stored in each device. The readable voltage ID tells the minimum voltage at which the part can be operated to still meet performance.
http://www.abload.de/img/hp_hpl_lpvzlb.png
The advantage of the lower power modes is afforded by the voltage headroom with the 28 HPL process. The 28 HP technology is only a good choice for high-performance products if the amount of static power consumption is not important. Historically, MPU and GPU class products have used HP type processes.Hmm, ich kann mich erinnern, von GF mal eine Folie gesehen zu haben (in Bezug auf 32/28nm und die Herauforderungen für GPUs), daß bei einer GPU in 40nm bis zu 50% für Leakage/static power draufgehen können. Und da HPL wohl auch billiger ist als HP (eSiGe fehlt ja), kann ich mir schon vortellen, daß sich auch eine GPU ganz gut etwas niedriger in der Abb. 1 da macht.
Skysnake
2011-07-21, 14:14:29
Hmmm....
Ok, für FPGAs scheint der HPL Prozess also besser zu sein, da man den Leakage Strom wohl reduziert oder wie?
Für GPUs scheint das aber ja hier nicht so zu sein laut der Grafik.
Was aber klar auffällt ist, dass wir hier eben eine lineare gegen eine logarithmische Skala aufgetragen haben, und GPUs sind ja beim 40nm Prozess wirklich schon an die Leistungsgrenze gekommen mit ihren 300+ Watt. Die AMD Chips waren dabei ja immer recht klein, haben aber auch nicht ganz so viel Saft gezogen. Wenn man jetzt also mit weniger Performance leben würde, dafür aber DEUTLICH weniger Strom verbrauchen würde mit HPL, könnte man ja den bisherigen nicht genutzten DIE-Space nutzen, und einfach niedrig getaktete Riesenchips bauen :wau:
Wäre eigentlich gar keine so schlechte Idee, wenn der HP Prozess eh Probleme macht, und wenn man sich das auch mal so anschaut, er hat ja erst einen Vorteil, wenn man wirklich extrem viel Performance+ haben will. Es ist aber halt fraglich, ob man 40% Mehrleistung für 20 mal so viel Leakage haben will oder nicht :ugly:
Für nVidia ist das ja gar keine Option, deren Chips sind ja schon am absoluten Limit, was die Größe angeht. Für AMD halte ich es aber durchaus für möglich, dass man einfach doppelt so große Chips baut. Damit hätte man immer noch ~10 mal weniger Leakage im Vergleich zum HP Prozess bei weniger Leistung, aber eben nur halber Größe.
Ich glaub das wird noch richtig spannend die nächsten Monate :D
mboeller
2011-07-21, 14:41:30
Hmm, ich kann mich erinnern, von GF mal eine Folie gesehen zu haben (in Bezug auf 32/28nm und die Herauforderungen für GPUs), daß bei einer GPU in 40nm bis zu 50% für Leakage/static power draufgehen können. Und da HPL wohl auch billiger ist als HP (eSiGe fehlt ja), kann ich mir schon vortellen, daß sich auch eine GPU ganz gut etwas niedriger in der Abb. 1 da macht.
behauptet Xilinx auch:
The HP process is targeted for GPUs and CPUs, running in the 100W range, with up to
40% of that power consumed from leakage (~40W). This amount of leakage is
unacceptable for FPGAs, which have around 40W maximum budget for total power
(leakage and dynamic power) but have similar die sizes to the GPUs/CPUs. If the
leakage is reduced in the HP process to acceptable levels for FPGA use, the
performance is significantly reduced and the resulting process is more expensive and
more complex than the HPL process but with similar performance.
Quelle: das wp389_xxx PDF auf Seite 7 Die Tabelle 2 auf der gleichen Seite ist auch ganz nett.
aylano
2011-07-21, 14:58:20
Wurde SiGe nicht erstmals in 40nm-TSMC eingeführt, was ein nicht unerheblicher Grund für die 40nm-Probleme war/ist?
Wäre doch interessant, wenn sie immer noch Probleme mit SiGe hätten.
fondness
2011-07-22, 13:27:00
Zumindest 28nm ist bestätigt:
We also passed several critical milestones in the second quarter as we prepare our next-generation 28-nanometer graphics family. We have working silicon in-house and remain on track to deliver the first members of what we expect will be another industry-leading GPU family to market later this year. We expect to be at the forefront of the GPU industry's transition to 28-nanometer.
Skysnake
2011-07-22, 13:57:32
Na DAS ist doch praktisch das wichtigste.
We have working silicon in-house...
Damit kann es eigentlich kein solches Debakel wie beim GF100 geben, wo man eine Karte ohne GPU vorgestellt hat :ugly:
Dural
2011-07-22, 14:04:04
bist du ein clown... auch NV hatte damals silizium vom GF100 nur eben nicht lauffähig... jeden fall das meiste davon...
Brillus
2011-07-22, 14:29:33
bist du ein clown... auch NV hatte damals silizium vom GF100 nur eben nicht lauffähig... jeden fall das meiste davon...
Daher auch WORKING (funktionsfähiges)
"Working" kann vieles bedeuten. Sie bekommen anscheinend ein Bild, yay. Die Frage ist, ob alle Chipteile bereits funktionieren und man am Ende das Taktziel bei gescheitem Yield erreicht.
MfG,
Raff
fondness
2011-07-22, 14:40:41
"Working" kann vieles bedeuten. Sie bekommen anscheinend ein Bild, yay. Die Frage ist, ob alle Chipteile bereits funktionieren und man am Ende das Taktziel bei gescheitem Yield erreicht.
MfG,
Raff
Nachdem man die Chips jetzt schon länger für dieses Jahr angekündigt hat sollten diese Dinge längst geklärt sein und in kürze die Massenproduktion anstehen oder sogar schon begonnen haben. Von Beginn der Massenproduktion bis zur Verfügbarkeit im Handel rechnet man mit drei Monaten, und wir haben bereits fast August. Auch würde man wohl kaum von einer Veröffentlichung dieses Jahr sprechen wenn man noch ernst zu nehmende Probleme hätte.
Skysnake
2011-07-27, 23:34:29
Keine Ahnung, ob das neu ist, aber GameStar berichtet, dass SI Chips nicht nur bei TSMC sondern auch bei Globalfoundries gefertigt werden sollen :eek:
Also für mich ist das zumindest neu, oder ist damit Trinity gemeint :confused:
http://www.gamestar.de/hardware/news/grafikkarten/2324565/amd.html?r=3616831297350343&lid=131974
Ravenhearth
2011-07-27, 23:52:18
Die eigentliche Quelle ist XbitLabs (http://www.xbitlabs.com/news/graphics/display/20110726103803_AMD_Expects_to_Be_First_GPU_Designer_with_28nm_Graphics_Chips.htm l), allerdings schreiben die lediglich, dass sowohl GF als auch TSMC den 28nm-Prozess anbieten, AMD allerdings auf TSMC gesetzt hat und nun nicht einfach wechseln kann. Gamestar verstehts mal wieder falsch.
Gipsel
2011-07-27, 23:56:15
Keine Ahnung, ob das neu ist, aber GameStar berichtet, dass SI Chips nicht nur bei TSMC sondern auch bei Globalfoundries gefertigt werden sollen :eek:
Also für mich ist das zumindest neu, oder ist damit Trinity gemeint :confused:
http://www.gamestar.de/hardware/news/grafikkarten/2324565/amd.html?r=3616831297350343&lid=131974
Ja, ich habe die Xbit-Labs-Meldung auch so verstanden. Was unklar ist, ob direkt was von beiden kommt, z.B. das Performance-Modell von GF kommt und High-End und Mainstream von TSMC (oder eben anders zusammengewürfelt). Oder aber man erstmal mit einem Hersteller startet und dann irgendwann 2012 ein Refresh von GF kommt (z.B. zum Hochfahren der neuen Fab 8 in den Staaten, die ja schon ihre erste Erweiterung bekommt, kaum das die ersten Tools drinstehen).
Gipsel
2011-07-27, 23:59:49
Die eigentliche Quelle ist XbitLabs (http://www.xbitlabs.com/news/graphics/display/20110726103803_AMD_Expects_to_Be_First_GPU_Designer_with_28nm_Graphics_Chips.htm l), allerdings schreiben die lediglich, dass sowohl GF als auch TSMC den 28nm-Prozess anbieten, AMD allerdings auf TSMC gesetzt hat und nun nicht einfach wechseln kann. Gamestar verstehts mal wieder falsch.
Nenene, Seifert sagt im Prinzip schon, daß man bei beiden fertigen lassen kann/will:
At the 28nm node, all of our products will be based on bulk process technology, providing increased flexibility to work across our two committed and valued partner. [...] [With the introduction of 28nm process technologies], our flexibility to manage risk across the foundry partner ecosystem that we have has significantly increased,
Nenene, Seifert sagt im Prinzip schon, daß man bei beiden fertigen lassen kann/will:
Ja, aber in dem Absatz vorher gings über APUs. Vielleicht hat er nur das gemeint. Auch wenn die Lösung, die (kleinen) Einsteigerchips bei TSMC in HPL zu fertigen und Tahiti bei GF in HPM schon was nettes hat, sicher ist nichts.
Zuvor sagt er außerdem, dass dieses Jahr nur die ersten Mitglieder der 28nm Familie kommen. Das läßt dann auch die Interpretation zu, dass Tahiti von TSMC/HPM später in 2012 kommt. Der ganze Absatz mal im Kontext:
Turning to the Graphics business. The importance of graphics has never been clearer and the growth opportunities resulting from our graphics IP have never been more persuasive. Our graphics technology is fueling the success of all APUs and opening up significant growth opportunities in adjacent markets.
We strengthened the competitiveness of our discrete graphics offerings in the quarter, delivering the industry's highest-performing desktop and mobile GPUs. The continued ramp of APUs resulted in a record 20-plus million direct X11 discrete level graphic engines shipping in the quarter.
We also passed several critical milestones in the second quarter as we prepare our next-generation 28-nanometer graphics family. We have working silicon in-house and remain on track to deliver the first members of what we expect will be another industry-leading GPU family to market later this year. We expect to be at the forefront of the GPU industry's transition to 28-nanometer.
In the quarter, Nintendo also announced that its next-generation game console, the Wii U, will be powered by an AMD HD graphics engine. The successor to the widely popular Wii is expected to launch next year. As a reminder, AMD graphics technology power 2 of the 3 current-generation gaming consoles. Approximately 130 million game consoles are expected to ship over the next 3 years.
Our graphics IP and Fusion APUs are a great match for the next generation of media-rich consoles. We have an opportunity to increase the amount of AMD silicon shipped in this market by delivering customized Fusion silicon, significantly expanding the TAM for our APUs and serving as a strategic beach hats to drive APUs into adjacent market segments.
Operationally, we continue to demonstrate the earnings power of AMD's business model, generating nearly $300 million of free cash flow in the first half of the year. Key to this performance is our ability to work with both GLOBALFOUNDRIES and TSMC to meet our manufacturing needs. At the 28-nanometer node, all of our products will be based on bulk process technology, providing increased flexibility to work across these 2 committed and valued partner.
http://seekingalpha.com/article/281049-advanced-micro-devices-ceo-discusses-q2-2011-results-earnings-call-transcript
Gipsel
2011-07-28, 03:38:54
Den komplette Transkript kannte ich nicht, nur den xbitlabs-Artikel.
Auch wenn die Lösung, die (kleinen) Einsteigerchips bei TSMC in HPL zu fertigen und Tahiti bei GF in HPM schon was nettes hat, sicher ist nichts.
Ist hier zwar etwas OT, aber bei TSMC heißen die 28nm Prozesse LP, HPL, HPM und HP, bei GF gibt es insgesamt SLP, LP, HP, HPP, SHP, wobei in 28nm nur SLP (super low power), HP (high performance) und mit etwas Verspätung dann HPP (high performance plus, soll nochmal 10% schneller sein und optional weniger Leakage haben) kommen, alles bulk mit HKMG. LP gibt es nur für die alten 45/40nm Prozesse, SHP ist der 32nm SOI HKMG Prozeß.
GFs 28nm SLP ist HKMG ohne SiGe, also ähnlich wie TSMCs HPL (nur eben Gate first statt Gate last). GF behauptet allerdings weiterhin eine etwas höhere Performance von SLP gegenüber TSMCs HPL, so in etwa die Region von HPM (Samples von einem Ericsson "Nova 9450" Dual Cortex A9 mit Mali400 Grafik sollen mit 1,8 GHz laufen, ein Cortex A15 soll 2,5 GHz erreichen), wobei das wohl hauptsächlich durch "Overdrive" erreicht wird, also leichtes Hochsetzen der Versorgungsspannung (soll mit Gate last problematisch sein). Allerdings gilt das, wenn alle Transistoren eine reguläre Schwellspannung (Vt) aufweisen. Da kann man natürlich noch tunen, auf Kosten des Stromverbrauchs, besonders deutlich an der Leakage (static power) zu sehen (Zahlen sind inklusive Overdrive, nominal Vcc ist nur 1.0V):
http://gipsel.dyndns.org:8000/dsl_usb1/GF_SLP.png
Trotzdem, maximal 2.4 GHz dual Cortex-A9 unter 0.5W hört sich erstmal ziemlich gut an für einen low-power Prozess (muß dann nur noch mit der Massenproduktion klappen). TSMC sagt >1.4 GHz für HPL bei 400mW voraus, >1.8GHz bei 440mW mit HPM (warum TSMC den Prozeß wohl noch nachschiebt? ;)), >1.4GHz bei 500mW mit LP und >2 GHz ohne Verbrauchsangabe (:rolleyes:) bei HP.
SLP hat wie gesagt wie TSMCs HPL kein SiGe. HPM, HP und auch LP nutzen das wohl auf TSMCs Seite, wie auch HP bzw. HPP bei GF (der 32nm SOI Prozeß SHP natürlich auch).
OgrEGT
2011-07-29, 20:12:52
"TSMC: 28-nm-Fertigung verzögert sich"
http://www.computerbase.de/news/wirtschaft/unternehmen/2011/juli/tsmc-28-nm-fertigung-verzoegert-sich/
Gipsel
2011-07-30, 02:08:18
"TSMC: 28-nm-Fertigung verzögert sich"
http://www.computerbase.de/news/wirtschaft/unternehmen/2011/juli/tsmc-28-nm-fertigung-verzoegert-sich/
Mal ein "Crossquote":
TSMC hatte letztes Quartal über 3,8 Milliarden Dollar Umsatz. "Etwas über einem Prozent" wäre dann also 40 Millionen für TSMC aus 28nm. Das ist schon etwas entfernt von Nichts, sollten immerhin grob 8000 Wafer (565 Millionen mm² ;)) in dem Quartal in 28nm sein. Okay, da geht sicherlich was für allen möglichen anderen Kram ab, aber für einen hypothetischen Tahiti-Lauch würde das locker reichen, mehrfach. Zum Launch des Topmodells benötigt man höchstens ein paar 10000 Karten, selbst mit hunderttausend GPUs, ~400mm² pro GPU und einem yield von nur 50%, würde man dafür nur grob 1200 Wafer benötigen. Also Unmöglich ist das nicht. Vielleicht kommt der Rückgang von ~3% auf 1,x% dadurch zustande, daß nur noch der HPL-Prozeß hochgefahren wird und beim HP-Prozeß damit bis Q1/2012 gewartet wird? ;)
Außerdem ist auch GF bei 28nm m.M. nach noch nicht vollkommen aus dem Rennen. Ich könnte mir eine Aufteilung vorstellen, Topmodell und Einsteiger von einer Foundry, der mittlere Rest von der anderen oder sowas in der Richtung. Es sieht für mich nämlich etwas danach aus, als könnten die Mainstream- und Performancemodelle etwas später kommen.
Mancko
2011-07-30, 12:00:12
Sobald aber auch Nvidia von den 28nm Kuchen was haben will für Tegra3 oder irgendeinen Performance / Low-End Refresh, bleibt nur noch wenig Kappa übrig.
Ich glaube nicht an einen Launch mit vernünftiger Verfügbarkeit in diesem Jahr. Wenn dann wird es allenfalls sowas wie beim HD5xxx Launch.
Gipsel
2011-07-30, 12:52:37
Sobald aber auch Nvidia von den 28nm Kuchen was haben will für Tegra3 oder irgendeinen Performance / Low-End Refresh, bleibt nur noch wenig Kappa übrig.
Ich glaube nicht an einen Launch mit vernünftiger Verfügbarkeit in diesem Jahr. Wenn dann wird es allenfalls sowas wie beim HD5xxx Launch.
Laut offizieller TSMC-Stellungnahme wird langsamer geramped, weil Kunden erst später fertigen möchten (Kepler noch nicht fertig?).
Skysnake
2011-07-30, 12:53:46
Was aber im Zweifel durchaus ausreichend ist. Die Leute kaufen dennoch, man macht erst mal gutes Geld, und die Konkurrenz sieht ziemlich blöd aus. Viele warten eh die ersten x Wochen ab, bevor Sie ein neues Produkt kaufen, um nicht "Beta"-Tester zu spielen. Die Zeit kann man mit nem frühen Launch sozusagen überbrücken ^^
EDIT:
@Gipsel: Die wollen später fertigen? :ugly: Wo haste denn das her?
Ich kann mir vorstellen, dass ein Partner halt einen Respin hinlegen muss, aber ansonsten???
Gipsel
2011-07-30, 13:00:34
@Gipsel: Die wollen später fertigen? :ugly: Wo haste denn das her?
Die Sache mit der schlechten Wirtschaftslage im anderen Thread habe ich mir nicht aus den Fingern gesaugt. Gab wohl einen CC von TSMC (http://www.fabtech.org/news/_a/tsmc_backs-off_grand_capex_plan_due_to_softening_demand_28nm_ramp_delayed):
Chang also noted that 89 products had already been taped-out at the 28nm node all fully functioning and containing ‘satisfactory yields.’ The actual production ramp will take longer than expected due to the weakening macro-economic environment, as customers delay volume ramp plans until conditions can be seen to have improved.
Wer's glaubt ...
Nakai
2011-07-30, 13:16:59
Chang also noted that 89 products had already been taped-out at the 28nm node all fully functioning and containing ‘satisfactory yields.’
Bwahaha, fully-functioning and satisfactory yields...;D
Wenn man schon solche Wörter in ner Begründung stehen hat, dann läuft der Prozess nicht sonderlich gut. Voll funktionstüchtig, heißt nicht, dass die Chips auch den Erwartungen gerecht werden.
Skysnake
2011-07-30, 13:31:20
Ok, ich dachte echt, das wäre ein ganz schlechter Joke :ugly:
Ich kann mir aber kaum vorstellen, dass die Firmen die Produkte zurück halten. Mit neuen Produkten kann man die Preise wieder nach oben schrauben.
Oder meint ihr, die haben wegen ner USA-Pleite die Hosen voll??? Ich hab kürzlich irgendwo gelesen, das 70% der TSMC Chips nach Amerika gehen sollen. Kann ich mir aber ehrlich gesagt nicht vorstellen, dass deswegen nicht produziert wird...
Wobei dort schon sehr viele staatliche Stellen Unmengen an Geld in Rechner stecken.
@Nakai, das muss nichts heißen. Ich sehe es eher sogar als recht positiv, dass alle Chips funktionieren, die ihr Tape-Out hatten. Das ist schon mal besser, als das was beim 40nm Prozess ablief mit dem GF100. Sicherlich erreichen auch einige ihre Performanceziele, nur wenn man da schreibt, von 89 Produkten, erreichen nur 30 die Zielsetzung, dann hört sich das verdammt schlecht an...
TSMC ist und bleibt einfach ein total unberechenbarer Faktor in meinen Augen.
Nakai
2011-07-30, 13:58:48
@Nakai, das muss nichts heißen. Ich sehe es eher sogar als recht positiv, dass alle Chips funktionieren, die ihr Tape-Out hatten. Das ist schon mal besser, als das was beim 40nm Prozess ablief mit dem GF100. Sicherlich erreichen auch einige ihre Performanceziele, nur wenn man da schreibt, von 89 Produkten, erreichen nur 30 die Zielsetzung, dann hört sich das verdammt schlecht an...
TSMC ist und bleibt einfach ein total unberechenbarer Faktor in meinen Augen.
Fully functioning und satisfactory yields in einem Satz bzw im Zusammenhang sind immer Kopfweh. Das passt vorne und hinten nicht zusammen. Die Aussage kann ganz schön fehlinterpretiert werden.
Skysnake
2011-07-30, 14:58:16
Kann man wie gesagt interpretieren wie man will.
Angefangen von: wir sind absolut im Plan, fast schon besser, bis hin zu es gibt große Probleme bei großen Chips, kleine sind aber noch ganz ok
Ach so und natürlich kann es auch bedeuten, dass x Partner mit den Yealds zufrieden sind, vielleicht sogar schon sehr, die anderen aber praktisch nur Müll raus bekommen.
Wie gesagt eigentlich nichts sagend.
AnarchX
2011-07-30, 19:36:45
"have the opportunity to include the game free with purchase of some select AMD hardware coming very soon" he also mentions that he can't talk about those just yet.
http://www.xtremesystems.org/forums/showthread.php?265710-AMD-Zambezi-news-info-fans-!&p=4916128&viewfull=1#post4916128
http://youtu.be/teldcBqztOE?t=5m15s
Deus Ex kommt Ende August.
Skysnake
2011-07-30, 20:08:27
Glaub ich eher an Bulldozer, bzw. eher neue Llano Modelle. Es gab mal aus Asien ne Meldung, dass die APUs auch wie GPUs als Spielebundels angeboten werden sollen.
AwesomeSauce
2011-07-30, 23:20:51
Der Interviewee erwähnt doch spezifisch "card" ("So does that mean I get a card too then?"), was doch eher auf eine Grafikkarte schliessen lässt.
mboeller
2011-08-02, 08:10:58
habs gerade in einem anderen Forum gesehen:
http://vr-zone.com/articles/next-generation-gpus-amd-s-cray-on-a-chip-/13163.html
+
http://groups.google.com/group/comp.arch/browse_thread/thread/d2a359486239c67b/47b1adab7b7f7307
Schaut so aus, als ob AMD, zumindest von der Architektur-Seite her alles richtig gemacht hat. Der Kommentar von Andy Glew "Larrabee done right" hört sich schon einmal gut an.
Duplex
2011-08-02, 12:27:22
Larrabee ist auch nicht der Gegner für GCN, das ist nur ein Papiertiger :D
GCN oder Kepler, einer von beiden wird die Nr.1
Gipsel
2011-08-02, 14:34:21
habs gerade in einem anderen Forum gesehen:
http://vr-zone.com/articles/next-generation-gpus-amd-s-cray-on-a-chip-/13163.html
+
http://groups.google.com/group/comp.arch/browse_thread/thread/d2a359486239c67b/47b1adab7b7f7307
Schaut so aus, als ob AMD, zumindest von der Architektur-Seite her alles richtig gemacht hat. Der Kommentar von Andy Glew "Larrabee done right" hört sich schon einmal gut an.
Andy Glews Kommentar zum Vergleich mit Larrabee würde ich mal nicht so ernst nehmen. Den hat er offensichtlich getätigt, bevor er die Präsentation wirklich gesehen hat. Denn er hat (wie dem Kommentar dort zu entnehmen) offensichtlich einige Aspekte von GCN etwas falsch verstanden.
Der VR-Zone-Artikel beleuchtet die Sache gar nicht mal so schlecht, auch wenn die Abschätzung der DP-Rechenleistung vollkommen daneben ist (die gehen von Full-Rate aus, obwohl AMD klar gesagt hat, daß es maximal Half-Rate wird, und auch das höchstens bei den Top-Modellen bzw. den Firestreams).
Edit:
Rest der Antwort mal in den Architektur-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8856419#post8856419) verschoben. :redface:
Ailuros
2011-08-14, 00:05:18
Wenn mein neuestes Zeug stimmt: nicht vor Q4 11 und ich bezweifle dass man selbst auf dieses so langsam wetten kann.
AMD haette nie ihre Meinung aendern sollen in der Vergangenheit. Schade.
Skysnake
2011-08-14, 04:53:34
Welche Meinung ändern?
Ailuros
2011-08-14, 19:07:57
Welche Meinung ändern?
SI war nicht immer in der Vergangenheit fuer TSMC geplant. Wie dem auch sei bei 20nm soll es noch schlimmer aussehen als bei 28nm.
Skysnake
2011-08-14, 19:10:18
Klar wird es dort noch schlimmer aussehen :ugly:
Es wird immer schlimmer, je kleiner man wird. Wobei ich mir für 28nm echt weniger Probleme erhofft hatte, da Sie ja auf UV gegangen sind, bei dieser Strukturgröße und dort nach unten wieder etwas Luft ist, womit man Chancen hat, mit minimal kleineren Problemen durch zu kommen.
Die sind doch bereits jetzt auf UV gegangen oder?
Ailuros
2011-08-14, 19:19:27
Hier http://www.forum-3dcenter.org/vbulletin/showthread.php?t=512766 geht es weiter mit Prozess relevanten Debatten.
Skysnake
2011-08-14, 20:26:57
Thx :D
Ailuros
2011-08-15, 09:58:30
http://www.fudzilla.com/notebooks/item/23714-28nm-radeons-this-year
This comes as little surprise as the retail cards are expected at some point in Q4 2011.
~November ohne dass es wirklich sicher ist.
Was jetzt das Bauchgefuehl fuer GloFo betrifft es duerfte durchaus stimmen und nicht nur fuer APUs. Von dem was ich hoerte sollte es keinen ueberraschen wenn spaeter so einiges SI Material bei GloFo hergestellt wird.
fondness
2011-08-15, 10:33:39
Was jetzt das Bauchgefuehl fuer GloFo betrifft es duerfte durchaus stimmen und nicht nur fuer APUs. Von dem was ich hoerte sollte es keinen ueberraschen wenn spaeter so einiges SI Material bei GloFo hergestellt wird.
Wundert mich nicht. Alleine durch die gigantische Bestellmenge bei GF und der Tatsache das ihnen der Laden noch immer zu einem großen Teil gehört dürften sie die Wafer dort wesentlich billiger bekommen als bei TSMC. ABer offenbar wollte man zu beginn kein Risiko eingehen bzw. scheint auch GF genug Probleme zu haben wenn man sich die aktuellen 32nm Prozess so ansieht.
Skysnake
2011-08-18, 23:21:16
Auf Donanimhaber.com wurde gerade ein Interview mit PowerColor gepostet.
Ist sogar auf English, auch wenn ich mir manchmal nicht sicher bin, was das wirklich ist, von der PowerColor Mitarbeiterin :ugly:
Kurz zusammengefasst der Inhalt:
HD7000 kommt wohl erst im Q1 2012 oder ganz kurz vor dem Ende von Q4 2011. Aber wohl ziemlich sicher nicht vor dem Weihnachtsgeschäft
AMD arbeitet daran, dass die HD7000 PCI-E 3.0 bekommt, Sie seien aber wohl noch nicht fertig, soweit ich das Kauderwelsch richtig verstanden habe.
Jetzt wird es aber GANZ Feaky :ugly:
Die Mitarbeiterin von PowerColor teilt auf die Frage hin, ob die nächst GrafikkartenGeneration in 40 oder 32! (wie kommt der drauf??? Macht TSMC doch nicht mal....) gefertigt wird mit, dass die nächste Generation in 40! nm gefertigt werden würde :ugly:
Also wenn DAS wirklich stimmt, dann gute Nacht um 6. Dann glaube ich nicht mehr dran, das Kepler vor Ende Q2 2012 kommt. Auch vermute ich, wenn dies wirklich stimmt, dass AMD mit der HD7000 Serie im Prinzip das TickTock Prinzip übernimmt, und mit dem alten Prozess die neue Architektur bringt, um dann später den neuen Prozess zu bringen. Sollte dies wirklich so sein, könnte eventuell schon im Q2-Q3 die nächste Generation, bzw. ein 28nm Shrink kommen. Auch möglich wäre Einsteiger/Mittelklasse in 40 nm und einige Monate später dann High-End in 28 nm.
So recht dran glauben kann ich allerdings nicht. Das klingt einfach ZU abgefahren :ugly:
http://www.donanimhaber.com/ekran-karti/haberleri/iste-Radeon-HD-7000-serisinin-cikis-tarihi-ozel-roportaj.htm
Ronny145
2011-08-18, 23:38:26
Das Video hatte ich vorhin schon betrachtet. Die Tante macht auf mich keinen souveränen Eindruck. Als ob die nicht wirklich wusste wovon sie sprach. Also ich schätze das nicht sehr glaubwürdig ein. Q1 '12 für die HD7000 hätte ich noch geglaubt, aber dann später die 40 nm Aussage :freak: Kann ich mir nicht so recht vorstellen.
Skysnake
2011-08-18, 23:51:36
/sign
Zumal Sie auch nachfrägt bei PCI-E 3.0 "Whot" :ugly:
Aber warum stellt PowerColor dann so jemanden da hin? :ugly:
Irgendwas ist da faul.
Duplex
2011-08-18, 23:56:46
War es nicht Rick Bergmann der sagte das GCN/SI in 28nm noch 2011 kommen soll?
aylano
2011-08-19, 00:29:32
Wie ich schon mal erwähnte bzw. länger der Meinung bin.
Eine HD7000-Verschiebung würde mich nicht mehr völlig überraschen, auch wenn AMD dieses Versprechen "vor recht kurzer Zeit" wiederholte.
TSMC soll ja im 4Q nur mehr 1% statt 4% aller Wafer-Kapazitäten in 28nm gefertigt werden.
Das entspricht AFAIK so 10.000 8"-Equivalent, was bei 100%-Yieldrate max. 5 Mio. 60mm²-Dies bedeuten könnte.
Aber darum streiten sich dann 89 verschiedene Dies. (Annahme jeder Die wäre 60mm²)
Somit wären damit fast 50.000 Stück pro Die @ 100%-Yield. (Wobei es die 100%-Yield ja bekanntlich nicht gibt.)
Der Launch ist mittlerweile eine Sache, die Verfügbarkeit eine andere.
Leider wissen wir ja nicht bzw. haben keine Erfahrungswerte, wie der Ramp bei 40nm aufgeteilt wurde. Aufgrund der langen Warteschlage (89-"funktionale"-Tape-Outs) dürfte der 28nm-TSMC-Ramp dürfte noch lange interressant werden.
Und umsolänger sich der Massen-Ramp nach hinten zieht, desto eher besteht die Chance, dass GF ebenfalls zum Rampen beginnt, bevor (1,2 oder 3Quartal 2012) alle mit 28nm-TSMC-Wafer befriedigt werden.
http://www.globalfoundries.com/technology/brochures_whitepapers.aspx
Wobei es bei GF sehr still um 28HP geworden ist, und GF momentan statt 28HP in den Pipers die 28SLP stark promotet. Und mit 32SHP ist GF ja auch mehr als genug beschäftigt, was gegen einer "frühen 28HP-Reife" spricht.
Gipsel
2011-08-19, 01:32:43
Zum Interview noch mal: am besten sucht ihr mal noch das dort erwähnte Interview zur HD6900er-Serie vom letzten Jahr raus. Da hat die Tante auch schon totalen Blödsinn gelabert.:rolleyes:
Eine HD7000-Verschiebung würde mich nicht mehr völlig überraschen, auch wenn AMD dieses Versprechen "vor recht kurzer Zeit" wiederholte.
TSMC soll ja im 4Q nur mehr 1% statt 4% aller Wafer-Kapazitäten in 28nm gefertigt werden.
Das entspricht AFAIK so 10.000 8"-Equivalent, was bei 100%-Yieldrate max. 5 Mio. 60mm²-Dies bedeuten könnte.
Aber darum streiten sich dann 89 verschiedene Dies. (Annahme jeder Die wäre 60mm²)
Somit wären damit fast 50.000 Stück pro Die @ 100%-Yield. (Wobei es die 100%-Yield ja bekanntlich nicht gibt.)
Der Launch ist mittlerweile eine Sache, die Verfügbarkeit eine andere.Leider wissen wir ja nicht bzw. haben keine Erfahrungswerte, wie der Ramp bei 40nm aufgeteilt wurde. Aufgrund der langen Warteschlage (89-"funktionale"-Tape-Outs) dürfte der 28nm-TSMC-Ramp dürfte noch lange interressant werden.
Und umsolänger sich der Massen-Ramp nach hinten zieht, desto eher besteht die Chance, dass GF ebenfalls zum Rampen beginnt, bevor (1,2 oder 3Quartal 2012) alle mit 28nm-TSMC-Wafer befriedigt werden.Laut TSMC wollen viele Kunden erst in Q1 oder Q2 die Massenproduktion hochfahren, warum auch immer. Für einen high-end Chip von AMD reichen die Kapazitäten von TSMC locker, da benötigt AMD nur 15% des prognostizierten 28nm Waferausstoßes von TSMC oder sowas in der Größenordnung. Man sollte nicht vergessen, daß 1% von TSMC gar nicht so wenig ist. Selbst die kompletten 40nm machen momentan irgendwie nur grob 40% bei TSMC aus, Q3 letzten Jahres waren sie erst bei bißchen über 20% mit den 40nm, wenn ich das richtig in Erinnerung habe (und da waren bekanntlich alle Grafikchips schon auf 40nm, auch die volumenstarken Einsteiger-/Mainstream- und Performancemodelle, von dem ganzen anderen Kram nicht zu reden).
Außerdem habe ich ja schon mehrfach die Vermutung geäußert, daß AMD durchaus einen zweigeteilten Launch machen könnte, Highend zuerst, gefolgt von Einsteigerkarten, dann ein wenig Pause zu den Performance-Modellen, die eventuell sogar in einer anderen Fab entstehen.
http://www.globalfoundries.com/technology/brochures_whitepapers.aspx
Wobei es bei GF sehr still um 28HP geworden ist, und GF momentan statt 28HP in den Pipers die 28SLP stark promotet. Und mit 32SHP ist GF ja auch mehr als genug beschäftigt, was gegen einer "frühen 28HP-Reife" spricht.
Die Schwierigkeiten beim 32SHP SOI Prozeß sind wahrscheinlich andere als bei 28HP bulk.
Und daß GF SLP pushed, dürfte ganz verständlich sein, plaziert er sich doch von der Leistungsfähigkeit doch deutlich über TSMCs 28LP eher im Bereich von 28HPL (laut GF sogar mit Tendenz zu HP), erlaubt aber wegen GateFirst das einfachere Übertragen von 40nm SiON-Designs (ähnlich wie TSMCs LP, was noch SiON gates nutzt, und damit anders als bei allen HKMG-Prozessen von denen), eine etwas höhere Integrationsdichte und das bei Kosten, die in etwa in der Nähe von TSMCs HPL liegen dürften (kein SiGe).
TSMCs 28LP Prozeß hat ja nur einen einzigen "Vorteil" für die Kunden, nämlich die alten SiON gates, mit denen die sich die Kunden bereits auskennen. Ansonsten ist der langsamer als HPL, leakt mehr als HPL und ist dabei wahrscheinlich noch nicht mal wesentlich billiger (weil zusätzliche Schritte für SiGe erforderlich, der nutzt das nämlich auch).
Aber das ist vielleicht eher ein Thema für den von Ailuros aufgemachten Prozeßthread. ;)
Skysnake
2011-08-19, 01:46:40
ja definitiv ;)
aylano
2011-08-19, 02:39:21
Zum Interview noch mal: am besten sucht ihr mal noch das dort erwähnte Interview zur HD6900er-Serie vom letzten Jahr raus. Da hat die Tante auch schon totalen Blödsinn gelabert.:rolleyes:
Und was schrieb sie?
Laut TSMC wollen viele Kunden erst in Q1 oder Q2 die Massenproduktion hochfahren, warum auch immer. Für einen high-end Chip von AMD reichen die Kapazitäten von TSMC locker, da benötigt AMD nur 15% des prognostizierten 28nm Waferausstoßes von TSMC oder sowas in der Größenordnung.
Grundsätzlich halte ich Low-End & Mainstream-GPUs pünktlich vor Milestones wie Ive-Bridge genauso wichtig wie High-End.
Das würde sich vielleicht in dem einem % noch ausgehen, aber auch nur wenn keiner der 89-Dies-Kanditaten irgendwelche Wafer beanspruchen will. Das wäre schon etwas komisch, vorallem wenn sich vor paar Monaten einige/viele (=4%) noch einen Start im 4Quartal vorstellen konnten.
Die 28nm Probleme sind lange bekannt und trotzdem gabs weitere Verschiebungen in den letzten Monaten.
Somit kann man weitere Verspätungen nicht ausschließen, auch wenn die Tante nicht glaubwürdig erscheinen mag.
-----
AFAIK hat 40nm 20% Wafer-Kapazitäten und 40% Wafer-$-Umsatz- von TSMC-Gesamt.
Gipsel
2011-08-19, 09:51:15
Und was schrieb sie?Nix. Die hat geredet denn es war auch ein Video-Interview ;). Aber mindestens genauso schlecht zu verstehen und iirc ohne belastbare Information.
Edit: http://www.donanimhaber.com/ekran-karti/haberleri/powercolor-ile-radeon-hd-6900-serisinin-performansini-ve-fusion-islemcilerini-konustuk.htm
"all of the AMD product line are completely win nvidia product line" (completely wins against nv?)
"no one can compete with AMD"
;D
Ailuros
2011-08-19, 11:16:11
Erinnert mich an den albernen Spruch der durchs Netz kursierte als 3dfx von NV gekauft wurde: "all your base are belong to us" :D
Ronny145
2011-08-19, 11:35:15
Nix. Die hat geredet denn es war auch ein Video-Interview ;). Aber mindestens genauso schlecht zu verstehen und iirc ohne belastbare Information.
Edit: http://www.donanimhaber.com/ekran-karti/haberleri/powercolor-ile-radeon-hd-6900-serisinin-performansini-ve-fusion-islemcilerini-konustuk.htm
"all of the AMD product line are completely win nvidia product line" (completely wins against nv?)
"no one can compete with AMD"
;D
Powercolor müsste sich schämen. Bei so albernen Sachen verfehlt es die Wirkung und wirkt eher lächerlich. Donanimhaber kann sich das beim nächsten mal sparen.
mapel110
2011-08-19, 14:10:19
http://vr-zone.com/articles/powercolor-next-gen-amd-gpus-in-q1-2012/13340.html
In an interview with DonanimHaber, PowerColor Sales Director Elaine Liao revealed the release date for AMD's next-gen GPUs. The first Radeon HD 7000 series cards are now expected to release in Q1 2012, according to Liao
Gipsel
2011-08-19, 14:17:13
http://vr-zone.com/articles/powercolor-next-gen-amd-gpus-in-q1-2012/13340.html
In an interview with DonanimHaber, PowerColor Sales Director Elaine Liao revealed the release date for AMD's next-gen GPUs. The first Radeon HD 7000 series cards are now expected to release in Q1 2012, according to Liao
Wie der eine Kommentar unter der Meldung schon sagt, beziehen sich die Powercolor-Aussagen zum Termin eventuell auf die selber hergestellten Karten. Ich glaube, die Diskussion gab es beim HD6800/HD6900 Launch auch schon mal. Zuerst bekommen alle fertig zusammengebaute Referenzmodelle und kleben nur noch ihre Sticker drauf und erst danach bekommen sie die Chips einzeln für eigene Modelle.
Und muß man die Geschichte mit den 40nm eigentlich noch kommentieren? :rolleyes:
Skysnake
2011-08-19, 14:21:18
Eigentlich nicht :D
Versteh den Link zu vr-zone jetzt aber nicht, da ist ja absolut nichts neues drin.
Dural
2011-08-20, 23:22:43
Powercolor ist doch der hersteller von den AMD referenz karten ?!
6900 karten kammen ja auch erst im Q1 richtig in den markt...
zudem wäre es eine ziemlich dämliche aussage seitens Powercolor "wir haben im Q1 karten" wenn man zuvor scho irgend welche referenz karten liefern könnte :rolleyes:
wie auch immer Q1 überrascht in keinster weise und war absehbar!
dildo4u
2011-08-20, 23:26:39
AMD braucht keine neue High End Karte 6970 und 6990 werden praktisch nicht vom Handel bestellt,weil sie sie nicht los bekommen.Die Karten scheinen einen schlechten Ruf zu haben keiner will mehr als 200€ für ne AMD ausgeben.
boxleitnerb
2011-08-20, 23:32:45
Hast du dazu auch einen Beleg? Das klingt reichlich komisch.
Blediator16
2011-08-20, 23:41:02
Hast du dazu auch einen Beleg? Das klingt reichlich komisch.
Die sind ja scheinbar kaum noch lieferbar. Woran es genau liegt kann man nur spekulieren^^
boxleitnerb
2011-08-20, 23:49:45
Richtig. Da das eine oder andere zu behaupten ohne Grundlage ist irgendwie daneben.
mapel110
2011-08-21, 00:29:21
Es gibt keinen technischen Grund, warum die Karten so schlecht verfügbar sind. Also muss es die Nachfrage sein.
Powercolor ist doch der hersteller von den AMD referenz karten ?!
Ne das ist Sapphire. Zumindest vor ein paar Jährchen war das so.
Superheld
2011-08-21, 03:11:27
AMD braucht keine neue High End Karte 6970 und 6990 werden praktisch nicht vom Handel bestellt,weil sie sie nicht los bekommen.Die Karten scheinen einen schlechten Ruf zu haben keiner will mehr als 200€ für ne AMD ausgeben.
ja nach dein Post sinds noch weniger:freak:
ne Spass, die Karten sind schon ihr Geld wert, glaube ich zumindest:)
mich schrecken nur die Artikel bei 3dc ab..wos AF verschlechtert wurde usw;(
N0Thing
2011-08-21, 03:22:44
Eine 6990 ist für die wenigsten interessant, ebenso eine GTX 590 und der 6970 wird durch die deutlich günstigere, aber kaum langsamere 6950 mächtig Druck gemacht. Der wohl immer noch mögliche BIOS-Mod zum kostenlosen Upgrade auf eine 6970 hat sicherlich auch einen Teil dazu beigetragen, daß die 6950 beliebter ist als eine 6970.
Neue Single-GPU Grafikkarten, die sich merklich von einer 6950 absetzen können sind genau das, was AMD braucht. Und perfektes AF.
aufkrawall
2011-08-21, 07:43:45
Und erweiterbares Transparenz-AA über den Treiber für DX10/11.
Und SSAA für DX10/11.
Weniger Bugs wären auch nicht schlecht, ne vernünftige Profilkonfiguration für einzelne Anwendungen ist ebenfalls überfällig.
Aus diesen Gründen hab ich meine Radeon gegen ne gleichschnelle Nvidia getauscht und es nicht bereut.
boxleitnerb
2011-08-21, 08:01:01
Kurze OT-Frage:
Was genau unterscheidet die Profilkonfiguration zwischen AMD und Nvidia außer dass man bei Nvidia Zugriff auf praktisch alles per NVAPI hat?
horn 12
2011-08-21, 09:13:36
AMD ist sicherlich weitaus weiter als so manche HIER im Forum meinen.
Sagte dieser AMD Mitarbeiter nicht dass Ende August zum Deus Ex Release etwas über die Neue Graka-Generation geplaudert wird.
Deus Ex 3 liegt ja den 6950-er Karten bei, ebenso den Töchterkarten.
Denke dies soll ein Ansturm auf die Bestände sein,- und dies ist gut.
HD6970/6990 wurden wahrscheinlich schon eingestellt, (so gut wie kaum mehr lieferbar)
da die Neuen Karten im 28Verfahren wohl diesen recht nahe kommen sollten...
Diese 3 Karten haben wohl bald ausgedient, zudem sind die HD6970 / 6990 Karten fast restlos vom Markt verschwunden.
Seht selbst:
INDEX75
2011-08-21, 09:16:36
...
ne vernünftige Profilkonfiguration für einzelne Anwendungen ist ebenfalls überfällig.
...
Ich finde die Profilkonfiguration hüben wie drüben gut gelöst. Bei der vorherigen GTX 570 sowie meiner jetzigen HD 6970 hatte ich keinerlei Schwierigkeiten. Es sind eben zwei verschiedene Wege.
Superheld
2011-08-21, 09:31:54
Und SSAA für DX10/11.
warum machen die das nich, weilse wegen der Performance sich in die Hosen sch. oder was ?:freak:
echt schade AMD aber dx9 stirbt langsam aus..:(
boxleitnerb
2011-08-21, 09:59:33
Ne, Füllrate haben die doch genug. AMD hält sich eben an die Specs. So Zeiten wie der Chuck Patch damals sind leider vorbei.
mironicus
2011-08-21, 10:20:51
Die meisten kaufen eine 6950 und schalten sie dann zur 6970 frei, wenn möglich? Kleines Risiko (Karte lässt sich ja in den ursprünglichen Zustand zurückschalten), aber dann meistens schon 60-70 Euro gespart.
Weiteres Plus der 6950 ist der deutlich geringere Stromverbrauch gegenüber einer 6970. Selbst wenn man nur die Shader freischaltet bleibt die Karte recht sparsam und bietet dann auch noch mit die beste Leistung pro Watt.
Und die 6870 die nur wenig langsamer ist, kostet auch deutlich weniger. Ich glaube, der Preisbereich 100-150 Euro ist einfach am meisten gefragt. Die Karten sind in dem Bereich schnell genug.
fondness
2011-08-21, 10:32:04
Es gibt keinen technischen Grund, warum die Karten so schlecht verfügbar sind. Also muss es die Nachfrage sein.
Gehts noch unlogischer? Wenn es keinen Nachfrage gibt sollten Karten normalerweise sehr gut lieferbar sein. Zumal fast alle Shops schreiben "bestellt" oder ähnliches, aber offenbar bekommen sie aus welchen Gründen auch immer keine neuen Karten mehr.
Gehts noch unlogischer? Wenn es keinen Nachfrage gibt sollten Karten normalerweise sehr gut lieferbar sein. Zumal fast alle Shops schreiben "bestellt" oder ähnliches, aber offenbar bekommen sie aus welchen Gründen auch immer keine neuen Karten mehr.
Er schreibt doch nichts von "geringer Nachfrage". Ich verstand das so, dass die Nachfrage höher als erwartet ist. Deswegen dröppel immer nur ein paar Exemplare ein, die dann an die Vorbesteller weggehen. Die Karte ist somit nie auf Lager.
Möglich, dass sich AMD da mal wieder bei den Wafer Bestellungen verspekuliert hat, oder sie haben ein paar Wafers auf Zacate umbestellt, was wissen wir schon.
Aber das Ganze hat mit Southern Island herzlich wenig zu tun ... außerdem gibts dafür schon nen "6970/6990 nur noch WENIGE lieferbar (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=511880) " Thread, da passt das viel besser rein.
Blediator16
2011-08-21, 15:27:57
warum machen die das nich, weilse wegen der Performance sich in die Hosen sch. oder was ?:freak:
echt schade AMD aber dx9 stirbt langsam aus..:(
Nein es liegt daran, dass es eigentlich nicht möglich sein darf. Ob NV das extra so "hackbar" gelassen hat kann man nur spekulieren. AMD hält sich an die Regeln die gestellt wurden zum Nachteil^^
derguru
2011-08-21, 16:46:57
Und erweiterbares Transparenz-AA über den Treiber für DX10/11.
Und SSAA für DX10/11.
Weniger Bugs wären auch nicht schlecht, ne vernünftige Profilkonfiguration für einzelne Anwendungen ist ebenfalls überfällig.
Aus diesen Gründen hab ich meine Radeon gegen ne gleichschnelle Nvidia getauscht und es nicht bereut.
ach das geht?das ging ja teilweise nicht mal unter dx9.:rolleyes:
Duplex
2011-08-24, 22:11:50
AMD’s 28nm mobile lineup leaked too
http://semiaccurate.com/2011/08/24/amds-28nm-mobile-lineup-leaked-too/
http://s1.directupload.net/images/110824/8ldup9h2.png
kunibätt
2011-08-24, 22:23:53
Vier Gigabyte VRAM !!!
Skysnake
2011-08-24, 22:50:01
Ist das nicht etwas "knapp" bemessen für eine MOBILE! GPU? :rolleyes:
Knuddelbearli
2011-08-24, 23:09:49
XT dürfte dualchip sein ist sonst schon bisl heavy oO
Gipsel
2011-08-24, 23:16:11
Hmm, ich finde eher den Performance-Sprung von Heathrow zu Wimbledon ein wenig mickrig. Und von Chelsea zu Heathrow sieht es auch nicht besser aus. :rolleyes:
Deinorius
2011-08-24, 23:18:27
Die leistungsfähigste nvidia mobile GPU hat doch 100 W TDP, da sind 80 W ja noch positiv zu werten.
Aber 4 GB können nicht stimmen. Die 2 GB sind noch immer nicht wirklich nötig und eine weitere Verdoppelung ist Blödsinn, sollen die doch besser auf 384 bit raufgehen.
AnarchX
2011-08-25, 09:34:49
Wo ist das 192-Bit SI von Heathrow geblieben:http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8622364#post8622364
Die P16K von Wimbledon XT erreicht schon jetzt die 6990M.
Ailuros
2011-08-25, 10:47:19
XT dürfte dualchip sein ist sonst schon bisl heavy oO
Ich lass mich gerne eines besseren belehren aber die 20W Zusatz der XT im Vergleich zur PRO koennte u.a. (z.B. Frequenzen) auch an den hypothetischen 2GB mehr Speicher liegen.
Was den Ueberschuss an Speicher betrifft macht es mir persoenlich keinen besonderen Eindruck. Es gibt heute notebooks mit 560M 2GB wo mehr als 1GB Speicher so oder so overkill ist ueberhaupt fuer ein notebook.
***edit: uebrigens ist die Stromverbrauch-Leistungs Relation schlechter als bei NV's mobilen Projektionen. Mal angenommen beider IHVs Projektionen entsprechen mehr oder weniger am Ende der Realitaet wuerde es nicht Charlie's These unterstuetzen dass AMD bei TSMC nicht mit 28HP herstellt?
Dural
2011-08-25, 13:00:38
ja das wollte ich auch schon sage, news von charlie die pro NV und contra AMD sind kenn man von ihm so gut wie gar nicht, da ist was faul :wink:
horn 12
2011-08-25, 13:33:37
Schauen ob schlussendlich reicht füpr einen Release Obober / November 2011 mit der Neuen Generation als Ersatz für HD6950/ 6870 ecc.
Schauen ob schlussendlich reicht füpr einen Release Obober / November 2011 mit der Neuen Generation als Ersatz für HD6950/ 6870 ecc.
Was? :D
Ailuros
2011-08-25, 14:50:42
ja das wollte ich auch schon sage, news von charlie die pro NV und contra AMD sind kenn man von ihm so gut wie gar nicht, da ist was faul :wink:
Leider gibt es diesmal keine Luecke in seiner insgesamten Logik und es kann durchaus sein dass sein no-28HP These der Realitaet entspricht. Denn wenn Du den spekulativen Artikel von Charlie darueber genau durchliest erwaehnt er deutlich dass ein anderer 28nm Prozess vielleicht AMD etwas Zeit goennen koennte fuer einen frueheren release, aber zu kosten von Stromverbrauch und Leistung. Genau deswegen frage ich mich auch ob er diesmal richtig getippt hat.
Schauen ob schlussendlich reicht füpr einen Release Obober / November 2011 mit der Neuen Generation als Ersatz für HD6950/ 6870 ecc.
Die Tabelle ist fuer AMD's kommende 28/40nm mobile GPUs. Mobile GPUs liegen stets ein gutes Stueck unter den desktop GPUs und das schon seit errr immer.
Hugo78
2011-08-25, 15:47:49
Leider gibt es diesmal keine Luecke in seiner insgesamten Logik und es kann durchaus sein dass sein no-28HP These der Realitaet entspricht. Denn wenn Du den spekulativen Artikel von Charlie darueber genau durchliest erwaehnt er deutlich dass ein anderer 28nm Prozess vielleicht AMD etwas Zeit goennen koennte fuer einen frueheren release, aber zu kosten von Stromverbrauch und Leistung. Genau deswegen frage ich mich auch ob er diesmal richtig getippt hat.
Wenn SI nicht der Bringer wird, ist AMD natürlich dazu verdammt ihr Zeug so schnell als möglich zu bringen.
AnarchX
2011-08-25, 15:51:05
:uponder:
Blackcomb XTX - 256mm² @ 40nm, 256-Bit GDDR5, 100W TDP, ~16k Vantage
Wimbledon XT - ???mm² @ 28nm, 256-Bit GDDR5, 80W TDP, ~16k Vantage
Da passt der Vantage-Score nicht wirklich, zudem dürfte eine 256-Bit 4Gbps GDDR5 GPU nicht viel kleiner als ~200mm² sein.
Ailuros
2011-08-25, 17:50:25
Wenn SI nicht der Bringer wird, ist AMD natürlich dazu verdammt ihr Zeug so schnell als möglich zu bringen.
Die Tabelle erwaehnt Leistungs-projektionen fuer mobile chips mit bis zu 80W TDP. Anders besonders aussagend ist sie auch nicht im Vergleich zu NV's Tabelle. Keiner der beiden kann sich ueber etwas sicher sein bevor sie in die Produktion gehen.
Angenommen beide Tabellen entsprechen hypothetisch mehr oder weniger der Realitaet versucht AMD die leicht knappere Leistung der XT mit einem 4GB framebuffer gut zu machen und leider wird es stets Verbraucher geben die darauf reinfallen werden (mehr "muss" halt besser sein).
Sonst laesst mir AMD's Tabelle auch keine besondere Hoffnung mehr dass desktop higher end SI Varianten es noch dieses Jahr auf Ladentische schaffen werden. Ergo sehe ich auch keinen besonderen Vorteil was hypothetisches time to market betrifft.
Hugo78
2011-08-25, 19:14:57
Die Tabelle erwaehnt Leistungs-projektionen fuer mobile chips mit bis zu 80W TDP. Anders besonders aussagend ist sie auch nicht im Vergleich zu NV's Tabelle. Keiner der beiden kann sich ueber etwas sicher sein bevor sie in die Produktion gehen.
Schon klar, nur steht halt die Frage im Raum, sollte Char_LIE recht haben,
warum AMD im mobielen Segment, womöglich höhere Verlustleistung in Kauf nimmt, nur um ein Quartal früher als NV am Markt zusein.
Da muss ja doch ein großer Druck auf AMD liegen.
Man kann natürlich im Anschluß das selbe Design auch in einem besseren Prozess nochmal bringen, sobald auch hier die Yield passt.
Aber man nimmt doch auch erstmal, eventulle negative PR in Kauf, wenn die Perf./W nicht die ist, die die Leute vom 28nm erwarten.
Die Schluckspechte GTX 480 und 470 färben ja heute noch auf die Fermireihe als ganzes ab, und ganz gleich wie gut die Perf./W der aktuellen Geforces ist, dies Vorurteil wird die Fermireihe wohl nicht mehr los.
Also wenn die aktuelle VILW4 NI schon keine bessere Perf/W als die 500er Georces hat, und die nächste Ausbaustufe GCN womöglich den Focus auf HPC legt, aber kaum schneller in Spielen wird (tess-leistung ausgenommen),
und dann noch ein höherer Verbauch durch den "einfachen 28nm" hinzukommt, könnte sich das eine Quartal das man früher am Markt ist, RP-mässig als ein Pyrrhussieg herausstellen.
Und da ist eine Variante, dass der Speed bei SI nicht der ist Bringer ist im Vergleich zu einem hypothetischen Kepler, also haut man das Zeug so früh als möglich raus.
mboeller
2011-08-25, 19:19:56
Schon klar, nur steht halt die Frage im Raum, sollte Char_LIE recht haben,
warum AMD im mobielen Segment, womöglich höhere Verlustleistung in Kauf nimmt, nur um ein Quartal früher als NV am Markt zusein.
Über diesen Satz solltest du noch einmal nachdenken. Vor allem über den markierten Bereich.
Hugo78
2011-08-25, 19:35:01
@mboeller
Bitte, es steht dir frei eigene Überlegungen zum Thema zu äussern.
Ich drücke mich bewust spekulativ aus, ebend weil wir null komma null Fakten zu GCN als auch Kepler haben.
Aber Char_LIE liefert ein Bild, gewollt oder ungewollt, als ob AMD unter besonderen Druck steht, schnell liefern zumüssen.
Ailuros
2011-08-25, 20:31:34
Schon klar, nur steht halt die Frage im Raum, sollte Char_LIE recht haben,
warum AMD im mobielen Segment, womöglich höhere Verlustleistung in Kauf nimmt, nur um ein Quartal früher als NV am Markt zusein.
Da muss ja doch ein großer Druck auf AMD liegen.
Execution hat nie an Wichtigkeit verloren egal ob man NV, AMD, Intel oder Borgo Sphinxter(tm) heisst. Die 5-10W Unterschied zwischen NV's und AMD's groessten mobilen chip liegen erstmal garantiert am 4GB framebuffer wenn dieser auch wirklich stimmt. Die 5 bzw. 10W wird keiner bemerken. Wenn sie jetzt noch zusaetzlich auf die Frequenz gedrueckt haetten um auf 20k oder sogar leicht mehr zu kommen waere der Unterschied des TDPs noch groesser geworden.
Dieses sagt mir aber nichts ueber die high end desktop GPUs aus denn dort braucht man auch nicht so stark auf den Stormverbrauch Ruecksicht nehmen. Anders der Luftraum von 70 bzw. 80W zum Stromverbrauch eines Cayman und/oder eines GF110 ist dann schon ziemlich gross.
Auf jeden Fall sieht es nach den Tabellen erstmal besser fuer NV momentan aus aber Vantage ist leider nichts mehr als eine Indizie. Noch dazu kommt die area pro chip, Herstellungskosten und am Ende Strassenpreis.
Man kann natürlich im Anschluß das selbe Design auch in einem besseren Prozess nochmal bringen, sobald auch hier die Yield passt.
Aber man nimmt doch auch erstmal, eventulle negative PR in Kauf, wenn die Perf./W nicht die ist, die die Leute vom 28nm erwarten.
Ich bin mir sicher dass AMD einen gesunden Anteil von zukuenftigen SIs (ergo nicht der erste Schub) auf GloFo verfrachtet hat; jedoch kochen die auch nur mit Wasser. Herstellungsprozesse sind problematischer geworden; leider.
Die Schluckspechte GTX 480 und 470 färben ja heute noch auf die Fermireihe als ganzes ab, und ganz gleich wie gut die Perf./W der aktuellen Geforces ist, dies Vorurteil wird die Fermireihe wohl nicht mehr los.
Einwand: sie kamen etliche Monate spaeter als Cypress an und NICHT frueher ;)
Also wenn die aktuelle VILW4 NI schon keine bessere Perf/W als die 500er Georces hat, und die nächste Ausbaustufe GCN womöglich den Focus auf HPC legt, aber kaum schneller in Spielen wird (tess-leistung ausgenommen),
und dann noch ein höherer Verbauch durch den "einfachen 28nm" hinzukommt, könnte sich das eine Quartal das man früher am Markt ist, RP-mässig als ein Pyrrhussieg herausstellen.
Und da ist eine Variante, dass der Speed bei SI nicht der ist Bringer ist im Vergleich zu einem hypothetischen Kepler, also haut man das Zeug so früh als möglich raus.
Ist zwar eine These aber fuer meinen Geschmack zu weit gegriffen. AMD wusste schon Anfang 2009 dass wenn bei Fermi alles nach Plan laufen sollte u.a. wenn sie ihre Zielfrequenz erreicht haetten dass GF100 um einiges schneller gewesen waere als Cypress. Cypress war aber auch nie ein single high end chip und ich bezweifle dass sie kurzfristig etwas daran aendern.
Was Du in den Tabellen siehst sind lediglich Projektionen auf Basis ihrer Test-chips und es steht nirgends in Stein festgemetzelt dass einer der beiden oder sogar beide sich falsch eingeschaetzt haben.
Fuer Fermi schaetzte NV mit ihren Testchips etwas weniger als GF110 Frequenzen bei ca. GT200/65nm Stromverbrauch. Und um es fair zu machen auch ATI hat so manche aehnliche Leichen in ihrem Keller; manche harmlos und manche sogar schlimmer als GF100.
Kurz: lass Zeit verlaufen bis zum Produktions-start von A und B und dann werden erst die ersten zuverlaessigen Schnippsel an Infos einfliessen. So beschissen wie die Prozesse heutzutage sind gibt es keine andere Wahl um auf Nummer Sicher zu gehen.
Hugo78
2011-08-25, 22:47:15
So beschissen wie die Prozesse heutzutage sind gibt es keine andere Wahl um auf Nummer Sicher zu gehen.
Ok, also die andere These wäre dann, die "business as usual" These.
Char_LIE liegt insgesamt eher falsch und AMD kommt wie NV mit dem 28nm der am wenigsten Verluste erzeugt,
bzw. nur für die niedrig Takt, mobielen Chips mit dem "einfachen 28nm", wobei hier das "Kippmoment" ab wann der Takt böse Verluste erzeugt, unterschritten bleibt.
Und möglicherweise nur weil ihr Chip insgesamt wieder kleiner ist (Kepler wird ja nach Stand der Dinge wieder Hot Clock haben und so notwendigerweise breiter,
"luftiger" gebaut werden müssen, um die nötigen Frequenzen zu erreichen) können sie ein Quartal früher kommen.
Diese These ist irgendwie langweilig... :biggrin:
Ailuros
2011-08-26, 00:04:43
Meinst Du mit "business as usual" dass sich im insgesamten Bild nichts aendern wird? Wenn ja bleibe ich bei meinem Punkt bzw. Vorbehalte bis die Massenproduktion beginnt und fuege noch Deinen Punkt dazu wie viel der erste Eindruck zaehlen kann.
SI ist hier der "groessere" Unbekannte im Vergleich zu Kepler, da ich beim ersten radikalere Aenderungen fuehlen kann im Vergleich zu AMD's Vorgaengern; ergo geht AMD auch ein groesseres Risiko ein. Hier kann gar nichts oder einiges schief laufen. Irgendwelche Indizien fuer negatives gibt es momentan fuer weder/noch.
Mir imponiert lediglich dass AMD's PR so grosskotzig immer und immer wieder behauptet dass sie noch dieses Jahr mit SI auf Regalen erscheinen werden. Ich hab es von Anfang nicht glauben wollen und hab es immer noch schwer zu schlucken. Selbst AMD fans mit guten Quellen zur Firma glauben heutzutage nicht mehr dran.
Technisch gesehen ist die These nicht langweilig, ueberhaupt wenn es AMD keinen besonderen Vorteil am Ende bringen sollte.
mboeller
2011-08-26, 07:42:53
Ok, also die andere These wäre dann, die "business as usual" These.
Char_LIE liegt insgesamt eher falsch und AMD kommt wie NV mit dem 28nm der am wenigsten Verluste erzeugt,
bzw. nur für die niedrig Takt, mobielen Chips mit dem "einfachen 28nm", wobei hier das "Kippmoment" ab wann der Takt böse Verluste erzeugt, unterschritten bleibt.
Ich sagte doch du sollst dir das noch mal überlegen!
Wenn Charlie recht hat, benutzt AMD den (angeblich bereits serientauglichen) TSMC-HPL Prozess und Nvidia den (erst 2012 serientauglichen) TSMC-HP Prozess.
Ergo würde dann AMD einen Herstellprozess benutzen, der einen (weit) geringeren Verbrauch ermöglicht dafür aber (geringe) Abstriche bei den max. möglichen MHz/GHz erfordert. Die entsprechenden Präsentationen von Xilinx habe ich vor mehr als einen Monat verlinkt.
Du hast die Situation (falls Charlie richtig liegt) also genau 180° verdreht dargestellt.
Ailuros
2011-08-26, 09:16:48
War der HP Prozess nicht frueher verfuegbar als HPL?
***edit: man sollte Charlie's relevante Spekulation nur als solche annehmen die aber Sinn machen kann. Ich bin mir sicher dass er nicht weiss welchen Prozess AMD momentan benutzt.
Skysnake
2011-08-26, 10:04:51
Glaub ich auch
Dural
2011-08-26, 10:43:48
naja, in der Vergangenheit wurde der Herstellung Prozess schon öfter die Schuld für irgendwelche andere Problem zugesteckt... Was ich damit sagen will, ich tippe einfach mal auf ein Architektur Technisches "Problem" :wink:
Ailuros
2011-08-26, 12:16:28
naja, in der Vergangenheit wurde der Herstellung Prozess schon öfter die Schuld für irgendwelche andere Problem zugesteckt... Was ich damit sagen will, ich tippe einfach mal auf ein Architektur Technisches "Problem" :wink:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=512766
Herstellungsprozesse werden nicht besser sondern genau das Gegenteil. Wenn TSMC selber fuer 28nm vor seinem Anfang nur noch 1/4 von dem was sie fuer 40G projezierten angibt dann deutet es klar auf miserablere yields. Das sich die IHVs und TSMC den Schaden quasi "teilen" bei sehr schlechten yields waere es irrsinnig fuer jeglichen IHV einen hochkomplizierten chip herzustellen wenn dieser mehr als schaetzungsweise $120 kosten sollte. Bei solchen Angaben von TSMC selber waere es um N Mal unmoeglich fuer AMD SI noch dieses Jahr herzustellen und um N+hoehere Chipkomplexitaet fuer NV's Kepler.
Das 1% an Umsatz dass TSMC fuer den Anfang von 28nm angibt betrifft wohl jeglichen LP/HLP chip der noch dieses Jahr hergestellt sollte und womoeglich die mobilen chips von AMD und NVIDIA die in Charlie's Tabellen liegen. Selbst die letztere wohl auch nicht bei anstaendigemn Volumen. Diese sind immer noch 70-80W TDP chips. Wo sollen denn dann die 150-250W TDP chips genau liegen?
Hugo78
2011-08-26, 12:24:29
Ergo würde dann AMD einen Herstellprozess benutzen, der einen (weit) geringeren Verbrauch ermöglicht dafür aber (geringe) Abstriche bei den max. möglichen MHz/GHz erfordert. Die entsprechenden Präsentationen von Xilinx habe ich vor mehr als einen Monat verlinkt.
Ja, dann her mit den Links.
Bisher hab ich von dem HPL nur gehört, dass er höhere leakage aufweisen soll mit steigendem Takt, dafür aber früher fertig ist und ebend begrenzt ist auf 1,5Ghz.
Wenn das aber so ein Wunderprozess ist, dann wundere ich mich was NV davon abhalten sollte, diesen nicht auch zumindest ihre für mobilen 28nm refresh Chips zunutzen.
Shadertakt einer GTX580M liegt bei 1240Mhz, da wäre also noch Luft.
Und wenn sogar weniger Verbauch dabei rum kommt, als mit dem HP, und früher Markt ist...
Aber da ganz klingt dann doch zu schön ...
fondness
2011-08-26, 12:32:09
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=512766
Herstellungsprozesse werden nicht besser sondern genau das Gegenteil. Wenn TSMC selber fuer 28nm vor seinem Anfang nur noch 1/4 von dem was sie fuer 40G projezierten angibt dann deutet es klar auf miserablere yields. Das sich die IHVs und TSMC den Schaden quasi "teilen" bei sehr schlechten yields waere es irrsinnig fuer jeglichen IHV einen hochkomplizierten chip herzustellen wenn dieser mehr als schaetzungsweise $120 kosten sollte. Bei solchen Angaben von TSMC selber waere es um N Mal unmoeglich fuer AMD SI noch dieses Jahr herzustellen und um N+hoehere Chipkomplexitaet fuer NV's Kepler.
Das 1% an Umsatz dass TSMC fuer den Anfang von 28nm angibt betrifft wohl jeglichen LP/HLP chip der noch dieses Jahr hergestellt sollte und womoeglich die mobilen chips von AMD und NVIDIA die in Charlie's Tabellen liegen. Selbst die letztere wohl auch nicht bei anstaendigemn Volumen. Diese sind immer noch 70-80W TDP chips. Wo sollen denn dann die 150-250W TDP chips genau liegen?
Naja, bei 40nm war es zu Beginn auch nicht besser:
http://img199.imageshack.us/img199/8486/tsmcwaferrevenueq22011.png (http://img199.imageshack.us/i/tsmcwaferrevenueq22011.png/)
http://www.xbitlabs.com/news/other/display/20110810153308_TSMC_Lowers_Expectations_for_28nm_Revenue_in_2011.html
TSMC behauptet auch das der Grund für das geringere Volumen bei den Kunden liegt, die weniger bestellen als angenommen:
"The delay of the 28nm ramp up is not due to a quality issue, we have very good tape-outs. The delay of ramp up is mainly because of softening economy for our customers. So, customers delayed the tape-outs. The 28nm revenue contribution in the Q4 2011 will be roughly about 1% of total wafer revenue," said Lora Ho, senior vice president and chief financial officer or TSMC.
Ja, dann her mit den Links.
Er meinte wohl diese Grafik.
http://www.abload.de/img/hp_hpl_lpvzlb.png
Ailuros
2011-08-26, 12:41:51
Wenn es zu sinnlosem PR kommt, werde ich blind und schwerhoerig.
Sonst ging Cypress mit den 4% in Q3 in die Produktion (anders genau ein Quartal nach dem beruehmten 1%) und jeglicher die kostete sie damals bis zu Q1 2010 um die $120. Genau weil AMD und TSMC sich wieder ueberschaetzt hatten kam noch ein premium von $20 auf die 5850-er drauf sonst haetten sie fuer diese SKUs noch draufblechen muessen.
fondness
2011-08-26, 12:47:30
Wenn es zu sinnlosem PR kommt, werde ich blind und schwerhoerig.
Sonst ging Cypress mit den 4% in Q3 in die Produktion (anders genau ein Quartal nach dem beruehmten 1%) und jeglicher die kostete sie damals bis zu Q1 2010 um die $120. Genau weil AMD und TSMC sich wieder ueberschaetzt hatten kam noch ein premium von $20 auf die 5850-er drauf sonst haetten sie fuer diese SKUs noch draufblechen muessen.
Naja, damals gab es aber nicht nur Cypress in 40nm. Damals hatte auch NV schon viele DX10.1 mobile Chips in Produktion und AMD den RV740. Heute scheint ja außer AMD kaum schon jemand in 28nm produzieren zu wollen.
Hugo78
2011-08-26, 12:52:14
@ndrs
Ah danke.
Ok na wenn HPL unter 1,2Ghz sogar besser dasteht ist das natürlich was anderes.
Blöd natürlich wenn bei knapp über 1,2Ghz dann wieder schluß ist mit der Effizienz.
Da hätte man dann keine Luft mehr nach oben, was NV betrifft.
Ailuros
2011-08-26, 12:54:34
Naja, damals gab es aber nicht nur Cypress in 40nm. Damals hatte auch NV schon viele DX10.1 mobile Chips in Produktion und AMD den RV740. Heute scheint ja außer AMD kaum schon jemand in 28nm produzieren zu wollen.
Wollen oder koennen? Das ist hier die eigentliche brennende Frage. Wenn Du Dir Charlie's Tabelle oben ansiehst dann wuerden sie wohl schon so frueh wie moeglich unter 28nm produzieren wollen.
Dural
2011-08-26, 13:27:28
@Ailuros
Ich hab das natürlich auf den angeblichen höheren Verbrauch der 28nm AMD Chips bezogen, wenn die Daten stimmen kann ich mir im besten willen nicht Vorstellen das es nur am angeblichen Prozess unterschied zwischen NV und AMD liegt.
Es besteht kein Zweifel das der 28nm Prozess problematisch sein muss, ich glaube das streitet auch keiner ab. Aber obs nur an dem liegt hab ich ernsthafte Zweifel, den AMD trifft es doppelt: Neuer schwiriger Prozess und Komplett neue Architektur. Da hat es NV sicher deutlich einfacher... :)
Ailuros
2011-08-26, 13:43:49
Wie schon erwaehnt von Projektionen kann man leider noch nichts sicheres ablesen denn es kann mehr oder weniger TDP fuer AMD sein und/oder genauso mehr oder weniger TDP fuer NV. Vor der Massenproduktion ist es lediglich buntes PR fuer AMD bzw. NV's Kundschaft/vendors und es ist eben nicht so dass IHVs ihre Projektionen stets einhalten koennen.
@ndrs
Ah danke.
Ok na wenn HPL unter 1,2Ghz sogar besser dasteht ist das natürlich was anderes.
Blöd natürlich wenn bei knapp über 1,2Ghz dann wieder schluß ist mit der Effizienz.
Da hätte man dann keine Luft mehr nach oben, was NV betrifft.
Da steht keine Einheit an der horizontalen Achse. Ich bezweifle, dass das exakte GHz-Angaben sein sollen.
Ailuros
2011-08-26, 13:47:07
Da steht keine Einheit an der horizontalen Achse. Ich bezweifle, dass das exakte GHz-Angaben sein sollen.
Wenn man keine absolut feste Frequenz nimmt, kann man aber trotzdem zur Schlussfolgerung kommen dass der HPL Prozess nur einen relativ geringen Vorteil bis zu einer gewissen Frequenz behaelt. In solch einem Fall ist der Prozess tatsaechlich nichts fuer NV's hotclocking.
Gipsel
2011-08-26, 14:53:24
@ndrs
Ah danke.
Ok na wenn HPL unter 1,2Ghz sogar besser dasteht ist das natürlich was anderes.
Blöd natürlich wenn bei knapp über 1,2Ghz dann wieder schluß ist mit der Effizienz.
Da hätte man dann keine Luft mehr nach oben, was NV betrifft.
Das sind keine GHz-Angaben, sondern die relative Performance. Die 1 steht da, wo sich Xilinx mit seinen FPGAs hinsetzt. Um das einordnen zu können, sollte man vielleicht TSMCs Aussage heranziehen, daß der 28HP-Prozeß bis zu 45% höhere Transistorperformance als 40G liefern kann (bei gleicher Leakage pro Transistor). Die 40nm liegen also wahrscheinlich irgendwo links von 1,1 auf der Performance-Skale oberhalb und ganz grob parallel zu der 28HP-Linie (nur eben drüber). Wenn man also die höhere Transistorperformance nicht ausnutzen will, kann man die Leakage dramatisch senken (das ist der Vorteil von HKMG).
Das Interessante ist auch, wie diese Linien für einen Prozeß zustande kommen. Man kann natürlich die Performance skalieren, indem man die Versorgungsspannung ändert (ändert natürlich auch die Leakage). In der obigen Grafik wurde die Performance allerdings über Änderungen am Design, sprich dem Verwenden von Transistoren mit anderer Schwellspannung (Vt) offenbar bei konstanter (nomineller) Versorgungsspannung gemacht (ist natürlich nur eine Modellrechnung von Xilinx). Auch dies tauscht Geschwindigkeit gegen Leakage ein.
Wieso ist das wichtig? Nun, schaut man sich mal an, daß die nominelle Spannung für 40G eigentlich nur 0,9V sind (mit "offiziellem" Overdrive 1,0V), wird schnell klar, das anscheinend sowohl nvidia und erst recht AMD (Standardspannungen bis 1,175V) offenbar doch recht aggressiv den Chip mittels Transistoren hoher Schwellspannung in Richtung niedriger Leakage (aber damit auch niedrigerem Takt) getrimmt haben und das mit höherer Betriebsspannung wieder herausholen. Das verbessert etwas das Verhältnis von dynamischer zu statischer Stromaufnahme (relativ gesehen weniger Leakage) und ermöglicht gleichzeitig auch effektivere Stromsparmechanismen (durch Absenken der Spannung und des Taktes; bei einem high leakage Design [mehr niedrige Vt-Transistoren verbaut] wäre die Versorgungsspannung niedriger und man hätte weniger Spielraum für Spannungssenkungen, weil es auch eine Minimalspannung gibt).
Was man daraus schlußfolgern kann, ist daß die GPUs schon jetzt nicht die maximale Transistorperformance von 40G nutzen, weil die dann an der Leakage zugrunde gehen würden (bis ~40% des Verbrauchs einer high end GPU ist Leakage, deswegen sind die Spannungsabsenkungen im idle so wichtig).
Was ist meine Schlußfolgerung daraus? Obwohl Xilinx den Bereich ganz oben rechts "Higher Power Region for GPUs" genannt hat, zweifel ich ernsthaft daran, daß GPUs wirklich in dem Bereich operieren. Vielleicht eine Handvoll Transistoren in ein oder zwei kritischen Pfaden, aber der große Rest der GPU drückt den Schnitt ziemlich weit nach links, um den Stromverbrauch unter Kontrolle zu behalten, da hat man einfach keinen Spielraum mehr.
Das Ziel für GPUs in 28nm ist es, die Transistorzahl zu verdoppeln und den Stromverbrauch in etwa konstant zu halten. Schon daraus kann man ablesen, daß man es sich nicht leisten kann, die 45% Performancesteigerung durch 28nm bei gleicher Leakage pro Transistor auszunutzen, da man sonst ganz schnell bei 150-200W Verbrauch nur für die Leakage beim High-End-Modell landet. Da bleibt dann ja irgendwann kaum noch was dafür übrig, daß die Transistoren ja auch noch mal schalten sollen.
Ergo, man kann wahrscheinlich nur <30% Performancesteigerung zu 40G nutzen, da man ja den Stromverbrauch pro Transistor halbieren muß (*). Und dann wird es schon interessant. Man kommt ja von 40G nicht von 1,1 auf der Performanceachse sonder wie erläutert wohl von deutlich weiter links. Da dann 30% drauf und man kommt wohl nicht über den Kreuzungspunkt zwischen HPL und HP hinaus, sprich HPL könnte für GPUs durchaus der Prozeß sein, der weniger Leakage bei einer gegebenen Performance erlaubt.
Natürlich ist Leakage nicht alles und HP bietet angeblich bei gleicher Performance den etwas niedrigeren dynamischen Stromverbrauch als HPL. Man muß also ein gutes Stückchen unter den Kreuzungspunkt kommen, damit es für der Gesamtverlustleistung (statisch + dynamisch) eventuell Sinn machen könnte, oder zumindest mit den anderen Vorteilen zusammen (geringere Kosten und höhere yields da kein eSiGe [kann für größeres Die mit niedrigerem Takt verbraten werden], niedrigerer Idle-Stromverbrauch wegen mehr Spielraum für Spannungsabsenkungen) lohnenswert erscheint. Aber wo man da genau rumgurkt, wissen wohl nur ein paar Leute bei AMD und nvidia. Wie diese Abwägung ausgegangen ist, sehen wir dann spätestens, wenn die GPUs erscheinen. ;)
(*):
In der Realität für GPUs eher noch etwas weniger, da bestimmte Sachen, wie z.B. der Energieaufwand für den ganzen Datenverkehr innerhalb der GPU nicht so stark (wenn überhaupt) abnehmen, der Anteil also immer größer wird, auch weil die verarbeiteten Datenmengen natürlich größer werden. Außerdem wird die Geschwindigkeit/Taktfrequenz eines Chips zunehmend durch die Leitungen und deren Verzögerungen bestimmt und nicht mehr so stark durch die Transistoren selber.
Hugo78
2011-08-26, 17:51:59
@Gipsel
Danke für all den Text.
Ein Teil ist davon auch verstanden worden... glaub ich. :biggrin:
Aber ergibt sich denn jetzt eine Taktobergrenze für HPL?!
Vorausgesetzt man belässt es bei der empfohlenen Spannung und schöpft die zusätzliche Transistorperformance nicht bis zum ende aus, um am ende geringe Leakage zuerreichen.
Gipsel
2011-08-28, 13:50:59
Aber ergibt sich denn jetzt eine Taktobergrenze für HPL?!
Vorausgesetzt man belässt es bei der empfohlenen Spannung und schöpft die zusätzliche Transistorperformance nicht bis zum ende aus, um am ende geringe Leakage zuerreichen.
Das kann man so pauschal nicht sagen. Man könnte irgendwas einfaches bzw. etwas mit extrem langen Pipelines auch auf 10 GHz hochtreiben in HPL. Daß nvidia z.B. das mit dem Hotclocking machen kann, liegt nur zu einem kleinen Teil an den verwendeten Transistoren (war ja gleicher Prozeß) und größtenteils an den mehr als doppelt so langen Pipelines der Shadercores.
Wenn man annimmt, daß die Architektur nicht grundlegend umgekrempelt wird (was es bei Southern Islands schon schwer macht), sollte in HPL eigentlich grob die geiche Performance drin sein wie in 40G, vielleicht auch noch ein paar Prozent mehr.
@all:
Um mal von den Prozessen wegzukommen, hat irgendwer den Thread hier (http://semiaccurate.com/forums/showthread.php?p=131112#post131112) verfolgt? Da meint Charlie, das SI-Topmodell (Tahiti) sei langsamer als eine HD6990 (edit: hier etwas ausführlicher (http://semiaccurate.com/forums/showthread.php?p=131217#post131217)). Was heißt das jetzt, relativ niedriger Takt (<800MHz, HPL? Kürzere Pipeline?) oder doch ein kleineres Die (z.B. 32 statt 40 CUs)?
mboeller
2011-08-28, 14:47:44
@all:
Um mal von den Prozessen wegzukommen, hat irgendwer den Thread hier (http://semiaccurate.com/forums/showthread.php?p=131112#post131112) verfolgt? Da meint Charlie, das SI-Topmodell (Tahiti) sei langsamer als eine HD6990 (edit: hier etwas ausführlicher (http://semiaccurate.com/forums/showthread.php?p=131217#post131217)). Was heißt das jetzt, relativ niedriger Takt (<800MHz, HPL? Kürzere Pipeline?) oder doch ein kleineres Die (z.B. 32 statt 40 CUs)?
ich glaube AMD strebt gar nicht mehr nach der GPU-Krone. Deshalb der HPL Prozess und entsprechend die "geringe" Leistung der neuen HD7970 (obwohl, wenn man sich die Benches der HD6870X2 auf Computerbase anschaut; so schlecht ist das auch nicht).
Warum glaube ich, das AMD nicht mehr nach der Desktop-Krone greifen will bzw. warum ihnen der desktop-Bereich insgesamt mehr oder weniger egal ist; deshalb: http://semiaccurate.com/forums/showpost.php?p=128056&postcount=477
JF-AMD erklärt hier schön und kompakt die Marktsituation aus Sicht von AMD. Auch wenn er ein Server-PR-Mann ist; soviel wird er von der Consumer-Seite schon mitbekommen um hier keinen Schmarrn zu erzählen.
Gaestle
2011-08-28, 14:50:58
@all:
Um mal von den Prozessen wegzukommen, hat irgendwer den Thread hier (http://semiaccurate.com/forums/showthread.php?p=131112#post131112) verfolgt? Da meint Charlie, das SI-Topmodell (Tahiti) sei langsamer als eine HD6990 (edit: hier etwas ausführlicher (http://semiaccurate.com/forums/showthread.php?p=131217#post131217)). Was heißt das jetzt, relativ niedriger Takt (<800MHz, HPL? Kürzere Pipeline?) oder doch ein kleineres Die (z.B. 32 statt 40 CUs)?
Primitiv betrachtet (als Laie) heißt das, dass sie die übliche Zielregion erreicht haben, nämlich ca. +70-80% zum alten Single-Core-Flaggschiff. Aber das war ja nicht Deine Frage.
Wie kann dies erreicht werden? Breitere und/oder effizientere Architektur oder mehr Takt. Nach Deinen Ausführungen könnte mehr Takt eventuell unwahrscheinlich sein, oder? Bliebe nur die breitere und/oder effizientere Architektur...
@mboeller
Interessanter Post und interessante Grafik im Post. Dazu wird mit den zukünftigen Konsolen der PC-Gamer-Markt vielleicht noch kleiner werden, weil noch mehr Gamer zur Konsole greifen. Außerdem wird der High-End-Grafik-Markt auch durch den demographischen Faktor in den Industrieländern eventuell kleiner. Obwohl letztes sehr spekulativ ist, stellt sich natürlich die Frage, wie lange es sich noch lohnt, bis auf's letzte ausgequetschte PC-Hardware für Consumer zu liefern. AFAIR hat AMD/ATi schon vor 3-4 Jahren offiziell verkündet, dass ihnen High-End in Zukunft weniger wichtig wäre und sie nur noch maximal für den Performancemarkt bauen wollen. Allerdings entsteht die Definition für "High-End" ja immer aus der Marktsituation heraus und ist somit eine relative Aussage zur durchnittlichen Performance am Markt.
Kann man denn ein ES BIOS ausschließen?
Diese Leaks kommen ja meist von Leuten aus Drittfirmen mit ES Karten. Glaube kaum, dass Charlie nen direkten Draht zum AMD Management hat.
Mancko
2011-08-28, 16:03:05
ich glaube AMD strebt gar nicht mehr nach der GPU-Krone. Deshalb der HPL Prozess und entsprechend die "geringe" Leistung der neuen HD7970 (obwohl, wenn man sich die Benches der HD6870X2 auf Computerbase anschaut; so schlecht ist das auch nicht).
Warum glaube ich, das AMD nicht mehr nach der Desktop-Krone greifen will bzw. warum ihnen der desktop-Bereich insgesamt mehr oder weniger egal ist; deshalb: http://semiaccurate.com/forums/showpost.php?p=128056&postcount=477
JF-AMD erklärt hier schön und kompakt die Marktsituation aus Sicht von AMD. Auch wenn er ein Server-PR-Mann ist; soviel wird er von der Consumer-Seite schon mitbekommen um hier keinen Schmarrn zu erzählen.
Wenn der schon ein Server PR Mann ist, sollte er sich eigentlich mit dem Verkauf von High End Produkten bei Geschäftskunden auskennen. Was glaubt der eigentlich, was die Geschäftskunden in Zukunft für Workstationkarten oder Karten im wissenschaftlichen Bereich kaufen werden... Mid-Range????
Die Argumentation ist sowas von löchrig. Ohne jetzt zu wissen, wie gut oder schlecht die neue AMD Genration wird.
Wenn sie nicht so pralle wäre würde ich die Kommentare von dem sehr einfach als typisches PR Gelaber werten. Schön immer den Markt runterspielen in dem man selber nicht konkurenzfähig ist.
1) Werden High End Produkte auch weiterhin für Geschäftskunden benötigt. Dann kann man die auch gleich im privaten Sektor an den Mann bringen
2) Verkaufen HIgh End Produkte sehr wohl auch Performance- und Low-End Produkte. Er behauptet das Gegenteil - lachhaft
3)Bezweifel ich das Konsolen den PC zurückdrängen. Konsolen haben für bestimmte Games einfach zu viele Limitierungen.
Es ist eher so, dass Consolen ein zusätzliches Geschäft ist. Ich habe auch eine PS3 aber eben auch einen PC. Es gibt Spiele wie Sports Champion & Co oder die ganzen Partyspiele wo ich mit Move Controller in einer lockeren Runde im Wohnzimmer mit Freunden zocke.
Es gibt aber auch Spiele wie CS:S, COD, DNF, Flugsimulationen etc. die ich niemals im Wohnzimmer spielen würde. Erstens will ich da beim Zocken meine Ruhe haben, zweitens setzen die entsprechenden Rechenpower vorraus, drittens Dinge wie Tastatur, Maus und Joystick sind unabdingbar und viertens ist es notwendig dafür direkt vor dem LCD zu sitzen und nicht in 3m Entfernung vorm Fernseher. Möchte mal sehen wie jemand dann auf ner Konsole im Multiplayer irgendeines Shooters gegen einen PC SPieler zu bestehen - keine Chance sag ich da nur.
Erinnert mich an die Ammis die in der zweiten Hälfte der 90er auch dachten Duke Nukem 3D mit Joypad spielt sich super und ist überlegen und die dann von diversen deutschen Duke3D Spielern sowas von vermöbelt wurden. Bei letzteren hatte sich Maus + Tatstatur schon von Anfang an durchgesetzt.
In der Regel haben die Leute heute beides (irgendeine Konsole und einen PC) und es gibt eben die unterschiedlichen Anwendungsfälle für beide.
Botcruscher
2011-08-28, 16:29:00
Die Grafik ist auch total für den Po. Warum sollten die Tablets den Desktop kanibalisieren? Die Fressen sich ein schönes Stück des Netbook/Notebookmarketes aber doch nicht den Standrechner. Leistung, Eingabemöglichkeiten etc. gegen, nun ja, Spielzeug.
Gaestle
2011-08-28, 17:01:46
Es geht ja um Prozente, nicht um absolute Zahlen.
Wenn der Markt insgesamt wächst, aber die Stückzahl im Desktop-Bereich stabil bleibt, fällt der Desktop Prozentsatz.
Rechenbeispiel:
1.000 Einheiten Gesamtmarkt, 500 Einheiten Desktop = 50% Desktop.
1.500 Einheiten Gesamtmarkt, 500 Einheiten Desktop = 33% Desktop.
Außerdem denke ich, dass die Laptop/Notebooks den unteren Preisbereich des PCs bedrängen, und die Netbooks wiederum den unteren Laptop-Preisbereich bedrängen. Tablets bedrängen vielleicht Netbooks oder kommen zusätzlich als Zweit- oder Drittgerät. Insofern haben Tablets mit Desktops wahrscheinlich in Sachen Stückzahl nichts zu tun, wohl aber mit der prozentualen Verteilung im Gesamtmarkt.
Es gibt viele Leute, die den PC nur für Internet, Urlaubsfotos abspeichern und einen Brief im halben Jahr nutzen. Wozu sollen die einen PC kaufen, wenn's ein Laptop auch tut? Ein PC nebst Monitor nimmt doch viel mehr Platz weg, man kann nicht auf der Couch surfen etc.
Mancko
2011-08-28, 22:38:12
Es geht ja um Prozente, nicht um absolute Zahlen.
Wenn der Markt insgesamt wächst, aber die Stückzahl im Desktop-Bereich stabil bleibt, fällt der Desktop Prozentsatz.
Rechenbeispiel:
1.000 Einheiten Gesamtmarkt, 500 Einheiten Desktop = 50% Desktop.
1.500 Einheiten Gesamtmarkt, 500 Einheiten Desktop = 33% Desktop.
Außerdem denke ich, dass die Laptop/Notebooks den unteren Preisbereich des PCs bedrängen, und die Netbooks wiederum den unteren Laptop-Preisbereich bedrängen. Tablets bedrängen vielleicht Netbooks oder kommen zusätzlich als Zweit- oder Drittgerät. Insofern haben Tablets mit Desktops wahrscheinlich in Sachen Stückzahl nichts zu tun, wohl aber mit der prozentualen Verteilung im Gesamtmarkt.
Es gibt viele Leute, die den PC nur für Internet, Urlaubsfotos abspeichern und einen Brief im halben Jahr nutzen. Wozu sollen die einen PC kaufen, wenn's ein Laptop auch tut? Ein PC nebst Monitor nimmt doch viel mehr Platz weg, man kann nicht auf der Couch surfen etc.
Weil dann häufig noch Dinge wie Drucker, Fax und Scanner hinzukommen und die wenigsten sich eine Dockingstation kaufen bzw. bei den Billig Laptops gar keine dabei sind oder meinst Du die kaufen sich ein T420s von Lenovo samt Docking Station für 2100 Euro?
Die Leute gab es doch füher auch schon. Das hat doch mit dem Gamermarkt und Kunden für High End Grafikkarten nichts zu tun. Die gab es früher, die gibt es heute und die wird es auch in Zukunft geben. Vor allem werden auch mehr Performance Karten von demjenigen in OEM PC's & Co verkauft, der oben bei der Musik mitspielt.
Gaestle
2011-08-29, 11:19:43
Mal abgesehen davon, dass es so dermaßen OT ist, dass ein MOD es eventuell raussplittet:
Ich verstehe Deine Argumente nicht. Wenn jemand nur Internet und Fotos archivieren will: Wozu braucht der eine Dockingstation und einen 2100Euro-Laptop?Ist das nicht ein bißchen Overkill? Und wozu einen Scanner, wenn alles von der DigiCam kommt?
Seit einiger Zeit bietet die Aussattung von Laptops für die Anforderungen von Otto-Normaluser (keine "Gamer") genug. Das war z.B. Mitte der 90er noch anders, weil z.B. die Bildschirme bei Laptops winzig waren, und weil es solche Pille-Palle-Anforderungen wie ein bißchen Internetsurfen noch nicht gab. Außerdem hatten Computer für den Privatgebrauch insgesamt noch einen ganz anderen Stellenwert als heute, weil sie insgesamt in einem anderen technologischen Kontext standen.
Und natürlich haben Konsolen was mit dem Gamermarkt zu tun. Und natürlich haben stark steigende Entwicklungskosten für High-End-Grafikchips bei möglicherweise weniger stark steigenden Verkaufszahlen und damit auch weniger stark steigenden Erlösen was mit der strategischen Planung von Firmen zu tun.
Du gehst von Dir persönlich als Enthusiasten aus. Firmen interessiert aber natürlicherweise eher der Gesamtmarkt und somit nicht die Enthusiasten-Nische, sondern die Masse. Wozu soll die Masse teure High-End-Hardware kaufen, wenn sich der der dadurch erreichte Zusatznutzen asymtotisch gen Null bewegt?
Dural
2011-08-29, 13:30:01
Primitiv betrachtet (als Laie) heißt das, dass sie die übliche Zielregion erreicht haben, nämlich ca. +70-80% zum alten Single-Core-Flaggschiff.
hmmm wann gab es von AMD/ATi den letzte Chip der 80% draufgelegt hat?
R600 war es nicht, RV670 so wie so nicht, RV870 lag um die 50% vorn, RV970 noch mal weniger, einzig der RV770 konnte seinen (extrem) schwachen RV670 vorgänger dank 3x so viele Einheiten deutlich übertreffen...
Wie auch immer, das die Top GPU nicht an die 6990 ran kommt überrascht mich gar nicht :)
Palpatin
2011-08-29, 15:02:53
hmmm wann gab es von AMD/ATi den letzte Chip der 80% draufgelegt hat?
R600 war es nicht, RV670 so wie so nicht, RV870 lag um die 50% vorn, RV970 noch mal weniger, einzig der RV770 konnte seinen (extrem) schwachen RV670 vorgänger dank 3x so viele Einheiten deutlich übertreffen...
Wie auch immer, das die Top GPU nicht an die 6990 ran kommt überrascht mich gar nicht :)
Du hast dir die Antwort mit dem RV770 doch schon selbst gegeben..........
Gaestle
2011-08-29, 15:48:07
durals Kritik an meinem Post trifft aber zu, ich war mental bei der falschen Firma. Bei AMD/ATi sind die ungefähren Größenordnungen der Leistungssprünge nicht so vorhersehbar.
Skysnake
2011-08-30, 11:25:24
Da steht keine Einheit an der horizontalen Achse. Ich bezweifle, dass das exakte GHz-Angaben sein sollen.
Da steht Performance.
Das bezieht sich auf die Leistungsfähigkeit der FPGAs. Das Bild ist doch glaub ich aus einer Xilinx Präsentation.
Die Dinger sind halt total unterschiedlich getaktet. Soweit ich das im Kopf hab ist da aber bei rund 500-800 MHz Schluss. Müsste man aber nochmals nachschauen, wie hoch die wirklich maximal takten können.
Normal (und darauf beziehen die sich wahrscheinlich) sind aber Taktraten um die 500MHz eigentlich.
OgrEGT
2011-08-30, 19:09:22
Vielleicht sind 600-700 Mhz ausreichend für SI Wie hoch war nochmal die GTX 480 z.B getaktet ? Die Hotclock Geschichte bei NV mal aussen vor .
dildo4u
2011-08-30, 19:13:28
Vielleicht sind 600-700 Mhz ausreichend für SI Wie hoch war nochmal die GTX 480 z.B getaktet ? Die Hotclock Geschichte bei NV mal aussen vor .
700.
OgrEGT
2011-08-30, 19:18:45
700.
War eigentlich ne rhetorische Frage :)
Ailuros
2011-08-30, 21:32:44
Generell kommt die Effizienz einer Architektur vor jeglicher Frequenz. Ohne das erste zu wissen sagt mir jegliche Frequenz (ob 500 oder 900MHz als Beispiel) erstmal gar nichts.
Ich hab zwar keine Ahnung aber es wuerde mich sehr wundern wenn top dog SI unter 800MHz getaktet sein wird und dieses selbst mit dem noch nicht bestaetigten HPL.
Gipsel
2011-08-30, 22:02:49
Generell kommt die Effizienz einer Architektur vor jeglicher Frequenz. Ohne das erste zu wissen sagt mir jegliche Frequenz (ob 500 oder 900MHz als Beispiel) erstmal gar nichts.Ganz genau.
Ich hab zwar keine Ahnung aber es wuerde mich sehr wundern wenn top dog SI unter 800MHz getaktet sein wird und dieses selbst mit dem noch nicht bestaetigten HPL.Hier müßte man im Sinne des ersten Teils mal sehen, wie einige Details bei SI gelöst worden sind. Es könnte sein, daß AMD Entscheidungen getroffen hat (z.B. Verkürzung der Pipeline gegenüber den 8 Zyklen Latenz von R600 bis Cayman), um trotz des "skalaren" Schedulings den Aufwand dafür extrem einfach zu halten, um mehr in die eigentlichen Einheiten investieren zu können. Dies würde tendenziell hemmend auf die Frequenz wirken, egal welcher Prozeß das ist (obwohl ich wie im SI-Tech-Thread beschrieben, dieser Faktor relativ klein sein könnte, da ohne VLIW die ALUs und auch der Registerzugriff einfacher werden [keine horizontalen Operationen innerhalb eines VLIW mehr, die bisher bereits <8 Takte Latenz erforderten]).
Skysnake
2011-08-31, 00:45:20
Naja, es ist halt wie immer die gleiche Frage:
1. Nehme ich ein "einfacheres" Design mit vielen Pipelinestufen und hohem Takt
2. Nehme ich ein sehr komplexes Design (Richtung Fat-Cores) mit weniger Pipelinestufen, wo ich auch nicht so hohe Taktraten habe, aber nach weniger Takten fällt hinten das Ergebnis raus.
Ist halt immer eine Abwägungssache. Extrem viel kleine einfache Coes bringen einem halt auch nichts mehr, wenn man diese einfach nicht mehr mit den entsprechenden Datenmengen gefüttert bekommt.
Früher war das nicht sooo das Problem, da eben 3D-Grafik etc. nicht sooo das Problem waren, und die Dinger für BrutForce eben auch richtig gut geeignet sind. Im GPGPU-Bereich wo man doch öfters recht viel Kommunikation hat, ist es ja aber schon jetzt so, das man ohne massive Optimierungen eben doch oft rein von der Bandbreite der Caches/Speicher limitiert ist. Mehr Funktionseinheiten rein packen ist also nicht zwingend die optimale Lösung. Eher die Nutzbarkeit der vorhandenen verbessern, und genau danach sieht es bei GCN eben aus in meinen Augen. Man hat wie Gipsel schon sagt wohl weniger Abhängigkeiten und kann dadurch einiges einfacher machen.
Zudem kann man mit niedrigen Taktraten eben eher mal dazu übergehen die Anbindung etwas zu verbreitern, da man die nötigen Latenzen einhalten kann (routing etc.)
Also ich würde die Möglichkeit eines "niedrig" getakteten Designs wirklich nicht von der Hand weißen.
Ailuros
2011-08-31, 08:33:19
Ich hab es schonmal vor einiger Zeit erwaehnt dass die Nachricht noch vor dem Fermi launch seitens AMD war dass sie in Zukunft weniger auf Frequenz und mehr auf Breite setzen werden. Heute ist diese zwielichtige Meldung um einiges deutlicher. Es war mir schon damals klar dass sie von den 850MHz der Vergangenheit eben nicht auf 950 oder hoehere Frequenzen vorhaben zu steigen.
Einige von Euch wissen schon wie es mit den Frequenzen normalerweise bei IHVs generell vorgeht. Ein typischer design-target fuer eine neue Generation ist bis zu 2x Mal die Leistung der vorigen Generation und es wird auch so grob angelegt dass die Anzahl der Einheiten (und deren jeweilige Effizienz) kombiniert mit der Frequenz die eine Foundry als obere Sicherheits-schwelle fuer Komplexitaet N unter Prozess X angibt. Stimmt jetzt alles mit dem chip am Ende und es ist nichts schiefgelaufen und der Stromverbrauch erlaubt es kann jeder IHV noch etwas an Frequenz zustecken. Wie dem auch sei Frequenz ist stets eher eine Wette der "letzten Minute".
Etwas verkorkstes Gegenbeispiel: als es ans Tageslicht kam vor dem Fermi launch dass GF100 nur 64 TMUs haben und bevor dieser getestet wurde spielten leider einige von uns mit den verruecktesten Thesen wie z.B. hotclocked TMUs. Es gab sogar absurde Thesen dass es 128 und die Haelfte deaktiviert :freak: Wie dem auch sei alles in allem sind die Fermi TMUs um einiges effizienter als GT200/G9x TMUs und es hat sich am Ende bewiesen dass high end Fermi eben nicht dank Texel-fuellraten drosselt.
AMD entwickelt traditionell keine single chip high end Loesungen mehr; wenn jetzt der groesste single chip nicht mehr bei 10-20% Leistungs-unterschied im Vergleich zu NV's single chip top dog liegen sollte sondern einen Schnitt mehr ist es auch kein Welt-untergang, wenn AMD's eigentliches Ziel execution ist auf allen Fronten.
Alles natuerlich unter der Vorraussetzung dass AMD tatsaechlich etwas wie HPL benutzen sollte; aber selbst in diesem Fall sehe ich nichts davon auf Regalen noch dieses Jahr was high end betrifft. Alles in allem und wenn bei NV alles nach Plan gelaufen ist im schlimmsten Fall ein Quartal Vorsprung. Ergo mal alle "ifs" in einen Topf gesteckt: entweder ist AMD ein merkwuerdiges Risiko eingegangen was den Prozess betrifft oder sie haben irgendwelche Gewinne von der ganzen Geschichte die fuer uns momentan noch nicht sichtbar sind.
Es bleibt aber dabei dass wir nicht wissen wie die Effizienz von GCN in Echtzeit aussieht; Papier-Spezifikationen sagen mir momentan gar nichts.
fondness
2011-08-31, 09:29:31
Damit ist auch der Name HD7000 bestätigt:
http://img600.imageshack.us/img600/6562/radeon7000.png (http://img600.imageshack.us/i/radeon7000.png/)
Gaestle
2011-08-31, 12:45:57
So langsame wird das HD im Namen wichtig, denn die Radeon 7000er Serie gab's ja schon. ;D *schwelg*
Skysnake
2011-08-31, 12:50:38
Ailuros, mit dem High-End wäre ich mir nicht sooo sicher. AMD produziert recht kleine Chips im Vergleich zu nVidia. Mit GCN wird der chip definitiv größer werden, ist aber kein Weltuntergang, da man nicht wie nVidia schon am absoluten Limit rum schrammt.
Wenn man sich GCN anschaut, dann wird das wieder ein sehr modulares Design, wobei die kleinste Einheit ein 4er Cluster wird. Also 4*4 4er SIMD ALUs (also 64 SP-Werte Gleichzeitig in der Verarbeitung) + 4 Skalareinheiten. Klar, dann hört sich nicht sooo viel an, da man bei der HD6k ja auch 64 ALUs hat. Man sollte allerdings bedenken, dass eine "Wavefront" (oder wie auch immer AMD das gerade nennt) über 4 Takte auf einem einzelnen SIMD Cluster ausgeführt wird. Man erhält also eigentlich eine Breite von 4*64 ALUs, was die Ausführung angeht. Hot-clock wäre denkbar, um die Latenzen zu verringern, aber ich gehe nicht davon aus.
Eher wird das Ding halt mehr Platz benötigen und niedrigere Taktraten aufweisen. Macht einem die Sache mit dem Cachezugriffen/Sheduling und auch dem cohärenten Speicher weniger Probleme, weil man all diese Sachen dann eben nicht auf so scharfe Latenzen trimmen muss. AMD kann sich ja den Luxus gönnen und den Chip von der Fläche her aufblasen. Platz ist ja noch genug da, wenn man an einen GF1x0 denkt.
Es ist also durchaus möglich, dass auch die High-End Dinger in HPL kommen. Man sollte sich ja mal vor Augen führen, dass so ein FPGA ~30W benötigt. Gut eine GPU wird massig mehr benötigen, aber wenn man einen chip um 50% aufbläht, aber am einzelnen Transistor 50%+ an Leistungsaufnahme spart, dann hat man noch immer gewonnen. Klar der Chip wird durch die Größe fehleranfälliger, aber HPL scheint ja besser im Griff zu sein als HP. Das könnte sich also auch egalisieren.
Man sollte sich ja auch mal die Xilinx Grafik GENAU anschauen. Die Leistungsaufnahme ist logarithmisch! Da lässt sich also wohl leicht ein Faktor >2 an Einsparung bei der Leistungsaufnahme erreichen. Jetzt überlegt euch mal ein chip ala Caymann, der halt doppelt so groß ist, aber nur noch die Hälfte an Strom verbrät. Da könnte man dann auf die aktuelle Generation übertragen locker etwas in den Mobile Bereich bringen, dass alles in der Luft zerreißt, was aktuell in die gleiche TDP passt.
Kurz um, "Nichts ist unmöglich..." AMD+TSMC
Ailuros
2011-08-31, 23:48:45
Ailuros, mit dem High-End wäre ich mir nicht sooo sicher. AMD produziert recht kleine Chips im Vergleich zu nVidia. Mit GCN wird der chip definitiv größer werden, ist aber kein Weltuntergang, da man nicht wie nVidia schon am absoluten Limit rum schrammt.
Das absolute Limit waere 600mm2@40G gewesen (siehe high end Intel Larabee @Intel45nm) und nicht ~530mm2 wie GF1x0. Zweifellos sind NV's dies brutal gross, aber wer garantiert mir genau dass diesmal GCN nicht um etwas groesser ausfallen koennte (wie Du selber erwaehnst) und Kepler um etwas kleiner als bisher? Das letzte muss ich erstmal sehen dass ich es glaube hauptsaechlich weil hotclocks nie um nimmer komplett umsonst sind. Im Vergleich zu N ALUs@1500MHz gegen N*2 ALUs@750MHz ist zwar die erste Loesung um einiges billiger als die zweite was die area betrifft aber es ist eben nicht so dass jegliche 1.5GHz ALU gleich so gross ist wie jegliche 0.75GHz ALU. Deshalb wird es IMHO fuer NV ziemlich schwer sein an die area zu sparen wie z.B. die Packdichte der Transistoren erhoehen. Fuer hotclocking IMHO eher eine Schnappsidee.
Wenn man sich GCN anschaut, dann wird das wieder ein sehr modulares Design, wobei die kleinste Einheit ein 4er Cluster wird. Also 4*4 4er SIMD ALUs (also 64 SP-Werte Gleichzeitig in der Verarbeitung) + 4 Skalareinheiten. Klar, dann hört sich nicht sooo viel an, da man bei der HD6k ja auch 64 ALUs hat. Man sollte allerdings bedenken, dass eine "Wavefront" (oder wie auch immer AMD das gerade nennt) über 4 Takte auf einem einzelnen SIMD Cluster ausgeführt wird. Man erhält also eigentlich eine Breite von 4*64 ALUs, was die Ausführung angeht.
Und? Fermi sah auf Papier auch als eine ziemlich durchdachte Architektur aus vor dem launch. Dann kamen die Verspaetungen und die paar hw bugs und vieles vom "Glanz" ging den Bach runter. Muss ja nicht so bei SI sein, aber ich will das Ding von unabhaengigen Quellen erstmal analysiert und getestet sehen in seiner realisierbaren finalen erhaeltlichen Form.
Hot-clock wäre denkbar, um die Latenzen zu verringern, aber ich gehe nicht davon aus.
GCN wird hoechstwahrscheinlich etwas groesser ausfallen als seine Vorgaenger, es besteht immer noch die Moeglichkeit von HPL und Du denkst an hotclocking? Ueberhaupt unter HPL waere es der glatte Selbstmord.
Eher wird das Ding halt mehr Platz benötigen und niedrigere Taktraten aufweisen.
*ahem* ;)
Macht einem die Sache mit dem Cachezugriffen/Sheduling und auch dem cohärenten Speicher weniger Probleme, weil man all diese Sachen dann eben nicht auf so scharfe Latenzen trimmen muss. AMD kann sich ja den Luxus gönnen und den Chip von der Fläche her aufblasen. Platz ist ja noch genug da, wenn man an einen GF1x0 denkt.
GF1x0 hat genauso viel mit GK1x0 zu tun wie SI im Vergleich zu NI. Gegen was soll SI genau konkurrieren?
Es ist also durchaus möglich, dass auch die High-End Dinger in HPL kommen. Man sollte sich ja mal vor Augen führen, dass so ein FPGA ~30W benötigt. Gut eine GPU wird massig mehr benötigen, aber wenn man einen chip um 50% aufbläht, aber am einzelnen Transistor 50%+ an Leistungsaufnahme spart, dann hat man noch immer gewonnen. Klar der Chip wird durch die Größe fehleranfälliger, aber HPL scheint ja besser im Griff zu sein als HP. Das könnte sich also auch egalisieren.
Ein sehr schlechter Vergleich.
Man sollte sich ja auch mal die Xilinx Grafik GENAU anschauen. Die Leistungsaufnahme ist logarithmisch! Da lässt sich also wohl leicht ein Faktor >2 an Einsparung bei der Leistungsaufnahme erreichen. Jetzt überlegt euch mal ein chip ala Caymann, der halt doppelt so groß ist, aber nur noch die Hälfte an Strom verbrät. Da könnte man dann auf die aktuelle Generation übertragen locker etwas in den Mobile Bereich bringen, dass alles in der Luft zerreißt, was aktuell in die gleiche TDP passt.
Von den bis jetzt veroeffentlichten Tabellen von SA fuer mobile chips@28nm sowohl von NV als auch von AMD erreicht NV mit Fermi Ablegern etwas mehr Leistung bei vergleichbaren TDPs. Natuerlich handelt es sich um nur um Projektionen beider IHVs und die Zahlen muessen sich nocht in Echtzeit bei finalen Produkten beweisen koennen, aber die erste Indizien sind mehr oder weniger auf diesem Nivaeu.
Kurz um, "Nichts ist unmöglich..." AMD+TSMC
Dieses "nichts ist unmoeglich" gilt genauso fuer NVIDIA wie fuer AMD und das sogar fuer positivere oder negativere Resultate der einen oder beiden Seiten. SI koennte ein wuerdiger Nachfolger fuer Cayman seitens AMD sein und Kepler am Anfang mit Fermi-aehnlichen Wehwechen oder eben genau das Gegenteil.
NV hat das meisste ueberarbeitet im GF110 und Kepler sieht nicht nach irgendwelchen fundamentalen Aenderungen im Vergleich zu Fermi aus. Ergo das Risiko ist hier logischerweise kleiner.
Wenn bei Kepler von der Architektur her alles nach Plan gelaufen ist, dann bleibt NV's groesseres Problem nur moegliche beschissene yields fuer 28HP die vielleicht zur Bremse werden koennten. Aber nach allen Indizien ist diesmal AMD wohl zumindest etwas mehr davon betroffen als bei 40/55nm.
Tarkin
2011-09-05, 07:35:17
neue Informationen:
http://forums.vr-zone.com/news-around-the-web/1670581-amd-7xxx-informations-xdr2.html
AMD Radeon HD 7000 Southern Islands 28nm
HD 7990 New Zealand GCN
HD 7970 Tahiti XT GCN 1000MHz 32CUs 2048ALUs 128TMUs 64ROPs 256bit XDR2 8.0Gbps 256GB/s 2GB 190W HP
HD 7950 Tahiti Pro GCN 900MHz 30CUs 1920ALUs 120TMUs 64ROPs 256bit XDR2 7.2Gbps 230GB/s 2GB 150W HP
HD 7870 Thames XT VLIW4 950MHz 24SIMDs 1536ALUs 96TMUs 32ROPs 256bit GDDR5 5.8Gbps 186GB/s 2GB 120W HPL
HD 7850 Thames Pro VLIW4 850MHz 22SIMDs 1408ALUs 88TMUs 32ROPs 256bit GDDR5 5.2Gbps 166GB/s 2GB 90W HPL
HD 7670 Lombok XT VLIW4 900MHz 12SIMDs 768ALUs 48TMUs 16ROPs 128bit GDDR5 5.0Gbps 80GB/s 1GB 60W HPL
HD 7570 Lombok Pro VLIW4 750MHz 12SIMDs 768ALUs 48TMUs 16ROPs 128bit GDDR5 4.0Gbps 64GB/s 1GB 50W HPL
XDR2? wie realistisch ist das?
Infos von Rambus
"The XDR™2 memory architecture is the world's fastest memory system solution capable of providing more than twice the peak bandwidth per device when compared to a GDDR5-based system. Further, the XDR 2 memory architecture delivers this performance at 30% lower power than GDDR5 at equivalent bandwidth"
boxleitnerb
2011-09-05, 07:54:36
Hm, das wären bis auf ROPs und RAM doch sehr überschaubare Steigerungen. Thames XT und darunter sehen wie geshrinkte 6000er Chips aus.
Hugo78
2011-09-05, 08:00:10
Wenn so stimmt, kommt die 7800er und kleiner, auch wieder früher als die 7900.
Wäre jetzt die Frage, wer XDR2 in Masse herstellt.
boxleitnerb
2011-09-05, 08:29:49
In anderen Foren werden die Daten schon als Fake bezeichnet. Angeblich schwirrt das schon länger durchs Netz.
XDR2? wie realistisch ist das?
Meiner Meinung nach fast ausgeschlossen.
Außer es gibt wirklich so große technische Probleme mit höherer GDDR-Bandbreite, dass sie sich darauf einlassen.
Dural
2011-09-05, 09:57:16
blödsinn, mehr gibt es zu den daten nicht zu sagen :rolleyes:
Nakai
2011-09-05, 11:33:20
Egal obs Fake ist oder nicht. Die Daten sind ziemlich gut abgestimmt und haben ihren Sinn. Selbst das XDR2 ist ganz interessant, vorallem im Bezug auf die anderen Daten der anderen Chips.
deekey777
2011-09-05, 11:36:33
blödsinn, mehr gibt es zu den daten nicht zu sagen :rolleyes:
Was genau ist an den Daten "Blödsinn"?
Ich meine jetzt nicht richtig oder falch, sondern was ist daran Blödsinn?
Nun, Gipsel sagte beispielsweise, das es im Treiber keine Anzeichen mehr für VLIW4-SKUs gibt außer APUs.
Screemer
2011-09-05, 11:46:38
hat er aber nicht im gleichen atemzug gesagt, dass es keine neuen ids gibt wenn sich technisch nichts aendert? waere das bei einem einfachen shrink nicht gegeben?
deekey777
2011-09-05, 11:48:16
Nun, Gipsel sagte beispielsweise, das es im Treiber keine Anzeichen mehr für VLIW4-SKUs gibt außer APUs.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8818253#post8818253
(Oder ist das veraltet?)
Aber das ist gar nicht der Punkt: Bis auf VLIW4-Sache sind die Daten an sich schlüssig, was ein Novum ist, denn die Fakes waren bisher alles andere als (rechnerisch) nachvollziehbar.
aylano
2011-09-05, 11:53:52
Die Daten klingen schon logisch, auch wenn diese Logik "ziemlich aus der Luft geholt sein mag", da mit GCN große Änderungen wie XDR2 möglich sind (, "aber immerhin auf bewährten HP lässt")
Dazu klingt HPL für neue Low-End-&-Mainstream (=Mainstream & Performance von damals) logisch, da das wichtigste für diese Karten eine schnelle Einführung mit hoher Yield ist.
Aber mehr kann man wahrscheinlich auch nicht sagen und einfach diese Möglichkeit in Auge halten
Ailuros
2011-09-05, 12:31:25
Das einzige was man dazu sagen ist dass fakes zunehmend logischer werden als in der Vergangenheit.
fondness
2011-09-05, 12:34:51
Hm, das wären bis auf ROPs und RAM doch sehr überschaubare Steigerungen.
2048 "skalare" ALUs wären alles andere als wenig. Eine GTX580 hat 512. Selbst bei nur 1000Mhz wäre das mehr als doppelte GTX580 Leistung.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.