Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Southern Islands - 28nm - Q3 11 - Q2 12


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11

boxleitnerb
2011-09-05, 12:51:46
Und Kepler wird auch drauflegen. Ist die Frage, ob der Vorsprung schmilzt, gleichbleibt oder gar wächst.

Ailuros
2011-09-05, 12:59:33
2048 "skalare" ALUs wären alles andere als wenig. Eine GTX580 hat 512. Selbst bei nur 1000Mhz wäre das mehr als doppelte GTX580 Leistung.

2048 ALUs? Wo denn? Und mit vielen SPs dann genau? *seufz*

Duplex
2011-09-05, 13:07:44
Durch 28nm HP kann man bei einem 768-VLIW4 Chip schon mit +70-80% im vergleich zur HD6970 rechnen.
Bei GCN soll der Chip insgesamt größer ausfallen, redesign Architektur usw., bis zu 100% Leistungssteigerungen gegenüber Cayman halte ich für möglich.

Ailuros
2011-09-05, 13:21:47
Mal ganz grob vereinfacht: der Umstieg von VLiW5 zu VLiW4 erlaubte fuer NI weniger SPs einzulegen als bei Cypress da die Effizienz um ein relativ geringes Prozentual gestiegen ist. Damals rechneten auch viele dass Cayman irgendwo <2k SPs haben wird weil man eben den Fehler machte und die Effizienz pro ALU nicht mitberechnet hat und am Anfang erschienen die 1536SPs von Cayman sogar als "wenig".

Bei SI ist die Effizienzsteigerung pro ALU um einiges groesser als zwischen Cayman und Cypress, ergo ist es von Anfang an fraglich wie jemand ploetzlich auf 2048 kommt nur eben weil es im Vergleich zu Cayman auf Papier Sinn zu machen scheint. Mal anders formuliert: wenn top dog SI tatsaechlich 32 CUs haben sollte und Kepler die Haelfte oder sogar weniger und die beiden kommen selbst auf Gleichstand, dann ist die Effizienz pro SP bei AMD genauso miserabel (wenn nicht noch miserabler wenn man die skalaren Einheiten mitberechnet) als zuvor.

Noch schlimmer was soll genau mit den 64ROPs auf einem 256bit bus los sein? 16 ROPs pro ROP partition oder wie soll ich das Zeug genau verstehen? :freak:

Botcruscher
2011-09-05, 19:21:58
und am Anfang erschienen die 1536SPs von Cayman sogar als "wenig".

Sind es auch und der Gewinn durch die neue Architektur bei mehr Leistungsaufnahme war/ist einfach nur bescheiden. Schön wenn das Frontend jetzt nicht mehr so stark limitiert aber da hätte deutlich mehr raus kommen müssen. Die 5850/70 stehen auch heute noch verdammt gut da.

OgrEGT
2011-09-05, 19:40:27
Wieviel genau an Leistung hinzukommt ist nicht das Entscheidendste. Noch viel besser stünde den neuen Karten verbesserte Bildqualität...

boxleitnerb
2011-09-05, 19:49:42
Für die braucht man aber auch Leistung. Wenn du von Downsampling und SGSSAA ausgehst, wie ich annehme.

OgrEGT
2011-09-05, 20:13:35
Nicht nur. Auch weiter verbessertes AF wäre wünschenswert.
Hatte AMD nicht bei release der NI GPUs gesagt, dass erst mit der nächsten Architektur besseres AF möglich wäre?

boxleitnerb
2011-09-05, 20:20:30
Coda oder Ailuros meinte, es wäre gefixt. Darum mach ich mir keine Sorgen. Ganz ehrlich: In heutigen shaderflimmrigen Spielen ohne richtiges AA ist das noch das kleinste Problem. Die sollen auch mal einen SGSSAA-Hack basteln für DX10/11.

OgrEGT
2011-09-05, 20:25:11
Damit wirds auch Zeit, stimmt...

Leonidas
2011-09-05, 21:49:08
In anderen Foren werden die Daten schon als Fake bezeichnet. Angeblich schwirrt das schon länger durchs Netz.


Nicht fake, sondern einfach ausgedacht. Da hat jemand die vorhandenen Infos genommen und sich gedacht, "was könnte sein".

Problematisch ist nur, daß einiges gleich von Anfang an in sich zusammenfällt. Thames ist sicher ein LowCost-Chip und kein Mainstream-Modell. Und vonXDR2-Speicher hat man seit 2008 nichts mehr gehört - zweifelhaft, wieso da man jetzt einfach so eine wirtschaftliche Fertigung nur für ein paar HighEnd-Grafikkarten (nur ein paar Millionen Speicherchips, eine Lächerlichkeit im Speichergeschäft) aufbauen will.

Coda
2011-09-05, 23:43:03
GDDR5 wird doch auch nur für Grafikkarten verwendet?

S940
2011-09-06, 00:18:52
Und vonXDR2-Speicher hat man seit 2008 nichts mehr gehört - zweifelhaft, wieso da man jetzt einfach so eine wirtschaftliche Fertigung nur für ein paar HighEnd-Grafikkarten (nur ein paar Millionen Speicherchips, eine Lächerlichkeit im Speichergeschäft) aufbauen will.
Naja, wer sagt denn, dass es bei den paar HighEnd Grafikkarten bleibt?
Gibts z.B. schon Infos zur PS4?
Die Tasache, dass XDR2 schon seit 2008 herumgeistert, ist eher ein Pro-Argument. Das Zeug sollte jetzt wirklich funktionieren, da es gut abgehangen ist ;-)
Kurz: Das Risiko ist eher gering, da es nicht der allerneuste, letze Schrei ist.

Wie auch immer, im Moment wäre Samsung sicherlich froh anstatt normalem billig DRAMs ein paar teure XDR2 Wafer zu backen ^^
Wenn AMD ihnen zusagen würde, dass sie auch schön brav immer die HighEnd Modelle mit XDR2 bauen, ist das doch nicht abwägig.

Temperatur und Hitze, was bei RAMBUS früher mal problematisch war, sollte in 3Xnm Fertigung auch kein Problem sein.

Und zuallerletzt hatte AMD auch sehr früh aufs GDDR5 Pferd gesetzt, um nen Marktvorteil zu haben. Wäre jetzt also nicht überraschend, wenn sie die gleiche Strategie anwenden würden.

Hugo78
2011-09-06, 08:14:49
Was gibts denn zu den Nachteilen von XDR2 zusagen?

ruyven_macaran schrieb gestern dazu:
- hohe Kosten, weil die Controller wesentlich aufwendiger ausfallen
- hohe Latenzen, weil die aufwendige Übertragung Vorbereitungszeit benötigt
- riesiger Prefetch und Overhead, weil ein Zugriff 32 Übertragungszyklen entspricht (bei 64 Bit Controllern also immerhin 256 Byte Chunks)
- http://extreme.pcgameshardware.de/kommentare-zu-grafikkarten/173766-radeon-hd-7000-spezifikationen-der-kommenden-generation-southern-islands-geleakt-8.html#post3402467

Also gibts da einen detailierten Vergleich zwischen GDDR5 und XDR2, ausser den Aussagen von Rambus?

Ailuros
2011-09-06, 09:51:24
Naja, wer sagt denn, dass es bei den paar HighEnd Grafikkarten bleibt?
Gibts z.B. schon Infos zur PS4?

Wie antwortet man zu der Frage ohne eine Tonne PMs zu bekommen? ;) Steht aber nichts von XDR2 drin was alles oder gar nichts heissen kann, aber unter normalen Umstaenden ueberfliegt keiner so wichtige Einzelheiten.

Die Tasache, dass XDR2 schon seit 2008 herumgeistert, ist eher ein Pro-Argument. Das Zeug sollte jetzt wirklich funktionieren, da es gut abgehangen ist ;-)
Kurz: Das Risiko ist eher gering, da es nicht der allerneuste, letze Schrei ist.

Wie auch immer, im Moment wäre Samsung sicherlich froh anstatt normalem billig DRAMs ein paar teure XDR2 Wafer zu backen ^^
Wenn AMD ihnen zusagen würde, dass sie auch schön brav immer die HighEnd Modelle mit XDR2 bauen, ist das doch nicht abwägig.

***edit: wer will kann einen neuen Thread fuer "GDDR5 vs. XDR2 in GPUs" als Beispiel aufmachen. Ich hab keinen genauen Durchblick mit der per pin Rate beider Speicher-technologien, aber diejenigen die das Zeug richtig verstehen koennten mal versuchen die Vor- und Nachteile beider Seiten zu analysieren. Dass bei XDR2 aber die Vorteile ueberwiegen will mein Bauchgefuehl bezweifeln.

Temperatur und Hitze, was bei RAMBUS früher mal problematisch war, sollte in 3Xnm Fertigung auch kein Problem sein.

Und zuallerletzt hatte AMD auch sehr früh aufs GDDR5 Pferd gesetzt, um nen Marktvorteil zu haben. Wäre jetzt also nicht überraschend, wenn sie die gleiche Strategie anwenden würden.

Der Speichercontroller soll bei SI ueberarbeitet sein, aber Hugo's Link oben hat ein paar sehr wichtige Punkte dagegen. Nebenbei wieso diskuttieren wir immer noch etwas das offensichtlich nicht der Realitaet entspricht? Nenn es fake oder frei erfundene sinnlose Spekulation, wenn es so viel Bloedsinn in der angeblichen Spec-liste gibt dann ist das angebliche XDR2 das harmloseste ueberhaupt.

Coda
2011-09-06, 10:07:17
Hat AMD (ATI) nicht sogar maßgeblich GDDR5 mitentwickelt? Dann ergibt es noch weniger Sinn.

Ailuros
2011-09-06, 10:23:21
Hat AMD (ATI) nicht sogar maßgeblich GDDR5 mitentwickelt? Dann ergibt es noch weniger Sinn.

Haelt AMD nicht einen chairman Sitz bei den Jedec DRAM subcommittees? So oder so hat AMD sowohl GDDR4 als auch 5 mitentwickelt.

***edit: ich hab es uebrigens nie persoenlich bestaetigt dass in SI das AF Problem gefixt wurde. Ich erfuhr von Coda's Behauptungen dass es sich bisher um einen albernen algorithmischen bug handelt. Unter normalen Umstaenden gehoeren sie erschossen wenn dieses immer noch nicht korrigiert wurde.

Dural
2011-09-06, 12:09:31
schon nur die 64ROPs auf 256Bit mit XDR2 finde ich einfach nur zu komisch ;D

aber alles was mit Rambus bis jetzt zu tun hatte wurde mehr oder weniger ein Flop... will sich das AMD wirklich an tun :freak: :wink:

aber AMD kann ja zaubern, sie verpacken die neuen "skalar" einheiten jetzt schon kompakter als die alten Vec5 :wink:

Ailuros
2011-09-06, 12:33:02
Brutal vereinfacht besteht jede SI CU aus 4*SIMD16. So betrachtet gibt es keinen Unterschied was die Anzahl der Einheiten betrifft gegenueber VLiW4 (ist ja auch 4*SIMD16). VLiW flog raus und wurde von skalar bzw. vector (wie man es auch bezeichnen will) ersetzt; und eben die "skalare" Logik die dazukam ist nicht billiger sondern genau das Gegenteil.

Wie schon erwaehnt ich schaetze Kepler maximal bei 1024SPs ein bei =/>1.5GHz hotclock; wenn jetzt Tahiti mit 2048SPs@1.0GHz noch einen Schnitt weniger Leistung als das vorige erreichen sollten dann sollten die AMD engineers wirklich gegen die Wand rennen.

1024SPs * 2 FLOPs * 1.5GHz = 3072 GFLOPs/s
2048SPs * 2 FLOPs * 1.0GHz = 4096 GFLOPs/s

...und diesmal duerften FLOPs vergleichbarer sein als je zuvor. Ergo soll Tahiti mit 33% mehr FLOPs irgendwo um die 15% weniger Leistung durchschnittlich erreichen. Ich gehe zwar nicht gerne Wetten ein aber ich waere verdammt ueberrascht falls das Ding mehr als 16-20CUs insgesamt hat (je nach Effizienz bzw. Ziel-Frequenz).

Gipsel
2011-09-06, 21:10:32
ich waere verdammt ueberrascht falls das Ding mehr als 16-20CUs insgesamt hat (je nach Effizienz bzw. Ziel-Frequenz).
Damit meinst Du aber bestimmt das Performance-Modell und nicht Highend Tahiti, oder? ;)
16 CUs sind 1024 ALUs, 20 CUs 1280 ALUs, bißchen mehr erwarte ich für Tahiti schon, auch weil AMD gesagt hat, daß die SP-Anzahl weiter steigt. Insofern sind eigentlich 28 CUs das Minimum (1784 SPs). 32 CUs sehen für mich aber schöner aus, auch wenn das natürlich nur geraten ist. Irgendwo schrieb ich schon, daß es mich auch nicht wundern würde, wenn GCN erstmal keine Taktsteigerungen oder sogar einen kleinen Rückschritt bringen würde (Latenzen runter, evt. HPL).

Ailuros
2011-09-07, 09:29:46
Damit meinst Du aber bestimmt das Performance-Modell und nicht Highend Tahiti, oder? ;)

Wenn Du zu vorigen pre-launch happy go merry Spekulationen der Vergangenheit zurueckblaetterst wirst Du sehen dass mehr als oefters die eigentlichen enthusiast mGPU Spezifikationen dem performance chip zugeteilt wurden.

16 CUs sind 1024 ALUs, 20 CUs 1280 ALUs, bißchen mehr erwarte ich für Tahiti schon, auch weil AMD gesagt hat, daß die SP-Anzahl weiter steigt. Insofern sind eigentlich 28 CUs das Minimum (1784 SPs). 32 CUs sehen für mich aber schöner aus, auch wenn das natürlich nur geraten ist. Irgendwo schrieb ich schon, daß es mich auch nicht wundern würde, wenn GCN erstmal keine Taktsteigerungen oder sogar einen kleinen Rückschritt bringen würde (Latenzen runter, evt. HPL).

Ich sagte ja je nach Effizienz pro CU und Frequenz. Was wir hier als Spekulation bekamen sind 32CUs@1.0GHz....also bitte.... :D

So etwas wuerde nur Sinn machen wenn sie erstmal auf 28HP gesetzt haben und auch nicht vorhaben enthusiast mit mGPU zu bedienen, denn 4.096 TFLOPs SP - 2.048 DP sind verdammt viel fuer einen "skalaren" Design.

Anders mir ist nach dem Launch lieber von diversen Leuten etwas in der Art "wow das ist mehr als ich erwartet habe" zu lesen, anstatt "Mist das ist aber wenig...".

Gipsel
2011-09-07, 11:48:30
Warst Du nicht immer einer der Ersten, die gesagt haben, daß die TFLOPs ziemlich wenig aussagen? Und genau so sieht das auch bei der Frage „skalar" oder VLIW aus. AMD ist on record, daß die SP-Zahl und die Peakleistung ansteigen wird. Du hast mehrfach betont, daß AMD wohl weniger auf Frequenzen setzen wird.
Also rechne doch z.B. mit nur 800 MHz und vergleiche die Zahlen dann noch mal neu.
Und wer sagt eigentlich, daß nvidias Peakleistung nur maximal Faktor 2 steigen wird? Mein Tipp wäre das als untere Grenze. Bei AMD stellen die 4 TFLOPs aber wohl eher die obere Grenze dar.

S940
2011-09-07, 12:38:53
Was gibts denn zu den Nachteilen von XDR2 zusagen?

ruyven_macaran schrieb gestern dazu:

- hohe Kosten, weil die Controller wesentlich aufwendiger ausfallen
- hohe Latenzen, weil die aufwendige Übertragung Vorbereitungszeit benötigt
- riesiger Prefetch und Overhead, weil ein Zugriff 32 Übertragungszyklen entspricht (bei 64 Bit Controllern also immerhin 256 Byte Chunks)

Hmm, Punkt 1 ist kein Problem, wenn das Teil nur auf den high-end Chips kommt, da werden die hohen Kosten an den Endanwender weitergegeben, der dass dann auch zahlt. Außerdem ist die Frage, ob die Gasamtkosten eines breiteren GDDR5 Anschlusses nicht doch höher wären.
b) Latenzen: Seit wann ist das bei Grafikchips ein Problem :confused:
c) Prefetch und Overhead:
Hm, da steht auf der Rambusseite was von MicroThraeding:
http://www.rambus.com/in/technology/innovations/detail/microthreading.html
Angeblich hilft das der Effizienz "ganz toll", ist das nur käsiges Rambus Marketing Blabla?

Wie antwortet man zu der Frage ohne eine Tonne PMs zu bekommen? ;) Steht aber nichts von XDR2 drin was alles oder gar nichts heissen kann, aber unter normalen Umstaenden ueberfliegt keiner so wichtige Einzelheiten.
Hier auf 3DC schon ;-)

Der Speichercontroller soll bei SI ueberarbeitet sein, aber Hugo's Link oben hat ein paar sehr wichtige Punkte dagegen. Nebenbei wieso diskuttieren wir immer noch etwas das offensichtlich nicht der Realitaet entspricht? Nenn es fake oder frei erfundene sinnlose Spekulation, wenn es so viel Bloedsinn in der angeblichen Spec-liste gibt dann ist das angebliche XDR2 das harmloseste ueberhaupt.
Jo, seh ich auch so.
Hat AMD (ATI) nicht sogar maßgeblich GDDR5 mitentwickelt? Dann ergibt es noch weniger Sinn.
Ja gezwungenermaßen, damit das auch zeitig mit/für RV770 fertig wurde. Da gabs doch mal die anandtech Hintergrundstory dazu:
http://www.anandtech.com/show/2679/8
Die brauchten halt was besseres als GDDR3, ohne den PinCount zu erhöhen. Aber deswegen sind sie jetzt nicht die GDDR5 Kreuzritter, die nix anderes dulden würden.
Die obige Story könnte man sicherlich jetzt genauso für GNC hernehmen:

Anno 2008 (Annahme: die gleichen ~3 Jahre Entwicklungszeit wie RV770) brauchte das ATi GNC Team eine neue Speichertechnology die mehr Bandbreite bieten konnte, als das alte GDDR5 ohne den Pincount zu erhöhen ...
Im Vergleich zu GDDR5 Anno 2005, war XDR2 Anno 2008/09 schon fertig spezifiziert, wäre also ein weit geringeres Risiko gewesen.

schon nur die 64ROPs auf 256Bit mit XDR2 finde ich einfach nur zu komisch ;D
Siehe oben, die Daten sind sicher für die Tonne, aber die XDR2 Möglichkeit ansich ist interessant und mMn spekulationswürdig.

Ailuros
2011-09-07, 13:25:19
Warst Du nicht immer einer der Ersten, die gesagt haben, daß die TFLOPs ziemlich wenig aussagen?

Und ich stehe auch noch dazu; nur mit kleinen Unterschied dass es Architektur-bedingt ist. Unter der Logik dass ALUs != ALUs sind und eben FLOPs != FLOPs.

Und genau so sieht das auch bei der Frage „skalar" oder VLIW aus. AMD ist on record, daß die SP-Zahl und die Peakleistung ansteigen wird. Du hast mehrfach betont, daß AMD wohl weniger auf Frequenzen setzen wird.
Also rechne doch z.B. mit nur 800 MHz und vergleiche die Zahlen dann noch mal neu.

Bei 32CUs @ 800MHz bekomm ich ~3277 GFLOPs.

Und wer sagt eigentlich, daß nvidias Peakleistung nur maximal Faktor 2 steigen wird? Mein Tipp wäre das als untere Grenze.

Alles was NV bis jetzt behauptet hat ist dass die HPC DP Leistung um ca. 2.5x Mal steigen wird. Wenn man mitberechnet wie laecherlich klein die Tesla20x0 DP Leistung am Ende ausgefallen ist und auch noch bedenkt dass Kepler-Teslas wohl auch nicht die GeForce desktop Frequenzen erreichen werden garantiert es mir nicht dass diese 2.5x Mal Steigerung auch zwischen desktop und HPC Kepler gelten wird wenn es zu single precision kommt.

Zugegeben ist hoechstwahrscheinlich NV's Kepler-Tesla DP Leistungs-steigerung so konservativ wie moeglich angelegt um nochmal unangenehmen Ueberraschungen zu entgehen. Aber damit sie 2.5x Mal GF110 SP Leistung erreichen koennen brauchen sie auch >1.8GHz hotclock bei hypothetischen 1024 SPs oder eben mehr SPs bei niedrigerer Frequenz.

Wenn wir dann theoretisch von einer ~3200 zu einer ~3800 GFLOPs Relation sprechen, kann ich es zwar einsehen aber ich meine erste Vorbehalte direkt danach waere TSMC.

Ailuros
2011-09-11, 00:30:54
http://semiaccurate.com/forums/showpost.php?p=133218&postcount=1180

Felixxz2
2011-09-11, 02:25:33
Naja das war mMn ja zu erwarten. Die 6990 ist ja nur 60-70% schneller als eine 6970 und so wies ausschaut wird die 7970 ja viell. über 100% schneller.

Mal sehen, aber ich denke mit 70-90% Mehrleistung gegenüber einer 6970 kann man definitiv rechnen. Obs jetzt die angeblichen 2048 ALUs mit 4 TFLOPs (160% mehr als eine GTX 580 :eek:) darf man aber aber wohl bezweifeln und wenn, dann nicht mit 1GHz. Denke die wird so bei 750-850 MHz landen und 3-3,5 TFLOPs haben.

Selbst dann hätte man ja schon gute 110% mehr als eine 6970, bei Tesselation wohl noch mehr und der Einbruch bei 16xHQ-AF und MSAA wird wohl auch geringer. Dann ist 16xHQ-AF wohl definitiv kostenlos nutzbar (zieht ja bei einer 6970 nur 8%).

MR2
2011-09-14, 09:06:56
Wenigstens ne 28nm Notebook-GPU läuft. Schön wären Daten gewesen, vielleicht kommt noch was.
http://www.xbitlabs.com/news/graphics/display/20110913141155_AMD_Demonstrates_Radeon_HD_7000_Southern_Islands_at_Event.html

M.(to_the)K.
2011-09-14, 11:48:57
Naja das war mMn ja zu erwarten. Die 6990 ist ja nur 60-70% schneller als eine 6970 und so wies ausschaut wird die 7970 ja viell. über 100% schneller.

Mal sehen, aber ich denke mit 70-90% Mehrleistung gegenüber einer 6970 kann man definitiv rechnen. Obs jetzt die angeblichen 2048 ALUs mit 4 TFLOPs (160% mehr als eine GTX 580 :eek:) darf man aber aber wohl bezweifeln und wenn, dann nicht mit 1GHz. Denke die wird so bei 750-850 MHz landen und 3-3,5 TFLOPs haben.

Selbst dann hätte man ja schon gute 110% mehr als eine 6970, bei Tesselation wohl noch mehr und der Einbruch bei 16xHQ-AF und MSAA wird wohl auch geringer. Dann ist 16xHQ-AF wohl definitiv kostenlos nutzbar (zieht ja bei einer 6970 nur 8%).


ich glaube du hast den Kommentar von Charly nicht ganz verstanden. Die leistung der 7970 wird unterhalb der 6990 liegen. Er hatte zunächst gehört das man die 699ß schlagen kann, da hat sich seine quelle aber wohl verhört. Laut seiner quelle wird die 6990 vor der 7970 bleiben. Also sieht man vllt. 50% plus gegenüber der 6970, wobei ich selbst das für schwierig halte.

Ailuros
2011-09-14, 13:23:11
ich glaube du hast den Kommentar von Charly nicht ganz verstanden. Die leistung der 7970 wird unterhalb der 6990 liegen. Er hatte zunächst gehört das man die 699ß schlagen kann, da hat sich seine quelle aber wohl verhört. Laut seiner quelle wird die 6990 vor der 7970 bleiben. Also sieht man vllt. 50% plus gegenüber der 6970, wobei ich selbst das für schwierig halte.

IHVs haben stets eine bis zu 2x Mal Leistungs-steigerung als Ziel bei jeder neuen Generation. Dass der absolute Durchschnitt niedriger sein wird als dieses ist keine wirkliche Ueberraschung.

Wenn ich mir das hier so ansehe: http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6990/21/#abschnitt_performancerating_mit_aaaf

(1920 + 4xAA/16xAF) dann klingt es mir in der Aufloesung gar nicht so unwahrscheinlich dass die 7970 um =/>50% schneller sein koennte als eine 6970. Users haben so oder so selten 30" Bildschirme.

Deinorius
2011-09-14, 17:28:21
Dann kann man in der nächsten Zeit wohl in der Hinsicht diesen Filmtitel verwenden:

Die fetten Jahre sind vorbei. :D

Felixxz2
2011-09-18, 22:50:20
Naja aber wenn die 2048 ALUs stimmen, plausibel klingen sie allemal, dann wird die nutzbare Arithmetikleistung, und darauf kommts bei ner heutigen GPU an, mehr als doppelt so hoch ausfallen, bei um die 800-900 MHz.

Zusammen mit der erhöhten TMU/ROP Leistung, der neuen Chiporganisation und der vermutlich stark gesteigerten Tesselationperformance dürfte das schon für eine Steigerung ~ 100% sorgen, mit späteren Treibern natürlich mehr. Ist ja immer so, dass bei ner neuen Architektur die Treiber über Monate und Jahre Leistung rauskitzeln.

Aber wir werden es bal sehen, ich glaub schon, dass sie dieses Jahr noch rauskommen, zumindest die Radeons.

Skysnake
2011-09-18, 23:02:06
Es wird auf jeden Fall eng werden mit diesem Jahr.

V2.0
2011-09-19, 09:04:48
Naja aber wenn die 2048 ALUs stimmen, plausibel klingen sie allemal, dann wird die nutzbare Arithmetikleistung, und darauf kommts bei ner heutigen GPU an, mehr als doppelt so hoch ausfallen, bei um die 800-900 MHz.

Zusammen mit der erhöhten TMU/ROP Leistung, der neuen Chiporganisation und der vermutlich stark gesteigerten Tesselationperformance dürfte das schon für eine Steigerung ~ 100% sorgen, mit späteren Treibern natürlich mehr. Ist ja immer so, dass bei ner neuen Architektur die Treiber über Monate und Jahre Leistung rauskitzeln.

Aber wir werden es bal sehen, ich glaub schon, dass sie dieses Jahr noch rauskommen, zumindest die Radeons.

SP != SP und Flop != Flop. Ohne die Architektur dahinter zu kennen sagt die Anzahl an SPs gar nichts über die Leistungsfähigkeit.

Gipsel
2011-09-19, 11:48:22
NordicHardware (http://www.nordichardware.com/news/71-graphics/44180-amd-hd-7000-delayed-to-2012.html) heizt die Gerüchteküche mal wieder an. Angeblich gibt es keine HD7000er mehr dieses Jahr.

Der Artikel zeigt aber auch ein paar Widersprüche, z.B. "The HD 6000 series is not selling as well as AMD would like us to believe. This has resulted in low store stocks" (ja ist klar, keiner kauft die und deswegen sind die Läden leer :freak:). Auch die Bildunterschrift ("Large portions of AMD's HD 7000 series is based on the same architecture as HD 6900") klingt erstmal nicht unbedingt überzeugend (Gründe dafür gibt es hier im Thread).

Hugo78
2011-09-19, 12:28:20
Auch die Bildunterschrift ("Large portions of AMD's HD 7000 series is based on the same architecture as HD 6900") klingt erstmal nicht unbedingt überzeugend (Gründe dafür gibt es hier im Thread).

Wenn nur die 7900er auf GCN basieren und der Rest auf VILW4, passt diese Aussage doch.
Heißt ja nicht, dass dieses VILW4 nicht noch etwas bessert wurde, abseits des Shrink.

Cyphermaster
2011-09-19, 12:47:56
Der Artikel zeigt aber auch ein paar Widersprüche, z.B. "The HD 6000 series is not selling as well as AMD would like us to believe. This has resulted in low store stocks" (ja ist klar, keiner kauft die und deswegen sind die Läden leer :freak:). Auch die Bildunterschrift ("Large portions of AMD's HD 7000 series is based on the same architecture as HD 6900") klingt erstmal nicht unbedingt überzeugend (Gründe dafür gibt es hier im Thread).Ich denke, da hast du dich aufgrund der etwas unüblichen Formulierung verlesen. Der Bezug auf die "not selling as well" usw. Passage scheint mir nicht der auf das "This" zu sein. Sinngemäß würde ich das so lesen, daß es zwar stimmen mag, daß ordentliche Nachfrage v.a. von den OEMs da ist, so wie AMD sagt (das wäre der Bezug des "This" imho, also das "like AMD would like us to believe"), und das die Verfügbarkeit beeinträchtigt - aber daß da mehr dahinterstecken würde ("But there's more to it"). Nämlich die in den nächsten Sätzen vermutete schlechte Ausbeute und daher mangelnde Produktionskapazitäten im 28nm-Prozeß bei TSMC.

Als einzig "harte" Info geben sie aber den Satz "The HD7000 series? It launches in 2012". an, der Rest sind nebulöse "other sources" bzw. eigene Theorien - imho schon ziemlich dünn für die Schlußfolgerungen. Wie sie auf den Bild-Untertitel kommen, ist mir auch eher schleierhaft. Keine Quelle, keine Begründung.

V2.0
2011-09-19, 12:52:08
Zweifel daran, dass die gesamte Produktpalette der 7X00 Generation auf der CGN Architektur basieren wird, gibt es schon lagen.

Gipsel
2011-09-19, 13:16:26
Zweifel daran, dass die gesamte Produktpalette der 7X00 Generation auf der CGN Architektur basieren wird, gibt es schon lagen.
Ja, aber die Sache mit den Driver-IDs zeigt eigentlich, daß es mehr GCN- als VLIW4-Modelle geben sollte. Im Prinzip ist ohne einen dummen Shrink von Cayman (mit Wiederverwertung der Cayman-ID) überhaupt keine VLIW4-ID mehr frei (aber 3 GCN IDs).

Gipsel
2011-09-19, 13:22:53
Ich denke, da hast du dich aufgrund der etwas unüblichen Formulierung verlesen. Der Bezug auf die "not selling as well" usw. Passage scheint mir nicht der auf das "This" zu sein.Dann habe ich mich nicht verlesen, sondern dann können die von NordicHardware offenbar keinen zusammenhängenden Text schreiben und haben die Sätze zwischen den Absätzen bunt durcheinander gewürfelt. Der Text widerspricht sich so ja praktisch selbst. :rolleyes:

Cyphermaster
2011-09-19, 13:46:18
Zweifel daran, dass die gesamte Produktpalette der 7X00 Generation auf der CGN Architektur basieren wird, gibt es schon lagen.Das ist richtig - es aber wie in der Bildunterschrift als Faktum zu formulieren, ist schon etwas mehr, als nur Zweifel oder Vermutungen zu äußern.Dann habe ich mich nicht verlesen, sondern dann können die von NordicHardware offenbar keinen zusammenhängenden Text schreiben und haben die Sätze zwischen den Absätzen bunt durcheinander gewürfelt. Der Text widerspricht sich so ja praktisch selbst. :rolleyes:Wie gesagt, die Formulierung des Ganzen ist unüblich/umständlich, aber nicht falsch, und könnte durchaus einfach der Transskription aus dem Schwedischen geschuldet sein. Mich stört wenn, dann eher der Grad der -teilweise nicht als Spekulation kenntliche- Kaffeesatzleserei gegenüber den vorhandenen Informationen (Zitat Artikelende über die Aussage ihrer Quellen: "The HD7000 series? It launches in 2012". Any other information on 28nm was not mentioned).

S940
2011-09-19, 13:46:20
NordicHardware (http://www.nordichardware.com/news/71-graphics/44180-amd-hd-7000-delayed-to-2012.html) heizt die Gerüchteküche mal wieder an. Angeblich gibt es keine HD7000er mehr dieses Jahr.

Schlecht übersetzt, im Orginal heißt es:
HD 6000-serien ska inte sälja så bra som AMD vill ge skenet av enligt våra källor. Det kan vara en effekt av dåliga butikslager, men det sägs vara mer än så som ligger bakom.
http://www.nordichardware.se/nyheter/71-grafik/44175-amd-hd-7000-lanseras-inte-foerraen-2012-exklusivt.html#comments
Übersetzt:
Die 6000er Serie soll sich laut unseren Quellen nicht so gut verkaufen wie AMD den Anschein erwecken will. Es kann [auch] ein Effekt von schlechter Lagerhaltung sein, aber es wird gesagt, dass mehr dahinter steckte....

Danach kommt halt die Story mit der knappen 28nm Fertigung, das verstehe ich so, dass anscheinend auch die 40nm Fertigung noch knapp ist. Eigene Spekulation: Oder AMD hat einfach zu wenig bestellt. Damit würde sich der Hund aber wieder in den Schwanz beißen, denn das würde ja bedeuten, dass die Nachfrage wirklich gut ist, zumindest größer als geplant :freak:

Edit:
Interessant ist auch die Komemntarsektion, da schreibt einer:
bitcoin har svalt alla amd kort.
Sprich, bitcoin habe alle AMD Karten "verschluckt". So abwägig ist das gar nicht, wurde in den letzten Monaten ja durch die Medienmaschine gedreht.

Ailuros
2011-09-19, 13:54:43
S940,

AMD hat nicht zu wenig bestellt, sondern die Kapazitaeten werden vorruebergehend zu knapp sein (egal wo und mit welcher Kombination von foundries) um alles decken zu koennen.

Gipsel
2011-09-19, 13:58:05
Wie gesagt, die Formulierung des Ganzen ist unüblich/umständlich, aber nicht falsch, und könnte durchaus einfach der Transskription aus dem Schwedischen geschuldet sein.Doch, wie es da steht, ist es falsch.
Aber Du hast damit Recht, daß die das offenbar nicht richtig aus dem Schwedischen übertragen haben. In der Schedischen Version steht in etwa das drin:
[Laut unseren Quellen] verkaufen sich die HD6000er nicht so gut wie AMD den Eindruck erweckt. Dies mag zum Teil an den niedrigen Lagerbeständen liegen, aber da steckt vielleicht noch mehr dahinter.

Edit:
S940 war schneller.

Dural
2011-09-20, 09:58:45
es dürfte klar sein das wir dieses jahr keine 7970 mehr sehen werden, die aussagen von diversen quellen und die aktuelle situation sind dazu einfach zu eindeutig.

ich denke eher das wir froh sein dürfen das die im Q1 kommt... gut möglich das AMD ihr ego etwas aufpollieren will und die 7970 sehr früh bringt, wie wir es bei der 5870 gesehen haben, das ist dann einfach ein null oder sogar verlustgeschäft... aber wenn man bei den CPUs nichts reist sollen sie sich das halt "gönnen"

bei NV und der 680 gehe ich mittlerweilen sogar von min. Q2 aus.

deekey777
2011-09-20, 10:08:18
Welche "diversen quellen" sollen das sein?

Cyphermaster
2011-09-20, 10:30:08
es dürfte klar sein das wir dieses jahr keine 7970 mehr sehen werden, die aussagen von diversen quellen und die aktuelle situation sind dazu einfach zu eindeutig."Eindeutig" würde ich nicht sagen. Aber die Indizien deuten zumindest darauf hin.

Was ich mir als "worst case" für uns Kunden noch vorstellen könnte, wäre wirklich ein GCN/VLIW-Split wie von Hugo78 beschrieben: Man generiert die für die Nachfrage fehlenden neuen Karten der unteren Segmente (Edit: gemeint alles unterhalb HD78x0/79x0) aus dem gut verfügbaren und aus dem gut laufenden Prozeß stammenden Vorgängerchip, so wie das "GF100-Recycling". Etwas weniger Spannung, etwas höherer Takt, und voila, aus HD6 mach HD7. Muß ja nicht notwendigerweise immer automatisch eine schlechte Karte rauskommen, aber für die Transparenz beim Kauf wäre das schon sehr übel, da die Chips schon arg unterschiedlich sein werden.

Ailuros
2011-09-20, 13:21:04
http://www.fudzilla.com/graphics/item/24125-no-radeon-hd-7000-series-this-year

Anfang der Massenproduktion (wie es schon seit einigen Wochen im Hintergrund kursiert) wohl im November und nicht diesen Monat wie original projeziert.

Dural
2011-09-20, 13:25:17
"Massenproduktion"

:wink:

Ailuros
2011-09-20, 13:47:44
"Massenproduktion"

:wink:

Bei einem hypothetischen Produktions-start in diesem Monat haetten sie Q4 2011 durchaus noch geschafft; das es nichts damit werden wird ist schon seit einiger Zeit bekannt. Haelt AMD aber nicht davon ab noch einen moeglichen paperlaunch noch dieses Jahr zu bringen. Wie es dann wieder vom anderen Ufer (gerechtfertigt) donnern wird will ich mir noch gar nicht vorstellen.

Kepler ist wenn alles nach Plan laeuft fuer April projeziert. Ob sie auch zu einer "Architektur-vorstellung" mit bunten slides davor greifen werden keine Ahnung, aber so unmoeglich als Spoiler klingt es mir gar nicht.

Gipsel
2011-09-20, 14:09:10
"Massenproduktion"

:wink:
Die projezierten Waferzahlen von TSMC in Q4/2011 reichen eigentlich locker für eine wirkliche Massenproduktion eines High-End-Chips wie Tahiti. Soo viele benötigt man da nämlich gar nicht.

Wenn die Performance- und Mainstream-GPUs dann jeweils 1 bis 2 Monate später in die Massenproduktion gehen (um einen Launch des Lineups in ~4 Monaten über die Bühne zu bekommen), könnte deren Produktionsstart also um den Jahreswechsel bzw. irgendwann im Februar liegen, wenn Ailuros mit dem Start für Tahiti im November Recht hat, also mit dem stärkeren geplanten Ramp der 28nm bei TSMC zusammenfallen (außerdem könnte AMD einen Teil der GPUs, also z.B. ein Modell, auch noch bei GF fertigen lassen).
Dann gibt es vielleicht erste Tests von Tahiti gerade noch zu Weihnachten oder so mit den wirklichen Produktlaunches verteilt im Bereich von Januar bis Mai.

Screemer
2011-09-20, 14:12:23
Das weihnachtsgeschäft zu versäumen wäre schon bitter. Wegen einem knappen Monat.

Ailuros
2011-09-20, 14:15:27
Der erste Schub an SI chips bleibt vorruebergehend bei TSMC; spaeter wird ein Anteil dieser (vielleicht sogar eher refresh SI chips) zu GloFo verfrachtet. Momentan gibt es bei GloFo keine Kapazitaeten mehr fuer kompliziertere chips von dem was sich herumspricht; und ja wenn die diversen Thesen stimmen macht es auch Sinn.

Gipsel
2011-09-22, 15:59:40
Jetzt hat auch Charlie mal was zu der Trinity- und Notebook-GPU-Vorführung letztens geschrieben (http://semiaccurate.com/2011/09/22/amd-shows-off-28nm-gpus-and-trinity/). Er ist so ziemlich der Einzige, der gehört haben will, daß der vorgeführte Notebook-Chip GCN war (also die SI/Tahiti-Familie).

Schon seit Monaten mein Tipp: Tahiti, CapeVerde sowie Pitcairn (und die zugehörigen Mobilvarianten) sind GCN, Lombok/Thames wohl eher nicht.

Skysnake
2011-09-22, 17:17:48
Er ist nicht der Einzige.

Direkt während dem Fusion Developer Summit, gabs einen Beitrag im Internet zu finden, in dem einer von AMD sagte, dass Trinity auf der kommenden! GPU Architektur aufsetzt, wie die HD7k. Das Video war dann aber recht schnell wieder verschwunden -.-

Knuddelbearli
2011-09-22, 18:30:01
schade ich hatte 4d und 5d lieber da meine programme die rohleistung voll nutzen konnten

Gipsel
2011-09-22, 18:54:38
Er ist nicht der Einzige.

Direkt während dem Fusion Developer Summit, gabs einen Beitrag im Internet zu finden, in dem einer von AMD sagte, dass Trinity auf der kommenden! GPU Architektur aufsetzt, wie die HD7k. Das Video war dann aber recht schnell wieder verschwunden -.-
Trinity ist aber ziemlich sicher VLIW4. Das wurde sowohl beim AFDS gesagt (da gab es nur kurz eine Verwirrung, weil zuerst wegen einem Mißverständnis gesagt wurde, es basiere auf der HD6800er Architektur), als auch von Dave Baumann im B3D-Forum nochmal bestätigt. Erst der Nachfolger von Trinity (wohl 2013) wird GCN mitbringen.

Skysnake
2011-09-22, 20:00:40
Na dann gab es sogar eine doppelte Verwirrung, denn das hatte mich ja so überrascht bei dem Interview, aber wie gesagt, paar Stunden später, wars nicht mehr zu finden im Netz.

Gipsel
2011-09-26, 15:57:48
Um mal die Spekulationen um die Auslegung der verschiedenen SI-Karten anzuschieben, wann tauchen eigentlich die ersten gefälschten Folien mit diesen Spezifikationen (http://semiaccurate.com/forums/showthread.php?p=135615#post135615) auf? :rolleyes:

Tahiti (GCN):
32 CUs (2048 SPs), 128 TMUs
4 triangle setups, 4x16 pixel rasterizer, 3 ACEs
64 ROPs, 1MB L2 cache
The 7950 has 4 CUs and 16 TMUs deactivated (28 CUs, 1792 SPs, 112 TMUs). Later, a 7930 may show up with 24 CUs (1536 SPs and 96 TMUs) to close the gap in the lineup to the 7800 series.

CapeVerde (GCN):
20 CUs (1280 SPs), 80 TMUs
2 triangle setups, 2x16 pixel rasterizer, 1 ACE
32 ROPs, 512kB L2 cache
The 7850 has 4 CUs and 16 TMUs deactivated (16 CUs, 1024 SPs, 64 TMUs).

Pitcairn (GCN):
12 CUs (768 SPs), 48 TMUs
1 triangle setup, 1x16 pixel rasterizer, no ACE
16 ROPs, 256kB L2 cache
the 7600 series has 4 CUs and 16 TMUs deactivated (8 CUs, 512 SPs, 32 TMUs).

The market below that will be served by Llano/Trinity on the APU side and legacy/refresh products for discrete GPUs.

Felixxz2
2011-09-26, 17:17:38
Haha wie er auch noch direkt drunter schreibt, dass es nur ein Tipp von ihm ist, über den er nicht mal lange nachgedacht hat :freak:


Klingt zwar auf den ersten Blick plausibel, aber die Rasterizer-Leistung von Cape Verde und Pitcairn wäre viel zu nderig im Vergleich zur Arithemetikleistung.

Cape Verde bräuchte 3 Rasterizer und Pitcairn 2. Pitcairn würde in Sachen praktisch nutzbarer Leistung irgendwo beim 5800 Niveau sein, die laut AMD einen zweiten Rasterizer dringend brauchen, damit der Chip nicht im Frontend stallt.

Auch das ROP/TMU Verhältnis zur ALU Leistung passt so nicht. Einzig Tahiti klingt realistisch, wobei hier zur Steigerung der Tesselationleistung auch 5 oder 6 Frontends denkbar wären.

Ist aber natürlich alles makulatur, da frei erfunden.

Gipsel
2011-09-26, 17:45:26
Haha wie er auch noch direkt drunter schreibt, dass es nur ein Tipp von ihm ist, über den er nicht mal lange nachgedacht hat :freak:Er? Ich! :D
Klingt zwar auf den ersten Blick plausibel, aber die Rasterizer-Leistung von Cape Verde und Pitcairn wäre viel zu nderig im Vergleich zur Arithemetikleistung.Vergleiche das mal mit heutigen GPUs. Und denke dabei auch daran, wann und wofür die Rasterleistung wirklich benötigt wird und wie das auf heutigen GPUs in diesen Situationen einbricht ;). Wenn man dieses behebt (so in Richtung nvidia-ähnliches Leistungsverhalten bei Tess), ist das vollkommen ausreichend. Eine GF104/114 macht z.B. auch nur 2 Dreiecke/Sekunde und kann nur 16 Pixel/Takt rastern.
Cape Verde bräuchte 3 Rasterizer und Pitcairn 2.Wofür? Cayman (CapeVerde dürfte nicht exorbitant schneller werden) hat zwei und bricht mit Tess noch unverhältnismäßig ein (weit unter 2 Dreiecke/Takt). Wenn das Problem gelöst wird, sehe ich nicht, daß man in der Leistungsklasse mehr als 2 benötigt.
Pitcairn würde in Sachen praktisch nutzbarer Leistung irgendwo beim 5800 Niveau sein, die laut AMD einen zweiten Rasterizer dringend brauchen, damit der Chip nicht im Frontend stallt.Wie kommst Du denn darauf? Das Ding wäre vielleicht so bei 5830er-Niveau, deutlich unterhalb einer 5870. Das wäre das kleinste Modell des Lineups (wenn man von der hypothetischen teildeaktivierten 7600er-Serie absieht)! Und auch hier trifft die Sache mit der hoffentlich gesteigerten Effizienz bei Tessellation dazu.
Auch das ROP/TMU Verhältnis zur ALU Leistung passt so nicht.Warum? Mehr Highend => mehr AA und hohe Auflösungen => relativ etwas mehr ROPs. So groß sind die Änderungen über das Lineup im Übrigen gar nicht.
Daß ALU:TMU-Verhältnis ist übrigens fest und durch die GCN-Architektur definiert (4 TMUs pro CU), solange AMD nicht irgendwann kleinere CUs mit nur 32 SPs für das Einstiegsmodell bringen sollte (z.B. für den Brazos/Zacate-Nachfolger, in dem momentan auch 2 SIMDs halber Größe stecken [2x40 SPs mit insgesamt 8 TMUs]).
Einzig Tahiti klingt realistisch, wobei hier zur Steigerung der Tesselationleistung auch 5 oder 6 Frontends denkbar wären.Willst Du in die Richtung von 100 Millionen Dreiecken pro Frame oder was sollen die alle machen? :eek:
Ich dachte, der Kritikpunkt würden hier die 64 ROPs sein mit der Begründung, daß 32 auch noch reichen würden. Meiner Meinung nach könnte das aber knapp werden, wenn man die nicht deutlich aufbohrt.

64ROPs gehen übrigens ohne Probleme auch an einem 256Bit-Interface. Eine Alternative wären übrigens ansonsten auch 3x16 Pixel Rasterizer, 48ROPs und ein 384Bit Speicherinterface (ich denke übrigens, AMD behält eine Parität zwischen Rasterizer-Kapazität und ROPs, anders als nvidia).
Ist aber natürlich alles makulatur, da frei erfunden.Na mal sehen, wie es nachher wirklich aussieht. :D
Denn interessant ist ja z.B. die Reaktion von Copper darauf. :rolleyes:

AnarchX
2011-10-05, 09:25:59
http://img440.imageshack.us/img440/6420/003gkh.jpg (http://imageshack.us/photo/my-images/440/003gkh.jpg/)

http://www.4gamer.net/games/135/G013536/20111005028/

Skysnake
2011-10-05, 10:40:24
hm....

Viel neues gibts ja da jetzt nicht, oder ich verstehe es nicht mit dem Kauderwelsch der Übersetzung. -.-

Ist doch absolut nichts neues, wenn man die Vorstellung parallel zum IDF bedenkt.

Dural
2011-10-05, 13:15:10
unter dem DIE Foto steht ja 6600M ?!?

Gipsel
2011-10-05, 13:22:09
unter dem DIE Foto steht ja 6600M ?!?
Da steht, daß das Die etwa so groß ist wie das der 6600M, also wohl dessen Nachfolger sei.

john carmack
2011-10-05, 13:25:27
Wie rechnet man eigentlich die Struckturbreiten verkleinerrug gememssen auf die Chip Fläche aus?

So vielleicht?

65nm x 65nm = 4225nm²
55nm x 55nm = 3025nm²
40nm x 40nm = 1600nm²
28mn x 28nm = 784nm²

Belegt dann ein Transistor in 28nm die Fläche von 784nm² ?

Oder wie muss ich mir das vorstellen?

boxleitnerb
2011-10-05, 13:27:19
Die Angabe bezieht sich soweit ich weiß auf die Gatelänge bzw. -breite - je nachdem aus welcher Richtung du schaust. Also grob (!) die Distanz zwischen Source und Drain.

Skysnake
2011-10-05, 13:50:45
Soweit ich das verstanden habe/weiß bezieht man sich bei der nm Angabe darauf, welche Struktur man noch auflösen kann. Also wenn du z.B. zwei parallel zueinander verlaufende Leitungen hast, wie weit diese auseinander liegen müssen, damit du beide noch darstellen kannst. Also 28nm+28nm=56nm die zwei Leitungen brauchen.

Bei Transitoren sieht das wieder sehr sehr sehr sehr viel komplizierter aus, da man nicht nur einen Transistor hat, den man als Einheit produziert, sondern teilweise 6+ Transistoren zusammen als eine Einheit aufgebaut werden. Wenn du das real siehst, kommst du teilweise echt nicht mehr drauf, was das jetzt darstellen soll, bis du das Blockschaltbild gezeigt wird.

Wie viel Platz ein Transistor braucht kann man daher nicht so genau sagen. Intel und AMD unterscheiden sich daher auch in der Packdichte, bzw der einzelnen Hersteller wie Intel, GF, etc. Selbst innerhalb eines Herstellers gibt es Unterschiede. SRAM-Zellen sind z.B. extrem hoch optimiert, wenn du dagegen dir mal ne ALU anschaust, dann braucht die viel mehr Platz für die gleiche Anzahl an Transistoren etc.

ndrs
2011-10-05, 13:56:19
Also 28nm+28nm=56nm die zwei Leitungen brauchen.

Ich glaube es sollten dann 3*28nm sein: Leitung + Abstand + Leitung.
Aber ich glaub, die Diskussion mündet in Erbsenzählerei. Im Groben sind, soweit ich weiß, tatsächlich Leitungsbreiten bzw. Abstände gemeint.

john carmack
2011-10-05, 14:03:43
Aha... ok... :) doch etwas komplizierter als ich dachte... :)

Aber wenn ich jetzt rechne: 40 - 30% = 28

Bedeutet das, das ich den gleichen Chip (40nm) mit 30% weniger (also in 28nm) Platzbedarf bauen kann?

Gipsel
2011-10-05, 14:05:20
Aha... ok... :) doch etwas komplizierter als ich dachte... :)

Aber wenn ich jetzt rechne: 40 - 30% = 28

Bedeutet das, das ich den gleichen Chip (40nm) mit 30% weniger Platzbedarf bauen kann?
(28/40)² = 0,49

Aber das ist meist etwas gerundet. Faustregel: zwischen zwei vollen Nodes halbiert sich der Flächenbedarf.

Spasstiger
2011-10-05, 14:06:41
Die Angabe bezieht sich soweit ich weiß auf die Gatelänge bzw. -breite - je nachdem aus welcher Richtung du schaust. Also grob (!) die Distanz zwischen Source und Drain.
Jo, in der Regel entspricht die Gatebreite der minimalen Strukturbreite. Auch Abstände zwischen Strukturen, die keinen Kontakt haben sollen, müssen mindestens der minimalen Strukturbreite entsprechen, in der Regel sind es sogar Vielfache davon. Ebenso gibt man meist die Breite anderer Strukturen als der Gatebreite in Vielfachen der minimalen Strukturbreite an. Einfach mal nach "VLSI design rules" suchen.
Man kann von der minimalen Strukturbreite nicht auf die Größe eines Transistors schließen. Jeder Prozess hat andere Design Rules und ein Chip kann auch nicht auf einzelne, völlig identische Strukturen reduziert werden. Wenn man z.B. eine 6T-SRAM-Zelle entwirft, wird man nicht sechs gleichartige Transistoren nebeneinander setzen und verbinden, sondern man wird eine Gesamtstruktur entwerfen, die die Funktion von sechs Transistoren realisiert, aber flächensparender ist als sechs einzelnen Transistoren.
Die konkrete Flächenbelegung einer 6T-SRAM-Zelle ist übrigens ein beliebtes Maß, wenn man verschiedene Fertigungsprozesse vergleicht. Da kann es auch durchaus Unterschiede bei gleicher minimaler Strukturgröße geben.

/EDIT: Ich hab das Posting von Skysnake nicht vorher gelesen. ;) Mein Wissen hab ich aus einer Vorlesung zum Entwurf integrierter Schaltungen.

Skysnake
2011-10-05, 15:43:23
Und ich habs aus unserer "Einführung in die technische Informatik"-Vorlesung. Da haben wir auf nem FPGA einen Prozessor gebaut. :biggrin: War sehr cool, was der Prof. gemacht hat.

Danach sind wir nochmals in 1-2 Vorlesungen drauf eingegangen. Nach diesem und nächstem Semester kann ich da aber vielleicht nochmals genaueres sagen, werde wohl zwei Vorlesungen zu ASIC-Designs hören. Es hat schon seine Vorzüge, wenn an der Uni gerade ein eigenes ASIC in <90nm in Arbeit ist :biggrin:

Spasstiger
2011-10-05, 17:22:38
Bei Wikipedia gibts auch eine Grafik zu einem NAND-Gatter in CMOS-Technologie, wie man es physikalisch aufbauen könnte:

http://upload.wikimedia.org/wikipedia/commons/thumb/c/c9/CMOS_AND_Silicon.svg/200px-CMOS_AND_Silicon.svg.png
Quelle: http://commons.wikimedia.org/wiki/File:CMOS_AND_Silicon.svg

Hier sind die Metallleitungen (blau) schmaler als die Poly-Si-Gates (grün). Das heißt die minimale Strukturbreite müsste hier der Breite der Metallleitungen entsprechen. Dieses NAND-Gatter würde dann ungefähr eine Fläche von 11,5*21 Lambda^2 belegen, wobei Lambda der minimalen Strukturbreite entspricht.
Bei Lambda = 40 nm wäre das eine Fläche von 0,39 µm². Da ein NAND-Gatter die Funktion von vier Transistoren realisiert, entspräche das rund 0,1 µm² pro Transistor. Das wären umgerechnet runde 10 Mio. NAND-Transistoren pro mm², wobei man so hohe Integrationsdichten mit GPUs aufgrund der Komplexität und elektrischen Anforderungen nicht erreicht.
AMD integriert bei Cayman 2,64 Mrd. Transistoren auf 389 mm² Fläche, das sind 6,8 Mrd. Mio. Transistoren pro mm².
Nvidia packt beim GF110 durchschnittlich sogar nur rund 5,8 Mrd. Mio. Transistoren auf einen mm².

/EDIT: Danke für die Korrektur, meinte natürlich Mio. pro mm², nicht Mrd. pro mm².

Dural
2011-10-05, 18:23:45
Mio. meinst du ja sicher ;)

Hugo
2011-10-05, 18:56:51
ich denk er meint das so
bei AMD 0,68 Mrd je cm² oder 6,786 Mio je mm²

Gipsel
2011-10-05, 18:58:32
ich denk er meint das so
bei AMD 6,8 Mrd je cm² oder 6,786 Mio je mm²
Da fehlt ein Faktor 10. Sind nur 0,68 Mrd. pro cm². ;)

Hugo
2011-10-05, 20:13:45
stimmt verschrieben ;)

Gipsel
2011-10-05, 22:50:12
http://img440.imageshack.us/img440/6420/003gkh.jpg (http://imageshack.us/photo/my-images/440/003gkh.jpg/)

http://www.4gamer.net/games/135/G013536/20111005028/
Mal zurück zu dem Bild. Das Die hat so etwa 130mm² (Turks hat 118mm²) und könnte schon der kleinste GCN-Chip sein (HD7600/7700).
Mögliche Spezifikation:
12 CUs (768 SPs), 48 TMUs
1x16 Pixel Rasterizer
16 ROPs, 128Bit Speicher-Interface

Für die 7600er-Karten werden 4 CUs deaktiviert (8 CUs, 512 SPs, 32 TMUs). Sollte insgesamt deutlich schneller als Juniper sein (die volle Version).

Duplex
2011-10-05, 22:51:57
@Gipsel
Was erwartest du vom Top Modell HD7970?
50-70% schneller als der Vorgänger?

Gipsel
2011-10-05, 22:57:53
@Gipsel
Was erwartest du vom Top Modell HD7970?
50-70% schneller als der Vorgänger?
Ist das bei einem Die-Shrink nicht immer in etwa die Erwartung bei GPUs?

Durch die andere Architektur könnte das aber stärker fluktuieren, je nach Einsatzgebiet bzw. dem Flaschenhals im jeweiligen Benchmark/Game.

Mein Tipp mit 32 CUs (2048 SPs, 128 TMUs) und den 4 Rasterizern sowie 64 ROPs (an einem 256Bit-Interface) stehen hier ja schon im Thread. Falls es ein 384Bit-Interface werden sollte, dann eben 48 ROPs. Was das dann genau für eine Leistung bringen wird, k.A.

Hugo
2011-10-06, 07:37:40
ich denke, dass 32 CUs (2048 SPs) ein wenig viel sind oder?
im vergleich zu den NV SPs (ich denk mal Kepler ist im besten Fall ein doppelter Fermi 1024 SPs) finde ich 2048 CUs zu viel

eher zw 24 - 28 CUs wenn das technisch möglich ist oder?

mboeller
2011-10-06, 07:55:46
Durch die andere Architektur könnte das aber stärker fluktuieren, je nach Einsatzgebiet bzw. dem Flaschenhals im jeweiligen Benchmark/Game.


Sollte es nicht genau anders herum sein?
:
ATi/AMD musste bisher ja immer die Treiber anpassen/patchen um die optimale Performance bei bestimmten Spielen zu erreichen.
Durch die neue Architektur ist das nicht mehr wirklich erforderlich, da selbst die Fallback-Performance schon nahe am Optimum ist. Also so wie bei Nvidia.
Wenn ich die alten GCN-Slides noch richtig in Erinnerung habe, dann stand das so ähnlich auch drauf.

V2.0
2011-10-06, 08:15:00
Ich denke auch, dass CGN eher für eine überdurchschnittlich großen Sprung spricht. Ich würde 80%+ gegenüber der der 6X00 Familie erwarten.

Skysnake
2011-10-06, 09:12:48
Naja, es kommt schon drauf an. Wenn du die Karte von der Rohleistung her stärker machst, verschlimmerst du den PCI-E Flaschenhals und auch den RAM-Flaschenhals.

Es wäre also durchaus möglich, das sich an der reinen Rohleistung gar nichts tut.

Ich gehe eher von 16 ComputeUnits aus. Das wären vier 4er-Blöcke. Das würde für ein 256Bit Interface dann 64Bit je 4er-Block bedeuten (jaja ist nicht so, aber solche Verhältnisse gibt es eigentlich immer). Alternativ könnte ich mir noch ein 512Bit Interface, oder eventuell sogar ein 384 Bit Interface vorstellen. Bei 512Bit dann halt auch 16 oder 32 und bei 384 halt 24 CUs.

Irgendwie so etwas werden wir wohl zu sehen bekommen.

V2.0
2011-10-06, 09:24:51
CGN sollte für eine bessere durchschnittliche Auslastung der einzelnen CU sorgen, so dass man unabhängig von der Anzahl mit einer besseren Leistung rechnen darf. CGN wäre ein ziemlich Fail, wenn sie nicht effektiver wäre als die alte Architektur. Ich würde eher erwarten, dass der Zuwachs an SPs geringer ausfällt als erwartet, da die Auslastung und Effizienz steigt, was aber eben auch nicht ohne einen Mehrbedarf an Transistoren zu realisieren sein dürfte.

Deinorius
2011-10-06, 09:37:09
CGN? Meint ihr nicht eigentlich GCN?

Ailuros
2011-10-06, 09:41:59
CGN sollte für eine bessere durchschnittliche Auslastung der einzelnen CU sorgen, so dass man unabhängig von der Anzahl mit einer besseren Leistung rechnen darf. CGN wäre ein ziemlich Fail, wenn sie nicht effektiver wäre als die alte Architektur. Ich würde eher erwarten, dass der Zuwachs an SPs geringer ausfällt als erwartet, da die Auslastung und Effizienz steigt, was aber eben auch nicht ohne einen Mehrbedarf an Transistoren zu realisieren sein dürfte.

Dem schliesse ich mich zwar an, aber Gipsel hatte in seinen vergangenen Beitraegen auch recht dass es stets relativ ist zu dem was jeglicher IHV von seiner direkten Konkurrenz erwartet.

Mein Bauchgefuehl sagt mir erstmal dass vielleicht der chip (Tahiti) eben nicht so mager bzw. klein ist wie manche eigentlich erwarten. Muss zwar nicht stimmen aber bei theoretisch problematischen yields spielen die Herstellungskosten die groesste Rolle IMHO. Je komplizierter ein jeglicher chip desto hoeher die Herstellungskosten und umso schwerer ihn ohne Verlust sehr frueh herzustellen.

robbitop
2011-10-06, 09:46:49
GCN soll aber kein Hotclock für die ALUs haben, oder? Ergo braucht man auch mehr davon als bei NV.
Derzeitige VLIW5 Auslastung beträgt im Mittel 3,5 / 5. Die VLIW4 Auslastung wohl ~3/4.
Maximale Effizienzsteigerung lässt also nur 33 % mehr zu. Ergo wird man schon deutlich die Anzahl der Ausführungseinheiten nach oben treiben müssen.

Oder habe ich hier zu kurz gedacht?

Skysnake
2011-10-06, 09:48:39
Ja aber eben genau deswegen gehe ich eher davon aus, dass die Rohleistung nicht ansteigt bei den ersten Chips. Erst die zweite Generation, wird dann richtig rein hauen, bzw. zumindest werden nicht gleich die Top-Karten gebracht. Davon gehe ich zumindest aus.

Gerade für GPGPU-Computing ist es ja viel wichtiger, das man die Rohleistung auch in mehr Anwendungen umgesetzt bekommt, anstatt die Rohleistung noch weiter zu steigern, ohne das am Ende merklich mehr beim User ankommt.

EDIT:
@Robbit:
Ja hast du. Denn recht oft, naja eigentlich immer außer bei Brutforce-Attacken, erreichst du nicht die theoretische Rohleistung, da du die ALUs nicht mehr mit Daten versorgen kannst. Die Parallelisierung etc. spielt da eher eine untergeordnete Rolle. Das Problem ist wirklich, die Daten schnell genug an die ALUs zu bringen. Ich glaub bei der 5870 musst du jeden Datensatz 16/32 mal oder so wiederverwenden, bevor du neue Daten lädst, damit dein RAM nicht zum Flaschenhals wird. Wir haben das letztes Semester an einigen Beispielen gesehen. Das Einzige was uns eingebremst hat, war die Bandbreite vom Speicher. Das war halt wirklich der limitierende Faktor. Da haben wir uns dann halt den Kopf drüber zerbrochen und TATA schon hatten wir eine Leistungssteigerung. Über 1/4 bis 1/2 der Rohleistung sind wir aber glaube ich nie raus gekommen. Klar, mit Optimierungen holst du da wohl noch einiges raus, aber das ist halt sehr viel Aufwand.

GPUs müssen es einfacher machen, die Rohleistung auch zu nutzen. Das war in der GEschichte der IT schon immer ein großer Knackpunkt. Wenn etwas super toll war, aber nur sehr schwierig zu nutzen, hat es sich letzten Endes nicht wirklich durchgesetzt.

V2.0
2011-10-06, 09:49:03
Das Yieldproblem würde ich jetzt als weniger bedeutend sehen, da beide IHVs bei TSMC fertigen lassen. Sofern hier nicht eine Prozessvariante besonders schlecht läuft, sind beide ähnlich betroffen. Bemerkenswert scheint mir eher dass beide wohl zuerst in den Mobilmarkt zielen und dort mit vergleichsweise kleinen Chips anfangen. Hier geht man alos in einen Nische bei der unter den zu erwartenden Vorzügen eine maximale Marge zu erzielen ist, während aber die Menge an Chips eher überschaubar ist.

Die eigentlich Frage die sich für mich beim AMD stellt ist die Frage nach der absoluten Topkarte. Will man unbeschnittene Single-CPUs bringen oder geht man auch zu deutlich beschnitten GPUs. Daran wird sich imho die Größe der Single-GPU orientieren müssen.

Skysnake
2011-10-06, 09:59:14
Wat? :ugly:

Mobile und eher "Menge an Chips eher überschaubar" ?? WTF? Also ich glaube da gehen die Meinungen auseinander :D

V2.0
2011-10-06, 10:02:07
Im Bereich der mobilen Topmodelle schon und da würde der leistungsmäßig vergleichbare Ersatz durch "Mittelklasse" (auf den mobilen Sektor bezogen) der neuen Generation wirtschaftlich sicher am einfachsten darstellbar sein.

Ailuros
2011-10-06, 10:03:52
Das Yieldproblem würde ich jetzt als weniger bedeutend sehen, da beide IHVs bei TSMC fertigen lassen. Sofern hier nicht eine Prozessvariante besonders schlecht läuft, sind beide ähnlich betroffen. Bemerkenswert scheint mir eher dass beide wohl zuerst in den Mobilmarkt zielen und dort mit vergleichsweise kleinen Chips anfangen. Hier geht man alos in einen Nische bei der unter den zu erwartenden Vorzügen eine maximale Marge zu erzielen ist, während aber die Menge an Chips eher überschaubar ist.

So einfach ist es nicht. Fuer 40G kostete am Anfang in Q3' 09 jeglicher Cypress chip um die $110-120 herzustellen; haette NV GF100 zu dem Zeitpunkt hergestellt haette jeglicher chip etwas unter $200 gekostet.

Als GF100 in Q1 10' in die Produktion kam kostete NV jeglicher chip um die $120 (bei um einiges besseren yields) und jeglicher Cypress $70-80.

AMD hatte als Ziel im September 11' in die Produktion zu gehen und dieses wurde vor einiger Zeit auf November 11' verschoben, wobei beim letzteren auch noch nichts sicher ist und genau deshalb sind sie momentan so still.

Ich weiss zwar nicht ob NV es schaffen wird GK100 irgendwo im April in die Startloecher zu bringen wie geplant, aber je kleiner der zeitliche Unterschied zwischen dem Tahiti und GK100 launch desto mehr koennte meine These Sinn machen.

Vergiss nicht dass AMD nachtraeglich ein $20 premium auf die 5850 Preise legte, eben genau weil die Herstellungskosten am Ende hoeher waren als AMD vorhersehen konnte. Keine Herstellung im September 2011 sagt mir erstmal dass die yields und die dazu erstehenden Herstellungskosten sich in verbotenen Regionen bewegen.

Die eigentlich Frage die sich für mich beim AMD stellt ist die Frage nach der absoluten Topkarte. Will man unbeschnittene Single-CPUs bringen oder geht man auch zu deutlich beschnitten GPUs. Daran wird sich imho die Größe der Single-GPU orientieren müssen.

So lange wir nicht mal eine Indizie ueber die Groesse von Tahiti haben, hilft jegliche diesbezuegliche Spekulation nichts.

V2.0
2011-10-06, 10:23:32
Das stimmt natürlich.

Gipsel
2011-10-06, 11:16:17
Sollte es nicht genau anders herum sein?Ich rede ja von der Änderung relativ zu Cayman. Und da nein.

ATi/AMD musste bisher ja immer die Treiber anpassen/patchen um die optimale Performance bei bestimmten Spielen zu erreichen.
Durch die neue Architektur ist das nicht mehr wirklich erforderlich, da selbst die Fallback-Performance schon nahe am Optimum ist. Also so wie bei Nvidia.
Wenn ich die alten GCN-Slides noch richtig in Erinnerung habe, dann stand das so ähnlich auch drauf.NV optimiert die Treiber genauso beim Herauskommen neuer Spiele. Da ändert sich nicht so viel. Was AMD gesagt hat, ist daß das schreiben eines guten Shadercompilers einfacher wird. An dem wird übrigens für neue Spiele eher selten was getan. ;)

Gipsel
2011-10-06, 11:35:01
Es wäre also durchaus möglich, das sich an der reinen Rohleistung gar nichts tut.AMD hat auf der AFDS gesagt, daß die Einheitenzahl weiter steigen wird. Die harte Schlußfolgerung lautet also 28 CUs Minimum für Tahiti.
Ich gehe eher von 16 ComputeUnits aus. Das wären vier 4er-Blöcke. Das würde für ein 256Bit Interface dann 64Bit je 4er-Block bedeuten (jaja ist nicht so, aber solche Verhältnisse gibt es eigentlich immer). Alternativ könnte ich mir noch ein 512Bit Interface, oder eventuell sogar ein 384 Bit Interface vorstellen. Bei 512Bit dann halt auch 16 oder 32 und bei 384 halt 24 CUs.
16 sind viel zu wenig. Das bekommt höchstens der Performance-Chip (der Cayman von der Leistung erreichen sollte). Wie wollte man damit gegen nvidias Topmodell auch nur annähernd anstinken wollen? Damit hätte man gegen eine GTX660 kaum eine Chance (vergiß nicht, daß nv die Einheiten ~2mal so hoch taktet und jede CU auch nur 4 TMUs besitzt).

Im Übrigen gibt es sicher keine Verknüpfung der SIMD-Zahl mit der Breite des Speicher-Interfaces. Der ROP-Zahl ja, aber zwischen SIMD-Engines/CUs und ROPs/Speicherinterface sitzt eine fette Crossbar (jede CU muß Zugriff auf den kompletten Speicher haben), das ist also voll entkoppelt. Sieht man ja auch bisher, daß es da keinen Zusammenhang gibt (mit teildeaktivierten):
RV770: 10/8 SIMD-Engines an 256Bit-Interface
RV740: 8 SIMD-Engines an 128Bit
Juniper: 10/9 SIMD-Engines an 128Bit
Cypress: 20/18/14 SIMD-Engines an 256Bit
Barts: 14/12 SIMD-Engines an 256Bit
Redwood: 5/4 SIMD-Engines an 128Bit
Turks: 6/5 SIMD-Engines an 128Bit
Cayman: 24/22 SIMD-Engines an 256 Bit

Duplex
2011-10-06, 11:39:00
Sollte Nvidias Top Modell 1024 Shader haben, dann bedeutet das +80% mehr Leistung als GTX580, vorrausgesetzt die Taktraten sind wegen der Leistungsaufnahme nicht zu gering, am anfang sollte man aber erstmal mit 896 Shader rechnen. Dann müsste AMDs Top Modell auch so 60-70% schneller als der Vorgänger werden, sonst wäre man nicht konkurrenzfähig.

Skysnake
2011-10-06, 11:52:32
Ich bezog mich da eher auf die Einteilung der CUs im Vollausbau. Aber ok, wenn das eher nicht zu unterstützen ist. War halt mein subjektiver Eindruck.

Das bei den absoluten High-End Geräten eher mit 32 CUs zu rechnen ist, sollte klar sein, allerdings wird es die denke ich nicht direkt zum Start geben, sondern eben eher etwas kleineres. Ich denke die wollen einfach nicht wieder die Probleme mit den "großen" Chips haben.

Wie ich finde spricht dafür auch, das man die Mobile wohl als erstes bringen wird.

Im Prinzip reicht es ja auch aus, wenn man erst mal Cayman schlägt, eventuell sogar den GF110, aber eben zu einem günstigeren Preis, und dann erst kurz vorm Start von NV, dann wenn die Yealds besser sind, den echten Kracher raus haut.

Bringt doch alles nichts, so ambitionierte Chips zu fertigen, wenn die Yealds einfach kacke sind. Das kostet nur unnötig Geld.

Da lieber die gleiche Leistung für weniger Geld und bei weniger Stromverbrauch.

Raff
2011-10-06, 12:14:03
Im Prinzip reicht es ja auch aus, wenn man erst mal Cayman schlägt, eventuell sogar den GF110, aber eben zu einem günstigeren Preis, und dann erst kurz vorm Start von NV, dann wenn die Yealds besser sind, den echten Kracher raus haut.

Das klingt spontan so, als lägen Welten zwischen Cayman und GF110. Wenn AMD einen 28-nm-Chip mit "nur" 20 Prozent mehr Bums als Cayman XT bringt, ist die GTX 580 entthront. Das sollte mit der neuen Fertigung ein Kinderspiel sein (auch wenn ein solcher Chip nicht gerade winzig wird).

MfG,
Raff

Tesseract
2011-10-06, 12:22:41
Bringt doch alles nichts, so ambitionierte Chips zu fertigen, wenn die Yealds einfach kacke sind. Das kostet nur unnötig Geld.
aus der sicht des herstellers produziert man high-end-chips auch nicht für den gewinn sondern primär um benchmarks zu gewinnen und damit werbung für die kleineren serien zu machen, die einen großteil des marktes abdecken.

LovesuckZ
2011-10-06, 12:29:33
aus der sicht des herstellers produziert man high-end-chips auch nicht für den gewinn sondern primär um benchmarks zu gewinnen und damit werbung für die kleineren serien zu machen, die einen großteil des marktes abdecken.

Nein, man produziert High-End um Geld damit zu verdienen. Diese X2 Karten sind reine Prestige- und somit Werbungsobjekte.

Ailuros
2011-10-06, 12:39:52
Sollte Nvidias Top Modell 1024 Shader haben, dann bedeutet das +80% mehr Leistung als GTX580, vorrausgesetzt die Taktraten sind wegen der Leistungsaufnahme nicht zu gering, am anfang sollte man aber erstmal mit 896 Shader rechnen. Dann müsste AMDs Top Modell auch so 60-70% schneller als der Vorgänger werden, sonst wäre man nicht konkurrenzfähig.

Es waere verdammt merkwuerdig wenn NV sich nicht wieder nahezu am Rand von 28nm bewegen wird. 1024SP klingt mir (angenommen 4 GPCs mit 4SM/GPC und 4*16/SM) - und ich lass mich auch eines besseren belehren - nicht nach etwas dass sich am Rand von 28nm bewegen wuerde.

Viele vergessen immer noch dass ein ganzer full node (32nm) bei TSMC ausgefallen ist und das der Schritt von 40G auf 28nm ziemlich gross ist. Allein 32nm wo immer es als Prozess momentan existiert erlaubt bis zu 50% hoehere Frequenzen im Vergleich zu 45nm der gleichen Schmiede und dieses mit gleicher Leistungsaufnahme. Weder AMD und NV werden natuerlich nicht zu viel in zu extravagante Frequenzen investieren aber selbst bei 50% mehr SPs als Du Dir vorstellst wuerde ich keine core-Frequenz unter 800MHz einrechnen fuer 28HP.

Vorraussetzung ist stets natuerlich dass 28nm nicht um zich Male problematischer ist und dass die jeweiligen chips auch keine besonderen Probleme mit sich schleppen. GF110@40G hat 772MHz (bei ~520mm2) erreicht; und ja natuerlich ist es der zweite Schub, aber wer weiss wie GF100 wirklich ausgesehen haette wenn er nicht das interconnect Problem gehabt haette.

Nein, man produziert High-End um Geld damit zu verdienen. Diese X2 Karten sind reine Prestige- und somit Werbungsobjekte.

Der Gewinn bei high end single GPUs ist aber auch nicht besonders gross im Vergleich z.B. zu mainstream GPUs aus der gleichen Familie. Natuerlich ist der Gewinn bei mGPUs sogar geringer als bei single chip high end, aber es gibt zu verschiedenen Zeitspannen so oder so mGPUs von beiden IHVs

LovesuckZ
2011-10-06, 12:44:15
High-End hat die höhste Marge vom gesamten Sortiment. Der Gewinn pro Karte ist also am größten. Das sollte aber längst schon bekannt sein.

Skysnake
2011-10-06, 13:00:52
LovesuckZ: Du verkaufst aber auch um Größenordnungen weniger von den Karten...

Was nimmst du lieber:

1.000 Karten mit 100€ Marge pro Karte
100.000 mit 20€ Marge pro Karte


aus der sicht des herstellers produziert man high-end-chips auch nicht für den gewinn sondern primär um benchmarks zu gewinnen und damit werbung für die kleineren serien zu machen, die einen großteil des marktes abdecken.
Das ist klar, aber wenn man für sagen wir mal 150€ ne Karte hat, die zwischen einer 6970 und einer GTX580 liegt, oder diese sogar ganz leicht schlagen kann, dann reisen dir die Leute die Karte aus den Händen, und du "vernichtest" den Konkurrenten, was seine Verkäufe angeht. Da kauft dann nämlich gar keiner mehr. Der bleibt also auf seiner Ware sitzen.

Seinen Monsterchip, der deinen in der Luft zerreist, kann er aber wegen den schlechten Yealds nicht bringen. Du vergrößerst also deinen Marktanteil, untergräbst die Konkurrenz und hast schon mal wieder Mittel zur Hand. Dazu kannst du Sachen testen, die Fertigung optimieren, am High-End-Chip weiter schrauben und bessere Yealds abwarten.

So den eigenen High-End-Chip bringste dann, wenn es sich für dich lohnt, oder wenn du befürchtest dass die Konkurrenz jetzt auch bringen muss, koste es was es wolle bei denen.

Was jetzt passiert: Die Leute haben schon deine Karte, und bleiben dabei, oder Sie sind überzeugt und rüsten auf, vor allem, wenn du etwas günstiger und/oder früher mit dem High-End kommst.

Klar, man verliert sicher einige, die sich sagen, hey, mir reicht die Leistung doch, aber lieber den Spatz in der Hand, als die Taube auf dem Dach, oder noch schlimmer, als in der Hand der Konkurrenz...

Gerade AMD hat die Chance dazu, das durch zu ziehen. Ihre Chips waren einfach immer in letzter Zeit deutlich kleiner, als die von nVidia. Das sollte man wirklich nicht vergessen, auch wenn dieses mal nicht klar ist, wie groß SI wird.

Btw. was halt auch noch so ne Sache ist, je mehr Rechenleistung, desto größere Caches, um den RAM-Flaschenhals nicht noch schlimmer zu machen. Ein 256-Bit Interface ist einfach am Ende mit der aktuellen Generation und den entsprechenden Caches. Also bei massiv Mehrleistung muss auch das Interface breiter werden, denn ein neuer Speicher wird glaube ich diese Generation noch nicht kommen. Vielleicht in 2-3 Jahren, aber nicht vorher.

Oder man vergrößert halt die Caches massiv, was aber auch Probleme macht und eben zu großen DIEs führt.

Allein mehr Rohleistung auf die Beine stellen bringt es einfach nicht. Die Leistung muss nicht nur für Games, sondern insbesondere für GPGPU-Computing nutzbar sein. Das ist ganz klar das gesetzte Ziel sowohl von AMD als auch von nVidia.

LovesuckZ
2011-10-06, 13:11:02
Bitte keine Milchmädchenrechnung aufstellen. Die Marge ist ergeblich höher im High-End, weil der Endpreis um vielfaches höher liegt als die eigentliche Fertigung und gleichzeitig der Abschlag für die Zwischenhändler nicht annährend so hoch ist. High-End ist Gewinn, Low-End ist masse. Und im Gegensatz zu einem Aldi verkauft man Low-End nur einmal pro Jahr an eine Person. Deswegen leben die Firmen, die neben Low-End auch Mid- bis High-End besetzen am besten.

Skysnake
2011-10-06, 13:25:09
Wie kommst du da drauf, Unternehmen die ein breiteres Kundenspektrum bedienen, mit einer größeren Preisdifferenzierung stehen besser da als Unternehmen die dies nicht tun -.- WIE UNERWARTEND! Du solltest direkt eine Doktorarbeit darüber verfassen. Das ist ja revolutionär.

Das der Vergleich nicht stimmt ist ja wohl offensichtlich, er zeigt aber sehr gut, worum es geht. Wenn du den Mid und Lowrange bereich nicht hättest, würdest du nämlich auch keine 100€ Marge haben, jetzt auf mein Beispiel bezogen, sondern vermutlich eine von -10-100€. Deine Entwicklungskosten bleiben halt gleich, und die kannst du mit den paar High-End Karten nicht rein holen, so lange du nicht den Preis massiv nach oben treibst. High-End ist nur das oberste Sahnehäubchen, das man eben mit nimmt, mehr aber auch nicht. Damit ein Unternehmen allein davon leben kann, muss es um klassen besser sein als alles andere was verfügbar ist.

Ailuros
2011-10-06, 13:29:50
Koennt Ihr beiden bitte den Ton wieder normalisieren? Danke.

Gipsel
2011-10-06, 17:54:16
AMD zeigte weder einen Chip noch eine Demo auf der FDS. Erst vor 2 Wochen haben sie das erste, funktionsfähige Samples präsentiert.Das wird jetzt zwar OT, aber es war das erste Mal, daß sie lauffähige Samples präsentiert haben, nicht die ersten funktionsfähigen Samples. Die geistern schon ein wenig länger bei AMD rum (mindestens seit Ende Q2, seit dem gibt es nämlich schon Fixes für kleinere GCN-Bugs im Treiber und die findet man wohl nur mit funktionierendem Silizium ;)).

LovesuckZ
2011-10-06, 17:59:11
Du weißt also, dass dies nicht die ersten lauffähigen Samples waren?
Ich möchte für diese Aussage bitte Beweise sehen.

Gipsel
2011-10-06, 18:06:07
Du weißt also, dass dies nicht die ersten lauffähigen Samples waren?
Ich möchte für diese Aussage bitte Beweise sehen.
Der Catalyst 11.6 (Build vom 25. Mai 2011) enthält bereits einen Fix für GCN namens "R1000_BUG301460_WORKAROUND". Lade Dir das Treiberpaket runter und suche selber danach, wenn Du mir nicht glaubst. Die Liste ist in den folgenden Monaten noch länger geworden, aber das tut ja nichts zur Sache. Also wenn Du nicht glaubst, daß AMD im Mai schon die finale Revision der Chips hatte, dann waren die kürzlich präsentierten Versionen nicht die ersten lauffähigen Samples.

Edit:

R1000_ZEXP_BUG337892
R1000_SPI_NULL_WAVE_WORKAROUND_BUG335260
R1000_BYTE_SHORT_WRITE_WORKAROUND_BUG317611
R1000_BUG301460_WORKAROUND

Aber wenn Du diese Unterhaltung weiterführen willst, dann eventuell besser im GCN/SI-Thread.

Edit2: Habe das mal verschoben.

Dural
2011-10-08, 09:55:13
ich versteh dich auch nicht, den auch der Eintrag im Treiber ist doch noch lange keinen Beweis das es damals schon finale Chips gab, die Treiber Entwicklung/Testung geht ja sicher mit A0 los ;)


und ich lehne mich jetzt mal ganz weit aus dem Fenster, ich könnte mir sogar vorstellen das der erste Eintrag in einem Treiber sogar komplett ohne Chip
von statten geht, sogar der erste Workaround Eintrag durch irgendwelche vorab Simulationen (eventuel sogar durch irgend welche Test Chips) oder wissen das dies und jenes nötig sein wird :)

Gipsel
2011-10-08, 11:54:35
ich versteh dich auch nicht, den auch der Eintrag im Treiber ist doch noch lange keinen Beweis das es damals schon finale Chips gab, die Treiber Entwicklung/Testung geht ja sicher mit A0 los ;)Ja, man fängt das Bugfixing mit den ersten lauffähigen Samples an (die Treiberentwicklung an sich schon früher). Das war gerade mein Punkt. Wenn Du Dir meine Posts durchliest, wirst Du feststellen, daß ich auch bezweifelt habe, daß AMD im Mai schon finale Samples hatte. Ich meinte ja, daß die kürzlich demonstrierten Chips mit einiger Wahrscheinlichkeit von einem neueren Stepping waren (oder sollte etwa das erste schon produktionsreif gewesen sein?).

und ich lehne mich jetzt mal ganz weit aus dem Fenster, ich könnte mir sogar vorstellen das der erste Eintrag in einem Treiber sogar komplett ohne Chip
von statten geht, sogar der erste Workaround Eintrag durch irgendwelche vorab Simulationen (eventuel sogar durch irgend welche Test Chips) oder wissen das dies und jenes nötig sein wird :)
Diese Vorabsimulationen sollten normalerweise vor dem Tapeout gemacht werden, damit der Chip vom Start weg möglichst wenig Fehler aufweist, meinst Du nicht? :wink:

Meiner Meinung paßt das (erste Bugfix-Einträge tauchen im Mai auf und werden in den folgenden Monaten vervollständigt) zu Tests an den Samples, die eben Fehler aufdecken.
Übrigens sollte man das nicht so verstehen, daß das alle Bugs wären oder so. Wahrscheinlich sind es nur die kleineren, für die man keinen Fix der Hardware durch ein neues Stepping plant (dann würde man nämlich keinen Workaround in den öffentlichen Treiber einbauen).

Hugo78
2011-10-11, 21:04:53
Um nochmal auf "GCN nur für Hight End" zukommen, was Nordic zuletzt auch andeutete.
Auch die Bildunterschrift ("Large portions of AMD's HD 7000 series is based on the same architecture as HD 6900") klingt erstmal nicht unbedingt überzeugend (Gründe dafür gibt es hier im Thread).

Wenn nur die 7900er auf GCN basieren und der Rest auf VILW4, passt diese Aussage doch.
Heißt ja nicht, dass dieses VILW4 nicht noch etwas bessert wurde, abseits des Shrink.

Da schreibt jetzt auch PCGH was dazu mit Bezug auf die Fusion 11 Taipei vom 5. Oktober.

GCN soll aber angeblich nur bei den High-End-Karten zum Einsatz kommen. Das darunter angesiedelte Programm soll nach den Informationen von der Fusion 11 Taipei weiter mit VLIW4-Architektur ausgestattet werden.
- http://www.pcgameshardware.de/aid,849043/Radeon-HD-7000-Details-zu-GCN-und-Liquid-Chamber-Kuehlung-News-des-Tages/Grafikkarte/News/

Gipsel
2011-10-12, 04:30:28
Und genau so gut gibt es Gerüchte, die das genau andersrum andeuten.

Meine Position habe ich kundgetan und begründet (3 ASIC-IDs für GCN, nur eine für VLIW4 [Triniti!], eine VLIW5 scheint übrigens auch noch frei zu sein ;)). Solange sich an der Begründung nichts ändert (und das hat es seit Juni nicht), sehe ich keine Veranlassung, den VLIW4-Gerüchten für Pitcairn und CapeVerde Glauben zu schenken. Ganz im Gegenteil spricht aus der Warte alles für drei GCN-Chips.

Duplex
2011-10-14, 17:28:28
GCN Launch im Dezember? Das wäre Super.
http://www.heise.de/newsticker/meldung/AMD-Bringt-Nikolaus-die-ersten-28-Nanometer-Grafikchips-1361366.html

Gipsel
2011-10-14, 18:16:47
GCN Launch im Dezember? Das wäre Super.
http://www.heise.de/newsticker/meldung/AMD-Bringt-Nikolaus-die-ersten-28-Nanometer-Grafikchips-1361366.html
Ich dachte, das wäre erwartet worden, daß AMD versuchen wird, den Launch der 7000er Serie noch irgendwie ins Jahr 2011 zu quetschen (ob es klappt, ist die andere Frage).

Zu der Heise-Meldung mit dem VLIW4/GCN Gerede: Wie gut (bzw. schlecht) ist eigentlich der Trackrecord von Heise bezüglich Grafikkarten? :rolleyes:

LovesuckZ
2011-10-14, 18:17:50
Die Informationen von der Cebit 2010 über die GTX470 haben gestimmt.

Knuddelbearli
2011-10-14, 18:52:17
cpu mässig ist heise oft recht gut informiert, bei gpu eher weniger. da aber amd beides macht kP ^^

AnarchX
2011-10-14, 19:17:24
Wie heise online heute aus verlässlicher, unternehmensinterner Quelle erfuhr, steht der Termin erst seit kurzem fest. Tatsächlich will AMD die Southern-Islands-Chips wohl zwischen dem 15. und 29. Oktober vorstellen.
http://www.heise.de/newsticker/meldung/AMDs-neue-Grafikchips-kommen-Ende-Oktober-1044422.html

;D

Aber bei Pre-Launch-Berichten war Heise schon immer sehr genau.

Gipsel
2011-10-14, 19:21:15
http://www.heise.de/newsticker/meldung/AMDs-neue-Grafikchips-kommen-Ende-Oktober-1044422.html

;DIst sogar der gleiche Author (mfi). Aber das bestätigt das, was ich schon vermutet habe: Die haben keinen Plan und liegen eher nur zufällig mal richtig bei sowas.

AnarchX
2011-10-14, 19:44:35
Im Juli glaubte man vielleicht bei den AIBs noch an einen Oktober-Launch bzw. war das der Stand von heises Quelle.

horn 12
2011-10-14, 20:05:15
Nun, der Launch in diesem Jahr soll wohl dem extremen Bulldozer Desaster entgegenwirken!
Wahrscheinlich will man gar noch Karten verkaufen um zu Weihnachten gerüstet zu sein,- und hoffen wir mal dass zumindest die HD7000-er Serie einschlägt wie Bombe!

Rechne sehr stark NUN WIRD AUF HOCHTUREN zum Launch der HD7000-er Karten hingearbeitet, auch Nachts...:wink:

Gipsel
2011-10-14, 20:13:59
Im Juli glaubte man vielleicht bei den AIBs noch an einen Oktober-Launch bzw. war das der Stand von heises Quelle.
Die Meldung ist aber vom 23.07.2010. Der Author hat also von einem Southern Islands-Launch im Oktober 2010 geschrieben. Deswegen ;D
;)

mfi
2011-10-14, 20:55:03
Die Meldung ist aber vom 23.07.2010. Der Author hat also von einem Southern Islands-Launch im Oktober 2010 geschrieben. Deswegen ;D
;)

Hallo,

damals ging man noch davon aus, dass die zu dieser Zeit erwarteten Barts-Grafikchips als Southern-Islands-Serie laufen werden. Du kannst gern mal danach googeln. In der Meldung steht es auch klar so drin. Heute sind wir alle schlauer.

Wie heise online heute aus verlässlicher, unternehmensinterner Quelle erfuhr, steht der Termin erst seit kurzem fest. Tatsächlich will AMD die Southern-Islands-Chips wohl zwischen dem 15. und 29. Oktober vorstellen. http://www.heise.de/newsticker/meldung/AMDs-neue-Grafikchips-kommen-Ende-Oktober-1044422.html

Die besagten Chips wurden schließlich am 22. Oktober 2010 vorgestellt, siehe:

http://www.heise.de/newsticker/meldung/Radeon-HD-6850-und-6870-AMD-laeutet-HD-6000-Serie-ein-1123042.html

Viele Grüße aus Hannover,
mfi

LovesuckZ
2011-10-14, 20:56:22
Jo, letztes Jahr dachten viele, dass Barts und Cayman unter SI fallen würden. Ich sehe in der News jetzt nichts wirklich falsches.

Knuddelbearli
2011-10-14, 21:27:52
jup ni kam ja erst ganz kurz vor dem launch raus ( also das es nicht si sondern ni heisst )

AnarchX
2011-10-14, 22:25:14
Hallo,

damals ging man noch davon aus, dass die zu dieser Zeit erwarteten Barts-Grafikchips als Southern-Islands-Serie laufen werden. Du kannst gern mal danach googeln. In der Meldung steht es auch klar so drin. Heute sind wir alle schlauer.



Die besagten Chips wurden schließlich am 22. Oktober 2010 vorgestellt, siehe:

http://www.heise.de/newsticker/meldung/Radeon-HD-6850-und-6870-AMD-laeutet-HD-6000-Serie-ein-1123042.html

Viele Grüße aus Hannover,
mfi
Das mit Barts stimmt durchaus. Aber gab es da nicht noch einen anderen Artikel mit Launchgerüchten zu den 28nm Southern Islands? Diesen wollte ich eigentlich verlinken.

john carmack
2011-10-14, 23:00:29
Nun, der Launch in diesem Jahr soll wohl dem extremen Bulldozer Desaster entgegenwirken!
Wahrscheinlich will man gar noch Karten verkaufen um zu Weihnachten gerüstet zu sein,- und hoffen wir mal dass zumindest die HD7000-er Serie einschlägt wie Bombe!

Rechne sehr stark NUN WIRD AUF HOCHTUREN zum Launch der HD7000-er Karten hingearbeitet, auch Nachts...:wink:

Würde es AMD gönnen...

Gipsel
2011-10-14, 23:26:34
@mfi von heise (ich vermute doch mal, das ist der Echte):

Mein Punkt war eigentlich, daß ihr damals auch keine Ahnung von der Architektur (und dem VLIW5/VLIW4-Mix) hattet. Daß da die Codenamen noch durcheinander gekommen sind, kommt ja nur obendrauf. Und nicht falsch verstehen! Das ist jetzt keine große Kritik oder so, das hatte ja praktisch niemand außerhalb AMDs so richtig auf der Rechnung, wenn ich mich recht erinnere. ;)

john carmack
2011-10-14, 23:58:53
so leute, will keinen eigenen thread dafür aufmachen, deswegen mal so zwischendurch und was mich grad mal interessieren würde :D

Man sagt doch das Raytracing in Echtzeit sehr viel Rechenpower in anspruch nimmt.

Kann mir jemand sagen (so pi mal daumen) wieviele 6970 Karten man bräuchte um "EchtzeitRaytracing" zu realisieren?

G 80
2011-10-15, 03:59:06
Rechne sehr stark NUN WIRD AUF HOCHTUREN zum Launch der HD7000-er Karten hingearbeitet, auch Nachts...:wink:


Die armen Praktikanten; die müssen jetzt Tag und Nacht die Stromanschlüsse abfeilen? ;D


Ich denke auch es wird der Launch noch kommen inkl. minimalistischer Menge tatsächlich verfügbarer Karten; einfach um die downplay CPU-Speed Strategie verwirklichen zu können. Da kommen dann Quad CF gegen eine 990X und GTX 580/90 = Gigazilionen FPS mehr ums "selbe" Geld. :freak:

ndrs
2011-10-15, 08:31:15
Man sagt doch das Raytracing in Echtzeit sehr viel Rechenpower in anspruch nimmt.

Kann mir jemand sagen (so pi mal daumen) wieviele 6970 Karten man bräuchte um "EchtzeitRaytracing" zu realisieren?
Die Rechenlast bei Raytracing ist linear abhängig von der Bildauflösung.
Ob es überhaupt Algorithmen für aktuelle DX11-Karten gibt, weiß ich nicht. Veröffentlicht wird da in regelmäßigen Abständen von Intel etwas, wobei meist die Larrabee-Karten zum Einsatz kommen. Einfach mal nach Daniel Pohl googeln. Computerbase bringt dazu ab und zu Berichte.

Tarkin
2011-10-17, 18:40:12
Wurde das schon gepostet?

Apple has been in talks with Samsung over shipment of its A6 quad-core mobile processor (AP) chips to be used in the next iPhone. It appears that Apple clearly has concluded that Samsung remains a critical business partner. [...] Samsung Electronics will apply its advanced 28-nanometer processing technology to produce qualified A6 mobile APs. TSMC will provide customized chips with designs from Apple, however, the volume will be very small. (http://9to5mac.com/2011/10/17/samsung-to-supply-a6-processors-for-next-iphone-as-chairman-dispatches-heir-apparent-for-talks-with-tim-cook/)

Also doch freie Bahn für AMD und nVidia? :)

Dural
2011-10-17, 19:14:17
die news waren eh blödsinn... und hab ich damals auch gleich gesagt ;)

erstens hat apple derzeit noch keine 28nm chips (das wird 2012) zudem AMD und NV ihre 28nm Chips schon lange gesichert haben / TMSC wahrscheinlich gar keine freien kapazitäten (bei der schlechten ausbeute von 28nm..) mehr im Q4 hat.

Ailuros
2011-10-18, 11:10:36
die news waren eh blödsinn... und hab ich damals auch gleich gesagt ;)

Das dual sourcing scenario machte schon immer Sinn sonst wuerden sie ueberhaupt ueber Laengen gehen etwas bei TSMC herzustellen.

Gipsel
2011-10-19, 11:21:30
VR-Zone ist wohl an einen neuen Treiber gelangt (http://vr-zone.com/articles/amd-radeon-hd-7000-gpus-listed-in-leaked-driver/13766.html). Sieht ein wenig nach dem bereits vermutetem Szenario aus: 3 GCN Chips für Mid- Performance- und HighEnd-Segment, darunter VLIW, die wohl auch zuerst kommen.

Und Charlies ominöses CI wird wohl eher zu CM (Chinese Monuments) oder sowas. :rolleyes:

Was meint ihr, werden die Chinesischen Teile eigentlich in Taiwan oder in Dresden gefertigt? ;)

desert
2011-10-19, 14:12:29
Ist eigentlich schon was zu AF und SSAA bekannt? Oder gibts wieder mal flimmer AF?

Gipsel
2011-10-19, 14:20:57
Ist eigentlich schon was zu AF und SSAA bekannt? Oder gibts wieder mal flimmer AF?
Bei allem, was nicht mehr VLIW ist, soll der Bug wohl behoben worden sein.

Ailuros
2011-10-19, 14:34:42
Bei allem, was nicht mehr VLIW ist, soll der Bug wohl behoben worden sein.

Haarspalterei: es sollte ab SI bzw. GCN den bug nicht mehr in der Filterungs-hw geben.

Ich will es auch ernsthaft hoffen :)

LovesuckZ
2011-10-20, 00:24:35
AMD zeigt 28nm GPU: http://www.youtube.com/watch?feature=player_embedded&v=KlSNjBqb228

Launching in the next few months. Und die Einstellungen im Spiel sind auch nicht gerade hoch: Z.B. Kein POM, ergo nicht "Very High".

S940
2011-10-20, 01:25:05
AMD zeigt 28nm GPU: http://www.youtube.com/watch?feature=player_embedded&v=KlSNjBqb228

Launching in the next few months. Und die Einstellungen im Spiel sind auch nicht gerade hoch: Z.B. Kein POM, ergo nicht "Very High".

Aber der Chip scheint für 28nm nicht gerade klein:
http://www.abload.de/img/28nmgpu1ray6.png

Oder?

Gipsel
2011-10-20, 02:28:25
Aber der Chip scheint für 28nm nicht gerade klein:
http://www.abload.de/img/28nmgpu1ray6.png

Oder?
Diese Präsentation war schon vor etwas mehr als 2 Wochen (vorher gab es noch die beim IDF). Der gezeigte Chip mißt übrigens so in etwa 130mm² und lief in einem Notebook.

Edit: Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8966716#post8966716) ging es mit der Diskussion diesbezüglich los.

S940
2011-10-20, 02:45:19
Ahh Danke, na dann .. alte Kamellen ^^

Ronny145
2011-10-20, 10:58:23
VR-Zone ist wohl an einen neuen Treiber gelangt (http://vr-zone.com/articles/amd-radeon-hd-7000-gpus-listed-in-leaked-driver/13766.html).


Einer von den beiden Treibern wahrscheinlich: http://forum.notebookreview.com/alienware-m17x/618752-catalyst-11-11-11-12-early-beta-drivers.html

G 80
2011-10-20, 11:14:20
Der gezeigte Chip mißt übrigens so in etwa 130mm² und lief in einem Notebook.




Hm das wäre etwa! 46x0@55 Größe bzw. 57x0@40nm (56x0 kommt nur auf 104 mm²) und würde für gehobene Mittelklasse im NB sprechen - oder gibts schon genauere Infos was da für ein Segment gezeigt wurde?

LovesuckZ
2011-10-20, 18:43:58
Und laut Fudzilla gibt es keine Desktopversion mehr in diesem Jahr: http://www.fudzilla.com/graphics/item/24549-no-desktop-radeon-this-year

Gipsel
2011-10-20, 23:30:32
Und laut Fudzilla gibt es keine Desktopversion mehr in diesem Jahr: http://www.fudzilla.com/graphics/item/24549-no-desktop-radeon-this-year
Wenn man der Meldung trauen kann, sagt sie aber auch, daß Partner inzwischen Boards bekommen haben (wahrscheinlich sogar Tahitis?). Das würde bedeuten, daß es bald ein paar mehr Gerüchte über die Karten und die Leistungsfähigkeit geben könnte. Ist ja momentan noch sehr ruhig. :rolleyes:

Allerdings wäre das im Vergleich zu den letzten Launchs bald früh, wo die Partner im Prinzip erst wenige Wochen bzw. fast nur Tage vor dem Launch komplett assemblierte Karten erhalten und dann nur noch ihre Sticker draufgeklebt haben. Eigene Designs der Partner kamen deswegen ja erst später. Sollen die jetzt vom Start weg verfügbar sein oder was paßt da nicht?

YfOrU
2011-10-21, 06:18:49
So wie ich das sehe hat man bei AMD seine Lehren aus dem SB Launch gezogen und hat deshalb den Fokus auf eine sehr frühe Verfügbarkeit der Mainstream / Performance Produkte für den mobilen Bereich gelegt.

GPUs im Format von GT525M - GT555M / 6630M - 6770M dürften inzwischen einen nicht unerheblichen Teil des Umsatzes ausmachen (Verschiebung der Martkanteile, Desktop Systeme -> Mobil & DTR).

Bei der noch aktuellen Generation hat AMD was Performance/Leistungsaufnahme angeht zwar das deutlich bessere Produkt aber da bei Nvidia nur die alten Produkte (445M etc.) recht geschickt als GT5xx neu vermarktet werden ist daraus nicht der große Erfolg geworden der es hätte sein können. Schlussendlich hat der Übergang von Madison (5650M etc.) zu Whistler zu viel Zeit in Anspruch genommen und damit war man zum Launch der SB Notebooks eher schlecht aufgestellt. AMD hat dann zwar auch noch angefangen die Madison Chips umzuetikettieren aber der Zug war da schon abgefahren.
Es würde mich deshalb auch nicht wundern wenn dieses mal aggressiver vorgegangen wird und die alten Whistler Chips von Anfang an unten in die 7000er Reihe einsortiert werden. Die OEMs wollen das einfach, zur neuen CPU muss eine neue GPU ;)

V2.0
2011-10-21, 07:32:04
Wenn man der Meldung trauen kann, sagt sie aber auch, daß Partner inzwischen Boards bekommen haben (wahrscheinlich sogar Tahitis?). Das würde bedeuten, daß es bald ein paar mehr Gerüchte über die Karten und die Leistungsfähigkeit geben könnte. Ist ja momentan noch sehr ruhig. :rolleyes:

Allerdings wäre das im Vergleich zu den letzten Launchs bald früh, wo die Partner im Prinzip erst wenige Wochen bzw. fast nur Tage vor dem Launch komplett assemblierte Karten erhalten und dann nur noch ihre Sticker draufgeklebt haben. Eigene Designs der Partner kamen deswegen ja erst später. Sollen die jetzt vom Start weg verfügbar sein oder was paßt da nicht?

Ich würde es wörtlich nehmen. Die Partner haben Referenzdesign-Boards erhalten und die Anforderungen an Custom-Designs. Aber keine GPUs bis jetzt.

Dural
2011-10-21, 09:39:45
das ist alles andere als früh, eigene designs dauern wohl min. 3-4 Monate, bei high end karten sogar schon mal 6monate bis sie im laden sind :rolleyes:


Allerdings wäre das im Vergleich zu den letzten Launchs bald früh, wo die Partner im Prinzip erst wenige Wochen bzw. fast nur Tage vor dem Launch komplett assemblierte Karten erhalten und dann nur noch ihre Sticker draufgeklebt haben.


wann sollten sie den sonst die Karte erhalten? meinst du die lagern freiwillig die karten in ihrem lager so lange bis AMD den launch hat?! ;) irgend welche test / vorserien karten
sind nicht das gleiche wie karten die für den handel bestimmt sind.

Schnitzl
2011-10-21, 10:59:16
das ist alles andere als früh, eigene designs dauern wohl min. 3-4 Monate, bei high end karten sogar schon mal 6monate bis sie im laden sind :rolleyes:
sehr unwahrscheinlich, hast du dafür belege?

Gipsel
2011-10-21, 17:45:13
irgend welche test / vorserien karten sind nicht das gleiche wie karten die für den handel bestimmt sind.
Das Problem daran ist, daß die bei den letzten Launchs gar nichts vorab gesehen haben. Den wurden die voraussichtlichen Spezifikationen mitgeteilt (Pinout, Stromverbrauchs-Charakteristik und so'n Zeug), damit sie anfangen konnten, die Custom-Designs zu planen. Aber die haben keine GPU zu sehen bekommen (so daß man das auch nicht testen konnte). So ein, zwei Wochen vor dem Launch haben die dann von AMD fertig assemblierte Grafikkarten (mit Kühler, Lüfter und allem dran) im Referenzdesign bekommen, bloß eben ohne Sticker, die dann jeder Hersteller auf die Dinger kleben konnte. Das einzige Unterscheidungsmerkmal des ersten Schwungs der Karten sind also das Design der Box sowie eventuell noch beigelegtes Zubehör. Ansonsten sind die alle in ein und der gleichen Fabrik und AMDs Aufsicht zusammengeschraubt worden. Erst danach wurden auch einzelne Chips an die jeweiligen Grafikkartenhersteller geliefert, so daß die finale Phase des Design der Custom-Versionen beginnen konnte.

Die für mich wahrscheinlichere Deutung sieht so aus, daß Fudzilla da eventuell die Desktop- und Notebookversionen ein wenig durcheinander bekommen hat. Die Notebook-Partner haben Boards bekommen (das dauert doch ziemlich lange, bis so ein Notebook fertig designed und alles überprüft ist), die Hersteller von Desktop-Grafikkarten aber noch nicht (da sich deren Rolle zum Launch wieder auf das Durchreichen der Referenzdesigns beschränken wird, wenn man die jüngere Vergangenheit als Maßstab nimmt).

Knuddelbearli
2011-10-21, 17:53:37
? das ist doch eigentlich immer so ?

erste 1-2 ladungen sind ja immer referenz

horn 12
2011-10-23, 12:53:13
Keine Neuigkeiten?
Nun, nach dem BullDozer Desaster sollte doch endlich einmal etwas auf Anhieb klappen.
Vielleicht schafft es AMD doch noch bis etwa 10. Dezember zu liefern...
auch falls nur die HD6950 in Reichweite wäre...

Dural
2011-10-24, 13:27:23
TSMC startet Massenproduktion von 28-nm-Chips

http://www.computerbase.de/news/2011-10/tsmc-startet-massenproduktion-von-28-nm-chips/

Skysnake
2011-10-24, 14:08:50
Naja, schaumer mal, vielleicht wird es ja doch noch ganz knapp was mit dem Jahr 2011. Von einer Verfügbarkeit ist aber sicherlich nicht aus zu gehen, auch wenn der 28nm Prozess besser laufen soll als der 40nm Prozess. Viel schlechter als bei 40nm gings ja auch nicht mehr wirklich :ugly: Von daher heißt das erst mal nicht viel.

Ich bin auf jeden Fall mal gespannt, was die nächsten Wochen noch so alles kommt. In den nächsten 2-6 Wochen kann man dann sicherlich mit ersten Samples der fertigen GPUs rechnen. Das wird ein "heißer" Winter :biggrin:

Nakai
2011-10-24, 14:41:02
Dieses Jahr? Wenn dann nur Reviews und ganz wenige Karten. Zwei Monate sind einfach sehr wenig für eine Release Produktion.


mfg

AnarchX
2011-10-24, 15:03:16
TSMC startet Massenproduktion von 28-nm-Chips

http://www.computerbase.de/news/2011-10/tsmc-startet-massenproduktion-von-28-nm-chips/
Die Massenproduktion von 40nm startete im November 2008, Produkte verfügbar waren dann Mitte 2009.
Wenigstens gibt es zu 28nm Launch-Gerüchte und Treibereinträge...

Dural
2011-10-24, 15:25:07
ja sehe ich auch so, höchstens kleine mainstream chips, was grosses kann man vergessen.


Edit:
Ich glaub mein RV740 war aus dem April/Mai und es war einer der ersten damals, die Karte müsste noch irgend wo rum liegen, ich schau dann mal heute abend :)
übrigens eine sehr tolle Karte, NV hatte zu diesem zeit punkt wirklich rein gar nichts in dieser klasse was mithalten konnte, leider konnte AMD nur viel zuwenige Liefern / zu teuer in der Produktion.

Gipsel
2011-10-24, 15:42:38
http://www.computerbase.de/news/2011-10/tsmc-startet-massenproduktion-von-28-nm-chips/
Lustig ist ja, daß jetzt angeblich LP, HPL und HP gleichzeitig in Produktion gegangen sind und HPM noch innerhalb von 3 Monaten folgen soll. Ursprünglich sollten LP und HPL den Anfang machen, gefolgt von HP und dann nochmal später HPM (6-9 Monate nach LP und HPL).

Gerüchteweise hatte TSMC anfangs Probleme mit den eSiGe-Strain, was durch die Meldung jetzt allerdings massiv in Frage gestellt wird. Denn LP benutzt eSiGe aber kein HKMG, HPL benutzt HKMG aber kein eSiGe und HP benutzt schließlich beides (wie auch HPM). Daß jetzt alle 3 Varianten gleichzeitig gestartet sind, würde eher auf ein allgemeines, allen 3 Linien gemeinsame Ursache für die Verzögerung von LP und HPL hinweisen, da es anscheinend weder HKMG oder der SiGe-Strain alleine war. Allerdings ist das Startdatum natürlich nur ein Indiz, die Defektraten/Yields und Binsplits kennen wir natürlich nicht.

fondness
2011-10-24, 15:58:24
Die Massenproduktion von 40nm startete im November 2008, Produkte verfügbar waren dann Mitte 2009.
Wenigstens gibt es zu 28nm Launch-Gerüchte und Treibereinträge...

Naja, bei 40nm ging eine Menge schief, man muss ja nicht davon ausgehen das es diesmal wieder so ein Chaos wird. Wenn es zu keine unplanmäßigen "Überraschungen" kommt sollte man in zwei Monaten durchaus Produkte im Handel erwarten können.

john carmack
2011-10-26, 12:11:10
Wäre auch mal für ein neues NamesModel!

7850 - 7870 - 7950 -7970 - 7990...

Ist ja nicht auszuhalten!

derguru
2011-10-26, 12:26:30
bin ich auch dafür aber spätestens nach der 9*** ist schluss.:biggrin:

V2.0
2011-10-26, 12:31:53
Lustig ist ja, daß jetzt angeblich LP, HPL und HP gleichzeitig in Produktion gegangen sind und HPM noch innerhalb von 3 Monaten folgen soll. Ursprünglich sollten LP und HPL den Anfang machen, gefolgt von HP und dann nochmal später HPM (6-9 Monate nach LP und HPL).

Gerüchteweise hatte TSMC anfangs Probleme mit den eSiGe-Strain, was durch die Meldung jetzt allerdings massiv in Frage gestellt wird. Denn LP benutzt eSiGe aber kein HKMG, HPL benutzt HKMG aber kein eSiGe und HP benutzt schließlich beides (wie auch HPM). Daß jetzt alle 3 Varianten gleichzeitig gestartet sind, würde eher auf ein allgemeines, allen 3 Linien gemeinsame Ursache für die Verzögerung von LP und HPL hinweisen, da es anscheinend weder HKMG oder der SiGe-Strain alleine war. Allerdings ist das Startdatum natürlich nur ein Indiz, die Defektraten/Yields und Binsplits kennen wir natürlich nicht.

Wobei das im Hinblick auf die zeitlichen Unterschiede zwischen AMD und NV durchaus relevant sein kann. Denn die 3 Monate, die man bisher annahm, gingen davon aus dass diese auch in einer anderen Prozesswahl begründet liegen und NV schon dadurch später am Markt sein wird.

ndrs
2011-10-26, 12:55:37
bin ich auch dafür aber spätestens nach der 9*** ist schluss.:biggrin:
Sicher? Was kam nach der Radeon 9800 ? Richtig, die 10800 aka X800 :)

Schnitzl
2011-10-26, 13:59:27
Wäre auch mal für ein neues NamesModel!

7850 - 7870 - 7950 -7970 - 7990...

Ist ja nicht auszuhalten!
ja, das war meiner Meinung nach AMDs größter Fehler mit Barts noch eine Reihe einzuführen....

hoffe auf ne 7850 im Dez :)

Soul
2011-10-26, 14:18:04
Mir wär ne 7950 mit CoreNext lieber im Dezember. Die 7850 wird wohl immer noch auf Basis des Cayman sein.

john carmack
2011-10-26, 14:22:15
Können die es nicht einfach bei einer

7900 / 7800 / 7700 / 7600 / 7500 / 7400 / 7300 / 7200 / 7100

belassen?

Somit hat man 9 Performance-Stufen - das sollte doch bei weitem reichen.

Dazu noch die Speicher-Angaben und schon hat man ca. 18 Performance-Stufen.
wie zB. 7800 2GB / 7800 1GB

Würde AMD wohl auch Geld sparen wenn man sich auf was "Einfaches" besinnen würde!

» SAPPHIRE hat über 30 verschiedene 6000er Modelle im Angebot - was aber auch an Toxic / Ultimate usw. geschuldet ist.
Trotzdem find ich das total übertrieben!

Jetzt mal ehrlich. Welchen Sinn macht es eine 6650 und eine 6670 anzubieten? Oder eine 5550 und eine 5570?

Gipsel
2011-10-26, 17:05:27
Mir wär ne 7950 mit CoreNext lieber im Dezember. Die 7850 wird wohl immer noch auf Basis des Cayman sein.
Extrem wahrscheinlich nein. Es gibt drei GCN-Dies (Tahiti, Pitcairn, CapeVerde). Nur die GPU in Trinity (VLIW4) und ein paar Einsteigerchips (< HD7600), die wohl Refreshes von VLIW5-Chips darstellen, basieren auf der alten VLIW-Architektur.

aylano
2011-10-26, 17:10:48
Gerüchteweise hatte TSMC anfangs Probleme mit den eSiGe-Strain, was durch die Meldung jetzt allerdings massiv in Frage gestellt wird. Denn LP benutzt eSiGe aber kein HKMG, HPL benutzt HKMG aber kein eSiGe und HP benutzt schließlich beides (wie auch HPM). Daß jetzt alle 3 Varianten gleichzeitig gestartet sind, würde eher auf ein allgemeines, allen 3 Linien gemeinsame Ursache für die Verzögerung von LP und HPL hinweisen, da es anscheinend weder HKMG oder der SiGe-Strain alleine war. Allerdings ist das Startdatum natürlich nur ein Indiz, die Defektraten/Yields und Binsplits kennen wir natürlich nicht.
Die Probleme von 28LP sind auch schon komisch. Probleme hätte man eher bei 28HP erwartet.
Vielleicht zeigt es sich doch, wenn man alle Probleme vom Vorgänger bzw. 40HP nicht lösen konnte, dass die Welt dann mit kleineren Strukturen auch nicht viel besser wird, was man am 28LP (ohne HKMG) sieht, während 28HP mit HKMG zusätzliche bzw. andere Problem bekam.

horn 12
2011-10-26, 23:04:23
Der 11.11-er Beta Treiber enthält "Neue info Bezeichnungen" zur Neuen HD7000-er Serie.
Laut umherschwirrenden Infos soll gar Heuer noch eine "HD7850/ 7870 und gar HD7950 kommen.
Nur das Topmodell soll auf Anfang 2012 verschoben werden.

Gipsel
2011-10-27, 03:13:54
Der 11.11-er Beta Treiber enthält "Neue info Bezeichnungen" zur Neuen HD7000-er Serie.
Laut umherschwirrenden Infos soll gar Heuer noch eine "HD7850/ 7870 und gar HD7950 kommen.
Nur das Topmodell soll auf Anfang 2012 verschoben werden.
Also auch in dem Treiber finden sich bisher anscheinend nur ein paar Bezeichnungen für Refreshprodukte (sprich GPUs der NI-Generation/VLIW-Architektur mit HD7000er Name, vielleicht gibt es ja ein paar kleinere Änderungen). Was fehlt, sind die Nummern für alles höher als HD7600, die kommen bisher nur in Gerüchten vor, aber nicht im Treiber. Da tauchen sie bisher nur unter ihren Codenamen auf (Tahiti/NewZealand, Pitcairn, CapeVerde + die zugehörigen Mobilvarianten Wimbledon sowie Heathrow/Chelsea, Lombok [HD7400] und Thames [HD7500M] sind in den niedrigen Nummern verbraten).

deekey777
2011-10-27, 10:04:43
Was sind eigentlich R575, R475 uä?

Auch wenn ich kurzsichtig bin, finden sich keine neuen Einstellungen in diesem Treiber.

Soul
2011-10-27, 11:20:57
@Gipsel

Ich beziehe mich nur auf diese Aussage, dass die 7500 - 7800 auf Cayman basieren werden.

AMD is planning four different GPUs based on the 28nm version of the VLIW4 architecture and use them in three different series, Radeon HD 7800, HD 7600 and HD 7500. The four GPUs will be equipped with 768 to 1536 Radeon cores (stream processors) and GDDR5 memory in high speeds.

Radeon HD 7870 is the top model based on the GPU Thames XT and according to the documents they will be made with TSMC's 28 nanometer HPL technology (High Performance Low-power). Despite specifications that are similar to the current top model Radeon HD 6970 - actually higher on several points - Radeon HD 7870 will get a maximal power consumption of only 120 watt, which is more than half of the 250 watt the 40nm precursor consumed.

Besides Thames XT we also have Thames Pro, Lombok XT and Lombok Pro where all use the same efficient 28nm technology with power consumption down to 50 watt.

Schnitzl
2011-10-27, 12:24:15
na wenn das nur 120W sind noch besser, dann wirds die 7870 :D

Gipsel
2011-10-27, 14:06:21
@Gipsel

Ich beziehe mich nur auf diese Aussage, dass die 7500 - 7800 auf Cayman basieren werden.Und ich habe gesagt, daß das ziemlich sicher falsch ist. Wo willst Du dann noch die 3 GCN-Dies Tahiti, Pitcairn und CapeVerde im Nummernschema unterbringen?

Und wo kommt eigentlich der Text her? Nicht daß das dür den Wahrheitsgehalt eine Rolle spielen würde, ich frage nur interessehalber nach einem Link.
AMD is planning four different GPUs based on the 28nm version of the VLIW4 architecture and use them in three different series, Radeon HD 7800, HD 7600 and HD 7500. The four GPUs will be equipped with 768 to 1536 Radeon cores (stream processors) and GDDR5 memory in high speeds.

Radeon HD 7870 is the top model based on the GPU Thames XT
Das ist eindeutig falsch. Thames ist die Mobilvariante von Lombok. Lombok wird laut letztem Beta-Treiber HD7400, Thames HD7500M (und vielleicht noch 7600M). Die werden wohl auf der VLIW-Architektur beruhen, die anderen aber eher nicht.
and according to the documents they will be made with TSMC's 28 nanometer HPL technology (High Performance Low-power).An den "Dokumenten" wäre ich ja auch mal interessiert. :rolleyes:

Soul
2011-10-27, 14:22:44
Das ganze ist von http://www.nordichardware.com/news/71-graphics/44072-radeon-hd-7900-series-gets-new-architecture-and-xdr2-rambus-memory.html

john carmack
2011-10-27, 18:23:25
Bin mal gespannt ob sich das mit dem XDR2 bewahrheiten wird... :)
Auf den ersten Blick ein PapierTiger... Naja, wer weiß...

http://s7.directupload.net/images/111027/temp/adnbcr9y.jpg (http://s7.directupload.net/file/d/2690/adnbcr9y_jpg.htm)

LovesuckZ
2011-10-27, 22:34:30
Das kommt direkt aus AMD's Quartalszahlen zum Q3 2011:


AMD demonstrated the industry's first 28 nanometer mobile GPU. AMD's next-generation family of high-performance graphics cards is expected to ship for revenue later this year.
http://www.marketwire.com/press-release/amd-reports-third-quarter-results-nyse-amd-1578844.htm

Wenn man mit Stand heute so etwas schreibt, ist die Wahrscheinlichkeit schon sehr hoch, dass es in diesem Jahr keine 28nm im Retail-Geschäft zu kaufen geben wird.

horn 12
2011-10-28, 07:23:09
Kann aber auch heissen dass es Ende des Jahres wird und man die Mobile zu erst releast.
Tippe dennoch dass es was wird dieses Jahr...
Zumindest die HD6850/ 6870 sollten abgelöst werden.

deekey777
2011-10-28, 09:42:39
Die Frage ist auch: Werden die neuen GCN-GPUs vor oder mit DX11.1 veröffentlicht?

AnarchX
2011-10-29, 14:12:12
Ein wüstes Gemenge aus Gerüchte und Informationen bei Chiphell: http://translate.google.de/translate?u=http%3A%2F%2Fwww.chiphell.com%2Fthread-299051-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

Renaming von HD 6000 in HD 7000?
Eine HD 6770 mit 2GiB als HD 7770?
GCN-GPUs nicht mehr als "Radeon HD"?

boxleitnerb
2011-10-29, 14:13:19
Hm, ich bin eigentlich der letzte, der sich über eine frische Bezeichnung beschwert. Aber das Renaming sollte man sein lassen, das war schon bei Nvidia scheiße. Daraus sollte man eigentlich gelernt haben.

AnarchX
2011-10-29, 14:19:43
Die 5700er hat man ja auch einfach in 6700er umbenannt.
Und die 7000er Umbennung scheint wohl in Richtung OEMs zu gehen, wo Nvidia wohl auch eine GeForce 600 Serie auf Basis alter GPUs bzw. 28nm GF1xx plant.

Vielleicht AMD FX Graphics... ;D

Skysnake
2011-10-29, 14:21:21
Naja, mit GCN könnte man schon ein GANZ! neues Namensschema einführen. Ist es doch die größte Architekturumstellung der letzten Jahre. Wenn nicht jetzt, dann gar nicht.

Viel Platz hat man ja nicht mehr nach oben. HD7k ist jetzt dann weg, bleiben nur noch HD8k und HD9k, und was macht man dann? Einfach fortführen? Naja, mal schauen.

Ich bin auf jeden Fall gespannt, was da jetzt dann wirklich noch dieses Jahr bei nVidia und AMD so bei rum kommt.

boxleitnerb
2011-10-29, 14:21:24
Hoffentlich ist dann nur der Name ähnlich... ;)

Ailuros
2011-10-29, 14:42:11
Jegliche Namensgebung ist so egal wie sie auch sein kann. Im Notfall geht man von vierstelligen Modell-nummern einfach auf dreistellige wie NV.

AnarchX
2011-10-30, 14:44:08
Meanwhile, AMD's 28nm Southern Islands-based Radeon HD 7000 GPUs have already entered production with official launch expected in first-quarter 2012.
http://www.digitimes.com/news/a20111026PD214.html

deekey777
2011-11-02, 16:38:50
AMD Delays Next Generation Radeon launch to Q1 2012 (http://www.rage3d.com/index.php?cat=75#newsid33983358)
AMD are delaying the launch of their hotly anticipated next generation Radeon cards featuring Graphics Core Next Gen architecture to Q1 2012, despite previously targeting Q4 '11 for launch.

Rage3D's sources indicate that the problem is on the production side, not the design side, possibly indicating TSMC's 28nm process Q4 volume ramp up isn't enough to launch the new line up for Christmas.

Uncool

LovesuckZ
2011-11-02, 17:19:24
Logische Konsequenz aus der Aussage zum Q3 Ergebnis.

boxleitnerb
2011-11-02, 17:22:23
Ich finde es gut, wenn Kepler und SI näher zusammenrücken, denn das hilft potentiellen Käufern, zu entscheiden. Ich hab gerne die Wahl, und dann 6 Monate auf die Konkurrenz warten zu müssen, macht wirklich keinen Spass.

Coda
2011-11-02, 17:36:11
Die Bildqualität dürfte auf jeden Fall kein Thema mehr sein, denn AMD meint ja das AF gefixt zu haben.

boxleitnerb
2011-11-02, 17:43:31
Das wäre schön, bloß hoffentlich kommt da noch mehr. Auch wenn es bei der Konkurrenz inoffiziell und oft ein Gebastel ist, wäre es wünschenswert, wenn AMD was tut bzgl. SGSSAA und Downsampling. Die 7990 will ja auch was zu tun haben ;)

aylano
2011-11-02, 18:57:53
Ich finde es gut, wenn Kepler und SI näher zusammenrücken, denn das hilft potentiellen Käufern, zu entscheiden.
... 6 Monate auf die Konkurrenz warten zu müssen, macht wirklich keinen Spass.
Wo ist die Logik, dass man mit der SI-Verspätung auf Keplern genausolang warten muss wie ohne SI-Verspätung?

Der neue AMD-CEO hat beim letzten Geschäftsbericht-Call nervend oft genug das Vertrauen in Lieferbarkeit erwähnt.

Launch ist eine Sache, die Verfügbarkeit eine andere.
(Wobei das ja auch für TSMC gilt (alias Wafer & Yield))
Es wird interessant, wie das dann (vorallem High-End) genau aussieht.
Schließlich wurde die 28nm-Massen-Produktion überhaupt erst vor kurzem gestartet, wodurch somit auch <60mm²-Chips bisher (wirtschaftlich) nicht machbar waren.

boxleitnerb
2011-11-02, 19:02:36
Was verstehst du nicht?
Vorher (Bsp.): Karte A erscheint im Dezember, Karte B im April
Nachher: Karte A erscheint im Februar, Karte B im April

Für einen interessierten Käufer finde ich die zweite Situation besser, weil es einfacher ist, 2 Monate zu warten als 4. Nachher kauft man sich was, und 2 Monate später erscheint ein noch besseres Produkt (theoretisch!), dann beisst man sich in den Arsch ;)
Ich vergleiche gerne, bevor ich was kaufe, und das geht halt nicht, wenn es nichts zu vergleichen gibt.

aylano
2011-11-02, 19:41:41
Was verstehst du nicht?
Vorher (Bsp.): Karte A erscheint im Dezember, Karte B im April
Nachher: Karte A erscheint im Februar, Karte B im April

Für einen interessierten Käufer finde ich die zweite Situation besser, weil es einfacher ist, 2 Monate zu warten als 4.

Das hört sich nicht nach warten an, sondern an "Widerstehen der Kaufverlockungen".
Denn wenn du eine neue schnellere GPU "brauchst" wartest du genausolange, während in deinem bevorzugten Fall du nur weniger lang den Reizen einer neuen GPU widerstehen "musst".
Schließlich hätte es auch eine Bedeutung, wenn sich später beide zusätzlich um (sagen wir mal) 1 Jahr verspäten.

Grundsätzlich wird es interessant sein, ob die Fertigungs-Qualität (Yield (& Kapzitäten)) bei der 28nm dann jene von Frühjahr 2009 oder Herbst 2009 oder Mitte 2010 entspricht.

boxleitnerb
2011-11-02, 19:48:44
Welche GPU man sich dann letztendlich kauft, ist ja offen. Den essentiellen Teil meines Postes hast du leider nicht aufgegriffen.

Klar, wer es ganz dringend braucht, der kauft sofort. Ich gehe eher von Leuten wie mir aus, die sich gründlich informieren und vergleichen, bevor sie 400-500 Euro oder noch mehr ausgeben.

G 80
2011-11-02, 21:53:47
Die Bildqualität dürfte auf jeden Fall kein Thema mehr sein, denn AMD meint ja das AF gefixt zu haben.


Wo haben sie das gesagt bzw. steht das; bzw. Link plz!

aylano
2011-11-02, 22:04:53
. Den essentiellen Teil meines Postes hast du leider nicht aufgegriffen.

... Ich gehe eher von Leuten wie mir aus, die sich gründlich informieren und vergleichen, bevor sie 400-500 Euro oder noch mehr ausgeben.
Vergleichen kann man nur, wenn beide 28nm-GPUs draußen sind und somit warten Leute wie du sowieso auf Kepler-High-End und somit sollte die Verzögerung von SI für Leute wie dich egal sein.

Informierte Leute wissen schon ungefahr was sie erwartet.

-----

Eigentlich sollte man dann beim SI-Start schon "wissen", wieniedrig ein Hersteller die Grafikkarten-Preise bei bestimmter Die-Größe setzen kann, sowie sollte man die Performance von Kepler-High-End einzusätzen ist, sodass man eigentlich schätzen sollte, ob sich das Warten auszahlt.

z.B Ob Kepler-High-End +75% oder +100% Performance-Zuwachs erreicht, bedeutet dieser Abstand auch nur Plusminus 6,5%.

Einen Shrink sollte man auch besser einschätzen können, als eine Neue Architektur.
Und mit Yieldraten bekannter 28nm-GPUs sollte man auch die ungefähren GPU-Einführungen bei jeweiliger Die-Größe einschätzen können. (siehe die ersten 12 Monate von 40nm)

Wobei die Einführung von SI-28nm Anfang 2012 nicht automatische eine Einführung von High-End bedeutet.
Vielleicht müssen wir sowieso länger warten, als jetzt manche vermuten wollen.

Blaire
2011-11-03, 02:40:13
Wo haben sie das gesagt bzw. steht das; bzw. Link plz!

Coda hat doch bei der Problemfindung mitgeholfen. ;)

Ailuros
2011-11-03, 08:06:03
Coda hat doch bei der Problemfindung mitgeholfen. ;)

Allen Respekt an Coda, aber wenn die Algorithmen-engineers bei AMD eine jegliche dritte Quelle brauchen um ihre eigenen Fehler zu identifizieren hab ich so manchen Grund in Unruhe zu kommen. Unter normalen Umstaenden sind solche bugs sehr wohl den engineers bewusst, man pfeift eben gleichgueltig in die Gegend bis jemand den Mist entdeckt und kann danach so manchen Bloedsinn behaupten.

AMD Delays Next Generation Radeon launch to Q1 2012 (http://www.rage3d.com/index.php?cat=75#newsid33983358)

Uncool

Was soll daran uncool sein? Ich weiss nicht mehr wie lange es her ist als ich in diesem Thread vermittelte, dass die Chancen fuer jeglichen komplizierten chip unter 28nm fuer 2011 gleich Null sind. Wenn in einem oeffentlichen Gespraech zich engineers von diversen IHVs es behaupten und auch der AMD Kerl dagegen nicht reagiert braucht man wohl nicht fragen ob ich es bin der auf dem Dach miaut.

Uebrigens bitte nicht als Fakt annehmen, sondern als Moeglichkeit: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9016667&postcount=1120

Soul
2011-11-03, 09:07:36
AMD Delays Next Generation Radeon launch to Q1 2012 (http://www.rage3d.com/index.php?cat=75#newsid33983358)

Die AMD GCN habe ich in Q4 auch nicht erwartet aber die auf VLIW4 Basis schon. Denke AMD wird das Gleiche machen wie damals mit der 6000er Series. Zuerst im Dez. die 7850/7870 auf VLIW4 Basis und dann in Q1/2012 die 7950/7970 auf GCN Basis.

Dural
2011-11-03, 09:40:54
Der RV740 auf meiner 4770 hat als Produktions Datum Woche 12 im 2009 drauf. Von da an ging es noch eine ganze Weile bis die grossen Chips wie RV870 kamen.

TSMC hat erst gerade vor kurzem die Massenfertigung von 28nm gestartet, ich glaub langsam das meine seit Wochen / Monate getätigten Aussagen von AMD Q1 und NV Q2 für die neuen Architekturen mittlerweile vielleicht sogar zu optimistisch ist... :rolleyes:

Zudem wenn jetzt schon die VLIW4 / 28nm mehr oder weniger halb Offiziell erst im Q1 kommen, würde ich SI Chips im Q1 nicht mehr wirklich erwarten.

Der_Korken
2011-11-03, 13:31:38
Warum sollte der GCN-Chip nicht zeitgleich mit dem VLIW4-Chip kommen, wenn ersterer nach Aussage von AMD auch schon fertig ist? Der eigentliche Grund für die Verschiebung soll ja allein die Fertigung sein.

Gipsel
2011-11-03, 14:44:14
Kommen überhaupt VLIW4-Chips in 28 nm?

Botcruscher
2011-11-03, 16:09:55
Mit den neuen Terminen herrscht endlich auch wieder Normalität. Die feierlichen Meldungen zu 28nm vor nicht all zu langer Zeit waren ja schon nicht mehr zu ertragen.

LovesuckZ
2011-11-03, 16:18:16
Naja - die feierlichen Meldungen gab es nur in Zusammenhang mit AMD. Bei nVidia war dagegen alles richtig schlimm - also auch der verwendete 28nm Prozess...

Laut der Pressemeldung von TSMC eignet sich HPL (http://www.tsmc.com/english/dedicatedFoundry/technology/28nm.htm) auch nur für "Kleinkram". AMD wird also entweder sehr langsame GPUs auf den Markt bringen oder auch den HP Prozess verwenden.

Botcruscher
2011-11-03, 16:23:11
Auf Seite 8 steht nix von NV nur alles wird gut.

Gipsel
2011-11-03, 16:50:18
Laut der Pressemeldung von TSMC eignet sich HPL (http://www.tsmc.com/english/dedicatedFoundry/technology/28nm.htm) auch nur für "Kleinkram".Ach, der weltweit größte (mit den meisten Logikzellen) lieferbare FPGA (in 4 Slices auf einem Si-Interposer montiert) ist Kleinkram? :rolleyes:
Komischerweise erwähnt TSMC FPGAs explizit beim HP-Prozeß (Altera nutzt für ihre 28nm Versionen je nach Variante entweder HP oder LP) und trotzdem hat sich Xilinx für HPL entschieden. So einfach ist die Prozeßwahl also ganz offensichtlich nicht. ;)

Mal ganz davon abgesehen hat sich ein möglicher Vorteil von HPL, nämlich die frühere Verfügbarkeit im Vergleich zu HP, inzwischen vollkommen in Luft aufgelöst.

Duplex
2011-11-03, 16:51:25
Laut der Pressemeldung von TSMC eignet sich HPL (http://www.tsmc.com/english/dedicatedFoundry/technology/28nm.htm) auch nur für "Kleinkram". AMD wird also entweder sehr langsame GPUs auf den Markt bringen oder auch den HP Prozess verwenden.
Ich dachte AMD wird so oder so den HP Prozess verwenden?
Was willste mit HPL & GCN :freak:

VLIW4 > HPL oder HP
GCN > HP

Alles andere wäre doch eine Dummheit...
Warum ist überhaupt Rick Bergmann weg?

Ailuros
2011-11-03, 16:59:03
Warum ist überhaupt Rick Bergmann weg?

Weil er die Nase voll hatte von idiotischen Entscheidungen innerhalb AMD.

gedi
2011-11-03, 17:22:50
Naja - so würde ich es nicht ausdrücken wollen. Eher hat er sich mehr erhofft, als AMD es ihm letztendlich zugestanden hat!

Ailuros
2011-11-03, 18:14:07
Naja - so würde ich es nicht ausdrücken wollen. Eher hat er sich mehr erhofft, als AMD es ihm letztendlich zugestanden hat!

Ist aber trotzdem mit dem vorigen indirekt verbunden; denn Bergmann hatte fuer AMD als CEO so manche andere Strategie im Hinterkopf als die Firma in letzter Zeit anwendet oder auch anwenden wird.

AffenJack
2011-11-04, 09:55:35
Inwiefern?
Wie siehst du Amds Strategie gerade und wie dazu im gegensatz mit Rick Bergman?

Soul
2011-11-04, 10:16:10
AMD are delaying the launch of their hotly anticipated next generation Radeon cards featuring Graphics Core Next Gen architecture to Q1 2012, despite previously targeting Q4 '11 for launch.

Rage3D's sources indicate that the problem is on the production side, not the design side, possibly indicating TSMC's 28nm process Q4 volume ramp up isn't enough to launch the new line up for Christmas.

The good news is that the wait might be worth it, with the new high-end single GPU offering performance levels close to the HD 6990 dual-GPU flagship card. However, we've seen with the 5800, 5900 and 6900 series that AMD aren't afraid to move up the price ladder if they feel the performance warrants the price. With the HD 6990 retailing well over $700USD, will the single GPU replacement really be in the same price bracket as the $400 6970?

Ein 28nm mit der Leistung einer 6990. Wie hoch müsste eine VLIW4 Version sein? 1.2GHz um das zu schaffen?

Duplex
2011-11-04, 10:23:02
Ein 28nm mit der Leistung einer 6990. Wie hoch müsste eine VLIW4 Version sein? 1.2GHz um das zu schaffen?
640 VLIW4 Shader @700MHz (2560 SPs) sollte für 6990 Leistung ausreichen.
Aber wegen GCN wird sowas wahrscheinlich nicht mehr kommen.

AnarchX
2011-11-04, 10:24:49
Unter entsprechender Spiele-Last ist eine 6990 gute 70% schneller als eine HD 6970, als wohl eher 1,5GHz GPU mit ~ 8Gbps GDDR5. ;)

Aber mit GCN erreicht man wohl eine ähnliche Spieleleistung auch ohne 5 TFLOPs SP Peak und 192 TMUs.

Es wird aber interessant sein, wie AMD hier die nötige Bandbreite erreicht, mit 256-Bit GDDR5 wird man hier wohl nicht auskommen.

Duplex
2011-11-04, 10:30:34
Was wollt ihr mit Taktraten von 1Ghz+ bei GPUs...
Wie ich schon sagte, 640-4D Shader @700Mhz reichen für 6990 Leistung.

AnarchX
2011-11-04, 10:36:21
Da möchte man aber auch das Front-End entsprechend skalieren, was SIMDs allein bringen, hat man ja bei Cypress gesehen.

Duplex
2011-11-04, 10:39:33
Naja mit den VLIW5 Compiler hat Cypress 60-70% mehr Leistung als der Vorgänger gehabt, bei 100% mehr Einheiten ist das nicht viel, aber die Chipfläche war auch nur 335mm² groß :)
Neben den 100% mehr Einheiten hat man damals auch viel Arbei in DX11 investiert...

K4mPFwUr$t
2011-11-04, 10:55:54
mal so eine frage in die runde: wann ist anzunehmen das AMDs neue graka generation auf dem markt erscheint?

AnarchX
2011-11-04, 11:01:23
mal so eine frage in die runde: wann ist anzunehmen das AMDs neue graka generation auf dem markt erscheint?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9018503#post9018503 :|

Irgendwann im ersten Halbjahr 2012 wird man wohl eine 28nm GPU mit GCN-Architektur kaufen können.

Duplex
2011-11-04, 11:01:38
@K4mPFwUr$t
Kommt drauf an was man unter neue Generation versteht...
DIE Shrink der Cayman Architektur oder neue GCN Architektur
Vielelicht gibt es nächsten Monat VLIW4 Chips auf Cayman Basis mit 200mm² DIE Space, also HD6800 Nachfolger.

Ailuros
2011-11-04, 15:35:56
Inwiefern?
Wie siehst du Amds Strategie gerade und wie dazu im gegensatz mit Rick Bergman?

Es ist verdammt OT und ich moechte auch Charlie's Glaskugel nicht klauen :wink: Fuer mich ist es Tatsache dass Bergmann einer der klugen Koepfe innerhalb AMD war der ziemlich viel bei richtigen strategischen Entscheidungen sowohl fuer CPUs als auch fuer GPUs beigetragen hat. Was im Hintergrund an Thesen fuer moegliche Strategien herumschwirrt, lass ich momentan aussen weg, aber wenn selbst nur die Haelfte stimmen sollte haben so manche im Management einen Vogel bei AMD.

Noch mehr OT: ich erwarte nicht dass Bergmann sehr lange bei Synapsis bleiben wird. Intelligente Leute die wissen wo es lang geht sind stets Material fuer jegliche headhunters.

horn 12
2011-11-05, 20:04:59
http://www.gamestar.de/hardware/news/grafikkarten/2561747/amd_radeon_hd_7000.html

deekey777
2011-11-05, 21:06:30
Next-generation 28nm GPUs Could Be 45 Percent Faster (http://www.dailytech.com/Nextgeneration+28nm+GPUs+Could+Be+45+Percent+Faster/article23158.htm)
Two of TSMC's biggest customers are AMD and NVIDIA. Both have taped out GPU designs using TSMC's 28nm High Performance (28HP) process. AMD's next-generation GPU series is codenamed Southern Islands. The Tahiti GPU is supposed to launch early in December, while NVIDIA's Kepler GPU will launch in February of 2012.
Jetzt wird's unübersichtlich.

Käsetoast
2011-11-05, 21:50:56
Was heisst unübersichtlich? Die Ankündigung von Rage3D, dass neue Karten erst nächstes Jahr kommen, ist genauso ein Gerücht wie, dass die neuen Karten am 6. Dezember vorgestellt werden, nur irgendwie scheinen in jüngster Zeit die meisten die Rage3D Aussage für bare Münze zu nehmen...

Solange AMD nichts Offizielles von sich gibt darf fleißig weiter spekuliert werden... :smile:

john carmack
2011-11-05, 22:01:46
NDA?

Hugo78
2011-11-05, 22:56:19
Ich kann mir schon vorstellen, dass AMD am 6. Dez. sowas wie eine Vorschau auf SI bringt.
Genauso wie Jensen eventuell schon am 12. November, Kepler vorstellt; Link (http://sc11.supercomputing.org/files/SC11Keynote-Huang-NVIDIA.pdf).

Liefern werden beide Firmen aber erst, wenn es sich lohnt und das muss nicht zwangläufig heißen,
dass die Firma die zuerst auf dem Markt ist, auch den Gewinn einstreicht.

Gipsel
2011-11-06, 11:03:59
Ich kann mir schon vorstellen, dass AMD am 6. Dez. sowas wie eine Vorschau auf SI bringt.
Genauso wie Jensen eventuell schon am 12. November, Kepler vorstellt; Link (http://sc11.supercomputing.org/files/SC11Keynote-Huang-NVIDIA.pdf).Aus dem Link habe ich zwei Sachen gelernt: Das Buzzword (eher Buzz Phrase) "faster time to discovery" (:freak:) und das Detail aus Huangs Lebenslauf, daß er vor der nVidia-Gründung bei AMD als "microprozessor designer" gearbeitet hat. Ansonsten ist das leider kein Abstract des Vortrages sondern eher eine Laudatio.

Hugo78
2011-11-06, 11:12:48
Ja was genau er da jetzt als Keynote aka "Eröffnungsrede einer Tagung", bringt weiß nur er.
Aber es könnte ja sein, dass er bisschen was handfestes blicken lässt.

horn 12
2011-11-08, 23:14:37
Beim Konkurrenten scheint echt schon langsam der Ausverkauf zu beginnen.
Die GTX 570 wird nun wieder unter 250 Euro angeboten,teils mit Spielebundle, BF3 oder Batman AA.

Hoffe AMD bekommt dies auch noch auf die Reihe, der 6.te Dezember ist ja nicht mehe allzulange hin,- fslls sich dies bewahrheitet!

MadManniMan
2011-11-09, 23:07:01
http://www.fudzilla.com/graphics/item/24778-radeon-hd-7900-series-in-january

Fuad sagt Januar, ich hoffe, er hat Recht ...

... was er auf jeden Fall an der Stelle hat, als er "Hopeful 2012 will be a bit more interesting in the graphics world, as 2011 will probably go down in history as one of the most uneventful years since the nineties." sagt.

Coda
2011-11-09, 23:12:32
Januar passt mir sehr gut rein :)

MadManniMan
2011-11-09, 23:44:30
Januar passt mir sehr gut rein :)

Wenn Ivy Bridge sich dahin auch noch vorzöge ...

horn 12
2011-11-09, 23:50:25
Wäre mir auch recht....
Kann man wohl davon ausgehen das Taiti PRO mindestens 40% schneller als die HD6970 werden sollte,- das Spitzenmodell (HD7970) wohl über 60%.

PREISE: 350-450 Euro oder sollte ich mich irren?

Coda
2011-11-09, 23:55:44
Wenn Ivy Bridge sich dahin auch noch vorzöge ...
Hab schon die sandige Brücke jetzt ;)

MadManniMan
2011-11-09, 23:59:49
Ach, Geldscheißerei!

Nee, der E8400 macht halt noch im Moment ... wäre halt schön, wenn mal wieder ein Upgrade RICHTIG zieht - und nach Längerem hätte AMD mal wieder ne Chance bei mir. Daumen drücken, dass es besser als beim Bulldozer läuft.

Für wann is Kepler angesetzt?

Coda
2011-11-10, 00:07:07
Hey, der Q9300 war jetzt 3 Jahre alt, der hatte seine Rente verdient ;)

Kepler ist auch für Frühjahr angesetzt, wenn nichts schief läuft.

MadManniMan
2011-11-10, 10:06:00
Boah, dein Quatschchor war schon 3 Jahre alt und ich fare immer noch zweikernig. Egal, gearbeitet wird auf Arbeit.

Was deutet auf Kepler im Frühjahr? Wenn Fuad sagt, man munkele bei den 7000er HDs von Januar, dann bin ich geneigt, das als Schemen einer Quelle zu akzeptieren.

Screemer
2011-11-10, 11:20:14
Ach, Geldscheißerei!

Nee, der E8400 macht halt noch im Moment ... wäre halt schön, wenn mal wieder ein Upgrade RICHTIG zieht - und nach Längerem hätte AMD mal wieder ne Chance bei mir. Daumen drücken, dass es besser als beim Bulldozer läuft.

Für wann is Kepler angesetzt?
ich bin jetzt auch von einem e8400 auf einen 2500k umgestiegen. da merkt man schon, dass der besser "zieht" als der alte dc. allerdings ärgere ich mich, dass ich mir vor einiger zeit schon einen cayman zugelegt habe. gnc scheint ja ne schöne sache zu werden.

AnarchX
2011-11-12, 09:47:08
Gerüchte von Chiphell:
http://www.chiphell.com/forum.php?mod=viewthread&tid=299051&page=4&authorid=232 (cfcnc hat schon desöferen mal etwas geleakt)

Tahit wohl mit mehr Problemen, als GF100 sie hatte: 384-Bit, großer Die, instabiles Yield, PCIe 3.0 und das Problem mit dem schnellen GDDR5.

(Imo wird wohl GK100 auf die sichere Varianten mit 512-Bit GDDR5 setzen.)

Die schnellste 28nm GPU (von AMD oder NV) soll wohl im 3DM Vantage P45000+ erreichen, das wäre 50% über einer GTX 580, aber wohl schon cpu-limitiert.

Skysnake
2011-11-12, 10:01:27
Ein 384-Bit Interface würde aber XDR2 RAM dann garantiert ausschließen, es sei denn man hätte ein echtes Monsterinterface.

"großer" DIE ist halt auch so ne Sache. Bekommen wir auch son nVidia Monster-DIE, oder nur für AMD ein relativ großer DIE, was ja zu erwarten war. Das kann dann aber noch immer deutlich kleiner sein als der nVidia DIE.

PCI-E 3.0 könnte sich aber wirklich als großes Problem erweisen. Intel hat ja scheinbar auch SCHWER daran zu knabbern. Wenn SB-E für den Desktop aber ohne kommt, könnte man das ohne Probleme auch bei den GPUs streichen. Für die Tesla/Firepro Karten hat man ja noch etwas Zeit, um das eventuelle Problem zu fixen.

Bei AMD soll ja wohl selbst Piledriver kein PCI-E 3.0 bringen, einfach weil der HT-Link ein Flaschenhals ist.... Da müssen die echt was machen.....

Für den Consumermarkt, gibt es dann PCI-E 3.0 dann aber halt erst mit IB, und das wars, wenn SB-E kein 3.0 bringt, wovon ich für die Core-ix auch aus gehe.

Man ist also nicht unter so einem großen Druck, wobei IB schon ein großes Volumen aus macht....

AMD muss sich aber dennoch ran halten.... Wenn die erst 2013 PCI-E 3.0 bringen, dann wirds echt bitter...

AffenJack
2011-11-12, 10:07:31
Gerüchte von Chiphell:
http://www.chiphell.com/forum.php?mod=viewthread&tid=299051&page=4&authorid=232 (cfcnc hat schon desöferen mal etwas geleakt)

Tahit wohl mit mehr Problemen, als GF100 sie hatte: 384-Bit, großer Die, instabiles Yield, PCIe 3.0 und das Problem mit dem schnellen GDDR5.


Problem mit schnellen GDDR5? Das wiederspricht der 384Bit These. Bei 384Bit reicht doch selbst minimal höher getakteter GDDR5 als jetzt locker aus, glaube nicht, dass man da Probleme hat.


Ein 384-Bit Interface würde aber XDR2 RAM dann garantiert ausschließen, es sei denn man hätte ein echtes Monsterinterface.


Es wird GDDR5 und kein XDR2, XDR2 war von Anfang an nur ein blödes Hirngespinst auf der Fakefolie und völlig klar, dass es nicht in dieser Generation verwendet wird.

Ronny145
2011-11-12, 10:48:03
Gerüchte von Chiphell:
http://www.chiphell.com/forum.php?mod=viewthread&tid=299051&page=4&authorid=232 (cfcnc hat schon desöferen mal etwas geleakt)

Tahit wohl mit mehr Problemen, als GF100 sie hatte: 384-Bit, großer Die, instabiles Yield, PCIe 3.0 und das Problem mit dem schnellen GDDR5.

(Imo wird wohl GK100 auf die sichere Varianten mit 512-Bit GDDR5 setzen.)

Die schnellste 28nm GPU soll wohl im 3DM Vantage P45000+ erreichen, das wäre 50% über einer GTX 580, aber wohl schon cpu-limitiert.


Tahiti ist die GCN Variante? Gibt es noch andere GCN Ableger?


Wenn SB-E für den Desktop aber ohne kommt, könnte man das ohne Probleme auch bei den GPUs streichen.

Verstehe ich nicht. Die Plattform wird so einen geringen Marktanteil ausmachen, das es für AMD fast egal sein kann. Das größere Problem sehe ich bei der Mainstream Plattform. Intel kann das PCIe 3.0 schön ausschlachten. SB-E wird PCIe 3.0 wohl inoffiziell unterstützen. Alle Boards werben damit. In der einen Folie steht Intel believes that some PCIe devices may be able to achieve the 8GT/s PCIe transfer rate. Vielleicht fehlten bei der X79 Board Validierung entsprechende PCIe 3.0 Geräte. Anders kann ich mir das believe nicht erklären. Entweder es geht oder es geht nicht.

deekey777
2011-11-12, 10:52:26
Tahiti ist absolutes Highend, und zuerst werden die Highendprodukte vorgestellt (oder max. zusammen mit kleineren).

Gipsel
2011-11-12, 11:23:42
Tahiti ist die GCN Variante? Gibt es noch andere GCN Ableger?Pitcairn und CapeVerde.

Soul
2011-11-12, 14:16:38
Ich bin immer noch der Meinung, dass die Reihen bis 7870 auf der alten VLIW4 Architektur sein werden wie bei der 6000er Reihe und am Anfang nur die HighEnd Chips 7950-7990 auf GCN basieren werden. Ab Ende Jahr / Januar werden wir es dann genau sehen.

MadManniMan
2011-11-12, 14:39:18
ich bin jetzt auch von einem e8400 auf einen 2500k umgestiegen. da merkt man schon, dass der besser "zieht" als der alte dc. allerdings ärgere ich mich, dass ich mir vor einiger zeit schon einen cayman zugelegt habe. gnc scheint ja ne schöne sache zu werden.

Ach, noch wissen wir niente, also gräm dich nicht und erfreu dich an der Leistung deines Knechtes ^^

Würde ich zu hause arbeiten, wäre der 8400 wohl auch nicht mehr mein, aber zum Zocken reichts wohl ganz gut.

Locuza
2011-11-13, 12:28:51
Gerüchte von Chiphell:
[...]
Tahit wohl mit mehr Problemen, als GF100 sie hatte: 384-Bit, großer Die, instabiles Yield, PCIe 3.0 und das Problem mit dem schnellen GDDR5.

(Imo wird wohl GK100 auf die sichere Varianten mit 512-Bit GDDR5 setzen.)
[...]
Wie realistisch ist das angesichts dessen, dass laut anderen rumors das Design schon seit einigen Monaten fertig, Tapeout (Februar lt. Charlie) usw.?
Zwar klingt es erstmal total logisch das es viele Probleme gibt ( gab? ), aber bis zum Januar könnte man doch sogar mehrere Re-Spin hinbekommen?