PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

AnarchX
2013-08-06, 13:19:31
2015: Pirates of… Graphics?

Perhaps one of most interesting codenames is coming down the pipe in 2015: Pirates Islands. Yes, you've read it correctly. Bringing a tribute to legendary pirates such as the Blackbeard, Captain Hook or well, Captain Jack Sparrow, AMD's imaginative engineers are targeting the 20nm process with 14nm APUs in mind. The real work on this GPU architecture only started recently (GPUs are being designed 2-4 years in advance) and guessing what lies on cards is a bit too unpredictable. We know feature set, but performance… your guess is as good as ours.
http://vr-zone.com/articles/amd-next-generation-codenames-revealed-2013-2014-2015-gpus-get-names/17154.html

Added AMD Pirate Islands: Bermuda, Fiji, Treasure.
http://www.hwinfo.com/txt/History3264.txt

Duplex
2013-08-06, 13:41:41
Müsste der Nachfolger von Volcanic Islands sein

Southern Islands > Volcanic Islands > Pirate Islands

Wenn Pirate Islands 20nm ist, dann ist Volcanic Islands bestimmt noch 28nm.

Dann würde Maxwell vermutlich erstmal auch 28nm sein.

fondness
2013-08-06, 13:44:25
Wenn Pirate Islands 20nm ist, dann ist Volcanic Islands bestimmt noch 28nm.


Sehe ich auch so. Pirate Islands wird der VI-Refresh in 20nm, dürfte wohl ca. ein Jahr später kommen, vor H2/2014 wird es eh nichts mit 20nm.

Dann würde Maxwell vermutlich erstmal auch 28nm sein.

IMO bringt NV bis Maxwell gar nichts mehr und ich denke da wartet man auch auf 20nm. Vor 2014 ist Maxwell laut Roadmap ohnehin nicht fertig.

Duplex
2013-08-06, 13:48:21
...

fondness
2013-08-06, 13:51:28
Würde mich darauf nicht festlegen, du weist ja nicht welche Gemeinsamkeiten SI & VI haben, ich gehe eher davon aus das Pirate Islands eine andere GPU Architektur als VI verwendet. Bei Volcanic Islands wurde bestimmt primär nur das Frontend aufgebohrt, bei Pirate Islands evtl. neue CUs.

Glaube ich nicht. Der Refresh von Southern Islands war Sea Islands, der wurde ja größtenteils gecancelt. An zwei Refresh-Generationen hintereinander glaube ich nicht, auch soll VI laut einigen Quellen eine neue Architektur sein. AMD versucht sich wohl in Intels "Tick-Tock"-Taktik: Zuerst eine neue Architektur in einem bekannten Prozess und dann ein Shrink für den Refresh.

Thunder99
2013-08-06, 14:19:33
Was nicht verkehrt wäre bei den problematischen Prozessen

john carmack
2013-08-06, 15:18:51
Glaube ich nicht. Der Refresh von Southern Islands war Sea Islands, der wurde ja größtenteils gecancelt. An zwei Refresh-Generationen hintereinander glaube ich nicht, auch soll VI laut einigen Quellen eine neue Architektur sein. AMD versucht sich wohl in Intels "Tick-Tock"-Taktik: Zuerst eine neue Architektur in einem bekannten Prozess und dann ein Shrink für den Refresh.

Sagt wer?
Das sind alles nur Vermutungen und Gerüchte!

Ich muss allerdings zugeben das sie sich realistisch anhören...

OBrian
2013-10-08, 19:10:23
Um den Thread mal wieder etwas zu beleben, nachdem die Spekulationsphase bei Volcanic Islands gelaufen ist:

Da nun der relativ ineffektive Tahiti erstmal weiterbenutzt wird, denke ich, daß der als erster mit einem neuen Chip ersetzt wird, der bei gleicher Leistung weniger Fläche hat und sparsamer ist.

Schätze so etwa 1792 Shader @ deutlich über 1 GHz an einem 256-bit-SI, mit feinkörnigem Powertune und natürlich dem Audio-DSP sowie überarbeitetem, platzsparendem Memorycontroller. Platz im Line-up ist ja gelassen worden, könnte als R9 280 ohne X kommen.

Nur: Wäre das dann schon der erste Testballon in 20nm (eine Verzögerung wäre ja nicht schlimm, weil die Lücke noch monatelang mit alten Chips gehalten werden kann) oder noch das letzte aus 28nm gequetscht? Oder ein Versuchschip bei GF, die ja nun schon längere Zeit GPUs für AMD herstellen (nur eben noch mit drangeklebter CPU)?

Knuddelbearli
2013-10-08, 19:30:22
noch eine 28nm Generation? wohl eher nicht?

AnarchX
2013-10-08, 19:48:13
Zumal ja noch ein paar Vulkan Inseln (Maui, Iceland, Tonga) ausstehen.

Skysnake
2013-10-08, 19:57:07
Ich glaub auch eher nicht, dass da noch was in 28nm kommt. Zumindest nicht, so lange es ein klassischer DIE bleibt.

OBrian
2013-10-08, 20:02:56
siehe http://forum.beyond3d.com/showthread.php?p=1792951#post1792951
As for the "Islands" (and putting so much faith in the internet rumor mill!) they are meaningless in terms of extracting an understanding of the IP set.
Das sind also eher fließende Übergänge und keine wirklichen Generationen mehr. Mal wird was an den Speichercontrollern verbessert, mal kommt ein Audio-DSP dazu. Das breitet sich dann nach und nach auf das ganze Angebotsspektrum aus, aber solche neuen Features kommen nicht mehr als Generation auf einen Schlag. Also hat es auch wenig Sinn, überhaupt noch die diversen Inselfamilien auseinanderzuhalten. Ich denke sowieso, daß AMD die Codenamen und Inselfamilien nur erfindet, damit wir in den Foren was zu grübeln haben^^

Also kann auch "zwischendurch" mal ein einzelner Chip neu kommen, so wie Bonaire, der ja z.B. den DSP schon drin hatte (wenn auch deaktiviert, aber das wird an der Software gelegen haben oder ist dem Marketing geschuldet, aber die 7790 soll TrueAudio ja nachträglich aktiviert bekommen) und damit durchaus als neu zu bezeichnen ist.

Felixxz2
2013-10-08, 20:59:33
Was ist eigentlich mit On-Die RAM per TSVs? Kann man das schon erwarten für PI? Oder vielleicht On-Package HMCs?

OBrian
2013-10-08, 22:04:44
Das sind zusätzliche Bearbeitungsschritte, die die Ausbeute eines Wafers sicher nicht steigern werden, also würde ich das erstmal nicht bei großen Chips erwarten. Und bei Grafikkarten kann man sich einfach mit breiterem SI und schnellerem RAM behelfen, das ist erprobt und damit problemloser. Der Nachfolger der 290X kann ja einfach bei 512-bit-SI bleiben und wieder auf vollen 6Gbps-RAM gehen oder noch schnelleren, das wäre erstmal wieder eine wohl ausreichende Steigerung. Und etwas größere Caches werden wohl auch hilfreich und einfach machbar sein.

Ich denke, wo es zuerst eingesetzt werden wird, ist einerseits da, wo es nötig ist, weil es anders keine Bandbreitensteigerung gibt, also bei APUs. Andererseits ist es bei DDR4-Modulen hochinteressant, um die Kapazität zu steigern, und bei RAM dürften auch die Yields viel besser sein als bei großen Logikchips.

Felixxz2
2013-10-08, 22:47:59
Naja 512 Bit + 6 Gbps kommt nur auf 384 GB/s. Das ist für nen 10+ TFLOP Chip schon nicht so viel. Man kann evtl. noch auf 7 gehn, aber auch das ist kein riesiger Sprung. Langfristig braucht man da schon Alternativen (nVidia hat AFAIK ja auf ner Roadmap schonmal 1 Tb/s mit HMC für die Zukunft angekündigt)

Knuddelbearli
2013-10-08, 23:17:28
gddr6 dürfte ja nur noch 2-3 Jahre dauern ( 1-2 jahre nach ddr4 )

Raff
2013-10-08, 23:25:26
Naja 512 Bit + 6 Gbps kommt nur auf 384 GB/s. Das ist für nen 10+ TFLOP Chip schon nicht so viel. Man kann evtl. noch auf 7 gehn, aber auch das ist kein riesiger Sprung. Langfristig braucht man da schon Alternativen (nVidia hat AFAIK ja auf ner Roadmap schonmal 1 Tb/s mit HMC für die Zukunft angekündigt)

Zumindest für Spiele wären 512 Bit plus 7-Gbps-GDDR5 für einen 10-TFLOPS-Chip wohl ausreichend, sofern man die Caches aufbläst. Das ergäbe satte 448 GByte/s, immerhin +56 Prozent auf die 288 GByte/s einer GTX Titan, die mit ihrer Transferrate sehr ordentlich hausiert. Eine solche Karte stemmt @ 1.200 MHz übrigens kranke 6,45 TFLOPS und zeigt dann mit 3.600 MHz Speichertakt (+20 %; 345,6 GByte/s) keine Flaschenhals-Erscheinungen.

MfG,
Raff

Felixxz2
2013-10-09, 00:44:48
gddr6 dürfte ja nur noch 2-3 Jahre dauern ( 1-2 jahre nach ddr4 )

GDDR5 kam 2008, also zeitgleich mit dem Auftreten von DDR3. Mal sehn ob das wieder so klappt und wie schnell GDDR6 überhaupt wird.

Zumindest für Spiele wären 512 Bit plus 7-Gbps-GDDR5 für einen 10-TFLOPS-Chip wohl ausreichend, sofern man die Caches aufbläst. Das ergäbe satte 448 GByte/s, immerhin +56 Prozent auf die 288 GByte/s einer GTX Titan, die mit ihrer Transferrate sehr ordentlich hausiert. Eine solche Karte stemmt @ 1.200 MHz übrigens kranke 6,45 TFLOPS und zeigt dann mit 3.600 MHz Speichertakt (+20 %; 345,6 GByte/s) keine Flaschenhals-Erscheinungen.

MfG,
Raff

Eben. Caches müssen hoch und es ist eben keine wirkliche "Endlösung", man fährt am Limit von normalem DRAM. HMC oder on On-Die RAM sind da ein ganze anderes Kaliber.

mboeller
2013-10-09, 14:00:18
Zumindest für Spiele wären 512 Bit plus 7-Gbps-GDDR5 für einen 10-TFLOPS-Chip wohl ausreichend, sofern man die Caches aufbläst. Das ergäbe satte 448 GByte/s, immerhin +56 Prozent auf die 288 GByte/s einer GTX Titan, die mit ihrer Transferrate sehr ordentlich hausiert. Eine solche Karte stemmt @ 1.200 MHz übrigens kranke 6,45 TFLOPS und zeigt dann mit 3.600 MHz Speichertakt (+20 %; 345,6 GByte/s) keine Flaschenhals-Erscheinungen.

MfG,
Raff

IMHO falsche Richtung.

HMC benötigt zB. nur 72 Pins bei 833MB/Pin. Damit sind 4-8 Channel pro GPU ohne Probleme möglich. 8 x 72 x 833 MB = 480GB/sec bei weniger Pins als ein 256bit GDDR5 interface.

Quelle: http://www.semi.org/en/sites/semi.org/files/docs/3_SiP%20Global%20Summit%203DIC%20Tehcnology%20Forum_%20Dean%20Klein.pdf Seite 22

Gipsel
2013-10-09, 15:20:04
IMHO falsche Richtung.

HMC benötigt zB. nur 72 Pins bei 833MB/Pin. Damit sind 4-8 Channel pro GPU ohne Probleme möglich. 8 x 72 x 833 MB = 480GB/sec bei weniger Pins als ein 256bit GDDR5 interface.

Quelle: http://www.semi.org/en/sites/semi.org/files/docs/3_SiP%20Global%20Summit%203DIC%20Tehcnology%20Forum_%20Dean%20Klein.pdf Seite 22
Naa, ganz so übel sieht es für GDDR5 nicht aus. Die 72 Pins bei HMC sind alle highspeed differential signaling pins und bestehen aus 16 Bit Read (32Pins), 16 Bit Write (32Pins), und die restlichen 8 sind vermutlich Takt bzw. für Adressierungspakete, die mit 15GBps (pro Lane/Pinpaar, also pro Pin sind es auch nur 7,5 GBps; und die 15GBps sind schon das Ende der Fahnenstange, angeblich gibt es 10, 12,5 und 15GBps) laufen. Ein 256Bit GDDR5-Interface geht im Vergleich sparsamer mit den Pins um, da die Datenpins alle single ended sind (und sowohl für Lesen und Schreiben benutzt werden). Das ist also nicht so ganz zu vergleichen. Und 7 GBps gibt es da jetzt auch schon. Für die reine Lese- oder Schreibperformance ist GDDR5 vermutlich mindestens so effizient (von der Pinanzahl her) wie HMC, was eventuell dann Vorteile bei gemischtem Betrieb hat. Wirklich interessant sind HMCs vor allem, weil es zum einen die Speichercontroller in der CPU/GPU vereinfacht (dafür muß man aber eine Menge sehr schneller SerDes verbauen, was auch Fläche kostet, die man z.B. bei HBM sparen könnte) und für Serveranwendungen nette hierarchische Speicherstrukturen (und sehr große Kapazitäten) erlaubt.

Edit:
Also gerade mal nachgezählt, ein 32 Bit GDDR5-Channel benötigt so 65 Pins, wenn ich mich nicht verzählt habe (32 davon Daten, der Rest sind Takt- bzw. Steuer- und Adresssignale, die nur mit halbem Takt laufen, also einfacher sind). Bei 7 GBps macht der 28GB/s Lesen, Schreiben oder eine Mixtur daraus, aber immer 28GB/s. Der 72 Pin HMC-Kanal, liest 30GB/s und schreibt 30GB/s. So ein richtiger Durchbruch ist das nicht (best case <x2, worst case schlechter).

Ein 256Bit GDDR5-Interface hat also 520 Pins (256 davon mit voller Geschwindigkeit, der Rest halbe Geschwindigkeit), ein 8 Kanal HMC-Interface (was zugegebenermaßen etwas schneller ist) benötigt aber 576 Pins (alle high speed).
Eine Weile war ja auch mal GDDR5 mit differential signaling (wie bei HMC) im Gespräch, mit dem man das Ganze über 6 GBps treiben wollte. Aber man hat gelernt, daß auch z.B. noch 7GBps single ended ganz gut funktionieren (bis 8 vermutlich auch noch) und der Overhead mit der doppelten Pinanzahl die mögliche Leistungssteigerung nicht rechtfertigt. Bei HMC sieht die Abwägung etwas anders aus, da hier der Logiklayer des Cubes in einem anderen Prozeß hergestellt wird als der DRAM, man also das Interface etwas einfacher realisieren kann, aber die Auswirkungen sieht man doch auch.

Skysnake
2013-10-09, 19:25:48
Wirklich interessant sind HMCs vor allem, weil es zum einen die Speichercontroller in der CPU/GPU vereinfacht (dafür muß man aber eine Menge sehr schneller SerDes verbauen, was auch Fläche kostet, die man z.B. bei HBM sparen könnte) und für Serveranwendungen nette hierarchische Speicherstrukturen (und sehr große Kapazitäten) erlaubt.


Was könnteste dir denn so vorstellen? ;)

Ja, im direkten Vergleich bei dem weit entfernten Speicher ist der Durchsatz jetzt nicht um welten besser, aber immerhin. Adressleitungen sollte es bei HMC aber nicht geben. Keine Ahnung, wie du darauf kommst.

Mit HMC kann man halt ganz allgemein noch ganz "lustige" Sachen machen.

Aber da will ich jetzt mal nicht näher darauf eingehen.

Gipsel
2013-10-09, 21:40:20
Adressleitungen sollte es bei HMC aber nicht geben. Keine Ahnung, wie du darauf kommst.Ich habe da kein Detailwissen und auch nicht recherchiert. Dann sind die 8 zuätzlichen Leitungen (72 vs 64) vermutlich jeweils eine differentielle Clock pro Byte (oder Fehlerkorrekturdaten und die benutzen irgendein Protokoll mit Taktrückgewinnung, glaube ich aber eher nicht). Wenn auch Adresspakete da rüber müssen, vermindert das ja nochmal die effektive Bandbreite, weil sich Adressen und Daten die Bruttorate teilen müssen, während (G)DDR# das über getrennte Leitungen abwickelt.

Duplex
2013-10-09, 22:28:23
Bitte löschen.

Nightspider
2013-10-09, 22:34:40
Alte Games kann man auch jetzt schon in 4K spielen.
Und Pirate Island wird auch 2015 zu langsam sein für Crysis 4, Star Citizen, BF5, AC5 oder was auch immer es dann gibt um es in 4K zu spielen. Denke ich. Gerade nächstes Jahr werden die Systemanforderungen stark steigen so das man nur mit Multi-GPU aktuelle Titel in 4K wird flüssig spielen können. Da ist BF4 nur der Anfang, obwohl BF4 sogar noch für die alten Konsolen erscheint.

Duplex
2013-10-09, 22:35:44
Bitte löschen.

john carmack
2013-10-09, 22:45:08
4K hin oder her - Dazu müssen mal die Monitorpreise mal min. um 65-75% fallen.

3200€ für den ASUS PQ321..... Pfffffftt.... :mad::P

Mal schauen was Mantle da noch an zusätzlicher Perf. rauskitzeln kann. ;)

2phil4u
2013-10-10, 01:41:08
Warum sollten Spiele in 4k kommen, wenn man mit HD eine viel bessere Grafikqualität hinbekommt.
Wenn man im Setupmenue rumschraubt, wird man doch eher die vollte Grafikperformance wollen als 60 fps in 4k.

Auch bei den Konsolen wird man eher niedriger Aufloesungen und niedrigere Filter und niedrigere Framerates sehen, als altbackene Grafik flüssig in 4k.

Natürlich kann man mit 4fach SLI bzw Crossfire 4k probieren auch bei den besten games, vorausgesetzt das Stuttering wird nicht zu stark, oder eben Spiele mit weniger Grafiklast.

Insgesamt sehe ich aber nicht ein, warum man ein Spiel auf 4k proggen soll, wenn man mit 1900 * 1080 viel besser Effekte hinbekommt.

Früher haben wir in 800 * 600 gezockt oder 1024 * 720, warum also 4k bei neuen Spielen ohne übertriebenes System ?

Felixxz2
2013-10-10, 02:57:06
Ja warum eig mehr wie 720p? :freak:

Sunrise
2013-10-10, 03:03:52
Warum sollten Spiele in 4k kommen, wenn man mit HD eine viel bessere Grafikqualität hinbekommt.
Wenn man im Setupmenue rumschraubt, wird man doch eher die vollte Grafikperformance wollen als 60 fps in 4k.

Auch bei den Konsolen wird man eher niedriger Aufloesungen und niedrigere Filter und niedrigere Framerates sehen, als altbackene Grafik flüssig in 4k.

Natürlich kann man mit 4fach SLI bzw Crossfire 4k probieren auch bei den besten games, vorausgesetzt das Stuttering wird nicht zu stark, oder eben Spiele mit weniger Grafiklast.

Insgesamt sehe ich aber nicht ein, warum man ein Spiel auf 4k proggen soll, wenn man mit 1900 * 1080 viel besser Effekte hinbekommt.

Früher haben wir in 800 * 600 gezockt oder 1024 * 720, warum also 4k bei neuen Spielen ohne übertriebenes System ?
Es gibt eben immer Leute, die gerne das Maximum ausfahren wollen und dafür gerne tief in die Taschen greifen.

Ich bin zwar auch derjenige, dem zuerst ein absolut flüssiges Spielerlebnis wichtig ist und erst sekundär die Auflösung/Qualität. Allerdings sind 4K bei 32" mit höherer Pixeldichte optisch deutlich ansprechender als 1080p bzw. 2560x1600 auf einem 27" bzw. 30" Monitor. Drehst du dann noch alles auf das Maximum, wird das sicherlich beeindruckend aussehen, sofern der content das mitmacht. Und das scheint aktuell auch schon der Fall zu sein.

Wir reden hier ja von 2015.

Das einzige "Problem" was ich da kommen sehe ist, ob ich lieber 1080p/1600p bei 120Hz fahre, oder aber 4K bei 60Hz, wenn die Performance da ausreichend ist. Da wird man sich selbst bei HDMI 2.0/DP 1.2 entscheiden müssen.

Es werden auch Filme in 4K kommen. Und OLEDs. Und ...

Es muss jeder für sich entscheiden, ob einem das das Geld Wert ist. Aber warum nicht? Wenn keine Nachfrage nach besseren Bildschirmen erzeugt wird, dann bleiben wir bei unseren (Vorsicht, überspitzt formuliert) Schrott-LCDs noch jahrelang hängen. Für Filme mag das bei dem Betrachtungsabstand ausreichend sein, für Spiele aber nicht.

PS: 800x600 war mit Voodoo2 und 1024x768 mit Voodoo2 SLI ja ganz nett, aber da hatten wir noch CRTs und ziemlichen Pixelmatsch (trotz sehr gutem AA der Voodoos, bzw. einer RivaTNT 1/2, Geforce1 SDR/DDR oder neuer), der uns da nicht so stark auffiel, bzw. wir daran gewöhnt waren. Ich denke da auch zwar sehr gerne an die alten Zeiten zurück, mit Spielen wie Unreal, aber auch die kannst du heute ja mit deutlich höherer Auflösung spielen und alles maxen was geht. Sieht es deshalb schlechter aus? Nein, eher besser.

Effe
2013-10-25, 22:47:51
Ich habe mal eine Frage an die Herren Hardwareexperten:

Wie groß wäre ein Hawaii-Chip in 20nm Fertigung? Wie warscheinlich ist es, daß AMD diesen, wenn TSMC mal ausgekackt hat, für die neue Serie schrumpft und dann bspw. im Performancesegment anbietet?
Da ist ja im Prinzip schon alles drin was AMD die letzten Jahre erfunden hat. Hawaii kommt ja nur in der Form in 28nm, weil 20nm realistisch noch etwa ein Jahr(?) weg ist. So könnte man das Ding shrinken, mit verkleinertem SI(?)und hätte schon was in petto für die 300er Serie.

Wahrscheinliches Szenario?

Knuddelbearli
2013-10-25, 22:54:31
kannst mit ~70% rechnen die mehr Transistoren auf der selben Fläche platz haben, wäre also ca 260mm²

Eventuell sagt da ja aber Gipsel noch was genaueres dazu

Effe
2013-10-25, 23:17:25
Also ein wenig größer als Pitcairn. Danke. Als 20nm Versuchskaninchen klingt das doch gar nicht so übel.

reaperrr
2013-10-26, 12:59:11
Also ein wenig größer als Pitcairn. Danke. Als 20nm Versuchskaninchen klingt das doch gar nicht so übel.
Wegen dem 512-bit SI wäre man bei einem 1zu1-Shrink vermutlich pad-limitiert, das PCB wäre für's Performance-Segment wohl ebenfalls etwas zu teuer.

Wahrscheinlicher ist, dass AMD nur ein 384-bit Interface und evtl. auch etwas weniger CUs, ROPs usw. verbauen würde.
Ich meine, hypothetische 4 Shader-Engines mit jeweils 10 CUs, 12 ROPs und ein 384-bit SI würden wohl schon ca. 70% mehr Leistung pro Takt bringen gegenüber Pitcairn und ca. 20% gegenüber Tahiti (grob geschätzt).

Skysnake
2013-10-26, 13:02:14
Pack nen 4x so großen L2 drauf und nen 256Bit SI mit dem schnellsten RAM und es dürfte auch wieder hinhauen, so lange die Datensets nicht all zu groß werden.

Pick
2013-10-26, 13:26:01
AMD to Tape Out First 20nm, 14nm FinFET Chips Within Next Two Quarters
http://www.xbitlabs.com/news/other/display/20131017231002_AMD_to_Tape_Out_First_20nm_14nm_FinFET_Chips_Within_Next_Two_Quar ters.html

HOT
2013-11-10, 12:08:10
Würde passen.
Aber Pirate Islands ist bestimmt wieder nur ein 1-Chip-Upgrade, der ne ganze Serie erneuert. Notwendig ist doch eigentlich nur Pitcain zu ersetzen und Tahiti überflüssig zu machen. Da reicht ein 20nm-GCN 1.1-Chip mit 2048 Shadern und 256Bit 7GBpS GDDR5 Speicherinterface locker für aus. Den kann man noch maximal teildeaktivieren um die Ausbeute erträglich zu machen. Der Rest der GCN1.1 Bande bleibt bestimmt wie er ist, nur in Hawaii schlummern noch deaktivierte Shader, die noch aktiviert werden können.

Wenn von "14nm FinFET" die Rede ist, kann das nur ein Prozessor bei GloFo in 14XM sein sonst würd das 16nm stehen. Das ist bestimmt der Excavator-Nachfolger. Da Prozessoren eine sehr lange Reifezeit brauchen, dürfte Excavator somit noch ziemlich sicher 28nm sein, weil den muss es schon in Silizium geben, wenn der Anfang 2015 kommen soll.

Nakai
2013-11-10, 12:28:24
Der Rest der GCN1.1 Bande bleibt bestimmt wie er ist, nur in Hawaii schlummern noch deaktivierte Shader, die noch aktiviert werden können.

So ziemlich unwahrscheinlich.

Wenn von "14nm FinFET" die Rede ist, kann das nur ein Prozessor bei GloFo in 14XM sein sonst würd das 16nm stehen. Das ist bestimmt der Excavator-Nachfolger. Da Prozessoren eine sehr lange Reifezeit brauchen, dürfte Excavator somit noch ziemlich sicher 28nm sein, weil den muss es schon in Silizium geben, wenn der Anfang 2015 kommen soll.

Kann sein, würde ich aber nicht drauf wetten.
Könnten auch irgendwelche Testchips sein.

Skysnake
2013-11-10, 15:54:19
Würde ich nicht sagen. Ich halte ingesamt 4 deaktivierte CUs für wahrscheinlicher als das es sie nicht gibt.

M4xw0lf
2013-11-10, 16:38:58
Davon bist du einfach nicht abzubringen, hm? :upara:

Skysnake
2013-11-10, 16:46:56
Nein, es sei denn mir liefert jemand einen wirklich guten und rational nachvollziehbaren Grund, und das wird nicht passieren.

boxleitnerb
2013-11-10, 18:35:02
Wie wäre es, wenn du erstmal einen rational nachvollziehbaren Grund lieferst, warum du zu dieser Annahme kommst? :wink:

mboeller
2013-11-10, 18:54:58
Wenn von "14nm FinFET" die Rede ist, kann das nur ein Prozessor bei GloFo in 14XM sein sonst würd das 16nm stehen. Das ist bestimmt der Excavator-Nachfolger. Da Prozessoren eine sehr lange Reifezeit brauchen, dürfte Excavator somit noch ziemlich sicher 28nm sein, weil den muss es schon in Silizium geben, wenn der Anfang 2015 kommen soll.

Wie kommst du auf die Idee?

Vom Kaveri gibt es auch Berichte/Rumors das er erst Ende 2012 sein Tape-out hatte. + 15 Monate sind dann Anfang 2014.

Beim Excavator würde das dann auch gut passen. Nov. 2013 + 15 Monate = Feb. 2015....also wäre der Excavator damit voll im Zeitplan für 14XM!

http://www.extremetech.com/extreme/161502-amd-kaveri-may-slip-into-2014-kabini-refresh-codenamed-beema


According to our sources, Kaveri didn’t tape out until after November 2012 — AMD kept the part in-house a little longer to try and squeeze more performance out of the core

Gipsel
2013-11-10, 19:30:37
Nein, es sei denn mir liefert jemand einen wirklich guten und rational nachvollziehbaren Grund, und das wird nicht passieren.Bei Tahiti gab es auch keine redundanten Einheiten. Und da war der 28nm-Prozeß noch nicht so ausgereift wie heute. Die 24% mehr Diefläche machen da wohl nicht soo viel aus. Vermutlich hat Hawaii jetzt einen deutlich höheren Yield als Tahiti vor knapp 2 Jahren.

Coda
2013-11-10, 19:44:36
Es hat auch glaube ich David Baumann mal bei B3D geschrieben dass es heute viel schwerer ist einen neuen Chip mit mehr Transistoren in einer kleineren Fertigung herzustellen als einen entsprechend größeren Chip in der derzeitigen Node zu bauen.

Klang plausibel.

Duplex
2013-11-21, 11:05:20
Kennt sich jemand mit dem 20nm Prozess von TSMC aus?

Angenommen AMD nimmt bei Pirate Islands einfach Hawaii als Basis und erweitert die Shader auf 4096 (64 CUs).

Das sind dann ca. 45,5% mehr Shader als Hawaii XT.

Wie groß wäre dann der Chip in 20nm?

Knuddelbearli
2013-11-21, 14:23:32
Wenn ich es richtig im Kopf habe soll Packdichte um 85% steigen und Leistungsaufnahme / Transistor bei selben Takt um 15-25% sinken.

Wäre dann also so um die 350qmm wenn man bedenkt das einige teile nicht shrinkbar sind.
Und ohne Architekturverbesserungen 400W bei 1 GHz :freak:

robbitop
2013-11-21, 14:33:53
Dann sollte man auch weiterhin das Front-End (und ggf. andere Flaschenhälse) erweitern. Hawaii skaliert auch nur mittelmäßig mit seinen CUs (290 vs 290X).

john carmack
2013-11-21, 14:52:10
Kennt sich jemand mit dem 20nm Prozess von TSMC aus?

Angenommen AMD nimmt bei Pirate Islands einfach Hawaii als Basis und erweitert die Shader auf 4096 (64 CUs).

Das sind dann ca. 45,5% mehr Shader als Hawaii XT.

Wie groß wäre dann der Chip in 20nm?

so wird es wohl kommen...!
hoffe noch 2014... Vielleicht schon im Okt.?!

Knuddelbearli
2013-11-21, 14:56:47
Dann sollte man auch weiterhin das Front-End (und ggf. andere Flaschenhälse) erweitern. Hawaii skaliert auch nur mittelmäßig mit seinen CUs (290 vs 290X).

Naja bei NV ist das jetzt aber nicht soviel besser,

Unendlich kann man GPU Kerne ja auch nicht parallel nutzen, denke zwar nicht das wir da auch nur annähernd am Limit sind aber erste Auswirkungen könnte es schon geben.

Nightspider
2013-11-21, 15:04:13
Wobei man eben auch einiges von dem Platzzugewinn durch 20nm in Caches bzw. Register investieren könnte, was die Effizienz verbessert.

Hatte nicht ein paar Nvidia Ingenieure vor ein paar Monaten mal erklärt, wie groß der Unterschied in der Stromersparnis durch einige Caches und Register zusätzlich sein kann?

Könnte man diesen, natürlich rein theoretischen, 400W 350mm² Chip, als 380mm² Chip auslegen, könnte man durch die Caches und Register vielleicht den Stromverbrauch auf 350W drücken.
Natürlich rein spekulativ und ohne die genauen Dimensionen davon zu kennen.

Allerdings kommt es auch immer darauf an welche Flaschenhälse die Effizienz limitieren.
Ein Chip der schon extrem viel Caches und Register hätte, würde von zusätzlichem Speicher kaum profitieren.

Knuddelbearli
2013-11-21, 15:11:21
Naja es würde der Verbrauch nicht sinken sondern steigen durch die zusätzlichen reg files.

Sie verbessern ja die Auslastung ( und brauchen selber auch noch Strom )*
man würde aber zb Leistungsaufnahme um 10% auf 440W steigern Geschwindigkeit steigt aber von 100% auf 130%.


* Oder bezog sich der Typ von NV eventuell vor allem auf den Speichercontroller? da kann man mit regfiles sicher gut was sparen aber kA wieviel Saft der Verbraucht. Ersparnis dürfte da aber eher 1 stelliger Wattbereich sein

robbitop
2013-11-21, 15:26:46
Naja bei NV ist das jetzt aber nicht soviel besser,
Das macht es nicht besser.

Unendlich kann man GPU Kerne ja auch nicht parallel nutzen, denke zwar nicht das wir da auch nur annähernd am Limit sind aber erste Auswirkungen könnte es schon geben.
Nicht unendlich. Aber jedes Bild hat >1 Millionen Quads, die gerendert werden müssen. Da kann man schon noch eine ganze Menge parallelisieren. Da sind wir IMO absolut nicht am Limit. Es ist mehr eine Frage von Flaschenhälsen. Ausführungseinheiten wollen gefüttert und Ergebnisse abgenommen werden.

Skysnake
2013-11-21, 15:46:53
Mach mal ein "/4" dazu. Du musst ja Latenzen verstecken.

Also mehr wie 100.000 fache Parallelität würde ich nicht ohne massive Leistungseinbrüche erwarten, und das ist jetzt schon hoch gegriffen.

Naja es würde der Verbrauch nicht sinken sondern steigen durch die zusätzlichen reg files.

Sie verbessern ja die Auslastung ( und brauchen selber auch noch Strom )*
man würde aber zb Leistungsaufnahme um 10% auf 440W steigern Geschwindigkeit steigt aber von 100% auf 130%.


* Oder bezog sich der Typ von NV eventuell vor allem auf den Speichercontroller? da kann man mit regfiles sicher gut was sparen aber kA wieviel Saft der Verbraucht. Ersparnis dürfte da aber eher 1 stelliger Wattbereich sein
Registerfiles usw verbrauchen zwar mehr Strom, wenn man Sie durchsucht, vor allem wenn es Multiport ist, bzw ansteigt, aber an sich verbrauchen die nicht DIE Mengen an Strom, für das was Sie leisten.

PCI-E und GDDR5 sind da um welten schlimmer. GEnauso höhere Cachestufen auf dem Chip. Die DAten müssen einfach nah bei den ALUs sein, wie du das erreichst ist erstmal egal.

Die Performancegewinne überkompensieren im Normalfall den höheren Energieverbrauch pro Registerfile.

Knuddelbearli
2013-11-21, 15:58:37
ja deshalb auch nur in klammern das mit dem zusätzlichen Strom da das eben kaum ins Gewicht fällt

ging mir aber vor allem darum klarzustellen das mehr / bessere reg files nicht für niedrigeren Verbrauch sorgen sondern sogar für mehr, aber man eben überproportional schneller wird wodurch man Takt und Spannung senken kann wodurch Verbrauch danna uch Überproportional runtergeht.


zB
der Hypothetische Chip von da oben mit 400W
durch bessere Regfiles Caches und co dann 440W und 130% Leistung.
Jetzt senken wir Frequenz von 1GHz auf 0,9GHz und damit auch die Spannung runter, dann haben wir zB 380W verbrauch bei 117% Leistung.

Alles natürlich nur grobe Hausnummern

Pick
2013-11-22, 16:58:33
20-30 tflops GPUs in 2014?
https://twitter.com/AMDHSA/status/400383080587730945

Skysnake
2013-11-22, 17:47:03
Nullaussage. 20-30 TFlop/s mit was?
SP oder DP?

Mit Single, Dual oder Quad GPU?

Burgard
2013-11-22, 17:56:53
Nullaussage. 20-30 TFlop/s mit was?
SP oder DP?

Mit Single, Dual oder Quad GPU?
DP kann man schonmal ausschliessen, da nur im wissenschaftlichen Bereich von Interesse.

Die ANzahl der GPUs ist da schon eher von Interesse, warum nicht wie bei CPUs mit Modulen arbeiten.
Wie wäre es mit 4 GPU-Chips, die um eine Controller-CPU gruppiert sind, die die Daten entsprechend verteilt, oder aber
ähnlich aufgebaut sind, wie bei einer Quadcore-CPU.

AnarchX
2013-11-22, 23:27:56
Im Tweet werden GFLOPs genannt.
Eventuell bezieht sich das auf ARM-SoCs:
https://twitter.com/AMDHSA/status/400383473921589248/photo/1

Akkarin
2013-11-22, 23:40:02
DP kann man schonmal ausschliessen, da nur im wissenschaftlichen Bereich von Interesse.

Die ANzahl der GPUs ist da schon eher von Interesse, warum nicht wie bei CPUs mit Modulen arbeiten.
Wie wäre es mit 4 GPU-Chips, die um eine Controller-CPU gruppiert sind, die die Daten entsprechend verteilt, oder aber
ähnlich aufgebaut sind, wie bei einer Quadcore-CPU.

Meinst du "normale" Quadcores oder 4P systeme ? Weil stark vereinfacht sind GPUs ja jetzt schon spezielle n-cores mit Zusatzeinheiten. (Z.b. bei Hawei n:=2816)

OBrian
2013-11-23, 09:39:00
Wie groß sieht eigentlich der Fertigungsvorteil aus, in Performance pro Watt?
Was meint Ihr, wieviele Einheiten man auf eine Karte mit einem Verbrauch auf Höhe der 7870 quetschen könnte? Performance einer 7970?

ndrs
2013-11-23, 10:49:15
Wie groß sieht eigentlich der Fertigungsvorteil aus, in Performance pro Watt?
Was meint Ihr, wieviele Einheiten man auf eine Karte mit einem Verbrauch auf Höhe der 7870 quetschen könnte? Performance einer 7970?
Ein paar Posts weiter oben stand schon alles:
Wenn ich es richtig im Kopf habe soll Packdichte um 85% steigen und Leistungsaufnahme / Transistor bei selben Takt um 15-25% sinken.

Knuddelbearli
2013-11-23, 15:49:11
Auch wenn es nur eine grobe Schätzung ist wie ich es aus einer Folie in Erinnerung habe.
Aber da bisher keiner gegenteilige Zahlen genannt hat.

Gerade was von leonidas gefunden:

So wird die 28nm-Fertigung mit "35% average increase in speed and a 40% power reduction" beschrieben, während die 20nm-Fertigung mit "15% increase in speed and 20% less power" prognostiziert wird.

Da es bei 28nm 40% war darf man beides nicht zusammenzählen ( wäre sonst bei 28nm ja mehr als eine Verdoppelung was eigentlich nicht möglich ist ) lag mit 20% also genau in der Mitte.

Zur Fläche finde ich nichts aber da bin ich mir auch recht sicher. Wobei es da natürlich noch X andere Einflussfaktoren gibt.

fondness
2013-11-23, 16:17:57
Aufpassen. Das mit den 1.9x so viele Transistoren pro Fläche aber den nur 30% Energieersparnis bezieht sich vs. 28hpm. Da aktuelle GPUs aber in 28hp gefertigt werden, ist die Energieersparnis schon deutlich größer.

http://www.edn.com/contenteetimes/Images/20%20Value.jpg

Nakai
2013-11-23, 16:28:23
Eine Verdopplung der Dichte ist sowieso drin. Einzig die Energieersparnisse und und Geschwindigkeitsvorteile sind relativ gering. Da sehen wir sowieso architekturelle Veränderungen, da die 20nm-Fertigung eh nicht einen so starken Vorteil bringt. AMD muss ziemlich viel mehr in den Chip gehen. Die Caches sind zu klein. Die L1-Caches und die Registerfiles können gerne so bleiben, aber beim L2-Cache muss mal eine Verbesserung stattfindet. AMD muss nicht nur das Frontend weiter aufbohren, sondern auch das Backend(MCs, Cache-Hierarchie, Speicherzugriffe) optimieren. AMD verbrät bei dieser Rohleistung und Performance einfach zuviel Energie. Ein Grund könnte das ineffizientere Backend sein.

horn 12
2013-11-23, 16:32:10
Wann kommt die R9 290 (X) Ablösung
Wohl nicht vor Herbst 2014, oder etwa doch ?

Knuddelbearli
2013-11-23, 16:51:48
Wieso bist du dir so sicher das eine Verdoppelung sicher drin sein sollte?

Wenn es perfekt skaliert wäre eine knappe Verdoppelung drin aber weder wird es perfekt skalieren noch kann man alles auf einer GPU Shrinken. das SI zB sogut wie gar nicht und das nimmt einigen Platz ein

Nightspider
2013-11-23, 17:02:28
Haiwaii hat doch bewiesen, dass das SI gar nicht sooo viel Platz einnimmt, dachte ich.

Skysnake
2013-11-23, 17:11:11
Hawaii hat nen langsameres aber breiteres SI bekommen.

Das kannste nicht mit der Normalsituation bei nem Shrink vergleichen.

Knuddelbearli
2013-11-23, 17:27:24
neuer Chip braucht sicher auch merh bandbreite dann muss es wieder größer werden. und auch bei Hawaii sind es noch, wenn ich es richtig im Kopf habe, 50mm² die eben sogut wie gar nicht kleiner werden

Nightspider
2013-11-23, 17:31:57
Ich denke mal, das 2014/2015 AMD und NV im HighEnd Bereich 512Bit SI nutzen müssen, solange keine Hybrid Memory Cubes verfügbar sind.
Platz hat man ja sowieso genug, da die Effizienz das eigentlich Kernproblem wird.

Sowas wie 400GB/s, was einige Übertakter derzeit mit Glück bei ihren 290(X) erreichen können, wird dann wohl erstmal Standard bei den TopDogs.

BlacKi
2014-01-30, 21:38:58
wann wird amd in 20nm fertigen? meint ihr noch dieses jahr? was kommt denn eurer meinung nach dieses jahr?

Duplex
2014-01-31, 10:52:57
wann wird amd in 20nm fertigen? meint ihr noch dieses jahr? was kommt denn eurer meinung nach dieses jahr?
GCN wurde im Dezember 2011 in 28nm vermarktet, Hawaii ist lediglich ein 28nm Refresh "GCN 1.1" der im Oktober 2013 vermarktet wurde, wenn der 20nm Prozess ab Q2/2014 gute Ergebnisse liefern kann, dann kann ich mir vorstellen das AMD ein 300-350mm² "20nm" Chip im Q4/2014 vorstellen wird, das wäre dann 3 Jahre auf 28nm gerechnet, ich denke das der Chip 40-50% auf Hawaii drauflegen wird, vermutlich wird das ein 4096 Shader Chip mit kleinen Architektur Verbesserungen sein, "GCN 2.0".
2015 erwarte ich noch ein GCN 2.5 in 16nm als Test Basis für die ganz neue Architektur die man 2016 in 16nm vorstellen wird.

AnarchX
2014-01-31, 11:03:20
Momentan steht ja eher 20SoC als potentielle Prozess zur Debatte (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10081406#post10081406) und dessen Vorteile sind eher beschränkt im Vergleich zu bisherigen Prozesswechseln. Ebenso ist wohl spätes H2/14 eher wahrscheinlich.

Insofern sollte man erstmal Ankündigungen rund um Tonga, Maui bzw. Iceland abwarten.

Ailuros
2014-02-20, 07:31:02
http://www.computerbase.de/news/2013-10/amd-zunaechst-richtung-20-nm-danach-finfets/

Warum sollte AMD 20 SoC überspringen?

Ein 64 CU Chip mit 4096 Shader sollte in 20nm auch kleiner als Hawaii ausfallen, mit 499$ wäre man dann P/L vor Nvidia gegenüber GM204.

Aus dem gleichen Link:

In diese Entwicklung dürfte unter anderem die Neuverhandlung mit Globalfoundries über die Abnahme von Wafern im Jahr 2014 hinein spielen, die AMD in den kommenden 30 bis 60 Tagen abgeschlossen haben möchte.

Es steht zwar 20nm im Artikel aber nirgends weder 20SoC noch TSMC.

Sonst fuer den letzten Satz ja natuerlich hat ein jeglicher 20nm Prozess den Zauberstab um fast 50% mehr Einheiten mit sogar kleinerer die area zu erlauben. Bleiben wir mal auf dem Teppich ja?

Hübie
2014-02-20, 15:08:51
Du bist krank X-D

@Ail: meinst du AMD fährt künftig bei Grakas zweigleisig oder wie? Also TSMC und GF?

Unicous
2014-02-20, 15:21:44
Das war schon lange der Plan. Es liegt aber wohl an GF, die ihren 28nm Prozess ewig nicht hinbekommen haben. Denn die Masken bei TSMC laufen ja offensichtlich.

Es stellt sich da aber auch immer die Frage der Witschaftlichkeit. Ist es wirklich günstiger bei GF zu produzieren, oder hat TSMC weiterhin diesen Vorteil?
Aber das wird man wohl nie herausbekommen.

Es gibt aber auch einige Kandidaten in anderen Foren, in denen ich mitlese, die AMD die Schuld in die Schuhe schieben und behaupten, es läge an den Designs.
Ich glaube aber nicht, dass die Wahrheit in der Mitte liegt.

Aber: Gf hat sich gefangen, denke ich. Da könnten in Zukunft noch "andere" *winkwink* Hochkaräter fertigen lassen, nicht zuletzt auch um vllt. TSMC unter Druck zu setzen. Man muss dann nur über den eigenen Schatten springen.

fondness
2014-02-20, 15:47:40
Es spricht einiges dafür das AMD zukünftige GPUs bei GF fertig, gab dazu auch ziemlich eindeutige Aussagen der Führungsriege.

Ailuros
2014-02-20, 16:22:47
Du bist krank X-D

@Ail: meinst du AMD fährt künftig bei Grakas zweigleisig oder wie? Also TSMC und GF?

Das was ich hoerte ist dass sie diesmal nicht bei TSMC herstellen moechten, aber die Entscheidung war zu dem Zeitpunkt auch nicht final. Es ist aber schon ein paar Monate her.

Ich frag mich sowieso wieviele Kapazitaeten Apple bei TSMC fuer 20SoC gebucht hat; wenn sie nur bei TSMC herstellen und gar nichts fuer 20nm bei Samsung dann sind >50Mio SoCs pro Quartal nicht gerade wenig.

Duplex
2014-02-20, 16:26:08
Seit wann hat den GF ein 20nm Prozess in Aussicht gestellt?
Soweit ich weiß kommt nach 28nm > 14XM.

Edit: Auf der Homepage von GF steht auch "20LPM". http://www.globalfoundries.com/technology-solutions/leading-edge-technologies/20lpm

Screemer
2014-02-20, 16:31:50
was ich mich frage ist, ob die abnahmemengen welche vor ewigkeiten vereinbart wurden so erreicht werden könnten. ich meine die, die in jedem quartal zu strafzahlungen führen. vielleicht lässt sich mit der aussicht auf die gpu-produktion ein neuer deal mit gf schließen, der auch für amd von vorteil wäre.

fondness
2014-02-20, 16:39:50
Seit wann hat den GF ein 20nm Prozess in Aussicht gestellt?
Soweit ich weiß kommt nach 28nm > 14XM.

Edit: Auf der Homepage von GF steht auch "20LPM". http://www.globalfoundries.com/technology-solutions/leading-edge-technologies/20lpm

28nm SHP, der Prozess den AMD für Kaveri und wohl auch Beema/Mullins verwendet wird bis heute nicht auf der Homepage geführt, das würde ich also nicht zu ernst nehmen. GF entwicklert auf jeden Fall auch eine 20nm planar Prozess, die Frage ist wann dieser ready ist.

Akkarin
2014-02-20, 16:45:56
Wie ist 28 SHP gegenüber 28 HP oder HPM ? Es ist ja jetzt auch eher auf GPUs ausgerichtet (siehe Kaveri) und afaik hat GF ja bisher immer dichter als die Konkurenz gepackt bei gleichem node.

Sunrise
2014-02-20, 16:56:10
Seit wann hat den GF ein 20nm Prozess in Aussicht gestellt?
Soweit ich weiß kommt nach 28nm > 14XM.

Edit: Auf der Homepage von GF steht auch "20LPM". http://www.globalfoundries.com/technology-solutions/leading-edge-technologies/20lpm
Das wird schon länger kommuniziert, hier ist ein Artikel von 2011 mit relativ vielen Infos:

http://eda360insider.wordpress.com/2011/09/01/globalfoundries%E2%80%99-28nm-process-comes-in-three-flavors-which-is-right-for-you/

Dort wird explizit von 20LPM und 20SHP gesprochen.

Unicous
2014-02-20, 17:05:10
14XM ist 20nm FinFET mit 14nm pitch gates. Vllt. meinte das Ailuros mit 20SOC?

(Aussagen ohne Gewähr, da aus der Erinnerung zusammengezimmert)

edit:

20SHP müsste aber SOI sein http://www.globalfoundries.com/images/default-source/default-album/vas-roadmap-20110816.png?sfvrsn=2

und damit ungeeignet für GPUs. Bin mir auch nicht sicher ob SHP nicht eingespart wird für einen Nachfolgeprozess. Dass soll ja der erste FD-SOI Prozess sein wenn ich mich nicht irre.

Achso, LPM dürfte auch ungeeignet für GPUs sein, da ein Ultra Low Mobile Prozess.

Locuza
2014-02-21, 05:05:13
Ich sehe es mal so, es wird keine PD-SOI Prozesse mehr geben.
28nm SHP ist Bulk ohne SOI-Schicht.
FD-SOI setzt weiterhin auf Gate-First und ich sehe AMD nicht diesen Prozess aufzugreifen.
Ich nehme einfach an, dass das was AMD angekündigt hat, sie auch machen werden.
First 20nm dann FinFETs.

Gaestle
2014-02-21, 08:57:57
Ist der Prozess von Carrizo von relevanz?
http://www.computerbase.de/news/2014-02/hinweise-auf-28-nm-fertigung-bei-amds-carrizo-apu/

Ein Prozess namens "GF28A" für Carrizo in 2015?

HOT
2014-02-21, 10:27:57
Wird ein interner Name für 28SHP sein.


20nm SHP gibts nicht mehr, der wurde offizell gecancelt. AMD wird sicherlich einen 20nm HP-Prozess nutzen für kleine APUs/GPUs aber die großen APUs/CPUs kommen sicherlich im FinFET-Prozess. AMD nutzt gar kein SOI mehr und hat auch zu SOI-Experten IBM kaum noch Kontakte.
Die FinFET-Prozesse sind durch ihre Natur her universell und damit auch sehr gut für GPUs.

Dass 28nm SHP Bulk ist wurde durch AMD ja offiziell bestätigt auf Planet3DNow!.

fondness
2014-02-21, 10:31:26
Wird ein interner Name für 28SHP sein.


Ergibt keinen Sinn, denn er nennt wenige Zeilen darunter auch 28shp.

HOT
2014-02-21, 10:33:06
Ergibt keinen Sinn, denn er nennt wenige Zeilen darunter auch 28shp.
Es macht keinen Sinn den nicht zu verwenden, immerhin hat AMD da auch richtig Geld reingeschossen, das ist definitiv 28SHP... Nicht irritieren lassen, das da was komisches steht.

Unicous
2014-02-21, 13:19:30
Ich glaube ich spinne. Ich habe doch gerade erst im Carrizo-Thread gesagt, hängt euch nicht an den Begrifflichkeiten in einem LinkIn-Eintrag auf.

GF28A ist 28nm Bulk. Punkt.

http://www.planet3dnow.de/cms/7631-shp28-ist-bulk-und-nicht-amd-exklusiv/

OBrian
2014-02-21, 17:59:48
"SHP28" ist der mehr oder weniger offizielle Begriff von GF. "GF28A" wird wohl nicht von GF selbst so genannt worden sein, sondern von jemandem, der zwischen GF und anderen Foundries unterscheiden wollte, z.B. dem Kunden AMD. Das A könnte dann für "APU" stehen, der Witz an dem Prozeß soll ja sein, daß er speziell für APUs ausgelegt ist, opfert etwas Takt für mehr Sparsamkeit und weniger Platzverbrauch.

Gehört bzw. gelesen hat man den Begriff "GF28A" bisher aber nirgendwo, d.h. das ist alles Spekulation, was natürlich super in dieses Unterforum paßt, uns aber auch nicht wirklich weiterbringt.

In der Lage wäre GF jedenfalls, reine GPUs zu bauen. Ob sich damit dann aber mehr oder weniger Performance pro Watt erzielen läßt, kann man als Außenstehender überhaupt nicht einschätzen.

Irgendwas muß AMD jedenfalls machen, nachdem Kepler so einen relativ klaren Effizienzvorteil bietet. Wenn zukünftig nicht nur anderes Design, sondern auch andere Fertigung AMD und Nvidia trennen würde, kann man die Architekturen zwar weniger gut vergleichen, spannender würde es aber wohl.


EDIT: Ähh klar Blediator16, ich meinte natürlich Maxwell.:]

Blediator16
2014-02-21, 18:12:40
"SHP28" ist der mehr oder weniger offizielle Begriff von GF. "GF28A" wird wohl nicht von GF selbst so genannt worden sein, sondern von jemandem, der zwischen GF und anderen Foundries unterscheiden wollte, z.B. dem Kunden AMD. Das A könnte dann für "APU" stehen, der Witz an dem Prozeß soll ja sein, daß er speziell für APUs ausgelegt ist, opfert etwas Takt für mehr Sparsamkeit und weniger Platzverbrauch.

Gehört bzw. gelesen hat man den Begriff "GF28A" bisher aber nirgendwo, d.h. das ist alles Spekulation, was natürlich super in dieses Unterforum paßt, uns aber auch nicht wirklich weiterbringt.

In der Lage wäre GF jedenfalls, reine GPUs zu bauen. Ob sich damit dann aber mehr oder weniger Performance pro Watt erzielen läßt, kann man als Außenstehender überhaupt nicht einschätzen.

Irgendwas muß AMD jedenfalls machen, nachdem Kepler so einen relativ klaren Effizienzvorteil bietet. Wenn zukünftig nicht nur anderes Design, sondern auch andere Fertigung AMD und Nvidia trennen würde, kann man die Architekturen zwar weniger gut vergleichen, spannender würde es aber wohl.

Ich behaupte mal frech Kepler hat ganz und garnicht einen "relativ klaren Effizienzvorteil" :P

fondness
2014-02-21, 18:22:01
Es sagt ja auch niemand das der GF Prozess besser ist als der von TSMC, könnte genau so gut umgekehrt sein. NV ist mal ziemlich damit auf die Nase gefallen als sie NV40 bei IBM fertigten.

krötenfresse
2014-02-24, 22:15:39
Ich denke mal, das 2014/2015 AMD und NV im HighEnd Bereich 512Bit SI nutzen müssen, solange keine Hybrid Memory Cubes verfügbar sind.
was ist denn eigentlich mit gddr6?

Unicous
2014-02-24, 22:41:09
Nichts. Seit fast zwei Jahren MIA. Ob da kurzfristig, also in diesem Jahr noch etwas kommt, ist sehr unwahrscheinlich. Scheint wohl günstiger zu sein, die Bandbreite zu erhöhen und Chips mit höherer Frequenz zu verbauen.

Wie auch immer, mit GDDR6 wird es wohl dieses Jahr nichts mehr.

N0Thing
2014-02-25, 02:25:27
Haben die ganzen GDDRx nicht immer auf einer entsprechenden Vorlage von DDRx basiert? Oder war die Entwicklung davon immer getrennt? Im ersten Fall, würde es ja erst der finalen Spezifikation von DDR4 benötigt haben, bevor die Speicherhersteller sich ernsthaft mit einer GDDR6-Produktion beschäftigen.

Akkarin
2014-02-25, 02:34:40
Ja. GDDR5 (und 4) ist nah mit DDR3 verwandt, GDDR3 mit DDR2 etc.pp.

Knuddelbearli
2014-02-25, 02:49:36
jap wenn sich 20nm für Top Dogs auf 2015 verschiebt rechne ich das mit gddr6 vorher aber nicht

Nightspider
2014-02-25, 03:17:26
Sorry aber ist Pirate Islands jetzt der Nachfolger von Volcanic Islands oder ist für dieses Jahr noch eine schnellere Karte als die R9 290X von AMD zu erwarten?

Bei AMD gab es ja schon öfter mal kleinere Zwischenschritte. Wie realistisch ist eine R9 390X, welche zB. 40% schneller ist als die 290X und als rel. kleiner 20nm Chip (250mm²) daherkommt?

Skysnake
2014-02-25, 09:23:45
was ist denn eigentlich mit gddr6?
DAvon wird man so schnell nichts sehen, wenn überhaupt.

Der RAM wandert in nächster Zeit aufs Package.

N0Thing
2014-02-25, 13:36:13
Kommt dieser Schritt wirklich schon so bald? Und ist auf dem Package neben einem 550mm² Chip noch Platz für 4-8GiB Speicher? Oder vergrößert man dann dementsprechend das Package wie es nötig ist?

robbitop
2014-02-25, 14:37:36
Ich weiß gar nicht, wie lange hier im 3DCF schon von stacked Memory und Interposern gesprochen wird. Sicher schon 5-6 Jahre. Ich bin gespannt, wie lange es noch dauern wird, eh Grafikkarten so etwas je haben...

Ist genau wie mit OLED. Das lese ich auch schon seit 14 Jahren. Es solle bald soweit sein... Und noch immer sind keine bezahlbaren PC Monitore auf dem Markt. Erinnert sich noch jemand an das Tesa-Tape auf dem man so toll Daten speichern konnte? :D

Solange solche Dinge nicht konkret kaufbar sind, ist das für mich nur Vaporware. (ich bin da allerdings auch etwas pessimistisch :D)

Unicous
2014-02-25, 14:46:36
Tja. Grundlagenforschung dauert eben seine Zeit. Es ist müßig sich darüber zu mokieren.

Und manchmal kann es auch sein, dass ein "Tesa-Tape als Speichermedium"-Produkt zum erwarteten Markstart schon längst wieder überholt ist, oder es andere Dinge gibt die das verhindern. Meist sind es die Kosten, die das verhindern. (Oft sind es die Industrie die ihren Markt gefährdet sieht, das Patent aufkauft und dann in der Schublade verschwinden lässt.)

So auch hier. AMD und Nvidia haben die Kohle einfach nicht, Geld in ein Projekt zu stecken, dass nicht ausgereift ist und dessen Yield-Rate in den Sternen geschrieben steht.

Interposer, TSV, stacked memory etc.. Diese Begriffe schweben schon ewig in der Luft. Es gibt Prototypen, aber die Kosten sind offensichtlich weiterhin unerschwinglich. Denn AMD z.B. hatte es ja vor Jaaahren auf ihrer roadmap.

http://semiaccurate.com/assets/uploads/2013/05/AMD_roadmap_tiran.jpg


Wir haben jetzt 2014. Es hat bis jetzt nicht geklappt. Was auch konkret an AMDs akuten Finanznöten liegen wird. Sie können sich keine großen Sprünge ins Ungewisse erlauben.

robbitop
2014-02-25, 15:45:09
Du brauchst mir nicht zu erklären, warum das so ist. Ich arbeite täglich im R&D Umfeld. Ich bin aber eher ein Freund davon, nicht über ungelegte Eier zu reden. Am Ende ist die Enttäuschung immer groß, wenn sich eine Technologie als Sackgasse oder als zu teuer herausstellt. (und der Hype bringt niemandem etwas)

Unicous
2014-02-25, 15:50:28
Wieso kann man nicht über neue Technologien sprechen. OLED wird auch kommen, solange nicht eine neuartige, günstigere, dispruptive Technologie dazwischen funkt. OLED gibt es auch schon (seit Ewigkeiten) auf dem Markt. Nur sind die Preise prohibitiv hoch für den Massenmarkt.

Und was das "R&D Umfeld" mit simplen Marktgesetzen zu tun hat (so billig wie möglich, nicht teurer als nötig), musst du mir dann auch noch mal erklären.

robbitop
2014-02-25, 15:54:46
Darüber diskutieren ist das eine. Aber es wird häufig impliziert, dass es bald so weit sei. Das hört man einfach schon zu lange, um realistisch dran glauben zu können.

Unicous
2014-02-25, 16:11:14
Das stimmt natürlich. Aber es liegt natürlich auch an den Herstellern (letztes Jahr Nvidia mit Volta) die immer wieder Hoffnungsstimmung auf baldige Einführung verbreiten aber dennoch nicht zugeben, dass sie Jahre in Verzug sind. Da kann man schon ein wenig angepisst sein.

Über kurz oder lang, muss aber etwas passieren. Man sieht ja jetzt schon wie manche Chips an der Bandbreite verhungern. Die Memory Interfaces lassen sich ja technisch bedingt immer noch nicht gut shrinken.
Ob es ein fetter eDRAM ist, stacked memory etc., es muss irgendetwas geschehen, damit die künftigen Generation nicht bandbreitenlimitiert sind. Und die Latenzen könnte man dadurch auch noch verringern.

Nightspider
2014-02-25, 17:58:03
Darüber diskutieren ist das eine. Aber es wird häufig impliziert, dass es bald so weit sei. Das hört man einfach schon zu lange, um realistisch dran glauben zu können.

Vielleicht kommt dir das auch nur so vor? Schon mal daran gedacht, das es sehr subjektiv ist, wie man das Wort "bald" deutet?
Die einen meinen damit vielleicht 2016/17 und du 2015. ;)

Und wie er schon sagt, gibt es OLEDs schon Jahre im Massenmarkt bei bestimmten Geräten und die Preise sinken aktuell massiv pro großen OLED-Fernsehern. OLED-TVs sind so nah wie nie, genau wie UHD für Jedermann.

S940
2014-02-25, 18:04:40
Darüber diskutieren ist das eine. Aber es wird häufig impliziert, dass es bald so weit sei. Das hört man einfach schon zu lange, um realistisch dran glauben zu können.

TSVs sind sowieso out, TCIs sind angesagt:

Intel, Sun vet births fast, inexpensive 3D chip-stacking breakthrough • The Register (http://www.theregister.co.uk/2014/02/21/thruchip_communications_comes_up_with_alternative_to_through_silicon_vias/).

;-)

Unicous
2014-02-25, 18:22:37
Das ist genauso ein Fabelmärchen. Hört sich gut an. Aber es wurde ja nicht mal eine grobe roadmap genannt.

The technology is still in the proof-of-concept stage, but Ditzel, CTO Tadahiro Kuroda, and their team have created over two dozen prototype chips and systems based on TCI, including one 3D part that stacked 128 NAND layers using TCI interconnects.

TSV Prototypen gibts auch schon ewig. Wenn sie jetzt gesagt hätten, alles paletti Ende 2014 fängt die Produktion an und Ende 2015 sehen wir Produkte hätte ich gesagt: Chapeau. Aber das ist wieder so eine Buzz-Geschichte um überhaupt erst mal Kohle ranzuholen, um dann irgendwann mal Marktreife zu erlangen.

Wir werden sehen, was in einem Jahr geschieht, denn laut Nvidia gibt es dann Volta mit stacked memory.:freak:


http://semiaccurate.com/2013/09/23/hynix-shows-bleeding-edge-3d-nand-tsv-based-ddr3-hbm-modules/

Skysnake
2014-02-25, 19:28:43
Ich weiß gar nicht, wie lange hier im 3DCF schon von stacked Memory und Interposern gesprochen wird. Sicher schon 5-6 Jahre. Ich bin gespannt, wie lange es noch dauern wird, eh Grafikkarten so etwas je haben...

Ist genau wie mit OLED. Das lese ich auch schon seit 14 Jahren. Es solle bald soweit sein... Und noch immer sind keine bezahlbaren PC Monitore auf dem Markt. Erinnert sich noch jemand an das Tesa-Tape auf dem man so toll Daten speichern konnte? :D

Solange solche Dinge nicht konkret kaufbar sind, ist das für mich nur Vaporware. (ich bin da allerdings auch etwas pessimistisch :D)
Naja, Volta soll mit RAM auf dem selben Package kommen.

Mir ist auch noch nicht gany klar, ob die embedded Chips vom AMD nicht bereits genau das haben, oder ob es ein gany normales PCB ist, auf dem SOC und RAM drauf sind. Sieht aber eher nach Package aus, nur dass da eben stink normaler GDDR5 drauf ist.

In den nächsten 1-2 Jahren wird das aber schon kommen. Es muss halt einfach, sonst siehts düster aus.

john carmack
2014-02-25, 19:54:36
DAvon wird man so schnell nichts sehen, wenn überhaupt.

Der RAM wandert in nächster Zeit aufs Package.

Ja...
512Bit SI @ GDDR5 ist schon ziemlich am Ende.

Noch höhere Frequenzen wird man aus GDDR5 nicht rausholen können und ein 640Bit SI oder ein 768Bit SI wird ganz sicher nicht kommen...

Irgendetwas muss und wird bei der Bandbreite passieren!

Knuddelbearli
2014-02-25, 20:17:41
Man hat ja noch ein wenig Spiel mit höheren frequenzen @ AMD
oder eben 512SI @ NV

john carmack
2014-02-25, 20:27:04
richtig - aber das treibt die ohnehin schon sehr hohe Abwärme nach oben.

Dawn on Titan
2014-02-25, 20:36:52
Man vergrößert die Caches. Einfach, getestet, effektiv.

Nightspider
2014-02-25, 20:43:43
richtig - aber das treibt die ohnehin schon sehr hohe Abwärme nach oben.

:|

Den VRAM höher zu takten dürfte kaum mehr Abwärme verursachen. Einige Übertakter schaffen bei der 290X schon > 400GB/s.
Wenn AMD das SI dafür auslegt, sollten 420-450 GB/s absolut kein Problem sein.

Dazu noch größere Caches und schon gibt es mit 450GB/s absolut keine Limitierung mehr oder nur noch eine Kleine. 2015 wären imo sogar 450-500GB/s drin.

Sunrise
2014-02-25, 23:13:32
Naja, Volta soll mit RAM auf dem selben Package kommen.

Mir ist auch noch nicht gany klar, ob die embedded Chips vom AMD nicht bereits genau das haben, oder ob es ein gany normales PCB ist, auf dem SOC und RAM drauf sind. Sieht aber eher nach Package aus, nur dass da eben stink normaler GDDR5 drauf ist.

In den nächsten 1-2 Jahren wird das aber schon kommen. Es muss halt einfach, sonst siehts düster aus.
Ich kann mir das eigentlich nur so vorstellen, dass man da mit ein paar zusätzlichen Modulen (ähnlich HMC) kommen muss, die relativ nahe am Die liegen sollten. Bei HMC wurde ja für SR-Verbindungen (short reach) jetzt auch eine beträchtlich höhere Datenraten angeben. Wenn es richtig schnell sein soll also "on package", wobei das für mich im ersten Anlauf extrem teuer klingt, da habe ich ernsthafte Bedenken ob das wirtschaftlich gangbar ist. Da wird man wohl wirklich erst ganz oben (ist jetzt NV, sollte aber bei AMD ähnlich gelten) bei Tesla/Quadro und dem Titan equivalent anfangen müssen.

Die "Embedded Packages" sind natürlich aktuell ganz nett, aber wir brauchen ja eine um ein vielfaches größere Speichermenge, die zusätzlich auch noch gut skalieren muss (12GB bei der K40 bis runter zu etwa 6GB).

Bei GDDR5 "on package" bin ich mir nicht ganz sicher, wie du dir das genau vorstellst.

AMD ist da aktuell schon ziemlich stark am Limit, würde ich mal behaupten. Da ist kaum noch Luft nach oben, wenn man nicht die zusätzliche Fläche, die man wieder durch einen 20nm(FinFET)-Shrink gewinnt, in ein generell noch schnelleres Interface investieren kann (inkl. Caches, die wiederum extrem viel area kosten), was evtl. noch Spielraum für ein bis maximal zwei Generationen geben sollte. Dann ist aber wirklich Schicht im Schacht, aus die Maus, rien ne va plus.

Nakai
2014-02-26, 00:51:33
Ich bin schon ziemlich auf Pirate Islands gespannt. Man sieht ja an vergangenen Roadmaps, dass eigentlich mehr geplant war. Mit Pirate Islands könnten mal wieder größere architekturelle Veränderungen aufkommen.

OBrian
2014-02-26, 04:41:22
Ich denke eher, man wird sich auf Tweaks zur Effizienzsteigerung beschränken, keine größeren Umwälzungen. Ich habe eine AMD-Aussage im Ohr (Quelle finde ich nicht mehr), man wolle die künftigen Architekturveränderungen minimieren, um die Programmierung einfacher/verlässlicher zu machen. Würde mich wundern, wenn PI ganz anders aussieht als die bisherigen GCN-Inseln. Wenn sie die Einzelteile etwas anders gewichten, um Flaschenhälse auszubügeln, dürfte das auch schon einiges bringen.

Auf jeden Fall hoffe ich erstmal, daß nicht noch mehr 28-nm-Chips kommen, das würde nämlich bedeuten, daß 20 nm sich noch mehr verzögert als jetzt schon.

S940
2014-02-26, 22:40:55
Das ist genauso ein Fabelmärchen.
Eben deswegen hab ichs gepostet :biggrin:

Unicous
2014-03-10, 22:23:29
Laut heise und ein paar CeBIT-Pläuschen könnte man die neue Generation frühestens ab August 2014 erwarten.


In zahlreichen Gesprächen war zu hören, dass es noch eine Weile dauern wird, bis die richtig großen GPU-Kracher in 22-nm-Fertigung kommen. So dürfte Nvidias großer Maxwell-Ableger noch viele Monate auf sich warten lassen. Einige Quellen sprachen vom vierten Quartal 2014, eine Person sogar von Anfang 2015. Auch bei AMD malen die Mühlen noch eine Weile, hier schnappten wir August 2014 aus frühesten Termin einer neuen beziehungsweisen schnelleren Generation auf.

http://www.heise.de/newsticker/meldung/Grafikkarten-Neuheiten-Naechste-GPU-Generation-wohl-fruehestens-im-zweiten-Halbjahr-2139532.html

john carmack
2014-03-11, 08:31:10
Laut heise und ein paar CeBIT-Pläuschen könnte man die neue Generation frühestens ab August 2014 erwarten.

"In zahlreichen Gesprächen war zu hören, dass es noch eine Weile dauern wird, bis die richtig großen GPU-Kracher in 22-nm-Fertigung kommen."

22nm?
Wollte man nicht auf 20nm gehen?

Ailuros
2014-03-11, 10:41:26
Laut heise und ein paar CeBIT-Pläuschen könnte man die neue Generation frühestens ab August 2014 erwarten.


http://www.heise.de/newsticker/meldung/Grafikkarten-Neuheiten-Naechste-GPU-Generation-wohl-fruehestens-im-zweiten-Halbjahr-2139532.html

Ja aber auf welchem Prozess genau? Und wie jc schon oben korrekt bemerkte wo zum Teufel hat heise.de nochmal 22nm ausgegraben?

Unicous
2014-03-11, 13:07:58
Das hatte ich ja schon im Maxwell Thread gesagt. Entweder hat der Schreiberling keine Ahnung, oder es ist ein mehr als verschmerzbarer Flüchtigkeitsfehler. Oder Nvidia und AMD lassen bei Intel fertigen.:tongue:

Darüber würde ich mir keine Sorgen machen.

Und welcher Prozess genau? Na 20 nm. Oder meinst du den entsprechenden Unterprozess? Bis jetzt gibt es nur "20 nm". TSMC hat da keine weiteren Informationen preisgeben.

HOT
2014-03-12, 08:52:00
Vielleicht will AMD ja Altera beerben :D. Da ist ja jetzt was frei geworden :D.
Wir auch immer, 20nm kommt sicherlich als Tahiti-Ersatz, aber Hawaii halte ich auf absehbare Zeit für unantastbar wie GK110. Das wird erst in 2015 mit FinFETs was.

M4xw0lf
2014-03-12, 08:54:31
Hö? Wieso sollte unter 20nm kein schnellerer Chip als Hawaii oder auch GK110 erscheinen? :confused:

Duplex
2014-03-12, 10:43:53
Wenn man die Architektur >20% effizienter machen kann und man in 20nm auf 64 CUs geht, dann sind zu beginn locker >60% mehr Performance gegenüber Hawaii zu erwarten.
Falls AMD in 20nm doch größere Chips plant, dann sollte man natürlich mehr erwarten können, ich hab jetzt gedacht das ein 64 CU Chip in 20nm auf 350mm² kommt.

Unicous
2014-03-12, 13:12:16
Vielleicht will AMD ja Altera beerben :D. Da ist ja jetzt was frei geworden :D.
Wir auch immer, 20nm kommt sicherlich als Tahiti-Ersatz, aber Hawaii halte ich auf absehbare Zeit für unantastbar wie GK110. Das wird erst in 2015 mit FinFETs was.

Das ist Blödsinn.

http://semiaccurate.com/assets/uploads/2013/11/Altera_roadmap.png

http://semiaccurate.com/2014/03/06/intel-altera-tsmc-sad-sad-state-tech-reporting/

Die "IT-Presse" ist einfach nur unfähig.

Ich bin mir nicht sicher, dass FinFET schon für GPUs bereit ist, das ist ja schon noch mal was anderes als eine CPU+GPU. Und warum sollte es keinen Hawaii-Nachfolger in 20nm geben?


@Duplex

Warum wirfst du eigentlich immer in jedem Thread sinnlos mit CUs und mm³? Denkst du es bleibt mal was kleben und du kannst dann sagen, "Yeah ich habs gewusst"?

Pick
2014-03-12, 13:24:56
http://ascii.jp/elem/000/000/873/873660/zu_1456x1421.png

Iruwen
2014-03-12, 13:25:15
"This isn't journalism", ja das kann Charlie sicher am besten beurteilen :cool:

Unicous
2014-03-12, 13:28:53
Seems to be pure speculation, nothing concrete. Way too many "?" to tell us anything.

Funny, that the only concrete information they got is the process and the PCIe Interface.:rolleyes:


@Iruwen


Charlie ist ein Gerüchteonkel. Und das weiß er und betont er auch. Ich verstehe nicht, wie man ihn so unterschätzen kann und ihm daraus einen Strick ziehen kann. Dass er einen sehr eigenen und zuweilen sehr anstrengenden Sprachstil hat (Rumnörgeln, Beleidigen, Um den heißen Brei rumtänzeln) kann ich dabei verschmerzen. Er hat mehr Insiderwissen, als manche ihm zutrauen. Er hat sehr gute Quellen. Und wenn sich seine Rumors nicht bestätigen, heißt das nicht dass sie nicht dennoch wahr waren. Das vergessen viele immer und hacken dann darauf rum.
Vieles, was er über Nvidia, Intel und AMD in letzter Zeit herausgehauen hat, ist auf die eine oder andere Art auch so geschehen.


Und btw. Es ist ein opinion piece bzw. ein rant. Das steht auch so unter der Überschrift.

ShadowXX
2014-03-12, 14:16:08
Vieles, was er über Nvidia, Intel und AMD in letzter Zeit herausgehauen hat, ist auf die eine oder andere Art auch so geschehen.

Vieles was Nostradamus vorhergesagt hat ist eingetroffen...zumindest auf die eine oder ander art, oder interpretation oder zufall.

Unicous
2014-03-12, 14:41:21
Ich weiß nicht was du mir mit diesem aus dem Kontext gezogenen Zitat sagen willst, daher zitiere ich einfach aus Spaß nochmal das, was ich vorher geschrieben habe.


Charlie ist ein Gerüchteonkel. Und das weiß er und betont er auch. Ich verstehe nicht, wie man ihn so unterschätzen kann und ihm daraus einen Strick ziehen kann. Dass er einen sehr eigenen und zuweilen sehr anstrengenden Sprachstil hat (Rumnörgeln, Beleidigen, Um den heißen Brei rumtänzeln) kann ich dabei verschmerzen. Er hat mehr Insiderwissen, als manche ihm zutrauen. Er hat sehr gute Quellen. Und wenn sich seine Rumors nicht bestätigen, heißt das nicht dass sie nicht dennoch wahr waren. Das vergessen viele immer und hacken dann darauf rum.

Demerjian ist kein Quacksalber, sondern ein IT-Analyst, und ehemaliger Redakteur bei "The Inquirer". Er hat seine Quellen und die sind meist sehr, sehr gut.

Da braucht man auch nicht butthurt zu sein, wenn er seine persönlichen Animositäten gegenüber der Marketing- und Führungsebene von Nvidia öffentlich Ausdruck verleiht. Da kann man einfach ganz großzügig drüber hinwegsehen und sich den gemachten Aussagen widmen. Und die sind meist sehr "akkurat". So akkurat, dass er die Details zum Teil Jahre im voraus wusste. Das können viele andere Schreiberlinge nicht von sich behaupten.

Duplex
2014-03-12, 15:51:21
Warum wirfst du eigentlich immer in jedem Thread sinnlos mit CUs und mm³? Denkst du es bleibt mal was kleben und du kannst dann sagen, "Yeah ich habs gewusst"?
Warum soll das sinnlos sein?
Gegenüber Tahiti ist das mal eben eine verdopplung, bei einem neuem Prozess ist das sehr wahrscheinlich.
Übrigens kannst du wegsehen oder mich auf deiner Ignorierliste hinzufügen.
Solche Beiträge kannste dir nächstes mal sparen, wenn man im Kopf nicht 100% ist...

Unicous
2014-03-12, 16:28:42
Solche Beiträge kannste dir nächstes mal sparen, wenn man im Kopf nicht 100% ist...

Soll das eine Beleidigung sein?:eek:

:lol:

Ailuros
2014-03-13, 19:52:04
Charlie ist tatsaechlich kein so grosser Spinner wie in manche so leicht abstempeln wollen; ich hatte persoenlich anfangs auch einen sehr kritischen Standpunkt ihm gegenueber bis ich mich irgendwann privat mit ihm in Kontakt gesetzt habe. Ja er uebertreibt oefters und er hat einen sehr spezifischen Schreibstil, aber im guten Ganzen hat Unicous schon recht ueber ihn.

Sonst ist mein groesstes Fragezeichen fuer P.I. nirgends fuer dieses Jahr vorgebuchte Kapazitaeten fuer AMD bei TSMC fuer 20SoC gibt oder zumindest eine Angabe dafuer gibt. Entweder kommt dieses Jahr nichts mehr ausser auf 28HP irgendwelche kleine PI cores oder sie stellen wo anders her; anders kann ich mir es nicht erklaeren.

Hübie
2014-03-13, 20:28:43
GF @20 nm? Das ist doch noch nicht mal spruchreif oder ist mir was entgangen?

Skysnake
2014-03-13, 20:40:42
würde ich auch nicht erwarten.

Zudem kommt eben noch ne Dual-290X in absehbarer Zeit.

Ansonsten würde ich vor Q3 mit nichts von AMD oder auch nVidia rechnen.

Hübie
2014-03-13, 20:44:13
nVidia bringt noch die 790. 2*2496 ALUs für 2496/2 Dollar :freak:

Pick
2014-03-13, 21:46:23
Ich hoffe, dass Bermuda XTX hat 4224 prozessoren und 96 ROP. :rolleyes:

Unicous
2014-03-13, 23:59:44
Sonst ist mein groesstes Fragezeichen fuer P.I. nirgends fuer dieses Jahr vorgebuchte Kapazitaeten fuer AMD bei TSMC fuer 20SoC gibt oder zumindest eine Angabe dafuer gibt. Entweder kommt dieses Jahr nichts mehr ausser auf 28HP irgendwelche kleine PI cores oder sie stellen wo anders her; anders kann ich mir es nicht erklaeren.

Ich würde eher sagen ganz oder gar nicht.

Ich kann mir irgendwie nicht vorstellen, dass AMD einen "Maxwell" macht und P.I. SKUs in 28nm herausbringt. (Andererseits versuchen sie ja zu sparen wo sie nur können, hmmm) Und "woanders" gibts nicht. GF kommt nicht aus den Pötten. Ich schätze die sind froh, dass die 28nm Produktion läuft.

Gibt es im Gegenzug konkrete Anzeichen, dass Nvidia Kapazitäten bei TSMC bestellt hat?

Hübie
2014-03-14, 01:31:08
Ja gibt es. Aber ob offiziell musst du googlen ;)

UMC hat glaub ich auch 20 nm für 2014/15 angesetzt aber die haben nicht AMDs gewünschte Kapazitäten. Ich würde mich nicht wundern wenn AMD zweigleisig fährt.
Im Mai findet die ASMC statt und vielleicht wird man da etwas erfahren.

Unicous
2014-03-14, 05:03:23
Hmm? Versteh ich nicht?


Es geht mir nicht darum, dass Nvidia 20nm nutzen wird, das sollte ja wohl klar sein. Ich wollte nur wissen, ob sie schon für das zweite Halbjahr "Wafer" geordert haben, bzw. ob da etwas diesbezüglich durchgesickert ist. Denn ich habe davon halboffiziell nichts gehört und bis auf die heise Aussage, dass dieses Jahr noch Etwas in "22nm":wink: kommen soll/könnte (der "Fehler" wurde immer noch nicht beseitigt), gibt es doch keine weiteren Aussagen dazu, oder?
Und AMD soll ja, laut heise, wie die letzten Jahre auch ca. ein Quartal vorher mit der Produktion anfangen.

Maxwell wurde ja eh schon 2014 gelaunched, Nvidia liegt also voll im Zeitplan.;D

Ailuros
2014-03-14, 08:33:10
Faulpelze :P

http://focustaiwan.tw/news/atod/201312050035.aspx

Industry sources said TSMC's 20nm production capacity has been booked up with orders from industry giants including Apple Inc., Qualcomm Inc., Xilinx, Altera, Supermicro, NVIDIA, MediaTek and Broadcom Corp.

Es hat mich schon damals gewundert wie man jemand wie AMD in solch einem Fall "vergessen" koennte.

Es ist ja auch nicht so dass man nichts vorbucht, aber in der Hinterkammer A, B oder C chip auf 20SoC auslegt lange davor ohne dass man sich guidelines von TSMC dafuer holt. Faktor "Apple" ist dann wiederrum ein solcher der ziemlich bombastische Kapazitaeten aufsaugen wird fuer fruitco's typische Massen-launches.

Und von solchen Bumsfallera Artikeln wie diesem: http://www.brightsideofnews.com/news/2014/2/4/silicon-technology-outlook-analysis-for-2014.aspx wird man auch nicht weisser.

Wenn jetzt AMD bei Intel fertigen wuerde, waere es natuerlich hoechst interessant und von Intel's Seite spricht auch nichts besonderes dagegen da sie ja keine standalone GPUs haben; mir faellt es nur schwer zu glauben dass AMD so leicht ein solches Risiko eingehen wuerde. Bei Glofo auf der anderen Seite fehlt es wohl wirklich an Alternativen aber sie haben mit dieser foundry auch schon ziemlich grosse Erfahrung gemacht. Eine neue Generation auf einen total fuer sie unbekannten Prozess zu schmeissen klingt mir als ein zu grosses Risiko.

Botcruscher
2014-03-14, 09:23:42
Es hat mich schon damals gewundert wie man jemand wie AMD in solch einem Fall "vergessen" koennte.

Ich sehe in der Aufzählung nur Minichips. Für Testchips braucht man keine "Produktions"- Kapazitäten.

Ailuros
2014-03-14, 09:33:59
Ich sehe in der Aufzählung nur Minichips. Für Testchips braucht man keine "Produktions"- Kapazitäten.

Wobei Du wohl auch Deine Hand ins Feuer legst dass NVIDIA nur fuer SoC steht bzw dass sie keinen GPU chip innerhalb des Jahres unter 20SoC veroeffentlichen? Und da der A7 SoC schon 102mm2 mit 1+Mrd. Transistoren ist, sind die Dinger wohl schwer "minichips".

Dawn on Titan
2014-03-14, 09:34:03
Oder man hat nur sehr geringe Kapazitäten geordert.

Ailuros
2014-03-14, 09:39:45
Oder man hat nur sehr geringe Kapazitäten geordert.

Das Ding hier http://ascii.jp/elem/000/000/873/873660/zu_1456x1421.png ist zwar nur spekulativer Brei aber durchaus nicht absurd, wenn es vorschlaegt dass AMD den ersten Zehen in den 20SoC Teich taucht mit einem mainstream chip. Gut Juli und DX12 kann ich noch nicht so leicht schlucken, aber sonst wenn ja braucht man wohl fuer einen mainstream chip dann schon anstaendige Kapazitaeten.

Dawn on Titan
2014-03-14, 10:08:02
Aber Bermuda als beinahe Verdoppelung von Hawaii in 10/14 ist imho auch unwahrscheinlich und die Mainstream-CPU sieht ziemlich groß aus. Das ist Curacao für Bonaire. Ich glaube natürlich gerne an einen 20nm Chip für das mobile Segment in 20nm. Q4 kann ich mir so einen Chip gut vorstellen, bei einem Launch in 07/14 müsste das Ding schon jetzt (oder sehr bald) seinen finalen Tape-Out haben, wenn man genug Chips liefern will, damit die Hersteller für ihre PCs / Laptops für H2/14 genug Chips bekommen können.

Ailuros
2014-03-14, 10:13:03
Aber Bermuda als beinahe Verdoppelung von Hawaii in 10/14 ist imho auch unwahrscheinlich und die Mainstream-CPU sieht ziemlich groß aus. Das ist Curacao für Bonaire. Ich glaube natürlich gerne an einen 20nm Chip für das mobile Segment in 20nm. Q4 kann ich mir so einen Chip gut vorstellen, bei einem Launch in 07/14 müsste das Ding schon jetzt (oder sehr bald) seinen finalen Tape-Out haben, wenn man genug Chips liefern will, damit die Hersteller für ihre PCs / Laptops für H2/14 genug Chips bekommen können.

Wie gesagt ist der Link nur spekulatives Zeug, aber dass sie zuerst mit einem =/<mittlerem chip fuer ihre Groessen mit 20nm einsteigen klingt durchaus logisch. Fuer einen Juli 14' launch haette der tape out schon im Januar stattgefunden und nicht erst heute. Im allerbesten Fall final tape out --> mass production = 6 Monate.

Botcruscher
2014-03-14, 10:18:28
Wobei Du wohl auch Deine Hand ins Feuer legst dass NVIDIA nur fuer SoC steht bzw dass sie keinen GPU chip innerhalb des Jahres unter 20SoC veroeffentlichen? Und da der A7 SoC schon 102mm2 mit 1+Mrd. Transistoren ist, sind die Dinger wohl schwer "minichips".

Da steht erst mal nur Quellen aus der Industrie... Ohne zu wissen was da zu welchem Zeitpunkt vom Band läuft und ob da auch die Versuchschips gemeint waren, brauch man nicht weiter spekulieren. 100mm² ist noch immer weit von einer 350mm² GPU weg. NV/AMD könnten da auch alles mögliche zum Testen haben... Das AMD nicht bei TSMC fertigen lässt gibt die Meldung überhaupt nicht her. Zu welchem Zeitpunkt wir irgendwelche GPUs sehen auch nicht.

Ailuros
2014-03-14, 10:31:06
Da steht erst mal nur Quellen aus der Industrie... Ohne zu wissen was da zu welchem Zeitpunkt vom Band läuft und ob da auch die Versuchschips gemeint waren, brauch man nicht weiter spekulieren.

Ohne "Quellen aus der Industrie" hat man auch keine anstaendigen Anhaltspunkte um wirklich zu spekulieren.

100mm² ist noch immer weit von einer 350mm² GPU weg. NV/AMD könnten da auch alles mögliche zum Testen haben...

Na dann rate mal wie gross ein GM107 shrink als testchip unter 20SoC genau ist. Als ob ein testchip je 350 Quadratmillimeter gross ist...

Das AMD nicht bei TSMC fertigen lässt gibt die Meldung überhaupt nicht her. Zu welchem Zeitpunkt wir irgendwelche GPUs sehen auch nicht.

Es wird aber auch nirgends etwas diesbezuegliches betaetigt. Es behauptet auch hier keiner das dem so ist, sondern es bleiben die genau gleichen Fragezeichen wie zuvor.

N0Thing
2014-03-14, 10:47:24
Und da der A7 SoC schon 102mm2 mit 1+Mrd. Transistoren ist, sind die Dinger wohl schwer "minichips".

Ein GK107 ist auch nur um die 100mm² groß und im Grafikchipbereich könnte man den guten Gewissens zu den Minichips zählen. ;)

Die in der Meldung von Focus Taiwan genannten Firmen haben alle Produkte aus dem ARM-Bereich im Portfolio oder noch kleinere Chips für den Kommunikationsbereich. Ich halte es deshalb für nicht unwahrscheinlich, daß man aus dem Artikel keine Informationen über die Grafikchipproduktion von AMD und Nvidia heraus lesen kann.

Ailuros
2014-03-14, 12:40:14
Ein GK107 ist auch nur um die 100mm² groß und im Grafikchipbereich könnte man den guten Gewissens zu den Minichips zählen. ;)

Die Bezeichnung "mini-chip" ist fehl am Platz im Vergleich zu testchips, da diese in der Vergangenheit teilweise auch nicht groesser waren als ein einziger GPU cluster. SoCs sind da um einiges komplizierter heutzutage.

Die in der Meldung von Focus Taiwan genannten Firmen haben alle Produkte aus dem ARM-Bereich im Portfolio oder noch kleinere Chips für den Kommunikationsbereich. Ich halte es deshalb für nicht unwahrscheinlich, daß man aus dem Artikel keine Informationen über die Grafikchipproduktion von AMD und Nvidia heraus lesen kann.

Es gibt keinen Tegra auf 20SoC; Logan ist auf 28HPm und Parker 16FF TSMC. Ich sage lediglich dass es merkwuerdig ist dass NV und nicht AMD erwaehnt wird. Unicous schlug den Nagel schon auf den Kopf; entweder heisst es alles oder gar nichts.

Wir haben momentan keinerlei Infos ueber kommende GPUs weder was den Prozess dafuer betrifft noch ueber irgend einen tape out wobei unter normalen Umstaenden Charlie schon etwas gemeldet haette. Ergo gibt es zumindest noch nichts dass einen tape out hatte und alles was kommen kann ist dann eher ab September, ausser es hat hier irgend jemand irgendwo selbst einen hint fuers Gegenteil gelesen der hier noch nicht erwaehnt wurde.

Unicous
2014-03-14, 13:21:28
Es gibt aber Denver V 1.Swag.:P

Aber im Ernst. Wenn man Denver 1.2 (oder wie auch immer sie es nennen wollen :rolleyes:)als H2 Produkt, wie angekündigt erscheint würde das sehr, sehr gut passen. Denn dann haben wir ARM(/MIPS?) und andere FPGA/easy peasy Chips in der Fertigung.


Und btw. diese Meldung ist mir natürlich nicht entgangen, aber dennoch ist sie jetzt schon wieder ein viertel Jahr alt. Ich denke, das bezieht sich auf, nennen wir es mal, risky mass production von nicht so komplexen Chips die sicherlich nicht mehr als 150mm² auf die Waage... äääh Meßlehre bringen.

Würde für mich auch keinen Sinn ergeben, in der News steht

A senior TSMC executive revealed recntly that the company will begin 20nm production in the first quarter of 2014, contributing to the company's revenue in the following quarter.

Natürlich werden Kapazitäten für mehrere Monate bzw. gar Jahre gebucht, aber dennoch denke ich diese Sources beziehen sich auf die Initial-Produktion.


Den Link von dieser tollen japanischen Seite, die über die Jahre immer die gleiche Folie, mit gleichem Layout und den immer gleichen Gerüchten, die sich schlussendlich dann als nicht so genau herausgestellt haben, würde ich nicht mal ansatzweise ernst nehmen.

S940
2014-03-14, 13:31:35
Zu GF:
20nm Tests gibts schon seit September 2012, sah man früher noch auf der Globalshuttleseite:
http://web.archive.org/web/20120822040638/http://www.globalfoundries.com/services/global_shuttle.aspx

2013/14 gabs dann nochmal 3 Runden:
http://web.archive.org/web/20140213165027/http://globalfoundries.com/services/global_shuttle.aspx

Leider hat GF aber nun die Webseite überarbeitet und die Infos zu 20 und 14nm entfernt :(
http://www.globalfoundries.com/services/globalshuttle

Über den Start der Massenproduktion sagt das natürlich nichts aus, aber wenn man seit Mitte 2012 testet, sollte langsam mal was Brauchbares rauskommen.

Dawn on Titan
2014-03-14, 13:57:53
Wie gesagt ist der Link nur spekulatives Zeug, aber dass sie zuerst mit einem =/<mittlerem chip fuer ihre Groessen mit 20nm einsteigen klingt durchaus logisch. Fuer einen Juli 14' launch haette der tape out schon im Januar stattgefunden und nicht erst heute. Im allerbesten Fall final tape out --> mass production = 6 Monate.

Sorry, ich meinte auch Produktionsbeginn, nicht finalen Tape-Out.

Es würde mich nicht wundern wenn AMD auf GF gewettet hat. Wie weit die mit 20nm sind ist mir aber völlig unbekannt.

Unicous
2014-03-14, 14:10:34
@S940

Also wenn GF 20nm aus ihrem "Fahrplan" nimmt, dann kann das ja nur Gutes für den Prozess bedeuten. ;)

Gibt es eigentlich bei GF wenigstens etwas Anderes als 20 LPM?
Irgendwie hört sich das nämlich nicht an, als ob der LPM Prozess soo gut für 300+ Watt TDP Chips ausgelegt ist, eher für Low Power Mobility (welch Zufall, dafür steht ja LPM:tongue:)
Bei TSMC gibts ja irgendwie auch nur 20SOC. Da werde ich auch nicht schlau draus. Ist das jetzt eine Familie oder gibt es wirklich nur den einen Prozess?

Dein letzter Satz ist auch gut. Man sieht ja bei 32nm und 28nm wie gut das geklappt hat mit den roadmap-Versprechungen.

Ailuros
2014-03-14, 15:06:51
Es gibt aber Denver V 1.Swag.:P

Aber im Ernst. Wenn man Denver 1.2 (oder wie auch immer sie es nennen wollen :rolleyes:)als H2 Produkt, wie angekündigt erscheint würde das sehr, sehr gut passen. Denn dann haben wir ARM(/MIPS?) und andere FPGA/easy peasy Chips in der Fertigung.

Ausser ich verstehe Dich gerade falsch, selbst K1 mit Denver wird auf 28HPm hergestellt.



Den Link von dieser tollen japanischen Seite, die über die Jahre immer die gleiche Folie, mit gleichem Layout und den immer gleichen Gerüchten, die sich schlussendlich dann als nicht so genau herausgestellt haben, würde ich nicht mal ansatzweise ernst nehmen.

Wie ich schon sagte ein mainstream pirate islands core gegen irgendwo Herbst wuerde mich nicht wundern; vor Q3 wuerde ich von NV auch nichts erwarten.

robbitop
2014-03-14, 15:08:34
Meint ihr, dass NV und AMD analog zu GK104 und Tahiti wieder mit den Performance GPUs starten wird und das Flaggschiff deutlich später bringen werden?
Sinnvoll wäre es bei einem neuen Fertigungsprozess sicherlich schon.

Ailuros
2014-03-14, 15:19:49
Meint ihr, dass NV und AMD analog zu GK104 und Tahiti wieder mit den Performance GPUs starten wird und das Flaggschiff deutlich später bringen werden?
Sinnvoll wäre es bei einem neuen Fertigungsprozess sicherlich schon.

IMHO ja.

S940
2014-03-14, 15:23:13
@S940

Also wenn GF 20nm aus ihrem "Fahrplan" nimmt, dann kann das ja nur Gutes für den Prozess bedeuten. ;)

Na ne, in dem Fall ist das einfach nur Geheimhaltung, siehe auch die Unter-Schrift, mit dem Hinweis, dass man sich für nicht aufgeführte Waferstarts an GF wenden solle ;-)

Gibt es eigentlich bei GF wenigstens etwas Anderes als 20 LPM?
Irgendwie hört sich das nämlich nicht an, als ob der LPM Prozess soo gut für 300+ Watt TDP Chips ausgelegt ist, eher für Low Power Mobility (welch Zufall, dafür steht ja LPM:tongue:)
Bei TSMC gibts ja irgendwie auch nur 20SOC. Da werde ich auch nicht schlau draus. Ist das jetzt eine Familie oder gibt es wirklich nur den einen Prozess?
Es gibts nichts anderes, nur 1 Prozess. Es waren mal 2 geplant, Low- und Highperformance, aber beide Hersteller haben dann den 2. Prozess gestrichen, ist einfach zu teuer.

Wobei man aus technischer Sicht die Finfetprozesse (16nm/14XM) eigentlich zu 20nm zählen müsste bzw. kann.

20nm FDSOI gäbs eventuell auch noch, zumindest wurde offiziell nichts gestrichen, aber das läuft mittlerweile auch unter ner 14er Kennziffer.
Nachteil: Das Ding ist noch Gate-First.
Dein letzter Satz ist auch gut. Man sieht ja bei 32nm und 28nm wie gut das geklappt hat mit den roadmap-Versprechungen.Naja, das ist keine Roadmap, das ist der Fab-Plan für Versuchschips. Das heißt da kommen keine billigen SRAM-Chips aus der Fab, sondern es werden richtige Endkundendesigns getestet. Ist also schon ne Scheibe realistischer.

N0Thing
2014-03-14, 16:44:52
Na ne, in dem Fall ist das einfach nur Geheimhaltung, siehe auch die Unter-Schrift, mit dem Hinweis, dass man sich für nicht aufgeführte Waferstarts an GF wenden solle ;-)

Kein Wunder, daß GF keine Kunden hat, wenn sie die neueren Prozesse nur im Geheimen anbieten und produzieren. :D

robbitop
2014-03-14, 16:58:39
20 nm @ GF ist noch Gate First? Damit dann ja auch der 14 XM, oder? Und danach stellt man dann auf Gate Last um?

fondness
2014-03-14, 17:02:12
Nope ist nicht mehr Gate-First.

Aber was anderes, ich glaube nicht, dass AMD Hawaii nach nur einem Jahr schon wieder ersetzt. 20nm dürfte zu Beginn extrem teuer und knapp sein, dieser Trend verschärft sich mit jedem neuen Prozess. Laut ARM wird auch noch in 2015 28nm pro Transistor preiswerter sein als 20nm. IMO kommt zumindest von AMD erst 2015 etwas schnelleres.

Botcruscher
2014-03-14, 18:18:19
Hohe Preise zählen nur im Massenmarkt. Wenn man Hawaii oder GK104 mit 60% mehr Leistung bringen kann, tut man das. NV fährt mit seiner Hochpreisstrategie extrem erfolgreich. Die Kundschaft mit der Kaufkraft ist da. Die Frage ist eher ob AMD noch mal so blöd ist und sich von einem NV-Performancechip ficken lässt. Die Strategie der 400mm² für den Größten sehe ich als gescheitert an.

S940
2014-03-14, 18:32:58
20 nm @ GF ist noch Gate First? Damit dann ja auch der 14 XM, oder? Und danach stellt man dann auf Gate Last um?
Sorry, der Edit rutschte in die falsche Zeile, habs korrigiert.

20/14nm FDSOI (vermutlich auch bei GF) ist Gatefirst, das "normale" 20LPM ist natürlich Gatelast.

Nakai
2014-03-14, 18:45:13
In erster Linie ist PI die Serie für 2015. Vor Q4 2014 erwarte ich nicht wirklich viele Neuigkeiten. Außerdem werden wohl einige Chips renamed werden...wie so oft.

Ahja, wenn Hawaii im Professionellen Bereich ein DP-Verhältnis von 1:2 hat, dann braucht AMD da eh nicht so schnell, etwas Neues. Ergo werden wohl erst einige Budgetchips oder Gamingchips auf den Markt kommen.

Skysnake
2014-03-14, 19:45:45
Meint ihr, dass NV und AMD analog zu GK104 und Tahiti wieder mit den Performance GPUs starten wird und das Flaggschiff deutlich später bringen werden?
Sinnvoll wäre es bei einem neuen Fertigungsprozess sicherlich schon.
Verabschiede dich mal lieber von jedwedem Flaggschiff in 2014, und auch H1 2015.

Ailuros
2014-03-14, 23:05:56
Hohe Preise zählen nur im Massenmarkt. Wenn man Hawaii oder GK104 mit 60% mehr Leistung bringen kann, tut man das. NV fährt mit seiner Hochpreisstrategie extrem erfolgreich. Die Kundschaft mit der Kaufkraft ist da. Die Frage ist eher ob AMD noch mal so blöd ist und sich von einem NV-Performancechip ficken lässt. Die Strategie der 400mm² für den Größten sehe ich als gescheitert an.

Dann muss AMD auch die Finger von Profi-Maerkten weglassen, denn umsonst ist gar nichts.

Mandalore
2014-03-14, 23:53:31
Verabschiede dich mal lieber von jedwedem Flaggschiff in 2014, und auch H1 2015.


Und woher ziehst du das?

Die ganze Situation ist doch genau wie AMD & Nvidia sie wollen. Möglich ist es auf jeden Fall 20nm High-End 2014 zu bringen. Ob sies tun liegt bei den Anzugträgern. Denn durch diese künstlich erschaffene Jammer-Situation um 20nm (und wie es 28 und 40 davor waren) treibt man die Verkäufe massiv an, da die Mehrheit der Kundschaft davon ausgeht, dass es noch ewig dauern wird und so greifen sie zu. Und plötzlich sind die neuen so viel schneller und viele kaufen das Zeug wieder, also Gewinn=Doppelt;) Man kann sagen was man will, aber technisch ist es definitiv machbar.

Skysnake
2014-03-15, 00:49:46
Es ist auch technisch machbar Menschen zum Mars zu bringen. Aber tun wirs auch???

Und ansonsten, das hat mir ein Vögelchen gezwitschert.

Hübie
2014-03-15, 03:48:52
Mir wurde sowas von der grünen Seite bzgl. Maxwell zugetragen. Das AMD dieses Jahr noch was fetteres als Hawaii XT bringt darf auch bezweifelt werden.

fondness
2014-03-15, 09:31:59
Ahja, wenn Hawaii im Professionellen Bereich ein DP-Verhältnis von 1:2 hat, dann braucht AMD da eh nicht so schnell, etwas Neues. Ergo werden wohl erst einige Budgetchips oder Gamingchips auf den Markt kommen.

Es gibt aktuell nicht den geringsten Hinweis das Hawaii mehr als 1:8 DP beherrscht. AMD hat das DP-Verhältnis noch nie beschnitten im Consumer-Bereich. 1:2 bei dem kleinen Chip wäre Wahnsinn.

Skysnake
2014-03-15, 09:32:30
Naja, da kommt schon noch was fetteres, aber halt im Doppelpack ;D

Ich habs schon mal wo anders gesagt, aber ich wiederhole es auch gern nochmal. Bei nVidia kommt dieses Jahr nur noch ein GK104 reloaded und vor H2/15 brauchen wir auch nicht mit nem GK110 reloaded rechnen.

Mancko
2014-03-15, 12:00:05
Naja, da kommt schon noch was fetteres, aber halt im Doppelpack ;D

Ich habs schon mal wo anders gesagt, aber ich wiederhole es auch gern nochmal. Bei nVidia kommt dieses Jahr nur noch ein GK104 reloaded und vor H2/15 brauchen wir auch nicht mit nem GK110 reloaded rechnen.

GK110 Dual halte ich aber noch für eine Option die kommen kann. Und die kommt dann eher kurzfristig und überraschend. Dafür brauch man keine langen Vorlaufzeiten.

reaperrr
2014-03-15, 13:10:07
Es gibt aktuell nicht den geringsten Hinweis das Hawaii mehr als 1:8 DP beherrscht. AMD hat das DP-Verhältnis noch nie beschnitten im Consumer-Bereich. 1:2 bei dem kleinen Chip wäre Wahnsinn.
Welchen Sinn macht es, Hawaii mit einer niedrigeren DP-Leistung als Tahiti auszustatten, nur um ein paar mm² zu sparen, und dann deswegen im Profi-Segment weniger Verkaufspotenzial zu haben? Richtig, gar keinen.

Ich denke, AMD hat diesmal die DP-Rate für die Consumer-Variante mindestens halbiert, weil man vermeiden möchte, dass sich Kunden, die die höchstmögliche DP-Rate wollen, die günstigen Radeon statt der teureren FirePro kaufen. Warum sie das nicht schon bei Tahiti gemacht haben hat mich sowieso etwas gewundert.

OBrian
2014-03-15, 13:43:38
Sowas kann sogar recht kurzfristig vor 20 nm noch kommen, weil man an solchen Karten ja längere Zeit gearbeitet hat und sie dann auch raushauen will. Die verbauten Chips sind ja über die vielen Einzelchipkarten schon abbezahlt, aber das Platinendesign will noch wenigstens eine schwarze Null einfahren. Was ja auch machbar ist, weil die Karten regelmäßig teurer sind als zwei Einzelkarten. Und die PR ist auch immer willkommen.

Von daher hätte ich als Kartenhersteller kein Problem, sowas noch in den Markt zu bringen, wenn es nur noch ein Vierteljahr bis zum Start der ersten 20-nm-Chips ist.

Außerdem kann es gut sein, daß die 20-nm-Produktion anfangs komplett in den mobilen Bereich wandert, dort kann man ja schon mit kleineren, leichter zu fertigenden Chips auftrumpfen, die zudem nicht mal den Desktop-Zieltakt erreichen müssen. Auf die Weise könnten sowohl eine Dual-Chip-Karte wie auch der Verkaufsstart der 20-nm-Produktion nah zusammen fallen, ohne sich arg zu behindern.

Nakai
2014-03-15, 13:45:45
Es gibt aktuell nicht den geringsten Hinweis das Hawaii mehr als 1:8 DP beherrscht. AMD hat das DP-Verhältnis noch nie beschnitten im Consumer-Bereich. 1:2 bei dem kleinen Chip wäre Wahnsinn.

Welchen Sinn macht es, Hawaii mit einer niedrigeren DP-Leistung als Tahiti auszustatten, nur um ein paar mm² zu sparen, und dann deswegen im Profi-Segment weniger Verkaufspotenzial zu haben? Richtig, gar keinen.

Wenn man doch immer nur mit Quotes antworten könnte.

Im GCN Architecture Whitepaper steht folgendes:
Double precision and 32-bit integer instructions run at a reduced rate within a SIMD. The GCN Architecture is flexible and double precision performance varies
from 1/2 to 1/16 of single precision performance, increasing the latency accordingly. The double precision and 32-bit integer performance can be configured for
a specific GCN implementation, based on the target application.

Wird mal Zeit für ne DP1:2 Implementierung.

Ich will zwar nicht PedantOne aka OBR irgendwie in Schutz nehmen oder gar hervorheben, aber er hat selber von DP1:2 gesprochen und sogar ein 28nm Maxwell "prophezeit". Mindestens DP 1:4 im Profisegment, alles andere wäre lächerlich.

redfirediablo
2014-03-15, 16:00:26
Wie wahrscheinlich ist eigentlich, dass die neuen 20nm Highendchips tatsächlich bedeutend schneller werden als die alten 28nm? Hat nicht auch Intel bei den aktuellen Prozessoren damit zu kämpfen, dass langsam die Fläche zu klein wird um effektiv die Verlustleistung abzuführen? Großartiger OC Spielraum besteht ja nicht mehr, ganz im Gegensatz zu früher.

Wäre es da nicht wahrscheinlich, dass nochmal größere Chips auf dem mittlerweile günstigen und ausgereiften 28er Prozess kommen?

Mandalore
2014-03-15, 16:59:03
Es ist auch technisch machbar Menschen zum Mars zu bringen. Aber tun wirs auch???

Und ansonsten, das hat mir ein Vögelchen gezwitschert.


Zwar Off-Topic, aber muss gesagt werden: Den Mars kannst du vergessen. Gott wie kann man nur jeden Scheiß von Menschenhand glauben der einem vor die Füße geworfen wird....

Knuddelbearli
2014-03-15, 17:52:32
Wie wahrscheinlich ist eigentlich, dass die neuen 20nm Highendchips tatsächlich bedeutend schneller werden als die alten 28nm? Hat nicht auch Intel bei den aktuellen Prozessoren damit zu kämpfen, dass langsam die Fläche zu klein wird um effektiv die Verlustleistung abzuführen? Großartiger OC Spielraum besteht ja nicht mehr, ganz im Gegensatz zu früher.

Wäre es da nicht wahrscheinlich, dass nochmal größere Chips auf dem mittlerweile günstigen und ausgereiften 28er Prozess kommen?


Intel hat das Problem weill die Chips immer kleiner werden bei selber TDP. ( und man umbedingt 0,1cent durch WLP statt verlöten sparen wollte )

Ein GPU Chip hat aber schon seit Ewigkeiten bei selber Verlustleistung ungefähr die selbe Größe.

StefanV
2014-03-16, 06:15:48
Es gibt aktuell nicht den geringsten Hinweis das Hawaii mehr als 1:8 DP beherrscht. AMD hat das DP-Verhältnis noch nie beschnitten im Consumer-Bereich. 1:2 bei dem kleinen Chip wäre Wahnsinn.
Naja, wir wissen leider nicht, wie die ganzen Einheiten in Hawaii designt sind.

Möglich, dass das ganze flexibel gestaltet ist, dann aber gewaltig auf die Single Precision Performance drückt und man daher das ganze auf 1:8 beschränkt hat...

Aber genau wisssen werden wir es ja bald, theoretisch...

krötenfresse
2014-03-16, 09:50:44
Zwar Off-Topic, aber muss gesagt werden: Den Mars kannst du vergessen. Gott wie kann man nur jeden Scheiß von Menschenhand glauben der einem vor die Füße geworfen wird....
warum nimmst du nicht am mars-thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=551463) teil?

redfirediablo
2014-03-16, 22:27:02
Intel hat das Problem weill die Chips immer kleiner werden bei selber TDP. ( und man umbedingt 0,1cent durch WLP statt verlöten sparen wollte )

Ein GPU Chip hat aber schon seit Ewigkeiten bei selber Verlustleistung ungefähr die selbe Größe.

Das stimmt so nicht ganz. Auf 40 nm hatte der RV870 bei 334mm² eine TDP von 188 Watt. Ein Tahiti hat auf 28 nm auf 352 mm² eine TDP von 250 Watt.

Die Chips werden zwar nicht kleiner, bei gleicher Größe steigt die Verlustleistung aber immer weiter an.

OBrian
2014-03-17, 02:55:54
na, der R300 auf der Radeon 9700 pro war auch ziemlich groß. Angabe zur Diegröße finde ich nicht, aber dürfte durchaus im Bereich Tahiti/Hawaii liegen. Sind zwar nur 107 Mio Transistoren gewesen, aber in 150 nm. Und die Verlustleistung war damals noch kein echtes Thema, habe also auch keine Angabe gefunden, aber schon am damals verbauten Kühler sieht man ja, wie viel weniger es war.

AnarchX
2014-03-17, 08:13:04
150/130nm High-End-GPUs waren eher ~200mm² groß:
http://www.techpowerup.com/gpudb/50/radeon-9700-pro.html
http://www.techpowerup.com/gpudb/74/geforce-fx-5800-ultra.html

G80 war die erste GPU jenseits der 400mm². Mit 90nm wurden ja erst die 300mm Wafer Standard.

Ailuros
2014-03-17, 08:37:17
Das stimmt so nicht ganz. Auf 40 nm hatte der RV870 bei 334mm² eine TDP von 188 Watt. Ein Tahiti hat auf 28 nm auf 352 mm² eine TDP von 250 Watt.

Die Chips werden zwar nicht kleiner, bei gleicher Größe steigt die Verlustleistung aber immer weiter an.

Ja und nein. Was fuer eine TDP hatte denn genau eine HD6970 (wobei es bei Cayman sogar 389mm2 waren wenn ich mich nicht irre)?

HOT
2014-03-17, 12:51:56
Cayman war auch ein recht schnell zusammengeschusterter Ersatzchip für die ganze 32nm-Generation, die ja weggefallen ist. MMn ist auch Hawaii ein schnell zusammengeschusterter Ersatzchip, der bis FinFETs überbrücken soll. Aber wahrscheinlich ist Hawaii zwar ein verhältmismäßig gutes Design, aber recht fehlerhaft. Erst Rev.B wird sicherlich die Vorteile richtig ausspielen können. Die erste Rev. war mMn nicht so wie geplant, aber man muss jetzt damit leben.

Bermuda ist sicherlich zwar 20nm SoC TSMC, jedoch ist das kein Ersatz für Hawaii. MMn ist das ein dreifach ausgelegter Pitcairn mit GCN 2.1, also mit 1920 Shadern und 120TMUs (256Bit RAM-Interface). Zusammen mit einem gefixten Hawaii, der ja eigentlich ein 3-fach ausgelegter Tahiti ist, also insgesamt sicherlich 3072 GCN 2.0 Shader und 192 TMUs besitzt und korrekt funktionierender 1/4 DP-Genauigkeit hat, hat man eine recht potente 300er-Generation. Tahiti und Pitcairn sowie Oland und Cap-Verde werden dann endlich auch ausgemustert.

Ailuros
2014-03-17, 13:53:26
Cayman war auch ein recht schnell zusammengeschusterter Ersatzchip für die ganze 32nm-Generation, die ja weggefallen ist.
MMn ist auch Hawaii ein schnell zusammengeschusterter Ersatzchip, der bis FinFETs überbrücken soll. Aber wahrscheinlich ist Hawaii zwar ein verhältmismäßig gutes Design, aber recht fehlerhaft. Erst Rev.B wird sicherlich die Vorteile richtig ausspielen können. Die erste Rev. war mMn nicht so wie geplant, aber man muss jetzt damit leben.

Bermuda ist sicherlich zwar 20nm SoC TSMC, jedoch ist das kein Ersatz für Hawaii. MMn ist das ein dreifach ausgelegter Pitcairn mit GCN 2.1, also mit 1920 Shadern und 120TMUs (256Bit RAM-Interface). Zusammen mit einem gefixten Hawaii, der ja eigentlich ein 3-fach ausgelegter Tahiti ist, also insgesamt sicherlich 3072 GCN 2.0 Shader und 192 TMUs besitzt und korrekt funktionierender 1/4 DP-Genauigkeit hat, hat man eine recht potente 300er-Generation. Tahiti und Pitcairn sowie Oland und Cap-Verde werden dann endlich auch ausgemustert.

Tja da man eben fuer alle Faelle eine Reihe an Gruenden fuer A,B oder C finden kann, es ist dann schon dass innerhalb von Grenzen die die area mehr oder weniger knapp um die <400mm2 landen wird und der TDP irgendwo auf gleichem Nivaeu.

Die TDP der originalen 7970 war auch ziemlich grosszuegig angelegt, damit Verbraucher frei und grosszuegig uebertakten koennen.

HOT
2014-03-18, 14:19:16
Hawaii Rev.A (wie auch GK110) ist ganz schön am Limit für sein 300W VRM. Das geht mit einer neuen Chip-Rev. sicherlich besser. Aber auch hier wird man ans Limit gehen. Vielleicht gibts bei den FinFET-Karten wieder etwas Übertakterabstand. Bei Hawaii insbesondere wird das Limit aber vor allem durch die extrem hohe Standard-Last-Temperatur von über 90°C erreicht. Die Custom-PCBs mit Custom-Kühler erreichen hier tatsächlich Spielraum mit niedrigeren Temperaturen und auch VRMs mit niedrigeren Betriebstemperaturen. Das Referenzboard ist mMn genauso ein Fehldesign wie damals die HD4870, wo auch durch extrem hohe Temperaturen ein eigentlich effizienter Chip zum Stromschlucker wurde. auch hier wurde das Problem mit einer neuen Rev. mit neuem PCB und neuem VRM entschärft, man erinnere sich an die HD4890. Lt. PCGH kann man mit niedrigeren Temps bei Hawaii locker 30W sparen, wenn dann noch bessere VRMs dabeikommen, siehts noch besser aus.
Auch Cayman Pro-Referenz war ganz schön am Limit für sein 225W VRM damals übrigens.

Unicous
2014-03-18, 14:48:13
Ich persönlich bin mir nicht sicher, ob es eine neue Rev. gibt.
AMD macht das, soweit ich mich erinnern kann, eher selten (solange es keine argen Probleme im Design gibt).

Ich finde es auch immer komisch, wie man GK110 mit Tahiti und Hawaii vergleicht.
Bei [GK110] sind das allein schon über 100 mm² mehr Fläche die man besser kühlen kann.

Und dass die PCBs und VRMs nicht so toll konzipiert sind und die Kühllösungen das auch nicht berücksichtigen, ist ein generelles AMD-Problem. Wer hat das PCB konzipiert? Ist das nicht so eine kleine Klitsche oder war es diesmal eine größere Firma?

HOT
2014-03-18, 14:59:52
Ich bin mir nicht sicher, ob das nicht z.T. sogar Absicht ist. Man liefert ein voll funktionsfähiges Referenzdesign für Reviews und die Hersteller können dann das optimierte Design liefern. Als Kunde kann man auch mit dem Referenzdesign leben, wenn man den Kühler ersetzt.
Wird das Referenzdesign nicht sogar von Sapphire nach AMD-Vorgaben konstruiert? Ich meine mal sowas gelesen zu haben.

Unicous
2014-03-18, 15:51:22
Ja, ich hatte auch Sapphire im Gedächtnis. Davor war es aber meiner Erinnerung nach, immer eine kleine unbedeutende Klitsche.

Aber du siehst ja, dennoch wurde größenteils das Referenz-PCB genutzt oder eher Verschlimmbesserungen.
Die Kühllösungen sind zum Großteil auch nicht gut, seltsamerweise hat Sapphire mit die besten Grafikkarten diese Generation abgeliefert. Ein Schelm der einen Zusammenhang zieht.:biggrin:

Ich habe irgendwie das Gefühl, dass AMD sich da einfach zu sehr heraushält oder in anderweitig nicht mit Ruhm bekleckert. Ich vermute, dass Nvidia da viel enger mit den OEMs zusammenarbeitet, bzw. auch Vorgaben macht. Anders kann ich mir die teils katastrophalen Aussetzer bei den Kühllösungen der letzten Jahre, nicht vorstellen. Um ordentlich und vor Allem leise zu kühlen musste man entweder ordentlich Geld verprassen oder gleich nen Accelero draufschnallen.

Nvidias Referenz-Design sieht z.T. ziemlich schick aus und ist auch funktionell. Ersteres könnte mir persönlich nicht egaler sein, Zweiteres macht den großen Unterschied aus. Denn daran orientieren sich ja auch die OEMs. Wenn AMD mal wieder seine zugleich nicht wirklich ansehnlichen Plastebomber samt gruseliger Lüfter heraushaut sind die OEMs nicht wirklich bemüht, das Beste herauszuholen. Auch hier denke ich, wird AMDs Firmenpolitik, wenn wir es nicht über das Produkt schaffen, drücken wir es durch die Preise durch (eigentlich auch z.T. Intels Politik ;)) einfach über die OEMs an den Kunden weitergegeben. Ich behaupte, da wird auch einfach mal bei den Designs gespart.

Hinzu kommt, dass AMD mal wieder keine Prototypen/Samples rechtzeitig ausgeliefert hat. Vllt. aus Angst vor Leaks, wer weiß.

Knuddelbearli
2014-03-18, 16:01:43
Ich denke eher sogar das AMD das macht um die OEMS nicht zu verkraulen damit sie sich mit eigenen Lösungen abheben können.

Unicous
2014-03-18, 16:14:39
Ich denke eher sogar das AMD das macht um die OEMS nicht zu verkraulen damit sie sich mit eigenen Lösungen abheben können.

Du meinst um sie nicht vergraulen, gibts ne professionelle Rückenmassage?;)

OBrian
2014-03-18, 16:16:07
ja wahrscheinlich, aber die heben sich ja dann eben nicht ab. Darf ja alles nichts kosten. Also wird praktisch nur die Plastikumhüllung geändert und fertig, aber offensichtlich kein intensives Design betrieben, wozu auch Strömungssimulationen usw. gehören mußten, um eine gute Geräuschkulisse hinzukriegen.

Gaestle
2014-03-18, 16:18:01
Ja, ich hatte auch Sapphire im Gedächtnis. Davor war es aber meiner Erinnerung nach, immer eine kleine unbedeutende Klitsche.


AFAIR war es vorher PowerColor/TuL.

Man sollte auch sehen, dass R290 offenbar mehr Strom zieht als eine 780Ti. Und dieser Strom wird im Wärme umgewandelt, die weggekühlt werden muss. NVidia hatte halt sein "NV30-Gate", das steht bei AMD noch aus.

Unicous
2014-03-18, 16:50:16
Natürlich hat AMD z.T. eine höhere Leistungsaufnahme bzw. TDP.

Aber das hat doch nichts mit den schlechten Designs zu tun. Bei Nvidia klappt es doch auch, warum nicht bei AMD?

Die Hersteller machen ja zum Teil die dümmsten Fehler, z.B. den Heatspreader ist falsch konzipiert bzw. zu und dadurch werden gar nicht alle Heatpipes ausreichend "mit Wärme versorgt". Da gab es doch gerade letztens diesen riesigen Fauxpas. Weiß nicht mehr welche Karte(n) das betraf.

Am geilsten finde ich es ja, wenn versucht wird, das alte Design auf die neue Generation zu übertragen, aber da Schindluder betrieben wird und dadurch z.B. VRMs nicht ordentlich gekühlt werden, weil das Layout doch anders ist als bei vorherigen Generation.

Generell bin ich von den ganzen Herstellern enttäuscht. Da kommen doch kaum noch Ideen bei rum. Sapphire hat jetzt diese, mE halbherzig ausgearbeitete, Desktop-Lüftungssteuerung erdacht aber generell sind doch auch die Lüfterkurven viel zu aggressiv gewählt. Dass man da noch sehr viel herausholen kann, muss doch auch mal bei den Herstellern ankommen. Stattdessen muss man da selber rumschrauben um das linearer zu gestalten.

Das verwundert mich am Meisten. Wer denkt sich diese Lüfterkurven aus. Klar gibt es eine Varianz sowohl bei PCB/Chip als auch bei Kühler undLüfter(n) aber man sieht doch, dass man es besser machen kann.
(AMD konnte/musste diese Varianz sogar im Treiber ausgleichen.)

robbitop
2014-03-18, 16:56:41
NVidia hatte halt sein "NV30-Gate", das steht bei AMD noch aus.
R600? ;)

Knuddelbearli
2014-03-18, 17:02:25
Natürlich hat AMD z.T. eine höhere Leistungsaufnahme bzw. TDP.



Bei selber Temperatur brauchen 290X und 780Ti ca gleichviel und sind gleichschnell, AMD hat aber den deutlich kleineren Chip. Klar das das dann schwerer zu Kühlen.

Unicous
2014-03-18, 17:12:32
Bei selber Temperatur brauchen 290X und 780Ti ca gleichviel und sind gleichschnell, AMD hat aber den deutlich kleineren Chip. Klar das das dann schwerer zu Kühlen.
:rolleyes:

Ich zitiere mich mal selber:

Ich finde es auch immer komisch, wie man GK110 mit Tahiti und Hawaii vergleicht.
Bei [GK110] sind das allein schon über 100 mm² mehr Fläche die man besser kühlen kann.

Edit: Oops Hawaii mit GK110 vertauscht.

HOT
2014-03-18, 18:22:39
R600? ;)
Na ja, bei NV30 ist die ganze Architektur schrott gewesen, beim R600 war es nur der Chip. Die Architektur hat sich ja dann noch etliche Jahre bis zum Barts durchgezogen.

Ailuros
2014-03-18, 18:30:44
Na ja, bei NV30 ist die ganze Architektur schrott gewesen, beim R600 war es nur der Chip. Die Architektur hat sich ja dann noch etliche Jahre bis zum Barts durchgezogen.

Dann muss ich mir single cycle 2xAA und den 512bit bus u.v.a. damals nur vorgestellt haben; und ja manche von den damals idiotischen design decisions von R600 haben sich leider bis zu RV7x0 durchgezogen.

robbitop
2014-03-18, 19:22:57
Dennoch gebe ich HOT recht. Es war hauptsächlich R6xx ein Fehlschlag. RV770 war ziemlich stark pro Transistor.

Ailuros
2014-03-18, 19:43:26
Dennoch gebe ich HOT recht. Es war hauptsächlich R6xx ein Fehlschlag. RV770 war ziemlich stark pro Transistor.

Dann lies nochmal vorsichtig durch was HOT sagte; nach ihm war nur die Realisierung des chips Schrott und alle R6xx design Entscheidungen vollkommen in Ordnung.

Und das mit der Realisierung des chips ist auch bullshit in Realitaet denn ATi konnte nichts dafuer dass TSMC 80nm so koeniglich abgefoegelt hatte deshalb hat es damals NV auch nie beruehrt.

robbitop
2014-03-18, 19:54:23
Dann lies nochmal vorsichtig durch was HOT sagte; nach ihm war nur die Realisierung des chips Schrott und alle R6xx design Entscheidungen vollkommen in Ordnung.

Und das mit der Realisierung des chips ist auch bullshit in Realitaet denn ATi konnte nichts dafuer dass TSMC 80nm so koeniglich abgefoegelt hatte deshalb hat es damals NV auch nie beruehrt.
Ich glaube du missverstehst ihn. Ich verstehe seine Aussage so, dass nur R600 per se schlecht war - aber nicht die VLIW Grundarchitektur (die ja bis Cayman weiterlebte).

Und wenn er es so meint, gebe ich ihm Recht.

Ailuros
2014-03-18, 19:58:59
Ich glaube du missverstehst ihn. Ich verstehe seine Aussage so, dass nur R600 per se schlecht war - aber nicht die VLIW Grundarchitektur (die ja bis Cayman weiterlebte).

Und wenn er es so meint, gebe ich ihm Recht.

Nochmal seine genaue Aussage:

Na ja, bei NV30 ist die ganze Architektur schrott gewesen, beim R600 war es nur der Chip. Die Architektur hat sich ja dann noch etliche Jahre bis zum Barts durchgezogen.

Ich verstehe darunter dass R600 keine falsche design-Entscheidungen hatte welches eben NICHT der Fall war.

Sonst wenn es darum geht von welcher Grund-architektur was und wo weiterlebte, wuerde ich auch nicht sagen dass NV sooo fundamentales zwischen NV35 und G7x aenderte.

robbitop
2014-03-18, 20:20:04
NV3x zu G7x war zwar irgendwo schon noch alles CineFX - aber seit NV4x hat man das Design schon massiv umgekrempelt.

Vieleicht kann HOT ja selbst sagen, was er gemeint hat. Ich habe ihn jedenfalls anders verstanden (weil eine andere Aussage weniger Sinn ergibt)...

Ailuros
2014-03-18, 20:26:58
NV3x zu G7x war zwar irgendwo schon noch alles CineFX - aber seit NV4x hat man das Design schon massiv umgekrempelt.

Vieleicht kann HOT ja selbst sagen, was er gemeint hat. Ich habe ihn jedenfalls anders verstanden (weil eine andere Aussage weniger Sinn ergibt)...

Es schon seit langem zu weit OT aber wenn der Unterschied von NV3x zu NV4x "massiv" war, dann gleichte wohl G7x zu G80 wohl einer Explosion eines ganzen Universums :freak:

HOT
2014-03-18, 20:37:46
Ich glaube du missverstehst ihn. Ich verstehe seine Aussage so, dass nur R600 per se schlecht war - aber nicht die VLIW Grundarchitektur (die ja bis Cayman weiterlebte).

Und wenn er es so meint, gebe ich ihm Recht.
Exakt. Wenn man R580 gegen Geforce7 sieht, ist auch da CineFX immernoch Schrott... Wenn man die heute gegeneinander bencht ist R580 sicher doppelt so schnell wie Geforce7. Ist nunmal eine alte Architektur, die von Anfang an ihre Probleme hatte.
Geforce6 hatte ich übrigens selber. Ich war froh, als ich sie durch eine X850 ersetzt hatte.

robbitop
2014-03-18, 21:01:08
Es schon seit langem zu weit OT aber wenn der Unterschied von NV3x zu NV4x "massiv" war, dann gleichte wohl G7x zu G80 wohl einer Explosion eines ganzen Universums :freak:
Könnte man so sagen. Es ist halt immer die Frage, wo Evolution aufhört und Revolution beginnt. NV4x ist schon ziemlich umgekrempelt gewesen. Aths hat dazu damals einen schönen Artikel geschrieben.

Exakt.
Wußte ich doch, dass ich dich nicht falsch verstanden habe. ;)

Wenn man R580 gegen Geforce7 sieht, ist auch da CineFX immernoch Schrott... Wenn man die heute gegeneinander bencht ist R580 sicher doppelt so schnell wie Geforce7. Ist nunmal eine alte Architektur, die von Anfang an ihre Probleme hatte.
Geforce6 hatte ich übrigens selber. Ich war froh, als ich sie durch eine X850 ersetzt hatte.
Absolut. CineFX rührte halt noch aus einer Zeit in der noch nicht so viel Arithmetik benötigt wurde. Die nicht entkoppelte Architektur sorgte ständig für Stalls. Dafür war sie (in Anbetracht, dass sie SM3 fähig war) relativ transistorsparsam. Das hat sich dann später gerächt, als mehr Arithmetik in die Spiele den Weg fand.

R580 war damals ein Traum. Mal eben 3x so viele ALUs wie R520 (IIRC war er in späteren Spielen dann ca. 2x so schnell wie R520 bei viel Arithmetik), entkoppelte ALUs und winkelunabhängiges AF. Das ist bis heute die einzige Karte die ich zum Vollpreis gekauft habe. (wobei in Retrospektive der G80 die bessere Gelegenheit gewesen wäre...)

HOT
2014-03-18, 21:41:32
Jo, ist bei mir genauso. Das ist die erste und einzige Karte, für die ich 500 Schleifen ausgegeben habe. Und sie arbeitet heute noch.

Ailuros
2014-03-18, 23:40:42
Gut da wir jetzt etabliert haben dass R600 die beste Architektur seit langem fuer ATi war (*hust* :freak: ) koennen wir wohl zurueck zum Thema kommen.

fondness
2014-04-10, 09:25:47
http://s15.postimg.org/7323juuxn/Unbenannt.png (http://postimage.org/)

Weiters alles 20nm Chips und voller DX12 hardware Feature support laut der Quelle. R9 370X angeblich Juli-August, die anderen dann gegen Ende des Jahres.

http://wccftech.com/amd-pirate-islands-r9-300-series-bermuda-fiji-treasure-islands-xtx/

Nakai
2014-04-10, 09:41:14
VI ist noch nicht mal vollkommen released und wir wissen schon, wie PI aussehen wird?...Unwahrscheinlich ;)

AMD hat seit je her 2-3 GPU-Chips pro Jahr veröffentlicht...maximal. Zu allererst muss der Mobile-Markt bedient werden. Der diskrete Desktopmarkt ist doch mittlerweile ziemlich irrelevant geworden. Maui, Island und Tonga, mal gucken was davon ein re-release ist, weil AMD hat bis heute Bonaire hauptsächlich im Desktop-Markt veröffentlicht. Ansonsten braucht es billige und kleine Mobile-Chips.

...

Ahja was viel interessanter ist, ist das Speichersystem der zukünftigen Generationen. NV scheint vorerst auf größere Caches zu gehen. Was macht AMD?

Unicous
2014-04-10, 11:59:01
Wccftech.:rolleyes:

Wer weiß wo sie das schon wieder her haben. (Meine Vermutung: aus irgendeinem unbekannten Tech-Forum geklaut. Die wiederum haben sich nur einen Scherz erlaubt;))

Die Typen machen doch alles um Klicks zu bekommen. Den würde ich nicht mal trauen, wenn es ihnen Raja Koduri persönlich ins Ohr flüstert.

Nakai
2014-04-10, 14:18:43
Eine Sache die womöglich interessant ist.

Bei Tahiti, also GCN 1.0 war der L2 am Memory Controller gebunden. Das sind 64KB oder 128KB pro Memory Controller gewesen. Bei Hawaii sieht es anders aus. Hier skaliert der L2-Cache anscheinend mit der ROP-Anzahl. Hawaii unterteilt den L2-Cache in 16 64KB-Blöcke, ebenso hat Hawaii 16 Blöcke je 4 ROPs. Ob das Zufall ist, keine Ahnung, aber, wenn die Specs annähernd etwas Wahrheit erhalten, scheint es, dass die ROPs wieder ansteigen, was auf mehr L2-Cache schließen lässt. Damit würde man NV gleichziehen.

Ahja, AMD muss dringend die Effizienz von GCN verbessern. Man erreicht ja nur knapp Kepler-Effizienz...während Maxwell ein gutes Stück effizienter ist.

Knuddelbearli
2014-04-10, 14:29:02
Dafür ist Hawaii aber auch deutlich dichter / kleiner bei gleichvielen / mehr Shader als NV.

Mit nem Hawaii in Größe von Big Kepler *träum*

Nakai
2014-04-10, 14:49:32
GM107 hat 148mm², während Bonaire 160mm² benötigt.
GM107-Performance > Bonaire-Performance
GM107-Verbrauch < Bonaire-Verbrauch

AMD wird mit Maxwell, wenn sie GCN nicht performanter und effizienter hinkriegen, ordentlich Probleme bekommen.

Knuddelbearli
2014-04-10, 14:55:26
Tja nur dumm das ich bewusst Hawaii geschrieben habe ....
Hättest dir die Auflistung also auch sparen können.

boxleitnerb
2014-04-10, 15:09:12
Du kannst Energieeffizienz nicht einfach mit Fläche gleichsetzen. Beides sind wichtige Größen, wobei Perf/W wichtiger ist denke ich.

Dawn on Titan
2014-04-10, 15:10:16
Ich sehe überhaupt kein Problem für AMD. Man wird mit einem neuen Design an den Start gehen das die geringen schwächen der Volcanic Islands behebt und die Stärken ausbaut. Warum sollte nur NV ihre GPUs verbessern können? GFlops/W erwarte ich AMD deutlich vorne.

Knuddelbearli
2014-04-10, 15:13:41
Du kannst Energieeffizienz nicht einfach mit Fläche gleichsetzen. Beides sind wichtige Größen, wobei Perf/W wichtiger ist denke ich.
P/W und P/mm² kann man ja beliebig austauschen durch mehr Einheiten und geringeren Takt.

33% mehr Fläche würde ja für Hawaii locker 40% mehr Shader bedeuten, da kann man Takt immer noch auf 900 MHz senken und ist immer noch Stück schneller als big Kepler in SP, über DP reden wir lieber nicht weiter ^^

boxleitnerb
2014-04-10, 15:21:51
Beliebig? Ich glaub nicht, Tim.

Knuddelbearli
2014-04-10, 15:22:53
fast beliebig jetzt häng dich nicht mal wieder an Kleinigkeiten auf wenn eh klar ist worum es geht -.-

Nakai
2014-04-10, 15:32:18
Tja nur dumm das ich bewusst Hawaii geschrieben habe ....
Hättest dir die Auflistung also auch sparen können.

Wo ist den Hawaii effizienter als GK110?
Hawaii in der Form der R9 290X(Über) schafft es knapp über GTX 780 Ti-Performance, bei deutlich mehr Energieverbrauch.
Die geringere Diesize birgt auch Probleme. Hawaii wird deutlich heißer als ein jeglicher GK110.

Ich weiß, dass es hier keiner hören will, aber ich vermute, dass GK110 bei gleichem Stromverbrauch 10-20% schneller ist, als Hawaii. Da wird der Diesize-Unterschied relativ schnell wieder relativiert.

Aber es stimmt...bei DP ist Hawaii so ziemlich ungeschlagen...bis jetzt.

€: Du kannst Energieeffizienz nicht einfach mit Fläche gleichsetzen. Beides sind wichtige Größen, wobei Perf/W wichtiger ist denke ich.

Das kommt definitiv auf den Zielmarkt an. Im unteren Segment ist die Die-Size und die resultierenden Kosten sicherlich ein Grund. Im Mobile-Bereich ist die Perf/Watt deutlich wichtiger.
Man sieht hier die Grenze relativ schön. NV schmeißt seit längerer Zeit schon GK104 auf den Mobile Markt, während AMD maximal bis Pitcairn geht(nicht mal Bonaire hat den Consumer-Mobile-Markt bis jetzt erreicht!). AMD hat die gesamte HD8-Serie praktisch durch Mars bedient, nur im oberen Segment kommen Cape Verde und Pitcairn zum Einsatz, während NV hier deutlich stärker versucht eine höhere Performance/Watt zu erzielen, indem die anderen Chips auch auf den Markt geworfen werden. Mit GM107 hat NV einen Chip(der schon im Mobile angekommen ist), welcher wohl im gesamten Jahr 2014 im mobile Markt ungeschlagen sein wird.

Hübie
2014-04-10, 15:36:00
Ja nur kommt von der theoretischen Leistung weniger auf der Straße an. Sowohl in Form der Verbreitung im Profi-Markt als auch Leistung im Spielesegment.
Das ändert sich vielleicht in naher Zukunft aber ist faktisch einfach noch nicht der Fall. Ende.

boxleitnerb
2014-04-10, 15:42:32
fast beliebig jetzt häng dich nicht mal wieder an Kleinigkeiten auf wenn eh klar ist worum es geht -.-

Du hast also so ein Design gemacht und weißt,warum AMD Hawaii so gemacht hat wie er ist und nicht wie du dir das ausmalst? Klar...herrlich wie schnell man zum "Experten" wird.

fondness
2014-04-10, 18:28:39
Ja nur kommt von der theoretischen Leistung weniger auf der Straße an. Sowohl in Form der Verbreitung im Profi-Markt als auch Leistung im Spielesegment.
Das ändert sich vielleicht in naher Zukunft aber ist faktisch einfach noch nicht der Fall. Ende.

Es ist kein Qualitätskriterium wenn ich möglichst viel der theoretischen Leistung auf die Straße bekomme. Zählen tut was hinten raus kommt, wie es erreicht wird ist belanglos. AMD hat eine doppelt so große Warp-Size, es ist daher nur logisch das sie pro ALU langsamer sind, die kleinere Warp-Size bei NV ist allerdings auch nicht for free.

Knuddelbearli
2014-04-10, 18:42:43
Du hast also so ein Design gemacht und weißt,warum AMD Hawaii so gemacht hat wie er ist und nicht wie du dir das ausmalst? Klar...herrlich wie schnell man zum "Experten" wird.


1.) hast du alles Beruflich gemacht wo du hier deinen Senf ablässt, Bist du professioneller Treiberentwickler bei AMD das du immer weißt das deren Treiber mistig Programmiert sind?
2.) sind wir in einem SPEKULATIONSforum
3.) Troll dich, wenn du nichts beitragen kannst oder willst ignoriere meine Posts einfach und spamm nicht herum.

Fakt ist Architektonisch ist AMD mit Hawaii nicht unterlegen egal was du oder andere behaupten. Nur hat AMD eben seit fast nem Jahrzehnt den ( deutlich ) kleineren Chip als NV da sie sich finanziell nicht viel erlauben können / dürfen und ATI mit dem 2900XT auf die Schnauze geflogen sind. NV kann sich das dagegen, auch dank dem Standbein Quadro und Tesla, erlauben.
Und der Post bzw der Teil des Postes auf den ich mich bezog Bezog sich nunmal klar auf die Architektur und nicht auf den Chip.
Das manche Leute nicht zwischen Architektur und Chip unterschieden können ist schon schade.

Hübie
2014-04-10, 19:15:49
Es ist kein Qualitätskriterium wenn ich möglichst viel der theoretischen Leistung auf die Straße bekomme. Zählen tut was hinten raus kommt, wie es erreicht wird ist belanglos. AMD hat eine doppelt so große Warp-Size, es ist daher nur logisch das sie pro ALU langsamer sind, die kleinere Warp-Size bei NV ist allerdings auch nicht for free.

Hä? Was ist das sonst? Ein Feature? Es ist ein klares Qualitätsmerkmal wenn man möglichst viel Auslastung generieren kann und so nah wie nur möglich ans theoretische Maximum kommt. Willst du jetzt was anderes behaupten? Irgendwer muss Hard- und Software entwickeln und jede Entwicklung hat eine gewisse Qualität. Das sagt dass Wort per Definition schon aus ;)

1.) hast du alles Beruflich gemacht wo du hier deinen Senf ablässt, Bist du professioneller Treiberentwickler bei AMD das du immer weißt das deren Treiber mistig Programmiert sind?
2.) sind wir in einem SPEKULATIONSforum
3.) Troll dich, wenn du nichts beitragen kannst oder willst ignoriere meine Posts einfach und spamm nicht herum.

Fakt ist Architektonisch ist AMD mit Hawaii nicht unterlegen egal was du oder andere behaupten. Nur hat AMD eben seit fast nem Jahrzehnt den ( deutlich ) kleineren Chip als NV da sie sich finanziell nicht viel erlauben können / dürfen und ATI mit dem 2900XT auf die Schnauze geflogen sind. NV kann sich das dagegen, auch dank dem Standbein Quadro und Tesla, erlauben.
Und der Post bzw der Teil des Postes auf den ich mich bezog Bezog sich nunmal klar auf die Architektur und nicht auf den Chip.
Das manche Leute nicht zwischen Architektur und Chip unterschieden können ist schon schade.

Ein Chip nutz das Gerüst einer Architektur und unterliegt dem selben Reglement.
Ich stimme jedoch zu dass Hawaii aka GCN 2.0 sich keiner aktuellen Architektur ergeben muss. Da wir aber wieder in einem Umbruch sind kann man das erst später (vollständig bewerten wenn wir mal techlevel per anno vergleichen. Bei Kepler gab / gibt es ja auch so einige Baustellen die man nur mit einer neuen Architektur lösen können wird.

fondness
2014-04-10, 19:19:48
Hä? Was ist das sonst? Ein Feature? Es ist ein klares Qualitätsmerkmal wenn man möglichst viel Auslastung generieren kann und so nah wie nur möglich ans theoretische Maximum kommt. Willst du jetzt was anderes behaupten? Irgendwer muss Hard- und Software entwickeln und jede Entwicklung hat eine gewisse Qualität. Das sagt dass Wort per Definition schon aus ;)


Qualitätsmerkmal war das falsche Wort, Effizienzmerkmal wäre richtig gewesen. Aber ich denke dir war auch so klar was gemeint war.

Schaffe89
2014-04-10, 19:37:02
"Nach der Radeon R9 390X soll die R9 380X mit "Fiji XTX"-Innenleben samt 48 Compute Units (3.072 ALUs, 192 TMUs, 72 ROPs) auf den Markt gelangen. Mit 900 MHz takte die Grafikkarte vergleichsweise langsam, wohingegen der Videospeicher mit 3.000 MHz bei 384 Bit angegeben wird. Nach den X-Versionen dürften dann noch die abgespeckten Non-X-Pendants mit "Pro"-GPUs folgen."

Das ist meiner Meinung nach das einzige Realistische Szenario, endlich der Vollausbau von Hawai mit 3072 ALUs.
Eine R9 290x hörte sich mit 44 Cu´s schon immer irgendwie doof an.

Das dürfte etwa 9% mehr theoretische Performance bringen, dazu den Takt senken und mehr Speichertakt. Dan dürfte nen Ticken mehr Performance wie bei Hawai rauskommen.

Ist überhaupt schon irgenetwas von einem Tapeout bekannt?

Akkarin
2014-04-10, 20:11:13
Ich stimme jedoch zu dass Hawaii aka GCN 2.0 sich keiner aktuellen Architektur ergeben muss. Da wir aber wieder in einem Umbruch sind kann man das erst später (vollständig bewerten wenn wir mal techlevel per anno vergleichen. Bei Kepler gab / gibt es ja auch so einige Baustellen die man nur mit einer neuen Architektur lösen können wird.

Ist Hawaii nicht 1.1 ?

Nakai
2014-04-10, 20:16:46
Wie Bonaire. :D

robbitop
2014-04-10, 20:22:14
Hä? Was ist das sonst? Ein Feature? Es ist ein klares Qualitätsmerkmal wenn man möglichst viel Auslastung generieren kann und so nah wie nur möglich ans theoretische Maximum kommt. Willst du jetzt was anderes behaupten? Irgendwer muss Hard- und Software entwickeln und jede Entwicklung hat eine gewisse Qualität. Das sagt dass Wort per Definition schon aus ;)
Ich widerspreche dort. Am Ende ist die Auslastung allein kein Qualitätskriterium.
Wie bei jedem Thema gibt es irgendwann den Punkt, an dem eine höhere Ausprägung eines Merkmales übermäßig viel Ressourcen kostet. Gesetz des sinkenden Grenzertrags. Wenn man jetzt beispielsweise die Auslastung als aleiniges Kriterium überfokussiert, kann es sein, dass das ab einem gewissen Punkt einfach zu viel Energie und/oder Transistoren kostet.
Das ergibt sich aus dem Verhältnis von Kontrolllogik, Ausführungslogik, I/O und Caches.

Wie immer gibt es verschiedene Wege nach Rom.

Ich würde eher sagen, dass das Endergebnis wesentlich wichtiger ist. Wenn Ausführungseinheiten zwar eine etwas geringere Auslastung haben, dafür aber wesentlich weniger Transistoren kosten, ist das Endergebnis besser.

GCNs Auslastung ist ein kleines Stückchen geringer als Keplers. Dafür kosten die Ausführungseinheiten deutlich weniger. Man kann also bei gleichem Transistorcount die Auslastung mehr als ausgleichen. Sofern Ausführungseinheiten überhaupt der Flaschenhals für die Endleistung sind.

GK110 erreicht nur ein wenig Mehrleistung als Hawaii bei deutlich mehr Transistoren. Hawaii benötigt sehr viel Leistungsaufnahme. Das kann aber auch an Dingen wie Takt und Spannung liegen. Mit einem breiteren Design bräuchte mehr von beiden vermutlich deutlich weniger.

Die Frage ist, wie vergleichbar Hawaii und GK110 sind. Ich kenne das genaue Featureset nicht. Erstaunlich ist jedoch, dass Hawaii deutlich mehr DP Leistung liefert als GK110. (bezüglich GPGPU Ballast)

Maxwell scheint bezüglich Effizienz allerdings deutliche Fortschritte zu machen. Da kommt GCN heute vermutlich nicht mit. Aber auch AMD schläft nicht.

Nakai
2014-04-10, 20:31:25
Ich verlinke einfach mal auf meinen Post im B3D:
http://beyond3d.com/showpost.php?p=1840392&postcount=10

Kann jemand derjenigen Leute, die etwas tiefer in der Materie sind, etwas dazu sagen? Ahja, es sieht so aus, dass mit GCN1.1 der L2-Cache nicht mehr an die MCUs gekoppelt ist, was für APUs und HSA Sinn macht.

Locuza
2014-04-10, 21:21:09
Wieso sieht das so aus?
Hawaii hat ein 512 Bit Interface gegenüber Tahiti und genau um den Betrag ist auch der L2-gewachsen.
384-Bit --> 12 * 64KB = 786 KB L2
512-Bit --> 16 * 64KB = 1 MB L2

Hübie
2014-04-10, 22:49:15
Ich meine zu release von Hawaii gelesen zu haben dass der nicht mehr mit den CUs skaliert.

@robbitop: Ich weiß ja deine Ausführungen zu schätzen aber ein Merkmal ist kein (oder nicht immer) ein Kriterium. Also hast du allein durch die Veränderung des Wortes das Thema gewechselt ;)

@fondness: Ich war mir nicht sicher ;) Ein Effizienzmerkmal wäre es ja nur in Kombination mit niedrigerem Verbrauch als vergleichbare Architekturen bzw. Konkurrenzprodukte.

So Akku leer ich bin dann weg. :P

Gipsel
2014-04-10, 23:11:43
Ich meine zu release von Hawaii gelesen zu haben dass der nicht mehr mit den CUs skaliert.Mit den CUs skaliert der L1, aber nicht der L2. Der ist natürlich wie bisher an die Speichercontroller gekoppelt. Alles andere wäre wohl zuviel Aufwand.

robbitop
2014-04-11, 01:48:31
@robbitop: Ich weiß ja deine Ausführungen zu schätzen aber ein Merkmal ist kein (oder nicht immer) ein Kriterium. Also hast du allein durch die Veränderung des Wortes das Thema gewechselt ;)


Wortklauberei? Ernsthaft? :|

Hübie
2014-04-11, 03:50:14
Ja! Ich nehme dich bzw. die Mitglieder beim Wort. Ist das so ungewöhnlich? Ich nenne das Präzision.

robbitop
2014-04-11, 04:11:55
Ja! Ich nehme dich bzw. die Mitglieder beim Wort. Ist das so ungewöhnlich? Ich nenne das Präzision.

Na wenn du argumentativ sonst nichts zu bieten hast... :|

Ailuros
2014-04-11, 07:45:23
Das ist meiner Meinung nach das einzige Realistische Szenario, endlich der Vollausbau von Hawai mit 3072 ALUs.
Eine R9 290x hörte sich mit 44 Cu´s schon immer irgendwie doof an.


Hawaii ist mit 44 Vollausbau. Liegt irgend eine mathematische Logik dahinter dass angeblich 3072 eine "rundere" Menge ist als 2816? :confused:

Ist überhaupt schon irgenetwas von einem Tapeout bekannt?

Die "Experten" hier muessen sich noch ueber den Prozess und die benutzte foundry einig werden :P

Hübie
2014-04-11, 09:10:46
Na wenn du argumentativ sonst nichts zu bieten hast... :|

Noch mal. Fondness wählt das falsche Wort und sagt es sei kein Qualitätsmerkmal möglichst viel flops "auf die Straße" zu bringen.
Ich widerspreche und sage dass gerade das eines sei.
Dann kommst du daher und widersprichst mir es sei allein kein Qualitätskriterium. :rolleyes:
Was soll ich deiner Meinung nach dazu sagen / davon halten.

Trägt aber gerade nix zum Thema bei.

Locuza
2014-04-11, 11:54:39
Hawaii ist mit 44 Vollausbau. Liegt irgend eine mathematische Logik dahinter dass angeblich 3072 eine "rundere" Menge ist als 2816? :confused:

Insgesamt ja schon ein bisschen, weil jede Shader-Engine 11 CUs hat die in 2x4 + 1x3 CU-Gruppen verpackt werden, aber AMDs "runde" Config immer aus 4-Einheiten besteht.
Aber bisher war auch nur Tahiti symmetrisch aufgebaut.

HOT
2014-04-11, 12:02:13
Hawaii ist mit 44 Vollausbau. Liegt irgend eine mathematische Logik dahinter dass angeblich 3072 eine "rundere" Menge ist als 2816? :confused:

Klar, ich bau auch immer 14 CUs, wenn ich ne 16 CUs Grundstruktur schon hab mit Tahiti... so ein Schwachsinn...


Die "Experten" hier muessen sich noch ueber den Prozess und die benutzte foundry einig werden :P
So wie die ganzen 20nm-Utopisten?

Nakai
2014-04-11, 12:29:28
Mal im Ernst, wenn was von Pirate Islands kommt, dann Ende des Jahres.
Was ist mit den anderen VI-GPUs? Islands, Maui, Tonga? Werden das auch nur Rebrands? Also das sollte im Sommer mindestens eine GPU kommen, wo doch Tahiti ausläuft. Man braucht auch was, im Mobile-Bereich.

Duplex
2014-04-11, 14:00:54
http://s15.postimg.org/7323juuxn/Unbenannt.png (http://postimage.org/)

Weiters alles 20nm Chips und voller DX12 hardware Feature support laut der Quelle. R9 370X angeblich Juli-August, die anderen dann gegen Ende des Jahres.

http://wccftech.com/amd-pirate-islands-r9-300-series-bermuda-fiji-treasure-islands-xtx/
Das sind alles Fakes.