PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

fondness
2013-05-04, 17:29:46
Nachdem mittlerweile immer mehr Infos zu nächsten Generation durchsickern wäre vielleicht auch mal ein eigener Thread fällig:

After Sea Islands reaches the end of the line, AMD will introduce perhaps the most important GPU family of them all - Volcanic Islands. Volcanic Islands (VI) will go head to head against NVIDIA Maxwell and second-gen Xeon Phi architecture.

Manufactured at 20nm Gate-Last process, this will be the first GPU family which AMD should be able to manufacture in Common Platform Alliance as well as its long-standing foundry partner, TSMC. Thus, AMD will have the choice between TSMC GigaFab Hsinchu/Taichung, IBM East Fishkill, GlobalFoundries in New York and Dresden or Samsung in Austin. The manufacturing flexibility will be of paramount importance, for Volcanic Islands GPU architecture will represent the pinnacle of system integration between the CPU and GPU. In terms of Fusion/FirePro APUs, which will replace the current FX/Opteron CPUs, Volcanic Islands bring silicon-level system integration. APU will extend to the Discrete GPU and treat it as one, as well as VI silicon treating the CPU as an integral part.
http://vr-zone.com/articles/amd-next-generation-codenames-revealed-2013-2014-2015-gpus-get-names/17154.html

Dann eine interessante Aussage von Gustafson im Interview mit PCGH:

Und ohne zu viel verraten zu wollen: Wir haben Mittel und Wege gefunden, um den Wirkungsgrad unserer zukünftigen Chipgenerationen pro Watt zu verdoppeln. Denn egal, ob in Embedded Chips, Tablets, PC-Grafikkarten oder Servern - wer den höchsten Wirkungsgrad pro Watt bietet, hat gewonnen. Einem Spieler mag es egal sein, wie viel Strom seine Grafikarte verbraucht, doch wie sieht es mit der Geräuschkulisse aus? Wenn die Karte gleichzeitig flüsterleise ist, sorgt das für ein noch besseres Spielerlebnis.http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/Specials/Interview-mit-Dr-John-Gustafson-von-AMD-Teil-2-1065308/

Updates:
Forbes-Interview mit AMD: (http://www.forbes.com/sites/jasonevangelho/2013/09/16/exclusive-interview-amds-matt-skynner-talks-new-radeon-cards-next-gen-consoles-7990-criticism/1/) ~430mm² Die-Size, 28nm, normaler Enthusiasten-Preis (500-600 USD)

http://www.3dcenter.org/dateien/abbildungen/AMD-Radeon-R9-290-290X-Spezifikationen.vorschau2.jpg
http://www.3dcenter.org/news/offizielle-spezifikationen-zu-radeon-r9-290-290x-aufgetaucht

Übersicht zur neuen Radeon R-200 Serie:
GPU | Bezeichnung | ersetzte Karte | weitere Informationen
Hawaii | R9 290X |- | >5 TFLOPs, >4 Mrd. Dreiecke, >300GB/s, 512-Bit, ES-Bilder (http://videocardz.com/45723/amd-radeon-r9-290x-hawaii-gallery), ES-Benchmarks (http://videocardz.com/45753/amd-radeon-r9-290x-slightly-faster-gtx-titan), finaler Kühler? (http://tech2.in.com/news/graphics-cards/first-look-amds-new-radeon-r9-290x-hawaii-gpu/915814), XDMA-Crossfire (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9933504#post9933504), True Audio (http://www.anandtech.com/show/7370/amd-announces-trueaudio-technology-for-upcoming-gpus)
Hawaii | R9 290 | - | XDMA-Crossfire (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9933504#post9933504), True Audio (http://www.anandtech.com/show/7370/amd-announces-trueaudio-technology-for-upcoming-gpus), 6+6-Pin
Tahiti XTL | R9 280X | HD 7970/50 | 6+8-Pin $299
Curacao XT | R9 270X | HD 7870 |Leistungseinordnung und Pro-Watt-Leistung eines Curacao XT? Samples (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9932439#post9932439) 6+6-Pin, $199
Curacao Pro | R9 270 | HD 7850 | ES-Bilder (http://videocardz.com/45731/amd-radeon-r7-260-pictured-features-curacao-pro-gpu)
Bonaire XTX | R7 260X | HD 7790 | True Audio (http://www.anandtech.com/show/7370/amd-announces-trueaudio-technology-for-upcoming-gpus), $139
Oland XT | R7 250 | HD 6670 | 384SPs, 128-Bit, 1000-1050MHz GPU-Takt
Oland Pro | R7 240 | HD 6570 |320SPs, 128-Bit, 730-780MHz GPU-Takt
GPU Bezeichnung ersetzte Karte: http://www.planet3dnow.de/cms/2690-amd-fuhrt-neues-namensschema-bei-grafikkarten-ein/
Curacao ist eine ehemalige Sea Islands GPU der eine Tahiti +15% Performance nachgesagt wurde

Treibereinträge zu Hawaii, Vesuvius und Tonga:
AMD67A2.1 = "HAWAII GL Gemini (67A2)"
AMD67A1.1 = "HAWAII GL40 (67A1)"
AMD67BE.1 = "HAWAII LE (67BE)"
AMD67B1.1 = "HAWAII PRO (67B1)"
AMD67B0.1 = "HAWAII XT (67B0)"
AMD67A0.1 = "HAWAII XTGL (67A0)"

AMD6920.1 = "TONGA (6920)"

AMD67B9.1 = "VESUVIUS (67B9)"
http://www.rage3d.com/board/showthread.php?t=34001853
vollständige inf: http://forums.guru3d.com/showthread.php?t=379451

Vesuvius fällt in den Bereich der Hawaii Device_ID -> Dual-Hawaii-Karte? (vgl. Malta/New Zealand mit zwei Tahiti)

Weitere GPUs: Maui und Iceland (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9868760#post9868760)

Benchmarks:
Hawaii (Wakü-OC?) mit 5150 Punkten Graphics Score im 3DMark(2013) Firestrike Extreme Test (etwa +45% im Vergleich zur 7970GHz)
(http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9870830#post9870830)
Design Kit Tutorial für die Kartenhersteller Ende September (rote Schrift ist eine Ergänzung des Hardocp-Users!):
http://abload.de/img/94vfmckpdp2t.jpg
http://hardforum.com/showpost.php?p=1040046584&postcount=76
http://edc.amdcss.com/course/list/

Crystal System: mobile HD 9000 Familie (wahrscheinlich einige neue GPUs und ein paar Rebrands)
Iceland = Topaz
Tonga = Amethyst (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9868760#post9868760)

Akkarin
2013-05-04, 18:08:51
Was kann man sich unter "APU will extend to the Discrete GPU and treat it as one, as well as VI silicon treating the CPU as an integral part." vorstellen ?

Nakai
2013-05-04, 18:25:46
Manufactured at 20nm Gate-Last process, this will be the first GPU family which AMD should be able to manufacture in Common Platform Alliance as well as its long-standing foundry partner, TSMC. Thus, AMD will have the choice between TSMC GigaFab Hsinchu/Taichung, IBM East Fishkill, GlobalFoundries in New York and Dresden or Samsung in Austin. The manufacturing flexibility will be of paramount importance, for Volcanic Islands GPU architecture will represent the pinnacle of system integration between the CPU and GPU. In terms of Fusion/FirePro APUs, which will replace the current FX/Opteron CPUs, Volcanic Islands bring silicon-level system integration. APU will extend to the Discrete GPU and treat it as one, as well as VI silicon treating the CPU as an integral part.

Also, nur noch APUs werden ab 2014 gefertigt. Mal guckn, wie das alles endet. Es wäre schon geil dank HSA, dass die GPU einfach eingebunden wird. Das funktioniert imo nur mit SOCs, APUs etc. da hier die Latenzen niedrig genug sind.

Was kann man sich unter "APU will extend to the Discrete GPU and treat it as one, as well as VI silicon treating the CPU as an integral part." vorstellen ?

Kombinationen zwischen Integrierte(in der APU) und Diskrete GPU(Steckplatz) wird vollständig transparent. Es wird wohl nur noch eine GPU sichtbar sein.

Das geht aber mit den derzeitigen Kommunikationsmedien schwer. PCIe hat zu hohe Latenzen. Evtl baut AMD an einen eigenen Standard, dessen Port bei den APUs nach außen gelegt ist.

Wäre auch toll, wenn die gesamte Speicherverwaltung darüber laufen würde. Ergo nur noch einen Speicherbereich. Es gibt ja schon ein Dokument zu soetwas auf der HSA-Seite.

mboeller
2013-05-04, 20:02:16
http://www.rage3d.com/articles/hardware/amd_worldcast/

The next generation of graphics cards -- Volcanic Islands -- is coming this year and shaping up nicely. When you name products after places, it leads to interesting thoughts about where to hold events surrounding that namesake product.



a final stable first state this year with the Kaveri design, launching early 2H 2013.


what?

Pick
2013-05-05, 10:31:13
Sea Islands desktop GPUs was cancelled 1,5 years ago. GCN1.1 from Sea Islands was integrated to Southern Islands for 7790. V.I. GPUs with GCN2 is planned for 2H2013.

S940
2013-05-05, 13:38:49
Was kann man sich unter "APU will extend to the Discrete GPU and treat it as one, as well as VI silicon treating the CPU as an integral part." vorstellen ?
Guckst Du hier:
Diskrete Grafikkarten werden demnach nicht von allen Features des neuen Speichermodells hUMA profitieren können. Zur unterstützten Funktionalität soll demnach folgendes gehören: Die diskreten GPUs können nicht nur auf den Systemspeicher zugreifen, in dem sie CPU-Pointer verwenden, sondern haben auch Zugriff auf die komplexeren Datenstrukturen der höheren Programmiersprachen. Außerdem haben die dGPUs vollständigen Zugriff auf den pageable Systemspeicher und damit auf den gesamten Systemspeicher, der vom Betriebssystem verwaltet wird. Allerdings wird hUMA keine bidirektionale Kohärenz zwischen den diskreten Grafikkarten und dem Systemspeicher sicherstellen, was laut AMD daran liegen soll, dass dies vom PCIe-Bus nicht unterstützt wird.
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1367308053#Update

2phil4u
2013-05-05, 17:23:17
Es wird viel geredet, aber was kommt ?
Irgendwelche abgespeckten Varianten, die weder sparsam genug für mobile, noch schnell genug für Enthusiasten sind.
Will AMD jetzt die naechsten Jahre Lowendprodukte verkaufen ?
Es gibt ja nicht einmal Vorstellungen von irgendwelchen neuen Produkten, immer nur irgendwelche Updates von veralteten Architekturen.
Steamroller (keine Infos), neue Grafikchips (keine Leistungsinfos), stattdessen Jaguar für PS4, welche aber im PC-Markt zu schwach sind, bleibt nur zu hoffen, dass sie über Speicherbandbreite etwas rausholen können, aber es kommt ja alles mit 1 Jahr Verspaetung, FX wird immer noch in 32 nm gebaut (o.k. , der wird ja auch kaum gekauft) und 20 nm, wann denn Ende 2014 ?

Iruwen
2013-05-05, 22:57:14
Irgendwelche abgespeckten Varianten, die weder sparsam genug für mobile, noch schnell genug für Enthusiasten sind.
Will AMD jetzt die naechsten Jahre Lowendprodukte verkaufen ?

Damit würden sie vermutlich deutlich mehr verdienen als mit ein paar High-End Karten.

Mancko
2013-05-06, 00:35:57
Damit würden sie vermutlich deutlich mehr verdienen als mit ein paar High-End Karten.

Das dies ein Irrtum ist beweist AMDs CPU Abteilung jedes Quartal aufs neue. Nur noch Low-End Produkte und damit satte rote Zahlen. Low End Produkte sind halt einfach zu wenig und vor allem nichts mit dem man sich von anderen Mitbewerbern abheben kann. Low-End können alle anderen auch bauen. Das ist viel zu wenig für ein Unternehmen in AMDs Größe.

Entweder AMD schafft es wieder höherpreisige Produkte zu verkaufen (bei Grafikkarten geht das ja noch einigermaßen) oder aber AMD muss nochmal gewaltig abspecken und verschwindet in der Bedeutungslosigkeit und fummelt vor sich hin.

S940
2013-05-06, 01:05:40
Jungs das ist hier ein GPU-Thread und nicht der Steamroller-Info- oder "Wird AMD überleben-" Thread.

Screemer
2013-05-06, 08:48:51
2 Minuten 2 Flamenco posts von phil. Einmal AMD einmal Intel. Troll.

Wake
2013-05-06, 09:43:41
Kombinationen zwischen Integrierte(in der APU) und Diskrete GPU(Steckplatz) wird vollständig transparent. Es wird wohl nur noch eine GPU sichtbar sein.

Das geht aber mit den derzeitigen Kommunikationsmedien schwer. PCIe hat zu hohe Latenzen. Evtl baut AMD an einen eigenen Standard, dessen Port bei den APUs nach außen gelegt ist.

Wäre auch toll, wenn die gesamte Speicherverwaltung darüber laufen würde. Ergo nur noch einen Speicherbereich. Es gibt ja schon ein Dokument zu soetwas auf der HSA-Seite.

Glaube aber kaum, dass AMD auf PCIe als Haupt-Slot verzichten wird, einen extra Anschluss von MB zur Grafikkarte zu verlegen wäre zwar etwas seltsam aber wenn es was bringt immer her damit.

Solange es nicht endet wie damals Sideport... ;D

ndrs
2013-05-06, 10:50:45
Glaube aber kaum, dass AMD auf PCIe als Haupt-Slot verzichten wird, einen extra Anschluss von MB zur Grafikkarte zu verlegen wäre zwar etwas seltsam aber wenn es was bringt immer her damit.
Vielleicht bauen sie ja einfach was Pin-kompatibles zu PCIe und jagen einfach ein anderes Protokoll über die vorhandenen Leitungen. Zur Latenzverbesserung würde es ja schon viel ausmachen, die 8/10Bit-Codierung bei PCIe3-Frequenzen wieder einzubauen.
Ansonsten wäre sowas bei der eringen Verbreitung nur im HPC-Bereich realisierbar.

Skysnake
2013-05-06, 12:02:08
Das protokoll gibt es schon. Nennt sich HT ;)

S940
2013-05-06, 12:15:38
Vielleicht bauen sie ja einfach was Pin-kompatibles zu PCIe und jagen einfach ein anderes Protokoll über die vorhandenen Leitungen. Zur Latenzverbesserung würde es ja schon viel ausmachen, die 8/10Bit-Codierung bei PCIe3-Frequenzen wieder einzubauen.
Ansonsten wäre sowas bei der eringen Verbreitung nur im HPC-Bereich realisierbar.
Das protokoll gibt es schon. Nennt sich HT ;)
Das verwenden sie aber nicht, hat denn keiner mein obiges Zitat gelesen?
Diskrete Grafikkarten werden demnach nicht von allen Features des neuen Speichermodells hUMA profitieren können. Zur unterstützten Funktionalität soll demnach folgendes gehören: Die diskreten GPUs können nicht nur auf den Systemspeicher zugreifen, in dem sie CPU-Pointer verwenden, sondern haben auch Zugriff auf die komplexeren Datenstrukturen der höheren Programmiersprachen. Außerdem haben die dGPUs vollständigen Zugriff auf den pageable Systemspeicher und damit auf den gesamten Systemspeicher, der vom Betriebssystem verwaltet wird. Allerdings wird hUMA keine bidirektionale Kohärenz zwischen den diskreten Grafikkarten und dem Systemspeicher sicherstellen, was laut AMD daran liegen soll, dass dies vom PCIe-Bus nicht unterstützt wird.

Skysnake
2013-05-06, 13:49:45
Das hoert sich jetzt aber voellig anders an, als das was Sie bisher gesagt haben.

Auf ihren Folien hies es ja bisher immer, das man auch fuer dGPUs kohaerenz unterstuetzen wird...

Locuza
2013-05-06, 13:54:19
Auf ihren Folien hies es ja bisher immer, das man auch fuer dGPUs kohaerenz unterstuetzen wird...
Es stand einmal auf einer Folie "extend to dGPUs", das war der vierte Unterpunkt bei der HSA Roadmap 2014.
Später wurde das entfernt und es waren überall nur noch 3 Unterpunkte.
Aber man hat selber nie ausdrücklich erwähnt, was man mit extend to dGPUs meint.

S940
2013-05-06, 14:14:09
Auf ihren Folien hies es ja bisher immer, das man auch fuer dGPUs kohaerenz unterstuetzen wird...Ne, das war nur bei der ersten Folie drauf, danach verschwand es... letztens bei P3D hatten wir die verschiedenen Versionen mal zusammengetragen:

http://www.planet3dnow.de/vbulletin/showthread.php?p=4763762#post4763762

Nakai
2013-05-06, 15:02:59
Glaube aber kaum, dass AMD auf PCIe als Haupt-Slot verzichten wird, einen extra Anschluss von MB zur Grafikkarte zu verlegen wäre zwar etwas seltsam aber wenn es was bringt immer her damit.

Solange es nicht endet wie damals Sideport... ;D

Sideport flog raus, weil Diesize.

Vielleicht bauen sie ja einfach was Pin-kompatibles zu PCIe und jagen einfach ein anderes Protokoll über die vorhandenen Leitungen. Zur Latenzverbesserung würde es ja schon viel ausmachen, die 8/10Bit-Codierung bei PCIe3-Frequenzen wieder einzubauen.
Ansonsten wäre sowas bei der eringen Verbreitung nur im HPC-Bereich realisierbar.

This! Für dGPU gibt es eh erst kein HUMA, ergo irrelevant. Es ist sowieso wichtig, dass man alle Bereich mit den dGPUs abdeckt. Im HPC-Bereich wäre eine APU mit starker iGPU ziemlich nett. Kaveri soll GDDR5 als Speicher besitzen können. GDDR5 mit ECC wird ibereits eingesetzt. Ob Kaveri damit kommt(sollte da Kabini es auch schon haben wird)?
Eine HPC APU für 2014 wäre ein logischer Schritt.

Ende des Jahres wird Sea Islands als HD8-Serie kommen. Kaveri könnte eine HD9 drin haben.

2phil4u
2013-05-06, 19:40:21
Das war kein Troll meinerseits, sondern Frust über die derzeitige Situation, aber vielleicht findet sich ja ein grosser Player, der diese innovationsarme Situation ausnutzt, wer weiss.

boxleitnerb
2013-05-08, 08:19:12
Erste Specs?
20nm
16X SPU
4X ACE
4096SP
256TMU
64ROPs
512Bit

http://abload.de/img/1j5sqq.jpg (http://abload.de/image.php?img=1j5sqq.jpg)
http://translate.google.de/translate?sl=zh-CN&tl=en&js=n&prev=_t&hl=de&ie=UTF-8&eotf=1&u=http%3A%2F%2Fwww.chiphell.com%2Fthread-743744-1-1.html&act=url

Das wäre ein großer Chip, sicher 400mm2 oder mehr. Ob das gleich zu Beginn unter 20nm klappt? Aber ich fände es gut, wenn AMD wieder dicke Chips baut. Konkurrenz da oben tut allen gut.
Für was sollen diese SPMs gut sein?

M4xw0lf
2013-05-08, 08:56:54
Milchmädchen sagt: das wären sogar locker 500mm². (Tahiti x 2 x 20²/28² ;) )

boxleitnerb
2013-05-08, 09:01:22
Vor allem das 512bit Interface finde ich krass. Aber auch logisch, denn 7 Gbps GDDR5 gibts nicht und GDDR6 und Konsorten sind noch nicht fertig soweit ich weiß.

fondness
2013-05-08, 09:05:29
Milchmädchen sagt: das wären sogar locker 500mm². (Tahiti x 2 x 20²/28² ;) )

Was rechnest du da? 2 x 20²/28² ist ziemlich genau 1. ;)

boxleitnerb
2013-05-08, 09:13:55
Seine Rechnung stimmt zwar wirklich nicht, aber an die 500mm2 könnte man schon heranreichen. Tahiti ist gleich groß wie Cayman und hat nur 33% mehr SPs und TMUs/TAUs und gleich viele ROPs. Der Sprung zu VI wäre deutlich größer. Man kann leider nicht alles perfekt skalieren, auch bei einer GPU nicht.

Skysnake
2013-05-08, 10:19:33
Kann mal jemand die ganzen anderen Bilder noch zugänglich machen?

@Topic:
Die SPMs könnten so etwas wie die Skalarunits von GCN sein. Je nachdem könnte man das wieder auf den CUs raus lösen, und zentraler verwalten, damit man eben über alle CUs die Sachen sharen kann und gleichzeitig auch noch besser mit rein sequenziellen Codeteilen klar kommt. Man kann zusätzlich auch noch etwas mehr Logik rein buttern, um Branches und forks zu verbessern.

Also praktisch die Fähigkeite, wie bei DynamicParalellism, weiter zu verbessern. GCN kann ja auch schon selbst neue Wavefronts erstellen, aber es ist halt nicht so leicht ansprechbar über eine API wie bei nVidia unter CUDA.

Man könnte es auch als Ansatz wie Einstein(?) sehen mit x86/ARM + GPU auf einem DIE, wobei die "CPU" "nur" als erweiterter Sheduler fungiert, und eben stark sequenzielle Programmteile übernimmt.

M4xw0lf
2013-05-08, 11:05:18
Was rechnest du da? 2 x 20²/28² ist ziemlich genau 1. ;)

Aua, der Windows-Rechner hat mich gefistet :wink:
Tatsächlich kommt mit der Rechnung ~372mm² raus. (Was ich gerechnet habe: Verdoppelung der Tahiti-Rohdaten -> Fläche mal zwei und das ganze dann mit dem Schrumpffaktor von 28 auf 20 nm (20²/28²) multipliziert ^^)

Gipsel
2013-05-08, 11:50:46
Erste Specs?


http://abload.de/img/1j5sqq.jpg (http://abload.de/image.php?img=1j5sqq.jpg)
http://translate.google.de/translate?sl=zh-CN&tl=en&js=n&prev=_t&hl=de&ie=UTF-8&eotf=1&u=http%3A%2F%2Fwww.chiphell.com%2Fthread-743744-1-1.html&act=url

Das wäre ein großer Chip, sicher 400mm2 oder mehr. Ob das gleich zu Beginn unter 20nm klappt? Aber ich fände es gut, wenn AMD wieder dicke Chips baut. Konkurrenz da oben tut allen gut.
Für was sollen diese SPMs gut sein?
Also für mich sieht das eher nach einer Skizze eines hybriden Opterons aus. Es gibt acht 72bit (64Bit+ECC) Speicherinterfaces für DDR3, wenn ich das richtig entziffere. Außerdem sind dort nur 16 CUs zu erkennen, also "nur" 1024 SPs. Und die paarweise Anordnung der Kerne erinnert doch irgendwie an Bulldozer. Außerdem, steht in der Mitte zwischen zwei Kernen in dem blauen Feld nicht "FPU"? Das ist also meiner Meinung ein high-level-Blockdiagramm eines 16 Kern-Bulldozer-Derivats mit 16 CUs (1024 SPs) und 8kanaligem DDR3-Speicherinterface (Bandbreite 136GB/s bei DDR3-2133).

boxleitnerb
2013-05-08, 12:14:06
Im SA-Forum gibts das Bild in hoher Auflösung (aber in einem anderen Stil) übrigens schon seit September 2012. Also Fake?

http://abload.de/img/8006662970_d953f3c45bllzom.jpg (http://abload.de/image.php?img=8006662970_d953f3c45bllzom.jpg)
http://www.semiaccurate.com/forums/showpost.php?p=168728&postcount=7

Könnte eine Opteron APU sein?

Nakai
2013-05-08, 12:30:06
Was immer das auch ist, das wär ein interessanter Chip im HPC-Bereich. IMO aber nur ein theoretischer Kaverinachfolger im Serverbereich.


mfg

marc-05
2013-05-08, 13:34:53
Northbridge + System Controller HUB eher ne CPU/APU als reiner Grafikchip

Gipsel
2013-05-08, 13:36:58
Im SA-Forum gibts das Bild in hoher Auflösung (aber in einem anderen Stil) übrigens schon seit September 2012. Also Fake?

http://abload.de/img/8006662970_d953f3c45bllzom.jpg (http://abload.de/image.php?img=8006662970_d953f3c45bllzom.jpg)
http://www.semiaccurate.com/forums/showpost.php?p=168728&postcount=7

Könnte eine Opteron APU sein?Sag' ich doch ;). Im Übrigen hat der Poster des Bildes bei SA unter das Bild geschrieben: "(Nevermind what's on the image, it's irrelevant to the topic of PI and VI)". Der hat das nur als Teaser benutzt und als Idee, was man unter 20nm so ungefähr auf ein Die quetschen könnte. Ob es echt ist oder nicht, läßt sich damit nicht entscheiden. Aber daß es nicht zu VI oder PI gehört, sollte klar sein.

PS:
Bei Chiphell haben die übrigens nur die Farben invertiert und das Bild aufgeblasen. :freak:

Edit:
Habe mal einen passenden Thread zu der Opteron-APU (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=541788) erstellt.

john carmack
2013-05-08, 14:35:41
Vor allem das 512bit Interface finde ich krass. Aber auch logisch, denn 7 Gbps GDDR5 gibts nicht und GDDR6 und Konsorten sind noch nicht fertig soweit ich weiß.


Warum "krass"?

512Bit SI gab es schon 1999 beim Glaze 3D auch wenn der Chip nie fertig entwicklt wurde.
Später (2007) dann aber beim r600 war das schon mit dabei :)

Raff
2013-05-08, 14:38:48
Vor allem das 512bit Interface finde ich krass. Aber auch logisch, denn 7 Gbps GDDR5 gibts nicht und GDDR6 und Konsorten sind noch nicht fertig soweit ich weiß.

512 Bit wären bei 4.096 ALUs wohl nötig, sonst verhungert die mächtige GPU. Beim GT200 gab's ja auch 512 Bit + GDDR3 anstelle von 256 Bit + GDDR5. :)

Möglicherweise reicht aber auch die Kombination aus 384 Bit und 7-Gbps-GDDR5.

MfG,
Raff

boxleitnerb
2013-05-08, 17:34:28
Klar wäre es nötig, trotzdem find ich es krass. GT200 war die größte GPU, die bisher gebaut wurde und entsprechend teuer. Und R600 haben die 512bit auch nix gebracht. Das Ding treibt den Verbrauch und die Fläche in die Höhe - wenn man es anders hinbekommt, umso besser.

Btw angeblich Tapeout von Hawaii gegen Ende April:
http://www.xtremesystems.org/forums/showthread.php?286066-AMD-to-launch-Volcanic-Islands-GPU-(HD8000s)-in-2013&p=5187019&viewfull=1#post5187019

Noch nicht A1, aber wohl wenige Hardwarebugs. Könnte dann als A2 gegen Ende des Jahres auf die Karten kommen. Die Frage ist: 20nm oder 28nm. Da (wieder angeblich) eine Performancesteigerung von ca. 60% angestrebt ist, kann man wohl von 20nm ausgehen.

fondness
2013-05-24, 11:23:44
Noch nicht A1, aber wohl wenige Hardwarebugs. Könnte dann als A2 gegen Ende des Jahres auf die Karten kommen. Die Frage ist: 20nm oder 28nm. Da (wieder angeblich) eine Performancesteigerung von ca. 60% angestrebt ist, kann man wohl von 20nm ausgehen.

Da Gustafson für die nächste Generation eine Verdoppelung der Perf/Watt verspricht könnte das durchaus auch unter 28nm möglich sein. Auch Maxwell von NV wird ja noch auf 28nm spekuliert.

Ailuros
2013-05-24, 11:46:51
Da Gustafson für die nächste Generation eine Verdoppelung der Perf/Watt verspricht könnte das durchaus auch unter 28nm möglich sein. Auch Maxwell von NV wird ja noch auf 28nm spekuliert.

Schwer zu verdauen fuer viele, aber momentan klingt das obrige als das wahrscheinlichste Bild.

Nightspider
2013-05-24, 11:54:54
Doppelter Effizienz unter 28nm?
Das würde doch bedeutet, das man bei gleicher Chipgröße die doppelte Leistung bekommen würde.
Das kann ich mir nicht wirklich vorstellen, sonst würde AMD schnell Marktführer werden.^^
Zumal doppelte Leistung auch eine deutlich mehr (doppelte?) Speicherbandbreite vorraussetzen würde.

Ailuros
2013-05-24, 12:06:03
Kann doch alles bis gar nichts bedeuten; wenn z.B. nur GFLOPs gemeint sind ist es alles andere als schwer unter 28nm zu meistern. Uebrigens wuerde ich fuer diese Faelle NICHT mit 28HP fuer die Herstellung rechnen.

2phil4u
2013-05-24, 19:34:13
28nm FDSOI vielleicht, Globalfoundries spricht ja davon.
Bei gemaessigtem Takt und sehr niedriger Spannung von vielleicht 0.7 V könnte man schon eine doppelte Performance/Watt erzielen, aber die Herstellungskosten waeren dann ja exhorbitant und die Yieldraten schlecht.

Knuddelbearli
2013-05-24, 20:33:00
na doppelte Effizienz dürfte man auch so schaffen 7970 mit um die 750Mhz

wenn ichs recht im Kopf habe müsste das um die 120W haben, dann noch am GDDR5 optimieren und passt,

versteh eh nicht wieso keine solchen Teslas / Fire angeboten werden, wo dorch effizienz extrem wichtig ist

Black-Scorpion
2013-05-24, 20:38:58
28nm FDSOI vielleicht, Globalfoundries spricht ja davon.
Bei gemaessigtem Takt und sehr niedriger Spannung von vielleicht 0.7 V könnte man schon eine doppelte Performance/Watt erzielen, aber die Herstellungskosten waeren dann ja exhorbitant und die Yieldraten schlecht.
Du siehst aus einer Spekulation das die Preise hoch und die Yieldraten schlecht sind. Alle Achtung.

Ailuros
2013-05-24, 21:04:57
Du siehst aus einer Spekulation das die Preise hoch und die Yieldraten schlecht sind. Alle Achtung.

Er spekuliert in einem Spekulationsforum welch Wunder, anstatt konstant Zeit und Energie zu verschwenden anderen links anzumachen. :rolleyes:

Black-Scorpion
2013-05-24, 21:30:18
Er spekuliert in einem Spekulationsforum welch Wunder, anstatt konstant Zeit und Energie zu verschwenden anderen links anzumachen. :rolleyes:
Der erste Teil mag Spekulation sein aber der zweite Teil liest sich anders.

Ailuros
2013-05-24, 22:15:44
Der erste Teil mag Spekulation sein aber der zweite Teil liest sich anders.

Du darfst uns gerne mit Argumenten ueberzeugen dass er mit aller Wahrscheinlichkeit nicht recht haben koennte.

john carmack
2013-05-29, 10:43:39
1.)
http://www.hardware-infos.com/news/4441/spezifikationen-der-radeon-hd-8000-serie.html

2.)
http://www.hardware-infos.com/news/4445/amd-volcanic-islands-noch-in-diesem-jahr.html


Warum sagen alle das 20nm erst 2014 fertig wird?
TSMC sagt da was anderes:
http://www.halbleiter.org/news/nur_ein_20-nm-prozess_von_tsmc_geplant/

S940
2013-05-29, 11:48:22
Warum sagen alle das 20nm erst 2014 fertig wird?
TSMC sagt da was anderes:
http://www.halbleiter.org/news/nur_ein_20-nm-prozess_von_tsmc_geplant/Es macht nen Unterschied, ob Du von nem 20nm Prozess oder von nem 20nm Chip redest. Wenn TSMC Ende 2013 20nm startet, dann kannst Du Chips erst in 2014 erwarten, da die Wafer für ca. 4-6 Monate auf Fab-Reise sind.

Locuza
2013-05-29, 14:17:19
Ich will hier ein interessantes Bild anheften:
45817

Tiran wurde also ursprünglich sogar mit stacked-ram geplant.
Yield, Kosten und weitere "Probleme" sollen aber schon vor Tahiti berechnet und gelöst worden sein.
Charlie wollte aber nicht verraten, wieso sich AMD letztendlich dagegen entschieden hat.

Hawaii soll keine stacked-ram Optionen haben und Charlie weiß nichts offizielles darüber.
Daneben ist auch interessant, dass auch GPUs bei GloFo geplant worden sind, waren aber wahrscheinlich zu langsam mit ihrem 28nm Prozess.

Ganzer Artikel über Volta, Stacked-Ram und AMD: (Leider nicht ganz einsehbar)
http://semiaccurate.com/2013/05/20/nvidias-volta-gpu-raises-serious-red-flags-for-the-company/

Gipsel
2013-05-29, 14:50:04
Tiran, Tiran, da war doch mal was (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9121453#post9121453).
Wenn der [Tiran] kommt, ist es das Top-Modell. Das stand in einer Linie mit Cypress, Ibiza (wohl ursprünglich geplante 32nm Version der VLIW4-Architektur, Cayman taucht nicht auf) und Tahiti.
Von den Kanaren ist da allerdings nichts zu sehen. Das ist also entweder ein Ente von Charlie oder eben nur ein milder Refresh, der keine eigene Erwähnung rechtfertigt (Cayman wird an der Stelle ja auch nicht genannt).Paßt irgendwie perfekt zu dem Bildchen. :D

boxleitnerb
2013-05-29, 14:58:50
Nimmt jemand Charlie eigentlich noch für voll? Er kann nur bashen und alles so extrem verzerren, dass es zu seinen kruden Theorien passt.
Warum sollte man so etwas zurückhalten, das ergibt keinen Sinn.

Locuza
2013-05-29, 15:00:24
Weist du auch wie das Bildchen rechts weitergeht? :D
Das Bild geht bis zu PI oder?
Schade das es Tairan nicht geschafft hat, Bonaire und Oland dagegen schon.
Und Corfu wird jetzt durch Hainan ersetzt?

AnarchX
2013-05-29, 15:22:04
Wobei der ursprüngliche Oland wohl aber größer als Cape Verde war. Ob 2013 überhaupt noch verwertbar ist, kann man wohl in Frage stellen.

Locuza
2013-05-29, 15:33:08
Einen 22nm Prozess gibt es auch nicht mehr.
Wünsche mir stacked-ram @ 20nm mit hynx HBM. :)

HOT
2013-05-29, 16:00:43
Hm, TSMC geht bei 16nm ja sowieso wieder auf Fullnode. Warum nicht bei 22nm auch? Könnte Zeit sparen für VI.

john carmack
2013-06-01, 20:02:58
demnach kommen die Volcanic Islands als HD8k und nicht als HD9k Rehie

http://www.3dcenter.org/dateien/abbildungen/AMD-Desktop-OEM-Grafikkarten-Roadmap-2012-2013.png

boxleitnerb
2013-06-01, 20:07:10
OEM...das ist dann Sea Islands, nicht Volcanic Islands. Die gibts schon seit Jahresanfang.

Relay
2013-06-05, 15:24:01
Bin mal gespannt ob es...
a) Ein 20 nm Paperlaunch Ende 2013
b) 20 nm Launch in 2014
c) Ein 28 nm Launch Ende 2013
d) [halte ich für äußerst unwahrscheinlich] (echter) 20 nm Launch Ende 2013
wird


So nebenbei:
Könnte mit dem Launch der PS4 das Produktportfolio in Zukunft auch mehr über den RAM differenziert werden (Mittelklasse GPU in 2 GiB, 4 GiB und 8 GiB Ausführung)?

AnarchX
2013-06-18, 08:32:25
Der Hawaii Codenamen wurde durch den Treiber bestätigt:
AMD67A2.1 = "HAWAII GL Gemini (67A2)"
AMD67A1.1 = "HAWAII GL40 (67A1)"
AMD67BE.1 = "HAWAII LE (67BE)"
AMD67B1.1 = "HAWAII PRO (67B1)"
AMD67B0.1 = "HAWAII XT (67B0)"
AMD67A0.1 = "HAWAII XTGL (67A0)"

AMD6920.1 = "TONGA (6920)"

AMD67B9.1 = "VESUVIUS (67B9)"

http://www.rage3d.com/board/showthread.php?t=34001853
vollständige inf: http://forums.guru3d.com/showthread.php?t=379451

HOT
2013-06-18, 11:27:41
Ne ganz abgefahrene Idee: Vllt. ist VI (also Hawaii) auch gar nicht 20nm oder 28nm TSMC sondern 28fdSOI bei GloFo? Damit würde man auf GateFirst setzen, was eine erhebliche Verkleinerung zu dem 28nm (aka in Wirklichkeit 33nm) GateLast-Prozess von TSMC sein dürfte und zusätzlich besser performt als der TSMC-Prozess. 28fdSOI ist sicherlich ehrheblich eher produktionsbereit als 20nm, billiger ist er sowieso, und dennoch könnte man die ganzen zusätzlichen Shader unterbringen.

AnarchX
2013-06-18, 11:36:42
Ist Kaveri nicht auch in 28nm fdSOI gefertigt? Der scheint sonderlich klein (220-250mm² geschätzt), obwohl da nur 8 CUs verbaut sein sollen.

Marodeur3D
2013-06-18, 14:11:41
Vesuvius und Volcanic Islands? Da hat aber jemand in Geographie tief und fest geschlafen ;D

HOT
2013-06-18, 14:44:45
Kaveri ist 28SHP gefertigt. Was sich jetzt genau dahinter verbirgt ist unklar, könnte ein Shrink von 32SHP sein, also HP-Prozess mit pdSOI in GateFirst oder eben ein fdSOI-Prozess mit Backbiasing. Zweiteres wär nicht so gut für den Takt, aber super für die GPU und Idle-Verbrauch. Ich denke mal, einen Bulk-Prozess kann man aber ausschließen. Eine von den beiden Optionen wird zutreffen (mit mehr Wahrscheinlichkeit für die erste Variante).

Locuza
2013-06-18, 14:56:09
Ist Kaveri nicht auch in 28nm fdSOI gefertigt? Der scheint sonderlich klein (220-250mm² geschätzt), obwohl da nur 8 CUs verbaut sein sollen.
Anfangs wurde von 28nm Bulk ausgegangen, aber dann gab es eine GloFo Folie mit 28nm SHP.
Das verwirrt etwas, könnte Kaveri in 28nm SOI gefertigt sein?
Aber Hawaii sollte doch eig. der Ersatz für Tiran sein, ohne stacked-memory.
Vermute eher ein unspektakulären Sea Island @28nm Bulk.

HOT
2013-06-18, 15:10:05
Na das wäre ja Hainan geworden, der Codename geisterte auch lang da rum. Ich vermute, das mit dem Stacked-RAM wurde nichts -> aus Tiran wurde Hainan (also Hainan = Tiran ohne Stacked-RAM). Dann war AMD der Hainan aber nicht gut genug -> Cancel und Vorziehen auf 28nm (fdSOI?) von Volcanic Islands, neuer Chip eben Hawaii (+ Cancel des ursprünglich für spät 2014 vorgesehen ursprünglichen VI-Chip mit Stacked-RAM). Kaveri ist auf die eine oder andere Weise SOI, davon kann man sicher ausgehen. Das muss nicht für Hawaii gelten, aber die Shadermengen auf 28nm Bulk GL zu fertigen ist... mutig. 550mm² ftw und so... ist eigentlich nicht so die Art von AMD das so zu machen.

boxleitnerb
2013-06-18, 15:11:25
Hainan ist ein kleiner Notebookchip laut Dave Baumann, und der muss es ja wissen ;)

HOT
2013-06-18, 15:18:47
Dann eben ein anderer Name, Namen sind Schall und Rauch. Fest steht jedenfalls, dass von Tiran nichts mehr zu sehen ist und Sea Islands der 7000er Serie zugerechnet wurden. Nächster Stop ist eben der High-End-VI-Chip Hawaii zum Jahreswechsel.

AnarchX
2013-06-18, 15:22:36
Tiran ist wohl schon 2010 gecancelt wurden.
Als Tahiti-Nachfolger stand wohl Curacao in den Startlöchern, der aber wohl mit nur ~15% gegenüber 7970GHz nicht so überzeugend war. Möglicherweise war auch die Verlustleistung unakzeptabel.

HOT
2013-06-18, 15:24:16
Ok, dann hab ich Hainan mit Curacau verwechselt, wie gesagt, Namen sind Schall und Rauch. Hauptsache jeder weiss was gemeint ist :D.

boxleitnerb
2013-06-18, 15:29:50
Tiran ist wohl schon 2010 gecancelt wurden.
Als Tahiti-Nachfolger stand wohl Curacao in den Startlöchern, der aber wohl mit nur ~15% gegenüber 7970GHz nicht so überzeugend war. Möglicherweise war auch die Verlustleistung unakzeptabel.

Woher weißt du das? Es ist doch durchaus möglich, dass Curacao trotzdem kommt und Hawaii eben 2014 (Mitte frühestens). Oder ist es ungewöhnlich, dass so früh ein Codename im Treiber erscheint?
20 nm noch dieses Jahr glaube ich nicht. Und ist es überhaupt möglich, so "schnell" Curacao zu ersetzen mit etwas anderem? Ich steige da überhaupt nicht mehr durch...

HOT
2013-06-18, 15:34:09
Woher weißt du das? Es ist doch durchaus möglich, dass Curacao trotzdem kommt und Hawaii eben 2014 (Mitte frühestens). Oder ist es ungewöhnlich, dass so früh ein Codename im Treiber erscheint?
20 nm noch dieses Jahr glaube ich nicht. Und ist es überhaupt möglich, so "schnell" Curacao zu ersetzen mit etwas anderem? Ich steige da überhaupt nicht mehr durch...

20nm Bulk GL kann man denke ich tatsächlich ausschließen, zumal der Prozess sowieo nur teuer ist und kaum was bringt. Natürlich sind diese Entscheidungen bei AMD schon vor langer Zeit getroffen worden, werden aber jetzt erst bekannt. Curacau ist wohl schon damals in der Designphase gestorben, evtl. als man gemerkt hat, was 28fdSOI leisten kann und man ihn für lau bekommen kann. Mit der Vorlaufzeit würd das dazu passen.
Bei Stacked-RAM wird man schon in der Experimentierphase gemerkt haben, dass das Schrott ist, ist bei NV ja offenbar auch ähnlich gewesen, wurd ja da auch bis annodazumal verschoben. Genau wie AMD damals gemerkt hat, dass es keine gute Idee ist einen Chip in 32nmSHP GF zu fertigen und sich dann für Cayman doch wieder für 40nm GL entschieden hat.

AnarchX
2013-06-18, 15:35:32
Zu Hawaii gab es doch schon Tapeout-Gerüchte und laut AMD ist die 7970GHz die Top-Single-GPU für 2013. Da wird es doch für einen Curacao zeitlich sehr knapp.
Und 20nm sind für VI nicht wirklich gesichert.

boxleitnerb
2013-06-18, 15:37:47
Nicht "für 2013", sondern bis Ende 2013, Q4 glaube ich.
Also 28nm Volcanic Islands Ende 2013 und ein 20nm Shrink mit ein paar Veränderungen hier und da 2014?

HOT
2013-06-18, 15:39:46
20nm gibts nur mit fdSOI oder FinFETs. Vorher gibts garantiert keinen Shrink auf 20 panar bulk. Ob NV das macht ist ne andere Frage, aber AMD traue ich 20nm Bulk GL planar einfach nicht zu. Die haben zu viele Alternativen. Würd doch auch gut passen, Hawaii in 28 zum Jahreswechsel und ein neues Design dann Anfang 2015 in einem vernünftigen Prozess (wahrscheinlich FinFETs also TSMCs "16nm" oder GloFos 14XM oder GloFo 20nm fdSOI, sind ja alles in Wirklichkeit 20nm Prozesse).

Knuddelbearli
2013-06-18, 16:07:27
797ß soll bis inkl Q3 2013 top dog bleiben. Quartal 4 und damit Weihanchten ist also noch offen.

reaperrr
2013-06-18, 18:21:17
Gerüchte besagen (fragt mich jetzt nicht auf welcher Seite oder in welchem Forum ich das gelesen habe, weiß es selbst nicht mehr), dass die neue VI-basierte High-End Radeon zusammen mit Kaveri um den BF4-Launch (wegen Spiele-Bundle) im Oktober veröffentlicht werden soll.

An 20nm bei Hawaii glaube ich beim besten Willen nicht. Anders als NV mit GK110 hat AMD in 28nm ja durchaus noch genug Luft bei der Fläche.

fondness
2013-06-19, 09:02:14
797ß soll bis inkl Q3 2013 top dog bleiben. Quartal 4 und damit Weihanchten ist also noch offen.

Eigentlich ist es eh offensichtlich das im Q4 was kommt. Sonst hätte man nicht ausgerechnet das Q4 offen gelassen. Und nachdem inzwischen mehrere Quellen unabhängig voneinander VI noch dieses Jahr erwarten, und auch schon Tapeoutmeldungen publiziert wurden, sollte eigentlich auch klar sein was kommt. Die Fragen bleibt höchstens noch was VI genau ist.

V2.0
2013-06-19, 09:04:52
Pünktlich zum BF4 launch kommt eine AMD GPU, die eine Titan in BF4 um 50%+ schlägt.

john carmack
2013-06-19, 09:23:45
Pünktlich zum BF4 launch kommt eine AMD GPU, die eine Titan in BF4 um 50%+ schlägt.


is klar, ne??!?!

Iruwen
2013-06-19, 11:03:58
Und 40% davon durch 'nen Horny Treiber :D

V2.0
2013-06-19, 12:02:43
Davon würde ich momentan auch ausgehen, dass AMD dieses Mal einen Treibervorteil haben sollte.

john carmack
2013-06-20, 13:13:14
Wohl keine Überraschung, aber 20nm Fertigung wohl erst ab Anfang 2014:
http://www.digitimes.com/news/a20130611PD218.html



Ne ganz abgefahrene Idee: Vllt. ist VI (also Hawaii) auch gar nicht 20nm oder 28nm TSMC sondern 28fdSOI bei GloFo? Damit würde man auf GateFirst setzen, was eine erhebliche Verkleinerung zu dem 28nm (aka in Wirklichkeit 33nm) GateLast-Prozess von TSMC sein dürfte und zusätzlich besser performt als der TSMC-Prozess. 28fdSOI ist sicherlich ehrheblich eher produktionsbereit als 20nm, billiger ist er sowieso, und dennoch könnte man die ganzen zusätzlichen Shader unterbringen.

Schaffe89
2013-06-20, 14:23:04
Globalfoundries ist nicht in der Lage große GPU´s zu fertigen., das würde ein Fiasko werden.

boxleitnerb
2013-06-20, 14:38:41
Sie schreiben was vom ramp up. Risk production mit (sehr?) miesen Yields und hohen Preisen sind sicher schon Ende 2013 drin.

M4xw0lf
2013-06-20, 14:50:48
Oder Paperlaunch mit realer Verfügbarkeit ein Vierteljahr später.
€: Dein Szenario ist im Prinzip das gleiche, fällt mir auf ;)

boxleitnerb
2013-06-20, 15:04:05
Die 5870 war auch lange nicht verfügbar, man hat ja sogar die Preise noch erhöht. Vielleicht läuft es jetzt so ähnlich. Erst eine konservativ getaktete GPU und später wieder die (2) GHz-Edition :D

Knuddelbearli
2013-06-20, 15:58:30
wäre mir sogar egal hauptsache man weiss was man von 20nm zu erwarten hat

boxleitnerb
2013-06-20, 16:00:03
Sehe ich auch so. Warten ist blöd, der Fortschritt ist mir zu langsam.

john carmack
2013-06-20, 16:46:58
Sehe ich auch so. Warten ist blöd, der Fortschritt ist mir zu langsam.


Solange es noch die TransistorTechnologie gibt, wird sich daran auch in Zukunft nichts mehr ändern...
Auch Intel wird das zu spühren bekommen wenn ihr TickTock Modell Zyklus nicht mehr 30 Monate dauern wird. Spätestens ab <10nm wirds bei denen auch 40Monate oder länger dauern.

HOT
2013-06-20, 17:31:08
Globalfoundries ist nicht in der Lage große GPU´s zu fertigen., das würde ein Fiasko werden.
Aha, und was ist mit den Custom-APUs?

fondness
2013-06-20, 17:34:53
Aha, und was ist mit den Custom-APUs?

Wer sagt das die von GF kommen? Nachdem Kabini von TSMC kommt (Jaguar+GCN SoC), ist TSMC deutlich naheliegender.

Schaffe89
2013-06-20, 18:35:04
Soviel ich weiß werden die Steamroller APU´s bei Globalfoundries gefertigt und nicht bei TSMC.
Meinst due die PS4 APU´s? DAs wird noch ein riesen Fiasko, warts ab.

HOT
2013-06-20, 18:37:42
Wer sagt das die von GF kommen? Nachdem Kabini von TSMC kommt (Jaguar+GCN SoC), ist TSMC deutlich naheliegender.
AFAIK hat AMD bei TSMC nicht mal annähernd Kontingente, die groß genug wären, um diese Mengen an SoCs zu fertigen. Die stoßen ja bei Grafikchips da schon an ihre Grenzen.
Soviel ich weiß werden die Steamroller APU´s bei Globalfoundries gefertigt und nicht bei TSMC.
Meinst due die PS4 APU´s? DAs wird noch ein riesen Fiasko, warts ab.
Ich bin gespannt :D.

Nightspider
2013-06-20, 20:07:38
Eine Risc-Production Ende 2013 wäre toll.
Alleine schon weil vielleicht schon der Realease vor Jahreswechsel sein könnte und Benchmarks noch in diesem Jahr zu erwarten wären. :)

Wahrscheinlichkeit: 30%

Gipsel
2013-06-21, 11:01:53
Risk production von 20nm bei TSMC geht jetzt schon. Macht nur keiner (außer für Testchips und preproduction samples), weil das Risiko zu hoch ist. Aber Waferruns in 20nm kann man (in relativ geringen Dimensionen) bereits ordern.
Gibt ja offizielle Assagen von TSMC dazu (http://www.cadence.com/Community/blogs/ii/archive/2013/04/14/tsmc-2013-symposium-progress-in-20nm-16nm-finfet-and-3d-ic-technologies.aspx):
20nm planar HKMG [high-k metal gate] technology has already passed risk production with a very high yield and we are preparing for a very steep ramp in two GIGAFABs
Das "passed risk production" muß man übrigens so verstehen, daß ihre internen Milestones dafür erreicht wurden, ab denen risk production möglich ist. Es heißt also nicht, daß man bereits von der Risiko- zur Massenproduktion übergegangen ist, sondern jetzt bei der Risikoproduktion ist und an der Massenfertigung arbeitet.

V2.0
2013-06-21, 11:20:52
Und man darf davon ausgehen, dass es keine GPUs und andere komplexen Chips waren.

boxleitnerb
2013-06-21, 11:28:50
Weiß jemand, wie man das mit 28 oder 40 nm vergleichen kann? Wie war denn der Stand der Fertigung im Dezember 2011 bzw. im September 2009? Die Yields waren zwar nicht so gut (recht niedriger Takt bei Tahiti bzw. erstmal schlechte Verfügbarkeit von Cypress), aber einem Launch stand das ja beide Male nicht im Wege.

Duplex
2013-06-21, 11:36:22
Wollte man den 28nm Refresh nicht bereits Ende 2012 oder Anfang 2013 launchen?
Möglicherweise überspringt man den 28nm Refresh weil sich die +15% auf die Ghz Edition nicht lohnen, wenn ende 2013 ein 20nm Chip von AMD kommt, dann ist der locker 50-60% schneller als die Ghz Edition, damit ist man besser aufgestellt, Geforce Titan wäre dann langsamer, Q4/13 ist für 20nm recht früh und die Verfügbarkeit könnte dann ähnlich wie Cypress ausfallen.
Es gibt auch zweifel, Nvidia hat erst vor kurzem die GTX780/770 Modelle gelauncht, die sollten eig. 1 Jahr aktuell bleiben, wenn AMD so früh mit 20nm startet, warum startet dann nicht Nvidia auch mit 20nm Maxwell Chips in ähnlichen Zeitaum?

john carmack
2013-06-21, 11:43:34
Wollte man den 28nm Refresh nicht bereits Ende 2012 oder Anfang 2013 launchen?
Möglicherweise überspringt man den 28nm Refresh weil sich die +15% auf die Ghz Edition nicht lohnen, wenn ende 2013 ein 20nm Chip von AMD kommt, dann ist der locker 50-60% schneller als die Ghz Edition, damit ist man besser aufgestellt, Geforce Titan wäre dann langsamer, Q4/13 ist für 20nm recht früh und die Verfügbarkeit könnte dann ähnlich wie Cypress ausfallen.


Das haben schon viele hier vermutet, vor allem auch deswegen weil AMD sich durch einen nicht gelaunchten Refresh Geld spart...

Liegt vielleicht auch ein wenig daran, das AMD wohl jede Menge mit den Konsolen zu tun hat und man einfach irgendwo ManPower einsparen muss.
Alles auf einmal geht eben nicht ;)

Es liegt wahrscheinlich überall ein wenig Wahrheit drin.

boxleitnerb
2013-06-21, 11:45:30
Hawaii gehört ja nach dem Namen her klar zu Volcanic Islands. Ein Refresh wäre wohl unter Sea Islands gelaufen. Ich denke man kann den Refresh daher inzwischen fast mit Sicherheit ausschließen. Also mit Refresh meine ich einen nur leicht verbesserten Tahiti/Pitcairn/Cape Verde@28nm. Eine deutliche Verbesserung der Architektur auch noch auf 28nm mag ich nicht ausschließen, aber so langsam kommt 20nm in den Bereich des Möglichen.

Wenn AMD das wirklich hinkriegt, muss Nvidia sich echt mal überlegen, was man falsch macht, wenn man immer mit den neuen Prozessen so hinterherhinkt. Bei 28nm war es nicht so schlimm, man hat ja im Januar auch schon die kleinen Mobil-Keplers ausgeliefert, aber trotzdem. Wäre mal schön, wenn beide innerhalb eines Monats ihre Karten launchen.

AnarchX
2013-06-21, 12:01:43
Die Device-ID von Vesuvius ist übrigens der von Hawaii so ähnlich, dass es hier sich wohl möglich um die gleiche GPU handelt. Eventuell ist es der Dual-GPU-Ableger für den Endkundenmarkt.

Duplex
2013-06-21, 12:15:08
Was erwartet ihr in 20nm?

Beim 55 > 40nm Prozess hat AMD damals die Shader um Faktor2 erhöht, allerdings war der RV870 Chip ca. 30% größer als RV770, DX11 hat beim RV870 bestimmt auch Fläche gekostet.

Ich finde das Setup nicht schlecht,

3072 Shader, 64 Rops, Quad Frontend, 1000 MHz GPU.
Nur 50% mehr Shader, aber ein größeres Frontend, in 20nm sehr sinnvoll wenn man keine großen Chips produzieren möchte.

boxleitnerb
2013-06-21, 12:22:09
Es wurde spekuliert, dass die 40 im Codenamen einer Hawaii-Variante auf eine 40-CU-Konfiguration hinweist. Wenn man sich Tahiti anschaut, wäre das glaubhaft:

Tahiti Pro: 28 CUs, 1792 Shader
Tahiti XT: 32 CUs, 2048 Shader (+15%)

Hawaii Pro: 40 CUs, 2560 Shader
Hawaii XT: 48 CUs, 3072 Shader (+20%)

Dazu etwa 1,1 GHz Takt und man dürfte 60% schneller als die 7970 GHz sein (auch durch das bessere Frontend). Die große Frage ist Bandbreite. 512-bit finde ich eher unwahrscheinlich, und mit 384-bit kann man nur 17% mehr Bandbreite erreichen aktuell. HMC? GDDR6? On-die DRAM?

Duplex
2013-06-21, 12:29:51
Wenn wir tatsächlich ein 48x64 Chip mit Quad Frontend sehen, dann wird der Chip selbst mit 384 Bit SI Titan ohne Probleme schlagen!
Wenn AMD die Karten für 500-600 Euro verkauft, dann könnte man sich überlegen warum nicht gleich auch ein 512 Bit SI einbaut.

fondness
2013-06-21, 12:34:47
20nm erscheint mir sehr unwahrscheinlich. Es wird selbst noch ein Maxwell in 28nm irgendwann 2014 spekuliert. Gustafson hat eine erhebliche Perf/Watt-Steigerung mit der neuen Generation angekündigt, dadurch kann man auch im selben Prozess deutliche Leistungssteigerungen erzielen. Bei der Die-Fläche hat man durchaus auch noch Luft.

V2.0
2013-06-21, 12:35:03
Weil jeder unnötige mm² immer noch auf den Ertrag geht.

boxleitnerb
2013-06-21, 12:36:08
Es sollte selbstverständlich sein, dass so eine GPU unter 20nm eine 28nm-GPU schlägt ;)
512-bit treibt den Verbrauch in die Höhe und lässt sich nicht skalieren mit dem Prozess. Nvidia hat sich aus diesem Grund bei GK110 dagegen entschieden. Ich schätze, AMD wird das auch tun.

20nm erscheint mir sehr unwahrscheinlich. Es wird selbst noch ein Maxwell in 28nm irgendwann 2014 spekuliert. Gustafson hat eine erhebliche Perf/Watt-Steigerung mit der neuen Generation angekündigt, dadurch kann man auch im selben Prozess deutliche Leistungssteigerungen erzielen. Bei der Die-Fläche hat man durchaus auch noch Luft.

Ohne neuen Prozess halte ich das nicht für möglich. Wie soll das auch gehen, AMD kocht auch nur mit Wasser. Wenn ich mich recht erinnere, sprach man von einer Verdopplung der Effizienz. Sowas gab es auf demselben Prozess meines Wissens nach noch nie.

Duplex
2013-06-21, 12:36:40
@fondness
Es gibt null Anzeichen das Maxwell in 28nm kommt, warum wurde GK104 nicht in 40nm produziert oder Fermi in 55nm? :rolleyes:

Volcanic Islands 20nm Q4/13
Maxwell 20nm > Q2/14

Das wäre vom Abstand ähnlich wie Cypress > Fermi, mit dem Unterschied das dann Maxwell direkt mit besseren Yields starten wird, bei AMD wird die 20nm Verfügbarkeit erstmal mangelhaft ausfallen.

HarryHirsch
2013-06-21, 12:38:20
Es wurde spekuliert, dass die 40 im Codenamen einer Hawaii-Variante auf eine 40-CU-Konfiguration hinweist. Wenn man sich Tahiti anschaut, wäre das glaubhaft:

Tahiti Pro: 28 CUs, 1792 Shader
Tahiti XT: 32 CUs, 2048 Shader (+15%)

Hawaii Pro: 40 CUs, 2560 Shader
Hawaii XT: 48 CUs, 3072 Shader (+20%)

Dazu etwa 1,1 GHz Takt und man dürfte 60% schneller als die 7970 GHz sein (auch durch das bessere Frontend). Die große Frage ist Bandbreite. 512-bit finde ich eher unwahrscheinlich, und mit 384-bit kann man nur 17% mehr Bandbreite erreichen aktuell. HMC? GDDR6? On-die DRAM?


Das würde ja 50% mehr Speed unter OpenCL bedeuten. Könnte man durch Optimierungen an den Shadern eventuell noch mehr erwarten?

fondness
2013-06-21, 12:38:52
Dazu etwa 1,1 GHz Takt und man dürfte 60% schneller als die 7970 GHz sein (auch durch das bessere Frontend). Die große Frage ist Bandbreite. 512-bit finde ich eher unwahrscheinlich, und mit 384-bit kann man nur 17% mehr Bandbreite erreichen aktuell. HMC? GDDR6? On-die DRAM?

Eine 7970Ghz hat mehr als genug Bandbreite. Sieht man ja schon an der 7870, die mit gerade mal 53% der Bandbreite 70% der Leistung bringt. Für vielleicht 60% mehr Leistung sollten 17% mehr Bandbreite allemal reichen.

HOT
2013-06-21, 12:44:31
Es sollte selbstverständlich sein, dass so eine GPU unter 20nm eine 28nm-GPU schlägt ;)
512-bit treibt den Verbrauch in die Höhe und lässt sich nicht skalieren mit dem Prozess. Nvidia hat sich aus diesem Grund bei GK110 dagegen entschieden. Ich schätze, AMD wird das auch tun.
[...]
28fdSOI schlägt 20nm bulk.

Duplex
2013-06-21, 12:46:37
28fdSOI schlägt definitiv 20nm bulk.
Man wird mit sicherheit keine GPUs in SOI herstellen, die Basis vom GPU Design ist primär für TSMC bulk Prozesse entwickelt, also träum weiter. ;)

boxleitnerb
2013-06-21, 12:48:48
Eine 7970Ghz hat mehr als genug Bandbreite. Sieht man ja schon an der 7870, die mit gerade mal 53% der Bandbreite 70% der Leistung bringt. Für vielleicht 60% mehr Leistung sollten 17% mehr Bandbreite allemal reichen.

Einerseits ja - andererseits: Warum hat man bei der 7970 GHz dann den Speichertakt erhöht?

Man wird mit sicherheit keine GPUs in SOI herstellen, die Basis vom GPU Design ist primär für TSMC bulk Prozesse entwickelt, also träum weiter. ;)

Naja, irgendwann muss man den Umstieg mal wagen, wenn die Vorteile von fdSOI ggü. bulk so deutlich sind, vor allem auch bei den Kosten.

Knuddelbearli
2013-06-21, 12:49:37
bleibt aber das Vesuv keine insel ist weder eine vulkanische noch eine südsee insel :-/

Duplex
2013-06-21, 12:53:18
Warum hat man bei der 7970 GHz dann den Speichertakt erhöht?
Weil die Anzahl der GPU Einheiten bei der Ghz Edition mit Tahiti XT (v1) identisch ist...

Naja, irgendwann muss man den Umstieg mal wagen, wenn die Vorteile von fdSOI ggü. bulk so deutlich sind, vor allem auch bei den Kosten.
Aber nicht von TSMC > Globalfoundries, das macht kein sinn. AMD wird garantiert weiterhin bulk bei TSMC verwenden und das ist dann 20nm.

fondness
2013-06-21, 12:54:18
Einerseits ja - andererseits: Warum hat man bei der 7970 GHz dann den Speichertakt erhöht?

Weil mans kann. Wird wohl nicht viel kosten, und wenns nur 1% bringt nimmt man das gerne mit.

M4xw0lf
2013-06-21, 12:54:41
"Doppelte Effizienz" ist mal wieder so ein deeeeehnbarer Begriff. Bei der Spieleleistung ist das sicher sogar mit shrink von 28 auf 20nm kaum drin. Wenn er dabei dagegen von DP Performance spricht, wäre es ja sehr gut möglich dass die neue Architektur ein besseres SP: DP Verhältnis als 1:4 (Tahiti) kann.

Duplex
2013-06-21, 12:56:24
Wenn das Frontend aufgebohrt wird (z.b. Quad Frontend), dann werden die Einheiten auto besser & effizienter ausgelastet.
Wo steht den doppelte Effizienz?

boxleitnerb
2013-06-21, 12:57:22
Weil die Anzahl der GPU Einheiten bei der Ghz Edition mit Tahiti XT (v1) identisch ist...

Aber nicht von TSMC > Globalfoundries, das macht kein sinn. AMD wird garantiert weiterhin bulk bei TSMC verwenden und das ist dann 20nm.

Was hat die Anzahl der Einheiten damit zu tun? Da finde ich die Erklärung von fondness eher einleuchtend.
Und zum Prozess: Begründung? Du scheinst dir ja sehr sicher zu sein.

fondness
2013-06-21, 12:59:08
@fondness
Es gibt null Anzeichen das Maxwell in 28nm kommt, warum wurde GK104 nicht in 40nm produziert oder Fermi in 55nm? :rolleyes:
Maxwell ist 20nm!


Wenn man so argumentiert dann schließt man gleich in Vorhinein jegliche Veränderung aus. Denn es kann nicht sein was in der Vergangenheit nicht war. 20nm Wafer werden zu beginn sehr teuer, es gibt laut NV keinerlei Kostenvorteil wenn man den selben Chip in 20nm herstellt. Dazu kommen garantiert schlechte Yields und geringe Kapazitäten. Es gibt einige Anzeichen das sowohl NV als auch AMD Next-Gen zuerst noch in 28nm bringen. Ein 20nm Performance-Chip dieses Jahr erscheint mir nach den Aussage von TSMC selbst mehr als unrealistisch. Aber reden wir in einem halben Jahr nochmal weiter.

Duplex
2013-06-21, 13:01:07
Wer sprach vom selben Chip? Nvidia hat bisher jede neue Architektur in neuer Fertigung produzieren lassen.
Maxwell in 28nm macht keinen sinn, warum in alten Strukturen produzieren? Was hätte GK104 in alten Strukturen gebracht, garnichts! Warum soll jetzt Maxwell eine Ausnahme darstellen, ihr glaubt doch nicht im ernst das Maxwell in 28nm 50% schneller als Kepler werden kann, GF100 hat auf GT200 60% draufgelegt und das von 55 > 40nm, Nvidia kann nicht zaubern, was erwartet ihr bei selben Struktuten, seit mit Maxwell nicht zu optimistisch...

boxleitnerb
2013-06-21, 13:06:28
Hab grad was bzgl. 20nm gefunden (vom TSMC Q1 2013 earnings call via seekingalpha):

Steven C. Pelayo - HSBC, Research Division
All right, then, if you could just remind me, what -- when is 20-nanometer revenues going to start being 1%, or 2%, or 3% of revenue? I think -- I forgot if you guys could comment on it?
Morris Chang - Chairman and Chief Executive Officer
20-nanometer?
Steven C. Pelayo - HSBC, Research Division
Yes.
Morris Chang - Chairman and Chief Executive Officer
20 has not started.
Elizabeth Sun - Director of Corporate Communication Division
20 has not started.
Steven C. Pelayo - HSBC, Research Division
I know. When do you expect?
Elizabeth Sun - Director of Corporate Communication Division
When? First half next year.
Lora Ho - Chief Financial Officer and Senior Vice President of Finance
You're asking about 20?
Morris Chang - Chairman and Chief Executive Officer
Well, she answered already, she said first half of next year. You actually set a pretty low hurdle. You said 2% or 3%, right?
Steven C. Pelayo - HSBC, Research Division
What quarter will be the first few percentage of revenues will come from 20-nanometer for TSMC?
Morris Chang - Chairman and Chief Executive Officer
What quarter will be the first 2% quarter?
Lora Ho - Chief Financial Officer and Senior Vice President of Finance
Well, based on our current estimation, it will be roughly second quarter 2014.

Das Quartal mit 2% Umsatz bei 28nm war Q4 2011 - das Quartal, in dem Tahiti gelauncht wurde. Hm...

AnarchX
2013-06-21, 13:08:08
Wer sprach vom selben Chip? Nvidia hat bisher jede neue Architektur in neuer Fertigung produzieren lassen.
Maxwell in 28nm macht keinen sinn, warum in alten Strukturen produzieren? Was hätte GK104 in alten Strukturen gebracht, garnichts! Warum soll jetzt Maxwell eine Ausnahme darstellen, ihr glaubt doch nicht im ernst das Maxwell in 28nm 50% schneller als Kepler werden kann, GF100 hat auf GT200 60% draufgelegt und das von 55 > 40nm, Nvidia kann nicht zaubern, was erwartet ihr bei selben Struktuten, seit mit Maxwell nicht zu optimistisch...

Die Steigerung die man mit Maxwell versprochen hat, sind wohl nur schwer mit einem einfachen Prozesswechsel erreichbar. Durchaus denkbar, dass Maxwell die Leistung bei gleicher Die-Size um 30% steigern kann.

Und es gibt wohl durchaus Gerüchte zu Maxwell@28nm.

Duplex
2013-06-21, 13:08:29
Logisch das der Anteil der neuen Serie am Anfang sehr niedrig ist, es dauert immer 1-2 Quartale bis die neue Serie im Markt angekommen ist.

Es gab laut Ailuros auch GF110 in 28nm, aber nur in Nvidia´s Labor :D:D

fondness
2013-06-21, 13:10:10
Hab grad was bzgl. 20nm gefunden (vom TSMC Q1 2013 earnings call via seekingalpha):



Das Quartal mit 2% Umsatz bei 28nm war Q4 2011 - das Quartal, in dem Tahiti gelauncht wurde. Hm...

Tahiti wurde so ziemlich am letzten Tag in 2011 gelauncht, erhältlich war er AFAIK erst Januar 2012. Ergo sind 20nm Chips eher unwahrscheinlich vor Q2/Q3 2014.

boxleitnerb
2013-06-21, 13:10:29
Logisch das der Anteil der neuen Serie am Anfang sehr niedrig ist, es dauert immer 1-2 Quartale bis die neue Serie im Markt angekommen ist.

Ja schon, aber die Parallele zu 28nm ist unverkennbar. Wobei unklar ist, wieviele Kapazitäten AMD und Nvidia da hatten von diesen 2%. Nvidia wird wohl kaum mit 20nm antanzen so bald, wenn man jetzt erst den "Refresh" gebracht hat. Aber Qualcomm, Apple usw. gibt es ja auch noch. Man kann das also nicht so einfach nur auf AMD und GPUs ummünzen.

@fondness:
Ja, stimmt. Man braucht auch immer eine gewisse Vorlaufzeit, man will ja nicht nur 100 Karten pro Woche ausliefern. Vielleicht wartet AMD diesmal auch auf Nvidia, denn man hat ja gesehen, dass es sehr gut sein kann, die Produktplatzierung auf die Konkurrenz abstimmen zu können.

Also:
AMD@28nm Refresh: Q3-Q4 2013
NV@20nm: Q2 2014
AMD@20nm: Q2-Q3 2014

Duplex
2013-06-21, 13:12:21
Evtl. wird es wieder so sein wie Cypress > Fermi
Nvidia kam damals mit dem 55nm Refresh GT200b und AMD hat kurze Zeit später den Fertigungswechsel vollzogen während Nvidia erst recht später vermarktet hat.
Selbst wenn Maxwell bei gleicher Größe 30% schneller als Kepler ist, 28nm sind nur Test Chips im Labor, laut Ailuros gab es GF110 auch in 28nm, Nvidia hat sich gewundert das der Stromverbrauch mit 40nm gleich geblieben ist, nur die DIE Space war kleiner :D

@boxleitnerb
Warum mit 20nm auf Nvidia warten, kurzfristig kannste da nix mehr ändern außer Takt erhöhungen.
Ein Chip mit mehr CUs dauert locker 6 Monate, Vallidierung usw. nicht vergessen.

fondness
2013-06-21, 13:20:29
Wer sprach vom selben Chip? Nvidia hat bisher jede neue Architektur in neuer Fertigung produzieren lassen.
Maxwell in 28nm macht keinen sinn, warum in alten Strukturen produzieren? Was hätte GK104 in alten Strukturen gebracht, garnichts! Warum soll jetzt Maxwell eine Ausnahme darstellen, ihr glaubt doch nicht im ernst das Maxwell in 28nm 50% schneller als Kepler werden kann, GF100 hat auf GT200 60% draufgelegt und das von 55 > 40nm, Nvidia kann nicht zaubern, was erwartet ihr bei selben Struktuten, seit mit Maxwell nicht zu optimistisch...

Ich glaube du Unterschätzt den Einfluss des Designs. Kepler ist vor allem wegen dem Design ohne Hot-Clock und den Verzicht auf breite Busse die man über den Chip führt deutlich energieffizienter als Fermi. Der Prozess macht da nur eine Teil aus.

HOT
2013-06-21, 13:27:38
Man wird mit sicherheit keine GPUs in SOI herstellen, die Basis vom GPU Design ist primär für TSMC bulk Prozesse entwickelt, also träum weiter. ;)
Sicher kann man das, völlig problemlos sogar bei fd. Dei einzige Frage, die sich stellt, bleibt man bei TSMC oder nicht?
[...]
Aber nicht von TSMC > Globalfoundries, das macht kein sinn. AMD wird garantiert weiterhin bulk bei TSMC verwenden und das ist dann 20nm.
Das macht dann Sinn, wenn die Kosten und der Prozess es zulassen. GPUs werden eh in beiden Foundries gefertigt. Ob als APU oder diskret ist dafür doch völlig unerheblich. Im Gegenteil, APUs sind fertigungstechnisch deutlich schwieriger. Wenn man einen Kaveri mit GCN sogar in pdSOI hinbekommt, ist GCN2 auf fdSOI ein Klacks. Es stellt such nur die Frage, ob der Prozess verfügbar ist. Und völlige über-den-Haufen-werfen der bisherigen GPU-Planungen muss ja auch irgendeinen Grund haben.
Evtl. wird es wieder so sein wie Cypress > Fermi
Nvidia kam damals mit dem 55nm Refresh GT200b und AMD hat kurze Zeit später den Fertigungswechsel vollzogen während Nvidia erst recht später vermarktet hat.
Selbst wenn Maxwell bei gleicher Größe 30% schneller als Kepler ist, 28nm sind nur Test Chips im Labor, laut Ailuros gab es GF110 auch in 28nm, Nvidia hat sich gewundert das der Stromverbrauch mit 40nm gleich geblieben ist, nur die DIE Space war kleiner :D

Hört sich schwer nach BS an. 28nm HKMG ist um einiges besser als 40nm normal.

@boxleitnerb
Warum mit 20nm auf Nvidia warten, kurzfristig kannste da nix mehr ändern außer Takt erhöhungen.
Ein Chip mit mehr CUs dauert locker 6 Monate, Vallidierung usw. nicht vergessen.
20nm sind bei beiden Foundries schon Mitte 2012 entwicklungsreif gewesen und wird 2014 fertigungsreif sein. Will nur keiner haben, weils zu teuer ist und maxiaml 15% mehr Effizienz bringt (das versprechen die Foundries selber, die Realität dürfte noch schlimmer sein).

boxleitnerb
2013-06-21, 13:29:15
@boxleitnerb
Warum mit 20nm auf Nvidia warten, kurzfristig kannste da nix mehr ändern außer Takt erhöhungen.
Ein Chip mit mehr CUs dauert locker 6 Monate, Vallidierung usw. nicht vergessen.

Takt reicht doch, hat Nvidia mit GK104 auch so gemacht.

Die Massenproduktion von 28nm lief übrigens am 24. Oktober 2011 an, Tahiti kam weniger als 3 Monate später. Bei einem Launch von 20nm-GPUs bis sagen wir Ende Oktober sollte in den nächsten 6-8 Wochen das Anlaufen der 20nm-Massenfertigung angekündigt werden. Theoretisch geht es noch...zu den 2% hab ich ja schon gesagt, dass das nicht zwangsläufig was heißen muss, weil andere auch mitmischen.
Im Moment halte ich beides für möglich ehrlich gesagt, 28nm oder 20nm.

Ich glaube du Unterschätzt den Einfluss des Designs. Kepler ist vor allem wegen dem Design ohne Hot-Clock und den Verzicht auf breite Busse die man über den Chip führt deutlich energieffizienter als Fermi. Der Prozess macht da nur eine Teil aus.

Nur hat man beide Punkte mit Kepler schon abgehakt, die können bei Maxwell also nicht eine erneute Steigerung der Effizienz bewirken. Spontan wüsste ich nicht, wie man die Effizienz mit nur der Architektur noch so deutlich verbessern kann bei Maxwell (auch wenn laut Ailuros für die Änderungen gilt: Maxwell >> Kepler > Fermi). Einen Maxwell@28nm halte ich daher eher für unsinnig, vor allem da ca. ein Jahr nach GTX 700 der 20nm-Prozess doch verfügbar sein dürfte.

Duplex
2013-06-21, 13:38:05
Takt reicht doch, hat Nvidia mit GK104 auch so gemacht.GK104 war Anfangs 30% schneller als Fermi, wenn man den Takt nicht deutlich erhöht hätte, dann wäre das doch nur eine GTX660 für 250 Euro geworden...

Im Moment halte ich beides für möglich ehrlich gesagt, 28nm oder 20nm.
Nvidia hat vor kurzem die GTX780/770 vermarktet, wenn man davon ausgeht das die 1 Jahr aktuell bleiben, dann ist Maxwell in 20nm wahrscheinlicher, wenn Maxwell im 1H/14 in 28nm erscheint, dann kommt bei Nvidia 20nm erst 2015, macht auch kein sinn. 20nm HP muss auch nicht zwingend TSMC only sein, Nvidia hat damals den G92 bei TSMC & UMC herstellen lassen.

boxleitnerb
2013-06-21, 13:42:17
GK104 war Anfangs 30% schneller als Fermi, wenn man den Takt nicht deutlich erhöht hätte, dann wäre das doch nur eine GTX660 für 250 Euro geworden...


Ich bezog mich auf den Vergleich mit Tahiti. Ursprünglich war GK104 ja für eher 950 MHz ausgelegt, das hat man nach dem Wissen um die 7970-Specs etwas hochgeschraubt um ganz knapp gewinnen zu können. Das ist eben der Vorteil. Wäre die GTX680 mit 950 MHz vor Tahiti veröffentlich worden, wäre das Resume zu dieser Karte nicht so gut geworden glaube ich.


Nvidia hat vor kurzem die GTX780/770 vermarktet, wenn man davon ausgeht das die 1 Jahr aktuell bleiben, dann ist Maxwell in 20nm wahrscheinlicher, wenn Maxwell im 1H/14 in 28nm erscheint, dann kommt bei Nvidia 20nm erst 2015, macht auch kein sinn.

Sehe ich auch so.

Duplex
2013-06-21, 13:43:09
Hört sich schwer nach BS an. 28nm HKMG ist um einiges besser als 40nm normal.

Frag Ailuros, der meinte das der Stromverbrauch bei GF110 @28nm nicht niedriger als GF110 @40nm war, vielleicht gab es Probleme mit dem Hotclocks?

boxleitnerb
2013-06-21, 13:47:18
^ wenn ich mich recht erinnere, meinte er, dass GF110 @28nm sogar recht gut war. Bzgl. was genau, weiß ich aber nicht mehr.

Duplex
2013-06-21, 13:48:46
Ich bezog mich auf den Vergleich mit Tahiti. Ursprünglich war GK104 ja für eher 950 MHz ausgelegt, das hat man nach dem Wissen um die 7970-Specs etwas hochgeschraubt um ganz knapp gewinnen zu können.
Ich dachte der Takt wäre ursprünglich sogar noch niedriger geplant gewesen, egal, wenn man die "DIE SPACE" mit GF110 vergleicht, dann fällt doch direkt auf das der 290mm² Chip von Anfang an als Perfomance geplant war.
Ich finde den größeren Chip GK110 viel besser, der braucht kaum mehr Strom als der kleine Chip :)
kurz gesagt bei GK104 ist die Leistungsaufnahme nicht toll wenn man den großen Chip betrachtet ;)
wenn ich mich recht erinnere, meinte er, dass GF110 @28nm sogar recht gut war. Bzgl. was genau, weiß ich aber nicht mehr.
Soweit ich weiß war das nur die Fläche, aber egal, vergessen wir das Thema ;)

boxleitnerb
2013-06-21, 14:11:34
Was ich mir auch gerade überlege, und was gegen 20nm spricht:

Nvidia hätte nie den Refresh gebracht, wenn 20nm schon im Q4 bereit wäre. Ich gehe jetzt mal davon aus, dass die Strategie, "unten" anzufangen mit den GPUs, die Probleme, die man mit 40nm hatte, dauerhaft löst. Man kann weder AMD nochmal so einen Vorsprung gewähren, noch kann man die 700er Serie gleich wieder überflüssig machen.

john carmack
2013-06-21, 14:45:14
Was ich mir auch gerade überlege, und was gegen 20nm spricht:

Nvidia hätte nie den Refresh gebracht, wenn 20nm schon im Q4 bereit wäre. Ich gehe jetzt mal davon aus, dass die Strategie, "unten" anzufangen mit den GPUs, die Probleme, die man mit 40nm hatte, dauerhaft löst. Man kann weder AMD nochmal so einen Vorsprung gewähren, noch kann man die 700er Serie gleich wieder überflüssig machen.

Hätte nvidia garnichts machen sollen? Auch wenn 20nm noch dieses Jahr verfügbar wäre?!

Und einen Vorsprung hat AMD ja eigentlich auch nicht. AMD hat allenfalls gut aufgeholt.
Nvidia will vielleicht nicht das AMD noch weiter aufholt...

boxleitnerb
2013-06-21, 14:53:28
Es wäre kein Beinbruch gewesen für Nvidia. Die kleinen Keplers verkaufen sich immer noch hervorragend.

Mit Vorsprung meinte bzgl. Fertigung. AMD war 6 Monate vor Nvidia mit 40nm dran.

Duplex
2013-06-21, 14:56:32
Selbst wenn AMD +50% auf die Ghz Edition durch 20nm drauflegen würde, Nvidia könnte dann immer noch GK110 mit 2880 Shader & 1,1Ghz Basistakt rausbringen. Die Ghz Edition verbraucht bis zu 50W mehr als Titan.

boxleitnerb
2013-06-21, 15:00:34
Die GHz-Edition kommt auch mit sehr hoher Spannung daher. Ich denke, man kann die Effizienz um 15-20% ohne größere Probleme erhöhen. Titan@2688@1 GHz braucht mehr Strom als die 7970 GHz (ist dafür dann aber auch 30-35% schneller).

mboeller
2013-06-21, 17:26:50
Was erwartet ihr in 20nm?
...

3072 Shader, 64 Rops, Quad Frontend, 1000 MHz GPU.
Nur 50% mehr Shader, aber ein größeres Frontend, in 20nm sehr sinnvoll wenn man keine großen Chips produzieren möchte.

IMHO, ziemlicher Schwachfug.

20nm erlaubt nach allen vorhandenen Quellen gerade mal 20% höhere Frequenzen oder 20% mehr Einheiten bei gleichem Verbrauch als bei 28nm.
Deshalb jetzt ja jeder auf FinFets und/oder FD-SOI. 20nm ist ein "looser-Process"

fondness
2013-06-21, 17:37:21
IMHO, ziemlicher Schwachfug.

20nm erlaubt nach allen vorhandenen Quellen gerade mal 20% höhere Frequenzen oder 20% mehr Einheiten bei gleichem Verbrauch als bei 28nm.
Deshalb jetzt ja jeder auf FinFets und/oder FD-SOI. 20nm ist ein "looser-Process"

20% höhere Schaltgeschwindigkeiten != 20% höhere Frequenzen. Aber das die Fortschritte durch neue Prozesse immer weiter abnehmen ist kein Geheimnis. Fortschritte müssen in Zukunft primär durch das Design erzielt werden.

boxleitnerb
2013-06-21, 17:39:10
Dazu TSMC:
Sun noted that 20SoC uses "second generation," gate-last HMKG technology and uses 64nm interconnect. Compared to the 28HPM process, it can offer a 20% speed improvement and 30% power reduction, in addition to a 1.9X density increase. Nearly 1,000 TSMC engineers are preparing for a "steep ramp" of this technology.

Ich weiß jetzt nicht, ob das markierte "und" wirklich gilt oder nicht eher ein "oder" ist.

Im Vergleich 28HP:
The 28HP process supports a 45 percent speed improvement over the 40G process at the same leakage/gate.

S940
2013-06-21, 17:55:37
Ich hab auch noch ein Zitat:

IC makers that moved from 40nm to 28nm have experienced a 35% average increase in speed and a 40% power reduction, said Jack Sun, vice president of R&D and chief technology officer at TSMC. In comparison, IC vendors that will move from 28nm to 20nm planar are expected to see a 15% increase in speed and 20% less power, Sun said. http://semimd.com/blog/2012/11/15/node-skipping-reaches-new-heights/

Ist von Nov. 2012. Frage ist jetzt, obs wirklich besser wurde, oder die Zahlen nur etwas geschönt wurden, z.B. Maximalzahlen statt Durchschnittszahlen. Das "and" sollte aber in jedem Fall stimmen, 2x falsch wäre ein zu großer Zufall.

Leonidas
2013-06-21, 17:57:28
Das ist die große Frage, wie diese TSMC-Aussage zu werten ist. Aber so wie es geschrieben steht, würde ich das "and" durchaus als echtes "und" werten wollen.


Beiderseits gilt aber der Punkt, daß NV und AMD primär weder Taktgewinn noch weniger Verlustleistung anstreben. Die Taktraten sind seit Jahren nur immer langsam gestiegen und die Verlustleistung hat sich grob eingependelt. Relevant für die Grafikchip-Entwickler ist, ob man zur selben Taktrate und zum selben Stromverbrauch *wieviel* mehr an Chipfläche erreichen kann. Mehr Chipfläche = breitere Designs = mehr fps.

Gipsel
2013-06-21, 18:17:40
Das "and" sollte aber in jedem Fall stimmen, 2x falsch wäre ein zu großer Zufall.
Das "and" bedeutet grundsätzlich entweder oder, da es zwei komplett verschiedenen Metriken sind, die da in einem Satz zusammengewürfelt werden. Insofern ist die zweimalige Verwendung in einem der normalen Logik widersprechendem Sinn auch überhaupt kein Zufall ;). Es bedeutet, daß der Prozeß beides kann: schnellere Transistoren und stromsparende Transistoren. Nur nicht Beides gleichzeitig mit den genannten Zahlen.

Es werden typischerweise die Schaltgeschwindigkeit bei gleicher Leakage pro Transistor angegeben (was sich nur nutzen läßt, wenn Stromverbrauch überhaupt keine Rolle spielt, also auf keinen Fall, wenn man die Anzahl der Transistoren verdoppeln will) und die zweite Zahl gibt den Stromverbrauch pro Transistor bei gleicher Schaltgeschwindigkeit im Vergleich zum vorherigen Prozeß an. Und in Wirklichkeit ist es noch viel komplizierter, da jeder Prozeß mehrere verschiedenen Transistoren anbietet (für die sich die Zahlen durchaus unterscheiden) und man bei jedem Transistor im Design in einem gewissen Rahmen die effektive Gatelänge tunen kann. Diese Zahlen sind alleine also nicht übermäßig aussagekräftig.

boxleitnerb
2013-06-21, 18:19:35
Ich hab auch noch ein Zitat:
http://semimd.com/blog/2012/11/15/node-skipping-reaches-new-heights/

Ist von Nov. 2012. Frage ist jetzt, obs wirklich besser wurde, oder die Zahlen nur etwas geschönt wurden, z.B. Maximalzahlen statt Durchschnittszahlen. Das "and" sollte aber in jedem Fall stimmen, 2x falsch wäre ein zu großer Zufall.

Milchmädchen:
1,35 * 1,4 = 1,89 mehr Perf/W
Das sehe ich jetzt nicht wirklich, zumindest bei den GPUs.

Edit:
Okay, Gipsel war schneller. Damit kann man meine Rechnung in die Mülltonne werfen.

Pick
2013-06-21, 20:05:25
HWiNFO32 v4.19, Build 1950
Added AMD Mullins, Hawaii and Vesuvius.
http://www.hwinfo.com/news32.html

V2.0
2013-06-21, 21:42:26
Das ist die große Frage, wie diese TSMC-Aussage zu werten ist. Aber so wie es geschrieben steht, würde ich das "and" durchaus als echtes "und" werten wollen.


Das bedeutet aber keineswegs, dass beides gleichzeitig eintrat. Es ist nicht gelogen wenn Forma A 35% speed und Firma B 40% Reduktion im Stromverbrauch erreichte. Das "and" ist mehr ein "sowohl als auch".

Duplex
2013-06-21, 22:00:29
20nm erlaubt nach allen vorhandenen Quellen gerade mal 20% höhere Frequenzen oder 20% mehr Einheiten bei gleichem Verbrauch als bei 28nm.
Deshalb jetzt ja jeder auf FinFets und/oder FD-SOI. 20nm ist ein "looser-Process"
Bei einem neuem Prozess wirst du trotzdem mindestens 50% mehr Einheiten sehen, glaube nicht immer jeden unfug, 20%...wenn der Prozess kaum was bringt, dann wird auch niemand darauf setzen!

RV770 (55nm) = 956 Millionen Transistoren - 160-5D Shader
RV870 (40nm) = 2,15 Milliarden Transistoren - 320-5D Shader
Tahiti XT (28nm) = 4,31 Milliarden Transistoren - 2048-1D Shader

john carmack
2013-06-24, 12:22:17
...das passt jetzt nicht ganz hier in den Thread aber:

20nm vielleicht doch noch 2013?!
InsiderQuellen

http://www.computerbase.de/news/2013-06/tsmc-vor-apple-deal-fuer-20-16-und-10-nm-chips/

http://www.digitimes.com/news/a20130624PD207.html

"Im Juli dieses Jahres soll bereits die Produktion der ersten Apple-Chips bei TSMC in kleinerer Menge anlaufen, berichtet DigiTimes unter Berufung auf Insider-Quellen aus der Industrie weiter. Dies sollen bereits Chips in 20-nm-Technologie sein, die ab Ende Dezember nach und nach zur echten Massenproduktion hochgefahren und im ersten Quartal 2014 einen Ausstoß von 50.000 Wafern erreichen sollen"


"Risk production for its 20nm process kicked off in the first quarter of 2013."

boxleitnerb
2013-06-24, 12:25:45
Wie groß ist so ein SoC? 20x kleiner als eine GPU? Dennoch interessant, dass man vor Beginn der Massenproduktion (siehe Conference Call ein, zwei Seiten vorher) schon für Apple fertigen will.

AnarchX
2013-06-24, 12:59:52
iPad SoCs sind durchaus schon ~150mm² groß: http://en.wikipedia.org/wiki/Apple_System_on_Chips

M4xw0lf
2013-06-24, 13:20:48
Interessant. Das
...das passt jetzt nicht ganz hier in den Thread aber:

20nm vielleicht doch noch 2013?!
InsiderQuellen

http://www.computerbase.de/news/2013-06/tsmc-vor-apple-deal-fuer-20-16-und-10-nm-chips/

http://www.digitimes.com/news/a20130624PD207.html

"Im Juli dieses Jahres soll bereits die Produktion der ersten Apple-Chips bei TSMC in kleinerer Menge anlaufen, berichtet DigiTimes unter Berufung auf Insider-Quellen aus der Industrie weiter. Dies sollen bereits Chips in 20-nm-Technologie sein, die ab Ende Dezember nach und nach zur echten Massenproduktion hochgefahren und im ersten Quartal 2014 einen Ausstoß von 50.000 Wafern erreichen sollen"


"Risk production for its 20nm process kicked off in the first quarter of 2013."
und das
iPad SoCs sind durchaus schon ~150mm² groß: http://en.wikipedia.org/wiki/Apple_System_on_Chips
zusammen lassen Grafikchips in 20nm Anfang 2014 mit eventuell vorherigem Paperlaunch im Q4 dann doch wieder in den Bereich des möglichen rücken...

HOT
2013-06-24, 13:37:20
Der Prozess kann sowohl mehr Performance als auch weniger Stromverbrauch liefern, nur eben nicht gleichzeitig. Von daher ist das "and" ja schon goldrichtig, man darf es eben nicht falsch verstehen ;).

ndrs
2013-06-24, 13:53:59
Naja, wer weiß wieviele Kapazitäten Apple übrig lässt. Bei deren Margen können sie sich bestimmt schwache Yields und hohe Preise eher leisten als die GPU-Hersteller. Außer natürlich bei titanischen Preisen.

Undertaker
2013-06-24, 13:58:11
Man kann problemlos auch einen Arbeitspunkt heranziehen, an dem sich der Prozessvorteil sowohl auf eine Verbrauchsersparnis als auch einen Leistungsgewinn aufteilt. Insofern ist die Formulierung an dieser Stelle absolut nicht eindeutig. Intel hat z.B. bei 22nm von 37% Mehrleistung bei niedrigen Spannungen und 50% Verbrauchsreduktion bei konstanter Performance gesprochen - so ist klar, was gemeint ist.

Rein von den Zahlenwerten muss an dieser Stelle allerdings ein "or" gemeint sein. Die Formulierung bleibt verbesserungswürdig.

AnarchX
2013-06-24, 14:17:35
Naja, wer weiß wieviele Kapazitäten Apple übrig lässt. Bei deren Margen können sie sich bestimmt schwache Yields und hohe Preise eher leisten als die GPU-Hersteller. Außer natürlich bei titanischen Preisen.

Wenn Sony und MS für Ende 2014 möglicherweise auch noch einen 20nm Shrink für ihre Konsolen anzielen, fragt sich wirklich ob die GPUs demnächst bei TSMC nicht zu kurz kommen und ob AMD bei VI vielleicht nicht schon auf GF setzt.

AffenJack
2013-06-24, 14:23:50
Woher willst du wissen, dass die Konsolenchips überhaupt von TSMC kommen? Kann mir gut vorstellen, dass die bei Gf gefertigt werden. Apple und Qualcomm sind da eher die Probleme für die Kapazitäten.

Duplex
2013-06-25, 17:39:48
Woher willst du wissen, dass die Konsolenchips überhaupt von TSMC kommen? Kann mir gut vorstellen, dass die bei Gf gefertigt werden. Apple und Qualcomm sind da eher die Probleme für die Kapazitäten.
Die Konsolen Chips enthalten doch Jaguar Kerne, Jaguar wird bei Kabini eingesetzt und genau wie Bobcat bei TSMC gefertigt, warum soll man auf GF wechseln, wegen Apple & Qualcomm, vielleicht hat AMD mehr Wafer als Apple usw. bestellt.

Konsolenchips bei GF...Könnte AMD auf diesem Wege nicht die Strafzahlungen von GF umgehen?
Es wurde doch berichtet das AMD bei GF weniger Wafer bestellt hat, wenn man die Konsolen Chips & Kabini APUs bei GF fertigt, dann könnte man möglicherweise diese Strafen ausgleichen?

Sry für Offtopic.

S940
2013-06-25, 19:27:46
Die Konsolen Chips enthalten doch Jaguar Kerne, Jaguar wird bei Kabini eingesetzt und genau wie Bobcat bei TSMC gefertigt, warum soll man auf GF wechseln, wegen Apple & Qualcomm, vielleicht hat AMD mehr Wafer als Apple usw. bestellt.
Ne Apple hat langfristige Verträge, da geht nichts.
Außerdem darf man nicht vergessen, dass Jaguar ein synth. Design ist, ein Fab-Wechsel wäre also nicht so aufwändig.

Nightspider
2013-06-26, 02:44:27
iPad SoCs sind durchaus schon ~150mm² groß: http://en.wikipedia.org/wiki/Apple_System_on_Chips

Nehmen wir mal an Apple packt nur zwei weitere CPU Kerne hinzu und hebt die Taktraten um ~30% an.
Dann wäre ein Apple iPad SoC 80-90mm² groß und das iPhone SoC (wegen kleinerer GPU) nur ~60-70mm² groß.

In den Größendimensionen kann man vielleicht schon eine Risk-Produktion riskieren.

Dann hätte Apple im SoC Bereich die Technologieführung und könnte ab 2014 nach und nach schon wieder deutlich günstiger produzieren, was die Gewinnmarge wieder schön hoch hält.
Dann müsste Apple nur einen kurzen Zeitraum mit geringfügig höheren 20nm Preisen aushalten, weil die nur fast halb so großen SoCs nicht so viel teurer wären als selbige in 28nm.

AffenJack
2013-06-26, 07:47:03
Nein, auch dann kann man keine Risk-Produktion riskieren.
Was meinste was los ist, wenn Apples Produkte wegen Problemen dann nen halbes Jahr nicht lieferbar sind bzw verschoben werden müssen. Den Shitstorm kannst du dir nichtmal vorstellen. Vergiss es, Apple ist der letzte der in Risk-Produktion geht.

Skysnake
2013-06-26, 08:47:08
Vor allem bei DEN! Wafermengen, die die am laufen haben werden....

S940
2013-06-26, 09:59:51
Vor allem bei DEN! Wafermengen, die die am laufen haben werden....
Ja und bei Risk-Production müsste man wegen der schlechten Yields mit *noch* mehr Wafer kalkulieren :freak:
AMD zeigt ja, wies nicht gemacht wird ... das ganze xyz-island Chaos war/ist auch ein GF-Problem. Wären die in die Pötte gekommen gäbs sicherlich neue GPUs ... das war schon ein Riesenreinfall.

AnarchX
2013-07-01, 08:32:32
Inpai (http://www.inpai.com.cn/doc/hard/196437.htm)will wohl erfahren haben, dass die neue Generation im Oktober vorgestellt wird. Es wird wohl keine Retail HD 8000 Serie werden, sondern eine andere Bezeichnung. Ebenfalls soll der Erfolg der Radeon 9550 wiederholt werden. :| Die Karte war wohl 2004 ein ziemlicher Erfolg in China und hat die NV3x-Konkurrenten deutlich dominiert.

Nakai
2013-07-01, 09:18:16
Da kommt die HD9-Serie...:biggrin:
Was hab ich gsagt?^^ Aber eigentlich egal, da Namen gleich Schall und Rauch.

boxleitnerb
2013-07-01, 09:36:05
Link geht nicht.
Oktober würde zu den Infos von SweClockers und dem Release von BF4 passen. Ist leider immer noch nicht klar, was genau die Chips nun sind, 20nm oder 28nm :(

fondness
2013-07-01, 09:52:31
Inpai (http://www.inpai.com.cn/doc/hard/196437.htm)will wohl erfahren haben, dass die neue Generation im Oktober vorgestellt wird. Es wird wohl keine Retail HD 8000 Serie werden, sondern eine andere Bezeichnung. Ebenfalls soll der Erfolg der Radeon 9550 wiederholt werden. :| Die Karte war wohl 2004 ein ziemlicher Erfolg in China und hat die NV3x-Konkurrenten deutlich dominiert.

Was genau war eine Radeon 9550? Gabs die bei uns überhaupt zu kaufen? Wäre mir lieber sie würden sich am High-End orientieren und nicht an irgend welchem Mittelklasse Zeug.

Edit: Okay RV360:
http://www.amd.com/us/products/desktop/graphics/other/Pages/9550-specifications.aspx

fondness
2013-07-01, 09:56:56
Link geht nicht.
Oktober würde zu den Infos von SweClockers und dem Release von BF4 passen. Ist leider immer noch nicht klar, was genau die Chips nun sind, 20nm oder 28nm :(

Die bringen niemals eine 20nm Chip im Oktober, da kannst du wohl noch ein Jahr warten bis die ersten kommen. IMO ist die Sache eindeutig, 20nm Chips dieses Jahr gibt die Roadmap von TSMC nicht her.

Duplex
2013-07-01, 10:38:24
Wenn es bei 28nm bleibt, dann hoffe ich das man 3072 Shader sehen wird, wie man bei GK110 sieht muss die Leistungsaufnahme nicht umbedingt höher ausfallen, 2560 Shader sind wohl eindeutig zu wenig gegen GK110.
Warum sollte AMD den Chip nur um 25% mehr Einheiten aufbohren, ich doch lächerlich, GK110 hat 75% mehr Einheiten als GK104 & verbraucht weniger Strom als eine 7970 Ghz.
48 CUs wäre die mitte, das sind 50% mehr als Tahiti XT, damit wäre man mit aufgebohrten Frontend schneller als GK110.

boxleitnerb
2013-07-01, 10:48:18
Die bringen niemals eine 20nm Chip im Oktober, da kannst du wohl noch ein Jahr warten bis die ersten kommen. IMO ist die Sache eindeutig, 20nm Chips dieses Jahr gibt die Roadmap von TSMC nicht her.

Ich wär mir da nicht so sicher. Vorstellung heißt ja auch nicht Auslieferung, kann genauso ein Paperlaunch sein. Sea Islands steht in den Roadmaps mit "28nm" und "2013" drin - das passt dann nicht mit VI@28nm@2013 zusammen. Ich rechne mit einer Vorstellung Ende Oktober, Lieferbarkeit mit sehr hohen Preisen Ende des Jahres.

fondness
2013-07-01, 10:56:07
Ich wär mir da nicht so sicher. Vorstellung heißt ja auch nicht Auslieferung, kann genauso ein Paperlaunch sein. Sea Islands steht in den Roadmaps mit "28nm" und "2013" drin. Wenn die neue GPU aber nun wirklich eine VI-GPU ist, passt das eben nicht zusammen mMn.

Das war schon oft so. Evergreen stand 2010 auf der Roadmap, die erste GPU kam Ende 2009, Northern Islands stand 2011 auf der Roadmap, die erste GPU kam Ende 2010, etc. Bei Southern Islands und Tahiti passte es mit der Vorstallung im Januar, aber sonst war das eher die Regel denn die Ausnahme. Wäre also keine Überraschung wenn Volcanic Islands Q4/2013 antanzt und es passt auch sehr gut zu den offiziellen Angaben von AMD, die stets nur bis ins Q3 gehen. Im übrigen passt die Roadmap ohnehin nicht mehr, hier hat man wohl auch bewusst versucht die Konkurrenz möglichst lange im unklaren zu lassen, denn Sea Islands wurde ja größtenteils eingestellt.

Wenn das Design fertig ist, und offenbar deutliche Verbesserungen bringt, der Prozess aber noch länger auf sich warten lässt, ist es IMO nur logisch nicht auf den Prozess zu warten, sondern den Chip eben auf einen verfügbaren Prozess umzusetzen. Hat man bei Cayman auch so gemacht, der war auch ursprünglich für 32nm geplant, welcher dann von TSMC gecancelt wurde.

boxleitnerb
2013-07-01, 11:02:16
Ich habe mal wo gelesen, dass AMD nicht mehr nach Architektur benennt, sondern nach Jahr. Glaube das war auf Semiaccurate. Sea Islands wären demnach alle GPUs für 2013, egal ob HD8970 OEM, Bonaire, die iGPUs in Kabini usw.
Demnach gibt es Sea Islands schon seit geraumer Zeit, daher müsste Volcanic Islands was Neues sein.

fondness
2013-07-01, 11:10:50
Ich habe mal wo gelesen, dass AMD nicht mehr nach Architektur benennt, sondern nach Jahr. Glaube das war auf Semiaccurate. Sea Islands wären demnach alle GPUs für 2013, egal ob HD8970 OEM, Bonaire, die iGPUs in Kabini usw.
Demnach gibt es Sea Islands schon seit geraumer Zeit, daher müsste Volcanic Islands was Neues sein.

Ich verstehe nicht worauf die hinaus willst. Das VI eine neue Architektur wird, während CI eher ein Aufguss war sollte klar sein.

boxleitnerb
2013-07-01, 11:12:51
Ich will darauf hinaus, dass die Benennung gar nicht mehr auf die Architektur abzielt. Und dass ich nicht glaube, es gibt zwei "Refreshes"@28nm (bzw. Umbenennungen).

fondness
2013-07-01, 11:18:35
Ich will darauf hinaus, dass die Benennung gar nicht mehr auf die Architektur abzielt. Und dass ich nicht glaube, es gibt zwei "Refreshes"@28nm (bzw. Umbenennungen).

Nachdem CI bis auf die zwei Lowend-Chips eh nicht stattgefunden hat, ist das nicht mal ein Widerspruch. Und es ergibt Null Sinn das man die Chips nach dem Jahr benennt. CI hat doch klare technische Veränderungen gegenüber SI, das ist auch alles entsprechend dokumentiert. Da kann man nicht einfach sagen jeder Chip der 2013 erscheint ist CI.

boxleitnerb
2013-07-01, 11:21:43
AMD war sich soweit ich weiß selbst unsicher, was die Benennung anging (Sea Islands vs. Central Islands (oder Canary Islands - es wurde glaube ich nie ausgeschrieben)). Dave Baumann hat mal auf beyond3d gesagt, was Sea Islands ist. Ich frag dort mal nach. Jedenfalls glaube ich eben nicht an zwei 28nm-"Generationen".

fondness
2013-07-01, 11:22:49
AMD war sich soweit ich weiß selbst unsicher, was die Benennung anging (Sea Islands vs. Central Islands (oder Canary Islands - es wurde glaube ich nie ausgeschrieben)). Dave Baumann hat mal auf beyond3d gesagt, was Sea Islands ist. Ich frag dort mal nach. Jedenfalls glaube ich eben nicht an zwei 28nm-"Generationen".

Die Öffentlichkeit war sich unsicher. ;)
AMD kürzt Sea Islands mit C.I. ab, deshalb die Verwirrung. ;)
Das geht alles aus der technische Dokumentation hervor.

Ansonsten ergibt es keinen Sinn das du das am Prozess fest machst, 28nm bleibt eben länger aktuell als andere Prozesse, deshalb ist es nur logisch das dort auch mehr "Generationen" hervorgehen. Wenn VI im Q4 erscheint wären es annähernd zwei Jahre seit Tahiti, also völlig im Rahmen. Dank des erprobten Prozesses kann man hier auch etwas schneller launchen, zudem soll 20nm eh nicht viel bringen.

Nightspider
2013-07-01, 11:29:03
Hoffentlich kündigt man die ersten 20nm Karten an.
Wir brauchen mehr Bewegung im GPU Markt.

V2.0
2013-07-01, 11:34:22
20nm im Oktober - geil Und ich habe euch ja gesagt die neue Generation kommt pünktlich zu BF4.

Skysnake
2013-07-01, 11:36:22
Das Ganz C.I. Geraffel kommt doch von Charlie (SA), der sich einen Spaß daraus gemacht hat manche Sachen/Namen zu ändern, um die Leute ausfindig zu machen, die Null eigene Quellen haben, sondern nur abschreiben. Da gabs doch letztes/dieses Jahr zich Abwatschartikel von Ihm an die Pressekollegen.

Nightspider
2013-07-01, 11:41:30
20nm im Oktober - geil Und ich habe euch ja gesagt die neue Generation kommt pünktlich zu BF4.

Vorstellung != Release

Spasstiger
2013-07-01, 12:12:29
Was genau war eine Radeon 9550? Gabs die bei uns überhaupt zu kaufen? Wäre mir lieber sie würden sich am High-End orientieren und nicht an irgend welchem Mittelklasse Zeug.

Edit: Okay RV360:
http://www.amd.com/us/products/desktop/graphics/other/Pages/9550-specifications.aspx
Die Radeon 9550 war damals ein kleines Taktwunder, konnte mit Luftkühlung um 100% übertaktet werden (250 MHz -> 500 MHz). Ansonsten hat die Karte außer vielleicht noch der niedrige Preis imo nichts ausgezeichnet.

MR2
2013-07-01, 12:31:34
Die Radeon 9550 war damals ein kleines Taktwunder, konnte mit Luftkühlung um 100% übertaktet werden (250 MHz -> 500 MHz). Ansonsten hat die Karte außer vielleicht noch der niedrige Preis imo nichts ausgezeichnet.

Vielleicht meinen die ja die Radeon 9000 Serie aka 9700pro:-)

Coda
2013-07-01, 12:45:05
Ich bin ja mal gespannt ob sie endlich ihre Rasterizer ordentlich parallelisiert bekommen.

M4xw0lf
2013-07-01, 13:07:33
Ich bin ja mal gespannt ob sie endlich ihre Rasterizer ordentlich parallelisiert bekommen.

Ist das das Problem warum die SP-Skalierung so suboptimal ausfällt?

john carmack
2013-07-01, 13:17:13
Die bringen niemals eine 20nm Chip im Oktober, da kannst du wohl noch ein Jahr warten bis die ersten kommen. IMO ist die Sache eindeutig, 20nm Chips dieses Jahr gibt die Roadmap von TSMC nicht her.


hatten wir das nicht schon?

http://www.macerkopf.de/2013/06/24/iphone-6-und-ipad-6-mit-20nm-a8-chip-von-tsmc/

"TSMC will start to manufacture Apple’s A8 chips in small volume in July 2013, and substantially ramp up its 20nm production capacity after December..."

Also geplant ist es schon... Nu ob AMD da mitmischt weiß wohl keiner!

TSMC kann also schon 2013 20nm Chips liefern!

Kriton
2013-07-01, 13:19:29
Ich habe mal wo gelesen, dass AMD nicht mehr nach Architektur benennt, sondern nach Jahr. Glaube das war auf Semiaccurate. Sea Islands wären demnach alle GPUs für 2013, egal ob HD8970 OEM, Bonaire, die iGPUs in Kabini usw.
Demnach gibt es Sea Islands schon seit geraumer Zeit, daher müsste Volcanic Islands was Neues sein.

AFAIR bezog sich das nicht auf die Codenamen, sondern auf die Nummerierung (7000er bzw. 8000er-Reihe). Gerade auch im Hinblick darauf, dass man künftig eher "evolutiv" hinsichtlich der Implementierung technischer Änderungen herangehen möchte anstatt wie bisher eine eindeutige Architektur pro Reihe zu haben.

Botcruscher
2013-07-01, 13:28:27
TSMC kann also schon 2013 20nm Chips liefern!

Welche, wie viele, zu welchem Preis und wann sind die Probleme. Ich sehe im Oktober noch keine 20nm GraKa in meinem System.

john carmack
2013-07-01, 13:31:52
Inpai (http://www.inpai.com.cn/doc/hard/196437.htm)will wohl erfahren haben, dass die neue Generation im Oktober vorgestellt wird. Es wird wohl keine Retail HD 8000 Serie werden, sondern eine andere Bezeichnung. Ebenfalls soll der Erfolg der Radeon 9550 wiederholt werden. :| Die Karte war wohl 2004 ein ziemlicher Erfolg in China und hat die NV3x-Konkurrenten deutlich dominiert.


Ist die Seite denn "Vertrauenswürdig" ?

john carmack
2013-07-01, 13:33:45
Welche, wie viele, zu welchem Preis und wann sind die Probleme. Ich sehe im Oktober noch keine 20nm GraKa in meinem System.

Da geb ich dir Recht - bei mir auch nicht!
Aber ein 20nm Paperlaunch ist jedenfalls im Bereich des machbaren.

Skysnake
2013-07-01, 14:04:53
Glaub ich nicht, werden wir ja aber in ein paar Monaten sehen.

Ich bin noch immer der festen Überzeugung, das wir sowohl von AMD als auch von nVidia insgesamt drei 28nm Generationen sehen werden.

S940
2013-07-01, 14:14:49
Glaub ich auch nicht 20nm ist schon lange als "problematisch" (teuer und bringt nicht viel) angekündigt, wieso sollten die Hersteller da große Eile haben.

Da würde ich die Hürden noch höher schrauben. Falls Paperlaunch, dann auch nur vom nem teuren Expotendie á la Titan mit geringer Stückzahl. Riesige Dies sind bei nem neuen Prozess aber auch ne schlechte Idee .. ergo ist es am Wahrscheinlichsten, dass wirklich nichts kommt. Wären wir noch in den Boom-Jahren könnte man es sich überlegen ob es einem Hersteller der Marketingeffekt wert wäre, aber in der aktuellen Krise .. ne.

MadManniMan
2013-07-01, 14:17:45
Die Radeon 9550 war damals ein kleines Taktwunder, konnte mit Luftkühlung um 100% übertaktet werden (250 MHz -> 500 MHz). Ansonsten hat die Karte außer vielleicht noch der niedrige Preis imo nichts ausgezeichnet.

Also konnte man ohne Probleme die 9550, welche eine zusammengekürzte 9600 war, problemlos auf das Taktniveau der 9600 setzen :tongue:

Nightspider
2013-07-01, 14:18:53
Glaub ich auch nicht 20nm ist schon lange als "problematisch" (teuer und bringt nicht viel) angekündigt, wieso sollten die Hersteller da große Eile haben.

Bleiben doch noch viel Vorteile übrig.
Deutliche Flächeneinsparung und 20% Effizienter.
Für den Anfang reicht das.

john carmack
2013-07-01, 14:29:23
Hoffentlich kommt AMD dann auch mal mit einer neuen NamensKonvention.

Das Aktuelle NamensSchema hat mir noch nie gefallen.

Das letzte gut war mMn X800XT :D

Damals konnte ich meine 420€ X800PRO auf eine 580€ teure X800XT PE flashen :)

reaperrr
2013-07-01, 14:35:57
Bleiben doch noch viel Vorteile übrig.
Deutliche Flächeneinsparung und 20% Effizienter.
Für den Anfang reicht das.
Yields und Wafer-Preise dürften anfangs so viel ungünstiger sein, dass ein 300mm²-Chip in 20nm deutlich teurer in der Herstellung und schlechter verfügbar als ein 500mm² 28nm-Chip wäre. Da bringen es die 20% mehr Effizienz dann auch nicht.

Nightspider
2013-07-01, 14:47:01
Yields und Wafer-Preise dürften anfangs so viel ungünstiger sein, dass ein 300mm²-Chip in 20nm deutlich teurer in der Herstellung und schlechter verfügbar als ein 500mm² 28nm-Chip wäre. Da bringen es die 20% mehr Effizienz dann auch nicht.

Ungünstiger? Also teurer?

Dafür hätte ein 300mm² Chip in 20nm fast so viele Transistoren wie ein 600mm² in 28nm. ;) Mindestens wie 550mm².

Der Chip hat eine deutlich kleinere Fläche in 20nm und kostet sicherlich weniger als ein fast doppelt so großer Chip in 28nm. (ausgenommen Risk-Production !!)

Die Kosten pro Transistor sanken von 40nm auf 28nm auch stark, wenn auch nicht SO stark wie von 55nm auf 40nm. Schau dir die gigantischen Gewinne von Nvidia an. Dort wurde massiv ins eigene Portemonai gesteckt.

Wenn ich mich nicht irre war 28nm "nur" 30% teurer als 40nm. Das Hauptproblem bleibt die Lieferbarkeit. Hätte AMD aber einen guten Deal mit TSMC abgeschlossen, könnte es klappen zum bis zum Jahreswechsel. Auch wenn das unterm Strich nur homäopatische Dosen sind und man sich die Exclusivität dann wieder extra vergolden lässt.

Wobei 20nm bisher unter einem besseren Stern steht als 28nm damals, was Verfügbarkeit angeht. 28nm hatte massive Probleme zu beginn während 20nm sogar ein Monate vor Zeitplan bereit ist für die Massenproduktion.

Vielleicht rüstet TSMC auch mehr Fabriken gleichzeitig auf 20nm auf, als damals.

Screemer
2013-07-01, 14:48:53
Bleiben doch noch viel Vorteile übrig.
Deutliche Flächeneinsparung und 20% Effizienter.
Für den Anfang reicht das.
dazu mal ein zitat ausm xboxo-ps4-thread
Also wenn die früheren Projektionen z.B. von TSMC eintreffen, dann könnten wir eventuell sehr lange auf 20nm Shrinks warten. Eventuell sieht man nur Chips auf 20nm, die sonst absolut nicht mehr in 28nm zu fertigen wären (>600mm²) oder wenn z.B. das Stromverbrauchssziel anders nicht zu erreichen ist. Denn mit 20nm wird wohl erstmals der Preis pro Transistor nicht wesentlich sinken (20nm Wafer >60% teurer als 28nm, schlechterer Yield, höhere Kosten für Masken usw.). Wenn man also einen fertigen Chip in 28nm hat, warum sollte man den shrinken, wenn sich dadurch die Produktionskosten praktisch nicht senken lassen? Nur wegen dem bißchen Stromverbrauch (vermutlich ~20% weniger) zig Millionen dafür ausgeben?

Nightspider
2013-07-01, 14:55:24
So nach dem Mott: keiner will&wird 20nm nutzen? :rolleyes:

Gipsel schreibt ja selbst: der Preis pro Transistor WIRD sinken, nur eben NICHT SO STARK wie früher!

Gut möglich das die Mainstream-Chips vorerst in 28nm bleiben, wo auch am meisten Chips benötigt werden. Das ist mir aber auch völlig Wurscht.
Ich will große Chips in 20nm die SO nicht in 28nm realisierbar wären, wie Gipsel eben schon schreibt.
Klar wäre es in diesem Jahr noch viel zu früh für riesige 20nm Chips, außer alles läuft wie von Zauberhand viel besser als früher.

Vielleicht bringt AMD aber auch erst Notebook-Chips in 20nm, oder die kleinsten Einsteiger-Chips.
Es zwingt ja keiner AMD oder Nvidia gleich die gesamte Produktpalette in 20nm auf den Markt zu werfen. Ein Mix aus 28 und 20nm wäre möglich.

Abgesehen davon, wäre ein ~270-320mm² Chip in 20nm nicht ZU groß aber würde eine Titan Karte vernichten, zerschmettern, wegblasen. Und für so eine Karte gibt es ja genug Käufer, die 750-1000 Euro hinlegen, wie man gesehen hat.
Mit dem einzigen Nachteil, das der Stromverbrauch über Titan liegen würde, wegen der nur 20% besseren Effizienz aber welchen HighEnder juckt schon der Stromverbrauch.^^

HOT
2013-07-01, 14:58:07
Na ja, AMD brachte beim Tahiti schon einen 28nm High-End-Chip als es kaum jemand für möglich hielt, kann sein, dass sie jetzt wieder so handeln. Die große Frage ist nur, ob die Kosten das wirklich zulassen. Ich halte alles für möglich - 20nm, 28nm TSMC (beide GateLast HKMG), 28nm bulk, 28FDSOI GloFo (beide GateFirst HKMG).
Laut Prognosen und Datenblättern (also auf dem Papier), wäre, wenn sie es hinbekommen, 28FDSOI der effizienteste Prozess, was Kosten/Leistung angeht (effizienter als 20nm planar/bulk und ca. 30% bis 50% billiger). Das wär mein Favouritenprozess für VI.

Nightspider
2013-07-01, 15:03:26
Selbst ein kleiner 250mm² Chip in 20nm mit neuer Architektur würde es mit Titan aufnehmen können und das liegt auf jeden Fall im Bereich des möglichen. Zumindest solange NV kein Vollausbau GK110-Titan herausbringt.
Man schau sich nur an wie kastriert Titan ist: geringe Taktrate und beschnittener Chip

fondness
2013-07-01, 15:04:21
Abgesehen davon, wäre ein ~270-320mm² Chip in 20nm nicht ZU groß aber würde eine Titan Karte vernichten, zerschmettern, wegblasen. Und für so eine Karte gibt es ja genug Käufer, die 750-1000 Euro hinlegen, wie man gesehen hat.


Wie kommst du darauf? Ein GK110-Shrink auf 20nm würde durchaus bei >300mm² liegen. Das war nur in der Vergangenheit so, da AMD immer die deutlich effizienteren Designs hatte.

Nightspider
2013-07-01, 15:07:22
Bei 320mm² (20nm) könnte AMD schon fast die doppelte Transistorzahl verbauen (>75% mehr), wie bei der 7970.
Und selbst eine 7970GE ist nur ~20% langsamer als eine Titan in den meisten Anwendungsfällen.

Nach billiger Milchmädchenrechnung meinerseits braucht AMD nicht viel um NV, auf gut Deutsch gesagt, auf die Fresse zu hauen. ;)

Falls ich bei meiner Denkweise etwas vergessen habe, lasse ich mich jedoch gern belehren.

Leonidas
2013-07-01, 15:21:33
Also wenn die früheren Projektionen z.B. von TSMC eintreffen, dann könnten wir eventuell sehr lange auf 20nm Shrinks warten. Eventuell sieht man nur Chips auf 20nm, die sonst absolut nicht mehr in 28nm zu fertigen wären (>600mm²) oder wenn z.B. das Stromverbrauchssziel anders nicht zu erreichen ist. Denn mit 20nm wird wohl erstmals der Preis pro Transistor nicht wesentlich sinken (20nm Wafer >60% teurer als 28nm, schlechterer Yield, höhere Kosten für Masken usw.). Wenn man also einen fertigen Chip in 28nm hat, warum sollte man den shrinken, wenn sich dadurch die Produktionskosten praktisch nicht senken lassen? Nur wegen dem bißchen Stromverbrauch (vermutlich ~20% weniger) zig Millionen dafür ausgeben?


Das ist eine gute Eingebung. 20nm für HighEnd-Chips - und dann bleibt es erstmal beim bestehenden Portfolio, die kleinen Chips rücken erst dann nach, wenn 20nm bei TSMC billige Massenware wird (sprich wenn 16nm schon fast reif ist). Neue Generationen würden dann wirklich nur scheibchenweise auf die neue Fertigung umgestellt und nicht mehr so schnell wie möglich.

Ist eigentlich eine logische Entwicklung des abnehmenden Vorteils neuer Fertigungstechnologien, daß die eben dann nur noch dort eingesetzt werden, wo es gar nicht mehr anders geht - dort, wo man mit alter Fertigungstechnologie unproduzierbare Monsterchips fertigen würde.

Für NV würde das bedeuten, daß der GK110-Nachfolger unter 20nm kommen muß. AMD hingegen könnte es durchaus schaffen, einen R1000-Nachfolger auch noch unter 28nm zu quetschen - bei 550mm² sicherlich, aber machbar. Die Frage ist dann nur, ob 550mm² unter 28nm oder 300mm² unter 20nm günstiger sind. Die dürfte anfänglich primär eine Frage des Ausschusses von 20nm sein TSMC sein.

HOT
2013-07-01, 15:28:54
Selbst ein kleiner 250mm² Chip in 20nm mit neuer Architektur würde es mit Titan aufnehmen können und das liegt auf jeden Fall im Bereich des möglichen. Zumindest solange NV kein Vollausbau GK110-Titan herausbringt.
Man schau sich nur an wie kastriert Titan ist: geringe Taktrate und beschnittener Chip
20nm sind nicht wirklich 20nm. So kann man das nicht rechnen. Da bin ich auch schon öfter drauf reingefallen. Das wird ja jetzt noch krasser; TSMCs 16nm sind ja in Wirklich 20nm mit FinFETs, also sowas wie GloFos 14XM. Die Namen haben schon lange nichts mehr mit den realen Prozessen zu tun.
NV wird sicherlich im Laufe des Jahres 2014 auf 20nm planar schrumpfen und später dann auf "16nm", also 20nm FinFETs umsteigen, aber AMD hat da eben noch andere Optionen, die evtl. schneller zum Erfolg führen könnten.

Duplex
2013-07-01, 15:42:37
20nm sind nicht wirklich 20nm. So kann man das nicht rechnen. Da bin ich auch schon öfter drauf reingefallen. Das wird ja jetzt noch krasser; TSMCs 16nm sind ja in Wirklich 20nm mit FinFETs, also sowas wie GloFos 14XM. Die Namen haben schon lange nichts mehr mit den realen Prozessen zu tun.
Das interessiert auch niemanden, Hauptsache die Anzahl der Transistoren wird verdoppelt.

NV wird sicherlich im Laufe des Jahres 2014 auf 20nm planar schrumpfen und später dann auf "16nm", also 20nm FinFETs umsteigen, aber AMD hat da eben noch andere Optionen, die evtl. schneller zum Erfolg führen könnten.
Selbst wenn AMD für mehrere Monate vorne liegen würde, was würde das bringen? Nvidia hat permanent mehr Gewinn als AMD im GPU Markt.

Nightspider
2013-07-01, 15:43:07
Für NV würde das bedeuten, daß der GK110-Nachfolger unter 20nm kommen muß. AMD hingegen könnte es durchaus schaffen, einen R1000-Nachfolger auch noch unter 28nm zu quetschen - bei 550mm² sicherlich, aber machbar. Die Frage ist dann nur, ob 550mm² unter 28nm oder 300mm² unter 20nm günstiger sind. Die dürfte anfänglich primär eine Frage des Ausschusses von 20nm sein TSMC sein.

Ausgehend vom Stromverbrauch der HD7970 [(GE)] wäre 20nm wohl schon von großem Vorteil, selbst wenn es nur 20% sind.
Solange AMD nur diesen einen Chip in den ersten Monaten in 20nm fertigt, könnten die Kapazitäten reichen.

20nm sind nicht wirklich 20nm. So kann man das nicht rechnen. Da bin ich auch schon öfter drauf reingefallen. Das wird ja jetzt noch krasser; TSMCs 16nm sind ja in Wirklich 20nm mit FinFETs, also sowas wie GloFos 14XM. Die Namen haben schon lange nichts mehr mit den realen Prozessen zu tun.
NV wird sicherlich im Laufe des Jahres 2014 auf 20nm planar schrumpfen und später dann auf "16nm", also 20nm FinFETs umsteigen, aber AMD hat da eben noch andere Optionen, die evtl. schneller zum Erfolg führen könnten.

Nagut aber Prozentual sollte sich die Transistordichte doch gleich verhalten, auch wenn die Zahlen Nanometer-Zahlen andere sind oder?

Kriton
2013-07-01, 17:37:31
Selbst wenn AMD für mehrere Monate vorne liegen würde, was würde das bringen? Nvidia hat permanent mehr Gewinn als AMD im GPU Markt.

Ok, stellen wir den Betrieb ein, bringt eh nix...

Knuddelbearli
2013-07-01, 17:47:12
20nm sind nicht wirklich 20nm. So kann man das nicht rechnen. Da bin ich auch schon öfter drauf reingefallen. Das wird ja jetzt noch krasser; TSMCs 16nm sind ja in Wirklich 20nm mit FinFETs, also sowas wie GloFos 14XM. Die Namen haben schon lange nichts mehr mit den realen Prozessen zu tun.
NV wird sicherlich im Laufe des Jahres 2014 auf 20nm planar schrumpfen und später dann auf "16nm", also 20nm FinFETs umsteigen, aber AMD hat da eben noch andere Optionen, die evtl. schneller zum Erfolg führen könnten.

ganz extrem wirds ja bei intel der 22nm Prozess ist ja eigentlich ( einige Typen habens an einer uni gemessn ) 35nm oder so

Duplex
2013-07-01, 17:48:53
Ok, stellen wir den Betrieb ein, bringt eh nix...
Im GPU Markt betrug der Gewinn zuletzt nur 3% vom Umsatz, das ist echt arm für AMD :rolleyes:

Locuza
2013-07-01, 18:01:05
Nagut aber Prozentual sollte sich die Transistordichte doch gleich verhalten, auch wenn die Zahlen Nanometer-Zahlen andere sind oder?
Theoretisch schon. Bei TSMC habe ich etwas von Faktor 1,9 gelesen, bei GloFo 1.6x. Aber 14xm ist auf jeden Fall irreführend für jeden der das nur oberflächlich betrachtet. Ich nenne es einfach 14+20nm Prozess. Mit FinFets kommt nur eine Flächeneinsparung von 3-10%.

ganz extrem wirds ja bei intel der 22nm Prozess ist ja eigentlich ( einige Typen habens an einer uni gemessn ) 35nm oder so
Ich meine bei Intels 22nm waren es 26nm und bei TSMCs 28nm Prozess 33nm.

Im GPU Markt betrug der Gewinn zuletzt nur 3% vom Umsatz, das ist echt arm für AMD :rolleyes:
Generell ist da eine Menge arm, aber die einzige Sparte die Gewinn macht würde ich relativ schon als reich bezeichnen.

Schaffe89
2013-07-01, 18:02:57
Es doch sinnfreie Polemik die du da bringst @ Duplex, hör doch mal auf mit den Plattitüden, das eine hat mit dem anderen nichts zu tun.
Alles auf den Gewinn zu reduzieren unter dem Motto " das bringt nix" ist höchstens Lovesuckz like, schmück dich doch nicht mit fremden Federn.:freak:

Nightspider
2013-07-01, 18:07:56
Mit FinFets kommt nur eine Flächeneinsparung von 3-10%.

War das nicht sogar stärker davon abhängig, welche Struktur man abbilden will? Speicherzellen konnte man mit FinFETs ja glaube noch enger stapeln oder?

Locuza
2013-07-01, 21:48:32
War das nicht sogar stärker davon abhängig, welche Struktur man abbilden will? Speicherzellen konnte man mit FinFETs ja glaube noch enger stapeln oder?
Ich habe nur allgemein gelesen das FinFets kaum Flächeneinsparung bringen, da die Middle-of-Line (MOL) und Back-End-of-Line (BEOL) bei den selben 20nm Design Regeln bleiben und nur die Front-End-of-line (FEOL) auf die 14/16nm schrumpft.
Laut SA soll Samsung da ein bisschen mehr Richtung Dichte optimieren.

Aber hier mal ein ganz netter Artikel zu der ganzen Thematik:
http://www.elektroniknet.de/halbleiter/prozessoren/artikel/98082/2/

Ich fand es sehr angenehm zu lesen, vor allem da etwas realistischer eingeschätzt wird wann welche Fertigung zu erwarten ist.

Spasstiger
2013-07-01, 23:07:46
Also konnte man ohne Probleme die 9550, welche eine zusammengekürzte 9600 war, problemlos auf das Taktniveau der 9600 setzen :tongue:
Genau, mit etwas Glück waren die Taktraten der 9600 XT drin und die hatte mit dem gleichen Chip (RV360) einen doppelt so hohen Chiptakt wie die 9550. Und ich glaube, die 9600 XT war zweimal oder dreimal so teuer. Die 9550 war sowas ein Geheimtipp für Übertaktungswillige, sonst aber ziemlich lahm. Die 9600 XT war dagegen ganz vernünftig, in der heutigen Situation vielleicht ähnlich wie die GTX 760.

Knuddelbearli
2013-07-02, 04:42:39
naaj bei amd ist halt auch die frage wie die kosten / gewinne der apu aufgeteilt werden. der gpu teil wird ja bei F+E sicher unter GPU geführt aber der Gewinn geht wohl komplett in die CPU Abteilung

prinz_valium
2013-07-02, 16:40:25
gut, dass ich hier registriert bin.
das war mir bisher echt alles neu, dass SO VIEL bei den nm geschummelt wird :D

da nennt man etwas strukturgröße und das wort hat so seinen sinn bald fast verfehlt


edit:


Ich meine bei Intels 22nm waren es 26nm und bei TSMCs 28nm Prozess 33nm.

bei tsmc hätte ja auch ein normaler 33nm prozess kommen sollen.
aber man hat ja half node übersprungen und auf full node gegangen.

kann man das als laie jetzt so verstehen, dass 28nm sowieso nur quasi ein 33nm "advanced" prozess ist, und er deswegen 33nm große transistoren hat?

Nakai
2013-07-02, 17:42:56
Ich weiß zwar nicht, welche Chips alles Ende des Jahres kommen, jedoch sieht es so aus, dass wir nicht soviele Chips unter VI unter 28nm sehen werden.
Bonaire wurde erst veröffentlich und hält mindestens noch einige Weile. Mars im Notebookbereich ist auch ein netter Chip. Ich gehe davon aus, dass diese Chips wiederverwendet werden. Ich geh einfach mal davon aus, dass Hawai in 20nm Mitte nächsten Jahres kommt. So bleiben Tonga und Vesuvius für dieses Jahr.
Tonga könnte als HD98xx kommen und ~20% schneller als Tahiti sein.
Vesuvius ist eher der Pitcairnnachfolger, ebenfalls +20% schneller als dieser.
Damit wären Bonaire und Mars immer noch gerechtfertigt und würden das Portfolio nach unten abrunden.

Hawai ist ganz interessant und wäre damit ein heftiger HPC-Chip.

Ahja um mal wieder richtig super dolle Spekulatius zu betreiben:

Hawai:
4fach Frontend
4096 SPs
256 TMUs
64 ROPs
384Bit

Tonga
4fach Frontend
2560 SPs
160 TMUs
48 ROPs
256Bit

Vesuvius
2fach Frontend
1536 SPs
96 TMUs
32 ROPs
256Bit

Bonaire
2fach Frontend
896 SPs
56 TMUs
16 ROPs
128Bit

Mars
1fach Frontend
384 SPs
24 TMUs
8 ROPs
128Bit

Ahja, die Daten lassen eigentlich eine stärkerere Performance andeuten. VI soll eine bessere Effizienz haben, was man eigentlich nur über den Takt realisieren kann. Ich geh mal eher von 850 - 900MHz für alle Topmodelle der Chips aus.

Spekulatius Ende.
TSMC schriebt über ihren 20nm Prozess, dass er 1.9xDichte, 25% schnneller und 20% weniger Strom verbraucht. Mal guckn.

fondness
2013-07-02, 17:50:38
VI soll eine bessere Effizienz haben, was man eigentlich nur über den Takt realisieren kann.

Das ist natürlich falsch. Es gibt unzählige Möglichkeiten im Chip-Design um die Perf/Watt zu erhöhen, das ist natürlich alles andere als trivial.

S940
2013-07-02, 17:51:25
Ich habe nur allgemein gelesen das FinFets kaum Flächeneinsparung bringen, da die Middle-of-Line (MOL) und Back-End-of-Line (BEOL) bei den selben 20nm Design Regeln bleiben und nur die Front-End-of-line (FEOL) auf die 14/16nm schrumpft.
Ich bin mittlerweile zu der Auffassung gekommen, dass da überhaupt nichts geschrupft wird.

Deswegen schreibt GF selbst auch gar nicht mehr "nm" ran, sondern nennt den Prozess "14XM", wobei XM für "extenden mobility" steht. Mit "-meter" hat das nichts mehr zu tun, schaut aber halt fast so aus ... ein Schelm wer Böses dabei denkt ..

14xm ist auf deutsch nichts anderes als 20nm mit Finfets und nem schöneren Namen. Marketing sonst nichts. So schlimm wie das Umlabeln bei den Grafikkarten ists zwar nicht, Finfets bieten Pi*Daumen einen Leistungssprung in Größenordnungen einer vollen Fertigungsnode, aber die Fläche schrumpft halt nicht, und für die hatte man bisher eigentlich ja die Nanometerzahl hergenommen.

Am Besten konnte man den Schmuh bei den FD-SOI Nodes sehen. Da gings letztes Jahr immer um 20nm FD-SOI nach der ersten FDSOI Node bei 28nm. In der Pressemitteilung zw. GF und STM steht,zB, dass STM FDSOI in 28 und 20nm bei GF herstellen lassen wird.

Aber nach GFs "14XM"-Präsentation im Herbst hat sich STM diese Logik (20nm+X = 14xy) zu eigen gemacht und 20nm FDSOI mal schnell in 14nm FDSOI umbenannt. FDSOI bringt schließlich auch ungefähr soviel wie eine volle Fertigungsnode. Da passierte überhaupt nichts anderes. STM ist sogar noch etwas dreister als GF und benützt immer noch die Nanometerbezeichnung. Sie hättens wenigstens mit 14FDSOI oder so tarnen können. Aber nein, auf den Roadmaps steht 14nm FDSOI ...

Ergo: Augenwischerei für diejenigen, die sich nicht auskennen, wie wir hier im Forum, bzw. v.a. für die noch dümmeren "Analysten".

In Zukunft würde ich dazu übergehen die SRAM-Zell-Größen zu vergleichen, die haben wenigstens noch ne direkten Verbindung zur Größe und das ist einfacher als Contact pitch / Gate-Länge oder Metal-Gate-Pitch getrennt zu untersuchen.

Nakai
2013-07-02, 18:05:16
Das ist natürlich falsch. Es gibt unzählige Möglichkeiten im Chip-Design um die Perf/Watt zu erhöhen, das ist natürlich alles andere als trivial.

Ja das stimmt natürlich. Die Frage ist doch eher, was wird passieren? Derzeit müsste das Frontend endlich mal aufgebohrt werden, da würde schon ordentlich was gehen. Andere Verbesserungen innerhalb der Chiparchitektur gibt es auch, siehe Bonaire, welcher schon einiges besser ist, als Cape Verde, aber kaum mehr verbraucht. Taktreduzierung hat viele andere Vorteile. Weniger Leckströme, niedrigere Spannung, etc. Umso breiter eine Architektur ist, desto größer sind die Sparmöglichkeiten, siehe derzeit GPU von Tegra4, welche sehr hoch taktet im Vergleich zur Konkurrenz.

john carmack
2013-07-02, 22:36:27
Aber hier mal ein ganz netter Artikel zu der ganzen Thematik:
http://www.elektroniknet.de/halbleiter/prozessoren/artikel/98082/2/

Ich fand es sehr angenehm zu lesen, vor allem da etwas realistischer eingeschätzt wird wann welche Fertigung zu erwarten ist.


Super Artikel - einfach zu lesen, auch für "anfänger" gut :)

OBrian
2013-07-03, 14:11:39
In Zukunft würde ich dazu übergehen die SRAM-Zell-Größen zu vergleichen, die haben wenigstens noch ne direkten Verbindung zur Größe und das ist einfacher als Contact pitch / Gate-Länge oder Metal-Gate-Pitch getrennt zu untersuchen. Oder man verabschiedet sich insgesamt von der Nanometer-Zahl, denn die bringt wegen der inzwischen stark unterschiedlichen Fertigungsverfahren auch keine Vergleichbarkeit mehr.

Vergleichen kann man sowieso nicht mehr, weil es auch keine annähernd gleichen Chips mehr gibt. Früher war das viel einfacher, als es in sehr ähnlicher 0.8-µm-Fertigung ziemlich ähnliche 386er von Intel und AMD gab, da konnte man schnell sehen, wer früher einen bestimmten Punkt erreicht und wie gut die Fertigung war. Aber heute kann man nur noch das Gesamtpaket aus Chiparchitektur und Fertigung zum gleichen Zeitpunkt betrachten. Die Frage, wie Bulldozer in Intel-Fertigung performen würde, ist genauso sinnlos wie zu fragen: "Wenn Elefanten fliegen könnten, würden sie dann auch Eier legen?"

Knuddelbearli
2013-07-03, 17:31:06
gibts doch noch immer speicherzellen

wieviele slc mlc tlc usw zelle pro zoll drauf passen zB

Gipsel
2013-07-03, 17:37:56
gibts doch noch immer speicherzellen

wieviele slc mlc tlc usw zelle pro zoll drauf passen zB
Flash-Speicher (oder Speicher allgemein) nutzt völlig andere Prozesse.

Knuddelbearli
2013-07-03, 18:04:29
ja geht ja nur um die vergleichbarkeit und nicht um masenfertigung

ist halt etwas einfaches

2phil4u
2013-07-04, 21:20:04
Den Artikel habe ich doch bereits gepostet vor Wochen.

fondness
2013-07-06, 19:50:13
Ein weiteres Indiz, das für einen VI-Launch im frühen Q4 spricht:

AMD To Discontinue Radeon HD 7990 Dual Chip GPU in Q3 2013 – Preps For Next Gen Launch (http://wccftech.com/amd-discontinue-radeon-hd-7990-dual-chip-gpu-q3-2013/#ixzz2YHyNqCrZ)

Ailuros
2013-07-06, 20:01:24
Ich hab den thread hier nicht besonders verfolgt in letzter Zeit aber mehr als einen quasi refresh unter 28nm erwarte ich persoenlich dieses Jahr von AMD nicht.

w0mbat
2013-07-06, 21:32:24
Ich würde mal abwarten. Ich habe gehört, dass man die Single-GPU Performancekrone wieder will. Noch dieses Jahr.

Nightspider
2013-07-06, 22:24:41
Wo hast du das gehört?

Da muss AMD aber mindestens 30-40% drauflegen, denn Nvidia kann relativ schnell eine Karte mit GK110 im Vollausbau rausbringen und diese dann noch 10% höher takten. Macht nochmal ~20% mehr Leistung auf Titan oben drauf.

M4xw0lf
2013-07-06, 22:32:23
Nvidia kann relativ schnell eine Karte mit GK110 im Vollausbau rausbringen und diese dann noch 10% höher takten.
Können sie? Möchte ich anzweifeln. Je eines von beiden vielleicht, zusammen wirds das nicht geben.

Godmode
2013-07-06, 22:37:56
Können sie? Möchte ich anzweifeln. Je eines von beiden vielleicht, zusammen wirds das nicht geben.

Das geht ganz einfach.

1. Chips selektieren
2. besserer Kühler
3. 300W TDP

Und fertig ist das neue Produkt. Der Basistakt ist doch wirklich das lächerlichste an Titan. Schau dir mal an was die Teile mit besserer Kühlung packen. Der zusätzliche SMX macht jetzt was TPD angeht auch nicht mehr viel aus.

Nightspider
2013-07-06, 22:38:04
Wieso nicht? GTX480 war heißer, lauter und hat mehr Strom gefressen. Dagegen ist der GK110 in der Titan nur ein Wolf im Schafspelz.

w0mbat
2013-07-06, 22:50:06
Wo hast du das gehört?

Geht so als Gerücht rum.


Da muss AMD aber mindestens 30-40% drauflegen, denn Nvidia kann relativ schnell eine Karte mit GK110 im Vollausbau rausbringen und diese dann noch 10% höher takten. Macht nochmal ~20% mehr Leistung auf Titan oben drauf.

Wenn...

Godmode
2013-07-06, 22:54:09
Man kann nur hoffen das AMD mal wieder was auf die Beine stellt, das würde wieder etwas leben in den High-End Markt bringen.

w0mbat
2013-07-06, 22:55:20
Naja, bis vor kurzem war die HD7970 GHz noch Top-Tier und NV lief hinter her.

Godmode
2013-07-06, 23:18:05
Naja, bis vor kurzem war die HD7970 GHz noch Top-Tier und NV lief hinter her.

Die 680 war jetzt nicht soviel langsamer. Und wenn die 7970 schneller gewesen wäre, hätten sie vermutlich auch die Titan bzw. 780 schneller released.

Skysnake
2013-07-06, 23:29:23
hätten Sie kaum machen können. Schau dir doch mal an, wann die ersten GK110 i. Handel aufgetaucht sind. Das ist erst sehr spät passiert.

Schaffe89
2013-07-06, 23:45:56
Macht nochmal ~20% mehr Leistung auf Titan oben drauf.

Von 14 auf 15 SMX bringt jetzt nicht wirklich viel. ( 5%)
Man müsste also 14% mehr Takt draufpacken, um auf 20% zu kommen.

Sollte also AMD´s HD 9970 40% schneller werden als die HD 7970 ghz, wird es Nvidia aus meiner Sicht nicht schaffen die schnellste Grafikkarte zu stellen, eher etwas auf dem gleichen Niveau.

Ich hoffe aber mal, dass die HD 9970 gleich mit 6GB Speicher kommt.^^

Nightspider
2013-07-06, 23:47:46
Wieso 5%? Bei mir sind das 7,14% von 14 auf 15 SMX, also wären das 17,14%

=Floi=
2013-07-07, 00:29:41
es geht nicht um den performancegewinn, sondern dass es endlich ein voller chip wäre.

Duplex
2013-07-07, 01:08:08
Ich hab den thread hier nicht besonders verfolgt in letzter Zeit aber mehr als einen quasi refresh unter 28nm erwarte ich persoenlich dieses Jahr von AMD nicht.
Möglicherweise kein großer Chip in 28nm, 40 CUs aka 2560 Shader mit optimierten Binning (mehr Takt), ca. 20-25% mehr Performance als die 7970 Ghz Editon, damit wäre man mit der GTX780 was die Performance angeht in etwa gleichauf, die Leistungsaufnahme war bisher bei den Refreshs von AMD immer höher als die bisherigen Top Modelle, könnte also sein das man bzgl. Stromverbrauch wieder hinter Nvidia liegen wird.

Ich habe gehört, dass man die Single-GPU Performancekrone wieder will. Noch dieses Jahr.
Bulldozer Fiasko *scnr*

Dafür braucht es ein großen Frontend mit mehr Einheiten oder ein größerer Chip z.b. 48 CUs aka 3072 Shader. Ich bezweifel das AMD 500mm² Chips bauen wird, ich denke man wird weiterhin kleinere Chips als Nvidia bauen, Cayman war auch nicht besonders größer als Cypress bei selber Fertigung, es war damals 17% mehr Fläche, 334 vs. 390mm² und der Stromverbrauch war deutlich höher!

Können sie? Möchte ich anzweifeln. Je eines von beiden vielleicht, zusammen wirds das nicht geben.
Warum nicht? Unterschätze nicht Nvidia, nicht nachdem Sie mit GK110 beste arbeit geleistet haben, Stromverbrauch kaum höher als GK104 & das bei 75% mehr Einheiten bei beachtlichen 551mm² DIE Space!

Eine neue Revision mit 2880 Shader (15-SMX) & etwas mehr Takt (10-15%) dank optimierten Binning kann man evtl. hinbekommen.

hätten Sie kaum machen können. Schau dir doch mal an, wann die ersten GK110 i. Handel aufgetaucht sind. Das ist erst sehr spät passiert.
Weil Nvidia schon vorher wusste das Tahiti XT mit 365mm² kein großer Wurf sein wird, GK104 hat 512 Einheiten weniger als Tahiti XT und ist trotzdem schneller als AMD GCN Design, das Frontend von AMD arbeitet ineffizient, deshalb skalieren die Einheiten von GCN so scheisse!

Von 14 auf 15 SMX bringt jetzt nicht wirklich viel. ( 5%)
Man müsste also 14% mehr Takt draufpacken, um auf 20% zu kommen.
1 SMX besteht auf 192 Shader, 14 > 15-SMX sind 7,5% mehr Einheiten (2688x1,075=2880)

Warum sollte Nvidia damit ein Problem haben den Takt anzuheben? GK110 hat mit neuer Revision mehr Takt & Einheiten bei reduzierten Stromverbrauch möglich gemacht!

Du siehst bei Kepler bereits das ende in sicht :rolleyes: Ich aber nicht!


Sollte also AMD´s HD 9970 40% schneller werden als die HD 7970 ghz, wird es Nvidia aus meiner Sicht nicht schaffen die schnellste Grafikkarte zu stellen, eher etwas auf dem gleichen Niveau.
Ich bezweifel das AMD große Chips bauen wird, die werden geschätzt 20% mehr Fläche als Tahiti XT nutzen, ca. 440mm².

RV870 hatte 100% mehr Einheiten als RV770, war aber nur 60-70% schneller und das mit einem Fullnode Shrink, haha! Siehst du für deine 40% werden mind. 48 CUs mit 3072 Shader fällig.

Iruwen
2013-07-07, 01:15:23
Von 14 auf 15 SMX bringt jetzt nicht wirklich viel. ( 5%)
Man müsste also 14% mehr Takt draufpacken, um auf 20% zu kommen.

Sollte also AMD´s HD 9970 40% schneller werden als die HD 7970 ghz, wird es Nvidia aus meiner Sicht nicht schaffen die schnellste Grafikkarte zu stellen, eher etwas auf dem gleichen Niveau.

Ich hoffe aber mal, dass die HD 9970 gleich mit 6GB Speicher kommt.^^

Selbst wenn: zu welchem Preis. Eine 10% schnellere Karte zum doppelten Preis kann NV getrost behalten. Aber ich glaub einfach mal nicht dass AMD soviel drauflegt. Falls doch wäre das äußerst erfreulich. Viel Spielraum bei der TDP gibts ja nicht.

Duplex
2013-07-07, 01:19:40
Wenn die Ghz Editon nicht gekommen wäre, dann hätte man gesagt der Refresh auf 28nm Basis wird 25% schneller, das wäre heute nur 15% mehr als die Ghz Edition, AMD hat den 28nm Refresh auf Q4 verschoben, man kann daher mit etwas mehr Takt rechnen, also bei 40 CUs aka 2560 Shader 20-25% mehr Perfomance als die Ghz Edition.

aufkrawall
2013-07-07, 01:43:38
hätten Sie kaum machen können. Schau dir doch mal an, wann die ersten GK110 i. Handel aufgetaucht sind. Das ist erst sehr spät passiert.
Für Tahiti XT brauchts keinen GK110, GTX 770 OC-Varianten halten die GE in Schach.

Knuddelbearli
2013-07-07, 01:47:23
Warum nicht? Unterschätze nicht Nvidia, nicht nachdem Sie mit GK110 beste arbeit geleistet haben, Stromverbrauch kaum höher als GK104 & das bei 75% mehr Einheiten bei beachtlichen 551mm² DIE Space!

Und was soll daran besonderes sein? Fast doppelt so breiter Chip mit gut 20% geringeren Takt wird immer deutlich effizienter sein wie der kleinere. Das könnte sogar AMD wenn sie möchten ^^ Ist halt die Frage ob es sich auch rechnet

fondness
2013-07-07, 09:23:05
Ich hab den thread hier nicht besonders verfolgt in letzter Zeit aber mehr als einen quasi refresh unter 28nm erwarte ich persoenlich dieses Jahr von AMD nicht.

VI ist zumindest eine neue Architektur aka GCN2.0, welche auch gegen NVs Maxwell antreten wird. Da kann man durchaus etwas mehr erwarten als einen "quasi refresh".
28nm dürfte hingegen fest stehen, 20nm Chips dürften dieses Jahr kaum machbar sein. Allerdings scheint der 20nm Prozess eh nicht viel zu bringen, von daher dürfte das zu verschmerzen sein.
In 20nm kommt dann eben der Refresh Pirates Islands. Ist ohnehin sinnvoller eine neue Architektur erst mal in einen bewährten Prozess zu bringen und dann den Refresh zu shrinken, ähnlich mcht es ja auch Intel mit ihrem Tick-Tock-Modell.

Godmode
2013-07-07, 09:24:24
hätten Sie kaum machen können. Schau dir doch mal an, wann die ersten GK110 i. Handel aufgetaucht sind. Das ist erst sehr spät passiert.

Ich dachte die ersten GK110 wurden im September an die Super Computer ausgeliefert?