PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - HD8000 alias Sea Islands (2013er HD 7000)


Seiten : [1] 2 3 4 5

Skysnake
2012-01-02, 10:10:56
Tja, der Codename für die HD8000 ist wohl jetzt raus.

Wie Donanimhaber.com berichtet von einem ehemaligen AMD Engineer, der in seinem Tätigkeitsbericht die Arbeit an mehreren GPUs nennt. Darunter auch Evergreen, Northern Islands, ....

Und eben Southern Islands, sowie Sea Islands, was der Codename für die HD8000er Serie sein sollte.

Dann mal auf ein freudiges spekulieren ;D

Quelle: http://www.donanimhaber.com/ekran-karti/haberleri/AMD-Radeon-HD-8000-serisinin-kod-adi-Sea-islands.htm[/URL


Mögliche Codenamen:
AMD6600.1 = "MARS (6600)"
AMD6601.1 = "MARS (6601)"
AMD6602.1 = "MARS (6602)"
AMD6603.1 = "MARS (6603)"
AMD6606.1 = "MARS (6606)"
AMD6607.1 = "MARS (6607)"
AMD6620.1 = "MARS (6620)"
AMD6621.1 = "MARS (6621)"
AMD6623.1 = "MARS (6623)"
AMD6610.1 = "OLAND (6610)"
AMD6611.1 = "OLAND (6611)"
AMD6631.1 = "OLAND (6631)"
AMD682B.1 = "VENUS LE"
AMD6823.4 = "VENUS PRO"
AMD6821.1 = "VENUS XT"
AMD6820.2 = "VENUS XTX"

http://forums.guru3d.com/showpost.php?p=4335465&postcount=14 (http://www.donanimhaber.com/ekran-karti/haberleri/AMD-Radeon-HD-8000-serisinin-kod-adi-Sea-islands.htm)

Updates:
AMD Sea Islands: Oland, Bonaire, Hainan, Curacao, Aruba (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9683616#post9683616)
AMD Solar Systems: Mars, Sun, Neptune, Venus

http://hwinfo.com/

Neue Roadmap:
http://img705.imageshack.us/img705/6109/003ue.jpg
[url]http://www.4gamer.net/games/135/G013536/20130208088/


ISA:
Sea Islands ISA:
http://developer.amd.com/wordpress/media/2013/02/AMD_Sea_Islands_Instruction_Set_Architecture.pdf

Gipsel to the rescue ;D

Unterschiede:

Important differences between S.I. and C.I. GPUs

•Multi queue compute
Lets multiple user-level queues of compute workloads be bound to the device and processed simultaneous. Hardware supports up to eight compute pipelines with up to eight queues bound to each pipeline.
•System unified addressing
Allows GPU access to process coherent address space.
•Device unified addressing
Lets a kernel view LDS and video memory as a single addressable memory. It also adds shader instructions, which provide access to “flat” memory space.
•Memory address watch
Lets a shader determine if a region of memory has been accessed.
•Conditional debug
Adds the ability to execute or skip a section of code based on state bits under control of debugger software. This feature adds two bits of state to each wavefront; these bits are initialized by the state register values set by the debugger, and they can be used in conditional branch instructions to skip or execute debug-only code in the kernel.
•Support for unaligned memory accesses
•Detection and reporting of violations in memory accesses

Summary of kernel instruction change from S.I. to C.I.


New instruction formats:
•FLAT

New instructions:
•FLAT_* (entire family of operations)
•S_CBRANCH_CDBGUSER
•S_CBRANCH_CDBGSYS
•S_CBRANCH_CDBGSYS_OR_USER
•S_CBRANCH_CDBGSYS_AND_USER
•S_DCACHE_INV_VOL
•V_TRUNC_F64
•V_CEIL_F64
•V_FLOOR_F64
•V_RNDNE_F64

AMD SEA ISLANDS SE R IES TECHNOLOGY
xiv Preface
Copyright © 2013 Advanced Micro Devices, Inc. All rights reserved.
•V_QSAD_PK_U16_U8
•V_MQSAD_U16_U8
•V_MQSAD_U32_U8
•V_MAD_U64_U32
•V_MAD_I64_I32
•V_EXP_LEGACY_F32
•V_LOG_LEGACY_F32
•DS_NOP
•DS_GWS_SEMA_RELEASE_ALL
•DS_WRAP_RTN_B32
•DS_CNDXCHG32_RTN_B64
•DS_WRITE_B96
•DS_WRITE_B128
•DS_CONDXCHG32_RTN_B128
•DS_READ_B96
•DS_READ_B128
•BUFFER_LOAD_DWORDX3
•BUFFER_STORE_DWORDX3

Removed instructions:
•V_QSAD_U8
•V_MQSAD_U8
•BUFFER_ATOMIC_RSUB, _X2
•IMAGE_ATOMIC_RSUB, _X2


Fudzilla: New AMD graphics card coming in April - Mid-range HD 7790 based on Bonaire XT GPU (http://fudzilla.com/home/item/30530-new-amd-graphics-card-coming-in-april)

Radeon HD 7790 kommt Anfang April mit 896 Shadern (http://www.heise.de/newsticker/meldung/Radeon-HD-7790-kommt-Anfang-April-mit-896-Shadern-1816636.html)
Im Vergleich zur Radeon HD 7850 soll die Radeon HD 7790 rund 10 Prozent langsamer sein. Gerüchte, wonach die Radeon HD 7790 die 1-GByte-Version der Radeon HD 7850 ablösen soll, ließen sich nicht durch valide Quellen absichern. Auch die Frage, ob Bonaire tatsächlich ein neuer Grafikchip ist oder nur ein abgespeckter Pitcairn, bleibt bis dato unklar.


Hainan aka Sun:

The interesting thing (if you look at the code) is that Hainan has no display controllers (and no UVD) - essentially looks like Mars/Oland but with that (and 1 CU) stripped off. Though I might have got that information about CUs wrong but it decidedly looks like low-end.

Correct, its a notebook chip (A.K.A. Sun).
http://forum.beyond3d.com/showpost.php?p=1736330&postcount=1289
http://www.techpowerup.com/gpudb/1905/radeon-hd-8550m.html

GPU Name: Sun
Process Size: 28 nm
Transistors: 520 million
Die Size: 52 mm²

Released: Jan 8th, 2013

hardtech
2012-01-02, 18:42:35
kommt der chip in 28nm?
ich vermute, es wird lange dauern bis die hd7k reihe abgelöst wird.

Knuddelbearli
2012-01-02, 19:57:27
also ich denke eher das das recht schnell gehen wird auf jedenfall noch 2012

Locuza
2012-01-02, 20:03:23
kommt der chip in 28nm?
ich vermute, es wird lange dauern bis die hd7k reihe abgelöst wird.

Muss er ja. Bis zum nächsten Node wird AMD wohl kaum warten. Anfang 2013 oder Ende 2012, falls AMD das Bedürfnis verspürt es 2012 noch ankündigen zu müssen :tongue:

Ich hoffe auf ein verbessertes Frond-End. Endlich irgend etwas, was die Rohleistung auch vernünftig auf den Boden bringt und besser skaliert, als das jetztige. Ich mache mir da aber irgendwie wieder so wenig Hoffnung, weil AMD so etwas mit einem Refresh Chip und dann nach GCN vllt gar nicht machen will :frown:
Ich würde mich gerne überraschen lassen, aber AMD kenne ich irgendwie anders.

Der_Korken
2012-01-02, 20:04:49
Vielleicht einfach ein etwas besserer Refresh für die kommende 7000er-Serie. Dort könnte AMD vielleicht das Frontend aufbohren, gepaart mit mehr Takt und niedrigeren Spannungen, bei nicht/kaum steigender Shaderzahl. Viel mehr wird auf 28nm kaum Sinn machen und da sie bei den 7000ern bereits die 900er Nummern verbraten haben, müssen sie es HD8k nennen :D.

y33H@
2012-01-02, 20:10:07
Exclusive: The next generation AMD GPU is NOT called Sea Islands
So that ends today’s one line story turned in to a page long exposure of plagiarism and how to get things wrong in a headline. The next AMD GPU family is called Canary Islands, not Sea Islands, and there is no Sea Islands.

http://semiaccurate.com/2012/01/02/the-next-generation-amd-gpu-is-not-called-sea-islands/

Skysnake
2012-01-02, 20:29:55
danke, habe ich auch gerade gelesen, aber da warste schneller ;)

Knuddelbearli
2012-01-02, 21:25:34
wie stehen eigentlich die Chancen das es vielleicht 3 28nm Generationen gibt? 28nm muss ja selbst wenn alles nach Plan läuft 2,5 Jahre durchhalten.

Jetzt die 7000er, spät im jahr 2012 dann die 8000er als Kepler Konter, und dann Mitte Ende 2013 noch die 9000er ( die dann wirklich Sea Islands heißt )

Wobei die 8000er nur sowas ist wie die GTX 500er war. gleicher Chip mit nur minimalen Änderungen. Eventuell 4CU dazu und ein dazu ein gutes Stück mehr Takt durch die dann bessere Fertigung bei fast gleichem Verbrauch.

Ailuros
2012-01-03, 00:24:41
wie stehen eigentlich die Chancen das es vielleicht 3 28nm Generationen gibt?

Gering.

28nm muss ja selbst wenn alles nach Plan läuft 2,5 Jahre durchhalten.

Q1 2012 zu Q3/4 2013 sind 2.5 Jahre? 20nm wird zwar in Q3 oder sogar Q4 nicht produktionsreif sein, aber es wuerde mich nicht wundern wenn wir wieder von Marketing-heinis von 20nm GPUs innerhalb 2013 versichert werden.

Jetzt die 7000er, spät im jahr 2012 dann die 8000er als Kepler Konter, und dann Mitte Ende 2013 noch die 9000er ( die dann wirklich Sea Islands heißt )

Sea islands ist kein realer Codename. Ausser Tahiti GPUs werden 8950/8970 genannt, bist Du mir verdammt optimistisch mit dem zweiten 28nm Schub.

Wobei die 8000er nur sowas ist wie die GTX 500er war. gleicher Chip mit nur minimalen Änderungen. Eventuell 4CU dazu und ein dazu ein gutes Stück mehr Takt durch die dann bessere Fertigung bei fast gleichem Verbrauch.

TahitiXT hat mit ihrem 210W TDP genug Luftraum gelassen fuer zusaetzliche Leistung die einem Refresh wuerdig sein duerfte. Es wird aber wohl auch den Stromverbrauch des Nachfolgers beinflussen.

Knuddelbearli
2012-01-03, 00:30:36
Q1 2012 zu Q3/4 2013 sind 2.5 Jahre? 20nm wird zwar in Q3 oder sogar Q4 nicht produktionsreif sein, aber es wuerde mich nicht wundern wenn wir wieder von Marketing-heinis von 20nm GPUs innerhalb 2013 versichert werden.





20nm an sich ja aber sicher nicht 20nm für grafikkarten. wenn es danach geht ist 28nm auch schon seit sommer bei tsmc ready
laut tscm läuft der 28nm HP seit Ende Oktober.


und 20nm G ( was zwar ein Hp prozess ist aber nciht der für GPUS ) aber 4 Quartal 2013

Felixxz2
2012-01-03, 00:41:03
Eventuell 4CU dazu und ein dazu ein gutes Stück mehr Takt durch die dann bessere Fertigung bei fast gleichem Verbrauch.

Würde das denn was bringen? Selbst bei Tahiti verhungern ja schon viele der 32 CUs, wenn man sieht das von den 3,8 TFLOP/s vielleicht 1,9 auf den Boden kommen.

Sollten sie lieber mal das Front End auf 4x aufstocken, das dürfte die Leistung schon enorm steigern.

Ailuros
2012-01-03, 00:41:48
20nm an sich ja aber sicher nicht 20nm für grafikkarten. wenn es danach geht ist 28nm auch schon seit sommer bei tsmc ready
laut tscm läuft der 28nm HP seit Ende Oktober.

Als NV sich noch sicher war dass sie es mit Kepler in 2011 noch schaffen, zeichnete ihre vorige roadmap Kepler fuer 2011 und Maxwell fuer 2013 ein. Heute lautet sie sicherheitshalber Kepler/2012 und Maxwell/2014.

und 20nm G ( was zwar ein Hp prozess ist aber nciht der für GPUS ) aber 4 Quartal 2013

Och 20nm wird vielleicht noch unangenehmer ueberraschen als 28nm, aber das ist momentan eher nebenwichtig.

Aber zurueck zum eigentlichen Thema: zwischen Cypress und Cayman lagen genau wie viele Monate? 6, 12 oder vielleicht sogar 15?

Knuddelbearli
2012-01-03, 00:50:05
Würde das denn was bringen? Selbst bei Tahiti verhungern ja schon viele der 32 CUs, wenn man sieht das von den 3,8 TFLOP/s vielleicht 1,9 auf den Boden kommen.

Sollten sie lieber mal das Front End auf 4x aufstocken, das dürfte die Leistung schon enorm steigern.

Ja, damit würde ich in meiner THEORIE mit der 9er Reihe rechnen.
8er wäre Primär ein Refresh für ein wenig Mehr Leistung und die dann hoffentlich endlich gut funktionierende 28nm auszunutzen. Eben ähnlich wie die 580, das ging auch damals in 8? Monaten. und da die 7er Rehe recht früh erschienen ist im Gegensatz zur 480er damals wäre dann Platz für 3 Reihen.

Vor Anfang 2014 braucht man wirklich nicht mit 20nm rechnen. TSMC sagt jaa selber min 2 Jahre.. würde sogar eher Mitte 2014 rechnen.

aber wie gesagt das alles nur meine Spekulatius ^^

Felixxz2
2012-01-03, 01:14:14
Naja bei Cayman hat AMD ja auch das Front End aufgebohrt. Dass es jetzt so mikrig ist liegt ja nur an GPGPU, weil man da kein Front End braucht. Vielleicht wird die 8970 eine 7970 mit 4x Front End und 1-1,2GHz?

Skysnake
2012-01-03, 08:53:54
Warum sollte man das Front-End massiv aufbohren?

Das schleppt man nur mit sich rum, und sooooo viele Karten werden nicht im High-End-Bereich abgesetzt. Wenn kann ich mir eher eine Teilung vorstellen, ergo die kleinen GPUs gehen mehr in Richtung 3D-Graphik und die großen mehr in Richtung GPGPU. Die Enthusiasten kaufen doch dennoch das High-End Modell, weil es halt etwas schneller ist, als das Midrange-Modell.

Ich glaub auch eher, das nVidia diese Strategie weiterführt, was ja mit Fermi schon angerissen wurde in meinen Augen mit GF1x0 und dem GF1x4

reaperrr
2012-01-03, 17:02:44
Warum sollte man das Front-End massiv aufbohren?

Das schleppt man nur mit sich rum, und sooooo viele Karten werden nicht im High-End-Bereich abgesetzt. Wenn kann ich mir eher eine Teilung vorstellen, ergo die kleinen GPUs gehen mehr in Richtung 3D-Graphik und die großen mehr in Richtung GPGPU. Die Enthusiasten kaufen doch dennoch das High-End Modell, weil es halt etwas schneller ist, als das Midrange-Modell.

Ich glaub auch eher, das nVidia diese Strategie weiterführt, was ja mit Fermi schon angerissen wurde in meinen Augen mit GF1x0 und dem GF1x4

Außerdem: Ist vielleicht schonmal jemandem der Gedanke gekommen, dass AMD überhaupt nur so viele SP verbauen kann WEIL das Front-End relativ simpel gehalten ist?

Alles hat seine Vor- und Nachteile, und alles hat seinen Preis. Wenn es so einfach wäre, ein deutlich besseres Front-End ohne deutlich mehr Entwicklungs- und Transistoraufwand aus dem Boden zu stampfen, hätte AMD das sicher schon getan.

Edit: Was hätte z.B. ein besseres Front-End, dass die Leistung pro MHz um ca. 15% erhöht, gebracht wenn der Chip dadurch 30-40mm² größer wird, bei gleichem Takt merklich mehr Strom verbraucht und 5 Monate später erscheint?

Zergra
2012-01-03, 17:19:16
Je nacht verfügbarkeit von Southern Island wird die 8000serie noch diesen Jahr kommen... aber auch nur dann wenn Nvidia was besseres als die 7000serie rausbringt... sonst wird AMD da garnichts Releasen....

Ist ja ähnlich wie in der Autoindustrie... da werden auch nur Autos gebaut die etwas sparsammer sind.... die hätte zwar schon alles pläne dafür aber warum sollten sie die Bauen ? Einfach immer etwas besser sein... das machen AMD und NV schon seid Jahren so.... immer etwas besser-> soviel das die Kunden sich neue KArten kaufen... dann rück NV nach und bringt wieder etwas bessere raus... ein Katz und Maus Spiel worunter wir leider leiden... denn wir könnten wesentlich mehr für Leistung haben können wenn das nicht der fall ist.

-> HD7000 -> vllt. GTX 600 eher nicht... -> GTX 700 -> HD 8000
das heißt die kommen erst wenn NV eine Bessere Karte als die HD7k rausbringt ....

Duplex
2012-01-03, 17:23:47
Je nacht verfügbarkeit von Southern Island wird die 8000serie noch diesen Jahr kommen... aber auch nur dann wenn Nvidia was besseres als die 7000serie rausbringt... sonst wird AMD da garnichts Releasen....
Nix mit aber auch nur...Die Katze wird Tahiti alt aussehen lassen!!!
Tahiti XT ist im Durchschnitt doch nur 20% vor GF110, Kepler wird mit sicherheit mind. 50% schneller als GF110, also 30% mehr Leistung als Tahiti XT :D

Zergra
2012-01-03, 17:27:08
Tahiti XT ist im Durchschnitt doch nur 20% vor GF110, Kepler wird mit sicherheit mind. 50% schneller als GF110, also 30% mehr Leistung als Tahiti XT :D
Naja eher nicht... wer sagt das ? Kepler (600serie)wird sie eher nur im Mittelsegment austoben ? sie werden vllt. ein Gutes P/L verhältnix haben aber ob sie damit Tahiti XT knacken ist abzuwarten... Spekulationen sind aber immer da :P

Knuddelbearli
2012-01-03, 18:06:07
Nix mit aber auch nur...Die Katze wird Tahiti alt aussehen lassen!!!
Tahiti XT ist im Durchschnitt doch nur 20% vor GF110, Kepler wird mit sicherheit mind. 50% schneller als GF110, also 30% mehr Leistung als Tahiti XT :D

und ? die 580 ist mom auch ca 22% schneller als die 6970, und ist amd dadurch der markt weggebrochen ?

LovesuckZ
2012-01-03, 18:13:52
und ? die 580 ist mom auch ca 22% schneller als die 6970, und ist amd dadurch der markt weggebrochen ?

Ja?!
Schau dir deren GPU-Zahlen an und vergleiche sie mit dem letzten Jahr.
Der Gewinn ist massiv eingebrochen in den ersten 9 Monaten. Dagegen konnte AMD in den ersten 6 Monaten vom Jahr 2010 deutlich mehr Gewinn machen.

Knuddelbearli
2012-01-03, 18:36:08
ja da waren sie auch mit abstand der leader, 30% mehr Leistung, Dx11, 20% weniger Verbrauch, und sogar günstiger als die GTX 285 ( sofern verfügbar ). NV war das aber nicht, die 20% Mehrleistung erkaufen sie sich durch 30% mehr Verbrauch.

ATI dürfte in den 3 Monaten jetzt bis die Konkurenz kommt sogar mehr verdienen als damals in den 6 Monaten. Gewinn pro Karte ist ja locker 4 mal so hoch. ( doppelter Preis bei ca gleichen herstellungskosten )

Bucklew
2012-01-03, 18:41:13
ATI dürfte in den 3 Monaten jetzt bis die Konkurenz kommt sogar mehr verdienen als damals in den 6 Monaten. Gewinn pro Karte ist ja locker 4 mal so hoch. ( doppelter Preis bei ca gleichen herstellungskosten )
Freu dich lieber nicht zu früh.

boxleitnerb
2012-01-03, 18:46:34
Und die Absatzzahlen werden ja auch so hoch sein...bei 550 Dollar/Euro. Wer's glaubt.

Zergra
2012-01-03, 18:49:06
Und die Absatzzahlen werden ja auch so hoch sein...bei 550 Dollar/Euro. Wer's glaubt.
Klar werden sie das .... es gibt ziemlich viele Leute die IMMER das beste auf dem Markt haben wollen und es sich dann auch kaufen.... auch wenn ich das etwas krank finde wird es wohl so sein.... und es kommen ja auch die kleineren Serien..

boxleitnerb
2012-01-03, 18:52:48
Nun, mit Highend verdient man nicht soviel wie mit entsprechend voluminösem Midrange. Und wenn die Lieferbarkeit schlecht ist, wovon ich mal ausgehe, erst recht nicht. So meinte ich das eigentlich.

Duplex
2012-01-03, 18:57:36
und ? die 580 ist mom auch ca 22% schneller als die 6970, und ist amd dadurch der markt weggebrochen ?
Hab ich etwas von Absatz geschrieben :rolleyes:
Ich schrieb "Die Katze wird Tahiti alt aussehen lassen!!!"
Und mit +30% mehr Leistung wird das ein richtig geiles Abenteuer :D

Knuddelbearli
2012-01-03, 18:59:45
Und die Absatzzahlen werden ja auch so hoch sein...bei 550 Dollar/Euro. Wer's glaubt.


580 wird auch genug verkauft und P/L dürfte bei der 7970 bei Verfügbarkeit mit ~470€ minimal besser sein, halt mit den typischen pro und contras von amd und NV die am ende recht ausgeglichen sind.

selbst wenn es nur halb soviele karten sind wie damals bei der 5870 machen sie sicher jetzt deutlich mehr gewinn.

Zergra
2012-01-03, 19:07:57
Hab ich etwas von Absatz geschrieben :rolleyes:
Ich schrieb "Die Katze wird Tahiti alt aussehen lassen!!!"
Und mit +30% mehr Leistung wird das ein richtig geiles Abenteuer :D
Naja die +30% sind aber leider fragwürdig... und eher unwarscheinlich -> klar wäre es schön wenn es so wäre.... dann würde AMD sich auch mal wirklich anstregen um da wieder hinterherzukommen denn wer weiß was die 700serie bringen wird... -> also eher keine 30% sonder max. 10- 20 aber nicht mehr vllt sogar weniger :O

Duplex
2012-01-03, 19:25:04
Ich denke mal du beziehst dich auf GK104 vs. Tahiti, Gerüchte hin und her sprechen von GTX580 Niveau für GK104.
Ich bezog mich aber auf GK100 der wieder eine ganze Nummer größer ist.
30% sind nichts, Nvidia könnte den aktuellen GF110 in 28nm auf 300mm² shrinken und den GPU Takt auf 1Ghz erhöhen, dann hätte man auto. einen neuen Tahiti Gegner mit Nvidia Qualiät und könnte AMD bzgl. DIE Space & Preise aber richtig hart angreifen!

Blediator16
2012-01-03, 19:31:38
Ich denke mal du beziehst dich auf GK104 vs. Tahiti, Gerüchte hin und her sprechen von GTX580 Niveau für GK104.
Ich bezog mich aber auf GK100 der wieder eine ganze Nummer größer ist.
30% sind nichts, Nvidia könnte den aktuellen GF110 in 28nm auf 300mm² shrinken und den GPU Takt auf 1Ghz erhöhen, dann hätte man auto. einen neuen Tahiti Gegner mit Nvidia Qualiät und könnte AMD bzgl. DIE Space & Preise aber richtig hart angreifen!

Bis zum Sommer hin ist etwas Zeit für OC Versionen.

Zergra
2012-01-03, 19:32:12
Haben sie aber nichts davon :O
stimmt es geht um GK104 .... den der wird eine ganze ecke früher rauskommen.... GK100 wird wohl noch min. ein halbes Jahr dauern und danach muss AMD auch nachlegen.... naja aber das ist ja noch lange hin und wir sprechen ja hier erstmal nur von dem was kommt oder nicht ?

Schnitzl
2012-01-03, 20:06:26
Ihr Pappnasen wisst schon IN WELCHEM THREAD IHR SEID???

Ist doch echt nicht zu fassen!

Zergra
2012-01-03, 20:24:40
Klar wissen wir das es ging doch um den vergleich von HD8k / GK 104/00... wenn was für eine Leistung die HD8k haben könnte :O

Felixxz2
2012-01-03, 20:26:38
und ? die 580 ist mom auch ca 22% schneller als die 6970, und ist amd dadurch der markt weggebrochen ?

Wohl eher 10%.

Ailuros
2012-01-03, 21:40:06
Wenn ich anfange die OT Beitraege zu loeschen ist der halbe Thread weg. Von jetzt ab bleibt bitte beim eigentlichen Thema und es handelt sich um nichts anderes als "Canary islands"; alles irrelevante von jetzt ab wird geloescht werden. Danke

Ailuros
2012-01-03, 21:50:41
Ja, damit würde ich in meiner THEORIE mit der 9er Reihe rechnen.
8er wäre Primär ein Refresh für ein wenig Mehr Leistung und die dann hoffentlich endlich gut funktionierende 28nm auszunutzen. Eben ähnlich wie die 580, das ging auch damals in 8? Monaten. und da die 7er Rehe recht früh erschienen ist im Gegensatz zur 480er damals wäre dann Platz für 3 Reihen.

Ich hab immer noch keine anstaendige Antwort darauf bekommen wieso es zwischen Cypress und Cayman 15 Monate dauerte obwohl der letzte ja "brutale" Aenderungen mit sich brachte.... :rolleyes:

Es liegt GAR NICHTS krumm mit 28nm als Herstellungsprozess; dass die yields bzw. Kapazitaeten am Anfang beschissen sind ist ein total anderes Kapitel. Was brachte denn Cayman so uebertolles bezueglich Leistung im Vergleich zu Cypress auf den Tisch genau und um wieviel steigerte sich genau der Stromverbrauch?

Vielleicht bekomm ich eine Antwort aufs obrige beim dritten Versuch....

Vor Anfang 2014 braucht man wirklich nicht mit 20nm rechnen. TSMC sagt jaa selber min 2 Jahre.. würde sogar eher Mitte 2014 rechnen.

aber wie gesagt das alles nur meine Spekulatius ^^

Ja und? Mein Gegen-Spekulatius waere dass die Anfrage fuer SoCs fuer alle Maerkte mit den sie bedient werden (von smart-phones bis zu PCs und TV sets) brutal in naechster Zeit steigen werden und dank finanzieller Krise dediziertes und ueber dem mainstream standalone PC Zeug wird Stueck fuer Stueck entweder bei Stillstand liegen oder ein laecherlich kleines Prozentual zunehmen.

Das obrige hat natuerlich gar nichts mit AMD oder NVIDIA oder AMD gegen NVIDIA zu tun, sondern einem generellem Markttrend zu dem man keine besondere Glaskugel braucht.

In solch einem Fall wuerde ich mich als AMD oder jeglicher andere IHV fragen wo es besser waere mehr R&D zu investieren; ueberhaupt wenn man schon eine Bulldozer Leiche in den Keller verschwinden lassen will.

reaperrr
2012-01-03, 23:26:13
Ich hab immer noch keine anstaendige Antwort darauf bekommen wieso es zwischen Cypress und Cayman 15 Monate dauerte obwohl der letzte ja "brutale" Aenderungen mit sich brachte.... :rolleyes:
Ähm... meinst du nicht, dass es so ist wie Charlie damals geschrieben hat?

Nämlich dass Cayman ursprünglich ein 32nm-Chip war und TSMC den 32nm-Prozess erst kurz vorm Tape-Out gecancelt hat, wodurch AMD mehrere Monate verloren hat, weil sie Cayman auf 40nm zurückportieren mussten?


Zu Canary Islands: Da die CI-Serie wohl noch in 28nm gefertigt wird und GCN an der Architektur ja schon eine ganze Menge verbessert hat, ist wohl bestenfalls ein ähnlicher Fortschritt wie von 5870 zu 6970 zu erwarten, vielleicht 40 CU und 40 ROP + höherer Speichertakt. Schlimmstenfalls ist CI nichts weiter als SI mit leichten Optimierungen hinsichtlich Stromverbrauch sowie höherem Takt.

Bucklew
2012-01-03, 23:29:42
Nämlich dass Cayman ursprünglich ein 32nm-Chip war und TSMC den 32nm-Prozess erst kurz vorm Tape-Out gecancelt hat, wodurch AMD mehrere Monate verloren hat, weil sie Cayman auf 40nm zurückportieren mussten?
Genau und Fermi war ein reiner GPGPU-Chip, der dnan kurz zum Grafikchip gemacht wurde....

Knuddelbearli
2012-01-03, 23:37:52
? 5D vs 4D ist für dich kein Aufwand?

da hat sich oberflächlich betrachtete zwischen 4000er und 5000er weniger getan.

Wie schnell ein "einfacher" Refresh geht der einfach nur 1-2 starke Bugs ausmerzt und die inzwischen bessere Fertigung ausnutzt hat man ja an der GTX 580 gesehen.

Gipsel
2012-01-04, 09:44:52
Zu Canary Islands: Da die CI-Serie wohl noch in 28nm gefertigt wird und GCN an der Architektur ja schon eine ganze Menge verbessert hat, ist wohl bestenfalls ein ähnlicher Fortschritt wie von 5870 zu 6970 zu erwartenWarum nicht etwas mehr in die Richtung von RV670 zu RV770? :weg:

Skysnake
2012-01-04, 09:55:10
Muss man den gerade verstehen?

Da kann man doch alles erwaten. Von ner massiven Leistungssteigerung bis hin zu einer marginalen. Kommt halt drauf an, wie ausgefeilt das Design schon ist. Da aber komplett neu, stehen die Chacnen für ersteres besser, aber das ist keine Garantie dafür!

Eigentlich müsste AMD ihre Chips nur mal richtig Fett machen....

"Einfach" mal die Caches verdoppeln, und das Ding würde in GPGPU wohl abgehen wie die gesenkte Sau. Wird aber nicht kommen. Dafür ist AMD zu konservativ. Leider :(

disap.ed
2012-01-04, 10:59:50
"Einfach" mal die Caches verdoppeln, und das Ding würde in GPGPU wohl abgehen wie die gesenkte Sau. Wird aber nicht kommen. Dafür ist AMD zu konservativ. Leider :(

Nehmen die Caches absolut soviel Diefläche weg dass man hier so zurückhaltend ist?

Skysnake
2012-01-04, 11:07:44
Jaein.

Im Vergleich zu CPUs nehmen Sie nur einen winzig kleinen Bruchteil an Fläche ein. Sie verbrauchen aber wieder Strom, und wenn man verdoppelt, dann sind das schon ein paar Transistoren, was dann wieder das Design größer macht, was die Signalwege länger macht, was das Routing schwerer macht usw usw usw.

Mal ganz zu schweigen davon, das größere Caches schwieriger in der gleichen Zeit zu durchsuchen sind als kleine. Ist ja auch klar, man muss ja mehr durchsuchen ;) Deswegen sind ja bei CPUs die L1 so klein und dennoch recht groß, was den Platzbedarf anbelangt.

Zieht halt wie immer nen ziemlichen Rattenschwanz hinterher.

Ach so und ein Designkonzept von GPUs ist halt VIEL ALUs wenig Cache und von CPUs WENIG ALUs und WTF viel Cache, jetzt etwas überspitzt ausgedrückt.

Das Problem ist halt bei GPUs, das man oft in Bandbreitenlimits bei GPGPU rein läuft. Daher sind fettere RAM-Interfaces ja auch wünschenswert. Deswegen werden auch Caches verwendet, da diese viel höhere Bandbreiten zur Verfügung stellen als der RAM jemals könnte. Bei High-End Chips hast du ja TB an Bandbreite zu den ALUs. Das Problem ist halt nur, das wenn du die Daten in den Caches nicht oft genug wiederverwenden kannst, du am Bandbreitenlimit des RAMs hängst.

DGEMM ist da ein recht schönes Beispiel, wo größere Caches effektiv mehr Bandbreite für die ALUs bedeuten, weil die Datenlokalität erhöht wird. Du kannst also die Daten in deinem Cache öfters wiederverwenden, musst also weniger auf den RAM zugreifen, kannst also mehr rechnen.

So was passiert halt auch relativ oft bei GPUs, das du einfach nicht in der Lage bist deine ALUs mit Daten zu versorgen. Größere Caches versprechen da halt eine bessere Datenlokalität.

Das muss aber nicht zutreffen. Wenn du z.B. jeden Wert nur einmal anfasst, dann bringen dir auch 10 TB an Cache nichts, weil du einfach keine Wiederverwendung der Daten hast. Da hängste dann immer am Speicherinterfacelimit.

disap.ed
2012-01-04, 11:40:55
Danke für die ausführliche Antwort.
Aber das Speicherinterface limitiert ja eher nicht bei Tahiti, oder?

Skysnake
2012-01-04, 12:06:38
Kommt halt drauf an, was du machst.

Games: wohl eher nicht.

Brutforce Sachen wie Bitcoin: ziemlich sicher nicht

DGEMM/SGEMM: wahrscheinlich ja

Sachen wo man nahezu 0 Datenlokalität hat: praktisch nur durch RAM-Interface limitiert

Man muss halt schauen, wo man mit seiner Application sich einsortiert. So Pauschal kann man das nicht sagen. Da ist alles dabei von bis.

Ailuros
2012-01-04, 17:43:35
? 5D vs 4D ist für dich kein Aufwand?

da hat sich oberflächlich betrachtete zwischen 4000er und 5000er weniger getan.

Wie schnell ein "einfacher" Refresh geht der einfach nur 1-2 starke Bugs ausmerzt und die inzwischen bessere Fertigung ausnutzt hat man ja an der GTX 580 gesehen.

Es war weniger Aufwand der weniger Resourcen kostete als GF110 so schnell wieder auf die Beine zu bringen.

Aber eine Antwort zu meinen Fragen bekomm ich trotzdem nicht.

Ähm... meinst du nicht, dass es so ist wie Charlie damals geschrieben hat?

Nämlich dass Cayman ursprünglich ein 32nm-Chip war und TSMC den 32nm-Prozess erst kurz vorm Tape-Out gecancelt hat, wodurch AMD mehrere Monate verloren hat, weil sie Cayman auf 40nm zurückportieren mussten?

Nein. Natuerlich war original ein chip in 32nm geplant.

Das dumme ist dass ich keine Antwort auf meine Fragen bekomme weil unter 40G Cayman ungefaehr um genau so viel Prozent schneller war als Cypress wie die GTX580 gegen die GTX480, nur dass im ersten Fall der Stromverbrauch gestiegen ist waehrend er im zweiten Fall sich um ein klein bisschen reduzierte.

Zu Canary Islands: Da die CI-Serie wohl noch in 28nm gefertigt wird und GCN an der Architektur ja schon eine ganze Menge verbessert hat, ist wohl bestenfalls ein ähnlicher Fortschritt wie von 5870 zu 6970 zu erwarten, vielleicht 40 CU und 40 ROP + höherer Speichertakt. Schlimmstenfalls ist CI nichts weiter als SI mit leichten Optimierungen hinsichtlich Stromverbrauch sowie höherem Takt.

Je spaeter eine neue 28nm Familie ankommt desto besser fuer AMD.

1. Man hat mehr Zeit fuer Optimierungen.
2. Man spart sich resourcen mit groesseren Zeispannen.
3. Man hat mehr Chancen groesser einzuschlagen.

Aber AMD geht es natuerlich generell finanziell so rosig generell und es werden in absehbarer Zeit Unmengen von zusaetzlichen GPUs verkauft und AMD hat eben einen sehr guten Grund ihre design-cycli zu reduzieren. :rolleyes:

Warum nicht etwas mehr in die Richtung von RV670 zu RV770? :weg:

RV670 schleppte noch etwas vom negativem R600-Ballast mit. Schon die ROPs alleine brachten so manchen Leistungsunterschied beim 770 und nicht nur ueberhaupt ein paar Prozente. Ausser es stimmt irgend etwas bei Tahiti/SI nicht, sehe ich keine so grosse Leistungssteigerungen.

Knuddelbearli
2012-01-04, 18:16:57
du hast 2 Fragen gestellt. 1 War eher ne Fake Frage die Antwort kennst du ja( Zeit von Cypress zu Cayman ), außerdem gab es da eine große Änderung zwischen den Chips.
und
Q1 2012 zu Q3/4 2013 sind 2.5 Jahre? 20nm wird zwar in Q3 oder sogar Q4 nicht produktionsreif sein,


wo schonmal Q1 2012 nicht stimmt da es laut TSMC Anfang Oktober 2011 war für Produktionsstart ( und genau der steht immer in den Folien )

also blass dich hier mal nicht so auf mit du hast immer noch nicht auf meine Frage geantwortet ...
Bist ja gerade nerviger als LZ

Ailuros
2012-01-04, 18:40:25
du hast 2 Fragen gestellt. 1 War eher ne Fake Frage die Antwort kennst du ja( Zeit von Cypress zu Cayman ), außerdem gab es da eine große Änderung zwischen den Chips.
und

Nein ich fragte 2x Mal wie der Leistungs-Unterschied zwischen Cypress und Cayman und der Stromverbrauch zwischen den beiden aussah. AMD kocht auch nur mit Wasser.

also blass dich hier mal nicht so auf mit du hast immer noch nicht auf meine Frage geantwortet ...
Bist ja gerade nerviger als LZ

Persoenliches Zeug kannst Du Dir sparen. Mir geht es ums Thema und nur um dieses.

Knuddelbearli
2012-01-04, 18:55:25
Nein ahst du nicht. Du hast 2 mal gefragt:

Ich hab immer noch keine anstaendige Antwort darauf bekommen wieso es zwischen Cypress und Cayman 15 Monate dauerte obwohl der letzte ja "brutale" Aenderungen mit sich brachte....

und da wurde dir schon gesagt das da doch einige Änderungen drinnen sind inkl des ausgefallenen 32nm.

Cypress auf Cayman haben wir also:
Verzögerung durch ausgefallene 32nm Fertigung.
Architektur Änderung von 5D auf 4D
Änderung am Frontend ( siehe 6800 Reihe )


Meine Spekulation baut auf folgenden auf:

Min 2,5 Jahre zwischen 28nm und 20nm ( bei TSMC selbst sind es bereits 2 Jahre und 1 Quartal )
AMD hat so früh ihre Karten ins rennen geshcikt da sie drauf setzten das NV wieder ewig braucht ( was sie ja auch tun )
AMD HD 8000 keine großen Architekturänderungen bekommt ( Wie damals GTX 480 auf GTX 580 ) sondern nur noch 4Cu Shader dazu und ein wenig mehr Takt, sagen wir mal 1150 MHZ bei dann 250W verbrauch, einige wenige Monate nach GK100 ( ca 9 Monate nach Southern Islands ). Rest des 8000er Programms wird nur mit mehr Takt Refresht.
Ausgehend von 2,5 Jahre zwischen 28nm und 20nm haben sie dann immer noch 1,75 Jahre für die 9000er Reihe. die dann einiges an der Architekur ändert und Verbrauch gleich hält.


Muss nicht so sein Frage ist halt wie es AMD einschätzt. jeder Refresh kostet Geld, bringt aber auch Geld durch weniger Rückstand gegenüber NV und nochmal mehr Karten verkaufen. Würde auch erklären wieso Souther Islands so zaghaft ausfällt.

Zumindest als möglicher Plan hat das AMD bestimmt im Blickfeld ( gehabt )


Wie gesagt reine Spekulation auf meine Überlegungen. Und ich kennzeichne sie auch direkt als solche im Gegensatz zu manch anderen die hier gerne (mit) Spekulieren ...

Ailuros
2012-01-04, 19:13:45
und da wurde dir schon gesagt das da doch einige Änderungen drinnen sind inkl des ausgefallenen 32nm.

Cypress auf Cayman haben wir also:
Verzögerung durch ausgefallene 32nm Fertigung.
Architektur Änderung von 5D auf 4D
Änderung am Frontend ( siehe 6800 Reihe )

Es war um mehr als 1 Jahr vor der Cypress Vorstellung klar dass 32nm storniert war. Ein Umschwung von 40 zu 32nm kostet im schlimmsten Fall 6 Monate.

Meine Spekulation baut auf folgenden auf:

Min 2,5 Jahre zwischen 28nm und 20nm ( bei TSMC selbst sind es bereits 2 Jahre und 1 Quartal )
AMD hat so früh ihre Karten ins rennen geshcikt da sie drauf setzten das NV wieder ewig braucht ( was sie ja auch tun )

Dann garantier mir erstmal wann die ersten Kepler GPUs erscheinen werden auf Regalen.

AMD HD 8000 keine großen Architekturänderungen bekommt ( Wie damals GTX 480 auf GTX 580 )

Es bastelten mehr engineers am GF110 um es so schnell auf die Beine zu bekommen als AMD normalerweise fuer mehr als 2 Generationen braucht.

sondern nur noch 4Cu Shader dazu und ein wenig mehr Takt, sagen wir mal 1150 MHZ bei dann 250W verbrauch, einige wenige Monate nach GK100 ( ca 9 Monate nach Southern Islands ). Rest des 8000er Programms wird nur mit mehr Takt Refresht.
Ausgehend von 2,5 Jahre zwischen 28nm und 20nm haben sie dann immer noch 1,75 Jahre für die 9000er Reihe. die dann einiges an der Architekur ändert und Verbrauch gleich hält.

Moeglich aber innerhalb dieses Jahres sehe ich auf Regalen immer noch nichts genauso wenig wie ich schon ueber 1 Jahr darauf bestand dass es innerhalb 2011 keine 28nm GPU geben wird.

Muss nicht so sein Frage ist halt wie es AMD einschätzt. jeder Refresh kostet Geld, bringt aber auch Geld durch weniger Rückstand gegenüber NV und nochmal mehr Karten verkaufen. Würde auch erklären wieso Souther Islands so zaghaft ausfällt.

SI wurde zu schnell nach aussen gequetscht egal welchen Scheiss AMD's marketing Heinis erzaehlen wollen. SI ist auf dem Nivaeu wo man es erwartet haette minus etwas Treiber-liebe an der es noch ein bisschen fehlt.

Knuddelbearli
2012-01-04, 19:24:00
Es war um mehr als 1 Jahr vor der Cypress Vorstellung klar dass 32nm storniert war. Ein Umschwung von 40 zu 32nm kostet im schlimmsten Fall 6 Monate.

15-6=? ;-)
Und Veränderungen waren da ja wie gesagt doch einige. Bei der vom mir spekulierten 8000er gibts in der Architektur fast keine Änderung. Höchstens paar Bugfixings. Verringert auch die Wahrscheinlichkeit das man einen Respin benötigt der dann richtig Zeit kostet.



Dann garantier mir erstmal wann die ersten Kepler GPUs erscheinen werden auf Regalen.


Wieso soll ich dir was Garantieren müssen? wir sind im Spekulationsforum. Ansonsten Garantier du mir mal das der GK100 noch vor 1 Juni 2012 kommt ^^



Es bastelten mehr engineers am GF110 um es so schnell auf die Beine zu bekommen als AMD normalerweise fuer mehr als 2 Generationen braucht.


Hast du dafür Quellen? wäre mir neu. Mehr waren es sicher aber die hatten dort auch eine Menge zu tun.


Moeglich aber innerhalb dieses Jahres sehe ich auf Regalen immer noch nichts genauso wenig wie ich schon ueber 1 Jahr darauf bestand dass es innerhalb 2011 keine 28nm GPU geben wird.


Wie gesagt TSMC bezieht sich immer auf Masenproduktion. Bei 28nm war das für TSMC Anfang Oktober ( glaube war der 3te ? ) 2011. Und wie du selbst sagtest für 20nm gibt TSMC 3-4 Quartal 2013 an. Wohl eher Ende Quiartal4. und das ist dann noch die offiziele Version von TSMC. und wieviel man TSMC da glauben kann brauche ich dir wohl nicht erzählen ...



SI wurde zu schnell nach aussen gequetscht egal welchen Scheiss AMD's marketing Heinis erzaehlen wollen. SI ist auf dem Nivaeu wo man es erwartet haette minus etwas Treiber-liebe an der es noch ein bisschen fehlt.

Genau das sagte ich doch auch. Frage ist wieso sie das gemacht haben. Haben damit die 7970 ja scheinbar unter ihrer Möglichkeiten vorgestellt.

Skysnake
2012-01-04, 19:29:13
wahrscheinlich hohe Fertigungsstreuung. Ansonsten hätte man wohl erst deutlich später launchen können ist halt ein Kompromiss über den sich die Partner sicherlich freuen.

Ailuros
2012-01-04, 19:42:15
15-6=? ;-)
Und Veränderungen waren da ja wie gesagt doch einige. Bei der vom mir spekulierten 8000er gibts in der Architektur fast keine Änderung. Höchstens paar Bugfixings. Verringert auch die Wahrscheinlichkeit das man einen Respin benötigt der dann richtig Zeit kostet.

79xx = 210W TDP
89xx = 240W TDP
99xx = 260W TDP

oder

79xx = 210W TDP
.........................
.........................
89xx = 240W TDP

Welches der beiden klingt besser? Ueberhaupt wenn im zweiten Fall die hypothetische 89xx so viel leistet wie die hypothetische "99xx" im ersten Fall?

Wieso soll ich dir was Garantieren müssen? wir sind im Spekulationsforum. Ansonsten Garantier du mir mal das der GK100 noch vor 1 Juni 2012 kommt ^^

Es gibt mehr Kepler als GK110 und ja ich kann Dir garantieren dass schon seit Dezember Kepler GPUs bei Partnern liegen aber eben nicht GK110.

Hast du dafür Quellen? wäre mir neu.

:rolleyes:

Mehr waren es sicher aber die hatten dort auch eine Menge zu tun.

Ein interessanter Wandel was die generelle Logik betrifft.

Wie gesagt TSMC bezieht sich immer auf Masenproduktion. Bei 28nm war das für TSMC Anfang Oktober ( glaube war der 3te ? ) 2011. Und wie du selbst sagtest für 20nm gibt TSMC 3-4 Quartal 2013 an. Wohl eher Ende Quiartal4. und das ist dann noch die offiziele Version von TSMC. und wieviel man TSMC da glauben kann brauche ich dir wohl nicht erzählen ...

Anfang 2011 waren sich beide IHVs noch fast sicher dass sie es noch innerhalb 2011 schaffen werden.

Genau das sagte ich doch auch. Frage ist wieso sie das gemacht haben. Haben damit die 7970 ja scheinbar unter ihrer Möglichkeiten vorgestellt.

Um als erste zu erscheinen. Wir werden nicht von AMD selber aber generell ab Ende 2012 so viel ueber GCN hoeren dass es fast zu viel werden koennte. Wenn man zu viele Konsolen-deals unter dem Aermel hat wird man teilweise auch etwas grosskotzig und im gegebenen Fall nicht ungerechtfertigt.

Skysnake
2012-01-04, 19:45:04
Ohohoh, verquatscht du dich da nicht gerade? ;D

Knuddelbearli
2012-01-04, 19:58:42
79xx = 210W TDP
89xx = 240W TDP
99xx = 260W TDP

oder

79xx = 210W TDP
.........................
.........................
89xx = 240W TDP

Welches der beiden klingt besser? Ueberhaupt wenn im zweiten Fall die hypothetische 89xx so viel leistet wie die hypothetische "99xx" im ersten Fall?


verstehe ich nicht ganz was du damit aussagen willst. Versuche ich trotzdem mal so wie ich dei Frage verstanden hab.
8900 wäre "nur" ein echter Refresh. 25% mehr Leistung für ca 15% mehr Verbrauch. 9900 wäre dagegen ein Refresh mit deutlichen Änderungen an der Architektur. 20% mehr Leistung bei selber bis weniger Verbrauch ( als 8900 ) und damit man die Änderungen noch unter 20nm testen kann.

Ausgehend von einem eher Schwachen SI ( wobei 45% Mehr Leistung bei selben Verbrauch nichtmal soschlecht ist ) wäre das durchaus im Bereich des Möglichen.



Es gibt mehr Kepler als GK110 und ja ich kann Dir garantieren dass schon seit Dezember Kepler GPUs bei Partnern liegen aber eben nicht GK110.


der GK104 wird aber eher im ebstenfall mit SI konkurieren und ihn nicht übertrumpfen, also interessiert der eher weniger




:rolleyes:



Ein interessanter Wandel was die generelle Logik betrifft.


Wie gesagt mehr waren es sicher aber 2x da frage ich mich echt nach einer Quelle den wo sollen die auf einmal alle herkommen? Mann kann nicht mal eben für 6 Monate die Manpower verdoppeln. Sie müssen sich erst einarbeiten usw. Nur ein paar mehr ist aber nicht so das Problem da sich auch imemr einige damit auskennen die davor nciht direkt dafür zugeteilt waren. Also Quelle bitte.








Um als erste zu erscheinen. Wir werden nicht von AMD selber aber generell ab Ende 2012 so viel ueber GCN hoeren dass es fast zu viel werden koennte. Wenn man zu viele Konsolen-deals unter dem Aermel hat wird man teilweise auch etwas grosskotzig und im gegebenen Fall nicht ungerechtfertigt.

Quelle dafür das alle 3 AMD und GCN sein werden? zumindest Nintendo wird es wohl sicher kein GCN werden. Alleine da sie 2012 erscheinen wollen.





Nochmal zusammenfassend:

Mit der der früh erscheinenden 7900 hat man einige Zeit die Leistungskrone, bei einem recht kleinen DIE.
Die 8900, nutzt den besseren Fertigungsprozess dann aus. Geringere Fehleranfälligkeit ermöglicht einen größeren DIE bei fast gleichen kosten. Geringere Serienstreuung erlaubt einen höheren Takt bei selber Spannung. Und stellt dadurch auch ein Konter gegen die dann bereits erschienen Nvidiea Karte dar.
Die 9900 stellt dann einen aufgebohrten Refreshchip da, damit man nicht wieder mit einem neuen Chip in einem neuen Prozess beginnen muss.

disap.ed
2012-01-05, 12:55:24
Quelle dafür das alle 3 AMD und GCN sein werden? zumindest Nintendo wird es wohl sicher kein GCN werden. Alleine da sie 2012 erscheinen wollen.

Warum? Mehr als 12 CUs wird das Ding wohl nicht haben (und da bin ich schon optimistisch :biggrin:) und man hat mindestens ein halbes Jahr (eher länger) um seine Lager aufzufüllen (zudem der Chip wohl nicht von TSMC gefertigt wird).

Ailuros
2012-01-05, 15:21:28
verstehe ich nicht ganz was du damit aussagen willst. Versuche ich trotzdem mal so wie ich dei Frage verstanden hab.
8900 wäre "nur" ein echter Refresh. 25% mehr Leistung für ca 15% mehr Verbrauch. 9900 wäre dagegen ein Refresh mit deutlichen Änderungen an der Architektur. 20% mehr Leistung bei selber bis weniger Verbrauch ( als 8900 ) und damit man die Änderungen noch unter 20nm testen kann.

Von einem schnellen refresh bekommt man garantiert nicht so leicht mehr als 15-20% mehr Leistung ausser es gab irgend etwas krummes am Vorgaenger.

Was ich damit meine ist dass es besser und billiger ist anstatt 2 "refreshes" zu planen und die Leistungs-steigerung auf diese 2 verteilen, es vielleicht besser waere an einen einzigen Refresh mit um einiges hoeher Leistungs-steigerung.

Ausgehend von einem eher Schwachen SI ( wobei 45% Mehr Leistung bei selben Verbrauch nichtmal soschlecht ist ) wäre das durchaus im Bereich des Möglichen.

Ich sehe nichts schwaches an southern island, es ist wohl eher so dass viele zu viel erwartet haben wie immer. Pro Watt ist die Leistungssteigerung uebrigens um einiges hoeher im Vergleich zu Cayman, da der letzte auch keinen 210W TDP hatte.


der GK104 wird aber eher im ebstenfall mit SI konkurieren und ihn nicht übertrumpfen, also interessiert der eher weniger

Ich hab nirgends GK104 erwaehnt; sonst eben weil Tahiti in einer vergleichbareren Kategorie mit 104 liegt und AMD eben keine single high end chips seit Jahren herstellt will ich auch keine Apfel zu Birnen Vergleiche.

Wie gesagt mehr waren es sicher aber 2x da frage ich mich echt nach einer Quelle den wo sollen die auf einmal alle herkommen? Mann kann nicht mal eben für 6 Monate die Manpower verdoppeln. Sie müssen sich erst einarbeiten usw. Nur ein paar mehr ist aber nicht so das Problem da sich auch imemr einige damit auskennen die davor nciht direkt dafür zugeteilt waren. Also Quelle bitte.

Selbst wenn ich ein paar Namen in die Luft werfen wuerde koenntest Du sowieso nichts damit anfangen. Ich hab keine Pflicht irgendwelche vertrauliche Informationen zu veroeffentlichen und natuerlich muss sich auch keiner glauben.

Quelle dafür das alle 3 AMD und GCN sein werden? zumindest Nintendo wird es wohl sicher kein GCN werden. Alleine da sie 2012 erscheinen wollen.

Wo hab ich erwaehnt oder angedeutet dass alle 3 mit GCN ausgestattet werden? Es gibt auch andere Sachen als Produkt-launches aber das ist auch nicht das eigentliche Thema hier.


Mit der der früh erscheinenden 7900 hat man einige Zeit die Leistungskrone, bei einem recht kleinen DIE.

Und wie lang ist "einige Zeit" genau?

Die 8900, nutzt den besseren Fertigungsprozess dann aus. Geringere Fehleranfälligkeit ermöglicht einen größeren DIE bei fast gleichen kosten. Geringere Serienstreuung erlaubt einen höheren Takt bei selber Spannung. Und stellt dadurch auch ein Konter gegen die dann bereits erschienen Nvidiea Karte dar.
Die 9900 stellt dann einen aufgebohrten Refreshchip da, damit man nicht wieder mit einem neuen Chip in einem neuen Prozess beginnen muss.

;D Kein weiterer Kommentar.

Skysnake
2012-01-05, 16:04:13
Geb ich dir mit allem Recht Ailuros. Wenn kommt ein Refresh nur, wenn eben der Chip an und für sich ok war/ist, nur die Fertigung halt noch zu stark Streut. Dann kann man später ohne Aufwand einen "Midlifekicker" bringen, und hat damit die 1. Karte früher am Markt und für den wirklichen Refresh hat man ein paar Monate mehr Zeit.

Also ganz würde ich es nicht von der Hand weisen, wobei ich nicht glaube, dass das dann über eine HD8k gemacht wird.

OgrEGT
2012-01-06, 09:08:20
wahrscheinlich hohe Fertigungsstreuung. Ansonsten hätte man wohl erst deutlich später launchen können ist halt ein Kompromiss über den sich die Partner sicherlich freuen.

Oder um mehr Luft nach oben zu haben, um nochmal nachlegen zu können...

OgrEGT
2012-01-06, 09:17:58
Geb ich dir mit allem Recht Ailuros. Wenn kommt ein Refresh nur, wenn eben der Chip an und für sich ok war/ist, nur die Fertigung halt noch zu stark Streut. Dann kann man später ohne Aufwand einen "Midlifekicker" bringen, und hat damit die 1. Karte früher am Markt und für den wirklichen Refresh hat man ein paar Monate mehr Zeit.

Also ganz würde ich es nicht von der Hand weisen, wobei ich nicht glaube, dass das dann über eine HD8k gemacht wird.

Wie sollten sie denn sonst heißen :) weitere 7-er würden nach HD6 wieder eine Änderung des Namensschemas bedeuten

HD7970 -> HD7975 oder HD 7980 (7990 wohl schon belegt...)
So etwas würde ich eher für kurzfristig nachgeschobene Karten mit höheren Taktraten sehen, nicht aber für einen Refresh ein halbes Jahr später

V2.0
2012-01-06, 09:19:13
Naja, man hat immer noch die XTX Karte in der Hand wenn eine bessere Fertigung oder/ und neuer Metallspin höhrere Taktraten ermöglicht und als Reaktion auf GK110.

Skysnake
2012-01-06, 09:53:31
Ne, an nen Metallspin etc. glaub ich nich eher nicht für nen reinen Refresh.

Da geh ich auch eher mit Ailuros konform, dass das zu viele Ressourcen binden würde.

robbitop
2012-01-06, 11:04:36
Richtig, das ergibt einfach keinen Sinn. Einen GK110 mit > 500 sqmm können sie nicht mit einem Metalspin, der ein paar läppische MHz bringt und ein paar Treiberoptimierungen eh nicht gefährlich werden. 10 % mehr Takt - viel mehr wären da wohl nicht drin.
So oder so wird man gegen GK110 hinten liegen. Für ein paar Prozente ist es den Aufwand mit den arg knappen Ressourcen nicht wert.
Man wird sicher wieder gegen Ende 2012 einen Refresh bringen. Vieleicht analog zu Cayman. +20 % (+10 /-5% Toleranz ca.)

Ailuros
2012-01-06, 15:36:16
Naja, man hat immer noch die XTX Karte in der Hand wenn eine bessere Fertigung oder/ und neuer Metallspin höhrere Taktraten ermöglicht und als Reaktion auf GK110.

Und jetzt les ich dann gleich dass NV auch dementsprechend zurueckschlagen wird und io and behold wir sind wieder zurueck zu den 6 months product cycles eben weil die Zeiten ideal dafuer sind.

Was mich nicht ueberraschen wuerde ist dass sowohl die Konsolen als auch PC Generations-Zwischenzeiten mit der Zeit noch groesser werden, eben weil die Herstellungsprozesse zunehmend problematischer werden. In solch einem Fall koennten die IHVs vielleicht endlich mal an eine anstaendige hw basierende mGPU Loesung denken als den bisherigen AFR Quark.

***edit: Tahiti's erster "refresh" hoert auf den Namen schnellerer Treiber. Bevor GK110 moeglicherweise antanzt werden sie wohl nicht damit fertig sein. Deshalb zischte ich auch bei B3D so mit Wavey als er sagte dass sie noch beim "lernen" von GCN sind. Kein Wunder dass ich sagte dass ich keinen Bock habe ihre "Lernphasen" bei dem MSRP zu finanzieren.

Locuza
2012-01-07, 15:57:26
[...]
***edit: Tahiti's erster "refresh" hoert auf den Namen schnellerer Treiber. Bevor GK110 moeglicherweise antanzt werden sie wohl nicht damit fertig sein. Deshalb zischte ich auch bei B3D so mit Wavey als er sagte dass sie noch beim "lernen" von GCN sind. Kein Wunder dass ich sagte dass ich keinen Bock habe ihre "Lernphasen" bei dem MSRP zu finanzieren.
Die Kritik war ja auch berechtigt. Ich zahle ebenfalls keine 500 Euro dafür, dass sie ein Produkt mehr "unreif" als üblich auf den Markt werfen.
Besonders bei so Aussagen, dass nur wenige Tage vergingen und sie schon 5% Leistung gewinnen konnten.
An kleine Wundertreiber möchte ich allerdings schon wieder nicht glauben.

Ich hoffe einfach nur, dass AMD mit CI wieder etwas mehr verändert, ähnlich wie Fermi vs. Kepler. Nvidia geht für mich ungewohnt aggressiv bei technischen Entwicklungen voran.
Ich habe nicht das Gefühl, dass man es sich leisten kann GCN einfach ständig zu refreshen, ohne großartig etwas zu verändern.

V2.0
2012-01-07, 16:16:41
Ist AMD gerade in einer Position um den Ressourceneinsatz im GPU Segment zu erhöhen, oder eher nicht? Ich denke eher nicht, denn man befindet sich in einer Phase der Neuausrichtung. Im Vergleich zum Mobilesektor und zum Thema APU erscheint mir das reine GPU-Geschäft nicht gerade vordringlich zu sein. Der Personalabbau war deutlich.

Locuza
2012-01-07, 16:53:38
Ist AMD gerade in einer Position um den Ressourceneinsatz im GPU Segment zu erhöhen, oder eher nicht? Ich denke eher nicht, denn man befindet sich in einer Phase der Neuausrichtung. Im Vergleich zum Mobilesektor und zum Thema APU erscheint mir das reine GPU-Geschäft nicht gerade vordringlich zu sein. Der Personalabbau war deutlich.
Hat AMD überhaupt irgendwo genug Ressourcen? Im Mobilsektor ist man eig. nicht vertreten.
Nvidia und Intel holen deutlich schneller auf, als AMD irgendwo voran kommt. Das Ziel ist Heterogeneous Computing und AMD erweckt für mich keinen Großen Eindruck, da unglaublich weit vor der Konkurrenz zu liegen.

CI und Bulldozer müssen ja auch immer weiter entwickelt werden, um dieses Ziel auch anständig zu erreichen. Die GPU-Sparte wirft ja wirklich kaum Gewinn ab, aber die Technik ist essentiel für ihre APU-Pläne und wenn sich da nicht jedes mal wenigstens etwas mehr tut, sehe ich die 3 Großen am Ende (2014/15) an der gleichen Stelle konkurrieren.

Gipsel
2012-01-07, 18:41:33
Hat AMD überhaupt irgendwo genug Ressourcen? Im Mobilsektor ist man eig. nicht vertretten.
Wo hast Du das denn her? Bei den mobilen GPUs sieht es bisher eigentlich nicht düster aus, die haben enen recht hohen Marktanteil (höher als Desktop iirc).

Locuza
2012-01-07, 19:06:53
Wo hast Du das denn her? Bei den mobilen GPUs sieht es bisher eigentlich nicht düster aus, die haben enen recht hohen Marktanteil (höher als Desktop iirc).
Sorry, musste bei Mobil an Mobile Phone denken ;D
Ich dachte vorrangig an kleine mobile Gadgets und ähnliche Systeme wie bei Audi.

Ailuros
2012-01-08, 11:20:03
Wo hast Du das denn her? Bei den mobilen GPUs sieht es bisher eigentlich nicht düster aus, die haben enen recht hohen Marktanteil (höher als Desktop iirc).

Ich hatte schon den Verdacht als ich seinen Beitrag las dass er small form factor meinte. In dem Fall hat AMD noch nichts vorzuzeigen, aber Intel hat im Gegensatz in diesem Segment auch nichts sehenwertes, ausser zu teure SoCs die wohl eher auf Regalen Spinnweben momentan sammeln. NVIDIA ist im Gegensatz was tablets und weniger smart-phones betrifft schon um einiges aktiver.

Hat aber alles nichts mit Canary Islands zu tun. Wenn AMD in der absehbaren Zukunft zu smartphone SoCs kommen wird, bin ich mir gar nicht so sicher ob es ueberhaupt Sinn machen wuerde ausserhalb von win8 volle DX11 GPU Bloecke zu benutzen.

Mancko
2012-01-08, 11:47:47
Deshalb zischte ich auch bei B3D so mit Wavey als er sagte dass sie noch beim "lernen" von GCN sind. Kein Wunder dass ich sagte dass ich keinen Bock habe ihre "Lernphasen" bei dem MSRP zu finanzieren.

Haha ja das Kommentar hatte ich auch gelesen. Das wird ihm nicht so ganz gefallen. Ich kann die Argumentation aber voll nachvollziehen. der MSRP ist für einen Performance Chip einfach ein Witz. Ich hoffe das Nvidia hier entsprechend reingrätscht und AMDs Sales und Marketing Abteilung ordentlich den Kopf wäscht. Ich finde es auch taktisch nicht besonders klug, dass ein AMD Mitarbeiter hier von lernen usw. redet. Das kannst gegenüber der Kundschaft eigentlich nicht bringen.

Man muss sich nur mal vorstellen, dass ein Autobauer dem Käufer sagt, dass die Bremsen etc. noch nicht optimal funktionieren, weil an der Software noch gebastelt werden muss und der Autobauer noch im Lernprozess ist und Erfahrungswerte braucht.

Knuddelbearli
2012-01-08, 11:58:56
man kauft doch sowieso für die leistung die man jetzt hat, treiebr updates sollte man eher so wie das leistungsupdate für die M4 sehen.

Man muss sich nur vorstellen, dass eine Autobauer dem Käufer sagt, dass die PS des Autos in 2-3 Monaten nochmal um 20% gesteigert wird ohne Mehrverbrauch oder Extrakosten, da er dafür gesorgt hat das vor einigen Jahren sich die Autopreise halbiert haben, und er erst schauen muss wie sich der neue Motor im echten Leben macht.

man kann es halt so oder so sehen ^^

Gipsel
2012-01-08, 12:45:58
Ich finde es auch taktisch nicht besonders klug, dass ein AMD Mitarbeiter hier von lernen usw. redet. Das kannst gegenüber der Kundschaft eigentlich nicht bringen.B3D ist nicht so ein typisches 08/15-Forum, das repräsentiert nicht "die Kundschaft". Da kann man da schon ab und zu mal die Wahrheit und nicht das typische Marketing-Geschwätz hören. Das ist ja gerade das Interessante da, daß sich da auch ein paar Leute rumtreiben, die *wirklich* Ahnung von den Sachen haben, weil sie eben selbst dran rumschrauben.

M4xw0lf
2012-01-08, 12:54:38
der MSRP ist für einen Performance Chip einfach ein Witz.

Diese Argumentation ist doch in der aktuellen Situation totaler Käse. Im Moment ist die 7970 mit ihrem sogenannten "Performance-Chip" nunmal die schnellste SingleGPU-Karte, und AMD wäre schön blöd sich das nicht bezahlen zu lassen.

Felixxz2
2012-01-08, 21:15:34
B3D ist nicht so ein typisches 08/15-Forum, das repräsentiert nicht "die Kundschaft". Da kann man da schon ab und zu mal die Wahrheit und nicht das typische Marketing-Geschwätz hören. Das ist ja gerade das Interessante da, daß sich da auch ein paar Leute rumtreiben, die *wirklich* Ahnung von den Sachen haben, weil sie eben selbst dran rumschrauben.

Denkst du also, dass die 7970 doch nicht ganz so Hardwarelimited ist, wie man zz. vielleicht gern annimt, sondern das es über die Treiber noch große Sprünge geben wird?

Mancko
2012-01-08, 21:38:26
Diese Argumentation ist doch in der aktuellen Situation totaler Käse. Im Moment ist die 7970 mit ihrem sogenannten "Performance-Chip" nunmal die schnellste SingleGPU-Karte, und AMD wäre schön blöd sich das nicht bezahlen zu lassen.

Wie gesagt kann ich nachvollziehen, wenn sie das für einen langen Zeitraum ist. Wenn sie das nur für ein paar Wochen ist bzw. der Abstand dann so klein ist das der Preis komplett fürn Arsch ist, dann ist das einfach daneben.

Felixxz2
2012-01-08, 22:48:57
Wie gesagt kann ich nachvollziehen, wenn sie das für einen langen Zeitraum ist. Wenn sie das nur für ein paar Wochen ist bzw. der Abstand dann so klein ist das der Preis komplett fürn Arsch ist, dann ist das einfach daneben.

Es schaut zz. aber schon danach aus, dass die 7970 zumindest für ein paar Monate der schnellste Chip bleibt. Wenn denn GK104 mal rauskommt (und das kann auch noch Wochen bis Monate dauern), dann wird er wschl. an der 7970 scheitern. Und GK100 wird wohl noch deutlich länger brauchen. Daher völlig legitim die Karte als High End zu bezeichnen und aus wirtschaftlicher Sicht auch völlig legitim von AMD so viel Kohle dafür zu verlangen. Auch wenn AMD das Image hat, sie sind auch nur ein profitorientiertes Unternehmen und nicht die Heilsarmee.

Ailuros
2012-01-09, 02:10:06
Haha ja das Kommentar hatte ich auch gelesen. Das wird ihm nicht so ganz gefallen. Ich kann die Argumentation aber voll nachvollziehen. der MSRP ist für einen Performance Chip einfach ein Witz. Ich hoffe das Nvidia hier entsprechend reingrätscht und AMDs Sales und Marketing Abteilung ordentlich den Kopf wäscht. Ich finde es auch taktisch nicht besonders klug, dass ein AMD Mitarbeiter hier von lernen usw. redet. Das kannst gegenüber der Kundschaft eigentlich nicht bringen.

Och ich kenne Wavey persoenlich schon noch aus den 3dfxgamers fora Zeiten. Er weiss schon wie ich meistens denke bzw. reagiere, ergo selbst wenn er es mir uebel genommen haben sollte ist es halb so schlimm.

Diese Argumentation ist doch in der aktuellen Situation totaler Käse. Im Moment ist die 7970 mit ihrem sogenannten "Performance-Chip" nunmal die schnellste SingleGPU-Karte, und AMD wäre schön blöd sich das nicht bezahlen zu lassen.

Ich dachte wir wollen eine Canary islands spekulative Debatte fuehren? :rolleyes:

Es schaut zz. aber schon danach aus, dass die 7970 zumindest für ein paar Monate der schnellste Chip bleibt. Wenn denn GK104 mal rauskommt (und das kann auch noch Wochen bis Monate dauern), dann wird er wschl. an der 7970 scheitern. Und GK100 wird wohl noch deutlich länger brauchen. Daher völlig legitim die Karte als High End zu bezeichnen und aus wirtschaftlicher Sicht auch völlig legitim von AMD so viel Kohle dafür zu verlangen. Auch wenn AMD das Image hat, sie sind auch nur ein profitorientiertes Unternehmen und nicht die Heilsarmee.

:biggrin:

Herrschaften bitte....egal wie stark es mir selber in den Fingern juckt auf das obrige zu antworten es sollte hier eine spekulative Debatte fuer Canary islands sein. Ergo bitte zurueck zum Thema

Gipsel
2012-01-12, 18:55:46
Ich will das nur mal hier schon erwähnt haben, daß die Codenamen der Generation nach Canary Inslands (also eventuell dann HD9000 genannt) entweder wieder Inseln sind oder eventuell auch Namen von Wasserstraßen bzw. Meerengen tragen könnten. Im Speziellen bin ich über den Namen "Tiran" gestolpert (die Straße von Tiran zwischen Ägypten und Saudi-Arabien verbindet den Golf von Akaba mit dem Roten Meer und ist nach einer Insel gleichen Namens in dieser Meerenge benannt). Mit irgendwelchen Daten kann ich aber noch nicht dienen.

Ailuros
2012-01-12, 20:30:17
Ich hab so langsam das Gefuehl dass AMD aus gutem Grund freundlicher zu Arabern sein muss :D (bitte nicht ernst nehmen offensichtlicher Scherz).

AnarchX
2012-01-12, 20:34:04
Wäre der Eintrag im Treiber nicht etwas früh für die übernächste Generation?
Vielleicht wirklich Canary Islands Chips, die gleichzeitig bei Global Foundries gefertigt werden.

Spasstiger
2012-01-12, 20:47:25
Tiran soll auch die Stelle gewesen sein, an der in der Moses das Rote Meer geteilt hat. Das ging mit starkem Wind einher. Vielleicht eine Andeutung für die nötige Kühllösung. ;)
Oder man will die Eigenschaften der GPU einem biblischen Wunder gleichsetzen.
Tiran würde ich auf jeden Fall mit High-End assoziieren.

Gipsel
2012-01-12, 21:23:59
Tiran würde ich auf jeden Fall mit High-End assoziieren.Wenn der kommt, ist es das Top-Modell. Das stand in einer Linie mit Cypress, Ibiza (wohl ursprünglich geplante 32nm Version der VLIW4-Architektur, Cayman taucht nicht auf) und Tahiti.
Von den Kanaren ist da allerdings nichts zu sehen. Das ist also entweder ein Ente von Charlie oder eben nur ein milder Refresh, der keine eigene Erwähnung rechtfertigt (Cayman wird an der Stelle ja auch nicht genannt). Ich würde momentan auf letztere Variante tippen, sprich CI ist ein GCN-Refresh und dann kommt ein etwas stärkeres Update mit GCN2. Aber das ist sowieso alles noch Kaffeesatzleserei. :rolleyes:

y33H@
2012-02-02, 19:56:08
Financial Analyst Day 2012: AMD bestätigt Sea-Islands-Grafikkarten für 2013 und benennt Verbesserungen (http://www.pcgameshardware.de/aid,866608/Financial-Analyst-Day-2012-AMD-bestaetigt-Sea-Islands-Grafikkarten-fuer-2013-und-benennt-Verbesserungen/Grafikkarte/News/)

Nix mit Kanarische Inseln ;.)

Duplex
2012-02-02, 21:03:32
Laut der Folie wird "Sea Islands" eine neue GPU Architektur, ich denke die größte Baustelle wird diesmal gegebüber GCN & VLIW das Frontend betreffen, dann skalieren die CUs auch besser.

M4xw0lf
2012-02-02, 21:14:40
Laut der Folie wird "Sea Islands" eine neue GPU Architektur, ich denke die größte Baustelle wird diesmal gegebüber GCN & VLIW das Frontend betreffen, dann skalieren die CUs auch besser.

Ich frage mich, wie viel daran wirklich "neu" wird - ich erwarte dann doch eher Detailverbesserungen an der GCN-Architektur.

AnarchX
2012-02-03, 08:31:11
Charlie hält an den Kanarischen Inseln fest:
Sea Islands is NOT the code name, it is Canary Islands (CI). Sea Islands is a placeholder like GCN and S. Islands on a previous slide. That’s about it for the important bits
http://semiaccurate.com/2012/02/02/amd-outs-new-client-code-names/

Knuddelbearli
2012-03-04, 11:58:33
http://www.computerbase.de/news/2012-03/amds-tenerife-ueber-20-prozent-mehr-leistung-als-tahiti/


20% wäre aber eher mau. locker 10% geht ja auf die bessere fertigung


falls sich wer wundert habs mal hier gepostet da ich nicht so recht an eine 7980 glaube passt einfach nicht rein außer sie graben wieder x2 für die dual aus

Edit. und hat Charlie am ende doch recht behalten der Name würde doch passen ? oder ist mein Geographie Sinn so früh am morgen noch im Tiefschlaf?

john carmack
2012-03-04, 12:19:54
http://www.computerbase.de/news/2012-03/amds-tenerife-ueber-20-prozent-mehr-leistung-als-tahiti/


20% wäre aber eher mau. locker 10% geht ja auf die bessere fertigung


falls sich wer wundert habs mal hier gepostet da ich nicht so recht an eine 7980 glaube passt einfach nicht rein außer sie graben wieder x2 für die dual aus

Edit. und hat Charlie am ende doch recht behalten der Name würde doch passen ? oder ist mein Geographie Sinn so früh am morgen noch im Tiefschlaf?


soll das dann die 7980 (codename: tenerife) werden? dann passt das aber nicht in den 8000er Thread...

Knuddelbearli
2012-03-04, 12:28:28
tja das eben die frage

gebe aber zu ahbe vor allem hier gepostet da ich den hier schneller gefunden hab ^^

falls charlie die Wahrheit sagt würde zumindest der Name schonmal für die 8000er Serie passen

Weisste doch höhere Nummer = besser vor allem im OEM Markt scheiß drauf das mit Ausnahme der tenerife alle nur 10% mehr Takt haben und sich sonst von der 7xxx nicht unterscheiden ^^

und auch das enhanced GCN würde dahin apssen ( eventuell ist das aber nur marketing bla bla)

Skysnake
2012-03-04, 12:44:54
Ja, das ist halt die Frage. Sortiert sich das Ding in die 7k oder 8k Serie ein.

Wenn das Ding gleich am Anfang gekommen wäre, hätte man eventuell einen salvage Part eines größeren Chips in betracht ziehen können, aber jetzt dann irgendwann, wenn die Fertigung schon relativ ordentlich läuft, wird man so etwas sicherlich nicht bringen, vor allem nicht, wenn man sich so wenig Luft gelassen hat...

Gibt also 2 Möglichkeiten:

1. Tahiti XT ist doch nicht der Vollausbau und AMD hat geflunkert
2. Das Ding ist doch ein neuer Chip und wird sich in die 8k Serie einordnen.

Knuddelbearli
2012-03-04, 12:46:59
naja 1.) kann man denke ich ausschließen wegen den namen

Zergra
2012-03-04, 12:48:08
naja 1.) kann man denke ich ausschließen wegen den namen
wieso Fixierts du dich denn auf den Namen ? Nur weil die Insel woanders liegt ? Vllt. gingen AMD auch die guten Namen dort aus :)

Skysnake
2012-03-04, 13:02:29
Oder sie wollen eben nicht zugeben, das Sie geflunkert haben :ugly:

Der Name an sich ist total fürn Poppes und sagt erst mal gar nichts.

john carmack
2012-03-04, 13:08:25
Jedenfalls hab ich keine lust in 2 Threads zu schreiben. Können wir uns da irgendwie einigen?

AnarchX
2012-06-06, 13:36:39
Planeten und holländische Inseln?
AMD6600.1 = "MARS (6600)"
AMD6601.1 = "MARS (6601)"
AMD6602.1 = "MARS (6602)"
AMD6603.1 = "MARS (6603)"
AMD6606.1 = "MARS (6606)"
AMD6607.1 = "MARS (6607)"
AMD6620.1 = "MARS (6620)"
AMD6621.1 = "MARS (6621)"
AMD6623.1 = "MARS (6623)"
AMD6610.1 = "OLAND (6610)"
AMD6611.1 = "OLAND (6611)"
AMD6631.1 = "OLAND (6631)"
AMD682B.1 = "VENUS LE"
AMD6823.4 = "VENUS PRO"
AMD6821.1 = "VENUS XT"
AMD6820.2 = "VENUS XTX"

http://forums.guru3d.com/showpost.php?p=4335465&postcount=14

M4xw0lf
2012-06-06, 13:46:22
Venus LE, PRO, XT, XTX? Resteverwertung maximiert? ^^

AnarchX
2012-06-06, 13:48:40
Bei Cape Verde gab es auch eine XTX-Version, die aber im Endeffekt nicht veröffentlicht wurde.

Pick
2012-06-07, 00:59:46
AMD66XX = Mars/Oland
AMD67XX = Tahiti
AMD68XX = Venus

Mars Island (British Columbia, Canada)
Oland Island (Sweden, Europe)
Venus Islands (Philippines, Asia)

Skysnake
2012-06-07, 01:07:45
Was hat jetzt Tahiti damit zu tun? :ugly:

Pick
2012-06-07, 01:45:41
Was hat jetzt Tahiti damit zu tun? :ugly:

AMD679E.1 = "TAHITI LE" ist 7930, vorubergehende losung :wink:

Skysnake
2012-06-07, 11:01:33
Aber da steht doch in dem Quote rein gar nichts von nem 67xxx sondern.

Ich weiß echt nicht, wie du jetzt auf Tahiti kommst :confused:

deekey777
2012-06-07, 11:20:26
Aber da steht doch in dem Quote rein gar nichts von nem 67xxx sondern.

Ich weiß echt nicht, wie du jetzt auf Tahiti kommst :confused:
http://forums.guru3d.com/showpost.php?p=4335465&postcount=14
Klick mal auf Spoiler.
Sind bloß ergänzende Infos, dass eine HD7930 kommen wird (welch' Überraschung).

Skysnake
2012-06-07, 11:45:38
Ach so jetzt. Das hätte man aber auch einfach etwas ausführlicher schreiben können, so das man auch versteht, was gemeint ist.

Naja, ich warte ja auf die FirePro......

Ich verstehs ECHT nicht, das AMD da nicht in die Pushen kommt.....

V2.0
2012-06-07, 12:28:08
Wahrscheinlich hat man nicht genug kaputte Tahitis und nicht genug Wafer um welche gezielt zu disabeln.

AnarchX
2012-06-07, 13:25:41
Ich verstehs ECHT nicht, das AMD da nicht in die Pushen kommt.....
Da könnte man wohl langsam Gerüchte verbreiten, dass bei Tahiti einige Profi-Features verbuggt sind. ;D

Tahiti LE war schon in der 12.4 Beta: http://benchmark3d.com/amd-catalyst-12-4-beta-8-96-15-march

Aber der Abstand zwischen 7870 und 7950 ist schon relativ gering, als dass eine weitere SKU dazwischen Sinn macht. Vielleicht wieder nur ein Osteuropa/Asien-Abverkauf wie die HD 6930.

Skysnake
2012-06-07, 13:30:42
Verschreis nicht...

So langsam bekomme ich da aber auch ein schlechtes Gefühlt.

Ok, es ist ja normal, dass die Profikarten etwas später kommen, einfach weil die zusätzlichen Features getestet werden müssen, der 24/7 Betrieb gesichert sein muss und eben auch die ganzen Software-Zertifikate besorgt werden müssen. Aber das ist jetzt dann bald nen halbes Jahr. Da bekommste ja sogar nen kompletten Respin bald hin...

Vor allem hätte AMD halt mal ECHT richtig Boden gut machen können, weil bei nVidia eben erst mit GK110 etwas vernünftiges für HPC kommt. Die Zeit hätte man echt nutzen können, aber nein....

Gibts eigentlich Gerüchte, warum da nichts kommt?

HPVD
2012-06-07, 18:59:19
im Notebookbereich scheints doch mit den FirePros zumindest gerüchteweise etwas voran zu gehen. Die Rede ist von M2000 und M4000.
Quelle: z.B. hier: http://www.notebookcheck.com/HP-Mobile-Workstations-HP-EliteBook-8470w-8570w-und-8770w.74567.0.html
oder auch hier:
http://www.notebookcheck.com/Dell-Details-zu-Precision-M4700-und-M6700-sowie-Alienware-M18x-R2.73484.0.html


Gruß HPVD der auch gespannt auf eine FirePro mit viiiiel Speicher ist...

Leonidas
2012-06-07, 22:16:33
Welcher Codename ist denn nun der derzeit favoritisierte? Central, Canary oder Sea Islands?

AnarchX
2012-06-07, 22:21:12
Laut AMDs Analyst Day Folien heißt die Desktop Familie Sea Islands: http://legitreviews.com/images/news/2012/amd-sea-islands.jpg

Vielleicht sind es ja (North) Sea Islands, wozu Oland passen würde.

Duplex
2012-06-07, 22:28:41
Außerdem steht auf der Folie "New GPU Architecture"

Die CUs/Shader erweitern ist für die Entwickler kein Problem wenn die Leistungsaufnahme erhöht wird.
Die große Baustelle sollte das Frontend sein, damit die GPU Shader / CUs besser skalieren.

Was ist von den 2 möglichkeiten wahrscheinlicher?

1.
Große Frontend Verbesserungen
32 ROPS
2560 GPU Shader (40x64) +25%
225w

2.
Kleine Frontend Verbesserungen
48 ROPS
3072 GPU Shader (48x64) +50%
250W

Locuza
2012-06-08, 01:50:22
Außerdem steht auf der Folie "New GPU Architecture"

Ich denke man kann es unterschiedlich lesen. Eher denke ich an New ( GPU Architecture and HSA Features). Das New soll nicht für eine neue Architektur stehen, sondern nur für eine Verbesserung mit neuen Features + für HSA ebenfalls.

Gluckstaler
2012-06-08, 04:42:55
Welcher Codename ist denn nun der derzeit favoritisierte? Central, Canary oder Sea Islands?

"C-Islands (CI)"

im Englischen ausgesprochen als 'Sea Islands'. Falls irgend jemand jemals auf eine Karte geschaut hat, Cape Verde ist auf der NORDhalbkugel im Atlantik und nicht wie Pitcairn, Tahiti und New Zealand auf der Suedhalbkugel und im Pazifik. Was bedeuten koennte, dass bei der kommenden Refresh-Generation Cape Verde nicht ersetzt wird und Charlie dazu inspiriert hat, das C als Canary Islands zu interpretieren.

Bezueglich Duplex' Spekulationen, zu Tahiti's Nachfolger, sieht Nummer eins wahrscheinlicher aus, d.h. unter anderem auch weil Cape Verde und Pitcairn von der CU-Anzahl Die-Shrinks von Juniper und Cypress sind (und deshalb fuer GCN unlogisch aufgebaut erscheinen). Deshalb koennten die anderen zwei von der CU Anzahl Die-Shrinks von Barts (14x64) und Cayman (24x64) sein.

Aber irgendwie glaube ich nicht so recht, dass AMD ganze 40 CUs in Tahiti's Nachfolger investiert, hoechstwahrscheinlich werdens nur 36 (plus besseres Frontend) sein. :(

AnarchX
2012-06-08, 09:02:27
Was ist von den 2 möglichkeiten wahrscheinlicher?

1.
Große Frontend Verbesserungen
32 ROPS
2560 GPU Shader (40x64) +25%
225w

2.
Kleine Frontend Verbesserungen
48 ROPS
3072 GPU Shader (48x64) +50%
250W
Hängt wohl ganz davon ab, ob AMD sich deutlich jenseits der 400mm² bewegen möchte.
Vielleicht sinkt ja auch wieder die ALU-Zahl, ähnlich wie bei Cayman.

Skysnake
2012-06-08, 09:40:19
Die Anzahl der ALUs wird ganz sicher nicht sinken. Dazu gibt es keinen Grund. Die Veränderungen, die bei Caymann dazu geführt haben gibt es jetzt einfach nicht mehr mit den 1D Shadern.

Ich denke man kann es unterschiedlich lesen. Eher denke ich an New ( GPU Architecture and HSA Features). Das New soll nicht für eine neue Architektur stehen, sondern nur für eine Verbesserung mit neuen Features + für HSA ebenfalls.
Die Architektur wird garantiert verändert, wobei das ja immer Hand in Hand mit neuen Features usw. geht.

Beim Nachfolger steht noch der flache kohärente x86 Adressraum aus. Der wird ja mit Trinity kommen und sollte dann eben ein Jahr später auch bei den dedizierten GPUs da sein.

Dazu könnten wohl noch so features kommen wie eigene Task-Erzeugung der GPU, sprich Sie kann selbst wiederum Kernels starten und damit unabhängig von der CPU arbeiten.

boxleitnerb
2012-06-08, 09:43:55
Dazu könnten wohl noch so features kommen wie eigene Task-Erzeugung der GPU, sprich Sie kann selbst wiederum Kernels starten und damit unabhängig von der CPU arbeiten.

Ist das nicht von Nvidia für BigK patentiert?

AnarchX
2012-06-08, 09:48:13
Die Anzahl der ALUs wird ganz sicher nicht sinken. Dazu gibt es keinen Grund. Die Veränderungen, die bei Caymann dazu geführt haben gibt es jetzt einfach nicht mehr mit den 1D Shadern.

Trotzdem könnte man etwas ALU-Peak-Leistung für bessere Auslastung opfern.
Zum Beispiel 1920SPs statt 2048SPs, angeordnet in drei Clustern und somit vielleicht 50% mehr Geometrie-Leistung.

Vielleicht geht man auch auf Half-Rate-DP um mit GK110 gleichzuziehen.

Skysnake
2012-06-08, 10:13:38
Glaub ich eher weniger. Für Gamer gibts die HDx8xx Serie und darunter. Sieht man doch aktuell auch schon. AMD verfolgt da anscheinend ein ähnliches Konzept wie nVidia nur nicht so agressiv.

Die Auslastung von GCN ist ja auch schon deutlich angestiegen, und wenn sollte man halt den L2 Cache und/oder die L1/Shared caches anwachsen lassen. Das würde am meisten helfen.

Auf ALUs dürfen Sie auch gar nicht verzichten, ansonsten haben Sie nämlich gegen MIC keine Chance und auch GK110 wird wohl über MIC liegen in der realen Performance. Da kann AMD nicht zurückstecken, ansonsten kannste das in der Pfeife rauchen.

Mit 1:2 DP:SP könnte man zwar etwas an SP-Leistungsverlust vertragen, dafür müsste dann aber die Effizienz wohl doch nochmals gesteigert werden, denn GK110 soll ja >90% DGEMM Effizienz haben, was schon ne Hausnummer ist. Sprich bei nVidia wird man nicht mehr soo viel an Effizienzsteigerung bezgl der Ausnutzung der theoretischen Rechenleistung sehen, ergo darf AMD nicht auf die theoretischen Werte nur schauen, sondern auf die realen Werte, die mit den neuen Generationen einfach sehr viel näher am theoretischen Maximum liegen als das früher der Fall war.

Man kann es sich also eigentlich nicht erlauben die ALUs zu reduzieren, auch wenn man von 1:4 auf 1:2 geht. GK110 wird ja 1:3 haben, und daher auch erst mal einiges vor Tahiti liegen. Ich denke AMD muss schon Tahiti mit 1:2 mindestens bringen um gegen GK110 Land zu sehen.

Nakai
2012-06-08, 13:33:17
Natürlich steht auf der Folie "New Architecture", weil es die Marketing Futzies nicht besser wissen.
Sieht für mich eher danach aus, dass das FrontEnd und Backend stark verbessert wird.

Ich bin dann eher für das hier:

1.
Große Frontend Verbesserungen
32 ROPS
2560 GPU Shader (40x64) +25%
225w

Wenn der Chip in 4 Blöcken unterteilt wird, mit skalierbarem Frontend, ergo je 640SPs (wie bei Pitcairn und Cape Verde), dann erreicht der Chip schonmal einen erheblichen Performanceboost. Würde man dann die SPs noch für GPGPU-Computing optimieren(besser für DP), dann wäre die obige Kombination sicherlich die beste Alternative.
Vorallem gegen Kepler sollte man dank höheren Taktraten sogar gegenhalten können.

davidzo
2012-06-12, 18:06:41
nach alldem wie es mit der 28nm fertigung aussieht sind ja die anfangsyields die für die ersten chips wohl nur 900-1000mhz zuließen nun auch entsprechend gestiegen sind dass 1000-1100mhz kein problem mehr sind (sowohl bei gf104 als auch tahiti).
Ich gehe davon aus, dass der trend anhält und für die refreshchips locker 1100mhz basitakt bzw. 1200.1300mhz turbo möglich sind.
Bei gf110 wird man diesen taktspielraum wohl nicht ausreizen, wegen der TDP, wohl eher aber bei AMDs MARS.

Gipsel
2012-06-12, 21:02:21
Nur mal so als Anmerkung:
yield != bin splits oder auch binning (das Sortieren in die verschiedenen Gruppen)

Ersteres ist der Anteil an überhaupt funktionstüchtigen Dies, Letzteres gibt die Verteilung der Geschwindigkeiten an (sortiert in verschiedene Klassen, den bins), die man mit diesen erreicht (zumindest wenn man von clock/speed bins redet). Heutzutage binned man oft multidimensional, also nach einer Kombination von Leakage, benötigter Spannung für eine bestimmte Taktrate usw.

mczak
2012-06-13, 04:41:24
Was ist von den 2 möglichkeiten wahrscheinlicher?

1.
Große Frontend Verbesserungen
32 ROPS
2560 GPU Shader (40x64) +25%
225w

2.
Kleine Frontend Verbesserungen
48 ROPS
3072 GPU Shader (48x64) +50%
250W
Mein Traum-GCN würde einfach mit einem dreifachen statt doppelten Frontend daherkommen, und auch die ROPs entsprechend skalieren (man will ja die 3x16 gerasterten Pixel auch ausgeben können...).
Also:
Frontend skaliert von 2 auf 3 Rasterizer, Geometry Engines etc.
48 ROPS
2304 ALUs (3x12x64) (mal ehrlich für gaming Zwecke sind das mehr als genug bei dem Chip)
TDP 225-250W :-)
Mit neuer Architektur hat das allerdings noch nicht allzuviel zu tun... Dass AMD auf 1/2 DP geht glaube ich übrigens nicht, der soll ja auch für Gaming gut sein und im Gegensatz zu nvidia ist AMD die Diesize beim Topchip offensichtlich nicht egal (der gk110 ist ja offenbar auch nicht dafür gedacht wirklich Stückzahlen im Spielermarkt zu verkaufen, dass das beim Sea-Island Top Chip auch so sein soll sehe ich nicht).

Skysnake
2012-06-13, 07:34:34
Für Gaming ist aber eher die x8x0 Serie gedacht.

HPVD
2012-06-13, 10:11:27
Da könnte man wohl langsam Gerüchte verbreiten, dass bei Tahiti einige Profi-Features verbuggt sind. ;D



durch den Start der CGN-Firepro Serie mit einer hauptsächlich auf viele Displays und weniger auf brachiale 3d Leistung ausgelegten Karte mit "kleinem" Chip wird es nun nicht gerade entkräftet:
http://www.computerbase.de/news/2012-06/amd-stellt-mit-firepro-w600-erste-gcn-karte-fuer-profis-vor/

Bin gespannt was da so kommt...

Pick
2012-06-13, 13:42:07
Drivers show HD6000 device IDs in August 2010 ---> Cayman released in December 2010 (~4 months)
Drivers show HD7000 device IDs in September 2011 ---> Tahiti released in January 2012 (~4 months)
Drivers show HD8000 device IDs in June 2012 ---> Venus released in ?????

Pick
2012-06-14, 12:09:49
http://forums.guru3d.com/showpost.php?p=4341092&postcount=11

New Cards Id:

AMD6823.2 = "AMD Radeon HD 8800M"
AMD6823.3 = "AMD Radeon HD 8800M"
AMD682B.2 = "AMD Radeon HD 8800M"
AMD6823.4 = "AMD Radeon HD 8800M"
AMD6821.2 = "AMD Radeon HD 8800M"
AMD6820.2 = "AMD Radeon HD 8800M"
AMD682B.3 = "AMD Radeon HD 8800M"
AMD6823.5 = "AMD Radeon HD 8800M"
AMD6821.3 = "AMD Radeon HD 8800M"
AMD6820.3 = "AMD Radeon HD 8800M"
AMD682B.4 = "AMD Radeon HD 8800M"
AMD6823.6 = "AMD Radeon HD 8800M"
AMD6821.4 = "AMD Radeon HD 8800M"
AMD6820.4 = "AMD Radeon HD 8800M"
AMD6820.5 = "AMD Radeon HD 8800M"
AMD6821.5 = "AMD Radeon HD 8800M"
AMD6821.6 = "AMD Radeon HD 8800M"
AMD6820.6 = "AMD Radeon HD 8800M"
AMD6823.7 = "AMD Radeon HD 8800M Series"
AMD6820.7 = "AMD Radeon HD 8800M Series"
AMD6821.7 = "AMD Radeon HD 8800M Series"
AMD682B.5 = "AMD Radeon HD 8800M Series"
AMD6823.7 = "AMD Radeon HD 8800M Series"
AMD6820.7 = "AMD Radeon HD 8800M Series"
AMD6821.7 = "AMD Radeon HD 8800M Series"
AMD682B.5 = "AMD Radeon HD 8800M Series"
AMD6823.1 = "AMD Radeon HD 8800M"
AMD682B.1 = "AMD Radeon HD 8800M"
AMD6821.1 = "AMD Radeon HD 8800M"
AMD6820.1 = "AMD Radeon HD 8800M"
AMD6600.1 = "MARS (6600)"
AMD6601.1 = "MARS (6601)"
AMD6602.1 = "MARS (6602)"
AMD6603.1 = "MARS (6603)"
AMD6606.1 = "MARS (6606)"
AMD6607.1 = "MARS (6607)"
AMD6620.1 = "MARS (6620)"
AMD6621.1 = "MARS (6621)"
AMD6623.1 = "MARS (6623)"
AMD6610.1 = "OLAND (6610)"
AMD6611.1 = "OLAND (6611)"
AMD6631.1 = "OLAND (6631)"
AMD6660.1 = "SUN (6660)"
AMD6663.1 = "SUN (6663)"
AMD6667.1 = "SUN (6667)"
AMD666F.1 = "SUN (666F)"

Sun Island (The Republic of Maldives, Asia)

AnarchX
2012-06-14, 14:05:38
Sea Islands is the family codename of desktop cards.
Mobile GPUs do not have to be named like islands. Current mobile family is London, with members named after famous places in this city.

Next mobile family could be "Sun System". ;)

btw.
AMD682x ~ (HD 8880M) was "Venus" in last driver. HD 7800M is Cape Verde based, so Venus is probably a solution between Cape Verde and Pitcairn.

Duplex
2012-06-17, 14:25:34
Ich denke man kann es unterschiedlich lesen. Eher denke ich an New ( GPU Architecture and HSA Features). Das New soll nicht für eine neue Architektur stehen, sondern nur für eine Verbesserung mit neuen Features + für HSA ebenfalls.
Unter neuer Architektur versteht man aber eig. etwas anderes.

Hängt wohl ganz davon ab, ob AMD sich deutlich jenseits der 400mm² bewegen möchte.
Warum nicht, bei Cayman wurde die Fläche gegenüber Cypress fast um 20% gesteigert, Tahiti hat aktuell 365mm² DIE Space, wenn man das DIE 20% vergrößert kommt man auf ca. 440mm², damit kann man mehr als 2x Pitcairn bauen.

Bei 400mm² sollten 2560 Shader möglich sein, mit 440mm² sogar 3072 Shader.


Vielleicht sinkt ja auch wieder die ALU-Zahl, ähnlich wie bei Cayman.
Ziemlich unwahrscheinlich, erst recht wenn man die Leistung spürbar steigern möchte.


Mein Traum-GCN würde einfach mit einem dreifachen statt doppelten Frontend daherkommen, und auch die ROPs entsprechend skalieren (man will ja die 3x16 gerasterten Pixel auch ausgeben können...).
Also:
Frontend skaliert von 2 auf 3 Rasterizer, Geometry Engines etc.
48 ROPS
2304 ALUs (3x12x64) (mal ehrlich für gaming Zwecke sind das mehr als genug bei dem Chip)
TDP 225-250W :-).
Hier gibt es wieder das Problem das die ALU Anzahl nicht großartig vergrößert wird, was passiert wenn das neue Frontend Probleme bereitet? Das Risiko ist größer als wenn man zum Großteil nur die CUs erweitert.

mczak
2012-06-18, 01:29:06
Warum nicht, bei Cayman wurde die Fläche gegenüber Cypress fast um 20% gesteigert

Cayman kannst du nicht als Referenz nehmen, das war ein für 32nm gedachter Chip der rückportiert wurde auf 40nm. Wäre also ganz im Gegenteil wiederum ein sehr kleiner High-End Chip geworden.


Bei 400mm² sollten 2560 Shader möglich sein, mit 440mm² sogar 3072 Shader.
Hier gibt es wieder das Problem das die ALU Anzahl nicht großartig vergrößert wird, was passiert wenn das neue Frontend Probleme bereitet? Das Risiko ist größer als wenn man zum Großteil nur die CUs erweitert.
Diese Zusatzshader bringen schlicht praktisch gar nichts ohne Frontend-Aenderungen (jedenfalls nicht im Gaming-Bereich).
Warum denn wohl ist Tahiti trotz 60% mehr Shader und 50% mehr Speicherbandbreite (gut das ist nur der Fall bei gleichem Takt) bei weitem nicht derart viel schneller als Pitcairn (auch wenn du die gleich taktest - wobei bei der Speicherbandbreite hast du ja sogar mehr als 50% mehr).
Wenn du da nochmal 50% mehr Shader draufpackst ohne sonst was zu aendern profitiert Spieleperformance wohl so mit geschätzt um die 10%. Das ist nicht gerade effiziente Verwendung von Die-Fläche. Tahiti hat schon jetzt einfach kein optimales Verhältnis was ALUs/Frontend/ROPs/Speicherbandbreite betrifft, Pitcairn/Cape Verde sind da imho nahezu optimal. Das ist eben der Tatsache geschuldet dass Tahiti auch ein Compute-Chip ist, da könnte man ja die ROPs und das Frontend auch gleich weglassen...
Aber ich wage keine Prognose ob AMD den Compute- oder den Gamingaspekt stärker gewichtet - es wird wohl wieder ein Kompromiss sein. Das einzige was mir unwahrscheinlich scheint ist dass die ALU-Anzahl effektiv abnimmt, auch wenn ein solcher Chip für Gamingzwecke locker schneller sein könnte. Dafür ist der Compute-Aspekt einfach zu wichtig.

sklave_gottes
2012-06-18, 14:06:41
Cayman kannst du nicht als Referenz nehmen, das war ein für 32nm gedachter Chip der rückportiert wurde auf 40nm. Wäre also ganz im Gegenteil wiederum ein sehr kleiner High-End Chip geworden.


Diese Zusatzshader bringen schlicht praktisch gar nichts ohne Frontend-Aenderungen (jedenfalls nicht im Gaming-Bereich).
Warum denn wohl ist Tahiti trotz 60% mehr Shader und 50% mehr Speicherbandbreite (gut das ist nur der Fall bei gleichem Takt) bei weitem nicht derart viel schneller als Pitcairn (auch wenn du die gleich taktest - wobei bei der Speicherbandbreite hast du ja sogar mehr als 50% mehr).
Wenn du da nochmal 50% mehr Shader draufpackst ohne sonst was zu aendern profitiert Spieleperformance wohl so mit geschätzt um die 10%. ....

Hier ist noch nichts bewiesen, weder in die eine noch in die andere Richtung. Ich glaube immer noch nicht das es hauptsächlich am Frontend liegt.
Es liegt meiner Meinung nach eher an den ROPs. Der Kern deiner Aussage bleibt natürlich erhalten.

mfg martin

robbitop
2012-06-18, 14:16:50
Wie soll das an den ROPs liegen? Die Dinger machen so gut wie alles in einem einzigen Takt. Die lachen sich die ganze Zeit schlapp. Der Rest der Pipeline braucht Größenordnungen länger.

dargo
2012-06-18, 14:26:45
Warum denn wohl ist Tahiti trotz 60% mehr Shader und 50% mehr Speicherbandbreite (gut das ist nur der Fall bei gleichem Takt) bei weitem nicht derart viel schneller als Pitcairn (auch wenn du die gleich taktest - wobei bei der Speicherbandbreite hast du ja sogar mehr als 50% mehr).

Erstens hat Tahiti XT 48% mehr Shaderleistung als Pitcairn XT. Und zweitens 72% mehr Bandbreite. Warum letzteres soviel höher ausgefallen ist dürfte wohl mittlerweile bekannt sein. Tahiti ist nicht nur zum Gamen gedacht. Und ja... es gibt Games wo die Shaderleistung nahezu 1:1 umgesetzt wird. Habe ich hier schon geschrieben.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9348560&postcount=2358

Das mit dem limitierenden Frontend halte ich für ein Gerücht.

robbitop
2012-06-18, 14:47:33
Naja das Front End limitiert so lange, bis die Pixel Last den Geometrieflaschenhals übersteigt und zum neuen Flaschenhals wird.
In "normalen" Settings ist das nie der Fall und das erklärt auch die Benchmarkergebnisse.
Mit Hoher Auflösung und ordentlich DS / SSAA sollte das etwas abgemildert sein. Das war ja bei den Vorgängern ähnlich zu beobachten.

dargo
2012-06-18, 14:51:49
Mit Hoher Auflösung und ordentlich DS / SSAA sollte das etwas abgemildert sein. Das war ja bei den Vorgängern ähnlich zu beobachten.
Ich beziehe mich hier gar nicht auf DS oder SSAA. Ich rede von ganz normalen Settings @2560x1440 4xMSAA/16xAF. Die fps liegen auch noch in spielbaren Bereichen. Das man bei einem Tahiti die Auflösung gut anheben muss ist doch klar, ansonsten landet man schnell in gewissen CPU-Limits. Und wenn die CPU limitiert dann ist es auch logisch, dass der Abstand zum Pitcairn kleiner ausfällt.

robbitop
2012-06-18, 15:04:46
Und warum skaliert SLI noch deutlich darüber hinaus? Das müsste dann ja am CPU Limit kleben.

HOT
2012-06-18, 15:07:32
Also Tahiti vs. Pitcairn bei Games passt doch gut zusammen finde ich... ich glaub nicht, dass da am Frontend was beim Tahiti anders ist als beim Pitcairn, außer der Double-Precision-Unterstützung, die etwas mehr Durchsatz benötigen dürfte. Tahiti schleppt vllt. 10% mehr Ballast mit sich herum, was negaitv in der Energiebilanz auffällt, das wars dann aber auch. Bei 7870 vs. 7950 muss man immer bedenken, dass es 1000 zu 800MHz gleichzeitig steht...

dargo
2012-06-18, 15:20:31
Und warum skaliert SLI noch deutlich darüber hinaus? Das müsste dann ja am CPU Limit kleben.
Es gibt nicht nur 100% Limit auf der einen oder der anderen Seite. Manchmal frage ich mich was daran so schwer zu verstehen ist? Wenn ich rohe GPU-Daten vergleiche wie zb. die Shaderleistung dann reicht es nur aus, dass die CPU minimal limitiert und schon hast du keine exakte 1:1 Skalierung.

robbitop
2012-06-18, 15:22:51
naja die 7970 muss schon ~45 % mehr FPS haben, sonst limitiert was.
Das Problem ist, dass Textur-, Aritmetikleistung und Bandbreite um mindesten 45 % höher sind. Und genau das kommt nur selten an. Das Frontend ist eben nicht 45 % schneller sondern sogar langsamer (weniger Takt ^^ ansonsten das gleiche).
Wenn jetzt SLI/CF nicht skalieren würde, könnte man CPU Limit vermuten. Da es aber skaliert, ist es auch kein CPU Limit. Eine Front-End Limitierung ist schon länger zu beobachten, da die Radeons seit der HD4 Reihe nicht mehr so mitskalieren, wie Rechenleistung und Aritmetikleistung steigen. Dann fehlt häuptsächlich Geometrieleistung.

dargo
2012-06-18, 15:24:09
Bei 7870 vs. 7950 muss man immer bedenken, dass es 1000 zu 800MHz gleichzeitig steht...
Vollkommen richtig. Zudem ist die Shaderleistung vom Tahiti Pro nur minimal über der eines Pitcairn XT. Das sind lächerliche 12%. Hat man ein Spiel welches nicht besonders shaderlastig ist... schwups... liegen Pitcairn XT und Tahiti Pro nahezu auf dem selben Level.

naja die 7970 muss schon ~45 % mehr FPS haben, sonst limitiert was.

Und das hat sie, öfter als du glaubst wenn man ein CPU-Limit vollständig ausschließt und das Spiel besonders shaderlastig ist.


Das Problem ist, dass Textur-, Aritmetikleistung und Bandbreite um mindesten 45 % höher sind. Und genau das kommt nur selten an.

Nochmal... ist man weit von den 45% entfernt ist man entweder im CPU-Limit zu X% oder das Spiel ist nicht besonders shaderlastig.

Eine Front-End Limitierung ist schon länger zu beobachten, da die Radeons seit der HD4 Reihe nicht mehr so mitskalieren, wie Rechenleistung und Aritmetikleistung steigen. Dann fehlt häuptsächlich Geometrieleistung.
Ich rede jetzt vom Frontend beim Tahiti im Vergleich zu Pitcairn und nicht allgemein von den Radeons.

robbitop
2012-06-18, 15:37:41
Wie willst du denn das Limit des Frontends ausschließen? Eigentlich müsste man Testweise die CPU mächtig übertakten und schauen, welchen Einfluss das hat.

Da sieht man leider mal wieder, dass nur die wenigsten fähig sind saubere Benchmarks zu fahren, die auch konkludente Werte liefern und bei Anomalien diese zu hinterfragen und die Ursachen zu analysieren. (und nicht auch Treiberrecycling zu betreiben)
Schade, dass man sich nicht auf quasi-professionelle Benchmarks verlassen kann....

dargo
2012-06-18, 15:45:56
Wie willst du denn das Limit des Frontends ausschließen?
In dem ich die GPU und Bandbreite um Faktor X übertakte und das ganze um Faktor X in mehr fps umgemünzt wird. Bei der Übertaktung werden alle relevanten Bereiche eben um Faktor X angehoben, auch die Aluleistung. An den Verhältnissen ändert sich also nichts.

HOT
2012-06-18, 15:47:47
Also bei ht4u.net z.B. ist die 7970 bei DX11 oft 30-50% vor der 7870. Wenn man CPU-Limits usw. mitbedenkt, dann liegt das doch voll im Rahmen oder? Na ja, es gibt bescheuerte Ausreißer wie Crysis2, aber das würde ich mal unter grottig-gemacht abstempeln. Da kann Yerli noch so viel behaupten, dass die Cryengine3 so viel toller ist als die UE4, optimierungstechnisch ist da aber offenbar auch nur halb soviel Arbeit reingeflossen, wenn überhaupt... (nur um mal darauf rumzuhacken :D).

Gipsel
2012-06-18, 15:49:07
Ich beziehe mich hier gar nicht auf DS oder SSAA. Ich rede von ganz normalen Settings @2560x1440 4xMSAA/16xAF.Ob man eine hohe Auflösung fährt oder DS (OGSSAA) oder eine andere Form von SSAA (SGSSAA) nutzt, ist gehupft wie gesprungen. Das hat alles den Effekt, das mehr Pixel (eigentlich Fragments) durch die Pipeline geschleust werden müssen. Und größere Mengen Pixel pro Dreieck entlasten das Frontend und belasten proportional den Shader-Core mehr, der zudem dann auch besser ausgelastet werden kann (und das Pixel-Backend [ROPs] arbeitet in diesen Situationen effizienter ;)).
Also meiner Meinung nach hat mczak schon eine ganz gute Einschätzung abgeliefert.
Also Tahiti vs. Pitcairn bei Games passt doch gut zusammen finde ich... ich glaub nicht, dass da am Frontend was beim Tahiti anders ist als beim Pitcairn, außer der Double-Precision-Unterstützung, die etwas mehr Durchsatz benötigen dürfte.Und was hat DP mit dem Frontend zu tun? Gar nichts!
Aber Du hast recht, daß Tahiti und Pitcairn das gleiche Frontend besitzen. Und da jetzt ein Tahiti 60% mehr Shadereinheiten und ein 50% breiteres Speicherinterface (das allein steigert übrigens bereits die Leistung der gleichen Anzahl der ROPs in Situationen, die mit dem 256Bit-Interface von Pitcairn ab und zu in ein Bandbreitenlimit laufen können) als Pitcairn zur Verfügung steht, wird das natürlich auch in mehr Situationen limitieren können. Ein 50% verbreitertes Frontend würde sicherlich Tahiti in diesen Situationen auch deutlich weiterhelfen.

Ein meiner Meinung nach häufig unterschätzter Aspekt ist übrigens eine flexible und schnelle work distribution (kann man, wenn man will auch zum Frontend zählen). Alle Shader in der DX- (oder was auch immer) Pipeline wird ja auf einem Shadercore (sind halt unified shader Architekturen) ausgeführt. Da gibt es also sozusagen einen großen globalen Scheduler, der die Arbeit auf die einzelnen SM(X)s/CUs/SIMDs verteilt, wobei natürlich alle Daten (die Verknüpfungen zwischen den Stufen bzw. die Parameter) immer entsprechend zur Verfügung stehen müssen und einige davon auch aus fixed function Hardware kommen können (Tessellator, Rasterizer, ROPs), die also auch entsprechend eingebunden und berücksichtigt werden müssen. Dies ist insbesondere wichtig, da alle Stufen bzw. Shaderarten in der Praxis in Games parallel laufen (anders als bei Compute-Shadern!), man also auch ein vernünftiges Load-Balancing benötigt (das steckt übrigens auch in den Spieleprofilen ;)). Da kann man enorm viel Performance verschenken, wenn die work distribution z.B. nicht vernünftig mit der Anzahl der daran hängenden Shadereinheiten skaliert.

dargo
2012-06-18, 15:49:55
Also bei ht4u.net z.B. ist die 7970 bei DX11 oft 30-50% vor der 7870. Wenn man CPU-Limits usw. mitbedenkt, dann liegt das doch voll im Rahmen oder?
Natürlich... das versuche ich die ganze Zeit zu erklären. :freak:

Ob man eine hohe Auflösung fährt oder DS (OGSSAA) oder eine andere Form von SSAA (SGSSAA) nutzt, ist gehupft wie gesprungen. Das hat alles den Effekt, das mehr Pixel (eigentlich Fragments) durch die Pipeline geschleust werden müssen. Und größere Mengen Pixel pro Dreieck entlasten das Frontend und belasten proportional den Shader-Core mehr, der zudem dann auch besser ausgelastet werden kann (und das Pixel-Backend [ROPs] arbeitet in diesen Situationen effizienter ;)).

Da will ich dir gar nicht widersprechen. Es ging mir nur darum, dass man eben eine möglichst 100%-ige GPU-Last provozieren muss (wie ist erstmal egal) damit rohe Daten überhaupt erstmal 1:1 skalieren können. Hätten wir bsw. einen Quad @Ivy Bridge mit 10Ghz müsste man sicherlich nicht so hohe Settings fahren.

robbitop
2012-06-18, 16:10:11
Vieleicht müssten auch die Testsysteme ein wenig hochgezogen werden. 4,5 GHz Sandybridge mittels Übertaktung sind ja kein Problem mehr. Das würde das CPU Limit schonmal mildern.

aufkrawall
2012-06-18, 16:40:23
Woher kann eigentlich der teilweise enorme Performance-Boost vom letzten Alpha-Treiber kommen?
Das Front End wird dadurch ja nicht schneller. ;)

dargo
2012-06-18, 16:45:23
Vieleicht müssten auch die Testsysteme ein wenig hochgezogen werden. 4,5 GHz Sandybridge mittels Übertaktung sind ja kein Problem mehr. Das würde das CPU Limit schonmal mildern.
Ein mildern reicht nicht. Man muss es komplett eliminieren. Ich verstehe aber schon was du meinst.

Gipsel
2012-06-18, 17:09:17
Woher kann eigentlich der teilweise enorme Performance-Boost vom letzten Alpha-Treiber kommen?
Das Front End wird dadurch ja nicht schneller. ;)
Letzter Absatz hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9349263#post9349263). ;)
Die meisten Treiberverbesserungen bzw. Spielprofile drehen daran (die work distribution / load balancing ist zumindest bei AMD nicht wirklich hard wired sondern kann vom Treiber konfiguriert/umprogrammiert werden). Dann wird noch Feintuning beim Managing der verschiedenen Buffer betrieben und dann war es das häufig auch schon. Ich vermute sehr stark, daß die alten Methoden, z.B. intensiv betriebenes Shader-Replacement, seit geraumer Zeit ziemlich auf dem Rückmarsch sind. Es gibt heute so viele Shader in so vielen Spielen, daß da höchstens noch ganz kritische Fälle in AAA-Titeln eine Sonderbehandlung bekommen.

sklave_gottes
2012-06-18, 19:16:52
Wie soll das an den ROPs liegen? Die Dinger machen so gut wie alles in einem einzigen Takt. Die lachen sich die ganze Zeit schlapp. Der Rest der Pipeline braucht Größenordnungen länger.

Mit ROPs meine ich hauptsächlich die Z/Stencil-Units, wovon 16 pro 4er Pack ROP drin sind.
Theoretisch ! Praxis . Ich gebe zu das ich mich hier nicht so gut im detail auskenne. Aber die Werte die ich bis jetzt aus den Tests ausgewertet haben sprechen eher gegen starke Frontend Limitierung und eher für die ROPs(Z/Stencil-Units) Limitierung.

Da es zur zeit bei AMD keine Grafikkarte gibt wo die ROPs halbiert wurden kann man hier auch nur sehr gewagt vergleichen. Aber die Vergleiche die zur verfügung stehen Sprechen eher für eine ROP Limitierung.

Und das die ROPs Limitieren können sah man in der Vergangenheit schon sehr deutlich z.b. an der HD5830. Die mit ihren 16 ROPs mit ach und krach 15% vor der HD6770 lag obwohl sie von der Rohleistung bis auf die ROPs viel näher an der HD5850 dran war.
Übrigends hatte die HD5830 10% mehr Frontend power als die HD5850.

mfg martin

Gipsel
2012-06-18, 19:44:39
Mit ROPs meine ich hauptsächlich die Z/Stencil-Units, wovon 16 pro 4er Pack ROP drin sind.
Theoretisch ! Praxis . Ich gebe zu das ich mich hier nicht so gut im detail auskenne. Aber die Werte die ich bis jetzt aus den Tests ausgewertet haben sprechen eher gegen starke Frontend Limitierung und eher für die ROPs(Z/Stencil-Units) Limitierung.
[..]
Aber die Vergleiche die zur verfügung stehen Sprechen eher für eine ROP Limitierung.Welchen Unterschied macht denn jetzt Deine Einschränkung auf die Z-/Stencil-Einheiten in den ROPs? Und an welchen Werten aus welchen Vergleichen meinst Du das erkennen zu können?
Und das die ROPs Limitieren können sah man in der Vergangenheit schon sehr deutlich z.b. an der HD5830. Die mit ihren 16 ROPs mit ach und krach 15% vor der HD6770 lag obwohl sie von der Rohleistung bis auf die ROPs viel näher an der HD5850 dran war.
Übrigends hatte die HD5830 10% mehr Frontend power als die HD5850.Aber da hat AMD nicht nur einfach die Hälfte jeder ROP-Partition ausgeknipst (oder doch, ja, das haben sie gemacht). Das Problem war, daß das eher aus der Not geboren war, und die Architektur nicht für diese Art der Deaktivierung ausgelegt war. Es funktionierte zwar irgendwie, die Performance war aber offensichtlich deutlich niedriger, als wenn man von vornherein nur die Hälfte der ROPs verbaut hätte (die verbeleibenden ROPs der 5830 waren durch die Deaktivierung irgendwie beschränkt, wie die auf den Speicher zugreifen konnten; ich glaube Dave Baumann hat auf B3D mal was dazu gesagt).

fondness
2012-06-18, 23:13:27
"The Sea Islands series GPUs have already entered tape-out and should start manufacturing at the end of 2012 and will be announced in the first quarter of 2013."

http://www.digitimes.com/news/a20120615PD210.html?mod=2

Schaffe89
2012-06-18, 23:50:15
Na ja, es gibt bescheuerte Ausreißer wie Crysis2, aber das würde ich mal unter grottig-gemacht abstempeln.

Übertriebene Tesselation für nichts FTW. Logisch dass Tahiti da nicht viel schneller ist.
DAs Spiel ist einfach ein Witz in der Hinsicht komplett daneben, gut dass es den Tesselation Schalter gibt.

BTW die Frontendlimitierung ist doch Quatsch.
Wenn überhaupt limitieren die Rops, oder der Gründe der mangelnden Mehperformance sind Tesselation Limits, oder halt Titel die nicht shaderlastig sind, dargo hatts ganz gut analysiert.

Wo gibt es denn ernsthafte Anhaltspunkte für ne Frontendlimitierung?


BTW Dürfte AMD schon mit der HD8k draussen sein, während Nvidia noch am GK110 herumschraubt.
Ich hab da so Vermutungen dass die massive Fertigungsprobleme haben, mal schauen ob GK 110 noch im Q1 2013 für den Gamermarkt kommen kann.

boxleitnerb
2012-06-18, 23:55:26
Äh, GK110 hatte vor 3 Monaten den Tapeout. Deine Vermutungen sind nichts weiter als das - Vermutungen.

sklave_gottes
2012-06-19, 00:13:08
Welchen Unterschied macht denn jetzt Deine Einschränkung auf die Z-/Stencil-Einheiten in den ROPs?

Es macht natürlich keinen Unterschied und es ist nur eine wage(genauere) Vermutung.

Und an welchen Werten aus welchen Vergleichen meinst Du das erkennen zu können?

Ich kann meine Behauptung das es an den ROPs liegt noch nicht gut Untermauern. Aber ich kann ganz gut zeigen das Tahiti nicht wirklich am Frontend hängt.

Die Ausgangssituation sieht so aus.
Es herrscht in den Foren folgende Meinung:
1. Tahiti(HD79xx) kann sich von Pitcairn(HD78xx) und Cape Verde(HD77xx) nicht richtig(der Rohleistung entsprechend) absetzen.
2. Die ROPs sind bei den Aktuellen Grafikkarten mehr als Ausreichend vorhanden und drehen Däumchen.
3. Daraus folgt nun Tahiti(HD79xx) hängt am Frontend.
4. Pitcairn(HD78xx) und Cape Verde(HD77xx) dagegen weniger bis garnicht.

Sehen wir uns nun die HD7970 und die HD7950 genauer an.
Wir takten eine HD7950 auf etwa 1057mhz(GPU) und 2750mhz(Speicher).
Nun sind alle Rohdaten c.a. gleich bis auf die ROPs und das Frontend, hier hat die HD7950 14,3% mehr Leistung.
-----> HD7950@1057/2750 ist in Spielen c.a. 7-10% schneller als HD7970@Stock
Möglichkeit---> Frontend oder die ROPs Limitieren.

Sehen wir uns nun die HD7870 und die HD7850 genauer an.
Wir takten eine HD7850 auf etwa 1062mhz(GPU) und 2500mhz(Speicher) und
die HD7870 auf etwa 850(GPU) und 2500mhz(Speicher)
Nun sind alle Rohdaten c.a. gleich bis auf die ROPs und das Frontend, hier hat die HD7850 24% mehr Leistung.
-----> HD7850@1062/2500 ist in Spielen c.a. 12-16% schneller als HD7870@850/2500
Möglichkeit---> Frontend oder die ROPs Limitieren.

Bei Cape Verde sieht es so aus wie bei Pitcairn.

Mein Fazit:
Da bei Pitcairn das Frontend nicht Limitieren soll können es ja nur noch die ROPs sein. Denn wenn das Frontend schon bei Pitcairn Limitieren würde, müsste Tahiti sehr stark einbrechen gegenüber Pitcairn.

Mit Limitieren meine ich, dass man durch eine höhere Anzahl an ROPs noch gut Leistung raus holen kann.


Aber da hat AMD nicht nur einfach die Hälfte jeder ROP-Partition ausgeknipst (oder doch, ja, das haben sie gemacht). Das Problem war, daß das eher aus der Not geboren war, und die Architektur nicht für diese Art der Deaktivierung ausgelegt war. Es funktionierte zwar irgendwie, die Performance war aber offensichtlich deutlich niedriger, als wenn man von vornherein nur die Hälfte der ROPs verbaut hätte (die verbeleibenden ROPs der 5830 waren durch die Deaktivierung irgendwie beschränkt, wie die auf den Speicher zugreifen konnten; ich glaube Dave Baumann hat auf B3D mal was dazu gesagt)

Das kann natürlich sein, b.z.w. kann von mir nicht wiederlegt werden. In wie weit das wirklich den Speed der HD5830 eingeschrenkt hat bleibt aber offen.
Es gab auch schon vorher Karten die eine ROP Limitierung vermuten lassen, aber schon zu alt sind um hier eine Relevanz zu haben.(HD4670)

mfg martin

Gipsel
2012-06-19, 01:31:27
Mal ein kleines Gedankenexperiment:
Man nehme einen HD7870 und setze Kern- sowie Speichertakt auf genau die Hälfte einer HD7770, so daß beide exakt die gleichen theoretischen Leistungsdaten haben. Welche Karte ist schneller in Spielen?

Antwort: Die HD7770.
Warum? Weil das Frontend (mitsamt work distribution) für weniger Einheiten einfacher ist und (sehr wahrscheinlich) effizienter funktioniert.

Und analog zum Beispiel im anderen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9349503#post9349503) setzen Limits sehr selten digital ein (nur in höchst synthetischen Tests), sondern allmählich und schleichend.

mczak
2012-06-19, 01:44:16
Naja also vielleicht habe ich etwas übertrieben dass man mit 50% mehr Shader-Einheiten kaum Performance herausholen kann. Es gibt durchaus Spiele die von Pitcairn zu Tahiti ansprechend skalieren - ob genau diese nicht doch auch bedeutend von mehr Bandbreite profitieren weiss ich nicht genau, das müsste man testen (oder einige Zahlen aus mehreren Reviews zusammensuchen). Man muss ja auch bedenken dass die Shader bei den GCN-Chips bloss etwa die Hälfte der Chipfläche ausmachen - wenn also mit 50% mehr Shader 25% mehr Performance rauskommen würde wäre das gar nicht mal so schlecht.
Trotzdem bleibe ich dabei einfach mehr Shader ist nicht der ideale Weg um einen Tahiti raufzuskalieren, weil der eben im Gegensatz zu Pitcairn/CapeVerde schon verhältnismässig deutlich mehr ALUs hat. Ein leichtes ALU-Uebergewicht macht ja noch Sinn wegen Compute, aber wird das Verhältnis noch mehr verschoben wird der Chip für Gaming einfach weniger ideal weil's da eben sonstwo fehlt - sei das jetzt ROPs, Frontend/Geometry/Tesselation, Limitierungen bei Thread-issue.

StefanV
2012-06-19, 07:25:59
Mal ein kleines Gedankenexperiment:
Man nehme einen HD7870 und setze Kern- sowie Speichertakt auf genau die Hälfte einer HD7770, so daß beide exakt die gleichen theoretischen Leistungsdaten haben. Welche Karte ist schneller in Spielen?

Antwort: Die HD7770.
Warum? Weil das Frontend (mitsamt work distribution) für weniger Einheiten einfacher ist und (sehr wahrscheinlich) effizienter funktioniert.

Und analog zum Beispiel im anderen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9349503#post9349503) setzen Limits sehr selten digital ein (nur in höchst synthetischen Tests), sondern allmählich und schleichend.
Ja, etwas schmal zu bauen und hoch zu takten, war schon immer 'effizienter' als etwas breit zu bauen und nicht so hoch zu takten. Zumindest was die Leistungssteigerung von einer Ausgangssituation betrifft. Nur von der Energieeffizienz reden wir mal besser nicht und auch kann man etwas nicht unendlich hoch takten. Wenn man eine HD7770 so bauen würde, dass sie von der Performance mit einer HD7870 mithalten könnte, hätte man wohl dadurch mehr Nachteile als die aktuelle HD7870, so dass es eben doch besser ist, etwas breiter zu bauen und dafür etwas Leistung, verglichen mit der Taktsteigerung, zu opfern.

Aber das war ja schon immer so ;)

Gipsel
2012-06-19, 09:24:07
Darum ging es ja ar nicht. Es ging allgemein um die Funktionsweise von Skalierung und Limits. ;)

Duplex
2012-07-04, 19:49:49
AMD soll mal zusehen das Sie das Frontend bei der HD8000 im vergleich zu Tahiti deutlich stärker machen, die GTX670 erreicht bei nur 1344 Shader > 7970 Performance, 1344 vs. 2048 Shader ist ein riesen unterschied und dabei ist die Chipfläche bei GK104 noch deutlich kleiner. Das Tahiti für den Profisegment entwickelt wurde ist völlig irrelevant da außer Nvidia hier niemand Geld macht.

disap.ed
2012-07-04, 21:16:45
AMD soll mal zusehen das Sie das Frontend bei der HD8000 im vergleich zu Tahiti deutlich stärker machen, die GTX670 erreicht bei nur 1344 Shader > 7970 Performance, 1344 vs. 2048 Shader ist ein riesen unterschied und dabei ist die Chipfläche bei GK104 noch deutlich kleiner. Das Tahiti für den Profisegment entwickelt wurde ist völlig irrelevant da außer Nvidia hier niemand Geld macht.

Das ist aber eher ein Tahiti- als ein SI-Problem, man sieht ja dass die 7870 OC auch an die 7950 rankommt trotz nur 1280 statt 1792 shader Einheiten.

Und die GTX670 sehe ich eigentlich trotzdem nicht auf Augenhöhe mit der 7970, von > Performance ganz zu schweigen.

aufkrawall
2012-07-04, 21:23:42
Und die GTX670 sehe ich eigentlich trotzdem nicht auf Augenhöhe mit der 7970, von > Performance ganz zu schweigen.
Das kommt ganz drauf an, mit welchen Anwendungen du testest.

mczak
2012-07-05, 00:11:37
Das kommt ganz drauf an, mit welchen Anwendungen du testest.
Das stimmt natürlich aber mir scheint damit da am Ende rauskommt die GTX670 ist schneller als die HD7970 muss da aber ein ziemlich einseitiger Applikationenmix verwendet werden.
Bei den Reviews denen ich traue (mit relativ vielen verschiedenen Games) ist jedenfalls die GTX680 auf Augenhöhe mit der HD7970 (und nicht der HD7970GE), und die GTX670 darunter, z.B. hier: http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index40.php. Auch wenn die GTX670 nicht so weit entfernt ist aufgrund des geringen Unterschieds zwischen GTX680 und GTX670.

aufkrawall
2012-07-05, 00:28:03
Kein Widerspruch. :)
Aber ne Ergänzung ;) :
Für den Preis könnte man aber auch mit der hier vergleichen:
http://ht4u.net/reviews/2012/gainward_geforce_gtx_670_phantom_im_test/index41.php

http://www.idealo.de/preisvergleich/OffersOfProduct/3312711_-geforce-gtx-670-phantom-2048mb-gddr5-gainward.html

Und dann nimmt es sich quasi nichts mehr.

M4xw0lf
2012-07-06, 18:27:10
Guru3d (http://www.guru3d.com/news/amd-radeon-hd-8000-sea-islands-gpu-details/) meldet 2560 Shader und 160 Textureinheiten bei 18% mehr Transistoren, 32 oder 48 Rops, weiterhin 384 bit SI, wobei 40% mehr Leistung drin sein sollen... was wohl bedeutet, dass die 25% mehr Streamprozessoren nicht die einzige Verbesserung sein können, und vielleicht doch mal das Frontend aufgebohrt wird - wenn die Prognose nicht einfach BS ist.

Gipsel
2012-07-06, 18:56:50
Guru3d (http://www.guru3d.com/news/amd-radeon-hd-8000-sea-islands-gpu-details/) meldet 2560 Shader und 160 Textureinheiten bei 18% mehr Transistoren, 32 oder 48 Rops, weiterhin 384 bit SI, wobei 40% mehr Leistung drin sein sollen... was wohl bedeutet, dass die 25% mehr Streamprozessoren nicht die einzige Verbesserung sein können, und vielleicht doch mal das Frontend aufgebohrt wird - wenn die Prognose nicht einfach BS ist.
Ist einfach ein Rehash von Leos Schätzung in einer News hier auf 3DC (http://www.3dcenter.org/news/tape-out-von-amds-sea-islands-launch-im-ersten-quartal-2013), sogar die Angaben mit den geschätzten Transistorzahlen sind gleich. Das hat also keinen weiteren Nachrichtenwert.

M4xw0lf
2012-07-06, 18:58:35
Ist einfach ein Rehash von Leos Schätzung in einer News hier auf 3DC (http://www.3dcenter.org/news/tape-out-von-amds-sea-islands-launch-im-ersten-quartal-2013), sogar die Angaben mit den geschätzten Transistorzahlen sind gleich. Das hat also keinen weiteren Nachrichtenwert.

Argh. Ich hätte es wissen müssen, dass die Prognosen von hier andernorts wieder als Gerüchte auftauchen :hammer:

OgrEGT
2012-07-06, 18:58:59
Vorausgesetzt, dass die gleiche Fertigungstechnologie mit ähnlichen Spezifikationen für Packdichte zum Einsatz kommt und dass die hinzugekommenen Transistoren größtenteils in die zusätzlichen Shadereinheiten geflossen sind:

- Shader/Gesamtfläche ca. 50 : 50 (ist zumindest bei GK104 so*)

Tahiti: 365 mm2
SeaI: 2560/2048*365mm2*50% + 365mm2*50% = ca. 410mm2

Geht. Könnte also knapp kleiner sein als R600 :freak:
____________________
*: Gibt keinen Dieshot von Tahiti, GK104 gleicher Basisfertigungsprozess

Ronny145
2012-07-06, 19:03:48
Ist einfach ein Rehash von Leos Schätzung in einer News hier auf 3DC (http://www.3dcenter.org/news/tape-out-von-amds-sea-islands-launch-im-ersten-quartal-2013), sogar die Angaben mit den geschätzten Transistorzahlen sind gleich. Das hat also keinen weiteren Nachrichtenwert.


Eine Link Angabe ist scheinbar nicht drin bei solchen Seiten, traurig.

Gipsel
2012-07-06, 19:19:20
Gibt keinen Dieshot von Tahiti, GK104 gleicher Basisfertigungsprozess
Nein? (http://www.chipworks.com/media/wpmu/uploads/blogs.dir/4/files/2012/02/7960gfx-backside.jpg)

Siehe auch hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9197796#post9197796).

Locuza
2012-07-06, 20:22:34
Das ist aber eher ein Tahiti- als ein SI-Problem, man sieht ja dass die 7870 OC auch an die 7950 rankommt trotz nur 1280 statt 1792 shader Einheiten.

Da sind aber auch ganze >20% mehr Takt mit dabei und ein geringerer Verwaltungsoverhead.

OgrEGT
2012-07-07, 05:48:58
Nein? (http://www.chipworks.com/media/wpmu/uploads/blogs.dir/4/files/2012/02/7960gfx-backside.jpg)

Siehe auch hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9197796#post9197796).

Ah, OK. Ist mir entgangen.
Die Schätzung von Shader/Gesamtfläche 50:50 kommt aber in etwa hin.

Gipsel
2012-07-07, 15:04:27
Ah, OK. Ist mir entgangen.
Die Schätzung von Shader/Gesamtfläche 50:50 kommt aber in etwa hin.Kommt drauf an wie Du rechnest. Nimmst Du die TMUs nicht mit, haben die Shader + local memory + L1-sD$ + L1-i$ zusammen nur ~33% Flächenanteil. Die TMUs + L1-vD$ nehmen immerhin ~15% der Fläche ein. Aber da die TMUs bei AMD immer gleich mit der CU-Anzahl mitskalieren, ist das eine eher akademische Frage in Bezug auf Deine Abschätzung oben, da hast Du recht. Ich wollte nur darauf hinweisen, daß es durchaus bessere Anhaltspunkte für die Verhältnisse bei Tahiti gibt, als den GK104.

OgrEGT
2012-07-07, 19:18:12
Man könnte mal den Startpost mit den derzeitig spekulierten Daten zum SeaI aktualisieren.

OgrEGT
2012-07-07, 19:19:40
Kommt drauf an wie Du rechnest. Nimmst Du die TMUs nicht mit, haben die Shader + local memory + L1-sD$ + L1-i$ zusammen nur ~33% Flächenanteil. Die TMUs + L1-vD$ nehmen immerhin ~15% der Fläche ein. Aber da die TMUs bei AMD immer gleich mit der CU-Anzahl mitskalieren, ist das eine eher akademische Frage in Bezug auf Deine Abschätzung oben, da hast Du recht. Ich wollte nur darauf hinweisen, daß es durchaus bessere Anhaltspunkte für die Verhältnisse bei Tahiti gibt, als den GK104.

Klaro. Danke nochmals für den Link zum Tahiti Die-Shot :cool:

Nakai
2012-07-08, 11:27:55
Eigentlich ist AMD doch schon gut aufgestellt. NV wird, bis aufs Highend, in jedem Sektor in die Schranken gewiesen. Das wird sich so schnell auch nicht ändern. IMO werden wird Cape Verde noch länger sehen. AMD muss GCN in den unteren Bereich bringen.
SeaIslands wird ein milder Refresh, mit ungefähr 20% Mehrperformance. Nur Venus muss etwas stärker auftreten, auch wegen GK110. Der derzeitige Abstand zwischen Tahiti und Pitcairn ist auch zu groß.

aufkrawall
2012-07-08, 12:27:26
Der derzeitige Abstand zwischen Tahiti und Pitcairn ist auch zu groß.
Du meinst wohl eher zu klein?
Die 7870 ist ja häufig mit der 7950 gleich auf.

Nakai
2012-07-08, 12:29:20
Du meinst wohl eher zu klein?
Die 7870 ist ja häufig mit der 7950 gleich auf.

Hups, natürlich.
Wenn das FrontEnd einigermaßen überarbeitet ist und die Einheitenzahl etwas ansteigt, dann wird Venus sowieso schneller zum Vorgänger, als die anderen Chips.

Locuza
2012-07-08, 12:30:56
Eigentlich ist AMD doch schon gut aufgestellt. NV wird, bis aufs Highend, in jedem Sektor in die Schranken gewiesen. Das wird sich so schnell auch nicht ändern. IMO werden wird Cape Verde noch länger sehen. AMD muss GCN in den unteren Bereich bringen.

In wie fern wird NV bei jedem Sektor in die Schranken gewiesen? ( Außer High-End).

M4xw0lf
2012-07-08, 12:33:29
In wie fern wird NV bei jedem Sektor in die Schranken gewiesen? ( Außer High-End).

Bisher zumindest durch die Nichtexistenz des Gegenangebots ;D

Locuza
2012-07-08, 13:40:38
Bisher zumindest durch die Nichtexistenz des Gegenangebots ;D
Ein Produkt was noch nicht existiert kann ich auch nicht in die Schranken weisen :tongue:
Außer man meint damit, dass Nvidia gerade nichts zu melden hat, da noch kein Gegenprodukt bei den anderen Sektoren publiziert wurde.

Nakai
2012-07-08, 14:00:40
Da braucht man nichts vergleichen. GK106 und GK107 sind schwach im Vergleich zu Pitcairn und Cape Verde. Da kann man nichts schönreden.
GK107 hat eine ähnliche Diesize wie Cape Verde und ist deutlich schwächer.
GK106 wird eine ähnliche Diesize wie Pitcairn haben und wird deutlich schwächer sein.
Ich hab es schon woanders geschrieben, aber es hat einen Grund warum NV alle Chips in den Notebooksektor gepresst hat und den Dekstopmarkt weitestgehend ignoriert.
Nur GK104 kann mit Tahiti mithalten, weil eben Tahiti auf GPGPU konzipiert ist.

Aber natürlich muss man NV anerkennen, dass sie mit ihren Chips direkt in den Notebookbereich vorgedrungen sind. Das hat AMD vollkommen verplant. Dafür hat AMD Trinity auf den Markt geschmissen, mit dem man im Notebookmarkt gar nicht mal so unerfolgreich ist.

Gipsel
2012-07-08, 14:58:24
In wie fern wird NV bei jedem Sektor in die Schranken gewiesen? ( Außer High-End).
Na, CV ist ziemlich genau so groß wie GK107 und Pitcairn hat ebenfalls ziemlich exakt GK106-Größe. Welche Benchmarks zeigen einen Vorteil für nV oder auch nur Gleichstand? Ich kenne keine.

Locuza
2012-07-08, 15:38:14
Na, CV ist ziemlich genau so groß wie GK107 und Pitcairn hat ebenfalls ziemlich exakt GK106-Größe. Welche Benchmarks zeigen einen Vorteil für nV oder auch nur Gleichstand? Ich kenne keine.
Ich kenne überhaupt gar keine Benchmarks für GK<104 :redface:
Deshalb habe ich gefragt in wie fern Sie in die Schranken gewiesen werden.
Unter mehreren Faktoren, nicht nur wenn ich der Käufer sein will, also Die-Size, Leistungsaufnahme, Performance usw.
Mir war nur, dass für den Mobile-Sektor Nvidia sehr früh Produkte vorgestellt hat, aber zu den Desktop Gegenprodukten und deren Taktung bisher noch nichts konkret ist?

Dural
2012-07-09, 17:52:25
es gibt doch noch gar keine "richtigen" retail karten von GK106 und darunter.


die gründe dürften klar sein: die meisten lieferbaren chips gehen in die notebooks von Apple und co.

Gipsel
2012-07-09, 17:58:12
es gibt doch noch gar keine "richtigen" retail karten von GK106 und darunter.Es gibt irgendwie schon GK107-Karten (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=528480). Und selbst mit GDDR5 dürften die sich nicht mit einer HD7770 messen können. Bei Notebooks gibt es ja beide Varianten und auch entsprechende Benchmarks. GK107 gewinnt keinen Blumentopf gegen CV und beide haben eine sehr ähnliche Diegröße.

Undertaker
2012-07-09, 18:16:08
So riesig ist der Unterschied allerdings nicht: Im 3DMark 11 sind es etwas über 10%, die die HD 7870M vor der GTX 660M liegt (siehe Notebookcheck).

Was viel bedeutender ist: GK107 ist seit Monaten in unzähligen Notebooks perfekt lieferbar und hat wohl bedeutend mehr Design Wins errungen.

Screemer
2012-07-09, 18:38:39
bei highend wird wegen 10% ein aufriss gemacht und im lowend/midrange bereich sind 10% dann komischerweise meist peanuts.

Raff
2012-07-09, 19:17:45
Nee, die echten Propellerjungen zanken in jedem Bereich um das letzte Prozent. Stets dabei: Umfassende Kenntnis aller Tests weltweit, damit man immer einen Cherry-Picked-Wert vorlegen kann. :biggrin:

MfG,
Raff

AnarchX
2012-07-09, 19:19:21
Bei High-End geht es ja auch um die Leistungskrone, welche bei den niederen Segmenten nicht relevant ist.

Im Notebook-Bereich hat man zudem noch das Problem, dass die Hersteller häufig die Taktraten anpassen und teilweise auch den Verbrauch und somit die Leistung drosseln.

aufkrawall
2012-07-09, 19:21:23
Gibts irgendwo ne Übersicht über die Perf./W-Verhältnisse?

Skysnake
2012-07-10, 00:38:03
Es gibt irgendwie schon GK107-Karten (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=528480). Und selbst mit GDDR5 dürften die sich nicht mit einer HD7770 messen können. Bei Notebooks gibt es ja beide Varianten und auch entsprechende Benchmarks. GK107 gewinnt keinen Blumentopf gegen CV und beide haben eine sehr ähnliche Diegröße.

Also in der aktuellen PCGH steht für die GT640 (?, grad zu faul zum nachschauen), das man mit der 7750 ca 30-70% mehr FPS bei 1/5 Mehrverbrauch in Games (37vs~44W) und unter BlueRay dann aber doch 12 vs ~24W.

Wenn man aber bedenkt, das man eben 30-70% Mehrleistung in Games hat, sind die 20% Mehrverbrauch wirklich voll auf ok.

Also GK107 gewinnt wirklich keinen Blumentopf im Desktop-Bereich, und auch im Mobile-Markt sollte es eigentlich nicht groß anders aussehen. Der wichtige Idle-Verbrauch ist ja ähnlich.

Btw. haben die Mobile Radeons auch ZeroCore? Wenn ja, wäre das mit ner APU ja schon ein sehr gutes Gegenangebot.

Und btw. noch was. Wie sieht denn der Unterschied zwischen nem Desktop Trinity und nem GK107 aus?

boxleitnerb
2012-07-10, 05:45:22
Die Frage ist, was ein GK107 mit GDDR5 leisten könnte. Wären es analog zu GT240 (oder wars 220?) 40-50% mehr, sähe die Sache schon ganz anders aus. Den Chip kannst du so nicht beurteilen. Es wird ja bei den APUs auch immer gemeckert wegen der Bandbreite - warum hier nicht?

Palpatin
2012-07-10, 07:25:28
So riesig ist der Unterschied allerdings nicht: Im 3DMark 11 sind es etwas über 10%, die die HD 7870M vor der GTX 660M liegt (siehe Notebookcheck).

Was viel bedeutender ist: GK107 ist seit Monaten in unzähligen Notebooks perfekt lieferbar und hat wohl bedeutend mehr Design Wins errungen.
Im 3dmark ist die 680 auch 10% vor der GHZ Edition der 7970, 3dmark 11 liegt der Kepler Architektur einfach zu gut um es als Maßstab nehmen zu können.

Skysnake
2012-07-10, 07:35:14
Die Frage ist, was ein GK107 mit GDDR5 leisten könnte. Wären es analog zu GT240 (oder wars 220?) 40-50% mehr, sähe die Sache schon ganz anders aus. Den Chip kannst du so nicht beurteilen. Es wird ja bei den APUs auch immer gemeckert wegen der Bandbreite - warum hier nicht?

Hat ne 7750 überhaupt immer GDDR5? Wenn nein, wie sieht die Leistung dann aus?

Man muss aber auch sagen, das es irgendwo Pech ist, wenn die DDR3 verbauen. Die Karten kosten ja gleich viel. Sprich mit GDDR5 wären Sie wahrscheinlich dann teurer als die 7750 und müssten sich mit der 7770 auseinander setzen.

Undertaker
2012-07-10, 08:56:39
Btw. haben die Mobile Radeons auch ZeroCore? Wenn ja, wäre das mit ner APU ja schon ein sehr gutes Gegenangebot.

Wofür braucht man das, wenn man sowieso Grafikumschaltung per Enduro oder Optimus hat?

Und btw. noch was. Wie sieht denn der Unterschied zwischen nem Desktop Trinity und nem GK107 aus?

Auch hier wieder ein 3DMark 11 Score: Etwa P1300 zu P2700 für GK107 im jeweiligen Maximalausbau (A10 vs. 660M)

Screemer
2012-07-10, 09:12:24
sind die gpus bei Enduro oder Optimus komplett "stromlos" bzw. könnte zerocore noch eine höheres einsparpotential bieten? mal davon ab wäre zerocore ja mit jedem chip ab der 7er-serie zu machen und dadurch plattform- und lizenz-unabhängig.

Undertaker
2012-07-10, 09:31:04
sind die gpus bei Enduro oder Optimus komplett "stromlos" bzw. könnte zerocore noch eine höheres einsparpotential bieten?

Bei Optimus ja, bei Switchable Graphics war es afair nicht der Fall - könnte aber mit Enduro verbessert worden sein.

mal davon ab wäre zerocore ja mit jedem chip ab der 7er-serie zu machen und dadurch plattform- und lizenz-unabhängig.

Nun, was heißt plattformunabhängig? Eine IGP hat eh jedes aktuelle Notebook, dazu ist Zero Core nur für den Ausnahmefall eines inaktiven Displays nützlich - mit einem Notebook werden die meisten entweder arbeiten oder es in den Standby fahren. Umschaltbare Grafiklösungen - bei denen ich übrigens nicht glaube, dass sie Lizenzgebühren kosten - sind da weitaus praktischer.

Gipsel
2012-07-10, 09:56:28
sind die gpus bei Enduro oder Optimus komplett "stromlos" bzw. könnte zerocore noch eine höheres einsparpotential bieten? mal davon ab wäre zerocore ja mit jedem chip ab der 7er-serie zu machen und dadurch plattform- und lizenz-unabhängig.ZeroCore ist praktisch die Desktop-Abwandlung dieses Features.
Bei Optimus ja, bei Switchable Graphics war es afair nicht der Fall - könnte aber mit Enduro verbessert worden sein.Das Verhalten bei Optimus/Enduro ist praktisch identisch. Mit Optimus sind die diskreten Karten genauso (wenig) komplett stromlos wie mit Enduro. Minimal Strom fließt immer, weil die Karte immer noch am PCI-Express lauschen muß, da sie ja auch mal wieder aufwachen können muß. Ohne externen Schalter geht das gar nicht anders. ;)

Screemer
2012-07-10, 10:18:47
danke für die aufklärung!

Nakai
2012-07-10, 17:00:02
Hat ne 7750 überhaupt immer GDDR5? Wenn nein, wie sieht die Leistung dann aus?

Man muss aber auch sagen, das es irgendwo Pech ist, wenn die DDR3 verbauen. Die Karten kosten ja gleich viel. Sprich mit GDDR5 wären Sie wahrscheinlich dann teurer als die 7750 und müssten sich mit der 7770 auseinander setzen.

Full Ack. Für NV ist es besser keine Konkurrenz mit dem derzeitigen unteren AMD-Lineup zu wagen. Ich gehe mal davon aus, dass NV Gk106 zwischen Pitcairn und Cape Verde ansetzen wird.

john carmack
2012-07-23, 17:09:38
Was ist HSA (Heterogeneous Systems Architecture)?

ndrs
2012-07-23, 18:50:39
Nur ein neuer Name für Fusion

nVoodoo
2012-07-23, 19:47:47
Nur ein neuer Name für Fusion


Geht HSA nicht auch in die Richtung das bei Full HSA support die HW entscheidet wo man besten Rechenvorgänge abgearbeitet werden auf CPU oder GPU? So das der Programmierer nicht mehr vorgeben muss welche Rechenaufgaben auf welcher Hardware laufen sollen?

Skysnake
2012-07-23, 19:50:53
ja, hsa geht weiter als fusion

ndrs
2012-07-24, 00:15:22
Ihr nehmts aber auch wieder genau :)
Ja, FSA wurde erst in HSA umbenannt und dann entsprechend weiterentwickelt. Die dynamische Zuweisung auf die geeignetste Hardware ist einfach der logischste Schritt. Ohne den Stress mit Arctic um den Namen wär das auch unter FSA gekommen. Aber wir wolln ja hier keine Haare spalten ^^

OBrian
2012-08-24, 02:39:24
Um den fast toten Thread mal wieder etwas Richtung Topic zurückzubringen: Gibt es denn irgendwelche Infos oder wenigstens brauchbare Gerüchte (d.h. was anderes als Leos Gedankenspiele um 20 Ecken gespiegelt) zur Radeon 8000? An das Fehlen technischer Eckdaten hat man sich ja schon längere Zeit gewöhnt, ein "schneller als die bisherigen" muß einem praktisch reichen. Aber einen groben Zeitrahmen sollte man doch irgendwo erfahren können, oder? Oder gibt es wirklich nur den bekannten orangen Kasten "Sea Islands -new GPU architecture" für 2013 auf der AMD-Roadmap-Folie?

john carmack
2012-08-24, 08:37:49
Um den fast toten Thread mal wieder etwas Richtung Topic zurückzubringen: Gibt es denn irgendwelche Infos oder wenigstens brauchbare Gerüchte (d.h. was anderes als Leos Gedankenspiele um 20 Ecken gespiegelt) zur Radeon 8000? An das Fehlen technischer Eckdaten hat man sich ja schon längere Zeit gewöhnt, ein "schneller als die bisherigen" muß einem praktisch reichen. Aber einen groben Zeitrahmen sollte man doch irgendwo erfahren können, oder? Oder gibt es wirklich nur den bekannten orangen Kasten "Sea Islands -new GPU architecture" für 2013 auf der AMD-Roadmap-Folie?


Ich glaube die letzten Gerüchte waren diese hier:
http://www.hardware-infos.com/news.php?news=4101

http://img5.fotos-hochladen.net/uploads/hd8000hg6b20rz9y.jpg

Skysnake
2012-08-24, 08:59:14
We will see

Ailuros
2012-08-24, 12:04:33
We will see

Uebliche daemliche Bumsraterei die auf praktisch gar nichts basiert. Sonst ja natuerlich ist GK110 590mm2 gross....yeahrightsureok :rolleyes:

dildo4u
2012-08-31, 01:37:32
AMD bares all with Southern Islands GPU shots

http://www.engadget.com/2012/08/30/amd-southern-islands-chip-shots/

Gipsel
2012-08-31, 08:24:52
AMD bares all with Southern Islands GPU shots

http://www.engadget.com/2012/08/30/amd-southern-islands-chip-shots/
Falscher Thread. Und bereits gepostet (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9444003#post9444003). ;)

Skysnake
2012-08-31, 08:35:57
Und was hat das jetzt mit Sea Island zu tun? Ist doch die HD7k Serie, die man da sieht, oder überlese ich irgendwas?

M4xw0lf
2012-08-31, 09:31:35
Nö, das ist SI/HD7000.

Pick
2012-09-15, 12:13:46
HD8870 and HD8850 (Sea Islands, OLAND) with AMD Wireless Display Technology
HD8870 = ~GTX680 performance
http://read2ch.com/r/jisaku/1347605134/ID:hKcZJDn

Spasstiger
2012-09-15, 12:19:14
HD8870 and HD8850 (Sea Islands, OLAND) with AMD Wireless Display Technology
HD8870 = ~GTX680 performance
http://read2ch.com/r/jisaku/1347605134/ID:hKcZJDn
Hm, quasi Tahiti ohne GPGPU-Ballast und mit 6-Gbps-256-Bit-SI? Wobei den Daten nach wohl vier SIMD-Engines gegenüber Tahiti fehlen (=> 1792 SPs).

w0mbat
2012-09-15, 12:19:25
Das sind doch einfach nur Gerüchte, oder? Januar 2013?

AnarchX
2012-09-15, 12:22:12
Natürlich, man wird wohl jetzt kaum schon einen UVP festlegen.

w0mbat
2012-09-15, 12:34:08
Mir geht es eher um das Datum ;)

john carmack
2012-09-15, 14:41:00
was ist mit Januar 2013?

mczak
2012-09-15, 16:53:31
Hm, quasi Tahiti ohne GPGPU-Ballast und mit 6-Gbps-256-Bit-SI? Wobei den Daten nach wohl vier SIMD-Engines gegenüber Tahiti fehlen (=> 1792 SPs).
Naja so kann man das auch sehen. Ich würde das allerdings eher als Pitcairn mit 8 CUs mehr betrachten :-).

Knuddelbearli
2012-09-15, 16:58:18
und hoffentlich nem tesselator mehr

Coda
2012-09-15, 18:09:23
Geht HSA nicht auch in die Richtung das bei Full HSA support die HW entscheidet wo man besten Rechenvorgänge abgearbeitet werden auf CPU oder GPU?
Nein. Das wird sie auch nie tun.

ashantus
2012-09-16, 15:12:45
Hi alle,

ich eröffne einen neuen Thread, weil die bisherige AMD 8000 Spekulatuion unter "Canary Island" läuft.

Wie videocardz heute berichtet, sind erste Spezifikationen zur neuen AMD Radeon 8870 und 8850 aufgetaucht.
Auch wenn diese Quelle nicht zu den etabliertesten Infoseiten zählt, so lag diese in der jüngsten Vergangenheit doch immer richtig. So hat diese z.B. als erste die echten Spezifikationen der GK106 vermeldet.
Die 8870 soll Nachfolger werden der 7870, also handelt es sich um die nächste Midrange Serie von AMD. Die Daten der neuen 8870/8850 sollen nun wie folgt aussehen.

AMD Radeon 8870 - Oland

Transistoren 3,4 Milliarden
Die Size 270-280mm^2
Technologie: 28nm
Anzahl Shader: 1792 oder 1536
Clock rate: 1050 MHz

Texture Füllrate: 123,2 GT/s (+65% ggü. 7870 mit 80 GT/s)
Pixel Füllrate: 35,2 GP/s (+10% ggü. 7870 mit 32GP/s)
Memory Bandbreite 192 GB/s (+25% ggü. 7870 153,6 GB/s)
Speicheranbindung 256 Bit

TDP: 160W (7870@175W)

Verkaufsstart Q1 2013,
vermutlich Anfang Februar, aber definitiv wird Weihnachten 2012 dazu genutzt die alte Serie abzuverkaufen.
Empfohlener Verkaufspreis 279$,
entspricht ca. 230 Euro und damit dem gleichen Preis wie die aktuelle 7870.

Eine Einschätzung der Information von videocardz sieht aus wie folgt. Wenn Q1 2013 Release wird der neuen Oland Serie, dann ist klar, daß bereits jetzt im September 2012 die Produktion am Start ist (Tape-out). Wenn die Produktion startet, werden brauchbare Infos zu dem Chip absehbar.



Quellenangabe:

videocardz.com vom 16.09.2012

"AMD Radeon HD 8870 and HD 8850 Specifiation Leaked

well, maybe this is not a leak, but prediction. Hard to say, it’s quite good source though — they leaked Tahiti specs few months before launch.
AMD Radeon HD 8000 series are believed to feature Sea Islands GPUs. "

http://videocardz.com/34981/amd-radeon-hd-8870-and-hd-8850-specifiation-leaked

Das Bild wurde aus juristischen Gründen nicht bernommen.

[eine persönliche Info zu mir. Ich bin neu registriert hier und normalerweise im HWLuxx Forum aktiv;gleicher username. Aber seit langem ein Leser von 3DCenter.]

AnarchX
2012-09-16, 15:54:10
Da es noch kein ernsthafter Leak ist, wird darüber erstmals weiter im Sea Islands Thread diskutiert werden.

horn 12
2012-09-16, 15:55:29
Somit sollten wohl HD 8870 und 8850 das Licht der Welt Ende November/ Anfang Dezember mit soforiger Verfügbarkeit erblicken.
Hoffe es sind mindestens 40% im Vergleich zur HD7950 / 7970 mit überarbeiteten Front-SideBus drinnen.

boxleitnerb
2012-09-16, 16:00:09
Frontend meinst du wohl. Und die 8800er Serie wird sicher nicht 40% schneller sein wie die 7900er :D

Wird der Chip durch das Frontend weniger gebremst, liegt möglicherweise auch die Auslastung höher, was mehr Verbrauch bedeutet.

aufkrawall
2012-09-16, 16:32:33
Ich würd mal nicht immer das Frontend für jeden fps-Nachteil heranziehen.
Mit SGSSAA wird deutlich, dass da noch irgendwas anderes bremsen muss, denn Skyrim, Source Engine oder Far Cry 2 sind sicherlich nicht geometrielastig.

boxleitnerb
2012-09-16, 16:44:28
Hat bei PCGH nicht jemand gesagt, dass in Außenbereichen, wo Tahiti einbricht, eben das Frontend limitiert?

aufkrawall
2012-09-16, 16:46:30
Hat bei PCGH nicht jemand gesagt, dass in Außenbereichen, wo Tahiti einbricht, eben das Frontend limitiert?
Da ist der Polygondurchsatz sicherlich höher, aber "hoch"?

boxleitnerb
2012-09-16, 16:48:25
Frag halt mal Raff oder y33H@. Zudem ich nicht sicher bin, ob das Frontend sich nur beim Polygondurchsatz bemerkbar macht.

dargo
2012-09-16, 17:27:53
Wird der Chip durch das Frontend weniger gebremst, liegt möglicherweise auch die Auslastung höher, was mehr Verbrauch bedeutet.
Bist du auch schon so ein Ökofuzzi geworden? :freak:

boxleitnerb
2012-09-16, 17:31:16
Ne, ich mein nur, dass das vielleicht nicht in AMDs Sinn liegt. Wenn sie das Frontend aufpeppen, so dass 40% mehr Leistung rauskommen, können sie gleich 300W TDP an Venus und 200W-225W an Oland dranschreiben.

horn 12
2012-09-16, 19:04:57
Da muss die HD 8000-er Serie schon gewaltig zulegen, sprich die Neue HD 8950 oder wie auch immer sie heißen mag...
Zudem mindestens gleich hohes OC Potential besitzen wie die Vorgängerkarte!!

Somit sind bei entsprechend starker CPU wohl ca. 25% Mehr Power drinnen bei 1150 bis 1200 CPU Takt gegenüber den Standardmässigen 900 Mhz (OC Version)
Dies muss die HD8000 Serie mit dem OC erst kompensieren.

Knuddelbearli
2012-09-16, 19:35:37
Ne, ich mein nur, dass das vielleicht nicht in AMDs Sinn liegt. Wenn sie das Frontend aufpeppen, so dass 40% mehr Leistung rauskommen, können sie gleich 300W TDP an Venus und 200W-225W an Oland dranschreiben.

oder einfach weniger shader verbauen und dadurch DIE fläche oder noch besser einfach niedriger takten

john carmack
2012-09-16, 19:54:38
Mein lieber man!

AMD ist in den letzten Wochen und Monaten aber ganz schön aggressiv auf dem GPU Markt!

Erst die vielen Preissenkungen und jetzt, wenn auch ungewollt, neue Gerüchte über die HD8K.

Irgendwas, wenn auch nur sehr wenig, muss ja an den Gerüchten dran sein...

Mir gefällt es aber :)

Hoffe mal das der Performance Sprung höher ausfällt als bei HD5K -> HD6K

dildo4u
2012-09-16, 20:18:13
Hoffe mal das der Performance Sprung höher ausfällt als bei HD5K -> HD6K
Wird nich viel mehr Sein der große Sprung war die erste GCN Generation + 28nm.Das Problem ist auch das AMD den Takt bei verschiedenen Modellen später angehoben hat,was den Sprung noch verkleinern wird.

Knuddelbearli
2012-09-16, 21:15:34
*muss stark bleiben und auf die 20nm Generation warten auch wenn die treiber meiner 480 sucken*

john carmack
2012-09-17, 13:46:51
Mal angenommen das die daten von Oland stimmen. mit wieviel mehrleistung könnte man ungefähr rechnen?

ndrs
2012-09-17, 15:06:56
Steht auf der Startseite

boxleitnerb
2012-09-17, 17:18:26
Mal ne Frage zum 28nm Prozess:

Angenommen, die 8970 legt nochmal 25% auf Tahiti (non-XT) drauf bei gleichem Verbrauch, dann wären wir ggü. der 6970 bei ca. 80% mehr Performance bei praktisch gleichem Verbrauch.

Bei Nvidia ähnlich:
GK104 ist ca. 35% schneller als die 580. Gehen wir mal pessimistischerweise von weiteren 35% mehr für GK110 aus, und wir landen auch bei ca. 80% mehr Performance bei gleichem Verbrauch.

Vergleicht man das mit 40nm und 65nm (bei Nvidia) hat man das ewig nicht mehr hinbekommen. Bei AMD ist es schwieriger, weil hier auf 80nm und 55nm gesetzt wurde, aber ich bin ziemlich sicher, hier zeichnet sich ein ähnliches Bild ab.

Woran liegt das? Ist der 28nm Prozess so überproportional gut oder geht man diesmal bei den Designs volle Kanne Richtung Effizienz?

fondness
2012-09-17, 17:31:09
Mal ne Frage zum 28nm Prozess:

Angenommen, die 8970 legt nochmal 25% auf Tahiti (non-XT) drauf bei gleichem Verbrauch, dann wären wir ggü. der 6970 bei ca. 80% mehr Performance bei praktisch gleichem Verbrauch.

Bei Nvidia ähnlich:
GK104 ist ca. 35% schneller als die 580. Gehen wir mal pessimistischerweise von weiteren 35% mehr für GK110 aus, und wir landen auch bei ca. 80% mehr Performance bei gleichem Verbrauch.

Vergleicht man das mit 40nm und 65nm (bei Nvidia) hat man das ewig nicht mehr hinbekommen. Bei AMD ist es schwieriger, weil hier auf 80nm und 55nm gesetzt wurde, aber ich bin ziemlich sicher, hier zeichnet sich ein ähnliches Bild ab.

Woran liegt das? Ist der 28nm Prozess so überproportional gut oder geht man diesmal bei den Designs volle Kanne Richtung Effizienz?

Beide Hersteller haben die Architektur grundlegend umgestellt, deshalb sind vergleiche mit dem Vorgängerarchitektur in 40nm mit Vorsicht zu genießen. Gerade bei NV hat die Abkehrt vom Hot-Clock mit Sicherheit seinen Teil dazu beigetragen. Bei AMD ist der Perf/Watt-Gewinn dementsprechend auch deutlich geringer. Die von dir vermuteten 25% mehr Perf bei gleichen Verbrauch für die 8970 halte ich ohne grundlegende Architekturänderungen schon für sehr optimistisch :).

john carmack
2012-09-17, 18:56:03
Steht auf der Startseite


Wo denn...? hab nichts gelesen...

Locuza
2012-09-17, 19:00:34
Wo denn...? hab nichts gelesen...
http://www.3dcenter.org/news/erste-spezifikationen-oder-spekulationen-zu-amds-radeon-hd-8800-serie

Knuddelbearli
2012-09-17, 19:01:20
30-40%

dargo
2012-09-17, 19:06:36
Angenommen, die 8970 legt nochmal 25% auf Tahiti (non-XT) drauf bei gleichem Verbrauch, dann wären wir ggü. der 6970 bei ca. 80% mehr Performance bei praktisch gleichem Verbrauch.

Ein non-XT Tahiti ist HD7950. ;) Und selbst wenn die HD8970 25% schneller als Tahiti XT wäre... wer braucht dafür eine neue Generation? Die Ghz-Edition vom Tahiti ist schon ~12% schneller als Tahiti XT. Das wäre ein megafail mit nur +25%. Oder anders gesagt gähn... :cool:

aufkrawall
2012-09-17, 19:09:27
Und selbst wenn die HD8970 25% schneller als Tahiti XT wäre... wer braucht dafür eine neue Generation?
Nur 25% mehr als Tahiti XT wär ziemlich mager.

boxleitnerb
2012-09-17, 19:11:52
Ups, ich meinte die non-GHz Edition.

dargo
2012-09-17, 19:13:50
Ups, ich meinte die non-GHz Edition.
Ja... wie gesagt. Selbst 125% eines Tahiti XT wäre ein Witz.

boxleitnerb
2012-09-17, 19:18:44
Warum eigentlich? Das wäre für 28nm insgesamt dann ein sehr vernünftiger Sprung.