PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - HD8000 alias Sea Islands (2013er HD 7000)


Seiten : 1 [2] 3 4 5

aufkrawall
2012-09-17, 19:23:42
Warum eigentlich? Das wäre für 28nm insgesamt dann ein sehr vernünftiger Sprung.
Das wird gegen GK110 ohne Schwächen bei Bandbreite und (DP-)Rechenleistung aber abstinken.

Edit: dargo schrieb ja von der 8970.

boxleitnerb
2012-09-17, 19:28:34
Die meinte ich auch. Ich glaube, dass AMD es mit GK110 nicht aufnehmen kann. Nicht so sehr aus Effizienzgründen, sondern weil ich sicher bin, dass man kein so großes Monster bauen wird.

aufkrawall
2012-09-17, 19:32:44
Die meinte ich auch. Ich glaube, dass AMD es mit GK110 nicht aufnehmen kann. Nicht so sehr aus Effizienzgründen, sondern weil ich sicher bin, dass man kein so großes Monster bauen wird.
Der Vorteil bei Kepler ist, dass sofern die Leistung nicht benötigt wird, der Energieverbrauch auf ein akzeptables Maß sinkt.
Von daher wird GK110 sicherlich der grünste Monsterchip bis dato, wenn der nur grillt, wenn mans braucht. :)

Die 7970 mit OC (1200 Mhz) zieht ja auch schon gerne mal 300 Watt.

boxleitnerb
2012-09-17, 19:41:45
Naja, wenn man es mit der Spannung übertreibt schon. 250W kann man schon hinbekommen imo.

aufkrawall
2012-09-17, 19:46:09
Naja, wenn man es mit der Spannung übertreibt schon. 250W kann man schon hinbekommen imo.
PCGH hatte afaik mal beleuchtet, dass mit OC die Leistungsaufnahme bei Tahiti XT ziemlich explodiert (ohne "krasse" Spannungserhöhung).
Da sind die 300 W mit SGSSAA unter realen Bedingungen gar nicht so utopisch (etwa bei Trine 2 mit SSAA).

Na gut, eigentlich kann man nicht meckern. 25% durch OC ohne nerviges PowerTarget sind ne nette Sache.
Zumal man bei der 8970 ja wohl auch eher den Weg des dickeren Chips geht.

Schaffe89
2012-09-17, 19:47:10
Also ich geh mal davon aus, dass wir von der Ghz Edition ausgehen so 20 bis 25% mehr Leistung sehen werden, mehr ist einfach weniger wahrscheinlich.

Ich denke schon, dass GTX 680 + 30% reichen wird um zumindest den Salvage Part von GK110 zu schlagen.

AMD´s Vorteil wird wohl wieder sein früher am Markt zu sein und diese runde etwas agressiver die Preise anzusetzen.
Evtl die HD 7870 noch auf ~150 runter anfang 2013 und dann mit ~250 Dollar MSRP bei der 8870 einsteigen.

boxleitnerb
2012-09-17, 19:49:02
PCGH hatte afaik mal beleuchtet, dass mit OC die Leistungsaufnahme bei Tahiti XT ziemlich explodiert (ohne "krasse" Spannungserhöhung).
Da sind die 300 W mit SGSSAA unter realen Bedingungen gar nicht so utopisch (etwa bei Trine 2 mit SSAA).

Na gut, eigentlich kann man nicht meckern. 25% durch OC ohne nerviges PowerTarget sind ne nette Sache.
Zumal man bei der 8970 ja wohl auch eher den Weg des dickeren Chips geht.

Hast ne Quelle dazu?

aufkrawall
2012-09-17, 19:54:35
Hast ne Quelle dazu?
Nein, ich hab mich nur auf die unbelegten Spekus hier bezogen.
Aber du siehst ja, wie mehr Takt schon bei der offiziellen Ghz-Edition quasi schief gegangen ist:
Nach über einem halben Jahr ein im Referenzdesign völlig unbrauchbarer Papiertiger (Wer tut sich den Pfeif- und Lüfterradau an?).

Was sollen die ein weiteres halbes Jahr später am Design ändern, um bei einem vergleichbar großen Chip wie Tahiti XT diese Probleme mit höherem Takt in den Griff zu bekommen?
Zumal Tahiti XT erst der letzte Major-Sprung war.

Reine Speku natürlich.

boxleitnerb
2012-09-17, 19:57:54
Da hatte ich neulich ne Diskussion in einem anderen Forum zu. Die GHz-Edition ist verschwenderischer als nötig. Die Partnerversionen brauchen zwar ähnlich viel, takten dafür aber nochmal ca. 10-15% höher. Das wird durch eine etwas geringere Spannung (nicht bei allen Modellen) bewirkt.

dargo
2012-09-17, 19:58:02
Das wird gegen GK110 ohne Schwächen bei Bandbreite und (DP-)Rechenleistung aber abstinken.

Ich würde vom GK110 nicht zuviel erwarten. Nicht, dass es am Ende wieder heißt wir mussten die GPU kleiner takten und auf Einheiten verzichten. Erstmal abwarten wie der Fertigungsprozess bis dahin vorallem bei so einer fetten GPU ist.

Für Tahiti XT und GTX670/680 Besitzer wird denke ich GK110 sowie die HD8970 eher langweilig ausfallen. Da muss man wohl eher auf die nächste Generation in 20nm(?) warten.

aufkrawall
2012-09-17, 20:03:34
Da hatte ich neulich ne Diskussion in einem anderen Forum zu. Die GHz-Edition ist verschwenderischer als nötig. Die Partnerversionen haben üblicherweise eine geringere Spannung, brauchen zwar ähnlich viel, takten dafür aber nochmal ca. 10-15% höher.
Kanns mir denken, meine Sapphire lief auch mit afair nur +0,06 V mit 1200 Mhz.
Trotzdem hat das Ding ziemlich geheizt, da spielt schon allein der Takt ne große Rolle.

Ich würde vom GK110 nicht zuviel erwarten. Nicht, dass es am Ende wieder heißt wir mussten die GPU kleiner takten und auf Einheiten verzichten. Erstmal abwarten wie der Fertigungsprozess bis dahin vorallem bei so einer fetten GPU ist.
Das wär natürlich mies. Allerdings könnte Nvidia die Knappheit auch erstmal einfach wieder über den Preis regeln.
Aber das Teil kommt ja eh schon ziemlich spät und so langsam werden einem die 28nm AMD hinterher geschmissen (also normale Preise).

horn 12
2012-09-17, 20:27:14
Ich würde vom GK110 nicht zuviel erwarten. Nicht, dass es am Ende wieder heißt wir mussten die GPU kleiner takten und auf Einheiten verzichten. Erstmal abwarten wie der Fertigungsprozess bis dahin vorallem bei so einer fetten GPU ist.

Für Tahiti XT und GTX670/680 Besitzer wird denke ich GK110 sowie die HD8970 eher langweilig ausfallen. Da muss man wohl eher auf die nächste Generation in 20nm(?) warten.


Ja dies wäre in gewisser Hinsicht doch nur erfreulich :-)
Somit könnte die Karte ja stolze knappe 2 Jahre im Rechner bleiben, bezahlt habe ich ja genug (425 Euro) zudem kann ich die HD7950 auf 1100 bis 1150 Mhz takten,- ----> Somit über HD7970 Ghz Edition!

Schaffe89
2012-09-17, 20:33:18
Nach über einem halben Jahr ein im Referenzdesign völlig unbrauchbarer Papiertiger (Wer tut sich den Pfeif- und Lüfterradau an?).

Es gibt bis auf eine Karte überhaupt keine Referenz HD 7970 Gigahertz.
Außerdem gibt es gute Modelle die nicht fiepen, man nehme die His X², oder die Windforcex3.

dargo
2012-09-17, 20:33:35
Ja dies wäre in gewisser Hinsicht doch nur erfreulich :-)

Ich werde wohl nie verstehen was an "Stillstand" erfreulich sein soll. :confused:


Das wär natürlich mies. Allerdings könnte Nvidia die Knappheit auch erstmal einfach wieder über den Preis regeln.

Wenn GK110 bei Release mehr als 500€ kostet können sie sich die GPU von mir aus in den allerwertesten schieben. Das Ding kommt viel zu spät.

aufkrawall
2012-09-17, 20:38:48
Außerdem gibt es gute Modelle die nicht fiepen, man nehme die His X², oder die Windforcex3.
Mit wie viel Takt laufen die denn standardmäßig?
Ghz-Editions gibts ja massig (dusseliges Marketing...).

Edit: @dargo: Wenn das Teil +35% zur 680 hat und dabei Tahiti XT bei Shaderpower, hohen Auflösungen und DP-Compute abhängt, kommt es nicht zu spät.

boxleitnerb
2012-09-17, 20:41:07
@dargo:
Wäre dir ein Fermi-Thermi lieber gewesen?
Wenn das Ding 50% mehr wie GK104 leisten würde, wäre es auch 599 Euro wert imo. Man kann ja auch das kleinere kaufen, wenn einem das zuviel ist.

Ich glaube du musst dich von der Vorstellung, dass es einen großen Bums und dann einen kleinen Bums gibt, verabschieden. Das werden die IHVs imo nicht mehr machen, denn so kann man mehr absahnen. Die Käufer des ersten Schubs einer neuen Generation werden abgezockt, die des Refreshs erwartet ein ganz anständiges PLV. So denk ich mir das jedenfalls.

dargo
2012-09-17, 20:50:54
@dargo:
Wäre dir ein Fermi-Thermi lieber gewesen?

Solange die Kühlung ok ist habe ich nichts dagegen.


Wenn das Ding 50% mehr wie GK104 leisten würde, wäre es auch 599 Euro wert imo. Man kann ja auch das kleinere kaufen, wenn einem das zuviel ist.

Nein, denn du vergisst den Zeitrahmen. Im halben Jahr ist mir eine GTX680 nicht mal 250€ wert. Der momentane Preis vom GK104 ist immer noch ein Witz. Ich habe zum Tahiti XT nur gegriffen weil er mich 319€ gekostet hat (Aufpreis zur alten Graka 156€). Denn auch die Preisgestaltung bei AMD ist noch alles andere als angebracht. Immerhin aber schon besser als bei NV.

boxleitnerb
2012-09-17, 20:54:24
Betrachte es doch mal aus Warte der Leute, die noch nicht aufgerüstet haben. Ich habe zwei 580er, die haben mich ca. 499 gekostet pro Stück. Für 499 60-70% mehr Leistung als bei einer 580 und für 599 80-90% mehr finde ich durchaus normal. Das war bis auf die Dumpingpreisphase durch die HD4000er Serie seit G80 nie anders, jedenfalls zu Release. Das sind dann auch die üblichen 2 Jahre.

Ailuros
2012-09-17, 20:56:56
Ich würde vom GK110 nicht zuviel erwarten. Nicht, dass es am Ende wieder heißt wir mussten die GPU kleiner takten und auf Einheiten verzichten. Erstmal abwarten wie der Fertigungsprozess bis dahin vorallem bei so einer fetten GPU ist.

Wird SEHR guten Grund geben warum NVIDIA diesmal ein 7.1b/550mm2 nicht von Anfang an in die 28HP Startloecher geschickt hat sondern nur einen 3.54b/294mm2 GK104. Ich kann zwar anhand fehlender Einzelheiten nichts versichern, aber ich sah auf GF110 nur Monate nach GF100 keine fehlende Einheiten noch konservative Frequenzen und sogar niedrigeren Stromverbrauch.

Bis jetzt zumindest waren die bisherigen Projektionen auf den Punkt richtig fuer die Kepler Mitglieder. GK104 wurde einige Zeit vor dem launch auf ~580+30% eingeschaetzt als Ziel und GK106 nur einen Schnitt schneller als GTX570. Der erste GK110 salvage part ist um >40% schneller als eine uebertaktete Tahiti nach genau der gleichen Quelle.

Für Tahiti XT und GTX670/680 Besitzer wird denke ich GK110 sowie die HD8970 eher langweilig ausfallen. Da muss man wohl eher auf die nächste Generation in 20nm(?) warten.

Kommt drauf an mit wieviel sich ein jeglicher GTX680 Benutzer genau "langweilen" kann. Mit 10-30% Unterschied wird das Prozentual der gelangweilten gerechtfertigt gross ausfallen. Im jeglichen anderen Fall wird die "Langeweile" eher gering sein. Ich sehe im obrigen falls es stimmen sollte keine besondere Langeweile ist aber auch nur IMHO.

Sonst fuer 20HP bon apetit fuer 2014 und dieses in anstaentigen Kapazitaeten nicht mal H1. Ergo Geduld gegen relative Langeweile.

---------------------------------------------------------------------------------

Uebrigens zurueck zum Thema wer oder wie viele waren es nochmal genau die Sea Islands schon fuer 2012 erwartet haben und sogar Herbst dieses Jahr? *yeahrightsureok* :rolleyes:

dargo
2012-09-17, 20:59:03
@boxleitnerb

GTX580 ist nur ein warmer Aufguss der GTX480. Nüchtern betrachtet überspringst du eine Generation. Hinzu kommt, dass GK110 sich erheblich verspätet. Zwischen GF100 und GK110 liegen 3 Jahre. Da sehen deine prognostizierten +80-90% auch nicht so gigantisch aus. Ist nur meine Meinung, die nicht jeder teilen muss.

boxleitnerb
2012-09-17, 21:04:23
Ob ich jetzt von Generation zu Generation oder von Refresh zu Refresh springe ist doch egal. Sie bringen GK110 als Refresh, das ist die Realität, daher ist auch der 2-Jahresvergleich (grob) zu GF110 gerechtfertigt. Ich glaube schließlich nicht, dass nach GK110 bis 20nm noch ein weiterer großer Brummer kommt, das wars dann bis 2014.

Ailuros
2012-09-17, 21:18:56
@boxleitnerb

GTX580 ist nur ein warmer Aufguss der GTX480.

GF100 war problematisch und GF110 ein schneller fix zum ersten und nichts anderes als ein refresh. Waere GF100 nicht problematisch gewesen haette sich NV etwas besseres einfallen lassen muessen als "nur" einen GF110, aber das hat eigentlich TSMC mit der Stornierung von 32nm vorzeitig geregelt.

Nüchtern betrachtet überspringst du eine Generation. Hinzu kommt, dass GK110 sich erheblich verspätet. Zwischen GF100 und GK110 liegen 3 Jahre. Da sehen deine prognostizierten +80-90% auch nicht so gigantisch aus. Ist nur meine Meinung, die nicht jeder teilen muss.

Und es wird auch so lange dauern zwischen echten neuen Technologie-Generationen in der Zukunft wenn nicht sogar zunehmend laenger. Je frueher Du Dich an diese Tatsache anpasst desto besser. Sonst liegt das eigentliche Problem bei den zunehmend problematischen Prozessen und nicht woanders.

***edit: so lange ein jeglicher GPU IHV mit der Chip-Komplexitaet sich auf bis zu ca. 70% der maximalen Toleranz heutiger Prozesse begrenzt (wie AMD schon seit Jahren und auch seit neuestem GK104) ist 28nm auch kein so besonders grosses Problem, die brutal miserablen yields am Anfang bzw. zu teuren tools mal ausgeschlossen. Bei 530 bzw. 550mm2 grossen chips mit einem theoretischem Maximum von ca. 600mm2 wird es dann schon heikel. Wird wohl auch nicht besonders anders mit Maxwell top dog@20nm sein, wahrscheinlich sogar schlimmer. Dafuer klingt desktop schon 2014 optimistisch.

Damit hat man schon wieder einen ca. 2 Jahre Zyklus zwischen high end Generationen; man muss eben leider die notwendige Verspaetung/Notwendigkeit fuer GK110 von ca. 9-10 Monaten tolerieren bis sich das Ganze wieder normalisiert. Aber wie schon gesagt mal sehen wie viele Dinosauren in 2015-2016 sich noch an high end GPUs genau interessieren werden und nicht an ultra-super-duper-with-cheese Tegra666 :P

dargo
2012-09-17, 22:23:03
Und es wird auch so lange dauern zwischen echten neuen Technologie-Generationen in der Zukunft wenn nicht sogar zunehmend laenger.
Tja... dann muss ich wohl oder übel eine Generation immer überspringen. Oder entspannt darauf warten bis es wieder Shop-preis-fehler gibt. :D

N0Thing
2012-09-18, 13:27:58
Der erste GK110 salvage part ist um >40% schneller als eine uebertaktete Tahiti nach genau der gleichen Quelle.

Der Tahiti einer 7950, einer 7970, oder einer GHz-Edition?



Uebrigens zurueck zum Thema wer oder wie viele waren es nochmal genau die Sea Islands schon fuer 2012 erwartet haben und sogar Herbst dieses Jahr? *yeahrightsureok* :rolleyes:

Als GK110 noch für den Herbst diesen Jahres vermutet wurde, war für mich ein Sea Island, oder zumindest ein Tahiti ohne Bottleneck, noch in diesem Jahr nicht unwahrscheinlich. Im Nachhinein ist man immer schlauer, das ist keine Kunst. :rolleyes:

Ailuros
2012-09-18, 13:55:08
Tja... dann muss ich wohl oder übel eine Generation immer überspringen. Oder entspannt darauf warten bis es wieder Shop-preis-fehler gibt. :D

Kommt drauf an was Du mit "Generation" genau meinst, denn ganz im klaren in Deinen Posts bin ich darueber nicht. In meinem Buch gibt es refreshs innerhalb jeglicher Architektur und Generation steht bei mir fuer jegliche neue Architektur bzw. technologische Generation. In dem Fall ist es Fermi --> Kepler --> Maxwell usw. Wenn man da eine Generation ueberspringt muss man zumindest 4 Jahre warten.

Der Tahiti einer 7950, einer 7970, oder einer GHz-Edition?

Auf den Punkt spezifisch war die Aussage nicht, aber wenn man im gleichen Paragraphen erwaehnt dass GK104 etwas schneller als Tahiti ankommen wird, war wohl eine uebertaktete 7970 gemeint. Die GE existierte vor dem GK104 launch noch nicht.

Als GK110 noch für den Herbst diesen Jahres vermutet wurde, war für mich ein Sea Island, oder zumindest ein Tahiti ohne Bottleneck, noch in diesem Jahr nicht unwahrscheinlich. Im Nachhinein ist man immer schlauer, das ist keine Kunst. :rolleyes:

Mit GK110 gab es leider eine ziemlich grosse Verwirrung bei der auch Charlie mit seinen Quellen ein Opfer war. "Wir sind fertig damit" wurde von mir als auch von Charlie als tape out identifiziert (Dezember nach meinem Zeug, Januar nach Charlie's), wobei eigentlich damit gemeint war dass der Design fertiggestellt wurde und der eigentliche tape out erst Anfang Maerz stattfand. Da GK110 chips schon in geringen Mengen fuer Supercomputers ausgeliefert werden gibt es zumindest anhand der richtigen tape out Daten keine Verspaetung.

Was ich nicht wissen konnte und mir erst irgendwo um den 104 launch vermittelt wurde ist dass NV eine ziemlich grosse Anzahl an HPC?Tesla Vertraege unterschrieben hat und eines der deals fast 20k chips betraegt. Danach kam auch die Ernuechterung dass bei der heutigen Situation bei TSMC ein GK110 desktop launch fuer 2012 total unmoeglich erscheint.

So viel zum geschichtlichen Teil vom GK110 bisher und alles stets afaik ergo keine wirkliche Garantie dass alles auch zu 100% stimmt.

Was jetzt Sea Islands betrifft war mein Punkt damals dass AMD eben NICHT den Luxus hat innerhalb von nur wenigen Monaten mit einem refresh anzutanzen, schon gar nicht was ihre eigentlichen resourcen betrifft und noch schlimmer mit den immer noch mittelmaessigen Kapazitaeten bei TSMC. Ab Q3 soll es langsam loslegen und daher klang vom Anfang von 28nm GPUs ein Q1 13' launch fuer SI ziemlich logisch.

Je laenger es uebrigens dauern wird desto besser fuer Sea Islands selber, da es dann erst Chancen gibt dass zwar wenige (analog eines refreshes) Aenderungen sich in die Architektur geschlichen haben, gegen wenige oder gar keine. Die Erwartung dass AMD schon diesen Herbst mit Sea Islands antanzt und dazu noch mit einem ziemlich gesunden Leistungszusatz war und ist einfach ueberragend optimistisch. Es ist auch nicht an Dich oder sonst wen gerichtet, sondern es war lediglich mein eigenes Bauchgefuehl gegen das Bauchgefuehl von generellem AMD relativem Optimismus im Netz.

Natuerlich haette AMD einfach auf den Takthebel druecken koennen um eine Refresh-Leistungssteigerung zu erreichen; nur haette es eben den Stromverbrauch auch ziemlich stark beinflusst. Ich weiss zwar nicht wie sich die meisten Sea Islands vorstellen aber man sollte sich eher an einen breiteren Teig mit minimalen Frequenz- und Leistungssteigerungen richten.

Von irgendeiner Kunst war nie die Rede. Wenn man aber solche Sachen so nahe wie moeglich als normaler "Sterblicher" verfolgt, braucht man nicht unbedingt eine Glaskugel um ein so akkurat wie moegliches Bauchgefuehl zu erreichen.

john carmack
2012-09-19, 08:41:03
jetzt kommen wir ja auch langsam in den Berreich in dem AMD die namensgebung ändern muss...

4870 - 5870 - 6970 - 7970... Hat mir noch nie so gut gefallen...

Ailuros
2012-09-19, 09:36:45
Weil es wen genau interessieren sollte ob die GPU in jedermans System 13469PRO oder Pippi Langstrumpf heisst.

V2.0
2012-09-19, 09:43:22
Da die Prozessreife immer länger dauert, kommen neue Chips eben auch später. Beide IHV steigen mit 70% Lösungen in 28nm @ TSMC ein. Berücksichtigt man GK110 hat NV nicht mehr sehr viel Luft und auch AMD wird maximal einen sinnvollen und von der Leistung her spürbaren Refresh fahren können. Wenn man die erwartet Verfügbarkeit von 28nm Chips betrachtet und bedenkt, dass die gegenwörtigen Chips sich auch rechnen müssen, ist ein Launch von SI 2012 nicht zu erwarten. Alles vor dem späten Q1 13 würde mich wundern.

AnarchX
2012-09-19, 10:04:37
So lange Nvidia nichts vorstellt, gibt es wohl in der Tat keinen Anlass zu reagieren.
Barts hat damals GF104 abgefangen und Cayman GF110. Bis zum Frühjahr 2013 wird wohl erstmal bei NV nichts weiter passieren. Die GTX 650 Ti, kann man wohl locker mit der 7850 1G unter Kontrolle halten.

Im Consumer-Markt könnte man wohl höchstens mit massiven Pro-Watt-Leistungssteigerungen locken. Vielleicht auch der Grund, warum im Treiber erst die Mobilen HD 8000 Lösungen aufgetaucht sind?

geforce
2012-09-19, 11:16:20
Weil es wen genau interessieren sollte ob die GPU in jedermans System 13469PRO oder Pippi Langstrumpf heisst.


Richtig. Weil Marketing ja nun wirklich total irrelevant ist!

MfG Richard

Iruwen
2012-09-19, 11:23:55
Das hat wahrscheinlich auch mal jemand zu AMD gesagt und die haben die Ironie übersehen.

dargo
2012-09-19, 11:39:40
Kommt drauf an was Du mit "Generation" genau meinst, denn ganz im klaren in Deinen Posts bin ich darueber nicht. In meinem Buch gibt es refreshs innerhalb jeglicher Architektur und Generation steht bei mir fuer jegliche neue Architektur bzw. technologische Generation. In dem Fall ist es Fermi --> Kepler --> Maxwell usw. Wenn man da eine Generation ueberspringt muss man zumindest 4 Jahre warten.

Sagen wir mal so... solange warten bis die Leistung im optimalen Fall verdoppelt wird. Wobei ich mit +~80% auch leben kann wenn der (Auf)Preis stimmt. Ob das nun innerhalb einer, zwei, drei Generationen passiert ist mir ziemlich latte. Allerdings sollte es natürlich nicht zu lange dauern. 4 Jahre wäre eine Ewigkeit... das halte ich nicht aus. :D

Emploi
2012-09-19, 11:41:53
jetzt kommen wir ja auch langsam in den Berreich in dem AMD die namensgebung ändern muss...

4870 - 5870 - 6970 - 7970... Hat mir noch nie so gut gefallen...
Machen wir halte ein Y oder Z davor und fangen wieder bei 800 an, das hält dann wieder 8-10 Jahre... Meine gute alte ATI 9800 Pro lebt auch noch... :D

Ailuros
2012-09-19, 11:54:58
Da die Prozessreife immer länger dauert, kommen neue Chips eben auch später. Beide IHV steigen mit 70% Lösungen in 28nm @ TSMC ein. Berücksichtigt man GK110 hat NV nicht mehr sehr viel Luft und auch AMD wird maximal einen sinnvollen und von der Leistung her spürbaren Refresh fahren können. Wenn man die erwartet Verfügbarkeit von 28nm Chips betrachtet und bedenkt, dass die gegenwörtigen Chips sich auch rechnen müssen, ist ein Launch von SI 2012 nicht zu erwarten. Alles vor dem späten Q1 13 würde mich wundern.

Beide IHVs koennten etwas in hw schuetten und den albernen AFR Brei fuer mGPU endlich los werden. In dem Fall koennte man Profi-Maerkte leicht mit mGPU fuer high end bedienen und NV muesste nicht konstant am Rand des Prozesses fuer high end entwickeln.

Eigentlich sind Profi Maerkte meine einzige Hoffnung die IHVs dazu treiben koennten den AFR hack loszuwerden.

Sagen wir mal so... solange warten bis die Leistung im optimalen Fall verdoppelt wird. Wobei ich mit +~80% auch leben kann wenn der (Auf)Preis stimmt. Ob das nun innerhalb einer, zwei, drei Generationen passiert ist mir ziemlich latte. Allerdings sollte es natürlich nicht zu lange dauern. 4 Jahre wäre eine Ewigkeit... das halte ich nicht aus. :D

Im optimistischen Fall bekommst Du innerhalb einer Architektur ca. 30% mehr Leistung durch einen refresh, ausser es liegt etwas brutal krummes am Vorgaenger dass der IHV kurzfristig korrigieren konnte, aber selbst da kommt ein groesserer Aufschwung vom zweiten refresh weil einfach die Zeit zu knapp ist.

Tahiti kam Anfang 2012 an, der refresh klingt momentan nach Anfang 2013 und die eigentliche neue Generation seitens AMD wird wohl nicht vor Anfang 2014 erscheinen. Wenn jemand jetzt eine 5870 hat, dessen refreshes und Tahiti auslassen will um auf die uebernaechste Generation zu warten sind es schon zumindest 4 Jahre Wartezeit wenn nicht sogar mehr. Nur sind es eben nach 4 Jahren nicht mehr nur +80% im Durchschnitt sondern im Normalfall eben doppelt so viel.

boxleitnerb
2012-09-19, 12:08:38
@AFR:
Wie soll das gehen? Braucht es dazu nicht massive Bandbreite und/oder niedrigste Latenz zwischen den GPUs? Wenn beide auf einem PCB sitzen geht das ja noch irgendwie, aber wenn ich zwei bis vier Steckkarten habe, sieht es doch schon ganz anders aus.

Mit Raytracing ist die Sache dann doch eh gegessen, weil man das wunderbar parallelisieren kann. Dann arbeiten alle GPUs an einem Bild. Ist das so in etwa richtig?

Ailuros
2012-09-19, 16:23:58
@AFR:
Wie soll das gehen? Braucht es dazu nicht massive Bandbreite und/oder niedrigste Latenz zwischen den GPUs? Wenn beide auf einem PCB sitzen geht das ja noch irgendwie, aber wenn ich zwei bis vier Steckkarten habe, sieht es doch schon ganz anders aus.

Mit Raytracing ist die Sache dann doch eh gegessen, weil man das wunderbar parallelisieren kann. Dann arbeiten alle GPUs an einem Bild. Ist das so in etwa richtig?

Mein Wissen ist leider zu begrenzt um Dir eine logische Alternative zu geben, aber ich hab schon oefters und nicht nur von einer erfahrenen Seite gelesen dass es durchaus moeglich waere, es aber einen gewissen hw Aufwand bedeuten wuerde.

So lange IHVs keine Not sehen R&D in diese Richtung zu investieren und sie ihre paar mGPU Loesungen so oder so verkaufen koennen mit AFR/sw, sollten sie sich genau wieso darueber scheren?

PowerVR ist zwar ein ganz anderes Tier dank TBDR, aber es liegt patentiertes hw scheduling bei deren multi-core IP, wobei Geometrie fast linear (95%) mit zunehmenden cores durch SFR skaliert.

mczak
2012-09-19, 16:34:32
@AFR:
Wie soll das gehen? Braucht es dazu nicht massive Bandbreite und/oder niedrigste Latenz zwischen den GPUs? Wenn beide auf einem PCB sitzen geht das ja noch irgendwie, aber wenn ich zwei bis vier Steckkarten habe, sieht es doch schon ganz anders aus.

Schon der r300 konnte "richtiges" Multi-GPU rendering, nannte sich "Supertiling". Allerdings müssen da die Geometrieberechnungen redundant auf beiden GPUs durchgeführt werden (oder die berechneten Daten werden hin- und hergeschoben was aber wohl tatsächlich schwierig ist). Diese Technik bringt folglich nur was wenn die Performance wirklich durch Pixel-Shading limitiert ist ansonsten (z.B. zu wenig Frontend-Durchsatz) hat man gar nichts davon.

PowerVR ist zwar ein ganz anderes Tier dank TBDR, aber es liegt patentiertes hw scheduling bei deren multi-core IP, wobei Geometrie fast linear (95%) mit zunehmenden cores durch SFR skaliert.
Ich denke das ist nicht ganz vergleichbar denn diese multi-core Lösungen haben gemeinsamen Speicher wodurch sich so das Problem dass man die Daten austauschen muss so nicht stellt (und bei TBDR werden ja die post-vertex-shader Daten sowieso gespeichert).

Ailuros
2012-09-19, 16:50:01
Ich denke das ist nicht ganz vergleichbar denn diese multi-core Lösungen haben gemeinsamen Speicher wodurch sich so das Problem dass man die Daten austauschen muss so nicht stellt (und bei TBDR werden ja die post-vertex-shader Daten sowieso gespeichert).

Was genau meinst Du mit gemeinsamem Speicher?

mczak
2012-09-19, 17:24:21
Was genau meinst Du mit gemeinsamem Speicher?
Alle Kerne zusammen benutzen dasselbe Speicherinterface. Oder stimmt das etwa nicht?

Ailuros
2012-09-19, 19:50:54
Alle Kerne zusammen benutzen dasselbe Speicherinterface. Oder stimmt das etwa nicht?

Der gesamte SoC und nicht nur der GPU block, aber das ist eher eine Eigenschaft von SoCs generell und es wird ja langfristig so oder so zunehmend Schritt fuer Schritt zu konstant groesseren SoCs kommen. Der TBDR reserviert lediglich eine relativ geringe Speichermenge fuer's binning. Sonst haben Apple's PowerVR MPs z.B. die groesstmoegliche Menge an system level cache fuer jeden core, 128KB um Bandbreiten-verbrauch weiter zu reduzieren. Die Technologie ist aber so oder so am Ausgang mittelfristig da die kommende Generation clusters anstatt cores skaliert um die zusaetzliche Redundanz von MPs loszuwerden.

Ich kann mir trotz allem schwer vorstellen dass eine hw basierte Loesung (mit housekeeping Logik) nicht moeglich waere auf IMRs. Die-stacking waere vielleicht auch eine Idee fuer die etwas weitere Zukunft wenn dessen Herstellung irgendwann mal problemloser wird als momentan.

Knuddelbearli
2012-09-19, 20:51:54
leute auch wenn es interessant ist wir schweifen ab ^^

Ailuros
2012-09-19, 20:55:23
Ich kann es stets in einen anderen Thread auskoppeln wenn es zu bunt wird. Es ist ja nicht gerade so dass irgend etwas weiteres bekannt ist ueber Sea Islands momentan.

OgrEGT
2012-09-23, 09:07:41
Posted on B3D:
http://beyond3d.com/showpost.php?p=1667914&postcount=440

from VR-Zone: AMD Next Generation Codenames Revealed: 2013, 2014, 2015 GPUs Get Names
http://vr-zone.com/articles/amd-next-generation-codenames-revealed-2013-2014-2015-gpus-get-names/17154.html

Interessant der Teil zu VI:

Bring on 2014: Volcanic Islands

After Sea Islands reaches the end of the line, AMD will introduce perhaps the most important GPU family of them all - Volcanic Islands. Volcanic Islands (VI) will go head to head against NVIDIA Maxwell and second-gen Xeon Phi architecture.

Manufactured at 20nm Gate-Last process, this will be the first GPU family which AMD should be able to manufacture in Common Platform Alliance as well as its long-standing foundry partner, TSMC. Thus, AMD will have the choice between TSMC GigaFab Hsinchu/Taichung, IBM East Fishkill, GlobalFoundries in New York and Dresden or Samsung in Austin. The manufacturing flexibility will be of paramount importance, for Volcanic Islands GPU architecture will represent the pinnacle of system integration between the CPU and GPU. In terms of Fusion/FirePro APUs, which will replace the current FX/Opteron CPUs, Volcanic Islands bring silicon-level system integration. APU will extend to the Discrete GPU and treat it as one, as well as VI silicon treating the CPU as an integral part.

boxleitnerb
2012-09-25, 11:54:47
Angeblich erstes Showing auf der Cebit März 2013 und ein voller Launch dann im Juni zur Computex. Man habe aber die Möglichkeit, früher zu launchen falls nötig:

http://www.kitguru.net/components/graphic-cards/jules/amd-radeon-hd-8970-and-8950-launch-plans-revealed/

Juni käme mir sehr spät vor, das glaub ich eher nicht. Auch die Werte sind komisch. Nur die 8970 mit 48 ROPs, die 8950 aber nicht? 2133 (!) Stream-Prozessoren für die 8950??

Locuza
2012-09-25, 13:02:20
Auch die Werte sind komisch. Nur die 8970 mit 48 ROPs, die 8950 aber nicht? 2133 (!) Stream-Prozessoren für die 8950??
Wie oft hatte eigentlich eine Wikipedia-Tabelle schon mal Recht?

marc-05
2012-09-25, 14:09:33
5-6 Monate vor Launch die Specs geleakt,das wäre Rekord verdächtig.

OBrian
2012-09-26, 02:09:02
Das ist doch alles Mist. Jeder kann sich plausible Werte aus den Fingern saugen, einfach ein paar Prozente draufrechnen und dabei darauf achten, daß es durch die üblichen 2er-Potenzen teilbar ist, fertig. Und man muß nur ausreichend viele unterschiedliche Wahrsagungen raushauen, dann wird schon eine davon zutreffen. Das ist für mich aber kein "Leak".
Was seit praktisch der Radeon 4xxx Fakt ist: Die tatsächlich stimmenden Daten waren erst wenige Wochen vor dem Launch bekannt. Insofern glaube ich erstmal nichts.

Statt der Hardwaredaten (die müssen ja zwangsläufig in einem bestimmten machbaren Bereich landen) wäre mir der Launchtermin viel wichtiger, aber auch das ist ja wahrscheinlich bisher alles reine Phantasie.

Skysnake
2012-09-26, 08:58:50
/sign

Dem kann man nur zustimmen.

V2.0
2012-09-26, 09:32:02
Launchtermin dürfte "as market requires" sein. Oder sollte ich sagen: umso früher umso mehr man an 20nm @ TSMC glaubt.

Skysnake
2012-09-26, 10:00:09
was hat denn die 8k serie mit 20nm zu tun?

boxleitnerb
2012-09-26, 10:06:21
Ist doch logisch:
Je früher 20nm kommt, desto früher muss HD8000 kommen. Wäre HD8000 erst im Juni da und könnte man erste 20nm GPUs Anfang 2014 erwarten, wäre man mit dem Refresh nur ein halbes Jahr am Markt. Danach würde das doch keiner mehr kaufen, es sei denn, man bekommt es hinterhergeschmissen.

AnarchX
2012-09-26, 10:15:31
Bei den Kostenprognosen (http://www.extremetech.com/computing/123529-nvidia-deeply-unhappy-with-tsmc-claims-22nm-essentially-worthless) sind 20nm für Anfang 2014 wohl eher fraglich.

Auf dieser Basis würde wohl eine ~300mm² 8 Mrd. Transistoren-GPU locker 50% mehr als ein GK110-Die kosten.

Wenn dann noch schlechte Yield dazu kommen, würde ich eher vermuten, dass man die 20nm Kapazitäten in <=200mm² Dies investiert und für Mobile interessante Lösungen schafft.

boxleitnerb
2012-09-26, 10:21:08
Ob es fraglich ist oder nicht - das hängt trotzdem mit den 28nm Karten und deren Lebensdauer auf dem Markt zusammen.

Käsetoast
2012-09-26, 11:02:33
Dürfte doch sicherlich auch damit zusammenhängen wann NVIDIA was Neues vorzeigt. AMD ist da derzeit so wie ich das sehe in einer guten Position um zeitnah zu kontern oder gar erneut vorzulegen...

Was erste Informationen angeht so würde ich aber schon zur CES mit neuen offiziellen Angaben rechnen, wobei das natürlich noch kein Paperlaunch oder so sein muss. Zumindest mit dem üblichen Säbelrasseln wird aber doch zu rechnen sein...

Ailuros
2012-09-26, 11:19:41
Ob es fraglich ist oder nicht - das hängt trotzdem mit den 28nm Karten und deren Lebensdauer auf dem Markt zusammen.

Total anders rum. Die Lebensdauer von 28nm GPUs haengt von der ersten logischen 20nm GPU Verfuegbarkeit (und ja voll Kosten-relativ) ab.

Es ist nicht das erste Mal dass erwaehnt wird dass 20HP in einem miserablerem Zustand ist als 28HP. Wenn die Herstellungskosten noch weiter steigen sollten, haben dann IHVs theoretisch die Wahl sofort auf 20HP zu steigen wobei man performance GPUs bei >$600 erwarten koennte, oder sie warten etwas ab bis sich das Ganze etwas besser normalisiert.

Vor H2 14' sieht es fuer 20HP und chips mit einer Komplexitaet von ~70% der maximalen Toleranz des Prozesses/chip nicht aus.

Natuerlich haetten IHVs auch eventuell die Wahl gleich zwei 28nm refreshes vor 20nm zu quetschen (welches auch schon hier in den Foren oefters vorgeschlagen wurde in der Vergangenheit), wobei IHVs es ziemlich mehr kosten wuerde und das Endresultat fuer jeweiligen refresh nur einen relativ geringen Leistungssprung bedeuten wuerde.

Herstellungsprozesse werden zunehmend problematischer und nein es ist auch nichts Neues. Es heisst dann eben auch eventuell dass die Abstaende zwischen Generationen zunehmend groesser werden, ausser IHVs lassen sich irgendwelche logische Alternativen in der Zwischenzeit einfallen.

Entschuldigt aber es ist auch nicht so dass man heutige und kommende Spiele nicht mit einer 7970 bzw. 680 spielen kann, ganz zu schweigen von den bescheideneren GPUs beider IHVs. Was der Markt momentan braucht sind um einiges logischere Preise fuer alle 28nm GPUs, AAA Titel die diese etwas mehr ausreizen koennen und dann koennen wir erst ueber N% Leistungszusaetze folgender refreshes bzw. Generationen reden.

Skysnake
2012-09-26, 11:29:18
Und genau deswegen wird es meiner Meinung nach wohl zwei Refreshed auf 28nm geben, und nicht nur zwei. Der Prozess reift einfach recht "langsam", bzw. hat viel Enwicklungspotenzial.

Zudem sind beide relativ klein gestartet. Ok AMD im normalen Rahmen, wenn nicht sogar etwas größer, nVidia aber ohne großen Chip, welcher dann erst mit dem Refresh kommt. Bei Fermi wars auch kein Debakel, nen Refresh des Chips zu bringen. Also warum nicht auch nen Refresh von Big K, bzw. halt bei AMD langsames rantasten an die maximale DIE-Size und/oder andere Verbesserungen am Chip.

Also ich seh da jetzt keine Gründe, die kategorisch zwei Refreshs ausschließen würden. Man muss ja auch bedenken, das die beiden IHVs wohl kaum daran interessiert sind nochmal so was wie bei 40 und 28nm hin zu legen, vor allem, wenn man sieht, dass die 28nm Kapazitäten noch immer nicht ausreichend sind.

Also ganz ehrlich, da verzichte ich aktuell lieber auf die letzten paar Prozent Effizienz, und bekomme dafür Karten mit einem vernünftigen Preis/Leistungs-Verhältnis.

Ailuros
2012-09-26, 11:47:32
Und genau deswegen wird es meiner Meinung nach wohl zwei Refreshed auf 28nm geben, und nicht nur zwei. Der Prozess reift einfach recht "langsam", bzw. hat viel Enwicklungspotenzial.

Zudem sind beide relativ klein gestartet. Ok AMD im normalen Rahmen, wenn nicht sogar etwas größer, nVidia aber ohne großen Chip, welcher dann erst mit dem Refresh kommt. Bei Fermi wars auch kein Debakel, nen Refresh des Chips zu bringen. Also warum nicht auch nen Refresh von Big K, bzw. halt bei AMD langsames rantasten an die maximale DIE-Size und/oder andere Verbesserungen am Chip.

Also ich seh da jetzt keine Gründe, die kategorisch zwei Refreshs ausschließen würden. Man muss ja auch bedenken, das die beiden IHVs wohl kaum daran interessiert sind nochmal so was wie bei 40 und 28nm hin zu legen, vor allem, wenn man sieht, dass die 28nm Kapazitäten noch immer nicht ausreichend sind.

1. 2 refreshes sind teurer als nur 1 refresh.
2. Der Leistungsunterschied wird sich ueber die 2 refreshes teilen. Wenn man von nur einem refresh fuer X Zwischenzeit ca. 30% mehr Leistung bekommt, hat man von 2 refreshes eben nicht 2*30% sondern wohl eher 2*15% fuer die gleiche Zwischenzeit (ergo +15%/refresh) ausser jemand glaubt dass IHVs einen Zauberstab haben bzw. Stromverbrauch total uebersehen koennen, weil es eben die IHVs, die Hersteller und den Endkunden "weniger" kosten wuerde :rolleyes:

Also ganz ehrlich, da verzichte ich aktuell lieber auf die letzten paar Prozent Effizienz, und bekomme dafür Karten mit einem vernünftigen Preis/Leistungs-Verhältnis.

Damit kann ich nur voll zustimmen.

G3cko
2012-09-26, 12:05:39
sicherlich sind 2 Refreshe teurer als einer, aber wie soll man diesen Zeitraum vernünftig überbrücken? Da ist es am einfachsten man bringt etwas "neues" und bewegt den Kunden darüber zum gehoften Neukauf.

Macht Intel doch auch so. Iyv ist zwar im kleineren Fertigungsverfahren, aber sinnvoll ist was anderes... Hauptsache immer das Neuste haben wollen.

dargo
2012-09-26, 12:21:57
Macht Intel doch auch so. Iyv ist zwar im kleineren Fertigungsverfahren, aber sinnvoll ist was anderes... Hauptsache immer das Neuste haben wollen.
Und es gibt auch so viele Kunden die von einem SB auf IB umgestiegen sind. :rolleyes: Ich selbst warte auf Haswell weil mir der Sprung vom Lynnfield auf IB zu niedrig ist.

Skysnake
2012-09-26, 13:24:06
1. 2 refreshes sind teurer als nur 1 refresh.
2. Der Leistungsunterschied wird sich ueber die 2 refreshes teilen. Wenn man von nur einem refresh fuer X Zwischenzeit ca. 30% mehr Leistung bekommt, hat man von 2 refreshes eben nicht 2*30% sondern wohl eher 2*15% fuer die gleiche Zwischenzeit (ergo +15%/refresh) ausser jemand glaubt dass IHVs einen Zauberstab haben bzw. Stromverbrauch total uebersehen koennen, weil es eben die IHVs, die Hersteller und den Endkunden "weniger" kosten wuerde :rolleyes:

Natürlich kostet der zweite Refresh auch Geld, wenn man neue Masken usw herstellen muss, man schafft aber eben auch neue Kaufanreize für die Kunden, und kann mit etwas "neuem" werben. Da finden sich eigentlich immer genug Leute, die das "Neuste" ums verrecken haben müssen.

Ansonsten, wie gesagt, kann man ja auch die Verbesserte Entwicklung mitnehmen. Zudem sind die Hersteller heute recht schmalos, was die Neubezeichnungen ihrer Produkte anbelangt. Selbst ein Taktupdate, durch verbesserte Produktion, könnten die als "neue" Serie verkaufen....

Dabei muss die Fertigung nicht mal zwangläufig voll ausreizen, man hat doch aktuell im Vergleich zur letzten Generation noch genug Luft nach oben bei der Leistungsaufnahme...

An echte "Refreshs" mit "massiv" mehr Leistung glaub ich auch eher nicht, aber an ne HD9k bzw GTX800 schon. Egal wie die dann genau aussehen mögen. (gescheige denn, ob ich der Meinung bin, dass die den Namen wirklich verdienen... :rolleyes:)

Und es gibt auch so viele Kunden die von einem SB auf IB umgestiegen sind. :rolleyes: Ich selbst warte auf Haswell weil mir der Sprung vom Lynnfield auf IB zu niedrig ist.
Naja, das ist schwer zu sagen, so viele werden es nicht sein, aber es gibt Sie, und die nimmt man halt mit. Wichtiger sind die Leute, die schon ein oder 2 Generationen gewartet haben. Die kaufen jetzt halt IB, auch wenn Sie eigentlich auch noch auf Haswell (z.B.) warten könnten, da der Unterschied zwischen SB und IB wirklich nicht so groß ist, um bei dem einen keinen Neukauf zu rechtfertigen, beim anderen aber schon.

Ich wart jetzt z.B. auch auf Vishera und Haswell genau aus dem Grund :ugly:

Bei SB meinte ich: "Na, das reicht noch", also warum sollte ich jetzt zwingend IB kaufen? Ok ok, die Anwendungen sind noch etwas fordernder geworden, aber es geht aktuell noch. Ich zock eh eher nur Games von vor 1-3 Jahren, weils die fürn 10er gibt :ugly: So what.

Ich glaub mit Haswell/Vishera wirds dann aber wirklich mal Zeit, ans Aufrüsten zu denken. Der E8400 ist jetzt dann doch mal wirklich so langsam am Ende :ugly: ;D

dargo
2012-09-26, 13:28:10
Naja, das ist schwer zu sagen, so viele werden es nicht sein, aber es gibt Sie, und die nimmt man halt mit.
Natürlich gibt es einige "Freaks" die immer das Neueste haben müssen. Dieser Anteil ist aber eher sehr gering.

N0Thing
2012-09-26, 13:42:26
sicherlich sind 2 Refreshe teurer als einer, aber wie soll man diesen Zeitraum vernünftig überbrücken? Da ist es am einfachsten man bringt etwas "neues" und bewegt den Kunden darüber zum gehoften Neukauf.


Wenn AMD erst im Q1-2013 ihren ersten Refresh bringen und Nvidia GK110 in Q1/2-2013, dann sehe keinen Platz für einen sinnvollen 2. Refresh, wenn sich ein Jahr später die 20nm Produkte im Anflug befinden.

Ailuros
2012-09-26, 13:46:34
Natürlich kostet der zweite Refresh auch Geld, wenn man neue Masken usw herstellen muss, man schafft aber eben auch neue Kaufanreize für die Kunden, und kann mit etwas "neuem" werben. Da finden sich eigentlich immer genug Leute, die das "Neuste" ums verrecken haben müssen.

Was genau ist "genug" um eine quasi "neue" Produktlinie zu finanzieren? Je geringer der Leistungs-unterschied desto geringer die Interesierten.

Ansonsten, wie gesagt, kann man ja auch die Verbesserte Entwicklung mitnehmen. Zudem sind die Hersteller heute recht schmalos, was die Neubezeichnungen ihrer Produkte anbelangt. Selbst ein Taktupdate, durch verbesserte Produktion, könnten die als "neue" Serie verkaufen....

Dabei muss die Fertigung nicht mal zwangläufig voll ausreizen, man hat doch aktuell im Vergleich zur letzten Generation noch genug Luft nach oben bei der Leistungsaufnahme...

Mag sein dass AMD der 7970 GE einen gleichen TDP wie der 7970 zuspricht, die Realitaet sieht aber schon anders aus. Und ich bin mir natuerlich auch sicher dass bei dem Aufpreis die eine GE kostet die Kaeufer die Laeden ueberstroemt haben um ihre 7970-er loszuwerden, wenn man die letzten kinderleicht uebertakten kann und diese um einiges billiger sind.

Was ist nebenbei mit der 7990 passiert?

An echte "Refreshs" mit "massiv" mehr Leistung glaub ich auch eher nicht, aber an ne HD9k bzw GTX800 schon. Egal wie die dann genau aussehen mögen. (gescheige denn, ob ich der Meinung bin, dass die den Namen wirklich verdienen... :rolleyes:)

AMD koennte eventuell schon zwei Sea Islands refreshes auftischen, aber wie Du Dir das mit einer "GTX8xx" genau vorstellst wuerde ich liebend gerne mal lesen. Wieviel Transistoren bzw. die area kann NV auf GK110 noch draufstecken? Keinen einzigen vielleicht?

AnarchX
2012-09-26, 13:48:03
Wenn der 7Gbps GDDR5 Anfang 2013 immer noch nicht verfügbar ist, wäre das wohl eine Basis für einen 2. Refresh im 2. Halbjahr.

V2.0
2012-09-26, 13:48:50
Der Vergleich zu Intel ist recht sinnlos, da Intel Design und Fertigung in einer Hand hat und der Tick/Tock Ablauf so gewollt ist.

NV und AMD haben bei den GPUs die Fertigung nicht in der Hand. Sie müssen mit dem leben was TSMC liefert. Und das ist wahrscheinlich noch für min. 18 Monate 28nm. In Zeiten von Green-IT und einem Augenmerk auf Perf/W ist da nur ein sehr limiterter Spielraum für Refreshs. Und für 2x ~15% mehr Leistung macht niemand 2 Tapeouts, wenn er auch mit einem 30% erreichen kann. Und eilig hat es momentan weder NV noch AMD. NV hat GK110, AMD hat aktuell die Leistungskrone. Es besteht akut kein Bedarf für einen Refresh bei AMD. Man kann warten bis NV GK110 launcht und dann mit dem Top-Dog der Sea Islands locker die Leitungskrone behalten.

Mancko
2012-09-26, 13:56:37
Der Vergleich zu Intel ist recht sinnlos, da Intel Design und Fertigung in einer Hand hat und der Tick/Tock Ablauf so gewollt ist.

NV und AMD haben bei den GPUs die Fertigung nicht in der Hand. Sie müssen mit dem leben was TSMC liefert. Und das ist wahrscheinlich noch für min. 18 Monate 28nm. In Zeiten von Green-IT und einem Augenmerk auf Perf/W ist da nur ein sehr limiterter Spielraum für Refreshs. Und für 2x ~15% mehr Leistung macht niemand 2 Tapeouts, wenn er auch mit einem 30% erreichen kann. Und eilig hat es momentan weder NV noch AMD. NV hat GK110, AMD hat aktuell die Leistungskrone. Es besteht akut kein Bedarf für einen Refresh bei AMD. Man kann warten bis NV GK110 launcht und dann mit dem Top-Dog der Sea Islands locker die Leitungskrone behalten.

Du hast die Rechnung ohne die GTX690 gemacht. Die hat AMD bisher in keinster Weise gepackt. Weder in der Leistung, noch in Bereich der "spielbaren" FPS noch im Bereich Perf/Watt und auch nicht im Bereich Verarbeitungsqualität. Und die GHZ Edition wiederum zieht deutlich mehr aus der Steckdose als die GTX680 ist aber nicht so viel schneller.

Trotzdem hat es keiner der beiden aktuell eilig. Sie können mit der derzeitigen Situation wohl ganz gut leben. Der Grund dafür dürfte die noch immer eingeschränkten 28nm Kapazitäten sein, auch wenn es jetzt von Monat zu Monat deutlich besser werden sollte.

V2.0
2012-09-26, 14:14:29
Nein, sie können beide damit leben, weil sie die gleiche Foundry und den gleichen Prozess nutzen und dieses Mal sogar die Unterschied in der Die-Größe nicht extrem gravierend sind.

Ailuros
2012-09-26, 14:17:09
Die Kapazitaeten werden bei TSMC aber erst ab Q3 12' besser, welches erstmal irgendwelche hard launches innerhalb 2012 eher ausschliesst.

Skysnake
2012-09-26, 14:40:32
AMD koennte eventuell schon zwei Sea Islands refreshes auftischen, aber wie Du Dir das mit einer "GTX8xx" genau vorstellst wuerde ich liebend gerne mal lesen. Wieviel Transistoren bzw. die area kann NV auf GK110 noch draufstecken? Keinen einzigen vielleicht?
Da siehts doch ganz einfach aus. Quasi GF1x0 reloaded. Erst nen beschnitten Chip bringen, und dann ein Jahr, oder vielleicht auch nur 10 Monate später dann den unbeschnittenen Chip.

Wie du schon sagst, man hat es ja nicht eilig im Moment. Daher könnte man ohne Probleme die ganze Sache strecken.

Mich hats ja eh gewundert, dass die AMD GHz Edition nicht als HD 7xx5er gekommen ist. Aber das ist halt Marketing, und wir wissen ja wie AMD bzgl Marketing dasteht.

G3cko
2012-09-26, 14:43:53
Ich sag nur G92. Die 9800GT wurde auch nur Released weil man letztendlich mit minimalen Aufwand neue Anreize schafft. Damit werden auch nicht die Kunden angesprochen die eh schon ein ähnliches Produkt haben, sondern die die zögern, oder in naher Zukunft sowieso vorhaben zu kaufen. ;)

Ailuros
2012-09-26, 14:59:31
Da siehts doch ganz einfach aus. Quasi GF1x0 reloaded. Erst nen beschnitten Chip bringen, und dann ein Jahr, oder vielleicht auch nur 10 Monate später dann den unbeschnittenen Chip.

Und was hat bitteschoen genau GF1x0 "reloaded" damit zu tun? GF100 hatte hw Probleme mit dem interconnect welches nicht erlaubte alle SMs auf diesem einzuschalten. Als noch 32nm TSMC existierte plante NV etwa >ein Jahr spaeter unter 32nm einen core mit Kepler ALUs und einem Fermi uncore; sobald aber 32nm storniert wurde und NV natuerlich auch wusste dass Cayman keine besondere Drohung ist entschieden sich sich einfach auf einen GF110 mit allen SMs und etwas mehr Takt welcher ca. 15% mehr Leistung geboten hat im Vergleich zu GF100.

Wenn es mit GK110 moeglich ist mit allen SMXs herzustellen und zu veroeffentlichen sind sie schoen bloed wenn sie diesen mit Absicht kastrieren. Im Notfall gibt man dem core spaeter einen metal spin, erhoeht etwas den Takt und fuehrt wieder die vergangene "Ultra" Masche ein. Mehr als 10-15% wird so ein Ding aber auch nicht liefern, welches aber auch ziemlich redundant sein wird falls sie trotz allem eine GK110 salvage parts basierende mGPU planen sollten.

Wie du schon sagst, man hat es ja nicht eilig im Moment. Daher könnte man ohne Probleme die ganze Sache strecken.

Eben. Der Punkt ist halt dass es ingesamt besser erscheint dass Ganze so weit wie moeglich auszudehnen und lieber fuer AMD eher einen einzigen groesseren Leistungssprung zu liefern. Es kommt auch besser beim Publikum an.

Skysnake
2012-09-26, 15:54:58
Wenn es mit GK110 moeglich ist mit allen SMXs herzustellen und zu veroeffentlichen sind sie schoen bloed wenn sie diesen mit Absicht kastrieren. Im Notfall gibt man dem core spaeter einen metal spin, erhoeht etwas den Takt und fuehrt wieder die vergangene "Ultra" Masche ein. Mehr als 10-15% wird so ein Ding aber auch nicht liefern, welches aber auch ziemlich redundant sein wird falls sie trotz allem eine GK110 salvage parts basierende mGPU planen sollten.


Und genau das ist doch der Knackpunkt. Wenn man sich die Ankündigungen zum K20 anschaut, dann scheint es eben nicht möglich zu sein nen kompletten GK110 zu bringen, zumindest nicht wirtschaftlich. Damit hat zumindest nVidia die Möglichkeit, da noch ziemlich easy eben den Vollausbau nach zu schieben.

Also zumindest ich glaube nicht daran, das wir GK110 direkt im Vollausbau als GeForce sehen werden, selbst als Tesla glaub ich nicht wirklich dran. Vielleicht als Midlifekicker für die Teslas, aber für GeForce sicher erst als Refresh.

Die Frage ist ja, wie geht AMD damit um?

Eventuell jetzt ne HD8k mit mehr Shadern, und dann nen zweiten Refresh mit besserem Frontend, oder jetzt ein besseres Frontend, und später nochmal die Shader Shippe auspacken? Ich würde ja eher letzteres vorziehen.

Ich teile aber auf jeden Fall nicht deine Meinung, das AMD und nVidia zu wenig Platz hätten bzgl Leistung, um statt einem Refresh 2 zu bringen.

Vor allem ist die Entwicklung der 20nm Technologie noch nicht wirklich absehbar. Wenn da am Ende dann auch wieder einige Monate (6) wie bei 40nm und auch bei 28nm (sollte ja eigentlich auch früher los gehen) bei rum kommen, dann kannste die Leute auch nicht so lange mit dem "alten" Zeug bei der Stange halten.

Ailuros
2012-09-26, 16:30:03
Und genau das ist doch der Knackpunkt. Wenn man sich die Ankündigungen zum K20 anschaut, dann scheint es eben nicht möglich zu sein nen kompletten GK110 zu bringen, zumindest nicht wirtschaftlich. Damit hat zumindest nVidia die Möglichkeit, da noch ziemlich easy eben den Vollausbau nach zu schieben.

Wie stellst Du Dir eigentlich vor dass GK110 bei jeglichem Produktions-start etliche tausend 15 SMX chips parat haben sollte? Wenn die binning yields so toll waeren dass eine ziemlich grosse Summe von 15 SMX chips von jeglichem wafer kommen wuerde, dann koennte NV GK110 desktop schon heute launchen. Wenn es keine besondere binning yields Probleme gibt, sammelt NV einfach brav die 15 SMX cores an bei der Produktion fuer Tesla K20 und ja bei so grossem Volumen (stets relativ zur die Groesse) waehlt man natuerlich geraden DEN bin der die groesste Anzahl an operativen SMXs liefert.

Also zumindest ich glaube nicht daran, das wir GK110 direkt im Vollausbau als GeForce sehen werden, selbst als Tesla glaub ich nicht wirklich dran. Vielleicht als Midlifekicker für die Teslas, aber für GeForce sicher erst als Refresh.

Weder der eine noch der andere Fall ist garantiert, da es eben an Indizien fehlt. Und nein die vorige Generation ist eben kein gutes Beispiel da Fermi Teslas mit weniger als 16 SMs geplant waren schon bevor sie das interconnect Problem entdeckten. Zufaellig aus dem genau gleichen Grund wie oben.

Die Frage ist ja, wie geht AMD damit um?

Eventuell jetzt ne HD8k mit mehr Shadern, und dann nen zweiten Refresh mit besserem Frontend, oder jetzt ein besseres Frontend, und später nochmal die Shader Shippe auspacken? Ich würde ja eher letzteres vorziehen.

Ich weiss zwar nicht was sie vorhaben, aber ich wuerde an ihrer Stelle den 7800-Nachfolgern Vorrang geben fuer einen Q1 release und spaeter mit dem 7900-Nachfolger nachlegen.

Ich teile aber auf jeden Fall nicht deine Meinung, das AMD und nVidia zu wenig Platz hätten bzgl Leistung, um statt einem Refresh 2 zu bringen.

Vor allem ist die Entwicklung der 20nm Technologie noch nicht wirklich absehbar. Wenn da am Ende dann auch wieder einige Monate (6) wie bei 40nm und auch bei 28nm (sollte ja eigentlich auch früher los gehen) bei rum kommen, dann kannste die Leute auch nicht so lange mit dem "alten" Zeug bei der Stange halten.

Jeder der ueber TSMC bzw. 20nm dort etwas weiss (oder zumindest es glaubt zu wissen) beschreibt dessen heutigen Zustand als miserabel.

OgrEGT
2012-09-26, 19:10:42
Die Frage ist ja, wie geht AMD damit um?

Eventuell jetzt ne HD8k mit mehr Shadern, und dann nen zweiten Refresh mit besserem Frontend, oder jetzt ein besseres Frontend, und später nochmal die Shader Shippe auspacken? Ich würde ja eher letzteres vorziehen.


2-te Möglichkeit fände ich auch logischer, zumal das Frontend anscheinend bisher ein Flaschenhals war. Ob das aber zeitlich geht k.A. veillecht eher doch die 1-te Variante weils schneller geht?

Ailuros
2012-09-26, 19:39:28
2-te Möglichkeit fände ich auch logischer, zumal das Frontend anscheinend bisher ein Flaschenhals war. Ob das aber zeitlich geht k.A. veillecht eher doch die 1-te Variante weils schneller geht?

Warum nicht beides auf einen Schlag wenn sie sich genug Zeit dafuer gelassen haben?

Leonidas
2012-09-26, 20:42:33
2133 (!) Stream-Prozessoren für die 8950??


Absurder Schwachsinn. Wie soll dies in die Shader-Cluster á 64 SE passen?




Total anders rum. Die Lebensdauer von 28nm GPUs haengt von der ersten logischen 20nm GPU Verfuegbarkeit (und ja voll Kosten-relativ) ab.


... und an der Stelle erwarte ich, daß die zweite 28nm-Generation noch weit im Jahr 2014 große Verbreitung finden wird, weil 20nm zumindest im Jahr 2014 nur mühsam und in Häppchen kommen dürfte.

28nm wird wohl langfristig einen großen Split bei der Auftragsfertigung bringen: Nur noch diejenigen Entwickler, die es unbedingt brauchen, werden schnell auf 20nm gehen - viele andere werden bei 28nm bleiben, weil kostengünstiger durch höhere Kapazitäten und geringere Probleme als 20nm.




Thema 2 Refreshes: Halte ich unter 28nm nicht mehr für realistisch - es sei denn, 20nm verschiebt sich nochmals. Ansonsten wird man versuchen, den 28nm Refresh so zu gestalten, daß dieser ein ausgewogenes Portfolio ergibt und dann einfach anderthalb Jahre mit diesem Leben. So ein Ding mit 2 Refreshes ist eine Vorab-Planung - sprich, das kann man für 20nm planen, für 28nm scheint da der Zug schon abgefahren zu sein.

Skysnake
2012-09-26, 21:49:14
Wie stellst Du Dir eigentlich vor dass GK110 bei jeglichem Produktions-start etliche tausend 15 SMX chips parat haben sollte? Wenn die binning yields so toll waeren dass eine ziemlich grosse Summe von 15 SMX chips von jeglichem wafer kommen wuerde, dann koennte NV GK110 desktop schon heute launchen. Wenn es keine besondere binning yields Probleme gibt, sammelt NV einfach brav die 15 SMX cores an bei der Produktion fuer Tesla K20 und ja bei so grossem Volumen (stets relativ zur die Groesse) waehlt man natuerlich geraden DEN bin der die groesste Anzahl an operativen SMXs liefert.

Versteh ich gerade nicht, was du mir damit sagen willst :confused:

Fermi war jetzt nur als Beispiel für beschnitten Chip, und im Refresh dann komplett. Auf die Ursachen dafür habe ich nicht angespielt. Mir gings nur darum, dass das ausreichend für einen Refresh ist.

@Leonidas:
Das ist halt die Frage. Wie viel Vertrauen haben AMD und nVidia in TSMC und deren 20nm Prozess. Vor allem, wie viel Vertrauen haben Sie darin, dass das Ding auch noch mit genug Kapazitäten daher kommt.

Wenn man jetzt noch bedenkt, das die Leute eher schlecht vom Zustand vom 20 nm Prozess reden, wie Ailuros ja auch sagt, dann muss man sich eben die Frage stellen, was in der Führungsetage der beiden Firmen dafür spricht, sich diesem Risiko aus zu setzen, dass die ganze Sache nach hinten los geht, und man mehrere Monate an Verspätung hat, weils TSMC nicht gebacken bekommt, oder man eben auf Nummer sicher geht, und noch mal nen 28nm Chip bringt, den man dann auch komplett ausreizt.

Hat nVidia früher (meines Wissens nach) ja eh immer gemacht, also eher noch mal auf dem alten Prozess, statt gleich mit dem ein zu steigen.

Aktuell stehen ja beide ohne Probleme und Druck da. Warum also das Risiko mit 20nm eingehen?

Das ist halt die Frage, die ich mir stell. Vor allem muss man das ja jetzt so langsam fix machen. Man brauch ja auch ne gewisse Zeit, um das Produkt fertig zu entwickeln. Da kann man nicht 6 Monate vorm Launch dann daherkommen und feststellen, dass der 20nm Prozess scheise ist und nicht in die Gänge kommt, und dann anfangen an nem Refresh auf nochmal 28nm zu arbeiten.

Vor allem, den 28nm Refresh, kann man sicherlich einfacher auf 20nm portieren, wenn der überraschend doch besser anläuft, als nen 20nm Chip auf 28nm aufblähen.

Man wird am Anfang ja eh wenig interesse daran haben 20nm aus zu reizen.

Ailuros
2012-09-27, 01:35:07
Versteh ich gerade nicht, was du mir damit sagen willst :confused:

Fermi war jetzt nur als Beispiel für beschnitten Chip, und im Refresh dann komplett. Auf die Ursachen dafür habe ich nicht angespielt. Mir gings nur darum, dass das ausreichend für einen Refresh ist.

Ein Refresh nur mit einem mehr cluster ohne leicht hoeheren Takt wird nicht viel mehr als +5% Leistung bringen.

Was genau ist so schwer am obrigen genau zu verstehen? Nochmal GF100 war problematisch und sie bekamen pro wafer in der Mehrzahl nur einen chip und selten mal 2. Um entweder desktop high end mit 16SM GF100 damals bedienen zu koennen oder jeglichen halbwegs anstaendigen HPC deal haetten sie damals bei TSMC ihre GESAMTE 40G Kapazitaet opfern muessen um ca. 10000 solcher cores zu erreichen und selbst dann waere die Verfuegbarkeit laecherlich klein. Das der Stromverbrauch bei 16SMs auf GF100 haushoch war lassen wir mal weg.

Zurueck zu Tesla K20; vor kurzem gab es eine Meldung dass NV um die 1000 dieser an Oak Ridge ausgeliefert haben. Eine plausible These waere dass sie dafuer um die 100 wafers brauchten und die paar 15 SMX bzw. 13 oder weniger operativen SMX chips auf die Seite gelegt fuer Quadros und desktop spaeter. Wenn momentan NV mit einem 550mm2 Brummer wie GK110 mehr als 50-55% wafer yields erreicht fress ich einen Besen, was wohl um die 50-60 operative chips pro wafer bedeutet. Schafft die Mehrzahl der bins 15 SMX beim ersten run mit so einem kompliziertem chip auf einem so neuen Prozess? Wer's glaubt tut mir leid. Im idealsten Fall sind es 10-15 chips/wafer und mit der Anzahl kann man eben momentan nicht alle ihre supercomputer deals bedienen, weil eben die Anzahl der 14 SMX bins nur um einiges groesser sein kann. Wenn TSMC genug Kapazitaeten haben wuerde und IHVs mit wafer Anzahlen nur so herumschmeissen koennten waere die Geschichte natuerlich anders.

Ja GF110 basierende Teslas kamen mit allen SMs an, nur als GF110 in die Produktion ging war das interconnect Problem weg und die Anzahl der wafer die NV bei TSMC gebucht hatte um zich Mal hoeher als am Anfang mit GF100.


Das ist halt die Frage, die ich mir stell. Vor allem muss man das ja jetzt so langsam fix machen. Man brauch ja auch ne gewisse Zeit, um das Produkt fertig zu entwickeln. Da kann man nicht 6 Monate vorm Launch dann daherkommen und feststellen, dass der 20nm Prozess scheise ist und nicht in die Gänge kommt, und dann anfangen an nem Refresh auf nochmal 28nm zu arbeiten.

Vor allem, den 28nm Refresh, kann man sicherlich einfacher auf 20nm portieren, wenn der überraschend doch besser anläuft, als nen 20nm Chip auf 28nm aufblähen.

Man wird am Anfang ja eh wenig interesse daran haben 20nm aus zu reizen.

Uhmm IHVs wissen schon heute wo's mit 20nm langgehen wird, egal was fuer welchen Mist die Marketing-Abteilung jeder Seite behaupten wird.

Was IHVs vorhaben? AMD wird moeglicherweise einen Anteil der Herstellung zu Glofo schicken, NV einen Anteil an Samsung und es gibt noch so manches anderes was sich generell in der foundry Landschaft aendern koennte. Das Problem ist damit IMHO nicht geloest, sondern man wird eben nicht nur TSMC als Suendenbock haben in solch einem Fall. Eine Alternative fuer IHVs waere sich auf eine hw basierende mGPU Loesung zu konzentrieren ohne den AFR Quark wie ich schon erwaehnte. Wenn wird abe vor 14nm nichts davon zu sehen sein.

Ailuros
2012-09-27, 19:50:00
Ich hab das Kepler Material im Kepler thread verfrachtet.

OgrEGT
2012-09-27, 20:11:16
Posted on:
http://beyond3d.com/showpost.php?p=1668859&postcount=446

Venus chip:
~420 mm^2 [about the same size as R600]
5.1 billion transistors
Card specs:
2560 SPs, 160 TMUs, 32-48 ROPs (8970) and 2304 SPs, 144 TMUs, 32 ROPs (8950)
Boost clocks higher than 1050 MHz
384-bit bus, 3 GB GDDR5 at "6GHz +" for > 320 GB/s bandwidth, that would imply ≥ 6.67 Gbps
Dual 8-pin connectors
Q4 2012 mass production, Q1 2013 release

AMD Radeon HD 8970 (Venus XTX) and HD 8950 (Venus XT/Pro) Sea Islands GPU Specifications Leaked (http://wccftech.com/amd-radeon-hd-8970-venus-xtx-hd-8950-venus-xtpro-sea-islands-gpu-specifications-leaked/)

Edit: 2x8pin Aua...

Ailuros
2012-09-27, 20:17:05
Posted on:
http://beyond3d.com/showpost.php?p=1668859&postcount=446

AMD Radeon HD 8970 (Venus XTX) and HD 8950 (Venus XT/Pro) Sea Islands GPU Specifications Leaked (http://wccftech.com/amd-radeon-hd-8970-venus-xtx-hd-8950-venus-xtpro-sea-islands-gpu-specifications-leaked/)

Edit: 2x8pin Aua...

http://www.3dcenter.org/news/tape-out-von-amds-sea-islands-launch-im-ersten-quartal-2013

Juni dieses Jahr wie auch boxleitnerb schon bei B3D erwaehnte.

boxleitnerb
2012-09-27, 20:25:36
Ja angeblich Juni. Es gibt verschiedene Quellen, die verschiedene Launchdaten kennen wollen. Wird mal Zeit für richtige Insiderinfos. Das sieht wieder nach einem Hochwürgen von Leos Spekus aus.

Nakai
2012-09-28, 14:36:54
Ich habe mal übrigens eine kleine Aufstellung der Anteile der einzelnen Teile an der Gesamtfläche gebastelt:

Bezeichnung | Fläche [mm²] | Anteil [%]
vALUs (SIMDs) | 77 | 21,1
TMUs mit L1-vD$ | 55 | 15,1
LDS, sALU, Scheduler | 29 | 7,9
L1-I$, L1-sD$, Logik geteilt von Gruppe aus 4 CUs | 14,5 | 4,0
komplettes Shader-Array aus 32 CUs | 175,5 | 48,1
Pad-Area des Speicherinterface | 62 | 17,0
PCIe, Display, UVD, VCE etc. | 45 | 12,3
L2, ROPs, Speichercontroller | 41,5 | 11,4
Frontend, Raster | 18 | 4,9
Logik zwischen Mem-Pads?!? | 1 | 0,3
leere Flächen (hauptsächlich Rand des Dies) | 22 | 6,0
Summe | 365 | 100,0

Zumindest wenn die 365mm² wirklich das komplette Die sind und nicht eine Angabe ohne die leeren Flächen. Ansonsten muß man alle Zahlen entsprechend skalieren. Und alle Zahlen natürlich vorbehaltlich der richtigen Zuordnung und Fehlern aufgrund der mäßigen Auflösung des Bildes.

Wenn man sich mal Gipsels Rechnung ansieht, dann kann man Rückschlüsse auf einen hypothetischen Venus ziehen.
Ich komm etwa auf 410-420mm² für einen Venus mit 40CUs. Das ist aber ohne Verbesserungen beim Frontend. Ich erwarte in etwa das gleiche Verhältnis zwischen Größe der CUs und der allgemeinen Chipgröße wie bei Tahiti. Da kommt man schon eher auf 450mm² für Venus.
IMO muss AMD endlich mal das Frontend aufbohren, sonst skaliert man noch schlechter, als es bei Tahiti schon der Fall war.

Und ich gehe deutlich davon aus, dass die anderen Chips in der Gen deutlich stärker auf Gaming ausgelegt sind. Venus wird, wie Tahiti, auf GPGPU ausgelegt.

fondness
2012-09-28, 15:11:42
Ist es überhaupt sicher das Sea Islands noch von TSMC kommt, oder wäre Globalfoundries nicht auch eine Option? 28nm bulk sollte dort auch bereits seit längerem laufen.

Ailuros
2012-09-28, 15:18:51
Ist es überhaupt sicher das Sea Islands noch von TSMC kommt, oder wäre Globalfoundries nicht auch eine Option? 28nm bulk sollte dort auch bereits seit längerem laufen.

Bin mir zwar nicht sicher, aber es hiess vor dem Tahiti launch dass ein Anteil der Nachfolger Familie bei Glofo hergestellt werden soll.

OgrEGT
2012-09-28, 16:45:38
Wenn man sich mal Gipsels Rechnung ansieht, dann kann man Rückschlüsse auf einen hypothetischen Venus ziehen.
Ich komm etwa auf 410-420mm² für einen Venus mit 40CUs. Das ist aber ohne Verbesserungen beim Frontend. Ich erwarte in etwa das gleiche Verhältnis zwischen Größe der CUs und der allgemeinen Chipgröße wie bei Tahiti. Da kommt man schon eher auf 450mm² für Venus.
IMO muss AMD endlich mal das Frontend aufbohren, sonst skaliert man noch schlechter, als es bei Tahiti schon der Fall war.

Und ich gehe deutlich davon aus, dass die anderen Chips in der Gen deutlich stärker auf Gaming ausgelegt sind. Venus wird, wie Tahiti, auf GPGPU ausgelegt.

Jau hatte ich auch schon so geschätzt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9375716&postcount=168

Edit:
Deine Zunahme an Transistoren alleine für das Frontend schätze ich aber eher zu hoch ein.

Siehe hier eine Abschätzung von Gipsel anhand des Dieshot von Tahiti. 18mm2 von 365mm2 = ca. 5% für das Frontend.
ca. 48% für das Shaderarray mit 32CUs.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9197796&postcount=22

Die Hauptzunahme an Fläche wird wohl durch die zusätzlichen CUs zustande kommen. Andere Teile wie Speicherinterface, Schnittstellen etc. werden bei gleichem Fertigungsprozess eher konstant bleiben.

mczak
2012-09-28, 20:47:15
Ich erwarte in etwa das gleiche Verhältnis zwischen Größe der CUs und der allgemeinen Chipgröße wie bei Tahiti.
Diese ~50% bleiben in der Tat auch über Generationen hinweg relativ konstant bei AMD.

Da kommt man schon eher auf 450mm² für Venus.
IMO muss AMD endlich mal das Frontend aufbohren, sonst skaliert man noch schlechter, als es bei Tahiti schon der Fall war.

Bloss aufbohren auf 40CUs bringt für Gaming quasi gar nichts (na gut vielleicht so 5%). Um sich von der GTX680 absetzen zu können braucht der Chip besseres Frontend, mehr ROPs (*), aber sicher nicht mehr CUs.
Solange das also bloss uralte wiederaufgewärmte Gerüchte von irgendwoher sind bleibe ich bei meiner Version, ich sähe lieber nur 36 CUs, dafür 48 ROPs, 3x16 Pixel Rasterizer. Ein solcher Chip wäre auf jeden Fall deutlich schneller (für Gaming) und sollte auch in ~420mm² machbar sein. Gut für Compute ist das nicht so ein Wahnsinnsfortschritt aber AMD macht ja nicht wie nvidia quasi einen nur-compute Chip. Bei einem solchen Chip würde sich der compute-focus im Wesentlichen nur durch ecc/DP bemerkbar machen, nicht aber durch einen hohen "CU-Overkill".

(*) es gab ja mal die Aussage von Dave Baumann dass man überlegt habe Barts statt mit 14 simds / 32 rops mit 16 simds / 16 rops auszustatten, aber erstere Konfiguration war leicht schneller. Daraus folgt eigentlich dass man bei 22 simds statt mehr simds die ROPs erhöhen müsste von 32 auf 48 (und bei 28 simds müsste man schon 64 ROPs verbauen). Gut es gab sicher hin eine Verschiebung (bei den Spielen) zu höherem Shader/ROP-Verhältnis aber die CUs sind ja auch noch effizienter geworden. Ausserdem bringen mehr ROPs nur wirklich etwas wenn man auch die entsprechende Bandbreite hat - und die hat Tahiti schon locker ist ja mehr als ein Faktor 2 gegenüber Barts.

btw die 40 CUs sind ja schon "double confirmed" sind die doch schon wie die Daten aller Sea Islands Karten im Lexikon: http://en.wikipedia.org/wiki/Sea_Islands ;-)
Interessant AMD plant tatsächlich 2 verschiedene Chips für Mars Pro und Mars XT :-)

Ailuros
2012-09-28, 21:32:48
Den groesseren Unterschied werden mehr ROPs mit 8xMSAA machen.

Leonidas
2012-09-28, 23:39:09
Posted on:
http://beyond3d.com/showpost.php?p=1668859&postcount=446

[I]Venus chip:
~420 mm^2 [about the same size as R600]
5.1 billion transistors
.



Immer wenn die "5,1" kommt, stammt es von uns:
http://www.3dcenter.org/news/tape-out-von-amds-sea-islands-launch-im-ersten-quartal-2013

OBrian
2012-09-28, 23:51:26
Bzgl. Compute-Fähigkeiten kommt es ja auch gar nicht so auf die Leistung des einzelnen Chips an, sondern auf Performance pro Watt, denn in HPC-Clustern ist das begrenzend. Insofern kann es durchaus sein, daß nicht beliebig viele CUs dazugebaut werden, wenn es die Performance pro Watt nicht wirklich verbessert (irgendwann treten die sich gegenseitig auf die Füße, sprich Skalierung ist mies, Verbrauch skaliert aber "wunderbar" weiter hoch), dafür aber die Ausbeute schmälert und gleichzeitig noch die Eignung als Spielerkarte beeinträchtigt. Ich kann mir nicht vorstellen, daß AMD wirklich die Monster-Die-Strategie von Nvidia nachmachen will.

Eher ist durch ein Optimieren der nagelneuen und damit per se unausgereiften GCN-Architektur ein ordentlicher Leistungszuwachs ohne zusätzliche Diefläche zu erwarten. Verbrauch geht dabei wahrscheinlich durch bessere Auslastung hoch, aber das sollte durch verbesserte Fertigung (ist immerhin ein Jahr weiter) gegenzusteuern sein. Wenn sie das kombinieren mit einer moderaten Einheitenvermehrung, sollte ein deutlicher Abstand zu Tahiti machbar sein, ohne daß ihnen Ausbeute und TDP um die Ohren fliegen.

Knuddelbearli
2012-09-28, 23:53:58
OBrian da muss ich dir leider widersprechen. wenn es 20% mehr Shader gibt und dafür der Takt um 10% gesenkt wird leistet sie immer noch 10% mehr bei vermutlich sogar geringerer Leistungsaufnahme.

Skalierungsprobleme kann man im HPC Markt zu 99,9% ignorieren

mczak
2012-09-29, 00:18:18
Immer wenn die "5,1" kommt, stammt es von uns:
http://www.3dcenter.org/news/tape-out-von-amds-sea-islands-launch-im-ersten-quartal-2013
Da fällt mir gerade auf die Anzahl TMUs stimmen nicht bei Oland - das liegt wohl daran dass das schon bei Cape Verde falsch ist und da einfach weitergerechnet wurde...
Jetzt wird mir auch klar wieso die wikipedia Sea Islands Zahlen so lustig sind - "Mars Pro" entspricht dort der Oland Variante 1 Spekulation, "Mars XT" der Oland Variante 2 :-) - die TMUs dort sind zwar jetzt stimmig aber auch erst seit einer Stunde :-).

mczak
2012-09-29, 00:27:31
OBrian da muss ich dir leider widersprechen. wenn es 20% mehr Shader gibt und dafür der Takt um 10% gesenkt wird leistet sie immer noch 10% mehr bei vermutlich sogar geringerer Leistungsaufnahme.

Nicht ganz denn 1.2 * 0.9 = 1.08 also nur 8% schneller :-).

Skalierungsprobleme kann man im HPC Markt zu 99,9% ignorieren
Ob man sie wirklich ganz ignorieren kann weiss ich nicht aber sie sind sicher kein allzu grosses Problem. Aber eben, ich sehe den Chip nicht als quasi reinen Compute-Chip.

Ailuros
2012-09-29, 18:00:53
Da fällt mir gerade auf die Anzahl TMUs stimmen nicht bei Oland - das liegt wohl daran dass das schon bei Cape Verde falsch ist und da einfach weitergerechnet wurde...
Jetzt wird mir auch klar wieso die wikipedia Sea Islands Zahlen so lustig sind - "Mars Pro" entspricht dort der Oland Variante 1 Spekulation, "Mars XT" der Oland Variante 2 :-) - die TMUs dort sind zwar jetzt stimmig aber auch erst seit einer Stunde :-).

Jedermann kann bei wikipedia Inhalt aendern und man muss nichtmal registriert sein.

mczak
2012-10-01, 02:03:08
Jedermann kann bei wikipedia Inhalt aendern und man muss nichtmal registriert sein.
Das ist natürlich klar ist aber trotzdem lustig was da so alles als "Fakt" präsentiert wird...

Ailuros
2012-10-01, 14:32:14
Das ist natürlich klar ist aber trotzdem lustig was da so alles als "Fakt" präsentiert wird...

Das einzige welches man bis jetzt festhalten kann ist dass Sea Islands rund um die ca. 25-30% im Vergleich zur heutigen GPU Familie zulegen wird.

Mir ist aber persoenlich der eigentliche Preis zum Launch um einiges wichtiger. Wenn mir jemand sagt dass ich in H1 2013 eine 8950 fuer bis zu 350 Euros bekommen kann (mit ~ 7970GE Leistung) kann ich schon jetzt aufrecht sitzen.

Duplex
2012-10-01, 14:43:12
25-30% mehr Leistung sind bei gleicher Fertigung nicht schlecht, möglicherweise wird der Chip nicht viel größer ausfallen wenn man davon ausgeht das die Einheiten nicht großartig erweitert werden, die Pitcairn vs. Tahiti Games skalierung zeigt bereits das mehr Einheiten nicht viel bringen, das Frontend muss verbessert werden, AMD bezeichnet die nächste GPU Generation als neue GPU Architektur, wahrscheinlich wird diesmal das Frontend aufgebohrt.

Ich selber bin eher für die große Variante, 450-480mm² DIE mit 3072 Shader, 64 ROPS, 512 Bit SI, 800 MHz GPU Takt, 4GiB DDR5, Super Frontend, aber wenn ich die GK114 Spekus höre kann man davon nur träumen...

Ganz ehrlich die 2560 Shader kommen mir etwas wenig vor, wenn AMD beim 20nm Project die RV870 Strategie wiederholen will, dann muss man mit 4096 Shader ausgehen, sind 3072 Shader (48 CUs) als zwischenschritt "28nm HP" etwa zuviel? Angenommen GK110 kommt mit 2880 Shader im Desktop Markt als Geforce, dann hat AMD mit 2560 Shader keine größeren Chancen, Tahiti XT hat jetzt bereits 512 Einheiten mehr als GK104, es wird also nicht reichen wenn AMD nur auf 40 CUs setzen wird...

GK110 Geforce "2880 Shader" vs. Sea Islands "3072 Shader"

Ein 2560 Shader Chip von AMD hat nur Chancen wenn Nvidia ein GK114 Chip vermarktet, ansonsten wird GK110 50% flotter als GK104 und AMD wird mit dem 2560 Shader Chip keine Chancen haben, eine Situation wie damals G80 vs. RV670 könnte sich wiederholen, nur muss man wisssen will Nvidia den GK110 als Geforce vermarkten oder nicht?

Es geht ja nicht nur um die Leistungskrone, wenn de Chip nicht viel größer ausfällt (angenommen bei 40 CUs / 2560 Shader = 390mm²), dann kann AMD immer noch über den Preis punkten.

mczak
2012-10-01, 17:15:48
Ganz ehrlich die 2560 Shader kommen mir etwas wenig vor, wenn AMD beim 20nm Project die RV870 Strategie wiederholen will, dann muss man mit 4096 Shader ausgehen, sind 3072 Shader (48 CUs) als zwischenschritt "28nm HP" etwa zuviel? Angenommen GK110 kommt mit 2880 Shader im Desktop Markt als Geforce, dann hat AMD mit 2560 Shader keine größeren Chancen, Tahiti XT hat jetzt bereits 512 Einheiten mehr als GK104, es wird also nicht reichen wenn AMD nur auf 40 CUs setzen wird...

Dass der Tahiti XT kaum schneller ist als GK104 liegt aber nicht daran dass er mehr CUs braucht für dieselbe Performance, der skaliert (genau wie GK104 auch schon wenn man sich den Unterschied zwischen 7 und 8 SMX ansieht) eben nicht mehr mit noch mehr CUs. Hätte ein Nachfolger 48 CUs wären das allein schon mehr als 80mm² mehr Chipfläche, und das bei quasi gleichbleibender Gaming-Performance (könnte so maximal etwa 10% bringen). Da müssten also zwingend noch andere Verbesserungen dazukommen (Frontend, ROP, ...), es sei denn der Chip soll quasi nur für Compute sein was aber sehr sehr unwahrscheinlich erscheint und das würde dann sehr rasch Richtung 500mm² gehen - davon dass AMD tatsächlich einen ähnlich grossen Chip wie GK110 bauen will hat man aber nichts gehört.
Ich persönlich finde ja auch die 2560 CUs schon übertrieben für den Nachfolger, soll der Chip einigermassen klein blieben müsste man diese Chipfläche einfach anderswo investieren um den maximalen Gewinn für Gaming-Performance zu erreichen (sicher teilweise Frontend, wahrscheinlich auch ROPs, vielleicht gibt's auch andere interne Flaschenhälse, sicher ist nur dass so wie der Chip jetzt ist mehr CUs bloss für Compute nützlich sind).
Würden die Nachfolger-Chips 12/24/36 CUs haben bei 1/2/3 Rasterizern und 16/32/48 ROPs (mit 128/256/384bit Speicherinterface) hätten die alle dasselbe Verhältnis :-). Dass der Topchip etwas mehr CUs hat würde aber durchaus (wegen Compute-Markt) Sinn ergeben, aber allzuviel mehr liegen nicht drin soll der Chip deutlich unter ~450mm² bleiben.
Dass man da gegen einen Desktop-GK110 verliert wäre sicher erwartet, der Verlust dürfte sich aber angesichts des Chipgrössenunterschieds in Grenzen halten - dass der GK110 im Vollausbau erscheint ist nicht sicher, ausserdem dürften die Taktraten (aus Stromverbrauchsgründen) etwas tiefer sein. Damit könnten sicher alle leben - das sehe ich nicht als g80 vs. rv670 eher gf110 vs. Cayman (d.h. AMDs Top-Karte wäre Konkurrenz nicht für nvidia's Top-Karte mit einem deutlich grösseren Chip aber für eine nvidia Karte mit einem beschnittenen Top-Chip).

Ailuros
2012-10-01, 19:07:56
Es ist immer das Gleiche wir sterblichen fallen immer und immer wieder in die Falle Effizienz pro chip aus sterilen Einheits-anzahlen kombiniert mit Frequenz zu erraten.

Ich selber bin eher für die große Variante, 450-480mm² DIE mit 3072 Shader, 64 ROPS, 512 Bit SI, 800 MHz GPU Takt, 4GiB DDR5, Super Frontend, aber wenn ich die GK114 Spekus höre kann man davon nur träumen...

Dass sie es schaffen so viel in nur 450-480mm2 zu quetschen will ich erstmal sehen. Nebenbei sollte mir jemand auch mal erklaeren fuer was ein 512bit bus genau gut sein soll. Um den Stromverbrauch und Kosten erstmal innerhalb von halbwegs logischen Grenzen zu halten, wuerde kein IHV heutzutage mit einem 512bit bus all zu hoch getakteten Speicher verwenden und schon gar nicht mit 4GB; ergo im Endeffekt hat man einen die area overhead mit 512bit ohne irgendwelche sehenswert mehr Bandbreite gegenueber 384bit mit hoeher getaktetem Speicher.

***edit: die Anzahl der ROPs bei Radeons ist ja sowieso total wurscht da sie nicht an den MC gekoppelt sind; theoretisch koennten sie sogar 64 ROPs auf einem chip mit einem 384bit bus haben, wenn sie wirklich empfinden wuerden dass so viele ROPs wirklich notwendig sind. Fuer die heutigen Verhaeltnisse klingen mir mehr als 48 ROPs als ziemlicher overkill.

reaperrr
2012-10-02, 23:05:43
Solange das also bloss uralte wiederaufgewärmte Gerüchte von irgendwoher sind bleibe ich bei meiner Version, ich sähe lieber nur 36 CUs, dafür 48 ROPs, 3x16 Pixel Rasterizer. Ein solcher Chip wäre auf jeden Fall deutlich schneller (für Gaming) und sollte auch in ~420mm² machbar sein. Gut für Compute ist das nicht so ein Wahnsinnsfortschritt aber AMD macht ja nicht wie nvidia quasi einen nur-compute Chip.
Für's Gaming wäre das wohl tatsächlich die beste Balance, allerdings wäre der Zuwachs an theoretischer Rechenleistung etwas gering, vor allem da der Stromverbrauch bei gleichem Takt wohl mindestens genauso ansteigen würde.

Ich würde hier eher 42 CUs verbauen. Der Flächenzuwachs wäre mit 33mm² vertretbar, ca. 8% gegenüber der 36CU-Variante, der Zuwachs an ALU/TMU-Power pro Takt dagegen 16,67%. Das Verhältnis von CUs zu Frontend/ROPs bliebe immerhin auf 7950-Niveau, die Skalierung sollte theoretisch also noch immer besser als bei Tahiti im Vollausbau sein, und anders als bei der 36-CU-Variante wäre der Leistungszuwachs auch im Compute-Bereich hoch, selbst bei moderaterem Takt.

OBrian
2012-10-06, 11:18:24
Es ist immer das Gleiche wir sterblichen fallen immer und immer wieder in die Falle Effizienz pro chip aus sterilen Einheits-anzahlen kombiniert mit Frequenz zu erraten. Wir haben ja auch keine sonstige Anhaltspunkte. Wieviel Spannung müssen sie draufgeben, um mit brauchbarer Ausbeute die gewünschte Taktrate zu erreichen? Ist abhängig von der Fertigung, und auch AMD oder Nvidia werden sowas wohl erst einige Monate vor Launch absehen können, davor sind es nur hoffnungsfrohe oder angsterfüllte Simulationen.

Man sollte also mal Informationen zur Fertigung sammeln. Gibt es irgendwelche Aussagen oder Gerüchte, wie es bei TSMC aussieht? Ausbeute verbessert, irgendwelche neue Tricks in die Fertigung eingeflossen? Es ist ja heute definitiv nicht mehr so, daß die Fertigung über die ganze Zeit einer Node absolut gleich bliebe und neue Entwicklungen dann erst in die nächste Node eingebaut werden.

Ailuros
2012-10-07, 03:04:40
Wir haben ja auch keine sonstige Anhaltspunkte. Wieviel Spannung müssen sie draufgeben, um mit brauchbarer Ausbeute die gewünschte Taktrate zu erreichen? Ist abhängig von der Fertigung, und auch AMD oder Nvidia werden sowas wohl erst einige Monate vor Launch absehen können, davor sind es nur hoffnungsfrohe oder angsterfüllte Simulationen.

Man sollte also mal Informationen zur Fertigung sammeln. Gibt es irgendwelche Aussagen oder Gerüchte, wie es bei TSMC aussieht? Ausbeute verbessert, irgendwelche neue Tricks in die Fertigung eingeflossen? Es ist ja heute definitiv nicht mehr so, daß die Fertigung über die ganze Zeit einer Node absolut gleich bliebe und neue Entwicklungen dann erst in die nächste Node eingebaut werden.

Das dumme ist eben dass Sea Islands mit aller Wahrscheinlichkeit ihre zusaetzliche Leistung nicht von hoeheren Frequenzen schoepfen werden und wenn dann nur zu einem ziemlich geringen Anteil von der Frequenz-seite.

Wuerde AMD nur die Frequenzen erhoehen erreicht man zwar leicht N Leistungsziel aber auch auf Kosten von zu hohem Stromverbrauch.

Der Satz den oben zitierst hat als Ziel Aussagen wie oben "mir sind 2000 SPs zu wenig" oder "mir sind 2000 SPs zu viel". Stellen wo AMD nachladen koennte was die Effizienz betrifft wurden in diesem und anderen threads schon mehrmal erwaehnt, ergo ist es eben in solchen Faellen nicht einfach Anzahl der Einheiten * Frequenz = Problem geloest sondern um einiges komplizierter.

IHVs folgen erstmal TMSCs guidelines fuer maximale vorgeschlagene Frequenzen pro Herstellungsprozess und Chip-komplexitaet ziemlich genau. Wenn TSMC nur z.B. maximal 1.1GHz vorschreibt fuer X Komplexitaet und ein IHV geht trotzdem auf 1.3GHz und die Mehrzahl der cores knallen ab bei der Produktion wird TSMC sicher nicht fuer die beschissenen yields den IHV entschuldigen. Unter normaler Umstaenden legen die IHVs ihre Zielfrequenzen etwas konservatives an was die Vorschreibungen von TSMC betrifft; nach dem finalen tape out dann je nachdem wie die eigentliche Toleranz des chips aussieht kann es vorkommen dass man nochmal bis zu 50MHz dazulegt, aber sie lassen auch stets einen logischen Luftraum fuer Uebertaktungs-uebungen und sehr grossen zur eigentlichen maximalen Toleranz des chips.

G 80
2012-10-09, 14:17:06
Wie sehen solche Vorgaben eigentlich genau aus?

Ich meine zb die 1D vs 5D Shader Situation. Völlig unterschiedliche Herangehensweisen, Taktodomänen, Packdichten etc. Da wird ja so eine allgemeingültig gehaltene Aussage Schwer.

Oder muss man sich das wie eine Matrix vorstellen: Packdichte, Strom, Tak, etc und man sucht sich quasi die Zelle die die gwünschten Variablen erfüllt?

Ailuros
2012-10-09, 14:36:10
Wie sehen solche Vorgaben eigentlich genau aus?

Ich meine zb die 1D vs 5D Shader Situation. Völlig unterschiedliche Herangehensweisen, Taktodomänen, Packdichten etc. Da wird ja so eine allgemeingültig gehaltene Aussage Schwer.

Oder muss man sich das wie eine Matrix vorstellen: Packdichte, Strom, Tak, etc und man sucht sich quasi die Zelle die die gwünschten Variablen erfüllt?

Im Fall von ALU hotclocks wie zwischen G80 und GF1xx wurde das Ganze vereinfacht durch "Handarbeit" angepasst.

Sonst weiss ich genaue Einzelheiten auch nicht selber; in etwa so nur um einiges langwieriger hat es mir mal ein engineer erklaert. Jegliche foundry wird schon detaillierte guidelines fuer jeglichen einzelnen Prozess haben, damit IHV schon bei design layout wissen was man darf oder nicht darf. Unter normalen Situationen ist es auch nicht ueblich dass IHVs Teile einer cores mit der Hand anpassen. Und es war wohl nicht der gleiche Prozess bei NV fuer die ALUs fuer jeglichen G80 Nachfolger, sondern eher eine Art "copy/paste" Masche von Generation zu Generation.

IHVs sind aber trotz allem extrem konservativ mit Frequenzen aus verstaendlichen Sicherheitsgruenden. Braucht eine jegliche Architektur zu brutal hohe Frequenzen fuer ihre Zeit um sich halbwegs zu behaupten, bestehen gute Chancen dass die Architektur im Eimer ist. Fuer GPUs war NV30 ein sehr gutes Beispiel und ja damals hatte NV wohl TSMC's guidelines wohl mit Absicht uebersehen denn die damaligen 500MHz waren viel zu hoch fuer ihre Zeit und der allererste chip der ins Labor geschickt wurde kam zu 100% maustot zurueck ohne dass er selbst im geringstem zum Leben erweckt worden konnte.

Skysnake
2012-10-09, 22:42:25
Es kommt halt auch immer darauf an, was man denn macht, wie Ailuros da schon richtig einen Einblick gibt.

TSMC hat halt liberies, in denen die Transistoren und/oder Schaltgruppen vorgefertigt sind. Teilweise kauft man solche Sachen auch bei Firmen ein, soweit mir das bekannt ist (z.B. Analogtechnik).

Das sind dann halt Standardzellen (? glaub so hiesen die, kann aber auch mit FPGAs was durcheinander bringen). Darüber hinaus können IHVs aber eben auch selbst anfangen sich ihre Sachen zusammen zu schustern. AMD und nVidia werden das machen, aber das ist wohl eher die Ausnahme, denn die Regel.

Man muss ja wirklich bedenken, dass das schon ziemlich difiziel ist, was man da macht, und wenn man Mist baut, hat man halt einen toten Chip, und es kann verdammt viel schief gehen...

Ailuros
2012-10-11, 14:38:54
http://semiaccurate.com/2012/10/11/what-is-the-latest-on-amds-sea-islands/

Nicht dass mir jetzt ploetzlich erzaehlt dass Charlie in irgend einer Art "AMD feindlich" ist. Es war auch irgendwie zu erwarten, denn 30% Durchschnitt holt man auch nicht so leicht raus wenn das Meiste bei einer Architektur auch stimmt. Ich kann mir im Gegensatz auch nicht vorstellen dass NV's GK114 so leicht ein so hohes Prozentual gegen GK104 dazulegen koennte.

boxleitnerb
2012-10-11, 20:15:16
Naja bei den kleineren Chips hätte man noch Luft was TDP und Die Size angeht, um da mehr draufzupacken. Ich hätte mir vorstellen können, dass man Nvidias Weg kopiert und die 8800er aufpumpt für maximale Gamingeffizienz.

john carmack
2012-10-11, 21:02:00
http://semiaccurate.com/2012/10/11/what-is-the-latest-on-amds-sea-islands/

Nicht dass mir jetzt ploetzlich erzaehlt dass Charlie in irgend einer Art "AMD feindlich" ist. Es war auch irgendwie zu erwarten, denn 30% Durchschnitt holt man auch nicht so leicht raus wenn das Meiste bei einer Architektur auch stimmt. Ich kann mir im Gegensatz auch nicht vorstellen dass NV's GK114 so leicht ein so hohes Prozentual gegen GK104 dazulegen koennte.

So weit ist es schon gekommen. Früher zu TNT/TNT2/GeForce1/GeForce2... Waren etwa 70%-80% jedes halbe Jahr drin.

Da kann man nix machen, und besser wird auch nicht!

Ailuros
2012-10-11, 21:20:28
So weit ist es schon gekommen. Früher zu TNT/TNT2/GeForce1/GeForce2... Waren etwa 70%-80% jedes halbe Jahr drin.

Mit 16bpp und normal settings in Quake3 war das Prozentual schon ueber 60% zwischen der GeForce256 und der GeForce2 GTS; das dumme ist eben dass im high quality modus mit 32bpp der Unteschied schnell auf 32bpp purzelte. 16bpp mit S3TC war damals zum kotzen abscheulich auf GeForces.

Sonst muss ich nach all den Jahren die 70-80% durchschnittlichen Leistungsunterschied alle 6 Monate verpasst haben.

Nebenbei:

NV10 = Q3 1999
NV15 = Q2 2000
NV20 = Q1 2001
NV25 = Q1 2002
NV30 = Q2 2003
NV35 = Q2 2003
NV40 = Q2 2004
NV45 = Q3 2004
G70 = Q3 2005
G71 = Q1 2006
G80 = Q4 2006
GT200 = Q2 2008
GT200b = Q1 2009
GF100 = Q1 2010
GF110 = Q4 2010

Da kann man nix machen, und besser wird auch nicht!

An den Leistungs-unterschieden (mal mehr mal weniger) pro refresh und pro neuer wahren Generation hat sich nichts besonders geaendert.

john carmack
2012-10-11, 21:27:40
Kam nicht jedes halbe Jahr eine neue Gen.?
Oder war es doch jede 12Monate?

Irgendwie ha ich noch 6 Monate im Kopf...

Ailuros
2012-10-11, 21:37:28
Kam nicht jedes halbe Jahr eine neue Gen.?
Oder war es doch jede 12Monate?

Irgendwie ha ich noch 6 Monate im Kopf...

Ja es gab unendliche Bums-refreshes zu der Zeit die auch von beiden IHVs ziemlich ueberfluessig waren. Nimm die GF2 MX und such nach wie viele Varianten es von dem looser ueber die Jahre gab,

disap.ed
2012-10-12, 13:20:07
Ist es eigentlich unwahrscheinlich, dass Venus weiterhin "nur" 2048 Shader Units hat und lediglich das Frontend aufgebohrt wurde? Würde aus meiner Sicht gar nicht sowenig Sinn machen und würde auf die 15-30% Mehrperformance der heutigen Meldung wahrscheinlich ganz gut hinkommen.

Ailuros
2012-10-12, 13:27:46
Man sollte ehrlich gesagt darueber einen engineer fragen ob es ueberhaupt theoretisch Zeit genug gab ins frontend einzugreifen.

ATI wusste als Gegenbeispiel dass single cycle 2xMSAA zu schwach war fuer R600, es blieb aber so im RV670 stehen und wurde erst im RV770 auf single cycle 4xMSAA erweitert.

Ist zwar nicht direkt relevant zum Thema, aber IMHO duerfte AMD GDP in den letzten paar Jahren ziemlich ueberfoerdert gewesen sein und es duerfte immer noch nicht nachgelassen haben mit gleich 3 verschiedenen Konsolen-designs.

Knuddelbearli
2012-10-12, 13:38:37
naja wobei frontend schon immer eher amd schwäche war, früher kam halt erschwerden die auslastung der 4d / 5d shader dazu, worauf ich aber hinauswill, sie wissen nicht erst seit dem 7970 das das frontend mal aufgebohrt gehört

Ailuros
2012-10-12, 14:24:03
naja wobei frontend schon immer eher amd schwäche war, früher kam halt erschwerden die auslastung der 4d / 5d shader dazu, worauf ich aber hinauswill, sie wissen nicht erst seit dem 7970 das das frontend mal aufgebohrt gehört

Sie haben auch nicht gestern mit den Konsolen-designs angefangen. GCN als fundamental neue Architektur war eine sehr gute Chance fuer sie es von Angang an besser hinzubekommen. Aber engineers kochen eben auch nur alle mit Wasser und sind konstant unter Zeitdruck. Eben unter diesem setzen sie auch ihre Prioritaeten.

Nakai
2012-10-12, 14:43:23
Sie haben auch nicht gestern mit den Konsolen-designs angefangen. GCN als fundamental neue Architektur war eine sehr gute Chance fuer sie es von Angang an besser hinzubekommen. Aber engineers kochen eben auch nur alle mit Wasser und sind konstant unter Zeitdruck. Eben unter diesem setzen sie auch ihre Prioritaeten.

Das ist zwar verständlich, aber nicht sehr einleuchtend. Seit Fermi weiß man, dass das eigene Frontend einfach veraltet war. Das hat man zwar in kleinen Stücken gefixt(mit HD6xxx), aber ein Durchbruch war das auch nicht.
Im Vergleich zu NVs Frontend ist man einfach dramatisch unterlegen.

Für mich gibt es eigentlich nur drei Möglichkeiten, wie eine HD8900 aussehen wird:
1. Überholtes Frontend, keine Takterhöhung, 2048SPs
2. Gleiches Frontend, keine Takterhöhung, 2560SPs
3. Gleiches Frontend, moderate Takterhöhung, 2048SPs (ähnlich RV790)

Mehr Performancesteigerung als 20% erwarte ich nicht.

Ailuros
2012-10-12, 16:09:37
Und wieso nicht 36CUs mit gering hoeherem Takt und ein paar temporaere "Pflaster" fuer's frontend?

mczak
2012-10-12, 17:12:39
Man sollte ehrlich gesagt darueber einen engineer fragen ob es ueberhaupt theoretisch Zeit genug gab ins frontend einzugreifen.

Naja also so schwach ist das Frontend selbst ja eigentlich nicht, ist eben nur so dass der High-end Chip halt dasselbe hat wie der Performance-Chip - im Performance-Chip scheint das durchaus ausreichend zu sein.
Aber schon das GCN-Whitepaper hat ja erwähnt dass die Anzahl der Primitive Pipes durchaus auch mehr als 2 sein könnte (da stand mehr oder weniger beliebig skalierbar) von daher ist es wohl nicht so weit hergeholt zu glauben dass das nun auch in einem Chip realisiert werden könnte.

V2.0
2012-10-12, 17:25:18
Merh Einheiten jeglicher Art -> mehr Chipfläche. Die Frage ist halt wie nah sich AMD an die Chipgrößen von NV traut. GK104 gegen Tahiti XT ist imho schon kein sehr toller Vergleich für AMD (wenn man auch den Stromverbrauch beachtet). Man wird bei dem Refresh imho ziemlich konservativ sein müssen. Alles andere würde massiv Resourcen benötigen.

AnarchX
2012-10-12, 17:27:12
Fragt sich ob die Nennung von Half-Rate DP bei GCN wirklich nur so theoretisch war oder ob man da eine konkrete Implementierung im Kopf hatte.

Dann bleibt auch die Frage wie weit man mit der Die-Size gehen will, beim High-End-Chip.

Mit einem GK114 könnte wohl auch ein entsprechend starker Gamer-GCN (Dual-Front-End, 1920SPs @~1,1GHz + 256-Bit@7Gpbs) bei knapp unter 300mm² konkurrieren.

][immy
2012-10-12, 17:37:12
Merh Einheiten jeglicher Art -> mehr Chipfläche. Die Frage ist halt wie nah sich AMD an die Chipgrößen von NV traut. GK104 gegen Tahiti XT ist imho schon kein sehr toller Vergleich für AMD (wenn man auch den Stromverbrauch beachtet). Man wird bei dem Refresh imho ziemlich konservativ sein müssen. Alles andere würde massiv Resourcen benötigen.

Also ich denke mal die nachteile der GK104 Architektur wird sich in der Zukunft noch zeigen. Spätestens wenn spiele versuchen das Zeugs (GPGPU) was nvidia reduziert hat zu nutzen kommt auf die Architektur doch eine schwere Zeit zu, aber bis dahin wird der GK110 wohl schon raus sein und es wohl keine Rolle mehr spielen.

Nunja, theoretisch müsste doch beimm HD8000 noch einiges möglich sein. Immerhin ist die GCN Architektur noch neu und noch nicht ausgereitzt. Eventuell wird AMD ja bei den Midrange Karten abwärts auch noch einiges weglassen was nur für GPGPU-Zwecke gebraucht wird, aber wenn man dort einiges Weglässt, besteht auch die gefahr das man die chips mit ein wenig mehr vcore + mehr takt nachher noch schneller sind als die nächsthöhere ausbaustufe. Ist ja aktuell schon fast so bei den 7870er Karten.

Ailuros
2012-10-12, 20:15:16
[immy;9499273']Also ich denke mal die nachteile der GK104 Architektur wird sich in der Zukunft noch zeigen. Spätestens wenn spiele versuchen das Zeugs (GPGPU) was nvidia reduziert hat zu nutzen kommt auf die Architektur doch eine schwere Zeit zu, aber bis dahin wird der GK110 wohl schon raus sein und es wohl keine Rolle mehr spielen.

Oder Entwickler machen einen moeglichen Rueckzieher in Spielen was computing betrifft; ich traue NV's DevRel vieles zu, AMD's leider eher weniger.

Nunja, theoretisch müsste doch beimm HD8000 noch einiges möglich sein. Immerhin ist die GCN Architektur noch neu und noch nicht ausgereitzt. Eventuell wird AMD ja bei den Midrange Karten abwärts auch noch einiges weglassen was nur für GPGPU-Zwecke gebraucht wird, aber wenn man dort einiges Weglässt, besteht auch die gefahr das man die chips mit ein wenig mehr vcore + mehr takt nachher noch schneller sind als die nächsthöhere ausbaustufe. Ist ja aktuell schon fast so bei den 7870er Karten.

Tja es ist eben so dass AMD und NV's chips auf verschiedenen Schienen laufen. NV reduzierte stark ab Performance und AMD da sie keinen single high end chip haben von den Mainstream SKUs und nach unten.

Sonst ist Kepler genauso "jung" wie GCN. Kepler war zwar keine "tabula rasa" beim Anfang seiner Entwicklung im Vergleich zu seinen Vorgaengern, aber es sieht auch nicht besonders anders aus mit GCN und dessen Vorgaengern.

Entweder kommen beide IHVs in der Zukunft zu einer effektiveren Loesung das Prozess-Problem zu umgehen oder sie rennen langfristig in eine Sackgasse wo Entwicklungs-cycli stets groesser werden und Leistungs-unterschiede gefaehrlich kleiner.

AMD hat die Problematik schon vor dem launch von Tahiti oeffentlich anerkannt; nach ihnen wollen sie ab 14nm nach Alternativen denken. Kann sein dass sich zu pessimistisch bin, aber mir klingt das Ganze viel zu spaet.

][immy
2012-10-12, 23:33:34
Oder Entwickler machen einen moeglichen Rueckzieher in Spielen was computing betrifft; ich traue NV's DevRel vieles zu, AMD's leider eher weniger.

nunja, hier könnte der Vorteil für AMD darin liegen das diesmal alle konsolen AMD Chips haben. Eventuell müssen sie sich dann nicht so viel mühe geben die Entwickler aufzuklären, weil einige Vorzüge von AMD Chips dann durch die Konsolen zu den Entwicklern durchdringen. Das Problem bei AMD ist halt, sie sind knapp bei Kasse. Alles was die mehr oder minder am Leben hält ist Intel. Mich wundert ein wenig das sie durch die übernahme von ATi nicht mal direkt (abgesehen von abschreibungen) ins plus gerutscht sind.


Was die Strukturgrößen angeht, da können die gar nicht anders. Wenn man kleinere Schritte innerhalb eines Fertigungsprozessess macht aber dafür mehr Generationen mit einem Prozess rausbringt, dürfte (je nachdem wer es macht) der Konkurrent einen direkt überrumpeln mit dem schnelleren Chip. Also haben Sie gar keine andere Wahl als zu versuchen direkte das beste aus einer Fertigung rauszuholen, sonst kauft deren Chips keiner.
Das einzige was sich dann über die gleichen Fertigungstechnologie verkaufen lässt wären neue Features die es eventuell einfacher machen bestimmte grafische Ziele zu erreichen, so das man andere rechenintensivere Algorythmen nicht mehr braucht.

Allein der billige bloom effekt hat damals einiges aus den spielen rausgeholt, sieht man z.B. sehr gut in Splinter Cell Chaos Theory. Es macht meiner Meinung nach ohne den Bloom Effekt nicht viel besser (grafisch) als Splinter Cell 2 oder 1 sieht aber mit diesem um Welten besser aus. HDR-Rendering ist dann natürlich schöner, aber den großen Sprung gab es damals (wie gesagt ist mein Eindruck) mit dem Bloom-effekt damals.

horn 12
2012-10-13, 07:49:12
Bei HD7950 / bzw. 7970 +20% Mehrperformance braucht kein Besitzer einer HD7950/ 7970 umzusteigen, vor Allem welche Karten auf 1100 bis 1200 Mhz laufen.
Weiss die HD8000-er Serei lässt sich auch OC, da wird aber die Spanne weitaus geringer ausfallen, wenn die HD8970 vielleicht mit 1050 / 1075 Mhz daherkommen SOLLTE!H
HD8950 vielleicht mit 950 Mhz.

V2.0
2012-10-13, 10:52:01
[immy;9499273']Also ich denke mal die nachteile der GK104 Architektur wird sich in der Zukunft noch zeigen. Spätestens wenn spiele versuchen das Zeugs (GPGPU) was nvidia reduziert hat zu nutzen kommt auf die Architektur doch eine schwere Zeit zu, aber bis dahin wird der GK110 wohl schon raus sein und es wohl keine Rolle mehr spielen.

Ich bin mal mutig, aber ich behaupte mal, dass GK104 nicht mehr produziert wird, wenn die Probleme auftauchen könnten Vorher werden die Dev. Relations und das Treiberteam imho die Probleme schon lösen.

Raff
2012-10-13, 12:28:01
Zumindest direkt nach dem Launch gab's eine Reihe Benchmarks (u.a. in der PCGH :tongue: ), bei der eine GTX 680 bei Gedöns wie PhysX und CUDA (Batman AC, Just Cause 2) prozentual stärker einbrach als GF1x0 – natürlich auf absolut höherem Niveau. Wobei der Gamer Fermi GF1x4 ähnlich skaliert wie der Gamer Kepler GK104. Das sind keine Dimensionen, zumindest im Spielebereich. Bei diversen anderen Geschichten, wie Ray Tracing, sieht der aktuelle Kepler kein Land gegen die großen Fermis und schon gar nicht gegen Tahiti.

Bei HD7950 / bzw. 7970 +20% Mehrperformance braucht kein Besitzer einer HD7950/ 7970 umzusteigen, vor Allem welche Karten auf 1100 bis 1200 Mhz laufen.
Weiss die HD8000-er Serei lässt sich auch OC, da wird aber die Spanne weitaus geringer ausfallen, wenn die HD8970 vielleicht mit 1050 / 1075 Mhz daherkommen SOLLTE!H
HD8950 vielleicht mit 950 Mhz.

Nötig ist Aufrüsten von einer HD 7900 sowieso nicht. Aber die neuen Karten wird man auch übertakten können. Wenn die neuen Kisten also mit 2.560 ALUs antreten, also +25 Prozent, und ebenfalls mit 1.200+ MHz laufen können (wovon ich mal ausgehe), wird das Plus bestenfalls ein Drittel gegenüber Tahiti XT betragen. Ohne neue Features sieht die Lage für die meisten Kunden, darunter ich, klar aus: auf GK110 warten. Aber auch bei dem sehe ich derzeit nicht, wie er eine HD 7970 @ 1.200 MHz wirklich vernichtend schlagen kann. Schön wär's ja, das gäbe endlich wieder Zunder auf dem Markt. Und wir wissen ja: Auch den dicken Johannes wird man übertakten können. ;)

MfG,
Raff

Knuddelbearli
2012-10-13, 13:19:29
ich will einfach nen nachfolger für meine 480, 20nm in 2 Jahren dauert mir einfach noch zulange dafür schluckt die 480 einfach zuviel, vor allem im idle

V2.0
2012-10-13, 14:00:37
ich will einfach nen nachfolger für meine 480, 20nm in 2 Jahren dauert mir einfach noch zulange dafür schluckt die 480 einfach zuviel, vor allem im idle

Da ist weder die 680 och die 7970 ungeeignet. Gerade die 680 bringt mehr Leistung bei deutlich weniger Verbrauch.

Knuddelbearli
2012-10-13, 14:37:33
naja was heißt hier deutlich mehr Leistung .... sind keine 50% :-/

und das für ( wakü ) über 500€ ...

V2.0
2012-10-13, 14:44:55
Dann bleibt nur auf GK110 zu hoffen. Überraschung erwarte ich von AMD gegenwärtig nicht, die stehen einfach zu schlecht da.
http://de.finance.yahoo.com/nachrichten/amd-massivem-stellenabbau-111213852.html

Zergra
2012-10-13, 15:37:59
Dann bleibt nur auf GK110 zu hoffen. Überraschung erwarte ich von AMD gegenwärtig nicht, die stehen einfach zu schlecht da.
http://de.finance.yahoo.com/nachrichten/amd-massivem-stellenabbau-111213852.html
Naja liegt wohl aber an der CPU Sparte, ich hätte gerne mal eine Trennung des Umsatzes.

Bin echt gespannt auf das nächste Jahr, wenn dann eine HD8870 für 200€ mit der HD7970 Performance kommt wird das wohl meine nächste Karte. Solange NV dort nicht mal eine gute P/L Karte bringt. :D

Mancko
2012-10-13, 17:41:03
Naja liegt wohl aber an der CPU Sparte, ich hätte gerne mal eine Trennung des Umsatzes.

Bin echt gespannt auf das nächste Jahr, wenn dann eine HD8870 für 200€ mit der HD7970 Performance kommt wird das wohl meine nächste Karte. Solange NV dort nicht mal eine gute P/L Karte bringt. :D

Die Trennung gibt es schon seit je her. Kannst Du einfach in den Quartalszahlen oder SEC Berichten von AMD nachlesen. Daraus geht auch hervor, dass die Grafiksparte auch nicht besondes rosik dasteht. Die geplanten Entlassungen bei AMD sollen zudem auch die GPU Sparte treffen. Ich glaube nicht dass sie das planen würden, wenn es in der Sparte besonders gut läuft. Defakto hat doch AMD aus dem zeitlichen Vorsprung mit Thaiti keinen wirklichen Nutzen ziehen können. Im letzten Quartal war Nvidia bereits wieder dabei verlorenen Boden von AMD zurückzuholen und das nicht zu knapp, dank der GTX680 und 670.

Hugo78
2012-10-13, 21:51:01
Naja liegt wohl aber an der CPU Sparte, ich hätte gerne mal eine Trennung des Umsatzes.

P3Dnow schreibt das wohl eher GPU Entwickler gehen werden:
Demnach wird dieses Mal die Axt vor allem bei den Ingenieuren geschwungen, wobei insbesondere der AMD-Standort Markham betroffen sein soll. Was dieses Gerücht besonders alarmierend macht, ist die Tatsache, dass damit wohl in erster Linie die kanadischen GPU-Entwickler getroffen werden - also genau der Teil des Unternehmens, der aktuell im harten Konkurrenzkampf mit NVIDIA noch gut da steht.
- http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1350126694

NV und/oder Intels GPU Sparte wird es freuen...
Ein derartiger Abfluss von Kompetenz - man könnte es auch Ausbluten nennen - dürfte nur schwerlich zu kompensieren sein. Das Wort Kaputtsparen kommt einem dabei zwangsläufig in den Sinn. Die Konkurrenz freut sich sicherlich über jedes freiwerdende Talent auf dem Arbeitsmarkt.

Ailuros
2012-10-13, 22:16:36
Na es wird wohl auch Qualcomm u.a. freuen.

Mancko
2012-10-14, 14:27:14
Na es wird wohl auch Qualcomm u.a. freuen.

Viele Unternehmen freuts. Warum auch nicht. Da wird Personal entlassen, dass ander sicher gern haben möchten. Außerdem ist es in so einem Umfeld auch viel einfacher für Nvidia, Qualcomm & Co Personal welches noch nicht von einer Entlassung betroffen ist abzuwerben. Wer möchte schon gern in einem unsicheren Umfeld arbeiten.

AMD ist jetzt langsam an dem Punkt wo das große Fressen beginnt. Das Unternehmen wird sich kaum selber mehr halten können.

Ailuros
2012-10-14, 19:20:09
Viele Unternehmen freuts. Warum auch nicht. Da wird Personal entlassen, dass ander sicher gern haben möchten. Außerdem ist es in so einem Umfeld auch viel einfacher für Nvidia, Qualcomm & Co Personal welches noch nicht von einer Entlassung betroffen ist abzuwerben. Wer möchte schon gern in einem unsicheren Umfeld arbeiten.

AMD ist jetzt langsam an dem Punkt wo das große Fressen beginnt. Das Unternehmen wird sich kaum selber mehr halten können.

Ich wuerde sogar langfristig ein analoges VIA Phaenomaen nicht ausschliessen. Viele wissen dass es VIA gibt nur interessiert die Firma kein Schwein mehr.

Bei NV wie ich im GK110 thread gerade schrieb sieht es auch nicht besonders blendend aus. Zwar sieht es bei weitem nicht so schlecht aus wie momentan bei AMD aber frueher oder spaeter wird es sie auch zu einem Grad radikaler erwischen und Intel u.a. auch. Genau deshalb versuchen Intel, NVIDIA u.a. sich so stark wie moeglich zu wenden um im small form factor Markt aggressiv einzudringen weil die Zukunft eben leider in der mobilen Richtung liegt.

Es sind IMHO eine Unzahl an Faktoren die mitspielen, u.a. eine breitere Finanzkrise, fehlende sw/Applikationen die higher end Leistung treiben werden und natuerlich auch Microsoft's Entscheidung unter win8 ein OS zu entwickeln dass eine breitere Pallette an Maerkten ansprechen kann. Wie viele auf win8 fuer desktop steigen werden bleibt abzusehen da nicht jeder Bock hat sich ein touch display zu holen; sonst wie oft ruesten Users in letzter Zeit high end CPUs als Gegenbeispiel auf? Frueher waren die Intervalle um zich Mal kleiner; seit core-i-wasauchimmer wird die eigentliche Not immer geringer eben weil die insgesamte Effizienz zu gut ist und AMD's konkurrierende Produkte nur noch so vor sich hintrotteln dagegen.

Notebooks sind vorbei als Trend, Ultrabooks werden wohl nicht besonders weit kommen ergo bleiben notebooks, tablets und smartphones mit sehenswerteren Zuwachszahlen fuer die Zukunft uebrig. KEINER dieser braucht high end CPUs oder GPUs und die Leute haben einfach nicht mehr das Geld tausend an Euros in high end PCs jedes Jahr zu investieren und dazu noch etliche hundert Euros fuer Spiele.

IMHO und ich stehe dazu hatte AMD nicht alle Taschen im Schrank als sie Imageon an Qualcomm verkauften. Der Schachzug mit Fusion SoCs war und ist ausgezeichnet, da hatte ein frueher und starker Durchbruch im small form factor Markt nicht geschadet.

Sonst sollte man auch bedenken dass seit das Management sich bei AMD geaendert hat, diese Herren die heute am Rad sind es nicht besonders gern hatten dass die ATI Kerle sich so gut innerhalb der Firma etabliert haben. Nur um irgendwelche kleinkindischen interne Feindlichkeiten zu befriedigen wird jetzt das bei weitem konkurrenzfaehigste Geschaeft von AMD so brutal kastriert dass es nur zum eigentlichen Selbstmord fuehren kann.

][immy
2012-10-14, 20:24:56
die Frage lautet langsam eigentlich wer genug Kohle hat um AMD zu schlucken. Wenn sie nun wirklich gerade im GPU bereich, wo sich aktuell zumindest noch geld verdienen lässt so stark abbauen wollen, will ich nicht wissen wie es mit der konkurrenzfähigkeit in ein paar jahren aussieht.
Aber müsste es durch die 3 Konsolen die auf AMD-Chips basieren (auch wenn nur die Designs gekauft wurden) nicht gerade eine flut von Geld bei denen ankommen?

Zergra
2012-10-14, 20:31:50
[immy;9502327']die Frage lautet langsam eigentlich wer genug Kohle hat um AMD zu schlucken. Wenn sie nun wirklich gerade im GPU bereich, wo sich aktuell zumindest noch geld verdienen lässt so stark abbauen wollen, will ich nicht wissen wie es mit der konkurrenzfähigkeit in ein paar jahren aussieht.
Aber müsste es durch die 3 Konsolen die auf AMD-Chips basieren (auch wenn nur die Designs gekauft wurden) nicht gerade eine flut von Geld bei denen ankommen?
Intel :D
was aber ziemlich unwarscheinlich ist ;)

Ailuros
2012-10-14, 20:40:25
[immy;9502327']die Frage lautet langsam eigentlich wer genug Kohle hat um AMD zu schlucken. Wenn sie nun wirklich gerade im GPU bereich, wo sich aktuell zumindest noch geld verdienen lässt so stark abbauen wollen, will ich nicht wissen wie es mit der konkurrenzfähigkeit in ein paar jahren aussieht.

Die Frage ist nicht wer sie aufschlucken koennte sondern was er genau damit anfangen wuerde. Wird jeglicher potentieller Kaeufer die bevorstehende Problematik bewaeltigen koennen oder langfristig genau in die gleiche Sackgasse rennen?

Es waere kinderleicht Qualcomm und Apple z.B. als Kandidaten zu nennen, aber warum solch eine Mordssumme ausgeben fuer so eine so komplizierte Investition und nicht einfach anstatt zu versuchen so viel wie moeglich engineering talent aufzuschlucken dass entlassen wird?

Aber müsste es durch die 3 Konsolen die auf AMD-Chips basieren (auch wenn nur die Designs gekauft wurden) nicht gerade eine flut von Geld bei denen ankommen?

Nach der ersten Zeit ist es schon ein stabiler Gewinn fuer IHVs ueber die Jahre nur eben extrem low margin. Mehr als $4-5 royalty pro verkaufter Einheit fuer GPU IP fliesst nicht rein.

Intel :D
was aber ziemlich unwarscheinlich ist ;)

Juristisch nicht ziemlich sondern total unwahrscheinlich.

][immy
2012-10-14, 21:13:04
Die Frage ist nicht wer sie aufschlucken koennte sondern was er genau damit anfangen wuerde. Wird jeglicher potentieller Kaeufer die bevorstehende Problematik bewaeltigen koennen oder langfristig genau in die gleiche Sackgasse rennen?

Es waere kinderleicht Qualcomm und Apple z.B. als Kandidaten zu nennen, aber warum solch eine Mordssumme ausgeben fuer so eine so komplizierte Investition und nicht einfach anstatt zu versuchen so viel wie moeglich engineering talent aufzuschlucken dass entlassen wird?



Nach der ersten Zeit ist es schon ein stabiler Gewinn fuer IHVs ueber die Jahre nur eben extrem low margin. Mehr als $4-5 royalty pro verkaufter Einheit fuer GPU IP fliesst nicht rein.

naja, einziger grund wären wohl aktuell Patente. AMD sollte eigentlich einige haben müssen. Und ob Intel die aus eigeninteresse noch immer retten muss ist so eine sache. Zwar wären sie dann (neben dem winzigen Via) die einzigen mit x86er CPUs, aber die Konkurrenz heißt da aktuell eher ARM. Daher könnte ich mir sogar fast vorstellen das Intel AMD diesmal nicht unbedingt retten muss. und eine neuer Athlon64 steht nicht am Horizont der sie wieder konkurrenzfähig machen würde. Bei den GPUs sind sie ja zumindest noch Konkurrenzfähig bei CPUs eigentlich nur noch mit dem Bobcat, den aber keine Sau kennt und man eigentlich so gut wie gar nicht angeboten bekommt.

Ailuros
2012-10-14, 21:23:30
Intel kann AMD nicht kaufen, weil es aus monopolistischen Gruenden nicht erlaubt wuerde.

Intel's groesste zukuenftige Konkurrenz ist nicht ARM sondern Qualcomm wie sie selber angegeben haben.

Aber wir muessen mit dem OT so langsam aufhoeren da es nichts direkt mit Sea Islands zu tun hat.

Skysnake
2012-10-16, 11:18:21
Ich wuerde sogar langfristig ein analoges VIA Phaenomaen nicht ausschliessen. Viele wissen dass es VIA gibt nur interessiert die Firma kein Schwein mehr.

Kann durchaus passieren, wobei ich denke das AMD sich nicht ganz so extrem fokusieren wird auf einen winzigen Markt, sondern einfach nur "anderes" auftreten wird.


Bei NV wie ich im GK110 thread gerade schrieb sieht es auch nicht besonders blendend aus. Zwar sieht es bei weitem nicht so schlecht aus wie momentan bei AMD aber frueher oder spaeter wird es sie auch zu einem Grad radikaler erwischen und Intel u.a. auch. Genau deshalb versuchen Intel, NVIDIA u.a. sich so stark wie moeglich zu wenden um im small form factor Markt aggressiv einzudringen weil die Zukunft eben leider in der mobilen Richtung liegt.

Ja, nVidia hat auch zu beißen, und einen Rettungsring haben sie sich wohl verspielt, und in einem anderen Bereich (Linux) haben Sie sich auch nicht gerade Freunde gemacht, was auch den einen oder anderen Stein im Weg bedeuten würde. nVidia will ja, das im Linux Kernel einige Sachen nicht mehr unter GPL fallen, damit Sie "Optimus" in den Kernel rein bekommen usw. Da gibt es aber wohl großen Widerstand bei einigen, die alles versuchen, um das zu verhindern. Also indirekt, weil Sie meinen das ihre Arbeit auch tangiert wird, und Sie daher auch zustimnen müssten. Die direkt beteiligten sollen ja angeblich alle bereit sein, dem zu zu stimmen. Da hat sicherlich nVidia mit den Geldköfferchen gewunken, und einige vergessen....
Da wird man sehen müssen, was daraus wird.


Es sind IMHO eine Unzahl an Faktoren die mitspielen, u.a. eine breitere Finanzkrise, fehlende sw/Applikationen die higher end Leistung treiben werden und natuerlich auch Microsoft's Entscheidung unter win8 ein OS zu entwickeln dass eine breitere Pallette an Maerkten ansprechen kann. Wie viele auf win8 fuer desktop steigen werden bleibt abzusehen da nicht jeder Bock hat sich ein touch display zu holen; sonst wie oft ruesten Users in letzter Zeit high end CPUs als Gegenbeispiel auf? Frueher waren die Intervalle um zich Mal kleiner; seit core-i-wasauchimmer wird die eigentliche Not immer geringer eben weil die insgesamte Effizienz zu gut ist und AMD's konkurrierende Produkte nur noch so vor sich hintrotteln dagegen.

Notebooks sind vorbei als Trend, Ultrabooks werden wohl nicht besonders weit kommen ergo bleiben notebooks, tablets und smartphones mit sehenswerteren Zuwachszahlen fuer die Zukunft uebrig. KEINER dieser braucht high end CPUs oder GPUs und die Leute haben einfach nicht mehr das Geld tausend an Euros in high end PCs jedes Jahr zu investieren und dazu noch etliche hundert Euros fuer Spiele.

IMHO und ich stehe dazu hatte AMD nicht alle Taschen im Schrank als sie Imageon an Qualcomm verkauften. Der Schachzug mit Fusion SoCs war und ist ausgezeichnet, da hatte ein frueher und starker Durchbruch im small form factor Markt nicht geschadet.

Oh ja, da hast du absolut Recht!


Sonst sollte man auch bedenken dass seit das Management sich bei AMD geaendert hat, diese Herren die heute am Rad sind es nicht besonders gern hatten dass die ATI Kerle sich so gut innerhalb der Firma etabliert haben. Nur um irgendwelche kleinkindischen interne Feindlichkeiten zu befriedigen wird jetzt das bei weitem konkurrenzfaehigste Geschaeft von AMD so brutal kastriert dass es nur zum eigentlichen Selbstmord fuehren kann.
Ja, ich sehe das auch als großen Fehler an, wie wohl alle, und kann es auch absolut nicht nachvollziehen. Daher ist mir die Entscheidung aus so schleierhaft....

Vorher wurde ja aber schon richtig angesprochen, das sich SEHR viele über das Personal von AMD freuen würden.... Eventuell, jetzt reine Spekulation von mir, freut sich ja nur "einer" über die "Entlassenen" Leute von AMD. Eventuell streckt da ja jemand ja die Finger nach AMD aus, oder aber es ist einfach "nur" ein "Personalaustausch" für zukünftige Projekte. Ich wüsste da schon "jemanden", aber so wirklich daran glauben kann ich nicht. Mir fällt aber nur das als wirklich sinnvoller Grund ein, warum man hier so einen "Kahlschlag" betreiben sollte.

Die Frage ist nicht wer sie aufschlucken koennte sondern was er genau damit anfangen wuerde. Wird jeglicher potentieller Kaeufer die bevorstehende Problematik bewaeltigen koennen oder langfristig genau in die gleiche Sackgasse rennen?

Ich denke am Ati Teil von AMD gibt es durchaus Interessenten, aber ich kann mir nicht vorstellen, was die mit dem CPU-Teil anfangen sollten, da sie da eh schon was haben. Wenn dann vielleicht Patente, aber das kann ich mir nicht so recht vorstellen. Da gehe ich eher von einer Zusammenarbeit aus.


Es waere kinderleicht Qualcomm und Apple z.B. als Kandidaten zu nennen, aber warum solch eine Mordssumme ausgeben fuer so eine so komplizierte Investition und nicht einfach anstatt zu versuchen so viel wie moeglich engineering talent aufzuschlucken dass entlassen wird?

Ja, das ist schon eine berechtigte Frage. Und ich glaube genau das wird zum Teil auch passieren. Ich habe da aber durchaus einen Kandidaten im Hinterkopf, neben dem die beiden von dir genannten ein "Witz" sind. Ich kann mir aber nicht vorstellen, dass der wirklich einen Kauf durchführen wird. Wenn, wird da eher eine Zusammenarbeit forciert, bis man selbst so weit ist... Alles andere würde wohl zu geopolitischen Verstimmungen führen

[immy;9502423']naja, einziger grund wären wohl aktuell Patente. AMD sollte eigentlich einige haben müssen. Und ob Intel die aus eigeninteresse noch immer retten muss ist so eine sache. Zwar wären sie dann (neben dem winzigen Via) die einzigen mit x86er CPUs, aber die Konkurrenz heißt da aktuell eher ARM. Daher könnte ich mir sogar fast vorstellen das Intel AMD diesmal nicht unbedingt retten muss. und eine neuer Athlon64 steht nicht am Horizont der sie wieder konkurrenzfähig machen würde. Bei den GPUs sind sie ja zumindest noch Konkurrenzfähig bei CPUs eigentlich nur noch mit dem Bobcat, den aber keine Sau kennt und man eigentlich so gut wie gar nicht angeboten bekommt.
Naja, ARM ist schon die Konkurrenz aktuell für x86, es macht sich aber im Schatten völlig unbeachtet ein ein weiterer Konkurrent bereit die Bühne zu betreten, und der hat einen ziemlichen Heimvorteil ;)

Intel kann AMD nicht kaufen, weil es aus monopolistischen Gruenden nicht erlaubt wuerde.

Intel's groesste zukuenftige Konkurrenz ist nicht ARM sondern Qualcomm wie sie selber angegeben haben.

Aber wir muessen mit dem OT so langsam aufhoeren da es nichts direkt mit Sea Islands zu tun hat.
Da könnte aber auch durchaus noch "jemand" anderes auftauchen, der deutlich mehr Gefahrenpotenzial hat, da er den wohl größten Zukunftsmarkt dicht machen könnte. Und ich meine wirklich dicht. Das würde alle US-Firmen ziemlich hart treffen, zumal der Gegner ja nicht auf seinen Heimatmarkt beschränkt wäre....

Da würde wohl nur wie WHO Enragen... Ich seh da ein zweites Airbus<->Boing auf uns zukommen.

ndrs
2012-10-16, 11:31:11
Ja, das ist schon eine berechtigte Frage. Und ich glaube genau das wird zum Teil auch passieren. Ich habe da aber durchaus einen Kandidaten im Hinterkopf, neben dem die beiden von dir genannten ein "Witz" sind.
Gegen wen ist den die wertvollste Firma der Welt ein Witz?

Skysnake
2012-10-16, 11:56:55
Jemand, der Apple, wenn er denn wollen würde, zu dem total überhypten Preis gleich 5 mal kaufen könnte, mit seinen Devisenreserven ;)

Atm noch sehr unbedacht, aber was da atm so abgeht, ist scheinbar nicht von schlechten Eltern, und die Ziele ziemlich hoch.

Wie gesagt, da steigt ein echtes "Schwergewicht" in den Ring, bei dem es wohl eher politische Probleme gibt, denn finanzielle.

Ailuros
2012-10-16, 12:11:00
Ich hab uebrigens in meinem obrigen Geblubber vergessen zu erwaehnen dass SSDs sich GERECHTFERTIGT wie warme Semmeln verkaufen.

Sonst wollen wir es wohl mit den Konspirations-Thesen jeglicher Art nicht zu weit treiben. Mal sehen ob Amazon tatsaechlich TIs smartphone/tablet Sparte kaufen wird; zwar total OT aber es ist momentan das zuverlaessigsten etliche Milliarden schweres Geruecht.

Jemand, der Apple, wenn er denn wollen würde, zu dem total überhypten Preis gleich 5 mal kaufen könnte, mit seinen Devisenreserven ;)

Atm noch sehr unbedacht, aber was da atm so abgeht, ist scheinbar nicht von schlechten Eltern, und die Ziele ziemlich hoch.

Wie gesagt, da steigt ein echtes "Schwergewicht" in den Ring, bei dem es wohl eher politische Probleme gibt, denn finanzielle.

Size matters only if you know how to handle it (tm). :biggrin:

disap.ed
2012-10-16, 13:41:52
Jemand, der Apple, wenn er denn wollen würde, zu dem total überhypten Preis gleich 5 mal kaufen könnte, mit seinen Devisenreserven ;)

Atm noch sehr unbedacht, aber was da atm so abgeht, ist scheinbar nicht von schlechten Eltern, und die Ziele ziemlich hoch.

Wie gesagt, da steigt ein echtes "Schwergewicht" in den Ring, bei dem es wohl eher politische Probleme gibt, denn finanzielle.

Stimme dir ja grundsätzlich zu dass Apple als Unternehmen an der Börse überbewertet ist und grundsätzlich geschnupft werden könnte. Ich denke aber nicht, dass wenn so ein Unternehmen (habe keinen Dunst wen du meinst) AMD kaufen würde, die X86-Lizenz nach China gehen würde. Da würde Intel sie wohl eher Qualcomm oder sonst wem geben müssen, wenn die US-Regierung auf eine Second-Source bestehen würde, niemals würde man das raus geben und sich dann noch "erpressen" lassen (wie du oben schreibst).

Skysnake
2012-10-16, 16:31:06
Was hat denn Intel mit der "Weitergabe" einer x68 Lizenz zu tun? :ugly:

Das Problem hatten wir doch schon mal, das Sie ne Lizenz entziehen wollten, und dick auf die Nase gefallen sind mit dem Vorhaben.

Also falls der Fall eintreten würde, was er nicht tun wird aus oben genannten Gründen, könnte Intel da gar nichts tun.

Nur werden die USA oder auch Intel mit allen Mitteln versuchn zu unterbinden. China hat aber sehr wahrscheinlich gar kein Interesse an x86. Die haben MIPS, und die sind mehr als groß genug, um das durch zu drücken.

Chef: Hey Jungs, ihr verwendet in Zukunft MIPS.
Chinaboys: Aber Chef, x86 ist die Welt, und überhaupt, die sind auch schneller atm.
Chef: ALTOR!!! Ich hab gesagt ihr verwendet jetzt MIPS!
Oberrullers vom Chef kommen...
Chinaboys-x: Ähm... Geht klar Chef.... :ugly:

Was ich damit sagen will. Wenn China sagt, wir entwickeln MIPS weiter, und wollen das Einsetzen von ganz unten bis ganz oben, dann wird das auch passieren :ugly: Das ist halt der Vorteil einer Zentralregierung, die nicht demokratisch ist.

Und um den Bogen wieder zum Topic zu bekommen ;)

Erinnert ihr euch noch an den Fail von nVidia mit China, bei dem AMD dann zum Zuge gekommen ist? ;D

Und jetzt überlegt mal, wer sich sicherlich jedweden "Ati" Engineer krallen wird :biggrin: Ich glaube echt nicht, das sich die das so einfach entgehen lassen. Auch wenn natürlich auch andere Hersteller sich den einen oder anderen abzwacken werden. Mich würde es echt nicht wundern, viele von den ehemaligen Ati-Jungs bald in China zu sehen ;D

disap.ed
2012-10-16, 18:10:40
Was hat denn Intel mit der "Weitergabe" einer x68 Lizenz zu tun? :ugly:


Naja, die haben ja schon herumgedruckst als Global Foundries abgespalten wurde und mit dem Entzug der Lizenz gedroht IIRC.

Skysnake
2012-10-16, 20:16:43
Und was wurde daraus? Richtig, Sie haben eine auf die Lippe bekommen und fortan den Schnabel gehalten ;)

Knuddelbearli
2012-10-16, 20:30:05
nein sie haben weniger Strafzahlung an amd gezahlt und damit wurde es dann legalisiert

Ailuros
2012-10-16, 20:39:03
Und jetzt überlegt mal, wer sich sicherlich jedweden "Ati" Engineer krallen wird :biggrin: Ich glaube echt nicht, das sich die das so einfach entgehen lassen. Auch wenn natürlich auch andere Hersteller sich den einen oder anderen abzwacken werden. Mich würde es echt nicht wundern, viele von den ehemaligen Ati-Jungs bald in China zu sehen ;D

Die engineers werden sicher (je nach Erfahrung) mehrere Angebote bekommen. Es wird eben nicht jeder Bock haben nach China umzuziehen und schon gar nicht in ein Land mit einer strengen kommunistischen Regierung. Natuerlich koennte es in einigen Faellen klappen, aber dass die Mehrzahl der bald ex-AMD engineers in Scharen nach China auswandern werden, klingt mir schon ziemlich uebertrieben. Es ist eben nicht so dass Qualcomm bzw. Apple u.a. nicht extrem fette Summen bei groesseren Talenten anbieten sondern eher das Gegenteil. Wenn man dann nicht unbedingt nach China auswandern muss (fundamental andere Kultur, teilweise negative politische Atmosphaere usw.), werden es die meisten bevorzugen.

Ausserdem ist das eigentliche Ziel der chinesischen Regierung mit der Zeit jederlei hw zu entwickeln bzw. auch zu produzieren langfristig aber hauptaechlich fuer inlaendischen Verbrauch damit sie irgendwann wenig bis gar nichts importieren werden. Der AMD deal (den NV aus reiner Dummheit abgef***t hat) ist ja nur fuer low end GPU Quark fuer Schulen, nur eben ein massives Volumen.

Sonst konzentriert sich MIPS in den letzten Jahren hauptsaechlich auf embedded Zeug wie set top boxes, TVs usw. und es traeumt ja so langsam fast jeder es in servers zu schaffen. MIPS hat da ihre eigene Vorgeschichte und Erfahrung aber ein besonders grosser Durchbruch kam nie.

http://www.brightsideofnews.com/news/2012/9/20/mips-acquisition-drawing-to-a-close2c-broadcom-and-arm-in-forefront.aspx

Loongson ist eines der besten Kandidaten, aber auch nicht die einzigen da MIPS auch nicht wirklich eine Unsumme wert ist; selbst wenn jemand etliche Male den Wert von MIPS bezahlen wuerde ist die Endsumme nicht besonders gross und nicht ausser Reichweite vieler Interessenten.

Sonst haben die Chinesen auch so manche Schappsideen wie die UPU (unified processing unit) eine komplette fusion aus CPU und GPU. Jack of all trades, master of none halt. So lange aber das Resultat saubillig ist interessiert es auch nicht besonders.

AnarchX
2012-11-18, 10:52:01
Asus stellt ein Notebook mit HD 8550M vor: http://www.notebookcheck.net/Asus-to-launch-the-VivoBook-U38DT-laptop-with-discrete-graphics.84284.0.html

M4xw0lf
2012-11-18, 10:58:44
Hmm. Hat aber mit Sicherheit nichts mit Sea Islands zu tun, ne?

Knuddelbearli
2012-11-18, 11:00:27
hmmm dürfte kein rebrand sein 40nm ist langsam zu alt, eventuell aber nur ein einfacher shrink? 4VLIW muss wegen crossfire ja bleiben

reaperrr
2012-11-18, 14:01:56
hmmm dürfte kein rebrand sein 40nm ist langsam zu alt, eventuell aber nur ein einfacher shrink?
Ich bezweifle stark, dass es sich um was anderes als einen (weiteren) rebrand handelt.

Ein Shrink lohnt sich einfach nicht. Zum einen kostet ein Shrink auch erstmal Geld und Manpower, beides Dinge wo AMD inzwischen doch deutlich schlechter dasteht als Nvidia.
Dazu kommt noch: ich bezweifle stark, dass sich ein solcher Shrink finanziell überhaupt lohnen würde. Die Preise für 28nm-Wafer sind sicher weiterhin deutlich höher als für 40nm, die Yields wohl noch immer etwas schlechter, unterm Strich wären die Kosten pro voll funktionsfähigem Chip wohl ähnlich oder sogar höher als in 40nm.
Der einzige echte Vorteil eines Shrinks wäre die sinkende Stromaufnahme bei gleichem Takt. Aber auch davon hätte AMD nur etwas, wenn dies entweder zu a) höheren Preisen und Margen bei gleichen Verkaufszahlen oder b) höheren Verkaufsmengen bei gleichem Preis führen würde. Die momentane Marktlage gibt aber eher keines von beidem her.

4VLIW muss wegen crossfire ja bleiben
Nein, Crossfire funktioniert inzwischen auch mit Chips unterschiedlicher Architektur. Die HD7600M Modelle (und wohl auch die 8550M) sind auch noch VLIW5, nicht VLIW4 (wird nur von Trinity verwendet). Dass Skalierung, Kompatibilität und evtl. auch das Microstuttering bei Verwendung unterschiedlicher Architekturen vermutlich schlechter ausfallen ist eine andere Geschichte.

boxleitnerb
2012-11-18, 14:11:12
HD6900 ist auch VLIW4.

john carmack
2012-11-30, 13:39:57
hmmm... immer noch keine neuen Gerüchte?

kommen die Karten wohl doch erst ~März 2013?

Thunder99
2012-11-30, 14:05:40
hmmm... immer noch keine neuen Gerüchte?

kommen die Karten wohl doch erst ~März 2013?
Evt Vorstellung zur Cebit? Würde sich ja anbieten

boxleitnerb
2012-11-30, 14:34:53
fudzilla meint eher Q2 als Q1:

http://www.fudzilla.com/home/item/29667-radeon-8000-expected-in-q2-2013

R.I.P.
2012-11-30, 14:55:33
AMDs Never Settle Bundle endet März 2013. Irgendeinen Grund wird es schon haben :tongue:

DrumDub
2012-12-03, 13:24:04
Evt Vorstellung zur Cebit? Würde sich ja anbieten computerbase greift es auch noch mal auf:

Radeon HD 8000 „Sea Islands“ erst im 2. Quartal 2013?
(http://www.computerbase.de/news/2012-12/radeon-hd-8000-sea-islands-erst-im-2.-quartal-2013/)

Lowkey
2012-12-04, 16:50:32
8000er Specs (http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/News/Spezifikationen-Radeon-HD-8000-1038581/)

Seems legit

robbitop
2012-12-04, 17:10:03
Wäre eine sinnvolle Steigerung. Hoffentlich bohren sie die anderen Flaschenhälse (Front-End?) gleich mit auf!

Knuddelbearli
2012-12-04, 17:25:23
hmm wäre also wohl ca +25-30% zu erwarten

Gipsel
2012-12-04, 17:44:59
Wäre eine sinnvolle Steigerung. Hoffentlich bohren sie die anderen Flaschenhälse (Front-End?) gleich mit auf!
hmm wäre also wohl ca +25-30% zu erwarten
Diese Grafik scheint PCGH vergessen zu haben:
http://www.bitdreams.es/amd%20sea%20islands.jpg
Falls das stimmt, könnte man auch passend zu den 48 ROPs einen dreifaches Setup/Raster bei der 8970 erwarten. Die 8870 liegt vermutlich ziemlich gleichauf zur 7970 bzw. nur äußerst knapp dahinter.

Edit:
Die Grafik widerspricht bei der 8870/8850 übrigens den Angaben in den Tabellen. Also Fake?

Edit2:
Die Angaben in der Grafik können gar nicht stimmen. 896 SPs sind 14 CUs, die dann notgedrungen 56 TMUs hätten und nicht 48.

Ailuros
2012-12-04, 17:52:44
Bevor jemand seine Hoffnungen zu hoch schnallt, wuerde ich Leistungs-unterschiede weder von rohen hypothetischen Spezifikationen noch von uebertriebenen best case scenario marketing stunts ablesen.

Gipsel
2012-12-04, 17:57:26
Bevor jemand seine Hoffnungen zu hoch schnallt, wuerde ich Leistungs-unterschiede weder von rohen hypothetischen Spezifikationen noch von uebertriebenen best case scenario marketing stunts ablesen.
Zumal die angeblichen Specs in wesentlichen Teilen mit Leos Schätzung vor einiger Zeit (http://www.3dcenter.org/news/eine-erste-prognose-zu-sea-islands-aka-amds-radeon-hd-8000-serie) übereinstimmen. :rolleyes:

boxleitnerb
2012-12-04, 18:02:32
Die 7970 GE ist ca. 20% schneller wie die 7950 GE. Damit wäre die 8970 1.4/1.2=16% schneller als die 7970 GE. Das ist durchaus realistisch und find ich jetzt nicht zu hoch gegriffen.

Ailuros
2012-12-04, 18:04:23
Zumal die angeblichen Specs in wesentlichen Teilen mit Leos Schätzung vor einiger Zeit (http://www.3dcenter.org/news/eine-erste-prognose-zu-sea-islands-aka-amds-radeon-hd-8000-serie) übereinstimmen. :rolleyes:

Ich hoffe es versteht mich keiner falsch aber ca. 50% Mehr-Leistung im Vergleich zu einer HD7970 bei "nur" 50W mehr Stromverbrauch klingt mir too good to be true.

Gipsel
2012-12-04, 18:10:22
Ich hoffe es versteht mich keiner falsch aber ca. 50% Mehr-Leistung im Vergleich zu einer HD7970 bei "nur" 50W mehr Stromverbrauch klingt mir too good to be true.
Die behaupten doch nur +40% der HD8970 zur HD7950GE! ;)

Ailuros
2012-12-04, 18:13:31
Die behaupten doch nur +40% der HD8970 zur HD7950GE! ;)

Verdammte 5 hab ich ueberlesen.... :eek:

:biggrin:

Die 7970 GE ist ca. 20% schneller wie die 7950 GE. Damit wäre die 8970 1.4/1.2=16% schneller als die 7970 GE. Das ist durchaus realistisch und find ich jetzt nicht zu hoch gegriffen.

Ihr habt natuerlich recht (siehe oben). OT aber ich hab gerade in lokalen Angeboten nachgeschlagen und sogar eine 7970OC (1GHz) kostet hier um die 360 Euros. Die billigste 680 hingegegen bei 500+. Ich kann bei bestem Willen nicht verstehen wieso die Radeons bei den Preisen nicht wie warme Semmeln von Regalen verschwinden.

Felixxz2
2012-12-04, 18:29:07
Jaja die 7950GE.....mit 925MHz :freak:

boxleitnerb
2012-12-04, 18:35:43
Ihr habt natuerlich recht (siehe oben). OT aber ich hab gerade in lokalen Angeboten nachgeschlagen und sogar eine 7970OC (1GHz) kostet hier um die 360 Euros. Die billigste 680 hingegegen bei 500+. Ich kann bei bestem Willen nicht verstehen wieso die Radeons bei den Preisen nicht wie warme Semmeln von Regalen verschwinden.

Das ist eigentlich ganz einfach mMn. Vorurteile, Abneigung zu wechseln (egal von wem zu wem) und vor allem Nvidias starke Marke und das Image als "Anführer" bei den GPUs, die man sich 2006-2011 (wieder) aufgebaut hat. AMD müsste selbst mehrere Generationen hinweg in praktisch allen Bereichen führen, um Mindshare, wie man im Englischen so schön sagt, großflächig und dauerhaft zu gewinnen. Nvidia ist da, wo ATI in der Zeit von 9700 Pro bis X1900XTX war.

Ailuros
2012-12-04, 18:48:09
Bei vergleichbaren Preisen bei den momentan groessten SKUs beider Seiten koennte ich es noch verstehen aber nicht mit solchen Unterschieden. Und es ist eben nicht so dass alles blendend fuer NV mit GT200 bzw. GF100 lief, ueberhaupt wenn man sich das Gegenangebot jeweils anschaut. Schwamm drueber sonst geht es wieder zu weit OT.

Nochmal fuer Sea Islands ist mir persoenlich der Leistungs-unterschied weniger wichtig im Vergleich zu Tahiti, im Vergleich zum MSRP. Ich bin leider so dickkoepfig und weigere mich mehr als 400 Euros fuer eine Performance-SKU hinzulegen und dabei egal ob es sich um AMD, NV oder sonst wen handelt und schon gar nicht ein Jahr nach dem eigentlichen 28nm start.

reaperrr
2012-12-04, 19:03:27
Die Tabelle ist jedenfalls definitiv Quark.

Neben dem sehr offensichtlichen Fehler bei den SP/TMU des angeblichen Mars sind auch noch folgende Punkte zu bedenken:

1) Venus XT soll die 8970 sein, in den Treibern ist aber auch schon von Venus XTX die Rede. Kann zwar sein, dass AMD schon direkt mit einem zusätzlichen GE-Modell plant, seltsam finde ich es trotzdem.

2) Die angebliche Chipfläche von Venus passt auch nicht.
Wir wissen, dass eine 1/4-DP-CU in Tahiti 5,5mm² groß ist. 2560 SP würde 8 zusätzliche CUs bedeuten. 8 x 5,5mm² = 44mm². 365mm² (Tahiti) + 44mm² = 409mm².
Ich bezweifle, dass sich 16 zusätzliche ROPs in 1 mm² unterbringen lassen ;) Und ohne gleichzeitige Verbreiterung von Setup/Rasterizer um 50% hielte sich der Nutzen auch in Grenzen.

Soll heißen: Mindestens eine der Angaben ist reine Spekulation bzw. schlicht falsch.

Ich halte 40 CUs bei ansonsten nahezu unverändertem Chip für am wahrscheinlichsten.

3) Bei Mars passt nichts zusammen. Der Chip tritt doch eh nur gegen GK107/207/208 an, da wären sowohl 14 CU als auch vor allem 192 bit völliger Overkill.
Zumal sich ein 192-bit Interface wegen Pad-Limitierung doch wahrscheinlich überhaupt nicht vernünftig in einem so kleinen Chip unterbringen lässt. 2 zusätzliche CUs und ein moderat erhöhter Speichertakt - vielleicht auch noch ein 50 MHz höherer Chiptakt beim 7770-Nachfolger - reichen für das Marktsegment doch völlig aus, die meisten von den Dingern gehen doch eh an OEMs oder Leute die weniger Ahnung haben bzw. denen ein paar Prozent mehr oder weniger Leistung unwichtig sind.

Ach ja, 896 SP würden bei ~1.5 TFLOPs einen Takt von ca. 850 MHz bedeuten. 768 SP mit 1 GHz würden dagegen 1,536 TFLOPs ergeben, das klingt wesentlich plausibler.

4) Die TFLOPs-Angabe bei der 8870 würde einen Chiptakt von nur ~920 MHz bedeuten. Mit 20% mehr CUs bei 8% niedrigerem Takt wären 20% Mehrleistung schwer zu erreichen, denke ich.

Gipsel
2012-12-04, 19:18:11
2) Die angebliche Chipfläche von Venus passt auch nicht.
Wir wissen, dass eine 1/4-DP-CU in Tahiti 5,5mm² groß ist. 2560 SP würde 8 zusätzliche CUs bedeuten. 8 x 5,5mm² = 44mm². 365mm² (Tahiti) + 44mm² = 409mm².
Ich bezweifle, dass sich 16 zusätzliche ROPs in 1 mm² unterbringen lassen ;) Und ohne gleichzeitige Verbreiterung von Setup/Rasterizer um 50% hielte sich der Nutzen auch in Grenzen.
Du beziehst dich vermutlich auf diese Tabelle (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9197796#post9197796). Dabei solltest Du aber auch beachten, daß man mit steigender Erfahrung in einem Prozeß unter Umständen ein besseres (dichteres) Layout finden kann, was trotzdem noch die gleichen (oder gar höhere) Taktraten ermöglicht. Will sagen, es kann sein, daß AMD jetzt bei einem Neulayout die Transistordichte ein paar Prozent höher prügeln könnte, als noch vor einem Jahr. Eine CU könnte jetzt z.B. in 5,2 mm² statt damals noch 5,5mm² passen. Und schon nimmt das Shaderarray 40*5,2mm² - 32*5,5mm² nur noch 32mm² mehr ein. Genausogut könnte man den I/O-Bereich (PHY) des Speicherinterfaces überarbeitet haben. Das ist bei Tahiti ziemlich groß (deutlich größer als bei Pitcairn) aber offenbar auch größer als bei GK104. Das war also offenbar ziemlich auf Sicherheit ausgelegt, um hohe Taktraten zu unterstützen. Da kann man also eventuell auch ein paar mm² sparen. Und so zieht sich das durch alle Bereiche des Chips. Also unmöglich wäre das per se nicht.

Ach ja, über Setup/Raster sagen die ja gar nichts. Bei 48 ROPs könnte man bei AMD auch eine dreifache Setup/Raster-Kombination erwarten, bisher sind sie immer synchron zum Pixel-Backend geblieben (wobei die Verbreiterung nur eines Teils auch schon gewisse Vorteile bringt, nur je nach Situation nicht ganz so viel).

Ailuros
2012-12-14, 08:27:42
http://www.xbitlabs.com/news/other/display/20121213170238_AMD_We_Would_Like_to_Use_Process_Technologies_for_Longer_Period_o f_Time.html

Ob das wohl auch relevant zu GPUs sein wird? :confused:

V2.0
2012-12-14, 08:40:40
Im Grundsatz sicherlich. Aber NV wird da nicht anders sein, was man so für die nächste Generation hört.

Ailuros
2012-12-14, 09:32:03
Im Grundsatz sicherlich. Aber NV wird da nicht anders sein, was man so für die nächste Generation hört.

Wenn's fuer beide und die gesamten Produkt-Familien stimmen sollte, dann koennte es eine ziemlich langweilige kommende Generation werden.

V2.0
2012-12-14, 09:36:25
Davon würde ich ausgehen. Die Lebenszyklen der Prozesse werden länger werden, damit wird man mehr Chip-Generationen in einem Preozess sehen, daher muss das Potential stärker verteilt werden. Die Zeiten bei denen man die Möglichkeiten des neuen Prozess 1:1 genutzt hat, also mit realtiv konstanter Die-Fläche arbeitete dürften vorbei sein. Ein Vorgehen wie bei Intel Tick-Tock würde mich nicht wundern.

mboeller
2012-12-14, 09:53:04
Die Zeiten bei denen man die Möglichkeiten des neuen Prozess 1:1 genutzt hat, also mit realtiv konstanter Die-Fläche arbeitete dürften vorbei sein.

Die Zeiten sind sowieso vorbei; Stichwort: Dark Silizium
Wurde auch auf einer Folie bei der letzten FD-SOI Konferenz ein wenig thematisiert.

[edit]
es handelt sich um die Präsentation von ARM "Rob Aitken - Designing SoCs with Planar Fully Depleted Devices and FinFETs.pdf" Auf Seite 5

Link zu den ganzen FD-SOI Präsentationen:
http://www.soiconsortium.org/corners/fully-depleted-soi/december-2012/

Skysnake
2012-12-14, 19:15:30
http://www.xbitlabs.com/news/other/display/20121213170238_AMD_We_Would_Like_to_Use_Process_Technologies_for_Longer_Period_o f_Time.html

Ob das wohl auch relevant zu GPUs sein wird? :confused:
Klar wird das relevant sein. Ist doch aber schon länger absehbar, das zumindest nVidia wohl 3 GPU-Generationen auf 28nm bringt, und bei AMD wundert es mich auch absolut nicht. Ich bin schon seit dem Start von 28nm davon ausgegangen, dass die auch länger dabei bleiben.

Die neuen Prozesse sind einfach eine Katastrophe, und die Firmen schlagen sich um die Kapazitäten bei TSMC. Zudem sind die Chips halt trotzdem nicht wirklich klein im Vergleich zu nem SOC von Qualcomm usw.

Da macht es einfach Sinn, den neuen node erstmal reifen zu lassen.

Ailuros
2012-12-14, 21:54:56
Zwei Generation wenn ueberhaupt (voll fuer die zweite Generation) geht noch. 3 Generationen auf dem gleichen Prozess grenzen ans laecherliche.

S940
2012-12-14, 22:23:06
Zwei Generation wenn ueberhaupt (voll fuer die zweite Generation) geht noch. 3 Generationen auf dem gleichen Prozess grenzen ans laecherliche.
Naja, bei der letzten Version könnten sie ja vielleicht mal was Exotisches mit FD-SOI, Finfets oder super steep retrograde wells ausprobieren, sonst wärs in der Tat absolut langweilig.

Skysnake
2012-12-15, 02:21:37
Zwei Generation wenn ueberhaupt (voll fuer die zweite Generation) geht noch. 3 Generationen auf dem gleichen Prozess grenzen ans laecherliche.
Ok, nur damit wir nicht aneinander vorbei reden. Mit "Generation" mein ich ne GTXx80 bzw HDx970 Generation. Also 1x neue Architektur +2x Refreshes oder 2x neue Architektur + 1x Refresh in 28nm.

Ich meine NICHT 3x neue Architektur + Yx Refresh

Ailuros
2012-12-15, 17:52:53
Ok, nur damit wir nicht aneinander vorbei reden. Mit "Generation" mein ich ne GTXx80 bzw HDx970 Generation. Also 1x neue Architektur +2x Refreshes oder 2x neue Architektur + 1x Refresh in 28nm.

Ich meine NICHT 3x neue Architektur + Yx Refresh

Ist zwar Haarspalterei aber wie man einen refresh zu einer Generation gleichstellen kann wenn es Prozess-Technologie kommt ist mir fremd. Das dumme ist eben dass ein jeglicher einfacher refresh selbst im besten Fall nicht mehr als bis 30-40% Zusatz-leistung liefert, waehrend man bei einer Generation meistens eine bis zu 2x Mal Leistungs-Steigerung erwartet.

Die Zeitspannen selbst fuer refreshes sind um einiges groesser geworden und werden sich auch weiterhin ausdehnen (von Tahiti zu Venus >1 Jahr), ergo denk mal nach inwiefern unter diesem Licht mehr als 2 Generationen in einen einzigen Herstellungsprozess passen koennen.

Um es etwas klarer zu machen von der gesamten Presse behauptet lediglich Charlie dass NV am Anfang von Maxwell auf 28nm bleiben wird. Fuer einen top dog Maxwell kann NV 20nm nie und nimmer ausweichen.

Und hier nochmal der erste Paragraph vom xbitlabs link oben:

Although the chief executive officer of Advanced Micro Devices insists that the company should only use two process technology nodes at a time, other executives from the company believe that just two process technologies may not be enough. Moreover, in many cases proven nodes mean lower costs. In general, AMD expects process technologies to be utilized for longer periods than they are these days.

Anders momentan 40 und 28nm fuer GPUs, welches womoeglich anhand dem obrigen irgendwann zu 28 & 20nm wandeln wird nur eben nicht so frueh wie man bisher erwartete.

Skysnake
2012-12-15, 19:12:27
Klar, aber was ist, wenn der "Top-Dog" wieder > 1/2 Jahr später kommt als die "Mainstream" Karten?

Also ich erwarte eben genau das gleiche "Spielchen" wie bei Kepler erneut. Man launcht erstmal eine Serie, bringt dann später den großen Chip, und der bekommt dann noch nen Refresh als Midlife-Kicker, bevor nen neuer Prozess kommt. Da muss dann der zeitliche Abstand für den Midlife-Kicker auch nicht sonderlich groß sein. >3/4 Jahr reicht da.

Schaffe89
2012-12-15, 22:25:48
Könnte natürlich auch die Preise etwas purzeln lassen, wenn ein Prozess so lange verwendet wird.
Vielleicht nicht unbedingt schlecht für die Verbraucher.

cv
2012-12-15, 22:44:38
Aber dennoch würde der Umsatz wegen geringeren Leistungssteigerungen einbrechen. Ergo macht es keinen Sinn dafür zu Entwickeln. Daraus folgt weniger, dafür aber grössere Refreshes.

Skysnake
2012-12-16, 09:03:11
Wieso?

Die Prozesse werden halt mehr ausgereizt. Gerade AMD hatte da die letzten Generationen auch beim Prozesswechsel noch viel Platz nach oben, was die DIE-Size anbelangt.

Nur für nVidia wirds halt problematisch. Die sind halt eh schon die letzte Zeit am Limit was die DIE-Size anbelangt. Mit ihrer Aufstellung eines Gamer und eines HPC Chips, können Sie aber, wie man sieht, das Problem gut umgehen.

Ailuros
2012-12-17, 07:34:39
Klar, aber was ist, wenn der "Top-Dog" wieder > 1/2 Jahr später kommt als die "Mainstream" Karten?

Gar nichts ist in dem Fall. AMD entwickelt keine single chip high end GPUs seit langem und es wird sich ueberhaupt heutzutage nichts mehr daran aendern. Einzige Sorge NV's in dem Fall ist dass ihr performance chip konkurrenzfaehig im Vergleich zu AMD's groessten single chip Loesungen bleibt und so wie es aussieht wird auch Maxwell's Performance chip Gegner von AMD hoechstwahrscheinlich immer noch auf 28nm hergestellt.

Also ich erwarte eben genau das gleiche "Spielchen" wie bei Kepler erneut. Man launcht erstmal eine Serie, bringt dann später den großen Chip, und der bekommt dann noch nen Refresh als Midlife-Kicker, bevor nen neuer Prozess kommt. Da muss dann der zeitliche Abstand für den Midlife-Kicker auch nicht sonderlich groß sein. >3/4 Jahr reicht da.

Ist aber immer noch irrelevant zu Sea Islands und/oder AMD's Strategie generell. Da es dieses Jahr keinen Kepler high end chip von NVIDIA gab hat sich AMD auch ziemlich bequem die Tahiti mGPU selber gespart und es den vendors als Initiative ueberlassen.

Wieso?

Die Prozesse werden halt mehr ausgereizt. Gerade AMD hatte da die letzten Generationen auch beim Prozesswechsel noch viel Platz nach oben, was die DIE-Size anbelangt.

Und was bringt es AMD genau? Tahiti ist etwas groesser als GK104 und hat auch einen breiteren Bus und vermoebelt in allem computing den letzteren ziemlich angenehm. Der Haken ist dass AMD's professionelle Loesungen trotz allem weder Quadros noch Teslas direkte Paroli bieten und schon gar nicht in Verkaufsvolumen.

In desktops bzw. notebooks sollte AMD eigentlich mit ihrem zeitigen Preis-/Leistungsverhaeltnis ziemlich aufraeumen koennen, was aber auch nicht der Fall ist.

Und das mit der die area ist auch Bloedsinn. GK104 ist 294mm2 gross und ergo kleiner als Tahiti als 28nm erster Anhaltspunkt. Fuer 3D und performance chips hat hier NV momentan den Vorteil und nicht anders rum.

Nur für nVidia wirds halt problematisch. Die sind halt eh schon die letzte Zeit am Limit was die DIE-Size anbelangt. Mit ihrer Aufstellung eines Gamer und eines HPC Chips, können Sie aber, wie man sieht, das Problem gut umgehen.

Klar wenn man Aepfel mit Birnen vergleicht. Da AMD keinen single high end chip entwickelt und eben beim quasi performance Pegel halt macht, ist es sinnlos das eine mit dem anderem zu vergleichen. Einfache Frage: wenn AMD hypothetisch einen high end chip entwickeln wuerde, haben sie momentan wie viel Chancen diesen anstaendiger in workstation bzw. HPC Maerkten zu verkaufen? Kommen die R&D Kosten wieder reingeflossen (zumindest) oder brennt man noch ein groesseres schwarzes Loch am Ende in die Rechnung?

V2.0
2012-12-17, 07:58:36
Exakt AMD hat mehr Probleme weil ihr größter Chip sowhl den Profi-Markt als auch den Performance-3D-Markt abdecken muss. Momentan würde ich sagen klappt beides nicht besonders gut.

Ailuros
2012-12-17, 08:12:13
Exakt AMD hat mehr Probleme weil ihr größter Chip sowhl den Profi-Markt als auch den Performance-3D-Markt abdecken muss. Momentan würde ich sagen klappt beides nicht besonders gut.

Ich hab schon seit einer Ewigkeit nicht mehr irgendwelche statistische Marktanteile fuer workstations gesehen, aber wenn NV immer noch konstant bei =/>80% liegt, haben sie dort nach wie vor ein quasi Monopol.

Ist aber fuer AMD relativ nebenwichtig; ich bin ehrlich gesagt ziemlich enttaeusscht dass sich Tahiti und co. im desktop nicht besser behauptet haben.

V2.0
2012-12-17, 08:48:26
Ich bin da nicht so richtig überrascht. Imho hat sie ihr eigenes Marketing eingeholt. Man hat zur Fermi-Zeit so sehr die FPS/W Betrachtung in die Wahrnehmung gedrängt, dass diese sich nun gegen sie richtet.

Ailuros
2012-12-17, 08:52:39
Ich bin da nicht so richtig überrascht. Imho hat sie ihr eigenes Marketing eingeholt. Man hat zur Fermi-Zeit so sehr die FPS/W Betrachtung in die Wahrnehmung gedrängt, dass diese sich nun gegen sie richtet.

Fuer notebooks durchaus verstaendlich; fuer den desktop wird es dann schon etwas zwielichtiger. Kann sein dass ich eine Ausnahme bin, aber mir persoenlich sind die 15W TDP Unterschied zwischen einer 7970 und einer 680 wurscht, wenn ich mit der ersten momentan immer noch mehr als 100 Euros sparen kann.

V2.0
2012-12-17, 09:00:57
In der Klasse spielt Geld weniger eine Rolle als das Image. Und da hat hat man bei der 7970Ge durch die Referenzkarte selber zu einem schlechten Image beigetragen.

StefanV
2012-12-17, 09:28:32
Ist aber fuer AMD relativ nebenwichtig; ich bin ehrlich gesagt ziemlich enttaeusscht dass sich Tahiti und co. im desktop nicht besser behauptet haben.
Es gibt halt viel zu viele nVidia Fanboys auf der Welt, die lieber 100€ mehr für 'ne Grafikkarte ausgeben, weil nVidia drauf steht, als sich 'Ne ATI/AMD zu kaufen. Gerade bei denen, die nicht soo viel wissen, ist dieses Verhalten verbreitet....

Weil vor 100 Jahren war ATi ja nicht soo toll und man hatte irgendwo, irgendwie, irgendein Problem...

Traurig, aber wahr, leider...

Da kann AMD noch so gut sein und nVidia 'nen zweiten nV30 verbrechen, nVidia wird dennoch gekauft werden...

AnarchX
2012-12-17, 09:40:44
R3xx und RV770 haben doch gezeigt, wie man schnell die Verhältnisse im Markt verschieben kann, selbst wenn man vorher suboptimale Produkte hatte (R8500 mit Treiberproblemen bzw. R600).

Bei HD 7xxx war wohl die Preispolitik ein großer Fehler. Vorher stand ein Radeon für vernünftige Leistung und Features zum vernünftigen Preis. Mit HD 7xxx gab es Mondpreise, die innerhalb weniger Monate massiv einbrachen.

Ailuros
2012-12-17, 10:05:06
Es gibt halt viel zu viele nVidia Fanboys auf der Welt, die lieber 100€ mehr für 'ne Grafikkarte ausgeben, weil nVidia drauf steht, als sich 'Ne ATI/AMD zu kaufen. Gerade bei denen, die nicht soo viel wissen, ist dieses Verhalten verbreitet....

Weil vor 100 Jahren war ATi ja nicht soo toll und man hatte irgendwo, irgendwie, irgendein Problem...

Traurig, aber wahr, leider...

Da kann AMD noch so gut sein und nVidia 'nen zweiten nV30 verbrechen, nVidia wird dennoch gekauft werden...

Kann sein dass AnarchX in seinem Post einen Punkt hat; auf jeden Fall ging es AMD fuer GPUs zwischen RV6xx und Cayman relativ gut im Vergleich zu NV's Gegenprodukten.

Was jetzt NV30 betrifft, die Leiche ist auch kein besonders gutes Beispiel mehr; R600 war im Vergleich zu diesem auch nicht besonders besser. Der Unterschied zwischen den beiden ist eigentlich dass IMHO ATI damals ihren eigenen FLOP anstaendiger behandelt hat. Wie dem auch sei R300 bzw. G80 gibt es von den beiden nicht jeden Tag, ergo sind es die eigentlichen Aussnahmen.

So wie ich es heute sehe, haette AMD vielleicht den GE release sparen sollen und kurz nach dem Kepler launch die Preise reduzieren.

Die Frage ist jetzt eher was beide IHVs fuer die naechste 28nm Runde im Bereich Preisgebung vorhaben. Am 28nm Start waren es angeblich die zu teuren 28nm tools bzw. die zu hohen Herstellungskosten. Wenn ich den gleichen Brei - egal von welchem der beiden - ca. ein Jahr danach immer noch hoere und sie verlangen immer noch $500 MSRPs fuer performance SKUs befuerchte ich dass langfristig die Verbraucher nicht nur einem sondern beiden den Mittelfinger zeigen; ueberhaupt wenn man fuer solche MSRPs lediglich pissat 15-20% Leistungssteigerungen bringt.

disap.ed
2012-12-17, 10:41:23
Bei HD 7xxx war wohl die Preispolitik ein großer Fehler. Vorher stand ein Radeon für vernünftige Leistung und Features zum vernünftigen Preis. Mit HD 7xxx gab es Mondpreise, die innerhalb weniger Monate massiv einbrachen.

Verstehe ich nicht so ganz; die HD 7xxx-Reihe hatte doch zu jedem Zeitpunkt das deutlich bessere Preis-/Leistungs-Verhältnis als die nVidia-Karten. Und meine 7870 ist jetzt gerade mal um 30€ billiger als vor einem halben Jahr, als ich sie gekauft habe.

boxleitnerb
2012-12-17, 10:48:38
Die Preise haben sich aber erst sehr spät auf AMD-gewohntes Niveau eingependelt. Wenn der Klassenprimus im Bereich Perf/$ von heute auf morgen eine Sechs schreibt, hat das schon Auswirkungen.

Bzgl. Highend:
Am Anfang war die Sache klar. 35% mehr wie der Vorgänger ist kein Highend. Mit neuen Treibern/Spielen und der GHz Edition sind es aber eher 60-70%. Und so langsam kommt man auch in den Bereich 400mm2. Wo hört Performance auf und wo fängt Highend an? Tahiti XT v2 steckt da irgendwo zwischendrin mMn, vor allem wegen dem Verbrauch, dem breiten Interface und der Speichermenge.

V2.0
2012-12-17, 10:48:40
Die Frage ist jetzt eher was beide IHVs fuer die naechste 28nm Runde im Bereich Preisgebung vorhaben. Am 28nm Start waren es angeblich die zu teuren 28nm tools bzw. die zu hohen Herstellungskosten. Wenn ich den gleichen Brei - egal von welchem der beiden - ca. ein Jahr danach immer noch hoere und sie verlangen immer noch $500 MSRPs fuer performance SKUs befuerchte ich dass langfristig die Verbraucher nicht nur einem sondern beiden den Mittelfinger zeigen; ueberhaupt wenn man fuer solche MSRPs lediglich pissat 15-20% Leistungssteigerungen bringt.

Ich bin mal dreist und beahupte, dass der Hauptgrund für die kommenden Refreshs die Intention ist die Preise wieder auf "Launch" zurück zu setzen.

M4xw0lf
2012-12-17, 15:50:55
Die Preise haben sich aber erst sehr spät auf AMD-gewohntes Niveau eingependelt. Wenn der Klassenprimus im Bereich Perf/$ von heute auf morgen eine Sechs schreibt, hat das schon Auswirkungen.

Allerdings war auch zum Start das Perf/$-Verhältnis bei der 7970 nicht schlechter als bei der GTX580 - und besser als bei der 580 3GB.

boxleitnerb
2012-12-17, 15:58:29
Ich sag ja nicht absolut, sondern AMD-gewohntes Niveau. Es war halt schon ein Schock, 50% höhere Preise bei 35-40% höherer Leistung zu sehen (bezogen auf die 6970). Die eigentliche deutliche Verbesserung des PLV bei einer neuen Generation blieb anfangs komplett aus, bei Nvidia allerdings genauso. Nur von denen erwarten wir das ja :D

M4xw0lf
2012-12-17, 16:49:31
Ja, da sieht man eben was mangelnde Konkurrenz für böse Folgen hat... ;)

aufkrawall
2012-12-17, 16:55:51
Komischerweise ist NI im Vergleich zu GCN relativ schlecht und trotzdem können AMD mit letzterem ihre Marktanteile nicht verteidigen. :(

reaperrr
2012-12-17, 18:16:22
Komischerweise ist NI im Vergleich zu GCN relativ schlecht und trotzdem können AMD mit letzterem ihre Marktanteile nicht verteidigen. :(
Der Unterschied zwischen Fermi und Kepler ist halt mindestens genauso groß, wenn man nach Performance pro mm² und pro Watt geht eher noch größer.

Im mobilen Bereich scheint es sich AMD zudem mit den OEMs komplett verhagelt zu haben, unter Rory Read werden Abnehmer von kleineren Chipmengen nicht mehr so unterstützt, zudem war GK107 damals wohl eher fertig als Cape Verde und Enduro war nicht annähernd auf dem Niveau von Optimus. Würde auch erklären, warum diesmal AMD zuerst die mobilen Chips auf den Markt zu bringen scheint und der Enduro-Treiber erst kürzlich stark verbessert wurde.

AnarchX
2013-01-02, 19:11:12
AMD Sea Islands: Oland, Bonaire, Hainan, Curacao, Aruba
AMD Solar Systems: Mars, Sun, Neptune, Venus

http://hwinfo.com/

fondness
2013-01-05, 14:12:32
Sea Islands angeblich nicht mehr im Q1. Grund soll sein das man vorher die Lager leeren will.
http://semiaccurate.com/2013/01/04/amds-hd8000-might-not-make-q1/#.UOgl_neWRp0

Blediator16
2013-01-05, 14:53:04
Sea Islands angeblich nicht mehr im Q1. Grund soll sein das man vorher die Lager leeren will.
http://semiaccurate.com/2013/01/04/amds-hd8000-might-not-make-q1/#.UOgl_neWRp0

Können sie sich natürlich leisten:freak:

R.I.P.
2013-01-05, 14:55:43
Können sie sich natürlich leisten:freak:

Dass sie nicht vor April 2013 veröffentlicht werden, sollte jedem klar sein, der weiß, dass das Never Settle Bundle der 7XXX Serie bis März 2013 läuft :freak: Wäre höchst unlogisch gewesen, wenns anders gewesen wäre. Dieses Mal ist die mobile Lösung als erste dran (vielleicht um dern Marktanteil dort von nahe Null anzuheben?)

Blediator16
2013-01-05, 20:20:25
Theoretisch gesehen wenn NV nichts vorlegt brauch AMD auch keinen Finger krumm zu machen genauso siehts bei NV auch aus. Hoffentlich lassen sie den Markt nicht all zu stark stagnieren :(

Ailuros
2013-01-06, 16:52:25
Theoretisch gesehen wenn NV nichts vorlegt brauch AMD auch keinen Finger krumm zu machen genauso siehts bei NV auch aus. Hoffentlich lassen sie den Markt nicht all zu stark stagnieren :(

Vor 20nm kommt von beiden sowieso nichts soooo interessantes am Ende, lediglich refresh-uebliche Leistungs-steigerungen ergo der gleiche Kaese mit N% mehr Leistung.

boxleitnerb
2013-01-06, 22:51:56
Ich hätte mal ne Frage:

Warum liegen die 7950 und die 7970 im Schnitt deutlich näher zusammen als es die Rohleistung vermuten lassen würde? Ich kann mir jetzt nicht so vorstellen, dass die 7970 teilweise bandbreitenlimitiert ist mit 264 GB/s, obwohl es nicht völlig ausgeschlossen scheint: 33% mehr Rechenleistung, aber nur 20% schneller. 10% mehr Bandbreite.

AMD hat ja wohl nicht umsonst bei der 7970 GHz Edition auch den Speichertakt nochmal nach oben geschraubt. Verwundern tut es mich aber schon, und ich frage mich, was das für Implikationen für HD8000 hat, schließlich wird die Bandbreite stagnieren, außer man nutzt 7 Gbps GDDR5.

Eine anderer Erklärungsversuch wäre, dass selbst bei ausreichender Bandbreite die Einheiten nicht optimal skalieren.

fondness
2013-01-06, 22:58:17
Ich hätte mal ne Frage:

Warum liegen die 7950 und die 7970 im Schnitt deutlich näher zusammen als es die Rohleistung vermuten lassen würde? Ich kann mir jetzt nicht so vorstellen, dass die 7970 teilweise bandbreitenlimitiert ist mit 264 GB/s, obwohl es wie die Faust aufs Auge passen würde: 20% mehr Bandbreite und 20% schneller, aber knapp 33% mehr Rechenleistung.

AMD hat ja wohl nicht umsonst bei der 7970 GHz Edition auch den Speichertakt nochmal nach oben geschraubt. Verwundern tut es mich aber schon, und ich frage mich, was das für Implikationen für HD8000 hat, schließlich wird die Bandbreite stagnieren, außer man nutzt 7Gbps GDDR5.

Das Frontend ist nach wie vor unter-dimensioniert. Das es nicht an der Bandbreite liegt sieht man schon daran das Tahiti annähernd perfekt mit mehr Kerntakt skaliert.
Es braucht eben entsprechend komplexe Berechnungen damit die 7970 die zusätzlichen Einheiten auch nutzen kann.

boxleitnerb
2013-01-06, 23:01:59
Hm, da hab ich teilweise andere Ergebnisse gesehen. Und wenn die Bandbreite kein Problem ist, wieso hat man Tahiti XT2 mehr verpasst? Kostet nur Geld und Strom und wäre dann ja überflüssig. Die Leute, die übertakten wollen, hätten den Takt schon selbst hochgesetzt.

Ach ja, noch was:
Würde bei einem verbesserten Frontend die Leistungsaufnahme der Einheiten auch steigen? Eigentlich schon, oder?

fondness
2013-01-06, 23:04:53
Hm, da hab ich teilweise andere Ergebnisse gesehen.


Wo denn? Alle Tests die ich gesehen und auch selbst gemacht habe zeigen dasselbe Bild: Die Karte skaliert perfekt mit dem Chiptakt, Speichertakt bringt praktisch nichts. Deshalb ist man auch derart schnell wenn man den Chip auf ~1,2Ghz hochzieht. Gerade ggü. der GTX680 die ziemlich an der Bandbreite hängt. Alles andere ergibt auch keinen Sinn bei einem 384-bit SI.


Und wenn die Bandbreite kein Problem ist, wieso hat man Tahiti XT2 mehr verpasst? Kostet nur Geld und Strom und wäre dann ja überflüssig. Die Leute, die übertakten wollen, hätten den Takt schon selbst hochgesetzt.

Die Speicherchips der XT2 laufen mit weniger Spannung, spezifiziert sind sie ohnehin auf 1,5Ghz.

Ach ja, noch was:
Würde bei einem verbesserten Frontend die Leistungsaufnahme der Einheiten auch steigen? Eigentlich schon, oder?

Natürlich wenn die Transistoren häufiger schalten Erhöht das die Leistungsaufnahme.

boxleitnerb
2013-01-06, 23:06:35
Hier z.B.
http://www.tomshardware.de/Radeon-HD7970-Review-Overclocking-Powerdraw,testberichte-240942-7.html
http://www.hardocp.com/article/2012/01/09/amd_radeon_hd_7970_overclocking_performance_review/3

Ein paar Prozentpunkte fehlen hier und da schon.

fondness
2013-01-06, 23:09:35
Hier z.B.
http://www.tomshardware.de/Radeon-HD7970-Review-Overclocking-Powerdraw,testberichte-240942-7.html
http://www.hardocp.com/article/2012/01/09/amd_radeon_hd_7970_overclocking_performance_review/3

Ein paar Prozentpunkte fehlen hier und da schon.

Da braucht nur bei einem Bruchteil der Frames die CPU zu limitieren und schon fehlen ein paar Prozent.

Skysnake
2013-01-06, 23:54:32
Ich hätte mal ne Frage:

Warum liegen die 7950 und die 7970 im Schnitt deutlich näher zusammen als es die Rohleistung vermuten lassen würde? Ich kann mir jetzt nicht so vorstellen, dass die 7970 teilweise bandbreitenlimitiert ist mit 264 GB/s, obwohl es nicht völlig ausgeschlossen scheint: 33% mehr Rechenleistung, aber nur 20% schneller. 10% mehr Bandbreite.

AMD hat ja wohl nicht umsonst bei der 7970 GHz Edition auch den Speichertakt nochmal nach oben geschraubt. Verwundern tut es mich aber schon, und ich frage mich, was das für Implikationen für HD8000 hat, schließlich wird die Bandbreite stagnieren, außer man nutzt 7 Gbps GDDR5.

Eine anderer Erklärungsversuch wäre, dass selbst bei ausreichender Bandbreite die Einheiten nicht optimal skalieren.
Schon mal an den L2 Cache gedacht? Der skaliert nämlich 0 mit, und sorgt eben für so manche Entlastung des SI. Mit mehr Einheiten sinkt aber die Datenlokalität. Ergo wird der L2 stärker belastet und im Schnitt auch noch schneller per LRU oder what ever geflushed, womit dann der Datenreuse sinkt.

Das ist ja ein Punkt, weshalb GK110 ja auch interessant ist. Nen richtig schöner fetter L2.

Knuddelbearli
2013-01-07, 00:56:35
Ach ja, noch was:
Würde bei einem verbesserten Frontend die Leistungsaufnahme der Einheiten auch steigen? Eigentlich schon, oder?

ja aber weniger als linear ( verbrauch des GDDR bleibt ja gleich und der chip selber verbraucht maximal linear mehr )

ndrs
2013-01-07, 09:41:15
der chip selber verbraucht maximal linear mehr
Auch das nicht annähernd, da die nicht ausgelasteten Einheiten weder Power- noch Clockgatet werden können. Leckströme und die Taktverteilung machen schon einen sehr großen Teil der Leistungsaufnahme aus.

dargo
2013-01-07, 11:32:39
Ich hätte mal ne Frage:

Warum liegen die 7950 und die 7970 im Schnitt deutlich näher zusammen als es die Rohleistung vermuten lassen würde?
Da hast du deine Antwort schon. ;) Schnitt ist Käse, vorallem wenn je nach Testszene noch gewisse CPU-Limits in die Rechnung hineinfliessen.

boxleitnerb
2013-01-07, 14:59:22
Ich sehe auch wenn ich mir die Einzelergebnisse anschaue selten bis nie einen 30% Vorsprung der 7970.

Locuza
2013-01-07, 15:35:15
Ich sehe auch wenn ich mir die Einzelergebnisse anschaue selten bis nie einen 30% Vorsprung der 7970.
Frontend wurde bei Tahiti nicht aufgebohrt, was bei immer mehr Einheiten zu einer schlechteren Skalierung führt, Tahiti Pro hat immerhin 13.5% weniger Einheiten.
Und wie du schon selber gesagt hat, Rechenleistung ist höher als der Bandbreitenvorteil.
Es kneift sicherlich immer unterschiedlich und mit noch mehr Gründen an manchen Stellen, wieso die Skalierung einfach absackt.

Tahiti Pro V2 skaliert zu Pitcairn XT auch nicht perfekt.

Man darf bei Sea Islands wohl auf ein Front-End hoffen, welches die Work-Distribution besser hinbekommt.

dildo4u
2013-01-08, 03:28:15
8XXX Serie Rebrant der 7XXX?

Dokument direkt von AMD's Seite.

http://www.amd.com/us/Documents/AMD_Radeon_HD_8970_Feature_Summary.pdf

http://www.amd.com/us/products/desktop/graphics/oem-solutions/Pages/desktop.aspx#3

Mirror
https://docs.google.com/open?id=0B3GHqlWt1qMQdFV6b3hqS0dWbXM

Selbst wenn's nur für OEM's ist WTF @ diese Namensgebung.

StefanV
2013-01-08, 04:44:43
Wie hätte man es deiner Meinung nach nennen sollen/dürfen/können?

AnarchX
2013-01-08, 06:14:37
Rebranding von Top-Karten gab es bisher noch nicht.
Ob da AMD vielleicht Lieferungen versprochen hat, die sie mit einem Q2-Launch nicht einhalten können? Im Endeffekt sehe ich hier nur Vorteile für den OEM-Hersteller, der sein System mit einer HD 8900er Karte bewerben kann.


HD 8350 und HD 8400 sind übrigens sogar noch 40nm Lösungen: HD 5450 und HD 6450.

boxleitnerb
2013-01-08, 06:41:36
WTF? Wieso ist dieser eine PC mit der 8950, um die es ging, dann erst Juni lieferbar, wenn es nur eine 7950 ist?

Laut Ryan Smith von Anandtech plant Nvidia Ähnliches. Vielleicht ersteht dann die GTX 8800 dieses Jahr wieder auf, halt mit einer Null weniger ;)

Locuza
2013-01-08, 08:05:51
Also das nimmt ja schon wirklich perverse Züge an.

Knuddelbearli
2013-01-08, 08:41:32
wieso sollte das neu sein ? hat NV im Mobilesektor auch im high end markt schon so gemacht

boxleitnerb
2013-01-08, 08:45:55
Mit der 100er Serie, richtig. Ich dachte, diese Praktik ist ausgestorben.

Das "Die anderen haben aber auch..." find ich übrigens ziemlich kindisch. Man muss nicht jeden Käse nachmachen.

Locuza
2013-01-08, 08:46:27
Aber im Desktop-Markt die ganze Flotte zu rebranden?
Will AMD etwa das Namensschema mit Sea Island ändern und bringt jetzt Rebranding Zeug bis dahin heraus?

boxleitnerb
2013-01-08, 08:52:54
Aber im Desktop-Markt die ganze Flotte zu rebranden?
Will AMD etwa das Namensschema mit Sea Island ändern und bringt jetzt Rebranding Zeug bis dahin heraus?

Die interessante Frage wäre dann, wie lange diese Karten leben werden. Wenn sagen wir im März oder im April der echte Refresh als HD9000 kommt, kann mir keiner erzählen, dass es damit nicht auch OEM-Lösungen geben wird.

Emploi
2013-01-08, 09:03:24
Weis gerade nicht ob ich lachen oder weinen soll.
Alles in allem ein gute Entscheidung mit einer 7970 Ghz zugeschlagen zu haben.

M4xw0lf
2013-01-08, 09:26:18
Dieser Rebranding-Scheiß wieder, ich packs nicht was das dieses mal für ein dreistes Namensschema ist :|

john carmack
2013-01-08, 09:45:31
http://www.computerbase.de/news/2013-01/amd-stellt-radeon-hd-8000-serie-fuer-oem-rechner-vor/


was kommt dann im März oder April? Die HD9000?

M4xw0lf
2013-01-08, 09:49:09
http://www.computerbase.de/news/2013-01/amd-stellt-radeon-hd-8000-serie-fuer-oem-rechner-vor/


was kommt dann im März oder April? Die HD9000?

Das ist ja ein totales Chaos, mit den teilweise angepassten Namen bei den Rebrands von 7770 und 7750 (zu 8760 und 8740)...

boxleitnerb
2013-01-08, 09:52:20
Vielleicht heißt Central Islands (Sea Islands ist laut Dave Baumann was anderes) dann auch HD8000. Wär witzig: "Hey, meine 8970 ist ja langsamer als deine 8970. Ich hab meinen PC bei HP gekauft, du deine Retail-Karte bei Alternate?"

V2.0
2013-01-08, 10:01:59
Wenn man sich ansieht, was nicht rebranded wird, kann auch sein dass man einige Chips einfach aufgegeben hat.

AnarchX
2013-01-08, 10:04:20
Mit der 100er Serie, richtig. Ich dachte, diese Praktik ist ausgestorben.

Die GTS 150 kam aber nach den GTX 200 Karten. Das in dieser Form ist schon eine Neuerung. Durchaus denkbar dass NV ähnliches vor hat: GK104 als geplanter Performance-Chip (GTX 660 Ti) zur GTX 780. :ugly:

Entweder sind die Neuerung der echten HD 8000 wirklich vernachlässigbar oder es kommt wirklich HD 9000.

Vielleicht heißt Central Islands (Sea Islands ist laut Dave Baumann was anderes)
Laut aktueller Roadmap bleibt es für 2013 bei Sea Islands.

fondness
2013-01-08, 10:15:07
Entweder sind die Neuerung der echten HD 8000 wirklich vernachlässigbar oder es kommt wirklich HD 9000.

GCN2 wird einige neue GPGPU-Features bringen.

Die Umbenennung nur wegen Mars ist natürlich lächerlich. Da man die 7850 nicht umbenannt hat und die 7770 abgestuft hat kommt dazwischen womöglich auch noch ein neuer Chip.

boxleitnerb
2013-01-08, 10:18:52
Die GTS 150 kam aber nach den GTX 200 Karten. Das in dieser Form ist schon eine Neuerung. Durchaus denkbar dass NV ähnliches vor hat: GK104 als geplanter Performance-Chip (GTX 660 Ti) zur GTX 780. :ugly:

Entweder sind die Neuerung der echten HD 8000 wirklich vernachlässigbar oder es kommt wirklich HD 9000.

Im Grunde ist es doch egal, ob der Käufer früher oder später veräppelt wird mit den kreativen Namen.

Von Nvidia erwarte ich sowas auch, es kann mir schließlich keiner erzählen, dass das komplette Lineup schnell refresht ist. Oder man lässt sich halt wieder Zeit wie bei Kepler v1 und lässt über Monate hinweg Lücken im Angebot. Es wurden ja auch keine Fermis zu Geforce 600 umbenannt im Desktop soweit ich weiß. Mobil ist eh immer was anderes, darauf achte ich gar nicht mehr :freak:

M4xw0lf
2013-01-08, 10:24:59
Am unteren Ende gibts Rebrands für den Desktop, zumindest OEM: GT610, 620, 630, 640 und 645. Einige davon gibts allerdings sowohl mit Fermi als auch mit Kepler (Retail dann).
http://de.wikipedia.org/wiki/Nvidia-Geforce-600-Serie

MadManniMan
2013-01-08, 10:43:09
Also entweder sitzen bei AMD Leute, die ausgeprägt nostalgisch sind und deswegen die 8800 für Radeon-Highend vermeiden wollen (wegen der doch zwiegespalten rezipierten Radeons vor 10 Jahren und wegen der übermächtigen 8800er Geforces) und lieber gleich wieder zur 9000er-Serie übergehen, oder das Jahr wird eeecht langweilig.

M4xw0lf
2013-01-08, 10:53:30
Langweilig? Das wäre eher der GAU :frown:

boxleitnerb
2013-01-08, 10:57:02
Btw:
http://semiaccurate.com/2012/01/02/the-next-generation-amd-gpu-is-not-called-sea-islands/#.UOvvCnf88W4

Instead, you put down something generic, like the overarching family names. In this case, AMD has gone from Northern Islands to Southern Islands, and the next one is an Island too. All are in oceans, not in small bodies of fresh water like Pelican Lake, hence the Sea part. Calling the whole thing “Sea Islands” is like calling Nvidia’s line of GPUs (Tesla, Fermi, Kepler, Maxwell, etc) “Physicists” and AMD’s older names, (R470, R570, R670) “Hundreds”. “Sea Islands” are a generic descriptor, not a chip family.

SI, NI, VI (Volcanic Islands), PI (Pirate Islands) sind ALLES Sea Islands - Inseln in einem Meer, mehr nicht.

@Locuza:
Hab da vorhin Mist geschrieben. Aber es irritiert immer noch, dass auf der Roadmap auf Augenhöhe ein spezifischer Codename, nämlich Southern Islands, und ein Platzhalter, nämlich Sea Islands, steht. Warum macht man sowas? Musste man sich den Codenamen erst ausdenken, und er war zu dem Zeitpunkt noch nicht fix? :D

Locuza
2013-01-08, 10:59:07
Damit bestätigt er ja, dass die Desktop-GPUs Sea Island bzw. HD8000 sind, und HD8000 ist der Rebrand wie wir jetzt wissen. Charlie hat schon vor Monaten angedeutet, dass der Southern Islands Nachfolger nicht Sea Islands, sondern Central Islands ist.
Ich kann mir aber absolut nicht vorstellen, dass Central Islands nicht 2013 kommt. Das er gibt überhaupt keinen Sinn, nichtmal ansatzweise, Roadmap hin oder her.
3DC hat darüber übrigens schon vorletztes Jahr berichtet: http://www.3dcenter.org/news/2011-07-25
Alle mal kurz diese Folie inhalieren und hoffen das die interne ursprüngliche Product-Pipeline nicht gecancelt wurde. :freak:

http://www.maximumpc.com/files/imagecache/futureus_imagegallery_fullsize/gallery/web-roadmap2.png

Nur mit einem Rebrand würde ich doch keine neuen HSA-Features ankündigen.

Edit: Du warst schnell box.

MadManniMan
2013-01-08, 11:02:32
Langweilig? Das wäre eher der GAU :frown:

... und ein weiterer Schritt gen Friedhof für AMD?

AnarchX
2013-01-08, 11:11:05
SI, NI, VI (Volcanic Islands), PI (Pirate Islands) sind ALLES Sea Islands - Inseln in einem Meer, mehr nicht.
Auf der neuen Roadmap steht Sea Islands auf der gleichen Ebene wie die Mobile Familie Solar System, insofern sollte es schon eine Familien Bezeichnung sein.