Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

OBrian
2018-04-21, 09:03:44
was wurde eigentlich aus der idee siliziumverbindungen auf dem wafer zu belichen und hinterher nur noch die entsprechenden chips rauszusägen? Die Idee hatte schon jemand (https://en.wikipedia.org/wiki/File:The_Traitorous_Eight.jpg) 1959, daraus wurde Fairchild Semiconductor und letztlich die ganze Halbleiterindustrie.

mit welchem powerbudget willst du 8000 shadereinheiten betreiben? dank Shrink hoffentlich mit dem gleichen wie jetzt 4096, sonst ist das Ganze natürlich sinnlos.

N0Thing
2018-04-21, 12:00:18
Ich gehe mal davon aus, das AMD im Sommer irgendwas zu Navi sagen wird. Einfach nur um zumindest im Gespräch zu bleiben, während Turing gelauncht wird.

Das glaube ich nicht. Im Sommer kommt vielleicht etwas zu Vega20, zu Navi würde ich von AMD vor 2019 keine hilfreichen Infos erwarten.

basix
2018-04-21, 14:10:37
Wenn es einen grossen Navi gibt, dann hat der definitiv 8k Shader oder gar mehr und nicht etwa 6k. Und bezüglich Powerbudget: Vega wird einfach oberhalb des Sweet Spot betrieben. Durch 7nm wird der Sweet Spot nach oben verschoben, deswegen wird die Energieffizienz vermutlich mehr als nur aufgrund Prozessverbesserungen steigen (hoffe zumindest AMD macht diesen Fehler nicht noch mal). 8k Shader mit 1.5GHz @ 250W TDP für die Karte sind vermutlich nicht unrealistisch. Vielleicht machen sie auch 1.57GHz draus, dann kann man 50 TFLOPs auf die Verpackung schreiben (FP16) oder falls sie wie Pascal Quad-Rate INT8 unterstützen 100 TOPS Deep Learning ;)

AffenJack
2018-04-21, 14:44:45
Joa, für nen großen Navi passen 8k Shader oder etwas in der Region definitiv. Ist nur die Frage ob sowas kommt. Ich glaube gerade nicht dran. 1 Jahr danach wird schließlich ne neue Architektur kommen und ich denke es wird wieder eher wie bei Polaris erstmal nur kleinere Chips geben. Da passen die 7nm Yields und Produktionskosten auch eher.

Das glaube ich nicht. Im Sommer kommt vielleicht etwas zu Vega20, zu Navi würde ich von AMD vor 2019 keine hilfreichen Infos erwarten.

Macht auch vorher keinen Sinn, Navi wird man frühstens Ende Q2 sehen, ich denke eher in H2, da kann man wieder auf der CES was machen, aber nicht vorher. V20 erwarte ich auch eher etwas zu auf Messen, wie z.b. der Supercomputing 18, die im November ist. Da kann man dann z.b. Samples zeigen. Irgendwo, wo man eben das richtige Publikum anspricht. Niemand interessiert in dem Bereich irgendeine PR Meldung.

robbitop
2018-04-21, 16:02:39
Ist es sicher dass 1 Jahr nach Navi neue mArch kommt? Bis dato hiess es doch, dass Navi die mArch schon deutlich verändert oder neu gestaltet. (wobei es das schon zu Polaris und Vega hiess...)
Oder bezieht ihr euch auf das neuste Gerücht bei dem das Zen Team dem Radeon Team helfen soll? Finde ich weit hergeholt da zwei völlig verschiedene Dinge. Ob Artfremde hier wirklich sinnvoll helfen können?
Ggf was taktoptimierung angeht - aber bei der gpu mArch selbst? Fände ich sehr merkwürdig

IMO wird Navi wenigstens einen gt106 widersacher bringen, da wichtiger Markt. Wenn die Navi mArch effizienter wird (Fläche, Energie, Bandbreite etc) ggf auch einen gt104 Widersacher. V64 war da ungeeignet als 104 Widersacher, da mit der Brechstange agiert werden musste (sehr großer Die, hohe Leistungsaufnahme, teurer hbm Speicher wegen großen Bandbreitenhungers...).

fondness
2018-04-21, 16:19:34
Naja, wenn der Zen Microprocessor Design Director in Form von Suzanne Plummer zum Corporate Vice President der GPU-Abteilung bestellt wird, dann braucht man nicht mehr von einem Gerücht sprechen. Sie hat ja sogar sehr deutlich gesagt, dass sie die Erfahrungen aus dem CPU-Design entsprechend ins GPU-Team einbauen will:
https://www.youtube.com/watch?v=iQ_4C2TKHQ0&feature=youtu.be&t=3m46s

robbitop
2018-04-21, 16:26:55
Das ist zunächst eine Person. Noch dazu ein Manager. Wie weit das gehen soll wird auch nicht gesagt, nur dass sie es vorhat. Ist also zunächst nur ein völlig unbestimmter Vorsatz. Von einer neuen mArch ist da auch nicht die Rede.
Wie gesagt gibt es sicherlich Aspekte, wo ein Austausch sinnvoll ist (siehe hd libs für cpus oder aber eben Verbesserung der Taktbarkeit des Designs). Aber die eigentliche mArch wird man mE damit nicht sinnvoll verbessern sondern eher dessen Implementierung. Insofern steht für mich die Frage weiterhin offen, ob es 1 Jahr nach Navi eine neue mArch gibt. Oder aber ob Navi bereits wesentliche Änderungen der mArch enthält.

horn 12
2018-04-21, 16:27:23
Daher auch kein Treiber bis Ende April, Anfang Mai
Mann wird groß auftrumpfen und NV die Karten überlassen mit Ihrem GPP Programm.
Der Schuss kann durch NEUE, sprich umbenannte und mit Games als Zusatz erfolgte Vega Refresh (Label) Karten nach hinten los gehen für die ach so liebe Konkurrenz.

Ab KW 19/20 sollten weitere Vega basierte Karten aufschlagen.
Dies mit Vega 56/64 wird noch bis Jahresende 2018 so weitergehen und Turing wird sich da mal messen müssen.
Stromverbrauch ist die Achillesferse von Vega, aber was solls ...

Loeschzwerg
2018-04-21, 16:27:24
dass sie die Erfahrungen aus dem CPU-Design mitnehmen will.

Darunter verstehe ich, bei einer Person in dieser Position, in erste Linie die Erfahrung im Bereich der Führung. Das wäre aber auch vollkommen ok.

fondness
2018-04-21, 16:28:16
Darunter verstehe ich, bei einer Person in dieser Position, in erste Linie die Erfahrung im Bereich der Führung. Das wäre aber auch vollkommen ok.

Siehe editieren youtube Link, es geht schon um technische Details. Suzanne würde ich auch nicht als Manager bezeichnen.

Insofern steht für mich die Frage weiterhin offen, ob es 1 Jahr nach Navi eine neue mArch gibt. Oder aber ob Navi bereits wesentliche Änderungen der mArch enthält.

Dieses Gerücht kam AFAIK exklusiv von WCCFtech, ob es stimmt wird man sehen. Falls es stimmt, dürfte Navi aber wohl eher ein Zwischenschieber werden, vielleicht auch weil schon absehbar ist, dass er nicht konkurrenzfähig genug sein wird. Das Ding danach wird dann auf jeden Fall die erste Architektur nach Raja Konduri.

Loeschzwerg
2018-04-21, 16:36:08
Mit eines der ersten Wörter von ihr "Methodology" (Methodik) und dann später "taking the best that we have already developed inhouse and trying to make sure using those same improvements accross the company".

Bedeutet man wird den Fokus beim Design auf andere Dinge legen (Power/Performance Balance) und die Arbeitsweise anpassen (Methodik).

=> Führung / Management. Ein neue Arch höre ich aus den Ansagen nicht heraus. Edit: Das soll aber keinerlei Kritik sein. Eine gute Organisation ist enorm wichtig, gerade wenn man nicht mit Geld um sich werfen kann und nutzen muss was man hat.

robbitop
2018-04-21, 16:44:26
Die Frage ist ja ab wann etwas eine neue mArch ist. NV evolutioniert ja im Prinzip auch seit Fermi. Und das sehr erfolgreich. Mal in großen Scheittn und mal sanft. Navi soll die Scalability verbessern. Das ist sicherlich ein schon länger größeres Problem der vergangenen mArchs, dass die Performance mit steigender CU Anzahl unterproportional steigt.
Ggf packt man auch die dringend notwendige Bandbreiteneffizienz an.
Auch wäre mehr Registerplatz pro CU sicherlich sinnvoll um dessen auslastungsgrad zu erhöhen.

Unicous
2018-04-21, 17:04:22
Wenn Suzanne Pummer ein "Manager ist, dann ist es Raja Kudori auch.:rolleyes:

Immer diese halbseidenen Behauptungen. Die Frau ist seit fast 30 Jahren Ingenieurin und hier wird sie zur Managerin degradiert die ein paar Zahlen umherschubst und dem Vorarbeiter sagt, die Arbeiterbienchen sollten sich mal ein wenig ranhalten.:rolleyes:

Loeschzwerg
2018-04-21, 17:05:57
Langjährige Ingenieure sind zufällig die besten Manager die man sich wünschen kann ;) Hier wird nichts und niemand degradiert.

robbitop
2018-04-21, 17:11:32
Wenn Suzanne Pummer ein "Manager ist, dann ist es Raja Kudori auch.:rolleyes:

Immer diese halbseidenen Behauptungen. Die Frau ist seit fast 30 Jahren Ingenieurin und hier wird sie zur Managerin degradiert die ein paar Zahlen umherschubst und dem Vorarbeiter sagt, die Arbeiterbienchen sollten sich mal ein wenig ranhalten.:rolleyes:
Du missverstehst meine Aussage. (wobei es schade ist, dass die Reaktion dann gleich so ausfallend werden muss anstatt mit angemessenen Ton die Behauptung in Frage zustellen)

Manager ist kein Beruf sondern eine Rolle. Ein Manager muss nicht zwangsläufig ein bwler sein. Ingenieure sind IMO die besten Manager für Ingenieurteams (ich bin selbst beides).
Dass sie ein Ingenieur ist, ist mir auch bekannt.

Ich meinte mit der Aussage „nur ein Manager“, dass es nur eine (Betonung auf 1x) Person ist. Egal wie gut sie ist - das allein ist etwas wenig. Wenn ein Teil des CPU Teams konkret unterstützt wäre es ggf etwas anderes. So war das gemeint. Ggf nächstes Mal einfach sachlich nachhaken? Loeschzwerg hat es btw verstanden :)

fondness
2018-04-21, 17:23:04
Wer sagt, dass es nur eine Person ist? "We've pulled in some expertise of the microprocessors team right now" klingt für mich anders. Macht für mich auch wenig Sinn, sie wird kaum alleine das alles bewerkstelligen können, da wurde mit hoher Wahrscheinlichkeit ein Team abgestellt, wie im übrigen auch WCCFtech sagt. Suzanne Plummer ist halt die leitende Ingenieurin, die das Ganze zu verantworten hat.

robbitop
2018-04-21, 17:30:14
Das klingt gut. Hoffentlich kommt aber auch die mArch in den entscheidendem Punkten (Bandbreiteneffizienz, Auslastung der ALUs) nach vorn. Da werden die Zen Leute wohl nur beschränkt helfen können.

Unicous
2018-04-21, 18:17:51
Dann drücke dich klarer aus. Sie bringt ihre Expertise mit und sicherlich auch einen Teil des Zen-Teams um die Erfahrungen von Zen und sicherlich auch den Bobcat-Derivaten (deren Entwicklung sie afaik auch geleitet hat) einzubringen.

Das ist an sich auch nichts Neues denn AMD hat schon seit Langem die Synergien angesprochen die gemeinsame CPU-Entwicklung und GPU-Entwicklung bringen können. Ob das innerhalb der nächsten zwei Jahre Früchte trägt wage ich noch zu bezweifeln. Plummer kann zumindest Ziele vorgeben und auch technisch begleiten um die Navi-Entwicklung zu unterstützen ich sehe aber persönlich ihren Aufgabenbereich eher in den Architekturen die nach Navi kommen. Navi ist eh schon im letzten Viertel des Designprozesses angelangt da gibt es nicht mehr viele low hanging fruits die man pflücken könnte.

Anscheinend wurde auch eine interessante Personalie eingestellt die sie aller Voraussicht nach unterstützen wird und wohl ein Ex-AMDler ist.

Skysnake
2018-04-21, 19:55:48
was wurde eigentlich aus der idee siliziumverbindungen auf dem wafer zu belichen und hinterher nur noch die entsprechenden chips rauszusägen?

mit welchem powerbudget willst du 8000 shadereinheiten betreiben?

Das gibt es, nur halt nicht im Consumer Bereich.

Schau dir das human brain project an. Die haben einen Chip entwickelt, der ein kompletter Wafer ist.

AffenJack
2018-04-21, 20:23:33
Ist es sicher dass 1 Jahr nach Navi neue mArch kommt? Bis dato hiess es doch, dass Navi die mArch schon deutlich verändert oder neu gestaltet. (wobei es das schon zu Polaris und Vega hiess...)
Oder bezieht ihr euch auf das neuste Gerücht bei dem das Zen Team dem Radeon Team helfen soll? Finde ich weit hergeholt da zwei völlig verschiedene Dinge. Ob Artfremde hier wirklich sinnvoll helfen können?
Ggf was taktoptimierung angeht - aber bei der gpu mArch selbst? Fände ich sehr merkwürdig

IMO wird Navi wenigstens einen gt106 widersacher bringen, da wichtiger Markt. Wenn die Navi mArch effizienter wird (Fläche, Energie, Bandbreite etc) ggf auch einen gt104 Widersacher. V64 war da ungeeignet als 104 Widersacher, da mit der Brechstange agiert werden musste (sehr großer Die, hohe Leistungsaufnahme, teurer hbm Speicher wegen großen Bandbreitenhungers...).

Ob es eine neue Architektur ist oder nur ein veränderter Navi sei mal dahin gestellt, aber sie haben für 2020 in 7nm EUV Next Gen auf einer Folie gehabt, was auch immer das heißen mag. Kann auch nur eine leichter Veränderung sein, klar ist aber dass diese Chips einen anderen Leistungsbereich abdecken werden, als Navi. AMD hat nicht das Geld ihre GPUs nach 1 Jahr wieder auslaufen zu lassen, dazu sind die Entwicklungskosten zu hoch. Ist bei NV ja genauso, man lässt GPUs in der Regel 2 Jahre laufen mit wenigen Ausnahmen wie GM200.

Deswegen würde ich keinen großen Chip mit Navi erwarten und da ich bisher auch nicht an die MCM Sachen glaube, erwarte ich etwas Polarisartiges für den Mainstream. GT106 wird man locker packen, aber bei 7nm vs 12nm ist das nun auch keine große Leistung.

N0Thing
2018-04-21, 21:57:24
Naja, Next Gen ist nicht sonderlich eindeutig. Vega ist die Next Gen nach Polaris, Navi die Next Gen nach Vega und nach Navi kommt wieder eine neue Generation. Wie groß die Fortschritte bei der Architektur ausfallen, kann man daran nicht ableiten.

Abgesehen davon muss Navi auch mehr als Vorgängergeneration done right werden, wenn man im Gamersegment nicht auf einstellige Prozentwerte bei den Marktanteilen fallen will.

|MatMan|
2018-04-21, 23:40:18
Deswegen würde ich keinen großen Chip mit Navi erwarten und da ich bisher auch nicht an die MCM Sachen glaube, erwarte ich etwas Polarisartiges für den Mainstream. GT106 wird man locker packen, aber bei 7nm vs 12nm ist das nun auch keine große Leistung.
Ich glaube nicht, dass sich nVidia so einfach die Butter von Brot nehmen lassen wird. Navi wird IMO gegen 7nm GPUs von nVidia antreten müssen, abgesehen von ggf. einer kurzen Übergangsphase. Bei Polaris sah man AMD auch lange zeitlich vorn, um dann doch überrundet zu werden. nVidia wird ebenso aggressiv auf 7nm wechseln. Es sei denn TSMC ist mit dem Prozess extrem viel später dran als GF, was ich aber nicht glaube.

Mangel76
2018-04-22, 11:31:15
Ich glaube nicht, dass sich nVidia so einfach die Butter von Brot nehmen lassen wird. Navi wird IMO gegen 7nm GPUs von nVidia antreten müssen, abgesehen von ggf. einer kurzen Übergangsphase. Bei Polaris sah man AMD auch lange zeitlich vorn, um dann doch überrundet zu werden. nVidia wird ebenso aggressiv auf 7nm wechseln. Es sei denn TSMC ist mit dem Prozess extrem viel später dran als GF, was ich aber nicht glaube.

Vielleicht nicht früher, dafür blockieren aber keine anderen Abnehmer, wie etwa Apple, zunächst sämtliche Kapazitäten. Bei GF hat AMD ja ziemlich schnell Zugriff auf neue Verfahren.

|MatMan|
2018-04-22, 12:14:32
Vielleicht nicht früher, dafür blockieren aber keine anderen Abnehmer, wie etwa Apple, zunächst sämtliche Kapazitäten. Bei GF hat AMD ja ziemlich schnell Zugriff auf neue Verfahren.
Guter Punkt, Kapazität ist die Unbekannte. TSMC hat sicherlich mehr Möglichkeiten (= mehr Fabs) als GF die Kapazitäten zu steigern, die Frage ist wann. Auch macht sich AMD selbst Konkurrenz bei GF mit Zen2, welcher wahrscheinlich eine höhere Priorität besitzt. Es bleibt also spannend!

mboeller
2018-04-22, 15:57:30
Anscheinend wurde auch eine interessante Personalie eingestellt die sie aller Voraussicht nach unterstützen wird und wohl ein Ex-AMDler ist.

soso... und welchen "Guru" haben sie sich geholt?

AMDoderNvidia
2018-04-22, 16:00:00
Es bleibt also spannend!

Spannend? Ich empfinde die Situation jetzt schon seit Jahren langweilig. Nvidia hat alle Karten in der Hand (Wortspiel! :biggrin:) und AMD lebt von Ankündigungen. Ende 2013 mit GTX 780 (Ti) vs. R9 290(X) war es das letzte Mal spannend. Und die Situation wird sich (aus aktueller Sicht) erst Ende 2019 / Anfang 2020 ändern, wenn AMD tatsächlich was Neues und leistungsfähiges auf den Markt wirft und auch Intel mit einer diskreten (High-End) GPU in den Markt einsteigt.

Blediator16
2018-04-22, 16:16:53
Aluhut auf:

https://www.extremetech.com/extreme/145830-industrial-espionage-amd-files-suit-against-former-employees-for-alleged-document-theft

2013 hat AMD einige Arbeitnehmer, die zu Nvidia gegangen sind und angeblich wichtige Informationen an NV weitergebene haben, verklagt.

Merkwürdigerweise fing ab da ca. die perfekten Konter an. AMD rutsche ab wie noch nie. Als ob man bei Nvidia ganz genau wusste, was AMD die nächsten Jahre vor hat.

Zu verrückt? :freak:

=Floi=
2018-04-22, 16:17:53
Ja, weil die meisten fails sich amd selbst zuzuschreiben hat.

oder soll an der fast mhz gleichen performance von vega zu fiji jetzt nv schuld sein?
Für den steinigen HBM weg ist auch amd verantwortlich und wenn sie die deppen von GF nicht mal loswerden, wird es auch weiterhin verspätungen und schlechte prozesse geben.
Die brigen es auch nicht mehr auf die reihe.

Adam D.
2018-04-22, 17:38:32
die perfekten Konter
Wenn AMD gescheite Produkte entwickeln würde, gäbe es keine "perfekten Konter".

Heißt natürlich nicht, dass an der Geschichte nichts dran ist, aber für die miese Situation der AMD-Grafiksparte können ein paar übergewanderte Mitarbeiter bestimmt nichts.

Blediator16
2018-04-22, 19:03:39
Bis auf Fiji sind alle gescheit, auch wenn Vega nicht das gelbe vom Ei ist. Meiner Meinung nach waren sie bis Hawaii sogar die besseren Produkte seit Kepler/GCN.

unl34shed
2018-04-22, 19:14:10
AMDs Hauptproblem ist, dass immer nur das gerade wichtig ist, wo Nvidia besser ist.

Sorry für OT

Hübie
2018-04-22, 19:31:36
Navi wird hoffentlich das grundlegende Problem der schlechten Skalierung beseitigen und ich hoffe dass die endlich mal anständig binnen und näher am sweet spot operieren. Ein Launch ohne Peinlichkeit wäre eine absolute Überraschung. :smile:

reaperrr
2018-04-22, 20:01:59
Wenn AMD gescheite Produkte entwickeln würde, gäbe es keine "perfekten Konter".

Heißt natürlich nicht, dass an der Geschichte nichts dran ist, aber für die miese Situation der AMD-Grafiksparte können ein paar übergewanderte Mitarbeiter bestimmt nichts.
Ich könnte mir schon vorstellen, dass die Insider-Infos beim Timing und Konfigurieren der SKUs geholfen haben.
Was ein bisschen auffällig ist: GM100 ist der einzige Gx100 Chip von NV ohne erhöhte DP-Leistung. Würde nicht ganz ausschließen, dass sie den schnell auf GM104-Grundlage aus dem Boden gestampft haben, als sie von den Überläufern von Fiji erfahren haben. Sonst hätte AMD vorübergehend tatsächlich den schnellsten Chip gehabt und die HBM-Rechnung wäre aufgegangen. Wer weiß...

Sehe das ansonsten aber ähnlich.

Egal ob die Überproduktion von Tahiti im Zuge des ersten Mining-Hypes, die Perf/mm²-Missgeburt namens Tonga oder dass der 300er Refresh (v.a. die 390/X) + Fiji ca. 6-8 Monate zu spät kamen, um den massiven Marktanteil-Verfall zu verhindern oder zumindest abzuschwächen, der hakelige Polaris-Launch mit dem "zu viel Saft über PCIe" usw., all diese Eier hat sich AMD selbst ins Nest gelegt.

Kriton
2018-04-23, 00:36:42
Wenn Suzanne Pummer ein "Manager ist, dann ist es Raja Kudori auch.:rolleyes:

Immer diese halbseidenen Behauptungen. Die Frau ist seit fast 30 Jahren Ingenieurin und hier wird sie zur Managerin degradiert die ein paar Zahlen umherschubst und dem Vorarbeiter sagt, die Arbeiterbienchen sollten sich mal ein wenig ranhalten.:rolleyes:

r8miwsWtzRw

HOT
2018-04-23, 08:47:19
Ich glaube nicht, dass sich nVidia so einfach die Butter von Brot nehmen lassen wird. Navi wird IMO gegen 7nm GPUs von nVidia antreten müssen, abgesehen von ggf. einer kurzen Übergangsphase. Bei Polaris sah man AMD auch lange zeitlich vorn, um dann doch überrundet zu werden. nVidia wird ebenso aggressiv auf 7nm wechseln. Es sei denn TSMC ist mit dem Prozess extrem viel später dran als GF, was ich aber nicht glaube.
Ende 2018 -> Turing
Anfang 2019 -> Navi, V20 und Ampere
Irgendwann 2020 -> NV 7nm-Gaming, AMDs 7nm-HighEnd.

Da gibts kein aggressives Wechseln auf 7nm seitens NV. Wozu auch, ist doch gar nicht nötig.

AffenJack
2018-04-23, 09:29:46
Ende 2018 -> Turing
Anfang 2019 -> Navi, V20 und Ampere
Irgendwann 2020 -> NV 7nm-Gaming, AMDs 7nm-HighEnd.

Da gibts kein aggressives Wechseln auf 7nm seitens NV. Wozu auch, ist doch gar nicht nötig.

Anfang 2019 Navi? Sicherlich nicht. Navi dürfte um die min 3, eher 6 Monate Abstand zu Vega20 kriegen, sonst hätte man auch gleich einen Navi20 anstatt Vega20 designen können. Juni2019 wenn du Glück hast kommt Navi, wahrscheinlich aber eher Q3.

HOT
2018-04-23, 11:08:27
Navi dürfte ziemlich zum Jahresanfang hin starten - ich tipp mal so auf spätestens April - V20 wirds ja für ausgewählte Kunden schon dieses Jahr geben.
Die ganzen 7nm-Chips hatten ja in 2017 schon Tapeout. Da gehts wirklich nur noch darum, genug Chips aus der Fertigung zu bekommen.

AffenJack
2018-04-23, 11:15:49
Samples von Vega20 soll es geben, das wars. Auslieferung sollte dann Anfang 2019 sein. Navi 2017 Tapeout? Glaube ich auch nicht dran. Wer weiß ob Navi jetzt schon seinen Tapeout hatte. Einzig Vega20 könnte Ende 2017 seinen Tapeout gehabt haben.

maximus_hertus
2018-04-23, 11:52:40
Navi Anfang 2019 in 7nm? Das wäre eine echte positive Überraschung. Der Glaube daran fehlt jedoch.

Imo sieht es so aus:

Q3 2018 - nV Turing (x80 und x70 Karten)
Q4 2018 - Vega 20 für wenige ausgewählte Kunden
Q4 2018 - "Turing-Titan" und x60 Karte
Q1 2019 - Ampere und Vega 20 "Launch"
Q2 2019 - x80Ti Turing, x50 Ti Turing
Q4 2019 - Navi Launch, erstmals Augenhöhe mit nV bei Perf/Watt
Anfang bis Frühling 2020 - Turing Nachfolger in 7nm, AMD wieder weit abgeschlagen bei Perf/W

Cyphermaster
2018-04-23, 15:48:14
Anfang 2019 Navi? Sicherlich nicht. Navi dürfte um die min 3, eher 6 Monate Abstand zu Vega20 kriegen, sonst hätte man auch gleich einen Navi20 anstatt Vega20 designen können. Juni2019 wenn du Glück hast kommt Navi, wahrscheinlich aber eher Q3.
Die Frage ist doch auch, wie viel Vega20 man bauen und verkaufen will. Vega scheint schließlich insgesamt doch sehr Pannen-beladen, weswegen man sich auch entscheiden könnte, gar nicht erst in die Breite, d.h. große Stückzahlen, damit zu gehen (weil wahrscheinlich eh nicht wirklich wirtschaftlich machbar). Warum sollte nicht V20 eine Art "Feigenblatt" sein können, um eben das Segment nicht ganz ausfallen zu lassen, während man mit möglichst vielen Ressourcen an Navi arbeitet und ggf. schon die ersten Chips damit früher in den Markt bringt (und da, wo man wahrscheinlich bessere ökonomische Aussichten hat)? Wenn Navi20 so spät eingeplant ist wie Vega20, ergibt sich damit doch dann sowieso ein "gesunder" zeitlicher Abstand aus Produkt-Marketing-Sicht.

basix
2018-04-23, 15:55:27
Ich denke V20 wird doch ordentlich FP64 Performance liefern (wo man seit Hawaii nichts mehr gebracht hat) und dort eine Lücke stopfen. Compute ist Vega nämlich gar nicht so schlecht, wenn man RPM etc. noch dazurechnet. Noch ein paar AI-TensorCores dazu und fertig ist V20. Zusätzlich wird er wohl als 7nm Pipe-Cleaner benutzt. Ein imaginärer Mittelklasse-Chip mit Navi wird bei 4k Shadern nämlich irgendwo bei 250-300mm2 rauskommen. Somit wahrscheinlich ein bisschen kleiner als V20 aber nicht unähnlich. Hat Navi ebenfalls AI-Schaltungen, was ja glaube ich von Lisa Su angekündigt wurde, dient V20 hier ebenfalls zum vorspuren auf allen Ebenen (Architektur, HW, Software-Unterstützung).

Für mich wäre das am sinnvollsten: Profi-Features abdecken und vorspuren für Navi (sei es auf Architektur- und/oder Fertigungsseite), damit Navi möglichst früh am Markt aufschlagen kann.

|MatMan|
2018-04-23, 15:57:53
Ende 2018 -> Turing
Anfang 2019 -> Navi, V20 und Ampere
Irgendwann 2020 -> NV 7nm-Gaming, AMDs 7nm-HighEnd.

Da gibts kein aggressives Wechseln auf 7nm seitens NV. Wozu auch, ist doch gar nicht nötig.
Typische Prognose von dir: extrem optimistisch für AMD, sehr konservativ für nVidia :tongue: Wir (und AMD) werden froh sein, wenn sie am 31.12. eine lauffähige V20 Karte in die Kameras halten können :wink: Viel mehr wird da bis Ende des Jahres nicht passieren - alles andere wäre eine positive Überraschung.

Danke @maximus_hertus - so in etwa sehe ich das auch, hatte nur keine Zeit es so im Detail aufzuschreiben.

Sobald man mit 7nm wirtschaftlich GPUs fertigen kann (und es Kapazitäten gibt), wird nVidia GPUs damit vorstellen. Die Vorteile des Fertigungsprozesses sind einfach zu groß, als dass man sie ignorieren könnte. Turing hat denn eben eine eher kurze Laufzeit wie Maxwell.

AffenJack
2018-04-23, 16:29:02
Sobald man mit 7nm wirtschaftlich GPUs fertigen kann (und es Kapazitäten gibt), wird nVidia GPUs damit vorstellen. Die Vorteile des Fertigungsprozesses sind einfach zu groß, als dass man sie ignorieren könnte. Turing hat denn eben eine eher kurze Laufzeit wie Maxwell.

So spät wie Turing kommt, könnte es schon sein, dass Nvidia einige Monate später kommen wird. So 3- max 6 Monate Vorteil für Navi sind schon möglich, aber 1 Jahr wie in Hots Traumvorstellung wird AMD bestimmt nicht haben. Daher glaube ich eben an Q319 Navi, Ende Q419-Q1 2020 Nvidia.

HOT
2018-04-23, 16:34:47
Wir werden uns an diese Situation (dann leider wohl nicht?) erinnern, wenn ihr dann Ende 2020 eine post-Turing-Karte in Händen haltet...
Selbst wenn Navi erst nach Mitte 2019 kommt, könnte NV immer noch mehr als ein Jahr benötigen...
Natürlich kann das so sein, dass Navi erst Weihnachten 2019 kommt und NV direkt Anfang 2020 mit der post-Turing-Generation kommt. Es ist aus meiner Sicht einfach total unrealistisch.

NV hat sich dafür entschieden September/Oktober 2018 12nm-Gamingkarten auf den Markt zu werfen, während AMD sehr früh auf 7nm gesetzt haben wird (sicherlich auch fertigungsbedingt, da AMD ja mit GloFo ja andere Möglichkeiten hat als NV mit der Apple und Qualcomm-Konkurrenz bei TSMC im Hintegrund?).
Wir erinnern uns mal an Maxwell. Hier war der GM204 bereits Oktober 2014 auf dem Markt (gleicher Zeitraum seit Tapeout übrigens wie dieses Jahr), der Nachfolger erschien aber erst Juni 2016. Die Fertigungsprozesse werden schwerer zu beherrschen, die Maskenerzeugung ist teurer und erfordert mehr Mannstunden. Warum sollte man das jetzt anders machen, wenn man ein komplettes Lineup plant? Es ist einfach völlige Träumerei NV würde da aggressiv vorgehen, das macht aus wirtschaftlicher Sicht einfach überhaupt keinen Sinn.
AMD hingegen hat sich gegen 12nm entschieden und das auf ganzer Linie. Dafür behält man alte Chips länger bei (Polaris) und setzt auf sehr wenige Produkte, die sich immer wieder ergänzen. Mit der Strategie macht es auch viel mehr Sinn, so früh wie möglich auf eine neue Fertigung zu setzen - allein aus Kostensicht. Zudem kann man es mit GloFo im Hingrund ja auch einfach machen.

mboeller
2018-04-23, 16:50:24
Ein imaginärer Mittelklasse-Chip mit Navi wird bei 4k Shadern nämlich irgendwo bei 250-300mm2 rauskommen.

eine 300mm² GPU in 7nm ist in der Fertigung sehr wahrscheinlich so teuer wie eine 480mm² GPU in 14nm, also definitiv keine Mittelklasse GPU.

In 7nm erwarte ich nicht mehr als 200mm² bei einer Mittelklasse GPU. Das gleiche gilt übrigens für eine Konsolen-APU.

200mm² in 7nm entspricht theoretisch sowieso 540mm² in 14nm.
Da man das Speicherinterface etc... aber nicht schrumpfen kann ist der Skalierungsfaktor in Wirklichkeit aber geringer als 2,7

basix
2018-04-23, 17:12:42
Heute ist "Mittelklasse" 300-350mm2, in 7nm vielleicht 250-300mm2. Weil genau genommen ist GP104 Mittelklasse von der Die Size her als auch von der Nomenklatur (Link (https://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/3)), Nvidia verkauft es uns einfach zu High End Preisen (weil sie es können). Vielleicht haben wir uns beim Mittelklasse Begriff missverstanden. Es wird aber eher nicht 200mm2, weil du da nämlich sehr Mühe haben wirst ein 256 bit SI hinzuklatschen (zu wenig Platz für I/O Pads). Bei Polaris 10 mit 232mm2 geht das vielleicht noch, mit 16 GBit/s GDDR6 und den zusätzlichen Pads von GDDR6 vermutlich nicht oder wesentlich schwieriger. Kleineres Die ist immer besser, aber gewisse Nebenbedingungen kannst du nicht umgehen. Dass ein Mittelklasse Navi mit HBM kommt halte ich für unwahrscheinlich, da immer noch zu teuer.

Edit:
4k Shader werden in 7nm Mittelklasse sein, weil das wären im Vergleich zu heute ca. Faktor 2x und halt ziemlich genau ein Vega 10 Shrink + Navi Architektur. 484mm2 auf 7nm geschrinkt sind gut im Rahmen für Mittelklasse, vielleicht reichen dafür wirklich 200mm2. Bleibt das Problem mit den I/Os (wenn es denn wirklich eines ist). Ausnahme bezüglich Anzahl Shader wäre, wenn Navi analog zu Maxwell / Pascal deutlich mehr Leistung aus jedem Shader herausholt. Sei dies per höherer IPC oder mehr Takt. Aber auch hier fragt sich, wie breit das SI sein muss um die entsprechende Performance aus dem Chip herauszuholen und wie gross der Chip, damit das SI Platz hat. Das SI shrinken kann man schon (SI Logik), bei den I/O Treibertransistoren ist es aber fast nicht möglich, vor allem wenn man die Taktfrequenz noch erhöht.

Ailuros
2018-04-23, 17:19:53
So spät wie Turing kommt, könnte es schon sein, dass Nvidia einige Monate später kommen wird. So 3- max 6 Monate Vorteil für Navi sind schon möglich, aber 1 Jahr wie in Hots Traumvorstellung wird AMD bestimmt nicht haben. Daher glaube ich eben an Q319 Navi, Ende Q419-Q1 2020 Nvidia.

Fuer Tagtraeumer gibt es stets die ignore Funktion ;) Sonst jein zum obrigen denn es haengt vom Zielmarkt ab.

Digidi
2018-04-23, 18:29:51
AMD könnte mit GloFo Glück haben. AMD ist glaub ich ein großer Kunde dort, die haben dort Priorität. TSMC hat zwar viele Kapazitäten aber auch sehr anspruchsvolle Kunden, das könnte für Nvidia zum Problem werden wenn Apple z.B. die Produktion hochfährt. Nvidia ist da nur einer von vielen und hat wahrscheinlich nicht gerade die größte Bestellmenge.

N0Thing
2018-04-23, 20:05:09
Hat sicher zwei Seiten. AMD ist der Hauptkunde bei GloFo, evtl. sogar der einzige Kunde für die neuesten Prozesse, kann evtl. Einfluß auf die Features des Prozesses nehmen und kann ihn von Anfang an nutzen.
Nvidia muss sich bei TSMC den Platz mit zahlungskräftigen Konkurrenten wie Apple und Qualcomm teilen, bzw. hinten anstehen, muss dafür aber auch nicht die Anlaufschwierigkeiten ausbügeln und die hohen Anfangskosten schultern.

LadyWhirlwind
2018-04-23, 22:07:13
Hat sicher zwei Seiten. AMD ist der Hauptkunde bei GloFo, evtl. sogar der einzige Kunde für die neuesten Prozesse, kann evtl. Einfluß auf die Features des Prozesses nehmen und kann ihn von Anfang an nutzen.
Nvidia muss sich bei TSMC den Platz mit zahlungskräftigen Konkurrenten wie Apple und Qualcomm teilen, bzw. hinten anstehen, muss dafür aber auch nicht die Anlaufschwierigkeiten ausbügeln und die hohen Anfangskosten schultern.

Möglicherweise muss AMD die Anfangskosten nur indirekt tragen, da das wafer supply agreement das möglicherweise z.T. auffängt, weil die Pflicht liefern zu können müssen hat GF ja wahrscheinlich, da wird es auch regeln zum Preis geben denk ich mal.

reaperrr
2018-04-23, 22:33:15
Ausnahme bezüglich Anzahl Shader wäre, wenn Navi analog zu Maxwell / Pascal deutlich mehr Leistung aus jedem Shader herausholt. Sei dies per höherer IPC oder mehr Takt. Aber auch hier fragt sich, wie breit das SI sein muss um die entsprechende Performance aus dem Chip herauszuholen und wie gross der Chip, damit das SI Platz hat.
Alles andere als ein 256bit SI wäre eine ziemliche Überraschung.
Mit 16Gbps-Speicher käme man damit knapp über Vega64-Bandbreite.

Was die Anzahl an CUs angeht, wie du schon richtig sagst werden sie wohl durch das SI eine Mindest-Chipfläche haben, die sie möglichst sinnvoll füllen müssen. Also selbst wenn 48-52 Vega-NCUs (mit höherem Takt) für die Bandbreite theoretisch völlig ausreichend wären, werden sie wohl entweder 64 verbauen, oder die CUs auf mehr IPC und/oder Takt trimmen und damit die Fläche pro CU erhöhen.

Mancko
2018-04-24, 00:03:59
Wir werden uns an diese Situation (dann leider wohl nicht?) erinnern, wenn ihr dann Ende 2020 eine post-Turing-Karte in Händen haltet...
Selbst wenn Navi erst nach Mitte 2019 kommt, könnte NV immer noch mehr als ein Jahr benötigen...
Natürlich kann das so sein, dass Navi erst Weihnachten 2019 kommt und NV direkt Anfang 2020 mit der post-Turing-Generation kommt. Es ist aus meiner Sicht einfach total unrealistisch.

NV hat sich dafür entschieden September/Oktober 2018 12nm-Gamingkarten auf den Markt zu werfen, während AMD sehr früh auf 7nm gesetzt haben wird (sicherlich auch fertigungsbedingt, da AMD ja mit GloFo ja andere Möglichkeiten hat als NV mit der Apple und Qualcomm-Konkurrenz bei TSMC im Hintegrund?).
Wir erinnern uns mal an Maxwell. Hier war der GM204 bereits Oktober 2014 auf dem Markt (gleicher Zeitraum seit Tapeout übrigens wie dieses Jahr), der Nachfolger erschien aber erst Juni 2016. Die Fertigungsprozesse werden schwerer zu beherrschen, die Maskenerzeugung ist teurer und erfordert mehr Mannstunden. Warum sollte man das jetzt anders machen, wenn man ein komplettes Lineup plant? Es ist einfach völlige Träumerei NV würde da aggressiv vorgehen, das macht aus wirtschaftlicher Sicht einfach überhaupt keinen Sinn.
AMD hingegen hat sich gegen 12nm entschieden und das auf ganzer Linie. Dafür behält man alte Chips länger bei (Polaris) und setzt auf sehr wenige Produkte, die sich immer wieder ergänzen. Mit der Strategie macht es auch viel mehr Sinn, so früh wie möglich auf eine neue Fertigung zu setzen - allein aus Kostensicht. Zudem kann man es mit GloFo im Hingrund ja auch einfach machen.

Klingt wieder mal nach typischen Months ahead of Competition wie beim letzten Mal *hust*. Da Roy Taylor und Raja nicht mehr da sind sollte AMD dich fürs Marketing einstellen.

Für alle anderen bei Verstand gilt, dass AMD erstmal den Druck hat zu liefern. Bis dahin ist alles Vapoware und die Konkurrenz wie gehabt Chef im Ring.

|MatMan|
2018-04-24, 00:41:56
Wir werden uns an diese Situation (dann leider wohl nicht?) erinnern, wenn ihr dann Ende 2020 eine post-Turing-Karte in Händen haltet...
Selbst wenn Navi erst nach Mitte 2019 kommt, könnte NV immer noch mehr als ein Jahr benötigen...
Natürlich kann das so sein, dass Navi erst Weihnachten 2019 kommt und NV direkt Anfang 2020 mit der post-Turing-Generation kommt. Es ist aus meiner Sicht einfach total unrealistisch.

NV hat sich dafür entschieden September/Oktober 2018 12nm-Gamingkarten auf den Markt zu werfen, während AMD sehr früh auf 7nm gesetzt haben wird (sicherlich auch fertigungsbedingt, da AMD ja mit GloFo ja andere Möglichkeiten hat als NV mit der Apple und Qualcomm-Konkurrenz bei TSMC im Hintegrund?).
Wir erinnern uns mal an Maxwell. Hier war der GM204 bereits Oktober 2014 auf dem Markt (gleicher Zeitraum seit Tapeout übrigens wie dieses Jahr), der Nachfolger erschien aber erst Juni 2016. Die Fertigungsprozesse werden schwerer zu beherrschen, die Maskenerzeugung ist teurer und erfordert mehr Mannstunden. Warum sollte man das jetzt anders machen, wenn man ein komplettes Lineup plant? Es ist einfach völlige Träumerei NV würde da aggressiv vorgehen, das macht aus wirtschaftlicher Sicht einfach überhaupt keinen Sinn.
AMD hingegen hat sich gegen 12nm entschieden und das auf ganzer Linie. Dafür behält man alte Chips länger bei (Polaris) und setzt auf sehr wenige Produkte, die sich immer wieder ergänzen. Mit der Strategie macht es auch viel mehr Sinn, so früh wie möglich auf eine neue Fertigung zu setzen - allein aus Kostensicht. Zudem kann man es mit GloFo im Hingrund ja auch einfach machen.
Polaris und Pascal (übrigens schon Mai 2016) kamen etwa ein Jahr nach iPhone 6s bzw. Galaxy S6 auf den Markt. Die beiden Smartphones hatten jeweils einen SoC in 16 bzw. 14nm. Du meinst also die "Brot und Butter"-GPU kommt bei AMD ziemlich direkt im neuen 7nm Prozess, ohne dass man grob ~1 Jahr zum Reifen des Prozesses braucht? Die anfangs knappen Kapazitäten (und hohen Wafer-Preise) nimmt AMD nicht lieber für Profi-Produkte wie V20 und/oder Zen2? Ich bin gespannt!

Dein Wirtschaftlichkeits-Argument zieht leider irgendwie nicht. Wenn AMD eine 7nm GPU wirtschaftlich herstellen kann (d.h. Perf/$ ist deutlich besser als die aktuelle Generation), dann wird das wohl auch nVidia hinbekommen und tun - sonst würden sie ja Geld auf der Straße liegen lassen. Genau da ist nVidia aggressiv, denn es geht dabei um die Erhöhung der eigenen Marge.

Kommt NAVI wirklich erst Q4 2019, wäre die Durststrecke für AMD schon ziemlich lang...

N0Thing
2018-04-24, 00:55:21
Möglicherweise muss AMD die Anfangskosten nur indirekt tragen, da das wafer supply agreement das möglicherweise z.T. auffängt, weil die Pflicht liefern zu können müssen hat GF ja wahrscheinlich, da wird es auch regeln zum Preis geben denk ich mal.

Das kann ich mir gut vorstellen, dass es Abkommen über die Preise der Wafer gibt.
Das würde aber auch nicht weiterhelfen, wenn der Prozess zu Beginn Probleme bereitet und man einfach keine, oder nicht genug funktionierende Chips aus dem Wafer bekommt. Da hat Nvidia den Vorteil, dass Firmen wie Apple&Co die ersten Probleme in der Praxis ausbaden und Nvidia ein Jahr später einen halbwegs ausgereifen, wenn auch nicht billigen Prozess nutzen kann. Und wenn ich nicht recht erinnere, ist der mögliche Vorsprung von AMD mit GloFos 7nm der erste seit vielen Jahren und somit eher die Ausnahme von der Regel.

BoMbY
2018-04-24, 01:33:12
Kommt NAVI wirklich erst Q4 2019, wäre die Durststrecke für AMD schon ziemlich lang...

Außer NVidia ist so nett und streicht noch eine Generation an Gamer-GPUs - Poor Volta ... RIP.

Was den Zeitrahmen angeht ist es schwer zu sagen, aber Q2/2019 ist nicht unrealistisch. Es steht ja nicht mal fest wo AMD Navi fertigen lassen wird. GloFo ist wahrscheinlich, aber GPUs können im Gegensatz zu CPUs noch am wahrscheinlichsten bei TSMC gefertigt werden, und Vega20 scheint ja auch dort zu laufen.

Ein erster Tapeout von Navi könnte lange stattgefunden haben, oder auch nicht - AMD scheint jedenfalls auch einige Zeit und Geld in Hardware-Simulation zu stecken, um Geld für verfrühte Tapeouts zu sparen.

robbitop
2018-04-24, 07:44:29
@matman
Wobei mit V20 und Zen 2 / ryzen 3000 schon 2 sehr anspruchsvolle Chips von AMD für Q1 2019 vorgesehen sind. Wenn das entsprechend funktioniert, spricht zumindest die Fertigung nicht gegen einen 2019 Q2 oder 3 Navi. Zumindest wenn der nur im Mainstream (gt106 widersacher) mitspielen muss.

unl34shed
2018-04-24, 09:31:44
Sollte V20 nicht noch diese Jahr kommen? Weil hier von Q1 19 ausgegangen wird.

AffenJack
2018-04-24, 10:53:29
Sollte V20 nicht noch diese Jahr kommen? Weil hier von Q1 19 ausgegangen wird.

Nur Samples hat AMD angekündigt, dementsprechend Produkte später.

Zu 7nm und Navi:
Ich halte die Kapazitätssituation für ähnlich egal, ob AMD Navi bei TSMC oder Gf produzieren wird. TSMC fängt gerade an A12 zu produzieren und wird ab Q1,Q2 19 dann auch genug Kapazitäten für andere haben -> Navi Q3 19.
Gf könnte Ende Q4 mit der Produktion anfangen, aber auch da haben andere Produkte Priorität. Die ersten Kapazitäten wird alle Zen2 brauchen und Priorität genießen. Ist eigentlich klar, wann ein RR Nachfolger kommt, nicht dass der auch mit rein spielt. So schnell geht rampen der Kapazität aber auch nicht, da dürfte auch erst in Q2 genug Kapazität für Navi verfügbar sein, daher -> Navi Q3 19.

HOT
2018-04-24, 11:28:06
Navi kommt sicherlich von GloFo. Es kommen ja schon evtl. V20 und der PS5-SoC von TSMC. Wann Navi erscheint, wird davon abhängen, wie stark GloFo auf 7nm umsatteln kann, denn Priorität in der Produktion hat sicherlich Matisse, den braucht man in erster Linie für Epyc2.
Navi ist nur ein popeliger Grafikchip, das wird sicherlich kein Problem sein, den fertigzustellen. Der hat eher das Problem der Fertigungskapazität bei GloFo, daher kann man denke ich schon davon ausgehen, dass der Q2 erscheinen wird, sicherlich eher zum Ende hin. Dann laufen bei GloFo noch 12nm PR und Picassos vom Band und die werden durch Matisse und Navi ergänzt, zusätzlich werden noch P11/12 produziert (evtl. bei Samsung). V20 kommt dann mMn als V10-Ersatz abgespeckt auf 3 Stacks irgendwann Mitte 2019 auch in den GPU-Markt.

BoMbY
2018-04-24, 13:27:17
Also die Fab8 von Glofo hatte 2017 wohl eine Kapazität von 60.000 Wafer/Monat, und sollte bis Mitte diesen Jahres auf ca. 72.000 Wafer/Monat ausgebaut werden. (https://www.anandtech.com/show/11117/globalfoundries-to-expand-capacities-build-a-fab-in-china)

Da 7LP ohne EUV erst mal Quad-Pattering nutzt, und 14nm/12mn wohl Tripple-Pattering, dürfte die 7LP-Kapazität auf jeden Fall alleine schon deshalb geringer sein, selbst wenn die komplette Fertigung 7nm-kompatibel ist. Wird auf jeden Fall spannend was die effektiv leisten können werden.

Unicous
2018-04-24, 13:34:21
In dem verlinkten, über ein Jahr alten, Text steht weder etwas von 72K Wafern noch von Mitte des Jahres. Im Gegenteil steht dort 80K und (sorry habe mich verguckt, das war Fab1 mit den 80K) Anfang des Jahres. Aller Voraussicht nach wurde die Erweiterung auch schon abgeschlossen, GF hat das einfach nicht weiter verlautbart.

Gipsel
2018-04-24, 13:53:49
Da 7LP ohne EUV erst mal Quad-Pattering nutzt, und 14nm/12mn wohl Tripple-Pattering, dürfte die 7LP-Kapazität auf jeden Fall alleine schon deshalb geringer sein, selbst wenn die komplette Fertigung 7nm-kompatibel ist. Wird auf jeden Fall spannend was die effektiv leisten können werden.GF nutzt für 14/12nm afaik nur double patterning. Und aus Kostenspargründen soll auch 7LP vorwiegend double patterning benutzen (https://fuse.wikichip.org/news/641/iedm-2017-globalfoundries-7nm-process-cobalt-euv/4/) (quad patterning nur um den 30nm fin pitch hinzubekommen, komplette BEOL inklusive M0 nur double patterning). Damit limitiert man zwar den Pitch der Interconnects auf 40nm (und damit die erreichbaren Flächeneinsparungen; im Vergleich zu intel entspricht das eher deren 10nm Prozeß), aber es geht schneller und ist billiger (und deswegen bringt die zweite 7nm-Generation auch weitere Flächeneinsparungen, die dann EUV vermutlich erstmal nur für die kritischen metal layer nutzen wird [in M0, M1, M2, M3 wird double patterning durch EUV single exposure ersetzt, wodurch dort dann der Pitch verringert werden kann]).

BoMbY
2018-04-24, 16:34:02
In dem verlinkten, über ein Jahr alten, Text steht weder etwas von 72K Wafern noch von Mitte des Jahres. Im Gegenteil steht dort 80K und (sorry habe mich verguckt, das war Fab1 mit den 80K) Anfang des Jahres. Aller Voraussicht nach wurde die Erweiterung auch schon abgeschlossen, GF hat das einfach nicht weiter verlautbart.

Der Zeitraum für den 20%-Ausbau wurde da zu der Zeit als H1/2018 angegeben:

https://i.imgur.com/6VrWuDr.png

Und zu dem Zeitpunkt war geplant, dass die 7LP Risk Production auch jetzt irgendwann beginnt:

https://i.imgur.com/iSjRtkb.png

Unicous
2018-04-24, 16:47:57
Und was beweist das? H1 bedeutet Januar-bis Juni. AT sagte Early 2018. Das ist für mich Q1 und um ehrlich zu sein ist es IMHO noch nicht einmal mehr März sondern eine Zeitspanne von Januar bis Februar.

Anyway. Worauf willst du eigentlich hinaus? Auch zum Double Patterning hatte Gipsel schon etwas gesagt, da hatte ich auch gestutzt, weil ich es anders im Kopf hatte.

So wie ich das sehe, ist 7nm bei GF kein Problem weder von der Kapazität noch von der Komplexität (durch tried and true DP und zum Großteil DUV), denn sie gehen einen Mittelweg. Doof nur, dass sie trotzdem hinter TSMC und Samsung im Hintertreffen sind.

Falls AMD von gestern auf heute massenweise Wafer ordert im Vergleich zu den vorherigen Jahren könnte es durchaus Probleme geben, aber das sehe ich nicht, es gibt soweit ich weiß keine Lieferschwierigkeiten bei den APUs/CPUs und bei den GPUs gehe ich davon aus, dass AMD nicht "genug" geordert hat bzw. die Nachfrage unterschätzt hat. Nvidia hat im Übrigen viel mehr Probleme sich wafer zu sichern (bei einem eh schon großen Auftragsvolumen). Denn sie haben bei TSMC ordentlich Konkurrenz was die wafer allocations angeht. Nicht umsonst lassen sie bei Samsung ihre kleinen Pascal Chips herstellen.

tm0975
2018-04-24, 20:04:19
Nicht umsonst lassen sie bei Samsung ihre kleinen Pascal Chips herstellen.

ist das gesichert?

Unicous
2018-04-24, 20:12:37
Für einen kurzen Moment dachte ich, dass mich mein Gedächtnis trügt.:eek:

101% gesichert nicht.

Technische Basis ist der GP108-Chip mit Pascal-Grafikarchitektur, der wie der GP107 der Geforce GTX 1050 (Ti) bei Samsung im 14LPP-Prozess gefertigt werden soll.
https://www.golem.de/news/nvidia-grafikkarte-die-geforce-gt-1030-tritt-gegen-amds-radeon-rx-550-an-1705-127595.html

I’ll address what’s likely the elephant in the room first, which is the manufacturing process. To date all Pascal GPUs have been fabbed over at TSMC on their 16nm FinFET process. GP107 is not one of those GPUs. Instead, it’s fabbed on a 14nm process – NVIDIA’s specification sheet doesn’t technically state whose process – but by simple elimination it’s a very safe bet that they’re making the chip over at Samsung.

https://www.anandtech.com/show/10768/nvidia-announces-geforce-gtx-1050-ti-gtx-1050

bbott
2018-04-24, 22:52:10
Die Folien würden im Idealfall folgendes bedeuten:

Ryzen 7 1800X -> Ryzen 7 3700X

3,6 GHz (Base) -> x1,4 -> 5,04 GHz (Base)
4,0 GHz (Boost) -> x1,4 -> 5,6 GHz (Boost)


Ryzen 7 1800X -> reines hypothetischer Shrink

95W -> x0,4 -> 38W


Ein doppelter Ryzen mit 16 Kernen würde 76W benötigen, da wäre noch Platz für IPC-Verbesserungen. Die Folien lassen die Erwartungen ganz schön nach oben schnellen.

tm0975
2018-04-24, 23:46:30
in der regel ist das ganze als entweder oder zu werten. wir sehen also entweder 5 ght base bei ca 100 watt oder ca. 3,5 ghz base bei 35 watt. beides ganz sicher nicht. mich interessiert da aber eher letzteres.

Gipsel
2018-04-24, 23:51:54
Die Folien würden im Idealfall folgendes bedeuten:

Ryzen 7 1800X -> Ryzen 7 3700X

3,6 GHz (Base) -> x1,4 -> 5,04 GHz (Base)
4,0 GHz (Boost) -> x1,4 -> 5,6 GHz (Boost)


Ryzen 7 1800X -> reines hypothetischer Shrink

95W -> x0,4 -> 38W


Ein doppelter Ryzen mit 16 Kernen würde 76W benötigen, da wäre noch Platz für IPC-Verbesserungen. Die Folien lassen die Erwartungen ganz schön nach oben schnellen.Nie und nimmer.
Solche Angaben sind immer entweder oder, nicht beides. Und für größere Chips kann man häufig wegen dem Interconnect die Frequenzsteigerungen nicht voll mitnehmen. Wahrscheinlich wird es wieder so kommen wie meistens: Man konzentriert sich aus den genannten Gründen auf die Stromsparaspekte und schmeißt dafür bei nur moderat gestiegener Frequenz (Turbo geht vielleicht höher) mehr Transistoren auf das Problem um am Ende wieder grob die gleiche Verlustleistung für den Gesamtchip zu verbraten.
Und bei einem beworbenen Area-Scaling von <0,4, benötigt man auch eine um 60% gesunkene Verlustleistung pro Transistor, damit am Ende ein ähnlich großer Chip wieder einen ähnlichen Verbrauch hat. ;)

Screemer
2018-04-24, 23:54:48
del

reaperrr
2018-04-25, 00:20:30
Und bei einem beworbenen Area-Scaling von <0,4, benötigt man auch eine um 60% gesunkene Verlustleistung pro Transistor, damit am Ende ein ähnlich großer Chip wieder einen ähnlichen Verbrauch hat. ;)
Das wird aber höchstwahrscheinlich der best-case für leicht shrinkbare Elemente wie z.B. Caches sein, wenn die Skalierung des gesamten Chips inkl. Speicherinterface-PHYs etc. am Ende bei <0,5 liegt, wäre das schon ein Erfolg.

Trotzdem, wenn ich nach den mm² der CUs in 14LPP (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11678480&postcount=13322) gehe, würden 64 Vega-CUs ohne Änderungen in 7nm weniger Fläche belegen als die 36 CUs von Polaris in 14LPP, und die 64 ROPs sowie 4MB L2 sollten sich ebenfalls gut shrinken lassen.

Da ist wirklich noch ne Menge Luft für IPC-Verbesserungen in 7nm, und sei es nur, dass sie Register pro CU verdoppeln und sich nur noch 2 statt 3 CUs einen L1-Cache-Slice teilen.
Selbst ein auf satte 8 MB verdoppelter L2$ würde nur so viel Platz brauchen wir ~3 MB in 14LPP, das wäre auch noch eine Möglichkeit, die Speicherzugriffe zu reduzieren, was wiederum bei gleicher Bandbreite Performance erhöht und Verbrauch senkt, da Cache halt schneller und sparsamer ist als der Zugriff auf den VRAM (gerade bei GDDR statt HBM).

iuno
2018-04-25, 02:28:14
Trotzdem, wenn ich nach den mm² der CUs in 14LPP (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11678480&postcount=13322) gehe, würden 64 Vega-CUs ohne Änderungen in 7nm weniger Fläche belegen als die 36 CUs von Polaris in 14LPP, und die 64 ROPs sowie 4MB L2 sollten sich ebenfalls gut shrinken lassen.
Mal unabhaengig vom Platzbedarf waere es auch wuenschenswert, wenn die neue midrange GPU mindestens auf Vega Niveau waere, denn das ist von Nvidia auch wieder zu erwarten. Ich hoffe allerdings darauf, dass AMD auf eine bessere Idee kommt, als zum dritten mal einen aehnlichen Chip mit 64 CUs zu bringen, auch wenn er diesmal nochmal kleiner und billiger waere...

sei es nur, dass sie Register pro CU verdoppeln und sich nur noch 2 statt 3 CUs einen L1-Cache-Slice teilen.
Was meinst du damit? Es hat doch seit jeher jede GCN CU ihre eigenen 16 kiB an L1$?!

Digidi
2018-04-25, 02:58:58
In vega schlummern noch so viele Features. Die können ruhig einen kleineren Vega bringen und dafür mehr in Treiberarbeit investieren um endlich Mal die "next generation Geometry Engine" zum laufen zu bringen.

TheAntitheist
2018-04-25, 04:50:27
In vega schlummern noch so viele Features. Die können ruhig einen kleineren Vega bringen und dafür mehr in Treiberarbeit investieren um endlich Mal die "next generation Geometry Engine" zum laufen zu bringen.
ich glaub das wurde hier schon 1000x gesagt, das geht nicht über den Treiber sondern nur über die APIs...

Digidi
2018-04-25, 05:34:23
ich glaub das wurde hier schon 1000x gesagt, das geht nicht über den Treiber sondern nur über die APIs...
Das zahle ich zur Treiberarbeit ;)

mboeller
2018-04-25, 07:16:37
IMHO guter Artikel zum 7nm Prozess von GF:

https://fuse.wikichip.org/news/641/iedm-2017-globalfoundries-7nm-process-cobalt-euv/

beim 7nm Prozess gibt es anscheinend auch eine HPC Variante der noch mehr Takt erlaubt, dafür aber "säuft wie ein Loch"; siehe Seite 2 und dazu auch noch 50% mehr Platz braucht als der normale 7nm Prozess mit 0,37x Skalierung.

Soweit ich mich erinnere gibt es vom 14nm Prozess ja nur die SoC-Variante die auf Seite 1 als Vergleich genommen wird, oder?

Gipsel
2018-04-25, 09:10:45
IMHO guter Artikel zum 7nm Prozess von GF:

https://fuse.wikichip.org/news/641/iedm-2017-globalfoundries-7nm-process-cobalt-euv/

beim 7nm Prozess gibt es anscheinend auch eine HPC Variante der noch mehr Takt erlaubt, dafür aber "säuft wie ein Loch"; siehe Seite 2 und dazu auch noch 50% mehr Platz braucht als der normale 7nm Prozess mit 0,37x Skalierung.

Soweit ich mich erinnere gibt es vom 14nm Prozess ja nur die SoC-Variante die auf Seite 1 als Vergleich genommen wird, oder?Den Artikel hatte ich gerade oben (#562) schon mal verlinkt ;).
Im Übrigen steht da, daß bei GFs 14nm auch 9T-Standardzellen zur Nutzung kommen (7.5T Bibliotheken gibt es wohl auch, aber für die kritischen Regionen der AMD-Chips dürfte 9T zum Einsatz kommen). Die relativ gute Skalierung auf ein gutes Drittel der Fläche bekommt man aber nur mit 6T-Zellen hin (also wenn man von größeren auf die kleineren wechselt; wie oben schon mal geschrieben passen die Abmaße des 7LP Prozesses eher zur 10nm Node), die bei der Performance natürlich nicht das Optimum darstellen.
Das läßt die Marketingzahlen gut aussehen (und wer weiß schon, auf welchen Mix aus 6T, 7.5T und 9T sich die Performance- und Verbrauchs-Angaben beziehen), in der Praxis muß sich das erst mal beweisen.

HOT
2018-04-25, 10:10:22
In vega schlummern noch so viele Features. Die können ruhig einen kleineren Vega bringen und dafür mehr in Treiberarbeit investieren um endlich Mal die "next generation Geometry Engine" zum laufen zu bringen.
Dass dieses Märchen immer noch herumgeht... der Treiber bildet schon VS/GS über die Primitiveshader ab. Da kommt nichts mehr. Und ob da eine API kommt ist auch fraglich, da es sein kann, dass der PS-Support von Vega nicht dem entspricht, was die Entwickler eigentlich haben wollen und neu designt werden muss. V20 und Navi werden da schon Modifikationen drin haben. Bei V10 würd ich das Thema PS einfach abschreiben.

mboeller
2018-04-25, 10:14:28
Den Artikel hatte ich gerade oben (#562) schon mal verlinkt ;).


Sorry, übersehen

basix
2018-04-26, 10:02:08
Ich gehe davon aus, dass AMD wieder dicht packt, also 6T nutzt soweit es geht. Nicht umsonst gibt es Gerüchte über 16C Die und 4MB L3 pro Core.

Meine Prognose:

16C @ 4.0 GHz All-Core @ +10-20% IPC
SC Boost ca. 5.0 GHz (schön fürs Marketing)


Eine Variante wäre, dass man nur auf 12C geht und dafür die Taktraten stärker anhebt. Für Server wäre das allerdings ein wenig schade. Vielleicht sie bringen die 16C nur beim Desktop-Topmodell und EPYC und der Grossteil wird 12C und 8C (teildefekte Die). Mit 16C würden sie Intel einfach massiv unter Druck setzen, da damit 64C im Serverbereich anstehen.


Edit:
Ups, falscher Thread :D Aber bei Navi gehe ich von ähnlichem aus: 8k Shader und 1.5+ GHz Takt. 25 TFLOPs FP32 und 50 TFLOPs FP16 sowie (grosse Speku) 100 TOPs INT8 hören sich gut an.

=Floi=
2018-04-27, 02:41:43
16C pro CCX ist zu viel. Das kann sich AMD heute nicht mehr leisten (mm2/node fortschritt) und selbst die 8C pro CCX wären ausreichend. Die 12C pro CCX machen am meisten sinn.

solange der SC boost raufgedreht wird kann man auch vom allcore turbo immer viel erwarten, weil der prozessor die taktraten kann. Das ist eine sehr geile entwicklung. :)


lol, da liest man nur den letzten post. :facepalm:

SKYNET
2018-04-27, 09:32:19
in der regel ist das ganze als entweder oder zu werten. wir sehen also entweder 5 ght base bei ca 100 watt oder ca. 3,5 ghz base bei 35 watt. beides ganz sicher nicht. mich interessiert da aber eher letzteres.

denke wird wohl der mittelwert werden... 65W bei 4.5Ghz grundtakt :redface:

OBrian
2018-05-03, 05:43:05
auch auf die Gefahr hin, als off-topic gebrandmarkt zu werden, frage ich mal nach Navi ;)

Was meint Ihr, kommt Navi früher als die nächste Mining-induzierte Preisexplosion? Die aktuelle ist ja noch nicht wirklich vorbei, ich hab momentan nicht so wahnsinnig Lust, eine 580 8 GB für 300 € zu kaufen (vor anderthalb Jahren für 200 wäre ok gewesen), das Preisniveau soll ja erst gegen Herbst in etwa auf "normal" ankommen, und je später es wird, desto eher könnte man dann auch gleich auf Navi warten. Theoretisch.

tm0975
2018-05-03, 07:18:13
ich wäre für eine nano auf basis vega 64 zu haben, aber da tut sich einfach nichts. navi werden wir erst in ca. einem jahr sehen. das ist ja auch schneller rum als man denkt.

Flusher
2018-05-03, 09:06:32
ich wäre für eine nano auf basis vega 64 zu haben, aber da tut sich einfach nichts. navi werden wir erst in ca. einem jahr sehen. das ist ja auch schneller rum als man denkt.

Ich hab ja noch insgeheim die Hoffnung, das Vega20 für die Gamer verwurstet wird.

tm0975
2018-05-03, 13:11:35
als radeon frontier? ich habe es leider verpasst, mit das teil zu kaufen, als es im mindstar für 775 € wegging. 16 gb hbm2 wären sicher eine tolle sache gewesen.

Also für unter 1000 € würde ich mir diese karte holen. 7 nm halten wieder etliche jahre...

BoMbY
2018-05-03, 22:15:42
Vielleicht relevant, vielleicht auch nicht: Super-SIMD und kleine und große CUs (http://www.freepatentsonline.com/20180121386.pdf)

danarcho
2018-05-04, 11:46:43
Super-SIMD, was für ein bescheuerter Name.
Ich denke, das betrifft (wenn überhaupt irgendetwas außerhalb der Bastelecke in der Forschungsabteilung) frühestens die Generation nach Navi.

Zum Inhalt: Liest sich wie eine Mischung aus GCN und Terascale, aber diesmal nur mit VLIW2. Man könnte es aber auch einfach als dual-issue betrachten, bei dem der Compiler angibt, ob die nächste Instruktion unabhängig ist. (Ich meine mich zu erinnern, dass Nvidia etwas ähnliches macht.) Dürfte ein neues instruction set erfordern.

AMDoderNvidia
2018-05-04, 13:02:55
Wie ist denn Eure Meinung zu dem hier: TSMC's stacked wafer tech could enable easy dual-GPU tech (https://www.tweaktown.com/news/61764/tsmcs-stacked-wafer-tech-enable-easy-dual-gpu/index.html)? Ich glaube nicht, dass sowas bereits in der nächsten CPU-Generation (Navi / Ampere bzw. Turing) eingesetzt wird.

N0Thing
2018-05-04, 13:10:49
Wie ist denn Eure Meinung zu dem hier: TSMC's stacked wafer tech could enable easy dual-GPU tech (https://www.tweaktown.com/news/61764/tsmcs-stacked-wafer-tech-enable-easy-dual-gpu/index.html)? Ich glaube nicht, dass sowas bereits in der nächsten CPU-Generation (Navi / Ampere bzw. Turing) eingesetzt wird.

So wie ich die Meldung bei Computerbase (https://www.computerbase.de/2018-05/tsmc-wafer-stacking/) verstanden habe, ist da keine Dual-GPU möglich, erst recht nicht easy. Vorerst wird dies wohl nur bei Chips zum Einsatz kommen, die keine Kühlung benötigen, denn die Chips liegen bei der Technik ja Kopf an Kopf.

Unicous
2018-05-04, 13:26:37
Vorerst wird dies wohl nur bei Chips zum Einsatz kommen, die keine Kühlung benötigen, denn die Chips liegen bei der Technik ja Kopf an Kopf.

So sieht es aus. Das ist ja dem Die-Stacking sehr ähnlich nur dass es früher im Herstellungsprozess passiert und damit einher gehen auch die Probleme die eben das Stacking mit sich bringt. Da werden sich die Mobile SoC-Hersteller für interessieren aber sicherlich nicht Nvidia und AMD (außer sie kleben zig Chiplets aneinander:freak:).

Aber immer wieder interessant zu sehen was einige "Journalisten" daraus machen.

https://www.pcgamesn.com/nvidia-amd-tsmc-3d-gpu

TSMC, the manufacturer of GPUs for both Nvidia and future AMD graphics cards, have announced a new wafer-stacking technology which could allow both companies to create massively more powerful graphics cards without increasing the size or density of their silicon.

Given the high yield of something like TSMC’s mature 16nm lithography it might not be beyond the realm of possibility for an old Pascal era chip to be 3D stacked, instantly doubling the core-count of the newborn GPU. Tasty. That would give multi-chip graphics cards a real boost, especially as they wouldn't actually need to appear as multi-GPU to the system.

Die aus der Luft gegriffenen Spekulationen hören damit nicht auf (sie werden nämlich ältere Prozesse dafür nutzen, weil die einen höheren Yield aufweisen. Dass die geringen Yieldraten vor allemd davon abhängen, dass zwei Wafer aufeinander gestapelt werden fällt ihm irgendwie nicht ein). Woher der werte Herr die Fantasie nimmt erstaunt mich aber durchaus.

SKYNET
2018-05-04, 14:36:47
ich frage mich, warum AMD nicht einfach 2x 2400G DIE auf ein träger klatschen und das ding als 2700G verkaufen mit "crossfire graphics inside" *mmhhhh*

HOT
2018-05-04, 15:15:42
Vielleicht relevant, vielleicht auch nicht: Super-SIMD und kleine und große CUs (http://www.freepatentsonline.com/20180121386.pdf)
Kleine CUs -> Navi, große CUs V20? :D.

unl34shed
2018-05-04, 15:26:16
ich frage mich, warum AMD nicht einfach 2x 2400G DIE auf ein träger klatschen und das ding als 2700G verkaufen mit "crossfire graphics inside" *mmhhhh*

Weil die dice dafür vermutlich nicht vorgesehen sind und die GPUs dank DDR4 dual Channel eher langsamer wären als der 2400G

SKYNET
2018-05-04, 17:26:30
Weil die dice dafür vermutlich nicht vorgesehen sind und die GPUs dank DDR4 dual Channel eher langsamer wären als der 2400G

naja, langsamer sicherlich nicht, aber ich gewissen sachen wos weniger auf bandbreite ankommt signifikant schneller, und mikroruckler sind ja inzwischen auch eher kaum bis garnichtmehr vorhanden, bei den dual lösungen.

Achill
2018-05-04, 17:43:56
naja, langsamer sicherlich nicht, aber ich gewissen sachen wos weniger auf bandbreite ankommt signifikant schneller, und mikroruckler sind ja inzwischen auch eher kaum bis garnichtmehr vorhanden, bei den dual lösungen.

Du hast den Ironie-Tag vergessen ...

--
Und das ganze hat irgendwie auch nichts mit NAVI Spekulation zu tun.

BoMbY
2018-05-08, 09:27:37
Jemand bei Beyond3D (https://forum.beyond3d.com/posts/2030679/) hat noch das Paper hier von 2014 (https://ieeexplore.ieee.org/document/6877245/) zur Super-SIMD gefunden: A Case for a Flexible Scalar Unit in SIMT Architecture (https://pdfs.semanticscholar.org/0114/fb72afbd9cc0bca35940beb21eda596aa5e0.pdf)

fondness
2018-05-21, 17:22:20
Es sieht so aus, als hätte Navi nur ein äußerst kurzes Leben. Schon 2020 soll eine "Next-Gen"-Architektur in 7nm+ erscheinen:

https://s9.postimg.cc/4mugtxp9r/amd-roadmap2020-2.jpg (https://postimages.org/)

tm0975
2018-05-21, 17:59:30
dann wissen wir aber auch, dass alles vor 2020 bulli-ähnliches gefrickel werden wird :-(

AffenJack
2018-05-21, 18:26:27
Es sieht so aus, als hätte Navi nur ein äußerst kurzes Leben. Schon 2020 soll eine "Next-Gen"-Architektur in 7nm+ erscheinen:

https://s9.postimg.cc/4mugtxp9r/amd-roadmap2020-2.jpg (https://postimages.org/)

Das heißt doch gar nix. Vega war auch die Next-Gen nach Polaris, trotzdem ist Polaris noch immer da. Nur weil man dem Teil hier noch keinen Namen gibt, würde ich da nix hineininterpretieren.

HOT
2018-05-21, 19:36:44
Es sieht so aus, als hätte Navi nur ein äußerst kurzes Leben. Schon 2020 soll eine "Next-Gen"-Architektur in 7nm+ erscheinen:

https://s9.postimg.cc/4mugtxp9r/amd-roadmap2020-2.jpg (https://postimages.org/)

Die ersetzen wieder alte Produkte mit neuen. Navi ist eben bis Mainstream und ersetzt alle 14nm-Chips und das danach in 2020 wird eben darüber angesetzt. Navi bleibt sicher auch wieder 3 Jahre auf dem Markt.

Botcruscher
2018-05-21, 20:34:01
Was ist bitte Mainstream? Vega ist ab Herbst noch Mainstream mit einer hypothetischen 2060GTX. Wenn der bis 2020 laufen soll kann AMD die GPU-Abteilung eigentlich auch ganz zu machen.

HOT
2018-05-21, 20:39:58
Richtig. Navi ersetzt alle Polaris und V10 - wie schon schrieb alle 14nm-Produkte. Als Gegner von was-auch-immer, das sehen wir dann. Natürlich laufen die Navis bis 2022 ca., da AMD sicherlich mit der 2020er-Architektur darüber ansetzen wird. Wie viele Chips und wie schnell ist jedoch komplett offen. Was soll daran denn problematisch sein?

Wird in Zukunft dann sowieso eher so laufen:
High-End -> TSMC -> Tick (in diesem Fall V20)
Mainstream -> GloFo -> Tock (Navi)
High-End 2020 -> TSMC -> Tick (neue Architektur 2020)
da GloFo ja immer etwas später dran ist bei neuen Prozessen.

Nach Turing wird NV sowieso erst 2020 dann wieder was für Gamer bringen. Passt also alles gut.

Botcruscher
2018-05-21, 21:06:23
Problematisch ist, dass die Kohle bei den Performance und Highendchips verdient wird und das Image des Marktführers den Mainstream bestimmt. NV hat Rekorde weil zwo mal das obere Segment der Enthusiasten konkurrenzlos bedient wird. Der Chip für die Normalversager im sub 300€ Segment dürfte maximal noch im Mobilbereich richtig Kohle bringen.
AMD hat dagegen zu wenige Chips und es dauert auch noch zu lange.

Der_Korken
2018-05-21, 21:23:03
Wie stark Navi und "Next-Gen" die Architektur verändern, kann momentan keiner sagen. Vega sollte auch schon ein großes Update sein, aber die alten Probleme sind größtenteils geblieben und auch bei der Effizienz blieb die Offenbarung aus. Es muss also mitnichten alles vor 2020 Müll sein. Dem R600 v1.0 (:D) folgen auch zwei gute Gens mit der gleichen Architektur.

amdfanuwe
2018-05-24, 13:05:51
Vega mit HBCC und einigen anderen nicht genutzten Features, z.b. DirectX-Featureset 12_1, war doch eher ein experimental Chip.
Irgendwo muß man ja anfangen damit die Softwareentwickler sich an die Zukunft gewöhnen können.
Ansonsten werden die jetzt gefundenen Flaschenhälse in der nächsten Generation beseitigt.
Navi könnte da schon wesentlich besser als Vega daherkommen.

Nosferatu1
2018-05-24, 13:45:40
Wie viel schneller wird navi im gegensatz zur 1080ti? :)

Locuza
2018-05-24, 13:51:50
Ungefähr minus 20%. :ucatch:

Nosferatu1
2018-05-24, 13:54:29
Was? :O jetzt ernshaft? oder are you kidding me?

Locuza
2018-05-24, 14:20:34
Niemand hat eine Ahnung.
In der Gerüchteküche fliegte zuletzt herum, dass AMD mit Navi wie damals bei Polaris maximal einen Mittelklasse Chip auflegen wird, welcher ungefähr Vega10-Leistung besitzen soll.

Wenn das stimmt, dann gibt es 2019 von AMD nichts was eine 1080Ti schlagen würde, geschweige denn die Turing-Nachfolger.

In before Chiplet und MCM Spekulationen auf einem Interposer.

Nosferatu1
2018-05-24, 14:26:50
Schade dann wird es nvidia für 4k gaming hab ich ja sonst keine optionen.

maximus_hertus
2018-05-24, 14:29:35
:facepalm::facepalm::facepalm:

Es gibt quasi gar nichts zu Navi, bis auf die 7nm-Fertigung. Warten wir bis 2019, dann dürfte es wenigsten Spekulationen mit ein wenig Substanz geben. Turing kommt (wahrscheinlich) im August und wir wissen selbst über den quasi nichts, nicht einmal die benutzte Fertigung ist zu 100% sicher.

Nosferatu1
2018-05-24, 14:38:30
August ich glaube an Winterrelease ^^ was sind das für 3 identische bilder?

reaperrr
2018-05-24, 17:37:20
August ich glaube an Winterrelease ^^ was sind das für 3 identische bilder?
Cpt. Picard in der berühmten Facepalm-Pose, quasi als facepalm-smiley.

Ich habe übrigens auch ewig gebraucht, bis meine Augen den so erkannt haben, auf meinem Notebook mit schlechterem Display habe ich das lange für einen Wurm, der aus einem Kackhaufen guckt, gehalten ;D

BlacKi
2018-05-24, 18:02:48
Wie viel schneller wird navi im gegensatz zur 1080ti? :)
wenns ein kleiner chip wird wie polaris, löst man erstmal vega ab und lässt wie polaris erstmal das highend unbesetzt wie 2016 das polaris tat. dann kommen die -20% schon hin.

Hübie
2018-05-24, 19:09:22
Oh man wie peinlich. Also wieder keine Lösung für anspruchsvolle Endkunden, wenn es sich bewahrheiten sollte? :redface:

StefanV
2018-05-24, 19:16:20
Oh man wie peinlich. Also wieder keine Lösung für anspruchsvolle Endkunden, wenn es sich bewahrheiten sollte? :redface:
Tja, dann musst halt mehr AMD kaufen, wo geht und nicht immer nur Intel/nVidia und auch empfehlen.

So ist es halt, wenn der Markt in Schieflage gerät und man nur die teuren Karten von einem Hersteller kauft, obwohl es gerade brauchbare Alternativen gab. Siehe R9-290(X) bzw 390(X), die waren damals nicht soo schlecht...
Oder wie jetzt die 1060 bevorzugt wird, obwohl abzusehen ist, dass die -2GiB VRAM zum Problem werden...

Das ist doch das Problem, dass AMD machen kann, was sie wollen und selbst wenn sie 'nen stromsparenden Chip basteln würden, der die 1080Ti versägt, die Verkäufe überschaubar bleiben. Insbesondere jetzt nach GPP...

N0Thing
2018-05-24, 20:21:24
AMD hat es sicher nicht leicht, aber wann hatte AMD zum letzten Mal einen Chip, der schneller war als der Konkurrent von Nvidia und wann war er dabei auch noch effizienter (Perf/W)?

Wenn Navi maximal nur auf dem Niveau der GTX1080 heraus kommen sollte, verschenkt AMD doch wieder einen großen Teil des Marktes an Nvidia.

tm0975
2018-05-24, 20:23:13
@StefanV
gut zu sehen an den ganze 8700K-Käufern. Unfassbar...

BlacKi
2018-05-24, 21:02:25
Tja, dann musst halt mehr AMD kaufen, wo geht und nicht immer nur Intel/nVidia und auch empfehlen.
tja, nur ist es eben so, das praktisch jede karte in den letzten beiden jahren denen aus den händen gerissen wurde ohne preiskämpfe eingehen zu müssen.

also das argument fällt schonmal weg.

ryzen hat auch sehr gute verkäufe, trotzdem wird hier rumgejault wenn einer intel kauft.

in beiden sparten bekommt amd alles aus der hand gerissen.

ist also auch kein argument.

jetzt will ich aber auch mal sehen, was sie mit dem ganzen reibach den sie in den letzten 1-2 jahren gemacht haben, anstellen. hoffentlich mal was stärkeres als bisher. ich freu mich ja schon auf ryzen mit 5ghz, wenn der so wirklich kommt.

Blediator16
2018-05-24, 21:02:56
Oh man wie peinlich. Also wieder keine Lösung für anspruchsvolle Endkunden, wenn es sich bewahrheiten sollte? :redface:

Auch wenn es hart klingt. Mimimi ;D
Kann AMD verstehen. Scheiss auf die Kunden, wenn diese sowieso nur AMD als Rabatt für Nvidia Karten missbrauchen. Wünsche euch 600€ 1180er und 1k TI Karten nächste Gen ;D

BlacKi
2018-05-24, 21:06:33
Auch wenn es hart klingt. Mimimi ;D
Kann AMD verstehen. Scheiss auf die Kunden, wenn diese sowieso nur AMD als Rabatt für Nvidia Karten missbrauchen. Wünsche euch 600€ 1180er und 1k TI Karten nächste Gen ;D
wenn die 1180 für 600€ kommt fress ich nen besen, das werden 800€+

amd nutzt ihren teil die hohen preise die nv vorgibt um ihre produkte einzuordnen. ich für meinen teil finde die hohen preise allerdings angebracht, sonst wäre amd schon längst raus aus dem spiel. mit ner 1080ti für 350-450€ würde sich keiner mehr ne vega holen und navi könnte man in der entwicklung komplett einstellen. verdienen würde nv zu dem preis immernoch.

Botcruscher
2018-05-24, 21:08:24
Ich sehe Vega und Polaris nicht gerade als Rabatt. Bei der Leistung der TI kommt AMD vermutlich 2020 an. Da relativiert sich auch der NV-Aufschlag. Beim 8700 ist es auch so. Bei der unendlichen Menge an Titeln die nach ST und OC betteln wird es eben schwer. Navi als Polaris 2 wäre 56er Leistung. Ich hab immer noch
die Töne zum 970GTX Konkurrenten im Kopf. Mainstream, Leistung, Umsatz... Fail.

PS: Und ganz wichtig der 14nm Vorsprung zu NV! Mal sehen ob wir bei 7nm was sehen werden.

wenn die 1180 für 600€ kommt fress ich nen besen, das werden 800€+
Glaube ich nicht aber wir kennen das Paket eh nicht.

BlacKi
2018-05-24, 21:13:02
Glaube ich nicht aber wir kennen das Paket eh nicht.
800€ hat schon die 1080 gekostet. billiger wirds definitiv nicht.

Hübie
2018-05-25, 00:01:55
Tja, dann musst halt mehr AMD kaufen, wo geht und nicht immer nur Intel/nVidia und auch empfehlen.

So ist es halt, wenn der Markt in Schieflage gerät und man nur die teuren Karten von einem Hersteller kauft, obwohl es gerade brauchbare Alternativen gab. Siehe R9-290(X) bzw 390(X), die waren damals nicht soo schlecht...
Oder wie jetzt die 1060 bevorzugt wird, obwohl abzusehen ist, dass die -2GiB VRAM zum Problem werden...

Das ist doch das Problem, dass AMD machen kann, was sie wollen und selbst wenn sie 'nen stromsparenden Chip basteln würden, der die 1080Ti versägt, die Verkäufe überschaubar bleiben. Insbesondere jetzt nach GPP...

Es ergibt keinen Sinn, ein schlechteres Produkt zu kaufen. Was ich empfehle weißt du doch gar nicht, sei mal nicht so vorlaut.
Mir geht's nicht mal um den Preis (das denkt ihr euch ja aus) sondern um die Auswahl. Was habe ich denn gerade für eine Wahl? 1080 Ti oder 1080 Ti? Alles darunter ist zu lahm für ein Upgrade.

Digidi
2018-05-25, 00:36:55
Es ergibt keinen Sinn, ein schlechteres Produkt zu kaufen. Was ich empfehle weißt du doch gar nicht, sei mal nicht so vorlaut.
Mir geht's nicht mal um den Preis (das denkt ihr euch ja aus) sondern um die Auswahl. Was habe ich denn gerade für eine Wahl? 1080 Ti oder 1080 Ti? Alles darunter ist zu lahm für ein Upgrade.

Es ergibt schon Sinn schlechtere Produkte zu kaufen. Sie sind ja nicht unbrauchbar oder so schlecht das man nichts damit anfangen kann. Du denkst dann praktisch voraus. Gerade bei GPUs wo der Marktanteil sehr die Game Devs beeinflusst ist es sehr wichtig einen Gleichstand herzustellen sonst führt das zu einer unaufhaltsamen Abwartsspirale. Danach kommt der Technologiestillstand.

Oranje7
2018-05-25, 03:43:05
Naja diese Ansicht ist aber schon sehr stark durch die Rote Brille gesehen.

StefanV
2018-05-25, 05:57:20
Was habe ich denn gerade für eine Wahl? 1080 Ti oder 1080 Ti? Alles darunter ist zu lahm für ein Upgrade.
Ja, weil Leute wie du, als es gute/bessere Alternativen gab grundsätzlich zu nVidia griffen und euch jedes Scheinargument recht ist, diesen Kauf zu rechtfertigen.

Das beste Beispiel ist der Stromverbrauch. Wenn nVidia hier grotten schlecht ist, wird das mit besserer Performance oder solch einen Bullshit gerechtfertigt.
Ist AMD auch nur um 5W schlechter, wird daraus ein Elefant gemacht.
Warum redet denn aktuell niemand bei CPUs über den Stromverbrauch?! Weil AMD hier aktuell besser ist!

Und das sieht man auch bei dir sehr schön.


Du hattest damals ja auch 'ne 780 statt 'ner 290, obwohl die 290 jetzt die 780 so dermaßen verprügelt, dass es nicht mehr feierlich ist.
guggsu hier (https://www.techspot.com/review/1418-geforce-gtx-780-four-years-later/)

Aber du denkst halt nur daran, einen Grund zu finden, den nVidia Kauf zu rechtfertigen, obwohl du eigentlich weißt, dass die AMD Produkte langfristig die bessere wahl sind...

Hübie
2018-05-25, 08:01:50
Red kein Blech. Ich hatte nie eine 780! Gequirlter Mist, den du dir einredest. Mir ist Energiebedarf nicht dass wichtigste. Preis auch nicht. Performance zählt. Und hier liefert AMD nicht. Ich drehe regelmäßig Kreise um Fiji. :rolleyes: Darum hab ich die gekauft. Wäre Vega zeitnah zur GTX 1080 aufgeschlagen, wär das okay gewesen. Aber so...?! Neee. Der Sprung ist mit 25% dann auch zu gering. Jetzt lese ich dass Navi auch nix werden soll. Das könnte dem Aufwärtstrend bei Marktanteilen einen Dämpfer verpassen.

@Digidi: Das ergibt für mich keinen Sinn. Zumindest innerhalb eines Preisrahmens, den ich bereit bin zu investieren. Die 1080 Ti wäre ihre 750,-€ alle mal wert gewesen. ;)

Grendizer
2018-05-25, 08:24:28
Ja, weil Leute wie du, als es gute/bessere Alternativen gab grundsätzlich zu nVidia griffen und euch jedes Scheinargument recht ist, diesen Kauf zu rechtfertigen.
....

Aber du denkst halt nur daran, einen Grund zu finden, den nVidia Kauf zu rechtfertigen, obwohl du eigentlich weißt, dass die AMD Produkte langfristig die bessere wahl sind...

Als ob für die Mehrheit der Leute hier im Forum Grafikkarten "langfristige" Investitionen sind.

Mich interessiert nur die aktuelle Geschwindigkeit. Wenn die nicht mehr reicht kommt eine neue Karte rein.

AffenJack
2018-05-25, 08:29:44
Es ergibt schon Sinn schlechtere Produkte zu kaufen. Sie sind ja nicht unbrauchbar oder so schlecht das man nichts damit anfangen kann. Du denkst dann praktisch voraus. Gerade bei GPUs wo der Marktanteil sehr die Game Devs beeinflusst ist es sehr wichtig einen Gleichstand herzustellen sonst führt das zu einer unaufhaltsamen Abwartsspirale. Danach kommt der Technologiestillstand.

Wenn AMD bei 20% Marktanteil ist kann man damit noch argumentieren, bei den 30% die sie jetzt haben wird es schon deutlich schwerer. Ich kann auch entgegnen, dass ein Gleichstand unbedingt verhindert werden muss. Denn durch AMDs Konsolendominanz würde das zu einer völligen Optimierung auf AMD führen und einer Abwärtsspirale für Nv. Bei 33% Marktanteil für Amd plus Konsolen ist dagegen ein gutes Gleichgewicht vorhanden. Insgesamt halte ich solche Argumente daher für sinnlos im Moment.

StefanV
2018-05-25, 08:39:05
Mir ist Energiebedarf nicht dass wichtigste. Preis auch nicht. Performance zählt. Und hier liefert AMD nicht.
Dann hör auf dich zu beschweren und kauf weiter vom Marktführer...

Aber sich einerseits nur beschweren, dass sie die Komponenten nicht haben, aber anderseits trotzdem nicht kaufen geht gar nicht.

Es ist ja gerade das Problem dass Leute AMD nur als Preisdrücker für nVidia ansehen.
Ja, wie sollen die dann gute Hardware machen, wenn es niemand kauft?!
Du scheinst das Problem auch nicht wirklich erkannt zu haben und redest dich wieder raus, wie immer...

Fang doch mal an mit gutem Beispiel voran zu gehen und AMD zu kaufen...

Gehst einfach in den Marktplatz, machst 'nen Thread auf mit Titel "[T]GTX 1080 gegen Vega 64"
Da wird sich sicher jemand finden!


Aber einerseits sich über AMDs Leistungen beschweren und permanent nV zu kaufen ist echt daneben....


Und das führt dann eben auch zu der Überlegung von AMD, die auch sehen, dass ihre Produkte, selbst wenn sie recht brauchbar sind, wie Blei im Regal liegen bleiben, weil die Leute sie nicht kaufen.
Und das führt dann zu der Abwärtsspirale, die wir gerade sehen...

Hübie
2018-05-25, 11:10:44
Und du scheinst marktwirtschaftlich nicht den Durchblick zu haben.
A) Was hat AMD von einem Tausch NV<->AMD?
B) Warum muss ich als Kunde in Vorleistung gehen, um eventuell in vier Jahren was konkurrenzfähiges zu haben?
C) Was hätte ich deiner Meinung nach Q3 2015 kaufen müssen um jetzt mehr Wahl zu haben?

Deine Argumentation ist total lächerlich und subjektiv. Warum möchte ich Auswahl? Weil man dann weniger gebunden ist (siehe G-Sync, Gameworks...).

Raff
2018-05-25, 11:22:56
2015 war gewiss nicht das beste Jahr. ;) Aber 2012 (vor allem da), 2013 und 2014 konnte man durchaus AMD-High-End kaufen.

MfG,
Raff

Pirx
2018-05-25, 11:58:07
... Warum möchte ich Auswahl? Weil man dann weniger gebunden ist (siehe G-Sync, Gameworks...).
Dann zieh doch die Konsequenzen, wenn dir das so wichtig ist. So ist das, was du sagst, unglaubwürdig und paradox.

edit: schon wieder ins die BS/OT-Falle getappt sorry;(

Hübie
2018-05-25, 13:43:09
In meiner Gewichtung steht Performance nun mal weit oben. Ist doch echt nicht schwer zu verstehen. Man wird immer gleich als Fanboy und pöhser NVIDIANER abgestempelt, wenn man hier nicht gleich die rote Fahne schwingt. Es ist auf beiden Seiten immer die gleiche Fraktion.

Von Navi erhoffe ich mir einen echten Konkurrenten in punkto Performance und als nette Dreingabe wäre ein Freesync2-Monitor mit HDR, 120 Hz und 4k ein netter Bonus.
Gameworks läuft größtenteils ja auf Radeons schon gut genug. Sollte sich das Minus ggü. der GTX 1080 Ti bewahrheiten fällt es flach, dass AMD mein Geld erhält.

Pirx
2018-05-25, 13:51:50
Das ist hier völlig irrelevant/OT.

aufkrawall
2018-05-25, 14:06:39
Immer wieder der gleiche "Der Verbraucher-Trottel ist schuld!!1"-BS...

Raff
2018-05-25, 14:11:49
Man kann nicht leugnen, dass das oft der Fall ist – die meisten davon einfach aus Unwissenheit (nicht jeder wälzt stundenlang Tests), viele aber eben nicht. Gewohnheitstiere kriegt man nur schwer aus ihrem Sessel. ;)

MfG,
Raff

aufkrawall
2018-05-25, 14:17:26
Du hast es aber nun auch schon des Öfteren angemerkt. ;)

Schnoesel
2018-05-25, 14:22:27
Nur glaube ich dass zum Großteil gar nicht der unwissende Endverbraucher Schuld ist, sondern zum großen Teil die OEMs, die schlicht gar nix anderes als Nvidia anbieten. Hier wird der Umsatz gemacht und Nvidia hat das leider zum Einen geschickt gemacht, zum Anderen mit Dickmoves wie eben das "eingestellte" Nvidia GPP, das Ihre Ziele bereits erreicht hat.

Sobald möglich werde ich hoffentlich wieder auf AMD umsteigen können. Falls nicht möglich kaufe ich Nvidia und schaue mir lachend Kommentare wie "Mimimi die Karten werden immer teuerer" an. Ich kanns mir dann immer noch leisten.

Nosferatu1
2018-05-25, 14:29:49
Verbraucherttrottel....nice danke. Wenn sie wenigstens schneller wäre als die 1080 ist sie aber nicht zumindest nicht in meiner spielebibliothek. Also warum um gottes willen würde ich die vega statt der 1080 iger bevorzugen als Gamer ?

Verbraucht mehr,ist heisser,und langsamer. Trottel wäre der nicht zur 1080ig greift zum reinen GAMEN! Computec kenne ich mich nicht aus und interessiert mich auch nicht.

Was ich heute bei CB gelesen habe über die Titan V 50% schneller als eine 1080TI bei 250 Watt TDP das ist extrem beeindruckend.

Da kann man sage was man will, da nehme ich den hässliche. und unübersichtlichen treiber overlay gerne in kauf.

Schnoesel
2018-05-25, 14:33:45
Was ich heute bei CB gelesen habe über die Titan V 50% schneller als eine 1080TI bei 250 Watt TDP das ist extrem beeindruckend.


Dann mal richtig lesen. Es sind bis zu 50%. Mal schön auf die Clickbaitüberschrift reingefallen. Im Mittel sind es nicht mal 30%. Das ist auch das was man von Turing erwarten kann, also so beeindruckend wie die Überrschrift suggeriert ist das nicht. Es ist im Grunde das was bei in den letzten Generationswechseln drin war.

Nosferatu1
2018-05-25, 15:34:17
Trotzdem bei gleichem TDP 250 Watt. sorry aber was hat AMD? Vega 64 300 watt nicht mal gtx 1080 perfomance (spreche aus eigener erfahrung). Mit ach und krach auf 240 Watt machbar trotzdem enorm. just sayin

G3cko
2018-05-25, 16:30:49
Trotzdem bei gleichem TDP 250 Watt. sorry aber was hat AMD? Vega 64 300 watt nicht mal gtx 1080 perfomance (spreche aus eigener erfahrung). Mit ach und krach auf 240 Watt machbar trotzdem enorm. just sayin

Auch AMD kann effiziente Karten bauen. Siehe AMD Fury Nano.

Die TitanV arbeitet nach dem gleichen Prinzip. Man nehme einen großen Chip und viele speicherchips und Taakte ihn im sweetspot. Und beide Karten haben eines gemeinsam: Bezahlen möchte es niemand.

Daher lieber kleine Chips und diese mit höheren taktraten an der kotzgrenze = Preiswerter für den Kunden.

Highend, egal ob GPUs oder CPUs lässt sich immer gut übertakten, da der thermische Spielraum herstellerseitig bereits ausgereizt ist. Knall ne wakü drauf und ab geht's.

Das ist der Vorteil an vielen Einheiten (Kerne) und niedrigerem Takt. Bei Grafikkarten kommt leider noch das Powerlimit dazu. Quasi eine Werksdrosselung zur OC Begrenzung. Dürfte die Karte 400W ziehen wäre sie entsprechend noch viel schneller.

Schau dir die chipfläche an. Üblich waren bisher 600mm2 fürs High end. Mit 800mm2 ist das nicht nur ein Rekord sondern nahe der absoluten Machbarkeit in Sachen Belichtung. Und das alles für nicht mal 30% im Mittel. Da sieht man TitanV ist keine gamingkarte sondern fürs HPC ausgelegt. Die gamingkarte wird nur für höhere Stückzahlen benötigt. Würde mich nicht wundern wenn das ding dennoch eine 0 Nummer ist für nvidia.

BlacKi
2018-05-25, 16:53:00
wie schon erwähnt wird AMD seit 2016 - 2018 jede karte zu extremen preisen los, wenn das nicht hilft auf die rechte bahn zu kommen dann bringt es auch nichts nur noch amd zu kaufen. am ende wirkt das für die hersteller noch so, als würde der verbrauch keine rolle spielen, hauptsache amd als marke. am ende kaufe ich mir amd 10 jahre am stück und hätte nie die karte gehabt, die ich gerne hätte. noch verdiene ich mein geld mit arbeit und möchte es nicht für das schlechtere produkt rauswerfen.

ausserdem glaube ich das sich der markt sich schon etwas selbst regeln kann. umso teurer nv wird oder langsamer die fortschritte werden, desto größer bleibt spielraum für die konkurenz.

es klingt für mich wie das abwenden eines szenarios wie es bei 3dfx damals stattfand. die bude hätte es trotz fester fanbase nicht lange weiter gebracht. wenn es bei amd in der grafikkarten sparte irgendwann mal soweit sein sollte, würde ich es nicht bereuen amd nicht gekauft zu haben, da es eh keinen unterschied macht ob ein enthusiast (oder 1000) die schwächere marke kauft oder nicht. die masse kauft nicht absichtlich das schwächere produkt und somit bestraft man sich eher selbst.

Gipsel
2018-05-25, 16:54:07
Noch mal zur Erinnerung an Alle:
Wir sind hier im Navi-Spekulationsthread.
Andere Themen können gerne in anderen Threads diskutiert werden.

Danke.

TheGood
2018-05-25, 18:32:53
Jetzt lese ich dass Navi auch nix werden soll. Das könnte dem Aufwärtstrend bei Marktanteilen einen Dämpfer verpassen.




Sorry was soll der Müll. Irgendwie hier im Thread schreibt, dass Navi nur Midrange sein soll und auf einmal wird's von den NVidianern immer für bare münze genommen und als Fakt verkauft. Manchmal sollte man einfach mal sein Hirn einschalten.

Wenn ich dann im Gegenteil sage es wird ne top notch lösung, brechen 10 leute los um das mit den abstrusesten Argumenten zu widerlegen.
Fakt ist, man weis bis heute rein gar nichts.....

Viel schlimmer an der Sache ist: Es faellt euch schon gar nicht mehr auf....

Hübie
2018-05-25, 19:03:53
Ach so. Jetzt sind "[...] werden soll." und "könnte" schon Fakten - das mit den Gehirn einschalten gebe ich dann auch gerne mal zurück. :rolleyes: Alles klar. Merke ich mir für die nächste Diskussion mit dir.
Es ist ja noch pure Spekulation und ich sage was ich davon halte und dies mache ich im Konjunktiv.
Es kann genau so gut sein, dass Navi im Gegensatz zu Vega eine µArch ist die von bottom to top skaliert und so eben als kleiner Chip eingeschätzt wird.

BlacKi
2018-05-25, 19:08:21
Sorry was soll der Müll. Irgendwie hier im Thread schreibt, dass Navi nur Midrange sein soll und auf einmal wird's von den NVidianern immer für bare münze genommen und als Fakt verkauft. Manchmal sollte man einfach mal sein Hirn einschalten.

Wenn ich dann im Gegenteil sage es wird ne top notch lösung, brechen 10 leute los um das mit den abstrusesten Argumenten zu widerlegen.
Fakt ist, man weis bis heute rein gar nichts.....

Viel schlimmer an der Sache ist: Es faellt euch schon gar nicht mehr auf....
es würde aber allen erfahrungen nach widersprechen. zwischen den top tier lösungen wird regelmäßig ein midrange chip eingebaut. wenn du mal nachdenken würdest, dann würdest du selbst drauf kommen. schließlich kann man das midrange geschäft schlecht mit alten teuren toptier lösungen abdecken, mal von dem 3fachen stromverbrauch ganz abgesehen. polaris hatte auch seinen zweck erfüllt als midrange chip, den braucht amds portfolio eben auch 2019+.

man könnte zwar vega in 7nm bringen, das gibt aber die roadmap nicht her. ausserdem wäre die karte für den 250-300dollar bereich zu teuer.

stattdessen wird es wieder "wohl einfach"(nur speku) nur eine solo runde mit navi ohne top tier lösung wie bei polaris 2016.

BoMbY
2018-05-27, 10:20:52
Auch hier keine Ahnung in wie fern das relevant ist: Patent für einen GPU-Coprozessor (http://www.freepatentsonline.com/20180144435.pdf) ...

Das hat gewisse Ähnlichkeiten mit dem Große-CU-, Kleine-CU-Patent. Im Endeffekt eine kleinere GPU für weniger anspruchsvolle Aufgaben, neben der eigentlichen GPU, nur das die eben den gleichen Speicher nutzen und wohl Cache-kohärent sind.

StefanV
2018-05-27, 10:41:06
aber wird die GPU damit nicht eher in Richtung CPU wandern?

Digidi
2018-05-28, 01:05:02
Nice jetzt legt man schon wert auf mesh compression vielleicht kommt das auf Navi innHardware.

https://gpuopen.com/compressonator-v3-0-release-brings-powerful-new-3d-model-features/

gravitationsfeld
2018-05-28, 01:45:45
Das ist einfach nur Google Draco. Nichts daran wird in Hardware landen.

Mangel76
2018-06-04, 15:55:14
Niemand hat eine Ahnung.
In der Gerüchteküche fliegte zuletzt herum, dass AMD mit Navi wie damals bei Polaris maximal einen Mittelklasse Chip auflegen wird, welcher ungefähr Vega10-Leistung besitzen soll.

Wenn das stimmt, dann gibt es 2019 von AMD nichts was eine 1080Ti schlagen würde, geschweige denn die Turing-Nachfolger.

In before Chiplet und MCM Spekulationen auf einem Interposer.

Im Moment geht ja scheinbar jeder davon aus, dass NAVI nur Mittelklasse bringt. Aber beißt sich das nicht mit der Angabe "Scalability" in den Roadmaps?

Ich würde darunter ja das Aufbrechen der GCN-Beschränkungen (max 64 CU) verstehen, so dass auch mehr Einheiten verbaut werden können. Wenn wieder maximal 64-CU-GPUs aufgelegt werden, was in 2019 wohl maximal High End ist, braucht man doch keine bessere "Scalability". Oder soll lediglich die Leistung mit der CU-Zahl besser skalieren? Bisher laufen die 64 CU-GPUs ja nicht so berauschend im Vergleich zu ihren kleineren Geschwistern. Die Leistung steigt auf jeden Fall weniger stark als die CU-Zahl.

Dino-Fossil
2018-06-04, 16:03:04
Im Moment geht ja scheinbar jeder davon aus, dass NAVI nur Mittelklasse bringt. Aber beißt sich das nicht mit der Angabe "Scalability" in den Roadmaps?

Nun, das Mittelklasse-Gerücht ist neuer als die Scalability-Beschriftung von der Roadmap, theoretisch könnte AMD also auch einfach seine Pläne geändert haben.
Wobei auch ein 64CU Chip bei besserer Skalierbarkeit evtl. schon um einiges besser liefe als ein heutiger V10, also wer weiß.

Aber letztenendes alles Fischen im Trüben, da nichts wirklich bestätigt ist.

Hübie
2018-06-04, 16:22:41
Ich verstehe darunter, dass was mit Zeppelin geschehen ist: mehrere Cores auf einem Die, mehrere Dies auf einem Trägersubstrat. Die Skalierbarkeit mit Anzahl der CUs ließe sich durch breiteres Frontend lösen. Ich hoffe wir sehen beides. Die aktuellen Gerüchte lassen aber die Erwartungen in den Keller rauschen. In der Vergangenheit bestätigten sich die Gerüchte leider auch zu häufig (selbst so etwas absurdes wie 384 Bit auf Tonga :rolleyes:).

Loeschzwerg
2018-06-04, 16:26:26
Oder halt schlichtweg besser Skalierung der CUs im Allgemeinen. Naja, 2019... ich leg mich mal wieder schlafen.

Gipsel
2018-06-04, 16:28:20
Im Moment geht ja scheinbar jeder davon aus, dass NAVI nur Mittelklasse bringt. Aber beißt sich das nicht mit der Angabe "Scalability" in den Roadmaps?Die "alte" Interpretation der Scalability von Navi ging oft in die Richtung einer Multi-Die-Scalability. Also ähnlich wie aus dem Ryzen-Die sowohl die Einstiegs- bis Mittelklasse Ryzen 3, 5 und 7, wie auch der Enthusiasten-Threadripper und die Servervariante Epyc gebastelt haben (durch Verwendung von 1, 2 bzw. 4 Dies, die man untereinander vernetzt), könnte man z.B. bei Navi ein kleines Die + 1 HBM-Stack (oder 1 Die mit 128Bit-GDDR#-Interface) als Grundbaustein annehmen. Dies würde dann die Mittelklasse abdecken, mit zwei Dies (und dann auch 2 HBM-Stacks bzw. 2x 128Bit-Interface) kommt man in den Performance-Bereich, mit 3 oder 4 Dies ist auch der Enthusiast abgedeckt.
Allerdings ist die Idee schon ziemlich alt und ich persönlich würde das nach den neueren Entwicklungen auch eher bezweifeln (außerdem ist das bei GPUs etwas schwieriger umzusetzen als bei CPUs [vor allem höhere Bandbreiten zwischen den Dies erforderlich als bei CPUs]).

Also im Prinzip ist ein Mittelklasse-Die und Skalierbarkeit keineswegs ausgeschlossen. Übrigens auch nicht, wenn Navi diese Art der Skalierbarkeit (mit mehreren Dies) nicht beherrscht. Trotzdem kann Navi als Architektur prinzipiell besser/einfacher zu großen CU-Anzahl skalieren bzw. es einfacher sein, das Frontend entsprechend mitzuskalieren, ohne das man Flaschenhälse trifft (oder die weiter rausschiebt).

basix
2018-06-04, 21:20:39
Trotzdem kann Navi als Architektur prinzipiell besser/einfacher zu großen CU-Anzahl skalieren bzw. es einfacher sein, das Frontend entsprechend mitzuskalieren, ohne das man Flaschenhälse trifft (oder die weiter rausschiebt).

Das wird der wahrscheinlichste Fall sein. Ähnlich wie bei Nvidia, wo das Frontend meines Wissens nach linear mit der Anzahl GPCs skaliert.

Digidi
2018-06-04, 23:27:14
Also im Prinzip ist ein Mittelklasse-Die und Skalierbarkeit keineswegs ausgeschlossen. Übrigens auch nicht, wenn Navi diese Art der Skalierbarkeit (mit mehreren Dies) nicht beherrscht. Trotzdem kann Navi als Architektur prinzipiell besser/einfacher zu großen CU-Anzahl skalieren bzw. es einfacher sein, das Frontend entsprechend mitzuskalieren, ohne das man Flaschenhälse trifft (oder die weiter rausschiebt).


Wenn ich mir HBCC anschaue könnte HBM als neue Cache Stufe dienen. Wenn dann noch die Interconnects zwischen den Chips und HBM Modulen clever gewählt wurden könnte das klappen mit dem Multi Die Einsatz.

BlacKi
2018-06-05, 00:35:44
ich frag mich bis heute warum man nicht 2 sorten von vram auf einer karte unterbringt. schnellen kleinen und langsamen großen. aber bitte nicht in den arbeitsspeicher, der gehört der cpu. am ende hat man dieselbe problematik wie bei den apus.

Gipsel
2018-06-05, 01:07:05
ich frag mich bis heute warum man nicht 2 sorten von vram auf einer karte unterbringt.Wegen der Kosten bzw. des ungünstigen Kosten-Nutzen-Verhältnis.

StefanV
2018-06-06, 04:00:38
Mal 'ne andere Idee, bezüglich HDMI Implementierung...

Wäre es nicht möglich, HDMI-CEC im Grafikchip zu implementieren, so dass das ganze auch ohne Zusatzchips möglich wird??

DAS ist ja auch der Grund, warum Sony in der PS4 Fat einen Panasonic MN86471A HDMI Encoder verbaut hat, bzw einen MN864729 bei der Slim und PRO.

Die XBox One hat das ja nicht und kann dementsprechend kein HDMI-CEC...

Achill
2018-06-06, 07:07:42
Mal 'ne andere Idee, bezüglich HDMI Implementierung...

Wäre es nicht möglich, HDMI-CEC im Grafikchip zu implementieren, so dass das ganze auch ohne Zusatzchips möglich wird??

DAS ist ja auch der Grund, warum Sony in der PS4 Fat einen Panasonic MN86471A HDMI Encoder verbaut hat, bzw einen MN864729 bei der Slim und PRO.

Die XBox One hat das ja nicht und kann dementsprechend kein HDMI-CEC...

Ich musste erst einmal lesen was HDMI-CEC ist ... finde, dass am Anfang von der Wiki-Seite steht auch ein guter Grund ist, warum man dies wahrscheinlich immer extern haben will:


[..]
CEC[3] is a separate electrical signal from the other HDMI signals. This allows a device to disable its high-speed HDMI circuitry in sleep mode, but be woken up by CEC. It is a single shared bus, which is directly connected between all HDMI ports on a device, so it can flow through a device which is completely powered off (not just asleep).

The bus is electrically identical to the AV.link protocol, but CEC adds a detailed higher-level message protocol.

The bus is an open-collector line, somewhat like I²C, passively pulled up to +3.3 V, and driven low to transmit a bit.
[..]


Wenn man die Funktionalität in die GPU holte, so müsste diese ständig "on" sein, zumindest Teile davon. Lagert man dies in einen kleinen Chip aus, so kann man die komplette GPU "schlafen legen" bzw. ausschalten ... soweit mein Verständnis.

robbitop
2018-06-06, 07:08:49
Dass Navi 2019 erscheint und bereits 2020 durch eine nextgen mArch ersetzt werden soll, besorgt mich etwas. Navi ist entweder weiterhin eine Evolutionsstufe von gcn (bereits zu Vega hiess es ja schon, dass dieser eine neue mArch sein sollte, was nicht der Fall war...) oder eine neue mArch die man aus verschiedenen Gründen nicht weiter verfolgt.

StefanV
2018-06-06, 07:13:24
Wenn man die Funktionalität in die GPU holte, so müsste diese ständig "on" sein, zumindest Teile davon. Lagert man dies in einen kleinen Chip aus, so kann man die komplette GPU "schlafen legen" bzw. ausschalten ... soweit mein Verständnis.
Mit modernem Clock/Power Gating sollte das jetzt kein großes Problem sein. ggF eine zwei Die Lüsung.

Aber du hast Recht, das ist nicht von der Hand zu weisen, dass ein externer Chip hier sinnvoller erscheint...

HOT
2018-06-06, 07:13:26
Dass Navi 2019 erscheint und bereits 2020 durch eine nextgen mArch ersetzt werden soll, besorgt mich etwas. Navi ist entweder weiterhin eine Evolutionsstufe von gcn (bereits zu Vega hiess es ja schon, dass dieser eine neue mArch sein sollte, was nicht der Fall war...) oder eine neue mArch die man aus verschiedenen Gründen nicht weiter verfolgt.
Navi geht halt nur bis 200mm²+, das ist ja jetzt sonnenklar, nachdem V20 für Spieler bestätigt wurde. Die nächste Generation wird Navi nicht ersetzen, sondern nur darüber ansetzen, da bin ich mir aber sicher. Die schleifen Navi so lange mit durch, wie man Polaris mit durchgeschleift hat... bis 3nm.

robbitop
2018-06-06, 07:16:54
Mag ja stimmen - sagt aber über die mArch nichts aus. Für mich sieht es so aus als verhält sich Navi zu Vega wie Polaris zu Hawaii/Fijii. Also keine neue mArch sondern eine Evolutionsstufe und ausgelegt für Midrange / 200-300 € Preisspanne.

Das Warten auf eine neue mArch, die wieder konkurrenzfähig für AMD (dass AMD zu ähnlichen Kosten wie NV ähnliche Leistung extrahieren kann und somit sinnvolle Margen fahren kann - also Leistung pro Fläche und Leistung pro Bandbreite... hier muss sich V10 mit dem massiv günstigeren gp104 zu vermutlich ähnlichen Kosten von gp102 schlagen....) wird, zieht und zieht sich. Seit Polaris sollte das ursprünglich immer wieder der Fall sein.

HOT
2018-06-06, 07:24:21
Das ist vollkommen richtig. Navi wird sicherlich GCN in die letzte Stufe bringen, aber es bleibt "alte" Technik. Erst für die Generation danach kann man wirklich neueres erwarten.

Screemer
2018-06-06, 07:34:37
Navi geht halt nur bis 200mm²+, das ist ja jetzt sonnenklar, nachdem V20 für Spieler bestätigt wurde. Die nächste Generation wird Navi nicht ersetzen, sondern nur darüber ansetzen, da bin ich mir aber sicher. Die schleifen Navi so lange mit durch, wie man Polaris mit durchgeschleift hat... bis 3nm.
Niemand hat v20 für Gamer bestätigt. Nur weil es wieder mal welche falsch verstanden haben, wird es noch lange nicht wahr. Es wurden schlicht 7nm Chips für Gamer in Aussicht gestellt.

HOT
2018-06-06, 07:51:26
Niemand hat v20 für Gamer bestätigt. Nur weil es wieder mal welche falsch verstanden haben, wird es noch lange nicht wahr. Es wurden schlicht 7nm Chips für Gamer in Aussicht gestellt.
Ich glaube nicht, dass das falsch verstanden wurde, das wird schon genau so gemeint gewesen sein. Ich kenne das Statement.

Käsetoast
2018-06-06, 13:46:54
An V20 für Gamer glaube ich nicht - was ich mir vorstellen kann ist, dass es wieder so etwas wie die Founders Edition geben wird, die man halt auch zum Spielen benutzen "kann" wenn man denn will, also treiberseitig wird einem da nichts im Wege stehen...

Ich denke aber mit all dem Deep Learning Kram & Co wird das Ding rein für's Spielen aber einfach zu ineffizient sein. Da werden zu viele Transistoren für Kram verballert, den man in Spielen nicht braucht. Außerdem kann AMD im Profi Markt mit so einer GPU viel höhere Preise aufrufen als wenn man da nochmal eine separate "Gamer V20" rausbringt. Was die Spieleleistung einer V20 angeht zweifle ich aber irgendwie daran, dass das merkbar oberhalb dessen liegen wird was ein in 7nm geshrinkter V10 bringen würde und ob nächstes Jahr knappe 1080 Ti Leistung für teuer Geld und hohem Stromverbrauch am Markt noch gut ankommt weiß ich nicht...

Da halte ich es für wahrscheinlicher, dass man sowas wie einen doppelten Navi baut. Ich denke AMD muss es da einfach ein wenig NVIDIA nachmachen und zwei Linien fahren, nämlich einmal GPUs für den Profi (Computing) Bereich und einmal GPUs für Gamer. Wenn die Profi Sparte sich mit Deep Learning & Co jetzt immer weiter aufbläht werden die Chips hinsichtlich Verbrauch und Größe bzw. Transistorzahl immer ineffizienter werden was Spiele angeht. Beim derzeitigen Vega fand ich schon, dass das nur ein minderguter Spagat war eine Computing Karte zu erstellen, auf der man "auch" spielen kann. Wenn man das mit V20 auch probiert wird das Ergebnis für den Gamer da in meinen Augen nach noch einttäuschender werden. Ich denke das ist in ähnlicher Weise ein Grund warum Volta nicht für Gamer erschienen ist. Klar - man wäre bei AMD mit einem Gamer V20 auf dem Paper zwar schon schneller als die derzeitigen Vega Karten, aber zu welchem Preis bzw. wie ernüchternd würde die Leistung dann im Vergleich zur Konkurrenz aussehen, die mit einer mehr oder weniger reinen Gaming Linie GPUs sozusagen ohne angezogene Handbremse fahren können?

Vielleicht wird man keinen ganz großen Navi Chip bringen, aber wenn man einen mit knapp 300 mm² und einen mit ca. 200 mm² liefert, dann hat man da einen guten Bereich abgedeckt und so ein sagen wir mal 280 mm² Navi sollte spieleleistungstechnisch dem 350 mm² Vega 20 ebenbürtig sein, wenn nicht sogar daran leicht vorbeiziehen bei höchstwahrscheinlich geringerem Verbrauch. Wenn Navi wirklich die Spieleperformance im Vordergrund hat wäre auch bei nur 250 mm² Größe für Navi ein 350 mm² Vega 20 nicht so viel schneller...

SKYNET
2018-06-06, 14:08:07
naja, fest steht ja schonmal das die neue GPU zum zocken ziemlich sicher 16GB HBM haben wird... ist ja bei AMD eigentlich meistens so gewesen, das die pro-karten das doppelte an speicher hatten/haben wie die gamer geschichten... das ja schonmal was gutes.

und zum thema vega20 und spielen... da helfen all die spekulatius nix derzeit, evtl. frisst das ding gleich viel wie ne jetzige 64, hat aber 60% mehr frames am ausgang... steht alles in den sternen auf der anderen seite der galaxie... also wissen wirs in 100.000 computer jahren = 6 monaten was sache ist ;)

HOT
2018-06-07, 09:59:55
https://www.gamestar.de/artikel/amd-radeon-grafikkarten-wegen-der-jagd-nach-ki-an-schwung-verloren,3330611.html

Das hört sich eigentlich ganz gut an. Würde man Navi nicht nur als Mainstream bringen, sondern noch eine Maske mehr, wie bei Zen2 ja offenbar auch, hätte man ein komplettes Lineup. Wenn man das jetzt jährlich macht, würde das enorm Schwung in den Markt bringen.
Und AMD leidet tatsächlich an den gleichen Fehlern wie in der Vergangenheit:
https://www.heise.de/newsticker/meldung/AMD-Ryzen-Verzoegerungen-durch-Chipknappheit-4071066.html
Es gibt einfach nicht genug verkaufbare Produktmengen. Da ist es auch kein Wunder, dass man jetzt bei mehreren Foundries Kapazitäten abgreifen möchte bei 7nm, denn das muss definitiv aufhören - sowohl im Grafik, als auch im CPU-Bereich. Die haben einfach zu wenig Chips gehabt und genau das ging auf die Marktanteile, da OEMs wieder nicht befriedigt werden konnten.

tm0975
2018-06-07, 10:14:54
hab das auch gelesen mit den ausgebuchten kapazitäten und war etwas überrascht. hätte gedacht, dass glofo das hinbekommt mit zen(+). der chip ist recht kompakt, da sollte doch ein etwas größeres rad gedreht werden können.

HOT
2018-06-07, 11:19:57
Die haben halt alles produziert, Polaris, Zepplin, Vega, RR und das Intel-Teil - jetzt kommt auch noch Vega Mobile dazu. Das war einfach zuviel für die Fab8, die ja auch noch Qualcomm und andere Kunden bedienen muss. Immerhin erhöht sich ja die Kapazität, aber man braucht ja auch schon wieder Platz für 7nm. AMD kommt nur mit GloFo nicht über die Runden.

Leonidas
2018-06-08, 17:07:46
Neues Futter:
https://www.3dcenter.org/news/geruechtekueche-amds-navi-tritt-im-ersten-quartal-2019-mit-einer-midrange-loesung

PCGH bestätigt Navi als Midrange-Solution, gibt als Termin das Ende des Q1/2019 an. Die Performance soll GeForce GTX 1170/2070 erreichen können, man setzt hierfür auf GDDR6.

Adam D.
2018-06-08, 17:12:47
Neues Futter:
https://www.3dcenter.org/news/geruechtekueche-amds-navi-tritt-im-ersten-quartal-2019-mit-einer-midrange-loesung

PCGH bestätigt Navi als Midrange-Solution, gibt als Termin das Ende des Q1/2019 an. Die Performance soll GeForce GTX 1170/2070 erreichen können, man setzt hierfür auf GDDR6.
Wenn die Spekulationen in etwa zutreffen, wäre die Karte ein ziemlicher Volltreffer :cool: Wird halt wieder recht spät, aber da hat man dann zumindest in dem Bereich, wo Grafikkarten noch halbwegs bezahlbar sind, wieder Auswahl.

BoMbY
2018-06-08, 17:47:46
Vielleicht, aber ich tippe da mal eher auf eine fette Ente.

StefanV
2018-06-08, 17:55:35
Naja, es gibt ja auch noch VEGA20, was damit gemacht wurde bleibt auch noch abzuwarten...

Könnte also sein, dass Navi (bisher) untenrum erst mal gemacht wird und obenrum dann VEGA...

HOT
2018-06-08, 18:35:40
Die werden das Frontend skalierbarer gemacht haben, um die Auslastung bei 16 CUs pro Pipeline zu erhöhen und einfach volle 64CUs verbaut haben. Bei 7nm bleibst ja unter 250mm² mit einfachen CUs. Hinzu kommt noch ein GDDR6-Interface mit >=16GT/s und die Sache läuft. Ist ein akzeptabler Mainstreamchip für 7nm-Generation. Mehr ist aber denke ich einfach nicht drin ohne neue Basisarchitektur.
Wenn man den auf 2GHz getaktet bekommt, wäre er bei 16TFLOPs. Jetzt noch bessere Auslastung des Backends und wir sind im Geschäft. 7nm High-End wird man erst mit EUV in 2020 sehen. Dank des massiven Shrinks bleibt man dann auch gegen den 1170 konkurrenzfähig, da dieser ja noch 12nm mit sich herumschleppt. Sind einfach etwas andere Voraussetzungen als bei Polaris damals, der ja eine effizente Version der vorigen Generation ist aber mit einem ähnlichen Fertigungsprozess gegen NV antreten musste.

basix
2018-06-08, 20:04:04
Mal eine Vertändnisfrage:
Kann ein (Navi) Chip mit HBCC den VRAM eines zweiten identischen Chips als zweite Speicherhierarchiestufe betrachten und gleichzeitig der andere Chip das selbe auf dem umgekehrten Weg? Macht das Sinn oder macht das von der Speicheraufteilung nur Probleme? Durch den HBCC sollte das doch kohärent sein oder ist HBCC <-> HBCC keine gute Idee?

Mein Gedankengang:
Per HBCC kann der Einfluss von VRAM-Knappheit abgewschwächt werden. Je nachdem bis zu 70% (je nach Anwendungsfall). Dies geschieht via PCI-E und somit maximal 16 GByte/s. Wenn jetzt ein Navi Chip nun sagen wir mal 100+ GByte/s zum anderen hätte, könnte man eine deutlich bessere und zuverlässigere Skalierung annehmen. Ich gehe dabei von einem Chip mit nominell 512 GByte/s aus. Das Ziel: Man kann beide Speicherpools zusammenlegen und als einen einzelnen Speicher betrachten. Das würde einen der grössten Nachteile von Crossfire / SLi beheben. Dann arbeiten beide Chips in einer Art SFR-Modus. Jeder Chip berechnet einzelne Tiles und bei Bedarf werden via HBCC Daten aus dem Speicher des anderen Chips geladen. Von aussen aus Anwendungssicht sieht es aber nach einer einzelnen GPU aus. Ob es nun SFR oder "richtiges" parallelisieren der Rasterizer wie innerhalb einer einzelnen GPU ist, spielt nicht so eine Rolle. Es geht mehr ums Prinzip.

Grundlage dazu:
EPYC hat on Package 256 GByte/s via IF bei total 180W TDP. Eine Karte mit ähnlicher TDP sollte zumindest die Hälfte davon ebenfalls bei einem MCM bieten können, ohne die TDP zu stark zu belasten.

Kriton
2018-06-09, 13:52:08
Wäre die Idee nicht eher ein Thema von HSA?

dildo4u
2018-06-12, 15:29:20
Exclusive: The AMD Inside Story, Navi GPU Roadmap And The Cost Of Zen To Gamers

https://wccftech.com/exclusive-amd-navi-gpu-roadmap-cost-zen/


Lisa war es zu teuer gegen Nvidia Wett zurüsten,daher ist Raja wohl gegangen.

Adam D.
2018-06-12, 15:36:38
Exclusive: The AMD Inside Story, Navi GPU Roadmap And The Cost Of Zen To Gamers

https://wccftech.com/exclusive-amd-navi-gpu-roadmap-cost-zen/


Lisa war es zu teuer gegen Nvidia Wett zurüsten,daher ist Raja wohl gegangen.
Da ergibt Vieles schon Sinn, aber ob diese fast vollständige Abhängigkeit von Semi Customs auf Dauer trägt? :confused: Für PC-Spieler sind das aber mittelfristig richtig richtig schlechte Nachrichten. Kann man sich auch irgendwie vorstellen, dass Turing genau 1% über GP102 landet, warum sollte man da bis 2020 viel machen :rolleyes:

Tru
2018-06-12, 15:41:37
Der erste Teil klingt, als wäre er von den Quellen hier abgeschrieben worden: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11716148&postcount=13526

Der Teil um Navi klingt wenig glaubhaft, wenn mehrere Boardpartner von einem H1/2019-Desktop-Launch ausgehen.

Käsetoast
2018-06-12, 15:43:06
Puh - Navi also kein GCN mehr, entwickelt als Basis der Next-Gen-Konsolen und wird den Midrange Bereich wohl erst so Mitte/Ende 2019 bedienen? Ein High-End Navi dann erst 2020, vielleicht sogar erst 2021?

Macht mit der gegebenen Argumentation leider schon irgendwo Sinn - damit kann man AMD als Gamer jedoch für lange Zeit abschreiben...

aufkrawall
2018-06-12, 15:48:49
Exclusive: The AMD Inside Story, Navi GPU Roadmap And The Cost Of Zen To Gamers

https://wccftech.com/exclusive-amd-navi-gpu-roadmap-cost-zen/

Namen des Autors gelesen -> Tab geschlossen.

Menace
2018-06-12, 15:49:24
Könnte sein und Lisa Su hat ja schon bei Vega betont, dass sie in den Professionellen Markt möchte. Sie hat aber schon so vieles bei AMD richtig gemacht, dass ich es fast verschmerzen könnte, wenn die nächsten 1-2 Jahre keine Highend-GPU von AMD käme; sofern im Anschluss, wenn hoffentlich die Konsolidierung von AMD abgeschlossen ist, dann um so mehr in die Grafikkarten von AMD investiert wird.

Anderseits: Vielleicht sind die Profikkarten dann für Gamer doch nicht so schlecht und sie werden kurzfristig doch realisiert.

Adam D.
2018-06-12, 15:49:59
Der erste Teil klingt, als wäre er von den Quellen hier abgeschrieben worden: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11716148&postcount=13526

Der Teil um Navi klingt wenig glaubhaft, wenn mehrere Boardpartner von einem H1/2019-Desktop-Launch ausgehen.
Das wird sich zeigen, wird wahrscheinlich auch viel mit der Reife von 7nm zusammenhängen. Die Performance-Einschätzungen variieren halt auch noch ordentlich, die einen schätzen Vega64-Niveau, die anderen GTX1170 (die schon ein paar Prozent auf Vega draufsetzen wird IMO). Letzteres wäre top, wenn man preislich konkurrenzfähig ist. UWQHD/UHD etc. bleibt dann aber leider Nvidia vorbehalten.

dildo4u
2018-06-12, 15:51:03
Es haut imo 100% hin warum sollte man nicht das Geld von Sony nehmen und High-End APU entwickeln. Das Killer Produkt der Zukunft ist ne 200 Watt 10 Tflop APU,mit HBM3.Das Paket wird im Mainstream immer Vorteile gegenüber einnem Intel+ NV Rechner haben.Und die Masse vom Markt bewegt sich definitiv unter 400€.

Dino-Fossil
2018-06-12, 15:52:17
Naja, WTFTech halt, munteres Potpourri der halbgaren Gerüchte, auf die man zum aktuellen Zeitpunkt noch nicht viel geben sollte.

Wenn Navi eine neue Architektur wird (und nicht erst "Next-Gen"), warum fängt man dann mit einem kleinen Chip an und bringt die größeren angeblich teils soviel später?
Selbst wenn Navi auch mit einer Verwurstelung in den Konsolen im Hinterkopf entwickelt wurde - wo ist das Problem? Pixelschubsen müssen die Dinger sowieso.
Und hat man nicht eben erst angekündigt, in Zukunft wieder eher zum alten Generationen-Zyklus zurück zu wollen?

Alles in allem: Nix genaues weiß man nicht, aber man generiert sicherlich ein paar Klicks...

Opprobrium
2018-06-12, 15:55:07
Auch wäre doch eine für Konsolen entwickelte GPU, die dann gut skaliert (was ja ein/der Schwerpunkt von Navi ist), genau das was AMD braucht. Momentan hinken sie ja etwas hinterher obwohl man meinen sollte, daß aufgrund der Konsolen GPUs AMD auch am Desktop die Nase vorne haben sollte.

Der_Korken
2018-06-12, 16:03:20
Für die Konsolen braucht man so oder so eine gute µ-Architektur. Was man in einer PS5 als GPU implementiert, kann man genauso gut als GPU für den Desktop bringen, da muss ja nicht mehr viel neu entwickelt werden. Was auf der Strecke bleiben könnte, wäre die Skalierbarkeit der Architektur (weil man ja nur eine Config für die Konsole brauchte statt einer ganzen Palette) und die Treiber-Arbeit für die Desktop-GPUs ... also genau das woran AMD auch heute schon krankt :freak:.

Opprobrium
2018-06-12, 16:07:17
und die Treiber-Arbeit für die Desktop-GPUs ... also genau das woran AMD auch heute schon krankt :freak:.
Den Ruf werden sie wohl nicht wieder los, oder? Ich hatte ehrlich gesagt noch nie großartige Treiberprobleme mit AMD, von fehlender Kernel Unterstützung für Fiji und Vega kurz nach Release mal abgesehen.

Dafür immer mal wieder sterbende Mauszeiger oder ähnliches bei nVidia...

Rampage 2
2018-06-12, 16:18:37
Das Killer Produkt der Zukunft ist ne 200 Watt 10 Tflop APU,mit HBM3.

10 Tflops ist viel zu wenig für eine Next Gen-Konsole... die PS4Pro hat schon 4,2 Tflops - *mindestens* 15 Tflops müssen es werden. Ich rechne mit einer 6144SP-APU bei einem Takt von 1.3-1.5 GHz @ 7nm.

R2

BoMbY
2018-06-12, 16:24:17
Ist halt alles möglich, vielleicht aber auch nicht. Eine komplett neue Architektur wurde ja auch schon für Vega gerüchtet, eventuell war das damals aber auch schon auf Navi bezogen, nur der Verbreiter hatte was falsch verstanden. Ansonsten sind die belastbaren Fakten noch sehr dünn.

Sicher ist praktisch nur, dass die Navi-Generation GFX10 heißt im Moment, bzw. die erste Generation GFX1000.

Außerdem ist die erste PCI-Hardware-ID von Navi die ich gesehen habe 0x7310 (dürfte dann als 7310:00 in Benchmarks auftauchen, und vermutlich gibt es 7310 bis 731F), was damit an die Fiji-IDs mit 0x7300 anschließt.

Alles andere steht für mich noch in den Sternen.

dargo
2018-06-12, 16:27:36
Auch wäre doch eine für Konsolen entwickelte GPU, die dann gut skaliert (was ja ein/der Schwerpunkt von Navi ist), genau das was AMD braucht. Momentan hinken sie ja etwas hinterher obwohl man meinen sollte, daß aufgrund der Konsolen GPUs AMD auch am Desktop die Nase vorne haben sollte.
Bei der Steinzeit-API am PC wird das nie was. Erst da muss sich was flächendeckend ändern. Mit modernen APIs hätte AMD nicht unbedingt überall die Nase vorne. Man wäre aber garantiert besser aufgestellt. Wenn ich wieder aktuell die technische Katastrophe @Assassins Creed Origins sehe kann ich nur mit dem Kopf schütteln. Außerhalb der dicht besiegelten Gebiete läuft das Game hier mit Vega blendend, wird allerdings trotzdem nicht wirklich gefordert. Innerhalb fürchterlich.

Der_Korken
2018-06-12, 16:27:43
Den Ruf werden sie wohl nicht wieder los, oder? Ich hatte ehrlich gesagt noch nie großartige Treiberprobleme mit AMD, von fehlender Kernel Unterstützung für Fiji und Vega kurz nach Release mal abgesehen.

Dafür immer mal wieder sterbende Mauszeiger oder ähnliches bei nVidia...

Sorry, das war etwas missverständlich ausgedrückt. Mit der Funktionalität der Treiber habe ich selbst seit Jahren nichts auszusetzen. Es ging eher darum, dass AMD sich immer noch schwer tut softwareseitig das Maximum aus ihrer Hardware rauszuholen. Wenn der Chip dann hauptsächlich für die Konsole ist, wo haufenweise externe Entwickler an hardwarenaher Optimierung arbeiten, gucken Desktop-Kartenbesitzer vermutlich in die Röhre.

HOT
2018-06-12, 16:51:15
Hab den Quatsch auch mal gelesen und gleich bereut. Alles nur zusammengesponnener Blödsinn. Natürlich hat Su die GPU-Sparte zugunsten von Zen und SemiCustom zusammengestrichen, old news. Irgendwo mussten die knappen Ressourcen hingelenkt werden. Aber dieses Navi-Sony-Ding ist purer BS. Ich vermute eher, dass Navi eigentlich ursprünglich für 2016 als Ablöse für GCN1 geplant war aber aufgrund der Kostensituation komplett auf 7nm verschoben wurde. Sony nutzt die Technik, die da ist und modifiziert diese, AMD entwickelt nicht extra ne Architektur für Sony, das wär nämlich Custom, nicht semi-Custom, also BS. Vega wurde als AI-Beschleuniger eingeschoben und hatte kaum was mit Grafik am Hut. Dass das Teil für Apple designt wurde entbehrt auch jeglicher Logik und kann nur Schwachsinn sein. Vega ist eben profiorientiert entwickelt wurden und als Abfallprodukt bei den Gamern gelandet, dazu passt das AI-Statement, sonst macht das nämlich gar keinen Sinn.
Navi wird das wirkliche GCN2, aber immer noch GCN sein. Die Pläne für die neue µArchitektur nach Navi wurden sicherlich erst danach unter Rajas Aufsicht fertiggestellt und auch erst mit der neuen Führung modifiziert und umgesetzt.

Letztendlich wirds da wirklich unglaubhaft, wo er versucht Navi als Sonys Baby zu verkaufen. Sony baut keine Architekturen, das ist einfach Blödsinn. Die sagen AMD höchstens, was sie gerne hätten, entsprechend wird die Navi-Architektur dann für Sony modifiziert werden.

Käsetoast
2018-06-12, 17:13:23
Letztendlich wirds da wirklich unglaubhaft, wo er versucht Navi als Sonys Baby zu verkaufen. Sony baut keine Architekturen, das ist einfach Blödsinn. Die sagen AMD höchstens, was sie gerne hätten, entsprechend wird die Navi-Architektur dann für Sony modifiziert werden.
Warum so unglaubwürdig? Das Chips extra für Konsolen entwickelt werden ist ja nun nichts Neues (bis hin zu Katastrophen wie das für den Sega Saturn mit 3dfx und NEC gleich zwei Unternehmen mit der Chipentwicklung ins Rennen geschickt wurden) und wenn man davon ausgeht, dass PCs und Konsolen momentan ja eh eine quasi identische grundlegende Hardwarebasis haben macht es in meinen Augen in einem gewissen Rahmen schon Sinn, dass die Architektur den Wünschen eines Großabnehmers wie Sony angepasst wird, denn wie der Artikel schon sagt sind die Konsolen Deals relativ sichere wie auch langfristige Einnahmen. Ich finde die Überlegung, aus diesem Grund die Architekturentwicklung enger mit Sony zu verzahnen, gar nicht so abwegig. Die Grundaussage ist ja auch eher, dass man sich was Features, Leistungsfähigkeit & Co angeht an den Vorstellungen, die Sony hat, orientiert und das man die Zeitplanung halt so auslegt wie es für Sony passt - es wurde ja nicht gesagt, dass Sony da die Entwicklung eines Privatchips selber bezahlt. Das mit dem "is building Navi for Sony" ist da einfach nur ein reißerische Formulierung - Navi ist da keine Auftragsentwicklung, aber die Auslegung von Navi wird sich da klar den Bedürfnissen und Zeitplänen eines Next-Gen-Konsolenchips für Sony unterwerfen...

Gipsel
2018-06-12, 17:19:02
Navi wird das wirkliche GCN2, aber immer noch GCN sein.Ich bin auch noch nicht von einer Abkehr von GCN überzeugt, die in letzter Zeit öfter mal proklamiert wird. Also wenn man mal das grundlegende Design der CUs (den eigentlichen "Kernen" einer GPU) mit der Kombination der Vektor- und Skalareinheiten als GCN definiert (und das "C" in GCN steht ja für "core"). Dafür ist das einfach zu "elegant" und auch vielseitig ohne offensichtlich größere Probleme aufzuweisen (die VLIW-SIMDs der TeraScale-Architekturen hatten auch ein ziemlich cleveres Design [weswegen man auch lange an ihnen festhielt], wiesen aber auf der anderen Seite auch klare konzeptionelle Schwächen auf; dies gibt es bei GCN nicht so).
Überschaubare Änderungen an der Core-Architektur sind sehr gut möglich (ohne das Konzept umzustoßen), aber am Kram drumherum (der extrem wichtig für das Funktionieren einer GPU ist) wird man meiner Meinung nach mehr ändern.

HOT
2018-06-12, 18:05:30
Warum so unglaubwürdig? Das Chips extra für Konsolen entwickelt werden ist ja nun nichts Neues (bis hin zu Katastrophen wie das für den Sega Saturn mit 3dfx und NEC gleich zwei Unternehmen mit der Chipentwicklung ins Rennen geschickt wurden) und wenn man davon ausgeht, dass PCs und Konsolen momentan ja eh eine quasi identische grundlegende Hardwarebasis haben macht es in meinen Augen in einem gewissen Rahmen schon Sinn, dass die Architektur den Wünschen eines Großabnehmers wie Sony angepasst wird, denn wie der Artikel schon sagt sind die Konsolen Deals relativ sichere wie auch langfristige Einnahmen. Ich finde die Überlegung, aus diesem Grund die Architekturentwicklung enger mit Sony zu verzahnen, gar nicht so abwegig. Die Grundaussage ist ja auch eher, dass man sich was Features, Leistungsfähigkeit & Co angeht an den Vorstellungen, die Sony hat, orientiert und das man die Zeitplanung halt so auslegt wie es für Sony passt - es wurde ja nicht gesagt, dass Sony da die Entwicklung eines Privatchips selber bezahlt. Das mit dem "is building Navi for Sony" ist da einfach nur ein reißerische Formulierung - Navi ist da keine Auftragsentwicklung, aber die Auslegung von Navi wird sich da klar den Bedürfnissen und Zeitplänen eines Next-Gen-Konsolenchips für Sony unterwerfen...
Weil AMD die Architektur baut, nicht Sony. AMD entwickelt die Architektur auf die nächste Stufe, Sony teilt AMD die Sonder- und Änderungswünsche mit, die die neue Architektur nicht mitbringt. So funktioniert das, sonst hast du eine reine Custom-Entwicklung, die sich AMD sehr viel besser bezahlen lassen würde. Ich glaube nicht, dass das von beiden Firmen das Ziel wäre. Sony möchte günstige, leistungsfähige SoCs haben, sonst nichts.
Semi-Custom geht wie folgt:
AMD entwickelt die Architekturen -> Sony teilt AMD mit, welche Modifikationen der SoC enthalten soll -> AMD entwickelt den Chip nach Vorgabe -> Sony verifiziert den Chip -> AMD produziert im Namen von Sony den entsprechenden Chip (geht nur so wegen x86).
Der Autor des Artikels dreht das um und verlässt somit schlicht semi-Custom -> ergo ist das purer BS.

Grendizer
2018-06-12, 18:26:42
und was bitte ist so abwegig daran, das man Sony einfach viel früher mit ins Boot holt und Quasi schon mit dem zu entwickelnden Standarddesign die Anforderung eines 100 Mio Chips Deals auf 5 Jahre zu erfüllen ?

HOT
2018-06-12, 18:38:16
und was bitte ist so abwegig daran, das man Sony einfach viel früher mit ins Boot holt und Quasi schon mit dem zu entwickelnden Standarddesign die Anforderung eines 100 Mio Chips Deals auf 5 Jahre zu erfüllen ?
Alles. Das ist absurd. Zudem kommt der Navi-Chip weit vor dem PS5-Chip.

Käsetoast
2018-06-12, 18:54:50
Alles. Das ist absurd. Zudem kommt der Navi-Chip weit vor dem PS5-Chip.
Naja, also wenn man sich den Release von GCN anguckt und was dann in der PS4 gelandet ist...
Wenn Navi dann erst in H2 2019 käme und eine PS5 für irgendwann Ende 2020 oder 2021 geplant ist, wäre das ganz ähnlich zu dem wie es bei der PS4 gelaufen ist. Sony wird halt eine ganze Weile brauchen bis da die internen APIs etc. für die Konsole programmiert sind - da würde ich nie mit einem brandaktuellen Chip rechnen, sondern immer mit etwas, das "weit" vor dem Konsolenrelease technisch fertig produzierbar ist...

Kriton
2018-06-12, 23:04:46
Forbes schreibt Ähnliches (liest sich als hätte man eigene Quellen - ggf. dieselbe(n), aber zumindest nicht auf wccftech verlinkt:

https://www.forbes.com/sites/jasonevangelho/2018/06/12/sources-amd-created-navi-for-sonys-playstation-5-vega-suffered/#3d5df0ac24fd

gravitationsfeld
2018-06-12, 23:17:54
Naja, also wenn man sich den Release von GCN anguckt und was dann in der PS4 gelandet ist...
Wenn Navi dann erst in H2 2019 käme und eine PS5 für irgendwann Ende 2020 oder 2021 geplant ist, wäre das ganz ähnlich zu dem wie es bei der PS4 gelaufen ist. Sony wird halt eine ganze Weile brauchen bis da die internen APIs etc. für die Konsole programmiert sind - da würde ich nie mit einem brandaktuellen Chip rechnen, sondern immer mit etwas, das "weit" vor dem Konsolenrelease technisch fertig produzierbar ist...
Die APIs sind nicht das Problem. Specs fuer Chips sind mindestens ein Jahr vor dem ersten Silizium verfuegbar und Navi wird sich jetzt auch nicht ueberall stark von GCN 1.0 unterscheiden.

Compiler eher, aber auch da hat man eigentlich genug Vorlaufzeit. Ansonsten koennte AMD ja auch keine GPUs zeitnah veroeffentlichen wenn sie in Produktion gehen.

Sunrise
2018-06-13, 01:18:53
....Sony wird halt eine ganze Weile brauchen bis da die internen APIs etc. für die Konsole programmiert sind - da würde ich nie mit einem brandaktuellen Chip rechnen, sondern immer mit etwas, das "weit" vor dem Konsolenrelease technisch fertig produzierbar ist...
Die Konsolenchips von SONY (siehe PS4 Pro) sind aber sogar technisch weiter als vergleichbare Desktop-GPUs zur gleichen Zeit. Die PS4 Pro GPU hatte VEGA-IP bereits, als VEGA für den Desktop erst fast ein Jahr später erschienen ist. Du kannst dir sicher sein, dass eine enge Zusammenarbeit mit SONY auf jedenfall dazu führen wird, dass SONY jede IP, die wenig Fläche kostet aber Vorteile bringen wird/könnte auch integrieren wird, und zwar bevor entsprechende Desktop-GPUs von AMD kommen.

Ob GDDR6 oder HBM3 (wahrscheinlich viel zu teuer), ist eigentlich Nebensache, aber die GPU-IP wird im AMD-Universum absolut State-of-the-Art sein. Wahrscheinlich sogar weiter als Navi, denn die PS4 Pro wird uns noch eine ganze Weile erhalten bleiben, denn AMD ist aktuell an allen Ecken und Enden am rotieren, schneller bekommen sie es einfach nicht hin und Prozess-bedingt sind wir auch noch nicht da, wo SONY/AMD hin möchte.

BoMbY
2018-06-13, 15:05:51
Sieht so aus als hätte AMD, zumindest für Gaming, keine MCM-GPUs auf dem Plan derzeit: https://www.pcgamesn.com/amd-navi-monolithic-gpu-design

Tru
2018-06-13, 15:09:56
Sieht so aus als hätte AMD, zumindest für Gaming, keine MCM-GPUs auf dem Plan derzeit: https://www.pcgamesn.com/amd-navi-monolithic-gpu-design
Computex-Gemurmel: Desktop-Navi in 7 nm soll etwas kleiner sein als Polaris 10/20 in 14 nm.

grauenvoll
2018-06-14, 10:20:44
Sony baut keine Architekturen, das ist einfach Blödsinn. Die sagen AMD höchstens, was sie gerne hätten, entsprechend wird die Navi-Architektur dann für Sony modifiziert werden.

Wo ist denn der Unterschied? Ich kann mir schon vorstellen, dass AMD erhebliche Zugeständnisse machen muss was Ressourcen und Architektur betrifft. Ohne diese wäre man schnell raus. Auf der Gegenseite wird Sony sich auch an den Kosten beteiligen. Man darf nicht vergessen, dass AMD finanziell das Wasser bis zum Hals stand. Das AMD mit seinem schmalen Budget für R&D 2 Produktilinien entwickeln kann, wo Intel und nVidia ein vielfaches zur Verfügung steht, muss man bezweifeln. Zu allem Überfluss wollte Raja dann auch noch AI als 3. Markt beackern...

Complicated
2018-06-14, 10:48:06
AMD wird sich jedes Zugeständnis bezahlen lassen. Dafür ist eine Semi-Custom Abteilung gedacht. Selbst wenn AMD kaum etwas verdient, so werden Forschung und Entwicklung vom Kunden bezahlt und AMD kann darauf basierend Produkte im Markt platzieren. Wenn auch kein Highend dabei raus kommt, so finde ich es lächerlich AMD vorzuwerfen sie würden die Gamer im Stich lassen indem sie Chips für GAMING-Konsolen priorisieren. Wo finden sich mehr Gamer? Highend oder Konsolen?

AMD bezahlt hier keine 2 Forschungslinien sondern maximal eine Halbe.

HOT
2018-06-14, 11:58:11
Wo ist denn der Unterschied? Ich kann mir schon vorstellen, dass AMD erhebliche Zugeständnisse machen muss was Ressourcen und Architektur betrifft. Ohne diese wäre man schnell raus. Auf der Gegenseite wird Sony sich auch an den Kosten beteiligen. Man darf nicht vergessen, dass AMD finanziell das Wasser bis zum Hals stand. Das AMD mit seinem schmalen Budget für R&D 2 Produktilinien entwickeln kann, wo Intel und nVidia ein vielfaches zur Verfügung steht, muss man bezweifeln. Zu allem Überfluss wollte Raja dann auch noch AI als 3. Markt beackern...
Das macht einfach keinen Sinn. Sony wird sicherlich Forderungen stellen, aber letztendlich sind die trotzdem davon abhängig. Und AMD ist ganz sicher nicht raus, da das ne Kostenfrage ist. Außer AMD kann das nämlich keiner für die geringen Kosten liefern. Wieso versteht ihr eigentlich alle nicht, dass semi custom nur deshalb so erfolgreich ist, weil AMD es schafft, die Kosten für die Kunden aufgrund der modular für den PC entwickelten Standardkomponenten so niedrig zu halten, dass es konkurrenzlos wird und trotzdem noch daran zu verdienen. Darum gehts und darum ist diese Navi-ist-Sony-Geschichte einfach purer BS. So läuft das einfach nicht. Die entwickeln ihre CPU/GPU-Geschichten modular weiter und stellen einen Baukasten aus vorhandenen Technologien für die semi custom-Kunden zu Verfügung und einige Elemente davon sind halt Kundenwunsch. Aber nicht die ganze Architektur, das ist und bleibt Blödsinn.

BoMbY
2018-06-14, 12:53:01
Ich denke auch diese Geschichte ergibt keinen rechten Sinn. Die Entwicklung erfolgt ja auch eher in Teams in einer Pipeline. Zuerst werden die Grundbausteine erstellt, und dann baut ein weiteres Team einen Chip daraus, und dann macht ein anderes Team die Tests, und ein weiteres die Tapeouts, usw. usf. Und während die im nächsten Team noch an Chip X arbeiten, fangen die Vorgänger bereits bei Chip Y an.

mboeller
2018-06-14, 13:09:46
Computex-Gemurmel: Desktop-Navi in 7 nm soll etwas kleiner sein als Polaris 10/20 in 14 nm.

also so schnell wie ein Vega @ 2GHz?

AffenJack
2018-06-14, 13:40:14
Computex-Gemurmel: Desktop-Navi in 7 nm soll etwas kleiner sein als Polaris 10/20 in 14 nm.

Immer wieder wunderbar, was sich Leute auf Messen ausdenken. Navi hatte vielleicht zur Computexzeit seinen Tapeout und AMD kriegt in 2 Monaten erstes Silikon zurück und da wollen Leute schon wissen, wie groß Navi wird. So eine schlechte Geheimhaltung traue ich nichtmal AMD zu.

Ich sage damit nicht, dass es falsch ist, aber bei den daten zu 7nm ist es nicht gerade schwer mit einem educated guess darauf zu schließen.

grauenvoll
2018-06-14, 13:50:13
Ich denke auch diese Geschichte ergibt keinen rechten Sinn. Die Entwicklung erfolgt ja auch eher in Teams in einer Pipeline. Zuerst werden die Grundbausteine erstellt, und dann baut ein weiteres Team einen Chip daraus, und dann macht ein anderes Team die Tests, und ein weiteres die Tapeouts, usw. usf. Und während die im nächsten Team noch an Chip X arbeiten, fangen die Vorgänger bereits bei Chip Y an.

Polaris war auch ein Ableger der XBOX. Der Leistungsumfang hat sich klar an den Bedürfnissen der XBOX orientiert. So wurde AMDs Strategie aus der Not geboren sich auf das Midrange-Segment zu konzentrieren. AMD konnte nur etwas entwickeln, für das es Geldgeber gab. Ob das in Zukunft immer noch gilt, wird sich zeigen. Ich denke die Zusagen sind aber in der Vergangenheit gemacht worden und es wird noch dauern, bis man wieder die notwendige Beinfreiheit hat.

BoMbY
2018-06-14, 13:50:36
Immer wieder wunderbar, was sich Leute auf Messen ausdenken.

Abgesehen davon heißt das nichts. Das wäre immer noch ungefähr Platz für 64 CUs, und wenn die Architektur komplett neu sein sollte, oder zumindest in Teilen (z.B. Virtual Register oder unterschiedlich große CUs), dann kann man auf Grund der Größe keinerlei Rückschlüsse mehr ziehen.

SKYNET
2018-06-14, 13:51:59
also so schnell wie ein Vega @ 2GHz?


dann wäre sie immerhin so schnell wie ne 1080 Ti FE...

Dino-Fossil
2018-06-14, 13:52:37
Sony (oder auch Microsoft) könnte sicherlich Anforderungen stellen, die das Chipdesign in gewisser Weise beeinflussen könnten. Aber das wird kaum in einem Chip resultieren, der außerhalb der Konsolen nicht mehr zu gebrauchen ist.

SKYNET
2018-06-14, 14:25:37
Sony (oder auch Microsoft) könnte sicherlich Anforderungen stellen, die das Chipdesign in gewisser Weise beeinflussen könnten. Aber das wird kaum in einem Chip resultieren, der außerhalb der Konsolen nicht mehr zu gebrauchen ist.


denke ja eher, das läuft so: AMD legt sony / MS die architekturpläne vor, und sagt "das ist navi, wenn ihr anpassungen wollt können wir xyz, 123, abc, & 000 ohne probleme ändern wenn gewünscht"

wird mit sicherheit nicht ein 1:1 produkt sein, AMD entwickelt für desktop/rechenzentrum, und das wird dann in abgewandelter form in der konsole landen.

Hübie
2018-06-14, 14:29:57
Es wäre übergreifend einfacher und kostengünstiger zu realisieren, wenn man ein Chip für Alles hat. Ich denke dass die nächsten Gens näher zusammen liegen werden.

BoMbY
2018-06-14, 15:15:26
Naja, prinzipiell wäre Idee gar nicht so dumm. Sagen wir ein Chip mit 48-64 CUs der sich sowohl einzeln, also auch wie bei Kaby-G auf einem Package mit CPU unterbringen lässt. Dann wäre es für Sony und AMD interessant. Das würde aber wieder eher gegen die GDDR6-Gerüchte und für HBM2 (oder 3) sprechen.

SKYNET
2018-06-14, 16:04:17
Naja, prinzipiell wäre Idee gar nicht so dumm. Sagen wir ein Chip mit 48-64 CUs der sich sowohl einzeln, also auch wie bei Kaby-G auf einem Package mit CPU unterbringen lässt. Dann wäre es für Sony und AMD interessant. Das würde aber wieder eher gegen die GDDR6-Gerüchte und für HBM2 (oder 3) sprechen.

evtl. gibts bei navi auch HBM2(3) als zusätzlichen cache und GDDR6 als texturspeicher :confused:

BoMbY
2018-06-14, 18:08:03
Aus einer Jobbeschreibung von Linkedin:


The Unified Memory Controller(UMC) is an IP that delivers into all SoCs that are shipped by AMD. We verify a highly configurable, flexible design that supports multiple DRAM technologies on the same codebase.
We deliver to server, console, discrete graphics and low power SoC’s which involves supporting DDR4/LPDDR/GDDR5,6/HBM.


Die Frage wäre ob man wirklich einen HBM und GDDR6 PHY auf einen Chip lötet, und dann die eine Hälfte immer aus ist? Oder könnte man vielleicht einen HBM und GDDR Multi-PHY basteln? Wobei das eigentlich keinen Sinn ergibt bei der total unterschiedlichen Busbreite.

YfOrU
2018-06-14, 19:03:41
Ich denke auch diese Geschichte ergibt keinen rechten Sinn. Die Entwicklung erfolgt ja auch eher in Teams in einer Pipeline. Zuerst werden die Grundbausteine erstellt, und dann baut ein weiteres Team einen Chip daraus, und dann macht ein anderes Team die Tests, und ein weiteres die Tapeouts, usw. usf. Und während die im nächsten Team noch an Chip X arbeiten, fangen die Vorgänger bereits bei Chip Y an.

Mit Blick auf die geplanten Produkte (Einsatzzweck) gibt es für die Teams zwangsläufig Designziele. Wenn der Schwerpunkt (GPU Entwicklung) auf Semi Custom für Konsolen liegt sind die einfach niedriger angesetzt als wenn man nach den Sternen greift. Meiner Ansicht nach ist grundsätzlich schon was dran. AMD hat halt selbst sehr wenig investiert da der Großteils des R&D Budgets in der CPU Sparte benötigt wurde. Die Konsequenz kommen dann immer erst mit ein paar Jahren Verzögerung am Markt an.

Vom wirtschaftlichen Standpunkt ist es eine absolut nachvollziehbare Entscheidung gewesen. Über Semi Custom kommt Kapital rein und für Mainstream bis Performance GPUs sollte es trotzdem immer reichen. Für mehr braucht es eine echte Next Gen GPU Architektur und die finanziert weder Microsoft noch Sony alleine. Wurde hinten angestellt und braucht seine Zeit (und Kapital).

Ist zwar nicht schön - für AMD ist es aber besser den Rückstand welchen man auf Intel hatte jetzt gegenüber Nvidia zu haben als umgekehrt. Objektiv betrachtet war kaum etwas anderes zu erwarten. Bei der Ausgangslage gleichzeitig gegenüber Intel und Nvidia erfolgreich zu sein ist nicht realistisch.

Grendizer
2018-06-14, 19:09:40
Vom wirtschaftlichen Standpunkt ist es eine absolut nachvollziehbare Entscheidung gewesen. Über Semi Custom kommt Kapital rein und für Mainstream bis Performance GPUs sollte es trotzdem immer reichen. Für mehr braucht es eine echte Next Gen GPU Architektur und die finanziert weder Microsoft noch Sony alleine. Wurde hinten angestellt und braucht seine Zeit (und Kapital).

Ist zwar nicht schön - für AMD ist es aber besser den Rückstand welchen man auf Intel hatte jetzt gegenüber Nvidia zu haben als umgekehrt. Objektiv betrachtet war kaum etwas anderes zu erwarten.

Absolut richtig .... blöd für AMD ist es nur, das man sich evtl. bald auch noch gegen Intel behaupten muss. Wenn man dann von oben und unten angegriffen wird, kann es in der Mitte sehr ungemütlich werden. Ich vermute das Raja mit der Kohle von Intel auch relativ schnell was Navi mäßiges ausrollen kann.

YfOrU
2018-06-14, 19:38:35
Das sehe ich auch so. Völlig überm Berg ist AMD bei weitem noch nicht. Das allgemeine Problem (zu wenig Kapital und R&D Kapazitäten) wurde verlagert und die Position am Markt deutlich verbessert. Ob das aber ohne Fremdkapital reicht um eine langfristige Trendwende zu schaffen bin ich mir nicht so sicher. Es kommt zwar jetzt Kapital rein aber in Relation zu Intel und Nvidia ist es noch immer viel zu wenig. Dauert natürlich nur ist halt die Frage ob man es aus eigener Kraft schafft denn R&D ist ein gnadenloses Rennen.

Nvidia sitzt heute fest im Sattel und hat eine sehr stabile Marktposition erreicht. Sollte Intel aber eine solide GPU und HPC Architektur hinbekommen kann es durchaus ungemütlich werden. Im Gegensatz zu AMD hat Intel die Ressourcen um die (x86) CPU + GPU Karte in allen Segmenten voll auszuspielen.

SKYNET
2018-06-14, 19:42:07
Nvidia sitzt heute fest im Sattel und hat eine sehr stabile Marktposition erreicht. Sollte Intel aber eine solide GPU und HPC Architektur hinbekommen kann es durchaus ungemütlich werden. Im Gegensatz zu AMD hat Intel die Ressourcen um die (x86) CPU + GPU Karte voll auszuspielen.

nur das es bei intel wie immer an den treiber scheitern wird... das konnten sie nie, das können sie bis heute nicht, und das wird ihn auch in zukunft ein bein stellen.

Linmoum
2018-06-14, 19:44:52
Absolut richtig .... blöd für AMD ist es nur, das man sich evtl. bald auch noch gegen Intel behaupten muss. Wenn man dann von oben und unten angegriffen wird, kann es in der Mitte sehr ungemütlich werden. Ich vermute das Raja mit der Kohle von Intel auch relativ schnell was Navi mäßiges ausrollen kann.
Blöd wär's für AMD vor 4 Jahren gewesen. Zudem sollte Intel erstmal schauen, dass sie Epyc in 7nm etwas entgegensetzen können. Wenn's blöd läuft, hat man da (über) ein Jahr Rückstand. Fatale Aussichten fürs Servergeschäft.

2020 gibt's zudem bereits den Navi-Nachfolger und niemand weiß, wie Intels erste Schritte nach dem letzten fail aussehen werden. Von Intels berühmt-berüchtigten Treibern mal ganz abgesehen.

YfOrU
2018-06-14, 19:49:46
Zudem sollte Intel erstmal schauen, dass sie Epyc in 7nm etwas entgegensetzen können. Wenn's blöd läuft, hat man da (über) ein Jahr Rückstand. Fatale Aussichten fürs Servergeschäft.

Der Markt ist sehr träge. Ist aus Sicht eines Unternehmens wie Intel sicherlich fatal den der eigene Anspruch ist ein ganz anderer. Trotzdem werden für AMD selbst wenn es derart gut läuft in der Zeit keine ~20% Marktanteil rausspringen. Selbst das wäre schon ein großer Erfolg für die zweite Generation.

nur das es bei intel wie immer an den treiber scheitern wird... das konnten sie nie, das können sie bis heute nicht, und das wird ihn auch in zukunft ein bein stellen.

Das halte ich für eine ziemlich überholte und ignorante Aussage. Intel hat massiv in die Software investiert und das merkt man mit aktuellen IGPs an allen Ecken.

robbitop
2018-06-14, 19:50:12
Ich tippe darauf, dass "Navi für Sony gemacht wurde", eine etwas übertriebene Aussage war.
Was ich mir vorstellen könnte, ist dass Sony/MS gewisse Aspekte in das Lastenheft geschrieben haben, die sie für die µArch im nächsten SoC wollen.
Ich kann mir schwer vorstellen, dass das zwingend diametral mit den Vorstellungen für eine PC GPU sein muss. Alle GPUs (XBox, PC, PS) haben eines gemeinsam. Sie rendern 3D Grafik für relativ vergleichbare APIs mit relativ vergleichbaren Instrumenten und Randbedinungen (Rastern, Transformation, Texturen, Compute für relativ vergleichbare Zwecke, Pixelshader für relativ vergleichbare Aspekte, so viel Perf/$ wie möglich)

Entsprechend gar nicht so problematisch, die Wünsche beider Kunden mit aufzunehmen und trotzdem gute GPUs für den PC zu entwerfen.

Was eher diametral ist, ist HPC/AI. Deshalb entwirft NV seit Pascal eigene GPUs für den Bereich und deshalb gibt es Vega20.

Letztenendes kann man mit den Konsolen SoCs dank relativ konstanten Umsätzen das Unternehmen und die Entwicklung mitfinanzieren. Hätte man mehr Manpower und Kapital, wäre es sicherlich unabhängig vom Einfluss von Sony/MS, halbwegs gleichzeitig 3x GPUs pro Zyklus zu liefern (klein, mittel und groß).
Im Moment sind es einfach zu viele Hochzeiten - so sucht man sich die aus, wo man pro Aufwand die meiste (oder im Konsolenfall die langfristig sicherste) Marge holen kann. Das sind Konsolen, AI (wohl hohe Margen) und Mainstream GPUs.

Wenn man für PC GPUs nur Ressourcen für 1x Produkt hat, ist ein Mainstreamprodukt sicherlich nicht die schlechteste Wahl.
Zumal AMDs High End GPUs sich vergleichsweise schlecht verkauft haben zuletzt (Fijii, Vega 10) und der Mainstream halbwegs lief (Tahitii, Tonga, Hawaii, Polaris).

Dank der aufblühenden Prozessorsparte wird man (hoffentlich organisch!) sukzessive das Unternehmen wieder aufbauen können. Dann ist mittelfristig auch im PC mehr möglich.
Andererseits will Intel auch auf den PC GPU Markt - dann wird es schnell dünn. Ggf. ist ökonomisch der Weg den AMD geht (auch wenn das für uns Gamer nicht so schön ist) für das langfristige Bestehen des Unternehmens sinnvoller?

Eines ist (insbesondere nach den letzten Gerüchten zu Turing) klar. So lange keine ernstzunehmende Konkurrenz da ist, wird NV die Gewinnspannen noch weiter erhöhen können (ökonomisch natürlich eine hervorragende Situation) - und der Gamer bezahlt für den Performancechip (104) dann so viel, wie zuvor für den High End Chip (102) oder mehr. Funktioniert ja schließlich...

(ähnlich lief es ja mit Intel, solange sie keine CPU Konkurrenz hatten über viele Jahre)

An sich hat man ja jede Generation zu vergleichbaren Preisen eine Leistungsverdopplung (oder nahe dran...) erhalten. Ab Turing zahlt man aber bei der neuen Gen (wenn die Gerüchte stimmen) für die Mehrleistung mehr Geld ggü dem alten Produkt...

Grendizer
2018-06-14, 19:55:06
Blöd wär's für AMD vor 4 Jahren gewesen. Zudem sollte Intel erstmal schauen, dass sie Epyc in 7nm etwas entgegensetzen können. Wenn's blöd läuft, hat man da (über) ein Jahr Rückstand. Fatale Aussichten fürs Servergeschäft.

2020 gibt's zudem bereits den Navi-Nachfolger und niemand weiß, wie Intels erste Schritte nach dem letzten fail aussehen werden. Von Intels berühmt-berüchtigten Treibern mal ganz abgesehen.

Ich kann das nur aus unserer Sicht sehen. Da werden HP Server mit 2 Slots und CPUs mit 12-32 Kernen und 512-1024 Gb RAM gekauft (als VMWare Hosts). Die Kosten verursachen da nicht mehr die CPUs sondern die Software und der Speicher. 2.000-3.000 Kostenvorteil bei den CPUs interessiert doch niemand mehr so wirklich.

robbitop
2018-06-14, 19:59:50
Und soweit ich weiß haben Intelplattformen bei den zuständigen IT'lern einfach einen soliden Ruf. Wenig Probleme (um die sie sich kümmern müssen - was pro Mitarbeiterstunde ziemlich Geld kostet). Dann wird vermutlich eher Intel bestellt.

Gesamtkosten sind ja nicht nur Investitionskosten für HW, sondern auch für SW (vgl Grendizer), Betriebs- und "Wartungskosten". Da geht der Mehrpreis für HW schnell unter.

Vermutlich ist der Ruf im Profibereich wirklich wichtig - somit muss man sich das langsam (aber stetig!) auch erstmal erarbeiten. Wird sicherlich ein paar Jahre dauern. Dranbleiben, AMD! :)

mboeller
2018-06-14, 20:28:57
Der Markt ist sehr träge. Ist aus Sicht eines Unternehmens wie Intel sicherlich fatal den der eigene Anspruch ist ein ganz anderer. Trotzdem werden für AMD selbst wenn es derart gut läuft in der Zeit keine ~20% Marktanteil rausspringen. Selbst das wäre schon ein großer Erfolg für die zweite Generation.

Das wäre IMHO kein großer Erfolg... das wäre unglaublich!

https://www.golem.de/news/quartalszahlen-intel-erreicht-umsatzrekord-trotz-schwaechelnder-sparte-1701-125849.html


In der Server-Sparte, der Data Center Group mit Xeon-Chips, konnte Intel 4,67 statt 4,31 Milliarden US-Dollar... erwirtschaften


davon 20% wären 930 Mio Dollar pro Quartal.

https://www.golem.de/news/quartalszahlen-amd-steigert-umsatz-dank-polaris-und-ryzen-1705-127588.html


Der CPU- und GPU-Entwickler AMD hat im ersten Quartal 2017 seinen Umsatz verglichen mit dem Vorjahr deutlich steigern und den Verlust reduzieren können. Mit 984 statt 832 Millionen US-Dollar setzte AMD rund 18 Prozent mehr um


... also in etwa eine Verdoppelung des Umsatzes alleine durch die Server bei 20% Marktanteil.

upps! Hier stehen andere Zahlen und 2018 sieht natürlich wesentlich besser aus als 2017:
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Q1-2018-Quartalszahlen-Umsatz-Gewinn-Ryzen-Radeon-1255250/

YfOrU
2018-06-14, 20:59:18
davon 20% wären 930 Mio Dollar pro Quartal.

Schon eher ein ganzes Stück weniger denn so träge wie der Markt ist braucht AMD brutal aggressive Angebote. Also deutlich mehr Performance für deutlich weniger Geld. Anders kann man die OEMs nicht dazu zwingen (Nachfrage) das Angebot an Systemen schnell zu erweitern und das Zeitfenster (Intel) hat ein Ablaufdatum. AMD braucht zwar dringend mehr Kapital aber die eigene Plattform am Markt wieder relevant zu machen dürfte eine noch höhere Priorität haben (und verschenken muss man die CPUs ja trotzdem nicht). Bis es richtig läuft steht wahrscheinlich die dritte Generation vor der Tür. In dem Kontext ist auch Intels Aussage dazu zu sehen. Denen ist klar das es AMD drauf anlegen wird und selber hat man wenig Lust die hohen Margen aufzugeben (und in Folge eine Abwärtsspirale loszutreten). Also aussitzen und etwas Marktanteile verlieren. Solange man es nicht selbst verbockt kann AMD dabei nur gewinnen.

TheGood
2018-06-15, 00:02:20
Man darf aber auch nicht vergessen dass der Kostendruck immer grösser wird und dann wird in den oberen Etagen immer da gerechnet wo es am einfachsten ist. DAss amd dann mehr Support im nachhinein benötigt geht doch in der Regel kompeltt unter.

nichtsdestotrotz sind einige der Gerüchte rund um navi und Sony doch einfach schwachsinnig. Z.b. dass er exklusiv ist und AMd das auch nicht als diskrete Grafik heruasbringen draf usw. DAs ist doch alles total unlogisch wenn man sich das weitere Vorgehen ansieht.

Ebenso dass Polaris und Navi nur MIdrange sind, weil sie von den Konsolen abstammen. ES ist doch offensichtlich dass die GCN Architektur ein skalierungsproblem hat und dieses offensichltich nicht behoben werden kann. Vermutlich weil auch zu wenig R&D da war. Da konzentriere ich mich doch eher auf den Midrange wo ich dann locker etwas erreichen kann, mit dem vorhandenen Budget. Bei NAvi scheint es aus irgendwelchen Gründen auch wieder so gelaufen zu sein. In derneuen Sony Konsole sehe ich eher einen Navi+ denn bis die Konsole 2021 erscheinen soll passiert da noch so einiges. Da kann ich locker noch bis ende 2019 den Chip entwickeln... Waum sollte ich mich denn jetzt schon festlegen.
Das sieht man auch an der playstation pro welche ja auch VEGA Features drin hatte.

Für mich ist das nicht stimmig bzw. wird völlig hochgepuscht. Klar sag t Sony was es will und hat vielelicht auch ein paar eigene Idee, aber am Ende hat sony doch keine Ahnung von Grafikchipentwicklung oder ist mir da was entgangen? Und AMD wird bei IHrer Marktposition doch gewiss keine Exklusivdeals notwendig haben, denn sie wissen auch dass ausser Ihnen kein kostengünstiges Gesamtpaket liefern kann...

basix
2018-06-15, 00:20:13
Die Frage wäre ob man wirklich einen HBM und GDDR6 PHY auf einen Chip lötet, und dann die eine Hälfte immer aus ist? Oder könnte man vielleicht einen HBM und GDDR Multi-PHY basteln? Wobei das eigentlich keinen Sinn ergibt bei der total unterschiedlichen Busbreite.

Der Memory Controller ist kein PHY. Die PHYs sind genau genommen nur die SerDes des Interfaces. Alles dahinter ist wieder "normale" Logik. Da könnte man ja schon was Unified basteln. Multi-Protokoll PHYs machen nur Sinn bei ähnlichen Interface Taktraten. Siehe PCIe / xGMI bei Ryzen.

dargo
2018-06-15, 07:04:20
Nvidia sitzt heute fest im Sattel und hat eine sehr stabile Marktposition erreicht. Sollte Intel aber eine solide GPU und HPC Architektur hinbekommen kann es durchaus ungemütlich werden. Im Gegensatz zu AMD hat Intel die Ressourcen um die (x86) CPU + GPU Karte in allen Segmenten voll auszuspielen.
Irgendwas passt da nicht so ganz zusammen. Aktuell kooperiert AMD mit Intel hierbei:
https://geizhals.de/intel-nuc-kit-nuc8i7hvk-hades-canyon-boxnuc8i7hvk-a1752708.html

Und dann tut man wieder alles um AMD zu schaden?

ndrs
2018-06-15, 09:26:35
Irgendwas passt da nicht so ganz zusammen. Aktuell kooperiert AMD mit Intel hierbei:
https://geizhals.de/intel-nuc-kit-nuc8i7hvk-hades-canyon-boxnuc8i7hvk-a1752708.html

Und dann tut man wieder alles um AMD zu schaden?
Wenn die Player hinreichend groß sind, kann es durchaus vorkommen, dass man sich gleichzeitig liebt und ankackt. Siehe Apple und seinen größten Konkurrenten Samsung. Die klagen sich wegen runder Ecken zu tode, die Technik im iPhone stammt (oder stammte) zu großen Teilen vom Erzfeind (Display, Chipfertigung, ...)

Hübie
2018-06-18, 18:46:41
Die Gerüchte zu Navi (erst Ende 2019 und dann mit schlaffer Performance) reißen leider nicht ab. Leo hat auf der Hauptseite einen Artikel dazu geschrieben.
Vega wird somit offenbar so etwas wie ein Testballon (dejavu an Fiji anyone?). Kann mir einer mal die Strategie dahinter erklären? Ich blicke die irgendwie nicht. Geht man jetzt auch wieder generell auf GDDR zurück?

Linmoum
2018-06-18, 18:54:08
Und pcgh berichtete von der Computex, dass AMD Ende Q1 2019 anvisieren würde. Wer hat nun recht?

MR2
2018-06-18, 18:55:30
Jo, alles sehr seltsam. So lange kann das nicht dauern...
Ich frage mich was AMD jetzt bringen will wenn Nvidias Turing erscheint. Die 1080 ti ist jetzt schon meilenweit vorraus. Am Ende werdens die Preise richten müssen.

TheGood
2018-06-18, 20:44:52
DA wird man nicht schlau draus und nachvollziehbar ist dies auch nicht. Das Gerücht von PCGH klingt logischer, aber das könnte auch Wunschdenken sein. Vielleicht ist der Chip im Frühjahr gar nicht NAvi sondern es wird flux mal eine Generation dazwischengeschoben. Nvidia hat das ja auch schon so gemacht. Es könnte auch schlichtweg einfach falsch sein. In nem halben Jahr wissen wir mehr.

Complicated
2018-06-18, 23:03:11
Es wurde auch berichtet Navi würde vorgezogen. Es könnten einfach veraltete Infos sein.

OBrian
2018-06-19, 00:54:25
Ich denke, man hatte ursprünglich geplant, noch eine GCN-Riege zu bringen nach Vega, um die Zeit zu überbrücken bis zur NextGen-Architektur. Mit GCN sind aber Chips größer als 4096 ja nicht drin, also wäre ein Vega64-Nachfolgechip eh nicht viel schneller geworden. Warum soll man also etwas bringen, womit man eh keinen Blumentopf gewinnen kann? Jeder neue Chip heutzutage ist wahnsinnig teuer, also gibt man das Geld dafür nur aus, wenn es damit einen deutlichen Performancesprung gibt.

Vega ist ja eh später gekommen als geplant, und die 7nm kommen evtl. ein bißchen früher als befürchtet, also ist das Zeitfenster eh klein genug, um ohne "Vega done right" auszukommen. Damit fällt Navi ersatzlos weg, und AMD benennt schnell die darauf folgende (nicht mehr GCN-) Architektur in "Navi" um, damit es nicht auffällt.

Wenn AMD Vega mit ausreichend wenig Spannung attraktiv gestalten würde, dann können sie die gut verkaufen, und auch wenn die Herstellungskosten etwas größer sind als bei Nvidias gleichteurem Konkurrenzprodukt, dann sparen sie dafür aber die Kosten eines neuen Chips, die Treiberentwicklung wird auch vereinfacht usw. Also rein wirtschaftlich betrachtet sehr sinnvoll, und andere Betrachtungsweisen darf sich AMD glaube ich auch nicht leisten.

Hübie
2018-06-19, 08:07:16
DA wird man nicht schlau draus und nachvollziehbar ist dies auch nicht. Das Gerücht von PCGH klingt logischer, aber das könnte auch Wunschdenken sein. Vielleicht ist der Chip im Frühjahr gar nicht NAvi sondern es wird flux mal eine Generation dazwischengeschoben. Nvidia hat das ja auch schon so gemacht. Es könnte auch schlichtweg einfach falsch sein. In nem halben Jahr wissen wir mehr.

Genau das ist es. Man wird nicht schlau daraus. Nach aktuellem Stand (und da möge man mich korrigieren):
Q4'18 = Vega 20 - 16-32 GB HBM2, HPC only, 7nm
Q#'19 = NAVI 10 - Polaris Preisklasse mit Vega Performance, 7nm
Q#'20 = NAVI 14(?) - Vega Erbe mit vielleicht plus 60% Leistung, 7nm

Navi soll dann für mein Verständnis ein from-bottom-to-top-Chip sein. Hat man denn einen fetten Deal dass man V20 für HPC only bringt oder wird das auf ein Kostenspiel hinaus laufen? Man müsste ja schon einige hundertausend Stück verkaufen um R&D plus laufende Kosten rein zu bringen... :|

danarcho
2018-06-19, 10:14:08
Ich denke, man hatte ursprünglich geplant, noch eine GCN-Riege zu bringen nach Vega, um die Zeit zu überbrücken bis zur NextGen-Architektur. Mit GCN sind aber Chips größer als 4096 ja nicht drin,
Das ist keine Limitation von GCN, sondern der aktuellen Implementierungen. Das wäre in etwa so als würde man sagen x86 ist auf octa-cores limitiert. Ergibt keinen Sinn.

GCN ist auch nicht Bulldozer. Das Instruction Set und auch die Implementierung der CUs sind beides recht gelungen, auch wenn es öfter mal ein bisschen an Registern fehlt, und ich beim Treiber durchaus noch Luft nach oben sehe.

Ihr könnt gerne die ganze Zeit von NextGen usw reden, aber am Ende des Tages werden Navi und dessen Nachfolger allesamt GCN bleiben, ich schätz mal für locker weitere 7-10 Jahre. Das bedeutet nicht, dass es nicht grobe Änderungen geben wird, aber einen Schritt wie von TeraScale brauchen wir erst mal nicht erwarten.