Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
Gar keine Marge kann doch wohl kaum sein, denn so teuer kann HBM2 gar nicht werden.
grauenvoll
2017-05-09, 13:48:39
Das hat mit einem "Zutrauen" nichts zu tun. Man hat also nach meinem persönlichen Dafürhalten einfach wenig Reserven zum Zusetzen, und muß sich deshalb beim Preis etwas mehr Sicherheitspuffer zum break-even belassen.
Mit Ryzen hat AMD mittlerweile ein zweites, profitables Standbein. Und man hat auch keine verwöhnten Anleger, die einen irrsinniges Gewinnwachstum erwarten, im Gegensatz zu nVidia. Durch die Kursgewinne der letzten Monate, auch wenn dieser zuletzt nachgegeben hat, hat man schon einiges Spielraum dazugewonnen.
Wir können nur im Kaffeesatz lesen, welche Strategie man fährt: Marktanteil oder maximalen Ertrag. nVidia hat bereits Marktanteil, also können sie problemlos auf maximalen Ertrag gehen.
grauenvoll
2017-05-09, 13:49:52
Gar keine Marge kann doch wohl kaum sein, denn so teuer kann HBM2 gar nicht werden.
Wenn sich die Zahl 16.000 Stück widererwarten bewahrheiten sollten, kann das schon sein.
Klevapalis
2017-05-09, 13:51:39
Daß HBM2 gepusht werden wird, sehe ich ja genauso. Das Problem von AMD ist allerdings, daß wenn gar keine Marge mehr rauskommt, sondern ein Minus (wie gesagt, HBM2 ist noch ein gutes Stück weit Wundertüte, weil noch keine tragfähigen Daten für die Großserie vorhanden sind), die Kriegskasse alles andere als gut gefüllt ist. Wäre man deshalb gezwungen, nachträglich die Preise zu erhöhen, wäre das ziemlich fatal.
Das könnte durchaus die 16000 Einheiten erklären. HBM2 ist so teuer, dass die Karte eine sehr geringe Marge hat, also lässt man nicht so viele fertigen, sondern nutzt die Karte eher als Technologieträger. War ja mit Fiji nicht anders und ich will nicht wissen, um wie viel die Marge einer GTX980Ti höher war, als die der FuryX. Wäre dann natürlich Essig mit steigendem Marktanteil im GPU-Markt und mehr Umsatz. Aber immerhin hat man die Versprechen mit Q2/17 eingehalten. Ist nur fraglich, wie man dann weiterhin mit NVIDIA konkurrieren will. Vega11 ist ja scheinbar nicht in Sicht für den Sommer.
Eventuell hat AMD mit niedrigeren Preisen gerechnet, weil man dachte, NVIDIA hat ja auch HBM2-Produkte in der Pipeline. Dass es dann das Nischenprodukt GP100 war, wusste man nur leider nicht.
Cyphermaster
2017-05-09, 14:06:09
Durch die Kursgewinne der letzten Monate, auch wenn dieser zuletzt nachgegeben hat, hat man schon einiges Spielraum dazugewonnen.Den kannst du getrost vergessen, denn falls die Zahlen der GPU-Sparte wegen Problemen mit HBM2 Richtung wieder schwach ausfallen, braucht man kein Hellseher zu sein um zu prognostizieren, daß dieser Kursgewinn dann genauso schnell wieder weg wäre. Also genau dann, wenn man ihn braucht.
Mein Bauchgefühl tendiert zu einer Größenordnung von ca.10% Preisdifferenz bei äquivalenter Leistung, die AMD gehen wird.
5CH4CHT3L
2017-05-09, 14:09:17
Ich hatte letztens mal alles durchgerechnet (unteranderem mit den Mittelwerten aus den Shrinks, TBR etc. von 28nm auf 16/14 und TBR von GK zu GM)
Gemittelt kam folgendes für den großen Vega bei raus:
Wortcase (Fury x Shrink auf 485mm²) - Mittelwert - Bestcase (Fury X shrink mit TBR wie GK zu GM)
Vega wird zwischen 255w - 165w - 107w verbrauchen
Vega wird 1100% - 1292% - 1485% @ full hd
Vega wird 141% - 179% - 217% @ 4k
Die Performance bezieht sich auf die Folien von Leonidas :D
Die Wahrheit liegt irgendwo zwischen worst case und best case :freak::freak::freak:
Es werden auf keinen Fall unter 200W, aber die Perf kommt schon hin
Hasenpfote
2017-05-09, 14:23:44
Den kannst du getrost vergessen, denn falls die Zahlen der GPU-Sparte wegen Problemen mit HBM2 Richtung wieder schwach ausfallen, braucht man kein Hellseher zu sein um zu prognostizieren, daß dieser Kursgewinn dann genauso schnell wieder weg wäre. Also genau dann, wenn man ihn brauchtIch glaube die GPU-Sparte spielt an der Börse keine Rolle. Die schaffen ja aktuell auch keinen Gewinn. Viel (also RICHTIG viel) wichtiger sind die kommenden CPUs für den SP3-Socket und Naples. AMD hat aktuell einen Marktanteil von 1%(!!!) im Servermarkt. Jede Steigerung dürfte direkt durchschlagen und ganz fix den Profit der GPU-Sparte übersteigen.
Wenn AMD irgendwann mal wieder GPUs im Profi_Segment verkauft, dann schlägt sich das auf den Börsenpreis durch.
Cyphermaster
2017-05-09, 14:45:15
Ich glaube die GPU-Sparte spielt an der Börse keine Rolle. Die schaffen ja aktuell auch keinen Gewinn.Es geht weniger um Gewinn als darum, wie viele Firmenressourcen insgesamt in einer Sparte hängen, und ob deren neue Produkte voraussichtlich eher (y) oder (no) als Tendenz haben, also gegenüber dem Ist-Zustand mehr Geld verdient oder mehr Geld verbrannt wird.
Complicated
2017-05-09, 14:47:54
Dazu passt auch die Aussage von Lisa Su , dass die Marge bei AMD in den nächsten Monaten sinken wird. Zur Verwunderung der versammelten Analysten.
Nein das passt eher nicht zu Vega. Die Marge sinkt wegen dem hohen Anteil an Konsolenchips beim Umsatz im kommenden Quartal. Und daran sieht man auch, dass viele Analysten planlos sind. Selbstverständlich kann man keine Margen hoch fahren wenn man zeitgleich ein etabliertes Massenprodukt in die Bücher bekommt, welches für den Großteil der 17% Umsatzsteigerung verantwortlich ist. Vega launched im Juni und wird erst in den Q3 Zahlen Relevanz entfalten bei den Margen. Im Q2 sind es Ryzen 5 und Konsolen. Deshalb sind auch die Lagerbestände aufgebaut worden vor der Auslieferung an MS, was ebenfalls die Margen drückt. Dafür wird es im Q3 einen Anstieg geben der auf Vega basieren wird.
pilzsammler2002
2017-05-09, 15:47:03
Es werden auf keinen Fall unter 200W, aber die Perf kommt schon hin
Da die Fury schon grob etwas höher als 980ti Level war ist nen wert um die 200 durchaus nicht unrealistisch... Wenn man bedenkt das der TBR (bei Nvidia grob 30% stromkosten sparte) und der Shrink auch nochmal die Effizienz verbessert :)
http://media.bestofmicro.com/8/H/509633/original/22-Power-Consumption-Overview-Detail.png
Nakai
2017-05-09, 16:05:25
Warum V11? Eher V20. Oder meintest du für Gaming?
V11 sind die Stückzahlen.
deekey777
2017-05-09, 16:16:09
Wenn sich die Zahl 16.000 Stück widererwarten bewahrheiten sollten, kann das schon sein.
Es wäre fatal, wenn die neue Generation von der HBM2-Verfübarkeit abhängt, sprich keine "abgemagerten" Versionen mit GDRR5 gibt.
Vega mit HBM2 (20 oder?) muss nur eine Duftmarke setzen.
grauenvoll
2017-05-09, 16:42:08
Nein das passt eher nicht zu Vega. Die Marge sinkt wegen dem hohen Anteil an Konsolenchips beim Umsatz im kommenden Quartal. Und daran sieht man auch, dass viele Analysten planlos sind.
Ich glaube nicht dass die planlos sind. Ich vermute eher sie wissen mehr als wir.
Ja, Lisa hat das mit der Auslieferung der Konsolenchips begründet. Es muss aber nicht sein, dass dies der einzige Grund ist. Es wird ja spekuliert, dass auch in Raven Ridge HBM2 verwendet werden soll. Der Speicher wäre für Notebooks perfekt. Allerdings nur wenn er bezahlbar ist und ausreichend verfügbar. Also denkbar, dass sie versuchen auf Kosten der Marge größere Stückzahlen abzusetzen um die Fertigung in Gang zu bringen. Ich gebe zu alles Spekulation... aber deshalb sind wir ja hier... Kann aber auch sein, dass es so kommt wie Cybermaster beschrieben hat.
Die Zahl 16.000 wird sicher irgendwo gefallen sein, aber ich vermute, sie ist aufgeschnappt und nicht richtig interpretiert worden. So entstehen die meisten Gerüchte. Ich bleibe erst mal bei der Erwartung: Vega is on Track.
Klevapalis
2017-05-09, 16:43:49
Da die Fury schon grob etwas höher als 980ti Level war ist nen wert um die 200 durchaus nicht unrealistisch
Unter Wassser!
Ob AMD sich traut wieder AIO und HBM zu kombinieren? Das war schon bei der Fury finanzieller Selbstmord.
Schaffe89
2017-05-09, 17:00:42
Und wozu sollte man den Polygondurchsatz so aufbohren und dann nicht umsetzen in echte Performance?
Der Polygondurchsatz, also der theoretische Geometriedurchsatz wurde schon beim Wechsel von Cypress auf Cayman pro Takt verdoppelt, was sich besonders positiv auf die Tesselationsleistung auswirkte, aber doch nicht auf die generelle Leistung.
https://www.computerbase.de/2010-12/test-amd-radeon-hd-6970-und-hd-6950/3/
"Der theoretische Geometriedurchsatz pro Takt konnte so verdoppelt werden. "
Es zeigt in welcher Größenordnung die Leistung der Architektur verbessert wurde.
Das zeigt eher die neue Primitive Shader Stufe an die bei nicht sichtbaren Dreiecken hilft, diese zu verwerfen und diese gar nicht erst den ursprünglichen Weg durch die Grafikpipeline gehen sondern in den Abfalleimer wandern.
Nicht sichtbare Geometrie wird erst gar nicht mit Teselierung aufgepumpt und auch nicht mit Texturen beklebt, wenn dann wird das den größten Leistungsimpact ausmachen.
Und wenn tesseliert wird dann werden die Dreiecke die kleiner als ein Pixel sind, vorher aussortiert. Laut Locuza lief dieses Verfahren bei Nvidia zuvor erheblich besser.
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/475810-amd-vega-10-linux-patch-nennt-weitere-technische-eckdaten-29.html#post8830351
http://www.hardware.fr/articles/951-8/performances-theoriques-geometrie.html
AMDs Folie spricht auch von 2x trotz Peak 2,75x
Die Folie spricht von >2x.
Dass du ausgerechnet fragst ob hier jemand Scherze macht ist ja der Treppenwitz schlechthin.
Dann hättest du dich zu Cayman also genauso geäußert? Man kann die Verbesserungen der Architektur nicht an nackten Zahlen ablesen und schon gar nicht am theoretischen Polygondurchsatz der ganz am Anfang der Grafikpipeline steht.
Was denn darfst nur du dir die Benchmarks Cherry-picken? Es geht auch anders herum:
Du hast ja eine generelle Performanceangabe formuliert, das ist ewtas anderes als der ein oder andere Benchmark.
Ich zitiere mal:
"Und wenn das ganze dann auch noch höher takten kann verstehe ich die ganzen Spekulationen die "zwischen 1070 und 1080" schreiben nicht. Da liegt Fiji ja schon heute mit 4GB HBM."
Grabhopser
2017-05-09, 17:21:08
Der Polygondurchsatz, also der theoretische Geometriedurchsatz wurde schon beim Wechsel von Tahiti auf Cayman pro Takt verdoppelt, was sich besonders positiv auf die Tesselationsleistung auswirkte, aber doch nicht auf die generelle Leistung.
War mir gar nicht klar, dass AMD damals von GCN auf VLIW4 gewechselt ist....
Cypress,Evergreen,.....
Complicated
2017-05-09, 17:24:27
Da liegt Fiji ja schon heute mit 4GB HBM[/B]."Genau so wie du - ich habe lediglich nachgewiesen, dass deine generelle Performanceangabe für die Tonne ist. Spekuliere doch wenigstens etwas realistisch. Vega10 zwischen 1070 und 1080 wird nicht passieren.
Schaffe89
2017-05-09, 17:45:38
Genau so wie du - ich habe lediglich nachgewiesen, dass deine generelle Performanceangabe für die Tonne ist. Spekuliere doch wenigstens etwas realistisch. Vega10 zwischen 1070 und 1080 wird nicht passieren.
Eine generelle Performanceangabe von mir war Seiten zuvor lediglich Spekulation aus der Hüfte geschossen gewesen. Wer weiß ob AMD ihr Taktziel erreichen kann, das gibt es soviel unbekannte Faktoren.
Auch die letztendliche Geschwindigkeit des HBM Speichers könnte ein Problem sein.
An der Verdopplung des Polygondurchsatzes lese ich zumindest keine prinzipielle Geschwindigkeit des Endproduktes ab, so wie du es machst.
Die generelle Performanceangabe war einfach nur eine negative Spekulation, damit die eintritt müssen mehrere Stricke reißen, also hoffen wir doch mal auf GTX 1080+ Leistung.
Das hat natürlich jetzt mit deiner Fijii Angabe zwischen GTX 1070 und GTX 1080 null zu tun.:rolleyes:
Wenn Fijii dort heute schon liegen würde, während die Spekulationen für Vega sicherlich auch weit positiver.
Das beste Video das die Verbesserungen im Detail erklärt ist imho das hier:
https://www.youtube.com/watch?v=m5EFbIhslKU&t=426s
Und da scheint es vor allem abhängig vom Software Support zu sein, wieviel theoretischen Polygondurchsatz das aufgebohrte Frontend nun bietet, dann es sind nach wie vor 4 Polygone pro Takt.
Das ist also nur ein theoretischer Durchsatz in Abhängigkeit der Funktionsweise des Primitive Shaders, welcher explizite Softwareunterstützung benötigt, ergo sieht das gut auf dem Papier aus, wie sich das in der Realität schlagen wird weiß niemand.
Complicated
2017-05-09, 18:19:07
Es war eine Antwort auf dein übertrieben negatives spekulieren - Und das ja ohne Punkt und Komma seitenlang. Übertreibung in die andere Richtung sorgt dann zumindest mal für ein Gleichgewicht. Wende mal deine eigenen Argumente auf deine eigenen Spekulationen und Beiträge an. Eine Steigerung der Geometrieleistung ist eine solidere Basis als Katzen-Innereien oder was auch immer du verwendet hast für alle deine gerissenen Stricke die du aus der Hüfte schießt.
Schaffe89
2017-05-09, 19:12:19
Und das ja ohne Punkt und Komma seitenlang. Übertreibung in die andere Richtung sorgt dann zumindest mal für ein Gleichgewicht.
Nein es ist einfach nur Blödsinn Fakten zu verdrehen, nur damit man in irgendeine Richtung übertreiben kann.
Fiji liegt nicht zwischen GTX 1070 und GTX 1080, außerdem war das nur ein Worst Case, keine generelle Spekulation, ich erwarte GTX 1080 Leistung, mehr aber auch nicht.
Eine Steigerung der Geometrieleistung ist eine solidere Basis als Katzen Innereien
Nicht wirklich, das ist noch weit irrelevanter als AMD´s Leistungsangaben die sie selber im Dezember 2016 herausgaben (weit bevor die 1080Ti kam) die du als Katzeninnereien bezeichnest.
Und wie irrelevant das sein kann, hat man bestens an Cayman gesehen.
Complicated
2017-05-09, 19:30:10
Nein es ist einfach nur Blödsinn Fakten zu verdrehen, nur damit man in irgendeine Richtung übertreiben kann.
Fiji liegt nicht zwischen GTX 1070 und GTX 1080, außerdem war das nur ein Worst Case, keine generelle Spekulation, ich erwarte GTX 1080 Leistung, mehr aber auch nicht.
Du merkst es nicht oder? Fiji liegt best case zwischen der 1070 und 1080. Wenn du Worst Case Szenarien erfinden kannst, dann kann ich auf gemessene Best Case Szenarien verlinken zum Ausgleich. Wie eben Division. Ich habe Fakten die gemessen sind und du hast deine eigene Phantasie. Und nun zu der besseren Spekulationabasis....*hust*
Kartenlehrling
2017-05-09, 19:32:10
Man nimmt ja immer die FuryX als Messlatte, in meinen Augen wär es aber die R9nano, die FuryX bringt nur 5-8% Mehrleistung auf die Straße für 25% höheren Stromverbrauch.
Es war mal wieder eine der sinnlosesten Grafikkarten die keiner brauchte, AMD wär besser gefahren sie hätten nur die R9nano als Testmuster für die Käufer präsentiert,
und sich nur auf die AMD Radeon RX 480 konzentiert, das Hase-Igel Spiel haben sie sowieso verloren.
dargo
2017-05-09, 19:39:50
Du merkst es nicht oder? Fiji liegt best case zwischen der 1070 und 1080.
Best Case liegt Fiji sogar auf GTX1080 Niveau, nämlich Doom @Vulkan.
Hübie
2017-05-09, 19:49:05
Stand Juni '16 vielleicht. Stand heute nicht mehr. ;)
Schaffe89
2017-05-09, 19:55:24
Du merkst es nicht oder? Fiji liegt best case zwischen der 1070 und 1080. Wenn du Worst Case Szenarien erfinden kannst, dann kann ich auf gemessene Best Case Szenarien verlinken zum Ausgleich.
Der Unterschied ist nur das eine ist Spekulation zu einem nicht erschienenen Produkt und das andere Faktenverdrehen zu einem intensiv getesteten und bereits veröffentlichten Produkt.
Wir sind hier in einem Spekulationsthread falls es dir noch nicht aufgefallen ist.
Bestimmt findest du auch im Netz Benchmarks in denen eine Fury X vor einer GTX 1080 liegt, macht es für deine Falschaussage nur nicht besser.
Natürlich kannst du Bast Case Szenarien zu bereits getesteten Grafikkarten verlinken, wenn sie auch so gekennzeichnet sind und nicht fälschlicherweise als allgemeingültig hingestellt werden, so wie du es ja immer machst.
Und danach kommen dann die Einschränkungen.
Stand Juni '16 vielleicht. Stand heute nicht mehr. ;)
Jup, Nvidia lief da ein einen Treiberoverhead, was Fiji bei geringen Auflösungen n Doom vor Pascal brachte. Mittlerweile ist das entschärft worden.
In 4K war imho Fiji quasi auch schon zum Release klar langsamer, die theoretische Leistungsfähigkeit der Karte wird auch in 100 Jahren nicht freigesetzt werden.
Complicated
2017-05-09, 20:08:17
Ach du meinst dass gemessene Werte die in einer kontrollieren Umgebung erzeugt wurden Fakten verdrehen sind, während deine Phantasien besser in einen Spekulationsthread passen? Herje begreife mal den Unterschied zwischen spekulieren und frei erfinden - aus der Hüfte mit reißenden Stricken.
Spekulieren ist nicht den Teufel an die Wand malen - das will keiner lesen in so einem Forum. Es weiß jeder selber, der sich damit beschäftigt, was da alles schief gehen kann bis zu einem Release.
Schaffe89
2017-05-09, 20:25:41
Ach du meinst dass gemessene Werte die in einer kontrollieren Umgebung erzeugt wurden Fakten verdrehen sind
Wenn man so tut als wäre Fiji generell (im Durchschnitt der Spiele) zwischen GTX 1070 und GTX 1080 dann ja und das hast du ja auch getan, also weiß ich nicht wo dein Problem gerade liegt.
Außer wieder ne sinnlose Debatte vom Zaun zu brechen, kann das sowieso kein anderes Ziel haben.
Herje begreife mal den Unterschied zwischen spekulieren und frei erfinden - aus der Hüfte mit reißenden Stricken.
Gesetz dem Fall Vega erreicht die angepeilten Taktraten von ~1500mhz, die könnten auch geringer liegen und erst mit Vega 20 kommen.
Wer weiß das schon. Jedenfalls haben wir einen Eintrag mit lediglich 1200mhz, das wäre dann gesetz dem Fall die Verbesserungen greifen nicht wirklich.
Fijii + 15 vll 20% und damit zwischen einer GTX 1070 und einer 1080, wohl näher bei der GTX 1080.
AMD und Nvidia hatten in der Geschichte schon mehrere problematische Designs die dann nich überzeugten, also abwarten.
Bisher habe ich von AMD noch nicht eine wirkliche hoffnungsvolle Performanceeinschätzung gehört, ganz im gegenteil zu Polaris oder Ryzen.
Performance looks really nice kann quasi alles bedeuten.
Spekulieren ist nicht den Teufel an die Wand malen
Kommt drauf an von welchem Blickwinkel man es sieht. GTX 1080 Leistung oder nahe dran ist zumindest kein völlig absurdes Szenario.
dargo
2017-05-09, 20:28:56
Stand Juni '16 vielleicht. Stand heute nicht mehr. ;)
Stimmt, ändert aber nicht viel. Fiji ist dort immer noch näher an der 1080 als an der 1070. Gleich schnell wie 1080 war auch etwas übertrieben wenn man sich die TFLOPs anschaut. Fiji = 8,6 TFLOPs, Custom GTX1080 @1950Mhz = 10 TFLOPs. ;)
btw.
https://www.bit-tech.net/hardware/graphics/2017/03/09/nvidia-geforce-gtx-1080-ti-review/7
Der durchschnittliche Takt einer GTX1080 FE liegt laut CB bei 1667Mhz nach einer Aufwärmphase, ergo 8,5 TFLOPs. Diese dürfte in etwa auf Fiji Niveau liegen.
Complicated
2017-05-09, 21:59:16
Wenn man so tut als wäre Fiji generell (im Durchschnitt der Spiele) zwischen GTX 1070 und GTX 1080 dann ja und das hast du ja auch getan, also weiß ich nicht wo dein Problem gerade liegt.
Außer wieder ne sinnlose Debatte vom Zaun zu brechen, kann das sowieso kein anderes Ziel haben.
Du kannst das jetzt ja noch fünfmal wiederholen und weiter demonstrieren wie du es nicht begreifst. Nur frag dich doch nicht wer hier die sinnlosen seitenlangen Debatten betreibt. Was du für generell hältst ist nur in deinem Kopf so - so generell.
horn 12
2017-05-09, 22:45:17
16 Mai Financial Day und NDA Lift am 30.ten Mai?
The rumor is announcement next week on the 16th, along with Zen+ with a possibility of NDA lift on the 30th
Eldoran
2017-05-09, 23:37:34
16 Mai Financial Day und NDA Lift am 30.ten Mai?
The rumor is announcement next week on the 16th, along with Zen+ with a possibility of NDA lift on the 30th
Das klingt plausibel. Zumindest sollte eine aktuelle Prognose zum Entwicklungsstand, Release und Markterfolg von Vega herausschauen, auch wenn das möglicherweise die bekannten Allgemeinplätze sind.
Unicous
2017-05-10, 00:18:27
Das klingt plausibel.
... sind Worte die ich nicht mit horn in Verbindung bringen würde.:conf:
N0Thing
2017-05-10, 00:28:47
16 Mai Financial Day und NDA Lift am 30.ten Mai?
The rumor is announcement next week on the 16th, along with Zen+ with a possibility of NDA lift on the 30th
Ohne Link, oder einer Erklärung woher diese Aussage stammt, wird/sollte niemand diese Angabe ernst nehmen.
Schaffe89
2017-05-10, 00:38:19
Was du für generell hältst ist nur in deinem Kopf so - so generell.
Also sind alle deine Performance Angaben zu AMD im generellen dann Cherry Picks? Ok dann weiß ich ja woran ich bin.
von Richthofen
2017-05-10, 01:12:20
16 Mai Financial Day und NDA Lift am 30.ten Mai?
The rumor is announcement next week on the 16th, along with Zen+ with a possibility of NDA lift on the 30th
Ohne Link, oder einer Erklärung woher diese Aussage stammt, wird/sollte niemand diese Angabe ernst nehmen.
Nein, ist aber zumindest wahrscheinlicher als die seinerzeitige Releaseverkündung (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11356175#post11356175)zum 9. Mai.
Horn 12 zum Rapport! ;)
horn 12
2017-05-10, 07:10:25
Nun, stand in anderem Forum dies mit womöglichen NDA Lift am 30-ten Mai
Zudem Start der E3 und dort wird Vega gezeigt werden.
Zudem hatte dies der ital. Forumskollege wohl verwechselt mit 9 Mai, dies sollte mal jenes werden was nächsten Dienstag 16 Mai gesagt werden dürfte.
Aber halte mich nun komplett raus, zu viel geht danaben!
pilzsammler2002
2017-05-10, 07:59:21
Kommt drauf an von welchem Blickwinkel man es sieht. GTX 1080 Leistung oder nahe dran ist zumindest kein völlig absurdes Szenario.
Die 1080 wird schon alleine mit der Chip-größe und umstellung auf 14nm geschlagen... Ohne verbesserungen... :biggrin:
Die 1080 ist ja nichtmal so "groß" wie ne alte r9 390... :freak:
Palpatin
2017-05-10, 08:18:07
Man nimmt ja immer die FuryX als Messlatte, in meinen Augen wär es aber die R9nano, die FuryX bringt nur 5-8% Mehrleistung auf die Straße für 25% höheren Stromverbrauch.
Es war mal wieder eine der sinnlosesten Grafikkarten die keiner brauchte, AMD wär besser gefahren sie hätten nur die R9nano als Testmuster für die Käufer präsentiert,
und sich nur auf die AMD Radeon RX 480 konzentiert, das Hase-Igel Spiel haben sie sowieso verloren.
Im GPU Limit ist die Fury X 17 % schneller und braucht 25% mehr Leistung gegenüber der Nano, ich finde das ist akzeptabel, auch die Wakü Lösung wäre OK gewesen wenn Lautstärke und Preis gepasst hätten. Die 4GB waren ein Fail.
Korvaun
2017-05-10, 08:31:14
Schnelle Custom-GTX1080 gibts ab ca. 550.-€. Das ist die Messlatte an der sich AMD orientieren muss. Ein VEGA 500mm² Chip mit HBM2 Speicher der nur leicht schneller als eine GTX1080 ist? Kann AMD maximal 599.-€ für verlangen. Dann ist der Chip aber ganz klar Mist und verdienen wird AMD dann auch nichts dabei. Vega MUSS substanziell schneller sein als eine Custom GTX1080 damit man auch gute Preise verlangen kann (mindestens 699.-€) um was zu verdienen, wozu sonst der ganze Aufwand?
dargo
2017-05-10, 08:42:16
Hohe Margen gibts mit der Mi25. V10 ist kein reiner Gamingchip.
Eldoran
2017-05-10, 08:49:06
Die 4GB waren ein Fail.
Ich denke das war ein Grund für den neuen HBCC. Egal wie groß das VRAM ist, spätestens in ein paar Jahren wird es Anwendungsfälle geben, wo es zu wenig ist. Für HPC sowieso. Gerade bei CPUs sieht man aber auch wie wenig Cache und RAM man eigentlich benötigt, bevor es zu unverhältnismäßigen Einbußen kommt.
BoMbY
2017-05-10, 10:30:37
Hohe Margen gibts mit der Mi25. V10 ist kein reiner Gamingchip.
Ich glaube Ihr habt alle keine Idee wie hoch die Margen bei Chips sind. Selbst bei einem großen wie Vega 10, inkl. Interposer und HBM2, sind die Herstellungskosten nicht annähernd am Verkaufspreis.
dargo
2017-05-10, 10:59:32
Ach nee. :rolleyes: Dann formuliere ich es für dich extra... höhere Margen als am Desktop gibts bei der Mi25.
Klevapalis
2017-05-10, 11:04:46
Ich glaube Ihr habt alle keine Idee wie hoch die Margen bei Chips sind. Selbst bei einem großen wie Vega 10, inkl. Interposer und HBM2, sind die Herstellungskosten nicht annähernd am Verkaufspreis.
Die Kosten eines Chips sind nicht nur die Herstellungskosten.
X-Bow
2017-05-10, 12:10:12
Die Kosten eines Chips sind nicht nur die Herstellungskosten.
Es ist schon klar das Du jetzt auf Entwicklungskosten etc. hinaus willst, aber eigentlich hat er schon Recht.
Aus bisherigen Entwicklungsbereichen wo ich tätig war (Getriebebau und Werkstoffkunde, also nichts mit Chips) werden die Entwicklungskosten ganz anders verrechnet und hatten meist nichts mehr mit den Produktpreisen zu tun:wink:
Die Produktpreise bestimmt hauptsächlich immer die gesamten Prozesskosten.
Entwicklungskosten werden weit im Voraus geplant und gezahlt und der aktuelle Umsatz (zum Entwicklungsstand) finanziert die Entwicklung. ^^
Sollte sich die bei Chipherstellern gravierend was zur restlichen produzierenden Gewerbe-Welt anders verhalten dann darfst mich gerne aufklären. :-)
LadyWhirlwind
2017-05-10, 12:44:38
Es ist schon klar das Du jetzt auf Entwicklungskosten etc. hinaus willst, aber eigentlich hat er schon Recht.
Aus bisherigen Entwicklungsbereichen wo ich tätig war (Getriebebau und Werkstoffkunde, also nichts mit Chips) werden die Entwicklungskosten ganz anders verrechnet und hatten meist nichts mehr mit den Produktpreisen zu tun:wink:
Die Produktpreise bestimmt hauptsächlich immer die gesamten Prozesskosten.
Entwicklungskosten werden weit im Voraus geplant und gezahlt und der aktuelle Umsatz (zum Entwicklungsstand) finanziert die Entwicklung. ^^
Sollte sich die bei Chipherstellern gravierend was zur restlichen produzierenden Gewerbe-Welt anders verhalten dann darfst mich gerne aufklären. :-)
Aufpassen, dass ihr nicht verschiedenes durcheinander werft!
Grundsätzlich gilt (IFRS): Forschungskosten müssen als Aufwand gebucht werden, wenn sie anfallen. Unter gewissen Bedinungen können aber Entwicklungskosten in der Bilanz aktiviert werden.
Davon unabhängig ist die Preiskalkulation des Produktes, in der natürlich unter anderem auch die Entwicklungskosten berücksichtigt werden.
Im Endeffekt dienen die hohen Margen unter anderem dazu die Forschungskosten zu bezahlen und die laufende Entwicklung Vorzufinanzieren.
Für eine Firma wie AMD reicht es nicht, nur den Selbstkostenpreis zu verlangen, sondern sie müssen auch noch die laufende Forschung und Entwickklung bezahlen.
BoMbY
2017-05-10, 12:56:59
Es ist schon klar das Du jetzt auf Entwicklungskosten etc. hinaus willst, aber eigentlich hat er schon Recht.
Aus bisherigen Entwicklungsbereichen wo ich tätig war (Getriebebau und Werkstoffkunde, also nichts mit Chips) werden die Entwicklungskosten ganz anders verrechnet und hatten meist nichts mehr mit den Produktpreisen zu tun:wink:
Die Produktpreise bestimmt hauptsächlich immer die gesamten Prozesskosten.
Entwicklungskosten werden weit im Voraus geplant und gezahlt und der aktuelle Umsatz (zum Entwicklungsstand) finanziert die Entwicklung. ^^
Sollte sich die bei Chipherstellern gravierend was zur restlichen produzierenden Gewerbe-Welt anders verhalten dann darfst mich gerne aufklären. :-)
In der Regel rechnet man vermutlich mit einem Kostendeckungsbeitrag für die Entwicklung pro verkauften Produkt. Sagen wir ein Chip kostet vielleicht $15 in der Herstellung, dann rechnet man z.B. $10 für R&D drauf, und nochmal $5 für Marketing usw. und kommt damit auf einen Gesamtdeckungsbeitrag, und die Differenz zwischen dem Betrag und dem VK ist dann der Gewinn pro Stück. Was viele bei Chips außer acht lassen, ist das jeder Chip auf einem Wafer das gleiche kostet, aber der Gewinn je nach Eignung (Binning) und SKU (Pro oder Consumer) deutlich höher sein kann bei Einzelstücken.
Selbst wenn die tatsächlichen Fertigungskosten nicht steigen, hat man aber durch die unterschiedlichen Kostendeckungsbeiträge immer noch einen gewissen Spielraum. Wenn ein Produkt wie Ryzen gut läuft, würde es sich vielleicht anbieten den R&D-Beitrag zu erhöhen, was die Rücklagen und den Investitionsspielraum erhöht, aber gleichzeitig die Margen mindert.
X-Bow
2017-05-10, 15:02:36
Reimt Ihr euch das gerade zurecht oder hab Ihr belege oder Erfahrungen?^^
@LadyWhirlwind:
Ich habe noch nie erlebt das R&D Kosten vom Produkt mit betrachtet wurden. Wie auch, was interessiert es eine Produktmanagement was die Entwicklung dafür Geld bekommen hat? Das sind komplett unterschiedliche Bereiche und Zeiten.
Meistens gibt es ein geplantes R&D Budget für eine Jahr, aus dem sich vermutlich mehrere R&D Abteilungen drum Streiten wer wie viel bekommt. Daraus wird geschöpft. Und je nach dem wie Entscheidungen getroffen werden oder sich die Marktlage ändert wird auch das Budget angepasst.
Den Preis des Produktes interessiert wirklich nur zwei grundlegende Dinge:
- Preis muss Produktionskosten decken.
- Preis muss Marktorientiert sein.
@BoMbY:
Das liest sich ja sehr schön und gut, aber es ist halt nur von einer einzigen Person überlegt. Dir.
Nicht böse verstehen, ganz im Gegenteil. Aber in großen Unternehmen arbeiten an solchen Prozessen immer mehrere bis viele Personen und dadurch würde dies so wiederum nicht funktionieren. ;)
Wie hoch das R&D Budget liegt entscheiden meist nur wenige in einem Führungskreis, und je nachdem wie die Firmenphilosophie ausfällt wird es mal mehr oder mal weniger gewichtet. :rolleyes:
(Ich kenn auch Anwendungsfälle als "Lohnentwickler" da wurde ein Budget-Rahmen vorgelegt, entweder nimmst den Auftrag an oder lässt es, und wenn angenommen dann ist es das persönliche Pech wenn man mit dem Budget nicht hin kommt z.b. MotoGP^^)
Unicous
2017-05-10, 15:21:37
R&D sind operating expenses oder wie man im Deutschen sagt Teil der Betriebskosten und natürlich wird das alles bei der Preisgestaltung einberechnet.
Und nein, es gibt kein fixes Budget. Das wäre betriebswirtschaftlicher Blödsinn. Man braucht natürlich eine ungefähre Kennzahl wenn man ein börsenotiertes Unternehmen ist aber da streitet sich niemand drum, denn der CEO entscheidet wie viel Geld für die Grundlagenforschung und Weiterentwicklung aufgewandt wird.
Diese Zahlen fluktuieren natürlich. Wenn ein größerer Launch ansteht, fließt in dieses Projekt vermehrt Geld um das folgende Produkt reibungslos auf den Markt zu bringen. So ist es logisch, dass ein Chip der die Design-Phase verlassen hat nun Kosten in der Test- und Validierungskette verursacht und zuvor erst einmal vorproduziert werden muss. Ein Projekt das gerade im Entstehen ist oder nur Grundlagenforschung beinhaltet wird im kleinen Team mit kleinem Budget geführt bis Marktreife erlangt bzw. die Implementation in ein Produkt bevorsteht. Dann werden weitere Ressourcen hinzugefügt.
Setsul
2017-05-10, 15:26:44
Wer glaubt eigentlich ernsthaft an die 16k wegen HBM2?
Aus einem 300mm Wafer bekommt man genug Dies für ~100 GPUs mit 2x4Hi Stacks.
Jammert rum wegen yields wie ihr wollt, eine 30k/m fab spuckt das aus vor der ersten Kaffeepause.
SK Hynix hatte über ein halbes Jahr Zeit, solange die nicht weniger als 0,01% ihrer Kapazität für HBM2 nutzen, haben die mehr.
Es kann nicht einerseits HBM2 so viel teurer sein als DRAM, dass AMD sich kein Consumer V10 leisten kann, aber gleichzeitig besteht Hynix darauf kein HBM2 zu produzieren, obwohl es mehr Gewinn bringt als alles andere.
BoMbY
2017-05-10, 15:29:28
Wie das im Detail genau aussieht ist natürlich von Außen schwer zu sagen. Es gibt tausend Möglichkeiten das zu rechnen, das war bei mir nur ein Beispiel.
Bei börsennotierten Unternehmen werden die Methoden zum Teil per Gesetz und Verordnung vorgeschrieben, von irgendwelchen Beratern wird das dann durch den Wolf gedreht, und von irgendwelchen Entwicklern dann in Warenwirtschaftsystemen implementiert, und von Controllern bedient und ausgewertet, und vielleicht noch ein bisschen mit Excel abgemischt. Und dann gibt es vorgeschriebene Audits jedes Jahr, welche von Dritten ausgeführt werden.
Wenn man tief gräbt (bei den SEC filings z.B.) wird man vielleicht genaueres dazu finden wie exakt das bei AMD läuft.
Unicous
2017-05-10, 15:37:29
AMD muss und schlüsselt das nicht auf, es ist schließlich Teil des Betriebsgeheimnisses. Wüsste Intel oder Nvidia, oder jedweder andere Konkurrent wie viel Geld AMD konkret für gewisse Dinge ausgibt könnten sie entsprechend reagieren.
Cyphermaster
2017-05-10, 15:57:18
Wer glaubt eigentlich ernsthaft an die 16k wegen HBM2?Kommt drauf an, welche Gerüchte-Interpretation bezüglich des "16k Unit Limit" man nimmt:
A) Aus Produktionsgründen (= es gibt nicht mehr) - Unsinn, da kriegt man auf die Zeit ja in Laborproduktion mehr Menge hin.
B) Aus Bestellgründen (= wegen exorbitant hohem Preis von HBM2 und unsicherer Akzeptanz hätte AMD nicht mehr beauftragt) - schon plausibler, aber dann hätte man den Launch sehr wahrscheinlich schon geschmissen.
C) Aus Dispositions-Gründen (= 16k Units ist der erste Lieferpuffer, Nachlieferungen kommen) - langsam schon ein plausibles Szenario, da wären die 16k aber schon ganz gut.
D) Reines Hirngespinst - für mich immer noch das Wahrscheinlichste.
X-Bow
2017-05-10, 16:24:35
R&D sind operating expenses oder wie man im Deutschen sagt Teil der Betriebskosten und natürlich wird das alles bei der Preisgestaltung einberechnet.
Und nein, es gibt kein fixes Budget. Das wäre betriebswirtschaftlicher Blödsinn. Man braucht natürlich eine ungefähre Kennzahl wenn man ein börsenotiertes Unternehmen ist aber da streitet sich niemand drum, denn der CEO entscheidet wie viel Geld für die Grundlagenforschung und Weiterentwicklung aufgewandt wird.
Diese Zahlen fluktuieren natürlich. Wenn ein größerer Launch ansteht, fließt in dieses Projekt vermehrt Geld um das folgende Produkt reibungslos auf den Markt zu bringen. So ist es logisch, dass ein Chip der die Design-Phase verlassen hat nun Kosten in der Test- und Validierungskette verursacht und zuvor erst einmal vorproduziert werden muss. Ein Projekt das gerade im Entstehen ist oder nur Grundlagenforschung beinhaltet wird im kleinen Team mit kleinem Budget geführt bis Marktreife erlangt bzw. die Implementation in ein Produkt bevorsteht. Dann werden weitere Ressourcen hinzugefügt.
Richtig, R&B sind Betriebskosten und keine Produktkosten. Genau dass wollt ich doch damit sagen.
Ich habe nie von einem "fixen" Budget gesprochen sondern von einer variablen Kennzahl. ;)
Bisher war ich genau in einem Betrieb im R&D tätig wo der CEO direkt über die R&D Kosten entschieden hat, und das war auch das einzige nicht Börsen notierte (Mittelstand)^^
Mit "streiten" meine ich die R&D Abteilungen welche an die Gelder ran wollen. Und meine bisherige Erfahrung war, je größer der Konzern umso größer der Wettbewerb darum^^
@BoMbY: Ich glaube da mit dem Audit von externen bringst Du gehörig was durcheinander;D
masked__rider
2017-05-10, 16:26:23
C) Aus Dispositions-Gründen (= 16k Units ist der erste Lieferpuffer, Nachlieferungen kommen) - langsam schon ein plausibles Szenario, da wären die 16k aber schon ganz gut.
D) Reines Hirngespinst - für mich immer noch das Wahrscheinlichste.
Könnte es nicht auch sein, dass mit 16k Units zB Paletten, Schachteln, etc. gemeint sind?
Ich kann mir beim besten Willen nicht vorstellen, dass man nur 16k Stück verfügbar hat zum Launch. Mal lieber schön abwarten :wink:
[MK2]Mythos
2017-05-10, 16:38:29
Hat jemand belastbare Zahlen zu den Fiji Verkäufen bei launch? Falls an dem 16k Gerücht etwas dran ist, würde ich auch eher dazu tendieren, dass AMD auf Grund des vermutlich hohen Preises und der enttäuschenden Fiji Verkäufe bei den Bestellungen erstmal auf Nummer sicher gegangen ist.
Unicous
2017-05-10, 16:42:11
@X-Bow
Ich glaube eher du weißt nicht, was die Betriebskosten alles beinhalten.:eek:
BoMbY
2017-05-10, 16:52:43
@BoMbY: Ich glaube da mit dem Audit von externen bringst Du gehörig was durcheinander;D
Ich zitiere mal aus dem 2017 Proxy Statement (http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzcwMDcyfENoaWxkSUQ9LTF8VHlwZT0z&t=1&cb=636298750993502323):
In fulfilling its oversight responsibilities, the Audit and Finance Committee reviewed and discussed AMD’s audited financial statements for the fiscal year ended December 31, 2016 with management and Ernst & Young LLP, AMD’s independent registered public accounting firm. The Audit and Finance Committee also discussed with Ernst & Young LLP the matters required to be discussed by Public Company Accounting Oversight Board AS 1301 “Communications with Audit Committees.” This included a discussion of the independent registered public accounting firm’s judgments as to the quality, not just the acceptability, of AMD’s accounting principles and such other matters that generally accepted auditing standards require to be discussed with the Audit and Finance Committee. The Audit and Finance Committee also received the written disclosures and the letter from Ernst & Young LLP required by the applicable requirements of the Public Company Accounting Oversight Board regarding the independent accountant’s communications with the audit committee concerning independence, and the Audit Committee discussed the independence of Ernst & Young LLP with that firm.
Eldoran
2017-05-10, 16:54:43
Möglicherweise kommen die 16k von ähnlichen Gerüchten bei Fury, Ryzen 7 bzw. deren Mainboards zum Launchtermin?
Rein logisch wäre fast anzunehmen, dass der Launch nur mit begrenzten Mengen stattfindet - zumindest wenn die Performance und Preis nicht zu gf 1080(ti) passt und damit sicheren Absatz und Marge verspricht.
An rein technische Gründe wäre ggf. noch eine zu hohe Abhängigkeit von der Bandbreite beim HBM2 bzw. Verfügbarkeit bei der notwendigen Größe/Takt zu erwarten. TSV/Interposer an sich sollte mittlerweile beherrschbar sein - das kommt ja auch schon in einigen anderen Produkten zum Einsatz.
Nur wenn wirklich HBM der Grund sein sollte, wundert mich dann die vergleichsweise Problemlose Einführung von GDDR5X/GDDR6...
Ein reines Preisproblem sollte eigentlich bei hinreichender Performance und damit erzielbaren Verkaufspreis verschwinden.
LadyWhirlwind
2017-05-10, 16:57:54
Reimt Ihr euch das gerade zurecht oder hab Ihr belege oder Erfahrungen?^^
@LadyWhirlwind:
Ich habe noch nie erlebt das R&D Kosten vom Produkt mit betrachtet wurden. Wie auch, was interessiert es eine Produktmanagement was die Entwicklung dafür Geld bekommen hat? Das sind komplett unterschiedliche Bereiche und Zeiten.
Meistens gibt es ein geplantes R&D Budget für eine Jahr, aus dem sich vermutlich mehrere R&D Abteilungen drum Streiten wer wie viel bekommt. Daraus wird geschöpft. Und je nach dem wie Entscheidungen getroffen werden oder sich die Marktlage ändert wird auch das Budget angepasst.
Den Preis des Produktes interessiert wirklich nur zwei grundlegende Dinge:
- Preis muss Produktionskosten decken.
- Preis muss Marktorientiert sein.
@BoMbY:
Das liest sich ja sehr schön und gut, aber es ist halt nur von einer einzigen Person überlegt. Dir.
Nicht böse verstehen, ganz im Gegenteil. Aber in großen Unternehmen arbeiten an solchen Prozessen immer mehrere bis viele Personen und dadurch würde dies so wiederum nicht funktionieren. ;)
Wie hoch das R&D Budget liegt entscheiden meist nur wenige in einem Führungskreis, und je nachdem wie die Firmenphilosophie ausfällt wird es mal mehr oder mal weniger gewichtet. :rolleyes:
(Ich kenn auch Anwendungsfälle als "Lohnentwickler" da wurde ein Budget-Rahmen vorgelegt, entweder nimmst den Auftrag an oder lässt es, und wenn angenommen dann ist es das persönliche Pech wenn man mit dem Budget nicht hin kommt z.b. MotoGP^^)
Natürlich interessiert es, was die Entwicklung kostet. Schlussendlich müssen die Entwickelten Produkte auch rentieren. Man kann nicht dauernd Produkte verkaufen, die die eigene Entwicklung nicht finanzieren...
Ebenfalls kann man keine fundierten Entscheidungen über den Preis treffen, wenn man nicht weiss, was die Proudkte effektiv gekostet haben.
Iruwen
2017-05-10, 17:08:36
Kommt drauf an, welche Gerüchte-Interpretation bezüglich des "16k Unit Limit" man nimmt:
A) Aus Produktionsgründen (= es gibt nicht mehr) - Unsinn, da kriegt man auf die Zeit ja in Laborproduktion mehr Menge hin.
B) Aus Bestellgründen (= wegen exorbitant hohem Preis von HBM2 und unsicherer Akzeptanz hätte AMD nicht mehr beauftragt) - schon plausibler, aber dann hätte man den Launch sehr wahrscheinlich schon geschmissen.
C) Aus Dispositions-Gründen (= 16k Units ist der erste Lieferpuffer, Nachlieferungen kommen) - langsam schon ein plausibles Szenario, da wären die 16k aber schon ganz gut.
D) Reines Hirngespinst - für mich immer noch das Wahrscheinlichste.
Da gings zwar nochmal um eine Hausnummer bei den Stückzahlen, aber damals mit Cypress bei TSMC gabs ja auch massive Probleme, was iirc nicht nur am unreifen Prozess sondern auch an AMDs "ungeschickter" Planung lag.
Korvaun
2017-05-10, 17:18:12
16k könnte auch nur die erste Charge Karten mit Referenz-Kühler sein. Produktion darüber hinaus geht an die Partner für Custom-Karten (wenn AMD diesmal mehr Wert auf schnelle Verfügbarkeit von Customs legt, nicht wie bei Fiji oder RX480...).
Brillus
2017-05-10, 18:49:38
E) Es geht um Vega mit 16Gbyte speicher, die 8er stacks sollen Gerüchteweise ja noch eher Laberstatus haben. Evtl. bekam Amd da Vorserienlieferung, dann denk ich aber nicht das wir die außerhalb des Profimarktes sehe.
fondness
2017-05-10, 18:56:19
Da gings zwar nochmal um eine Hausnummer bei den Stückzahlen, aber damals mit Cypress bei TSMC gabs ja auch massive Probleme, was iirc nicht nur am unreifen Prozess sondern auch an AMDs "ungeschickter" Planung lag.
Das Problem hätte man wohl wieder gerne wie bei Cypress. Man hat damals schlicht nicht damit gerechnet, dass von NV lange gar nichts kommt und deswegen viel zu viele Wafer geordert.
Kriton
2017-05-10, 19:35:52
Wie das im Detail genau aussieht ist natürlich von Außen schwer zu sagen. Es gibt tausend Möglichkeiten das zu rechnen, das war bei mir nur ein Beispiel.
Bei börsennotierten Unternehmen werden die Methoden zum Teil per Gesetz und Verordnung vorgeschrieben, von irgendwelchen Beratern wird das dann durch den Wolf gedreht, und von irgendwelchen Entwicklern dann in Warenwirtschaftsystemen implementiert, und von Controllern bedient und ausgewertet, und vielleicht noch ein bisschen mit Excel abgemischt. Und dann gibt es vorgeschriebene Audits jedes Jahr, welche von Dritten ausgeführt werden.
Wenn man tief gräbt (bei den SEC filings z.B.) wird man vielleicht genaueres dazu finden wie exakt das bei AMD läuft.
Du verwechselst IMHO Bilanzierungsregeln (in diesem Kontext wohl auch externe "Audits" - gemeint sind vermutlich Wirtschaftsprüfer für den Quartals-/Jahresabschluss) mit einer KLR.
BoMbY
2017-05-10, 19:45:47
Ich denke ich drücke mich nur zu undeutlich aus. Klar, das sind zwei verschiedene Dinge. Aber beides wird IMHO auch durch Audits unabhängig geprüft. Wenn man unter beides am Ende den Strich zieht (bei der KLR natürlich multipliziert mit den Verkaufszahlen) sollte mehr oder weniger das gleiche Ergebnis heraus kommen, nur bei der KLR wird auf Produktebene geschaut wie viel man an jedem Produkt verdient/verliert.
Kriton
2017-05-10, 20:22:17
Die KLR ist rein intern. Warum sollte man das auditieren?
Der Ansatz (was möchte ich damit erreichen) ist bei einer KLR auch ein ganz anderer.
Vielleicht ist das bei anderen ganz anders als bei uns, aber ich bringe Deine Aussagen nicht mit der bei uns existierenden Realität zueinander.
vinacis_vivids
2017-05-10, 20:25:31
Letztendlich geht es darum die Produkte an die Kunden zu bringen und dauerhaft mehr Plus zu machen als Minus.
Linmoum
2017-05-10, 21:19:01
Ohne Link, oder einer Erklärung woher diese Aussage stammt, wird/sollte niemand diese Angabe ernst nehmen.
Reicht dir ein reddit-Post? ;D
https://www.reddit.com/r/Amd/comments/6aeat3/full_vega_lineup_and_release_date_revealed/
Complicated
2017-05-10, 21:21:22
Ebenfalls kann man keine fundierten Entscheidungen über den Preis treffen, wenn man nicht weiss, was die Proudkte effektiv gekostet haben.
Also Intel hat keine Probleme damit einen Preis für seine Xeon Phi Beschleuniger fest zu legen. Und das obwohl das Produkt aus einer gescheiterten GPU-Forschung resultierte welche nie zu einem Endprodukt führte. Die Erkenntnisse aus dem R&D kommen nun mal in verschiedenen Bereichen zur Anwendung und lassen sich oft nicht einem spezifischen Produkt zuordnen. So fließen bei AMD Erkenntnisse bei der Fertigung zwischen CPU und GPU Produkten (Beispiel High Density Libraries) hin und her - was auch gewollte Synergien sind. Ebenso wird man sich schwer tun Entwicklungen wie HSA einem bestimmten Produkt zuzuordnen. Es sind feste Kosten die in die Betriebskosten fließen und ebenso als kalkulierter Sockelbetrag berücksichtigt werden wie Mieten/Lagerkosten oder Personalkosten bei den Produktpreisen.
Complicated
2017-05-10, 21:30:18
Reicht dir ein reddit-Post? ;D
https://www.reddit.com/r/Amd/comments/6aeat3/full_vega_lineup_and_release_date_revealed/
Also bei dem Satz bin ich vor lachen fast aus meinem Stuhl gefallen:
Please note: The RX Vega subnames were still being finalized by the boardroom at the time so they may change. The alternative was "Dwarf" "Super" "Hyper" based on the Hertzsprung–Russell diagram which the engineers wanted but marketing department not so much.
;D
Da gefällt mir Core, Eclipse und Nova schon besser, wobei ich das nicht so richtig glauben mag. "RX Vega Nova" ist eigentlich ein No-Go im Marketing. Aber da waren Sie schon beim Ryzen nicht sonderlich kreativ.
Mortalvision
2017-05-10, 21:39:52
Also bei Vega gibt es schlichtweg keine Nova, was bei Sirius in ein paar Jahrmilliarden immerhin denkbar wäre :D
Und nun zu den Nachrichten des Tages: nix Neues gibt es nicht. Das Warten macht echt mürbe :(
kunibätt
2017-05-10, 22:17:05
Zu der Leistung der Karte weiß man immer noch nichts wirklich Schlüssiges oder?
Zu der Leistung der Karte weiß man immer noch nichts wirklich Schlüssiges oder?
Japp - außer man nimmt so etwas für voll :freak: https://www.reddit.com/r/Amd/comments/6aeat3/full_vega_lineup_and_release_date_revealed/
Eldoran
2017-05-10, 23:07:57
Eines muss man echt anerkennen - wenn AMD wirklich noch in diesem Quartal den Release durchführen kann, dann haben die es diesmal geschafft frühzeitige Leaks zu verhindern. Entweder ist das noch länger hin, also die Angaben werden bis auf die letzten Tage ausgenutzt, dann könnten zumindest die Presse bis Juni noch im Unklaren sein. Möglicherweise gekoppelt mit absolut minimalem Zugang zu den Testsamples (das wäre dann wohl ähnlich wie beim Fury Release). Nur warum dringt dann nichts von den Herstellern durch? Die Herstellung der Karten etc. braucht ja auch Zeit. Da müsste doch langsam die Produktion anlaufen, wenn das alles zeitgerecht fertig werden soll...
In einer Woche wie dann vermutlich mehr.
Hat man bei Fiji auch gedacht. Ich denke ab nächster Woche kommen die ersten Leaks - teils auch gewollte. Ich hoffe einfach nur, dass die Karten diesmal auch schön kurz bleiben und nicht wieder künstlich verlängert werden, wie es z.B. Sapphire machte.
Muss doch langsam mal möglich sein, auch ohne WaKü ne kleine Dreckschleuder zu basteln :D
horn 12
2017-05-11, 00:55:54
Kommt Vega "Big" durch die aufwendige und sorgfälltige Treiberentwicklung seitens dem AMD Treiberteam
auf 1080 TI Custom Plus 5 bis gar 10% an Mehrperformance dann hätte AMD ihr Ziel erreicht und man dürfte klein Volta Plus - Minus einkassieren, sieht man vom wahrscheinlich extrem hohem Preis der Volta GPU mal ab.
HBM 2 wird teuer, aber so teuer wie damals Fiji als alles noch in den Kinderschuhen steckte wird Vega niemals.
Wahrscheinlich peilt mal wirklich die 599 bis 649 Dollar bei Big Vega an.
Sollte die obrige Performance wirklich erreicht werden, dann muss Volta wirklich schnell kommen!
PS: Volta als reiner Gaming Chip dürfte so gegen 30 bis 35% oberhalb einer GTX 1080TI daherkommen...
vorausgesetzt lässt sich Stock ähnlich hoch takten als Pascal.
BoMbY
2017-05-11, 01:18:11
Ich bin jedenfalls auf die finalen Frequenzen von der Top-SKU gespannt. Wäre echt der Knaller wenn die wirklich hohe Werte schaffen könnten - 1835 MHz mit 15 TFlops in Single Precision wäre jetzt auf jeden Fall mein Wunschziel. Und von mir aus kann es dann auch gerne 375+ Watt wie Fiji verbrauchen.
Leonidas
2017-05-11, 07:03:03
Reicht dir ein reddit-Post? ;D
https://www.reddit.com/r/Amd/comments/6aeat3/full_vega_lineup_and_release_date_revealed/
Jener Reddit-Post wurde gelöscht.
Skysnake
2017-05-11, 07:56:34
Es ist schon klar das Du jetzt auf Entwicklungskosten etc. hinaus willst, aber eigentlich hat er schon Recht.
Aus bisherigen Entwicklungsbereichen wo ich tätig war (Getriebebau und Werkstoffkunde, also nichts mit Chips) werden die Entwicklungskosten ganz anders verrechnet und hatten meist nichts mehr mit den Produktpreisen zu tun:wink:
Die Produktpreise bestimmt hauptsächlich immer die gesamten Prozesskosten.
Entwicklungskosten werden weit im Voraus geplant und gezahlt und der aktuelle Umsatz (zum Entwicklungsstand) finanziert die Entwicklung. ^^
Sollte sich die bei Chipherstellern gravierend was zur restlichen produzierenden Gewerbe-Welt anders verhalten dann darfst mich gerne aufklären. :-)
Willkommen in der Welt der Chipentwicklung in deep submicron Prozessen...
Die R&D Kosten mit allem zwangsläufigen drum rum wie tools usw usf. Sind neben den inertialen Maskensätzen das teuerste am ganzen Chip. Wobei selbst wenn du nur einen Wafer belichten würdest der Maskensatz sehr sehr sicher noch billiger wäre als die eigentlichen R&D Kosten....
Die wirklichen Stückkosten sind quasi vernachlässigbar. So lange du nicht über Jahre hinweg riesige Stückzahlen wie irgendwelche Microcontroller absetzt oder MEGA beschissene Yields hast, kannste die auch fast schon weglassen....
StefanV
2017-05-11, 08:06:18
Ich habe noch nie erlebt das R&D Kosten vom Produkt mit betrachtet wurden. Wie auch, was interessiert es eine Produktmanagement was die Entwicklung dafür Geld bekommen hat? Das sind komplett unterschiedliche Bereiche und Zeiten.
Ist doch eigentlich ganz einfach:
Wie hoch ist der Anteil der Entwicklungskosten über den erwarteten Lebenszyklus des Produktes.
Wenn du 50 Mio Entwicklungskosten hast, das Produkt aber über 10 Jahre angeboten werden wird und du mindestens 10.000 Stück pro Monat absetzen kannst, werden diese 50 Mio auf 1.200.000 Einheiten umgesetzt, macht das trotzdem 42€ an Entwicklungskosten pro Einheit.
Wenn du jetzt 1 Mio pro Monat absetzen kannst, sinds nur noch 42cent pro Einheit.
Und jetzt ist die Frage: Wieviel kostet das Teil?
Reden wir, wie auch hier, von nur ein paar Euronen, wie es hier der Fall ist. bzw deutlich unter 1000€.
Oder reden wir hier von einem Produkt, für das du mehrere Tausend Euro ausgeben musst?
Das ändert das ganze auch noch erheblich. Denn 42€ bei einem 2750€ Teil sind deutlich weniger als 42€ von 150€...
Und genau das ist doch das Problem. Wir reden hier von einer eher kürzeren Laufzeit mit deutlich höheren Entwicklungskosten. Für RYZEN kannst schon mal 5 Jahre ENtwicklung und einige hundert Millionen $ ansetzen. 500 Mio sind sicher nicht allzu weit von der Realität.
Mangel76
2017-05-11, 09:02:42
Ist doch eigentlich ganz einfach:
Wie hoch ist der Anteil der Entwicklungskosten über den erwarteten Lebenszyklus des Produktes.
Wenn du 50 Mio Entwicklungskosten hast, das Produkt aber über 10 Jahre angeboten werden wird und du mindestens 10.000 Stück pro Monat absetzen kannst, werden diese 50 Mio auf 1.200.000 Einheiten umgesetzt, macht das trotzdem 42€ an Entwicklungskosten pro Einheit.
Wenn du jetzt 1 Mio pro Monat absetzen kannst, sinds nur noch 42cent pro Einheit.
Und jetzt ist die Frage: Wieviel kostet das Teil?
Reden wir, wie auch hier, von nur ein paar Euronen, wie es hier der Fall ist. bzw deutlich unter 1000€.
Oder reden wir hier von einem Produkt, für das du mehrere Tausend Euro ausgeben musst?
Das ändert das ganze auch noch erheblich. Denn 42€ bei einem 2750€ Teil sind deutlich weniger als 42€ von 150€...
Und genau das ist doch das Problem. Wir reden hier von einer eher kürzeren Laufzeit mit deutlich höheren Entwicklungskosten. Für RYZEN kannst schon mal 5 Jahre ENtwicklung und einige hundert Millionen $ ansetzen. 500 Mio sind sicher nicht allzu weit von der Realität.
Ja, so hat man es in der BWL-Vorlesung gelernt. Problem ist doch aber, dass die Forschungskosten (i.d.R.) nicht per Kredit vorfinanziert und später durch die Verkaufserlöse wieder abgelöst werden. Tatsächlich muss eine Firma zumindest langfristig betrachtet die laufenden Forschungsausgaben mit den Erlösen der aktuellen Produkte finanzieren. Wenn die Forschungsergebnisse dann irgendwann in kaufbare Produkte fließen, werden mit deren Erlösen doch schon wieder die nächsten Forschungen finanziert.
Zum Zeitpunkt der Produkteinführung sind vergangene Forschungsausgaben "sunk cost", soll heißen, die bekommt man nicht wieder, egal wie man weiter vorgeht. Daher sollten sie in diesem Moment auch keine Rolle bei irgendeiner betriebswirtschaftlichen Entscheidung spielen. Dagegen fließen bei der Preisgestaltung natürlich die aktuellen Forschungsausgaben mit ein, denn die müssen ja mit erwirtschaftet werden. Viel wichtiger als die produktbezogenen Forschungskosten in der Vergangenheit ist also ob z.B. AMD jetzt seine R&D-Budgets aufstockt oder ob Investoren jetzt endlich mal wieder was als Return sehen wollen! So etwas muss nämlich bei der Kalkulation mit einbezogen werden. Andererseits heißt hoher Preis ja nicht immer und zwangsläufig hoher Gewinn! Was nutzt mir ein hoher Gewinn pro Stück, wenn ich 0 Stücke absetzen kann bei diesem Preis? Auch so etwas muss bei der Preisgestaltung einberechnet werden.
Klevapalis
2017-05-11, 09:36:02
Jener Reddit-Post wurde gelöscht.
Wie zu erwarten. Wer glaubt denn den Müll mit Nova, Explosion und Erosion?
[MK2]Mythos
2017-05-11, 10:30:42
Core, Eclipse und Nova. So ganz sicher bin ich mir nicht, die Preise machen Sinn und dass AMD merkwürdige Namen vergibt, ist ja auch nichts neues. Ich habe keine Ahnung von Reddit, aber ich bezweifle dass Bullshit so schnell gelöscht werden würde wie eventuell echte "leaks".
Mangel76
2017-05-11, 10:42:24
Was mir aber komisch vorkommt ist die große Bandbreite von 1070 bis 1080Ti. Soll das alles mit einer GPU abgedeckt werden? Die Spannweite bei Fiji war doch auch nicht so groß. Oder erwarten wir jetzt doch schon 2 verschiedene?
Wenn Vega 10 tatsächlich in den Bereich einer 1080Ti kommt, warum sollte man dann massenhaft (denn dort liegen die großen Stückzahlen!) Vegas in großem Umfang auf 1070-Niveau beschneiden und zu einem deutlich geringeren Preis verkaufen. Das würde doch nur dann Sinn machen, wenn der Prozess so schlecht läuft, dass mehrheitlich teildefekte Dies herauskommen. Oder es gibt keinen schnellen HBM2 für den vollen Vega und um überhaupt etwas zu verkaufen wird er teildeaktiviert und mit langsamerem HBM2 kombiniert, was besser ist als gar nichts zu verkaufen. :confused:
Cyphermaster
2017-05-11, 10:44:47
@reddit-Geschichte: Das ist doch wieder nur typisch pre-launch-frenzy, das schon das Spekulieren nicht mal mehr lohnt. :rolleyes: Also am Besten: "keep calm and game on." ;)
X-Bow
2017-05-11, 11:21:52
Entwicklung ist ein laufender Prozess. Man entwickelt nie etwas für nur für einen Bereich oder gar ein Produkt. Deswegen werden die auch in laufenden Kosten betrachtet und nicht beim Produktpreis.
Wichtig für ein Produktpreis ist die Marktlage und die Prozesskosten. Die Entwicklungskosten sind völlig egal weil die sind schon bezahlt. Was interessiert ein Produkt von heute die Kosten von gestern?
Vega wird preistechnisch auch danach betrachtet wie hoch die Leistung auf dem aktuellen Markt ist und was der Verbraucher bereit ist zu zahlen. Hätte Vega die Leistung von der GTX1070 können die egal wie hoch die Entwicklungskosten waren keine 2000€ dafür verlangen sondern eben nur ~400€.
Wenn die Prozesskosten aber bei ~500€ liegen würden dann wäre es Wirtschaftlicher bullshit auch nur daran zu denken Vega auf den Markt zu bringen.
Liegen die Prozesskosten aber bei z.B. ~150€ erzielt man mit jedem verkaufter Einheit Geld, vorausgesetzt der Verkaufspreis > Prozesskosten. Und von dem Umsatz welcher man dann mit allen (Klar hier könnte es beim Beispiel AMD jetzt auch noch eine separate Betrachtung CPU/GPU geben) Produkten macht werden dann feste Kosten und laufende Kosten damit finanziert.
Geht der Umsatz runter, gehen auch variable Kosten runter, es wird gespart (z.b. an der Entwicklung). Ausnahmen bestätigen die Regel, z.B. wenn der Umsatz runter geht man aber ein absoluter Hammer in der Entwicklung hat und die vor dem Abschluss steht kann es sich auch auf länger Sicht lohnen die Entwicklungskosten zu erhöhen und Verluste zu machen.
@LadyWhirlwind: Genau eben nicht. Viele Entwicklungen lohnen sich eben nicht, andere dafür umso mehr. Nur kann keiner im Voraus sagen welche davon welche ist^^ Auch lohnen sich Entwicklungen erst auf den 2ten Stepp.
Ja, Entwicklungskosten werden betrachtet, sehr intensiv sogar, aber nicht im Bezug auf das Produkt sondern auf den aktuellen Umsatz zum Zeitpunkt der Entwicklungskosten.
Auch ist es unfassbar schwer die genauen Entwicklungskosten für ein Produkt überhaupt zu ermitteln und zu zuordnen.
@Mangel76: Ich denke schon das Vega 10 auch in teildeaktivierter Form verkauft werden wird. So ähnlich wie eben auch P10.
Sie wollen ja laut Su Vega über ein breites Portfolio aufbauen. Da werden die schon ein paar Ideen haben wie sie das bewerkstelligen wollen (oder müsse, z.b. wenn die Ausbeute schlecht ist oder keine schnellen HBM2 Stacks verfügbar sind).
LadyWhirlwind
2017-05-11, 12:36:57
@LadyWhirlwind: Genau eben nicht. Viele Entwicklungen lohnen sich eben nicht, andere dafür umso mehr. Nur kann keiner im Voraus sagen welche davon welche ist^^ Auch lohnen sich Entwicklungen erst auf den 2ten Stepp.
Ja, Entwicklungskosten werden betrachtet, sehr intensiv sogar, aber nicht im Bezug auf das Produkt sondern auf den aktuellen Umsatz zum Zeitpunkt der Entwicklungskosten.
Auch ist es unfassbar schwer die genauen Entwicklungskosten für ein Produkt überhaupt zu ermitteln und zu zuordnen.
Man muss zwischen Forschungs und Entwicklungskosten unterscheiden. Entwicklungskosten kann man nämlich unter gewissen Bedingungen in der Bilanz aktivieren, was bei Forschungskosten nicht geht. Diese werden immer in den Aufwand gebucht. Die Abgrenzung ist natürlich nicht imer ganz einfach.
Entwicklungskosten sind in der Regel einem Produkt zuzuordnen. Was du beschreibst sind Forschungskosten, diese haben in der Regel nur ein grober Produktbezug. Und ja, auch diese werden bei der Preissetzung betrachtet. Produkte die erst durch hohe Forschungskosten möglich wurden, werden auch entsprechend teuer verkauft, wenn der Markt das zulässt.
Mangel76
2017-05-11, 12:37:39
@Mangel76: Ich denke schon das Vega 10 auch in teildeaktivierter Form verkauft werden wird. So ähnlich wie eben auch P10.
Sie wollen ja laut Su Vega über ein breites Portfolio aufbauen. Da werden die schon ein paar Ideen haben wie sie das bewerkstelligen wollen (oder müsse, z.b. wenn die Ausbeute schlecht ist oder keine schnellen HBM2 Stacks verfügbar sind).
Das teildeaktivierte GPUs verkauft werden ist völlig klar. Ich bezweifele jedoch, dass man mit einer GPU durch Beschneidungen ein so weites Leistungsspektrum abdecken möchte, welches Nvidia ja mit 2 verschiedenen GPUs bedient. Aber wie schon geschrieben, kann es tatsächlich auch Gründe für solch ein Vorgehen geben. Aber einen Salvage um 40% (1070 ~60% von 1080Ti) in der Leistung beschneiden??? Da muss schon viel schiefgehen, bis man soweit geht.
Dino-Fossil
2017-05-11, 12:43:52
Ich denke, die absolute Performance-Krone streben sie vorerst eh nicht an.
Wenn die Lücke zur 580 nicht zu groß werden soll, trotzdem aber zunächst nur 1 Vega Chip kommt - dann wird Vega eventuell ähnlich liegen wie die 1070 und 1080, bzw. jeweils 10-15% darüber.
Mangel76
2017-05-11, 12:43:53
Man muss zwischen Forschungs und Entwicklungskosten unterscheiden. Entwicklungskosten kann man nämlich unter gewissen Bedingungen in der Bilanz aktivieren, was bei Forschungskosten nicht geht. Diese werden immer in den Aufwand gebucht.
Entwicklungskosten sind in der Regel einem Produkt zuzuordnen. Was du beschreibst sind Forschungskosten, diese haben in der Regel nur ein grober Produktbezug. Und ja, auch diese werden bei der Preissetzung betrachtet. Produkte die erst durch hohe Forschungskosten möglich wurden, werden auch entsprechend teuer verkauft, wenn der Markt das zulässt.
Das ist der entscheidende Punkt! Du kannst die Forschungskosten nur dann wieder reinholen, wenn der Markt es zulässt. Aber andererseits verkaufst du auch ein Produkt, was dich in der Forschung/Entwicklung nicht viel gekostet hat, zu einem hohen Preis, wenn der Markt es zulässt. Ergo sind die Forschungskosten bei der Preissetzung irrelevant, der Markt bestimmt den Preis. In vielen Fällen sind aber gerade die hohen notwendigen R&D-Kosten der Faktor, der hohe Verkaufspreise ermöglicht. Diese sind nämlich dafür verantwortlich, dass es für dein teuer entwickeltes Produkt keine oder nur wenig Konkurrenz gibt. Und damit hast du wieder insoweit recht, dass diese Ausgaben eben den Markt beeinflussen und darüber doch wieder den möglichen Preis.
Wenn man diese Namen verwendet, könnte Core V11 XL, Eclipse V10 XL und Nova V10 XT sein. Damit könnte V11 XT erst mal exklusiv in Notebooks und nach Apple wandern. Man könnte auch übergangsweise Core mit einem V10 LE bestücken, solange wie V11 noch nicht verfügbar ist.
LadyWhirlwind
2017-05-11, 13:00:41
Das ist der entscheidende Punkt! Du kannst die Forschungskosten nur dann wieder reinholen, wenn der Markt es zulässt. Aber andererseits verkaufst du auch ein Produkt, was dich in der Forschung/Entwicklung nicht viel gekostet hat, zu einem hohen Preis, wenn der Markt es zulässt. Ergo sind die Forschungskosten bei der Preissetzung irrelevant, der Markt bestimmt den Preis. In vielen Fällen sind aber gerade die hohen notwendigen R&D-Kosten der Faktor, der hohe Verkaufspreise ermöglicht. Diese sind nämlich dafür verantwortlich, dass es für dein teuer entwickeltes Produkt keine oder nur wenig Konkurrenz gibt. Und damit hast du wieder insoweit recht, dass diese Ausgaben eben den Markt beeinflussen und darüber doch wieder den möglichen Preis.
Ich sage ja auch nur das die Forschungskosten bei der Preissetzung betrachtet werden. Es kann ja immer vorkommen, dass ein teuer erforschtes neues Verfahren nur eine geringfügige Verbesserung ermöglicht und diese nicht weitergegeben werden können, wenn aber die Möglichkeit daszu besteht, wird das auch gemacht. Bei der Produktplatzierung und Preissetzung spielen viele verschiedene Faktoren eine Rolle, die Forschungskosten ist da nur einer unter vielen.
BoMbY
2017-05-11, 17:12:31
AMD hat wohl eine Pressekonferenz (ohne exakte Inhaltsangabe bisher) für den 31. Mai angekündigt. (https://videocardz.com/69424/amd-to-hold-a-press-conference-on-may-31st)
aceCrasher
2017-05-11, 18:13:44
AMD hat wohl eine Pressekonferenz (ohne exakte Inhaltsangabe bisher) für den 31. Mai angekündigt. (https://videocardz.com/69424/amd-to-hold-a-press-conference-on-may-31st)
Also Vega Release im Juni?
aceCrasher
2017-05-11, 18:15:32
Mythos;11372920']Core, Eclipse und Nova. So ganz sicher bin ich mir nicht, die Preise machen Sinn und dass AMD merkwürdige Namen vergibt, ist ja auch nichts neues. Ich habe keine Ahnung von Reddit, aber ich bezweifle dass Bullshit so schnell gelöscht werden würde wie eventuell echte "leaks".
Ich bin mir ziemlich sicher, dass das AMD subreddit nicht von AMD Mitarbeitern moderiert wird, die solche Leaks möglichst schnell löschen würden, es ist anzunehmen, dass der Poster es selbst gelöscht hat.
Eldoran
2017-05-11, 20:16:03
Semi-off topic: Laut Golem ist jetzt bestätigt, dass Raven Ridge mit Vega herauskommt. https://www.golem.de/news/amd-zen-apu-raven-ridge-bekommt-vega-grafik-und-neuen-video-core-1705-127778.html
In der Vergangenheit waren die APUs ja auch öfters eine Generation hinter den reinen GPUs. Das bestätigt dass zumindest die Hardware (ohne interposer/HBM2) schon länger einsatzbereit wäre.
Unicous
2017-05-11, 20:21:17
Ich glaube du solltest an deinem Leseverständnis arbeiten.
Dedizierte Grafikkarten mit Vega-GPU werden vermutlich im Juni dieses Jahres erscheinen.
In der Konferenz zu den aktuellen Quartalszahlen von AMD bestätigte Chefin Lisa Su, dass die Raven Ridge APUs zum Weihnachtsgeschäft Ende dieses Jahres zur Verfügung sein sollen.
Der/die Autor/en sollten hingegen an ihrer Syntax arbeiten.:eek:
edit:
Du meinst RR kommt mir Vega Grafik IP. Das ist schon sehr lange bekannt und auch von AMD längst bestätigt worden.
y33H@
2017-05-11, 20:59:00
Wo hat AMD das (offiziell) bestätigt? Bekannt ist es, ja.
Wo hat AMD das (offiziell) bestätigt? Bekannt ist es, ja.
James Prior erwähnte es mal in einem Call. Finde den Artikel dazu auf dem Handy gerade leider nicht.
Unicous
2017-05-11, 21:51:01
Ich glaube James Prior erwähnte es auch bei einer Präsentation, ich erinnere mich jetzt aber auch nicht mehr genau wo und wann.
Eigentlich dachte ich sogar, dass Lisa Su etwas dazu gesagt hatte, habe aber auf die Schnelle nichts gefunden.
mczak
2017-05-11, 22:55:13
Semi-off topic: Laut Golem ist jetzt bestätigt, dass Raven Ridge mit Vega herauskommt.
Das habe ich gestern auch schon gesagt, war allerdings im RR Thread...
In der Vergangenheit waren die APUs ja auch öfters eine Generation hinter den reinen GPUs.
Das ist aber schon länger her. Seit Kaveri sind die eigentlich immer aktuell (kommen etwas später auf den Markt als GPUs derselben Generation aber vor GPUs der nächsten Generation).
Setsul
2017-05-11, 22:58:19
Das bestätigt dass zumindest die Hardware (ohne interposer/HBM2) schon länger einsatzbereit wäre.
Ich sehe nirgends RR Produkte die man kaufen kann.
Inwiefern ist das "schon länger einsatzbereit"?
y33H@
2017-05-12, 01:33:37
Wichtig für Vega im Kontext mit Raven Ridge bzw Horned Owl finde ich übrigens DDR4-3200 Dual Channel.
Cyphermaster
2017-05-12, 08:06:03
Ich sehe nirgends RR Produkte die man kaufen kann.
Inwiefern ist das "schon länger einsatzbereit"?Fertigungsreife eben. Einsatzbereit ist was Anderes als kauf-/lieferbar.
Wichtig für Vega im Kontext mit Raven Ridge bzw Horned Owl finde ich übrigens DDR4-3200 Dual Channel.Unbedingt! Beim CPU-Anteil wurde schon gejammert, weswegen die Nichtverfügbarkeit garantiert -schon ohne jegliche Tests- als Makel gesehen werden würde. Wobei, gewisses Gemecker gibt's auch so sicher wieder von ein paar Leuten, weil es "nur" 3200er ist, und nicht gleich 4000er. :rolleyes:
Gibt's eigentlich schon Performance-Prognosen zu den Vega-Abkömmlingen auf RR?
/Edit: Bisher hab ich immer nur von den Ergebnissen (eigentlich ja nur eines, und das nicht direkt zugeordnet) von V10 gelesen, bzw. die Mutmaßung, es könnte vielleicht auch der "kleine Bruder" sein. Wenn man einmal Best- und einmal Worst-Case Performance annimmt, welche (vernünftige) Portfolio-Aufteilung hinsichtlich Performance/Preispunkt/Vergleich zu einem nVidia-Produkt ergäbe sich denn dann für Vega unter der Voraussetzung, daß es so viele Produkte wie Codes gibt?
pilzsammler2002
2017-05-12, 08:44:13
WIr hatten das mal anhand der Fury hochgerechnet...
Grundlage sind Fury X 3dcenter Werte und die durchschnittliche Performance/Watt steigerung dank dem Shrink auf Polaris bezogen.
Größe mm² - NM - Watt - 3d Center 1080p Punkte
485 - 14 - 250 - 1063 <-ohne TBR (nur shrink)
485 - 14 - 250 - 1327 <- mit TBR anhand der durchschnittlichen Performance/Watt steigerung von Nvidia GK zu GM
Habe das hier noch genauer vorliegen :)
Gibts irgendwo nen Crashkurs für Tabellen in diesem Forum?
Cyphermaster
2017-05-12, 08:53:50
Die hab ich ja gesehen, aber mich interessiert die Marktpositionierung, die sich daraus ergeben würde. Und abgeleitet die Platzierung von V11/V20.
pilzsammler2002
2017-05-12, 09:45:28
Preislich ist das echt schwer einzuschätzen... Ich gehe mal grob davon aus das man es wie mit Ryzen -> Intel machen wird...
Sprich der große Vega wird (wenn er genau auf 1080ti niveau landet)
699$ (bzw. auch 749$ [weit entfernt von 750$] mit Wakü falls sich das bestätigt)
Der "Kleine" (salvage und 1080 niveau) wird sich +/- 5-10% an den 1080 Preisen orientieren.
Wenn AMD es wirklich schaffen sollte mehr Performance rauszuholen gehe ich nicht davon aus das sie trotzdem großartig günstiger sein werden...
Das einzige was "uns" da entgegenkommt ist das sie meistens im € bereich etwas günstiger sind als Nvidia bei gleicher MSRP und auch schneller fallen (siehe Ryzen)...
EDIT:
Falls an den "RX Vega "Nova" - RRP: $599.99 (1080TI perf or better)" Gerüchten auch nur ansatzweise was dran ist, dann hat AMD defintiv ein sehr heisses Eisen im Feuer... Ich würde es mir wünschen aber bin da eher Skeptisch :D
uweskw
2017-05-12, 10:43:24
Preislich ist das echt schwer einzuschätzen... Ich gehe mal grob davon aus das man es wie mit Ryzen -> Intel machen wird...
Sprich der große Vega wird (wenn er genau auf 1080ti niveau landet)
699$ (bzw. auch 749$ [weit entfernt von 750$] mit Wakü falls sich das bestätigt).......
Na, wenn das wie Ryzen wird: X1800 zu Intel 8 Core mit 3GHz, dann lägen wir eher beim halben Preis von 1080Ti.
https://geizhals.de/?cat=cpu1151&xf=25_8~3_3000&asuch=&bpmax=&v=e&hloc=at&hloc=de&plz=&dist=&mail=&sort=t
Das wäre aber ein bisschen arg optimistisch :D
Könnte realistisch ca. 1080Ti Leistung für 549,00€ werden. Das würde auch zum Verhalten vom NV passen: "Wir haben keine Angst vor Vega"
http://www.pcgameshardware.de/Vega-Codename-265481/News/Nvidia-CEO-fuerchtet-Vega-kein-Stueck-1227653/
greetz
US
Setsul
2017-05-12, 10:58:21
Fertigungsreife eben. Einsatzbereit ist was Anderes als kauf-/lieferbar.
Ich meine was soll die Logik?
Vega10 steht vor der Tür. Angeblich deshalb "so spät" wegen HBM2.
RR kommt noch später als Vega10 weil es kein HBM2 braucht.
Schlussfolgerung: Vega ist schon länger bereit.
?!
lowkres
2017-05-12, 11:02:53
Keine Ahnung ob was dran sein könnte, aber das sind nette Infos für die Vega. Ich weiß jetzt nicht, ob das schon gepostet wurde. :D
Leaked Infos zum realease der Vega Karten und angebliche Preise!
https://www.youtube.com/watch?v=sB29Ntq4H_8&feature=youtu.be
masked__rider
2017-05-12, 11:08:44
Keine Ahnung ob was dran sein könnte, aber das sind nette Infos für die Vega. Ich weiß jetzt nicht, ob das schon gepostet wurde. :D
Leaked Infos zum realease der Vega Karten und angebliche Preise!
https://www.youtube.com/watch?v=sB29Ntq4H_8&feature=youtu.be
Das sind die vermeintlichen 'Infos' vom bereits gelöschten reddit-eintrag. Würd ich nicht zuviel darauf geben.
pilzsammler2002
2017-05-12, 11:23:15
Na, wenn das wie Ryzen wird: X1800 zu Intel 8 Core mit 3GHz, dann lägen wir eher beim halben Preis von 1080Ti.
:biggrin:
Aber dafür mit einer theroethischen "schwäche" in Spielen... Was bei Gaming GPUs nicht soo gut ankommt :freak:
G3cko
2017-05-12, 11:32:47
Eigentlich hat AMD durch die Konsolendeals die Möglichkeit neue Technologien durchzudrücken. Wie sieht es mit Raytracing aus? Könnte Vega hier Optimierungen in die Richtung bringen? Oder ist das weiterhin Zukunftsmusik?
uweskw
2017-05-12, 11:41:26
:biggrin:
Aber dafür mit einer theroethischen "schwäche" in Spielen... Was bei Gaming GPUs nicht soo gut ankommt :freak:
besonders für Spieler die mit ihrer 1080Ti schlecht Mehrkernoptimierte Spiele in 720p spielen....:freak:
Können wir das bitte sein lassen??
Was mich allen ernstes jedoch an Vega zweifeln lässt ist, dass so gar nichts geleakt wird. Jede in der Zwischenzeit verkaufte 1080/1080Ti ist ein potentieller Kunde weniger.
greetz
US
Cyphermaster
2017-05-12, 11:51:14
Preislich ist das echt schwer einzuschätzen... Ich gehe mal grob davon aus das man es wie mit Ryzen -> Intel machen wird...
Sprich der große Vega wird (wenn er genau auf 1080ti niveau landet)
699$ (bzw. auch 749$ [weit entfernt von 750$] mit Wakü falls sich das bestätigt)
Der "Kleine" (salvage und 1080 niveau) wird sich +/- 5-10% an den 1080 Preisen orientieren.
Wenn AMD es wirklich schaffen sollte mehr Performance rauszuholen gehe ich nicht davon aus das sie trotzdem großartig günstiger sein werden...
Das einzige was "uns" da entgegenkommt ist das sie meistens im € bereich etwas günstiger sind als Nvidia bei gleicher MSRP und auch schneller fallen (siehe Ryzen)...
EDIT:
Falls an den "RX Vega "Nova" - RRP: $599.99 (1080TI perf or better)" Gerüchten auch nur ansatzweise was dran ist, dann hat AMD defintiv ein sehr heisses Eisen im Feuer... Ich würde es mir wünschen aber bin da eher Skeptisch :D
Das wäre dann ungefähr, bei 10% Zielpreis-Setzung unter vergleichbaren Lösungen:
Vega 10 Full - ca. 1200/170 FHD/4k-Index, ~649€
Vega 10 Salvage - ca. 1000/130 FHD/4k-Index, ~449€
Vega 11 Full - ca. 800/110 FHD/4k-Index, ~349€
Stufe drunter wären dann die 580:
Polaris 10 Full - ca. 580/75 FHD/4k-Index, ~249€
Insgesamt dann eine Staffelung alle ~200 Punkte FHD-Index (600/800/1000/1200). Platz für einen Salvage des "kleinen" Vega nach unten wäre dann aber schon nicht mehr?
Insgesamt sind 7 Device-IDs für V10 vorgesehen. Davon würden nach Abzug der MI20+MI25-Profilösungen noch 5 verbleiben. Abzüglich 1 ID für V10² wären das je 2 für V10 Full und 2 für V10 Salvage...
grauenvoll
2017-05-12, 11:52:33
Was mich allen ernstes jedoch an Vega zweifeln lässt ist, dass so gar nichts geleakt wird. Jede in der Zwischenzeit verkaufte 1080/1080Ti ist ein potentieller Kunde weniger.
nVidia schafft es auch regelmäßig ohne Leaks und niemand zweifelt.
unl34shed
2017-05-12, 11:55:57
Was mich allen ernstes jedoch an Vega zweifeln lässt ist, dass so gar nichts geleakt wird. Jede in der Zwischenzeit verkaufte 1080/1080Ti ist ein potentieller Kunde weniger.
Auf der anderen Seite wäre eine als Reaktion günstigere 1080/ti 100te verlorener Kunden, die denken ein Schnäppchen gemacht zu haben.
Hübie
2017-05-12, 12:08:16
Ich meine was soll die Logik?
Vega10 steht vor der Tür. Angeblich deshalb "so spät" wegen HBM2.
RR kommt noch später als Vega10 weil es kein HBM2 braucht.
Schlussfolgerung: Vega ist schon länger bereit.
?!
Während NV schon das zweite Produkt oder besser gesagt zweiten Chip mit HBM2 bringt soll AMD mit Hynix so arge Probleme haben? Kann ich mir schwer vorstellen. Möglicherweise war ein Bug im Chipdesign (sehen wir dann ja an der Revision) oder der Programmieraufwand war anfangs sehr hoch (neue ISA, ggf. per App optimization...).
Ooooder ein Mix aus allem Dingen. Wer weiß. Wer immer noch leugnet dass Vega spät kommt leugnet die Wirklichkeit. Ob es on track ist oder nicht: Der Abstand wird immer größer und der Markt ist definiert von Innovation.
Der_Korken
2017-05-12, 12:10:33
Das wäre dann ungefähr, bei 10% Zielpreis-Setzung unter vergleichbaren Lösungen:
Vega 10 Full - ca. 1200/170 FHD/4k-Index, ~649€
Vega 10 Salvage - ca. 1000/130 FHD/4k-Index, ~449€
Vega 11 Full - ca. 800/110 FHD/4k-Index, ~349€
Stufe drunter wären dann die 580:
Polaris 10 Full - ca. 580/75 FHD/4k-Index, ~249€
Insgesamt dann eine Staffelung alle ~200 Punkte FHD-Index (600/800/1000/1200). Platz für einen Salvage des "kleinen" Vega nach unten wäre dann aber schon nicht mehr?
Die Salvage-Varianten waren bei AMD schon oft extrem dicht an der vollen Version dran. Ich sehe kein Problem noch einen V11 Salvage mit 700/95 als Resteverwertung zu bringen. Notfalls halbiert man den VRAM auf 4GB, um den Abstand zum vollen V11 zu wahren (natürlich wenn auch hier das neue VRAM-Caching genutzt wird, sonst wären 4GB totaler Quatsch). Eventuell fährt AMD aber auch eine Strategie wie bei Ryzen und bringt zwei Salvages (z.B. Full = 64 CUs, Salvage 1 = 56 CUs, Salvage 2 = 44 CUs). Ist natürlich schlecht für die Margen, aber wenn V11 noch nicht fertig ist und man die kleinste Version noch über Produktionskosten verkaufen kann, warum nicht.
pilzsammler2002
2017-05-12, 12:17:40
besonders für Spieler die mit ihrer 1080Ti schlecht Mehrkernoptimierte Spiele in 720p spielen....:freak:
Können wir das bitte sein lassen??
War ja auch nicht ernst gemeint :wink:
Das wäre dann ungefähr, bei 10% Zielpreis-Setzung unter vergleichbaren Lösungen:
Vega 10 Full - ca. 1200/170 FHD/4k-Index, ~649€
Vega 10 Salvage - ca. 1000/130 FHD/4k-Index, ~449€
Vega 11 Full - ca. 800/110 FHD/4k-Index, ~349€
Stufe drunter wären dann die 580:
Polaris 10 Full - ca. 580/75 FHD/4k-Index, ~249€
Insgesamt dann eine Staffelung alle ~200 Punkte FHD-Index (600/800/1000/1200). Platz für einen Salvage des "kleinen" Vega nach unten wäre dann aber schon nicht mehr?
Insgesamt sind 7 Device-IDs für V10 vorgesehen. Davon würden nach Abzug der MI20+MI25-Profilösungen noch 5 verbleiben. Abzüglich 1 ID für V10² wären das je 2 für V10 Full und 2 für V10 Salvage...
Passt doch perfekt zusammen :)
Derzeitig ist der Leistungsaufbau grob immer das Doppelte vom vorherigen Full-Die-Modell
550 ~150% (wir nehmen jetzt mal 150% anstatt der 170% an)
560 ~ 300%
580 ~ 600% (ansich 590 aber mal aufrunden zum vergleich)
Big Vega ~1200%
Alle bisherigen Polaris Chips landen teildeaktiviert bei genau 86-87% des vollen Chips. (580 zu 570, 480 zu 470, 560 zu 460)
Das wäre bei dem "big" Salvage ~1045%
Könnte mir vorstellen das der "kleine" Vega bei 900 landet und der Salvage bei ~780 landet. (Das wäre "fast" genau der Bereich der 1080 und 1070 :freak:)
Wäre auch ein Sicherheitsabstand zu 580 und könnte Preislich etwas höher (im verhältniss zu 580) ansetzen da HBM und neue Arch/Technologien.
Dino-Fossil
2017-05-12, 12:18:29
Während NV schon das zweite Produkt oder besser gesagt zweiten Chip mit HBM2 bringt soll AMD mit Hynix so arge Probleme haben? Kann ich mir schwer vorstellen.
Hm, immerhin bringt nVidia HBM2 nur auf Chips für den professionellen Bereich, bei dem man vermutlich niedrigere Stückzahlen hat und mit höheren Kosten arbeiten kann, als bei einem Chip, der in den allgemeinen Verkauf geht.
Persönlich vermute ich aber (wobei ich mich dabei natürlich irren kann), dass AMD Vega zumindest ein wenig verschoben hat, um besser gegen die Pascal-Chips zu bestehen, deren Taktraten wohl einigermaßen überraschend waren.
grauenvoll
2017-05-12, 12:29:57
Wer immer noch leugnet dass Vega spät kommt leugnet die Wirklichkeit. Ob es on track ist oder nicht: Der Abstand wird immer größer und der Markt ist definiert von Innovation.
Sehe ich auch so. Wenn von Vega 3 Modelle kommen, jeweils auf dem Niveau einer 1070, 1080 und 1080Ti, wird der wirtschaftliche Erfolg überschaubar sein. Mehr als 16.000 St. wird man dann auch nicht brauchen. Der Markt ist abgegrast. Jemand der ein solches Produkte kaufen will, konnte das bereits sein fast einem Jahr tun.
dargo
2017-05-12, 12:35:09
Das ist Quatsch. Niemand kauft sich eine Nvidia Grafikkarte mit einem Freesync Bildschirm und umgekehrt.
btw.
Wenn sich V11 verspätet könnte AMD immer noch eine Art Nano 2 @V10 auflegen die als Hauptziel Effizienz hat bzw. die Balkenlänge zweitrangig ist.
pilzsammler2002
2017-05-12, 12:37:17
Weil Karten für immer halten und alle Leute auch nur zum Nvidia Release ihre Karten austauschen bzw. auch nur dann mit Pech kaputt gehen? :eek:
Ich denke der Großteil der User der zum release der 1070, 1080 und ti ausgetauscht hat wird AMD eh nicht in betracht gezogen haben selbst wenn sie was gehabt hätten...
Man liest z.B. in Reddit häufiger von Leuten die von Maxwell 980ti oder Pascal (1070 und höher) zu Polaris wechseln weil sie nen Freesync Monitor bekommen oder gekauft haben :cool:
Dino-Fossil
2017-05-12, 12:40:54
Potentielle Kunden gibt es immer, aber ganz von der Hand zu weisen ist es nicht, dass AMD umso mehr von denen verliert, je länger die Einführung von Vega dauert - wobei natürlich wichtig ist, wo Vega dann landet.
Ideal ist es jedenfalls nicht, dass sie so lange ohne echte und aktuelle High End/Enthusiasten Option dastehen.
Setsul
2017-05-12, 12:59:45
Während NV schon das zweite Produkt oder besser gesagt zweiten Chip mit HBM2 bringt soll AMD mit Hynix so arge Probleme haben? Kann ich mir schwer vorstellen. Möglicherweise war ein Bug im Chipdesign (sehen wir dann ja an der Revision) oder der Programmieraufwand war anfangs sehr hoch (neue ISA, ggf. per App optimization...).
Ooooder ein Mix aus allem Dingen. Wer weiß. Wer immer noch leugnet dass Vega spät kommt leugnet die Wirklichkeit. Ob es on track ist oder nicht: Der Abstand wird immer größer und der Markt ist definiert von Innovation.
Vega stand noch nie für 2016 auf der Roadmap, egal wie man es dreht und wendet. Schau dir doch an wann die ersten Polaris Dies aufgetaucht sind, wann die ersten Demos liefen und wann dann der Release kam. Vergleich das mit Vega. Das sieht nicht wirklich danach aus als ob AMD fürchterliche Probleme hätte.
Ob AMD 10 Monate nach der 1080 eine konkurrenzfähige Karte bringt oder erst 12 Monate danach, ändert da wirklich nichts mehr.
Das ist doch jetzt schon seit Jahren so, dass sich AMD nicht viele neue Dies pro Jahr leisten kann, sowohl in Sachen Budget als auch in Sachen Ressourcen. Polaris ist allein durch die Menge erstmal wichtiger gewesen.
Vega ist an sich 3 Jahre zu spät. Glücklicherweise hat nVidia außer einem Shrink nichts gemacht, wenn Vega als ein ähnlicher Sprung wird wie Maxwell, wäre AMD wieder einigermaßen auf Augenhöhe.
Aber die Frage ist dann wieder was ist mit Volta. Um damit mitzuhalten müsste Vega ein größerer Sprung als Maxwell werden. Nicht unmöglich, aber doch recht schwierig. Oder Navi muss 2018 mit doch spürbaren Verbesserungen auftauchen.
G3cko
2017-05-12, 13:01:25
Zumal dürften nun die Karten auch mal preiswerter werden. Der übliche Preisrutsch bei einer neuen Fertigung. GP104 ist immer noch nur ein Mittelklasse Chip.
Linmoum
2017-05-12, 13:05:43
Während NV schon das zweite Produkt oder besser gesagt zweiten Chip mit HBM2 bringt soll AMD mit Hynix so arge Probleme haben? Kann ich mir schwer vorstellen. Möglicherweise war ein Bug im Chipdesign (sehen wir dann ja an der Revision) oder der Programmieraufwand war anfangs sehr hoch (neue ISA, ggf. per App optimization...).
Ooooder ein Mix aus allem Dingen. Wer weiß. Wer immer noch leugnet dass Vega spät kommt leugnet die Wirklichkeit. Ob es on track ist oder nicht: Der Abstand wird immer größer und der Markt ist definiert von Innovation.
Erst einmal "bringt" nVidia diesen Chip erst ab Q3, das sind also auch noch ein paar Monate bis zur Verfügbarkeit.
Andererseits kann man die Stückzahlen natürlich kaum vergleichen, die nVidia und AMD jeweils brauchen. Bei letzterem wird's eben auch der Consumer-Bereich. Ich denke schon, dass der Launch dadurch eingeschränkt(er) ist bzw. war, wenngleich nicht unbedingt auf jetzt Mai/Juni bezogen.
AMD hat schlicht und ergreifend nicht die Ressourcen dafür, X Chips pro Jahr wie nVidia zu bringen. Wer das leugnet, leugnet die Wirklichkeit. ;) Insofern sollte es niemanden auch nur im entferntesten überraschen, dass Vega dann kommt, wenn es kommt.
Cyphermaster
2017-05-12, 13:09:59
Ich meine was soll die Logik?
Vega10 steht vor der Tür. Angeblich deshalb "so spät" wegen HBM2.
RR kommt noch später als Vega10 weil es kein HBM2 braucht.
Schlussfolgerung: Vega ist schon länger bereit.
?!Was erwartest du? Das sind ja alles Logiken, die nicht von AMD selber stammen, sondern von irgendwem, und dann auch noch mehreren Leuten. Da muß weder was zusammenpassen, noch stimmen.
Triskaine
2017-05-12, 13:14:37
Vega 10 hatte Ende Juni 2016 seinen Tapeout. 3 Monate Fab Cycle time plus ein bis zwei Wochen für Test, Packaging und Transport bedeutet das (sofern es keine großen Probleme gab) die ersten Samples Mitte bis Ende Oktober bei AMD verfügbar waren. Bei einem Launch im Juni sind das knappe acht Monate Validierungszeit, was für einen komplexen ASIC überhaupt nicht viel ist. (Intel lässt sich teilw. Anderthalb Jahre für so etwas Zeit). Man kann eher sagen wenn AMD im kommenden Juni mit minimalem Volumen launchen kann ist aus technischer Sicht alles gut gegangen.
Cyphermaster
2017-05-12, 13:28:52
Wenn sich V11 verspätet könnte AMD immer noch eine Art Nano 2 @V10 auflegen die als Hauptziel Effizienz hat bzw. die Balkenlänge zweitrangig ist.Ich frage mich eher, ob es V11 bei dem jetzt schon späten Start überhaupt noch wirklich braucht...
Ein Massenprodukt kann das so nicht mehr werden, als Ablösung von Polaris paßt er nicht in die Roadmap, und es braucht extra Fertigungsaufwand.
Gut, ein 2.Salvage von V10 zum Auffüllen der Portfolio-Lücke wäre auch nicht optimal; aber grade wenn man Ressourcen sparen will/muß, stellt sich die Frage, ob man da nicht eher in diesen Apfel beißen hätte sollen, um die Entwickler stattdessen zur Beschleunigung des Zeitplans der nächsten Chipgeneration zu investieren. Das zu beurteilen, bin ich aber in der Branche nicht tief genug drin.
X-Bow
2017-05-12, 14:17:50
Ich frage mich eher, ob es V11 bei dem jetzt schon späten Start überhaupt noch wirklich braucht...
Ein Massenprodukt kann das so nicht mehr werden, als Ablösung von Polaris paßt er nicht in die Roadmap, und es braucht extra Fertigungsaufwand.
Mh, welche Roadmap meinst Du denn genau?
Ich kann mir schon vorstellen das V11 P20 ablösen wird/soll, nur eben nicht in diesem Quartal sondern eher Q4 17 - Q1 18.
Dann wäre es doch möglich das V11 zwar den Performanceindex zu nahe an V10 anhebt, aber V20, wo dann eventuell Q1 18 kommen könnte, würde sich dann wieder abheben von V11.
Oder?
AffenJack
2017-05-12, 14:29:03
Während NV schon das zweite Produkt oder besser gesagt zweiten Chip mit HBM2 bringt soll AMD mit Hynix so arge Probleme haben? Kann ich mir schwer vorstellen. Möglicherweise war ein Bug im Chipdesign (sehen wir dann ja an der Revision) oder der Programmieraufwand war anfangs sehr hoch (neue ISA, ggf. per App optimization...)
Vergiss nicht, dass AMD HBM2 in Spezifikationen haben will an denen Samsung gescheitert ist. Nvidia wollte 1Gb/s und 8High Stacks von Samsung, gab es doch mal auf Slides für Volta zu sehen meine ich. Aber sie haben nur 900Gb/s und immernoch 4High bekommen.
Amd braucht für MI25 aber genau die gleiche taktrate und 8High-Stacks. Wenn Samsung es nicht schafft kann man sich schon fragen ob Hynix das in ausreichenden Mengen hinkriegt. Schafft man 8High-Stacks nicht, kann man nur bei Mi25 den Ramausbau nicht liefern, aber wenn Hynix auch Probleme mit dem Takt hat werden die Auswirkungen auf Vega noch größer. Außerdem braucht GV100 HBM2 ja sogar nur in relativ geringen Mengen. Aber Vega wird ein Massenmarktprodukt.
Ich will hier nicht schwarzmalen und hoffe, dass dies nicht der Fall ist. Nur an Samsung sieht man, dass dies kein Selbstläufer ist.
Mortalvision
2017-05-12, 14:39:06
Samsung hatte ja auch viele interne Probleme die letzten zwei Jahre. Da mutmaße ich eher eine betriebswirtschaftliche denn eine technische Ursache, nicht so tief ins HBM Geschäft einzusteigen...
Vergiss nicht, dass AMD HBM2 in Spezifikationen haben will an denen Samsung gescheitert ist. Nvidia wollte 1Gb/s und 8High Stacks von Samsung, sonst hätten sie das nicht letztes Jahr angekündigt. Aber sie haben nur 900Gb/s und immernoch 4High bekommen.
Bevor hier wieder Widerspruch hier (https://www.heise.de/newsticker/meldung/GTC-2017-Nvidias-Volta-Architektur-ein-Meilenstein-im-GPU-Design-3712206.html) noch eine offizielle Aussage dazu, dass man schon gerne mehr haette:
Jonah Alben unterstrich, dass Volta einen neuen Speichercontroller mitbringt und erklärte, dass theoretisch auch ein größerer Speicherausbau, etwa auf 32 GByte möglich sei. Praktisch liefert aber noch kein Hersteller entsprechende Chips aus.
Samsung hatte ja auch viele interne Probleme die letzten zwei Jahre. Da mutmaße ich eher eine betriebswirtschaftliche denn eine technische Ursache, nicht so tief ins HBM Geschäft einzusteigen...
Und trotzdem hatten sie mit ihrem DDR4 afaik schon vor Hynix Erfahrungen mit TSVs gemacht.
Außerdem braucht GV100 HBM2 ja sogar nur in relativ geringen Mengen. Aber Vega wird ein Massenmarktprodukt.
Ohne komplett schwarzmalen zu wollen: Nvidia hat in dem Segment ein vollkommenes Monopol. Dann bekommt jeder dev erstmal so eine Workstation mit ein paar V100 hingestellt, Partner werden damit ausgestattet, es gibt Projekte fuer neue Supercomputer die schon laengst geplant sind. Mit der V100 "Nano" wird der Einsatzbereich auch noch weiter vergroessert.
AMD ist dagegen im Profi-Markt nicht existent und so viele AMD Fans muss es erstmal geben, die nach Monaten immer noch auf Vega warten.
Und man fragt sich schon, wer ueberhaupt noch die MI Karten kaufen soll, selbst wenn Nvidia viel teurer ist. Das kommt vielleicht noch aus "ideologischen Gruenden" (wie beim L-CSC) bei voellig neuen Projekten (https://www.heise.de/newsticker/meldung/EU-will-bei-Exascale-Computing-aufholen-3710281.html) infrage,
MadPenguin
2017-05-12, 15:21:14
Bevor hier wieder Widerspruch hier (https://www.heise.de/newsticker/meldung/GTC-2017-Nvidias-Volta-Architektur-ein-Meilenstein-im-GPU-Design-3712206.html) noch eine offizielle Aussage dazu, dass man schon gerne mehr haette:
Und trotzdem hatten sie mit ihrem DDR4 afaik schon vor Hynix Erfahrungen mit TSVs gemacht.
Ohne komplett schwarzmalen zu wollen: Nvidia hat in dem Segment ein vollkommenes Monopol. Dann bekommt jeder dev erstmal so eine Workstation mit ein paar V100 hingestellt, Partner werden damit ausgestattet, es gibt Projekte fuer neue Supercomputer die schon laengst geplant sind. Mit der V100 "Nano" wird der Einsatzbereich auch noch weiter vergroessert.
AMD ist dagegen im Profi-Markt nicht existent und so viele AMD Fans muss es erstmal geben, die nach Monaten immer noch auf Vega warten.
Und man fragt sich schon, wer ueberhaupt noch die MI Karten kaufen soll, selbst wenn Nvidia viel teurer ist. Das kommt vielleicht noch aus "ideologischen Gruenden" (wie beim L-CSC) bei voellig neuen Projekten (https://www.heise.de/newsticker/meldung/EU-will-bei-Exascale-Computing-aufholen-3710281.html) infrage,
Alles Schritt für Schritt :) Intel Monopol wird hoffentlich langsam aufgeweicht mit Ryzen. Das selbe im GPU Bereich wird hoffentlich auch passieren. Obs mit Vega passiert oder erst danach, AMD hat weder die Geldmitteln des einen noch des anderen
Klevapalis
2017-05-12, 15:35:11
Alles Schritt für Schritt :) Intel Monopol wird hoffentlich langsam aufgeweicht mit Ryzen. Das selbe im GPU Bereich wird hoffentlich auch passieren. Obs mit Vega passiert oder erst danach, AMD hat weder die Geldmitteln des einen noch des anderen
Womit möchte AMD denn NVIDIA angreifen? Mit Vega10? Ohne NVLink, kein HalfRate-DP64, nix für DeepLearning etc. pp.
BoMbY
2017-05-12, 16:03:37
Womit möchte AMD denn NVIDIA angreifen? Mit Vega10? Ohne NVLink, kein HalfRate-DP64, nix für DeepLearning etc. pp.
Dir scheint das grüne Marketinggift ordentlich zu Kopf gestiegen zu sein?
Radeon Instinct (http://instinct.radeon.com/en-us/about/)
AMD's Infinity Fabric detailed (https://community.amd.com/thread/211126)
CCIX - Cache Coherent Interface (http://www.ccixconsortium.com/)
Gen-Z - scalable, high-performance fabric technology (http://genzconsortium.org/)
Ex3cut3r
2017-05-12, 16:16:56
Ich bin enttäuscht von AMD was die GPU Sparte angeht. Wann kommt Vega denn endlich? Wen interessiert es überhaupt noch wenn er denn kommt? Die meisten haben schon längst zur einer 1070/1080/1080Ti gegriffen. Im März kommt schon wohl langsam Volta. Sieht nicht gut aus. Irgendwie kann AMD wohl nicht beides managen. Jahrelang kam bei den CPUs nichts, aber wenigstens bei den GPUs war man nah dran. Jetzt ist man bei den CPUs nah dran, dafür kommt bei den GPUs wieder nichts. Lächerlich!
[MK2]Mythos
2017-05-12, 16:20:56
Ich bin enttäuscht von AMD was die GPU Sparte angeht. Wann kommt Vega denn endlich? Wen interessiert es überhaupt noch wenn er denn kommt? Die meisten haben schon längst zur einer 1070/1080/1080Ti gegriffen. Im März kommt schon wohl langsam Volta. Sieht nicht gut aus. Irgendwie kann AMD wohl nicht beides managen. Jahrelang kam bei den CPUs nichts, aber wenigstens bei den GPUs war man nah dran. Jetzt ist man bei den CPUs nah dran, dafür kommt bei den GPUs wieder nichts. Lächerlich!
Was verstehst du an "Vega is on track" und Q2 2017 nicht?
Ex3cut3r
2017-05-12, 16:22:23
Mythos;11373961']Was verstehst du an "Vega is on track" und Q2 2017 nicht?
Daran glaube ich einfach nicht mehr sry. Das sagen sie doch schon seit einem Jahr.
dargo
2017-05-12, 16:25:47
Wann kommt Vega denn endlich? Wen interessiert es überhaupt noch wenn er denn kommt?
Mich. Wen interessiert Nvidia? :P
Linmoum
2017-05-12, 16:29:35
Daran glaube ich einfach nicht mehr sry. Das sagen sie doch schon seit einem Jahr.
Sie sagen seit Sommer letzten Jahres 1H 2017 und seit Ende Januar Q2 für Vega. Woran du glaubst, spielt erstmal keine Rolle.
Es wäre auf jeden Fall sehr dämlich, wenn man die Investoren dreist anlügen würde.
Schnoesel
2017-05-12, 16:34:47
Ist doch nur wieder jemand der AMD braucht damit die Konkurrenz günstiger wird. Die haben es dann immer eilig, sind natürlich entäuscht wegen was auch immer und "müssen" dann zur Konkurrenz greifen.
Alle anderen warten, schaun sich das Ganze an, entscheiden.
Locuza
2017-05-12, 16:36:51
Daran glaube ich einfach nicht mehr sry. Das sagen sie doch schon seit einem Jahr.
Was soll AMD denn stattdessen machen?
Früher die Produkte veröffentlichen?
Ende Mai ist die Computex und AMD hat Einladungen verschickt, dass Reveal ist sehr wahrscheinlich nur noch einige Wochen entfernt und nächsten Monat gibt es Vega-Testberichte.
Troyan
2017-05-12, 16:40:01
Dir scheint das grüne Marketinggift ordentlich zu Kopf gestiegen zu sein?
Radeon Instinct (http://instinct.radeon.com/en-us/about/)
AMD's Infinity Fabric detailed (https://community.amd.com/thread/211126)
CCIX - Cache Coherent Interface (http://www.ccixconsortium.com/)
Gen-Z - scalable, high-performance fabric technology (http://genzconsortium.org/)
Ist cool, was es alles auf PowerPoint-Folien als Produkte geben kann. :eek:
Linmoum
2017-05-12, 16:41:59
Was soll AMD denn stattdessen machen?
Früher die Produkte veröffentlichen?
Ist doch wie immer, auch unabhängig von AMD.
Man lässt sich Zeit: "Wann kommt das dann mal, wenn man so lange wartet wird das nichts"
Man nimmt sich die Zeit nicht und veröffentlicht früher: "Hätten sie mal noch ein wenig gewartet und für den nötigen Feinschliff gesorgt, statt das Produkt verfrüht rauszuhauen"
Wie man's macht, man macht es falsch. ;) Zumal es mit "Design Done" vom Juni letzten Jahres und dem jetzt nahenden Release auch vom Zeitraum her passt.
Loeschzwerg
2017-05-12, 16:48:32
Alle anderen warten, schaun sich das Ganze an, entscheiden.
Ich habe da keine Wahl mehr, hab nen FreeSync Monitor und die Nano ist am Ende :freak:
Ex3cut3r
2017-05-12, 16:54:01
Was soll AMD denn stattdessen machen?
Früher die Produkte veröffentlichen?
Ende Mai ist die Computex und AMD hat Einladungen verschickt, dass Reveal ist sehr wahrscheinlich nur noch einige Wochen entfernt und nächsten Monat gibt es Vega-Testberichte.
Vlt.mal so wie Nvida releasen? Damit ein Preiskampf entsteht und wir davon profitieren?
Ansonsten werde ich dieses Zitat in meine Sig packen, wenn es Oktober ist, und immer noch kein Vega da ist. :smile:
Damit so einer wie du davon profitiert? Nö. Zahl du mal schön drauf. Ich gönn dir das, ehrlich :D
Edit:
:rolleyes: Als es nur im mich gehen wurde.
Ich wüsste nicht, dass ich ausschließlich von dir gesprochen hätte, das wie du impliziert Menschen wie du.
Ex3cut3r
2017-05-12, 17:01:20
:rolleyes: Als es nur im mich gehen wurde. Aber ja ich hatte keine Alternative da ich keine Tetris Auflösung wie die meisten hier fahre.
Linmoum
2017-05-12, 17:03:16
Vlt.mal so wie Nvida releasen? Damit ein Preiskampf entsteht und wir davon profitieren?
Warum das bei AMD nicht möglich ist, sollte eigentlich auffallen. Vorausgesetzt, man will es auch verstehen. Denn schwer ist das nicht wirklich.
Klevapalis
2017-05-12, 17:03:26
Dir scheint das grüne Marketinggift ordentlich zu Kopf gestiegen zu sein?
Und wo ist da nun das Konterprodukt zum GV100?
Locuza
2017-05-12, 17:04:56
Vlt.mal so wie Nvida releasen? Damit ein Preiskampf entsteht und wir davon profitieren?
[...]
Man entwickelt ein Produkt und gibt öffentlich einen Zeitraum oder konkret einen Termin an bzw. tut es nicht und hält es geheim.
Wie soll denn ein Preiskampf entstehen, wenn ein Produkt eben nicht früher auf den Markt erscheinen kann?
Irgendwelche Leistungsangaben mit Laborhardware und Beta-Software angeben?
Preisempfehlungen im Vorfeld aussprechen?
Proaktiv die Konkurrenz zum handeln zwingen?
Ex3cut3r
2017-05-12, 17:12:12
Dann hätten sie halt früher den Arsch hoch bekommen sollen, HBM ist jetzt auch keine Super neue Technologie mehr. Immer diese Ausreden, anstatt einfach zuzugeben (auch von AMD selber) Ja wir haben nicht diese Man Power um Ryzen und Vega gleichzeitig zu bringen. Fertig.
Aber nein Vega kommt noch und wird Amazing....Vergisst das in paar Monaten schon Volta kommt und alles besser kann.
Bin raus!
dildo4u
2017-05-12, 17:14:47
Es geht nicht nur um Hardware wenn man Ryzen kauft kann man bei Vega sicher sein das der Treiber optimal angepasst wird.Gerade bei einer so starken GPU muss die CPU Optimal ausgenutzt werden.
Schnoesel
2017-05-12, 17:37:26
Ja wenn du son ne Auflösung fährst dann greif doch endlich in deine Tasche und kauf dir doch ne 1080ti oder warte auf Volta.
Was du hier willst versteht doch kein Mensch. Die Karte kommt wenn sie kommt, zumal du ja eh keine gekauft hättest.
Bin raus!
Danke!
Linmoum
2017-05-12, 17:42:28
Dann hätten sie halt früher den Arsch hoch bekommen sollen, HBM ist jetzt auch keine Super neue Technologie mehr. Immer diese Ausreden, anstatt einfach zuzugeben (auch von AMD selber) Ja wir haben nicht diese Man Power um Ryzen und Vega gleichzeitig zu bringen. Fertig.
Ähm.. Okay.
Natürlich wird sich Lisa Su nicht in der Öffentlichkeit hinstellen und was von "wir können halt nicht mehr buhu" fabulieren. :freak: Es ist für jeden ersichtlich, dass AMD nicht im entferntesten das stemmen kann, wozu nVidia oder auch Intel in der Lage sind. Das weißt du, das weiß ich, das weiß die Konkurrenz und natürlich weiß das auch AMD selbst.
Es als lächerlich zu empfinden, dass von AMD nicht in der Häufigkeit wie bei der Konkurrenz Produkte kommen, ist schon ziemlich dreist und fernab jeglicher Realität. Bei so einem Troll-Kommentar brauchst du dich dann nicht über die Reaktionen wundern. ;)
"Design Done" für Vega war im letzten Juni, insofern ist der Release jetzt im Mai/Juni realistisch betrachtet durchaus logisch. Wenn Vega und vor allem die Zen-basierten Produkte über die kommenden Jahre Geld in die Kasse spülen, sieht's vielleicht mal wieder anders aus. Logischerweise aber nicht von heute auf morgen, auch das wird seine Zeit brauchen.
BoMbY
2017-05-12, 17:43:20
Und wo ist da nun das Konterprodukt zum GV100?
Radeon Instinct MI25 wird lange vor GV100 am Markt sein. Es bringt vielleicht als Einzelchip nicht die gleiche Leistung, aber es sind ja bereits Server mit drei, vier, oder mehr MI25 von verschiedenen Herstellern angekündigt worden. Abgesehen davon bekommt man für den Preis eines GV100 vermutlich schon drei MI25.
OgrEGT
2017-05-12, 17:49:55
Mich. Wen interessiert Nvidia? :P
Mich auch :D
Zocke momentan Doom mit meiner GTX 770... Langt eigentlich immer noch in FullHD wenn man nicht zwanghaft alles auf Anschlag braucht... und hey das Game macht auch so einfach nur Spass... Wenn Vega dann mal da ist entscheide ich mich dann auch zw. Freesync und GSync...
Klevapalis
2017-05-12, 17:53:42
Radeon Instinct MI25 wird lange vor GV100 am Markt sein.
GV100 wird in Q3, also in 6 Wochen, ausgeliefert. Von MI25 gibt es noch nicht mal einen Starttermin.
Und wie gesagt: Die Schnittmenge GV100 vs. MI25 ist sehr klein. Keine der Instinct-Karten beherrscht FP64 und GV100 haut mal eben so 20% mehr FP32-Perf raus bei gleichem Powerbudget wie die M25. Dazu noch NVlink, FP64-Perf, Tensor-Berechnungen und, und, und.
Sagen wirs mal so: Da kann AMD auch nur noch 1/3 des Preises nehmen, wenn überhaupt :D
Linmoum
2017-05-12, 18:10:14
GV100 wird in Q3, also in 6 Wochen, ausgeliefert.
Q3 beginnt erst in 7 Wochen und geht zudem bekanntermaßen bis Ende September. Genauso, wie Q2 für Vega bis Ende Juni geht. ;)
Man sollte davon wegkommen, Quartalsangaben immer direkt mit dem Beginn zu assoziieren. Drei Monate sind immerhin drei Monate.
BoMbY
2017-05-12, 18:29:42
Abgesehen davon haben die ja scheinbar praktisch gerade erst angefangen die Tesla P100 in Stückzahlen auszuliefern, weil die Dinger einen so miesen Yield zu Anfang hatten, dass man mehrere Wafer für einen funktionierenden Chip brauchte. Und das neue Ding hat einen neuen Prozess und ist nochmal 50% größer ... Mehr als 10 werden die davon dieses Jahr vermutlich nicht ausliefern.
Kriton
2017-05-12, 18:31:42
GV100 wird in Q3, also in 6 Wochen, ausgeliefert. Von MI25 gibt es noch nicht mal einen Starttermin.
Und wie gesagt: Die Schnittmenge GV100 vs. MI25 ist sehr klein. Keine der Instinct-Karten beherrscht FP64 und GV100 haut mal eben so 20% mehr FP32-Perf raus bei gleichem Powerbudget wie die M25. Dazu noch NVlink, FP64-Perf, Tensor-Berechnungen und, und, und.
Sagen wirs mal so: Da kann AMD auch nur noch 1/3 des Preises nehmen, wenn überhaupt :D
AMD:
- HW Virtualisierung
- HSA
Setsul
2017-05-12, 19:07:01
AMD:
- HW Virtualisierung
- HSA
Ja, aber AMD hat kein NVLink. Klarer FAIL.
BoMbY
2017-05-12, 19:14:49
NVLink ist eine Marketing-Totgeburt die niemanden in der Praxis interessiert, da es nur von IBM-CPUs unterstützt wird. Am Ende wird es vermutlich genau zwei Computersysteme geben die das nutzen. Summit und Sierra (http://www.teratec.eu/actu/calcul/Nvidia_Coral_White_Paper_Final_3_1.pdf). Die können sich so eine Extrawurst ja leisten.
basix
2017-05-12, 19:33:16
Ja, aber AMD hat kein NVLink. Klarer FAIL.
AMD hat Infinity Fabric. Geht doch auch? ;) Es gibt momentan nur keine Produkte, die werden aber sicher noch kommen.
AffenJack
2017-05-12, 19:46:39
Abgesehen davon haben die ja scheinbar praktisch gerade erst angefangen die Tesla P100 in Stückzahlen auszuliefern, weil die Dinger einen so miesen Yield zu Anfang hatten, dass man mehrere Wafer für einen funktionierenden Chip brauchte. Und das neue Ding hat einen neuen Prozess und ist nochmal 50% größer ... Mehr als 10 werden die davon dieses Jahr vermutlich nicht ausliefern.
Naja, solange die paar P100 es geschafft haben dieses Quartal mehr Umsatz zu generieren, als alle Polaris GPUs zusammen dürfte das Nv nicht so sehr stören.
Setsul
2017-05-12, 19:48:38
AMD hat Infinity Fabric. Geht doch auch? ;) Es gibt momentan nur keine Produkte, die werden aber sicher noch kommen.
Nimm das bitte nicht ernst.
Wenn jemand NVLink als Grund nennt wieso MI25 Schrott, wenn AMD doch momentan an mehr Interconnects beteiligt ist als jemals jemand brauchen könnte und außerdem "availability in Q3" als "Launch am 1. Juli 0:00 Uhr" interpretiert, dann kann man von mir auch keine ernst gemeinten Kommentare mehr erwarten.
basix
2017-05-12, 19:59:31
Nimm das bitte nicht ernst.
Wenn jemand NVLink als Grund nennt wieso MI25 Schrott, wenn AMD doch momentan an mehr Interconnects beteiligt ist als jemals jemand brauchen könnte und außerdem "availability in Q3" als "Launch am 1. Juli 0:00 Uhr" interpretiert, dann kann man von mir auch keine ernst gemeinten Kommentare mehr erwarten.
OK, dann habe ich dich da falsch verstanden. Du bist meistens ja einer der eher neutralen und sachlichen hier. Fand es beim Lesen auch ziemlich lustig mit "in 6 Wochen wird V100 ausgeliefert" :freak: Bei AMD heisst Q2 am 30. Juni und bei Nvidia Q3 am 1. Juli. Diese Argumentation ist doch schlüssig, oder? ;D
Naja, solange die paar P100 es geschafft haben dieses Quartal mehr Umsatz zu generieren, als alle Polaris GPUs zusammen dürfte das Nv nicht so sehr stören.
Beleg? Ich denke nämlich nicht, dass das stimmt.
MadPenguin
2017-05-12, 20:25:31
Muss dieser Schwachsinnig wirklich hier ausgetragen werden? Was haben die letzten zig Posts mit Vega zu tun?
Schaffe89
2017-05-12, 21:24:42
Das ist Quatsch. Niemand kauft sich eine Nvidia Grafikkarte mit einem Freesync Bildschirm und umgekehrt.
Ich glaube du überschätzt dieses Feature massiv.
Ein guter 144Hertz Schirm hat fast ein genauso gutes Feeling wie Freesync oder G-sync. Im Blindtest würde da bei ~80 FPS wohl absolut kein Unterschied auffallen.
Die wenigsten Nutzer schauen auf Feesync oder G-sync.
Glücklicherweise hat nVidia außer einem Shrink nichts gemacht, wenn Vega als ein ähnlicher Sprung wird wie Maxwell, wäre AMD wieder einigermaßen auf Augenhöhe.
Pascal war ein deutlich größerer Schritt als es Polaris war. Man hat seit langer Zeit wieder einen enormen Taktratensprung hinbekommen und ist so was die Planungen angeht viel flexibler und kann vor allem die Chips wesentlich besser nach unten skalieren. Hier von einem einfachen shrink zu reden ist wirklich hanebüchen.
dargo
2017-05-12, 21:26:55
Ich glaube du überschätzt dieses Feature massiv.
Ein guter 144Hertz Schirm hat fast ein genauso gutes Feeling wie Freesync oder G-sync. Im Blindtest würde da bei ~80 FPS wohl absolut kein Unterschied auffallen.
Du solltest nicht von Sachen reden die du nicht selbst live erlebt hast. Denn gerade redest du kompletten Bullshit.
Hübie
2017-05-12, 21:43:44
Vega stand noch nie für 2016 auf der Roadmap, egal wie man es dreht und wendet. Schau dir doch an wann die ersten Polaris Dies aufgetaucht sind, wann die ersten Demos liefen und wann dann der Release kam. Vergleich das mit Vega. Das sieht nicht wirklich danach aus als ob AMD fürchterliche Probleme hätte.
Ob AMD 10 Monate nach der 1080 eine konkurrenzfähige Karte bringt oder erst 12 Monate danach, ändert da wirklich nichts mehr.
Das ist doch jetzt schon seit Jahren so, dass sich AMD nicht viele neue Dies pro Jahr leisten kann, sowohl in Sachen Budget als auch in Sachen Ressourcen. Polaris ist allein durch die Menge erstmal wichtiger gewesen.
Vega ist an sich 3 Jahre zu spät. Glücklicherweise hat nVidia außer einem Shrink nichts gemacht, wenn Vega als ein ähnlicher Sprung wird wie Maxwell, wäre AMD wieder einigermaßen auf Augenhöhe.
Aber die Frage ist dann wieder was ist mit Volta. Um damit mitzuhalten müsste Vega ein größerer Sprung als Maxwell werden. Nicht unmöglich, aber doch recht schwierig. Oder Navi muss 2018 mit doch spürbaren Verbesserungen auftauchen.
Hab auch nicht gesagt, dass dieser für 2016 auf der Roadmap stand. Man hat allerdings jetzt schon ca. ein Jahr Zeitverlust (Innovationsverlust, Einnahmeverlust; nenn es wie du möchtest). Mit Fiji war es noch alles i.O. nur jetzt vergrößert sich der Abstand. Das finde ich problematisch.
Allerdings hab ich eben auch mal den Gedankengang aufgefasst: Wenn AMD und NVIDIA sich nun immer abwechselnd die Hand reichen bei den Vorstellungen kommt man sich nicht ständig in die Quere.
Erst einmal "bringt" nVidia diesen Chip erst ab Q3, das sind also auch noch ein paar Monate bis zur Verfügbarkeit.
Andererseits kann man die Stückzahlen natürlich kaum vergleichen, die nVidia und AMD jeweils brauchen. Bei letzterem wird's eben auch der Consumer-Bereich. Ich denke schon, dass der Launch dadurch eingeschränkt(er) ist bzw. war, wenngleich nicht unbedingt auf jetzt Mai/Juni bezogen.
AMD hat schlicht und ergreifend nicht die Ressourcen dafür, X Chips pro Jahr wie nVidia zu bringen. Wer das leugnet, leugnet die Wirklichkeit. ;) Insofern sollte es niemanden auch nur im entferntesten überraschen, dass Vega dann kommt, wenn es kommt.
Zugegeben kenne ich weder Stückzahlen für GP100 noch für die anvisierten Absatzzahlen von Vega um da eine qualifizierte Aussage zu treffen. Vermutlich liegst du da auch nicht verkehrt, ändert nur nix daran, dass HBM2 schon längst einwandfrei läuft. Kann also kaum die Ursache sein.
Ansonsten kann ich nur wiederholen: Das HBM2 nun schuld ist, dass Vega erst Mitte 2017 kommt - oder anders ausgedrückt erst nach fast zwei Jahren den nächsten Highend Chip mit HBM bringt - kann ich mir schwer vorstellen, da es Samsung ja schon längst verbaut.
Vergiss nicht, dass AMD HBM2 in Spezifikationen haben will an denen Samsung gescheitert ist. Nvidia wollte 1Gb/s und 8High Stacks von Samsung, gab es doch mal auf Slides für Volta zu sehen meine ich. Aber sie haben nur 900Gb/s und immernoch 4High bekommen.
Amd braucht für MI25 aber genau die gleiche taktrate und 8High-Stacks. Wenn Samsung es nicht schafft kann man sich schon fragen ob Hynix das in ausreichenden Mengen hinkriegt. Schafft man 8High-Stacks nicht, kann man nur bei Mi25 den Ramausbau nicht liefern, aber wenn Hynix auch Probleme mit dem Takt hat werden die Auswirkungen auf Vega noch größer. Außerdem braucht GV100 HBM2 ja sogar nur in relativ geringen Mengen. Aber Vega wird ein Massenmarktprodukt.
Ich will hier nicht schwarzmalen und hoffe, dass dies nicht der Fall ist. Nur an Samsung sieht man, dass dies kein Selbstläufer ist.
Welche Specs sind dass, die AMD will, welche Samsung nicht geschafft hat? Ist an mir vorbei gezogen. Dachte Hynix und Samsung wären da auf Augenhöhe, habe mich damit aber auch nicht weiter auseinander gesetzt. Vega soll angeblich nur 512 GB/s wegschaufeln können. Wenn man nun vier, statt zwei Stapel hat, ist es gut möglich dass auch Vega nicht mit den angepeilten 1024 GB/s laufen wird, was Samsung ausschließt und eher auf technologische Beschränkungen hindeutet (vielleicht noch nicht die richtige Struktur oder das richtige Material...).
Das ist Quatsch. Niemand kauft sich eine Nvidia Grafikkarte mit einem Freesync Bildschirm und umgekehrt.
Das stimmt schon mal nicht. Ich bin bereit meine Monitore zu verchecken und gegen einen Freesync zu ersetzen. Ich hänge da nicht wirklich dran. Somit ist deine Aussage ebenso Quatsch. :D
Edit:
Vega 10 hatte Ende Juni 2016 seinen Tapeout. 3 Monate Fab Cycle time plus ein bis zwei Wochen für Test, Packaging und Transport bedeutet das (sofern es keine großen Probleme gab) die ersten Samples Mitte bis Ende Oktober bei AMD verfügbar waren. Bei einem Launch im Juni sind das knappe acht Monate Validierungszeit, was für einen komplexen ASIC überhaupt nicht viel ist. (Intel lässt sich teilw. Anderthalb Jahre für so etwas Zeit). Man kann eher sagen wenn AMD im kommenden Juni mit minimalem Volumen launchen kann ist aus technischer Sicht alles gut gegangen.
Darum ging es ja nicht. Die Zeit seit dem finalen Design bis zum Startschuß liegt fast immer bei 9-12 Monaten. Warum hatte der aber nicht schon Oktober 2015 sein Tapeout, so herum meinte ich das (okay Oktober ist überzogen um es zu verdeutlichen :D).
Zecks in die Quere kommen: AMD ist bereits bei den Prozessoren sehr gut aufgestellt in 2018 - es würde sehr mich wundern, dass AMD Angst vor Volta haben müsste, in Anbetracht dessen, dass AMD bis zu dem Zeitpunkt als dass man Highend_GPUs gebaut hat, einen Nullinger im Hintertreffen war (Fiji als Design-Objekt mal ausgenommen). Vielleicht ist an der Promo doch mehr dran als man glaubt?!
AffenJack
2017-05-12, 22:19:06
Beleg? Ich denke nämlich nicht, dass das stimmt.
Ach das war eher eine polemische Antwort, wenn man so einen Stuss labert.
Man hat ja keine genauen Zahlen. Nvidia verdient 400Mio$ mit Datacenter und davon dürfte mehr als die Hälfte GP100 sein. Vor allem die Cloudanbieter und Sachen wie Google,Facebook, Baidu kaufen die wohl in Tonnen.
AMD hat mit CPUs und Grafikkarten 600Mio$ gemacht dieses Quartal, davon könnte auch so die Hälfte Grafikkarten sein. Bei 200Mio für GP100 gegen 300Mio ganz Polaris sieht man aber das Nvidia da richtig Geld mit macht.
Welche Specs sind dass, die AMD will, welche Samsung nicht geschafft hat? Ist an mir vorbei gezogen. Dachte Hynix und Samsung wären da auf Augenhöhe, habe mich damit aber auch nicht weiter auseinander gesetzt. Vega soll angeblich nur 512 GB/s wegschaufeln können. Wenn man nun vier, statt zwei Stapel hat, ist es gut möglich dass auch Vega nicht mit den angepeilten 1024 GB/s laufen wird, was Samsung ausschließt und eher auf technologische Beschränkungen hindeutet (vielleicht noch nicht die richtige Struktur oder das richtige Material...).
Na 8High-Stacks zu liefern und mit 1Ghz Speichertakt. Sonst kommst nicht auf 16Gb Speicher und 512Gb/s mit 2 Stacks.
Hübie
2017-05-12, 22:25:00
Und kann Hynix das? :|
Schaffe89
2017-05-12, 22:36:36
Du solltest nicht von Sachen reden die du nicht selbst live erlebt hast. Denn gerade redest du kompletten Bullshit.
Sagt ein G-sync und Freesync Nutzer der ersten Stunden.:rolleyes:
Also ob das jetzt für den Nutzer so wichtig wäre Freesync oder G-sync zu haben, oh Gott wie kann man früher überhaupt ohne gespielt haben.
Aber auch hier merk man folgendes: Das ist halt AMD Gebiet. Freesync ist quasi unverzichtbar, vor allem weil es günstiger ist als bei Nvidia. Dass du das so extrem verteidigst, ist dir ergo nachzusehen.
Iruwen
2017-05-12, 22:38:53
Abgesehen davon haben die ja scheinbar praktisch gerade erst angefangen die Tesla P100 in Stückzahlen auszuliefern, weil die Dinger einen so miesen Yield zu Anfang hatten, dass man mehrere Wafer für einen funktionierenden Chip brauchte. Und das neue Ding hat einen neuen Prozess und ist nochmal 50% größer ... Mehr als 10 werden die davon dieses Jahr vermutlich nicht ausliefern.
Es ist immer noch kein neuer Prozess. (http://www.pcgameshardware.de/CPU-Hardware-154106/News/TSMC-plant-kostenguenstige-12-Nanometer-Fertigung-1214894/)
Sagt ein G-sync und Freesync Nutzer der ersten Stunden.:rolleyes:
Also ob das jetzt für den Nutzer so wichtig wäre Freesync oder G-sync zu haben, oh Gott wie kann man früher überhaupt ohne gespielt haben.
Aber auch hier merk man folgendes: Das ist halt AMD Gebiet. Freesync ist quasi unverzichtbar, vor allem weil es günstiger ist als bei Nvidia. Dass du das so extrem verteidigst, ist dir ergo nachzusehen.
Ich glaube du hast nicht verstanden: Die Technologien haben den Vorteil ohne Tearing und ohne spürbaren Input-Lag bis hinunter zu 35-40 FPS absolut Smooth zu Gamen. Und das gilt sowohl - als auch!
-=Popeye=-
2017-05-12, 22:55:09
...
Also ob das jetzt für den Nutzer so wichtig wäre Freesync oder G-sync zu haben, oh Gott wie kann man früher überhaupt ohne gespielt haben.
...
Ich habe einen Monitor der beides nicht kann, bin mit den 144Hz dennoch glücklich. :smile:
Schaffe89
2017-05-12, 23:06:53
Und das neue Ding hat einen neuen Prozess und ist nochmal 50% größer ... Mehr als 10 werden die davon dieses Jahr vermutlich nicht ausliefern.
Wenn sie so wenig ausliefern würden, dann würde man das Ding überhaupt nicht erst produzieren, weil das ein völliges Minusgeschäft wäre, alberner Unfug.
Wenn die sagen die liefern das Q3 aus, wird der Yield schon einigermaßen passen.
Ich glaube du hast nicht verstanden: Die Technologien haben den Vorteil ohne Tearing und ohne spürbaren Input-Lag bis hinunter zu 35-40 FPS absolut Smooth zu Gamen.
Ja das sagt vielleicht das Marketing. Ich kann das mit meinen 2 Freesync und 2 G-sync Schirmen nicht bestätigen. Wer meint in einem FPS Game mit Freesync oder G-sync bis hinunter zu 35 bis 40 FPS smooth zu spielen, der kommt auch sicher mit einem 60 Hertz 0815 Monitor zurecht.
Also was absurderes hab ich imho noch nie gelesen, aber lassen wir das Thema. Hier muss man nicht die Ahnungslosigkeit zu Themen feilbieten die in andere Threads gehören.
Das ist ja auch das einzige um was es hier noch geht. Rechthaberisch herummotzen, von allen Seiten, inkl. mir. Diese Mentalität hat sich das Forum aber auch lange erarbeitet.
Liegt vermutlich an dem AMD vs Nvidia Stimmungsanheitzer mit Vega dann im Juni.. vll oder erst auch später, was man mittlerweile schon eher für wahrscheinlich halten kann.
Du verzapfst aber mal einen Müll ;)
Es würde mich wundern, dass dieses Jahr auch nur ein Volta mit den angekündigten Specs über die Ladentheke geht. Es handelt sich um eine derzeit/demnächst physisch vorhandene Machbarkeitsstudie. BTW. soviel zu dem Ansatz des fetten Chinesen - "wir haben keine Angst vor Vega" ...
Und zwecks Gsync/Freesync; Ich denke du solltest deine Sinne neu kalibrieren :D
Complicated
2017-05-12, 23:33:05
GV100 wird in Q3, also in 6 Wochen, ausgeliefert. Von MI25 gibt es noch nicht mal einen Starttermin.
Also dir sollte mal klar werden, dass Nvidia als letzter einen eigenen Interconnect bringt mit NVlink. Das ist lediglich das nachziehen und aufschließen zu QPI von Intel und AMDs Hypertransport als schon jahrelang etablierte Interconnects in der ich weis nicht wie vielten Version schon. Infinity Fabric ist die aktuellste Version davon bei AMD. Es ist regelrecht peinlich NVlink als irgendein Alleinstellungsmerkmal anzuführen.
Zu den MI25:
https://1.f.ix.de/scale/geometry/696x500/q75/imgs/71/2/1/0/5/0/3/6/2-19e2b9722d2eb86d.jpg
https://1.f.ix.de/scale/geometry/696x500/q75/imgs/71/2/1/0/5/0/3/6/1-15b9d1566f87ea5e.jpg
https://1.f.ix.de/scale/geometry/696x500/q75/imgs/71/2/1/0/5/0/3/6/3-b44eced7d4229934.jpg
https://1.f.ix.de/scale/geometry/696x500/q75/imgs/71/2/1/0/5/0/3/6/4-6a207270a02844be.jpg
Dino-Fossil
2017-05-12, 23:40:50
Und wieder springt ihr munter über sein Stöckchen...
Complicated
2017-05-12, 23:42:13
Hast ja recht...
Palpatin
2017-05-12, 23:51:46
Sie sagen seit Sommer letzten Jahres 1H 2017 und seit Ende Januar Q2 für Vega. Woran du glaubst, spielt erstmal keine Rolle.
Es wäre auf jeden Fall sehr dämlich, wenn man die Investoren dreist anlügen würde.
Sie sagen Vega kommt in Q2. Was sie eben bisher nicht sagen das in Q2 eine HighEnd Gaming Karte mit dem Namen X kommt. Die Fury Karten wurden wenn ich mich recht erinnere über 2 Monate vor Release offiziell vorgestellt und auch erste Balken präsentiert. Auch Ryzen wurde gut 2 Monate vorher angekündigt und man hat Balken gezeigt. Das deutet eigentlich sehr stark daraufhin das es Vega für Gamer frühestens in Q3 zum kaufen geben wird.
Mehr als eine Vorstellung der Karten + Namen und evtl Preis + ein paar Marketing Benches und fixen Release Termin im August oder September erwarte ich aktuell in Q2 nicht mehr.
Setsul
2017-05-13, 00:13:26
Während NV schon das zweite Produkt oder besser gesagt zweiten Chip mit HBM2 bringt soll AMD mit Hynix so arge Probleme haben? Kann ich mir schwer vorstellen. Möglicherweise war ein Bug im Chipdesign (sehen wir dann ja an der Revision) oder der Programmieraufwand war anfangs sehr hoch (neue ISA, ggf. per App optimization...).
Ooooder ein Mix aus allem Dingen. Wer weiß. Wer immer noch leugnet dass Vega spät kommt leugnet die Wirklichkeit. Ob es on track ist oder nicht: Der Abstand wird immer größer und der Markt ist definiert von Innovation.
Hab auch nicht gesagt, dass dieser für 2016 auf der Roadmap stand. Man hat allerdings jetzt schon ca. ein Jahr Zeitverlust (Innovationsverlust, Einnahmeverlust; nenn es wie du möchtest). Mit Fiji war es noch alles i.O. nur jetzt vergrößert sich der Abstand. Das finde ich problematisch.
Allerdings hab ich eben auch mal den Gedankengang aufgefasst: Wenn AMD und NVIDIA sich nun immer abwechselnd die Hand reichen bei den Vorstellungen kommt man sich nicht ständig in die Quere.
AMD hat gesagt 1H2017 und es sieht nach 1H2017 aus momentan.
Ich weiß nicht wieso man dem ganzen Probleme andichten muss.
Ideal wäre Vega zeitgleich zu Maxwell oder noch früher gewesen.
Praktisch ist es jetzt eben so. Das einzige Problem, das AMD wirklich hat und wieso Vega eben erst 2017 kommt und nicht 2016 oder schon 2015, ist ein gewaltiges Geldproblem.
Zu spät ja, aber außer du weißt etwas, das ich nicht weiß, nicht aus technischen Gründen.
Hübie
2017-05-13, 00:23:34
Das war doch nicht mal meine Aussage. Wenn du dich einmischen willst, dann lese gefälligst alles. :rolleyes:
Hübie
2017-05-13, 00:25:11
Also dir sollte mal klar werden, dass Nvidia als letzter einen eigenen Interconnect bringt mit NVlink. Das ist lediglich das nachziehen und aufschließen zu QPI von Intel und AMDs Hypertransport als schon jahrelang etablierte Interconnects in der ich weis nicht wie vielten Version schon. Infinity Fabric ist die aktuellste Version davon bei AMD. Es ist regelrecht peinlich NVlink als irgendein Alleinstellungsmerkmal anzuführen.
Zu den MI25:
https://1.f.ix.de/scale/geometry/696x500/q75/imgs/71/2/1/0/5/0/3/6/2-19e2b9722d2eb86d.jpg
https://1.f.ix.de/scale/geometry/696x500/q75/imgs/71/2/1/0/5/0/3/6/1-15b9d1566f87ea5e.jpg
https://1.f.ix.de/scale/geometry/696x500/q75/imgs/71/2/1/0/5/0/3/6/3-b44eced7d4229934.jpg
https://1.f.ix.de/scale/geometry/696x500/q75/imgs/71/2/1/0/5/0/3/6/4-6a207270a02844be.jpg
Gibt's die irgendwo in etwas größer anstatt Briefmarke. Ich brauch ne Lupe :freak: 3 Petaflops sind ne Ansage - wobei dies FP16 sein dürfte.
Linmoum
2017-05-13, 00:28:54
Sie sagen Vega kommt in Q2. Was sie eben bisher nicht sagen das in Q2 eine HighEnd Gaming Karte mit dem Namen X kommt. Die Fury Karten wurden wenn ich mich recht erinnere über 2 Monate vor Release offiziell vorgestellt und auch erste Balken präsentiert. Auch Ryzen wurde gut 2 Monate vorher angekündigt und man hat Balken gezeigt. Das deutet eigentlich sehr stark daraufhin das es Vega für Gamer frühestens in Q3 zum kaufen geben wird.
Mehr als eine Vorstellung der Karten + Namen und evtl Preis + ein paar Marketing Benches und fixen Release Termin im August oder September erwarte ich aktuell in Q2 nicht mehr.
Nein, die Fury-GPUs hat man damals erst auf der E3 enthüllt - rund 1-2 Wochen vor dem Launch der Fury X. Zu Ryzen gab's Balken erst Mitte Februar auf dem Tech Day, den Launchzeitraum ("early March") hat man auch erst rund 4 Wochen vorher offiziell eingegrenzt.
Ich halte ein paar wenige Infos nächsten Dienstag (Financial Analyst Day) für wahrscheinlich und die offizielle Vorstellung zwei Wochen später auf der Computex. Launch dann im Laufe des nächsten Monats.
Troyan
2017-05-13, 00:33:08
Gibt's die irgendwo in etwas größer anstatt Briefmarke. Ich brauch ne Lupe :freak: 3 Petaflops sind ne Ansage - wobei dies FP16 sein dürfte.
Das sind die bekannten Powerpointfolien aus Dezember: http://www.anandtech.com/show/10905/amd-announces-radeon-instinct-deep-learning-2017
Auch vollkommen belanglos seit Mittwoch, da GV100 120TFLOPs erreicht. Dafür benötigt AMD schon alleine fünf MI25 Karten. :eek:
horn 12
2017-05-13, 00:54:19
Was meint ihr wird Volta Kosten
Minimum 1000 bis 1100 Euro und dies weiss Nvidia nur zu genau.
AMD wird die GTX 1080 TI einkassieren und Hynics muss erst mal Gddr6 lieferbar bekommen und dies ohne Probleme, da kann sich einiges nach hinten verzögern!
Der Prozess von Nvidia verschlingt Unmengen an Resourcen die bezahlt werden müssen und sie versuchen uns nun auf der langen Stange zu halten.
AMD hat gelernt und posaunen nicht mehr wild umher sondern überraschen :-)
Zen ist bissi unglücklich gelandet, aber voller Erfolg für AMD und Zen 2 wird vieles besser machen.
Das sind die bekannten Powerpointfolien aus Dezember: http://www.anandtech.com/show/10905/amd-announces-radeon-instinct-deep-learning-2017
Auch vollkommen belanglos seit Mittwoch, da GV100 120TFLOPs erreicht. Dafür benötigt AMD schon alleine fünf MI25 Karten. :eek:
Nö, da reichen 2. Es handelt sich lediglich um INT8-Instructions
Unicous
2017-05-13, 01:16:21
Auch vollkommen belanglos seit Mittwoch, da GV100 120TFLOPs erreicht. Dafür benötigt AMD schon alleine fünf MI25 Karten. :eek:
Was ist das denn für ein Fail...;D;D;D;D
By the numbers, Tesla V100 is slated to provide 15 TFLOPS of FP32 performance, 30 TFLOPS FP16, 7.5 TFLOPS FP64, and a whopping 120 TFLOPS of dedicated Tensor operations.
Nur weil sich Nvidia neue Marketing-Namen ausdenkt heißt das nicht im Umkehrschluss, dass sie das Rad neu erfunden hätten. Du machst dich ein ums andere Mal mehr einfach nur lächerlich.:uclap:
Skaven
2017-05-13, 01:17:31
Ich frage mich eher, ob es V11 bei dem jetzt schon späten Start überhaupt noch wirklich braucht...
Ein Massenprodukt kann das so nicht mehr werden, als Ablösung von Polaris paßt er nicht in die Roadmap, und es braucht extra Fertigungsaufwand.
Denke schon das der Chip Polaris 10 ablösen kann und wird. Genaugenommen denke ich das er die RX 580 ablösen wird. Die 570 lassen sie vielleicht weiterlaufen. Bei niedrigeren taktraten ist Polaris als 470/570 ja nicht sooo schlecht. Dann ist 470/570 eine reine FullHD Karte.
Denke das V11 Full zwischen Nvidia 1070 und 1080 liegen wird (mit Tendenz zur 1070) und V11 Salvage zwischen Nvidia 1060 und 1070. Das wäre gar nicht schlecht, denn das reicht für "normale" Setups ganz gut aus. Zielgruppe wären dann Spieler die nicht soviel Budget haben und mit 1440p Auflösung und FreeSync operieren wollen/müssen.
Es stimmt natürlich das AMD damit reichlich spät kommt, aber was soll AMD machen, wenn Nvidia keine Fehler macht? Nvidia hat einen Vorsprung und mehr Geld, beides zusammen lässt sich nicht so einfach einholen. Da kann man noch so drauf hoffen...
Denke aber auch es ist noch nicht zu spät. Viele haben sicher noch eine Kombi aus FullHD Monitor und einer älteren Karte, da hat auch AMD noch ne Chance etwas zu verkaufen.
Was ich als großes Problem für AMD sehe, wegen der etwas höheren Kosten bei HBM2 Einsatz statt GDDR kann AMD etablierte Karten wie die 1060 preislich nicht unterbieten - Vega wird nicht billig. Das wird Volta zwar vermutlich auch nicht, aber wenn Nvidia eine Pascal-Abverkauf macht muss AMD mehr oder weniger zusehen.
Nun ja - mal sehen. Ich richte mich jedenfalls gerade auf V11 ein - möchte Anfang 2018 ein AMD-System neu bauen mit Ryzen 6-Core und Vega 11 - hoffe das lässt sich ohne Schönreden rechtfertigen ;-)
Skaven
gravitationsfeld
2017-05-13, 01:23:23
Nö, da reichen 2. Es handelt sich lediglich um INT8-Instructions
Es sind FP16-Matrix-Multiplikationen. Spielt aber keine Rolle, es ist trotzdem nutzlos fuer generelle Anwendung.
Mancko
2017-05-13, 08:48:10
Radeon Instinct MI25 wird lange vor GV100 am Markt sein. Es bringt vielleicht als Einzelchip nicht die gleiche Leistung, aber es sind ja bereits Server mit drei, vier, oder mehr MI25 von verschiedenen Herstellern angekündigt worden. Abgesehen davon bekommt man für den Preis eines GV100 vermutlich schon drei MI25.
Glaub mir bei der Kundschaft ist der Preis egal. Da zählt lediglich die Rechenleistung, der Softwarestack und vielleicht noch Perf./Watt. Die MI25 wird nichmal in Richtung Pascal P100 Tesla Karten großen Eindruck machen. Nvidia hat den Markt in weiten Teilen durch Software für sich über Jahre secured und da ist AMD außen vor, insbesondere im AI/Deep Learning Bereich. Da kommt AMD einfach viel zu spät und das holen die Softwareseitig auch nicht mehr auf. Das ist bei deren Finanzen einfach unrealistisch. Die Datacenter Sparte macht bei Nvidia 400 Mio Umsatz im Quartal. Workstation nochmal 200 Mio. Das sind in Summe mehr als AMD mit GPUs überhaupt macht und da ist Gaming bei Nvidia noch nichtmal dabei.
Mancko
2017-05-13, 08:50:55
Abgesehen davon haben die ja scheinbar praktisch gerade erst angefangen die Tesla P100 in Stückzahlen auszuliefern, weil die Dinger einen so miesen Yield zu Anfang hatten, dass man mehrere Wafer für einen funktionierenden Chip brauchte. Und das neue Ding hat einen neuen Prozess und ist nochmal 50% größer ... Mehr als 10 werden die davon dieses Jahr vermutlich nicht ausliefern.
Hör auf solchen offensichtlichen Unsinn zu verbreiten. Schau dir die Quartalszahlen und insbesondere den Datacenter Bereich der letzten Quartale an. Dann wird schnell klar dass Du hier unhaltbaren Müll erzählst.
Mancko
2017-05-13, 08:54:13
NVLink ist eine Marketing-Totgeburt die niemanden in der Praxis interessiert, da es nur von IBM-CPUs unterstützt wird. Am Ende wird es vermutlich genau zwei Computersysteme geben die das nutzen. Summit und Sierra (http://www.teratec.eu/actu/calcul/Nvidia_Coral_White_Paper_Final_3_1.pdf). Die können sich so eine Extrawurst ja leisten.
Du hast Nvidia's eigene DGX Server vergessen.
Mancko
2017-05-13, 08:55:52
OK, dann habe ich dich da falsch verstanden. Du bist meistens ja einer der eher neutralen und sachlichen hier. Fand es beim Lesen auch ziemlich lustig mit "in 6 Wochen wird V100 ausgeliefert" :freak: Bei AMD heisst Q2 am 30. Juni und bei Nvidia Q3 am 1. Juli. Diese Argumentation ist doch schlüssig, oder? ;D
Beleg? Ich denke nämlich nicht, dass das stimmt.
Quartalszahlen. Einfach mal reinschauen, analysieren und vergleichen. Ist ja frei vergügbar inkl. der ganzen Historie und lesen wirst Du ja können.
Mancko
2017-05-13, 09:01:28
Du verzapfst aber mal einen Müll ;)
Es würde mich wundern, dass dieses Jahr auch nur ein Volta mit den angekündigten Specs über die Ladentheke geht. Es handelt sich um eine derzeit/demnächst physisch vorhandene Machbarkeitsstudie. BTW. soviel zu dem Ansatz des fetten Chinesen - "wir haben keine Angst vor Vega" ...
Und zwecks Gsync/Freesync; Ich denke du solltest deine Sinne neu kalibrieren :D
Du kannst fest davon ausgehen, dass Nvidia wie auch schon bei P100 ihre DGX Server dieses Jahr ausliefern wird. Abseits davon haben sie zusätzlich noch vertragliche Verpflichtungen mit dem ein oder anderen Kunden in Bezug auf Großrechner zu erfüllen. Da drohen empfindliche Vertragsstrafen wenn man Zeitpunkte nicht einhält. Wenn der sich also hinstellt und sagt wir liefern dieses Jahr aus dann kannst Du Gift darauf nehmen dass dies der Fall sein wird.
uweskw
2017-05-13, 09:08:21
Du kannst fest davon ausgehen, dass Nvidia wie auch schon bei P100 ihre DGX Server dieses Jahr ausliefern wird. Abseits davon haben sie zusätzlich noch vertragliche Verpflichtungen mit dem ein oder anderen Kunden in Bezug auf Großrechner zu erfüllen. Da drohen empfindliche Vertragsstrafen wenn man Zeitpunkte nicht einhält. Wenn der sich also hinstellt und sagt wir liefern dieses Jahr aus dann kannst Du Gift darauf nehmen dass dies der Fall sein wird.
Dir ist schon klar das es darum ging ob Vega zu spät sei weil Volta vor der Tür steht??:freak:
Was meinst du wieviele Volta dieses Jahr an Gamer ausgeliefert werden?
immer diese NV Misionare....
greetz
US
Complicated
2017-05-13, 10:25:25
Gibt's die irgendwo in etwas größer anstatt Briefmarke. Ich brauch ne Lupe :freak: 3 Petaflops sind ne Ansage - wobei dies FP16 sein dürfte.
Ja hier bei heise. Ja es sind FP16 gemeint.
https://www.heise.de/newsticker/meldung/Rechenkarten-von-AMD-Radeon-Instinct-MI6-MI8-und-MI25-mit-Vega-GPU-3568504.html
Complicated
2017-05-13, 10:35:05
Was ist das denn für ein Fail...;D;D;D;D
Nur weil sich Nvidia neue Marketing-Namen ausdenkt heißt das nicht im Umkehrschluss, dass sie das Rad neu erfunden hätten. Du machst dich ein ums andere Mal mehr einfach nur lächerlich.:uclap:
Hinzu kommt, dass diese 120 gar keine richtigen Terraflops sind sondern selbst zusammen gerechnete Tensor-TFlops sind:
https://www.heise.de/newsticker/meldung/GTC-2017-Nvidia-stellt-Riesen-GPU-Volta-mit-5120-Kernen-und-16-GByte-HBM2-vor-3710317.html
Eine als Tensor-Core bezeichnete, auf Deep-Learning-Computing optimierte Einheit soll via CUDA TensorOp-Instruktionen besonders effizient verarbeiten. Die 640 Tensor-Cores des GV100 sollen auf der Tesla V100 eine Rechenleistung von 120 Tensor-TFlops erreichen.
Da weiss man noch gar nicht wie und womit man das vergleichen kann
grauenvoll
2017-05-13, 10:38:00
Tensor Cores sind irgendwo nett, nur frage ich mich, ob HBCC und die Fähigkeit direkt SSDs anzubinden in der Praxis nicht das wertvollere Feature sind.
Ich erwarte dass AMD und nVidia langfristig sich unterschiedlich ausrichten: nVidia Datacenter, AMD Unterhaltung.
yamamoto_dc
2017-05-13, 10:51:29
Tensor Cores sind irgendwo nett, nur frage ich mich, ob HBCC und die Fähigkeit direkt SSDs anzubinden in der Praxis nicht das wertvollere Feature sind.
Ich erwarte dass AMD und nVidia langfristig sich unterschiedlich ausrichten: nVidia Datacenter, AMD Unterhaltung.
Sehe ich auch so, AMD investiert sehr stark in VR, bei NV liegt der Schwerpunkt voll auf Deep Learing.
Troyan
2017-05-13, 11:20:52
Was ist das denn für ein Fail...;D;D;D;D
Oh, jemand ohne Ahnung. ;D
Nur weil sich Nvidia neue Marketing-Namen ausdenkt heißt das nicht im Umkehrschluss, dass sie das Rad neu erfunden hätten. Du machst dich ein ums andere Mal mehr einfach nur lächerlich.:uclap:
Es sind 120TFLOPs. Es ist Mixed-Precision und damit 1:1 vergleichbar.
Unicous
2017-05-13, 11:43:35
Was du hier versuchst ist eher eine neue Art von moving the goalposts: writing shit posts. Dass diese 120 TFLOPS nur in Spezialfällen und nur wenn man seinen Code auf diese "fixed function units" ausrichtet erreicht werden können ist hier jedem klar, du willst hier einfach nur Unfrieden stiften. Ob sich die Industrie die Tensor Cores zu Nutze macht oder es Nische bleibt wird sich im Übrigen noch herausstellen. Bis dahin bleibt es bei Marketinggewäsch das du nutzt um auf peinliche Weise rumzutrollen.
Troyan
2017-05-13, 11:59:39
Diese 120TFLOPs werden in den exakt selben Fällen erreicht, wie die FP16-Flops der anderen Architekturen. Anscheinend glaubst du hier wirklich, dass AMD doppelte soviele FP16-Einheiten verbaut...
Es wäre für alle klasse, wenn du dich bitte erstmal informierst, wie nVidia und AMD vor Volta Mixed-Precision für Deep-Learning eingesetzt haben.
|MatMan|
2017-05-13, 12:07:56
Für uns Normalsterbliche wird wahrscheinlich schwer einzuschätzen sein, wie gut die Tensor Cores in der Industrie angenommen werden. Ich denke man kann davon ausgehen, dass nVidia den AI Markt gut analysiert hat bevor entschieden wurde die Tensor Cores zu entwickeln und einzubauen. NVidias Vorteil ist außerdem mal wieder Software. Die Unterstützung der Tensor Cores ist in ihre eigenen (AI-) Bibliotheken eingebaut (CUDA 9), was mit Sicherheit zeitnah zur Volta Verfügbarkeit erscheint. Wer das benutzt, profitiert quasi automatisch von den neuen Cores...
Leonidas
2017-05-13, 12:45:03
Vega Launch 09. Mai 2017
GPU Takt 1440 Mhz - Boost bis zu 1625
Luftkühlung und Juni kommt Wasserkühlung mit bis zu 1700+ Mhz daher!
Wahnsinn!
Link darf ich nicht posten, Sorry!
Hoffe dass Videocards dies verlinkt, bzw. WccTech
Oder Raja es posten darf.
@edit
Sapphire soll die Serie weiterfahren, also ähnlich der RX580 Sapphire "Special Edition" -er Serie mit mehr HeatPipes und stärkerem, größeren Lüfter, aber ähnlicher Lautstärke.
Zudem Premium Lieferung erhalten, bei sofortiger Lieferbarkeit der Vega-Karten.
@edit 2
@ Klein Vega scheint sich wohl knapp, auf GTX 1080 anzusiedeln, aber dazu sagt jener nix genaueres!
Preislich aber eine Hausnummer für sich werden!
Preislich AMD unschlüssig, wird aber wohl bei "überarbeiteter" GTX 1080 11 Gbps rauskommen, ----> meiner Meinung nach.
Also um die 550 bis 650 Euro.
Speicher 8GB HBM-2 und Wasserkühlung bis zu 16GB HBM-2
Preislich wohl um die 1000 Euro dann, Meine Vermutung!
Tut mir leid, 09. Mai ist (dieses Jahr) vorbei.
AffenJack
2017-05-13, 12:57:37
Was du hier versuchst ist eher eine neue Art von moving the goalposts: writing shit posts. Dass diese 120 TFLOPS nur in Spezialfällen und nur wenn man seinen Code auf diese "fixed function units" ausrichtet erreicht werden können ist hier jedem klar, du willst hier einfach nur Unfrieden stiften. Ob sich die Industrie die Tensor Cores zu Nutze macht oder es Nische bleibt wird sich im Übrigen noch herausstellen. Bis dahin bleibt es bei Marketinggewäsch das du nutzt um auf peinliche Weise rumzutrollen.
Ähmm, die Industrie hat sich jetzt schon auf Tensor Cores eingestellt. Google hat seine TPU, Nvidia GV100 und Intels Lake Crest basiert auch auf Tensor Cores. Deswegen wird es für AMD ohne diese auch verdammt schwer werden. Lake Crest und GV100 kommen Ende des Jahres und da wird sich der gesamte Markt Richtung Tensor Cores drehen, einfach weil die beiden 90% des DL Marktes repräsentieren. Bei Deap Learning ist AMD einfach zu spät dran und wird nur über den Preis gehen können oder für spezielleren Code, wo man Tensoren nicht nutzen kann.
Hübie
2017-05-13, 13:11:31
Nichts desto trotz braucht man auf Troyan seine Ausführungen nicht eingehen. ;) Was war dieses rapid packed math? Ein Pendant zum Tensor Core?
@complicated: Dankeschön. :up:
yamamoto_dc
2017-05-13, 13:11:45
Ja, für Deep Learning ist der Zug für AMD wohl schon abgefahren, ich bin gespannt was AMD am Dienstag dazu sagt.
TGKlaus
2017-05-13, 13:11:51
Es sind 120TFLOPs. Es ist Mixed-Precision und damit 1:1 vergleichbar.
120 NvidiaFlops vielleicht
yamamoto_dc
2017-05-13, 13:17:39
Was mir nicht ganz klar ist, wie viel Prozent des DL-Workflows kann mit den Tensorcores beschleunigt werden? Hat da jemand ne Ahnung?
danarcho
2017-05-13, 13:31:09
Euch ist schon klar, dass Tensor Cores einzig und allein für Neuronale Netze sinnvoll sind? Es gibt ungefähr hundertmillionen andere Anwendungsszenarien für GPGPU-Computing, in denen die Tensor Cores so sinnvoll sind wie die Rasterizer.
Da das Tensorprodukt zweier 2x2 Matrizen 16 Produkte enthält, könnt ihr euch ja ausrechnen, woher die ultraflops kommen.
Die Instinct-Karten sind natürlich für Neuronale Netze nicht so gut geeignet wie V100. Das wars dann aber auch schon. In allen anderen Bereichen steht es 12,5 TFlops zu 15 TFlops, und das bei vermutlich doppeltem Preis.
Complicated
2017-05-13, 13:31:42
Verschoben in Volta-Thread
Setsul
2017-05-13, 14:06:20
Das war doch nicht mal meine Aussage. Wenn du dich einmischen willst, dann lese gefälligst alles. :rolleyes:
Wie soll ich mich denn bitte einmischen, wenn du einen Post machst in dem nur ein Zitat von mir und deine Antwort darauf steht? Wer hätte denn sonst darauf antworten sollen?
Vega ist viele Jahre zu spät, aber planmäßig.
Man muss jetzt nicht rätseln, was für Probleme es geben könnte, wieso Vega erst 1H2017 kommt (Marketingsprache für Q2), wenn AMD von Anfang an 1H2017 gesagt hat.
An HBM2 liegt es eigentlich ziemlich sicher nicht und man muss auch nicht krampfhaft nach anderen Problemen suchen, an denen es liegen könnte.
Darauf will ich hinaus.
Dass die GPU Roadmaps bei AMD seit Jahren recht mager sind ist eine andere Sache.
Du redest irgendwie einfach an allen vorbei.
Erst einmal "bringt" nVidia diesen Chip erst ab Q3, das sind also auch noch ein paar Monate bis zur Verfügbarkeit.
Andererseits kann man die Stückzahlen natürlich kaum vergleichen, die nVidia und AMD jeweils brauchen. Bei letzterem wird's eben auch der Consumer-Bereich. Ich denke schon, dass der Launch dadurch eingeschränkt(er) ist bzw. war, wenngleich nicht unbedingt auf jetzt Mai/Juni bezogen.
AMD hat schlicht und ergreifend nicht die Ressourcen dafür, X Chips pro Jahr wie nVidia zu bringen. Wer das leugnet, leugnet die Wirklichkeit. ;) Insofern sollte es niemanden auch nur im entferntesten überraschen, dass Vega dann kommt, wenn es kommt.
Zugegeben kenne ich weder Stückzahlen für GP100 noch für die anvisierten Absatzzahlen von Vega um da eine qualifizierte Aussage zu treffen. Vermutlich liegst du da auch nicht verkehrt, ändert nur nix daran, dass HBM2 schon längst einwandfrei läuft. Kann also kaum die Ursache sein.
Ansonsten kann ich nur wiederholen: Das HBM2 nun schuld ist, dass Vega erst Mitte 2017 kommt - oder anders ausgedrückt erst nach fast zwei Jahren den nächsten Highend Chip mit HBM bringt - kann ich mir schwer vorstellen, da es Samsung ja schon längst verbaut.
Es sind sich eigentlich alle einig, dass es nicht an HBM2, sondern am geldbedingten Zeitplan liegt.
grauenvoll
2017-05-13, 14:19:59
Die Diskussion hier ist schon ziemlich verwunderlich. Wie kann man behaupten, dass AMD Jahre zu spät ist, wenn der AI-Markt gerade erst entsteht.
Bei der Entscheidung spielen viele Faktoren eine Rolle, nicht nur Tensor Cores oder 12,5 Tflop zu 15, die nur eine Momentaufnahme sind. Big Data sind große Datenberge und Tensor Cores können nur ihre Leistung entfalten, wenn sie entspechend gefüttert werden. NV-Link ist da meiner Meinung nach ein Muss, sonst verhungern sie. Und hier liegt auch nVidias Problem, man ist auf Partner angewiesen. AMD hingegen ist Komplettanbieter, deren Softwarestack allerdings noch in den Kinderschuhen steckt. Hier ist nVidia mit Cuda klar im Vorteil.
Die großen Kunden werden sowieso niemals nur auf eine Lösung setzen.
Troyan
2017-05-13, 15:48:00
Nichts desto trotz braucht man auf Troyan seine Ausführungen nicht eingehen. ;) Was war dieses rapid packed math? Ein Pendant zum Tensor Core?
"Rapid packet math" ist das simple Ausführen von zwei FP16 Operationen auf einer FP32-Einheit. Also genau das, was nVidia mit Tegra X1 vor zwei Jahren eingeführt hat.
Es ist die einfachste Möglichkeit gewesen relativ schnell die Leistung für neurale Netzwerke zu erhöhen - Training wie Inference.
von Richthofen
2017-05-13, 16:57:13
...und weiter seitenweise über nVidia :facepalm:
Klevapalis
2017-05-13, 17:12:44
Also dir sollte mal klar werden, dass Nvidia als letzter einen eigenen Interconnect bringt mit NVlink. Das ist lediglich das nachziehen und aufschließen zu QPI von Intel und AMDs Hypertransport als schon jahrelang etablierte Interconnects in der ich weis nicht wie vielten Version schon. Infinity Fabric ist die aktuellste Version davon bei AMD. Es ist regelrecht peinlich NVlink als irgendein Alleinstellungsmerkmal anzuführen.
Dann erzähl doch mal kurz, wie hoch die Bandbreite des kommenden (irgendwann mal) MI25 nach außen hin ist. Wie viel hunderte GB/s schafft denn da so die tolle Infinity Fabric?
Ach? Null? Weil die Karte nur PCIe hat? Oh, blöd :ugly:
Zu den MI25:
https://1.f.ix.de/scale/geometry/696x500/q75/imgs/71/2/1/0/5/0/3/6/2-19e2b9722d2eb86d.jpg
Oh. Wie putzig.
Überlegen wir mal: Maximal 100 TFlops (FP16) bei 1600W Leistungsaufnahme. Nebenan kann man sich den DGX-1 kaufen. Doppelte Leistungsaufnahme (3200W), aber 960 TFlops in FP16. Faktor 10 schneller. (Von Kleinigkeiten, wie, dass die 10 TFlops "Dank" PCIe bei der MI25 schwer auszunutzen sein werden, fange ich lieber gar nicht erst an. Aber Infinity Fabric ftw! :ugly: )
Was darf da dein toller K888 G3 wohl so kosten? DGX-1 liegt bei 150.000US$. Mehr als 15000 wohl kaum. Ob das drin ist? Darf die MI25 aber nicht viel kosten...
Tamagothi
2017-05-13, 17:28:28
Nicht mal richtig abkupfern kannst du du bist echt lächerlich ;D
Hier gehts um Vega also bleibt bitte dabei !!!!
basix
2017-05-13, 17:30:14
blabla PCIe blabla
Oh. Wie putzig.
Was sagt denn diese Grafik aus? Die ist schon >1 Jahr alt. Also 1x 100 GB/s wären geschafft ;) Wie das bei weiteren Modulen aussieht wird hier nicht gezeigt.
http://cdn.wccftech.com/wp-content/uploads/2015/08/7e42c9447e754167c85105ffe1a1d866_L.jpg
Hier geht es noch weiter mit einer 16C APU + Greenland. Ist Wccftech ich weiss. Trotzdem hört man überall davon. IBM und Nvidia proklamieren für ihren Summit Supercomputer wie ach so toll jetzt Heterogeneous Computing ist (Highly Parallel = GPU, Low Latency = CPU). Wer hat das vor 5 Jahren nochmals beworben? Ah ja, wie putzig, das war AMD. Leider ist es aufgrund der Marktmacht der Mitspieler ein wenig untergegangen.
http://wccftech.com/amd-x86-zen-based-highperformance-apu-detailed-rumored-feature-16-cores-16-gb-hbm-memory-greenland-igpu-ddr4-memory-support/
So ich bin jetzt still. Sonst füttere ich die Trolle noch mehr. Es ist erstaunlich ruhig um Vega. Wann ist der nächste Infotermin? Computex?
Klevapalis
2017-05-13, 17:35:38
Was sagt denn diese Grafik aus? Die ist schon >1 Jahr alt. Also 1x 100 GB/s wären geschafft ;) Wie das bei weiteren Modulen aussieht wird hier nicht gezeigt.
Blöd halt nur, dass die von Complicated verlinkte Grafik besagt:
4x PCIe Gen3 x16
Ist ja nett, was AMD so auf Folien malt, aber was bringt das, wenn das Produkt hinterher dann doch wieder nur am PCIe hängt?
...
Ist ja nett, was AMD so auf Folien malt, aber was bringt das, wenn das Produkt hinterher dann doch wieder nur am PCIe hängt?
Ja das ist eine gute Hausaufgabe für dich. Was bringt das wohl?
Complicated
2017-05-13, 18:48:29
Dann erzähl doch mal kurz, wie hoch die Bandbreite des kommenden (irgendwann mal) MI25 nach außen hin ist. Wie viel hunderte GB/s schafft denn da so die tolle Infinity Fabric?
Infinity Fabric 25 GB/s pro Lane
NVLink 2.0 25Gbit/s pro lane - 8 lanes per sublink= 200Gbit/s /8 = 25 GByte/s pro sublink. 12 sublinks beim Power 9 = 300 Gbyte/s.
PCIe 4.0 beim Power 9 bringt schon 384 Gbyte/s
Maximum Bandwith bei Infinity fabric ist nur limitiert durch die Implementierung (Transport PCIe/Mellanox/Infiniband) und ist beliebig skalierbar. Derzeit wird es mit 512 Gbyte/s angegeben für Vega.
Klevapalis
2017-05-13, 19:22:57
Infinity Fabric 25 GB/s pro Lane
Wie viele Lanes nutzt Mi25 im K888 G3? Da steht leider nur PCIe. Warum nur?;D
Achill
2017-05-13, 19:58:29
Wie viele Lanes nutzt Mi25 im K888 G3? Da steht leider nur PCIe. Warum nur?;D
Das gepostete Bild von basix hat doch nichts mit der Mi25 zu tun, wie kommst du darauf?
http://cdn.wccftech.com/wp-content/uploads/2015/08/7e42c9447e754167c85105ffe1a1d866_L.jpg
Dort ist ein Multi-Chip-Module abgebildet wo CPU und GPU direkt miteinander kommunizieren.
uweskw
2017-05-13, 20:00:14
Wie viele Lanes nutzt Mi25 im K888 G3? Da steht leider nur PCIe. Warum nur?;D
nicht mal 2 Wochen dabei aber Nerven wie ein Großer. :cool:
Obwohl, wenn man seine ganzen Zweitaccounts mitzählt, gehört er wohl zu Inventar.
Können wir uns BITTE darauf einigen dass professionelles NV Marketing in NV Threads bleibt ?
greetz
US
Schnitzl
2017-05-13, 20:10:27
nicht mal 2 Wochen dabei aber Nerven wie ein Großer. :cool:
Obwohl, wenn man seine ganzen Zweitaccounts mitzählt, gehört er wohl zu Inventar.
Können wir uns BITTE darauf einigen dass professionelles NV Marketing in NV Threads bleibt ? (...)
Danke - da wäre ich auch dafür!
Führt doch eh zu nichts.
Ist ja wie in ner Kneipe am Stammtisch wo diskutiert wird ob jetzt Audi, BMW oder Mercedes besser ist... :rolleyes:
Was ist nochmal das Thema hier? ^^
nVidia
Vega
wie "Scheisse" AMD ist
Volta
???
Complicated
2017-05-13, 20:21:29
Wie viele Lanes nutzt Mi25 im K888 G3? Da steht leider nur PCIe. Warum nur?;D
Sieht das hier aus wie der Frage/Antwort Thread?
@uwe
Da stimme ich gerne zu. Nur die Mods scheint das wenig zu interessieren.
DrFreaK666
2017-05-13, 22:37:03
Sieht das hier aus wie der Frage/Antwort Thread?
@uwe
Da stimme ich gerne zu. Nur die Mods scheint das wenig zu interessieren.
Vielleicht die Mods darauf aufmerksam machen ;)
Klevapalis
2017-05-13, 23:05:04
Das gepostete Bild von basix hat doch nichts mit der Mi25 zu tun, wie kommst du darauf?
Danke, das musst du nicht mir sagen.
Ausgangspunkt der Diskussion war die Aussage, AMD würde am NVIDIA-"Monopol" im GPU-Markt knabbern. Meine Frage war eben (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11373924#post11373924), wo das Vega10 gegenüber GV100 schaffen soll, ohne NVLink, ohne HalfRate-FP64, ohne Tensor-Core. Darauf hin hat sich die Meute wieder gesammelt und wild "Infinitiy Fabric!" gebrüllt, weil ja "NVLink" in meiner Aufzählung stand, und ignoriert die ganze Zeit beständig meine Hinweise, dass das mit Vega10 überhaupt gar nicht im Sinne von NVLink implementiert wurde :rolleyes:
Jetzt wo sie es gemerkt haben, wird heftig die persönliche Schiene gefahren.
nicht mal 2 Wochen dabei aber Nerven wie ein Großer. :cool:
Obwohl, wenn man seine ganzen Zweitaccounts mitzählt, gehört er wohl zu Inventar.
*gähn* Wenn man keine Argumente hat, dann kommen persönliche Beleidigungen.
Sieht das hier aus wie der Frage/Antwort Thread?
Ok, hast gemerkt deine Behauptungen waren Blödsinn. Stimmt :up:
Vielleicht die Mods darauf aufmerksam machen ;)
Man koennte sich auch einfach mal halbwegs vernuenftig benehmen.
Da man von denen, die Vega eh einen Scheiss interessiert, ja nicht mal erwarten kann einfach wegzubleiben, koennte man auch damit aufhoeren ihnen staendig zu antworten.
Leonidas
2017-05-14, 04:30:34
Ausgangspunkt der Diskussion war die Aussage, AMD würde am NVIDIA-"Monopol" im GPU-Markt knabbern. Meine Frage war eben (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11373924#post11373924), wo das Vega10 gegenüber GV100 schaffen soll, ohne NVLink, ohne HalfRate-FP64, ohne Tensor-Core. Darauf hin hat sich die Meute wieder gesammelt und wild "Infinitiy Fabric!" gebrüllt, weil ja "NVLink" in meiner Aufzählung stand, und ignoriert die ganze Zeit beständig meine Hinweise, dass das mit Vega10 überhaupt gar nicht im Sinne von NVLink implementiert wurde
Richtig. Die Antwort "IF" ist jetzt wenig valide. Allerdings muß "knabbern am NV-Monopol" auch nicht zwingend bedeuten, sich mit NV im Profi-Markt anzulegen. Gerade, wenn dazu sowieso noch Vega 20 kommt und Vega 10 dafür nur teilweise nutzbar ist (genauso "gut" wie ein GP102).
Und ja, bei Erfolg knabbert Vega 10 am NV-Monopol. Wenigstens auf dem Gamer-Markt. Dafür wird gar kein NVLink, FP64 und Tensore Cores benötigt.
Skysnake
2017-05-14, 07:26:22
Ich weiß nicht, was ihr immer mit nVLink habt. Sooo toll ist das Ding jetzt nicht wirklich im Vergleich zu PCI-E.
Die InfinityFabric kann da schon deutlich interessanter sein, selbst wenn man nominell weniger Bandbreite hat, kann es unterm Strich deutliche Vorteile haben. Leider geht nVidia auf einige Punkte nicht ein bezüglich nVLink und mir fehlt die Zeit einen Benchmark zu schreiben...
grauenvoll
2017-05-14, 08:50:13
Danke, das musst du nicht mir sagen.
Ausgangspunkt der Diskussion war die Aussage, AMD würde am NVIDIA-"Monopol" im GPU-Markt knabbern. Meine Frage war eben (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11373924#post11373924), wo das Vega10 gegenüber GV100 schaffen soll, ohne NVLink, ohne HalfRate-FP64, ohne Tensor-Core.
Wer hat denn das behauptet. AMD spielt in dem Datacenter Markt mit und nicht die führende Rolle. nVidia hat eine große Basis an Entwicklern, was viel ausschlaggebender ist als Tensor Cores. AMDs Ziel ist es die Nr. 2 zu spielen. Nr.1 will man im Segment Unterhaltung sein(Konsolen, Gaming, VR ... ).
Complicated
2017-05-14, 08:52:12
Vielleicht die Mods darauf aufmerksam machen ;)
Längst passiert - reagiert nur keiner drauf.
Ok, hast gemerkt deine Behauptungen waren Blödsinn. Stimmt :up:
Wenn man halt nicht korrekt Schlußfolgern kann dehnt sich das auf alle Bereiche aus. Wie man mit 70% Marktanteil ein Monopol hat wirst nur du wissen.
@Skysnake
Wie kommst du darauf, dass Infinity Fabric nominell weniger Bandbreite hätte?
http://segmentnext.com/2017/01/17/amd-infinity-fabric-details/
It is safe to call this HyperTransport 2.0 and even though there is not much that we know about this tech as of right now we do know the following about it:
It will be completely modular
The bandwidth will scale from 30-50 GB/s for notebooks and around 512 GB/s for Vega GPU.
It will be used as both a network-on-chip solution as well as clustering link between GPUs and x86 server SoCs.
CCIX standard is also supported which will allow it to be coupled with accelerators and FPGAs.
Skysnake
2017-05-14, 09:39:42
@Skysnake
Wie kommst du darauf, dass Infinity Fabric nominell weniger Bandbreite hätte?
http://segmentnext.com/2017/01/17/amd-infinity-fabric-details/
Ich bin vom Fall dedizierter Vegas ausgegangen, wo man wahrscheinlich die PCI-E Links auch als InfinityFabric nutzen kann. Da haste dann wahrscheinlich halt "nur" 16 Links und nicht wie bei nVidia 6*x links.
Um was es mir geht ist, das man bei der InfinityFabric davon ausgehen kann, dass die Transmission auf Basis von Cache lines funktioniert. Bei nVilink 1 und wohl auch 2, ist das aber meinem Verständnis nach auf Page basis, was die Programmierung sehr sehr sehr viel schwieriger macht.
guckst du auch
Enhanced Unified Memory and Address Translation Services GV100 Unified Memory technology in Volta GV100 includes new access counters to allow more accurate migration of memory pages to the processor that accesses the pages most frequently, improving efficiency for accessing memory ranges shared between processors. On IBM Power platforms, new Address Translation Services (ATS) support allows the GPU to access the CPU’s page tables directly.
Ich war schon mehrfach mit Leuten von nVidia im Gespräch deswegen, aber die wollten/konnten sich nie dazu äußern.... Und wie gesagt, mir fehlt schlicht die Zeit dazu, das du testen. Man müsste halt einen Benchmark für 2 GPUs schreiben, wo diese gleichzeitig auf eine Page zugreifen. Die Performance sollten dann ins bodenlose fallen, bzw im Best case die doppelte Ausführungszeit sein von dem Fall, in dem jede GPU auf einer Page arbeitet.
Complicated
2017-05-14, 10:14:38
Korrekt AMDs Infinity Fabric ermöglicht direkte load/store memory Operationen selbst auf SSD oder Netzwerkspeicher - siehe HBCC Folien bei Vega, der ja eine weiter Entwicklung des hUMA Konzeptes ist. Nvlink bringt im Prinzip erstmalig Unified Memory und Pointer weitergabe bei Nvidia - im Prinzip wie hUMA.
Hier sind Quellen: https://devblogs.nvidia.com/parallelforall/how-nvlink-will-enable-faster-easier-multi-gpu-computing/
Unified Memory and NVLink represent a powerful combination for CUDA® programmers. Unified Memory (http://devblogs.nvidia.com/parallelforall/unified-memory-in-cuda-6/) provides you with a single pointer to data and automatic migration of that data between the CPU and GPU.Und dort weiterführend zu CUDA6:
https://devblogs.nvidia.com/parallelforall/unified-memory-in-cuda-6/
Der größte Unterschied für HPC ist der adressierbare Bereich. Während NVLink basierende Systeme den gesamten Arbeitsspeicher der CPU und der GPU, so wie seit Jahren HSA, als gemeinsamen Speicher adressieren können, kann AMD mit dem HBCC auch den Storage in die Adressierung einbinden. Das bedeutet große Datasets sind direkt adressierbar ohne sie in den System- oder VRAM laden zu müssen. Die Bereiche an denen gearbeitet wird werden dann dynamisch nachgeladen. Im Gegensatz zu früher wo dann der VRAM/RAM erweitert werden musste, kann jetzt mit zusätzlichem Massenstorage der adressierbare Bereich erweitert werden. Vermutlich wird das zu Systemen führen die wieder mit weniger RAM/VRAM ausgestattet sein werden, natürlich abhängig von der verbauten Bandbreite und Anbindung des Massenspeichers.
http://hothardware.com/reviews/amd-vega-gpu-architecture-details-revealed
The HBCC gives the GPU access to 512TB (half a petabyte) of virtual address space and gives the GPU fine-grained control, for adaptable and programmable data movement. Often, more memory is allocated for a particular workload than is necessary; the HBCC will allow the GPU to better manage disparities like this for more efficient use of memory. The huge address space will also allow the GPU to better handle datasets that exceed the size of the GPU’s local cache. AMD showed a dataset being rendered in real-time on Vega using its ProRender technology, consisting of hundreds of gigabytes of data. Each frame with this dataset takes hours to render on a CPU, but Vega handled it in real-time.
Read more at http://hothardware.com/reviews/amd-vega-gpu-architecture-details-revealed#PfPIeMK6S6Xreltg.99
Es wird auf einen Entwicklungssprung bei den SANs hinaus laufen.
BoMbY
2017-05-14, 10:44:13
Leider geht nVidia auf einige Punkte nicht ein bezüglich nVLink und mir fehlt die Zeit einen Benchmark zu schreiben...
Wie willst Du denn NVLink benchmarken? Das funktioniert nur in einem System in welchen das Board und die CPU das unterstützen. Dazu bräuchtest Du einen speziellen IBM Power8+ oder Power9 Server mit P100 oder V100. (Edit: Preislich liegst Du da wohl bei mehr als $65.000 pro Stück (http://www.crn.com/rankings-and-lists/ti2016-details.htm?c=108&wc=4))
Ob AMD es ermöglichen wird PCIe zu Infinity Fabric Links zu switchen, auf Zen-basierten Systemen, ist ebenso noch mehr als fraglich.
basix
2017-05-14, 10:59:32
Ob AMD es ermöglichen wird PCIe zu Infinity Fabric Links zu switchen, auf Zen-basierten Systemen, ist ebenso noch mehr als fraglich.
Bei Consumer Plattformen sicher nicht. Bei ihren Server, Workstation oder HPC Produkten können sie ja machen was sie wollen ;) Das folgende ist ja das geniale mit Infinity Fabric: Die Variabilität. Zum Beispiel Zen + Vega = PCIe Slot @ Infinity Fabric; Zen + Steckkarte XY = PCIe Slot @ PCIe. Ist noch die Frage offen, ob man dies händisch konfigurieren muss oder ob das System es selber merkt.
Skysnake
2017-05-14, 11:09:23
Und? Gibt ja durchaus Access zu solchen Systemen, und wenns über nen Cloudeanbieter ist. Wo ein Wille ist, ist auch ein Weg. Nur ohne Benchmark braucht man sich darum auch keine Gedanken machen....
@Complicated:
Ja, das ist eine durchaus interessante entwicklung. Vor allem auch im Zusammenhang mit der encryption pro VM ohne Entwickleraufwand. Das könnte schon sehr intressant werden als System as a Service. Also eine vollständige Integration und Virtualisierung angefangen bei CPUs, über GPUs bis hin zum Massstorage.
Vor allem müsste man sich dann auch mal anschauen, ob man eventuell sogar for free Multitier storage bekommt. Also Hot and Coldstorage implementiert bekommt über diese Funktionalität.
Im Prinzip sollte das schon gehen, was durchaus interessant ist. Man könnte auf die ganz verrückte Idee kommen, das man die Applikationsdaten gar nicht mehr "speichert" oder "lädt", sondern zwischen runs einfach auf die Datenstrukturen zugreift und gut ist. Das könnte einen gewaltigen Schub geben. Vor allem, wenn man die Daten auch nicht wegschreiben muss, weil sie "einfach" wegmigrieren, wenn man Sie nicht benutzt. Das ist schon verdammt sexy, vor allem weil es auch vollkommen egal ist, ob man 2, 3, 4 oder 100 Stufen hat.
Das einzige Problem, das ich sehe ist, dass die 512TB eigentlich VIEL zu klein sind :ugly: Und ja ich mein das Ernst. Wenn man das wirklich richtig konsequent durchziehen will, dann brüchte man eher was im Bereich von mindestens 128PB an direkt addressierbarem Addressraum(Storage). Etwas in die Richtung werden wir nämlich bei den großen Systemen bekommen. Für etwas Luft nach oben wären 512PB wohl perfekt. Das wird wohl kein System so schnell bekommen. Sierra soll um die 128PB an usable Storage bekommen, wenn ich mich richtig erinnere.
Also Möglichkeiten hat AMD schon, Sie dürfen es am Ende im Bereich der Software nur nicht wieder mal verkacken. Und das tun Sie leider eins ums andere mal....
Kriton
2017-05-14, 12:17:15
Die InfinityFabric kann da schon deutlich interessanter sein, selbst wenn man nominell weniger Bandbreite hat, kann es unterm Strich deutliche Vorteile haben.
Welche?
5CH4CHT3L
2017-05-14, 13:41:12
Welche?
Auch in Consumer Produkten
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.