Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
dargo
2017-09-29, 22:12:52
Ob Nvidia schon Gameready Treiber für Forza 7 anbietet, weiss ich jetzt nicht.
Tun sie.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11505396#post11505396
Aber wie so oft ist das nicht viel wert. ;)
Ja, das Spiel ist DX12-only und AMD kann nun alle Trümpfe der letzten Jahre ausspielen:
- Kein DrawCall-Overhead wie bei DX11
- AsyncShader
- FP16
- Optimierte Konsolenversion, die auf AMD-Hardware basiert, jetzt auf den PC übertragen
Moment... wo steht, dass Forza 7 AC und FP16 verwendet? Nichts davon wurde je genannt.
Hm, Vega scheint doch einiges an Potential zu haben. Scheint so als ob Vega bei DX12 only-Spielen sich durchaus gut schlägt. Vielleicht hat AMD einfach zu fest auf die Zukunft gesetzt?
GCN ist von Anfang an für low level designt worden. Der erste kam vor fast 6 Jahren für die PC-Umgebung.
Tesseract
2017-09-29, 22:43:35
ihr macht euch das zu einfach. features wie AC müssten sich auf hohen auflösungen genau so bemerkbar machen, das erklärt den viel stärkeren einbruch auf höheren auflösungen nicht.
TheGood
2017-09-29, 22:47:06
laut Computerbase ist es zwar die DirectX 12 Api aber nur Feature Level 11_0. Was für mich am Ende ein DirectX 11 ist...
dargo
2017-09-29, 22:56:05
ihr macht euch das zu einfach. features wie AC müssten sich auf hohen auflösungen genau so bemerkbar machen, das erklärt den viel stärkeren einbruch auf höheren auflösungen nicht.
Forza 7 verwendet überhaupt kein AC. Und was heißt überhaupt stärkeren Einbruch in höheren Auflösungen? Als was? Als Nvidia? Wenn Nvidia in kleineren Auflösungen viel stärker ins CPU-Limit rennt dann ist es nur logisch, dass der Einbruch bei AMD bei hohen Auflösungen stärker ausfällt.
Edit:
Hier nochmal die avg. Werte...
Vega64 1080p = 136,9fps
Vega64 2160p = 83,7fps
GTX1080TI 1080p = 111,2fps
GTX1080TI 2160p = 90,8fps
Vega ist bei 1080p nur 64% schneller als in 4k, GP102 sogar nur lächerliche 22%. Normalerweise ist 4k vs. 1080p wesentlich teurer. Beide stecken stark im CPU-Limit @1080p, nur dass AMD hier mehr fps auf die Straße bekommt.
laut Computerbase ist es zwar die DirectX 12 Api aber nur Feature Level 11_0. Was für mich am Ende ein DirectX 11 ist...
Dann lese dich nochmal ein.
https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D#Direct3D_12
Was ist bei dem Spiel so fundamental anders? Ist es beispielhaft für die Zukunft oder eine Ausnahme?
War es nicht so, dass NV bei Maxwell/Pascal recht viel über den Treiber machen muss, weil deren Frontend relativ wenig in Hardware kann? Da könnte die CPU-Last ja herkommen.
tm0975
2017-10-08, 21:34:06
immer noch keine custom vega 64 in sicht?
gravitationsfeld
2017-10-08, 21:56:01
War es nicht so, dass NV bei Maxwell/Pascal recht viel über den Treiber machen muss, weil deren Frontend relativ wenig in Hardware kann? Da könnte die CPU-Last ja herkommen.
Das Gegenteil ist der Fall, bei AMD hat der Treiber viel mehr zu tun.
Digidi
2017-10-08, 22:21:54
Das Gegenteil ist der Fall, bei AMD hat der Treiber viel mehr zu tun.
Gibt es da einen Unterschied von DX11 zu DX12? Könnte ja sein das AMD bei DX12 weniger Driver Overhead produziert.
gravitationsfeld
2017-10-08, 22:33:31
Korrekt. DX12 hilft AMD ueberdurchschnittlich auf der CPU.
Forza 7 verwendet überhaupt kein AC. Und was heißt überhaupt stärkeren Einbruch in höheren Auflösungen? Als was? Als Nvidia? Wenn Nvidia in kleineren Auflösungen viel stärker ins CPU-Limit rennt dann ist es nur logisch, dass der Einbruch bei AMD bei hohen Auflösungen stärker ausfällt.
Edit:
Hier nochmal die avg. Werte...
Vega64 1080p = 136,9fps
Vega64 2160p = 83,7fps
GTX1080TI 1080p = 111,2fps
GTX1080TI 2160p = 90,8fps
Vega ist bei 1080p nur 64% schneller als in 4k, GP102 sogar nur lächerliche 22%. Normalerweise ist 4k vs. 1080p wesentlich teurer. Beide stecken stark im CPU-Limit @1080p, nur dass AMD hier mehr fps auf die Straße bekommt.
Dann lese dich nochmal ein.
https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D#Direct3D_12
Sorry, aber eine 1080Ti bekommst du in 4k maxed out mit 8xMSAA nicht unter die 100FPS. Hier mal ein Bild in 8k beim Start, maxed out 4xMSAA und Framelimit 60FPS (sorry für die Qualität, aber picr komprimiert leider die Bildchen :()
http://up.picr.de/30596796kj.jpg
tm0975
2017-10-10, 09:39:27
ist das Foto neu?
http://cdn.wccftech.com/wp-content/uploads/2017/10/Intel-Mobile-Processors-AMD-Vega-Graphics-Inside.png
Bucklew
2017-10-10, 10:01:10
Neben "Vega Inside" den Spruch "Mobile Performance Outside" zu schreiben, ist ja mal völlig dämlich - ist die "Mobile Performance" dann beim Konkurrenzmodell oder wo? :facepalm:
Anyway, wenn Intel tatsächlich zu ihren CPUs AMD-IP verbauen kann, sehe ich ziemliche Probleme für die kommende Ryzen-APUs von AMD.
dargo
2017-10-10, 10:01:22
Sorry, aber eine 1080Ti bekommst du in 4k maxed out mit 8xMSAA nicht unter die 100FPS. Hier mal ein Bild in 8k beim Start, maxed out 4xMSAA und Framelimit 60FPS (sorry für die Qualität, aber picr komprimiert leider die Bildchen :()
http://up.picr.de/30596796kj.jpg
Ich hatte hier schon gefragt was die CB da genau misst?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11513471&postcount=3551
Bisher leider keine Antwort bekommen.
tm0975
2017-10-10, 10:09:08
Anyway, wenn Intel tatsächlich zu ihren CPUs AMD-IP verbauen kann, sehe ich ziemliche Probleme für die kommende Ryzen-APUs von AMD.
ich glaube, das hilft unterm strich beiden. es werden dann einfach weniger kleine geforce in billig-pcs und notebooks stecken.
Bucklew
2017-10-10, 10:15:42
ich glaube, das hilft unterm strich beiden. es werden dann einfach weniger kleine geforce in billig-pcs und notebooks stecken.
NVIDIA baut aktuell nichts kleineres als einen GP108, TDP ~30W. Das wirst du nicht in eine CPU quetschen können.
Zumal AMD sich da massiv selbst ins Knie schießt. Wo ist Netflix-4K Support?
aufkrawall
2017-10-10, 10:18:32
Bisher leider keine Antwort bekommen.
99th percentile bei CB sind mitunter offenbar völlige Fantasiewerte, hatte das bei BF1 mit dem 7700k auch schon moniert.
Menace
2017-10-10, 10:22:08
Anyway, wenn Intel tatsächlich zu ihren CPUs AMD-IP verbauen kann, sehe ich ziemliche Probleme für die kommende Ryzen-APUs von AMD.
Ich weiß gar nicht, ob das nicht so ein Kontraproduktiver Selbstläufer der Radeongroup von Raja (?) ist und wie weit er es geschafft hat sich von AMD zu lösen. Für allzu schlau halte ich das auch nicht, weil der GPU-Part zumindest immer stärker war.
NVIDIA baut aktuell nichts kleineres als einen GP108, TDP ~30W. Das wirst du nicht in eine CPU quetschen können.
Zumal AMD sich da massiv selbst ins Knie schießt. Wo ist Netflix-4K Support?
Das hat doch mit RR überhaupt nichts zu tun, wenn AMD für HighEnd-Notebooks GPUs für Intel bereitstellt - in diesem Markt hat AMD eh nichts vertreten. Da ist es doch besser mitzuverdienen. Und ja, man kann die NV-Klein-GPUs damit aussperren, das hilft beiden. AMD verdient in einem Markt mit, der bislang absolut AMD-frei war und Intel kann trotz gleicher CPU-Preise günstigere und effizientere Notebooks anbieten, ohne ne eigene, bessere GPU-Technik entwickeln zu müssen.
Und Netflix4k wird eh mit Creators-Fall-Update und dem neuen WDDM2.3 automatisch kommen mMn. Darum würd ich mir mal keine Gedanken machen.
Bucklew
2017-10-10, 11:27:12
Und Netflix4k wird eh mit Creators-Fall-Update und dem neuen WDDM2.3 automatisch kommen mMn. Das wird schon funktionieren.
Nein, AMD hat bis heute keinen Support für PlayReady 3.0 im Treiber. Versprochen seit Polaris, geliefert bis heute: Nichts.
Nein, AMD hat bis heute keinen Support für PlayReady 3.0 im Treiber. Versprochen seit Polaris, geliefert bis heute: Nichts.
Warte den 17.40er Branch mit WDDM2.3 ab, das wird schon laufen.
Bucklew
2017-10-10, 11:33:53
Warte den 17.40er Branch mit WDDM2.3 ab, das wird schon laufen.
Genau, wird schon alles laufen, wie der großartige Wundertreiber für Vega ;D
Wieder eine HOT(tm) Prophezeiung.
Intel verbaut schon keine GPU, die kein Netflix 4k kann, darauf kannst du dich verlassen. Außerdem ist das ein Kernelement für RR. Vorher war das aber eben auch ziemlich unwichtig für AMD, weil BR das offensichtlich nicht beherrschte. Das wird laufen. Hab etwas Vertrauen.
Bucklew
2017-10-10, 11:36:45
Das wird laufen. Hab etwas Vertrauen.
[x] Bookmarked
... sagt jemand, der die Dreistheit besitzt, aus dem Kontext gerissene Zitate von anderen Forenmitgliedern in seiner Signatur als Trophäe präsentiert...
Bucklew
2017-10-10, 11:48:37
Tipp: Bevor du nächstes Mal wieder nur beleidigen kannst, weil du dich zu weit aus dem Fenster gelehnt hast - einfach nicht raus lehnen könnte helfen! ;D
Ne Bleidigung sieht anders aus, z.B. deine Sig. Hab das mit der Dummheit zur Vorsicht aber herausgenommen.
Hinzu kommt ja, dass keiner den Videoprozessor von Intel-Vega, RR oder V11 kennt. Es ist schon sportlich, da reinzuinterpretieren, dass das Netflix-Problem bestehen bleibt.
Bucklew
2017-10-10, 12:04:08
Bullshit, wirf nicht anderen Dummheit und zeige dann deine nicht vorhandene Lesekompetenz :rolleyes:
Da ist nichts aus dem Kontext gerissen und ich hätte auch gern die vorhersage, dass Vega mit der TitanXp@OC konkurriert zitieren können. Dass gerade du es blöd findest, wenn alte völlig bescheuerte Vorhersagen mal raus gekramt werden, wundert mich nicht ;D
Der Videoprozessor hat übrigens gar nichts mit dem fehlenden PlayReady-Support zu tun. Schön, dass du nochmal dein "Wissen" unterstreichst :D
deekey777
2017-10-10, 12:15:05
Wieder woanders gesperrt?
Outside = draußen. In einem Gerät mit Vega hat man outside mobile Performance.
Ich weiß gar nicht, ob das nicht so ein Kontraproduktiver Selbstläufer der Radeongroup von Raja (?) ist und wie weit er es geschafft hat sich von AMD zu lösen. Für allzu schlau halte ich das auch nicht, weil der GPU-Part zumindest immer stärker war.
Na ja, wie gesagt ist das für AMD gar kein Problem. Das Ganze wird Zweckgebunden sein, Intel wird jetzt nicht plötzlich in allen Bereichen mit so einem Produkt agieren können. Und die Märkte, in denen sowas platziert werden soll, wird AMD eh auf absehbare Zeit kein Angebot haben.
Bucklew
Alter, krieg dich wieder ein ;). Deine Sig ist mMn einfach dämlich und beleidigend und sie ist aus dem Kontext gerissen. Du hast ja grad Kontext hinzugefügt mit dem Post, aber nicht in der Sig.
Bucklew
2017-10-10, 12:29:45
Bucklew
Alter, krieg dich wieder ein ;). Deine Sig ist mMn einfach dämlich und beleidigend und sie ist aus dem Kontext gerissen. Du hast ja grad Kontext hinzugefügt mit dem Post, aber nicht in der Sig.
Jaja, wieder Fass aufmachen und nun soll ich mich einkriegen.
Welcher Kontext soll den bitte fehlen? Die Aussage hat er so getätigt und das fernab jeden Kontexts.
deekey777
2017-10-10, 12:31:18
... oder es kommen einfach in absehbarer Zeit Laptops mit Intel-Prozessoren und dedizierten mobilen Vegas.
Oder es ist einfach ein Seitenhieb von AMD.
https://nasilemaktech.com/2017/10/09/intel-chips-vega-inside/
das Update beachten:ugly::ueye:
Loeschzwerg
2017-10-10, 12:41:04
:ulol:
deekey777
2017-10-10, 13:01:13
https://nasilemaktech.com/2017/10/09/intel-chips-vega-inside/
das Update beachten:ugly::ueye:
Nee, oder? ;D
Grendizer
2017-10-10, 14:22:26
Lol....
BoMbY
2017-10-10, 14:36:35
Ja, als Vega-Inside hat nichts mit AMD zu tun: http://www.tech-critter.com/2017/10/alleged-image-of-intel-chip-with-vega.html
Screemer
2017-10-10, 18:17:23
kann bucklew mal einer abstellen. der ist doch echt nur zum flamen hier. jetzt war endlich mal ein paar tage ruhe und jetzt geht der selbe scheiß wieder von vorne los.
Loeschzwerg
2017-10-10, 18:25:36
Ist doch schon passiert ^^
BoMbY
2017-10-11, 18:58:02
Okay, meine aktuelle Vermutung für Vega 11:
Es wird eher ein neuer Hawaii-Chip, als ein neuer Polaris 10 Chip. Polaris reicht eigentlich vollkommen aus für Low- bis Middle-Class. Ich denke auch die Gerüchte bezüglich HBM für Vega 11 sind falsch, und die SK-Hynix GDDR6-Meldung bezieht sich auf Vega 11, und das würde auch in den Zeitplan mit GloFo 12LP passen.
Daher meine spekulativen Werte für Vega 11:
GloFo 12LP
44 CUs
1775 MHz
10 TFlops Single Precision
384 Bit GDDR6 = 6 oder 12 GB mit bis zu 768 GB/s
225W TDP
Das würde als eine RX 590 bzw. RX 690 eigentlich gut ins Bild passen.
BoMbY
2017-10-13, 17:07:48
Diese 694C:C0 welche da mit dem Kaby Lake Sample (https://videocardz.com/69760/engineering-sample-update) aufgetaucht war ist übrigens doch interessanter. Scheinbar ist das eine "gfx804" GPU mit 24 CUs und 1000 MHz ... Das passt nicht zu Polaris 10, 11 oder 12. Oder vertue ich mich da jetzt?
Zergra
2017-10-13, 17:18:45
Muss ja auch nicht zu Polaris passen, sondern zu Vega.
Da sieht man aber, wo das hinläuft. Mit 24 CUs ist man gut spieletauglich. Könnte in stark abgespeckter V11 sein.
BoMbY
2017-10-13, 17:48:55
Ähh ja, sorry. Falscher Thread, gfx804 sollte irgendwas aus der Polaris-Generation sein.
dargo
2017-10-13, 17:54:58
Okay, meine aktuelle Vermutung für Vega 11:
Es wird eher ein neuer Hawaii-Chip, als ein neuer Polaris 10 Chip. Polaris reicht eigentlich vollkommen aus für Low- bis Middle-Class. Ich denke auch die Gerüchte bezüglich HBM für Vega 11 sind falsch, und die SK-Hynix GDDR6-Meldung bezieht sich auf Vega 11, und das würde auch in den Zeitplan mit GloFo 12LP passen.
Daher meine spekulativen Werte für Vega 11:
GloFo 12LP
44 CUs
1775 MHz
10 TFlops Single Precision
384 Bit GDDR6 = 6 oder 12 GB mit bis zu 768 GB/s
225W TDP
Das würde als eine RX 590 bzw. RX 690 eigentlich gut ins Bild passen.
Bei den Daten wäre Vega56 überflüssig.
BoMbY
2017-10-13, 18:42:30
Vega 56 könnte man auch weiter an Apple oder als MXM für Notebooks verkaufen, mit höherer Marge als im Gamer-Segment.
TGKlaus
2017-10-13, 19:14:12
Wann soll denn Vega 11 kommen? Noch zum Weihnachtsgeschäft?
BoMbY
2017-10-14, 12:26:21
Ich würde sagen frühestens März 2018 (vielleicht zur GDC vom 19.-23.).
tm0975
2017-10-18, 09:50:27
Es ist nach wie vor recht still an der custom-vega front :-(
Hübie
2017-10-18, 10:00:48
Wann soll denn Vega 11 kommen? Noch zum Weihnachtsgeschäft?
Vermutlich nicht. Als nächstes stehen die custom V64/56 an, aber um V11 ist es sehr still geworden. Ich rechne mit Anfang November für customs und dann im Frühjahr V11.
seit heute sind wohl WX 9100 und Pro SSG kaufbar https://twitter.com/RadeonPro/status/920636870870093825
Loeschzwerg
2017-10-18, 17:18:35
Jup, sind auch brav gelistet die Karten:
https://geizhals.de/amd-radeon-pro-wx-9100-100-505957-a1705155.html
https://geizhals.de/amd-radeon-pro-ssg-100-506014-a1705528.html
AMDoderNvidia
2017-10-18, 20:25:12
Und wo liegt das Problem für AMD? Die knappe Verfügbarkeit von HBM2?
Oder sind sie einfach zu nett und wollen Nvidia noch ein wenig Vorsprung lassen? :freak:
ecodriver
2017-10-23, 18:35:26
Wo bleiben eigentlich die Custom Karten war da nicht mal der Oktober (evtl Nov.) im Gespräch ?
THG testet anscheinend schon und Mindfactory verscherbelt ihre Standard Vegas gerade da müssen doch bald mal welche kommen oder ?
Mortalvision
2017-10-23, 20:17:00
Ich glaub nicht mehr dran...
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/News/Vega-Nachfolger-Navi-TSMC-7-nm-1241930/
Wenn das Packaging jetzt zuverlässig läuft, ist es bis zu den Customs jetzt nicht mehr weit. Ich nehme an, Anfang Dezember wird es generell soweit sein. Apple ist ja nur ein sehr kleiner Teil des Marktes. MMn nach wird V10 aber eh spätestens März/April on-the-fly durch ne 12nm-Variante ersetzt, da das ja keine neue Maske zu benötigen scheint. Dürfte ähnlich laufen wie bei der GTX260 damals.
BoMbY
2017-10-24, 16:01:17
Unwahrscheinlich, dass das irgendeine Relevanz hat. Bisher hat AMD ja schon scheinbar mindestens drei verschiedene Unternehmen mit dem Packaging von Vega 10 beauftragt. Und letzte Woche hat diese Firma angeblich einen Auftrag für Vega 11 Packaging mit HBM bekommen, und wie gesagt wäre ich eher nicht überrascht, wenn Vega 11 überhaupt kein HBM hat.
Na sicher hat der HBM sonst wär das Packaging kein Thema ;).
BoMbY
2017-10-24, 17:20:17
Klar, weil Digitimes auch eine total unfehlbar Quelle ist, die niemals Bullshit verbreiten würde ... Es gibt ansonsten keinerlei Hinweis darauf, dass Vega 11 HBM nutzen wird, und es wäre auch ökonomischer Unsinn.
vinacis_vivids
2017-10-24, 18:18:14
Wieso soll HBM unökonomisch sein?
|MatMan|
2017-10-24, 20:36:02
MMn nach wird V10 aber eh spätestens März/April on-the-fly durch ne 12nm-Variante ersetzt, da das ja keine neue Maske zu benötigen scheint.
Du hast das jetzt schon öfter gepostet - hast du auch eine Quelle dazu oder willst das mal ein bisschen erläutern?
Sobald der 12nm V10 weniger Fläche benötigt, als die aktuelle Version, braucht es eine neue Maske - wie soll das sonst funktionieren? Insbesondere, da ein Großteil der Flächenersparnis wohl aus kleineren SRAM Zellen kommt und nicht einfach alles linear schrumpft.
Hat ein 12nm V10 dieselbe Fläche wie der aktuelle V10, dann ist es kein Shrink. Dann ändert man ja "nur" ein paar Prozessparameter -> das hätte man früher Stepping genannt.
So oder so glaube ich nicht so richtig an einen Shrink - einfache Shrinks gab es schon lange nicht mehr, und das hat Gründe.
victore99
2017-10-25, 01:14:23
also. ich fass mal zusammen, woran die Lieferbarkeit hängen könnte.
1) nicht genügend Chips von GloFo+Samsung, weil GloFo mit Ryzen genug zu tun hätte. aber so hoch, wie die Ryzen-Ausbeute ist, sollte es dort kein Problem geben - selbst bei der Chipgröße der Vega10.
2) es hängt beim Zusammensetzen der Chips. aber das lief bei Fiji schon deutlich besser, außerdem arbeiten da schon viele Firmen dran.
3) Lieferbarkeit des HBM - es gab schon bei HBM1 Probleme, und HBM2 ist nicht leicher herzustellen. ich glaub, dass da das Problem liegt.
4) alles geht an Apple. aber wieviele IMacs mit Vega wollen die denn verkaufen, wenn die nahezu komplette (und ansonsten gut laufende) Produktion mehrerer Monate dahin geht? sicherlich kauft Apple vieles auf, aber nicht alles.
von daher wäre es dumm/ungünstig, einen Chip, der ins Volumen gehen soll (V11), auf dem gleichen Speicher und der gleichen Fertigungskette basieren zu lassen, der schon bei wenigen Highendkarten nicht läuft.
das mit den möglichen 12nm interessiert mich persönlich, ist das nur Gerede oder gibt es dafür Hinweise?
Außerdem müsste Vega@12nm besser taktbar sein und weniger Energie verbrauchen (aber wen kümmert schon letzteres..)
BoMbY
2017-10-25, 11:12:27
Wieso soll HBM unökonomisch sein?
Weil die SKUs die aus Vega 11 gebildet werden nicht im Hochpreissegment sind, und egal was ein HBM-Modul kostet, hätte man damit deutlich höhere Kosten durch Interposer und Packaging, und dadurch wird die Gewinnmarge für AMD deutlich geringer.
Auch wäre man vermutlich auf ein HBM-Modul beschränkt, was dann maximal 256 GB/s Speicherbandbreite erlauben würde (ich würde sagen, um etwas zu reißen brauchen die mind. 384 GB/s), und eine 4 GB Karte (auch mit HBCC) sieht auf der Marketingseite schlecht aus, und die 8 GB Module kosten vermutlich deutlich mehr.
Zusätzlich hätte man durch den Interposer eine deutlich höhere Bauweise, was das auch für kleinere mobile Geräte problematischer macht, für welche diese GPU vermutlich ansonsten gut geeignet wäre.
w0mbat
2017-10-25, 11:16:24
HMB würde mMn vor allem bei einer sehr kleinen Karte Sinn machen. Ich stell mir so ein winziges Ding vor, das nicht wirklch länger als PCIe x16 ist. Also wie die Nano, nur für den Einsteigerbereich.
BoMbY
2017-10-25, 11:22:42
also. ich fass mal zusammen, woran die Lieferbarkeit hängen könnte.
1) nicht genügend Chips von GloFo+Samsung, weil GloFo mit Ryzen genug zu tun hätte. aber so hoch, wie die Ryzen-Ausbeute ist, sollte es dort kein Problem geben - selbst bei der Chipgröße der Vega10.
Also die GloFo Fab 8 hat derzeit eine Kapazität von bis zu 60.000 Wafern pro Monat, und der Ausbau auf etwa 72.000 Wafer pro Monat (https://www.anandtech.com/show/11117/globalfoundries-to-expand-capacities-build-a-fab-in-china) soll bis Anfang 2018 abgeschlossen sein.
BoMbY
2017-10-25, 11:26:37
HMB würde mMn vor allem bei einer sehr kleinen Karte Sinn machen. Ich stell mir so ein winziges Ding for, das nicht wirklch länger als PCIe x16 ist. Also wie die Nano, nur für den Einsteigerbereich.
AMD hat aber bereits genug SKUs/Chips für den Einsteigerbereich. Klar, kleine Karten sind nett, aber der Absatz nur durch die Größe dürfte eher gering sein. Was AMD IMHO braucht ist eine günstigere Karte zwischen Polaris 10 und Vega 10, also wie ich schon sagte etwa Richtung RX 590, in Hawaii-Dimensionen.
vinacis_vivids
2017-10-25, 12:29:10
Weil die SKUs die aus Vega 11 gebildet werden nicht im Hochpreissegment sind, und egal was ein HBM-Modul kostet, hätte man damit deutlich höhere Kosten durch Interposer und Packaging, und dadurch wird die Gewinnmarge für AMD deutlich geringer.
Auch wäre man vermutlich auf ein HBM-Modul beschränkt, was dann maximal 256 GB/s Speicherbandbreite erlauben würde (ich würde sagen, um etwas zu reißen brauchen die mind. 384 GB/s), und eine 4 GB Karte (auch mit HBCC) sieht auf der Marketingseite schlecht aus, und die 8 GB Module kosten vermutlich deutlich mehr.
Zusätzlich hätte man durch den Interposer eine deutlich höhere Bauweise, was das auch für kleinere mobile Geräte problematischer macht, für welche diese GPU vermutlich ansonsten gut geeignet wäre.
Wieso soll AMD das SI bei Vega 11 verändern wenn es einfach übernommen werden kann von Vega 10?
Auch die Preise für GDDR5 8GB und HBM² 4GB dürften nicht mehr so krass auseinanderliegen.
Bandbreite: 384GB/s ist zuviel für die Mittelklasse. Vega56 hat gerade mal 410GB/s. Vega11 hat die hälfte der CUs von Vega10 und daher auch die Wahrscheinlich Hälfte der Bandbreite, max. 240-256GB/s
Platzersparnis für mobile Geräte kommt ja gerade mit dem Packaging. Das was AMD immer beworben hat, kommt gerade hier besonders zum Vorschein (flächenmäßig). Die Bauhöhe ist unkritisch zu sehen und man wird im Laufe der Zeit besser. Vega11 ist ja fürs Desktop vorgesehen.
Der HBCC profitiert wohl hauptsächlich vom breiten SI, Stichwort parallele Zugriffe. Mit nen schmalen SI würde AMD sich selber ins Fleisch schneiden.
Für 8GB GDDR5 spricht nur, wenn es wirklich viel viel billiger ist. Schaut man sich die aktuellen Modelle an (RX570/580 oder GTX1070/1080), sieht es nicht danach aus.
BoMbY
2017-10-25, 13:08:26
Nein, die Bauhöhe ist nicht unkritisch für Mobile. Die aktuellen Interposer-Lösungen sind viel zu fett für Ultrathin-Geräte:
https://i.imgur.com/ZiHSl9f.png
Hasenpfote
2017-10-25, 13:24:02
Auch die Preise für GDDR5 8GB und HBM² 4GB dürften nicht mehr so krass auseinanderliegen.ALso im Sommer war HBM2 noch 3mal so teuer wie GDDR5.
http://www.gamestar.de/artikel/amd-radeon-rx-vega-hohe-preise-und-lieferprobleme-auch-wegen-hbm2,3318933.html
D.h. bei 4GB vs 8GB ist HBM 1,5mal teurer.
Dazu kommen noch die Kosten für den Interposer und das Packaging.
Abziehen kannst Du Kosten für eingesparte Kühlung, da HBM weniger Wärme erzeugt.
Für 8GB GDDR5 spricht nur, wenn es wirklich viel viel billiger ist. Schaut man sich die aktuellen Modelle an (RX570/580 oder GTX1070/1080), sieht es nicht danach aus.War das jetzt ernst gemeint? Die aktuellen Preise haben andere Hintergründe als die Fertigungskosten von AMD! Die RX 580 8GB soll eigentlich 229$ kosten!
http://www.tomshardware.com/news/amd-rx-580-rx-570-gpu-polaris,34168.html
G3cko
2017-10-25, 13:55:41
Wäre Vega 11 und 1x HBM Stack und Zen bereits umsetzbar für AMD?
Man könnte so schon einmal die infinity fabric ausprobieren. Ohne gleich das Risiko mit navi zu haben. Mit navi wird dann die GPU in kleine Stücke gehackt.
HBCC hat man schon und bis dahin ausgereifter. An das SI von Zen kommt dann der normale RAM. Fertig ist das High end Notebook.
vinacis_vivids
2017-10-25, 17:22:22
ALso im Sommer war HBM2 noch 3mal so teuer wie GDDR5.
http://www.gamestar.de/artikel/amd-radeon-rx-vega-hohe-preise-und-lieferprobleme-auch-wegen-hbm2,3318933.html
D.h. bei 4GB vs 8GB ist HBM 1,5mal teurer.
Dazu kommen noch die Kosten für den Interposer und das Packaging.
Abziehen kannst Du Kosten für eingesparte Kühlung, da HBM weniger Wärme erzeugt.
War das jetzt ernst gemeint? Die aktuellen Preise haben andere Hintergründe als die Fertigungskosten von AMD! Die RX 580 8GB soll eigentlich 229$ kosten!
http://www.tomshardware.com/news/amd-rx-580-rx-570-gpu-polaris,34168.html
Wir stochern schon wieder im Nebel. Die reale Kostenrechnung kenne wir aktuell! nicht genau. Mit Interposer und packaging ist das PCB wesentlich einfacher, kleiner und billiger. Vega11 ist wesentlich kleiner als Vega10.
Bin mir sicher, dass AMD schon Prototypen 4GB HBM2 vs 8GB GDDR5 genau getestet hat und zur einer Entscheidung gekommen ist. HBCC spricht eindeutig pro HBM2. Wer 8GB GDDR5 haben will, greift zu P20.
Hasenpfote
2017-10-25, 17:41:40
Wir stochern schon wieder im Nebel. Die reale Kostenrechnung kenne wir aktuell! nicht genau. Mit Interposer und packaging ist das PCB wesentlich einfacher, kleiner und billiger. Vega11 ist wesentlich kleiner als Vega10.Ich habe mit der Stocherei nicht angefangen! Wenn Interposer + Packaging X$ kostet und kleineres PCB Y$ spart, muss Y größergleich X sein, um mit GDDR5 mithalten zu können. Das bezweifel ich ein bisschen.
Der_Korken
2017-10-25, 17:48:36
HBCC spricht eindeutig pro HBM2. Wer 8GB GDDR5 haben will, greift zu P20.
Ist der HBCC nicht auch mit normalem GDDR kombinierbar? Mit sechs Speicherchips GDDR6 könnte man 6GB VRAM mit 288GB/s (12Gbps) realisieren. Sofern GDDR6 überhaupt in ausreichender Stückzahl verfügbar sein wird. Wäre einem HBM-Stack mit 4GB und 240GB/s (945Mhz) vorzuziehen, denn zwei Stacks dürften für so eine kleine GPU preislich ein GAU sein.
Loeschzwerg
2017-10-25, 17:49:58
Wenn Interposer + Packaging X$ kostet und kleineres PCB Y$ spart, muss Y größergleich X sein, um mit GDDR5 mithalten zu können. Das bezweifel ich ein bisschen.
Fertigungskapazitäten (Assembly) und Auftragsvolumen sind auch wichtige Faktoren.
Ist der HBCC nicht auch mit normalem GDDR kombinierbar?
Theoretisch ja, ist eine der Kernfunktionen des Controllers :) Du kannst Verbindungen zu sämtlichen Speichersystemen herstellen.
BoMbY
2017-10-25, 18:08:26
Ja, die Art des Speichers ist prinzipiell egal, der HBCC und Speichercontroller sind separate Bestandteile und per Infinity Fabric verbunden.
Zu den Preisen gibt es immer noch das hier als Vergleich:
https://i.imgur.com/llv4yWZ.png
Und dazu muss man auch sagen, dass bei GDDR die Speicherkosten nicht AMD trägt (bzw. dafür in Vorleistung geht), sondern der AIB-Partner. Das heißt für AMD wäre das ein Unterschied von mehr als $50-$100 pro Stück.
Vega 11 wäre deutlich besser mit GDDR6 und/oder 384 Bit Speichercontroller bedient. Wenn man sogar einen GDDR5/GDDR6 Controller hätte, könnte man da mindestens X Gamer SKUs draus bauen (z.B. 36, 40 oder 44 CUs wie Hawaii nur mit fast 2 GHz wegen 12LP, und beim Speicher alles zwischen 4GB mit 256 GB/s bis 24 GB mit 768 GB/s), damit hätte man problemlos neue RX 670, RX 680 und RX 690, und könnte die jeweils auch in allen anderen Sparten verkaufen, wo Hawaii auch überall vertreten war, und zum Teil noch ist.
N0Thing
2017-10-25, 18:17:04
Und dazu muss man auch sagen, dass bei GDDR die Speicherkosten nicht AMD trägt (bzw. dafür in Vorleistung geht), sondern der AIB-Partner. Das heißt für AMD wäre das ein Unterschied von mehr als $50-$100 pro Stück.
Verkaufen AMD und Nvidia nicht GPU und Speicher im Paket an die Partner?
BoMbY
2017-10-25, 18:30:54
Möglich wäre es, aber es würde eigentlich überhaupt keinen Sinn machen. Das wäre ein hohes Risiko (http://www.dramexchange.com/) ohne echten Mehrwert.
danarcho
2017-10-25, 18:33:23
Wäre Vega 11 und 1x HBM Stack und Zen bereits umsetzbar für AMD?
Man könnte so schon einmal die infinity fabric ausprobieren. Ohne gleich das Risiko mit navi zu haben. Mit navi wird dann die GPU in kleine Stücke gehackt.
HBCC hat man schon und bis dahin ausgereifter. An das SI von Zen kommt dann der normale RAM. Fertig ist das High end Notebook.
Da würde ich ein großes Fragezeichen dranmachen. Ganz ähnlich ist hier im Forum ja auch die Frage nach einer fetten HBM-APU gestellt worden.
Völlig unabhängig von Preis und Performance, ist das aus meiner Sicht keine logische Entwicklung:
1. Seit Kaveri sind bei AMD CPU und GPU cache-coherent und können global gegenseitig in den Speicher schreiben (shared virtual memory bei OpenCL).
2. Seit HSA geht die Entwicklung ganz klar zu einem flat address space.
Beides bedeutet, dass CPU und GPU über einen Bus (lies infinity fabric) miteinander und mit dem Hauptspeicher (HBM+RAM?) verbunden sein müssen. Wenn du beides hast, bist du wieder bei einer schlecht programmierbaren NUMA-Architektur. Problem dabei: du weißt vorher praktisch nie, ob es sicht lohnt, die Daten vom RAM ins HBM zu kopieren, da die Latenzen fast gleich sind und nur die Speicherbandbreite wirklich unterschiedlich. Dürfen CPU Daten auch im HBM residieren? Wann werden sie evicted? Soll das transparent sein für den Programmierer oder gibts Kontrolle darüber?
Würde man auf der anderen Seite den HBM als cache verwenden, passt das meiner Meinung nach aus dem gleichen Grund ebenfalls nicht (fast gleiche Latenzen), sonst hätte man das vermutlich auch schon lange gemacht.
Das einzig sinnvolle (meiner Meinung nach) wären also 8-16GB HBM und keinen (oder sehr langsamen, dafür großen) RAM oder keinen HBM wie gehabt (vielleicht dafür mit quad channel).
unl34shed
2017-10-25, 21:16:56
Das Konstrukt (APU mit HBM) macht schon Sinn, denn die Latenz mag ähnlich sein, Bandbreite aber nicht.
Und auch mit coherentem Speicher braucht die GPU einen VRAM und hierfür 2-4GB HBM mit an Board zu haben dürfte die Leistung der GPU in neue höhen katapultieren.
Als Beispiel sei hier die 7750 genannt, gab es sowohl mit DDR3 als auch GDDR5. AFAIK waren da >50% durch den Speicher rauszuholen und das bei einer 512SP GPU, kommende APUs werden mehr haben.
danarcho
2017-10-25, 21:37:28
Das Konstrukt (APU mit HBM) macht schon Sinn, denn die Latenz mag ähnlich sein, Bandbreite aber nicht.
Und auch mit coherentem Speicher braucht die GPU einen VRAM
Keinen dedizierten.
Schau dir bitte kurz diese Diagramme (https://en.wikipedia.org/wiki/Heterogeneous_System_Architecture#Block_diagrams) an.
Links ist die klassische diskrete GPU, daneben neuere GPUs mit unified memory.
Rechts hast du erst die klassische APU, so wie alles vor Kaveri und Intel (wobei Intel mittlerweile auch pointer passing beherrscht, also so eine Mischung).
Und ganz rechts sind APUs seit Kaveri. Du willst im Grunde wieder zurück und ich denke, das wird nicht passieren.
unl34shed
2017-10-25, 21:48:53
Nein, aber die GPU braucht auch in einem Heterogenen System einen Speicherbereich um Zwischenergebnisse zu speichern, etc.
Ja, Texturen, Modelle usw. muss man nicht doppelt im Speicherbereich behalten, wobei das die APUs auch noch nicht können. Übrigens kann man bei Kaveri im BIOS den VRAM definieren, der vom System reserviert wird.
Brillus
2017-10-25, 21:50:53
Keinen dedizierten.
Schau dir bitte kurz diese Diagramme (https://en.wikipedia.org/wiki/Heterogeneous_System_Architecture#Block_diagrams) an.
Links ist die klassische diskrete GPU, daneben neuere GPUs mit unified memory.
Rechts hast du erst die klassische APU, so wie alles vor Kaveri und Intel (wobei Intel mittlerweile auch pointer passing beherrscht, also so eine Mischung).
Und ganz rechts sind APUs seit Kaveri. Du willst im Grunde wieder zurück und ich denke, das wird nicht passieren.
Sehe ich jetzt nicht so kritisch, verschiedene Speicher interfaces bekommt man auch transperent für die Anwendungen hin, schlussendlich muss der Treiber nur wissen in welchen Bereich des physikalischen Speichers er die Buffer der Grafikkarte rein mappen muss.
Grendizer
2017-10-25, 21:59:45
Wir stochern schon wieder im Nebel. Die reale Kostenrechnung kenne wir aktuell! nicht genau. Mit Interposer und packaging ist das PCB wesentlich einfacher, kleiner und billiger. Vega11 ist wesentlich kleiner als Vega10.
Bin mir sicher, dass AMD schon Prototypen 4GB HBM2 vs 8GB GDDR5 genau getestet hat und zur einer Entscheidung gekommen ist. HBCC spricht eindeutig pro HBM2. Wer 8GB GDDR5 haben will, greift zu P20.
https://www.heise.de/newsticker/meldung/AMD-macht-mehr-Umsatz-und-wieder-Gewinn-Aktienkurs-faellt-trotzdem-deutlich-3870903.html
An den Börsen sorgt man sich derweil um die Profitabilität von AMD, erklärt die Finanznachrichtenagentur Bloomberg. So liegt das Bruttoergebnis von AMD (Anteil des Umsatzes ohne Herstellungskosten am Gesamtumsatz) lediglich bei 35 Prozent, während Intel hier auf 60 Prozent kommt und Nvidia auf 58 Prozent.
danarcho
2017-10-25, 22:01:23
Das Problem ist, dass ihr nur an Grafikanwendungen denkt, AMD aber nicht.
Und nur für Gamer wird AMD wohl kaum eine APU auflegen.
Wo soll denn bitte der Vorteil gegenüber einer diskreten GPU sein, wenn eh beide ihren eigenen Speicher mitbringen? Gegenseitiger Zugriff auf die Speicherbereiche geht auch mit Vega schon ganz ohne APU. Wollt ihr wirklich eine Radeon560 mit HBM neben die CPU kleben?
Schnitzl
2017-10-25, 22:14:56
https://www.heise.de/newsticker/meldung/AMD-macht-mehr-Umsatz-und-wieder-Gewinn-Aktienkurs-faellt-trotzdem-deutlich-3870903.html
An den Börsen sorgt man sich derweil um die Profitabilität von AMD, erklärt die Finanznachrichtenagentur Bloomberg. So liegt das Bruttoergebnis von AMD (Anteil des Umsatzes ohne Herstellungskosten am Gesamtumsatz) lediglich bei 35 Prozent, während Intel hier auf 60 Prozent kommt und Nvidia auf 58 Prozent.
Aha. Wenn AMD mehr Umsatz macht und Gewinn, dann "sorgt" sich die Börse...
:facepalm:
Grendizer
2017-10-25, 22:18:55
Aha. Wenn AMD mehr Umsatz macht und Gewinn, dann "sorgt" sich die Börse...
:facepalm:
-13,47%
https://www.google.de/search?q=amd+aktienkurs&rlz=1C1CHBF_deDE766DE766&oq=amd+aktienkurs&aqs=chrome.0.0j69i60j0l3.4197j0j7&sourceid=chrome&ie=UTF-8
Augenscheinlich sorgt sie sich
Schnitzl
2017-10-25, 22:28:55
und jetzt?
Was willst du damit sagen? Willst du suggerieren dass AMD -13% Gewinn macht oder was?
Blediator16
2017-10-25, 22:33:13
-13,47%
https://www.google.de/search?q=amd+aktienkurs&rlz=1C1CHBF_deDE766DE766&oq=amd+aktienkurs&aqs=chrome.0.0j69i60j0l3.4197j0j7&sourceid=chrome&ie=UTF-8
Augenscheinlich sorgt sie sich
Das gehört hier echt nicht rein und ist komplett am Thema vorbei.
w0mbat
2017-10-25, 22:59:35
-13,47%
https://www.google.de/search?q=amd+aktienkurs&rlz=1C1CHBF_deDE766DE766&oq=amd+aktienkurs&aqs=chrome.0.0j69i60j0l3.4197j0j7&sourceid=chrome&ie=UTF-8
Augenscheinlich sorgt sie sich
Nein, das sind Gewinnmitnahmen. Schreibt nicht über Dinge von denen du nichts weißt.
Möglich wäre es, aber es würde eigentlich überhaupt keinen Sinn machen. Das wäre ein hohes Risiko (http://www.dramexchange.com/) ohne echten Mehrwert.
Vor schon längerer Zeit hatte Ailluros (glaube zumindest das er es war, jedenfalls jemand mit Ahnung) gesagt, dass beide IHVs definitiv ausschließlich GPU und RAM als Paket weitergeben.
Hübie
2017-10-26, 10:45:59
NV auf jeden Fall. AMD bestimmt auch.
Iruwen
2017-10-26, 15:09:22
Nein, das sind Gewinnmitnahmen. Schreibt nicht über Dinge von denen du nichts weißt.
Buy the rumor, sell the news.
Tarkin
2017-11-02, 08:28:01
https://twitter.com/jkampman_tr/status/925709870803845121
"More on this tomorrow but RX Vega performance has improved markedly since launch. Glad to see these cards getting continued polish."
von Jeff Kampman (http://techreport.com/)
ev. gibts heute (02.11.) eine Vorschau auf den neuen Crimson? Spätestens im Dezember wärs ja wieder an der Zeit und jetzt wäre auch der perfekte Zeitpunkt für eine kleine 1070ti "Störaktion"
Happo
2017-11-05, 12:32:13
Hallo zusammen,
ich könnte mal eine Einschätzung brauchen was ihr denkt, kommen in der nächsten Zeit (dieses Jahr) noch Coustom Vegas und wenn ja wird es kürzere geben als die Referenz?
Oder gibt es vielleicht sogar schon angekündigte Coustoms die kürzer werden?
Der Hintergrund ist Folgender: Ich würde mir gern mal wieder eine neue Grafikkarte zulegen (kein Nvidia, habe abgesehen davon auch einen WQHD Freesync Monitor --> AMD). Allerdings passt von der Grafikkartenlänge her mehr als 27cm (+ein paar Miilimeter) nicht in meinen Tower, die Vega Referenz fällt somit raus.
Ich habe auch schon mit dem Gedanken gespielt mir eine Frontier zu holen, da ich die Grafikkarte 3+ Jahre nutzen werde finde ich die 16GB ganz nett :freak: .
Grüße
Happo
Chaser187
2017-11-05, 12:38:22
XFX hat eine angekündigt die kürzer ist, kommt aber auch nicht vor Dezember.
Meiner Meinung nach kommen sogar garkeine Customs mehr sondern AMD versucht bis zur nächsten Version durchzuhalten, die kommt dann erst im April.
Was fuer eine naechste Version?
MadPenguin
2017-11-05, 13:01:47
12nmLP ?
Vega 10 in 12nm im April? Habe ich was verpasst? Quelle?
w0mbat
2017-11-05, 13:22:29
Naja, verpasst nicht wirklich. GloFo hat ja 12nm LP angekündigt und dabei wurde gesagt, dass der neue Prozess schon 2018 für Ryzen und Radeon Produkte zum Einsatz kommt. Daher die Speku, dass wir einen Vega 10 refresh in 12nm LP sehen werden. Kann natürlich auch Vega 11, 20 oder was ganz anderes sein.
TGKlaus
2017-11-05, 13:26:49
Also ich glaube nicht mehr daran, das wirklich noch eine VEGA 11 Karte kommt.
Mortalvision
2017-11-05, 13:27:49
Wieso? Als Ersatz für die RX580/570 bestimmt brauchbar
TGKlaus
2017-11-05, 13:30:02
In der Herstellung aber deutlich teurer.
w0mbat
2017-11-05, 13:30:31
Also es wird bestimmt irgendwann einen Polaris 20 Nachfolger auf Vega Basis geben. Und da Polaris 20 nur ein umbenannter Polaris 10 ist, den es schon seit 1 1/2 Jahren gibt, wird es langsam Zeit.
Auf 12nm LP und mit GDDR5(X) bestimmt nicht teurer.
TGKlaus
2017-11-05, 13:33:31
Und da Polaris 20 nur ein umbenannter Polaris 10 ist, den es schon seit 1 1/2 Jahren gibt, wird es langsam Zeit.
Da will ich ja überhaupt nicht widersprechen. Allein der Glaube daran fehlt mir.
w0mbat
2017-11-05, 13:40:36
Denkst du AMD gibt den GPU Bereich auf?
Der_Korken
2017-11-05, 14:02:01
Vielleicht wird V10 auch durch V20 in 12nm ersetzt. AMD wird wohl selber bemerkt haben, dass V10 immer noch stark hinter Pascal hinterherhinkt, was Perf/W und jetzt auch Perf/mm² angeht. Der ganze Launch mit dem anhaltenden Schweigen, dem Release einer Beta-Frontier-Edition in der letzten Minute von Q2, das Ausbleiben von Customs wegen nicht ausgelieferter Chips, der zu Beginn nicht aktive DSBR, die immer noch fehlenden Features (Primitive Shader) ... für mich wirkt es so, als wäre Vega schlicht und ergreifend nicht fertig und man hat mehr oder weniger einen Prototypen gelauncht, damit man überhaupt was zu releasen hat.
Wenn V20 architektonisch deutlich weiter ist, will AMD den alten Chip vielleicht schnell loswerden und durch V20 ersetzen. Die Spekulationen gingen ja bisher von 64 CUs für V20 aus, dazu noch 1:2 DP. Ein solcher Chip macht neben V10 irgendwie wenig Sinn, vor allem da DP bei GCN relativ billig ist (vergleiche Hawaii vs Tahiti und Tonga). Da kann man auch gleich bei einem Chip bleiben.
Schaffe89
2017-11-05, 14:03:45
Wieso? Als Ersatz für die RX580/570 bestimmt brauchbar
Wäre völlig unbrauchbar, weil die Karte nicht mal schneller wäre, wenn man mal grob überschlägt.
AMD hat wohl mit deutlichen Steigerungen pro Takt gerechnet, einem breiten Support von Low Level APIs und selbst dann hätte es wohl kaum gereicht um Polaris zu schlagen.
Aktuell hat AMD im GPU nix zu bieten und sollte Volta wirklich schon im Frühjahr kommen, dann hat AMD riesige Probleme, weil dann automatisch alle Karten wertlos sind wenn nvidia nochmal 40% mehr Performance oben drauflegt.
Vega 10 gegen GV106, das wäre albern.
maximus_hertus
2017-11-05, 14:22:17
40% plus bei Votla? Sehr, sehr, sportlich.
Aber selbst damit wird es für nV schwer. Die zu starke 1080 Ti ist zu weit weg. Rund 45-50% liegen die Custom 1080-Tis vor der 1080 FE. Eine 2080 FE, die die 1080FE um 40% schlägt, wäre nicht der neue King. nVs "Taktik" besteht ja darauf, dass der 4er Chip das Vorgängerflagschiff schlägt. Der "kleine" Fertigungsvorteil von Volta wird wohl nicht reichen.
Zurück zu Vega. Für AMD geht es wohl nur darum, möglichst "heil" raus zu kommen. Sprich auf der einen Seite will man natürlich viel verkaufen (Marktanteile) auf der anderen Seite möchte man nichts verkaufen (Verluste begrenzen).
Immerhin: So lange nV nicht bis kaum liefern kann (1080 Ti) ist es nur halb so schlimm.
Happo
2017-11-05, 14:52:42
@Chaser187 vielen Dank für die Info und deine Einschätzung.
Wie sehen das denn andere hier, denkt ihr dass die Coustoms noch kommen und wenn ja wann?
MadPenguin
2017-11-05, 15:36:01
Bis auf einzelne Karten wie die XFX, glaube ich kaum, dass es viele Customs geben wird.
Und Volta kommt bestimmt nicht vor H2/2018. Darauf würde ich fast wetten. Warum sonst ne 1070Ti und die Collectors Edition auf den Markt bringen.
maximus_hertus
2017-11-05, 16:29:43
Ich würde auf (Ende) Mai tippen. Jedoch erstmal nur eine 2080 FE. Zur Computex dürfen die Hersteller ihre Cutoms zeigen und irgendwann im Juni/Juli ausliefern. Ca. 4-6 Wochen später kommt dann die 2070.
Passend zum Weihnachtsgeschäft dann die 2060.
Mir fällt noch die ASUS Strix als (sichere) Customkarte ein. Aber sonst eher nichts.
gas3t
2017-11-05, 16:37:17
Aktuell gibt es 3 Firmen, die etwas (bald) liefern werden:
Asus: https://www.computerbase.de/2017-08/asus-radeon-rx-vega-64-vorserie-test/
Gigabyte: https://www.computerbase.de/2017-10/gigabyte-radeon-rx-vega-64-gaming-oc-8g-bild/
XFX: https://videocardz.com/73842/xfx-teases-custom-radeon-rx-vega
BTW
Alternate hat derzeit keine VEGA 56 gelistet: https://www.alternate.de/Grafikkarten/PCIe-Karten-AMD/Radeon-RX
Mindfactory hat nur je eine VEGA 56/64 geführt: https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+VEGA.html
Mortalvision
2017-11-05, 21:43:01
Ich tippe auf minimale customs oder gar keine. Wieso sollten die für ein verbuggtes Design ihren guten Namen beim Kunden riskieren???
unl34shed
2017-11-06, 06:02:22
Welche Bugs?
uweskw
2017-11-06, 09:10:48
Ist doch klar: wenn AMD sich wirtschaftlich vernünftig verhält, werden Sie die Chips erstmal dazu verwenden kräftig zu farmen. Soviel können die mit dem Verkauf gar nicht verdienen.
Greezt
US
Mortalvision
2017-11-06, 09:46:01
Bugs? Es ist keine schlechte Karte, aber die Rohleistung kommt nicht auf die Straße. Fast alle Reviews betonen doch, dass irgendwas nicht stimmt.
Schlammsau
2017-11-06, 10:23:09
Nur unter LL schaffen sie es auf die Straße zu bringen.
Der_Korken
2017-11-06, 10:29:13
Bugs? Es ist keine schlechte Karte, aber die Rohleistung kommt nicht auf die Straße. Fast alle Reviews betonen doch, dass irgendwas nicht stimmt.
Die Frage ist doch, warum die Leistung nicht auf die Straße kommt. Rechenleistung ist reichlich vorhanden, die Speicherbandbreite ist nach bisherigen Tests auch nicht zu klein (zumindest steigt die Leistung kaum an bei zusätzlicher Bandbreite), Tesselation ist seit Polaris eigentlich auch kein großes Problem mehr und auch CPU-seitige Limits scheinen bei Vega gelöst zu sein, da man im CPU-Limit bei einigen Spielen sogar die Nvidia-Karten abgehängt hat. Bliebe eventuell noch der Rasterizer, obwohl dieser eigentlich komplett neu ist. Für mich wirkt es so, als wären im Chipdesign selbst irgendwo Flaschenhälse vorhanden, die man vielleicht unterschätzt hat und jetzt dafür sorgen, dass die Leistung irgendwo verpufft. Deswegen meine Spekulation, dass V20 ein "V10 done right" in 12nm sein könnte und AMD deswegen den alten Chip so schnell wie möglich begraben möchte.
BoMbY
2017-11-06, 10:47:31
Das Grundproblem ist immer noch, dass die für DX11 kein richtiges Multithreading eingebaut haben. Die nutzen immer noch einen einzelnen Thread und vermutlich nur seriellen Command Processor. Es gäbe aber Wege wie man das umgehen könnte, wie DX12 und Vulkan beweisen - die müssten im Prinzip "nur" den Command Processor durch ein Stück Software mit ordentlichem Multithreading ersetzen.
Dino-Fossil
2017-11-06, 11:02:55
Ich sehe da auch nach wie vor Dinge wie den DSBR und die erheblich bessere spezifische Treiberoptimierung (nicht so sehr das angebliche CPU-Limit) seitens nVidia für DX11 als wichtigen Grund, warum es so ein Effizienzgefälle (Rohleistung zu Spieleleistung) zu geben scheint.
Der DSBR sollte ja, wenn er denn richtig funktioniert, dafür sorgen, dass eine bestimmte Rohleistung in mehr Performance resultiert. Angeblich war eine vergleichbare Sache das ja auch verantwortlich für den große Sprung mit Maxwell.
Allerdings sehen wir bei Vega fast keinen Effekt, weswegen ich aktuell davon ausgehe, das entweder die Implementierung (sei es in Soft- oder Hardware) schlecht ist, oder ein grundlegender Defekt vorliegt.
Die (DX11-)Treiberarbeit kann und will AMD aktuell wohl nicht noch weiter verbessern, könnte ein personelles Problem sein, oder sie haben DX11 sowieso einfach aufgegeben.
Vulkan/DX12 läuft ja oft recht gut, allerdings ist man da wiederum auch vom Entwickler abhängig, weswegen ich befürchte, dass nVidia da langfristig auch aufholen wird, da sie vermutlich einfach mehr Personal als Unterstützung für Entwickler zur Verfügung stellen können.
Ich tippe auf minimale customs oder gar keine. Wieso sollten die für ein verbuggtes Design ihren guten Namen beim Kunden riskieren???
Quatsch Bugs, die warten auf die 12nm-Varianten. Ich denke, dass AMD V10 in 14nm nur in kleineren Kontingenten auf den Markt wirft. Deshalb gibts immer Schubweise Referenzdesigns, im Moment sind ja wieder bei MF Karten für 399 und 499€ vorhanden. Die Custom-Hersteller bekommen einfach keine Chips, das Lieferproblem wird sich mMn erst mit 12nm entspannen und bei 7nm lösen (Navi 10).
Dino-Fossil das Problem liegt im Frontend, nicht im DSBR, der funktioniert mAn wie er soll. Aber es bleibt das GCN-Problem, dass das Frontend das Backend nicht gut genug füttern kann und nicht effizient genug überflüssige Geometrie entfernt werden kann, das hat NV seit der Maxwell-Architektur erheblich besser im Griff. Hinzu kommt, dass sich die SMs weiterhin höher takten lassen als die CUs.
Mit den Primitive-Shadern kann man zumindest zweiteres Problem lösen, vielleicht auch die Auslastungsproblematik verbessern. Takt/Verbrauch kann erst Navi lösen und 12nm vllt. etwas entspannen. Ein V10 in 12nm wird auch nur noch 420mm² groß sein mMn.
Unicous
2017-11-06, 15:09:01
Vega?+HBM+Intel CPUauf einem Package. (edit: "a new semi-custom graphics chip")
gaHs_guCp2o
https://newsroom.intel.com/editorials/new-intel-core-processor-combine-high-performance-cpu-discrete-graphics-sleek-thin-devices/
Bin mal gespannt, ob das einfach ein stark kastrierter V11 ist oder ob Intel da wirklich eigene Spezifikationen wollte, also einen echten Custom-Vega/Polaris.
BoMbY
2017-11-06, 15:46:01
Nein, nicht Vega. Es ist zu 99% Polaris basiert (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=584727).
Unicous
2017-11-06, 15:56:54
99%.:eek:
Hört, hört. Allein schon wegen einer Ziffern- und Buchstabenfolge darauf zu schließen sollte alle Zweifel ausschließen. Ich würde daher auf 115% hochgehen.:uup:
Dino-Fossil
2017-11-06, 16:05:22
Dino-Fossil das Problem liegt im Frontend, nicht im DSBR, der funktioniert mAn wie er soll. Aber es bleibt das GCN-Problem, dass das Frontend das Backend nicht gut genug füttern kann und nicht effizient genug überflüssige Geometrie entfernt werden kann, das hat NV seit der Maxwell-Architektur erheblich besser im Griff.
Ist das nicht genau, was der DSBR lösen soll? Überflüssige Geometrie entfernen helfen?
bbott
2017-11-06, 16:27:01
Jetzt wo AMD mit Ryzen einen Konkurrenz fähigen CPU teil hat, nutzt man nicht den Vorteil (sehr) gute CPU + GPU aus einer Hand zu liefern?!
Auch Intel wird damit nur den Highend-Bereich abdecken (Stichwort Iris Pro). Jetzt könnte AMD sein Image deutlich aufpolieren mit der "besten" CPU und GPU (APU ist ja out) Leistung im (Sub-)Notebookbereich.
w0mbat
2017-11-06, 16:41:59
Das Teil wird nicht mit Rave Ridge konkurrieren. RR ist ein die mit CPU+GPU, das neue Intel/AMD Teil ist ein MCM mit einer sehr großen diskreten GPU+HMB2. Das sollte eine MX 150 locker schlagen.
Ich bin mir auch ziemlich sicher, dass es hier vor allem um Apple geht und es sonst wenige Abnehmer geben wird. Aber das wird sich zeigen.
=Floi=
2017-11-06, 16:54:02
Ist doch klar: wenn AMD sich wirtschaftlich vernünftig verhält, werden Sie die Chips erstmal dazu verwenden kräftig zu farmen. Soviel können die mit dem Verkauf gar nicht verdienen.
Greezt
US
:facepalm:
bbott
2017-11-06, 18:42:16
Das Teil wird nicht mit Rave Ridge konkurrieren. RR ist ein die mit CPU+GPU, das neue Intel/AMD Teil ist ein MCM mit einer sehr großen diskreten GPU+HMB2. Das sollte eine MX 150 locker schlagen.
Ich bin mir auch ziemlich sicher, dass es hier vor allem um Apple geht und es sonst wenige Abnehmer geben wird. Aber das wird sich zeigen.
Das Teil hat auch eine (deutlich) höhere TDP als 15W. Ein RR mit mehr als 15W, sollte auch eine MX 150 locker schlagen :-) Auch eine RR könnte man mit HMB2 kombinieren, wobei dann RR mehr CUs vertragen könnte.
Oder AMD könnte Ryzen + Vega11 und HMB ebenfalls auf einen Träger bringen. Der Sinn warum gerade jetzt Intel unter die Arme greift verstehe ich nicht?!
G3cko
2017-11-07, 11:51:24
Warum jetzt?
Jetzt hat vor 2 Jahren begonnen als man die RTG gegründet hat. Das ist nun ein erstes Ergebniss und wie ich finde ein Erfolg.
Intel bedient mit der Lösung einen Markt in dem AMD ohnehin lange nichts mehr zu melden hat. Für beide (Intel und AMD) ist nvidia die größere Bedrohung.
Die RTG hätte schon immer eigenständig bleiben sollen. So hat man nun zwei Bereiche die sich wieder hochkämpfen müssen.
BoMbY
2017-11-07, 18:08:02
Auch wenn ich mich wiederhole, aber Vega 11 wird IMHO ziemlich sicher kein kleiner Die, so wie das 24 CU Ding was auf Intel's Kaby Lake G kommt.
Hier übrigens ein entsprechender Hinweis von AMD darauf:
https://i.imgur.com/VRXZ9Bvh.png
Wie man sieht wird Polaris für den Mainstream bis 2018 bleiben, und Vega ist "Premium and Professional" vorbehalten, von der CU-Anzahl würde ich wie gesagt eher die Mitte zwischen Polaris 10 und Vega 10 anpeilen, also eher 44 CUs wie Hawaii.
grauenvoll
2017-11-08, 07:45:31
Nachdem Raja Koduri verkündet hatte sich eine Auszeit zu gönnen, hatte ich schon vermutet dass da mehr dahinter stehen könnte. Nun scheint es sich zu bestätigen. Gerüchten zur Folge soll er zu Intel wechseln.
https://wccftech.com/exclusive-raja-koduri-will-seeking-new-horizons-intel/
Nach dem mässigen Polaris-Start und dem Vega-Fiasko ist er kaum haltbar.
=Floi=
2017-11-08, 08:15:37
Der kennt doch zu viele internas. Das wird doch bestimmt geregelt sein, dass er da noch länger nicht arbeiten darf.
Jetzt kann es ja nur noch besser werden oder auch nicht^^.
BoMbY
2017-11-08, 09:37:24
Nachdem Raja Koduri verkündet hatte sich eine Auszeit zu gönnen, hatte ich schon vermutet dass da mehr dahinter stehen könnte. Nun scheint es sich zu bestätigen. Gerüchten zur Folge soll er zu Intel wechseln.
https://wccftech.com/exclusive-raja-koduri-will-seeking-new-horizons-intel/
Nach dem mässigen Polaris-Start und dem Vega-Fiasko ist er kaum haltbar.
1. Er hat gute Arbeit geleistet, unter den Umständen.
2. Die RTG hat sich unter ihm deutlich verbessert.
3. Ob es jemand anderes besser machen kann, dürfte bezweifelt werden.
4. Intel ist sehr unwahrscheinlich, am ehesten würde ich Tesla vermuten (Keller; bauen eigenen AI SoC; vermutlich AMD-Kooperation also keine direkte Konkurrenz)
Ich denke, der hat Ziele mit Vega vorgegeben, die nicht erreicht wurden. Garniert wurde das Ganze sicherlich zusätzlich durch einen Richtungsstreit zwischen Raja und Su, sodass das zur Beurlaubung und Kündigung letztendlich führte.
deekey777
2017-11-08, 11:04:45
1. Er hat gute Arbeit geleistet, unter den Umständen.
2. Die RTG hat sich unter ihm deutlich verbessert.
3. Ob es jemand anderes besser machen kann, dürfte bezweifelt werden.
4. Intel ist sehr unwahrscheinlich, am ehesten würde ich Tesla vermuten (Keller; bauen eigenen AI SoC; vermutlich AMD-Kooperation also keine direkte Konkurrenz)
Warum nicht Apple?
robbitop
2017-11-08, 11:28:05
Dino-Fossil das Problem liegt im Frontend, nicht im DSBR, der funktioniert mAn wie er soll. Aber es bleibt das GCN-Problem, dass das Frontend das Backend nicht gut genug füttern kann und nicht effizient genug überflüssige Geometrie entfernt werden kann, das hat NV seit der Maxwell-Architektur erheblich besser im Griff. Hinzu kommt, dass sich die SMs weiterhin höher takten lassen als die CUs.
Mit den Primitive-Shadern kann man zumindest zweiteres Problem lösen, vielleicht auch die Auslastungsproblematik verbessern. Takt/Verbrauch kann erst Navi lösen und 12nm vllt. etwas entspannen. Ein V10 in 12nm wird auch nur noch 420mm² groß sein mMn.
Wäre das Front-End ein Problem, würde es bei niedrigen Auflösungen (also einem höheren Geo/Arithmetik Verhältnis) bremsen. Das ist aber seit spätestens Polaris nicht mehr der Fall. Das Front End wurde massiv aufgebohrt. Die low-res Schwäche ist dort ausgemerzt worden - und damit auch die "high-res Stärke" (die eigentlich nur eine low res Schwäche war).
Bei GCN/VCN hängt es IMO eher daran, die Rohleistung auf die Straße zu bringen.
1. Bandbreiten Effizienz (DSBR+HSR/DCC) -> hier ist MXW/PSC noch besser -> ggf. kann man auch mehr verwerfen und spart somit sogar Rechenleistung?
2. Ausnutzung der Rohleistung der Ausführungseinheiten -> NV hat offenbar einen deutlich besseren Shadercompiler / Kontrolllogik (hat sicher auch z.T was mit den wavefront Größen zu tun) -> so wenig "verschnitt" wie möglich
3. AMDs Treiberteam -> es scheint langsam zu werden, dass man immer besser für neue Titel optimiert -> NV hat offenbar weit mehr Leute dafür.
Ist das nicht genau, was der DSBR lösen soll? Überflüssige Geometrie entfernen helfen?
Partiell bringt es dort etwas - aber nur eingeschränkt. Es ist ja kein voller TBDR. Vor allem das Sortieren übernimmt man. Der Rest ist nach wie vor ein IMR.
Vor allem erhöht DSBR direkt die Effizienz der Delta Color Compression. Hier gibt es eine sehr positive Wechselwirkung. Ggf. muss man mal die 2. Iteration der Implementation (Navi?) abwarten. NV ist bei Pascal auch nochmal ein Stück besser geworden als bei Maxwell.
grauenvoll
2017-11-08, 11:32:27
1. Er hat gute Arbeit geleistet, unter den Umständen.
2. Die RTG hat sich unter ihm deutlich verbessert.
3. Ob es jemand anderes besser machen kann, dürfte bezweifelt werden.
1. Er hat seine selbstgesteckten Ziele nachweislich nicht erreicht.
2. Die Ausgangsbasis war aber auch sehr niedrig.
3. Er ist bisher vor allem durch eine Reihe von Fehleinschätzungen aufgefallen, wie "Month ahead". Oder nicht eingelösten Vega-Performance-Versprechungen. Das sollten auch andere hinbekommen. ROCm ist sicher eines seiner gelungeneren Projekte.
Am Ende ist er meist hinter seinen selbst erzeugten Erwartungen zurückgeblieben. Jeder Launch war eher eine Ernüchterung als das er Begeisterung erzeugt hatte.
Raja hat sicher seine Qualitäten, aber als unersetzlich sehe ich ihn nicht. Zwischen Vision und Umsetzung klaffte bei ihm meist ein großes Gap.
robbitop
2017-11-08, 11:35:26
Ob das jetzt an ihm oder den Möglichkeiten lag, die ihm zur Verfügung standen?
Vega ist ja seit längerem eine neue mArch. Das ist sicherlich für die dünne Personaldecke der RTG eine sehr hohe Belastung (ggf. hat man sich überschätzt) gewesen, so dass da auch Dinge auf der Strecke bleiben.
So etwas hatte er ja auch mal angemerkt.
dargo
2017-11-08, 11:51:49
Oder nicht eingelösten Vega-Performance-Versprechungen.
Die wären? Zumal das "Problem" bei Vega nicht die Hardware ist. Im Prinzip trifft das auf die gesamte GCN-Reihe zu.
Dino-Fossil
2017-11-08, 11:52:49
Ob das jetzt an ihm oder den Möglichkeiten lag, die ihm zur Verfügung standen?
Sowohl als auch, denke ich. Sicherlich hätte er mit besseren Mitteln mehr reißen können, aber dann wiederum hätte er vielleicht erstmal kleinere Brötchen backen müssen.
Schwer zu sagen als Außenstehender...
grauenvoll
2017-11-08, 14:25:38
Die wären?
4K@60Hz. AMD hat zum Launch eigene Folie herausgegeben, aus denen klar hervorging, dass man dieses Ziel verfehlt hat.
https://ipon.hu/_userfiles/Image/joker/hirek/2017/0731/perf04.png
Im Mittel liegt man 10 FPS oder ca.20% darunter.
Zumal das "Problem" bei Vega nicht die Hardware ist.
Wo das Problem liegt kann zur Zeit niemand wirklich sagen. Ausserdem ist dem Kunden das völlig egal. Es zählt das Ergebnis.
dargo
2017-11-08, 14:28:36
:confused:
Die Quellen zum verfehlten Ziel hast du sicherlich auch?
Im Mittel liegt man 10 FPS oder ca.20% darunter.
Was für Mittel?
grauenvoll
2017-11-08, 14:31:33
Ob das jetzt an ihm oder den Möglichkeiten lag, die ihm zur Verfügung standen?
Vega ist ja seit längerem eine neue mArch. Das ist sicherlich für die dünne Personaldecke der RTG eine sehr hohe Belastung (ggf. hat man sich überschätzt) gewesen, so dass da auch Dinge auf der Strecke bleiben.
So etwas hatte er ja auch mal angemerkt.
Exakt. Er hat vor allem durch eine Reihe von Fehleinschätzungen geglänzt. Für eine Firma wie AMD ist das ein Problem. Was sagt man denn den Kunden? Sollen sie aus Mitleid ein unfertiges Produkt kaufen? Die erste Aufgabe eines Managers ist es seine Möglichkeiten realistisch einzuschätzen. Ryzen ist eine Erfolg weil es eine Punktlandung war. Das hat Raja nie hinbekommen. Er wollte immer zu viel und stand am Ende mit leeren Händen da.
Du schreibst einen Käse :freak:. Ryzen war keine Punktlandung sondern über das Ziel hinaus. Und es ist kein Problem die Werbetrommel ordentlich zu rühren. Ein Problem ist allerdings, wenn man intern andere Ziele vorgibt als man hinterher erreichen kann. Du als Kunde spielst bei dieser Überlegung einfach keine Rolle.
Mancko
2017-11-08, 15:24:39
Du schreibst einen Käse :freak:. Ryzen war keine Punktlandung sondern über das Ziel hinaus. Und es ist kein Problem die Werbetrommel ordentlich zu rühren. Ein Problem ist allerdings, wenn man intern andere Ziele vorgibt als man hinterher erreichen kann. Du als Kunde spielst bei dieser Überlegung einfach keine Rolle.
Doch wenn man so wie AMD bei Polaris und bei Vega überhypt und dann im Vergleich zur Konkurrenz so schlecht abliefert dann ist das definitiv ein Problem. Was gab es nicht alles für tolle Verlautbarungen von Roy Taylor und auch Raja Koduri wie weit man vor der Konkurrenz liegt. Nichts aber auch rein gar nichts davon hat man eingehalten. Im Gegenteil die Konkurrenz hat schon bei Polaris AMD komplett mit der Produktpalette zersiebt. Dann noch sinnlose Aussagen wie designed for mobile und blah. Die Konkurrenz hat vorgemacht wie man Produkte mit geringer Leistungsaufnahme, guter Performance und niedrigsten Herstellungskosten fabriziert und sie hat die Produkte nur so rausgehauen.
Mit Vega dann wieder genau das gleiche Spiel nur das man da auch noch 1 Jahr hinter der Konkurrenz an den Markt gekommen ist.
Fakt ist am Ende passte das verkaufte und präsentierte PR Bild Null, Null zu dem was abgeliefert wurde und lässt die Verantwortlichen einigermaßen lächerlich aussehen. Da wäre es besser gewesen kleinere Brötchen zu backen. Insofern ist das natürlich nur Folgerichtig das er gehen musste / selber geht. Es muss halt immer einer die Verantwortung übernehmen und bei der RTG lief es eben nun mal alles andere als gut.
prinz_valium
2017-11-08, 15:27:00
Wird hier die RTG Sparte wirklich immer noch verteidigt?
Stellt euch einfach mal vor es gäbe keinen Cryptocurrency Mining Hype und wo dann AMD dann mit seinen Grafikkarten stehen würde.
Complicated
2017-11-08, 16:35:14
Als ob AMD nur durch den Mining-Hype Umsatz macht. Hört man sich das Gejammer in den Foren an, dann weiss man dass genug Abnehmer vorhanden gewesen werden wenn die Miner nicht so zugeschlagen hätten.
AMD ist wohl das einzige Unternehmen, dass sich auch noch schlecht reden lässt wenn die Nachfrage die möglichen Produktionsmengen überschreitet. 30% Marktanteil sind das was AMD leisten konnte - das tun sie, denn mehr war nicht zu erwarten wenn man die gebuchten Produktionskapazitäten mit der CPU-Abteilung teilen muss. AMD könnte sicherlich mehr verkaufen, kann es lediglich nicht produzieren da auch sie nicht mit dem Mining-Boom rechnen konnten.
Wird hier die RTG Sparte wirklich immer noch verteidigt?
Stellt euch einfach mal vor es gäbe keinen Cryptocurrency Mining Hype und wo dann AMD dann mit seinen Grafikkarten stehen würde.
Für Polaris gibt es genug Nachfrage. Man stelle es sich, wo NVidia stehen würde, wenn es diese Grünen Fanboys nicht gäbe.
Schnoesel
2017-11-08, 17:28:36
Mich würde eher mal interessieren wie z.B. Die Profivarianten in Form der Radeon Instinct angenommen werden auch im Bezug auf Deep Learning. Da lässt sich Geld mit verdienen und dafür wurden die Karte imo auch konzipiert. Gibts da Zahlen, Tests , irgendwas?
BoMbY
2017-11-08, 17:49:39
Mich würde eher mal interessieren wie z.B. Die Profivarianten in Form der Radeon Instinct angenommen werden auch im Bezug auf Deep Learning. Da lässt sich Geld mit verdienen und dafür wurden die Karte imo auch konzipiert. Gibts da Zahlen, Tests , irgendwas?
Hier (http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzkyMDQzfENoaWxkSUQ9LTF8VHlwZT0z&t=1&cb=636445721123098779) gibt es irgendwas:
Lisa T. Su - Advanced Micro Devices, Inc. - President, CEO & Non-Independent Director
Yes. So the Radeon Instinct MI25 is Vega for the cloud data centers. We did actually start shipping volume in Q3 to multiple customers. We do see
very high interest in the product portfolio, and so we expect that to continue to ramp into Q4. And there's a lot of focus on increasing the software
usability and software flexibility, and so we continue to invest in those areas. But overall, I'm actually very pleased with the interest in MI25, and
it's coming from multiple customers in a number of markets.
BoMbY
2017-11-08, 21:46:34
Und hier in ein paar Tagen vielleicht noch mehr: http://subscriptions.amd.com/events/sc17/index.html?utm_campaign=sc17&utm_medium=redirect&utm_source=301&sf154719907=1
Piefkee
2017-11-08, 22:52:18
https://twitter.com/ryanshrout/status/928342985422471169
I just confirmed that Raja Koduri @Rajaontheedge will in fact be going to work at Intel.
M4xw0lf
2017-11-08, 22:55:18
Wie das mit Firmengeheimnissen und so zusammengeht, ist mir auch recht schleierhaft.
prinz_valium
2017-11-08, 22:56:10
Als ob AMD nur durch den Mining-Hype Umsatz macht. Hört man sich das Gejammer in den Foren an, dann weiss man dass genug Abnehmer vorhanden gewesen werden wenn die Miner nicht so zugeschlagen hätten.
AMD ist wohl das einzige Unternehmen, dass sich auch noch schlecht reden lässt wenn die Nachfrage die möglichen Produktionsmengen überschreitet. 30% Marktanteil sind das was AMD leisten konnte - das tun sie, denn mehr war nicht zu erwarten wenn man die gebuchten Produktionskapazitäten mit der CPU-Abteilung teilen muss. AMD könnte sicherlich mehr verkaufen, kann es lediglich nicht produzieren da auch sie nicht mit dem Mining-Boom rechnen konnten.
Du willst jetzt Ernsthaft die Miner und "Forenuser" Nachfrage vergleichen?;D
Jaja, die ganzen Forenuser...
Nein die hohe Nachfrage ist natürlich nicht schlecht, sondern gut für AMD.
Aber man sollte auch mal versuchen Kontext zu verstehen. Es geht darum was die AMD Karten technisch leisten können. Hier ist das Profil in den beiden Marktsegmenten völlig unterschiedlich. Das ist schließlich der Grund, warum der Chef der RTG gehen musste. Es wurde ja nicht versucht die beste Mining Karte zu entwickeln, weil man diesen aufstrebenden Markt unbedingt erschließen wollte.
Für Polaris gibt es genug Nachfrage. Man stelle es sich, wo NVidia stehen würde, wenn es diese Grünen Fanboys nicht gäbe.
Das letzte mal, dass AMD eine konkurrenzfähige Grafikkarte hatte war zur Radeon 5850/70 und GTX 470 / 480 Zeit. Man muss also kein Fanboy sein, sondern einfach nur das bessere Produkt wollen um bei denen Grünen zu laden.
Das Fanboy Gerede der AMD Fanboys wird aber langsam müßig hier.
Ryzen hat bewiesen, dass Kunden absolut kein problem damit haben ein AMD Produkt zu kaufen, wenn es gut ist.
Alles nur dumme Fanboys, die sich von Marketing blabla blenden und Ramsch für teuer Geld andrehen lassen. Ergibt natürlich Sinn...
Wie das mit Firmengeheimnissen und so zusammengeht, ist mir auch recht schleierhaft.
Er hatte einen non-compete Klausel für einen bestimmten Zeitraum. Die ist nun um.
Screemer
2017-11-08, 23:03:07
Nach 3 Monaten? Wer es glaubt.
Dino-Fossil
2017-11-08, 23:11:22
Es kommt zum einen sicherlich auf seine neue Position an, zum anderen könnte AMD immer noch gerichtlich vorgehen, falls sie der Meinung sind, dass er Firmengeheimnisse ausplaudert.
Edit: Ok, angeblich Entwicklung von dGPUs, jetzt wird's natürlich ein Stück weit pikant...
Da ist entweder ein gewaltiger Gerichtsprozess im anrollen, oder die AMD/Intel Kooperation geht weiter als bisher bekannt.
Agent117
2017-11-09, 00:29:09
[URL="https://twitter.com/intelnews/status/928382053325742080"]https://twitter.com/intelnews/status/928382053325742080[/URL
Sollte mit Gaming aber eher weniger zu tun haben, geht wahrscheinlich eher gegen Nvidias (und teils auch AMDs) Profi Karten.
N0Thing
2017-11-09, 00:33:31
Nach 3 Monaten? Wer es glaubt.
Man weiß ja noch nicht, wann er seinen neuen Posten antreten wird.
BoMbY
2017-11-09, 00:49:04
Raja Koduri Joins Intel as Chief Architect to Drive Unified Vision across Cores and Visual Computing (https://newsroom.intel.com/news-releases/raja-koduri-joins-intel/)
Intel to Expand Strategy to Deliver High-End, Discrete Graphics Solutions
[...]
In this position, Koduri will expand Intel’s leading position in integrated graphics for the PC market with high-end discrete graphics solutions for a broad range of computing segments.
[...]
Koduri will officially start in his new role at Intel in early December.
Ich würde sagen das geht nur wenn Intel eine Ablösesumme an AMD bezahlt hat ... krass ...
grauenvoll
2017-11-09, 06:47:14
Klar hat Raja viel Insiderwissen. Es nur fraglich was ihm das hilft. Ich gehe davon aus, dass die meisten Features durch Patente gegen simples Copy&Paste geschützt sind. Vor einigen Monaten sagte jemand von Intel,dass es kaum noch möglich ist eine GPU zu entwickeln, ohne gegen irgendein Patent von AMD oder nVidia verstoßen
w0mbat
2017-11-09, 07:53:32
Ich würde sagen das geht nur wenn Intel eine Ablösesumme an AMD bezahlt hat ... krass ...
Wieso? Wir sind hier nicht beim Fußball :D Wenn Raja zu Intel will kann AMD schwer etwas machen.
Thoro
2017-11-09, 07:59:04
Klar hat Raja viel Insiderwissen. Es nur fraglich was ihm das hilft. Ich gehe davon aus, dass die meisten Features durch Patente gegen simples Copy&Paste geschützt sind. Vor einigen Monaten sagte jemand von Intel,dass es kaum noch möglich ist eine GPU zu entwickeln, ohne gegen irgendein Patent von AMD oder nVidia verstoßen
So ist es. Da ist alle patentiert und von dem her dürfte es herzlich wurscht sein, was Raja hier "ausplaudern" könnte oder nicht.
Hübie
2017-11-09, 08:59:59
Es geht ja nicht nur um Patente, sondern auch interne Prozesse, Roadmaps und Strategien die er durch gezielte Entscheidungen kontern kann ohne es auszuplaudern. Der Verlierer heißt in dem Fall sicher nicht NVIDIA. Intel ist nach wie vor ein Konkurrent bei Coprozessoren und ein wenig im Notebookmarkt, aber die Überschneidungen sind weder gravierend noch im Zeitfenster von 2-3 Jahren kritisch.
Thoro
2017-11-09, 09:04:43
Es geht ja nicht nur um Patente, sondern auch interne Prozesse, Roadmaps und Strategien die er durch gezielte Entscheidungen kontern kann ohne es auszuplaudern. Der Verlierer heißt in dem Fall sicher nicht NVIDIA. Intel ist nach wie vor ein Konkurrent bei Coprozessoren und ein wenig im Notebookmarkt, aber die Überschneidungen sind weder gravierend noch im Zeitfenster von 2-3 Jahren kritisch.
Was genau soll für AMD im Geschäftsfeld in dem sie mit Nvidia konkurrieren noch schlimmer kommen? Nvidia hat ja die letzten Jahre schon minutiös und sehr zielgerichtet AMD in fast allen Marktsegmenten gekontert. Die notwendigen Infos hatten sie anscheinend auch ohne Koduri.
Der Verlierer heißt erstmal natürlich nicht Nvidia, aber ich sehe irgendwie auch nicht, inwiefern das für AMD ein besonders großes Problem darstellen soll.
Mangel76
2017-11-09, 09:29:39
Der Verlierer heißt erstmal natürlich nicht Nvidia, aber ich sehe irgendwie auch nicht, inwiefern das für AMD ein besonders großes Problem darstellen soll.
Ich glaube, dieser Schritt von Intel richtet sich nicht zuletzt gegen Nvidia! Im HPC-Bereich werden die nämlich immer mehr zur Konkurrenz, viel mehr als AMD bzw. werden Nvidia und AMD gemeinsam zur großen Konkurrenz und bedrohen Intels Gewinne in diesem wichtigen Bereich. Und mit Raja's Know How in GPGPU versucht Intel dem etwas entgegen zu setzen. Ich vermute, Intel wird auch GPU-Entwicklung in diese Richtung versuchen. In diesem Fall könnte der Spezialist Nvidia am Ende doch der große Verlierer sein, während die Generalisten AMD und Intel am Ende übrig bleiben. Es sein denn, Nvidia schafft es langfristig durch ihre Spezialisierung die Konkurrenz in diesem Bereich auf Abstand zu halten. Allerdings gibt es da ja auch noch Konkurrenz aus ganz anderen Richtungen, es könnte langfristig also echt schwierig für Nvidia werden.
BoMbY
2017-11-09, 09:32:06
Wieso? Wir sind hier nicht beim Fußball :D Wenn Raja zu Intel will kann AMD schwer etwas machen.
https://en.wikipedia.org/wiki/Non-compete_clause
BoMbY
2017-11-09, 09:39:35
So ist es. Da ist alle patentiert und von dem her dürfte es herzlich wurscht sein, was Raja hier "ausplaudern" könnte oder nicht.
Nein, alle Patente sind Teil des Patent Cross License Agreements (https://www.sec.gov/Archives/edgar/data/2488/000119312509236705/dex102.htm), welches in beide Richtungen gilt, und sogar den GCN Opcode darf Intel kostenlos nutzen.
1.33 “Processor” shall mean any Integrated Circuit or combination of Integrated Circuits capable of processing digital data, such as a microprocessor or coprocessor (including, without limitation, a math coprocessor, graphics coprocessor, or digital signal processor).
3.5 AMD Copyright License to Intel. Subject to the terms of this Agreement, including without limitation Section 5.2(e), AMD grants to Intel, for use in or with an Intel Licensed Product, licenses under AMD’s copyrights in any Processor instruction mnemonic for an instruction developed by AMD, and the related opcodes, instruction operand mnemonics, byte format depictions and short form description (not to exceed 100 words) for those instructions, to copy, have copied, import, prepare derivative works of, perform, display and sell or otherwise distribute such mnemonics, opcodes and descriptions in user manuals and other technical documentation. No other copyright license to Intel is provided by this Agreement other than as set forth in this paragraph, either directly or by implication or estoppel.
Korfox
2017-11-09, 09:40:29
https://en.wikipedia.org/wiki/Non-compete_clause
Sitzen die nicht beide im schönen Sonnenstaat?
https://en.wikipedia.org/wiki/Non-compete_clause#California
Thoro
2017-11-09, 09:46:15
Nein, alle Patente sind Teil des Patent Cross License Agreements (https://www.sec.gov/Archives/edgar/data/2488/000119312509236705/dex102.htm), welches in beide Richtungen gilt, und sogar den GCN Opcode darf Intel kostenlos nutzen.
Was heißt das genau? Ich kann mir kaum vorstellen, dass die jeweiligen Patente von AMD, Nvidia, oder wem auch immer, einfach vorbehaltlos von jedem anderen verwendet werden dürfen. Nicht umsonst werden teils Milliarden für Lizenzierungen von Patenten gezahlt. Und Patente an sich würden kaum Sinn machen, wenn einfach jeder das Zeug verwenden darf.
Hübie
2017-11-09, 09:51:46
Was genau soll für AMD im Geschäftsfeld in dem sie mit Nvidia konkurrieren noch schlimmer kommen? Nvidia hat ja die letzten Jahre schon minutiös und sehr zielgerichtet AMD in fast allen Marktsegmenten gekontert. Die notwendigen Infos hatten sie anscheinend auch ohne Koduri.
Der Verlierer heißt erstmal natürlich nicht Nvidia, aber ich sehe irgendwie auch nicht, inwiefern das für AMD ein besonders großes Problem darstellen soll.
Dir scheint entgangen zu sein, dass NVIDIA in allen Segmenten abseits von Gaming graphics vor AMD vertreten war (HPC, Cloud, Ultra-Mobile, Professionals). Seit Jahren ist es AMD die kontern müssen, weil die total in die Defensive gedrängt wurden bzw. sich da hinein manövriert haben.
@Mangel76: Wenn NV pennt, dann wird es eng. Aber die pennen nicht. Intels Verkäufe bei Coprozessoren bedrohen weder AMD's MI- noch NVIDIA's Tesla-Serien.
Sven77
2017-11-09, 09:55:42
https://en.wikipedia.org/wiki/Non-compete_clause
In Kalifornien null-und-nichtig
w0mbat
2017-11-09, 09:57:19
https://en.wikipedia.org/wiki/Non-compete_clause
Wie Korfox und Sven77 schon erwähnt haben, sind NCCs in Californien verboten. Das ist einer der Gründe wieso das Silicon Valley zu dem geworden ist, was es heute ist. Und sowohl Intel als auch RTG sitzen in Californien, also kein non-compete.
Und da der großteil der US Tech-Industrie in Californien sitzt haben sich NCCs auch in anderen Staaten im Techbereich nicht wirklich durchgestzt.
Koduri und Keller sind da die besten Beispiele :D
Mangel76
2017-11-09, 10:27:52
@Mangel76: Wenn NV pennt, dann wird es eng. Aber die pennen nicht. Intels Verkäufe bei Coprozessoren bedrohen weder AMD's MI- noch NVIDIA's Tesla-Serien.
Deswegen sagte ich ja, dass Intel entsprechendes Know How gut gebrauchen kann, um in diesem Bereich nicht komplett unterzugehen. Hatte nicht die Lederjacke vor kurzem was erzählt, von wegen GPUs sind die Zukunft, CPUs würde niemand mehr brauchen?
Leonidas schrieb gestern was ähnliches:
Und zweitens eine stärkere Intel-Position bei echten Profi-Lösungen für HPC-Zwecke – was allgemein als Umsatzfeld der Zukunft angesehen wird und wo sich Intel natürlich nicht die Butter vom Brot nehmen lassen darf, bedroht dies doch die guten Intel-Geschäfte im Server-Bereich.
Thoro
2017-11-09, 10:45:08
Dir scheint entgangen zu sein, dass NVIDIA in allen Segmenten abseits von Gaming graphics vor AMD vertreten war (HPC, Cloud, Ultra-Mobile, Professionals). Seit Jahren ist es AMD die kontern müssen, weil die total in die Defensive gedrängt wurden bzw. sich da hinein manövriert haben.
Ne, ist mir nicht entgangen. Aber wie punktgenau der Konter von Nvidia immer schon vor AMD-Produkten kam zeigt in meinen Augen einfach nur, dass die eben schon vor dem offiziellen Release der AMD-Produkte schon sehr genau Bescheid wissen, wo diese rauskommen dürften. Ergo verliert für mich AMD da einfach nichts, selbst wenn über die Roadmap oder weitere Planungen was rauskommt durch Koduri, weil eh alle großen Player mit mehr oder weniger offenen Geheimnissen arbeiten.
Hübie
2017-11-09, 13:31:12
Du kannst dir nicht vorstellen wie viel Schiß man vor Tahiti hatte. Als er dann kam knallten die Champagner-Korken und man lötete das Boost-Modul auf Kepler. :D Fiji sah auch verdammt stark aus und auch hier fürchtete man den Konkurrenten. Selbiges bei Vega. Die wissen also nicht gut Bescheid, sondern entwickeln einfach ihr Ding. ;)
BoMbY
2017-11-09, 14:31:20
Wie Korfox und Sven77 schon erwähnt haben, sind NCCs in Californien verboten. Das ist einer der Gründe wieso das Silicon Valley zu dem geworden ist, was es heute ist. Und sowohl Intel als auch RTG sitzen in Californien, also kein non-compete.
Und da der großteil der US Tech-Industrie in Californien sitzt haben sich NCCs auch in anderen Staaten im Techbereich nicht wirklich durchgestzt.
Koduri und Keller sind da die besten Beispiele :D
Bei welchem der 20 Subunternehmen der AMD-Gruppe war er denn genau angestellt? Und nein, die sitzen nicht alle in CA.
BoMbY
2017-11-09, 14:33:18
Was heißt das genau? Ich kann mir kaum vorstellen, dass die jeweiligen Patente von AMD, Nvidia, oder wem auch immer, einfach vorbehaltlos von jedem anderen verwendet werden dürfen. Nicht umsonst werden teils Milliarden für Lizenzierungen von Patenten gezahlt. Und Patente an sich würden kaum Sinn machen, wenn einfach jeder das Zeug verwenden darf.
Natürlich nicht irgendjemand. AMD darf alle Intel-Patente nutzen, und Intel darf alle AMD-Patente nutzen, und genauso gibt es eine gegenseitige Lizenz für Befehlssätze, etc. Das ist z.B. der Grund warum AMD noch x86 nutzen darf, und warum Intel AMD64 CPUs verkaufen kann, ohne einen Cent zusätzlich dafür zu zahlen.
mboeller
2017-11-09, 15:57:44
Was genau soll für AMD im Geschäftsfeld in dem sie mit Nvidia konkurrieren noch schlimmer kommen? Nvidia hat ja die letzten Jahre schon minutiös und sehr zielgerichtet AMD in fast allen Marktsegmenten gekontert. Die notwendigen Infos hatten sie anscheinend auch ohne Koduri.
Da gab es ein paar "Informanten". ExAMD Mitarbeiter die viele Unterlagen mit zu Nvidia mitgenommen hatten. Da gab es damals auch ein langwieriges Gerichtsverfahren. Ich weiß aber nicht was dabei raus gekommen ist.
mboeller
2017-11-09, 16:48:58
Sitzen die nicht beide im schönen Sonnenstaat?
https://en.wikipedia.org/wiki/Non-compete_clause#California
nicht nur:
http://www.amd.com/en-us/who-we-are/contact/locations
die R&D Center zB. sind nicht in CA
reaperrr
2017-11-09, 16:53:53
Da gab es ein paar "Informanten". ExAMD Mitarbeiter die viele Unterlagen mit zu Nvidia mitgenommen hatten. Da gab es damals auch ein langwieriges Gerichtsverfahren. Ich weiß aber nicht was dabei raus gekommen ist.
Dazu sollte man mal erwähnen, als sich ein AMDler bei Intel angeboten hat, ihnen Insider-Infos zu bringen, hat Intel AMD sofort darüber informiert.
Also bei allem, was man Intel ankreiden kann, in solchen Dingen sind sie definitiv ethischer als Nvidia.
Ich nehme Koduri auch durchaus ab, dass er AMD-Fan bleiben will und denke, dass Kaby-G nicht die einzige konstruktive Zusammenarbeit der beiden Firmen bleiben wird.
N0Thing
2017-11-09, 17:02:23
nicht nur:
http://www.amd.com/en-us/who-we-are/contact/locations
die R&D Center zB. sind nicht in CA
Das muß nicht relevant sein. Wenn der Angestellte zukünftig in Kalifornien arbeitet und in Kalifornien wohnt, kann die Erfüllung der (non-compete-) Klauseln nicht einfach erzwungen werden.
http://online.ceb.com/calcases/CA4/61CA4t881.htm
BoMbY
2017-11-13, 13:25:33
Das hatte ich bisher nicht gesehen, aber es gab schon vor einiger Zeit einen Hinweis auf GDDR6 bei AMD im Beyond3D Forum (https://forum.beyond3d.com/threads/amd-vega-10-vega-11-vega-12-and-vega-20-rumors-and-discussion.59649/page-85#post-1981965):
http://i.imgur.com/Dvosk7d.png
Würde zu meiner Vega 11 Vermutung (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11517348#post11517348) passen.
Unicous
2017-11-13, 13:49:23
Bin mir ziemlich sicher, dass das hier im Forum schon mal besprochen wurde, leider funktioniert bei mir die Suche nicht. Und natürlich forscht AMD auch an GDDR6.
Armaq
2017-11-13, 20:15:48
Intel macht alles, auch hochgradig Fragwürdiges und Illegales. Dazu muss man nur ganze 10 Jahre in der Geschichte zurück gehen und hat es schwarz auf weiß inkl. der höchsten jemals verhängten Strafe bis anno dazumal...
Der Wechsel wirkt für mich überhaupt nicht wie geplant bzw. von AMD gewollt. Sieht so aus als ob er angepisst war, weil er nicht alles durfte und ist dann einfach mal stiften gegangen.
=Floi=
2017-11-14, 00:47:39
Intel macht alles, auch hochgradig Fragwürdiges und Illegales. Dazu muss man nur ganze 10 Jahre in der Geschichte zurück gehen und hat es schwarz auf weiß inkl. der höchsten jemals verhängten Strafe bis anno dazumal...
Der Wechsel wirkt für mich überhaupt nicht wie geplant bzw. von AMD gewollt. Sieht so aus als ob er angepisst war, weil er nicht alles durfte und ist dann einfach mal stiften gegangen.
bist jetzt mit deinen hatetiraden fertig?! :facepalm:
tm0975
2017-11-14, 08:31:58
bist jetzt mit deinen hatetiraden fertig?! :facepalm:
nein, das kann man gar nicht oft gnug wiederholen...
Armaq
2017-11-14, 09:07:55
bist jetzt mit deinen hatetiraden fertig?! :facepalm:
Hatetiraden? Wie wäre es wenn man keine Geschichtsverdrängung zulässt und Intel als das sieht was es ist. Ein extrem mächtiger Global Player, der vor nichts zurück schreckt. Das ist einfach ein Fakt und keine Märchengeschichte.
Schaffe89
2017-11-14, 09:49:17
Also wenn die Sapphire Custom noch vor Weihnachten bestellbar ist dann kommt man nicht drumherum sich eine zu holen, alleine schon um in PUBG 10% schneller im CPU Limit zu spielen.
tm0975
2017-11-30, 08:55:23
vega Customs endlich im zulauf.
https://www.mindfactory.de/product_info.php/8GB-PowerColor-Radeon-RX-Vega-64-Red-Devil-Aktiv-PCIe-3-0-x16--Retail-_1215727.html
559 € klingt jetzt erstmal ganz ok.
Dino-Fossil
2017-12-01, 18:08:17
Videocardz hat eine Zusammenfassung eines Interviews mit James Prior, gibt eine interessante Info zu V11 (hab das Video noch nicht gesehen, korrigiert mich, wenn es Quatsch ist)
AMD Vega 11 is integrated into Raven Ridge APU
The mysterious Vega 11 is not a GPU by itself. It’s a solution for AMD Raven Ridge APUs with 11 Compute Units enabled. James Prior confirmed that Ryzen APUs offer up to 11 Compute Units. So far AMD only released two mobile APU variants, which feature either 8 or 10 CUs (Vega 8/10 Graphics). That said, the chip with 11 Vega Compute Units would be the top tier Raven Ridge APU. No details about desktop APUs have been shared.
Also schon immer nur als iGPU geplant? Oder doch nur umgelabelt, als sich abgezeichnet hat, dass Vega nicht die erhoffte Performance bringt?
y33H@
2017-12-01, 18:11:47
AMD sagt, kein Kommentar zu Vega 11 ;D
Dino-Fossil
2017-12-02, 13:38:41
AMD sagt, kein Kommentar zu Vega 11 ;D
Vor oder nach dem Interview mit James Prior? ;)
BoMbY
2017-12-02, 16:27:00
Vega 11 ist die Bezeichnung für die Desktop SKU in Raven Raven Ridge. Der dGPU-Chip Vega 11 dürfte weiterhin existieren, und nichts damit zu tun haben - es kann höchstens sein, dass die internen Chip-Bezeichnungen mittlerweile geändert wurden, damit man nicht dauernd durcheinander kommt.
bbott
2017-12-02, 19:20:31
Wenn Vega 11 die RR GPU meint, Frage ich mich welche Produktstrategie AMD mit Vega überhaupt verfolgt?!
Nur Vega 10 und Polaris 10/11?! Ein Vega 20 welcher ein Vega 10 mit GPGPU Fähigkeiten ist?!
Kein Nachfolger für Polaris 10/11 in sicht, sollte AMD wirklich die gleiche falsche Strategie wie bei Bulldozer verfolgen? Kein Highend nur Mittelklasse Produkte?!
So wird das wohl bei der PS5 und XBX2 wohl kein AMD werden, obwohl die Voraussetzungen bei AMD zu bleiben sehr hoch waren.
Dann bleibt nur noch die (letzte) Hoffnung, dass AMD (viel) mehr in der Hinterhand hat und einfach nichts leakt.
aufkrawall
2017-12-02, 19:32:49
So wird das wohl bei der PS5 und XBX2 wohl kein AMD werden
Das ist unsinnige Spekulation ohne irgendein Fundament.
Rincewind
2017-12-02, 20:33:12
...
So wird das wohl bei der PS5 und XBX2 wohl kein AMD werden, obwohl die Voraussetzungen bei AMD zu bleiben sehr hoch waren.
...
Wer sonst außer AMD könnte das denn?
BoMbY
2017-12-02, 21:05:30
Wenn Vega 11 die RR GPU meint, Frage ich mich welche Produktstrategie AMD mit Vega überhaupt verfolgt?!
Nein. Es gibt zwei GPUs mit der gleichen Bezeichnung.
dGPU: interne Chip-Bezeichnung: Vega 11; Daten unbekannt; Retail-Namen: unbekannt.
iGPU: interne Chip-Bezeichnung: Raven Ridge; 8-11 CUs; Retail-Namen: Vega 8, Vega 10 und Vega 11.
bbott
2017-12-02, 23:34:15
Wer sonst außer AMD könnte das denn?
Wer sagt denn das es ein SoC sein muss, oder was spricht gegen so etwas mit Intel & Nvidia:
https://www.heise.de/ct/ausgabe/2017-24-Von-Kooperationen-Preisen-und-Verzoegerungen-3881755.html
gravitationsfeld
2017-12-03, 00:35:27
1. Die Xbox-One-X-GPU kann fast mit einer 1080 mithalten ohne den krüppeligen AMD-PC-Treiber am Bein
2. NVidia oder Intel werden niemals nie ihre Chip-IP herausrücken. Man ist bei Shrinks auf sie angewiesen und muss "von der Stange" kaufen. Das hat die Ein-Chip-PS3 verhindert.
3. Für die Planung der nächsten Konsolen ist relevant was AMD für 2020-2021 in der Pipeline hat und da ist vieles schon fertig. Vega ist irrelevant.
4. Kein gemeinsamer Speicher-Pool macht Engines langsamer und es ist unflexibler.
5. Sparater VRAM macht Abwärtskompatibilität schwierig.
6. NVidia will auch ihr Specs nich raus rücken und MS und Sony wären evtl. gezwungen einen binären Treiber ohne Source an die Entwickler zu geben. Das hat mehr Overhead und ist nervig bei Bugs.
Kurz, ich schätze die Chancen dafür bei 10-20%.
reaperrr
2017-12-03, 03:24:00
1. Die Xbox-One-X-GPU kann fast mit einer 1080 mithalten ohne den krüppeligen AMD-PC-Treiber am Bein
2. NVidia oder Intel werden niemals nie ihre Chip-IP herausrücken. Man ist bei Shrinks auf sie angewiesen und muss "von der Stange" kaufen. Das hat die Ein-Chip-PS3 verhindert.
3. Für die Planung der nächsten Konsolen ist relevant was AMD für 2020-2021 in der Pipeline hat und da ist vieles schon fertig. Vega ist irrelevant.
4. Kein gemeinsamer Speicher-Pool macht Engines langsamer und es ist unflexibler.
5. Sparater VRAM macht Abwärtskompatibilität schwierig.
6. NVidia will auch ihr Specs nich raus rücken und MS und Sony wären evtl. gezwungen einen binären Treiber ohne Source an die Entwickler zu geben. Das hat mehr Overhead und ist nervig bei Bugs.
Kurz, ich schätze die Chancen dafür bei 10-20%.
Ganz abgesehen davon, dass NV und Intel sich nicht wirklich grün sind. Ich glaube, die überlassen lieber AMD 'die paar Kröten' (bezogen auf die niedrige Marge) als da groß Kompromisse einzugehen.
grauenvoll
2017-12-03, 08:51:14
Die CustomDesign machen sich nicht von allein. Sie binden Ressourcen und generieren einen sicheren, aber niedrigen Ertrag. Wie viele Ressourcen deswegen an anderer Stelle fehlen, z.B. Vega, darüber kann man nur spekulieren. Aber zum Nulltarif wird das nicht geben.
Für nVidia, in ihrer Marktsituation, wäre ein gemeinsames Projekt mit Intel, wenig sinnvoll. Deshalb steht nVidia dem so gleichgültig gegenüber. Sie sind in der Situation ihr eigenes Ding machen zu können.
Fragman
2017-12-03, 10:41:03
Sie sind in der Situation ihr eigenes Ding machen zu können.
hat intel ueberhaupt irgendwas zu bieten im aktuellen AI und autonomes fahren "hype"?
basix
2017-12-03, 13:30:47
1. Die Xbox-One-X-GPU kann fast mit einer 1080 mithalten ohne den krüppeligen AMD-PC-Treiber am Bein
2. NVidia oder Intel werden niemals nie ihre Chip-IP herausrücken. Man ist bei Shrinks auf sie angewiesen und muss "von der Stange" kaufen. Das hat die Ein-Chip-PS3 verhindert.
3. Für die Planung der nächsten Konsolen ist relevant was AMD für 2020-2021 in der Pipeline hat und da ist vieles schon fertig. Vega ist irrelevant.
4. Kein gemeinsamer Speicher-Pool macht Engines langsamer und es ist unflexibler.
5. Sparater VRAM macht Abwärtskompatibilität schwierig.
6. NVidia will auch ihr Specs nich raus rücken und MS und Sony wären evtl. gezwungen einen binären Treiber ohne Source an die Entwickler zu geben. Das hat mehr Overhead und ist nervig bei Bugs.
Kurz, ich schätze die Chancen dafür bei 10-20%.
Zudem ist AMD mit Ryzen auf Augenhöhe Intel. Wird Navi die Nachteile von Vega ausmerzen können (vor allem Perf/W) sehe ich gar keinen Grund, um sich von AMD abzuwenden. Die ersten 7nm Chips von AMD werden die Richtung für die Konsolen weisen.
Gipsel
2017-12-03, 14:08:11
Es gibt übrigens einen Spekuthread zur nächsten Konsolengeneration (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11511669#post11511669). Nur mal so zur Info.
Locuza
2018-01-07, 14:12:24
Es sieht so aus, als ob sich die alten Leak-Folien nun völlig bestätigen, denn AMD hat offenkundig Vega20 als erstes 7nm Produkt angekündigt:
So, Engadget put up video about AMD tech at CES 2018, and at 1m44s he talks about AMD announcing their first 7nm product, a Radeon Instinct card based on Vega. Seems like, pretty big news if true? Maybe this is Vega 20?
If they can already announce real 7nm products, especially such a big chip, this seems to bode well for 7nm progress.
https://www.youtube.com/watch?v=Z7_zunLzrk8&t=1m40s
https://forum.beyond3d.com/posts/2017541/
Der Link ist tot, aber die Info sollte sowieso bald öffentlich werden.
maguumo
2018-01-07, 14:14:43
Falls das stimmt werden sie zur CES aber eher noch keine Hardware haben, oder?
Locuza
2018-01-07, 14:21:29
Erste Produkte erscheinen sowieso frühstens im zweiten Halbjahr 2018.
Aber selbst irgendwelche Vorseriensamples werden sie zu diesem Zeitpunkt wohl nicht vorzeigen können oder wollen.
fondness
2018-01-07, 15:18:08
AMD selbst hatte Vega mit 14nm und 14m+ (wurde dann 12nm) angekündigt. Auch später nochmal hat man für 2018 GPU-Produkte in 12nm angekündigt. Deshalb ging man dann von 12nm für Vega20 aus. Wenn jetzt Vega20 also doch in 7nm kommt, wäre diese damalige offizielle Roadmap schon etwas seltsam. Auch bleibt dann die Frage, was kommt in 12nm im ersten Halbjahr? Nur Vega11 aka Intels mobile-Chip, oder ev. auch ein Vega10-Refresh?
robbitop
2018-01-07, 16:35:09
Ggf kommt ja in 12nm noch ein GA106 Gegner. Mit ~40 CUs.
TGKlaus
2018-01-07, 17:00:52
Ggf kommt ja in 12nm noch ein GA106 Gegner. Mit ~40 CUs.
Wieviel Performancevorteil würdest du da gegenüber Polaris erwarten?
Lohnt in meinen Augen kaum.
robbitop
2018-01-07, 17:11:01
Wieviel Performancevorteil würdest du da gegenüber Polaris erwarten?
Lohnt in meinen Augen kaum.
So dass es ausreicht, um mit GA106 mitzuhalten. ~+40 %. Ein Teil kommt durch höhere Taktrate (~1500 Mhz statt ~1300 Mhz) und der Rest durch mehr CUs und hoffentlich etwas mehr Leistung pro Takt.
dargo
2018-01-07, 17:18:02
Wie groß sind eigentlich die Vorteile von 12nm gegenüber 14nm? Gibts da irgendwelche greifbaren Zahlen wie zb. 10% mehr Takt beim selben Verbrauch oder 10% weniger Die-Size beim gleichen Design etc.?
vinacis_vivids
2018-01-07, 17:22:23
40Cu - 2560SP
1.7Ghz - 8,7Tflops
6GB HBM2 - 320GB/s
Wäre ein perfekter cashcow knapp an der 1070 dran und in LL-API dann schneller.
dargo
2018-01-07, 17:48:11
6GB HBM2? Was soll das überhaupt sein? :tongue: Und 1,7Ghz killt dir wieder die Effizienz. Falls es überhaupt einen V10 in wesentlich kleiner geben wird gehe ich eher von einem GDDR6 SI Speichercontroller aus. An einem 256Bit SI würde sogar der langsamere GDDR6 mit 12Gbps vollkommen ausreichen mit 384GB/s.
robbitop
2018-01-07, 17:50:32
Lieber gddr (Preis/Verfügbarkeit) und 1500 Mhz. Zur Not ein paar CUs draufpacken.
12nm soll iirc 5% Packdichte und 10% mehr Performance.
Bucklew
2018-01-07, 17:50:40
40Cu - 2560SP
1.7Ghz - 8,7Tflops
6GB HBM2 - 320GB/s
Wäre ein perfekter cashcow knapp an der 1070 dran und in LL-API dann schneller.
Wie? Trotz Refresh nur die identische Taktung zu Vega10? Warum das? ;D
Die Luftgekühlte Vega macht 1700Mhz
fondness
2018-01-07, 17:50:43
Ggf kommt ja in 12nm noch ein GA106 Gegner. Mit ~40 CUs.
Wenn man im H2/2018 schon einen nicht gerade kleinen 7nm Chip bringen will, würde ich eher mit einem Refresh von V10 als einem neuen Design rechnen. Die Design-Änderungen sollen ja nur minimal sein, würde auch zur angeblichen Einstellung von V10 passen. Dazu gibt es noch den Intel-Chip, der sicher auch ins normale Portfolio von AMD wandert.
fondness
2018-01-07, 17:52:25
Wie groß sind eigentlich die Vorteile von 12nm gegenüber 14nm? Gibts da irgendwelche greifbaren Zahlen wie zb. 10% mehr Takt beim selben Verbrauch oder 10% weniger Die-Size beim gleichen Design etc.?
https://s14.postimg.org/p0rnzvrkh/59212_01_amds-next-gen-vega-made-12nm-finfet-coming-2018.jpg
AffenJack
2018-01-07, 18:12:51
Wenn man im H2/2018 schon einen nicht gerade kleinen 7nm Chip bringen will, würde ich eher mit einem Refresh von V10 als einem neuen Design rechnen. Die Design-Änderungen sollen ja nur minimal sein, würde auch zur angeblichen Einstellung von V10 passen. Dazu gibt es noch den Intel-Chip, der sicher auch ins normale Portfolio von AMD wandert.
V20 wird erstmal bestimmt nur für den Profimarkt kommen. Da sind dann Yields und Produktionskosten/mengen relativ egal. Daher würde ich von dem eher weniger Schlüsse auf die anderen Produkte ziehen.
dargo
2018-01-07, 18:42:49
https://s14.postimg.org/p0rnzvrkh/59212_01_amds-next-gen-vega-made-12nm-finfet-coming-2018.jpg
Das ist nicht die Antwort auf meine Frage, die Prozentangaben beziehen sich im Vergleich auf 16nm.
reaperrr
2018-01-07, 23:15:56
Das ist nicht die Antwort auf meine Frage, die Prozentangaben beziehen sich im Vergleich auf 16nm.
Das sind die einzigen offiziell verlauteten Zahlen zu dem Thema. Von daher ist es legitim, die Folie zu verlinken, denn wissen tut hier eh keiner mehr als das, was auf der Folie steht.
Von daher können wir eh nur raten bzw. anhand der bekannten Infos zu 14LPP und 16FF(+) grob extrapolieren.
Die Unterschiede zwischen 14LPP und den "industry 16nm FinFET solutions" sind aber relativ gering, wenn AMD 14LPP nicht sogar dazugezählt hat.
14LPP hat nach offiziellen Angaben leichte Vorteile bei der Dichte, TSMC 16FF+ soll dafür etwas weniger Probleme mit Leckströmen in höheren Taktbereichen haben.
Die Prozente sind auf solchen Folien immer eher best-case, in der Praxis wird 12LP wahrscheinlich ziemlich nah an robbitops Zahlen liegen im Vergleich zu 14LPP.
vinacis_vivids
2018-01-08, 03:11:39
Was Vega noch fehlt ist der Takt (1,7Ghz vs. 2,1Ghz) für verkrustete Engines auf alter API.
Ist nur die Frage ob AMD wieder Transistoren für höhere Frequenzen investiert oder nun zugunsten des Energieverbrauchs mehr CUs packt.
Die 1,7Ghz sind relativ sicher, vllt. auch 1,85-1,9Ghz für Vega10 refresh. Bei GPU's scheint es eine Wall zu geben ähnlich wie bei den CPU's (2,0Ghz bzw. 4,5Ghz).
@dargo
10% Mehrtakt halte ich sinnvoll bei Vega10 refresh.
10% weniger Fläche bei Polaris und Vega11 für mehr Ausbeute.
Auch der HBM2 wird hoffentlich nicht ewig bei 945Mhz liegen.
horn 12
2018-01-08, 07:14:07
https://videocardz.com/74690/amd-updates-gpu-roadmap-with-7nm-vega
Vega Refresh in 7nm
vinacis_vivids
2018-01-08, 07:19:57
Hier eine etwas bessere Übersicht
https://www.pcworld.com/article/3246211/computers/amd-reveals-ryzen-2-threadripper-2-7nm-navi-and-more-in-ces-blockbuster.html
https://abload.de/img/graphicsroadmap-100740os9y.jpg
Nightspider
2018-01-08, 07:23:22
Wenn Vega nochmal in 7nm kommt wirds mit Navi wohl nichts vor Herbst 2019.
Hoffentlich schlägt 7nm gut durch sonst gewinnt man mit Vega 2019 auch keinen Blumentopf mehr.
Troyan
2018-01-08, 07:26:53
Vega kommt nicht in 7nm. Das ist ein Produkt, von dem AMD noch nichtmal weiß, ob es in Massenfertigung für dieses Jahr überhaupt zur Verfügung stünde.
Navi steht für 2019 auf dem Plan. Vega in 7nm ist ein Testballon. Siehe auch die Folie von Hexus:
https://hexus.net/media/uploaded/2018/1/789213ec-5b8a-409f-9338-546ae0b26194.PNG
https://hexus.net/tech/news/graphics/113903-amd-details-2018-plans-radeon-gpus/
vinacis_vivids
2018-01-08, 07:29:26
AMD won't ignore its graphics customers either, and said this year would see its first 7nm-based Vega chip. Gamers, unfortunately, won't be the first ones to get them: The first 7nm Vega parts are aimed at its machine -earning customers and will sample to them this year.
Vega 7nm nix Gaming, sondern zuerst fürs computing (mining und AI).
dargo
2018-01-08, 07:37:45
Etwas ungewöhnliche Strategie. Aber gut, wenn der 7nm Fertigungsprozess für die Masse noch nicht reif genug ist...
Elite_Warrior
2018-01-08, 07:40:39
@v_v von wo stammt der Quote
€: nvm. kommt aus den pcworld Artikel
LadyWhirlwind
2018-01-08, 07:43:03
AMD won't ignore its graphics customers either, and said this year would see its first 7nm-based Vega chip. Gamers, unfortunately, won't be the first ones to get them: The first 7nm Vega parts are aimed at its machine -earning customers and will sample to them this year.
Vega 7nm nix Gaming, sondern zuerst fürs computing (mining und AI).
Und da liegt auch die Kohle....
GPU‘s sind heutzutage nicht mehr nur für Gamer interessant, sondern in vielen anderen Bereichen auch wo man mehr verdienen kann als mit GPUs. AMD scheint da daher auch den Fokus auf diese Bereiche gelegt zu haben.
Mining ist ja ein gutes Beispiel. Ist ja nicht so, dass AMD auf Vega sitzen bleibt, sondern sie verkaufen was sie produzieren können.
Edit: 7nm an hochpreisigen Profikarten zu testen ist sicher nicht falsch, weil da die Margrn höher sind...
vinacis_vivids
2018-01-08, 07:43:25
@v_v von wo stammt der Quote?
link, den ich postete.
Wird es eigentlich nun GF oder TSMC 7 nm sein?
vinacis_vivids
2018-01-08, 07:58:34
GF natürlich. Es spricht nichts für TSMC.
robbitop
2018-01-08, 07:59:08
Wenn es keinen Polaris Nachfolger gibt für das 200€ Segment reisst man die ersten Erfolge seit langem im Massenmarkt mit dem Hintern wieder ein.
vinacis_vivids
2018-01-08, 08:03:39
Polaris wird weiterhin produziert und ist nicht EOL.
"200€ Segment" im Desktop kannst du vergessen in dieser turbulenten Zeit für diese Rechenleistung.
Nightspider
2018-01-08, 08:07:42
Zum einen gibts Raven Ridge im untersten Preissegment und zum anderen wird Vega 56 dieses Jahr eh Richtung 300 Euro rutschen.
Wenn nicht kann es nur gut sein weil es bedeutet das AMD die Karten weiterhin aus der Hand gerissen werden was AMD guten Umsatz beschert.
vinacis_vivids
2018-01-08, 08:11:34
300€ für ne Vega56 Custom hätte ich auch gerne, wird aber nicht mehr passieren.
StefanV
2018-01-08, 09:48:31
Etwas ungewöhnliche Strategie.
Nein, sinnvoll.
Man verkauft an die, die die CHips auch ohne Probleme kaufen und nicht an die, die die Chips eh nicht wollen (Gamer)...
Darfst nicht vergessen, dass kaum ein Enduser AMD GPUs will...
deekey777
2018-01-08, 09:51:23
https://www.notebookcheck.com/AMD-zeigt-Notebookgrafikkarte-basierend-auf-den-aktuellen-Vega-Chip-mit-HBM.277170.0.html
Die Radeon Vega Mobile getaufte Grafikkarte soll besonders durch die geringe Bauhöhe des Chips und kompakte Bauform überzeugen. Die Ähnlichkeiten zur Kaby-Lake-G-Grafiklösung sind jedoch deutlich.
So viel zum Thema "iGPU mit bis zu 28 CUs".
Hübie
2018-01-08, 09:59:26
Zum einen gibts Raven Ridge im untersten Preissegment und zum anderen wird Vega 56 dieses Jahr eh Richtung 300 Euro rutschen.
Wenn nicht kann es nur gut sein weil es bedeutet das AMD die Karten weiterhin aus der Hand gerissen werden was AMD guten Umsatz beschert.
Du kannst dir sicher sein, dass der Einzelhandel sich die Taschen vollstopft, nicht AMD. AMD wird über die Kanäle (sofern vorhanden) etwas mehr nehmen, aber sicherlich eher marginal.
Wenn es so kommt wie v_v zitiert hat, bedeutet es im Grunde, dass dieses Jahr wieder nix zum Spielen von AMD kommt und Navi wohl erst Mitte 2019 als neuer top dog kommen wird. Schade. Damit würde AMD derbe hinter hinken. Es sei denn Navi kommt nicht in 7nm...
nairune
2018-01-08, 10:02:51
Darfst nicht vergessen, dass kaum ein Enduser AMD GPUs will...
Das ist doch Unsinn. Vernünftige 56er Customs um die 400€ würden mit Handkuss weggehen. Es warten so Einige auf ein Freesync-taugliches Upgrade.
Auf dem getwitterten Bildchen ist doch definitiv das "RX" Vega-Logo, soll das etwa nur der mobile Kram sein?
2018 MUSS noch etwas für Gamer kommen. Und wenn es einfach Stückzahlen für Vega sind.
Der_Korken
2018-01-08, 10:06:35
Sehr unbefriedigende Situation für mich. Ich spiele seit nem guten halben Jahr mit dem Gedanken ein neues Sys anzuschaffen inklusive neuem Montior, idealerweise AMD+FreeSync. Nachdem sich auf dem Monitormarkt schon seit gefühlt zwei Jahren nichts tut, wird wohl auch auf der GPU-Seite von AMD dieses Jahr nichts interessantes für Gamer kommen. Realistischerweise wird man mit 7nm erst gegen Ende des Jahres rechnen können und wenn der Chip schon explizit nicht als primäre Gaming-Lösung angekündigt wird, darf man wohl vorerst nicht mit vertretbaren Preisen rechnen (oder das Ding taugt performancemäßig nicht fürs Gaming). Gleichzeitig sind auch die Preise der vorhandenen Karten völlig abgehoben. Ich finde das ziemlich fahrlässig von AMD die Marktpräsenz im Gaming-Bereich so herzuschenken.
Bucklew
2018-01-08, 10:06:54
Mal sehen, wie AMD gegen Volta in Sachen AI/DL antreten möchte. Ein einfacher FP16/FP32/FP64 Chip in jeweils FullSpeed wäre gegen die TensorCores definitiv zu wenig. Zumal das Ganze erst 2019 lieferbar sein wird, wenn man für dieses Jahr nur vom sampeln spricht. Und die Termintreue von AMD kennen wir ja inzwischen :freak:
Vega hat AMD wohl offensichtlich auch als Flop erkannt und investiert keine Ressourcen mehr. Der Chip ist einfach zu langsam, um einen vernünftigen Preis bei den Herstellungskosten zu erzielen.
Vernünftige 56er Customs um die 400€ würden mit Handkuss weggehen.
Das wäre doch für AMD das reinste Verlustgeschäft. Als ob man einen 480mm² Chip mit HBM2 für 400€ verkaufen könnte....
Hasenpfote
2018-01-08, 10:10:10
Nein, sinnvoll.Genau! Und wenn man aufgrund der neuen fertigung nur ne Handvoll Karten liefern kann, wird einem nicht gleich der Kopf abgerissen. Wenn AMD ferner ordentliche Treiber liefert und zeigt, dass sich sich um's professionelle Segment Gedanken machen, kann es auch sein, dass sie z.B. bei CAD wieder nen Fuß in die Tür kriegen (vorrausgesetzt, OpenGL läuft bis dahin fehlerfrei). Dann kann man nämlich AMD wieder als mögliche Lösung sehen bzw. AMD kann Komplettlösungen anbieten:
- Epyc als Serverplattform
- Radeon Instinct für KI, Machine Learning, Compute, o.ä.
- Radeon WX zur Virtualisierung (MxGPU) (z.B. CAD)
AMD könnte dann alles aus einer Hand anbieten und aufeinander abstimmen.
z.B. ANSYS auf ner Instinct und anschließend in CATIA auf ner WX das Modell anschauen. Und der Konstrukteur muss dafür nichts machen und werkelt auf nem ZeroClient.
Rancor
2018-01-08, 10:11:47
Ich finde die Strategie von AMD doch richtig. Wenn im Gaming Markt nichts zu holen ist, dann wird eben auf den professionellen Bereich / Mining gesetzt.
VEGA findet dort ja auch reißenden Absatz und ist besonders im Mining Bereich Nvidia deutlich überlegen. Es wäre wirtschaftlich fatal das nicht auszunutzen.
Es ist natürlich ärgerlich für die AMD Gaming Fans, aber es deutet alles darauf hin, das AMD sich auf den professionellen Bereich fokussieren möchte und Gaming eher zweitrangig ist.
Die CES wird es zeigen.
Mal sehen, wie AMD gegen Volta in Sachen AI/DL antreten möchte. Ein einfacher FP16/FP32/FP64 Chip in jeweils FullSpeed wäre gegen die TensorCores definitiv zu wenig. Zumal das Ganze erst 2019 lieferbar sein wird, wenn man für dieses Jahr nur vom sampeln spricht. Und die Termintreue von AMD kennen wir ja inzwischen :freak:
Na hoffentlich finden Sie eine Lösung dort konkurrenzfähig zu werden. Ein Nvidia Monopol braucht wohl niemand. Es ist schon schlimm genug, das Sie ( AMD ) im Gaming Bereich nicht ganz mithalten können. Ich habe jedenfalls keinen Bock für ne 2070 600€+ auf den Tisch zu legen.
Bucklew
2018-01-08, 10:18:02
Ich finde die Strategie von AMD doch richtig. Wenn im Gaming Markt nichts zu holen ist, dann wird eben auf den professionellen Bereich / Mining gesetzt.
Ist dem denn so?
Die letzten Marktanteile, die ich vom professionellen Business für GPUs gelesen habe, waren für AMD einfach nur vernichtend. Dagegen ist selbst ihr heutiger Marktanteil im Gaming ein Traum.
Ich habe jedenfalls keinen Bock für ne 2070 600€+ auf den Tisch zu legen.
Und das glaubst du wird nicht passieren, wenn AMD den Gamingberich völlig ignoriert?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.