Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
Hübie
2016-10-09, 20:15:20
Hoffentlich nicht. Leaks sind manchmal gar nicht so verkehrt, wenn es denn positiv ist. :D
Magnum
http://www.ixbt.com/video/rage128/retail.jpg
Sunrise
2016-10-10, 00:42:10
Was ist denn 1XKing? Die PN und der Beschreibungsaufbau deutet auf AMD, aber mit 102-B... ist die Boardnummer eigentlich sehr alt, man ist ja mittlerweile bei 102-D... . Oder es ist ein abweichendes Projekt.
Nunja, ein FPGA-Projekt von AMD, mit DTV in der Bezeichnung eigentlich doch recht klar, was es ist. Sehe da keinen Zusammenhang zu Vega.
Complicated
2016-10-10, 09:00:49
Was ist denn 1XKing? Die PN und der Beschreibungsaufbau deutet auf AMD, aber mit 102-B... ist die Boardnummer eigentlich sehr alt, man ist ja mittlerweile bei 102-D... . Oder es ist ein abweichendes Projekt.
https://www.zauba.com/import-printed-circuit-board-magnum-hs-code.html
Der Eintrag trägt auch 21.0kt 2015 als Eintrag. also 1 Jahr alt.
Hübie
2016-10-10, 10:07:51
Ich habe mir mal so eins, zwei Gedanken zu dem FPGA gemacht und da Jetson in der Bastlerszene schon recht beliebt geworden ist, kann es sein dass man sich im Zuge von Industrie 4.0 und AI ('Deep learning') damit ebenfalls ein Standbein aufbauen will. Man hat Flexibilität und bessere Energiebilanz als mit so einer Arm-Schleuder. Custom ASICs sind sehr sparsam (habe neulich ein Paper von NV gelesen wo man einen 267 mW ASIC gegen 15-W-Jetson stellte für Imageseparation und -recognition und dennoch besser Leistung erhielt, da man eigentlich nur a*b+c und eine Anzahl an Register braucht). In dem Kontext macht es also Sinn so ein Produkt anzubieten.
Ailuros
2016-10-10, 10:59:12
HWLuxx spricht von 6 TFlops/s DP, also 1:2. Bisher ging man von 1:16 aus. (Sind es wirklich 1:16 oder konnte AMD nicht schon immer 1:4 DP ohne zusätzlichen Hardware-Aufwand? Bei Nvidia gibt es dedizierte DP-Einheiten, bei AMD nicht).
Wenn einer der chips ein sehr niedriges DP/SP ratio haben sollte, erreicht man rein theoretisch sogar eine hoehere DP Rate wenn man zwei cores auf ein PCB schmeissen wuerde.
Botcruscher
2016-10-10, 14:30:31
Oh der MCM Zombie ist endlich wieder da.:freak:
Nightspider
2016-10-10, 15:09:48
Ich finde es immer amüsant das ihr Vega als Gegner der 1080 seht obwohl der Chip voraussichtlich genauso groß sein wird wie GP102 und dabei sogar noch Fläche durch HBM einspart und durch HBM die höhere Bandbreite besitzen wird.
Es steht und fällt natürlich alles mit der neuen Architektur aber Vega10 sollte schon mindestens genau zwischen 1080 und Titan X liegen.
dargo
2016-10-10, 15:33:35
Wie kommst du jetzt darauf, dass Vega mit 64 CUs 471mm² groß wird? Man geht eher von 350-400mm² aus.
Der_Korken
2016-10-10, 15:36:38
Ich finde es immer amüsant das ihr Vega als Gegner der 1080 seht obwohl der Chip voraussichtlich genauso groß sein wird wie GP102 und dabei sogar noch Fläche durch HBM einspart und durch HBM die höhere Bandbreite besitzen wird.
Es steht und fällt natürlich alles mit der neuen Architektur aber Vega10 sollte schon mindestens genau zwischen 1080 und Titan X liegen.
Schon lustig: Das gleiche habe ich damals auch über Polaris 10 gedacht. Als man von den 232mm² noch nichts wusste und den Chip so auf 250-300mm² geschätzt hat, dachte ich auch, dass der Chip locker auf Fury-Niveau liegen wird bei <150W Verbrauch. Man hatte schließlich Architekturverbesserungen und den großen Sprung auf Finfet. Schon damals hatten im Polaris-Thread viele spekuliert, dass es bestenfalls für GM204 reichen wird und ich hab mich über den Pessimismus gewundert. Im Pascal-Thread war zeitgleich von Titan X+80% die Rede und >2,4Ghz OC-Takt.
Am Ende hatten die Pessimisten leider Recht, deswegen versuche ich meine Erwartungen an Vega so weit zurückzuschrauben wie möglich.
Nightspider
2016-10-10, 15:39:47
Wie kommst du jetzt darauf, dass Vega mit 64 CUs 471mm² groß wird? Man geht eher von 350-400mm² aus.
Wäre natürlich gut für die Marge aber wann kommt dann mal ein richtig großer HighEnd Chip? Mit Navi 2018?
Dann muss man hoffen das Vega 20 keine DualChip Lösung ist.
w0mbat
2016-10-10, 15:48:24
Ich denke, dass Polaris eine Art RV740 war/ist und Vega das wird/werden soll, was die meisten von Polaris erwartet haben.
Was mich auch interessiert, ist wie die HBM Implementation bei Vega, im Vergleich zu Fiji, aussehen wird. Werden wir eine ähnliche Anordnung auf die Die/Interposer sehen, oder wird es sichtbare Unterschiede geben? Was denkt ihr? Das wird nämlich auch zeigen ob Fiji vom Design schon viel richtig gemacht hat, oder ob HBM2 vielleicht doch das Layout ändert.
dargo
2016-10-10, 15:57:08
Wäre natürlich gut für die Marge aber wann kommt dann mal ein richtig großer HighEnd Chip? Mit Navi 2018?
Ganz ehrlich? Der Markt ist dafür am Desktop imho zu klein. Der Nachfolger wird afaik im selben Fertigungsverfahren erscheinen, so hat AMD noch Luft bei der Die-Size sollte es nötig sein.
Ganz ehrlich? Der Markt ist dafür am Desktop imho zu klein.
Das stimmt zwar, wenn sie damit aber auf die SC gehen und auch irgendwie Chips bringen, die doppelte FP16 und halbe FP64 Rate haben, muessen sie auch was anderes vorhaben als nur das.
Hübie
2016-10-10, 19:02:59
Ganz ehrlich? Der Markt ist dafür am Desktop imho zu klein. Der Nachfolger wird afaik im selben Fertigungsverfahren erscheinen, so hat AMD noch Luft bei der Die-Size sollte es nötig sein.
Unterschätze das mal nicht. Erinnerst du dich an den Aufschrei als Titan für 999$ kam? Die Lager waren dennoch leer und die kleineren Modelle sonnten sich unter dem Licht des Titanen. ;) AMD würde sicher für Wirbel sorgen.
Wuerde.
Wenn man einen Chip bringen wuerde, der mal bis zu 50% schneller ist, als das schnellste was es aktuell gibt. Und das ist doch nun nicht mehr nur unwahrscheinlich.
Hübie
2016-10-10, 19:09:26
Nun übertreib mal nicht. Allein TXP-Leistung würde jeden hier vom Hocker hauen.
Nightspider
2016-10-10, 19:45:20
Aber braucht AMD nicht eh nen großen Chip für den HPC Markt?
Wenn Fiji nicht so ein schlechtes Frontend gehabt und trotz HBM an der Speicherbandbreite gehangen hätte, hätte sich der 600mm² Chip auch blendend verkauft bei Gamern und im HPC Bereich.
Hier im Forum hab sich ja auch viele eine überteuerte 980ti geleistet.
@Hübie: sicher, deshalb verstehe ich auch nicht, worauf du mit dem Titan-Vergleich hinaus willst. Man wird sicher nicht die TXP so deutlich stehen lassen, geschweige denn, was mit Pascal noch moeglich ist. Ein irgendwie annaehernd aehnlicher Effekt wie bei der ersten Titan ist daher nicht zu erwarten.
@HOT: das ist die Frage. AMD hat bei HPC aktuell halt ueberhaupt nichts zu melden. Ich wuerde nicht erwarten, dass da viele Kunden schnell umsteigen oder schnell grosse Projekte rein kommen, zumal man sich mit der Software so von NV abhaengig gemacht hat. Sicher wird noch was nachkommen, sonst wuerde man nicht mehr als je in ordentliche Stacks auch fuer Linux investieren. Aber das muessen ja nicht zwangslaeufig sofort die dicksten Chips sein. Vielleicht erhofft man sich auch viel von der HPC APU. Und wenn die ganze Software Geschichte erstmal geregelt ist, kann man auch nachlegen, vorher macht es eh keinen Sinn.
Und wieso ueberteuerte 980 Ti? Damit ist man idR. besser gefahren als mit Fiji und hat gleich viel bezahlt.
Hübie
2016-10-10, 19:55:32
Dann guck dir mal das Potenzial bei GP102 an und habe im Hinterkopf dass wir von salvage sprechen. Also selbst wenn stock vs stock keine Differenzen grösser als 20% projizieren, spätestens OC vs OC wird es hässlich. Da erwarte ich von Vega wenig und hoffe still dass ich mich irre. ;)
Was verstehst du am obigen Statement nicht? Kurz: Großer schneller und effizienter Chip poliert das Image einer Serie auf. Das in einer konstanten Abfolge poliert das Image des IHVs.
Ich glaube, du verstehst mich nicht.
Man [AMD/Vega] wird sicher nicht die TXP so deutlich stehen lassen, geschweige denn, was mit Pascal noch moeglich ist.
Klar, wenn man ganz oben ein gute Karte hat, ist das gut. Es hat aber nichts von einem "Titan-Effekt", wenn man damit trotzdem noch nicht die #1 ist.
dargo
2016-10-10, 20:19:32
Unterschätze das mal nicht.
Ich korrigiere mich... der Markt ist dafür für AMD zu klein.
Hübie
2016-10-10, 23:54:27
Ich glaube, du verstehst mich nicht.
Klar, wenn man ganz oben ein gute Karte hat, ist das gut. Es hat aber nichts von einem "Titan-Effekt", wenn man damit trotzdem noch nicht die #1 ist.
Titanen sind auch nicht #1 wenn wir nur von Performance sprechen. ;) Die haben einfach was Exklusives, dass die Kundschaft anzieht. Wenn V10, mal angenommen, TXP Leistung erreichen könnte würde doch fast keiner mehr TXP kaufen. Man müsste bei NV umlabeln oder Preis senken, was bei Titan nicht passieren wird. Wäre ein Erfolg für AMD den man dann konsequent weiter verfolgen müsste. Alles Träumereien - ich weiß.
Ich hoffe ja das 2017 die Billigvariante von HBM im Performance-Segment Einzug erhält (V10 Salvage z.B. oder eben V11).
Flusher
2016-10-11, 00:16:09
Aber braucht AMD nicht eh nen großen Chip für den HPC Markt?
Wenn Fiji nicht so ein schlechtes Frontend gehabt und trotz HBM an der Speicherbandbreite gehangen hätte, hätte sich der 600mm² Chip auch blendend verkauft bei Gamern und im HPC Bereich.
Hier im Forum hab sich ja auch viele eine überteuerte 980ti geleistet.
Bei Gamern vielleicht schon. Im HPC Bereich hätte auch ein ausgewogeneres Frontend und höhere Speicherbandbreite nicht geholfen, da DP bei Fiji 1:16 SP liegt.
Was denn sonst?
Die erste Titan war seinerzeit die schnellste Karte. Als man Hawaii mit der 780 Ti kontern musste, sah man sich sogar genoetigt, eine Titan Black nachzulegen. TXM war damals die schnellste Karte, die TXP ist es heute. Voellig egal, ob irgendwelche Ti mit factory OC oder auch in der Referenz mit ein paar Hz mehr takten. Das macht auch eine Titan mit und hat dann zudem mehr Ressourcen. Wer kauft schon eine Titan und betreibt sie auf Standardtakt?
Und natuerlich wuerden in diesem Falle kaum noch Titanen verkauft werden. Das liegt aber wohl eher daran, dass die dann schon etwa seit einem Jahr verkauft wird. Selbes Spiel wie bei Hawaii, nur noch eine groessere Zeitspanne. Dann verkauft man halt mehr Ti, was AMD auch nicht hilft. Damit man einen Halo Effekt bekommt, muss schon mehr passieren, als die Konkurrenz von vor einem Jahr aufzuholen, ist doch egal zu welchem Preis. Oder willst du mir erzaehlen, dass Hawaii auch einen Halo-Effekt hatte?
V10 auf "Titan" Niveau finde ich schon sehr optimistisch. Wieso soll man Preissenkungen vornehmen muessen? Ti verkaufen und Titan Black teuer nachlegen. NV ist halt in der Position, so arbeiten zu koennen. AMD kann das nicht. Aber das ist imho eh rein hypothetisch. Ich waere schon froh, wenn man immerhin GP104 (und zwar auch OC) klar schlaegt. Wenn die bisherigen Infos auch nur halbwegs stimmen, kommt man auf aehnliche Rohleistung wie GP102, vermutlich bei kleinerem Chip. Das waere also vollkommen in Ordnung.
Ich hoffe auf keine spezielle Billigvariante von HBM, sondern vor allem darauf, dass die bekannten HBM2 Stacks den Weg in den Massenmarkt finden, dann wird das Zeug automatisch billiger und kann breiter eingesetzt werden. Und mit V11 koennte das auch klappen.
dargo
2016-10-11, 08:48:59
Kann eigentlich einer abschätzen wieviel mm² AMD bei V10 gegenüber Fiji durch zwei Speichercontroller weniger einspart?
https://www.flickr.com/photos/130561288@N04/28964311033/
Zusätzlich natürlich auch durch den Wechsel auf 14nm.
Complicated
2016-10-11, 14:28:01
Fijis SI-Größe pro 1024-bit ist etwas größer als ein 64-bit GDDR5 SI in 28nm. Soweit bekannt skalieren die GDDR5-SIs kaum auf 14nm, während die HBM2-SIs anscheinend besser runter skalieren (hier im Forum gelesen, aber weiß nicht mehr in welchem Thread) Allerdings habe ich dafür noch keine Quelle gefunden die das wirklich bestätigt.
Da waere ich nicht so sicher. Man hat immerhin Taktraten die bis zu doppelt so hoch sind. Zudem wird man sicher auch teils durch die vielen Kontakte limitiert, die µBumps muss man irgendwo unterbekommen.
Andererseits sehen die PHYs bei GP100 auch fast schon laecherlich klein aus. Wenn man davon ausgeht, waeren es nur eine handvoll mm² pro 1024 Bit Segment.
Achill
2016-10-11, 22:55:24
@Hübie, bei HPC sollte die Verteilung auf mehrere GPUs i.d.R. leichter sein als bei Games, da die Algorithmen, die auf der GPU laufen, schon parallelisiert werden können müssen.
Das ist dann nur eine Stufe mehr Map=>Reduce über GPU-Nodes in einen System/Cluster (sehr pauschalisiert). Man braucht keine riesigen GPUs nur wegen irgend welchen absoluten Perfomance-Werten. Was wichtig ist, wie so vieles im Server-Bereich, ist Perf/W, wie fexibel oder auch passend die Architektur bei bestimmten Problemtypen ist und was es alles in Summe initial und im Betrieb kostet (inkl. SW-Lizenzen).
Die starke FP16 Leistung der letzten NV-Generationen ist halt ein starkes Argument für Algorithmen / Einsatzgebiete die damit auskommen.
Intels Knight-Landing kann/wird auch nochmal ordentlich den Markt durchmischen. Das ist nochmal eine ganz andere Liga schon allein was (V)RAM (16 GB Stack Ram + 384 GB via 6xDDR4 Chanel) und die IO-Anbindung abgeht ...
Das ist aber jetzt alles Off-Topic - Sry.
Hübie
2016-10-11, 23:13:02
Wieso sprichst du mich an? :confused: Das ist mir alles nicht neu. Aber gut das wir drüber gesprochen haben. :D
Foobar2001
2016-10-11, 23:24:47
Die starke FP16 Leistung der letzten NV-Generationen ist halt ein starkes Argument für Algorithmen / Einsatzgebiete die damit auskommen.
Uuuuhhhm, Consumer-Pascal-Karten sind 1/32 FP16. Das betrifft wirklich ausschliesslich GP100.
Achill
2016-10-12, 00:04:07
Uuuuhhhm, Consumer-Pascal-Karten sind 1/32 FP16. Das betrifft wirklich ausschliesslich GP100.
Ja, habe von HPC mit Kepler GP100 gesprochen bzw. davon Sprechen die Medien wenn es mal weder eine Meldung zu KI-Training geht - warum geht es da immer nur ums Training ;).
Die neuen Consumer-Pascall-Produkte sind teilweise noch schlechter als 1/32 bei FP16, geht bis zu 1/128 da nicht immer alle FP16 Einheiten angesprochen werden können, Quelle: http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5
Ailuros
2016-10-12, 10:03:25
Ja, habe von HPC mit Kepler GP100 gesprochen bzw. davon Sprechen die Medien wenn es mal weder eine Meldung zu KI-Training geht - warum geht es da immer nur ums Training ;).
Die neuen Consumer-Pascall-Produkte sind teilweise noch schlechter als 1/32 bei FP16, geht bis zu 1/128 da nicht immer alle FP16 Einheiten angesprochen werden können, Quelle: http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5
Es war aber trotz allem von vorne bis hinten falsch formuliert:
Die starke FP16 Leistung der letzten NV-Generationen ist halt ein starkes Argument für Algorithmen / Einsatzgebiete die damit auskommen.
Ausserhalb von der Tegra X1 GPU und GP100 gibt es nirgends einen sehenswerteren FP16 throughput. Von "Generationen" ist hier ueberhaupt nichts zu sehen. Dass FP16 und auch INTxx Leistung extrem zugenommen hat ist nichts Neues und hier folgt NVIDIA eher einem generellen Markt-trend als in irgend einer Art und Weise zu "innovieren". Bis zum Punkt wo der X1 SoC angekuendigt wurde, waren fuer NV fanboys dedizierte FP16 SPs, Material zum "bescheissen".
horn 12
2016-10-20, 23:01:56
http://wccftech.com/amd-dracrays-vega-10/
Mit den bisherigen Geruechten zu Vega und auch
http://wccftech.com/amd-dracrays-vega-10/
+ der Info aus dem PS Thread
Features die über das Set von Polaris hinausgehen und erst bei zukünftigen dGPUs von AMD implementiert sein sollen:
- x2 FP16 Durchsatz bzw. 8,4 TF FP16
- Load-Balancing-Verbesserungen
wuerde ich doppelten FP16 Durchsatz fuer Vega als wahrscheinlich ansehen. Nvidia verfolgt das ja schon laenger (allerdings iirc bisher nicht mit auf GeForces), die neue von Nintendo und eben die Pro bekommt es, also koennte es schon auch fuer Echtzeitgrafik wichtig werden.
Das ist mir noch etwas raetselhaft:
The work distributor in PS4 Pro is very advanced. Not only does it have the fairly dramatic tessellation improvements from Polaris, it also has some post-Polaris functionality that accelerates rendering in scenes with many small objects... So the improvement is that a single patch is intelligently distributed between a number of compute units, and that's trickier than it sounds because the process of sub-dividing and rendering a patch is quite complex.
Dachte erst dass es um die Effizienz des Rasterizers bei kleinen Dreiecken gehen soll, aber das stimmt ja mit dem 2. Teil offenbar nicht. Was meint man denn ueberhaupt mit "Patch"?
Hübie
2016-10-21, 11:05:50
Ich glaube eher Batch? :confused: Obwohl das auch nix neues wäre. Hm. Vielleicht auch zwei Dreiecke die nebeneinander liegen... Ach keine Ahnung was die meinen. :redface:
Aus der News von wtf-tech:
TDP It breaths fire, what do you think?
:biggrin::biggrin::biggrin:
An Batch habe ich auch erst gedacht, dann hätten sie es aber 2x hintereinander falsch geschrieben^^
Gipsel
2016-10-21, 14:45:38
Patch stimmt schon. Das ist sozusagen ein Abschnitt einer Oberfläche und stellt sowas wie die Grundeinheit für Geometriedaten bei Tessellation dar (MS-Seite in Deutsch dazu (https://msdn.microsoft.com/de-de/library/windows/desktop/ff476340%28v=vs.85%29.aspx?f=255&MSPPError=-2147217396)). Der Tessellator arbeitet im Prinzip auf einem Patch und unterteilt den grob gesprochen in kleinere Primitives (eigentlich erzeugt die erst der Domainshader und der Tessellator liefert Koordinaten, aber egal), bevor er mit dem nächsten Patch weitermacht. Bei hohen Tessfaktoren entstehen aus einem Patch sehr viele Dreiecke, die man dann eben möglichst günstig auf mehrere CUs verteilen will. Das kann der Chip in der PS4 Pro offenbar besser (bzw. überhaupt) als bisherige AMD-GPUs (inklusive Polaris). Das war aber auch ein Bereich, wo es bei AMD bisher immer noch etwas hakte.
horn 12
2016-10-22, 00:02:28
Neuer Fury GPU Chip
http://www.bitsandchips.it/52-english-news/7582-new-fury-card-spotted-in-the-newest-crimson-drivers
Abverkauf von Fury oder bereits eine Vega Version.
Oder haut man nun gar Fury mit 8GB raus?
Complicated
2016-10-22, 00:44:40
Radeon Pro SSG:
http://www.heise.de/newsticker/meldung/AMD-Radeon-Pro-Profi-Grafik-und-Rechenbeschleuniger-mit-SSD-3278604.html
Wie kommst du auf 8 GB Speicher?
http://1.f.ix.de/scale/geometry/695/q75/imgs/18/1/8/6/0/0/1/3/RadeonPro-SSG-16-9-d7bdd22d560ff4ab.jpeg
Weil das blau so geil ist! ;)
Wusstet ihr schon.... https://en.wikipedia.org/wiki/YInMn_Blue
horn 12
2016-10-23, 10:58:29
@AnarchX
@Ailuros
Sollte Vega es schaffen bis Dezember 2016 releast werden zu können?
Oder wird dies erst Jänner bis Febraur 2017 soweit sein.
Welche sind Eure Neuesten Infos
Hübie
2016-10-23, 11:46:19
Radeon Pro SSG:
http://www.heise.de/newsticker/meldung/AMD-Radeon-Pro-Profi-Grafik-und-Rechenbeschleuniger-mit-SSD-3278604.html
Wie kommst du auf 8 GB Speicher?
http://1.f.ix.de/scale/geometry/695/q75/imgs/18/1/8/6/0/0/1/3/RadeonPro-SSG-16-9-d7bdd22d560ff4ab.jpeg
Weil das blau so geil ist! ;)
Wusstet ihr schon.... https://en.wikipedia.org/wiki/YInMn_Blue
Das mit dem Blau ist ja mal interessant. Wusste ich jedenfalls nicht. Danke! :up:
Auch dir danke für die Entknotung, Gipsel.
Thunder99
2016-10-23, 12:05:50
http://www.pcgameshardware.de/Playstation-4-PS4-Pro-Konsolen-264565/News/Bietet-Features-der-neuen-AMD-Vega-GPUs-1211169/
Könnte in der Tat dann langen mit Vega dann auf das Niveau der Geforce Grafikchips zu kommen? :confused:
AnarchX
2016-10-23, 12:14:59
Mehr Auslastung (Work Distributor) und mehr Daten zur zu berechnenden Szene (ID Buffer), sind durchaus Verbesserungen die aktuelle Schwächen verringern können. Wie gut dass dann in der Praxis funktioniert, muss sich zeigen.
Hübie
2016-10-23, 12:37:17
Es scheint jedenfalls ein gewisser Synergie-Effekt da zu sein. Klingt ja schon fast so als ob Sony die Arbeit der AMD-Architekten übernimmt...
Thunder99
2016-10-23, 12:46:51
AMD könnte jede Hilfe gebrauchen. GCN ist einfach nicht mehr konkurrenzfähig für das "jetzt"
dargo
2016-10-23, 12:58:25
Klingt ja schon fast so als ob Sony die Arbeit der AMD-Architekten übernimmt...
Was ein Blödsinn. Als ob es Custom-SoCs erst seit gestern gibt.
GCN ist einfach nicht mehr konkurrenzfähig für das "jetzt"
Ebenfalls Unsinn.
fondness
2016-10-23, 12:59:13
Es scheint jedenfalls ein gewisser Synergie-Effekt da zu sein. Klingt ja schon fast so als ob Sony die Arbeit der AMD-Architekten übernimmt...
LOL, Sony hat die Roadmap und weiß damit, wann welche Features zur Verfügung stehen und entscheidet auf Grundlage dessen, was man drinnen haben möchte. Entwickelt wird das natürlich von AMD. Genau das sagt im übrigen der Sony-Mensch auch.
Hübie
2016-10-23, 13:05:06
Es klingt aber anders ;) Wie die Prozesse sind weiß ich ja nicht. Sitz ja nicht daneben. Erfreulich dass AMD sinnvolle, neue Features implementiert. Damit kann hoffentlich das Thema Tesselation auf Radeons ad acta gelegt werden. Jetzt noch am AF drehen und der DCC schrauben. Vega könnte wirklich was werden, wenn man das mal so zusammenfasst was bisher durchgedrungen ist.
fondness
2016-10-23, 13:07:57
Es klingt aber anders ;)
Weil du das so lesen willst. Sony kann natürlich Features vorschlagen, die sie gerne hätte, was aber nicht heißt, dass AMD diese auch integriert. Aber die eigentliche Entwicklung wird natürlich nicht extern passieren.
Hübie
2016-10-23, 13:09:05
Nein weil ich keine Ahnung habe wie das da läuft :P
Unicous
2016-10-23, 13:20:11
Was ist denn daran so schwer zu verstehen?:confused:
AMD sagt, wir haben Feature X was sagt ihr dazu, wollt ihr das implementiert haben. Sony sagt ja cool was habt ihr noch so für Features in der pipeline, die man implementieren könnte.
Wie kann man denn darauf schließen, dass Sony AMDs Job macht?:rolleyes:
Thunder99
2016-10-23, 13:29:39
Was ein Blödsinn. Als ob es Custom-SoCs erst seit gestern gibt.
Ebenfalls Unsinn.
Perf/Watt. Effizenz der ALU, soll ich weitermachen? ;). Deren Architektur ist per se nicht schlecht. Aber halt nicht auf Augenhöhe von der Konkurrenz. Polaris ist ein guter Schritt. Wollen wir hoffen das Vega ein größerer wird.
=Floi=
2016-10-23, 13:33:58
Es scheint jedenfalls ein gewisser Synergie-Effekt da zu sein. Klingt ja schon fast so als ob Sony die Arbeit der AMD-Architekten übernimmt...
diese baustelle der amd architektur wird auch amd selbst kennen. ist ja seit zig gegerationen bekannt und der flaschenhals nummer eins!
Korvaun
2016-10-23, 13:39:39
Also ID-Buffer+"Checkerboard-Upscaling" wäre auch für moderne PC-Grafikkarten nicht übel wenn es wirklich so gut funktioniert wie beschrieben (z.b. bei Eurogamer PS4pro Artikel). Damit wären dann 4k@60Hz bei max. Details für High-End-Grakas praktisch immer möglich. Ich glaube aber gelesen zu haben das Sony das z.T. selbst entwickelt (und sogar patentiert) hat. Wenn dem so ist dann wirds wohl Sony exklusiv haben... :(
Hübie
2016-10-23, 13:44:18
Wie kann man denn darauf schließen, dass Sony AMDs Job macht?:rolleyes:
Vielleicht weil man meinen müsste AMD wisse was die Industrie nicht erst seit gestern fordert? :rolleyes:
Nvidia hat auch gar nichts dergleichen, die muessten es dieser Logik nach genauso wissen.
Davon ab war die Aussage klar: AMD zeige sich kollaborativ und zusammen siehe man sich an, was auf der Roadmap steht. Und nicht: "wir spielen wuensch dir was und AMD baut das fuer uns".
Sony hat doch auch rein gar nichts damit am Hut, es ist etwas laecherlich AMD als inkompetenten Haufen hinzustellen, der die Kunden die Arbeit fuer sich machen laesst.
mboeller
2016-10-23, 14:17:16
Was ist denn daran so schwer zu verstehen?:confused:
AMD sagt, wir haben Feature X was sagt ihr dazu, wollt ihr das implementiert haben. Sony sagt ja cool was habt ihr noch so für Features in der pipeline, die man implementieren könnte.
Wie kann man denn darauf schließen, dass Sony AMDs Job macht?:rolleyes:
wie wäre es mit beiden Möglichkeiten?
"We can have custom features and they can eventually end up on the [AMD] roadmap," Cerny says proudly. "So the ACEs... I was very passionate about asynchronous compute, so we did a lot of work there for the original PlayStation 4 and that ended up getting incorporated into subsequent AMD GPUs, which is nice because the PC development community gets very familiar with those techniques. It can help us when the parts of GPUs that we are passionate about are used in the PC space."
die Idee zu der großen Anzahl an ACE's kam also von Sony. AMD hat die dann anscheinend nachträglich in ihre Desktop-GPUs eingefügt.
und auch beim ID-Buffer hört es sich für mich so an, als ob die Idee und vielleicht sogar ein Teil der Umsetzung von Sony kommen:
"We'd really like to know where the object and triangle boundaries are when performing spatial anti-aliasing, but contrast, Z [depth] and normal are all imperfect solutions," Cerny says. "We'd also like to track the information from frame to frame because we're performing temporal anti-aliasing. It would be great to know the relationship between the previous frame and the current frame better. Our solution to this long-standing problem in computer graphics is the ID buffer. It's like a super-stencil. It's a separate buffer written by custom hardware that contains the object ID."
das "our solution" kommt ja von Cerny
deekey777
2016-10-23, 14:32:45
Vielleicht weil man meinen müsste AMD wisse was die Industrie nicht erst seit gestern fordert? :rolleyes:
Wie wär's mit Satzzeichen für zwischendurch?
Also ID-Buffer+"Checkerboard-Upscaling" wäre auch für moderne PC-Grafikkarten nicht übel wenn es wirklich so gut funktioniert wie beschrieben (z.b. bei Eurogamer PS4pro Artikel). Damit wären dann 4k@60Hz bei max. Details für High-End-Grakas praktisch immer möglich. Ich glaube aber gelesen zu haben das Sony das z.T. selbst entwickelt (und sogar patentiert) hat. Wenn dem so ist dann wirds wohl Sony exklusiv haben... :(
Unabhängig davon:
Das Problem in der PC-Welt ist der kleinste gemeinsame Nenner.
dargo
2016-10-23, 15:41:15
Perf/Watt. Effizenz der ALU, soll ich weitermachen? ;). Deren Architektur ist per se nicht schlecht. Aber halt nicht auf Augenhöhe von der Konkurrenz.
Weitere Steigerung in Perf/Watt kommt mit Vega, das ist absolut sicher. Ich bin eh schon ganz gespannt auf Vega. Denn wenn die Gerüchte mit den 12 TFLOPs @225W TDP stimmen wäre Vega sogar effizienter als GP102. Natürlich muss man hier auch abwarten wie genau AMD es mit der TDP nimmt, siehe P10.
GCN ist nicht so schlecht wie viele denken. Es hapert immer noch zum großen Teil an der Software. Was AMD unbedingt braucht ist eine breitere Nutzung vom direkteren Zugriff auf die Hardware. Sprich DX12/Vulkan mit allem was dazu gehört... Shader Instrics, starken Einsatz von AC etc.
Hübie
2016-10-23, 15:46:50
So wie ich das verstanden habe ist GCN sogar die bessere µArch, da deutlich flexibler als Kepler, Maxwell oder Pascal. Es ist halt umständlicher aus jedem Fitzelchen das beste heraus zu holen und hapert teils noch an der Unterstützung. NVIDIA hat mit seinen properitären APIs ja hier einen klaren Vorteil, den AMD nicht bereit ist zu gehen.
Screemer
2016-10-23, 15:57:46
Das haben foobar2000 gipsel schon häufiger gesagt, wenn ich mich richtig erinnere.
aufkrawall
2016-10-23, 16:05:37
NVIDIA hat mit seinen properitären APIs ja hier einen klaren Vorteil, den AMD nicht bereit ist zu gehen.
Warum schon wieder diese Vermengung von Gaming und Compute?
DX11 ist keine NV-API. Und auch mit OpenCL gibts Anwendungen, die auf GCN scharchig laufen, etwa Folding@Home. Da ist eine 1070 mehr als doppelt so schnell als eine 390.
Hübie
2016-10-23, 16:18:59
CUDA und NVAPI? :rolleyes: Diese werden auch für gaming genutzt.
Edit: Ach ja und die extensions in OGL nicht zu vergessen. :P
aufkrawall
2016-10-23, 16:23:17
CUDA und NVAPI? :rolleyes: Diese werden auch für gaming genutzt.
Haben aber sicherlich nichts mit der durchweg recht guten Auslastung zu tun.
Unicous
2016-10-23, 17:56:22
@mboeller
AMD hat gar nichts nachträglich eingebaut. Bedenke doch bitte, dass die Entwicklung der GCN-Generationen nicht stehenbleibt. AMD hat in den letzten Jahren gezeigt, dass sie neue Features auch in ältere GCN-Generationen einbaut, siehe die APUs die mit verschiedenen Featuresets ausgestattet sind, wie z.B. Carrizo das schon (nicht aktive) Features hat, die erst bei Polaris/Bristol Ridge genutzt werden.
Als Sony angefangen hat mit AMD zu kollaborieren, war GCN1 schon längst fertigestellt und parallel arbeitete man schon an den nächsten Iterationen. Sony hat sicherlich gesagt, Mensch ihr habt diese IP und diese IP, das wollen wir haben und sicherlich haben sie auch gesagt, wir brauchen dies und jenes. Aber glaube doch bitte nicht, dass AMD den input von Sony braucht um ihre eigene IP zu implementieren.:wink:
Sony hat die Transistorzahl/Die-Größe/Performance/grobes Featureset vorgegeben, bzw. wie teuer der SoC sein darf und daraufhin hat man dann geschaut welche und wie viele Blöcke man auf den Die bekommt.
http://www.pcgameshardware.de/Playstation-4-PS4-Pro-Konsolen-264565/News/Bietet-Features-der-neuen-AMD-Vega-GPUs-1211169/
Tatsächlich treffe fast das Gegenteil zu, denn die Grafikchips für die Konsolen seien "kampferprobt" und damit dann einfacher für Desktop-Grafikkarten umzusetzen. "Einige Features der AMD-Roadmap erscheinen zum ersten Mal in der Playstation 4 Pro", so Cerny. AMD sei ungeheuer kooperativ und es sei eine Freude, mit ihnen zusammenzuarbeiten.
"Wir sagen ihnen, wie viele Compute Units wir wollen, sehen uns die Roadmap-Features an, die Fläche, treffen einige Entscheidungen und haben - in diesem Fall - von Zeit zu Zeit die Möglichkeit, ein Feature in unserem Chip zu haben, bevor es in einer eigenständigen GPU zu finden ist. Dieses Mal haben wir sogar zwei davon, was sehr schön ist."
Thunder99
2016-10-23, 19:17:24
Weitere Steigerung in Perf/Watt kommt mit Vega, das ist absolut sicher. Ich bin eh schon ganz gespannt auf Vega. Denn wenn die Gerüchte mit den 12 TFLOPs @225W TDP stimmen wäre Vega sogar effizienter als GP102. Natürlich muss man hier auch abwarten wie genau AMD es mit der TDP nimmt, siehe P10.
GCN ist nicht so schlecht wie viele denken. Es hapert immer noch zum großen Teil an der Software. Was AMD unbedingt braucht ist eine breitere Nutzung vom direkteren Zugriff auf die Hardware. Sprich DX12/Vulkan mit allem was dazu gehört... Shader Instrics, starken Einsatz von AC etc.
Schön und gut, aber ich befürchte das kommt erst 2018/2019 so richtig in Fahrt. Ein AMD bekanntes Problem das Features und Potential zu spät genutzt wird (und damit jetzt kein Geld verdient ist). Den Kunden freut es aber mehr auch nicht :(
@MR2: Schau mal eine Seite zurück, das habe ich schon gepostet. :rolleyes:
Screemer
2016-10-23, 19:19:10
@mr2: Hast du die letzte Seite gelesen?
Rampage 2
2016-10-27, 01:27:35
Jetzt noch am AF drehen und der DCC schrauben. Vega könnte wirklich was werden, wenn man das mal so zusammenfasst was bisher durchgedrungen ist.
Was ist denn mit dem AF? Schlechtere Qualität als bei Nvidia? :confused:
R2
aufkrawall
2016-10-27, 01:35:23
Was ist denn mit dem AF? Schlechtere Qualität als bei Nvidia? :confused:
Sogar in mehrerlei Hinsicht:
-AMD HQ ist allgemein etwas flimmriger als NV HQ
-negatives LOD-Bias ist bei AMD immer kaputt, bei NV ab DX10 HQ nicht
-bei DX12 bietet AMD offenbar nur Q an, in Forza Apex flimmert etwa der Asphalt recht unschön
-bei DX12 kann man mit AMD kein AF forcieren, in Forza Apex ist deshalb etwa der grüne Steitenstreifen mit AMD immer matschig (das Spiel filtert den von sich aus höchstens 4x)
-in RotTR kostet 16x AF mit AMD-GPUs doppelt so viel wie mit Nvidia, abnorme 40%
horn 12
2016-10-27, 06:49:36
Hoffe doch sehr dass Vega fast zeitgleich mit Zen kommen wird und man bei AMD in die Vollen schlägt.
Polaris 10 ist nicht schlecht, aber weit weg von dem was uns AMD Anfang dieses Jahres 2016 verkaufen wollte. Zumindest Vega muss dem Ganzen gewaltig einen draufsetzen!
AMD gib Gas!!!
Korvaun
2016-10-27, 07:49:27
Dein Optimismus in allen Ehren, es wäre schon super gut für AMD wenn VEGA auf Augenhöhe mit Pascal(-Refresh) liegt und Zen auf Augenhöhe mit Skylake ist (jeweils bezüglich Performance und Effizienz).
mboeller
2016-10-27, 09:34:06
... und Zen auf Augenhöhe mit Skylake ist (jeweils bezüglich Performance und Effizienz).
wie kommst du auf das sehr dünne Brett?
dargo
2016-10-27, 09:37:31
Hoffe doch sehr dass Vega fast zeitgleich mit Zen kommen wird und man bei AMD in die Vollen schlägt.
Zeitgleich wäre selten dämlich. Mit zwei separaten Ankündigungen bleibst du länger im Gespräch. ;)
Screemer
2016-10-27, 09:38:55
@mboeller: gemerkt, dass es eine hoffnung war? nein.
Vega?
Radeon Pro Duo - 2048-bit
http://ranker.sisoftware.net/show_run.php?q=c2ffcdfbddbcdde0d2e0d3eadee7c1b38ebe98fd98a595b3c0fdc5&l=en
schon moeglich, vielleicht kommt doch noch was von der SC
Kleine Erinnerung: Kommende Woche findet in Salt Lake City die SC 2016 statt. AMD spricht dort ueber ROCm. Zudem gab es Geruechte, AMD wolle da irgendwas zu Vega zeigen, auch das mit dem FPGA wuerde zeitlich passen. Keine Ahnung ob was dran ist, aber vielleicht interessiert sich so oder so jemand dafuer
http://sc16.supercomputing.org/presentation/?id=exforum117&sess=sess240
http://sc16.supercomputing.org/presentation/?id=emt117&sess=sess246
Sieht für mich eher so aus, als möchte SKHynix HBM1 nicht weiterproduzieren und man bastelt stattdessen eine billige Ersatz-Lösung mit HBM2. Da sind ja auch nur 2 2er HiStacks verbaut. Das passt nur zu Fiji. Ist halt ne Radeon Pro Duo rev.2 nur mit HBM2 statt HBM1 aber mit exakt denselben Specs.
BoMbY
2016-11-15, 12:34:34
Sandra ist Schrott. Die Speichererkennung ist miserabel. Wenn man eine neue Version von Fiji mit HBM2 bastelt, warum zum Teufel sollte man dann wieder nur 4 GB drauf packen?
Weil man die Specs der Radeon Pro Duo nicht ändern möchte? Das wär zu einfach offenbar :D.
BoMbY
2016-11-15, 12:41:21
Eine Änderung der Anzahl der Speichermodule und ein evtl. Upgrade des Speichercontrollers kostet eine Menge Geld, mal ganz abgesehen von der Validierung, usw. Die Investitionskosten würden die mit einer 4 GB Karte niemals wieder rein holen.
lilgefo~
2016-11-15, 13:10:27
Jo, selbst wenn das nen Vega Chip waere, was ich nicht glaube, wer soll sowas kaufen wenn nur 4GiB verbaut sind.
BoMbY
2016-11-15, 13:22:31
Das ist 100% kein Vega, sondern Fiji. Abgesehen davon hat Sandra HBM schon immer und oft falsch erkannt, auch schon 2015 (http://ranker.sisoftware.net/show_run.php?q=c2ffcdfbddbcdde0d2e3d1e6d4edcbb984b492f792af9fb9caf7c7&l=en).
Fiji kann HBM2. Da gibts offenbar auch gar keine Unterschiede in der Hinsicht. Nur das Package muss verändert werden. Anstatt 4 x 4 HiStacks mit je 1GB gibts jetzt halt nur noch 2x 2 HiStacks mit je 2GB und doppelter Taktrate, wenn die Werte stimmen. Es bleibt also bei 4GB mit 512GB/s. Das Produkt Radeon Pro Duo bleibt also im Prinzip exakt so wie bisher. Dual-Vega10 wird die Karte sicherlich irgendwann ablösen, aber damit ist vor Mitte bis Ende 2017 denke ich nicht zu rechnen.
Der MC von Fiji muesste aber auch ueberhaupt erstmal locker die doppelte Taktrate mitmachen. Wenn Hynix nur HBM2 Stacks mit Pseudochannels baut, weiss ich auch nicht ob das kein Problem gibt.
Woher wissen wir ueberhaupt dass das eine dGPU Karte ist? SiSoft liesst allen moeglichen Scheiss aus, das kann da auch nur aufgrund bisher unbekannter device id stehen. Ausserdem kann auch alles falsch sein: Speichermenge, -takt, Breite des SI. Bei SiSoft ja nichts neues.
Wir reden hier über eine Radeon Pro Duo. Wie auch immer das Ding jetzt aussieht, die Specs bleiben gleich (4k CUs und 512GB/s und das Ganze doppelt) und es ist Fiji, Punkt. Wenns tatsächlich falsch ausgelesen wird, dann ist das Ding genau wie bisher, ohne Änderungen. Es gibt nur diese beiden Optionen. Entweder Sandra zeigt scheisse an und es ist eine stinknormale Pro Duo oder man aktualisierte das, weil HBM1 nicht länger verfügbar ist. Vega und alles Weitere diesbezüglich ist pure Spinnerei in meinen Augen.
Botcruscher
2016-11-15, 15:03:12
Fiji läuft viel zu schlecht um da noch irgendwie nutzlos Kohle drin zu versenken. Ohne Änderungen am Chip wird da nicht eben mal anderer HBM angeflanscht.
[MK2]Mythos
2016-11-15, 17:31:26
Fiji läuft viel zu schlecht um da noch irgendwie nutzlos Kohle drin zu versenken. Ohne Änderungen am Chip wird da nicht eben mal anderer HBM angeflanscht.
Ich hätte Mitte des Jahres durchaus noch Interesse an Fiji mit 8 GB gehabt. Jetzt ist der Zug jedenfalls abgefahren.
Auf alle Fälle würden horn's feuchte Träume, einen Fiji-Reloaded noch zu sehen, doch endlich wahr... :D
Complicated
2016-11-15, 18:18:30
Also einfach HBM2 anstatt HBM1 auf Fiji zu nutzen wird nicht so gehen. Schaut man sich den Chip mit Interposer an, dann sieht man dass dort kein Platz ist für die 3x so großen Flächen der HBM2 Chips.
http://cdn.wccftech.com/wp-content/uploads/2015/06/AMD-Fiji-DIe.jpg
http://cdn.techfrag.com/wp-content/uploads/2016/04/SK-Hynix-GDDR5-HBM-HBM2-side-by-side-comparison.jpg
Also hier müsste der Interposer angepasst werden und dann das Package. Und wenn man sich das Platinen-Layout anschaut von der Radeon Pro Duo, dann wird klar dass man dann auch gleich den Speicher verdoppeln kann wenn man schon dabei ist.
http://images.anandtech.com/galleries/4832/RadeonProDuoBareD_StraightOn_4c_5inch_575px.jpg
Hier besser zu vergleichen:
http://cdn.videocardz.com/1/2016/03/hbm2-vs-hbm1-size-comparison.png
Agent117
2016-11-15, 18:33:19
Also einfach HBM2 anstatt HBM1 auf Fiji zu nutzen wird nicht so gehen. Schaut man sich den Chip mit Interposer an, dann sieht man dass dort kein Platz ist für die 3x so großen Flächen der HBM2 Chips.
Aber es wären ja auch nur 2 HBM2 Chips statt 4 HBM1 Chips. Wenn z.B. die GPU etwas nach links rückt bekäme man die zwei HBM2 Chips rechts daneben untergebracht, die auch neben den beiden rechten Speichercontroller des Fiji Chips liegen würden. Die Positionierung der Bauteile auf dem Interposer sollte aber ohnehin halbwegs flexibel sein.
Complicated
2016-11-15, 18:42:53
Nur wenn man den Interposer neu anordnet, welchen sinnvollen Grund gibt es dann nicht gleich 8 GB Speicher zu verbauen in 2 Stacks?
Loeschzwerg
2016-11-15, 18:50:18
Das wäre alles zu viel Aufwand für einen alten 28nm Chip.
http://ranker.sisoftware.net/show_run.php?q=c2ffcbfed8b9d8e5d4ecdfe9d1f785b888aecbae93a385f6cbf3&l=en
Vom Mai diesen Jahres => Das ist eine stinknormale Radeon Pro Duo; Anzeige von SiSoft wie immer bescheiden
Screemer
2016-11-16, 08:31:48
ob das schon vega ist:
Google will start equipping its sprawling data center infrastructure with AMD’s graphics processing units (or GPUs) to accelerate deep learning applications, AMD announced on Tuesday at a supercomputing conference in Salt Lake City, Utah.
[...]
“Google is building up its GPU-based infrastructure, and they want to ensure they offer AMD’s architecture,” said Raja Koduri, senior vice president and chief architect at AMD, in an interview. “Nobody has heard what AMD is doing in deep learning. This is a major first step for us.” http://www.forbes.com/sites/aarontilley/2016/11/15/google-taps-amd-for-accelerating-machine-learning-in-the-cloud/#29cce9e34181
fondness
2016-11-16, 08:59:38
Google ist der bedeutenste DataCenter Betreiber weltweit und auch bei Deep Learning führend. Der Design-Win ist also sehr hoch einzuschätzen.
Menace
2016-11-16, 09:06:00
Vega? Ich dachte doppelte Nano aka AMD FirePro S9300 x2 (http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2222685)
Ailuros
2016-11-16, 09:15:58
Vega? Ich dachte doppelte Nano aka AMD FirePro S9300 x2 (http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-newsArticle&ID=2222685)
Stimmt auch so. Offizieller geht es gar nicht ;)
Screemer
2016-11-16, 10:20:21
ajo. hätte die pressemitteilung wohl aufmerksamer lesen sollen und nicht nur überfliegen.
mksn7
2016-11-18, 00:33:45
Ich hab mich gestern beim AMD Stand auf der SC mit einem AMD Mitarbeiter unterhalten. AMD gibt sich da recht kampfeslustig bezüglich ihres Software und Hardwarestacks. Der Mitarbeiter hat ein paar Info angedeutet, aber ich weiß jetzt nicht ob das schon bekannt ist. Die profesionellen Varianten von Vega sollen wohl Mitte 2017 rauskommen. Das könnte aber einfach der gleiche Chip wie auf den Gamerkarten sein. Vega 10 ist SP fokussiert, Vega 20 bekommt höhere DP Raten.
Hübie
2016-11-18, 02:02:47
Google ist der bedeutenste DataCenter Betreiber weltweit und auch bei Deep Learning führend. Der Design-Win ist also sehr hoch einzuschätzen.
Ich will deinen Enthusiasmus nicht zerstören, aber sehr hoch eher nicht. Amazon und Microsoft müssen nachziehen, dann kann man das als klar positives Signal sehen. Dennoch finde ich es gut das Google als einziger auf beide Plattformen setzt. So kann man dem Kunden ein individuelles Angebot unterbreiten. Ich denke von der Vermarktung her ist Google hier wieder mal einen Schritt voraus. Es gibt übrigens jetzt schon Wartelisten. :freak:
Leonidas
2016-11-18, 03:58:44
Vega 10 ist SP fokussiert, Vega 20 bekommt höhere DP Raten.
Bestätigt damit das, was die früheren Leaks vermuten lassen haben:
https://www.3dcenter.org/news/veganavi-roadmaps-zwei-verschiedene-zukunftsvarianten-bei-amds-grafikchips
horn 12
2016-11-18, 06:48:02
Nun, Vega wird wohl recht Zeitnah mit Zen releast werden, Zen wird Mitte Jänner 2017 kommen, und VEGA "klein" wohl einige Wochen später aufschlagen und vielleicht gute 2 Wochen nach Zen angekündigt werden.
Wenn gar nicht zum Jahresende bereits um die Käufer heiß zu machen. Dies muss aber um Vieles besser gelöst werden als die Polaris GPU´s.
Somit wäre man in aller Munde, vorausgesetzt man kann in Mengen liefern und die Performance ist mehr als nur akzeptabel und diesesmal wirklich gut!
Ich hab mich gestern beim AMD Stand auf der SC mit einem AMD Mitarbeiter unterhalten. AMD gibt sich da recht kampfeslustig bezüglich ihres Software und Hardwarestacks. Der Mitarbeiter hat ein paar Info angedeutet, aber ich weiß jetzt nicht ob das schon bekannt ist. Die profesionellen Varianten von Vega sollen wohl Mitte 2017 rauskommen. Das könnte aber einfach der gleiche Chip wie auf den Gamerkarten sein. Vega 10 ist SP fokussiert, Vega 20 bekommt höhere DP Raten.
Danke fuer die Infos. Aber mal im Ernst: was sollen sie auch sonst tun, als sich selbstbewusst zu geben? ;)
Was die Hardware angeht sehe ich da eh keine Probleme gerade beim Computing. Woran es wirklich jahrelang bei AMD gefehlt hat wird erst gerade langsam mit der ROCm behoben.
maximus_hertus
2016-11-19, 04:33:09
Nun, Vega wird wohl recht Zeitnah mit Zen releast werden, Zen wird Mitte Jänner 2017 kommen, und VEGA "klein" wohl einige Wochen später aufschlagen und vielleicht gute 2 Wochen nach Zen angekündigt werden.
Wenn gar nicht zum Jahresende bereits um die Käufer heiß zu machen. Dies muss aber um Vieles besser gelöst werden als die Polaris GPU´s.
Somit wäre man in aller Munde, vorausgesetzt man kann in Mengen liefern und die Performance ist mehr als nur akzeptabel und diesesmal wirklich gut!
Was für ein Kalender soll das sein, bei dem zwei Wochen rund 180 Tage entsprechen?
Ich finde ja deinen Enthusiasmus bzw. Optimismus durchaus positiv, aber AMD sagt nicht offiziell "Halbjahr 1 2017" wenn man zum Jahreswechsel fertig ist.
Klar, am Ende kannst du Recht gehabt haben, ich bleibe jedoch dabei, dass vor Ostern nichts in Sachen Vega-Gaming passiert. Wenn ich auf einen Monat tippen müsste, dann würde ich auf Reviews im Mai und Verfügbarkeit im Juni setzen.
BlacKi
2016-11-19, 08:56:52
Ich finde ja deinen Enthusiasmus bzw. Optimismus durchaus positiv, aber AMD sagt nicht offiziell "Halbjahr 1 2017" wenn man zum Jahreswechsel fertig ist.
Wenn ich auf einen Monat tippen müsste, dann würde ich auf Reviews im Mai und Verfügbarkeit im Juni setzen.
jupp.
und allgemeine verfügbarkeit august / september.
raumfahrer
2016-11-19, 12:55:10
Waren Vega 10 und 20 auf der Roadmap nicht einfach zusammen in einen H1/2017
Block gesteckt? Das kann genauso gut einen gestaffelten Release über das
Halbjahr bedeuten. Wenn man dann die Aussage zu den professionellen Karten
heranzieht, ist das IMHO auch gar nicht so unwahrscheinlich.
Es bliebe natürlich die Verfügbarkeit abzuwarten.
Es gibt keine offizielle Roadmap mit Vega 10 und 20, nur Geruechte. Und nach denen war V20 ein Shrink und so 1,5 Jahre spaeter.
reaperrr
2016-11-19, 13:44:17
Es gibt keine offizielle Roadmap mit Vega 10 und 20, nur Geruechte. Und nach denen war V20 ein Shrink und so 1,5 Jahre spaeter.
Das war die Info von WTFTech oder videocardz, glaube ich (weiß nicht mehr genau).
Fudzilla meinte dagegen, Vega20 wäre (auch?) 14nm und käme gegen Ende 2017.
Wobei man bei Fudo nie weiß, ob er eigene Quellen oder irgendwo abgeschrieben hat, außerdem ist Fudo geradezu berüchtigt dafür, Infos falsch zu verstehen, durcheinanderzubringen usw. und deshalb dann zumindest ungenau und/oder teilweise bis fast völlig falsch wiederzugeben, selbst wenn die Original-Quelle echt und die Original-Infos größtenteils richtig waren.
Ja, das war von VC. Stimmt, von Fuad gab es ja auch was, mit einer "offiziellen" (auch geleakten) Roadmap hat das trotzdem nichts zu tun.
http://fudzilla.com/news/graphics/41669-vega-20-gpu-comes-in-late-2017
6-9 Monate nach V10 wurden damals genannt.
Und wo wir gerade von Fuad sprechen: http://fudzilla.com/news/graphics/42125-nvidia-s-2017-trouble-is-called-rtg lol :facepalm:
y33H@
2016-11-19, 14:54:53
All they need to do is make sure that Vega and Zen are competitive.Wenn's nur das ist, ja dann ...
Botcruscher
2016-11-19, 15:02:52
Geiler Artikel. In other words, RTG is supposed to be much more competitive next year. Fick ja! Ich hab noch das Marketing vom letzten Jahreswechsel im Ohr. Wenn man in 2/3 des Marktes überhaupt nicht mehr existiert, kann es auch nur besser werden. :rolleyes: Competitive...
raumfahrer
2016-11-19, 15:10:51
Es gibt keine offizielle Roadmap mit Vega 10 und 20, nur Geruechte. Und nach denen war V20 ein Shrink und so 1,5 Jahre spaeter.
Hatte diese hier falsch im Kopf:
https://www.3dcenter.org/news/neue-offizielle-amd-grafikchip-roadmap-fuer-die-jahre-2015-bis-2018-aufgetaucht
Die sagt ja erstmal nur Vega im Laufe von 2017.
y33H@
2016-11-19, 15:57:00
Irgendwie habe ich grade die HD 7970 vor mir.
Tarkin
2016-11-23, 10:56:55
http://wccftech.com/radeon-rx-490-vr-4k-december/
"AMD RX 490 High-End 4K VR Graphics Card Inbound – Announcement and Release Expected in December"
N0Thing
2016-11-23, 11:07:54
http://wccftech.com/radeon-rx-490-vr-4k-december/
"AMD RX 490 High-End 4K VR Graphics Card Inbound – Announcement and Release Expected in December"
Viel neu Aufgewärmtes, was schon seit ein paar Monaten bekannt ist. Und ob die ominöse RX 490 nicht eher eine Dual Polaris 10 ist, wenn Vega ziemlich sicher erst 2017 kommen wird?
dildo4u
2016-11-23, 11:18:54
Macht sinn AMD pusht ja grad DX12 Multiadapter support.
https://www.pcper.com/news/Graphics-Cards/DX12-Multi-GPU-scaling-and-running-Deus-Ex-Mankind-Divided
Hübie
2016-11-23, 11:54:37
Wenn es dual P10 ist wird es blamabel. Funktion in vielen Titeln eingeschränkt, Energiebedarf ungleich höher, genau wie die 1080 keine 4k-Karte ist, wird auch dies keine sein und dazu noch ein Preis bei dem man sich die Kunden fern hält. Also ich hoffe für AMD dass es kein Dual-P10-Produkt wird. :rolleyes:
Loeschzwerg
2016-11-23, 12:15:21
VEGA ist es sicher nicht, da hätte man doch schon längst indirekt irgendwas angekündigt.
Hübie
2016-11-23, 12:46:02
Und genau dies befürchte ich. :facepalm:
Ich erinnere mal an die letzten Dual-GPU-Unfälle beider Hersteller und sämtlicher AIBs. Da läuft mir ein kalter Schauer über den Rücken. Dazu dann eben der Umstand, dass zu Release eines Titels nicht oder nicht fehlerfreier mGPU-Modus gewährleistet ist. Also springt man auf den "eine-GPU-pro-Aug-Zug" auf.
Sunrise
2016-11-23, 13:23:06
Minimaler Aufwand, relativ viel neue Werbung/Aufmerksamkeit und natürlich Performance in VR und ein Gegner für NV in einem Preissegment, den AMD nicht früher wird füllen können. Da ist eigentlich klar, was da kommt, vor allem auch bei der Bezeichnung. Fiji sollte mittlerweile eigentlich auch (hoffentlich) abverkauft sein, da braucht es was Neues.
Kein Mensch erwartet VEGA noch dieses Jahr, nicht einer. (oder doch?)
Agent117
2016-11-23, 13:24:52
Irgendwie habe ich grade die HD 7970 vor mir.
Wäre ja super wenn Vega noch Ende Dezember kommt und genau wie damals bei Southern Islands vor 5 Jahren.
Viel neu Aufgewärmtes, was schon seit ein paar Monaten bekannt ist. Und ob die ominöse RX 490 nicht eher eine Dual Polaris 10 ist, wenn Vega ziemlich sicher erst 2017 kommen wird?
Wenn dem so wäre hätte Dual P10 ziemlich exakt die gleiche Rechenleistung wie Vega10, beide etwa 12 TFlops. Vega ist ofiziell von AMD für H1 2017 angekündigt. So würde Dual P10 nach spätestens einem halben Jahr durch V10 ersetzt werden und hätte innerhalb des halben Jahres meiner Meinung nach einen schlechten Stand ggü. der Konkurenz aufgrund bekannter MGPU Nachteile und wahrscheinlichen 300W Verbrauch. Außerdem hätte man Dual P10 wenn man wollte schon im Sommer bringen können eben um ihn nicht zeitnah durch Vega ersetzen zu müssen.
Wenn im Dezember was im Bereich 10 - 13 TFlops kommt dann Vega 10.
Vega 11 ist warhscheinlich noch nicht so weit und wenn dieser kommt wird dann später im H1 die RX500er Serie eingeführt - das 2017er Lineup.
Der_Korken
2016-11-23, 13:32:08
Wenn V10 nur deswegen noch nicht voll released werden kann, weil die Yields für volle Chips noch zu schlecht sind und/oder es noch keine 8GB-Stacks gibt, die man gerne hätte (z.B. weil man tatsächlich nur 2048bit-SI hat), könnte man stattdessen einen Salvage V10 mit 2x4GB statt 2x8GB bringen. Bei den "großen" Chips hat Nvidia das mit GK110 und GP102 (und unfreiwilligerweise auch mit GF100) schon so ähnlich gemacht.
Den Salvage V10 quetscht man noch als 490 in die 400er Serie rein. Nächstes Jahr bringt man dann die 500er Reihe und rebranded die 490 als 580, während der volle V10 dann 590 heißt. Ist aber reines Wunschdenken und wahrscheinlich wird es wirklich nur ein Dual-P10.
Cyphermaster
2016-11-23, 13:39:28
Und ob die ominöse RX 490 nicht eher eine Dual Polaris 10 ist, wenn Vega ziemlich sicher erst 2017 kommen wird?Was bedeutet denn "Release"/"Launch" und "kommen"? Ein offizielles Releasedatum als Teaser ist mit ein paar Karten schnell hingestrickt, grade wenn es sich nur um eine Vorverlegung von einigen Wochen (z.B. Dezember <-> Januar) handelt.
Das kann genauso leicht ein (größtenteils Paper-)Launch einer Vega-Karte, wie einer Dual-P10 sein. Im Endeffekt will man wohl einfach nur vor Weihnachten nochmal in die News.
Schnoesel
2016-11-23, 13:52:31
Mit Dual GPU machen sie aber keinen Stich. Ich kann auch noch etwas warten auf Vega, die sollen mal wieder was richtig gutes auf den Markt werfen. Fiji hat nur in hohen Auflösungen Potential und krepiert dann am Speicher.
Na mal sehen was kommt. Dual GPU können sie sich imo sparen.
N0Thing
2016-11-23, 13:52:31
Was bedeutet denn "Release"/"Launch" und "kommen"? Ein offizielles Releasedatum als Teaser ist mit ein paar Karten schnell hingestrickt, grade wenn es sich nur um eine Vorverlegung von einigen Wochen (z.B. Dezember <-> Januar) handelt.
Das kann genauso leicht ein (größtenteils Paper-)Launch einer Vega-Karte, wie einer Dual-P10 sein. Im Endeffekt will man wohl einfach nur vor Weihnachten nochmal in die News.
AMD hat selber davon gesprochen, dass Vega erst im 1. Halbjahr 2017 kommen wird. Wären sie optimistisch gewesen, dass es Vega früher schafft, vielleicht sogar noch 2016, hätten sie wohl zumindest das 1. Quartal 2017 für den Release genannt.
Eine Dual-GPU finde ich auch nicht gut, aber falls Vega erst im April oder später kommen würde, kann man so vor Weihnachten noch mal etwas Aufmerksamkeit bekommen und vielleicht den einen oder anderen Polaris 10 zusätzlich absetzen. Es kann natürlich auch nur heiße Luft sein, was sich wccftech aus den Fingern saugt und die RX 490 war nichts anderes als ein Fehler auf der AMD-Seite.
Agent117
2016-11-23, 14:03:32
AMD hat selber davon gesprochen, dass Vega erst im 1. Halbjahr 2017 kommen wird. Wären sie optimistisch gewesen, dass es Vega früher schafft, vielleicht sogar noch 2016, hätten sie wohl zumindest das 1. Quartal 2017 für den Release genannt.
Oder sie meinten das 500er Lineup. Dies einzuführen macht erst Sinn wenn Vega 10 und 11 draußen sind. Ist Vega 10 schon früher fertig kann man ihn hingegen noch in die 400er Serie engliedern und, sofern er eine ganz gute Figur macht, profitieren davon auch die anderen 400er Karten.
Eine Dual-GPU finde ich auch nicht gut, aber falls Vega erst im April oder später kommen würde, kann man so vor Weihnachten noch mal etwas Aufmerksamkeit bekommen und vielleicht den einen oder anderen Polaris 10 zusätzlich absetzen. Es kann natürlich auch nur heiße Luft sein, was sich wccftech aus den Fingern saugt und die RX 490 war nichts anderes als ein Fehler auf der AMD-Seite.
Eine gewisse Aufmerksamkeit auf jeden Fall. Wenn jedoch die Leistung nur auf GTX 1080 Niveau liegt und das bei 300W mit bekannten Kulti GPU Problemen kann das auch nach hinten losgehen und man gilt als technisch unterlegen...keine chance gegen nvidia..die schaffens mit dual gpu gerade mal so mit der 1080 mitzuhalten. Ich würde sowas nicht auf dem markt bringen aber vlt nehme ich das auch falsch wahr.
N0Thing
2016-11-23, 14:12:53
Oder sie meinten das 500er Lineup. Dies einzuführen macht erst Sinn wenn Vega 10 und 11 draußen sind. Ist Vega 10 schon früher fertig kann man ihn hingegen noch in die 400er Serie engliedern und, sofern er eine ganz gute Figur macht, profitieren davon auch die anderen 400er Karten.
AMD hat auf die Folie explizit Vega geschrieben und nichts von einer 500er Serie.
Eine gewisse Aufmerksamkeit auf jeden Fall. Wenn jedoch die Leistung nur auf GTX 1080 Niveau liegt und das bei 300W mit bekannten Kulti GPU Problemen kann das auch nach hinten losgehen und man gilt als technisch unterlegen...keine chance gegen nvidia..die schaffens mit dual gpu gerade mal so mit der 1080 mitzuhalten. Ich würde sowas nicht auf dem markt bringen aber vlt nehme ich das auch falsch wahr.
Als technisch unterlegen was Performance und Leistungsaufnahme betrifft, gilt AMD jetzt schon. Mit der Dual-GPU könnten sie immerhin bei der Leistung aufholen, es gibt ja genug Leute, die immer noch nur auf die Balken schauen. Und wenn man dann die Performance der GTX 1080 für 500€ oder weniger bekommen könnte, kann das trotz 300W oder 250W Verbrauch gut genug sein.
Egal ob es nun doch Vega ist oder eine Dual-GPU: Es dürfte besser sein, als auch die nächsten Monate Nvidia das Feld allein zu überlassen.
Thunder99
2016-11-23, 14:22:25
Wieso dann erst jetzt? Wollen sie echt die Strategie von Nvidia übernehmen und damit die Zeit bis zum Top Dog überbrücken? Nvidia hatte ja GTX680 als Single GPU und GTX690 als Dual GPU. Zumal die Anzahl der Spiele mit Mulit-GPU Support nicht unbedingt gestiegen ist...
Cyphermaster
2016-11-23, 14:52:50
Wieso dann erst jetzt?Steht doch da:
Das kann genauso leicht ein (größtenteils Paper-)Launch einer Vega-Karte, wie einer Dual-P10 sein. Im Endeffekt will man wohl einfach nur vor Weihnachten nochmal in die News.
Egal ob es nun doch Vega ist oder eine Dual-GPU: Es dürfte besser sein, als auch die nächsten Monate Nvidia das Feld allein zu überlassen.
Läßt man die "Spannung" nach den letzten Launches wieder zu sehr abfallen, erhöht sich die Chance, daß Leute aus Ungeduld bei der Konkurrenz kaufen. Hauptsache ist also, daß man bei den Leuten im Hinterkopf präsent bleibt, weniger mit was. Die Bundle-Angebote oder Rabattaktionen sind ja nun auch nicht nur immer zufällig vor der Geschenkesaison.
Vega sehe ich im Dezember noch nicht. Man will mit dem Ding auch bei Profis und potenziellen ROC Kunden punkten. Ziel war auch ganz klar Upstream Support zum Release der Karte, dementsprechend waere der Code Wochen bis Monate vor Release oeffentlich. Kernel 4.9 hat nichts, naechster Termin waere dann Mitte Jan. fuer 4.10, wo bisher auch nichts bzgl. Vega drin ist. Wenn da nichts kommt bis das merge window schliesst (vorauss. noch vor Weihnachten), sollte man Vega nicht vor Maerz erwarten.
Dual Polaris macht fuer mich wenig Sinn, aber gut, das war bei Hawaii und Fiji genauso, nur dass die wenigstens noch den Sinn hatten moeglichst viele FLOPs in ein Node stopfen zu koennen.
Im Endeffekt will man wohl einfach nur vor Weihnachten nochmal in die News.
Kann gut sein, zumal es mit Zen ja offenbar auch nichts wird.
https://www.computerbase.de/2016-11/radeon-rx-490-neue-geruechte/
Da ist mMn wieder Informationssalat entstanden so wie es aussieht. AMD wird einen echten Vega10 sicher nicht RX490 nennen, aber ein Dual-P10 hingegen würde sehr gut auch zu den Specs passen, also 2x 2048Shader und 2x 256GB/s als 16GB (2x 8GB) mit 225W TDP. Das ist also sicherlich kein Vega, der da noch vor Weihnachten erscheint, sondern eine Dual-Karte, die die Leistung einer 1080 erreichen soll.
V10 und V11 sind sicherlich als finales Produkt kaum vor April/Mai zu erwarten - das Ding hatte im Juli offenbar überhaupt erst Tapeout.
Ist auch nichts neues, nur die "Aufbereitung" von wccf
Dino-Fossil
2016-11-24, 18:37:01
Dual-P10 wäre dann allerdings wohl eher ein Verlegenheitsprodukt um überhaupt etwas in der Klasse zu haben.
Sonderlich interessant wäre es für die meisten Kunden eher nicht, bedenkt man den aktuellen Stand von Crossfire/mGPU.
Naja, ich nehme an es würde AMD nicht viel kosten und bringt ein wenig Publicity...
maximus_hertus
2016-11-24, 18:40:46
Wie war das bei Polaris?
Dezember 2015 "öffentliche" Vorführung ("öffentlich" für Presse, NDA)
Januar 2016 "Öffentlich" für alle, aber nur spärliche Infos
Juni 2016 Launch und erste Verfügbarkeit
Könnte doch bei Vega genauso laufen? Dezember bekommt die Presse einen ersten Einblick, ohne wirklich viel zu verraten. Zur CES bekommen wir dann ein paar Infos, die aber wohl "gar nichts" aussagen ;) Launch dann im Mai / Juni.
=Floi=
2016-11-24, 18:51:27
warum soll man vega im stillen kämmerlein präsentieren?
maximus_hertus
2016-11-24, 18:56:35
warum soll man vega im stillen kämmerlein präsentieren?
Es ist doch üblich, dass man der Presse Sachen zeigt, die die Öffentlichkeit erst später sieht.
Ähnlich wie bei Fermi, Polaris und Co.
y33H@
2016-11-24, 21:39:42
Nicht ausschließen wollte er allerdings, dass es dieses Jahr noch neue Informationen geben wird.https://www.computerbase.de/2016-09/amd-rtg-2016/
Ich hoffe mal nicht, dass es diesmal von der Vorstellung bis zum Release wieder an die 6 Monate dauert. Diesmal hat man ja auch schon einige FinFET Chips durch gebracht, vielleicht geht es daher besser.
=Floi=
2016-11-25, 07:23:42
Es ist doch üblich, dass man der Presse Sachen zeigt, die die Öffentlichkeit erst später sieht.
Ähnlich wie bei Fermi, Polaris und Co.
nur macht es null sinn das zu machen, wenn amd zz nichts verkauft und der kunde eher noch eine 1070er oder 1080er kauft.
da wäre ein paperlaunch eher das richtige.
Korvaun
2016-11-25, 09:46:27
Also die "Kaufrunde 2016" ist ja wohl vorbei. Wer bis jetzt keine 1070/1080 hat wird kaum noch eine kaufen bzw. ein entsprechendes Konkurrenzprodukt von AMD (ja ok zu Weihnachten geht sicherlich noch was, aber der größte Teil sollte abgegrast sein, sieht man ja auch an den super Quartalszahlen von nV). Von daher macht ne Dual-P10 Karte null Sinn. Wer soll die Karte kaufen? Ich kann wirklich absolut keinen einzigen Vorteil im Gegensatz zu einer 1070/1080 erkennen, trotz einem möglichen Preis der Dual-Karte von unter 500€.
Paperlaunch von VEGA mit NDA bei dem AMD dann einige wenige ausgesuchte Specs & Benchmarks freigibt damit die Journalisten was zu schreiben haben sehe ich schon eher.
Sunrise
2016-11-25, 10:26:55
...Paperlaunch von VEGA mit NDA bei dem AMD dann einige wenige ausgesuchte Specs & Benchmarks freigibt damit die Journalisten was zu schreiben haben sehe ich schon eher.
Es geht aber nicht um einen Paperlaunch, das ist doch gerade das interessante Detail dabei.
Screemer
2016-11-25, 10:29:07
Also die "Kaufrunde 2016" ist ja wohl vorbei. Wer bis jetzt keine 1070/1080 hat wird kaum noch eine kaufen bzw. ein entsprechendes Konkurrenzprodukt von AMD (ja ok zu Weihnachten geht sicherlich noch was, aber der größte Teil sollte abgegrast sein, sieht man ja auch an den super Quartalszahlen von nV).
deswegen ziehen gpu verkäufe im dez. und januar ja auch nicht jedes jahr massiv an...
Ailuros
2016-11-25, 10:37:59
Es geht aber nicht um einen Paperlaunch, das ist doch gerade das interessante Detail dabei.
Ich kann mich zwar hoellisch irren, aber ich hab ueberhaupt keinen Vega launch vor 2017 auf dem Radar.
Sunrise
2016-11-25, 10:40:25
Ich kann mich zwar hoellisch irren, aber ich hab ueberhaupt keinen Vega launch vor 2017 auf dem Radar.
Nö, dieses Jahr nicht mehr. Dass AMD aber noch was dieses Jahr bringt scheint gesichert, ist nur die Frage was. Und da die RX490 kein Schreibfehler bei Vorstellung von Polaris war und auch im RX4XX-Lineup noch für ein größeres Produkt Platz gemacht wurde, muss das noch vor Vega kommen.
Man will wohl die unnötig teure Dual-Radeon mit Fiji ersetzen. Der sollte so langsam eigentlich EOL gehen.
robbitop
2016-11-25, 11:53:18
Ich habe mir gerade nochmal den Tonga - Polaris Artikel bei CB zu Gemöte geführt:
https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&sqi=2&ved=0ahUKEwj_36m63sPQAhWpI8AKHU6GBaoQFggeMAA&url=https%3A%2F%2Fwww.computerbase.de%2F2016-08%2Famd-radeon-polaris-architektur-performance%2F&usg=AFQjCNFZ1a-v39cKFTMYCaIvNxKJZvHxsA&sig2=RhzsHzyP3-Pm8SMkmKfZqw&bvm=bv.139782543,d.bGs
Dort kann man auch eine RX470 mit 3300 MHz VRAM vs 4000 MHz VRAM quervergleichen.
Der höhere RAM Takt bringt oft > 10 %. Ich hatte gar nicht mehr im Hinterkopf, dass Polaris so bandbreitenlimitiert ist. Vermutlich schlagen die Verbesserungen von Polaris deshalb kaum in der Praxis durch.
Ich hoffe, dass man Shadercompiler und Bandbreite mit Vega in den Griff bekommt.
dildo4u
2016-11-25, 12:04:17
AMD scheint da kaum Vorschritte gemacht zu haben,die PS4 Pro scheint auch öfter Bandbreiten limitiert zu sein.Einziger Vorteil für Sony der Sprung zur PS5 wird dank HBM riesig.Es wird sehr Interresant wie MS das Problem bei Scorpio lösen will.
robbitop
2016-11-25, 12:07:25
Naja die PS4Pro hat 2,3x so viel Bandbreite Rohleistung wie die PS4 aber kaum mehr Bandbreite.
Botcruscher
2016-11-25, 12:13:55
Die PS4 ist doch kein Anhaltspunkt. Das Ding wurde auf Kompatibilität getrimmt. Die Speicheranbindung ist trotz der erhöhten Rohleistung gleich.
Der_Korken
2016-11-25, 23:02:13
Ich habe mir gerade nochmal den Tonga - Polaris Artikel bei CB zu Gemöte geführt:
https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&sqi=2&ved=0ahUKEwj_36m63sPQAhWpI8AKHU6GBaoQFggeMAA&url=https%3A%2F%2Fwww.computerbase.de%2F2016-08%2Famd-radeon-polaris-architektur-performance%2F&usg=AFQjCNFZ1a-v39cKFTMYCaIvNxKJZvHxsA&sig2=RhzsHzyP3-Pm8SMkmKfZqw&bvm=bv.139782543,d.bGs
Dort kann man auch eine RX470 mit 3300 MHz VRAM vs 4000 MHz VRAM quervergleichen.
Der höhere RAM Takt bringt oft > 10 %. Ich hatte gar nicht mehr im Hinterkopf, dass Polaris so bandbreitenlimitiert ist. Vermutlich schlagen die Verbesserungen von Polaris deshalb kaum in der Praxis durch.
Ich hoffe, dass man Shadercompiler und Bandbreite mit Vega in den Griff bekommt.
Achtung: Die Tests zwischen Tahiti/Tonga/P10 liefen mit 1040 Mhz GPU-Takt, der Vergleich 470 vs 480 mit 1150 Mhz. Wenn du also die absoluten Werte beider Reihen vergleichst, kommen 10% allein schon durch den GPU-Takt.
victore99
2016-11-26, 03:14:31
Ich hoffe, dass man Shadercompiler und Bandbreite mit Vega in den Griff bekommt.
Beim Compiler stimme ich dir zu, aber bei Bandbreite weniger.. Da muss man lustigerweise nichts in den Griff bekommen, weil man einfach genug hat. Wenn man bspw in Gamingregionen um die 1080 wildern will, braucht man Marketingtechnisch und auch sonst eigentlich 12GB Vram. Das geht nur mit 3 Stacks. Ergibt dreifache Bandbreite (es sei denn, bei Vega-Launch gibts immernoch nur 700Mhz HBM2, wovon ich bei dem zeitlichen Rahmen mal nicht ausgehe) im vgl zu Polaris bei doppelter Straßenleistung. Passt. Und va beim dicken Vega mit den sicher 4 Stacks wird sich das Bandbreitenproblem erledigen.
Gehen wir mal vom Unrealistischen Fall aus, dass der kleine Vega nur 2 Stacks hat. Und dass dann (dh in so nem dreiviertel Jahr oder so, idk) noch kein HBM2 verfügbar ist, der schneller als 700Mhz läuft. Dann hängt man bei 360GB/sec, was egal mit was für ner Kompression bei GCN nicht ausreicht.
Also hat man entweder so viel Bandbreite, dass man da nicht sparen braucht, oder so wenig, dass der Chip gleich in die Tonne kann (bzw man auf guten Speicher warten muss)
Hynix hat aktuell nur 2 Gbps Stacks im Databook, also nichts mit 700 Mhz. Natuerlich muss man aber aus Gruenden der Ausbeute oder Effizienz nicht unbedingt den maximalen Takt fahren, also hat man auch nicht zwingend die dreifache Bandbreite.
Nvidia macht ja dasselbe. Samsungs Stack hat laut denen auch 2 Gbps, wird auf dem P100 aber bekanntlich langsamer betrieben.
horn 12
2016-11-26, 07:40:15
RX 490 ist wohl ein optimierter Polaris 10, welcher >1,5 Ghz läuft und soll wohl die Fury Serie komplett ersetzen.
Könnte dies nicht echt so kommen...
Eine Dual Polaris ist wohl fast auszuschließen.
tm0975
2016-11-26, 07:43:25
Und hätte dennoch eine zu geringe Speicheranbindung...
robbitop
2016-11-26, 07:48:38
Achtung: Die Tests zwischen Tahiti/Tonga/P10 liefen mit 1040 Mhz GPU-Takt, der Vergleich 470 vs 480 mit 1150 Mhz. Wenn du also die absoluten Werte beider Reihen vergleichst, kommen 10% allein schon durch den GPU-Takt.
Du hast Recht! Danke :)
AMD scheint da kaum Vorschritte gemacht zu haben,die PS4 Pro scheint auch öfter Bandbreiten limitiert zu sein.Einziger Vorteil für Sony der Sprung zur PS5 wird dank HBM riesig.Es wird sehr Interresant wie MS das Problem bei Scorpio lösen will.
Mit mehr Bandbreite. Die hat ja 384Bit.
Dino-Fossil
2016-11-26, 11:34:35
RX 490 ist wohl ein optimierter Polaris 10, welcher >1,5 Ghz läuft und soll wohl die Fury Serie komplett ersetzen.
Könnte dies nicht echt so kommen...
Eine Dual Polaris ist wohl fast auszuschließen.
Sofern AMD das eigene neue Namensschema nicht schon wieder über Bord wirft, müssten sie dann aber entweder einen neuen Chip mit breiterem Speicherinterface bringen (z.B. 384bit) oder wenigstens auf ein bereits vorhandenes GDDR5X-Interface zurückgreifen können.
Beides aktuell eher fragwürdig.
BlacKi
2016-11-26, 12:07:13
Mit mehr Bandbreite. Die hat ja 384Bit.
wird den verbrauch wieder mal unverhältnissmäßig steigern, für das bisschen mehr leistung.
StefanV
2016-11-26, 12:56:17
wird den verbrauch wieder mal unverhältnissmäßig steigern, für das bisschen mehr leistung.
Weil??
BlacKi
2016-11-26, 13:26:52
Weil??
speicherbandbreite bei regulärem gddr die effizienz runter zieht.
Locuza
2016-11-26, 14:28:23
Mit mehr Bandbreite. Die hat ja 384Bit.
Aber auch 6 TFLOPs und vermutlich eine stärkere CPU, also das Byte/FLOP-Verhältnis wird ohne weitere Architekturverbesserungen nicht besser ausfallen.
Godmode
2016-11-26, 15:56:02
RX 490 ist wohl ein optimierter Polaris 10, welcher >1,5 Ghz läuft und soll wohl die Fury Serie komplett ersetzen.
Könnte dies nicht echt so kommen...
Eine Dual Polaris ist wohl fast auszuschließen.
Eine Dual Polaris würde ich fürs Ethereum Mining ziemlich sexy finden. Das wären dann pro Miner mit 6 GPUs 300 MHash/s, bei ca. 1,4 kW Leistungsaufnahme. Meine jetzigen Miner mit 6x R9 380X kommen auf ca. 120 MHash/s bei etwa 1000W.
Der_Korken
2016-12-01, 17:14:53
Habe gerade diesen Link hier entdeckt:
http://wccftech.com/amd-radeon-rx-490-gpu-listing-benchmarks/
Im Grunde nur ein Stochern im Dunkeln, was es mit der ominösen RX490 auf sich haben könnte. Es sind auch Benchmarks dabei, angeblich mit einer niedriger getakteten RX490, welche ~10% vor einer GTX1070 liegt. Leider steht dort nicht genau, wo die Benches herkommen, oder ich habe es auf die Schnelle überlesen.
Als Quelle wird ein Chinese angegeben, der eine Radeon Pro 490 haben will. Die Karte soll demnach in den naechsten Mac Pro kommen und niedriger takten als eine RX 490.
Die angeblichen Leistungsdaten beziehen sich nur auf 3DMark, falls sich jemand den Artikel ersparen will ;)
Dazu gibt es noch ein Schwachsinns-Listing bei einem Haendler ink. 480er Bild.
Leonidas
2016-12-03, 06:44:27
Wobei diese Meldung schon vom Juli ist - und dort der Ausgangspunkt der ganzen Gerüchte war. Wie sich bislang ergeben hat, war da nun gar nichts dran.
Ich wünsche mir zu Weihnachten endlich mal was neues über Vega zu hören.
Aber da die Gerüchteküche auf ziemlich niedriger Temperatur köchelt, dauert es wohl noch recht lange bis die ersten Vega basierten Grafikkarten erscheinen. Bis dahin ist nvidia mit Generation 2xxx schon am Start, traurig. :frown:
Am 13.12. ist eine AMD-Veranstaltung. Vielleicht gibts ein paar Informationshäppchen über Vega.
Nach der neuerlichen Aussage von Su sollte klar sein, dass eine RX490 Blödsinn ist und dass Vega erst satt im neuen Jahr kommt. Wahrscheinlich dürfte das wieder der Mai sein.
victore99
2016-12-03, 12:26:32
Wieso braucht AMD immer so 9 Monate von Lauffähigen Silizium und muss rauf bis Rev. C7 und Nvidia konnte die 1000er quasi innerhalb von 6 Monaten und dazu noch aus heiterem Himmel einfach mal in A1 rausbringen?
Unicous
2016-12-03, 12:40:33
Wieso braucht AMD immer so 9 Monate von Lauffähigen Silizium und muss rauf bis Rev. C7 und Nvidia konnte die 1000er quasi innerhalb von 6 Monaten und dazu noch aus heiterem Himmel einfach mal in A1 rausbringen?
Wie oft muss man das eigentlich noch schreiben bis diese Fehlinformation aus den Schädeln raus ist. Polaris 10 wurde mit Rev A1 ausgeliefert, C7 wurde falsch ausgelesen. Und btw 9 Monate sind ein völlig normaler Zeitrahmen, den auch nVidia braucht.
y33H@
2016-12-03, 16:48:55
Am 13.12. ist eine AMD-Veranstaltung. Vielleicht gibts ein paar Informationshäppchen über Vega.Über Zen.
Gipsel
2016-12-03, 21:14:28
Nur mal zur Erinnerung:
Hier soll es um Spekulationen zu Vega gehen.
Über Zen.
Vielleicht steht ja wieder eine Getränkedose rum mit dem Schriftzug "Vega" drauf. ^^
Irgendwann wird AMD mal was zeigen. Wenigstens irgend eine Folie mit Balken drauf als Teaser.
y33H@
2016-12-03, 23:04:59
Es wird bald(tm) Neuigkeiten geben ...
victore99
2016-12-04, 01:39:47
Wie oft muss man das eigentlich noch schreiben bis diese Fehlinformation aus den Schädeln raus ist. Polaris 10 wurde mit Rev A1 ausgeliefert, C7 wurde falsch ausgelesen. Und btw 9 Monate sind ein völlig normaler Zeitrahmen, den auch nVidia braucht.
Dass das ein Auslesefehler war.. Sry, wusste ich einfach nicht.
horn 12
2016-12-04, 10:29:13
@y33H@
Solle es dann wirklich in Kürze Infos/ Neues zu Vega und der ominösen RX 490 geben?
Hier beitzt wohl einer schon eine Neue AMD Karte...
http://videocardz.com/64475/are-those-radeon-rx-490-vega10-benchmarks-results
Blediator16
2016-12-04, 14:54:24
Hatte der Typ nicht auch die 480 Ergebnisse in AOtS geleaked?
mboeller
2016-12-04, 18:09:27
wenn ich mich richtig erinnere hatte videocardz auch die ersten RX 480 Benchmarks ca. 2 Monate vor dem Release der RX 480. Wenn der Zeitplan bei AMD ähnlich ist könnte das heißen, das die Vega-Karte(n) in 2 Monaten vorgestellt werden bzw. in spätestens 3 Monaten zu kaufen sind.
Wäre das nicht viel früher als gedacht?
Gefunden habe ich aber nur diesen Link von Anfang Mai:
http://videocardz.com/59725/nvidia-gtx-1080-polaris-10-11-directx12-benchmarks
AffenJack
2016-12-04, 19:10:39
Wieso wäre in 2 Monaten früher als gedacht? Es wurde immer nur verlautbart, dass man in H1 launcht. Aber da man von 2 Chips ausgeht im Moment fand ich es immer am wahrscheinlichsten, dass einer in Q1 und der zweite in Q2 kommt. Im Juni hatte AMD irgendeinen Vega10 Milestone gefeiert, normalerweise sollte es dann schon klappen nach 9 Monaten zu launchen, womit wir im März wären.
Auf den Zeitraum der AoTS Benchmarks würde ich da jetzt nicht soviel reininterpretieren.
wenn ich mich richtig erinnere hatte videocardz auch die ersten RX 480 Benchmarks
1. sollte das ziemlich egal sein und 2. ist videocardz doch ueberhaupt nicht die Quelle
Wäre das nicht viel früher als gedacht?
Das kommt darauf an, was du dachtest ;p
Agent117
2016-12-04, 21:24:59
Die beste zeitliche Einordnung ist mMn immer noch die Roadmap und Raja Koduris Tweet über den "Milestone" in Bezug auf Vega 10 am 23. Juni.
Auf der Roadmap ist Vega klar im Bereich des Jahreswechsels 16/17 eingezeichnet. Wenn er von einem Meilenstein spricht kann das ja nur entweder bedeuten, dass das Design finalisiert ist oder was ich eher glaube, dass der Chip seinen Tape Out hatte. 6 Monate von da an zum Release sind durchaus eine realistische Zeitspanne. Das deckt sich dann mit der Roadmap.
Ich würde Vega 10 deshalb für Januar oder Februar erwarten. Vega 11 wird wahrscheinlich erst 2-3 Monate später aufschlagen.
Aber Vega als 490 passt nicht, oder? Ne Dual Polaris würde passen, auch von der Leistung her, wäre aber total unlogisch/leicht blödsinnig.
Wieso so sicher, dass es ueberhaupt eine 490 geben soll?
imho kommt Vega 1. nicht dieses Jahr und 2. nicht als 490. Die PCI ID koennte besser zu Vega passen als zu einer Polaris Duo, ist aber nur Speku.
Dino-Fossil
2016-12-05, 01:02:04
Wenn es AMD mit dem neuen Namensschema ernst meint, kann Vega keine 4XX Karte werden, oder?
victore99
2016-12-05, 07:44:45
Warum nicht?
RX 490 nicht. Ohne RX (nur R 490 oder so) kann es geben.
Dino-Fossil
2016-12-05, 10:01:44
Wenn sie ihr Namensschema nicht schon wieder kippen, kann Vega nur eine 5xx Karte sein:
https://www.3dcenter.org/dateien/abbildungen/AMD-Radeon-400-Serie-Namensschema.vorschau2.png
Ob R mit oder ohne X sollte daran nichts ändern, mMn.
tm0975
2016-12-05, 10:20:31
ich persönlich halte das namensschema für großen unsinn. es ist viel zu sehr auf einzelne merkmale ausgerichtet.
MechWOLLIer
2016-12-05, 10:20:45
Ich frage mich, ob es mehr als nur Zufall ist, dass AMD diesen Slide irgendwie kaum gezeigt hat. Vega für RX 500 macht doch keinen Sinn. Du tötest damit die komplette RX 400 Reihe. Die will doch keiner mehr kaufen, wenn es auch RX 500 gibt.
HTB|Bladerunner
2016-12-05, 10:23:49
Eine RX490 hätte laut dem Namensschema doch zumindest ein größeres Speicherinterface als die "Standard-256bit". Schon allein deswegen würde ich eine Dual-GPU ausschließen.
OBrian
2016-12-05, 10:26:53
ja, aber erstens sind Namensschemata dazu da, gekippt zu werden, damit sich der Kunde möglichst nicht zurechtfindet, daß macht das Verkaufen einfacher. Und zweitens könnten sie durchaus eine Vega als RX490 bringen und dann die größeren Vega als Fury II oder so ein Käse, selbst wenn die ganzen Vegas so arg verwandt sein sollten, daß uns das als unlogisch erscheint.
Aber unabhängig von der Benennung ist eine Karte, die auf Augenhöhe einer 1080 zu liegen kommt, wohl nicht mehr Polaris10-basiert. Ein verstecktes 384bit-SI gibt es nicht, nur GDDR5X würde auch zu wenig reißen, der Takt des Chips geht nicht unbegrenzt höher. Damit kommt man da nicht hin. Und zudem käme ein Refresh von P10 nicht schon so schnell, sowas erwartet man doch eher ein gutes Jahr nach der Erstausgabe.
Ich frage mich, ob es mehr als nur Zufall ist, dass AMD diesen Slide irgendwie kaum gezeigt hat. Vega für RX 500 macht doch keinen Sinn. Du tötest damit die komplette RX 400 Reihe. Die will doch keiner mehr kaufen, wenn es auch RX 500 gibt.
Iirc gab es sogar zwei unterschiedliche Erklärungen, ich kann das gerade aber nicht prüfen.
Vega ist aber nicht die 4. Generation. Da gab es bisher immer neue Namen, auch wenn es natürlich mehr Chips waren.
Dass es keiner mehr kaufen will glaube ich nicht. Wenn es halt nur 480 und 590 gäbe (was ich für unwahrscheinlich halte) ist das imho kein Problem. Es werden ja sogar auch immer noch Karten älterer Generationen verkauft.
Eine RX490 hätte laut dem Namensschema doch zumindest ein größeres Speicherinterface als die "Standard-256bit". Schon allein deswegen würde ich eine Dual-GPU ausschließen.
2x 256 bit
Im 4xx-Schema ist außerdem nicht genug Platz für verschiedene Vega-Varianten.
Ein Vega als 490, die anderen als was anderes wäre auch Blödfug.
HTB|Bladerunner
2016-12-05, 11:46:06
Naja 2x256bit sind ja nicht >256bit. Würde mich wundern wenn AMD plötzlich mit so etwas anfangen sollte.
Unterschiedliche Architekturen innerhalb einer Namensschema-Generation gab es doch schon bei Hawaii und Tonga (R280 und R290). 1x Vega-Klein würde schon als RX490 passen. Vega-groß kommt dann einfach in die "Fury-Schiene".
Thunder99
2016-12-05, 12:06:41
Naja 2x256bit sind ja nicht >256bit. Würde mich wundern wenn AMD plötzlich mit so etwas anfangen sollte.
Unterschiedliche Architekturen innerhalb einer Namensschema-Generation gab es doch schon bei Hawaii und Tonga (R280 und R290). 1x Vega-Klein würde schon als RX490 passen. Vega-groß kommt dann einfach in die "Fury-Schiene".
Das wird wohl das Marketing nicht interessieren sondern nur die Performance egal wie die kreiert wird :freak:.
Nebenbei wenn explizit die RX490 mit einer VR Karte beworben wird dann wird es eher eine Dual P10 Ausführung sein. Eine GPU pro Auge halt :naughty: :freak:.
Anderseits wenn es Vega ist kommt es für die RX4xx Serie ziemlich spät und als RX5xx Serie ziemlich früh, nämlich zu früh :confused:. Ergo spricht es wieder mehr für die Dual Lösung P10 und Vega kommt später :uponder:...
Complicated
2016-12-05, 12:14:10
Oder es spricht einfach für einen Fury Nachfolger. Warum sollte AMD das eingeführt Pendant zur Titan denn jetzt wieder aufgeben? Der Fiji Chip ist auch in keinem Zahlenschema enthalten.
Hübie
2016-12-05, 15:51:50
Ich glaube kaum, dass man Konkurrenz zur TXP haben wird. Zwar wünschenswert, aber ich hege ernste Zweifel daran. Leider läuft's ja oft darauf hinaus, dass die Leute dann trotzdem NVIDIA kaufen und einfach nur hoffen, dass AMD deren Preise herunter zieht.
Die einzige Chance, die ich für einen V10 als RX490 sehe, ist, wenn man den quasi als V10 LE mit nur 2 Stacks, also 8GB, quasi zu früh auf den Markt entlässt. Das würde wiederum aber nur dann Sinn machen, wenn der Chip nicht funktioniert wie er soll und noch einen Respin braucht. Also RX490 und RadeonPro 490 jetzt im Januar stark kastriert und im Sommer 2017 dann das komplette RX5xx-Lineup mit V10 Rev.B und V11.
Eine weitere denkbare (wenn auch weit hergeholte) Option wäre, wenn Vega - bis auf Greenland eben - von Anfang an BS war und es einfach einen weiteren Polaris-Chip, also Polaris20 mit 52 oder 56CUs und 384Bit GDDR gibt. Die ganze Geschichte kommt mir jedenfalls sehr komisch vor. Für einen Chip, der im Sommer Tapeout hatte (was wir ja vermuten) ist Januar definitiv zu früh, April ist dafür der früheste Termin für einen Markteintritt (als Rev.A1).
Der schnellste Chip bislang war denke ich der GM204 und der brauchte auch 8 Monate bis zum Release - da stimmte aber alles. P10 brauchte 9 Monate bis zur Verfügbarkeit, da stimmte offenbar auch alles. Ich würd mal 7 Monate als absolutes Minimum tippen, wenn alles absolut perfekt läuft und die Fertigung auf anhieb 0 Probleme macht.
Würd mich nicht wundern, wenn die Infos alle durch die Bank käse sind und wir was ganz überraschendes erleben.
Thunder99
2016-12-05, 18:17:08
Das es einen Vega gibt wurde hochoffiziell bestätigt. Die Frage ist nur wann. Der Leak lässt Platz für alle möglichen Spekulationen, inklusive deiner mit einem "kaputten" Vega 10 (LE) der bald erscheinen könnte.
Hübie
2016-12-05, 19:45:54
Ich verweise noch einmal gerne darauf, wie AMD die R9 295 X2 bewirbt:
https://abload.de/img/r9_295x2nrs1l.png (http://abload.de/image.php?img=r9_295x2nrs1l.png)
Es ist eben nicht unwahrscheinlich dass man sich die Blöße mit einer Dual P10 gibt.
robbitop
2016-12-06, 07:38:11
Naja wenn eine Dual Karte nur zusätzlich kommt, sehe ich da kein Problem.
Leonidas
2016-12-06, 09:09:53
Es ist eben nicht unwahrscheinlich dass man sich die Blöße mit einer Dual P10 gibt.
Naja, unmöglich isses nicht, aber wahrscheinlich?
Das Beispiel der 295X2 taugt nix, weil es seinerzeit nix besseres gab und auch nix besseres am Horizont war. Faktisch ist die 295X2 bis auf die Pro Duo immer noch die schnellste AMD-Grafikkarte derzeit.
Aber ein halbes Jahr vor schnellen SingleChip-Lösungen ein DualChip-Konstrukt mit mittelprächtiger Performance, welche also umgehend wieder abgelöst werden wird? Eher nicht. Wenn, dann im Oktober, dann mit Schmackes und großem Tamtam. Aber nicht im Januar, wenn bis spätestens Juni die schnellere, einfachere, effizientere Ablösung kommt.
Die einzige denkbare Auflösung wäre, das AMD auf zu vielen Chips sitzt. Aber die bekommt man mit DualChip auch nicht zuverlässig weg - und zu viele Polaris 10 haben sie wohl nicht, wenn dann (denkbar) zu viele frühere Chips.
Cyphermaster
2016-12-06, 10:04:51
Der schnellste Chip bislang war denke ich der GM204 und der brauchte auch 8 Monate bis zum Release - da stimmte aber alles. P10 brauchte 9 Monate bis zur Verfügbarkeit, da stimmte offenbar auch alles.P10 war/ist weit weg von perfekt, bzw. außerhalb seines Sweet Spots...
Ich verweise noch einmal gerne darauf, wie AMD die R9 295 X2 bewirbt:
https://abload.de/img/r9_295x2nrs1l.png (http://abload.de/image.php?img=r9_295x2nrs1l.png)
Es ist eben nicht unwahrscheinlich dass man sich die Blöße mit einer Dual P10 gibt.Das sehe ich ebenfalls so. Wobei ich das nicht zwingend als "Blöße" sehe, das wäre eine zu eindimensionale Betrachtung. Alleine schon, daß man überhaupt "was Neues" in die Nachrichten bringt, und damit Präsenz zeigt, hat schon einen positiven Effekt. Auch die Geschichte mit "einem Chip je Auge" kann bei der Mehrzahl, den Nicht-Insidern, durchaus als positiver Claim greifen, das sollte man nicht übersehen!
Ob so ein Angebot dann nun effektiv (d.h. in Leistung/Lebensdauer/Verkaufszahlen) ein Feigenblatt ist oder nicht, spielt auch keine sooo große Rolle, grade WEIL eine leistungsmäßige Ablösung mit Vega schon ausreichend nahe ist - aber eben auch noch nicht so nahe, daß man nicht noch was in die Lücke stopfen könnte. Wichtiger ist, daß wie hier drüber diskutiert und damit das Interesse wach gehalten wird.
Marketing ist eben was Anderes, als einfach nur technische Daten in die Welt zu rotzen, sondern die Kunst, den bestmöglichen Eindruck (und damit Kaufanreiz) aus dem zu schinden, was da ist. Und P10 ist definitiv da. Vega nur vielleicht.
P10 war/ist weit weg von perfekt, bzw. außerhalb seines Sweet Spots...
[...]
Komplett irrelevant für diese Betrachtung. Der Chip war releasefertig.
Cyphermaster
2016-12-06, 10:40:19
"Releasefertig" ist weniger definierter Zustand, als Entscheidung. ;)
Dino-Fossil
2016-12-06, 10:45:51
P10 war/ist weit weg von perfekt, bzw. außerhalb seines Sweet Spots...
Ich schätze er meinte, dass P10 keine größeren Probleme in Design/Fertigung hatte und ohne Rückschläge umgesetzt werden konnte.
Wobei ich mir da nicht so sicher bin, im Januar klang es eigentlich noch so, als ob der Launch deutlich näher geplant war.
AMD schien sich ja auch recht sicher zu sein, lange vor nVidia die 16/14nm Generation zu launchen.
Um auf Vega zurückzukommen:
Ich bin bisher davon ausgegangen, das der Launch in 2017 auch dem Umstand geschuldet war, dass man auf HBM2 setzt. Aber nach Pascal hat man evtl. noch beschlossen hier und da ein wenig nachzubessern.
Cyphermaster
2016-12-06, 10:54:05
Ich denke auch, daß man nachbessern bzw. optimieren will, um nicht wie bei den P10 knapp hinter den Zielen (und wichtiger, den Erwartungen) zu versacken.
Ich bin mir in jedem Fall recht unsicher, warum AMD einen mit der heißen Nadel gestrickten Vega jetzt schon in einer 490 "verheizen" sollte, statt mit der neuen, in Ruhe ausgearbeiteten 500er-Linie noch viel stärker werbetechnisch auf die Kacke zu hauen.
Was sollen sie überhaupt noch für einen Spielraum haben? Der Chip muss doch längst fertig sein wenn er in q1 verfügbar sein soll :confused:
Palpatin
2016-12-06, 11:12:38
Eigentlich ist es ganz einfach. Es wird weder im Dezember noch im Januar eine 490 kommen.
Dino-Fossil
2016-12-06, 11:13:42
Wäre schon manchmal toll, einen Blick hinter die Kulissen zu bekommen. :biggrin:
Hatte AMD mit Polaris größere Hoffnungen in Punkto Performance und Verbrauch, oder war der Chip ungefähr da, wo man es sich erwartet hatte und man hat ihn dann lediglich zu weit geprügelt, um ein später (vom Marketing?) vorgegebenes Performanceziel noch zu erreichen?
Was sollen sie überhaupt noch für einen Spielraum haben? Der Chip muss doch längst fertig sein wenn er in q1 verfügbar sein soll
Der einzige Chip der gesichert in Q1 kommen soll ist doch aber Zen, oder? Vega soll in der ersten Jahreshälfte kommen, soweit ich weiß, könnte also auch erst am 30. Juni launchen.
Und sicher wird man jetzt nicht mehr viel ändern, aber kurz nach dem Launch von Pascal war es vielleicht noch möglich und u.U. nötig.
Cyphermaster
2016-12-06, 11:30:24
Eigentlich ist es ganz einfach. Es wird weder im Dezember noch im Januar eine 490 kommen.Das wäre in der Tat die kosteneffizienteste Lösung, um Marketing zu betreiben.
Wäre schon manchmal toll, einen Blick hinter die Kulissen zu bekommen. :biggrin:Ich finde es bei solchen Blicken fast interessanter, etwas zu den Personen dahinter zu erfahren.
Noebbie
2016-12-06, 11:46:08
Da steht mal was vom 4. Quartal! :D
https://www.prisguide.no/produkt/amd-radeon-rx-490-265669
deekey777
2016-12-06, 12:06:36
Da steht mal was vom 4. Quartal! :D
https://www.prisguide.no/produkt/amd-radeon-rx-490-265669
Kann ich dort auch Half-Life 3 bestellen? (Früher hätte ich "Duke Nukem Forever" geschrieben...)
Noebbie
2016-12-06, 12:43:59
Kann ich dort auch Half-Life 3 bestellen? (Früher hätte ich "Duke Nukem Forever" geschrieben...)
Liegt der GraKa bei! :wink:
uweskw
2016-12-06, 14:59:43
Wäre schon manchmal toll, einen Blick hinter die Kulissen zu bekommen. :biggrin:
Hatte AMD mit Polaris größere Hoffnungen in Punkto Performance und Verbrauch, oder war der Chip ungefähr da, wo man es sich erwartet hatte und man hat ihn dann lediglich zu weit geprügelt, um ein später (vom Marketing?) vorgegebenes Performanceziel noch zu erreichen?...
......
Offensichtlich hatte man sich eine deutlich bessere Taktbarkeit erhofft. Wieviel davon am Hestellungsprozess hängt und vieviel vom Chip-Layout abhängt ist strittig. Schade, dass wir das wohl nie erfahren.
greetz
US
Wo ist das offensichtlich?
Man taktet schon so um die 30% höher als vorher und Fiji Leistung+x für 200$ war sicherlich nicht geplant.
Complicated
2016-12-06, 15:26:40
Ich halte eine Dual-Lösung einige Monate vor dem Release einer schnellen Single-Chip Karte wie Vega gar nicht für so abwegig. Aus folgenden Gründen:
1. Der VR-Gaming Markt kann mit Dual-Chips ohne die Probleme von Crossfire/SLI umgehen. Dieser Markt ist die Zukunft und AMD ist extrem stark in VR engagiert. Siehe dazu Stichwort "location based VR": http://www.theverge.com/2016/8/9/12405776/virtual-reality-movie-theater-lobby-awesome-rocketship
For the VR industry itself, the stakes are huge. During his keynote, AMD’s Roy Taylor ran through a few location-based rollout scenarios that, while seemingly a tad optimistic, spelled out the potential upside. If 100 movie theaters installed six stations each, and could push through 50 users a day on each, a $10 experience would bring in over $100 million in revenue, Taylor said. Scale that to 3,600 pods, and you’d be looking at over $600 million.
Die Rückkehr der Spielhallen nur diesmal im Kino. Nach Star Trek Beyond mal schnell noch in der Lobby virtuell auf der Brücke der Enterprise ein Abenteuer bestehen in dem man selber die Handlung vorgibt. Der erste Film für den Inhalte dafür gemacht wurden ist Assasins Creed und die Promo startet jetzt im Dezember bis 1. Januar.
(http://www.polygon.com/2016/12/1/13805012/assassins-creed-movie-vr). Es folgt die indische Produktion "Baahubali" im April welches schon mit der neuen Echtzeit-VR-Aufnahmetechnik rund um BB360 und Projekt Loom Inhalte produziert. (https://www.vrfocus.com/2016/10/amd-showcasing-two-new-cinematic-vr-experiences-at-the-mumbai-film-festival/)
2. Gameentwickler und andere Inhaltehersteller müssen jetzt anfangen für VR zu entwickeln, wenn sie es nicht schon längst getan haben, um den Anschluß nicht zu verlieren. Sie brauchen dafür aktuelle Hardware mit neuen Features. Die Radeon Pro Duo hat hier einen Nachfolger nötig da deutlich mehr Rechenpower gefordert wird in der Contenterstellung.
3. AMDs Navi wird als Multi-Chip-Lösung spekuliert (Auch von mir). Betrachtet man AMDs Festlegung auf 7nm als Nachfolger von 14nm, so wird deutlich, dass entweder ein großer 14nm Chip in gut gereifter Fertigung die Performance bringen muss oder eben frühe 7nm Chips die nicht auf EUV warten (GF hat ein entsprechendes Fertigungsverfahren angekündigt das schon 2017/´2018 erste "riscproduction" ermöglicht"). Ich persönlich glaube nciht, dass AMD mit eine 14nm Design in 2018 gegen Nvidia antreten kann, da ich vermute Nvidia wird auf mehreren Hochzeiten tanzen und das Geld ausgeben um 10nm Vorteile zu nutzen oder falls dies nicht reicht einen alternativen Fertigungsprozess in der Hinterhand zu haben. Die Produktion der GP107 bei Samsung war dafür sicherlich ein guter Testballon.
3. Es ist der logische Schritt um der Kostenexplosion bei den immer kleineren Fertigungen zu begegnen und flexibel im Lineup zu bleiben. Doch eine gute Skalierung kommt nicht von alleine und man braucht reale Produkte um sie zu optimieren. Entweder man lässt das Interposer-Design fallen oder man bringt die nächste Generation und entwickelt es weiter. Das Engagement bei HSA und SKHynix beim entwickeln von HBM hat gezeigt, dass AMD hier auf das bessere Pferd gesetzt hat. HMC hat sich nicht durchgesetzt. Warum sollte AMD hier aufhören? (Gerüchtweise hat wohl Intel ein Abkommen mit AMD geschlossen über die Lizenzierung von GPU-IP, zeitgleich wurde die Einstellung alle IrisPro Modelle angekündigt. (https://www.computerbase.de/2016-12/prozessor-intel-skylake-eingestellt/) Das aus für den eDRAM bei Intel. Die Skylake basierenden Modelle sind gerade mal 6 Monate alt)
4. Wenn AMD eine Dual-GPU bringt, die aus 2 optimierten P10 besteht und diese als VR-Karte bewirbt Dann hat sie auch noch ihre Daseinsberechtigung wenn ein schneller Vega nachfolgt. Zumindest kauft sich dann keiner eine GTX 1080 für VR. Es könnte durchaus sein, dass AMD hier ein ganz neues Produkt-Lineup etablieren möchte welches den Konsolen am PC Konkurrenz macht ganz spezifisch für VR. Wenn man damit auch noch im normalen Modus nicht-VR Games spielen kann reicht es aus wenn die Leistung im Performancebereich angesiedelt ist und einige Spiele auf Dual-GPU optimiert werden.
5. Genau diese VR Zukunft könnte bei den Spieleentwicklern dazu führen, dass sie gar keine andere Wahl haben als wieder mehr in Dual GPU Optimierung zu investieren. Ich denke dies wird bei den kommenden DX12 Titel mehr der Fall sein als in der Vergangenheit, sicher nicht bei allen aber doch bei einigen die sich Abheben wollen.
6. Der Preis einer solchen Dual-Polaris-Lösung auf einem Interposer dürfte bei 599,- € VK schon rentabel für AMD sein und könnte die Fury Preispunkte besetzten. Das Produkt muss sich im Endkundenmarkt nicht mal sonderlich gut verkaufen da die Hauptabnehmer Entwicklerstudios sein werden, Hollywood und Kinos. Keine großen Stückzahlen aber die Kontrolle in der Produktion bringt die Optimierung auf die eigenen Produkte.
Navi wird keine Multichiplösung, das ist purer Nonsens in meinen Augen. Das ist auch so ein Mythos wie Rev.SMT oder sonstiger Quatsch. Das wird es nicht geben. Da wird auch schon seit RV770 drüber spekuliert über den Blödsinn, also seit 10 Jahren. Seither hat sich Multichip genau 0, in Worten NULL, weiterentwickelt. Es ist immer noch AFR-Mist, sogar bei DX12 oder es wird einfach gar nicht mehr unterstützt. Da müsste einge grundsätzlich neue Technologie her, sowas ist aber hochriskant und müsste von Softwareseite her auch unterstützt werden, das wagt wieder keiner und ist auch von Softwareseite her einfach hoffnungslos. Vega wird bis 500mm² hochgehen in 14nm (V20) und Navi eben genauso in 7nm. Da verändert sich überhaupt nix.
VR-Kram als Nischenlösung könnte sein, ein Grafikchiptandem jeweils extra dafür ist denkbar, das wars dann aber auch mit Multichip. (Funktioniert das eigentlich mittlerweile bei VR? Ich meine mich erinnern zu können, dass da auch klassisches Multi-GPU gemacht wird bisher.) Schon dafür ist aber extra eine RadeonPro-Variante aufgelegt worden mit Fiji, was nicht so sehr für das Vertrauen in VR spricht. Mit P10 wär das unsinnig, weil die schlicht nicht besser wäre als eine Fiji-RadeonPro.
Es gibt einige Möglichkeiten für eine RX490 / Pro490:
1.) Fiji + 8GB HBM2
2.) DualP10
3.) V10 LE mit 8GB HBM2
4.) schlicht höhergetakteter optimierter P10 mit besserem Speicher
5.) V11
6.) bisher unbekannter Polaris-Chip
7.) nichts, alles erfunden
Man sieht, was da für ein Unsinn bei rauskommt.
Nightspider
2016-12-06, 16:28:12
Imo ist das gar nicht zu vergleichen. Reverse SMT bedeutet viele Kerne arbeiten an einem Problem.
Bei GPUs hast du sowieso hunderte Recheneinheiten die an vielen Problemen parallel arbeiten.
Multichip ist da nur der nächste Schritt. Vllt gibts diesen Schritt nicht in den nächsten Jahren aber irgendwann wird es darauf hinauslaufen.
Multichip bedeutet ja auch nicht zwangsläufig 2 oder 4 mal der gleiche GPU nebeneinander.
Alleine durch das Stacking von extrem schnellem SRAM als Cache könnte man schon so einiges effizienter und schneller machen. Man könnte den Cache aus der GPU in ein anderes Die packen, diesen vergrößern und durch TSVs die Bandbreite weiter anheben.
Gibts zwar noch viele technische Hürden für sowas, zB. Wärmeabführung bei Stacking, Produktionskosten usw aber Probleme sind dazu da um überwunden zu werden. ;)
Schaffe89
2016-12-06, 16:28:35
1. Der VR-Gaming Markt kann mit Dual-Chips ohne die Probleme von Crossfire/SLI umgehen.
Ich glaub dass das Thema VR mittlerweile wieder größenteils vom Tisch ist und ne Nischenangelegenheit wie 3D bleibt. Von dem Einstieg in VR mit der RX480 ist auch nicht mehr viel los, dafür ist die Karte viel zu langsam und eine Duallösung mit Mitelklasse GPU´s ist einfach eine Verzweiflungstat und unnötig für die paar VR Nutzer lohnt es sich doch gar nicht sowas zu entwickeln.
Ich find deine Spekulationen ja interessant aber die sind immer viel zu optimistisch für AMD und zu einer Multichiplösung wird es noch lange dauern, wenn sowas denn überhaupt irgendwann mal kommt.
PrivateCeralion
2016-12-06, 16:59:18
Ich glaube, VR startet jetzt erst richtig durch. Gestern hat der Saturn in Frankfurt 4 VR demonstrations PCs aufgebaut. Auch Conrad hat jetzt welche. Und in MyZeil-Shoppingcenter kann man die Oculus-Rift ausprobieren, im Haupteingang.
BTT:
Es gibt starke Gerüchte, dass Intel und AMD den Vertrag unterschrieben haben, dass Intel AMDs GPU IP benutzten darf.
http://www.tweaktown.com/news/55341/amd-radeon-gpu-tech-power-intels-next-gen-igpus/index.html
Der_Korken
2016-12-06, 17:07:10
BTT:
Es gibt starke Gerüchte, dass Intel und AMD den Vertrag unterschrieben haben, dass Intel AMDs GPU IP benutzten darf.
http://www.tweaktown.com/news/55341/amd-radeon-gpu-tech-power-intels-next-gen-igpus/index.html
Warum sollte AMD sowas tun? Sie sind die einzigen, die CPUs und GPUs selber entwickeln. Zudem hat man mit Zen ein heißes Eisen im Feuer und könnte sehr attraktive APUs auf den Markt bringen. Sie würden sozusagen ihr Tafelsilber verscherbeln.
Nightspider
2016-12-06, 17:09:58
Damit sind bestimmt nur Lizenzzahlungen gemeint die Intel benötigt um ihre eigenen IGPs zu bauen.
uweskw
2016-12-06, 17:10:34
Wo ist das offensichtlich?
Man taktet schon so um die 30% höher als vorher und Fiji Leistung+x für 200$ war sicherlich nicht geplant.
Fiji hat selbst für 28nm schlechte Taktraten (1050MHz) erziehlt. Und das mit HBM Interposer. NV kam schon unter 28nm locker auf 14-1500MHz.
Da wird man für die 14nm Fertigung wohl etwas mehr als 1300MHz erwartet haben.
greetz
US
Warum sollte AMD sowas tun? Sie sind die einzigen, die CPUs und GPUs selber entwickeln. Zudem hat man mit Zen ein heißes Eisen im Feuer und könnte sehr attraktive APUs auf den Markt bringen. Sie würden sozusagen ihr Tafelsilber verscherbeln.
Das würde gewaltig Geld in die Kasse spülen. Und Intel und AMD sind sowieso auf Gedeih und Verderb lizenztechnisch aneinander gebunden. Dann gibts ab IceLake eben Navi-IGPs.
Intel kann einen teuren und fruchtlosen Entwicklungszweig dichtmachen und AMD verdient an jedem Intel-IGP mit. Guter Deal - für beide Seiten. Kriegsentscheidend war der IGP eh nie, das musste AMD ja schmerzhaft lernen mit den eigenen APUs.
Dino-Fossil
2016-12-06, 17:18:19
Fiji hat selbst für 28nm schlechte Taktraten (1050MHz) erziehlt. Und das mit HBM Interposer. NV kam schon unter 28nm locker auf 14-1500MHz.
Da wird man für die 14nm Fertigung wohl etwas mehr als 1300MHz erwartet haben.
greetz
US
Naja, oder gerade deswegen nicht. Es hat sich doch relativ klar gezeigt, dass die Architektur hohe Taktraten nicht so ohne weiteres mitmacht.
Ich vermute allerdings, dass AMD (und die Custom-Partner) eine Karte mit max 150W @Referenz erwartet haben - Referenz vermutlich sogar darunter bei 130-140W, "normale" customs mit leichtem OC bei 140-160W und nur die extremeren OC-Versionen darüber, zu welcher Performance auch immer.
Und dann wurde wohl relativ kurzfristig vor dem Launch nochmal an den Taktraten gedreht um etwas bessere Performance zu erreichen.
Interessant wird, wie Vega in der Hinsicht aufgestellt sein wird.
Schafft es AMD den Chiptakt nennenswert anzuheben, oder wird die Performance über andere Schrauben erhöht?
Fiji war ja z.B. von der Rohleistung her deutlich weiter vor Hawaii als bei der tatsächlichen Performance in Spielen.
Offenbar existieren also bei GCN auch andere Flaschenhälse, die zu beseitigen vielleicht sinnvoller wäre, als hohe Chiptakte anzustreben.
BlacKi
2016-12-06, 17:20:40
Fiji hat selbst für 28nm schlechte Taktraten (1050MHz) erziehlt. Und das mit HBM Interposer. NV kam schon unter 28nm locker auf 14-1500MHz.
Da wird man für die 14nm Fertigung wohl etwas mehr als 1300MHz erwartet haben.
greetz
US
ich denke das die architektur größeren einfluss hat als der fertigungprozess, kepler war ja auch 28nm. der taktunterschied zwischen kepler und maxwell war enorm, obwohl größere chips sich minimal schlechter takten lassen. das pascal nochmals besser taktet liegt eher an der architektur nicht am fertigungsprozess. vega wird kaum höhere taktraten bringen als polaris, wohl eher niedriger.
Fiji war ja z.B. von der Rohleistung her deutlich weiter vor Hawaii als bei der tatsächlichen Performance in Spielen.
Offenbar existieren also bei GCN auch andere Flaschenhälse, die zu beseitigen vielleicht sinnvoller wäre, als hohe Chiptakte anzustreben.
und ich dachte das die erhöhung des takts viel einfacher ist als flaschenhälse zu lösen. wenn vega nochmals schwieriger wird auszulasten als fiji, dann gute nacht, oder hallo 8k^^
Schnoesel
2016-12-06, 17:40:27
Packdichte, Shaderanzahl ... manche machen es sich hier zu einfach von "schlechten" Taktraten zu sprechen.
Troyan
2016-12-06, 18:00:37
GP107 erreicht bei 75W 1911MHz. RX 460 liegt hier bei 1150Mhz.
Die Packdichte ist identisch.
Schnoesel
2016-12-06, 18:18:32
Es ging grad um 28nm und dem "schlechten" Takt von Fiji. Was du jetzt mit 16nm Pascal und 14nm Polaris willst??? Immer überall mitreden wollen is auch nix.
Complicated
2016-12-06, 18:20:30
Schön wenn man ganz schamlos Base und OC-Turbotakte vergleichen kann wenn es dem Argument dienlich ist.
Die RX 460 taktet durchaus auch mal mit 1220 MHz (>1300 OC) und die Packdichte ist ca. 10% höher als bei GP107 22 Mio vs. 24 Mio Transitoren pro mm²
Und nun zu den Taktraten des GP107. Basetakt 1350 für die Non-Ti und etwas weniger für die TI. Turbo bei 1760 für die Non-Ti und etwas weniger für die Ti. Und unter Last hat CB bei ca. der Hälfte der Spiele weniger gemessen als den max Turbotakt.
Aber klar es liest sich schön 1150 vs. 1911 MHz anstatt 1250 MHz vs. 1750 MHz.
Schäbiges Argument das du geliefert hast Troyan.
AnnoDADDY
2016-12-06, 18:26:02
GP107 ist auch 14nm ;) liegt also sehr wohl an der Architektur...
Edit: troyan hat bei gleichen Stromverbrauch verglichen und nicht was maximal möglich ist...
Complicated
2016-12-06, 18:31:33
Welcher GP107 taktet mit 1911 MHz und welcher RX 460 mit 1220 MHz Takt verbraucht über 75W?
Lies meine Zahlen nochmal. Er vergleicht maximalen Takt des GP107 (den er gar nicht erreicht sondern den er selber erfunden hat) mit dem Basetakt der RX 460. Beide haben keinen PCIe-6/8-Pin Stecker um mehr als 75W zu verbrauchen.
Es wäre ja völlig OK wenn er da 1220 vs 1710 schreibt. Reicht das nicht?`Aber warum muss man dem ganzen noch einen drauf setzen aus der Phantasie?
Ailuros
2016-12-06, 18:41:37
Es gibt IMHO ueberhaupt kein Risiko oder besondere Komplikationen load balancing in hardware zu giessen fuer mGPU. Es hat sich lediglich keiner der beiden IHVs dafuer geschert bis jetzt weil es keine absolute Notwendigkeit war/ist bis jetzt. Wenn man jeden Transistor bzw. quadrat-millimeter braucht um konkurrenzfaehig zu bleiben, wird sich keiner umdrehen und Millionen in R&D schuetten fuer das relativ winzige Prozentual dass in jegliche Form von mGPU investiert.
Ich hab es schonmal erwaehnt: IMHO wenn mGPU zur Notwendigkeit in Profi-Maerkten wird, dann werden die IHVs die Affaere auch anders anpacken.
Entschuldigt das OT, aber das GP107/Takt/gruene Waldwiesen Zeug ist auch nicht besonders "on topic" im gegebenen Fall.
Cyphermaster
2016-12-06, 18:43:16
Ich glaub dass das Thema VR mittlerweile wieder größenteils vom Tisch ist und ne Nischenangelegenheit wie 3D bleibt. Von dem Einstieg in VR mit der RX480 ist auch nicht mehr viel los, dafür ist die Karte viel zu langsam und eine Duallösung mit Mitelklasse GPU´s ist einfach eine Verzweiflungstat und unnötig für die paar VR Nutzer lohnt es sich doch gar nicht sowas zu entwickeln.Aus dem grade erfolgten Leak:
http://cdn.wccftech.com/wp-content/uploads/2016/12/Radeon-Software-Crimson-ReLive-NDA-Only-Confidential-v4-page-018-copy-840x473.jpg
Und es wird aktuell auf sehr breiter Front VR Gaming beworben, wie auch andere schon festgestellt haben. Zusätzlich ist P10 -wie man breit an den Wattman-Tweaks sehen kann- schon bei nur wenig gesenkten Taktraten und/oder Spannung mit weit weniger Strom zufrieden. Das macht dann eine P10²-Karte gar nicht mehr so unwahrscheinlich. Immerhin ist das von den Möglichkeiten
1.) Fiji + 8GB HBM2
2.) DualP10
3.) V10 LE mit 8GB HBM2
4.) schlicht höhergetakteter optimierter P10 mit besserem Speicher
5.) V11
6.) bisher unbekannter Polaris-Chip
7.) nichts, alles erfunden
eine, bei der schon alle Komponenten länger verfügbar sind. Mein Wurf der Runensteine:
1.) Fiji + 8GB HBM2 --> Chance unter 10%. Grund: Auf 28nm zu heiß, zu groß, zu teuer, und in 14nm zu teuer aufzulegen (Stückzahl). Speicherversorgung fraglich.
2.) DualP10 --> Chance 40%. Alle Komponenten verfügbar, 14nm, paßt ins Namensschema, Marketingstory vorhanden.
3.) V10 LE mit 8GB HBM2 --> Chance unter 5%. Teuer, verletzt das Namensschema, kein sinniges Marketing mehr möglich (Kollision mit 500er Vega-Claims), sehr früh für einen Vega-Chip.
4.) schlicht höhergetakteter optimierter P10 mit besserem Speicher --> Chance 30%. Bandbreite ist bei P10 ein major PITA, ohne so eine Handbremse wäre aber trotzdem viel Selektion nötig, um die kolportierte Performance rauszuquetschen - und man müßte sehr teuren Sonderspeicher haben. Verfügbarkeit fraglich.
5.) V11 --> Chance unter 5%. Zu früh, paßt nicht ins Schema, und nicht zu den Ankündigungen. Speicherversorgung schwierig.
6.) bisher unbekannter Polaris-Chip --> Chance unter 5%. Ein ungeleakter Test ohne jeglichen Frachtbelege und sonstigen Indizien wäre extrem unwahrscheinlich, und noch unwahrscheinlicher ist die Entwicklung von noch einem zusätzlichem Chip bei so kleinem Team für nur so kurze Zeit im Markt. Von der Frage, mit welchem Speicher der Chip kombiniert werden sollte, ganz abgesehen.
7.) nichts, alles erfunden --> Chance ungefähr 5%. Wäre höher, wenn sich AMD nicht durch sowas die aktuell positiven Vibes im Markt wieder abwürgen würde. Das versucht man seit einiger Zeit wie der Teufel das Weihwasser zu vermeiden.
BlacKi
2016-12-06, 19:29:42
ich sehe keinen sinn für den durchschnitts zocker 2x p10 für VR im rechner zu haben. die wenigsten zocken nur VR und die restlichen spiele laufen damit grütze. professioneller bereich, schön und gut, aber für zuhause ist das nichts. daher sehe ich keine zukunft für dual gpu´s.
Complicated
2016-12-06, 20:04:10
Na dann sollte man AMD informieren.
3 Fragen dazu:
1. Kauft der Durchschnittszocker eine Titan X?
2. Welche Spiele laufen Grütze mit einer Single RX480? Das ist die mindeste Performance wenn das Spiel keinen Dual GPU Support hat.
3. Welche Grafikkarte würdest du empfehlen um VR zu zocken?
Screemer
2016-12-06, 20:17:51
Es ging grad um 28nm und dem "schlechten" Takt von Fiji. Was du jetzt mit 16nm Pascal und 14nm Polaris willst??? Immer überall mitreden wollen is auch nix.
Gp107 und p11 laufen auf einem quasi identischen Prozess bei glofo und Samsung.
Edit": zu spät
BlacKi
2016-12-06, 20:52:21
Na dann sollte man AMD informieren.
3 Fragen dazu:
1. Kauft der Durchschnittszocker eine Titan X?
2. Welche Spiele laufen Grütze mit einer Single RX480? Das ist die mindeste Performance wenn das Spiel keinen Dual GPU Support hat.
3. Welche Grafikkarte würdest du empfehlen um VR zu zocken?
1. keine ahnung worauf du hinaus willst.
2. ich kaufe mir keine dual 480 für 500-600€ um dann die performance einer einzigen zu nutzen. das ist nunmal derzeit manchmal realität. dann lieber eine schnelle karte, die alles gut kann und ich nicht in 1440p/4k unter schlechten frametimes/microruckler wegen crossfire leide.
3. tja, entweder auf vega warten oder sich bei nvidia einkaufen. die 290 die ich hab reicht vorne und hinten nicht für VR und soviel schneller ist eine 390x/480 nun auch nicht, also keine alternative.
Botcruscher
2016-12-06, 20:58:39
Na dann sollte man AMD informieren.
3 Fragen dazu:
1. Kauft der Durchschnittszocker eine Titan X?
Dafür ist die Titan nicht da. Der Durchschnitt kauft 1070 und ist damit schon auf halbem Weg zur Leistung einer dual P10.
2. Welche Spiele laufen Grütze mit einer Single RX480? Das ist die mindeste Performance wenn das Spiel keinen Dual GPU Support hat.
Dishonored 2 zum Bleistift schon in 1080. In UHD kannst du es dir aussuchen. 480 ist schlicht nur auf Performancelevel der letzten Generation.
3. Welche Grafikkarte würdest du empfehlen um VR zu zocken?
Die Frage ist falsch gestellt. Erstens wird nicht nur VR gezockt womit mGPU automatisch herausfällt und zweitens wird die Auswahl im Leistungssegment über der 480 dünn... Letztendlich bleibt noch die Frage warum überhaupt eine dual Karte? Jeder Normalrechner kann problemlos auch zwei Einzelkarten tragen. Wie groß die ITX Welt ist, die uns die Werbung verkaufen will, würde ich schon gerne wissen.
Alles unterhalb einer Konkurrenz zur 1070/80 ist total uninteressant. AMD soll mit Vega klotzen und sich den mGPU- Abfall sparen.
dargo
2016-12-06, 22:10:53
Dishonored 2 zum Bleistift schon in 1080.
Von einzelnen Softwareunfällen werden wir auch in Zukunft sicherlich nicht verschont. Jetzt mal ehrlich... das Verhältnis von Performance zur Grafik ist hier die reinste Katastrophe. Ähnliches gilt aktuell für Mafia 3.
StefanV
2016-12-06, 23:15:13
Warum sollte AMD sowas tun?
Weil sie so nVidia aus dem Markt kanten können und bei den Spieleschmieden mit ihrer dann sehr weit verbreiteten Hardware argumentieren können.
Dann ist nämlich AMD beim gesamt GPU Markt (inkl integrated) bei 80% Marktanteil und nVidia nur bei 20%, maximal...
Und heute hat Intel etwa 70% Marktanteil in dieser Berwertung...
Das ganze würde dann auch solche Dinge wie Gameworks und Co aus dem Markt kanten und nVidia ev. auch dazu zwingen VESA Adaptive Sync zu unterstützen...
YfOrU
2016-12-07, 00:23:50
Warum sollte AMD sowas tun? Sie sind die einzigen, die CPUs und GPUs selber entwickeln. Zudem hat man mit Zen ein heißes Eisen im Feuer und könnte sehr attraktive APUs auf den Markt bringen. Sie würden sozusagen ihr Tafelsilber verscherbeln.
Es geht dabei eher nicht um GPU Designs sondern um darauf bezogene Patente. Aufgrund der aktuellen Marktsituation kommt Intel mit Sicherheit bei AMD erheblich kostengünstiger an notwendige IP.
Für AMD wäre es immer noch besser einen Teil der Lizenzgebühren welche bis dato Nvidia einstreicht zu kassieren als überhaupt nichts. Wie das dann im Detail mit x86 bzw. Erweiterungen der ISA verrechnet wird spielt schlussendlich keine große Rolle. Hier muss man auch klar sehen das die durch Intel mit Nvidia nicht ganz freiwillig getroffene Lizenzvereinbarung (über 5 Jahre) weit mehr als nur Kleingeld gewesen ist. Effektiv hat auch das seinen Teil zur Verschiebung der Marktverhältnisse beigetragen. Waren $300 Millionen pro Jahr.
StefanV
Ganz so einfach ist es jetzt zwar nicht, aber die Richtig ist klar. 80% Marktanteil wird man aber erst erreichen, wenn Icelake die vorherigen Generationen verdrängt hat, also 2030 oder so :D. Eines ist klar: Ab 2019 wird dann so ziemlich jeder neue IGP im PC GCN sein, also alles, was Icelake-Generation ist. CoffeeLake/CannonLake dürfte dann der letzte eigene IGP sein. Die Lizenzierung passt recht gut in den Entwicklungszeitraum von IceLake finde ich. Der würde dann mit Vega IP Ende 2017 mit der 2. 10nm-Generation ins Tapeout gehen. Damit wäre die GCN-IP9.0 (Vega) die erfolgreichste Grafik-IP aller Zeiten.
Dino-Fossil
2016-12-07, 00:35:56
Bekommt AMD umgekehrt auch Zugriff auf einige Intel-Patente, bzw. Know-How?
Könnte sich dann auch in sofern für AMD lohnen.
Der_Korken
2016-12-07, 00:45:48
Weil sie so nVidia aus dem Markt kanten können und bei den Spieleschmieden mit ihrer dann sehr weit verbreiteten Hardware argumentieren können.
Es geht dabei eher nicht um GPU Designs sondern um darauf bezogene Patente. Aufgrund der aktuellen Marktsituation kommt Intel mit Sicherheit bei AMD erheblich kostengünstiger an notwendige IP.
Für AMD wäre es immer noch besser einen Teil der Lizenzgebühren welche bis dato Nvidia einstreicht zu kassieren als überhaupt nichts. Wie das dann im Detail mit x86 bzw. Erweiterungen der ISA verrechnet wird spielt schlussendlich keine große Rolle. Hier muss man auch klar sehen das die durch Intel mit Nvidia nicht ganz freiwillig getroffene Lizenzvereinbarung (über 5 Jahre) weit mehr als nur Kleingeld gewesen ist. Effektiv hat auch das seinen Teil zur Verschiebung der Marktverhältnisse beigetragen. Waren $300 Millionen pro Jahr.
OK, da habe ich die News in den falschen Hals bekommen. Dass Nvidia GPU IP an Intel verkauft (hat), war mir auch nicht klar.
Hübie
2016-12-07, 00:53:44
Naja, unmöglich isses nicht, aber wahrscheinlich?
Das Beispiel der 295X2 taugt nix, weil es seinerzeit nix besseres gab und auch nix besseres am Horizont war. Faktisch ist die 295X2 bis auf die Pro Duo immer noch die schnellste AMD-Grafikkarte derzeit.
Aber ein halbes Jahr vor schnellen SingleChip-Lösungen ein DualChip-Konstrukt mit mittelprächtiger Performance, welche also umgehend wieder abgelöst werden wird? Eher nicht. Wenn, dann im Oktober, dann mit Schmackes und großem Tamtam. Aber nicht im Januar, wenn bis spätestens Juni die schnellere, einfachere, effizientere Ablösung kommt.
Die einzige denkbare Auflösung wäre, das AMD auf zu vielen Chips sitzt. Aber die bekommt man mit DualChip auch nicht zuverlässig weg - und zu viele Polaris 10 haben sie wohl nicht, wenn dann (denkbar) zu viele frühere Chips.
Das alles war AMD bei der Radeon pro Duo auch scheißegal. Zwei P10 landen bei guter Skalierung über einer 1080 OC, schätzungsweise. Da wirbelt man n bissl mit dem Preis und VR im Marketing Mix; fertig.
Hatte AMD mit Polaris größere Hoffnungen in Punkto Performance und Verbrauch, oder war der Chip ungefähr da, wo man es sich erwartet hatte und man hat ihn dann lediglich zu weit geprügelt, um ein später (vom Marketing?) vorgegebenes Performanceziel noch zu erreichen?
Ich kenne nicht deine Hoffnungen, aber was AMD im Vorfeld sagte, ist etwa 2-2,5 fache Performance pro Watt gegenüber Hawaii.
Es gibt einige Möglichkeiten für eine RX490 / Pro490:
1.) Fiji + 8GB HBM2
2.) DualP10
3.) V10 LE mit 8GB HBM2
4.) schlicht höhergetakteter optimierter P10 mit besserem Speicher
5.) V11
6.) bisher unbekannter Polaris-Chip
7.) nichts, alles erfunden
Man sieht, was da für ein Unsinn bei rauskommt.
Ich wähle Tor 2 -> Der Zonk! :freak:
ich denke das die architektur größeren einfluss hat als der fertigungprozess, kepler war ja auch 28nm. der taktunterschied zwischen kepler und maxwell war enorm, obwohl größere chips sich minimal schlechter takten lassen. das pascal nochmals besser taktet liegt eher an der architektur nicht am fertigungsprozess. vega wird kaum höhere taktraten bringen als polaris, wohl eher niedriger.
Na ja. Enorm. Wie definierst du das? Alle GK104 die ich hatte machten 1300 MHz. Ein GM204 kommt durchschnittlich wohl so auf 1500. Sagen wir als 200 MHz mehr. Enorm ist es für meine Begriffe eher nicht. Du hast natürlich Recht, dass die Architektur, also sowohl Anordnung, Technologie als auch prozessbedingte Designrules, den Löwenanteil heutiger Fortschritte darstellen. Das wird sich irgendwann aber auch wieder ändern (neue Verfahren, neue Materialien..).
ich sehe keinen sinn für den durchschnitts zocker 2x p10 für VR im rechner zu haben. die wenigsten zocken nur VR und die restlichen spiele laufen damit grütze. professioneller bereich, schön und gut, aber für zuhause ist das nichts. daher sehe ich keine zukunft für dual gpu´s.
Nur weil du ihn nicht siehst ist es ja nicht abwegig. ;) Sonst kannst du mir gerne die Radeon Pro Duo erklären. Da sieht auch niemand von den Zockern einen Sinn. ;)
@Cyphermaster: Einfach nur was veröffentlichen um in den Medien zu sein ist bewiesenermaßen kein effektives Marketing. Schon gar nicht wenn es dann ein Produkt ist was kaum einen tangiert. Dem geneigten Käufer wird im Falle einer auf VR ausgelegten Dual-GPU kaum der Anreiz ausgelöst den ein klar positioniertes Produkt auslöst. Spätestens in Phase zwei nach der Bedürfnisfeststellung, wird der bei der Informationssuche auf etwas besseres stoßen. ;)
Ich bleib dabei: Wenn diesen Monat was kommt wirds Dual-P10 sein. Eine Bewertung spare ich mir, da obsolet.
Dino-Fossil
2016-12-07, 01:40:53
Ich kenne nicht deine Hoffnungen, aber was AMD im Vorfeld sagte, ist etwa 2-2,5 fache Performance pro Watt gegenüber Hawaii.
Ich rede nicht von meinen Hoffnungen, ich habe über die ursprünglichen Pläne von AMD spekuliert. Es gibt durchaus einige Hinweise, dass die 480 mal unter 150W liegen sollte.
Wenn ich mich nicht täusche, wurde aber nie von 2-2,5x perf/Watt im Vergleich zu Hawaii gesprochen. Es gab die "bis zu 2,8x" Zahl, die aber auf dem Vergleich einer 470 mit einer 270X basierte - und im übrigen sehr fragwürdige Zahlen verwendet hat.
Aber egal ob man mit Hawaii oder Pitcairn vergleicht, sie lagen am Ende unter dem Faktor 2.
Wobei P10 mMn mehr Potential hat.
Z.b. habe ich mit undervolting, einer leichten Absenkung der Taktraten und einem verringerten Powerlimit kaum Performanceeinbußen, aber spürbar weniger Verbrauch mit meiner 480.
Interessant wird sein, was sie bei Vega machen. HBM bringt sicher ein gewisses Einsparpotential mit, aber besser wäre es, noch weitere Verbesserungen zu bringen, die den Verbrauch drücken. Ich erwarte nicht Pascal-Niveau, aber etwas mehr als bei Polaris wäre doch wünschenswert.
Das alles war AMD bei der Radeon pro Duo auch scheißegal.
Was "alles" meinst du denn?
Ein viel schnellerer Chip als Fiji stand jedenfalls zum release der pro duo nicht an.
Es gibt durchaus einige Hinweise, dass die 480 mal unter 150W liegen sollte.
Die Referenz liegt genau dort und etwas anderes würde imho auch genau wegen dieser Grenze keinen Sinn machen. Warum soll man etwa 130 W einplanen? Bringt nichts und die Leistung ist in launch reviews schlechter.
Na ja. Enorm. Wie definierst du das? Alle GK104 die ich hatte machten 1300 MHz. Ein GM204 kommt durchschnittlich wohl so auf 1500. Sagen wir als 200 MHz mehr. Enorm ist es für meine Begriffe eher nicht. Du hast natürlich Recht, dass die Architektur, also sowohl Anordnung, Technologie als auch prozessbedingte Designrules, den Löwenanteil heutiger Fortschritte darstellen. Das wird sich irgendwann aber auch wieder ändern (neue Verfahren, neue Materialien)
Ich denke du weißt schon was gemeint ist. Wenn du Kepler so prügelst hat er natürlich auch entsprechend gesoffen. Hawaii kann man auch mal auf 1,3 bekommen, das ist aber nicht das Thema. Ich sage auch nur Titan classic base clock von 836 MHz bei 250W ;D
Natürlich hat Maxwell da ordentlich drauf gelegt, vor allem weil es halt ausschließlich das Design und nicht die Fertigung war.
Du hast vielleicht auch vergessen, dass gm204 einfach mal 1/3 größer war als gk104, das kann schon auch eine Rolle spielen.
Dino-Fossil
2016-12-07, 02:13:30
Die Referenz liegt genau dort und etwas anderes würde imho auch genau wegen dieser Grenze keinen Sinn machen. Warum soll man etwa 130 W einplanen? Bringt nichts und die Leistung ist in launch reviews schlechter.
Eher bei 165W, was zur unnötigen (wenn auch aufgeblasenen) Diskussion zur Verletzung des PCIe-Standards geführt hat, da man ja auch nur einen 6pin-Stecker verbaut hat.
Dann doch eher etwas darunter bleiben und damit ein wenig Luft nach oben lassen für eventuelles OC sowie besseres halten des Boosttaktes.
Der_Korken
2016-12-07, 02:26:58
Ich denke du weißt schon was gemeint ist. Wenn du Kepler so prügelst hat er natürlich auch entsprechend gesoffen. Hawaii kann man auch mal auf 1,3 bekommen, das ist aber nicht das Thema. Ich sage auch nur Titan classic base clock von 836 MHz bei 250W ;D
Natürlich hat Maxwell da ordentlich drauf gelegt, vor allem weil es halt ausschließlich das Design und nicht die Fertigung war.
Du hast vielleicht auch vergessen, dass gm204 einfach mal 1/3 größer war als gk104, das kann schon auch eine Rolle spielen.
Die Titan Classic hat deutlich weniger als 250W verbraucht, eher so um die 200W (Link (https://www.3dcenter.org/artikel/stromverbrauch-aktueller-und-vergangener-grafikkarten/stromverbrauch-aktueller-und-vergangen)). Von der 780 Ti gab es Custom-Modelle die out of the box schon 1100 Mhz geschafft haben (Link (https://www.computerbase.de/2013-11/geforce-gtx-780-ti-gigabyte-inno3d-test/2/#abschnitt_taktraten_unter_last)) und mit OC natürlich noch etwas mehr. Der Sprung von Maxwell auf Pascal war jedenfalls deutlich größer als der von Kepler auf Maxwell. Das heißt natürlich nicht, dass Pascal nicht auch deutliche Architekturverbesserungen für höhere Taktraten beinhalten kann, aber es sieht erstmal so aus, als hätten 28 vs 16nm hier den größten Sprung gebracht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.