Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Wie AMDs Vega-11-Chip aussehen könnte
Leonidas
2017-01-16, 14:36:16
Link zur News:
https://www.3dcenter.org/news/wie-amds-vega-11-chip-aussehen-koennte
Hat AMD eigentlich bestätigt das Vega11 überhaupt HPB2 mitbringt? Es wäre doch auch durchaus möglich das hier weiterhin GDDR5 oder sogar GDDR5X Speicher zum Einsatz kommt. Ich meine das AMD auch mit Vega1X auch die Speicherbandbreite besser ausnutzen will als es bisher der Fall ist. Das SI der GTX1060 ist auch nur 192bit breit. Es wäre also durchaus denkbar das 256bit GDDR5 (259GB/s) durchaus bei der Vega11 reichen könnten. Dann würde die RX480 Polaris10 komplett ersetzt werden können, bzw. mit niedrigeren Taktraten und dadurch weniger Energiefressend als RX 570 übernommen werden.
Vega10 -> RX 590, 8GB HBM2 2048bit
Vega11 -> RX 580, 8GB GDDR5(X) 256bit
Polaris10 -> RX 570, 4/8GB GDDR5 256bit
Polaris11 -> RX 560, 2/4GB GDDR5 128bit
RX 570 und RX 560 mit der jeweils kleineren Speichergröße könnten auch beim Chip selbst abgespeckt sein wie bei der 3GB Version der 1060.
Um jetzt noch die 1070 anzugreifen kommt AMD ein Jahr zu spät. Man müsste mehr bieten. Die ist auch nicht durchweg 4K tauglich.
Was hälst du denn davon das Vega 11 Polaris ablöst? Sozusagen Polaris ins mGPU Segment verbannt und dGPUs aufs HBM2 Level hebt?
Wieso eigentlich 800 MHz DDR? Wie kommst du darauf?
Ich glaube immer noch, das AMD den ersten Vega verworfen hat, als sie gesehen haben wie hoch Nvidia taktet.
Grafikspachtel
2017-01-16, 17:40:54
HBM Gen1 (e.g. Fiji) taktet mit 500MHz.
HBM Gen2 kann 500-1000MHz.
Der Unterschied ist, dass HBM ein ultrafettes 4096bit Speicherinterface hat, was mal eben um den Faktor 8 (sic!) größer ist als bei GDDR5 (e.g. 512bit bei Hawaii/Grenada und selbst GP104 hat "nur" 320bit).
Um denselben Durchsatz zu erzielen ist bei HBM sehr viel weniger Takt vonnöten als bei GDDR5.
G3cko
2017-01-16, 17:41:51
Um jetzt noch die 1070 anzugreifen kommt AMD ein Jahr zu spät. Man müsste mehr bieten. Die ist auch nicht durchweg 4K tauglich.
Das ist Quatsch. Wenn Vega 10 Performacne über GTX1080 Niveau bietet fehlt ein Chip in der Mitte. GP104 ist auch nur Mittelklasse. Bereits bei der GTX680 (GK104) hat Nvidia gezeigt, dass man mit diesem Chip zuerst im HighEnd startet und anschließend preislich nach unten wandert.
Die Fertigungsprozesse werden einfach viel länger genutzt. GP104 wird ersteinmal so wieter bestehen bleiben.
Grafikspachtel
2017-01-16, 18:04:51
Die Meistertrollaktion von Nvidia besteht darin, den GPU-Käufern mit Pascal Midrange-Chips für Highendpreise zu verkaufen - und die Leute fallen - genau wie Anno 970 - massenweise drauf rein.
Es ist halt scheiße, wenn die Konkurrenz gar nicht erst antritt in diesem Segment, aber selbst als AMD führend war in puncto Performance, Fertigungsverfahren und Preis, hat kein Schwein AMD gekauft.
Die HD4870 war gegenüber der GTX280 klar die bessere GPU.
Genauso war die HD5870 gegenüber der GTX480 klar die bessere GPU.
3 Jahre lang hatte AMD das bessere Fertigungsverfahren, den besseren Energieverbrauch, die bessere Performance und das bessere Preis/Leistungsverhältnis.
Und was haben die Leute massenhaft gekauft? Geforces. Für einen Autovergleichansteller ist der Markenname "Geforce" ein Synonym für "Grafikkarte" (so ähnlich wie für viele Werbeopfer jede Nuss-Nougatcreme = Nutella ist, die kriegen das auch ihren Lebtag nicht mehr getrennt - die Werbung hat sich to tief in's Gehirn gefressen, die bekommt kein Neurochirurg jemals wieder dort raus...)
Fast Forward to 2017:
AMDs traditioneller Fertigungsvorteil ist jetzt dahin, der Energieverbrauch akzeptabel und die Preise kann sich Nvidia selbst aussuchen, denn Polaris kann nunmal nicht mit GP104 mithalten. Großartig.
Fury X und Fury hatten 4.096 Shaderunits und 256 TMUs respektive 3.584 Shaderunits und 224 TMUs.
Warum sollte der kleinere Vega nicht auch genau bei 3.584 NCUs landen?
Entscheidend ist doch der Yield, den man mit deaktivierten Units erreicht...
vinacis_vivids
2017-01-16, 18:38:50
Beim besten Willen, aber die GTX1070 ist doch kein "high end" :freak:
Genauso wenig wie die GTX970 vormals. ;)
Ja der Vega 10 muss im Vollausbau anfänglich recht nah an die Titan X P kommen und später durch Treiberarbeit überholen. Dafür reicht auch schon die 8GiB Ausführung.
Die 16 GiB Ausführung muss einen klaren Mehrwert bieten, weil dieser Batzen Speicher noch sehr sehr teuer ist.
BlacKi
2017-01-16, 18:41:42
Die Fertigungsprozesse werden einfach viel länger genutzt. GP104 wird ersteinmal so wieter bestehen bleiben.
es wird vermutlich auch einen refresh geben, dort könnte man schnelleren gddr5x verbauen und vega 10 überholen, bekanntlich performt die 1080 sehr gut mit mehr bandbreite. wäre das dann immernoch mittelklasse?^^ wäre aber vermutlich der 1080ti ziemlich nahe.
wäre aber vermutlich der 1080ti ziemlich nahe.
Kann man pauschal nicht sagen, die TXP bekommt man ja nur in der FE. Wer weiß wie schnell die Partner mit der 1080ti Cutsom dürfen. Kann schon sein die OC ist fast so schnell wie die TXP, selbst Einheitenkastriert weil Nvidia dann wieder mehr zulässt um AMD einzugrenzen und ein besseren Preisgefüge hat. Irgendwann sind die TXP User rein vom Nutzerprofil her eh abgegrast.
Dann wäre für einen GP104 Refresh sicher noch Platz. Nvidia wartet doch nur auf AMD - mehr nicht. Warum sollen sie vorher was ändern, wenn man Highend überall weit vorne ist? Da brauchen sie nicht mal die 1080ti und scheffeln, würde jeder so machen. Die 1070 um 40 Dollar gesenkt oder mit GDDR5X zu gleichen Preis = AMD sieht alt aus. HBM2 ist einfach zu teuer. Was übermorgen ist, interessiert die Nvidiafans doch soweiso nicht, dann kaufen sie halt neu. Die wenigsten behalten ihre Karten so lange wie AMD Jünger, dass weiss auch Nvidia. Die bringen im Unterschied zu AMD, immer genau das was sie müssen - nicht was sie könnten. Damit lassen sie AMD genug Luft um zu existieren. Intel macht es doch nicht anders. Für die ist AMD wie die melkende Kuh. Das weiss auch AMD, glaub mal nicht das die das anders sehen, der Rest ist doch nur Gedröhne. Die gehen sich zuletzt schön aus dem Weg und besetzen ihre Bereiche, wie's ihnen beliebt.
Wir werden doch schon seit Ewigkeiten verarscht, alles Absprache wenn mich einer fragt.
Eldoran
2017-01-16, 20:41:58
Wir wissen einfach nicht was AMD mit dem Vega 11 erreichen will. Ein "halber Vega 10" macht durchaus Sinn, auch wenn für Spiele das ganze praktisch identisch zu Polaris 10 ist, solange es die gleichen Kosten erzeugt. Schlicht und einfach, weil es die Stückzahlen für HBM2, Interposer etc. gewaltig erhöht und für andere Anwendungsbereiche deutlich leistungsfähiger wie Polaris 10 sein wird. Es wäre also eigentlich ein Chip für das Profisegment.
Das ganze könnte auch durchaus damit erklärbar sein, dass sich Polaris verzögert hat, Vega aber nicht.
AMD-Gast
2017-01-17, 01:33:44
Wieso eigentlich 800 MHz DDR? Wie kommst du darauf?
Leonidas geht wohl grundsätzlich von 2x4Hi Stacks aus, weil es Bilder gibt die so etwas aufzeigen. Was das genau war weiß bloß keiner. Dann könnte man dort H5VR32ESM4H-20C oder H5VR32ESM4H-12C von SK Hynix zum Einsatz bringen.
Komischerweise könnte man 8 GB Karten (Vega 10 und 11) auch anders gestalten. Es wären auch nur 256GB/s (2,0 GHz) oder 204,8 GB/s (1,6 GHz) möglich, nämlich dann, wenn man nur einen 8Hi Stack verbaut. Das dürfte die Datenrate dann recht ordentlich drücken. Die GPU mit nur einem Stack, hätte klar das kleinere Interface.
OBrian
2017-01-17, 05:35:19
Vega 11 könnte auch noch kleiner sein als von Leo in der Tabelle spekuliert: Mit einem Stack HBM2 käme man auf 256 GB/s, also wie die 480, wenn man die gleichen 8-GB-Stacks nimmt wie bei der Vega 10, dann muß AMD nur eine Art Speicherchips bestellen und nicht mehrere. Ebenso reichen evtl. auch noch weniger Einheiten, also ungefähr so viele wie bei der 480. Damit könnte der Die kleiner sein, wenn er ziemlich rechteckig ist und eine Seite kaum länger als ein HBM2-Stack, kann man auch einen kleinen Interposer nehmen (naja gut, beim Interposer kostet Fläche wohl nicht so viel, aber sparen schadet ja nicht).
Von der Performance her könnte der Chip trotzdem in der Mitte zwischen P10 und V10 ankommen. Evtl. reduziert man dann die TDP bei den Polaris-Karten etwas und läßt sie mit 1100 MHz effizienter dahingondeln, als neue sparsamere Mittelklassekarten ("RX 570" oder sowas).
Man muß ja bedenken, daß man auch noch teildeaktivierte Varianten aller Karten anbieten kann, um Lücken zu füllen. Müßte dann ein ziemlich gleichmäßig abgedecktes Spektrum ergeben, oder?
ganz klar wird amd alles verwursten, so wie das alle machen. wahrscheinlich wirds sogar karten mit nur 4gb hbm geben. damit könnte man polaris komplett ablösen (oder ist er womöglich schon hbm tauglich - anzunehmen). für 1080p reicht das dicke und das ist noch weit verbreitet. ganz so kleine dies werden es wohl nicht werden, da man wie nv etwas mehr in die fläche geht um höhere taktraten zu erreichen.
was koduri hochgehalten hat war wohl eine mi25 gpu, daran würde ich nichts ableiten. da könnten auch 16gb hbm angebunden gewesen sein. sah eher nach samsung aus. ob 8hi stacks lieferbar sind oder nicht spielt dabei keine rolle - sah nach es aus. amd veräppelt uns alle um nebelkerzen zu werfen.;-)
ob amds gemoddeter fijitreiber unter doom überhaupt mehr zugelassen hat oder richtig ausgelesen hat, kann man auch nicht sagen, daher ist was golem ausgelesen hat eigentlich nichts wert. das kann in hardware völlig anders ausgesehen haben.
die volle zur verfügung gestellte bandbreite von hbm braucht kein mensch, da würden cpus schon limitieren. was koduri da im video erzählt ist reines marketing und werbung für hbm damit mehr auf den zug aufspringen um fertigungskosten zu drücken. fiji hat durch hbm im consumerbereichen keinerlei bandbreitenvorteile gegenüber nvidias ansatz. das thema wird einfach nur aufgeblasen. bei höherem ausbau schwinden auch effizienzvorteile.
könnte könnte könnte. AMD kann vieles.
Realistisch wäre allerdings, dass AMD anhand der Ausbeute des vollen Vega eine Abstufung anbietet um die Ausbeute zu maximieren. Ein noch kleinerer Vega macht dann erst Sinn, wenn dieser von der Leistung deutlich oberhalb von Polaris10 raus kommt. Die ist bereits mit GTX1060 auf Augenhöhe.
Wahrscheinlicher ist doch eine Laptop-Variante....
Iscaran
2017-01-17, 10:43:47
@Leo
Mit der Vega-Generation sollte dieser Faktor wie gesagt erheblich zurückgehen – geschätzt in Richtung 1,2, sprich AMD würde dann nur noch grob 20% mehr Rechenleistung für dieselbe Performance benötigen.
Wieso schätzt du das nur ? Du hast doch hier selbst eine gute Datenbank von Werten mit denen man in der Hinsicht Architekturen vergleichen kann.
Erstelle mal pro Architektur den Wert aus GFlops/3D-Center-Indexpunkt indem du die jeweiligen Werte der einzelnen GPUs dann mittelst.
Dann sollte man doch eigentlich sehen wie die Entwicklung der Gflops/Performance bei den einzelnen Architekturen lief - außerdem würde ich erwarten dass die Effizienz GFlops/Punkt im Laufe der Zeit bei den Architekturen sich verbessert (also Weniger GFlops einen Indexpunkt ergeben).
Warum muss Vega11 eigentlich kleiner ausfallen als Vega10? Ich dachte bei der Nummerierung geht es nur um die Reihenfolge in denen die Designes begonnen wurden....
Bisher dachte ich Vega11 wird grösser/schneller als Vega10.... ich dachte ich hätte da mal etwas aufgeschnappt im Netz....
MrSpadge
2017-01-17, 12:48:06
Wieso schätzt du das nur ?
Weil wir noch keine wirklich belastbaren Werte zur Spiele-Geschwindigkeit von Vega haben. Nur einen groben Vergleich, auf welchem die Schätzung beruht.
MrS
könnte könnte könnte. AMD kann vieles.
Realistisch wäre allerdings, dass AMD anhand der Ausbeute des vollen Vega eine Abstufung anbietet um die Ausbeute zu maximieren. Ein noch kleinerer Vega macht dann erst Sinn, wenn dieser von der Leistung deutlich oberhalb von Polaris10 raus kommt.
Um die Ausbeute zu maximieren braucht man keinen Vega 11. Das ist Unsinn. Man kennt die Yieldrate von AMD gar nicht. Ein weiterer Chip dürfte diese insgesamt weiter steigern.
Wenn man AMDs Philosophie folgt oder glaubt, ist das ein anderer (kleinerer Chip), siehe Polaris 10 und 11! Wozu noch einen anderen wenn man rein mit HBM und dessen Bandbreite die Leistung anpassen könnte? Ich glaube auch das man über kurz oder lang Polaris ablöst. Der war viel zu spät oder man verwurstet was Apple nicht braucht, vielleicht hatte AMD mit Low-Cost-HBM schon experimientiert, nur gebracht hat es nichts oder war Apple zu teuer. Apple drückt die Preise für IHVs immer unwahrscheinlich um Gewinne zu maximieren. Polaris kann daher rein Apples Wunsch gewesen sein und AMD nimmt mit, was sie zu bieten haben und Apple nicht braucht, siehe Tonga.
Wenn Vega 10 die TXP schlägt wird die sicher über 800 $ kosten. Wer glaubt Vega ist irgendwas im Billigheimersektor, der merkt es echt nicht mehr. AMD braucht Vega 11 um im Highendbereich was preisbewusstes anzubieten. Vega 10 ist klar Enthusiast. Das hat mit der Ausbeute und dessen weiterer Verwendung rein gar nichts zu tun. Man kann von Vega 10 auch locker 3 Derivate auflegen, XT, PRO und noch irgendwas, wenn man über den Ausschuss, Takt und die Bandbreite des HBM geht. Nur wird das viel zu teuer, riesige Dies dafür zu verschwenden. Wahrscheinlich sehen wir tatsächlich sogar Karten mit 4GB HBM 2 bei 256GB/s.
Vega 10 wird Enthusiast, Vega 11 Highend, Polaris 10 und 11, 12 alles darunter. Man könnte wahrscheinlich auch noch Vega 12 auflegen. Denke dann fliegt Polaris aus dem Programm. AMD will klar auf HBM und dessen Bandbreite als Zukunftsfeature setzen, Vega 12 Karten auf ehemals Polaris dürften dann ziemlich winzig ausfallen. Zusammen mit deren Infinity Fabric scheint das die neue Architektur mit NCUs zu prägen. Das spart ungemein und AMD kann feste Größen an die Partner liefern. Die brauchen weder das Die noch den VRAM verdrahten. Billiger geht es nicht.
Irgendwann kommt dann Vega 10 als Vega 20 in 7nm und so weiter.
Vega 10 Dual - RX Duo X - H²O
Vega 10 XT - RX Fury X
Vega 10 Pro - RX Fury
Vega 11 Dual - RX Duo Pro - H²O
Vega 11 XT - RX 590 X
Vega 11 Pro - RX 590
Polaris 10 XT - RX 480
Polaris 10 Pro - RX 470
Polaris 11 - RX 460 X
Polaris 12 - RX 460
Wie gesagt dann könnte man aus Polaris mit dann auf NCUs und Infinity Fabric geupdatet, noch Vega 12 machen und Polaris irgendwann komplett rausschmeißen. Mitte 2018 wahrscheinlich oder wenn die nächste Gen kommt. So war das die letzten Jahre immer, was soll sich daran ändern.
Vega dürfte Polaris schon vom Takt her völlig überflügeln, zudem sind wichtige Funktionen im Chipdesign überarbeitet worden. Neue Controller, erweitere Pipelines, flexibelere Shader, höhere Auslastung, verdoppelter Durchsatz. AMD wäre blöd das im Midrange zurückzuhalten. Damit könne sie GP106 und auch GP104 Einhalt gebieten und die Kosten für ein aufwendiges Layout stark minimieren.
Polaris wandert dann bis zur RX 580m in den mobile Bereich.
BlacKi
2017-01-17, 15:25:01
Kann man pauschal nicht sagen, die TXP bekommt man ja nur in der FE. Wer weiß wie schnell die Partner mit der 1080ti Cutsom dürfen. Kann schon sein die OC ist fast so schnell wie die TXP, selbst Einheitenkastriert weil Nvidia dann wieder mehr zulässt um AMD einzugrenzen und ein besseren Preisgefüge hat. Irgendwann sind die TXP User rein vom Nutzerprofil her eh abgegrast.
Dann wäre für einen GP104 Refresh sicher noch Platz. Nvidia wartet doch nur auf AMD - mehr nicht. Warum sollen sie vorher was ändern, wenn man Highend überall weit vorne ist? Da brauchen sie nicht mal die 1080ti und scheffeln, würde jeder so machen. Die 1070 um 40 Dollar gesenkt oder mit GDDR5X zu gleichen Preis = AMD sieht alt aus. HBM2 ist einfach zu teuer. Was übermorgen ist, interessiert die Nvidiafans doch soweiso nicht, dann kaufen sie halt neu. Die wenigsten behalten ihre Karten so lange wie AMD Jünger, dass weiss auch Nvidia. Die bringen im Unterschied zu AMD, immer genau das was sie müssen - nicht was sie könnten. Damit lassen sie AMD genug Luft um zu existieren. Intel macht es doch nicht anders. Für die ist AMD wie die melkende Kuh. Das weiss auch AMD, glaub mal nicht das die das anders sehen, der Rest ist doch nur Gedröhne. Die gehen sich zuletzt schön aus dem Weg und besetzen ihre Bereiche, wie's ihnen beliebt.
Wir werden doch schon seit Ewigkeiten verarscht, alles Absprache wenn mich einer fragt.
genau das sehe ich anders. die 1080ti könnte jetzt noch ordentlich geld bringen, im sommer hätten die leute noch 900€ dafür geblecht und zwar reihenweise. wenn vega draussen ist, taugt die karte nur noch für ca. 700€ je nach dem wo sich vega performance mäßig einordnet sogar billiger.
Also Vega11 muss doch ein Grund haben für ein anderes Design als Vega10.
Das hat nix mit deaktivierten NCUs oder Speicherbestückungen zu tun.
Sicherlich wird Vega11 HBM2 haben, für GDDRx gibt ja schon Polaris10-12.
Was bei AMD fehlt ist ein Hawaii Nachfolger für DP-Float Performance.
Deshalb wird Vega11 ein Compute-Monster für den Profi-Bereich. Nix Daddeln sondern Dollars.
Limit
2017-01-17, 18:47:00
Deshalb wird Vega11 ein Compute-Monster für den Profi-Bereich. Nix Daddeln sondern Dollars.
Für den Bereich soll es doch nächstes Jahr noch Vega20 geben, dann auch mit vier HBM2 Stacks für bis zu 32GB VRAM.
Gipsel
2017-01-17, 18:47:01
Link zur News:
https://www.3dcenter.org/news/wie-amds-vega-11-chip-aussehen-koennteAlso falls die verschiedenen Features von Vega anständig funktionieren, kann man GP104 eventuell auch angreifen, wenn man Vega11 bezüglich der Bandbreite noch etwas weiter unten ansetzt. Letztendlich hat die 1070 auch nur 256GB/s Bandbreite (wie die RX480) und selbst die 1080 nur 25% mehr. AMDs Nachteil war ja bisher die geringere Bandbreiteneffizienz im Vergleich zu nV, die aber ein Kernpunkt der Änderungen mit Vega sind.
Dazu zählen das geänderte Caching für das Pixel-Backend (was sehr wahrscheinlich mit einer Vergrößerung der Caches [bzw. der effektiven Cachegröße für das Pixelbackend, mit Vega dann zweistufig, L1 und L2, vorher nur einstufig] einhergeht, was auch das Speicherinterface entlastet) wie auch der Draw Stream Binning (Tiling) Rasterizer. Hierzu hat AMD noch nicht viel gesagt, konkrete Einschätzungen sind also schwer. Aber je nachdem wie das genau implementiert ist, kann man im Optimalfall sogar an nV vorbeiziehen, was die Bandbreiteneffizienz angeht (die nV-Lösung puffert offenbar doch nur recht übersichtliche Mengen Geometrie in den Tiles und auch nicht über Drawcalls hinweg, das hidden surface removal ist vermutlich auch recht stark limitiert). Damit würde die effektive Leistung einer Vega-Lösung deutlich über der einer Polaris-GPU mit gleicher Bandbreite liegen, die effektive Rechenleistung bei gleicher SP-Zahl wegen dem vermutlich deutlich höheren Takt (vermutlich im Bereich +25%) und weiterer interner Verbesserungen an den CUs ja sowieso (insgesamt +35% als grobe Schätzung?).
Damit sage ich nicht, daß es so kommen wird, aber immerhin besteht eine gewisse Möglichkeit, daß z.B. eine GPU mit nur einem Stack HBM2 (256GB/s wie die GTX1070) sogar vor ebendieser herauskommen kann und eventuell an der 1080 kratzt. Und mit den Aussagen, daß man nicht mehr nur Wert auf die Größe des Speichers ("high bandwidth cache") sondern auch auch auf die Geschwindigkeit legen wird, eröffnet dies eventuell sogar die Möglichkeit für Budget-Versionen mit nur 4GB (die müssen die informierten Nutzer ja nicht unbedingt kaufen, aber wer weiß, wie gut daß mit dem "HBC" am Ende funktionieren wird).
Die 1070 hat 1920 SPs bei 1,5/1,68GHz (Base/offizieller Boost). Angenommen Vega11 taktet nicht schlechter als Vega10 (die 1,5GHz für Vega10 scheinen im Moment ja recht solide und traditionell kommen die kleineren Brüder oft noch ein wenig höher), also sagen wir mal 1,5/1,6GHz Base/Boost. Dann könnten mit den Verbesserungen am Frontend eventuell schon 2048SPs (32CUs) für die 1070 reichen, aber so optimistisch wäre ich eher nicht.
Weiterhin wird man vermutlich nicht unter die 4 Geometry Engines von Polaris10 gehen und da AMD bisher immer CUs symmetrisch in den Engines deaktivierte (anders als nV), sind davon ausgehend Schritte von 4 CUs bzw. 256SPs wahrscheinlich. Das wären also 36 CUs (2304SPs wie Polaris 10), 40 CUs (2560SPs wie GP104) und 44 CUs (2816 SPs wie Hawaii) im Maximum (würde dann den Abstand wie Fiji zu Hawaii reproduzieren). *)
Unter diesen Annahmen kann man im Prinzip 2 Szenarien aufmachen: Die Maximalvariante der kleinen Lösung mit Vega11XT mit 44CUs (2816SPs), 4 Geometry-Engines und ein einzelner 8GB 8Hi-Stack HBM2 mit 256GB/s. Damit wäre genügend Abstand zur Salvage-Variante der Vega10 (56CUs/3584SPs und 409GB/s Speicherbandbreite?) gesichert, man kann damit die GTX1080 unter Druck setzen (wie gesagt unter der Annahme, daß die angekündigten Maßnahmen zur Steigerung der Bandbreiteneffizienz gut greifen), spart Kosten durch nur einen Stack, ist aber von der Lieferbarkeit der 8Hi-Stacks abhängig (keine Ahnung, wie es da konkret aussieht) und kommt nicht über 8GB hinaus (was aber nach der Präsentation mit einem Fokus auf dieses high bandwidth cache controller Feature einkalkuliert sein könnte).
Die Salvage-Variante könnte dann z.B. 36CUs und ebenfalls 256GB/s oder 40CUs mit 205GB/s (1,6Gbps) haben und um die 1070 herauskommen.
Sehr viel ist wie gesagt davon abhängig, wie gut AMDs Verbesserungen des Front- und Backends greifen werden, nicht nur vom Durchsatz her, sondern auch in Bezug auf die Bandbreiteneffizienz. Bisher fehlen Details, dies genau einzuschätzen, aber laut den Ankündigungen hat AMD dort mit Vega deutlich mehr herumgeschraubt, als in allen bisherigen Updates seit der Einführung von GCN zusammengenommen. Das Potential für deutliche Verbesserungen ist also da.
Falls AMD sehr großes Vertrauen in diese neuen Geomtrie- und Pixelpipelines setzt, gehen die vielleicht für Vega 11 auch den ungewöhnlicheren Weg mit 3 Geometrie-/Shaderengines. Dann gibt es mögliche Abstufungen in Schritten von 192SPs (also z.B. 36, 39, 42CUs). Vega11XT wären dann vielleicht 42CUs (2688 SPs), Vega11Pro dann 36 CUs (2304 SPs). Dann sehen wir vielleicht auch 48 ROPs.
*):
Carsten Spille merkte übrigens auf B3D scharfsinnig an, daß auf den Folien zu Vega 10 ausdrücklich nicht steht, daß Vega 10 mit 4 Geometry Engines kommt, sondern welchen Durchsatz Vega mit 4 Engines erreichen würde. Deswegen wäre auch eine Lösung denkbar, daß eben Vega 11 mit 4 Engines kommt (wie Tonga/Hawaii/Fiji/Polaris10/GP104), Vega 10 aber mit deren 6 (was dann nicht ganz mit den 64CUs paßt [66CUs bzw. 4224 SPs?], solange AMD nicht auch wie nV unsymmetrische Konfigurationen erlaubt) oder gar deren 8 (GP100/102 haben 6, insofern wären 8 vielleicht schon Overkill).
Um die Ausbeute zu maximieren braucht man keinen Vega 11. Das ist Unsinn. Man kennt die Yieldrate von AMD gar nicht. Ein weiterer Chip dürfte diese insgesamt weiter steigern...
Genau das meinte ich doch, Vega10 bietet genug Abstufungsmöglichkeiten weil man ohnehin den Yield optimieren muss. Da bleibt unterhalb V10 wahrscheinlich kein Platz mehr zu Polaris10 und Co. Es sei denn man würde Polaris ganz schnell wieder einstampfen. Dann würde man aber auch kein P12 einführen, oder?
Deshalb V11 > V10! bei Polaris war 11 < 10, über 12 wissen wir noch nix genaues.
Gipsel
2017-01-18, 10:25:49
Genau das meinte ich doch, Vega10 bietet genug Abstufungsmöglichkeiten weil man ohnehin den Yield optimieren muss. Da bleibt unterhalb V10 wahrscheinlich kein Platz mehr zu Polaris10 und Co.Wenn Vega 10 mit der 1080Ti konkurriert, ist da massig Platz.
Leonidas
2017-01-18, 17:21:48
@Leo
Wieso schätzt du das nur ? Du hast doch hier selbst eine gute Datenbank von Werten mit denen man in der Hinsicht Architekturen vergleichen kann.
Erstelle mal pro Architektur den Wert aus GFlops/3D-Center-Indexpunkt indem du die jeweiligen Werte der einzelnen GPUs dann mittelst.
Dann sollte man doch eigentlich sehen wie die Entwicklung der Gflops/Performance bei den einzelnen Architekturen lief - außerdem würde ich erwarten dass die Effizienz GFlops/Punkt im Laufe der Zeit bei den Architekturen sich verbessert (also Weniger GFlops einen Indexpunkt ergeben).
Der Gedanke ist überhaupt nicht verkehrt. Aber bei Vega kann ich wirklich nur schätzen - Performance-Werte sind ja noch nicht da.
Warum muss Vega11 eigentlich kleiner ausfallen als Vega10? Ich dachte bei der Nummerierung geht es nur um die Reihenfolge in denen die Designes begonnen wurden....
Bisher dachte ich Vega11 wird grösser/schneller als Vega10.... ich dachte ich hätte da mal etwas aufgeschnappt im Netz....
Nein, das ist ziemlich klar, das Vega 11 der kleinere wird. P11 war ja auch der kleinere gegenüber P10. Und Navi 11 wird auch kleiner als Navi 10 sein. AMD hat hier augenscheinlich alle bisherigen Schemas komplett über den Haufen geworfen.
@ Gipsel: Sieht gut aus. Viele Möglichkeiten, von denen eine womöglich zutreffen wird. Nur bei der Bandbreite denke ich wird AMD aggressiver sein. Gleiche Bandbreite wie bei Polaris 10 reicht nicht aus, das reißen dann auch keine Architekturverbesserungen raus.
Gleiche Bandbreite wie bei Polaris 10 reicht nicht aus, das reißen dann auch keine Architekturverbesserungen raus.
Dann müssten alle Karten mit 16 und 8GB HBM2 kommen, dass ist eher unglaubhaft (und wäre zudem Sau teuer). 500 oder 400 GB/s kann man nur mit zwei Stacks erreichen. 2Hi gibt es lt. Jedec nicht! Ich denke schon das AMD auch nur mit einem Stack kommt. Das kann nur 4 oder 8Hi sein. Das ist einfach notwendig um im Preiskampf konkurrieren zu können. Das sie so wie bei Polaris anfänglich 4GB einfach deaktivieren wäre dumm.
AMD gibt per Treiber dann eh nur noch soviel RAM frei wie sie meinen und nicht wie eine Anwendung zuweilen nutzlos fordert. Das müsste sich ja dann positiv auf die Bandbreite auswirken.
Wer sagt eigentlich das Vega extrem an der Bandbreite hängt? nVidia tut es doch auch nicht.
Gipsel
2017-01-18, 18:16:06
2Hi gibt es lt. Jedec nicht!Na klar gibt's das (sogar 1Hi ist möglich).
Der HBM-Spec ist es völlig egal, wie man die Stacks baut. Spezifiziert ist, daß es (bis zu) acht 128bit Channel gibt (es könnte also z.B. auch 6-Kanal 3Hi-Stacks mit 3GB und 6Hi-Stacks mit 6GB geben, die dann auch nur 75% der Bandbreite [bis 192GB/s] liefern; sowas ist bisher nicht angekündigt, die Spezifikation gibt das aber her), wie die angesteuert werden, wie das Pinout der Bausteine aussieht und daß HBM2 exakt 0,72mm hoch sein muß. Wieviele Dies man da übereinanderstapelt, kümmert grob gesagt keine Sau (einzige Maßgabe ist, daß die Latenz innerhalb eines 128Bit-Channels nicht variieren darf [zwischen den Channels aber schon, die dürfen sogar unterschiedlich getaktet sein], was es minimal schwieriger aber nicht unmöglich macht, einen Kanal über mehrere Dies zu verteilen, man kann theoretisch also auch 16Hi bauen [geht mit superdünnen Dies durchaus in den 0,72mm, SanDisks 200GB µSD-Karte stapelt 25 Dies in 0,7mm Höhe, inklusive der Plastikumhüllung!]). Und 2Hi-Stacks sind von den Herstellern übrigens bereits angekündigt.
https://abload.de/img/hbm_jesd235aiyrm0.png
die jesd erlaubt 8 dies für hbm2, keine 16 oder sonstwas und 2hi ist angekündigt...nur nicht verfügbar. maximal könnten so 32gb erreicht werden mit je 4 8hi stack. mehr ist für hbm2 erstmal nicht vorgesehen, was man rein von der fertigung her kann ist ein ganz anderes thema. frag dich mal wo die 2hi stacks hinwandern, es gibt ja noch apus. dies sitzen im übrigen noch auf einem substrat, sind also jeweils 9, 5, 3 mkgsd. die höhe ist für apus nicht relevant.
AMD-Gast
2017-01-18, 20:04:52
Zur Zeit kann man bei sk-Hynix für den Bereich Graphics das hier bekommen: H5VR32ESM4H-H1K als 4Hi HBM2 Variante. Die Datenrate liegt bei 1,6GHz auf 409,6GB/s für HBM2 Specs (bei dann 8GB Speicherausbau und 2 Modulen/Stack). Das dürfte die derzeit offizielle und verfügbare Datenrate einengen (und ist sicher nur eins der neuen Parameter die die mögliche Performance von Vega10/11 bestimmten [natürlich müßen sich auch Entwickler finden die das alles umsetzen wollen]). Was Samsung so hat, k.A.. Man könnte die Speichermodule sicher auch so ähnlich anordnen wie bei Fiji und käme dann auf 16GB. Ob die Interposer diesmal alle gleich aussehen und gleich groß sind? Wer weiß das schon, im Enthusiast ist sicher alles möglich, ob Vega 10 das wirklich ist?
Was man alles machen kann, steht ja eigentlich nicht zur Debatte. Sondern daß, was man möglicherweise aus verfügbaren Zahlen ableiten kann, dann schon eher. Ich glaube nicht, daß AMD erst zum Ende zweites/Anfang drittes Quartal 2017 anfängt Vega zu pressen oder mit HBM2 zu bestücken. Man wird erst mal liefern was verfügbar und damit in ausreichender Stückzahl lieferbar ist (das ist ein wesentliches Merkmal mit dem auch AMD argumentiert, sofortige Verfügbarkeit ab Launch). HBM ist sicher sehr flexibel, aber ob man das schon alles zum Start/Launch von Vega 10 umsetzen kann. Ich glaube es ehrlich gesagt nicht und darum geht es AMD mMn erst mal nicht.
Gipsel
2017-01-18, 20:36:06
die jesd erlaubt 8 dies für hbm2, keine 16 oder sonstwasDie Spec erlaubt Alles, was in 0,72mm Höhe paßt :rolleyes:.
Ich habe die Spec doch zitiert. Es ist ausdrücklich erlaubt, einen Kanal über mehrere Dies (das wären dann mindestens 2) zu verteilen. Man darf also ein 8channel Stack mit 2 Dies (oder gar drei oder sonstviel) pro Kanal bauen, solange man das Timing konstant halten kann.
Und am gebrachten Beispiel von Flash-Stacks sieht man auch, daß man Dies auf unter 30µm-Dicke abdünnen kann, so daß 25 Dies (3 Dies pro Channel mal 8 Channels + Base-Die) in 0,7mm Höhe passen (das wird dann allerdings sehr teuer und ist nun wirklich nicht zu erwarten, aber die Spec würde es prinzipiell erlauben).
=======================
Zur Zeit kann man bei sk-Hynix für den Bereich Graphics das hier bekommen: H5VR32ESM4H-H1K als 4Hi HBM2 Variante. Die Datenrate liegt bei 1,6GHz auf 409,6GB/s für HBM2 Specs (bei dann 8GB Speicherausbau und 2 Modulen/Stack). Das dürfte die derzeit offizielle und verfügbare Datenrate einengen (und ist sicher nur eins der neuen Parameter die die mögliche Performance von Vega10/11 bestimmten [natürlich müßen sich auch Entwickler finden die das alles umsetzen wollen]). Was Samsung so hat, k.A.. Man könnte die Speichermodule sicher auch so ähnlich anordnen wie bei Fiji und käme dann auf 16GB.Letzteres würde erfordern, daß ein 4096Bit-HBM-Interface verbaut ist, was wahrscheinlich nicht der Fall ist.
Übrigens soll es auch schon vorgekommen sein, daß Grafikkarten mit Speicher ausgeliefert wurde, bevor der offiziell für jedermann verfügbar war (nennt man dann wohl eine bevorzugte Partnerschaft). Angekündigt ist deutlich mehr, als bei SKHynix momentan auf der Webseite steht (letztes Quartal stand übrigens schon mal mehr drauf, unter Anderem auch die 2Gbps-Stacks, die sind jetzt wieder verschwunden, warum auch immer).
AMD-Gast
2017-01-19, 14:46:40
Letzteres würde erfordern, daß ein 4096Bit-HBM-Interface verbaut ist, was wahrscheinlich nicht der Fall ist.
Was für Highend sicher keinen Sinn macht, das stimmt irgendwo schon. Effektive Bandbreite gewinnt man unter HBM2 womöglich im 'Pseudo-Channel Mode' hinzu.
Ich will nicht abstreiten das es 8Hi Stack's bereits gibt, die Frage ist nur wie konkret und in welchen Stückzahlen ist das Ganze lieferbar? Entweder weil die Kapazitäten ausgelastet/ausgebucht sind, oder es einfach beschissen läuft und die Radeon Instinct Sparte ja auch HBM2 braucht. Wenn etwas offiziell verschwindet, sieht das schon mal nicht gut aus. Ob das zukünftig relevant ist, dürfte wieder eine andere Frage sein (anfänglich nimmt man dass was man hat). Ich freue mich schon auf die lesbare Diskussion, daß der 8GB HBM2 Speicherausbau bei Vega dann überholt ist, wenn die 1080ti erst kommt (wenn sie kommt, da könnte ja Vega schön dazwischen gefunkt haben, die Debugmode Hardware dürfte einen reinen Rohleistungsdaten Eindruck/Überblick vermittelt haben, wer weiß wenn das jetzt mehr erschreckt hat!? ;)). Die Jungs auf der anderen Seite bastelt sicher schon emsiger am Refresh.
Ich kann mir rein als (Partner-) Exklusivfeature 2.0GHz für HBM2 und Vega vorstellen, wenn man nach sk-Hynix offiziell verfügbarem Portfolie und Angaben dazu geht (und das rein bei 4Hi Stack's).
So gesehen wollte ich Leonidas nur anregen, darüber nachzudenken das es inoffizielle Designentwürfe mit einem Stack auch gab/gibt? Der sitzt dann seitlich ziemlich mittig neben der GPU.
...dies sitzen im übrigen noch auf einem substratlogic die...
Die Höhe ist schon relevant.
Zur Zeit kann man bei sk-Hynix für den Bereich Graphics das hier bekommen: H5VR32ESM4H-H1K als 4Hi HBM2 Variante. Die Datenrate liegt bei 1,6GHz auf 409,6GB/s für HBM2 Specs (bei dann 8GB Speicherausbau und 2 Modulen/Stack).
AMD wird innerhalb der Infinity Fabric (Control Fabric und Data Fabric) schon auf mindestens zwei 2/4/8 Hi HBM 2 DRAM setzen, denn man ist wegen des Interconnects auf eine hohe Bandbreite angewiesen. Vieles wird natürlich nur intern (AMD ZEN CPU, Vega GPU und Chipsatz) nutzbar sein. Scheint so als löst das auch HSA usw. ab.
Abspeckungen nach unten wird es geben müssen, auf Highend wird es klar zu mindestens zwei Stacks kommen. Mehr würde wohl zu teuer werden. AMD will ja angreifen...ich denke daher sehen wir als gängiges Modell erstmal nur 4 oder 8 GB, wenn man zwei 2 Hi für 4 GB verbauen kann um so besser. Schon aus oben genannten Gründen und um es den Entwicklern schmackhaft zu machen. Wenn das greift hat man gegenüber Intel und Nv einen klaren Vorteil bei eigener Hardware, dass ist auch das was AMD braucht. Man will beides verkaufen.:)
Du willst bloss wieder Nebelkerzen werfen um den Hype-Euphorie-Train zu dämpfen...weniger ist anfänglich immer besser.:biggrin:
Leos Prognose sieht garnicht so schlecht aus.:up: Ich glaube AMD kann diesmal mit Nv mithalten, angreifen oder sie sogar packen. Ob die Karte dabei 250W verballert ist mir doch egal, manche 1070 nehmen auch 210W.
/e: Alles Käse von wegen Nv Hyper-Dyper Effizienz. Auch Fiji ist kein generelles Monster, sondern nahm durchschnittlich 220W unter Spielen. Igor hats auf THW klargestellt. Max TDP liegt doch in den wenigsten Fällen an und hat eh nur was mit der Kühllösung zu tun. Der reale Verbrauch wurde dadurch noch nie definiert.
So gesehen wollte ich Leonidas nur anregen, darüber nachzudenken das es inoffizielle Designentwürfe mit einem Stack auch gab/gibt? Der sitzt dann seitlich ziemlich mittig neben der GPU..
das kann auch was aus dem bereich apu gewesen sein. aber sowas ist möglich.
reine speku:
https://abload.de/thumb/vega103zsdb.jpg (http://abload.de/image.php?img=vega103zsdb.jpg)
Kennt das hier eigentlich schon einer, wäre ja ein Ding wenn AMD gleich mit 12GB GDDR5 und 16GB HBM2 kommt.
http://media.redgamingtech.com/rgt-website/2016/12/AMD-Chiphell-vega-rx500-1080-ti.png
Botcruscher
2017-01-26, 23:14:27
GDDR5 ist bei Vega Schwachfug und die 16GB Version normal zu erwarten. Die Liste kann in die Ablage Rund.
Leonidas
2017-01-27, 05:07:31
Kennt das hier eigentlich schon einer, wäre ja ein Ding wenn AMD gleich mit 12GB GDDR5 und 16GB HBM2 kommt.
http://media.redgamingtech.com/rgt-website/2016/12/AMD-Chiphell-vega-rx500-1080-ti.png
Vega 10 mit doppeltem Speicherinterface (HBM und GDDR5): Extrem unwahrscheinlich. Frisst Silizium, ist Aufwand - und hat minimalen Nutzen.
Vega 10 mit doppeltem Speicherinterface (HBM und GDDR5): Extrem unwahrscheinlich. Frisst Silizium, ist Aufwand - und hat minimalen Nutzen.
warum eigentlich nicht nv macht es ja auch nicht anders. hbm eben die profi ableger und gddr für gamer.
könnte man nicht diese bescheurten captchas rausnehmen die ein geschäft von vorn abbilden, das erkennt man auf einem tablet kaum.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.