Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10
horn 12
2016-07-02, 16:30:32
Wann kommt die RX 490 - August 2016?
Ach du sch****...Tonga 2.0 Reloaded Beta? Bekommt wohl Apple. Oh Gott, ich glaube P10 ist noch ein Beta.
:facepalm::facepalm::facepalm:
Ich warte immer noch auf die R9 385X mit 6 GiB an 384 Bit! :freak:
Im Ernst: Warum sollten die 40 CUs drinstecken, die AMD dementiert? Um Nvidia damit zu überraschen, wenn sie die GTX 1060 finalisiert haben? Gleicht es jetzt einem Versagen, wenn man zugibt, dass ein Kern aus Yield-Gründen teilaktiv ist? Geil wär's natürlich, eine RX 485 mit 2.560 ALUs und mehr Takt dank Revision könnte ordentlich austeilen.
MfG,
Raff
Gipsel
2016-07-02, 16:39:52
So ein paar Fragen, was mich bei P10 wundert:
- wieso keine 64 ROPs oder nur 48 ROPS?Wegen AMDs Abwägung des Kosten/Nutzen-Verhältnisses.
- wieso nicht 40 CUs?Falls die physisch da sind: Yield.
Wieso hat man nicht auf GDDR5X dann geschielt?Kann der Controller eventuell sogar. Dann Kosten und Verfügbarkeit. Von Samsung gibt es demnächst auch 9Gbps GDDR5. Wäre auch +12,5%. Die 8Gbps-Module auf der RX480 übertakten oft auf 9. Der Controller kann es also offenbar.
Und nun weiter beim meckern:
http://www.hardware.fr/articles/951-8/performances-theoriques-geometrie.html
Primitive Discard Accelerator my ass. Das Ding cullt etwa 10~20% besser als die Vorgänger. Und man ist immer noch Welten hinter NV. Genauso das gleiche bei der Tesselation. 10~20% besser als die Vorgänger.In dem Test. In anderen Situationen beträgt der Vorteil bis zu Faktor 3.
AnarchX
2016-07-02, 16:40:56
Tonga hatte zu Beginn auch nur 256 bit SI und 28 CUs. Das mit dem 384bit SI wurde erst mehr als ein Jahr nach Veröffentlichung offiziell.
Ein voller Chip verkauft sich eben besser, deshalb wird das auch offiziell bestritten. Blöd, dass sich wohl ein Ing verplappert hat.
Bei Tonga war es halt Tonga Pro. Bei P10/P11 sind es jetzt 36/14 CUs jeweils für XT-Varianten. Insofern bleibt es fraglich, ob die restlichen CUs jemals aktiviert werden.
Mancko
2016-07-02, 17:07:00
Ach du sch****...Tonga 2.0 Reloaded Beta? Bekommt wohl Apple. Oh Gott, ich glaube P10 ist noch ein Beta.
:facepalm::facepalm::facepalm:
Ich frage mich die ganze Zeit wie so ein in sich unrunder Launch und ein technisch doch eher durchschnittliches Produkt zu der Aussage "Monate Vorsprung" passen. Ich hoffe die Presse nagelt Roy Taylor darauf mal fest und lässt ihn das beim nächsten Interview erklären. P/L ist aktuell gut aber wir wissen ja wie das mit den Preisen so läuft. Technisch haut mich das aber nicht vom Hocker und wirkt alles irgendwie Beta und holprig.
Unicous
2016-07-02, 17:09:05
Bei Tonga war es halt Tonga Pro. Bei P10/P11 sind es jetzt 36/16? CUs jeweils für XT-Varianten. Insofern bleibt es fraglich, ob die restlichen CUs jemals aktiviert werden.
Bei Tonga wusste man auch lange Zeit nicht offiziell, dass er ein 384-Bit Interface hat und hat sich gefragt warum der Chip im Vergleich zum Vorgänger so groß ist. Ähnlich könnte es bei Polaris aussehen. Apple sucht sicherlich einen Ablöser für Hawaii und könnte sich die 40 CU Chips exklusiv gesichert haben.
Oopsie, ähnliches hatte Fondness ja schon geschrieben.:redface:
reaperrr
2016-07-02, 17:17:07
Bei Tonga war es halt Tonga Pro. Bei P10/P11 sind es jetzt 36/14 CUs jeweils für XT-Varianten. Insofern bleibt es fraglich, ob die restlichen CUs jemals aktiviert werden.
AMD hat auf den Folien allerdings P10 mit 36, P11 aber mit 16 CUs beworben. Die Wahrscheinlichkeit, dass es zumindest von P11 SKUs mit 16 CUs geben wird, ist also nicht ganz so niedrig. Könnten aber natürlich Apple-exklusiv sein, so wie anfänglich Tonga mit 32 CUs auch.
Man darf auch nicht vergessen, dass es sich bei Ellesmere XT und Baffin XT um Desktop-SKUs handelt. Im Desktop-Bereich kann man deaktivierte CUs leistungstechnisch über leicht höhere Taktraten kompensieren, im Notebook-Bereich kommt es auf jedes Watt an, da sind die CUs wichtiger um die gewünschte Leistung mit so wenig Takt/Spannung wie möglich zu erreichen.
Außerdem, für Bonaire auf der 260X hat AMD intern später das XTX Suffix gebraucht, XT ist also nicht zwangsläufig das absolute Maximum (auch wenn es bei Bonaire nur um die Taktrate ging).
illidan
2016-07-02, 17:18:23
War bei Tonga nicht schon immer klar, dass er als überarbeiteter Tahiti weiterhin über 384 Bit verfügen muss? Das wurde doch dann nur nicht genutzt, weil es einen Sinn machte.
P10 ist aber eine komplett neue GPU.
y33H@
2016-07-02, 18:26:02
AMD hat auf den Folien allerdings P10 mit 36, P11 aber mit 16 CUs beworben. Die Wahrscheinlichkeit, dass es zumindest von P11 SKUs mit 16 CUs geben wird, ist also nicht ganz so niedrig. Könnten aber natürlich Apple-exklusiv sein, so wie anfänglich Tonga mit 32 CUs auch.
Man darf auch nicht vergessen, dass es sich bei Ellesmere XT und Baffin XT um Desktop-SKUs handelt. Im Desktop-Bereich kann man deaktivierte CUs leistungstechnisch über leicht höhere Taktraten kompensieren, im Notebook-Bereich kommt es auf jedes Watt an, da sind die CUs wichtiger um die gewünschte Leistung mit so wenig Takt/Spannung wie möglich zu erreichen.
Außerdem, für Bonaire auf der 260X hat AMD intern später das XTX Suffix gebraucht, XT ist also nicht zwangsläufig das absolute Maximum (auch wenn es bei Bonaire nur um die Taktrate ging).Du sagst es: Ellesmere XTX mit 40 CUs wäre denkbar, für Mobile halt Baffin mit vollen 16 CUs - angesetzt sind hier laut AMD 35 Watt, das sagten sie mehrmals auf dem Tech Day.
Schnoesel
2016-07-02, 18:43:27
Geil wär's natürlich, eine RX 485 mit 2.560 ALUs und mehr Takt dank Revision könnte ordentlich austeilen.
MfG,
Raff
Ich glaub ja nicht dran aber es gabs ja schonmal:
https://www.computerbase.de/2008-09/test-nvidia-geforce-gtx-260-216-shader/
y33H@
2016-07-02, 18:44:31
Wobei die GTX 260 ja wie die GTX 280 auf dem gleichen großen Chip basierte.
Fliwatut
2016-07-02, 18:45:03
Falls es so eine Karte für unter 400 € geben wird, dann wäre es schön, wenn AMD da mal bald mit Infos um die Ecken kommen könnte!
mczak
2016-07-02, 18:58:13
Laut Luxx hat die RX 460 auch schon 48W ASIC TDP (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39615-amd-radeon-rx-480-im-test.html) und wieder typische 75W ohne externe Versorgung. Da sind die mobilen Versionen doch hoffentlich besser selektiert
Also die 48W ASIC TDP sind jetzt nicht sooo schlecht. Bei der RX480 sind das da ja 110W, also doch weniger als die Hälfte (bin mir sicher die 85W bei luxx sind falsch, die gelten nur für die RX470). Es müsste zumindest reichen damit man tatsächlich unter 75W insgesamt bleibt. Fragt sich natürlich was man damit für Taktraten (oder überhaupt Performance) erreicht - wahrscheinlich wird man auch bei der Karte deutlich oberhalb der maximalen Effizienz agieren. Die mobilen Versionen sind da sicher besser es fragt sich einfach wieviel besser...
Der_Korken
2016-07-02, 19:09:07
Was irgendwie gegen die 40CU-Theorie spricht, ist die Anzahl der Transistoren. Angeblich hat P10 5,7 Mrd. Transistoren, während Tonga z.B. glatte 5 Mrd. hat. das heißt, dass P10 bereits minimal mehr CUs pro Transistor hat als Tonga. Wenn da wirklich 40 CUs drinstecken, dann müssten die 5,7 Mrd. falsch sein. (Oder die haben die Transistoren für 4CUs von der Gesamtzahl abgezogen und sind so bei 5,7 Mrd. gelandet ;D)
Skysnake
2016-07-02, 19:28:16
Das bringt doch rein gar nichts darüber zu spekulieren aktuell. Bevor die 1060 nicht drausen ist, wird sich AMD nicht bewegen.
reaperrr
2016-07-02, 19:33:22
Also die 48W ASIC TDP sind jetzt nicht sooo schlecht. Bei der RX480 sind das da ja 110W, also doch weniger als die Hälfte (bin mir sicher die 85W bei luxx sind falsch, die gelten nur für die RX470). Es müsste zumindest reichen damit man tatsächlich unter 75W insgesamt bleibt. Fragt sich natürlich was man damit für Taktraten (oder überhaupt Performance) erreicht - wahrscheinlich wird man auch bei der Karte deutlich oberhalb der maximalen Effizienz agieren. Die mobilen Versionen sind da sicher besser es fragt sich einfach wieviel besser...
Man darf nicht vergessen: 110W ASIC für die 480 heißt, der Speicher macht bei der 8GB-Version in der Praxis ca. 1/3 des Realverbrauches aus, also ~50-55W.
Die 460 wird nur 7Gbps Speicher verwenden, der nicht nur niedriger taktet, sondern meines Wissens auch mit leicht geringerer Spannung läuft (1.5V statt 1.55V für 8Gbps auf der 480).
Gehen wir von ca. 15-20W für 2GB @7Gbps aus, würde die 460 also auch real unter 75W bleiben. Ich tippe auf eine offizielle TDP von 60W, PT vielleicht anders als bei der 480 auch identisch dazu, jedenfalls unter 75W.
Gipsel
2016-07-02, 20:15:49
Man darf nicht vergessen: 110W ASIC für die 480 heißt, der Speicher macht bei der 8GB-Version in der Praxis ca. 1/3 des Realverbrauches aus, also ~50-55W.Du vergißt die Effizienz der Spannungswandler (und die 2-3W vom Lüfter).
Complicated
2016-07-02, 20:25:16
Ich frage mich die ganze Zeit wie so ein in sich unrunder Launch und ein technisch doch eher durchschnittliches Produkt zu der Aussage "Monate Vorsprung" passen.Schau einfach mal auf die Anzahl der produzierten Chips. 40 CUs mit 10% Redundanz für die Massenfertigung um zum Launch Pallettenweise GPUs zu haben. Ein Harldlaunch in dieser Form ist ein Vorsprung von mehreren Monaten gegenüber einem Paperlaunch der 1/4 an Stückzahlen schon nicht bedienen kann. Wer einen neuen Prozess im Midrange einfuhrt muss 3 Jahre zuvor mit schlechten Yields rechnen in der Designphase.
Wann kommt die RX 490 - August 2016?
Wenn 490 = Vega ist Ende des Jahres. Wenn man aber 3dc Gerüchten vertrauen schenkt Oktober. Man muss einfach "nur" wissen wann hbm2 in Produktion geht. Wobei ich ein Vega mit gddr5x RAM auch begrüßen würde.
Disco_STFU
2016-07-02, 21:58:56
Ich könnte mir vorstellen, dass der kleine Vega mit 5X kommt und der Große mit HBM2.
Btw. wo ist eigentlich Dargo? :(
Dural
2016-07-02, 22:12:47
Hbm2 ist in produktion.
y33H@
2016-07-02, 22:31:55
Du vergißt die Effizienz der Spannungswandler (und die 2-3W vom Lüfter).Intel hat mal in einem Xeon Phi Diagramm von 20-30 Watt (je nach Last) für acht GDDR5-Bausteine gesprochen, das waren aber keine 4 GHz.
Schrotti
2016-07-02, 23:31:26
Sorry wenn ich hier reinplatze aber eine Frage stellt sich mir die Ihr mir dann vielleicht beantworten könnt.
AMD ist doch mit nVidia gleich auf was die Fertigungsgröße betrifft. Warum ist dann der Takt bei der RX 480 um soviel geringer?
Ich hätte ebenfalls mit wenigsten 1,5GHz gerechnet. Stattdessen kommt man mit knapp über 1GHz und selbst der Turbo ist niedriger als das was meine alte GTX 980 geliefert hat.
kuj0n
2016-07-03, 00:01:26
Die Profis kommen sicher gleich, aber ich glaube der Designansatz ist ein anderer. Packdichte bei AMD vs Takt bei Nvidia.
Knuddelbearli
2016-07-03, 00:03:05
Designansatz ( Dicht gepackt also mehr Einheiten pro mm2 dafür eben niedrigerer Takt ) + andere Fertigung
Gorkon
2016-07-03, 00:30:00
GCN ist halt kein Hochtakt-Design und eher "allgemein" ausgelegt. Das frisst dann sicherlich auch mehr Energie als andere Ansätze. Da hilft dann auch 14nmLPP nicht weiter.
Allerdings muss ich hier auch mal GloFo irgendwie "verteidigen". AMD hat mit TSMC 28 > GloFo 14 den gleichen Effizienzgewinn wie nV von TSMC 28 > TSMC 16 geschafft...siehe die unzähligen Reviews. Also kann der Prozess so schlecht gar nicht sein. GCN als Architektur ist da glaube ich eher das "Problem"...
reaperrr
2016-07-03, 00:37:48
Designansatz ( Dicht gepackt also mehr Einheiten pro mm2 dafür eben niedrigerer Takt ) + andere Fertigung
Außerdem hat AMD mit Compute im Hinterkopf seit der ersten GCN-Generation pro CU (64 ALUs, 4 TMUs) so viel Register (256KB) wie bei Nvidia ein Shader-Modul, so dass z.B. Polaris 10 satte 9,2 MB(!) an Register-SRAM hat, während GM204 nur 4 MB und GP104 5 MB hat.
Das könnte sogar einer der Hauptgründe sein, warum GCN seit Maxwell in Sachen Effizienz nicht mehr mithalten kann. Mit halbierten Registern je CU wäre Polaris10 sowohl kleiner als auch sparsamer geworden, oder AMD hätte alternativ mehr Einheiten und/oder L2-Cache verbauen können, aber AMD hätte damit zum einen mehr Änderungen vornehmen müssen (höherer Entwicklungsaufwand) und zum anderen ausgerechnet beim Steckenpferd "Compute" Federn gelassen.
Schrotti
2016-07-03, 00:45:52
Ob "Compute" nun so das Steckenpferd ist, sei dahingestellt.
Vielleicht hätte man sich eher auf den Massenmarkt spezialisieren sollen statt auf "Compute".
Gipsel
2016-07-03, 00:46:06
Intel hat mal in einem Xeon Phi Diagramm von 20-30 Watt (je nach Last) für acht GDDR5-Bausteine gesprochenIch weiß. Von um 3W pro Chip (im Peak bei Read-Bursts wohl sogar einen Tick mehr) kann man schon ausgehen. Meine Einwand richtete sich dagegen, die kompletten "fehlenden" 50W dem Speicher zuzuschreiben, wie das mein Vorposter getan hat. Den 50W nähert man sich vielleicht maximal zusammen mit den PHYs und dem Speicherinterface in der GPU. Aber das war ja nicht die Frage.
y33H@
2016-07-03, 00:52:12
Ich wollte nur einen Richtwert liefern =)
Troyan
2016-07-03, 01:01:25
Außerdem hat AMD mit Compute im Hinterkopf seit der ersten GCN-Generation pro CU (64 ALUs, 4 TMUs) so viel Register (256KB) wie bei Nvidia ein Shader-Modul, so dass z.B. Polaris 10 satte 9,2 MB(!) an Register-SRAM hat, während GM204 nur 4 MB und GP104 5 MB hat.
Das könnte sogar einer der Hauptgründe sein, warum GCN seit Maxwell in Sachen Effizienz nicht mehr mithalten kann. Mit halbierten Registern je CU wäre Polaris10 sowohl kleiner als auch sparsamer geworden, oder AMD hätte alternativ mehr Einheiten und/oder L2-Cache verbauen können, aber AMD hätte damit zum einen mehr Änderungen vornehmen müssen (höherer Entwicklungsaufwand) und zum anderen ausgerechnet beim Steckenpferd "Compute" Federn gelassen.
nVidia liefert mit Pascal mehr Rechenleistung pro Fläche:
Polaris 10: 22,8 GFLOPs/mm^2 ((1150*2304*2)/232mm^2)
GP104: 26,2 GFLOPs/mm^2 ((1607*2560*2)/314mm^2)
Es ist eher so, dass ein einfacher Shrink nicht mehr ausreichend ist, um die fehlende Skalierung der Spannung nach unten zu kompensieren.
W4RO_DE
2016-07-03, 01:28:03
Die Profis kommen sicher gleich, aber ich glaube der Designansatz ist ein anderer. Packdichte bei AMD vs Takt bei Nvidia.
Außerdem ist der Prozess ja auch nicht genau der selbe. AMD nutzt GloFos 14 nm, Nvidia TSMCs 16 nm Prozess. Macht die Vergleichbarkeit sicherlich noch ein Stück schwieriger, wobei ich nicht zu sagen vermag, ob der Prozess in diesem Fall nun diesen Einfluss hatte ...
Skysnake
2016-07-03, 09:23:29
Sorry wenn ich hier reinplatze aber eine Frage stellt sich mir die Ihr mir dann vielleicht beantworten könnt.
AMD ist doch mit nVidia gleich auf was die Fertigungsgröße betrifft. Warum ist dann der Takt bei der RX 480 um soviel geringer?
Ich hätte ebenfalls mit wenigsten 1,5GHz gerechnet. Stattdessen kommt man mit knapp über 1GHz und selbst der Turbo ist niedriger als das was meine alte GTX 980 geliefert hat.
Naja, die Taktbarkeit von der GPU hängt von der verwendeten Standardzellen libary ab und davon was man als Designziel verfolgt. Mal ganz abgesehen davon, was man eben in Verilog/VHDL als logik hinschreibt und dann der Compiler daraus an Netzliste generiert.
Es kommt also auf das Logikgesign an sich an, das bestimmt, wieviele Transistoren hintereinander hängen in den (dem) längsten (kritischen) Pfaden(Pfad). Und dann auf der anderen Seite, weile Standardzellen man hat. Jede Standardzelle gibt es in verschiedenen Treiberstärken, die also unterschiedlich viele Transistoren die dran hängen entsprechend schnell umschalten können (Stichwort FAN OUT). Ist halt unterm Strich ein Zusammenspiel aus diesen Faktoren. Der Prozess an sich kann aber ziemlich sicher Taktraten im Bereich von 10 GHz ohne Probleme mitmachen. Das Speicherinterface hängt ja z.B. bei 8 GHz rum. Da gibt es wirklich Schaltungen (SEHR SEHR WENIGE!) die so schnell laufen.
Ich würde sogar vermuten, das man bis 25GHz in CML Logik kommt. Du willst das dann aber nicht mehr wirklich wissen, wie groß das wird im Vergleich zu der Standardlogik mit 1-2 GHz....
Mal ganz davon abgesehen, dass das dann auch mal richtig Strom frisst.
R.I.P.
2016-07-03, 09:47:46
RX480 Customs ab dem 11. Juli - Sapphire Nitro ab der dritten (ca.) Juli Woche. Kann das jemand im Großhandel ungefähr bestätigen?
fondness
2016-07-03, 10:32:32
Außerdem hat AMD mit Compute im Hinterkopf seit der ersten GCN-Generation pro CU (64 ALUs, 4 TMUs) so viel Register (256KB) wie bei Nvidia ein Shader-Modul, so dass z.B. Polaris 10 satte 9,2 MB(!) an Register-SRAM hat, während GM204 nur 4 MB und GP104 5 MB hat.
Das könnte sogar einer der Hauptgründe sein, warum GCN seit Maxwell in Sachen Effizienz nicht mehr mithalten kann. Mit halbierten Registern je CU wäre Polaris10 sowohl kleiner als auch sparsamer geworden, oder AMD hätte alternativ mehr Einheiten und/oder L2-Cache verbauen können, aber AMD hätte damit zum einen mehr Änderungen vornehmen müssen (höherer Entwicklungsaufwand) und zum anderen ausgerechnet beim Steckenpferd "Compute" Federn gelassen.
Das ist sicherlich ein wesentlicher Punkt, GCN hat einen GP100-Aufbau - und das von Anfang an.
nVidia liefert mit Pascal mehr Rechenleistung pro Fläche:
Polaris 10: 22,8 GFLOPs/mm^2 ((1150*2304*2)/232mm^2)
GP104: 26,2 GFLOPs/mm^2 ((1607*2560*2)/314mm^2)
Es ist eher so, dass ein einfacher Shrink nicht mehr ausreichend ist, um die fehlende Skalierung der Spannung nach unten zu kompensieren.
Die GFLOPs/mm² steigen idR mit der Fläche, daher kann man hier eigentlich nur gleich große Chips vergleichen. Außerdem hat P10 40 CUs mit sehr großer Wahrscheinlichkeit.
Außerdem hat P10 40 CUs mit sehr großer Wahrscheinlichkeit.
Das hat AMD mehrmals dementiert, du meinst AMD lügt? Gibt es denn eine Quelle für die 40 CUs?
fondness
2016-07-03, 10:44:10
Das hat AMD mehrmals dementiert, du meinst AMD lügt? Gibt es denn eine Quelle für die 40 CUs?
Wie schon weiter hinten gesagt, da glaube ich den Ingenieuren mehr:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11086552&postcount=21
Dasselbe Spiel gab es ja auch mit Tonga, das 384bit SI kam erst über ein Jahr später ans Tageslicht.
LadyWhirlwind
2016-07-03, 10:54:30
Das hat AMD mehrmals dementiert, du meinst AMD lügt? Gibt es denn eine Quelle für die 40 CUs?
Wieso lügen? Der Chip hat so wie er jetzt ausgeliefert wird 36 CUs (aktiv). Wenn effektiv mehr als redundanz vorhanden sind, sind das noch keine Lügen. Wenn AMD sagt 40CUs, aber... würde alle Welt nur von 40CUs reden, auch wenn nur 36 davon aktiv sind. Wäre auch nicht besser.
Redundanz ist bei einem neuen Prozess immer eine gute Idee.
AnarchX
2016-07-03, 11:49:22
Dasselbe Spiel gab es ja auch mit Tonga, das 384bit SI kam erst über ein Jahr später ans Tageslicht.
... und wurde nie offiziell genutzt. Aber irgendein echter Die-Shot wird wohl auch von P10 mal auftauchen.
reaperrr
2016-07-03, 15:01:27
Zumindest so wie es auf der Folie dargestellt wurde, scheinen sich bei P10 nicht mehr je 4, sondern je 3 CUs den L1I$ und L1D$ zu teilen. Das könnte explizit eine der Maßnahmen gewesen sein, die AMD vorgenommen hat, um die Leistung pro CU zu steigern. Selbst wenn der Chip 40 CUs haben sollte, würde bei Aktivierung von allen 40 CUs immer ein Block L1-Caches wieder von 4 CUs geteilt werden müssen, so dass die Leistungssteigerung pro Takt in der Praxis geringer ausfallen würde als die FLOPs suggerieren.
Soll heißen, egal ob nun 40 CUs verbaut sind, P10 scheint klar und von vornherein darauf ausgelegt zu sein, dass NIE mehr als 36 CUs aktiviert werden.
Fliwatut
2016-07-03, 15:23:54
Radeon RX 480 hat laut AMD den Polaris-10-Vollausbau mit 36 CUs
Er machte unmissverständlich klar, dass Polaris 10 nicht - wie kolportiert - 40 Compute Units besitzt, sondern die Radeon RX 480 mit 36 CUs (2.304 Shader) den Vollausbau nutzt. (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-480-Polaris-10-Vollausbau-1200391/)
Also wird die RX 490 die erste Karte mit einem Vega Chip sein und noch 2016 erscheinen?
Der_Korken
2016-07-03, 16:23:29
Radeon RX 480 hat laut AMD den Polaris-10-Vollausbau mit 36 CUs
Er machte unmissverständlich klar, dass Polaris 10 nicht - wie kolportiert - 40 Compute Units besitzt, sondern die Radeon RX 480 mit 36 CUs (2.304 Shader) den Vollausbau nutzt. (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-480-Polaris-10-Vollausbau-1200391/)
Also wird die RX 490 die erste Karte mit einem Vega Chip sein und noch 2016 erscheinen?
Es könnte immer noch eine schlichte Dual-Karte sein mit zwei 480er Chips und 300W TDP. Halte ich für wahrscheinlicher als einen Vega-Chip.
Fliwatut
2016-07-03, 16:25:56
Werden diese Dualkarten eigentlich viel verkauft oder ist das reine Prestigesache?
Gipsel
2016-07-03, 16:29:05
Zumindest so wie es auf der Folie dargestellt wurde, scheinen sich bei P10 nicht mehr je 4, sondern je 3 CUs den L1I$ und L1D$ zu teilen.Auf dem Fake-"Dieshot" sind es sogar nur zwei (und die neunte CU pro Shaderengine hat einen für sich alleine). :rolleyes:
Wir brauchen einen echten Dieshot. Wer bezahlt Chipworks dafür? :wink:
AnarchX
2016-07-03, 17:16:08
Werden diese Dualkarten eigentlich viel verkauft oder ist das reine Prestigesache?
Bei Nvidia ist das Thema wohl vorerst abgeschlossen.
AMD hingegen bewirbt das RX 480 Crossfire aber schon jetzt als GTX 1080 Gegner. Da könnte man für vielleicht $549 mit 10 TLFOPs/512GBs/Kompakt-WakÜ ein interessantes Paket schnüren.
Nightspider
2016-07-03, 17:18:10
Das hat AMD mehrmals dementiert, du meinst AMD lügt? Gibt es denn eine Quelle für die 40 CUs?
Wo sind Dementi heute noch etwas wert?
Complicated
2016-07-03, 17:28:33
Es könnte immer noch eine schlichte Dual-Karte sein mit zwei 480er Chips und 300W TDP. Halte ich für wahrscheinlicher als einen Vega-Chip.Eher 200W wenn man die Werte der RX 470 als Maßstab nimmt, was sinnvoll ist bei einer Dual-GPU, siehe auch Vergleich Fiji mit Nano (175W) vs. FuryX (275W) und die Dual-Fiji mit 350W
reaperrr
2016-07-03, 17:32:11
Wo sind Dementi heute noch etwas wert?
Eben, zumal ich das Dementi für extrem verschwurbelt halte.
Es kommt nämlich in mehreren Sätzen keine unmißverständliche Aussage wie "Polaris 10 hat im Silizium exakt 36 CUs, es gibt keine 4 weiteren CUs auf dem Chip", sondern nur so schwammiges Zeug wie "Es ist nichts (...) deaktiviert, bei der[sic] Nutzer die Hoffnung haben könnten, es freizuschalten."
Das kann auch einfach nur heißen, "die 4 restlichen CUs sind ausschließlich als Redundanz zugunsten besser Yields gedacht und hardwareseitig so deaktiviert, dass auch mit Bios-Flashes nichts zu machen ist, und auf SKUs mit vollen 40 CUs braucht ihr nicht hoffen, der Plan ist im gesamten Lebenszyklus von P10 keine SKU mit vollen 40 CUs rauszubringen."
Der_Korken
2016-07-03, 17:48:29
Eher 200W wenn man die Werte der RX 470 als Maßstab nimmt, was sinnvoll ist bei einer Dual-GPU, siehe auch Vergleich Fiji mit Nano (175W) vs. FuryX (275W) und die Dual-Fiji mit 350W
Das glaube ich nicht. Es wurde ja geschätzt, dass die GPU ca. 110W verbraucht und der Rest nochmal 50W dazu. Um bei 200W für zwei GPUs zu landen, müsste man den Verbrauch einer GPU auf 50W drücken, also etwa die Hälfte. Damit würde man entweder bestenfalls eine 1070 schlagen oder P10 wäre in Wirklichkeit viel effizienter als angenommen und die 480 ist einfach nur total versaubeutelt, was Spannungen und Boost angeht.
Edit: Gab es eigentlich eine offizielle Aussage, ob P10 GDDR5X unterstützt oder nicht?
maximus_hertus
2016-07-03, 18:05:40
Edit: Gab es eigentlich eine offizielle Aussage, ob P10 GDDR5X unterstützt oder nicht?
In dem Reddit AMA wurde afair klar gesagt (glaube von dem techn. Marketing), dass GDDR5X nicht unterstützt wird.
Complicated
2016-07-03, 19:43:56
Das glaube ich nicht. Es wurde ja geschätzt, dass die GPU ca. 110W verbraucht und der Rest nochmal 50W dazu.Der ist ja in einer GPU enthalten mit 160W. Die zweite kommt ohne den "Rest". Da landest du dann bei 270W mit einer RX480. Ich schrieb eindeutig RX470 in meinem Beitrag was bei selber Rechnung bei ca. 200W landet. Die RX480 4 GB Version taktet teilweise höher als die RX480 8GB, da das Speicherinterface niedriger taktet und somit mehr aus dem Power-Budget für Takt zur Verfügung steht. (http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1-juli-2016) Pack da GDDR5X-Speicher dazu und du erhältst reichlich zusätzliches Power-Budget für noch mehr Takt. Pack das ganze auf einen Interposer mit HBM2 und es kommt noch mehr Spielraum dazu. Bin gespannt welche Variante da AMD wählen wird aus wirtschaftlichen Gründen und was für technische Verbesserungen Dual-GPUs attraktiver machen können. Ich sehe beide Varianten als möglich an: Dual-470(Salvage P10) mit ca. 200W TDP oder Dual-480(Vollausbau P10) mit ca. 250W TDP. Als Speicher GDDR5X oder HBM2, je nach Performanceklasse und Takthöhe die möglich wird. Auch das vorhandene 2x256-bit Interface könnte deutlich langsamer takten mit GDDR5 und den Spielraum als OC-Feature anbieten wo dann eben mehr Strom gezogen wird.
reaperrr
2016-07-03, 20:51:25
Als Speicher GDDR5X oder HBM2
HBM2 braucht ein anderes Interface als GDDR5(X), beides auf dem gleichen Chip zu unterstützen geht technisch vermutlich gar nicht.
OBrian
2016-07-03, 20:57:54
Wenn man sich die Karte so anschaut, dann wird die ja durch die Speicherbandbreite limitiert, nicht durch die Rechenkraft der GPU. Also wäre mit 4 weiteren CUs wenig zu gewinnen, die kann man besser deaktiviert lassen und als Redundanz zur Ausbeuteerhöhung nutzen (wenn das so vorgesehen wäre, gäbe es aber doch auch andere Teile redundant, z.B. 33 ROPS statt 32, oder denke ich da falsch?).
Sobald aber schnellerer Speicher verfügbar ist, d.h. GDDR5X mit höherem Takt bezahlbar wird, und gleichzeitig die Fertigung so ausgereift ist, daß die Ausbeute auch ohne Redundanzblöcke ok ist, könnte man den Chip auf 40 CUs freischalten und ggf. noch etwas Takt drauflegen. Das kann man dann in 12-18 Monaten machen und hat eine RX580. Vergesst nicht, daß der Chip sicherlich wieder vier Jahre im Markt bleiben muß, genau wie Pitcairn, evtl. auch länger. Shrinks fallen nicht mehr vom Himmel.
Der_Korken
2016-07-03, 22:42:10
Der ist ja in einer GPU enthalten mit 160W. Die zweite kommt ohne den "Rest". Da landest du dann bei 270W mit einer RX480. Ich schrieb eindeutig RX470 in meinem Beitrag was bei selber Rechnung bei ca. 200W landet.
Ja wie und die zweite GPU hat keinen VRAM und Stromversorgung? Natürlich kommt der "Rest" auch bei der zweiten GPU dazu. Vielleicht nicht alles, weil man sich das PCB teilt, aber der größte Verbraucher ist sicherlich der VRAM. Zur RX470 gibt es noch keine gesicherten Informationen und da auch die 480 schon deutlich über die "<=150W" hinaus ging, glaube ich die 110W erst wenn ich sie sehe.
Pack da GDDR5X-Speicher dazu und du erhältst reichlich zusätzliches Power-Budget für noch mehr Takt. Pack das ganze auf einen Interposer mit HBM2 und es kommt noch mehr Spielraum dazu.
Erstmal müsste GDDR5X unterstützt werden. HBM läuft (soweit ich hier mitbekommen habe) ganz sicher nicht am selben Speichercontroller. Und die Sache mit dem Dual-Chip-Interposer, die ich hier schon mal als Spekulation gebracht habe, wurde als unrealistisch abgetan.
Wenn man sich die Karte so anschaut, dann wird die ja durch die Speicherbandbreite limitiert, nicht durch die Rechenkraft der GPU. Also wäre mit 4 weiteren CUs wenig zu gewinnen, die kann man besser deaktiviert lassen und als Redundanz zur Ausbeuteerhöhung nutzen (wenn das so vorgesehen wäre, gäbe es aber doch auch andere Teile redundant, z.B. 33 ROPS statt 32, oder denke ich da falsch?).
Schaden würden mehr Recheneinheiten allerdings auch nicht. Im Zweifelsfall könnte man mit 40CUs den Chiptakt und damit die Spannungen senken, sodass der Chip insgesamt etwas effizienter wird. Entweder gibt es die 4CUs nicht oder die Yields sind so schlecht, dass man den Chip in dieser Form gar nicht anbieten kann.
Gorkon
2016-07-03, 23:22:52
Selbst wenn der "Die-Shot" seeeehr einfach gehalten worden ist, seh ich da leider immer noch keine 40CUs...
https://abload.de/thumb/radeon-rx-480-presentx3uei.jpg (http://abload.de/image.php?img=radeon-rx-480-presentx3uei.jpg) https://abload.de/thumb/p10die3guwv.png (http://abload.de/image.php?img=p10die3guwv.png)
Gipsel
2016-07-03, 23:26:05
Selbst wenn der "Die-Shot" seeeehr einfach gehalten worden ist, seh ich da leider immer noch keine 40CUs...
https://abload.de/thumb/radeon-rx-480-presentx3uei.jpg (http://abload.de/image.php?img=radeon-rx-480-presentx3uei.jpg) https://abload.de/thumb/p10die3guwv.png (http://abload.de/image.php?img=p10die3guwv.png)
Ist halt kein Die-Shot sondern eher ein Block-Diagramm. Insofern kannst Du da wenig entnehmen. Es gibt sogar Widersprüche zum offiziellen Blockdiagramm (es gibt z.B. keine Dreiergruppen von CUs sondern pro Shaderengine 4 Zweiergruppen und eine einzelne CU).
https://abload.de/thumb/p10die3guwv.png (http://abload.de/image.php?img=p10die3guwv.png)
Wo kommt das Bild denn her? Ist wohl aufgearbeitet davon:
https://pics.computerbase.de/7/3/0/7/2/1-1080.999234420.jpg
Ist halt kein Die-Shot sondern eher ein Block-Diagramm. Insofern kannst Du da wenig entnehmen. Es gibt sogar Widersprüche zum offiziellen Blockdiagramm (es gibt z.B. keine Dreiergruppen von CUs sondern pro Shaderengine 4 Zweiergruppen und eine einzelne CU).
Habe mich gerade gefragt, wo du bei dem von Gorkon geposteten Bild Dreiergruppen siehst ;D Im offiziellen Blockdiagram sind es natuerlich Dreiergruppen:
https://pics.computerbase.de/7/3/0/7/2/3-1080.2111938934.png
In dem "Die-Shot", der ja auch offiziell ist (siehe oben) sind es aber die Zweiergruppen und eine uebrige CU. Da hat man wohl nicht aufgepasst und nicht alles korrigiert. Das war mir vorher auch nicht aufgefallen
Hoffe dass bald jemand einen richtigen Die-Shot macht, damit die Diskussion beendet werden kann.
Gorkon
2016-07-03, 23:45:46
Ach fuuuu, danke Gipsel...ichs sehs grad in den Folien. #blindfisch ;(
Aber dann machen 40CUs ja so gesehen noch weniger sinn, außer die Hardware wäre intelligent genug um je nach aktiven Einheiten z.B. die Caches pro CU wieder "gerecht" aufzuteilen. Geht das so einfach? (Sry, aber da bin ich wirklich n00bus extremus :redface:)
@iuno
Das Bild gabs unbearbeitet und in groß hier > http://diit.cz/clanek/radeon-rx-480-architektura-gcn-4-polaris
Gipsel
2016-07-03, 23:50:47
Hoffe dass bald jemand einen richtigen Die-Shot macht, damit die Diskussion beendet werden kann.Man sollte in den nächsten Wochen mal den Blog von Chipworks checken. Vielleicht teasern die da ja was (da kommen ja z.B. auch die Dieshots der XB1- und der PS4-SoCs her).
Aber dann machen 40CUs ja so gesehen noch weniger sinn, außer die Hardware wäre intelligent genug um je nach aktiven Einheiten z.B. die Caches pro CU wieder "gerecht" aufzuteilen. Geht das so einfach? (Sry, aber da bin ich wirklich n00bus extremus :redface:)
Es muss ja keins der beiden Bilder der Wahrheit entsprechen. Wie gesagt deckt sich dein Bild ja mit dem "Die-Shot" aus den offiziellen Slides zum Launch.
AMD kann Zweiergruppen benutzt und 40 CUs verbaut haben, fuer das Blockdiagramm aber aus aesthetischen Gruenden Dreiergruppen draus gemacht haben (eben weil es sonst nicht aufgeht).
Ansonsten "passen" 3*3+1 auch nicht wirklich viel schlimmer als 4*2+1. Die letzte CU hat dann halt jeweils etwas zu viel Cache ;)
Genaue Angaben zur Cache Menge gibt es ja auch nicht, aus denen man schlussfolgern koennte oder?
Gipsel
2016-07-03, 23:54:12
Aber dann machen 40CUs ja so gesehen noch weniger sinn, außer die Hardware wäre intelligent genug um je nach aktiven Einheiten z.B. die Caches pro CU wieder "gerecht" aufzuteilen. Geht das so einfach? (Sry, aber da bin ich wirklich n00bus extremus :redface:)Natürlich nicht. Es könnten aber z.B. auf dem Die sowieso 5 Zweiergruppen pro Shaderengine sein. Dann wäre der "Fehler" auf dem Fake-"Dieshot" auch erklärbar. :rolleyes:
Oder es sind physisch 4+3+3, oder 3+3+2+2, oder...
Ohne echten Dieshot kann man da nichts genaues sagen. Und den Blockdigrammen wüde ich auch nicht hundertprozentig trauen.
@iuno
Das Bild gabs unbearbeitet und in groß hier > http://diit.cz/clanek/radeon-rx-480-architektura-gcn-4-polarisDas kann es gar nicht unbearbeitet geben, da es ein künstliches, in einem Bildbearbeitungsprogramm erzeugtes Bild und eben überhaupt gar kein Dieshot ist. Das Die sieht in Wirklichkeit anders aus. Das ist der Punkt.
Gorkon
2016-07-03, 23:57:25
Verdammter Trollverein :usad: Dann halt Chipworks irgendwann. Ist halt nur schade, wenn nicht mehr kommuniziert wird, obs wirklich nicht noch was "besseres" gibt. Pro/XT/XTX my Ass *G*
Das kann es gar nicht unbearbeitet geben, da es ein künstliches, in einem Bildbearbeitungsprogramm erzeugtes Bild und eben überhaupt gar kein Dieshot ist. Das Die sieht in Wirklichkeit anders aus. Das ist der Punkt.
Ich bezog mich da auf mein Gekritzel ;) Ist schon angekommen, dass das nur ein Impression-Renderer ist. Trotzdem danke für die Klarstellung :)
OBrian
2016-07-03, 23:58:46
Ich würde diesen "Dieshot" einfach mal nicht als Informations-Fakt begreifen (dazu müßte es ein nachweislich unbearbeitetes echtes Foto sein, und das gibt es nicht), sondern als Marketinginstrument. Angenommen, man will nicht, daß die Leute glauben, es gäbe 40 CUs, sondern nur 36, dann wäre so ein Dieshot-ähnliches Diagramm sehr hilfreich. Vielleicht gibt es auch keine 40 CUs und das Diagramm ist einem echte Dieshot sehr ähnlich. Jedenfalls sagt etwas Selbstgemaltes von AMD nun mal rein gar nichts anderes aus als eine mündliche oder schriftliche Stellungsnahme von AMD - kann man glauben oder nicht.
Natürlich nicht. Es könnten aber z.B. auf dem Die sowieso 5 Zweiergruppen pro Shaderengine sein. Dann wäre der "Fehler" auf dem Fake-"Dieshot" auch erklärbar. :rolleyes:
Oder es sind physisch 4+3+3, oder 3+3+2+2, oder...
4+3+3 wuerde vielleicht tatsaechlich am meisten Sinn machen (eigentlich dann 4+4+3). Bisher waren es soweit ich das sehe immer 4er Gruppen (ausser die Bilder haben damals schon nicht gestimmt). Habe mal bei Tahiti (https://pics.computerbase.de/3/8/6/7/7/35-1080.253310294.jpg), Pitcairn (https://pics.computerbase.de/3/9/7/6/0/35-1080.3010618264.jpg), Tonga (https://pics.computerbase.de/5/9/6/4/4/7-1080.2299042336.png), Hawaii (https://pics.computerbase.de/5/2/5/1/8/4-1080.4234361861.jpg), Fiji (https://pics.computerbase.de/6/6/0/7/1/27-1080.1113578187.png)nachgeschaut. IdR. sind es n*4+m*3. Dreier wenn es nicht aufging oder bei Salvage, Zweiergruppen waeren aber voellig neu. Es ist uebrigens auch neu, dass AMD im Blockdiagramm diesen shared Cache nicht mehr farblich absetzt, vorher hat man immer gesehen dass es 1/3 instruction und 2/3 scalar Cache war (16 und 32k) (https://pics.computerbase.de/3/8/6/7/7/39-1080.1294403960.jpg).
Ohne echten Dieshot kann man da nichts genaues sagen. Und den Blockdigrammen wüde ich auch nicht hundertprozentig trauen.
Das stimmt natuerlich. Wie gesagt, hoffe (und gehe davon aus), dass es bald ein echtes Bild gibt.
Edit: Im Blockdiagramm von P11 sind es auch weiterhin 4er-Gruppen. Sehe nicht, warum AMD da bei P10 so einen neuen Weg einschlagen sollte, zumal P11 noch eine Nuance fortschrittlicher sein sollte (siehe etwa "per CU power-gating").
4+3+2 oder 4+4+1 haette aber wohl fuers Blockdiagramm einfach zu bloed ausgesehen ;p
StefanV
2016-07-04, 01:52:02
Dass der Chip wirklich nur 36CUs hat, halte ich für arg unwahrscheinlich, insbesondere im angedachten Preissegment.
Da wird garantiert noch irgendwo etwas redundanz vorhanden sein. Und auch noch andere Dinge, ähnlich GF100 damals halt auch...
Erst GF110 hat den Vollausbau gebracht.
Warum sollte AMD das nicht ähnlich machen?
Nur bei einem sollten wir uns relativ sicher sein:
Wenn der Chip wirklich 40CUs hat, werden wir den auch nicht so schnell sehen, außer vielleicht beim Apfel.
Ansonsten höchstens beim Refresh des Lineups, wenn die 14nm Fertigung ausgereift ist und AMD eh das Lineup updaten kann/sollte/müsste, aufgrund eben genau dieser besseren Fertigung (ie mehr Takt oder weniger Spannung)...
Complicated
2016-07-04, 07:19:49
Ja wie und die zweite GPU hat keinen VRAM und Stromversorgung? Natürlich kommt der "Rest" auch bei der zweiten GPU dazu. Vielleicht nicht alles, weil man sich das PCB teilt, aber der größte Verbraucher ist sicherlich der VRAM.
Die RX480 hat 8GB VRAM. Wozu sollte die Dualkarte mehr brauchen? Wenn AMD den Speicher gemeinsam nutzbar macht ist das ausreichend für eine RX490 die mit GP104 konkurriert. Bei 200W ist die Effizienz auch nicht so weit weg von den neuen Nvidia Karten. Sicherlich ist HBM2 eher ausgeschlossen. Es ging nur um das mögliche Potential. GDDR5X würde auch völlig ausreichen...selbst normaler GDDR5 könnte reichen bei niedriger Taktung.
Screemer
2016-07-04, 08:27:20
Ich wäre ja mal endlich für transparentes multigpu auf einem Träger. Das kann ich mir aber genau so in die Haare schmieren wie nen gemeinsamen speicherpool für zwei getrennte gpus. Bis sowas kommt wird das noch dauern.
Complicated
2016-07-04, 09:32:01
Ich denke das wird bald kommen. Ob jetzt schon oder mit Vega ist unklar. Aber wenn Navi multigpus auf einen Träger bringt, wie ja spekuliert wird, wäre diese Generation die richtige um die Technologie einzuführen und bis dahin zu optimieren. Eventuelle Anpassungen in Software sollten damit angestossen werden um in 2 Jahren auch die Hardware davon profitieren zu lassen.
Der_Korken
2016-07-04, 10:28:31
Die RX480 hat 8GB VRAM. Wozu sollte die Dualkarte mehr brauchen? Wenn AMD den Speicher gemeinsam nutzbar macht ist das ausreichend für eine RX490 die mit GP104 konkurriert. Bei 200W ist die Effizienz auch nicht so weit weg von den neuen Nvidia Karten. Sicherlich ist HBM2 eher ausgeschlossen. Es ging nur um das mögliche Potential. GDDR5X würde auch völlig ausreichen...selbst normaler GDDR5 könnte reichen bei niedriger Taktung.
Wie willst du denn den Speicher anbinden? Eine RX480 hat 8 Speicherchips, die mit je 32bit angebunden sind (=256bit SI), unabhängig davon wie groß die Speicherchips sind. Wenn du zwei P10-Chips nimmst und den VRAM einer 480 verbaust, dann hättest du nach wie vor nur eine 256bit-Anbindung, die sich beide GPUs teilen müssten. Wenn du doppelte P10-Performance haben willst, dann musst du auch die Anzahl der Speicherchips verdoppeln, damit sie zusammen auch auf die doppelte Bandbreite kommen. Daher muss auch der VRAM-Verbrauch verdoppelt werden.
Gorkon
2016-07-04, 12:37:29
Dass der Chip wirklich nur 36CUs hat, halte ich für arg unwahrscheinlich, insbesondere im angedachten Preissegment.
Da wird garantiert noch irgendwo etwas redundanz vorhanden sein. Und auch noch andere Dinge, ähnlich GF100 damals halt auch...
Erst GF110 hat den Vollausbau gebracht.
Warum sollte AMD das nicht ähnlich machen?
Nach dieser Aussage hier heute von Igor aus dem Review-Thread (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11090328&postcount=1609):
Ich war wütend, dass sich AMD mal wieder unnötig selbst ein Bein gestellt hat. Ich habe mit den Leuten in Macau an einem Tisch gesessen und am Ende hat keiner exakt gesagt, was Phase ist. Selbst auf Fragen in privater Runde kam keine befriedigende Antwort, auch von den Technikern nicht. Ich fühle mich heute noch von der PR und einigen Gesprächspartnern verscheißert, sorry. Für so dumm kann man uns doch nun wirklich nicht halten.
können Golem, CBase und all die anderen so oft betonen wie sie wollen, dass man ihnen was von 40 CUs erzählt hat. Ich weiss, dass man seinem ärgsten Konkurrenten bloß keine Angriffsfläche für Produktkonter geben möchte, aber aus Kundensicht ist das arg assig :frown: Von daher...Chipworks und gut.
Ailuros
2016-07-04, 13:01:39
Nach dieser Aussage hier heute von Igor aus dem Review-Thread (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11090328&postcount=1609):
können Golem, CBase und all die anderen so oft betonen wie sie wollen, dass man ihnen was von 40 CUs erzählt hat. Ich weiss, dass man seinem ärgsten Konkurrenten bloß keine Angriffsfläche für Produktkonter geben möchte, aber aus Kundensicht ist das arg assig :frown: Von daher...Chipworks und gut.
Es wird keine klaren Antworten je dazu geben, weil es keinen interessieren sollte ob und wieviel Redundanz in jeglichem chip steckt. Es wuerde mich ernsthaft ueberraschen wenn nicht in allen GPUs eine ~10% Redundanz stecken wuerde. Das heisst aber wiederrum auch nicht dass IHVs diese Redundanz je benutzen werden, denn das Zeug hat auch seinen Zweck und ist nicht rein zufaellig da.
Der unendliche Kaugummi von AMD fans schon seit Jahren dass JEDER AMD GPU chip im vergangenen Jahrzehnt noch so und so viel clusters flach liegen hat wurde leider noch nicht ausgelatscht.
Sonst gibt es ueberhaupt heutzutage veroeffentlichte die shots von entweder Radeon oder GeForce chips?
Nightspider
2016-07-04, 13:07:37
Es wird keine klaren Antworten je dazu geben, weil es keinen interessieren sollte ob und wieviel Redundanz in jeglichem chip steckt. Es wuerde mich ernsthaft ueberraschen wenn nicht in allen GPUs eine ~10% Redundanz stecken wuerde. Das heisst aber wiederrum auch nicht dass IHVs diese Redundanz je benutzen werden, denn das Zeug hat auch seinen Zweck und ist nicht rein zufaellig da.
Der unendliche Kaugummi von AMD fans schon seit Jahren dass JEDER AMD GPU chip im vergangenen Jahrzehnt noch so und so viel clusters flach liegen hat wurde leider noch nicht ausgelatscht.
Sonst gibt es ueberhaupt heutzutage veroeffentlichte die shots von entweder Radeon oder GeForce chips?
Dafür gibts doch die Salvage-Karten.
Wenn die Fehlerquote im Lauf der Zeit so gering ist das die Redundanz bei einem Großteil der Ausbeute nicht benötigt wird kann an diese doch als perfekte Chips vermarkten.
Mit 10% Redundanz müssten wir ja im Laufe der Zeit Yieldraten von 100% erreichen.
Wirtschaftlicher dürfte es am Ende sein ein die teildefekten Chips als Salvage-Karten zu vermarkten und die perfekten Chips völlig freigeschaltet zu verkaufen.
Ailuros
2016-07-04, 13:20:57
Dafür gibts doch die Salvage-Karten.
Wenn die Fehlerquote im Lauf der Zeit so gering ist das die Redundanz bei einem Großteil der Ausbeute nicht benötigt wird kann an diese doch als perfekte Chips vermarkten.
Mit 10% Redundanz müssten wir ja im Laufe der Zeit Yieldraten von 100% erreichen.
Wirtschaftlicher dürfte es am Ende sein ein die teildefekten Chips als Salvage-Karten zu vermarkten und die perfekten Chips völlig freigeschaltet zu verkaufen.
Wenn es diese Redundanz nicht geben wuerde kann ich mir die eigentlichen 9b auf einem GM200 oder die 17.8b auf einem GP100 und auch die endlosen "Maerchen" fuer AMD chips fuer so und so viele "versteckte" clusters nicht wirklich erklaeren. Offiziell hast Du fuer einen GM200 8.1b und fuer GP100 15.3b. Die restlichen 10-15% an Transistoren (die beim GP100 dummerweise stellenweise sogar in oeffentlichen Dokumenten erwaehnt werden....) dienen wohl nicht zur internen Dekoration von jeglichem chip.
Es wuerde mich ernsthaft ueberraschen wenn nicht in allen GPUs eine ~10% Redundanz stecken wuerde. Das heisst aber wiederrum auch nicht dass IHVs diese Redundanz je benutzen werden, denn das Zeug hat auch seinen Zweck und ist nicht rein zufaellig da.
Der unendliche Kaugummi von AMD fans schon seit Jahren dass JEDER AMD GPU chip im vergangenen Jahrzehnt noch so und so viel clusters flach liegen hat wurde leider noch nicht ausgelatscht.
Genau - so wurden Hawaii ja etwa auch 48 CUs nachgesagt, mit die-shots war das dann aber endgueltig erledigt.
Bei Tonga war es genau umgekehrt, dort hat der die-shot aufgedeckt, dass tatsaechlich ein 384 Bit SI verbaut ist.
Sonst gibt es ueberhaupt heutzutage veroeffentlichte die shots von entweder Radeon oder GeForce chips?
Ja, natuerlich. Wie schon angesprochen etwa von Chipworks. Frei zugaenglich sind aber iirc von denen idR. nur schlecht aufgeloeste Bilder.
Es gibt aber Bilder aus mehreren Quellen, hier z.B. zu Tahiti:
http://www.3dcenter.org/dateien/abbildungen/AMD-Tahiti-Die-Shot-markiert.jpg
http://cdn.overclock.net/0/02/500x1000px-LL-0279eba6_7960gfx-backside.jpeg
http://www.3dcenter.org/dateien/abbildungen/AMD-Southern-Islands-Die-Shots.jpg
oder Fiji, Tonga: http://i.imgur.com/0SAkBLn.png
Zu Hawaii habe ich auf die Schnelle nichts Brauchbares gefunden.
Haette aber jeder Chip diese Redundanzen von ganzen CUs wuerde man das sofort sehen. Und gerade bei den ersten GCN Chips, die ja auch die ersten in 28 nm waren wuerde ich das erwarten, nicht unbedingt bei Hawaii. Sehe auch den Sinn nicht. Wenn CUs kaputt sind gibt es salvage. Die Konsolen SoCs sind dahingehend natuerlich eine Ausnahme. Weil man nicht zwei Varianten gebrauchen kann, lotet man halt aus wie viel Redundanz man "braucht" und deaktiviert dann bei allen Chips die paar CUs
Wie Nvidia das handhabt und welche Daten wo genannt werden hat ja damit erstmal nichts zu tun, aber eine "ueberfluessige" CU ist auf einem die-shot ja sehr einfach zu sehen.
Liszca
2016-07-04, 14:19:36
Gibt es schon Hinweise auf den möglicherweise verwendeten Speichertyp bei der RX 490?
N0Thing
2016-07-04, 14:31:44
Gibt es schon Hinweise auf den möglicherweise verwendeten Speichertyp bei der RX 490?
Wenn die Karte auf Polaris 10 basiert, dann GDDR5. Wenn es ein Vega Chip sein sollte, dann wohl HBM. Afaik hat AMD beim AMA auf Reddit geantwortet, dass Polaris keinen Speichercontroller mit GDDR5X-Support besitzt und für Vega kennt man als Feature nur HBM.
Afaik hat AMD beim AMA auf Reddit geantwortet, dass Polaris keinen Speichercontroller mit GDDR5X-Support besitzt und für Vega kennt man als Feature nur HBM.
Does polaris support GDDR5X? And if so can we expect to see a 480X (Or aftermarket 480's) containing GDDR5X?
Polaris supports GDDR5. We chose GDDR5 because it is the ideal combination of bandwidth/power efficiency/cost for the market segments of the RX 400 Series. As for what GPUs might be planned in the future, I refer you to the "what we cannot discuss" section of my OP. :)
https://www.reddit.com/r/pcmasterrace/comments/4qfy9d/i_work_at_amd_the_time_has_come_to_ama_about/d4slr17
Das heisst gar nichts, weder Positives noch Negatives ;p
Ich gehe aber eigentlich nicht mehr von 5X bei P10 aus, auch wenn es dem Chip sehr helfen wuerde...
Complicated
2016-07-04, 14:57:49
Wie willst du denn den Speicher anbinden? Eine RX480 hat 8 Speicherchips, die mit je 32bit angebunden sind (=256bit SI), unabhängig davon wie groß die Speicherchips sind. Wenn du zwei P10-Chips nimmst und den VRAM einer 480 verbaust, dann hättest du nach wie vor nur eine 256bit-Anbindung, die sich beide GPUs teilen müssten. Du stellst Fragen die schon beantwortet wurden. Das legt Nahe, dass du meine Beiträge offensichtlich nicht liest. Warum zitierst du mich dann?
Die RX480 hat 8GB VRAM. Wozu sollte die Dualkarte mehr brauchen? Wenn AMD den Speicher gemeinsam nutzbar macht ist das ausreichend für eine RX490 die mit GP104 konkurriert. Weiterführend in einem folgenden Beitrag:
Ich denke das wird bald kommen. Ob jetzt schon oder mit Vega ist unklar. Aber wenn Navi multigpus auf einen Träger bringt, wie ja spekuliert wird, wäre diese Generation die richtige um die Technologie einzuführen und bis dahin zu optimieren. Eventuelle Anpassungen in Software sollten damit angestossen werden um in 2 Jahren auch die Hardware davon profitieren zu lassen.
Selbst mit der heutigen Streaming-Technik bei Spielen könnten 4 GB Als "Haupt-VRAM" und die anderen als Sekundärer "Streaming-RAM" für hoch aufgelöste Texturen dienen anstatt des System-RAMs. Dies würde fast einer Vollständigen VRAM-Nutzung gleichkommen, da zwischen den jeweils getrennt angebundenen 4 GB VRAM deutlich höhere Bandbreite verbaut werden kann auf der Platine. GMI wäre ein guter Kandidat für die Anbindung der beiden GPUs und deren VRAM, auf HPC-Nodes ist das ja Gang und Gebe. Aber wahrscheinlich ist das nicht einmal nötig.
Der_Korken
2016-07-04, 15:30:20
Du stellst Fragen die schon beantwortet wurden. Das legt Nahe, dass du meine Beiträge offensichtlich nicht liest. Warum zitierst du mich dann?
Ich habe deinen Beitrag schon verstanden, aber dein Vorschlag des gemeinsamen VRAMs ändert nichts an der Tatsache, dass du nur maximal 256GB/s in oder aus dem VRAM rein- oder rausbekommst. Da selbst eine einzelne RX480 schon gut vom Speicher-OC profitiert, liegt es nahe, dass eine solche Konstruktion mit zwei P10-Chips und 8 VRAM-Chips gandenlos bandbreitenlimitiert wäre. Man muss also mehr VRAM-Chips verbauen, um mehr Bandbreite zu bekommen und dadurch steigt wiederum der Stromverbrauch an. Um nichts anderes ging es mir. Mit 4 oder 8GB pro GPU hat das nichts zu tun.
Complicated
2016-07-04, 16:30:57
Wenn du zwei Chips mit je 256-Bit SI hast, dann ist das doppelt so schnell. Die Frage ist lediglich wie hoch der Overhead ist bei gemeinsamer Speichernutzung zweier GPUs. Hier hängt es lediglich vom Speichermangement ab. Wenn Texturen aus dem einen VRAM gestreamt werden über einen Interconnect, brauchst du auch nicht mehr als die 256-bit für den Haupt-VRAM als Bandbreite. Erneut schrieb ich das im vorherigen Beitrag schon ausführlich...seltsam ^^
Selbst mit der heutigen Streaming-Technik bei Spielen könnten 4 GB Als "Haupt-VRAM" und die anderen als Sekundärer "Streaming-RAM" für hoch aufgelöste Texturen dienen anstatt des System-RAMs. Dies würde fast einer Vollständigen VRAM-Nutzung gleichkommen, da zwischen den jeweils getrennt angebundenen 4 GB VRAM deutlich höhere Bandbreite verbaut werden kann auf der Platine. GMI wäre ein guter Kandidat für die Anbindung der beiden GPUs und deren VRAM, auf HPC-Nodes ist das ja Gang und Gebe. Aber wahrscheinlich ist das nicht einmal nötig.
Der_Korken
2016-07-04, 16:42:01
Das setzt aber voraus, dass beide GPUs auch immer die gleichen Daten brauchen. Wenn sie auf unterschiedliche Daten zugreifen müssen sie sich den Interconnect teilen, was letztlich eine halbierte Übertragungsrate zum VRAM bedeutet. Mich macht einfach stutzig, dass laut deiner Idee so einfach die doppelte Leistung mit gleicher Speicheranbindung möglich sein soll.
Stell dir vor, AMD würde einen Dual-P10 als einen Die herstellen, sodass dein erwähnter Interconnect im Silizium enthalten ist und nur die 256bit für den Speicher nach draußen gehen. Da würde jeder sofort sagen, dass das Teil bandbreitenlimitiert ist, weil doppelte Rechenpower bei gleicher Speicheranbindung. Was also macht deine Lösung besser als das, was ich beschrieben habe? Nach deiner Argumentation wäre ja beispielsweise auch bei einer GTX980 das 256bit-SI "überflüssig", weil man einfach zwei 960er Chips (GM204 ~ 2xGM206) intern verdrahten könnte und sich ein 128er Interface teilen lässt.
Botcruscher
2016-07-04, 17:02:18
Die Speichermenge zu reduzieren macht irgendwie wenig Sinn. Die zwei 256bit Speicherschnittstellen müssen so oder so voll bestückt werden. Das man mal eben einen Interconnect mit der Bandbreite und Latenz eines internen Chips basteln kann bezweifle ich mal. Das ist keine CPU, wo "wenig" drüber geht.
StefanV
2016-07-04, 17:17:59
https://www.reddit.com/r/pcmasterrace/comments/4qfy9d/i_work_at_amd_the_time_has_come_to_ama_about/d4slr17
Das heisst gar nichts, weder Positives noch Negatives ;p
Agreed, das ist mal wieder um den heißen Brei herum geredet...
Aber dieses 'Überspezifische Dementi' dementiert ja gar nicht, dass GDDR5X eventuell vorhanden sein könnte, ganz im Gegenteil...
Ich gehe aber eigentlich nicht mehr von 5X bei P10 aus, auch wenn es dem Chip sehr helfen wuerde...
Warum?
Es spricht weiterhin nix dagegen, dass der P10 das kann.
Die einzige Frage ist und bleibt, ob GDDR5x jemals preiswert genug wird, dass sich auch ein Einsatz lohnen würde...
Dass AMD auch sehr stark an HBM arbeitet, ist durchaus ein Punkt, der dagegen spricht, aber ob das jemals preiswerter werden wird, ist die Frage...
Aber das sollte man wohl vermutlich eher ausschließen.
Allerdings hat HBM eine deutlich bessere Energieeffizienz...
Complicated
2016-07-04, 17:31:17
Das setzt aber voraus, dass beide GPUs auch immer die gleichen Daten brauchen. Wenn sie auf unterschiedliche Daten zugreifen müssen sie sich den Interconnect teilen, was letztlich eine halbierte Übertragungsrate zum VRAM bedeutet. Nein das ergibt keinen Sinn was du schreibst. Die Voraussetzungen die du hier anführst sind weder notwendig noch stehen die im Zusammenhang. Lies bitte diese Quelle und informiere dich über Texture-Streaming um zu verstehen wovon ich schreibe: https://docs.unrealengine.com/latest/INT/Engine/Content/Types/Textures/Streaming/
Die Speichermenge zu reduzieren macht irgendwie wenig Sinn. Die zwei 256bit Speicherschnittstellen müssen so oder so voll bestückt werden. Das man mal eben einen Interconnect mit der Bandbreite und Latenz eines internen Chips basteln kann bezweifle ich mal. Das ist keine CPU, wo "wenig" drüber geht.Was heisst "mal eben ein Interconnect basteln"? GMI ist Chip-zu-Chip fähig und wird von AMD eindeutig an GPUs genutzt.
http://www.pcgameshardware.de/AMD-Zen-Codename-261795/News/Details-L0-Cache-Data-Fabric-1187740/
Darüber hinaus nennen die Patches sowohl GMI-Links als auch einen Data Fabric. Beide Begriffe wurden bereits auf einer Folie verwendet, die fudzilla.com (http://www.fudzilla.com/news/processors/38402-amd-s-coherent-data-fabric-enables-100-gb-s)im vergangenen August veröffentlichte und eine HPC-APU zeigte. Veranschaulicht wurde ein Data Fabric bestehend aus vier GMI-Links à 25 GB/s, um so eine schnelle Kommunikation einer GPU mit HBM (auf einem Interposer) mit einer Zen-CPU innerhalb eines MCM-Packages (außerhalb eines Interposers) zu erlauben.Warum sollte AMD dies nicht auch auf einer Dual-GPU-Platine verbauen können, wenn sie wollen? Heutiges Crossfire hat 16 GB/s über den PCIe-Slot.
Der_Korken
2016-07-04, 17:42:41
Nein das ergibt keinen Sinn was du schreibst. Die Voraussetzungen die du hier anführst sind weder notwendig noch stehen die im Zusammenhang. Lies bitte diese Quelle und informiere dich über Texture-Streaming um zu verstehen wovon ich schreibe: https://docs.unrealengine.com/latest/INT/Engine/Content/Types/Textures/Streaming/
Den gesamten Text lese ich mir erst durch, wenn du meinen Widerspruch oben aufgelöst hast. Das hat meiner Meinung nach nämlich überhaupt nichts mit dem zu tun, worüber wir hier diskutieren.
N0Thing
2016-07-04, 20:27:06
https://www.reddit.com/r/pcmasterrace/comments/4qfy9d/i_work_at_amd_the_time_has_come_to_ama_about/d4slr17
Das heisst gar nichts, weder Positives noch Negatives ;p
Ich gehe aber eigentlich nicht mehr von 5X bei P10 aus, auch wenn es dem Chip sehr helfen wuerde...
Da hast du recht. Das kommt davon, wenn man nur die News und nicht die Quelle liest. :redface:
Complicated
2016-07-04, 21:03:20
Den gesamten Text lese ich mir erst durch, wenn du meinen Widerspruch oben aufgelöst hast. Das hat meiner Meinung nach nämlich überhaupt nichts mit dem zu tun, worüber wir hier diskutieren.Du, nicht wir. Das habe ich dir nun schon mehrfach geschrieben, dass du überhaupt nicht verstehst wovon ich schreibe. In dem Link ist das Grundwissen dazu zusammengefasst. Lies es oder lass es sein. Quellen habe ich geliefert.
Hier ein Test der die Auswirkungen des Texture-Streaming auf VRAM bei Fury gezeigt hat: http://www.hardocp.com/article/2016/02/29/rise_tomb_raider_graphics_features_performance/13
Man nehme eine Dual-GPU und nutze das dynamic VRAM in der zweiten Hälfte des geteilt angebundenen VRAMs. Dies sollte gar nicht so schwer zu bewerkstelligen sein.
Der_Korken
2016-07-04, 21:22:26
Man nehme eine Dual-GPU und nutze das dynamic VRAM in der zweiten Hälfte des geteilt angebundenen VRAMs. Dies sollte gar nicht so schwer zu bewerkstelligen sein.
Korrigier mich, wenn ich falsch liege, aber das von dir beschriebene Feature ist kein exklusives Multi-GPU-Feature, oder? In deinem Link läuft es auf einer einzelnen Fury. Jetzt stören mich zwei Dinge:
1. Ich finde in deinem Link keine Aussage darüber, inwiefern der Bus zwischen GPU und VRAM dadurch entlastet wird.
2. Selbst wenn man durch diesen Trick quasi 50% der benötigten Bandbreite einsparen könnte, so könnte man das insbesondere bereits bei einem einzelnen P10 machen und man könnte das SI von 256bit auf 128bit verknappen, ohne dass es Performance kostet.
Du, nicht wir.
Ich merk schon.
Mir geht es immer noch um die Behauptung, dass man für eine hypothetische RX490, die aus zwei P10-GPUs besteht mit dem doppelten Stromverbrauch rechnen muss im Vergleich zu einer einzelnen GPU. Du hast behauptet, es wäre deutlich weniger, weil man den zweiten VRAM einfach einsparen könnte. Darauf sage ich: Wenn die VRAM-Anbindung einer P10-GPU auch für zwei reichen würde, dann könnte man sie für einen Chip halbieren. Was das mit irgendwelchen VRAM-Größen oder dynamischer Auslagerung zu tun hat, verstehe ich immer noch nicht. Ich rede ausschließlich über die Übertragungsrate zwischen GPU(s) und VRAM.
Complicated
2016-07-04, 21:36:07
Die RX480 hat 8GB VRAM. Wozu sollte die Dualkarte mehr brauchen? Wenn AMD den Speicher gemeinsam nutzbar macht ist das ausreichend für eine RX490 die mit GP104 konkurriert. Bei 200W ist die Effizienz auch nicht so weit weg von den neuen Nvidia Karten. Sicherlich ist HBM2 eher ausgeschlossen. Es ging nur um das mögliche Potential. GDDR5X würde auch völlig ausreichen...selbst normaler GDDR5 könnte reichen bei niedriger Taktung.
1. Ich finde in deinem Link keine Aussage darüber, inwiefern der Bus zwischen GPU und VRAM dadurch entlastet wird.
Was heisst "mal eben ein Interconnect basteln"? GMI ist Chip-zu-Chip fähig und wird von AMD eindeutig an GPUs genutzt.
http://www.pcgameshardware.de/AMD-Zen-Codename-261795/News/Details-L0-Cache-Data-Fabric-1187740/
Warum sollte AMD dies nicht auch auf einer Dual-GPU-Platine verbauen können, wenn sie wollen? Heutiges Crossfire hat 16 GB/s über den PCIe-Slot.
Mir geht es immer noch um die Behauptung, dass man für eine hypothetische RX490, die aus zwei P10-GPUs besteht mit dem doppelten Stromverbrauch rechnen muss im Vergleich zu einer einzelnen GPU. Du hast behauptet, es wäre deutlich weniger, weil man den zweiten VRAM einfach einsparen könnte.Nein das habe ich nirgends geschrieben. Ich schrieb 8 GB für die gesamte Dual-GPU würden ausreichen. Die RX480 hat 8GB. Verbaut man 2 RX470 auf der Dual-GPU kommt man locker auf 200W Das ist ebenfalls P10 (mit 2x2048 Shadern). (http://www.3dcenter.org/news/spezifikations-update-zu-amds-radeon-rx-460-470)Erklärt habe ich das aber nun auch schon mehr als einmal. Du redest immer noch daran vorbei. Und zudem habe ich nichts behauptet, sondern spekuliert. Woher soll ich einen Link nehmen der meine eigenen Spekulationen belegt bzgl. einer kommenden Dual-GPU und neuem Speichermanagement?
Und dass der doppelte Stromverbrauch der schnellsten Einzel-GPU des Vollausbaus nicht als Maßstab dient zeigt ja die Vergangenheit. Auch schon gepostet:
Eher 200W wenn man die Werte der RX 470 als Maßstab nimmt, was sinnvoll ist bei einer Dual-GPU, siehe auch Vergleich Fiji mit Nano (175W) vs. FuryX (275W) und die Dual-Fiji mit 350W Das doppelte der Nano passt hier - so wie eben das Doppelte der RX470 auf eine Dual-P10 passt.
Der_Korken
2016-07-04, 21:45:35
Es könnte immer noch eine schlichte Dual-Karte sein mit zwei 480er Chips und 300W TDP.
Eher 200W wenn man die Werte der RX 470 als Maßstab nimmt, was sinnvoll ist bei einer Dual-GPU, siehe auch Vergleich Fiji mit Nano (175W) vs. FuryX (275W) und die Dual-Fiji mit 350W
Das glaube ich nicht. Es wurde ja geschätzt, dass die GPU ca. 110W verbraucht und der Rest nochmal 50W dazu. Um bei 200W für zwei GPUs zu landen, müsste man den Verbrauch einer GPU auf 50W drücken, also etwa die Hälfte. Damit würde man entweder bestenfalls eine 1070 schlagen [...]
Der ist ja in einer GPU enthalten mit 160W. Die zweite kommt ohne den "Rest". Da landest du dann bei 270W mit einer RX480. Ich schrieb eindeutig RX470 in meinem Beitrag was bei selber Rechnung bei ca. 200W landet.
Ich meine diesen Dialog. Dass eine 470 effizienter als eine 480 sein kann, will ich nicht bestreiten, aber an Wunder glaube ich erst, wenn ich sie sehe. Eine einzelne 1080 ist bereits 75% schneller als eine 480. Man bräuchte also schon eine saugute Skalierung, um die 1080 einzuholen. Wenn du jetzt die GPUs so zusammenstauchst, dass der Verbrauch auf 100-110W pro GPU sinkt, wird es sehr wahrscheinlich nicht mehr reichen. Gerade weil ich beim VRAM wenig Einsparpotenzial sehe (es sei denn, die Vermutungen aus dem Preview-Thread bewahrheiten sich und die Spannungen sind völlig kaputt, sodass die Karte 30W mehr für nix zieht).
Alles was danach von mir kam, bezog sich auf deine Aussage, dass "der Rest" für die zweite GPU nicht dazukommt und das halte ich für falsch. Es limitiert doch nicht die VRAM-Größe (die wäre mit 8GB in der Tat völlig ausreichend), sondern die Bandbreite. Und die Bandbreite ist bei gleichem SI und Takt immer gleich, egal ob dahinter 4, 8 oder 256GB kommen.
Complicated
2016-07-04, 21:58:00
Ja und wo in dem Dialog schreibe ich was du behauptest? Ich bin lediglich einmal auf eines deiner Argumente eingegangen zur RX480 (eine hat schon 8 GB Speicher) um dir daraufhin mitzuteilen, dass ich eindeutig von der RX470 schreibe.
Ich schrieb eindeutig RX470 in meinem Beitrag was bei selber Rechnung bei ca. 200W landet.Das hast du selber zitiert. Warum den Satz vorher fett markieren?
Da landest du dann bei 270W mit einer RX480. Ich schrieb eindeutig RX470 in meinem Beitrag was bei selber Rechnung bei ca. 200W landet.
Die RX480 hat 8GB VRAM. Wozu sollte die Dualkarte mehr brauchen? Wenn AMD den Speicher gemeinsam nutzbar macht ist das ausreichend für eine RX490 die mit GP104 konkurriert. Bei 200W ist die Effizienz auch nicht so weit weg von den neuen Nvidia Karten.keine Ahnung was du bezweckst, doch wie du siehst sind alle Argumente schon seit vielen Beiträgen geschrieben worden. Verknüpfe sie bitte auf die von mir gewünschte Weise, ansonsten kannst du dich gleich mit dir selber unterhalten, wenn du es einfach so auslegst wie du willst.
Der_Korken
2016-07-04, 22:13:22
Hier ist sie doch:
Der ist ja in einer GPU enthalten mit 160W. Die zweite kommt ohne den "Rest". Da landest du dann bei 270W mit einer RX480.
Oben schon fett markiert. Dass du nicht die 480 sondern die 470 verdoppeln willst, habe ich doch schon längst verstanden und auch das Argument mit Fury X vs Fury Nano ist mir bekannt. Was übrig bleibt ist, dass ich 200W für so eine Karte für unrealistisch halte, aber das ist ja mein "Problem", da wir das erst bewerten können, wenn wir die 470 gesehen haben. Und die ganze Diskussion über doppelten/geshared/whatever VRAM fußt im Wesentlichen auf dem fetten Zitat.
Complicated
2016-07-04, 22:21:15
Alles was danach von mir kam, bezog sich auf deine Aussage, dass "der Rest" für die zweite GPU nicht dazukommt und das halte ich für falsch. Es limitiert doch nicht die VRAM-Größe (die wäre mit 8GB in der Tat völlig ausreichend), sondern die Bandbreite. Und die Bandbreite ist bei gleichem SI und Takt immer gleich, egal ob dahinter 4, 8 oder 256GB kommen.Wenn 2 GPUs mit 8 GB VRAM betrieben werden, und zwei 256-bit SIs zum anbinden von jeweils 4 GB GDDR5 (zusammen 8 GB) Speicher genutzt werden. Welche Bandbreite rechnest du da aus? Denkst du die kann hier limitieren? Wann wurden jemals 2 GPUs auf einer Dual-Karte mit nur einem aktiven SI verbaut?
Und wenn ich nun einen spekulativen GMI Interconnect zwischen diese GPUs setze mit 25-100GB/s (1-4 Links) anstatt die Übertragung im Crossfire über den PCIe mit 16 GB/s (und deutlich höherer Latenz) laufen zu lassen, dann sollte es keine Probleme mit Bandbreite geben, sofern AMD eben den Speicher der GPUs vereinen kann wie es HSA vorsieht. Dazu gibt es ja auch nun die Ergänzung der HSA-ISA für diskrete GPUs. Also sind dort auch erweiterte Speicher-Management Funktionen zu erwarten.
https://github.com/RadeonOpenCompute/ROCm
Using our knowledge of the HSA Standards and, more importantly, the HSA 1.1 Runtime we have been able to successfully extended support to the dGPU with critical features for NUMA class acceleration.
NUMA=Non-Uniform Memory Access
https://de.wikipedia.org/wiki/Non-Uniform_Memory_Access
Non-Uniform Memory Access oder kurz NUMA ist eine Computer-Speicher-Architektur für Multiprozessorsysteme, bei denen jeder Prozessor (https://de.wikipedia.org/wiki/Prozessor) einen eigenen, lokalen Speicher hat, aber anderen Prozessoren über einen gemeinsamen Adressraum direkten Zugriff darauf gewährt (Distributed Shared Memory (https://de.wikipedia.org/wiki/Distributed_Shared_Memory)). Die Speicherzugriffszeiten in einem solchen Verbund hängen daher davon ab, ob sich eine Speicheradresse im lokalen oder im fremden Speicher befindet.
Wenn du nun den langen Text liest über Texture-Streaming, dann wird deutlich, dass diese Form des Speichermanagements bei einer Dual-GPU mit NUMA Architektur wie dafür geschaffen ist. Der nicht lokale Speicher der zweiten GPU ist deutlich schneller als der System-RAM, der noch langsamer ist und für Laderuckler sorgen kann bei Texture-Streaming.
Complicated
2016-07-04, 22:23:31
Oben schon fett markiert. Dass du nicht die 480 sondern die 470 verdoppeln willst, habe ich doch schon längst verstanden und auch das Argument mit Fury X vs Fury Nano ist mir bekannt. Was übrig bleibt ist, dass ich 200W für so eine Karte für unrealistisch halte, aber das ist ja mein "Problem", da wir das erst bewerten können, wenn wir die 470 gesehen haben.Na wie soll es denn mehr werden wenn eine RX470 110 W TBP hat? Eine RX 480 hat 160 W TBP. wenn ich die 470 verdoppele kann ich doch niemals bei 300 W landen. Lies doch mal die Startseite von heute, die habe ich vorhin auch verlinkt. Da sind die Spezifikationen der RX 470 zu finden.
Der_Korken
2016-07-04, 22:36:56
Wenn 2 GPUs mit 8 GB VRAM betrieben werden, und zwei 256-bit SIs zum anbinden von jeweils 4 GB GDDR5 (zusammen 8 GB) Speicher genutzt werden. Welche Bandbreite rechnest du da aus? Denkst du die kann hier limitieren? Wann wurden jemals 2 GPUs auf einer Dual-Karte mit nur einem aktiven SI verbaut?
Sowas wurde afaik nie gebaut. Und deine Config ergibt für mich 512GB/s, was auch völlig in Ordnung ist. Ich habe eine Vermutung was unser Problem ist: Als du gesagt hast, der VRAM einer P10-GPU wäre ausreichend und du anschließend auch den Verbrauch des VRAMs nur einmal berechnet hast, bin ich davon ausgegangen, du wolltest EINEN 8GB-VRAM mit EINEM 256bit-Interface an ZWEI GPUs hängen. Du willst aber 2x4GB VRAM haben, die an je einem 256er SI hängen.
Das Problem ist dann aber, dass die 2x4GB doppelt so viel verbrauchen würden wie 1x8GB, denn der Verbrauch hängt erfahrungsgemäß nicht von der Speichermenge, sondern von der Anzahl Chips (und dem Takt) ab. Für 2x256bit braucht man aber 16 Chips statt 8 (wie beim P10), weil jeder Chip nur mit 32bit angebunden ist. Kann das unser Verständnisproblem sein?
Na wie soll es denn mehr werden wenn eine RX470 110 W TBP hat? Eine RX 480 hat 160 W TBP. wenn ich die 470 verdoppele kann ich doch niemals bei 300 W landen.
Die 300W von mir bezogen sich auf zwei 480er Chips.
Complicated
2016-07-04, 22:46:22
So langsam fällt der Groschen. Nur stimmt eine Rechnung nach wie vor nicht bei dir:
Klar würden 2x4 GB RAM mehr verbrauchen (fraglich ob das wirklich gravierend ist) als 1x8 GB an 256-Bit. Nur ist es definitiv die Hälfte von 16GB VRAM, der ja verbaut werden müsste um 2x 8GB Versionen mit den vollen 110 W TBP (die 4 GB und die 8 GB Versionen der RX480 und der RX470 haben die selbe TBP) darzustellen. Es gibt Berichte, wonach die 4GB Versionen etwas höher takten als die 8GB Versionen, weil sie mehr Powerbudget zur Verfügung haben, da der Speichertakt etwas reduziert ist von 4000 GHz auf 3850 GHz
Liszca
2016-07-05, 03:39:12
Comnplicated und Der_Korken, diskutiert ihr über MGPUs?
Thunder99
2016-07-05, 10:46:03
Nebenbei es wurde schon von AMD dementiert das P10 5X kann.
Wenn kann das nur Vega wobei dieser mit HBM2 geplant ist/war
Gipsel
2016-07-05, 11:06:37
Nebenbei es wurde schon von AMD dementiert das P10 5X kann.Das wäre mir neu. Sinngemäß wurde doch gesagt, daß die RX480 ein Produkt mit GDDR5 ist und der dafür am geeignetsten ist und über zukünftige Produktpläne rede man nicht. Ein klares Dementi sieht anders aus.
=============================
Zur Diskussion um Multi-GPU auf Interposer/Package mit GMI-Links oder sowas in der Art:
Jede Speicherstruktur, die hinreichend unterschiedlich ist und damit nicht vollständig transparent für den Entwickler sein kann, wenn man hohe Performance möchte, erfordert daß der Entwickler seine Algorithmen darauf ausrichtet. Das wird wohl so schnell nicht passieren. Also solange der auf zwei GPUs verteilte Speicherpool nicht wie ein einziger aussieht, wird man das mit dem gemeinsam genutzten Speicher sehr oft knicken können. Das mag mal für ein paar hundert MB hier und da relativ einfach machbar sein, aber längst nicht für Alles. Das ist Utopie. Ausnahmen für Spezialfälle bestätigen die Regel.
StefanV
2016-07-05, 11:14:30
Nebenbei es wurde schon von AMD dementiert das P10 5X kann.
Nein, wurde es nicht.
Das mir bekannte Statement war eine Wischi-Waschi PR Aussage, aus der eben genau DAS _NICHT_ hervorgeht. Nicht einmal im Ansatz!
Das wäre mir neu. Sinngemäß wurde doch gesagt, daß die RX480 ein Produkt mit GDDR5 ist und der dafür am geeignetsten ist und über zukünftige Produktpläne rede man nicht. Ein klares Dementi sieht anders aus.
Dem kann man nur zustimmen!
Im Umkehrschluss kann man daraus aber schließen, dass P10 sehr wohl 5X unterstützt und man damit ev. sogar Produkte plane...
...was ja auch sehr wahrscheinlich sein wird - für 'ne 570 oder 580...
N0Thing
2016-07-05, 13:50:37
Im Umkehrschluss kann man daraus aber schließen, dass P10 sehr wohl 5X unterstützt und man damit ev. sogar Produkte plane...
...was ja auch sehr wahrscheinlich sein wird - für 'ne 570 oder 580...
Man kann aus der Wischi-Waschi-PR-Aussage weder das eine noch das andere schließen, erst recht nicht im Umkehrschluss und dies auch noch als sehr wahrscheinlich bezeichnen. Der AMD Mitarbeiter hätte auch no comment sagen können und man wüsste genau so viel.
Ein klassisches: Kann, muss aber nicht.
Malabolge
2016-07-05, 14:02:03
Nein, wurde es nicht.
Das mir bekannte Statement war eine Wischi-Waschi PR Aussage, aus der eben genau DAS _NICHT_ hervorgeht. Nicht einmal im Ansatz!
Dem kann man nur zustimmen!
Im Umkehrschluss kann man daraus aber schließen, dass P10 sehr wohl 5X unterstützt und man damit ev. sogar Produkte plane...
...was ja auch sehr wahrscheinlich sein wird - für 'ne 570 oder 580...
Wie kann man aus einer "Nicht"-Aussage eine Zustimmung herauslesen ?
Sowas klappt ja nicht mal bei Kaffeesatz.
Da das Design erst nach der Bekanntgabe der Spec fertiggestellt wurde kann man denke ich davon ausgehen, dass 5X definitiv im Controller mit drin ist. Ob das jemals umgesetzt wird, ist natürlich ne ganz andere Frage.
Rabiata
2016-07-05, 15:02:42
Im Umkehrschluss kann man daraus aber schließen, dass P10 sehr wohl 5X unterstützt und man damit ev. sogar Produkte plane...
...was ja auch sehr wahrscheinlich sein wird - für 'ne 570 oder 580...
570 oder 580 klingt so nach Refresh-Generation frühestens nächstes Jahr. Das könnte Zeit genug sein, den Speichercontroller für GDDR5X anzupassen, wenn er nicht schon 5X-Support hat.
Bitte nicht.
Mit der Erklaerung des Namensschemas haben sie eigentlich imho suggeriert, dass es sowas nicht mehr geben soll. Ein 480er Refresh waere damit die 485.
Thunder99
2016-07-05, 15:35:51
Finde die Meldung gerade nicht wieder aber kann gut sein dass es kein 100% Dementi war sondern nur aussagt, dass es bei der 480 bei GDDR5 bleibt
Bitte nicht.
Mit der Erklaerung des Namensschemas haben sie eigentlich imho suggeriert, dass es sowas nicht mehr geben soll. Ein 480er Refresh waere damit die 485.
Du glaubst doch nicht ernsthaft, dass die Umbennungspolitik vorbei ist oder? Natürlich werden das beide wieder auspacken, wenn die Lebenszyklen von Grafikchips wieder länger werden.
Der_Korken
2016-07-05, 16:22:07
Nur stimmt eine Rechnung nach wie vor nicht bei dir:
Klar würden 2x4 GB RAM mehr verbrauchen (fraglich ob das wirklich gravierend ist) als 1x8 GB an 256-Bit. Nur ist es definitiv die Hälfte von 16GB VRAM, der ja verbaut werden müsste um 2x 8GB Versionen mit den vollen 110 W TBP (die 4 GB und die 8 GB Versionen der RX480 und der RX470 haben die selbe TBP) darzustellen. Es gibt Berichte, wonach die 4GB Versionen etwas höher takten als die 8GB Versionen, weil sie mehr Powerbudget zur Verfügung haben, da der Speichertakt etwas reduziert ist von 4000 GHz auf 3850 GHz
Ich bin bisher immer davon ausgegangen, dass die Speichermenge eines Speicherchips nicht entscheidend ist, sondern nur der Takt und die Spannung. Eine Titan X und eine 980Ti sind im Verbrauch z.B. gleichauf, obwohl die Titan X 6GB mehr Speicher hat. Die müssten ja eigentlich total reinhauen, wenn der Unterschied zwischen 4 und 8GB bei der RX480 schon so groß wäre. Im Grunde müssen beim größeren VRAM-Chip nur doppelt so viele RAM-Zellen refreshed werden, aber im Vergleich zur Energie, die beim Weg übers PCB und im Speichercontroller der GPU verbraten werden, hätte ich das als vernachlässigbar eingeschätzt.
Die RX480 mit 4GB-Version hat, wie du schon sagst, nur 7Ghz statt 8Ghz und hat so minimal mehr Spielraum für die GPU.
N0Thing
2016-07-05, 17:12:05
Finde die Meldung gerade nicht wieder aber kann gut sein dass es kein 100% Dementi war sondern nur aussagt, dass es bei der 480 bei GDDR5 bleibt
https://www.reddit.com/r/pcmasterrace/comments/4qfy9d/i_work_at_amd_the_time_has_come_to_ama_about/d4slr17
Da ist die Aussage von AMD.
Polaris supports GDDR5. We chose GDDR5 because it is the ideal combination of bandwidth/power efficiency/cost for the market segments of the RX 400 Series. As for what GPUs might be planned in the future, I refer you to the "what we cannot discuss" section of my OP. :)
Da sich AMD als börsennotiertem Unternehmen zur Zeit nicht über die Zukunft äußern darf (so habe das verstanden, siehe Spoiler), kann er eben nichts zu zukünftigen und nicht in der Zukunft existierenden Produkten sagen.
WHAT WE CANNOT DISCUSS
AMD is a publicly-traded company in the US, and it must comply legally with certain FTC regulations. Today we are in financial quiet period. That means: "federal securities laws limited what information a company and related parties can release to the public."
So if you wanted to ask about market share, future products, market supply or availability... we legally cannot answer that. Sorry. That also means no Zen, no Vega, etc.
Complicated
2016-07-05, 19:49:52
Ich bin bisher immer davon ausgegangen, dass die Speichermenge eines Speicherchips nicht entscheidend ist, sondern nur der Takt und die Spannung. Eine Titan X und eine 980Ti sind im Verbrauch z.B. gleichauf, obwohl die Titan X 6GB mehr Speicher hat. Die müssten ja eigentlich total reinhauen, wenn der Unterschied zwischen 4 und 8GB bei der RX480 schon so groß wäre*. Ich weiss nicht auf wen du dich da beziehst, da ich schrieb:
(die 4 GB und die 8 GB Versionen der RX480 und der RX470 haben die selbe TBP) Der Unterschied IST vernachlässigbar.
*Wo steht da was davon drin in dem von mir geschriebenen?
Hör doch bitte auf mich zu zitieren um dann völlig gegensätzliches aus meinen Worten zu machen. Das habe ich jetzt zum wiederholten Male angemerkt und fühle mich langsam angetrollt. Unterlass das bitte.
Der_Korken
2016-07-05, 22:01:32
Ich weiss nicht auf wen du dich da beziehst, da ich schrieb:
Der Unterschied IST vernachlässigbar.
*Wo steht da was davon drin in dem von mir geschriebenen?
Hör doch bitte auf mich zu zitieren um dann völlig gegensätzliches aus meinen Worten zu machen. Das habe ich jetzt zum wiederholten Male angemerkt und fühle mich langsam angetrollt. Unterlass das bitte.
Und zum wiederholten Male wirfst du mir etwas vor, was ich gar nicht getan habe:
Klar würden 2x4 GB RAM mehr verbrauchen (fraglich ob das wirklich gravierend ist) als 1x8 GB an 256-Bit. Nur ist es definitiv die Hälfte von 16GB VRAM, der ja verbaut werden müsste um 2x 8GB Versionen mit den vollen 110 W TBP (die 4 GB und die 8 GB Versionen der RX480 und der RX470 haben die selbe TBP) darzustellen.
Also für mich steht da ganz klar aus deinem Munde, dass 2x4GB die Hälfte von 16GB (bzw. 2x8GB) verbrauchen würden. Das ist doch das, was ich die ganze Zeit meine:
1x8GB = 100%
2x8GB = 200%
2x4GB = 200%, eventuell minimal weniger.
Dass 4er und 8er Version die gleiche TBP haben, sagt erstmal gar nichts über irgendwelche VRAM-Verbräuche aus, sondern dass die Karten das gleiche Verbrauchen. Der GPU-Boost sorgt immer dafür, dass die Board Power ausgereizt wird.
Im Grunde ist es im Prinzip auch egal, es ging ja nur um Spekulationen zu einer möglichen RX490 als Dual P10. Dass sich unsere Diskussion mittlerweile über Seiten hinzieht, ohne dass wirklich was bei rauskommt, liegt auch an deinem kleinlichen und unkonstruktiven Diskussionsstil.
Screemer
2016-07-05, 22:09:28
Jeder Chip verbraucht vielleicht 3w maximal. Ob da jetzt 8gbit oder 4gbit Chips verbaut werden ist völlig Latte. Der ist marginal. Mal ein kleines Beispiel von ddr3 dimms:
8GB single rank ECC reg 1600 1,35V (18x 1Gx4 20nm D-Die): 3,8W
16GB dual rank ECC reg 1600 1,35V (36x 1Gx4 20nm D-Die): 4,1W
Das sind bei doppelter Chipmenge grad mal 0,3w Differenz.
Der Speichercontroller verballert vielleicht messbar weniger Leistung. Das wars aber auch schon.
Kommt mal wieder runter. Ihr schlägt ich hier wgen Nichtigkeiten fast den Schädel ein.
basix
2016-07-05, 22:13:26
Jo, es wird pro VRAM Package in etwa die selbe Speichermenge verbraucht und nicht linear pro Gigabit. Ansonsten wären heutige Grafikkarten / RAM Module ja wahnsinnige Stromschleudern. Im Umkehrschluss heisst das auch, dass z.B. 512 Bit Karten mit vielen Packages halt wirklich doppelt so viel Saft braucht wie 256 Bit, egal ob insgesamt selbe oder verdoppelte Speichermenge.
Complicated
2016-07-05, 22:20:30
Also für mich steht da ganz klar aus deinem Munde, dass 2x4GB die Hälfte von 16GB (bzw. 2x8GB) verbrauchen würden. Das ist doch das, was ich die ganze Zeit meine:
Vielleicht liest du das zitierte nochmal und findest die Stelle wo ich etwas über den Verbrauch sage. Da steht lediglich 8 GB ist die Hälfte von 16 GB. Dichte mir doch nicht immer etwas an.
Im Gegenteil du zitierst mich auch noch:
Klar würden 2x4 GB RAM mehr verbrauchen (fraglich ob das wirklich gravierend ist) als 1x8 GB an 256-Bit.
(die 4 GB und die 8 GB Versionen der RX480 und der RX470 haben die selbe TBP)
Virtual
2016-07-05, 22:41:42
Mein Gott! Was für ein Eiertanz zu uninteressanten Themen wie GDDR5X für die GTX480.
Können wir bitte zurückkommen auf Themen wie VEGA10/11 mit HBM2. Polaris ist als Spekulationsthema ausgelutscht.
Die News von heute deuten recht zuversichtlich an (meine persönliche Interpretation), eine Vega 10 mit HBM2 wird es noch im Herbst geben. Diese wird mit 4096 Shader und 500MB Speicherbandbreite (vernünftige Speku natürlich) wenigstens die GTX 1070 knacken und für hoffentlich <500 Euronen ins Rennen gehen.
Vega 10 könnte ein Verkaufrenner im Performance Segment werden, ähnlich der GTX 1070 .
Thunder99
2016-07-05, 22:48:47
1070 wäre aber zu wenig. Zwischen 70 und 80 sollte es sein.
Prozess kommt von TSMC und Takt wird zwischen 1,4-1,6GHz sein (speku von mir :freak:)
Virtual
2016-07-05, 23:16:06
1070 wäre aber zu wenig. Zwischen 70 und 80 sollte es sein.
Prozess kommt von TSMC und Takt wird zwischen 1,4-1,6GHz sein (speku von mir :freak:)
Der Takt ist zu hoch angesetzt und zeigt eher Hoffnung als realitätsnahe Einschätzung (auch wenn ich die Hoffnung teile). An der grundsätzlichen Implementation von GCN wird sich wohl wieder nichts ändern. Das limitiert den Takt ein weiteres Mal. Aber mit vielleicht könnte VEGA 10 mit z.B. 1GHz Base eine neuen Nano-Effizienz bringen, die bis auf ein paar Prozent Abstich (verglichen mit GTX1070/1080) außer der Performance in allen anderen Belangen überragend wäre. Mit dem richtigen Preis könnte man viele Käufer finden ...
Schaffe89
2016-07-05, 23:38:52
Die RX480 hat 8GB VRAM. Wozu sollte die Dualkarte mehr brauchen? Wenn AMD den Speicher gemeinsam nutzbar macht ist das ausreichend für eine RX490 die mit GP104 konkurriert. Bei 200W ist die Effizienz auch nicht so weit weg von den neuen Nvidia Karten. Sicherlich ist HBM2 eher ausgeschlossen. Es ging nur um das mögliche Potential. GDDR5X würde auch völlig ausreichen...selbst normaler GDDR5 könnte reichen bei niedriger Taktung.
AMD wird den Speicher sicherlich nicht gemeinsam nutzbar machen, genausowenig wird die Karte 200 Watt TBP haben, das ist doch alles viel zu optimistisch.
Schaut man sich die rx480 an, kann man froh sein wenn die rx470 unter 125 Watt bleibt überhaupt.
OBrian
2016-07-05, 23:47:42
Also ich denke, langfristig können sie aus P10 noch ein paar Prozent rausquetschen (ob einfach mehr Takt, GDDR5X, 40CUs oder wie auch immer), so daß jedenfalls der nächste Chip darüber nicht so nah dran sein muß.
Das würde bedeuten, wenn ein Chip mit der Shaderanzahl von Fiji kommt, wäre er schon schneller als Fiji, da sicherlich mehr Takt und ein paar Architekturverbesserungen. Das wäre aber eine händelbare Größe: 2 HBM-Stacks reichen für die Bandbreite, der Chip ist ja auch kleiner, also alles einfacher zu bauen. Sollte Fury gut ersetzen können, eine teildeaktivierte Variante schließt die Lücke nach unten (also 300 € aufwärts). Das Ding kommt dann auch auf die Server-APU. TDP dürfte sehr niedrig sein können, da Fiji->14nm, also unterhalb Nano, muß ja auch in der APU mit dicker Zen-CPU in akzeptablen Rahmen passen. Also so Richtung 100-150 W. Aber mit hochgedroschenem Takt kann man sicherlich auch 200 W oder mehr verbraten.
Ich schätze, das ist Vega 10, weil das wohl Greenland ist, also schon länger in der Planung ist. Vega 11 wurde wohl später angeleiert, deswegen die höhere Zahl. V11 soll ja auch ein größerer Chip als V10 sein.
Ist V11 einfach ein noch dickerer Chip? Oder einfach nur die Doppel-Chip-Karte? Oder - ist es evtl. ein größerer Interposer mit zwei GPU-Dies und doppelter Anzahl HBM-Stacks? Insgesamt wäre der wahrscheinlich gar nicht so viel größer als Fiji, und die GPUs wären mit dem neuen Chip-Interconnect verbunden, sicherlich besser als über PCIe. Möglicherweise wird so ein Konstrukt auch als eine GPU erkannt, d.h. kein übliches CF-Gewurstel. AMD müßte dafür eigentlich nur den Interposer neu machen, das sollte aber trivial sein. TDP wäre dann auch nicht größer als bei früheren Doppelkarten.
Navi wird dann tatsächlich eine größere Überholung der Architektur mit derartigen Effizienzgewinnen, daß sich neue Chips auch im Mittelfeld lohnen, also so eine Art Kepler->Maxwell für AMD.
Complicated
2016-07-06, 00:01:54
Schaut man sich die rx480 an, kann man froh sein wenn die rx470 unter 125 Watt bleibt überhaupt.http://www.planet3dnow.de/vbulletin/threads/425774-AMD-Radeon-RX-460-470-480-Tests-Meinungen-im-Netz-Links-in-Post-1?p=5103597&viewfull=1#post5103597
http://www.meristation.com/pc/reportaje/amd-radeon-rx-480-analisis/2134071
RX 480, 122W @ Stock.
El consumo de la gráfica jugando al 100% de capacidad ha sido de 122w en frecuencias de stock y de 134w con OC a 1330/2220, aún por debajo del TDP de 150w.
Der_Korken
2016-07-06, 00:06:02
Für AMD wäre es extrem gut, wenn sie dieses Jahr noch einen Vega-Chip auf HBM2-Basis rausbekommen. Von GP102 wird ja ebenfalls gemunkelt, dass er dieses Jahr noch kommt und wenn AMD nichts oberhalb der RX480 bieten kann, verkauft Nvidia ihre Gaming-Karten für >1000€ das Stück.
Auf der 3DC-Hauptseite wurde bereits erwähnt, dass es im 400er Namensschema nur noch Platz für eine 490 gibt. Das spräche eigentlich für eine Dual-GPU-Karte. Eventuell ist die 490 aber auch ein Salvage von V10 und der volle V10 kommt entweder erst, wenn bei einem Rebranding auf RX500 dazu oder der volle V10 wird als "Fury RX" o.ä. vermarktet, weil V11 noch zu weit weg ist oder nicht für den Gaming-Markt gedacht (ähnlich wie GP100).
Wenn man davon ausgeht, dass V10 mit 4096 SPs und gleichem Takt und IPC wie P10 daherkommt, könnte man den Performance-Gewinn auf 78% schätzen. Damit käme man nach 3DC-Index auf ~940%, also auf Augenhöhe mit der GTX1080. Würde insofern gut passen. Allerdings sollte die Effizienz deutlich steigen, sonst muss man trotz HBM ein 250W-Monster gegen einen kleinen GP104 stellen.
Schaffe89
2016-07-06, 00:20:29
http://www.planet3dnow.de/vbulletin/threads/425774-AMD-Radeon-RX-460-470-480-Tests-Meinungen-im-Netz-Links-in-Post-1?p=5103597&viewfull=1#post5103597
Die andere zwielichtige Seite die ihr im Planet3dnow Forum als Kirsche rausgesucht habt, hat den Strombedarf mittlerweile deutlich nach oben korrigiert.
Also ich weiß nicht was das immer bringt solche Kirschen zu suchen.
Wir haben in Deutschland mehrere Magazine die den Strombedarf zuverlässig messen, da brauch ich nicht anfangen italienisch zu lernen um irgendetwas zu beweisen.
Der yield ist wohl schlecht und es braucht hohe Spannungen. Warum eine rx470 so viel effizienter sein soll, leuchtet mir nicht ein.
Für die Karte könnten auch die schlechteren Chips verwendet werden.
Ich tippe auf 125 Watt Leistungsaufnahme, Dualkarte dann mit 250 Watt TDP, sofern AMD so dumm ist und eine rauszubringen, das wär ja wirklich eine Verzweiflungstat das zu machen.
Allerdings sollte die Effizienz deutlich steigen, sonst muss man trotz HBM ein 250W-Monster gegen einen kleinen GP104 stellen.
Nehmen wir mal den Fall an, man müsste den kastrierten Vega gegen eine GTX 1060 stellen, das wäre dann wohl der worst case.
Aber nachdem Polaris so geflopt ist, wundert mich ehrlichgesagt gar nix mehr.
OBrian
2016-07-06, 00:21:12
@Der_Korken: rechne einfach den prozentualen Effizienzgewinn 28->14nm und wende ihn auf Fiji an. Die Nano war super effizient, FuryX nicht so, da ist also viel Spielraum - je nachdem wo man landen will, kann man das auch.
-/\-CruNcher-/\-
2016-07-06, 00:24:02
Die andere zwielichtige Seite die ihr im Planet3dnow Forum als Kirsche rausgesucht habt, hat den Strombedarf mittlerweile deutlich nach oben korrigiert.
Also ich weiß nicht was das immer bringt solche Kirschen zu suchen.
Wir haben in Deutschland mehrere Magazine die den Strombedarf zuverlässig messen, da brauch ich nicht anfangen italienisch zu lernen.
Eh Espania por favor ;)
Sieht mir aber nach einer typischen plug messung aus oder vielleicht hat er sich auch nur die TDP werte von GPU-Z angeschaut und bezieht den gesammtverbrauch darauf ole :D
Schaffe89
2016-07-06, 00:30:48
Eh Espania por favor ;)
siento que no he visto el mismo:(
Naja, vermutlich wird AMD einfach ende des Jahres einen verbesserten Polaris Chip mit mehr Takt bringen und 4500mhz Speichertakt, der Speicher ist ja schon bald produktionsreif.
oder vieleicht hat er sich auch nur die TDP werte von GPU-Z angeschaut und bezieht den gesammtverbrauch darauf ole
Einfach eine Fehlmessung.
Virtual
2016-07-06, 00:40:30
siento que no he visto el mismo:(
Naja, vermutlich wird AMD einfach ende des Jahres einen verbesserten Polaris Chip mit mehr Takt bringen und 4500mhz Speichertakt, der Speicher ist ja schon bald produktionsreif.
Einfach eine Fehlmessung.
Wohl eher nicht!
MikePayne
2016-07-06, 01:30:24
Der yield ist wohl schlecht und es braucht hohe Spannungen. Warum eine rx470 so viel effizienter sein soll, leuchtet mir nicht ein.
Für die Karte könnten auch die schlechteren Chips verwendet werden.
Ich tippe auf 125 Watt Leistungsaufnahme, Dualkarte dann mit 250 Watt TDP, sofern AMD so dumm ist und eine rauszubringen, das wär ja wirklich eine Verzweiflungstat das zu machen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11092135#post11092135
Bin sehr zufrieden, GPU bleibt bei 1266 MHz (halbe Stunde DOOM @ FullHD + max. Einstellungen + max. AA / 8x AF) und max. 85°C.
ASIC Quality: 82.7 %
P5: 940 mV / P6: 985 mV / P7: 1040 mV (Voreinstellung: 1150 mV)
Max. GPU Power Draw: 119.8W (DOOM)
Und das ist eine billige Referenzkarte von Powercolor (und da geht noch mehr, ich habe die RX 480 erst seit gestern)... von wegen Flop!
Screemer
2016-07-06, 02:08:20
Und das ist eine billige Referenzkarte von Powercolor (und da geht noch mehr, ich habe die RX 480 erst seit gestern)... von wegen Flop!
das ist nur die gpu. für den rest der karte kommen noch mal ~50-60W dazu.
trotz dem ne schöne karte.
Schaffe89
2016-07-06, 05:39:06
Und das ist eine billige Referenzkarte von Powercolor (und da geht noch mehr, ich habe die RX 480 erst seit gestern)... von wegen Flop!
Der Flop bezieht sich ja auch auf den Auslieferungszustand und nicht irgendwelche Mods.:redface:
Man muss auch mal schauen welche Aussenwirkung die Karte an Leute hat, die mal eben wenig Ahnung haben wie hier:
bvpLTSqn9z0
Für Laien offenbar ein billiges Plastikding, die Kühler von HD7870/7950 Referenz waren damals noch wertiger.
Man kann nur hoffen dass AMD sich bei dem restlichen Lineup was besseres einfallen lässt.
Bessere Kühler vor allem dann für Vega und ne höhere Effizienz, aber die Erwartungen darauf sind extrem gering imho.
Tarkin
2016-07-06, 07:31:13
Der Flop bezieht sich ja auch auf den Auslieferungszustand und nicht irgendwelche Mods.:redface:
Man muss auch mal schauen welche Aussenwirkung die Karte an Leute hat, die mal eben wenig Ahnung haben wie hier:
http://youtu.be/bvpLTSqn9z0
Für Laien offenbar ein billiges Plastikding, die Kühler von HD7870/7950 Referenz waren damals noch wertiger.
Man kann nur hoffen dass AMD sich bei dem restlichen Lineup was besseres einfallen lässt.
Bessere Kühler vor allem dann für Vega und ne höhere Effizienz, aber die Erwartungen darauf sind extrem gering imho.
ähm... was ist das für ein VOLLIDIOT? Den Typen hält ja keiner länger als 2 Sekunden aus bitte? :crazy2:
http://cdn.niketalk.com/6/6f/6f220603_what-has-been-seen.jpeg
unglaublich... wenn das jemand "lustig" oder schlimmer noch interessant und informativ finder, sorry... der hat nicht alle Nadeln an der Tanne!!!
Argo Zero
2016-07-06, 07:32:57
Dieser "Vollidiot" verkauft sich so gut, dass er entsprechend erfolgreich auf YT ist.
Zur Zielgruppe gehörst du aber offensichtlich nicht ;)
Tarkin
2016-07-06, 07:43:48
Dieser "Vollidiot" verkauft sich so gut, dass er entsprechend erfolgreich auf YT ist.
Zur Zielgruppe gehörst du aber offensichtlich nicht ;)
in der Zielgruppe 8 bis 13 Jahre. Der Typ ist erbärmlich und peinlich. Weder ein "Experte" für Grafikkarten noch ein besonders guter "Clown". Wenn ich mich beim abkacken Filme und auf Youtube stelle, hab ich mehr Views wie der.
Sinnloser Mist ... was es für Dreck auf Youtube gibt erstaunt mich echt immer wieder aufs neue.
Das wirklich traurige an der Geschichte ist... solche Typen sind MEINUNGSMACHER. Typen wie Johnson, Farage, Strache, Petry, Wilders... selbe Richtung im Prinzip. Verallgemeinern, einfache Botschaften, keine Lösungen aber immer alles verteufeln was man selber nicht versteht.
Die Welt geht vor die Hunde! Da braucht man sich wirklich nur die top Youtuber ansehen und man weiß, welche Stunden geschlagen hat.
(Sorry für OT)
Argo Zero
2016-07-06, 07:46:22
Kann nur er beantworten, da man von extern keine Einsicht auf Statistiken hat.
Würde aber auch auf das Jungendalter 12-20 Jahre tippen.
Sapphire support ticket:
http://abload.de/img/ejeoc1yfjj7x9jkbb.png
GDDR5 bei der 490, falls es stimmt ist die entweder nicht Vega, es ist eine Vega-Variante oder Vega kommt überhaupt nicht mit HBM.
MadPenguin
2016-07-06, 08:32:39
Sapphire support ticket:
http://abload.de/img/ejeoc1yfjj7x9jkbb.png
GDDR5 bei der 490, falls es stimmt ist die entweder nicht Vega, es ist eine Vega-Variante oder Vega kommt überhaupt nicht mit HBM.
Finde es immer wieder geil, wie man an Infos kommt. Respekt!
Etwas wird bald als 490er kommen. Was haltet Ihr von P10 bei TSMC gefertigt? Höherer Takt, bessere Ausbeute.
AMD kennt GF extrem gut und scheinbar hat man es dort wieder verkackt. AMD hat also von Beginn an auch bei TSMC P10 in Auftrag gegeben?
Wär doch interessant, oder zu teuer?
Zergra
2016-07-06, 08:38:49
Finde es immer wieder geil, wie man an Infos kommt. Respekt!
Etwas wird bald als 490er kommen. Was haltet Ihr von P10 bei TSMC gefertigt? Höherer Takt, bessere Ausbeute.
AMD kennt GF extrem gut und scheinbar hat man es dort wieder verkackt. AMD hat also von Beginn an auch bei TSMC P10 in Auftrag gegeben?
Wär doch interessant, oder zu teuer?
Ich rechne eher mit einer Dual P10 Karte. Alles andere wäre bei GDDR5 nicht mehr sinnvoll.
Eine "Radeon 490" ist ein OEM-Produkt @referenz-PCB (siehe Nummer). Damit sollte das Thema auch endgültig gegessen sein, es gibt keine RX490.
Vega folgt 99%ig einem neuen Namensschema, der passt ins 4er nicht hinein.
OEM sieht das offenbar folgendermaßen aus:
Radeon 460 -> Bonaire Pro
Radeon 470 -> P11 Pro
Radeon 480 -> Tonga Pro
Radeon 490 -> P10 Pro
Elite_Warrior
2016-07-06, 09:03:47
http://geizhals.de/sapphire-radeon-rx-480-21260-00-20g-a1450841.html?hloc=at&hloc=de
(http://geizhals.de/sapphire-radeon-rx-480-21260-00-20g-a1450841.html?hloc=at&hloc=de)
Sapphire Radeon RX 480, 8GB GDDR5, HDMI, 3x DisplayPort, lite retail (21260-00-20G)
Merkwürdig, vlt. ein Fehler im Eintrag?
MartinRiggs
2016-07-06, 09:06:13
in der Zielgruppe 8 bis 13 Jahre. Der Typ ist erbärmlich und peinlich. Weder ein "Experte" für Grafikkarten noch ein besonders guter "Clown". Wenn ich mich beim abkacken Filme und auf Youtube stelle, hab ich mehr Views wie der.
Sinnloser Mist ... was es für Dreck auf Youtube gibt erstaunt mich echt immer wieder aufs neue.
Das wirklich traurige an der Geschichte ist... solche Typen sind MEINUNGSMACHER. Typen wie Johnson, Farage, Strache, Petry, Wilders... selbe Richtung im Prinzip. Verallgemeinern, einfache Botschaften, keine Lösungen aber immer alles verteufeln was man selber nicht versteht.
Die Welt geht vor die Hunde! Da braucht man sich wirklich nur die top Youtuber ansehen und man weiß, welche Stunden geschlagen hat.
(Sorry für OT)
Hehe,
da kann ich dir nur beipflichten.
Kaum zu Glauben das man sich das Gelaber von solchen Bumsbirnen freiwillig anguckt.
Zergra
2016-07-06, 09:28:37
Radeon 490 -> P10 Pro
Auf der AMD Seite ging es aber um eine RX 490 und nicht um eine Raedon 490
dildo4u
2016-07-06, 10:11:00
Hatten wird das schon?
Specs der 470.
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-470-RX-460-Spezifikationen-1200697/galerie/2601568/
Für 180€ wär die Karte echt nett,vermutlich im Bereich der neuen PS4.
Hatten wird das schon?
Alle seit dem launch bekannt und in den entsprechenden slides, steht ja auch so im Artikel.
Wenn die 490 nur OEM Krempel ist wäre das natürlich bitter. Andererseits standen die Anzeichen eh immer für Jahreswechsel oder 2017 bei Vega. NV hat freies Feld und die Titan soll sogar früher kommen als gedacht, die haben echt gas gegeben. Man kann nur hoffen, dass die OEM und kleinen Karten auch gut laufen und es sich in den Marktanteilen bald abzeichnet
dildo4u
2016-07-06, 10:24:24
Wenn die High-End AMD's dieses Jahr kommen würden wäre das doch entäuchend da dann der Nachfolger der Fury kein HBM hätte.
Nvidia's Titan könnte vermutlich mit GDDR5X kommen da die Pascal kompression scheinbar besser funzt,1060 soll ja schneller als die 480 sein und das mit einem kleineren Interface.
Thunder99
2016-07-06, 11:17:17
Zur R 490: Entweder OEM oder Dual P10
Vega wird die neue Fury Serie. Wenn Vega mit HBM2 kommt "muss" man ja auch Premium Preise zahlen. D.h. >600€ damit noch Marge übrig bleibt.
Also was P10 nicht gebacken bekommen hat in Sachen Effizienz und Verbesserungen die Wirkung zeigen schiele ich umso mehr und habe die hoffentlich berechtigte Hoffnung das Vega umso besser wird.
Auch wenn es evt nicht ganz auf 1080 Performance hinauslaufen sollte hat man immer noch den besseren Preis und sonst geringere Nebenkosten (FreeSync Monitor kosten weniger als G-Sync ^^)
N0Thing
2016-07-06, 11:41:22
Wenn die High-End AMD's dieses Jahr kommen würden wäre das doch entäuchend da dann der Nachfolger der Fury kein HBM hätte.
Nvidia's Titan könnte vermutlich mit GDDR5X kommen da die Pascal kompression scheinbar besser funzt,1060 soll ja schneller als die 480 sein und das mit einem kleineren Interface.
Gibt es für dieses Jahr noch kein HBM2? Ich dachte die Produktion sei inzwischen seit einer Weile angelaufen.
Thunder99
2016-07-06, 11:44:30
Nicht das ich wüsste. AMD hat Vega klar mit HBM2 projiziert. Jegliche Diskussion und Spekulation das auch GDDR5X kommt ist daher aus meiner Sicht unnötig.
Die Frage lautet eher kann AMD Vega mit HBM2 noch dieses Jahr bringen oder ist die Menge an Speicherchips zu gering für eine Launch
inspectah
2016-07-06, 11:49:33
Sapphire support ticket:
http://abload.de/img/ejeoc1yfjj7x9jkbb.png
GDDR5 bei der 490, falls es stimmt ist die entweder nicht Vega, es ist eine Vega-Variante oder Vega kommt überhaupt nicht mit HBM.
Tippfehler.
Genau die 480 mit 8GB im Referenz Design fehlt in der Tabelle.
Etwas wird bald als 490er kommen. Was haltet Ihr von P10 bei TSMC gefertigt? Höherer Takt, bessere Ausbeute.
AMD kennt GF extrem gut und scheinbar hat man es dort wieder verkackt. AMD hat also von Beginn an auch bei TSMC P10 in Auftrag gegeben?
Ich kann das GF Gebashe absolut nicht nachvollziehen.
AMD hat mit Polaris genau dieselben Probleme wie zuvor bei TSMC. Nvidia hat diese Probleme in dieser Auspraegung weder jetzt noch in 28nm. Ein Wechsel wuerde AMD imho rein gar nichts bringen.
MadPenguin
2016-07-06, 13:43:48
Ich kann das GF Gebashe absolut nicht nachvollziehen.
AMD hat mit Polaris genau dieselben Probleme wie zuvor bei TSMC. Nvidia hat diese Probleme in dieser Auspraegung weder jetzt noch in 28nm. Ein Wechsel wuerde AMD imho rein gar nichts bringen.
Habe von schlechten Yields gelesen und die hohe GPU Spannung ist doch ein Markenzeichen von GF, oder? Wenn es nicht so sein sollte, umso besser :)
victore99
2016-07-06, 14:00:14
Das ist ja kein GloFo-Prozess, sondern ein Samsung-Prozess.
Btw, ich glaube auch an eine RX 490 aus Polaris 10. Warum?
(ich glaube kaum, dass die vom RTG-Summit Müll erzählen. Eher kann ich mir vorstellen, dass AMD's Aussage auslegbar ist / ungenau. Man schreibt auf den Chip drauf "Polaris 10R2", schon nicht mehr P10. Die Diskussion hatten wir hier schon, nur ist die AMD-Aussage relativ schwammig. Alles was irgendwie belastbar ist, ist irgendwie mit einer einschränkenden Bedingung versehen.)
Ich tippe auf 40CUs, entweder 384-bit (verdrehte GPU) oder QDR. Gab es nicht mal ne AMD-Aussage bezgl letztem?
StefanV
2016-07-06, 14:07:55
Schlechte Yields sind doch völlig normal, bei einem taufrischem Prozess.
Es ist doch nun wirklich nicht neu, dass man gerade am Anfang mit der neuen Technologie zu kämpfen hat und das ganze dann im Laufe der Zeit deutlich besser wird...
Und das mit der hohen GPU Spannung ist eher ein AMD Problem und hat eher nix mit GF zu tun.
AMD ist hier sehr konservativ und geht hier eher auf Nummer Sicher als irgendwelche Instabilitäten durch zu geringe Spannung zu riskieren...
Sunrise
2016-07-06, 14:13:02
...Ich tippe auf 40CUs, entweder 384-bit (verdrehte GPU) oder QDR. Gab es nicht mal ne AMD-Aussage bezgl letztem?
Nein. Der Die ist viel zu klein für ein 384bit Interface, da bist du hoffnungslos Pad-limitiert.
Das wiederum schlussfolgert, dass bei nur einem 256bit GDDR5-Interface deutlich mehr Performance verpuffen würde.
Das wiederum spricht also gegen eine schnellere Polaris 10-GPU.
NUR FALLS Polaris einen GDDR5X-IMC hätte, was es mit 99%iger Wahrscheinlichkeit nicht hat, wäre da überhaupt ein Funken Realität an dieser Sache. Im Moment spricht aber alles gegen GDDR5X, weil AMD das garnicht eingeplant hatte.
@StefanV,
Sollten sie mal ändern.
Bei den CPUs das selbe... was die Teilweise ohne vcore Erhöhung an zusätzlichem Takt packen bzw. weniger benötigen für den Standardtakt ist echt nicht ohne.
Meine Perle hatte da z.B. unter 1,2v die 4Ghz gehalten mit 1,3v sogar 4,7ghz und die 290x ging mit der Standard vcore auf satte 1150mhz
Für den 0815 User ist das Undervolten nämlich nicht die Gängige Praxis. Und wenn es nur 10W sind... haben oder nicht haben.
Thunder99
2016-07-06, 15:00:40
Die Streuung war/ist aber auch sehr groß bei Hawaii. Meine GPU macht gerade so 1,1GHz mit mit Standard Offset von +25mV (ASIC 69,7%)
Evt ist das ein GCN Problem. Daher auch generell mehr Spannung auf allen Chips. Untervolten soll aber nun besser gehen bei P10 als bei Hawaii
illidan
2016-07-06, 15:03:55
Wie viel besser?
Mit geringer Taktreduktion sind bei Hawaii sehr häufig <-50mV drin, mitunter gar um die -100mV.
Thunder99
2016-07-06, 15:06:51
Wie viel besser?
Mit geringer Taktreduktion sind bei Hawaii sehr häufig <-50mV drin, mitunter gar um die -100mV.
Müsste ich mal testen. Aber auf Standard Werkstakt ist das definitiv nicht möglich. Höchstens -25mV und das auch nicht überall stabil
illidan
2016-07-06, 15:13:22
Meine 390 läuft mit 1,02Ghz bei 1,094V und das seit Längerem überall stabil und fehlerfrei. Im Idle sinds 0,805V.
Vielleicht einfach ein 290(X)er Problem, die waren ja häufig gerne etwas wackelig wegen des Speichers/Interfaces.
Dural
2016-07-06, 15:16:02
Jede gute GPU oder CPU kann man untervolten, zudem gibt es immer eine Natürliche Streuung. Das Problem bei AMD ist eher das die GPU fast immer schon am oberen Limit laufen.
Käsetoast
2016-07-06, 15:20:21
Nein. Der Die ist viel zu klein für ein 384bit Interface, da bist du hoffnungslos Pad-limitiert..
384 Bit fände ich auch von der Speicherbestückung schwierig. Dann müsste man doch direkt auf 12 GB hochgehen oder vertue ich mich da gerade? Man kann die 490 ja nicht mit 6 GB bringen, da das gegenüber der 480 ja blöd aussähe und das auch generell für die Preisklasse was zu wenig wäre. Prinzipiell bliebe dann ja nur die Verdoppelung auf 12 GB, oder? Das wäre halt auch preislich nicht unbedingt attraktiv...
Wenn da irgendein Polaris Refresh Dingen kommen soll kann man meiner Meinung nach eigentlich nur auf GDDR5X wechseln wenn der Preis nicht unnötig hoch ausfallen soll...
Thunder99
2016-07-06, 16:18:35
Meine 390 läuft mit 1,02Ghz bei 1,094V und das seit Längerem überall stabil und fehlerfrei. Im Idle sinds 0,805V.
Vielleicht einfach ein 290(X)er Problem, die waren ja häufig gerne etwas wackelig wegen des Speichers/Interfaces.
Und ich habe eine deutlich ältere Hawaii GPU welche für 1,03GHz zwischen 1,15 und 1,2V benötigt ;)
Daher vermute ich erst im Laufe der Zeit und Prozessreife ist mehr möglich
Zergra
2016-07-06, 18:11:11
Dann kommt es aber auch noch auf die Hersteller der Custom Karten an. Einige Hersteller haben meiner Erfahrung nach oft schlechtere Chips.
Thunder99
2016-07-06, 18:41:12
Welche wären das?
StefanV
2016-07-06, 20:21:02
Im Moment spricht aber alles gegen GDDR5X, weil AMD das garnicht eingeplant hatte.
Warum soll AMD das nicht eingeplant haben?!
Dass es momentan gegen GDDR5x spricht, stimme ich dir zu, allerdings schlicht aufgrund der Verfügbarkeit und der PReise...
Denn GDDR5x gibt es momentan nur von einem Hersteller und daher macht es atm gar keinen Sinn, eine Polaris basierte Karte mit 5X zu bringen.
Das ist erst dann sinnvoll, wenn es mehrere Quellen für die Chips gibt - sprich Samsung auch 5X fertigt...
Zergra
2016-07-06, 21:01:18
Welche wären das?
Gigabyte hat oft schlechtere Chips verbaut. Habe dort noch keinen guten Chip gehabt.
Rincewind
2016-07-06, 21:05:52
Warum soll AMD das nicht eingeplant haben?!
Dass es momentan gegen GDDR5x spricht, stimme ich dir zu, allerdings schlicht aufgrund der Verfügbarkeit und der PReise...
Denn GDDR5x gibt es momentan nur von einem Hersteller und daher macht es atm gar keinen Sinn, eine Polaris basierte Karte mit 5X zu bringen.
Das ist erst dann sinnvoll, wenn es mehrere Quellen für die Chips gibt - sprich Samsung auch 5X fertigt...
wer braucht denn in großen Mengen GDDR5x? Kann doch nur nVIDIA für die 1080 sein, oder? Wäre damit Micron wirklich ausgelastet?
StefanV
2016-07-06, 22:18:46
Nein, aber Micron kann jetzt nach belieben den PReis bestimmen, da es keine Mitbewerber gibt, mit denen sie mithalten müssen.
Denn so kann es durchaus sein, dass der Speicher +50% mehr kostet als 'gewöhnlicher DDR5' Speicher...
Oder sogar noch mehr.
Und wenn Micron mal irgendwie 'nen paar Kakerlaken in den Maschinen hat und daher mal kurz nicht liefern kann, hat man ein großes Problem und kann auch nicht 'mal eben' auf jemand anderen ausweichen.
OBrian
2016-07-06, 23:45:55
Es wäre jedenfalls töricht, die reine Möglichkeit, GDDR5X irgendwann mal verbauen zu können, nicht in P10 eingebaut zu haben. Der Chip wird sicherlich genau wie Pitcairn 4 Jahre halten müssen, wird also 1-2 mal refresht (sinkt dann ja auch zunehmend in untere Regionen ab, wo eh kein neuer Chip her muß, wenn es nicht massive Verbesserungen gibt, sprich Shrink).
Wenn Nvidia so viel GDDR5X abnimmt, daß die Produktion irgendwann niedrigere Preise ermöglicht, dann könnte AMD auch mal eben schnell eine schnellere P10-Variante bringen, z.B. in 1-2 Jahren, und evtl. dafür eine teurer herzustellende Karte darüber wegfallen lassen.
Andererseits wäre es interessant für AMD, die GDDR5X-Preise erstmal hochzuhalten, denn solange nur Nvidia das Zeug benutzt, geht der hohe Preis auf deren Margen, was auch ihre Fähigkeit zu Preiskämpfen einschränkt. Kann also sein, daß man daher auf eine Karte mit GDDR5X verzichtet und sich einfach anguckt, wie Nvidia in eine ähnlich teure Abhängigkeitsfalle latscht wie damals Intel mit Rambus. Immerhin ist man mit HBM in einer ähnlichen Situation, da wartet ja Nvidia erstmal ab, wie AMD den Markt bereitet.
Jedenfalls wäre es sehr gut, sich einfach erstmal die Möglichkeit offenzuhalten, so oder so zu verfahren.
Darf ich übrigens mal anmerken, daß ich das sehr entspannend finde, daß dieser Thread nicht gleich 37 neue Seiten dazubekommen hat, wenn man einen Tag später wieder reinschaut? ;)
Sunrise
2016-07-06, 23:55:40
GDDR5X wäre ohne Frage auch für P10 sinnvoll (1,35v vs. 1,50v und der höhere Durchsatz) und würden somit P10 deutlich aufpumpen. Allerdings wäre das Ding dann wahrscheinlich zu teuer und müsste sich bei deutlich über $300 mit einer GTX1070 messen, das kann nicht gewünscht sein, denn P10 hat nicht die Rohpower dafür.
Der einzige Chip, bei dem es wirklich grundlegend Sinn ergibt ist Vega. Denn will AMD Vega auch im preissensitiveren Gaming-Markt verkaufen, ist HBM keine gute Lösung. Andererseits - sollte NV GP102 bei $999 und $1399 US positionieren - hat AMD hier dann doch wieder etwas mehr Preisspielraum.
GDDR5X mag mit einer neuen Revision von einem P10-Nachfolger kommen. Aber sicher nicht jetzt, denn AMD will Marktanteile mit niedrigem Preis, die Leistung ist nicht Top-Priorität aktuell.
AMD kann genauso wie gegen Intel nicht bestehen, wenn sie weniger liefern als die Konkurrenz und dann die Preise ähnlich hoch wären. So funktioniert das nicht.
Rincewind
2016-07-07, 00:38:49
Nein, aber Micron kann jetzt nach belieben den PReis bestimmen, da es keine Mitbewerber gibt, mit denen sie mithalten müssen.
Denn so kann es durchaus sein, dass der Speicher +50% mehr kostet als 'gewöhnlicher DDR5' Speicher...
Oder sogar noch mehr.
Und wenn Micron mal irgendwie 'nen paar Kakerlaken in den Maschinen hat und daher mal kurz nicht liefern kann, hat man ein großes Problem und kann auch nicht 'mal eben' auf jemand anderen ausweichen.
natürlich nutzt man das aus und Ati gibt diesen höheren Preis an die Kunden weiter. Wird ja mit der Zeit günstiger...
StefanV
2016-07-07, 02:35:28
GDDR5X wäre ohne Frage auch für P10 sinnvoll (1,35v vs. 1,50v und der höhere Durchsatz) und würden somit P10 deutlich aufpumpen. Allerdings wäre das Ding dann wahrscheinlich zu teuer und müsste sich bei deutlich über $300 mit einer GTX1070 messen, das kann nicht gewünscht sein, denn P10 hat nicht die Rohpower dafür.
Geanau das ist der Punkt.
Das ist schlicht zu teuer, eben weil es momentan nur einen HErsteller dafür gibt. Und der kann dann auch agieren, wie ihm beliebt...
Also keine gute Situation, insbesondere für eine Mid Range Karte wäre es ziemlich bescheuert .aus eben genau diesen Gründen..
Der einzige Chip, bei dem es wirklich grundlegend Sinn ergibt ist Vega. Denn will AMD Vega auch im preissensitiveren Gaming-Markt verkaufen, ist HBM keine gute Lösung. Andererseits - sollte NV GP102 bei $999 und $1399 US positionieren - hat AMD hier dann doch wieder etwas mehr Preisspielraum.
V10?
Nee, der soll ja auch noch mit dem 8 Core Zen auf 'nen MCM Package als HPC APU dienen...
Und HBM mit zusätzlichem GDDR Interface schließt sich ja leider auch aus...
Von daher wäre das wohl äußerst unwahrscheinlichst...
GDDR5X mag mit einer neuen Revision von einem P10-Nachfolger kommen. Aber sicher nicht jetzt, denn AMD will Marktanteile mit niedrigem Preis, die Leistung ist nicht Top-Priorität aktuell.
Das is ja auch, was der AMD Typ gesagt hat, dass DDR5 preiswerter ist und für Polaris daher am besten geeignet ist...
Und eben auch meine Meinung, dass GDDR5x mit Polaris kommt, wenn der PReis mit GDDR5 vergleichbar ist und es keine größeren Unterschiede mehr gibt. Und wenn es natürlich deutlich flottere Speicher gibt...
Hübie
2016-07-07, 03:44:46
Ich kann mir auch ein T-Shirt damit drucken und durch die Stadt laufen: Das Interface von Polaris kann kein GDDR5X anbinden. Es kommt vielleicht mit einem Refresh, aber auf P10 wird es nicht der Fall sein.
Hintergrund ist einfach, dass GDDR5X in enger Zusammenarbeit mit NVIDIA enstanden ist. Die Idee kam vor ~2 Jahren von Micron und dann ging es holterdiepolter zum Endprodukt.
Undertaker
2016-07-07, 08:37:43
Nein, aber Micron kann jetzt nach belieben den PReis bestimmen, da es keine Mitbewerber gibt, mit denen sie mithalten müssen.
Denn so kann es durchaus sein, dass der Speicher +50% mehr kostet als 'gewöhnlicher DDR5' Speicher...
Oder sogar noch mehr.
Unwahrscheinlich. GDDR5X hat sehr wohl Konkurrenz, zwar nicht in Form vergleichbarer GDDR5-Chips, aber in Form eines breiteren SI. Statt 256 Bit und 10 Gbps GDDR5X könnte ein Hersteller auch auf 320 Bit und 8 Gbps gehen, was jetzt auch nicht Unsummen mehr kostet. GDDR5X würde sich durch zu hohe Preise also selbst überflüssig machen, auch weil der Verbrauchsvorteil wohl eher bescheiden ausfällt (vgl. GTX 1070 und 1080).
Wenn das mit der Kostenreduktion bei 7nm GloFo stimmt, dann wird der 14nm Prozess wohl nicht nochmal so ausgelutscht werden wie 28nm. Dass P10 ein weiterer Pitcairn wird halte ich für eher unwahrscheinlich, erst recht wenn Navi tatsächlich voll skalierbar ist.
Sunrise
2016-07-07, 09:04:41
Unwahrscheinlich. GDDR5X hat sehr wohl Konkurrenz, zwar nicht in Form vergleichbarer GDDR5-Chips, aber in Form eines breiteren SI. Statt 256 Bit und 10 Gbps GDDR5X könnte ein Hersteller auch auf 320 Bit und 8 Gbps gehen, was jetzt auch nicht Unsummen mehr kostet. GDDR5X würde sich durch zu hohe Preise also selbst überflüssig machen, auch weil der Verbrauchsvorteil wohl eher bescheiden ausfällt (vgl. GTX 1070 und 1080).
Das ist zu einfach gedacht, denn ein breiteres SI ist oft keine Option, daher bietet GDDR5X entscheidende Vorteile die du so nicht ersetzen kannst.
Micron fertigt aktuell praktisch exklusiv für NV und NV wird ziemlich sicher alles abnehmen, was Micron fertigen kann. Micron fertigt die Dinger auf ihren modernsten 20nm-Produktionslinien und die Module selbst kommen mit 1,35v statt 1,5v aus und du hast einen entscheidenden Bandbreiten-Vorteil und zusätzlich bist du bei einem breiteren Interface immer in gewissem Maße Pad-limitiert und genau dieses Problem entschärft GDDR5X zusätzlich. Ein hoher Preisaufschlag ist hier auf jedenfall gerechtfertigt.
Selbst wenn NV 100% mehr bezahlt, lohnt es sich für sie. Der Anteil des Speichers an der Gesamt-BOM ist bei den NV-Preisen nicht der Rede wert.
Undertaker
2016-07-07, 09:42:56
Das ist zu einfach gedacht, denn ein breiteres SI ist oft keine Option, daher bietet GDDR5X entscheidende Vorteile die du so nicht ersetzen kannst.
Weil?
Eine RX 480 leistet sich auch ein 33 % breiteres SI als eine GTX 1060 trotz niedrigerer Preisklasse. Da würden bei 256 -> 320 Bit (+25 Prozent) die Kosten keineswegs explodieren. Ein maßlos überteuerter GDDR5X ist eben nicht so alternativlos, dass er dennoch Abnehmer fände.
AMD/NV Quervergleiche diesbezüglich sind nicht aussagekräftig mMn. Die RX480 bietet ja auch sehr viel mehr Rechenleistung als GP106 und P10 hat sogar eine höhere DP-Leistung als Tahiti.
Fliwatut
2016-07-07, 10:16:36
Ein breiteres SI muss aber auch ausgelastet werden können und schluckt viel Strom, wimre.
Locuza
2016-07-07, 10:51:20
und P10 hat sogar eine höhere DP-Leistung als Tahiti.
Hat er nicht.
Die DP-Rate liegt bei 1/16 vs. 1/4 bei Tahiti.
Undertaker
2016-07-07, 11:09:16
Ein breiteres SI muss aber auch ausgelastet werden können und schluckt viel Strom, wimre.
Auf aktuellen Karten hat GDDR5X (10 Gbps) auch nur 25 Prozent mehr Bandbreite als GDDR5 (max. 8 Gbps). Wir haben in gleichen Preis- und Leistungsklassen auch schon GPUs mit 100 Prozent Differenz bei der Breite des SI gesehen...
Um das zum Ende zu führen: Technisch/energetisch hat GDDR5X auch heute schon zweifellos Vorteile ggü. einem etwas breiteren GDDR5-Interface. Aber so lange der Taktunterschied noch so klein ist, ist das kein KO-Kriterium, um GDDR5X gewissermaßen alternativlos zu machen.
Edit: Bestes Beispiel: GP106 mit 192 Bit GDDR5 statt 128 Bit GDDR5X (ja, hätte etwas weniger Bandbreite, aber im Vergleich zu GP104 aber auch genug). Dort ist man also genau den von mir beschriebenen Weg gegangen. Insofern sehe ich auch für Vega Alternativen zu GDDR5X.
Unicous
2016-07-07, 11:10:09
GDDR5X würde sich durch zu hohe Preise also selbst überflüssig machen, auch weil der Verbrauchsvorteil wohl eher bescheiden ausfällt (vgl. GTX 1070 und 1080).
Vorteile bei der Leistungsaufnahme gegenüber GDDR5 würde ich im einstelligen Bereich ansiedeln solange die Fertigung die gleiche ist. Gibt es Angaben mit welcher Spannung die Samsung Chips bei der 1070/Rx 480 gefahren werden?
Habe nichts Konkretes gefunden.
MikePayne
2016-07-07, 11:15:11
*hier stand mist*
bitte löschen
Fliwatut
2016-07-07, 11:16:39
Insofern sehe ich auch für Vega Alternativen zu GDDR5X.
Sollte Vega nicht mit HBM2 kommen?
Agent117
2016-07-07, 11:18:09
Vorteile bei der Leistungsaufnahme gegenüber GDDR5 würde ich im einstelligen Bereich ansiedeln solange die Fertigung die gleiche ist.
Du beziehst dich vermutlich auf die RX 480 mit ca. 160W und eine effektiv gleiche Taktrate?
Ich würde schon sagen dass es 10-15% sind wenn man den geringeren Verbrauch der PHY im MC mit einrechnet.
Unicous
2016-07-07, 11:19:04
Das glaube ich eher nicht, die Chips sind laut Samsung für eine Range von
1.305 to 1.597
http://www.samsung.com/semiconductor/products/dram/graphic-dram/gddr5-component/K4G80325FB?ia=759
spezifiziert. Ist das nicht eher das Speicherinterface?
@Agent117
Warum sollte ich das MC mit einbeziehen? Das verfälscht doch alles. Es ging mir erst einmal nur um die Chips.
Agent117
2016-07-07, 11:20:09
Sollte Vega nicht mit HBM2 kommen?
Vega 10 mit HBM2 ist sicher. Vega 11 wird sofern er größer als Vega 10 ist auch HBM haben. Nur weiß man über Vega 11 noch nichts und dass er wirklich existiert scheint mir auch nicht 100%ig bestätigt.
Screemer
2016-07-07, 11:21:41
Falls das weiterhilft: Speicherspannung bei der RX 480 ist per default 1V.
nein ist sie nicht. das ist die spannung vom speichercontroller. die speicherspannung kann man nicht beeinflussen. das steht zwar so in den meisten reviews. der ram macht aber sicher keine 2ghz bei 1v. da sind die meisten wohl einem irrglauben aufgesessen.
@Unicous: laut samsung sind die mit 1,5v bei 2ghz angegeben (K4G80325FB-HC25 (http://www.samsung.com/semiconductor/global/file/insight/2015/08/PSG2014_2H_FINAL-1.pdf)). die angabe ist allerdings älter als die von dir schon verlinkte spec-seite von samsung.
es gibt im übrigen viele die sagen, dass die performance der karte mit speicher oc sinkt. entweder werden bei 2250MHz die Timings gelockert oder die fehlerrate steigt massiv an.
Agent117
2016-07-07, 11:27:17
Warum sollte ich das MC mit einbeziehen? Das verfälscht doch alles. Es ging mir erst einmal nur um die Chips.
Ok, ich hatte das nur zusammen betrachtet weil ja bei GDR5X vergliechen mit GDR5 der Übertragungstakt zwischen MC und Speicherchip dank Quad Data Rate nur halb so hoch ist bei gleichen effektiven Takt. Da verbraucht der MC dann auch noch mal weniger Strom durch den niedrigeren Takt.
Hier sieht man grob das Verhältnis zwischen Verbrauch von Speicherchips und MC.
http://imgur.com/l29o6zV
Unicous
2016-07-07, 11:32:17
@Screemer
Aaah, danke für den Produktkatalog, den hatte ich auf die Schnelle nicht gefunden.
Das hatte ich mir schon gedacht konnte es aber nicht finden. Das würde also bedeuten, dass es allein schon bei der Spannung einen Unterschied gibt, da GDDR5X für 1.35V spezifiziert ist, afaik.
Ich würde schätzen, dass die Samsung Chips also weiterhin unter einem älteren Prozess gefertigt werden und dadurch schon eine höhere Leistungsaufnahme zu verzeichnen ist.
Agent117
2016-07-07, 11:38:59
Ich würde schätzen, dass die Samsung Chips also weiterhin unter einem älteren Prozess gefertigt werden und dadurch schon eine höhere Leistungsaufnahme zu verzeichnen ist.
Nein, daran liegt das nicht. GDR5X Chips haben doch einen verdoppelten Prefetch und mit der Quad Data Rate zum MC takten sie dann bei effektiv gleichen Takt nur halb so hoch wie GDR5. Für weniger Takt braucht es dann nur weniger Spannung. Hier noch was zu GDR5X:
http://monitorinsider.com/GDDR5X.html
Unicous
2016-07-07, 11:46:26
Das ist mir klar, dennoch könnte man den GDDR5 auch auf 1,35V senken. Irgendwie reden wir aneinander vorbei.
Agent117
2016-07-07, 12:26:37
Warum? Laut dem von Screemer verlinkten pdf sind doch für 8Ghz 1,5V nötig und bei nur 1,35V reicht es nur bis 7Ghz. Oder habe ich was falsch verstanden und du meinst was anderes?
Der Chip müsste doch bei effektiven 8Ghz mit 500Mhz takten. Ein GDR5X Chip wird 500Mhz Takt auch nicht mehr mit nur 1,35V schaffen.
GDR5X ist aber wohl erstmal nur bis 14GT/s spezifiziert bei 1,35V. Das passt ja auch zu den 1,35V beim Samsung Speicher aus dem pdf bei 7GT/s.
Könnte also sogar die gleiche Fertigung sein aber da habe ich nichts gefunden.
Sunrise
2016-07-07, 13:25:17
Weil?
Die Begründung für dein "Weil?" kann mehrere Ursachen haben.
Du siehst doch, dass NV bei GP106 nichtmehr auf GDDR5X setzt und siehst auch, dass GP104 gerademal um die 300m² hat. Ein 384bit SI bei dieser Diegröße scheint bei GP104 eben laut Planung nicht möglich gewesen zu sein, denn für die geplante Ziel-Leistung die NV wollte brauchst du genug Durchsatz, damit der Chip nicht verhungert. Ansonsten hätte NV GDDR5X auch nicht verbaut.
Also was machst du? Du entscheidest dich dafür, genau wie bei GK104 deinen Die nicht unnötig aufzublasen und investierst in Einheiten, in hohen Takt des Chips selbst und hohe Summen in GDDR5X, weil GDDR5X auch die Nachfolgegeneration (Volta) problemlos (wenn die Entwicklung so weitergeht) bedienen kann. Die komplette IMC- und GDDR5X R&D geht auch wieder in Volta auf.
Pascal war ein Zwischenschieber für Volta, du erinnerst dich.
Wenn du zudem dann auch noch Strom sparst (auch wenn nur geringfügig, das ist ein Bonus), wieso sollte man es nicht tun? Das lässt dir eben die Freiheit, die AMD bei HBM hätte, nur mit der Einschränkung dass HBM bei AMD dann gleich immens teurer werden wird. GP102 soll auch nicht umsonst ebenso auf GDDR5X setzen, dort hast du dann auch dein breiteres Interface. Pascal ist von der Relation ähnlich wie Maxwell (GM204 und GM200), es wurde "lediglich" alles nochmal deutlich beschleunigt und gleichzeitig spart man an Diegröße und Stromverbrauch und investiert diese wieder voll in Leistung.
Um die Preise braucht sich NV bei den GDDR5X-Produkten überhaupt keine Gedanken zu machen, weil AMD nicht Schritt halten kann. Nur da, wo es wirklich auf das letzte Quentchen BOM und Materialeinsatz ankommt, wird NV noch GDDR5 verwenden, ansonsten ist das für NV kein Thema mehr.
Wenn Vega auch nur annähernd so schnell als GP102 werden soll, dann muss AMD aus allen Rohren feuern und billig wird Vega für AMD nicht werden. Man kann sich in etwa ausrechnen, wieviel AMD zulegen muss, um überhaupt (ohne den Stromverbrauch zu berücksichtigen) da in die Nähe kommen zu können.
MadPenguin
2016-07-07, 14:31:36
forums.overclockers.co.uk/showpost.php?p=29723575&postcount=156
Scheint ne nette Karte zu werden :)
Screemer
2016-07-07, 14:54:14
249£ sind knapp 290€. Da bin ich mal gespannt was die 1060 kostet und leistet.
Wenn Vega auch nur annähernd so schnell als GP102 werden soll, dann muss AMD aus allen Rohren feuern und billig wird Vega für AMD nicht werden. Man kann sich in etwa ausrechnen, wieviel AMD zulegen muss, um überhaupt (ohne den Stromverbrauch zu berücksichtigen) da in die Nähe kommen zu können.Mit Vega meinst du Vega 11 VS GP 102; Vega 10 hat ja als Gegenspieler GP 104.
kuj0n
2016-07-07, 18:59:22
Hat jemand schon genauere Infos wann die RX 470 kommt? Oder Specs, außer dem was schon bekannt ist?
Disco_STFU
2016-07-07, 19:35:34
Irgendwie befürchte ich für Vega ein ähnliches Fiasko wie bei Fury... Mit Ach und Krach vlt die Leistung der Konkurrenz bei wesentlich höherem Verbrauch...
Wenn es so wie bei Fiji waere waere es ja noch okay ;p
Fury V X ~ 1080 Ti
Fury V ~ 1080
Nano V ~ 1070
Aber selbst das muss erstmal klappen.
Mit dem Polaris Lauch im Nachhinein betrachtet und sehend, wie Nvidia die neuen Chips nacheinander raushaut, kann ich mir sogar wirklich vorstellen, dass es nur einen Vega gibt. Fuer HPC und Gaming, Konkurrenz fuer GP100 und GP104 in den entsprechenden Maerkten.
Damit ueberliessen sie halt Nvidia den Markt fuer Gaming Enthusiasten komplett mit GP102...
Zuvor habe ich daran nicht geglaubt, inzwischen erscheint mir das halbwegs schluessig
Ich denke mal wir können schon froh sein wenn Vega 10 unter 220 Watt bleibt und von der Performance her sich zwischen 1070(150 Watt)-1080(180 Watt) befindet.
Nightspider
2016-07-07, 20:21:42
Kurze Zwischenfrage: Hieß es nicht mal auch das HBM etwas bessere Latenzen hätte als GDDR5?
Wäre es möglich das Vega hier noch etwas größere Vorteile aus HBM zieht als Fiji? (Von der Bandbreite abgesehen)
Falls Vega wirklich nur mit 2 HBM2 Stacks und "nur" 512GB/s kommt wäre das schon schade.
Mit 4 Stacks à 4GB (=16GB) hätte Vega ordentliche 1024GB/s. Damit wäre man jedes Bandbreitenlimit los.
Mit "nur" 512GB/s und rund doppelter RX480 Leistung wäre man doch schon wieder in manchen Games durch die Bandbreite limitiert. (Fallout4)
Nur brauchen 4 Stacks eben auch mehr Platz.
Gibts überhaupt Infos welche aktuellen Interposer-Größen hergestellt werden können?
Wären theoretisch 3 Stacks möglich? (=756GB/s )
Dann könnte man ordentlich Platz sparen wenn man die Stacks auf einer Seite enger packt.
Achtung professionelles Paintbild:
https://abload.de/img/hbm20nk48.png
Wenn Vega mit 4096 CUs kommt wären das weniger als 100% Zuwachs von P10 allerdings würde man mit besserer Architektur und höheren Taktraten schon etwa doppelte Rechenleistung erreichen, mit Glück sogar etwas mehr.
Dank Vegas besserer Effizienz (laut AMD) und TSMC Fertigung (Gerücht aber sehr wahrscheinlich) könnte man die Taktraten sicherlich steigern auf 1,3-1,4Ghz und trotzdem unter bei 250W bleiben, nicht zuletzt dank stromsparendem HBM2.
Ebenfalls schätze ich das Vega mehr ACEs bekommen wird als Polaris. GCN5.0 dürfte ja auch ein paar Verbesserungen besitzen.
(Vielleicht hat Vega nochmals bessere De-und Encoder sowie nochmals bessere Delta Color Compression und noch ein paar zukünftige Vulkan Level Features [also über den DX12 Standard hinaus])
Conclusion:
Wenn ich mir bei Computerbase den RX480 Test anschaue erreicht eine RX480 meist 60% der Leistung einer GTX1080.
Falls nun also Vega doppelte Rechenleistung hat und dank schnellem HBM2 nicht mehr bandbreitenlimitiert wäre, würde Vega definitiv schneller sein als eine GTX1080.
Zu GP102 würde ich dann ein ähnliches Verhältnis erwarten wie damals zwischen 290X und 780ti. Das ist aber nur meine Spekulation.
Screemer
2016-07-07, 20:48:08
6gb Fury x confirmed. Will be released with half Life 3.
Wenn man die stacks dreht, dann gehen 4 auf eine Seite, wenn man sie direkt nebeneinander legt. Ne im Ernst ich denke, dass der interposer nicht grad viele lagen hat und die ganzen vias der stacks müssen ja irgendwo platz finden. Da wird die Breite eines stacks nicht reichen und ein Teil läuft an den Seiten Weg. Wieviele Pads hat denn ein hbm-stack? Dazu kommt noch, dass untern die Wege zum memcontroller für die Hälfte des Chips größer werden und das kann net wirklich gut sein.
Die absoluten Latenzen sind laut Gipsel bei DRAM quasi unabhaengig vom Interface gleich. Bei dem langsam taktenden HBM hat man natuerlich relativ gesehen entsprechend niedrigere Latenzen, die aber absolut (in ns) wieder gleich gross sind wie bei GDDR5.
Es war aber wohl bei Tahiti und Hawaii schon so, dass schaerfere Timings (durch BIOS Mods) doch einiges ausmachen koennen, bei Polaris scheint das gleich zu sein. Vielleicht war AMD da eher konservativ und tunt doch noch ein bisschen in die Richtung.
Fiji hat ja auch aussergewoehnlich gewonnen, wenn man den Speichertakt angehoben hat, wobei nicht ganz klar ist, was alles an der Domaene hing. Es bleibt interessant, was sich dahingehend tut.
Ich denke es hat schon seinen Sinn, warum man die Stacks so verteilt hat und Nvidia hat das im uebrigen ja genauso gemacht.
http://www.3dcenter.org/dateien/abbildungen/AMD-Fiji-Die-Shot.jpg
Man kann vielleicht nicht alle MCs auf eine Seite packen, das ist ja intern auch alles eng verschaltet. Ich kann mir vorstellen, dass es Probleme gibt, wenn die Wege dann so weit und vor allem unausgeglichen werden.
An mehr ACEs glaube ich nicht. Bridgman (HPC Stack Architekt) hat sich mal so geaeussert, dass 64 Queues fast schon overkill sind und sehr uebrig reichen, selbst fuer die 64 CUs von Fiji.
Nightspider
2016-07-07, 21:26:09
Bei HBM2 wird es halt noch ein wenig enger, weil HBM2 Chips von der Fläche größer sind als HBM1:
https://www.extremetech.com/wp-content/uploads/2016/04/HBM2.jpg
Zumindest dürfte Vega immerhin 100-150mm² kleiner werden als Fiji damals. 4 Chips würden als schon noch auf einen gleich großen Interposer passen.
2 Stacks wären eben nur günstiger in der Herstellung, weil der Silizium Interposer kleiner wird.
Für Enthusiasten wären natürlich volle 1024GB/s richtig nice to have.
Theoretisch könnte AMD die Caches auch wieder etwas schrumpfen mit einer so hohen Bandbreite. Diese sind bei Polaris zum Teil ja auch so groß um die geringe Speicherbandbreite zu kompensieren.
Wäre halt mal interessant zu wissen ob Fiji irgendwo die CMD und Single Bank Refresh-Vorteile nutzt.
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/hbm-forcast-2.jpg
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/hbm-forcast-3.jpg[/IMG]
Rabiata
2016-07-07, 21:40:06
Wenn Vega mit 4096 CUs kommt wären das weniger als 100% Zuwachs von P10
Das wäre effektiv eine Neuauflage der Fury, nur geshrinkt und (hoffentlich) mit ein paar Architekturverbesserungen. Davon ausgehend glaube ich nicht, daß AMD mehr als die 512 GB/s der Fury als Speicherdurchsatz anstrebt. Was sich mit zwei statt vier HBM2-Stacks machen läßt, da HBM2 den doppelten Speicherdurchsatz pro Stack bietet. Paßt dann auch mit 8 GB in 2 Stacks als GTX 1080-Konkurrenz
Nightspider
2016-07-07, 21:47:00
Im Moment würde ich auch sagen das dies das wahrscheinlichste Szenario wäre - leider.
Damit wäre man immer noch öfters im Speicherbandbreitenlimit.
Memory OC bringt bei der 480 ja auch schon viel.
Screemer
2016-07-07, 21:54:25
ich dachte man weiß immer noch nicht, was da bei fiji alles wie getaktet wird.
Was mich dabei immer stutzig macht, ist dass Hawaii als HPC Flaggschiff Abloese braucht.
8 oder 16 GiB, wenn irgendwann mal 8Hi Stacks verfuegbar sind, sind da zu wenig
Ravenhearth
2016-07-07, 21:55:59
Vega11?
Nightspider
2016-07-07, 21:58:59
Was mich dabei immer stutzig macht, ist dass Hawaii als HPC Flaggschiff Abloese braucht.
8 oder 16 GiB, wenn irgendwann mal 8Hi Stacks verfuegbar sind, sind da zu wenig
8GB? Definitiv aber 32GB waren doch mit 4 Stacks (8Hi) möglich.
http://images.anandtech.com/doci/9969/sk_hynix_hbm2_implementations_575px.png
Man könnte doch sicherlich für Gamer ein kleineren Interposer mit 2 Stacks verwenden und bei der HPC Variante einfach einen größeren Interposer mit 4 Stacks oder?
Dann wäre bei der Gaming Variante zwar 50% PHY ungenutzt aber da diese bei HBM eh nicht so groß sind wäre das ja egal.
Mir war eben auch so das mit HBM auch "ungerade" SI möglich waren, also zB. 3 HBM Chips.
reaperrr
2016-07-07, 22:13:33
Im Moment würde ich auch sagen das dies das wahrscheinlichste Szenario wäre - leider.
Damit wäre man immer noch öfters im Speicherbandbreitenlimit.
Memory OC bringt bei der 480 ja auch schon viel.
Ich denke/befürchte, dass das schnellste V10-Modell, wenn er wirklich nur 64 CUs hat, eh nur ca. 80-85% mehr Rohleistung haben wird (höhere Taktraten als die 480 wird er wohl kaum fahren, eher ein paar Mhz weniger), von daher wären doppelter L2-Cache + 100% mehr Bandbreite wohl ausreichend, um zumindest weniger ins Bandbreiten-Limit zu laufen als die 480 und auch die GTX 1080.
Bleibt trotzdem zu hoffen, dass Vega gegenüber Polaris architekturell mehr Verbesserungen als nur HBM2-Support bietet, sonst wird es selbst mit HBM2 knapp gegen die 1080.
Botcruscher
2016-07-07, 22:33:20
Einfach mal Zeppelin beachten. Der kommt ganz sicher mit 2 HBM Stapeln. So viel Möglichkeiten bleiben da nicht mehr. AMD braucht vor allem massiv mehr Takt. Die nächste Frage ist ob und wie deutlich sie es schaffen den Chip unter 400mm² zu quetschen.
Polaris ist nun nicht gerade der Nabel des Fortschritts.
Ravenhearth
2016-07-07, 22:49:54
Wenn man davon ausgeht, dass sich mit Vega an der Architektur nicht grundlegend etwas ändert und auch die Taktraten nicht über 1,3 GHz steigen, wird Vega10 ggü. Polaris10 grob 80% drauflegen. Das könnte mit Ach und Krach für einen Gleichstand zur GTX 1080 reichen. Dafür bräuchte AMD dann aber wahrscheinlich ~400mm² sowie HBM mit 512 GB/s. Selbst mit etwas besserer Energieeffizienz des Chips und HBM läge man bei mindestens 250W. Lediglich eine Nano könnte eine zur GTX 1070 vergleichbare Performance und Effizienz liefern. Alles natürlich Speku.
AMDs Problem scheint halt zu sein, dass man die Rohleistung der Karten nicht auf die Straße bekommt. Die RX 480 hat deutlich mehr Rohleistung und Speicherbandbreite als die GTX 1060 und wird trotzdem langsamer sein. Würden die AMD-Karten so performen wie man es anhand der Rohdaten im Vergleich mit Nvidia erwarten könnte, wäre die RX 480 bestimmt 20% schneller als eine GTX 980 und nur 10% langsamer als eine GTX 1070, dann wäre die Effizienz auch ok. Das gleiche mit Vega10: Mit Spieleleistung auf GP102-Salvage-Niveau stünde der gut dar.
HBM-Latenzen sind natürlich niedriger, weil der Weg deutlich kleiner ist, ist doch logisch.
Beim P10 stimmt sowieso noch was nicht, der bekommt ja trotz stark verbesserter Tesselation usw. die Rohleistung ggü. Hawaii nicht umgesetzt. Und das liegt definitiv nicht an der Bandbreite, denn die ist kaum geringer als beim Ur-Hawaii, hat 4x soviel L2-Cache und Pascal-like-Deltakompression.
Achim_Anders
2016-07-07, 22:57:54
Kann man einem Laien erklären, warum sie bei so viel Rohleistung so `wenig` Gamingperformance herausbekommen?
Zumal ja auch die 390x schneller ist unter FullHD, obwohl die Rohleistung ähnlich ist... Speicherbandbreite ist natürlich geringer, weswegen der Abfall in höheren Auflösungen verständlich ist. Aber warum weniger in FULLHD?
illidan
2016-07-07, 22:58:19
Wenn Vega kein signifikantes Architektur-Update wird, wird der Grafik-Markt sich endgültig der Situation CPUs AMD vs. Intel annähern.
Große, ineffiziente Chips mit viel Preisnachlass, um sich noch irgendwie am Markt halten zu können...
Nightspider
2016-07-07, 23:12:06
Laut Grafik soll die Effizienz von Vega doch nochmal (glaube hier maß jemand) 40% über Polaris liegen.
Mit HBM spart man nochmal einige Watt.
Ich würde noch nicht zu schwarz malen. Deswegen halte ich RX480+100% immer noch für möglich.
Und wenn eine GTX1060 die halbe 1080 Leistung hat sehe ich sie nicht vor der RX480 sondern knapp dahinter.
HBM-Latenzen sind natürlich niedriger, weil der Weg deutlich kleiner ist, ist doch logisch.
Beim P10 stimmt sowieso noch was nicht, der bekommt ja trotz stark verbesserter Tesselation usw. die Rohleistung ggü. Hawaii nicht umgesetzt. Und das liegt definitiv nicht an der Bandbreite, denn die ist kaum geringer als beim Ur-Hawaii, hat 4x soviel L2-Cache und Pascal-like-Deltakompression.
Das Signal legt in der Leitung pro ns etwa 20 cm zurueck. Das interessiert dann wohl kaum noch, wenn der DRAM so viele Zyklen Latenz hat, dass er um die 15 ns pro Anforderung braucht.
Die 480 hat auch nur halb so viele ROPs wie Hawaii und die 25% die Hawaii mehr an Bandbreite hat sind nicht wegzudiskutieren, Komprimierung hin oder her. Hawaii hat ja selbst mit der dem Refresh noch ordentlich Performance gewonnen, hauptsaechlich durch Speichertakt und -timings (und dann sind es einfach mal 50% mehr).
Viel kommt da nicht mehr. P10 haette GDDR5X gut gestanden, es hat aber nicht sollen sein. Vega kann vielleicht zumindest diesen Flaschenhals mit HBM eliminieren, je nachdem wie das ganze am Ende balanciert ist. Man hat aber offenbar die doppelte Bandbreite (2 Stacks, 512 GB/s; falls man das hinbekommt mit 1 Gbps/Pin) und nicht ganz die doppelte Zahl an Ausfuehrungseinheiten. Da P10 an der Bandbreite haengt, kann ich mir vorstellen, dass der Takt runter geht. Im Computing bringt DCC nichts und Bandbreite ist wichtig. Niedrigerer Takt hilft auch der Effizienz enorm. Mich wuerde mal P10 bei 1 GHz mit angepassten Spannungen interessieren.
V10 mit 2 Stacks, 8 GiB HBM2 mit 512 GB/s, 64 CUs bei 1 GHz = 8 TFLOPs FP32, 4 TFLOPs FP64. Das ist weniger als jeweils GP104 und GP100 haben, aber mit HBM und am Sweetspot koennte die Effizienz sogar besser sein.
Wenn das so kommt sollte aber doch zwangslaeufig noch ein richtig dicker V11 nachkommen...
8GB? Definitiv aber 32GB waren doch mit 4 Stacks (8Hi) möglich.
http://images.anandtech.com/doci/9969/sk_hynix_hbm2_implementations_575px.png
Klar, aber wir reden ja gerade von dem Chip mit dem mutmasslichen 2048-Bit SI/2 Stacks.
Man könnte doch sicherlich für Gamer ein kleineren Interposer mit 2 Stacks verwenden und bei der HPC Variante einfach einen größeren Interposer mit 4 Stacks oder?
Dann wäre bei der Gaming Variante zwar 50% PHY ungenutzt aber da diese bei HBM eh nicht so groß sind wäre das ja egal.
Mir war eben auch so das mit HBM auch "ungerade" SI möglich waren, also zB. 3 HBM Chips.
Das ist durchaus moeglich. Klar koennte man auch nur 3 Stacks nutzen, wenn intern die Verschaltung noch passt. Nvidia hat ja sogar schon so ein Produkt auf dem Markt.
Einfach mal Zeppelin beachten. Der kommt ganz sicher mit 2 HBM Stapeln. So viel Möglichkeiten bleiben da nicht mehr. AMD braucht vor allem massiv mehr Takt. Die nächste Frage ist ob und wie deutlich sie es schaffen den Chip unter 400mm² zu quetschen.
Zeppelin ist nur der CPU Cluster. Aber du hast schon recht, auch deshalb wird ja von 2 Stacks ausgegangen.
robbitop
2016-07-07, 23:15:19
Was NV seit Maxwell und zuletzt mit Pascal mit den Taktraten (bei gleichzeitig nicht explodierender Leistungsaufnahme) macht, ist schon beeindruckend. Somit braucht man weniger Einheiten und somit auch weniger Transistoren. AMD hängt in diesem Punkt leider noch auf dem Level von Kepler.
Auch in Punkto Bandbreitenausnutzung. Maxwell und Pascal haben ja jeweils eine ordentliche Schippe draufgelegt.
Wieviel bessere Ausnutzung ist eigentlich bei GCN mittels ASync Compute möglich? Auf CB sah ich mal was von +10%. Kommt das hin?
Nightspider
2016-07-07, 23:18:39
Bei Hawaii und Fiji hieß es glaube 10-20%.
Polaris wird wohl oft eher an der Bandbreite ersticken, bevor man viel mit Async Compute herausholen kann. (Meine Spekulation)
illidan
2016-07-07, 23:18:51
In Hitman messe ich mit einer 390 in GPU-limitierten Szenen mit vergleichbaren Grafik-Einstellungen so ziemlich die exakt gleiche Performance und in Ashes bringt es seit Patch 1.2 auch nur noch ~7%.
Kurz: Bisher ein Furz im Wasserglas.
reaperrr
2016-07-07, 23:21:32
Beim P10 stimmt sowieso noch was nicht, der bekommt ja trotz stark verbesserter Tesselation usw. die Rohleistung ggü. Hawaii nicht umgesetzt. Und das liegt definitiv nicht an der Bandbreite, denn die ist kaum geringer als beim Ur-Hawaii, hat 4x soviel L2-Cache und Pascal-like-Deltakompression.
- Der Ur-Hawaii hatte immerhin 25% mehr Bandbreite und war übrigens zumindest im Fall der 290X sehr wohl bandbreitenlimitiert, wenn auch nicht ganz so stark wie die 480.
- P10 hat "nur" doppelt so viel L2 (2MB ggü. 1MB).
- Hawaii hat doppelt so viele ROPs.
- Die Polaris-DCC ist nur auf dem Papier auf Pascal-Niveau, in der Praxis ist sie nichtmal auf Maxwell 2.0-Level, sonst würde die 480 nicht so stark von Speicherübertaktung profitieren obwohl die Bandbreite bereits 12,5% höher als auf der GTX 980 ist.
Ravenhearth
2016-07-07, 23:25:37
Laut Grafik soll die Effizienz von Vega doch nochmal (glaube hier maß jemand) 40% über Polaris liegen.
Mit HBM spart man nochmal einige Watt.
Ich würde noch nicht zu schwarz malen. Deswegen halte ich RX480+100% immer noch für möglich.
Ja, "soll". Da lag Polaris auch bei Faktor 2,5 und wie viel ist davon geblieben? Mit 250W und 80% mehr Performance wäre Vega10 schon über 20% effizienter.
Und wenn eine GTX1060 die halbe 1080 Leistung hat sehe ich sie nicht vor der RX480 sondern knapp dahinter.
Die GTX 1060 soll eher ~40% langsamer sein, aber nicht nur halb so schnell. Nvidia sagt selber GTX 980-Performance. Die GTX 1080 wird ja durch die Bandbreite recht stark limitiert, die GTX 1060 wahrscheinlich nicht.
Der_Korken
2016-07-07, 23:45:39
Liegt die schlechtere Bandbreitenverwertung von GCN wirklich nur an der Kompression oder gibt es in der Architektur Unterschiede, die Maxwell/Pascal in diesem Punkt so viel besser dastehen lassen? Oder anders gefragt: Wäre es denkbar, dass AMD hier in absehbarer Zeit aufholt?
sonst würde die 480 nicht so stark von Speicherübertaktung profitieren obwohl die Bandbreite bereits 12,5% höher als auf der GTX 980 ist.
Hat man eigentlich mal untersucht wie die Latenzen sich zw. AMD und Nvidia unterscheiden?
Wenn die Timings gleich bleiben sinken die absoluten Latenzen beim Speicher OC. AMD profitiert wie gesagt selbst bei Fiji und nun auch wieder bei P10 stark davon, ebenfals von schaerferen Timings durch BIOS Mods. Vielleicht sind generell zu hohe Latenzen ja auch ein Problem von AMD
illidan
2016-07-08, 00:01:03
Liegt die schlechtere Bandbreitenverwertung von GCN wirklich nur an der Kompression oder gibt es in der Architektur Unterschiede, die Maxwell/Pascal in diesem Punkt so viel besser dastehen lassen? Oder anders gefragt: Wäre es denkbar, dass AMD hier in absehbarer Zeit aufholt?
Seit Hawaii gab es mit Tonga und nun Polaris Verbesserungen der DCC, und trotzdem hängt man immer noch unterhalb von Maxwell-Niveau.
Wahrscheinlich können sie ohne schnelleren Speicher einfach nicht besser, gerade Polaris hätte eine bessere Bandbreitennutzung wahrscheinlich besser gebrauchen können als Vega mit modernerem Speicher.
reaperrr
2016-07-08, 00:48:32
Die GTX 1060 soll eher ~40% langsamer sein, aber nicht nur halb so schnell. Nvidia sagt selber GTX 980-Performance. Die GTX 1080 wird ja durch die Bandbreite recht stark limitiert, die GTX 1060 wahrscheinlich nicht.
Die 48 ROPs nicht zu vergessen, das bedeutet 75% der Pixel/Z/Stencil-Füllrate von GP104, was u.a. bei Downsampling, MSAA und hoch aufgelösten Shadowmaps durchaus was bringen sollte ggü. 32 ROPs.
mczak
2016-07-08, 01:00:31
Liegt die schlechtere Bandbreitenverwertung von GCN wirklich nur an der Kompression oder gibt es in der Architektur Unterschiede, die Maxwell/Pascal in diesem Punkt so viel besser dastehen lassen? Oder anders gefragt: Wäre es denkbar, dass AMD hier in absehbarer Zeit aufholt?
Das dürfte kaum wirklich an der Kompression an sich liegen. Meine Standard-Vermutung ist da ja immer noch dass das zumindest teilweise am nicht ganz unified L2 liegt (ROP Caches sind separat), etwas das bei nvidia seit Fermi nicht mehr der Fall ist. (Meine Vorhersage war dass das vielleicht bei Tonga geändert würde - da lag ich aber daneben...)
Das hat dann Auswirkungen z.B. wenn du ein RT als Textur verwenden willst (bei nvidia direkt schon im Cache, bei AMD benötigt das einen ROP-Cache Flush). Ausserdem ist soweit ich das sehe im Treiber auch nach wie vor bei Verwendung von z.B MSAA-RT oder auch bloss Tiefenpuffer (selbst ohne MSAA) als Textur eine vorhergehende Dekomprimierung erforderlich, das ist ein unnötiger und massiver Bandbreitenfresser. (Immerhin können nun "normale" per DCC komprimierte RTs direkt als Textur verwendet werden.)
Kann aber auch ganz andere Gründe haben...
uweskw
2016-07-08, 07:38:01
Ich habe jetzt nur die letzten drei Seiten durchgelesen, aber nichts gefunden. Gibt es schon etwas Neues zum Veröffentlichungstermin von Vega?
Greetz
US
Ich habe jetzt nur die letzten drei Seiten durchgelesen, aber nichts gefunden. Gibt es schon etwas Neues zum Veröffentlichungstermin von Vega?
Greetz
US
Nein
Leonidas
2016-07-08, 08:37:38
Ich würde diesen "Dieshot" einfach mal nicht als Informations-Fakt begreifen (dazu müßte es ein nachweislich unbearbeitetes echtes Foto sein, und das gibt es nicht), sondern als Marketinginstrument.
Frage: Erfüllt der folgende Shot die Anforderungen besser?
http://hothardware.com/gallery/Article/2488?image=big_polaris-die-shot.jpg&tag=popup
victore99
2016-07-08, 08:42:13
Am P10-Speichersystem hat man im vgl zu Tonga folgendes (für mich als Laien einsehbares) getan:
Interface: 256 bit - 256 bit
ROPs: 32 - 32 -> keine Veränderung
Caches (wahrscheinlich) 1 MB - 2 MB -> doppelt
Überträgt man das mit den Doppelten Caches auf HBM (vgl hier Fiji), so ergibt sich, dass pro 1024 bit immernoch 16 ROPs vorliegen, jedoch nun pro 1024 bit mit je 1 MB gecached wird.
Wenn V10 wie erwartet 4k ALUs hat und V11 6k, dann gibt es zwei Möglichkeiten, das Verhältnis von ALUs zu Interfacebreite konstant zu lassen:
Erste Möglichkeit:
V10 mit 4096 ALUs an 2048 bit, 32 ROPs und 2 MB Cache.
V11 mit 6144 ALUs an 3072 bit, 48 ROPs und 3 MB Cache.
Und WIR sagen, die 32 ROPs bei Polaris 10 sind ein Limit.
Wie krass ist das Limit dann erst bei Vega?
Wahrscheinlicher sehe ich da schon eher Möglichkeit 2:
V10 mit 4096 ALUs an 4096 bit, 64 ROPs und 4MB Cache
V11 mit 6144 ALUs an 6144 bit, 96 ROPs und 6MB Cache
Sollte nichts so großartig limitieren wie bei Möglichkeit 1. Andererseits verschwendet man Diespace, HBM2-Stacks etc... Trotzdem klingt mir das wie die weit bessere Option.
ZOCKERHERZ
2016-07-08, 08:45:08
AMD hat noch nicht mal was zu P11 gesagt und du fragst nach Vega. Ich frag mich wie lange AMD noch an der GCN facelift treiben will. Spätestens mit 14nm und neue Fertigung hätten die was neues bringen können.
victore99
2016-07-08, 08:49:44
AMD hat noch nicht mal was zu P11 gesagt und du fragst nach Vega. Ich frag mich wie lange AMD noch an der GCN facelift treiben will. Spätestens mit 14nm und neue Fertigung hätten die was neues bringen können.
Das gute an GCN ist, dass, je näher an der Hardware programmiert wird, GCN immer schneller wird (im VGL zu der Konkurrenz).
Dies passiert jedoch nur nach ner gewissen Zeit.
Das Problem ist, welches man dabei hat, ist, dass es für die Durchsetzung bei den Spieleentwicklern Marktanteile braucht. Hat AMD die? Ich glaube nicht!
- Der Ur-Hawaii hatte immerhin 25% mehr Bandbreite und war übrigens zumindest im Fall der 290X sehr wohl bandbreitenlimitiert, wenn auch nicht ganz so stark wie die 480.
Latenzlimitiert vllt. aufgrund des knappen Caches und des langsamen Speichers, aber garantiert nicht Bandbreitenlimitiert.
- P10 hat "nur" doppelt so viel L2 (2MB ggü. 1MB).
pro Controller hat sie 4x soviel Cache, nur das zählt.
- Hawaii hat doppelt so viele ROPs.
nur falls Pixelfüllrate überhaupt eine Rolle spielt, wo ich starke Zweifel hab, erst recht bei FullHD. Bei höheren Auflösung kann es da natürlich Einschränkungen geben.
- Die Polaris-DCC ist nur auf dem Papier auf Pacal-Niveau, in der Praxis ist sie nichtmal auf Maxwell 2.0-Level, sonst würde die 480 nicht so stark von Speicherübertaktung profitieren obwohl die Bandbreite bereits 12,5% höher als auf der GTX 980 ist.
Aha, dafür hätt ich gern Belege, das glaub ich nicht eine Sekunde.
Das dürfte kaum wirklich an der Kompression an sich liegen. Meine Standard-Vermutung ist da ja immer noch dass das zumindest teilweise am nicht ganz unified L2 liegt (ROP Caches sind separat), etwas das bei nvidia seit Fermi nicht mehr der Fall ist. (Meine Vorhersage war dass das vielleicht bei Tonga geändert würde - da lag ich aber daneben...)
Das hat dann Auswirkungen z.B. wenn du ein RT als Textur verwenden willst (bei nvidia direkt schon im Cache, bei AMD benötigt das einen ROP-Cache Flush). Ausserdem ist soweit ich das sehe im Treiber auch nach wie vor bei Verwendung von z.B MSAA-RT oder auch bloss Tiefenpuffer (selbst ohne MSAA) als Textur eine vorhergehende Dekomprimierung erforderlich, das ist ein unnötiger und massiver Bandbreitenfresser. (Immerhin können nun "normale" per DCC komprimierte RTs direkt als Textur verwendet werden.)
Kann aber auch ganz andere Gründe haben...
Das ist ein interessanter Punkt. Zudem könnte der L2-Takt an den MC-Takt gebunden sein, weswegen die 4GB-Variante etwas in der Leistung einbricht und weswegen Speicherübertaktung plötzlich doch was bringt.
AMD hat noch nicht mal was zu P11 gesagt und du fragst nach Vega. Ich frag mich wie lange AMD noch an der GCN facelift treiben will. Spätestens mit 14nm und neue Fertigung hätten die was neues bringen können.
GCN hält bis Navi wie es aussieht. Navi könnte wirklich was ganz neues werden.
Selbst wenn P10 bandbreitenlimitiert wäre, müsste sie ihre 10% mehr IPC ggü. Hawaii ja irgendwo aufs Parkett bringen, tut sie aber nicht, ergo stimmt was nicht.
Skysnake
2016-07-08, 09:08:11
HBM-Latenzen sind natürlich niedriger, weil der Weg deutlich kleiner ist, ist doch logisch.
Das mit dem Weg kannste vergessen. Das Signal läuft mit Lichtgeschwindigkeit (im Medium). Was einen Unterschied macht ist, das man bei GDDR höhere Taktraten fährt als bei HBM. Dadurch muss man weniger lange Sequenzen fahren, was die Latenz etwas drücken kann, je nachdem wie die Daten rein kommen. Muss aber nicht zwingend so sein, wenn ich gerade keinen Denkfehler mache. Und selbst wenn, dann sind die Unterschiede marginal.
Kann man einem Laien erklären, warum sie bei so viel Rohleistung so `wenig` Gamingperformance herausbekommen?
Ich glaube wenn dir das hier einer sagen könnte, hätte er schon längst einen Job bei AMD. Ich befürchte die wissen es selbst nicht.
Was NV seit Maxwell und zuletzt mit Pascal mit den Taktraten (bei gleichzeitig nicht explodierender Leistungsaufnahme) macht, ist schon beeindruckend. Somit braucht man weniger Einheiten und somit auch weniger Transistoren. AMD hängt in diesem Punkt leider noch auf dem Level von Kepler.
Auch in Punkto Bandbreitenausnutzung. Maxwell und Pascal haben ja jeweils eine ordentliche Schippe draufgelegt.
Wieviel bessere Ausnutzung ist eigentlich bei GCN mittels ASync Compute möglich? Auf CB sah ich mal was von +10%. Kommt das hin?
Ja das stimmt schon. Ich befürchte inzwischen, das AMD nicht mehr die Resourcen hat, ihre eigenen Standardzellen libs zu designen, und einfach die von TSMC/GF verwendet. Das wäre schon ein sehr sehr großer Nachteil und würde erklären, warum man an sich so schlecht performt.
Man müsste echt mal von ChipWorks eine Analyse der Standardzellen von GF/TSMC und der Digitallogik von AMD&nVidida bekommen.
Das mit dem Weg kannste vergessen. Das Signal läuft mit Lichtgeschwindigkeit (im Medium). Was einen Unterschied macht ist, das man bei GDDR höhere Taktraten fährt als bei HBM. Dadurch muss man weniger lange Sequenzen fahren, was die Latenz etwas drücken kann, je nachdem wie die Daten rein kommen. Muss aber nicht zwingend so sein, wenn ich gerade keinen Denkfehler mache. Und selbst wenn, dann sind die Unterschiede marginal.
[...]
Weswegen bau(t)en viele Mainboardhersteller die RAM-Bänke zu nah an den Sockel? Ah richtig...
Ja das stimmt schon. Ich befürchte inzwischen, das AMD nicht mehr die Resourcen hat, ihre eigenen Standardzellen libs zu designen, und einfach die von TSMC/GF verwendet. Das wäre schon ein sehr sehr großer Nachteil und würde erklären, warum man an sich so schlecht performt.
Man müsste echt mal von ChipWorks eine Analyse der Standardzellen von GF/TSMC und der Digitallogik von AMD&nVidida bekommen.
Davon wird man denke ich ausgehen können. Das wird wohl erst bei 7nm wieder interessant für AMD. Die haben einfach die Personaldecke soweit abgeschmolzen, das muss langsam wieder aufgebaut werden, das wird man jetzt tun, wenn es wieder besser läuft.
victore99
2016-07-08, 09:53:57
pro Controller hat sie 4x soviel Cache, nur das zählt.
Ich habe bisher nirgendwo irgendwelche Infos über den Aufbau des Tonga-Speichersystems gefunden. Wie ist denn Tonga aufgebaut? 8x 32 oder 4x 64?
Und wie kommt es dann, dass P10 8x 32 bit und 2MB Cache hat und P11 2x 64, aber noch 1MB?
Fliwatut
2016-07-08, 10:12:01
AMDs Problem scheint halt zu sein, dass man die Rohleistung der Karten nicht auf die Straße bekommt.
Woran liegt das eigentlich? Am Treiber?
Gipsel
2016-07-08, 10:34:03
Frage: Erfüllt der folgende Shot die Anforderungen besser?
http://hothardware.com/gallery/Article/2488?image=big_polaris-die-shot.jpg&tag=popupNein. Ist doch der gleiche Fake-Shot (nur in mieser Auflösung). Das Bildchen ist kein echter Dieshot sondern stammt aus AMDs Photoshop-Werkstatt.
Gipsel
2016-07-08, 10:45:11
Weswegen bau(t)en viele Mainboardhersteller die RAM-Bänke zu nah an den Sockel? Ah richtig...Das machen die, damit die durch die Leitungen verursachte kapazitive Last minimiert wird (so daß man überhaupt den Takt mit den gegebenen PHYs des Interfaces in der CPU und den Speicherchips hinbekommt) und nicht, damit das Signal schneller da ist. Da hat Skysnake vollkommen recht (ein Signal in Leitungen ist zwar etwas langsamer als Lichtgeschwindigkeit [aber immer noch in der Größenordnung der Lichtgeschwindigkeit, die Leitung ist gewissermaßen ein Medium; in Luft, Wasser oder Glas ist Licht ja auch etwas langsamer als im Vakuum], aber das spielt für die Latenzen praktisch keine Rolle).
Skysnake
2016-07-08, 10:56:31
Und da war Gipsel mal wieder schneller :tongue:
Ergänzen will ich es aber trotzdem noch.
Man will damit nich nur die Kapazitive Last minimieren. Die Leitungen sind ja schon recht lange und können daher meines Wissens nach als Transmissionlines behandelt werden, was dazu führt das ein bischen mehr Leitung also gar nicht sooo viel mehr Kapazität dazu addiert. Was aber dazu kommt ist, das man eben dennoch weniger Signalhub hat, da man eben mehr Dämpfung hat. Und man nimmt halt mehr Noise auf.
Mit längeren Leitungen muss man also mehr aufpassen welche Materialien usw man verwendet. Kurze Leitungen können also auch einfach dazu dienen Kosten zu sparen.
Thunder99
2016-07-08, 11:20:48
Woran liegt das eigentlich? Am Treiber?
Dann wäre es schon längst gelöst.
Ich glaube eher, wie schon dargelegt wurde, dass einfach der interne Aufbau von GCN eine bessere Wirkung von DCC verhindert. Dazu hätten sie noch radikaler GCN umbauen müssen was sie wohl noch nicht vorhatten und evt konnten.
Hypothetisch könnten sie zwar 3 fache R&D Kosten haben und dennoch Verlust machen da sie die Befürchtung haben nicht genug Karten zu verkaufen. Dann doch lieber so und relativ günstig entwickeln und gewinnbringend in dem Preissegment Karten absetzten.
Vega hat eine andere Zielgruppe und Preisregion wo sie schon mehr Risiko fahren können (und müssen siehe Fiji). Hier könnte ich mir weitere Anpassungen am Design vorstellen. Bitter notwendig ist es ja nach wie vor.
Frosty
2016-07-08, 12:21:44
ist eigentlich schon gesagt worden, in welchem tdp-rahmen sich vega bewegen wird?
wenn amd damit gp104 konkurrenz machen will, dürfte der kleinere vega (wenn es zwei versionen geben sollte) nicht mehr als 180-200w leistungsaufnahme haben.
reaperrr
2016-07-08, 12:48:07
ist eigentlich schon gesagt worden, in welchem tdp-rahmen sich vega bewegen wird?
wenn amd damit gp104 konkurrenz machen will, dürfte der kleinere vega (wenn es zwei versionen geben sollte) nicht mehr als 180-200w leistungsaufnahme haben.
Dafür müssten die Architektur-Veränderungen schon recht gewaltig ausfallen, was mich überraschen würde.
Wir können mMn schon froh sein, wenn Vega kein reiner großer Polaris mit HBM2 ist, sondern wenigstens die Aspekte angegangen wurden, die bei Polaris noch nicht angerührt wurden, also der Rasterizer (zwingend notwendig für DX12 FL12_1-Support) und die RenderBackEnds (evtl. verdoppelte Z/Stencil-Rate, um mit NV gleichzuziehen?). Wenn dann noch ein paar Prozent mehr z.B. aus der DCC und dem Primitive Discard Accelerator gequetscht werden konnten, super, aber mit AMD's R&D-Resourcen wäre das wohl das Maximum.
Ach ja, und zumindest bis GCN3 hat GCN keine Unterstützung für mehr als ein 4faches Frontend gehabt, das wäre ebenfalls ein Aspekt, der eigentlich spätestens für Vega angegangen werden musste.
Frage: Erfüllt der folgende Shot die Anforderungen besser?
http://hothardware.com/gallery/Article/2488?image=big_polaris-die-shot.jpg&tag=popup
Nein, ist immer noch das selbe Bild, sieht nur aus wie vom Bildschirm abfotografiert ;D
Oder eben gestretcht aus dem Bild unmittelbar davor. Das hilft uns also nicht weiter
edit: oh, Gipsel war schneller, den Post auf der letzten seite habe ich nicht gesehen :redface:
uweskw
2016-07-08, 16:37:54
AMD hat noch nicht mal was zu P11 gesagt und du fragst nach Vega. Ich frag mich wie lange AMD noch an der GCN facelift treiben will. Spätestens mit 14nm und neue Fertigung hätten die was neues bringen können.
Was habt ihr nur gegen GCN?
Gegen eine 480 mit 1900MHz würde eine 1070 Leistungsmäßig gar nicht gut aussehen. Verbrauch außen vor.
Teilweise ist es zwar auch der Architektur geschuldet, dass Polaris nicht höher taktet. Hauptanteil wird aber wohl beim Fertigungsprozess liegen. Wenn jemand fundierte andere Informationen hat die etwas anderes belegen, würde ich mich über einen Link freuen. Am besten mit kurzer Erklärung.
Auch von der effizienz beim Speicher her ist GCN gut. Eine 6GB 980Ti rennt bei höchsten Auflösungen eher ins Speicherlimit als eine 4GB Fury X. Da gabs doch diese Benchen SLI vs Crossfire. Und: nur weil eine 12 GB Karte beim Benchen 8GB Speicher belegt, heißt dass noch lange nicht dass eine 6 oder 4 GB Karte ebensoviel benötigt.
greetz
US
Ohne in den "GCN-Hate" einzusteigen, aber was soll man da noch belegen?
GCN (TSMC 28 HP): max. ~1,1 GHz
Kepler (TSMC 28 HP): max. ~1,1(?) GHz
Maxwell (TSMC 28 HP): max. ~1,5 GHz
Pascal (TSMC 16 FF+): max. ~2 GHz
GCN (14 LPP): max. ~1,3 GHz
Nvidia baut irgendwo "einfachere" Chips und kann hoeher takten, bei niedrigeren Spannungen. Das war vorher schon absehbar, weil NV einfach mal bei der gleichen Fertigungstechnologie das Maximum um die 50% (!) angehoben hat. Klar bringt die Fertigung ein bisschen was, man verschafft sich auch wieder Luft aber alles auf GF (bzw. Samsung oder 14 LPP) zu schieben ist voellig daneben.
Schaffe89
2016-07-08, 16:48:45
Hauptanteil wird aber wohl beim Fertigungsprozess liegen.
Das hat man bei Bulldozer damals auch gesagt, schuld sei der Fertigungsprozess.
5 Jahre später nach 2011 müsste der 32nm Prozess doch jetzt rund laufen oder?
Trotzdem keine Verbesserungen bei den FXen.
Und ich denke so wird es auch bei Polaris sein. Vielleicht mögen die Yields nicht stimmen, aber hätte AMD die GPU bei TSMC gefertigt, würde es wahrscheinlich auch nicht besser mit den Taktraten aussehen, vielleicht ein bisschen besser mit dem Strombedarf, aber GCN lässt sich nunmal nicht besonders gut takten, ähnlich wie der Phenom I damals. Selbst eine HD 7970 von 2012 ließ sich gut und gerne max auf 1250mhz bringen. Groß geändert hat sich mit der rx480 da nix, jetzt sinds ~1400mhz.
illidan
2016-07-08, 16:53:39
Kepler (TSMC 28 HP): max. ~1,1(?) GHz
GTX 770 Customs haben > 1,2Ghz geboostet.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.