Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
Cyphermaster
2017-05-17, 11:43:52
Gesetzt das träfe zu (was wir nicht sicher wissen), dann frage ich mich aber: Warum kann nVidia rechtzeitig reagieren und auf GDDR5X/GDDR6 setzen, während AMD mit HBM wieder an die Wand fährt?
Gibt's da Exklusivverträge (oder -informationen) für den Marktführer, an die AMD nicht rankommt, oder ist es dem geringeren Budget für Entwicklung geschuldet?Schwierig zu sagen. Kann sein, AMD hat sich vertraglich zu früh zu festgelegt (evtl. in der Annahme, daß die Probleme von HBM1 sich nicht wiederholen würden, und in Aussicht eines guten Deals?), oder man wollte/konnte keine zusätzlichen Entwickler in einen Sicherheits-Umbau auf GDDR stecken - oder man hat sich einfach entschlossen, das Risiko einzugehen, um mit HBM als Feature wuchern zu können.
Daß Hynix Probleme mit HBM2 hat, ist mMn aber offensichtlich. Man nimmt nicht "einfach so" in letzter Minute (hätten sie das schon vor Längerem gemacht, hätte man einen Exklusivertragsabschluß mit AMD vermuten können) ein bereits eingeplantes und angekündigtes Produkt aus dem Portfolio. Besonders dann nicht, wenn es "der heiße Scheiß" mit den richtig fetten Margen ist.
Dino-Fossil
2017-05-17, 11:54:58
Daß Hynix Probleme mit HBM2 hat, ist mMn aber offensichtlich.
Das HBM nicht rund/wie erhofft läuft vermute ich auch, man kann nur hoffen, dass sich AMD für so einen Fall ggü. Hynix vertraglich abgesichert hat.
Hey es läuft jedenfalls runder als die 4er HiStacks beim GV100. Was soll das dämliche Gebashe? Beim GV100 beschwert sich doch ein kein Mensch darüber. NV und Samsung machen das schon, bei AMD und Hynix gibts noch Probleme, Probleme, Probleme. Könnt ihr euch mal diese Doppelmoral abgewöhnen? Das ist absurd. Man launcht doch, das heißt, dass Hynix die Produktion im Griff hat. Nur eben nicht bei 2GHz, das ist alles.
Troyan
2017-05-17, 11:59:44
Naja, GV100 ist ein 815 mm2 Monster mit 4 Stacks. Selbst GP100 hat noch über 600 mm2 bei 4 Stacks, dagegen ist Vega mit <500 mm2 und 2 Stacks bestenfalls mainstream und sicher nicht direkt vergleichbar.
AMD hat klar die ML-Aspekte hervorgehoben. Da ist es im Grunde irrelevant, ob GV100 600mm^2 oder 815mm^2 groß ist. Volta wird immer deutlich schneller sein, da die TensorCores genau für diesen Markt entwickelt worden sind.
Ich finde es auch irgendwie lustig, dass man vor fünf Monaten über Instinct gesprochen hat und dann gestern eine Karte veröffentlicht, die nichts mit der ML-Sparte zu tun hat.
Kommt mir alles so vor als ob nicht weiß, was und wem man eigentlich mit VEGA ansprechen will...
Dino-Fossil
2017-05-17, 12:00:50
Ja, aber vermutlich in deutlich geringerer Stückzahl und später als ursprünglich angenommen - wenn die Gerüchte so stimmen, was sie natürlich nicht müssen.
HBM im Massenmarkt sehen wir jedenfalls noch nicht.
AMD hat klar die ML-Aspekte hervorgehoben. Da ist es im Grunde irrelevant, ob GV100 600mm^2 oder 815mm^2 groß ist. Volta wird immer deutlich schneller sein, da die TensorCores genau für diesen Markt entwickelt worden sind.
Ich finde es auch irgendwie lustig, dass man vor fünf Monaten über Instinct gesprochen hat und dann gestern eine Karte veröffentlicht, die nichts mit der ML-Sparte zu tun hat.
Kommt mir alles so vor als ob nicht weiß, was und wem man eigentlich mit VEGA ansprechen will...
Das ist ganz einfach: Man möchte dort die bestmögliche Leistung. Das ist im Moment nicht leistbar, also bringt man zuerst die Radeon Pro. Die wird eh nie voll ausgefahren, siehe vergangene Produkte.
Ja, aber vermutlich in deutlich geringerer Stückzahl und später als ursprünglich angenommen - wenn die Gerüchte so stimmen, was sie natürlich nicht müssen.
HBM im Massenmarkt sehen wir jedenfalls noch nicht.
Man geht mit Produkten an den Markt, das bedeutet im Klartext, dass die Produktion läuft.
Cyphermaster
2017-05-17, 12:03:13
Das HBM nicht rund/wie erhofft läuft vermute ich auch, man kann nur hoffen, dass sich AMD für so einen Fall ggü. Hynix vertraglich abgesichert hat.In gewissem Umfang sicherlich, aber ich zweifle, daß man die Folgekosten einer längeren Verzögerung in vollem Umfang weiterreichen kann.
Hey es läuft jedenfalls runder als die 4er HiStacks beim GV100. Was soll das dämliche Gebashe? Beim GV100 beschwert sich doch ein kein Mensch darüber.Schon überlegt, warum? GV100 ist für nVidia in der momentanen Lage deutlich weniger kritisch, als Volta für AMD.
Dino-Fossil
2017-05-17, 12:08:11
Man geht mit Produkten an den Markt, das bedeutet im Klartext, dass die Produktion läuft.
Ich will hier nicht übermäßig kleinlich wirken, aber 1. ist noch kein Produkt am Markt, 2. wissen wir nicht genau wann die Produkte zu kaufen sind (und für wieviel), 3. gibt es HBM2 in kleineren Mengen schon länger - aber möglicherweise nicht in den Mengen, die nötig sind um Vega als Gamingchip zu bedienen.
Ich hoffe wirklich, dass mein Eindruck da falsch ist, aber aktuell bin ich noch skeptisch, dass die HBM2-Verfügbarkeit so gut ist wie sie sein sollte.
grauenvoll
2017-05-17, 12:10:17
Ich finde es auch irgendwie lustig, dass man vor fünf Monaten über Instinct gesprochen hat und dann gestern eine Karte veröffentlicht, die nichts mit der ML-Sparte zu tun hat.
Ich finde das Bild eigentlich ziemlich stimmig. AMD setzt bei Vega nur andere Schwerpunkte als nVidia mit Volta. Prunkstück bei Vega ist sicherlich HBCC, und bei Volta die Tensor Cores. AMD setzt auf Anbindung von NV-RAM, während nVidia mit spezialisierter Rechenpower beeindruckt. 2 unterschiedliche Konzepte mit unterschiedelichen Stärken und Schwächen, wo man sehen wird, was sich am Ende durchsetzt. Vielleicht gibt es auch eine Koexistenz und der Kunde wählt das, welches ihm am meisten weiterhilft.
Ich finde es sinnig, dass man sich von nVidia abgrenzt, eigene Schwerpunkte setzt und nicht einfach einen Wettlauf mit dem stärkeren Wettbewerber sucht. Wenn jemand weniger Ressourcen hat, kann er nur mit Kreativität punkten. Das hat AMD getan. Fraglich ist nur, ob es ein Fehler war so konsequent auf HBM2 zu setzen.
Eldoran
2017-05-17, 12:51:09
Bezüglich der Tensor Units im Volta - da gibt es auch Konkurrenz von Google mit dessen TPU (https://cloud.google.com/blog/big-data/2017/05/an-in-depth-look-at-googles-first-tensor-processing-unit-tpu). Vielleicht ist da Vega eigentlich im Vorteil, als Ergänzung, weil abgesehen von den Tensor Units steht Vega auch ganz gut gegenüber Volta da.
fondness
2017-05-17, 12:53:41
Bezüglich der Tensor Units im Volta - da gibt es auch Konkurrenz von Google mit dessen TPU (https://cloud.google.com/blog/big-data/2017/05/an-in-depth-look-at-googles-first-tensor-processing-unit-tpu). Vielleicht ist da Vega eigentlich im Vorteil, als Ergänzung, weil abgesehen von den Tensor Units steht Vega auch ganz gut gegenüber Volta da.
Der Vorteil von Vega ist vor allem der HBCC. Die Möglichkeit da mehrere Tera-Byte an Flashspeicher dran zu hängen ist für manche Anwendungen sicherlich unbezahlbar. Da spielen dann auch ein paar TFLOPs weniger keine Rolle mehr.
w0mbat
2017-05-17, 13:04:14
Das mit dem HBM2 Vergleich stimmt auf jeden Fall. Selbst Nvidia/Samsung kommt "nur" mit 4Hi und 878,9MHz für Volta (auf Basis der 900GB/s Angabe), während, wenn die angegebenen 480GB/s für Vega FE stimmen, AMD/Hynix mit 8Hi und min. 937,5MHz kommt. Da scheint AMD mit HBM2 deutlich vor Nvidia zu sein. Ich hab aber noch niemanden gesehen der Volta als fail sieht, nur weil Nvidia ihren HMB2 nicht so hinbekommen wie sie ihn wollten.
Und Nvidia kommt mit Volta "erst" im Q3, während AMD die Vega FE "schon" Ende Juni liefern will. Also scheint AMD ein gutes Stück vor Nvidia in der HMB2 Entwicklung zu liegen, bzw. Hynix vor Samsung.
Also wenn man schon Vega kritisiert, dann bitte doch nicht wegen dem HBM2.
dildo4u
2017-05-17, 13:12:42
Natürlich ist es ein Fail wenn die Bandbreite im Vergleich zum Vorgänger sinkt und warum stellst du 500GB/sec mit 900 GB/sec auf eine Stufe?Wer failt dort mit HBM2?
Complicated
2017-05-17, 13:25:32
Bezüglich der Tensor Units im Volta - da gibt es auch Konkurrenz von Google mit dessen TPU (https://cloud.google.com/blog/big-data/2017/05/an-in-depth-look-at-googles-first-tensor-processing-unit-tpu). Vielleicht ist da Vega eigentlich im Vorteil, als Ergänzung, weil abgesehen von den Tensor Units steht Vega auch ganz gut gegenüber Volta da.
Ganz besonders wenn man Google als Kunde anvisiert. Einen Node mit CPU/GPU/TPU auszustatten kann sinnvoller sein als ohne GPU. TPUs spielen Ihren Vorteil ja nur in Teilbereichen bei ML aus und GPUs haben in anderen Bereichen enorme Vorteile. Warum sollte Google sich dafür nun eine Volta mit Tensor-Cores in den Node stecken? Und warum sollte Google TPUs entwickeln die sie nicht an andere weiter verkaufen. Hier könnte das verbauen von Tensor-Cores sich als Nachteil entpuppen im Wettbewerb, vor allem da Nvidia derzeit ausser IBM keinen anderen NVLink-Partner hat. CCIX und GenZ ist hier Industrieübergreifend.
Es geht alles um den TAM. NVLink und Tensor-Cores verkleinern den für Nvidia erheblich, während AMD genau das baut was Intel oder Googles TMU basierende Server als Ergänzung benötigen. Ob sich Nvdias Alleingang hier auszahlt wird sich erst noch langfristig zeigen müssen.
Eldoran
2017-05-17, 13:30:37
Der Vorteil von Vega ist vor allem der HBCC. Die Möglichkeit da mehrere Tera-Byte an Flashspeicher dran zu hängen ist für manche Anwendungen sicherlich unbezahlbar. Da spielen dann auch ein paar TFLOPs weniger keine Rolle mehr.
Das sehe ich auch so, allerdings dreht sich hier oft die Debatte darum, dass Vega "sinnlos" wäre weil Vega bei Tensor Berechnungen von Volta wieder klar geschlagen werden sollte. Bei anderen Workloads ist die Sache ja nicht so klar. Nur ist einerseits ML nicht nur Tensor Berechnungen und gerade in dem speziellen Fall gibt es auch schon einen Platzhirsch - eben Google mit dessen TPU.
w0mbat
2017-05-17, 13:40:07
Natürlich ist es ein Fail wenn die Bandbreite im Vergleich zum Vorgänger sinkt und warum stellst du 500GB/sec mit 900 GB/sec auf eine Stufe?Wer failt dort mit HBM2?
Nein, die Bandbreite sinkt nicht, da Vega deutlich effizienter mit der Bandbreite umgeht als Fiji. Ganz im Gegenteil, sie steigt sogar enorm.
Zudem fehlt Nvidia der HBCC und sie können noch keine 8Hi und ihr HBM2 ist schlechter. Nvidia hat da ziemlich Probleme, weil sie beim VRAM jetzt deutlich hinterher hinken.
Ich hoffe für Nvidia, dass sie ihre HBM2 Probleme und Speicher-Ineffizienz mit der nächsten Gen lösen, sonst kann das noch böse enden. Ich meine, Nvidia muss mit Volta schon an die >800mm² Kotzgrenze um noch gegen Vega und den revolutionären HBCC eine Chance zu haben.
Vega hätte wohl auch noch mit halb soviel Bandbreite einen Vorteil gegenüber Volta, eben weil Volta ein HBCC fehlt. Fast schon eine Fehlkonstruktion von Nvidia :)
Hübie
2017-05-17, 13:52:02
@Hübie: Du zitierst mich mit "Volta für Spieler Anfang 2018" und schreibst dann drunter, dass Volta für Spieler nicht 2017, sondern erst Januar bis März 2018 kommt. WTF? Hast du mein posting gelesen?
Das war wohl einfach noch zu früh für mich. :D Sorry! Wir werden ja bald sehen was Vega nun leistet und wann dieser denn nun kommt. August oder später brauchen die jedenfalls nicht mehr antanzen.
Dino-Fossil
2017-05-17, 13:53:07
Leute, es entbehrt nicht einer gewissen Komik, wie hier zwei noch weitestgehend imaginäre Produkte* gegeneinander antreten müssen. :ugly:
* d.h. noch nicht zu kaufen und nur Hersteller-Benchmarks
Complicated
2017-05-17, 13:54:19
Was ist in Spekulations-Threads daran komisch?
dargo
2017-05-17, 13:59:23
Also, dass der Chip mit nur 2 aktiven GB VRAM UHD mit den FPS darstellen kann finde ich sehr beeindruckend. Natürlich kennt man jetzt nicht die Frametimes, aber es deutet schon darauf hin, dass HBCC durchaus ein mächtiges Feature sein könnte.
Eben das ist noch die große Unbekannte... die Frametimes. In der Beziehung muss sich HBCC noch beweisen. Bezüglich 2GB Vram. RotTR lief echt mit nur 2GB Vram und HBCC so flüssig? Das kann ich gar nicht glauben. Selbst 4GB ohne HBCC sind doch schon zu wenig in diesem Spiel.
Dino-Fossil
2017-05-17, 14:13:06
Was ist in Spekulations-Threads daran komisch?
Auch wieder wahr...
Kriton
2017-05-17, 14:22:12
Eben das ist noch die große Unbekannte... die Frametimes. In der Beziehung muss sich HBCC noch beweisen. Bezüglich 2GB Vram. RotTR lief echt mit nur 2GB Vram und HBCC so flüssig? Das kann ich gar nicht glauben. Selbst 4GB ohne HBCC sind doch schon zu wenig in diesem Spiel.
Genau das wollte Raja doch zeigen, dass durch den HBCC der VRAM (nun "nur" als Cache) massiv an Bedeutung verliert.
Linmoum
2017-05-17, 14:31:44
Stellt sich natürlich noch die Frage nach der Anpassung, das muss ja für jede Engine einzeln geschehen. Wenn das aber nicht allzu kompliziert ist und im Großen und Ganzen ähnliche Ergebnisse zu verzeichnen sind, wie bei RotTR oder damals Deus Ex, dann ist das schon was richtig geiles.
dargo
2017-05-17, 14:38:01
Genau das wollte Raja doch zeigen, dass durch den HBCC der VRAM (nun "nur" als Cache) massiv an Bedeutung verliert.
Sooo massiv hätte ich jetzt aber auch nicht erwartet. Naja... erstmal Tests abwarten.
Genau das wollte Raja doch zeigen, dass durch den HBCC der VRAM (nun "nur" als Cache) massiv an Bedeutung verliert.
Ist nur exakt nichts wert, falls die frametimes darunter leiden. Außerdem muss man sich dann Gedanken um die Haltbarkeit des nvms machen
Vieles davon natürlich bis zu einem gewissen Grad Pseudokriterien aber entscheidend für den Erfolg des Produkts.
Complicated
2017-05-17, 14:40:20
Ja war denn die RoTR Version irgendwie angepasst? Soweit ich das bisher überblicke sind keine Codeanpassungen in den Spielen nötig. Lediglich Code-Optimierungen würden das ganze noch effektiver machen. Hier wurde das selbe mit Deus:Ex demonstriert:
http://digiworthy.com/2017/02/28/amd-radeon-rx-vega-hbcc/
AMD deliberately capped the amount of addressable memory on an HBCC-aware system to only 2GB versus 4GB addressable by the non-HBCC-aware system. The HBCC-aware system purportedly output gains of up to 50% average FPS and 100% minimum FPS than the other non-HBCC-aware system."HBCC aware" wird wohl durch die Hardware und Treiber hergestellt.
Ist nur exakt nichts wert, falls die frametimes darunter leiden. Min-Frames sind nicht das selbe wie Frametimes, doch wenn Min-Frames sich um 100% verbessern und Average um 50%, können die Frametimes kaum schlechter werden.
Civtam
2017-05-17, 14:43:27
Ich finde den Thread in den letzten 24h auch sehr lustig. AMD stellen auf dem FAD ihren Vega vor, bestätigen einige Angaben aus dem Winter (SP Leistung, Shaderanzahl), sie haben es geschafft ihren Takt um ca 50% ggü Fiji zu steigern, überraschen mit 16 GB HBM2 (statt der erwarteten 8) und zeigen eine absolut beeindruckende HBCC-Performance (RotTR mit nur 2GB aktiviertem VRAM [und Hey! Das Feature scheint zu funktionieren und tatsächlich die Nachladeruckler zu verhindern]).
Vega wird sicherlich zur ComputexPK in 14 Tagen vorgestellt, da ist das passende Umfeld. Er wird 4096 Shader bei ca. 1500 MHz haben. Damit ist er rohleistungsmäßig leicht vor ner 1080TI (3584 Shader / ~1600bMHz) und hat einige Features, die ihr Potential erst noch zeigen müssen (Tile Based Rendering, Half Precision Berechnung). Da im Vorhinein von einem FAIL zu sprechen, halte ich für abwegig.
Ich bin jedenfalls sehr auf den RX Vega gespannt.
Eldoran
2017-05-17, 14:43:57
Genau das wollte Raja doch zeigen, dass durch den HBCC der VRAM (nun "nur" als Cache) massiv an Bedeutung verliert.
In gewisser weise verhält sich mit HBCC und wenig VRAM ähnlich wie eine geforce gtx 970 mit genutzten 4GB RAM. Da der HBM2 als Cache genutzt wird, wird bei mehrfacher Nutzung der selben Daten diese dann aus dem HBM geliefert. Damit bricht zwar im schlimmsten Fall die Bandbreite auf 15GB/s zusammen, aber auch nur wenn in der sekunde jeweils so viel neue Daten benötigt werden, oder tatsächlich mehr Daten als im VRAM platz finden, in den jeweiligen Frames genutzt werden. Das dürfte geschätzt frühestens bei einer Größenordnung größeren Daten relevant sein.
dargo
2017-05-17, 14:44:40
Ja war denn die RoTR Version irgendwie angepasst? Soweit ich das bisher überblicke sind keine Codeanpassungen in den Spielen nötig. Lediglich Code-Optimierungen würden das ganze noch effektiver machen. Hier wurde das selbe mit Deus:Ex demonstriert:
http://digiworthy.com/2017/02/28/amd-radeon-rx-vega-hbcc/
"HBCC aware" wird wohl durch die Hardware und Treiber hergestellt.
Min-Frames sind nicht das selbe wie Frametimes, doch wenn Min-Frames sich um 100% verbessern und Average um 50%, können die Frametimes kaum schlechter werden.
Also jetzt bin ich echt baff. Jetzt sollen schon 2GB für aktuelle Games reichen? Kann mich mal einer zwicken? :freak:
Troyan
2017-05-17, 14:45:16
Bezüglich der Tensor Units im Volta - da gibt es auch Konkurrenz von Google mit dessen TPU (https://cloud.google.com/blog/big-data/2017/05/an-in-depth-look-at-googles-first-tensor-processing-unit-tpu). Vielleicht ist da Vega eigentlich im Vorteil, als Ergänzung, weil abgesehen von den Tensor Units steht Vega auch ganz gut gegenüber Volta da.
Googles TPU ist einzig für Inference nutzbar. Für das Trainieren von Netzwerken muss weiterhin auf andere Prozessoren gesetzt werden. Und da liefert GV100 bis zu 9,6x mehr Leistung als VEGA.
Der Vorteil von Volta ist, dass der Chip für mehrere Gebiete einsetzbar ist. Das reduziert massiv die Kosten für Datacenter, Cloud-Anbieter, Supercomputer etc.
grauenvoll
2017-05-17, 14:53:22
Die Börse sieht den Auftritt gestern ziemlich skeptisch: Vorbörslicht schon -7%.
Complicated
2017-05-17, 14:54:32
GV100 Tensor-Units sind ebenfalls nur für Inference nutzbar, ebenso wie Googles TPU. Und wo soll die Leistung 9,6 mal so hoch sein als bei Vega? Ach ebenfalls in dem Spezial-Workload mit Tensor Cores und auch nur wenn die Matrizen alle gleich groß sind.
@Börse
Die sind auch vor Börsenschluß gestern um über 11% gestiegen im Vorfeld-Hype zum FAD. Alle haben mit der Ankündigung gerechnet zu dem Intel Lizenzdeal. Mal sehen was bei Nasdaq Eröffnung passiert in einer halben Stunde und ob das Gesamt-Plus von derzeit 4% (11-7) sich halten kann.
w0mbat
2017-05-17, 15:00:15
Also jetzt bin ich echt baff. Jetzt sollen schon 2GB für aktuelle Games reichen? Kann mich mal einer zwicken? :freak:
Das macht mich auch stutzig. Vor allem, was bringt es wenn man trotzdem 8-16GB verbaut? Klar, 16GB sind im absoluten high-end schon nice to have, aber niemand ist wirklich der Meinung das 8GB jetzt schon zu wenig sind.
Ich kann mir gut vorstellen, dass es bei 2 oder 4GB VRAM etwas bringt, aber dann muss AMD auch einen VEGA mit 2/4GB VRAM bringen, und selbst wen der HBCC wirklich funktioniert bin ich sehr skeptisch wie gut sich so eine SKU verkaufen würde.
Also wofür ist das von Nutzen? Klar, im HPC Sgement bei sehr großen Datenmengen, dafür hat AMD das ja auch entwickelt. Aber ob das beim gaming so nützlich ist wenn man ausreichend VRAM hat? Ich kann mir gut vorstellen, dass RX Vega "nur" mit 8GB HBM2 kommt, aber denke nicht, dass das dort schon spürbar ist.
Hier wird über negative Einflüsse des HBCC auf die frametimes spekuliert, aber was, wenn es genau umgekehrt ist? Also wenn der HBCC quasi perfekte frametimes liefert? Das wäre mal ein killer-feature!
Die Hauptfrage bei RX Vega wird mMn sowieso wie gut Vega seine Flops auf die Straße bringt, im Vergleich zu Fiji und Pascal/Volta. Es ist ja nicht unmöglich, dass AMD jetzt genauso effizient mit den Flops haushaltet wie Nvidia, oder vielleicht sogar besser.
Wir wissen jetzt eigenlich schon sehr viel über Vega, trotzdem ist die Leistung noch sehr im Dunkeln. Ist auch nicht normal, dass die specs quasi 1:1 wie das Vorgängerprodukt sind (abgesehen vom VRAM). Wäre eine Fury mit 8GB HMB und 1,6GHz deutlich schneller oder würde GCN das eifach nicht mehr auf die Straße bringen?
So viele Unbekannten, obwohl wir wissen dass es 64CUs/4096SPs@1600MHz, 2048-bit HMB2 etc. werden :confused:
Complicated
2017-05-17, 15:02:05
In gewisser weise verhält sich mit HBCC und wenig VRAM ähnlich wie eine geforce gtx 970 mit genutzten 4GB RAM. Da der HBM2 als Cache genutzt wird, wird bei mehrfacher Nutzung der selben Daten diese dann aus dem HBM geliefert.
Nein nicht im geringsten ist das ähnlich. Bei der GTX970 konnten 3,5 GB nicht angesprochen werden wenn auf die "angeflanschten" 0,5 GB zugegriffen wurde. Es musste auch der L2 Cache geflusht werden und dann wieder erneut wenn zu den 3,5 GB zurück gewechselt wurde. Der Cache macht das genaue Gegenteil bei HBCC.
Hier nochmal die mangelhafte Anbindung der GTX 970 als Erinnerung:
http://images.anandtech.com/doci/8935/GM204_arch.jpg
DrumDub
2017-05-17, 15:11:35
Ich finde den Thread in den letzten 24h auch sehr lustig. AMD stellen auf dem FAD ihren Vega vor, bestätigen einige Angaben aus dem Winter (SP Leistung, Shaderanzahl), sie haben es geschafft ihren Takt um ca 50% ggü Fiji zu steigern, überraschen mit 16 GB HBM2 (statt der erwarteten 8) und zeigen eine absolut beeindruckende HBCC-Performance (RotTR mit nur 2GB aktiviertem VRAM [und Hey! Das Feature scheint zu funktionieren und tatsächlich die Nachladeruckler zu verhindern]).
Vega wird sicherlich zur ComputexPK in 14 Tagen vorgestellt, da ist das passende Umfeld. Er wird 4096 Shader bei ca. 1500 MHz haben. Damit ist er rohleistungsmäßig leicht vor ner 1080TI (3584 Shader / ~1600bMHz) und hat einige Features, die ihr Potential erst noch zeigen müssen (Tile Based Rendering, Half Precision Berechnung). Da im Vorhinein von einem FAIL zu sprechen, halte ich für abwegig.
Ich bin jedenfalls sehr auf den RX Vega gespannt. danke. beste zusammefassung bisher!
dargo
2017-05-17, 15:14:11
Das macht mich auch stutzig. Vor allem, was bringt es wenn man trotzdem 8-16GB verbaut? Klar, 16GB sind im absoluten high-end schon nice to have, aber niemand ist wirklich der Meinung das 8GB jetzt schon zu wenig sind.
Ich gehe davon aus, dass V10 Desktop mit 8GB kommt (eventuell auch eine Sonderedition von Sapphire mit 16GB, wird aber keine Regel). Sollte HBCC echt so gut funktionieren (muss sich noch herausstellen ob das ohne Probleme auf jedes Spiel übertragbar ist) ist das quasi vergleichbar mit 16GB (eventuell gar 16+GB) ohne HBCC. Und natürlich denkt AMD auch etwas weiter in die Zukunft bei V10. Heute können noch 2GB mit HBCC in Spielen reichen. Das muss aber nicht für Spiele 2018/2019 noch gelten. Die Anforderungen steigen kontinuierlich. Übrigens würden 4GB V11 sehr gut stehen wenn HBCC wirklich so extrem gut funktioniert wie man das bisher am Beispiel von RotTR und Deus Ex sehen kann. Aber wie gesagt... hier warte ich lieber noch Frametime Vergleiche ab.
fondness
2017-05-17, 15:27:29
Könnte es sein, dass V11 die Raven Ridge GPU ist? Zumindest sind das bisher die einzigen bekannten Vega-GPUs und Treibereinträge dazu. Also entweder kommt V11 sehr spät oder...
Dino-Fossil
2017-05-17, 15:33:06
Das macht mich auch stutzig. Vor allem, was bringt es wenn man trotzdem 8-16GB verbaut? Klar, 16GB sind im absoluten high-end schon nice to have, aber niemand ist wirklich der Meinung das 8GB jetzt schon zu wenig sind.
Es ist bisher fast alles Marketing - wie sich der HBCC in der Praxis auswirkt müssen wir erstmal abwarten. Ich vermute, dass nicht alle Szenarien (bzw. Spiele) gleichermaßen profitieren. Im Profi-Bereich gelten sowieso nochmal andere Anforderungen, da könnten 16GB HBM2 viel wichtiger werden als bei Gamingkarten. Bei denen sehe ich nämlich in der Tat eher den psychologischen Effekt (so denn überhaupt 16GB HBM2 für die verfügbar sein werden).
dargo
2017-05-17, 15:36:39
Könntest du mir bitte erklären warum du ständig Desktop und Profilösung in einen Topf wirfst? Ist es wirklich so schwer?
Desktop V10 = 8GB
Profilösung V10 = 16GB
Weil gar nicht sicher ist, ob Hynix überhaupt 2GHz 4GB-Stack herstellt beispielsweise. Zudem ist nicht sicher, dass AMD hier überhaupt zwei unterschiedliche Produkte fertigt. Ich denke, 16GB ist per se wahrscheinlicher. Ich denke, da es die 8er Stacks schon gibt, wird man diese exklusiv für Vega herstellen, für andere Consumer gibts halt nur bis zu 4er Stacks 1,6GHz.
PrivateCeralion
2017-05-17, 15:42:50
Ich hab nochmal ne Nacht darüber geschlafen und komme zum Ergebnis:
Der HBC-Controller ist ja der shit. Das will ich. Mit 16 Gigabyte. Ob man so eine Vega unter 2000€ bekommt?
Complicated
2017-05-17, 15:44:22
@Börse
Die sind auch vor Börsenschluß gestern um über 11% gestiegen im Vorfeld-Hype zum FAD. Alle haben mit der Ankündigung gerechnet zu dem Intel Lizenzdeal. Mal sehen was bei Nasdaq Eröffnung passiert in einer halben Stunde und ob das Gesamt-Plus von derzeit 4% (11-7) sich halten kann.Es scheint die großen Investoren sind überzeugt worden beim FAD. 3x über 500.000 Stck. Einkauf in den ersten Minuten und nur noch die Hälfte des Vorbörslichen Minus.
Der_Korken
2017-05-17, 15:45:03
Die Funktionsweise des HBCCs wurde doch schon vor längerer Zeit hier erörtert. Das waren natürlich nur Spekulationen auf Basis der spärlichen Informationen, die AMD rausgerückt hat, aber insgesamt waren sie relativ stimmig. Die Essenz war, dass der VRAM ähnlich funktionieren soll wie ein CPU-Cache. Wenn Daten angefordert werden, die nicht im VRAM liegen, werden sie aus dem RAM geholt und im VRAM hinterlegt, wofür irgendwelche alten Daten verdrängt werden müssen. Das ganze soll in Hardware funktionieren und für die Anwendung gar nicht sichtbar sein. Das heißt, dass Daten, die nie gebraucht werden, auch praktisch nie im VRAM landen, sondern irgendwo im RAM (oder gar auf der Platte) rumdümpeln, egal ob das Spiel 8, 12 oder 100GB allokiert.
Der Unterschied zur heutigen Speicherverwaltung ist, dass Transfers zwischen RAM und VRAM explizit angestoßen werden müssen, sprich der Treiber sich um das Beschaffen der Daten kümmern muss. Außerdem könnte man den HBCC so gestalten, dass VRAM-Misses nur den Thread blockieren, der die Daten braucht, während alle anderen einfach weiterlaufen (was mit der aktuellen Hardware auch keine Selbstverständlichkeit ist, wenn ich mich damals nicht verlesen habe).
Zur Datenübertragung zwischen VRAM und RAM muss man auch mal folgendes beachten: Bei 480GB/s kann man einen 8GB großen VRAM pro Sekunde im absoluten Optimalfall 60 mal pro Sekunde komplett einlesen (praktisch wird es deutlich weniger sein). PCI x16 3.0 schafft ~30GB/s, es könnten also pro Frame bis zu 500MB geswappt werden (bei 60 fps). Da sich die Szene bei Spielen nicht so rasend schnell ändert, wären 16GB imho ziemliche Verschwendung bzw. eine unnötige Verteuerung. Keiner wird 100$ oder mehr Aufpreis zahlen für das bessere Gefühl 16GB zu haben, wenn es an 8GB nichts auszusetzen gibt.
Für Computing sieht das natürlich anders aus, wenn man große Datensätze hat, auf die relativ wahlfrei zugegriffen wird, aber da kann man auch wesentlich höhere Preise pro Karte verlangen. Da machen dann 100$ mehr für den Extra VRAM den Kohl auch nicht mehr fett.
Edit: Mal eine Frage an die Experten: Ich hatte mal irgendwann gefragt, ob durch DCC VRAM einsparen kann, denn wenn ich Daten verkleinere, um mehr effektive Bandbreite zu bekommen, dann brauchen die Daten ja auch im VRAM weniger Platz (sofern sie im VRAM nicht wieder dekomprimiert werden, was energetisch aber ziemlich dämlich wäre). Die Antwort war nein, da es keine Verkleinerungsgarantien gibt und man nicht in die Situation geraten will, dass ein komprimierter Block nach einer Modifikation plötzlich mehr Platz braucht (wegen schlechterer Komprimierbarkeit) und deshalb nicht mehr an die Stelle passt, wo er vorher stand. Ein Block der unkomprimiert Größe x hat, belegt also im VRAM auch Größe x, selbst wenn er komprimiert nur y Bytes bräuchte (y < x). Wenn man jetzt aber sowieso mit Cache-Lines arbeitet, könnte man doch den Overhead (x - y) in den RAM auslagern, da er bei einer Anforderung des Blocks eh nicht angefragt wird. Würde der HBCC also nicht bereits aufgrund dieser Kompression effektiv VRAM einsparen? Oder sind die bisherigen Speichersysteme schon klever genug das zu machen?
Cyphermaster
2017-05-17, 15:46:50
Es ist bisher fast alles Marketing - wie sich der HBCC in der Praxis auswirkt müssen wir erstmal abwarten. Ich vermute, dass nicht alle Szenarien (bzw. Spiele) gleichermaßen profitieren.Egal, wie viel davon effektiv im Alltag auf den Boden gebracht werden kann - da wird jedes einzelne Prozent höchst willkommen sein. Und auch wenn es nur höchstens die Hälfte von dem wäre, was man präsentiert hat, wäre es noch immer ein ordentliches Pfund.
Dino-Fossil
2017-05-17, 15:47:41
Könntest du mir bitte erklären warum du ständig Desktop und Profilösung in einen Topf wirfst? Ist es wirklich so schwer?
Desktop V10 = 8GB
Profilösung V10 = 16GB
Tue ich gar nicht, mir scheint das ist eher dein Problem. :tongue:
vinacis_vivids
2017-05-17, 15:52:44
RX Vega FE ~ 4096SP, 1600Mhz, 8GB, 13,1 TFlops -> 599-699$ (1080ti)
RX Vega XT ~ 4096SP, ~1500Mhz, 8GB, 12,3 TFlops -> 449-499$ (1080)
RX Vega Pro ~ 3584SP, ~1500Mhz, 4GB, 10,7 TFlops -> 299-399$ (1070)
Wird auf jeden Fall super interessant mit den min. fps. für *smooth* gaming. AMD ist tatsächlich nicht am längsten Balken interessiert, sondern eher für eine breite Auslegung und stabilere Frames. Einfach perfekte Entwicklung.
dargo
2017-05-17, 16:06:19
Tue ich gar nicht, mir scheint das ist eher dein Problem. :tongue:
Liegt es an der Hitze, dass du nicht mehr mitbekommst was du schreibst?
Ravenhearth
2017-05-17, 16:18:53
So langsam frage ich mich, ob es für AMD nicht besser gewesen wäre, Vega einfach mit einem 384 Bit-Speicherinterface und 10 Gbps GDDR5X (wie bei der Titan X) auszustatten. Damit käme man ebenfalls auf 480 GB/s, und das ohne die Probleme, die HBM bereitet.
AtTheDriveIn
2017-05-17, 16:26:13
So langsam frage ich mich, ob es für AMD nicht besser gewesen wäre, Vega einfach mit einem 384 Bit-Speicherinterface und 10 Gbps GDDR5X (wie bei der Titan X) auszustatten. Damit käme man ebenfalls auf 480 GB/s, und das ohne die Probleme, die HBM bereitet.
Wahrscheinlich hätte man dann das Problem des Energieverbrauchs an der Backe
dildo4u
2017-05-17, 16:26:20
AMD braucht HBM irgendwann für ihre APU's,sie müssen also ihrer GPU Technologie in diese Richtung auslegen.Ich vermute die näste Generation der Konsolen wird solche APU's als Erstes nutzen.
vinacis_vivids
2017-05-17, 16:30:14
So langsam frage ich mich, ob es für AMD nicht besser gewesen wäre, Vega einfach mit einem 384 Bit-Speicherinterface und 10 Gbps GDDR5X (wie bei der Titan X) auszustatten. Damit käme man ebenfalls auf 480 GB/s, und das ohne die Probleme, die HBM bereitet.
?
Die Entwicklung von HBM fing schon vor Fiji an und wird konsequent weitergeführt. Nur weil der Weg schwierig ist, schwenkt man nicht gleich um.
GDDR5 gibs bei Polaris usw. im Einsteigerbereich.
Dino-Fossil
2017-05-17, 16:30:51
Egal, wie viel davon effektiv im Alltag auf den Boden gebracht werden kann - da wird jedes einzelne Prozent höchst willkommen sein. Und auch wenn es nur höchstens die Hälfte von dem wäre, was man präsentiert hat, wäre es noch immer ein ordentliches Pfund.
Ja, das Konzept finde ich auch sehr interessant und ich bin sehr gespannt auf die ersten Tests dazu.
Vega ist definitiv der technisch interessanteste GPU-Launch von AMD in den letzten Jahren.
Ich wollte damit nur ausdrücken, dass es sicherlich seine Gründe hat, dass AMD trotz HBCC nicht einfach nur 4 GB HBM auf seinen Karten verbaut.
w0mbat
2017-05-17, 16:50:08
Aber vielleicht braucht man wirklich nur 8GB um gegen eventuelle 12-24GB einer GTX 2080(Ti) oder Titan XV anzukommen. Und wenn die Vega Architektur irgendwann in das Performance-Segment kommt, gäbe es die Möglichkeitm, dass ein RX 580 Nachfolger mit "nur" 4GB + HBCC (wenn es so denn funktioniert wie beschrieben) mehr als ausreichend ist. Spart Platz, Strom und Geld.
Cyphermaster
2017-05-17, 16:52:36
So langsam frage ich mich, ob es für AMD nicht besser gewesen wäre, Vega einfach mit einem 384 Bit-Speicherinterface und 10 Gbps GDDR5X (wie bei der Titan X) auszustatten. Damit käme man ebenfalls auf 480 GB/s, und das ohne die Probleme, die HBM bereitet.Was soll daran "einfach" sein? Damit hätte man statt reinen Weiter- zusätzlichen Umentwicklungsaufwand obendrauf betrieben. Ob das dann unter dem Strich besser rausgekommen wäre, ist schon Spekulation. In Anbetracht der Tatsache, daß wir die HBM-Probleme gar nicht im Detail kennen, Spekulation².
w0mbat
2017-05-17, 16:59:05
Zumal, welche HMB2 Probleme? Das sind doch alles nur Spekus! AMD wollte 8Hi und 2Gbps. Vega FE, die erste Vega GPU die auf den Markt kommen wird, wie angekündigt im H2/2017, kommt augenscheinlich mit 8Hi und 1,88Gbps.
Ich würde da nicht von "großen" Problemen sprechen.
dargo
2017-05-17, 17:02:43
AMD braucht HBM irgendwann für ihre APU's,sie müssen also ihrer GPU Technologie in diese Richtung auslegen.Ich vermute die näste Generation der Konsolen wird solche APU's als Erstes nutzen.
Nein, Raven Ridge wird es schon vorher tun.
Palpatin
2017-05-17, 17:06:04
Wurde den eigentlich überhaupt schonmal offiziell bestätigt das Gaming Vega mit HBM kommt? ;)
Ravenhearth
2017-05-17, 17:06:35
Nein, Raven Ridge wird es schon vorher tun.
Dildo meint HBM. Den wird Raven Ridge nicht haben ;)
Eldoran
2017-05-17, 17:08:30
So langsam frage ich mich, ob es für AMD nicht besser gewesen wäre, Vega einfach mit einem 384 Bit-Speicherinterface und 10 Gbps GDDR5X (wie bei der Titan X) auszustatten. Damit käme man ebenfalls auf 480 GB/s, und das ohne die Probleme, die HBM bereitet.
Es wäre nicht sinnvoll möglich. GDDR5X oder GDDR6 würde ein stromfressenderes und größeses Interface auf dem Die erfordern. Vor allem aber wäre damit der HBCC nicht sinnvoll nutzbar, ein cache miss wäre deutlich teurer. GDDR ist relativ träge was schreib-lesezyklen angeht, etwa doppelt so lange wie bei HBM2. Damit schrumpft die effektiv nutzbare Bandbreite deutlich.
Daredevil
2017-05-17, 17:08:42
Wurde den eigentlich überhaupt schonmal offiziell bestätigt das Gaming Vega mit HBM kommt? ;)
20 Seiten "Diskussion", alles für die Katz. :D
Achill
2017-05-17, 17:20:22
AMD braucht HBM irgendwann für ihre APU's,sie müssen also ihrer GPU Technologie in diese Richtung auslegen.Ich vermute die näste Generation der Konsolen wird solche APU's als Erstes nutzen.
Dies könnte ich mir auch gut vorstellen, sehr schnelle 2-4GB HBM2 und dazu 8+ GB "normalen" Ram über den HBCC angebunden. CPU und GPU als MCM dann auf beides shared (und transparent) zugreifen können.
BoMbY
2017-05-17, 17:25:09
Wurde den eigentlich überhaupt schonmal offiziell bestätigt das Gaming Vega mit HBM kommt? ;)
Du meinst AMD veröffentlicht Vega 10 gar nicht als Gaming-Karte? Vega 10 wird es jedenfalls nur mit HBM geben, und ziemlich sicher auch nur mit exakt zwei Stacks davon.
Ravenhearth
2017-05-17, 17:38:49
Das P3DNow fasst die Sache ziemlich gut zusammen: AMD tarnt Vega-Verschiebung mit Frontier Edition (http://www.planet3dnow.de/cms/31984-amd-tarnt-vega-verschiebung-mit-frontier-edition/)
Kriton
2017-05-17, 17:55:26
Die Börse sieht den Auftritt gestern ziemlich skeptisch: Vorbörslicht schon -7%.
Man muss da immer bedenken: Die haben üblicherweise technisch überhaupt keine Ahnung. Im zeitlichen Velauf konnte man auch sehr gut sehen, dass ab Papermaster der Einbruch begann.
uweskw
2017-05-17, 18:03:52
RX Vega FE ~ 4096SP, 1600Mhz, 8GB, 13,1 TFlops -> 599-699$ (1080ti)
RX Vega XT ~ 4096SP, ~1500Mhz, 8GB, 12,3 TFlops -> 449-499$ (1080)
RX Vega Pro ~ 3584SP, ~1500Mhz, 4GB, 10,7 TFlops -> 299-399$ (1070)
Wird auf jeden Fall super interessant mit den min. fps. für *smooth* gaming. AMD ist tatsächlich nicht am längsten Balken interessiert, sondern eher für eine breite Auslegung und stabilere Frames. Einfach perfekte Entwicklung.
Ich gehe jetzt mal von mir aus: 650,00€ und dann nicht klar vor der 1080Ti, ich glaube da würde ich mir doch nochmal NV antun. Mehr Speicher, garantiert gutes OC.
Bin mir gerade nicht sicher ob ich noch warte bis Vega Gaming kommt...
greetz
US
Digidi
2017-05-17, 18:04:23
Gibt's irgendwo mal Benchmarks von Pascal und Quadro karten?
Troyan
2017-05-17, 18:08:54
Ändert nichts daran, dass in SpecView der Quadro-Treiber deutlich schneller ist:
https://hardforum.com/attachments/upload_2017-5-17_1-43-29-png.25126/
https://hardforum.com/threads/vega-rumors.1933112/page-6#post-1043004491
Cyphermaster
2017-05-17, 18:09:22
Und das ist inwiefern eine Aussage? Mehr oder minder groß kommen nach einem (diesmal zweistelligen!) Hoch im Vorfeld solcher Veranstaltungen immer umgehend die ersten Gewinnmitnahmen der Kurzfrist-Spekulanten, sobald klar wird, daß keine weitere Steigerung des Kurses mehr zu erwarten ist.
Längerfristig arbeitet sich der Kurs grade wieder nach der "Delle" Anfang Mai wieder nach oben. Schätze, wenn auf der Computex was gezeigt wird, an dem man wieder ein Stück mehr zu RX Vega ablesen kann, rumort es wieder ein wenig.
VooDoo7mx
2017-05-17, 18:16:15
Jetzt auf ein einmal HBCC der heilige Gral. Vor 2 Jahren war es noch Vulkan und DX12 womit AMD alles wegrocken wird. :lol:
Das dafür jedes Spiel einzeln angepasst werden muss, scheinen wohl die meisten Leute hier zu vergessen. Desweiteren hilft es auch nur Spielen die sowieso nur enormen RAM Verbrauch haben, bei den Rest verpufft es.
Und das da nur Spiele gezeigt werden die sowieso schon ein AMD Logo haben und deren Engines sowieso nicht wirklich gut sind spricht Bände.
Und wenn man dann noch die Grafikkarte künstlich beschneiden muss, also komplett realitätsfremde Testszenarien erzeugt, um Vorteile von HBCC aufzuzeigen lässt dies schon mal tief blicken. Wo sind denn die Vorteile unter reellen Bedingungen. Aber die Fanboys feiern schon mal. :lol:
Ich bin mir ganz sicher, das die typischen AMD Spiele wie Ashes of the Singularity, Hitman, Deus Ex und Doom sicher ganz gut davon profitieren können. Die 15000 anderen Titel die am Markt sind laufen wie immer auf nVidia Hardware besser. Aber HBCC ist der nächste heilige Gral! Schwöre!
Cyphermaster
2017-05-17, 18:17:04
Ich gehe jetzt mal von mir aus: 650,00€ und dann nicht klar vor der 1080Ti, ich glaube da würde ich mir doch nochmal NV antun.AMD wird wohl schon aus Image-Gründen einen Zielkorridor ähnlich wie bei Ryzen anpeilen, und notfalls Marge opfern. Das wäre in Größenordnungen ~10% unterhalb in der Leistung vergleichbarer nVidia-Produkte. Alles Andere an Preis-/Leistungsgefüge kann ich mir nur vorstellen, wenn HBM2 noch länger nicht gut lieferbar ist, d.h. AMD die Hände gebunden sind. Sozusagen ein "Abwehrangebot", damit nicht zu viele Gamer kaufen, man aber sagen kann, man ist präsent im Segment. Und damit "überleben" bis zur nächsten Generation.
PrivateCeralion
2017-05-17, 18:17:48
Das dafür jedes Spiel einzeln angepasst werden muss, scheinen wohl die meisten Leute hier zu vergessen. !
Quelle?
Digidi
2017-05-17, 18:18:05
Ändert nichts daran, dass in SpecView der Quadro-Treiber deutlich schneller ist:
https://hardforum.com/attachments/upload_2017-5-17_1-43-29-png.25126/
https://hardforum.com/threads/vega-rumors.1933112/page-6#post-1043004491
Kennst du die Bedingungen wie AMD gebencht hat? Was für Bauteile, wie viele Baugruppen etc?
Cyphermaster
2017-05-17, 18:32:09
Jetzt auf ein einmal HBCC der heilige Gral. Vor 2 Jahren war es noch Vulkan und DX12 womit AMD alles wegrocken wird. :lol:Du scheinst den Unterschied zwischen Balkenlänge in Spielen und genereller Technologie irgendwie nicht so recht zu kennen. Oder nicht kennen zu wollen.
Desweiteren hilft es auch nur Spielen die sowieso nur enormen RAM Verbrauch haben, bei den Rest verpufft es.Es hilft - wie Datenkompression - allgemein jeder ANWENDUNG, die viele RAM-Operationen braucht. Nicht nur Spielen. Und das sind nicht nur schon jetzt mehr als du einkalkuliert hast, das werden auch insgesamt immer mehr werden. Sparen lohnt eben. :wink:
Und das da nur Spiele gezeigt werden die sowieso schon ein AMD Logo haben und deren Engines sowieso nicht wirklich gut sind spricht Bände.
Das ist also bei nVidia-Präsentationen anders? Seit wann? Warum hab ich das nur verpaßt? :lol:
Und wenn man dann noch die Grafikkarte künstlich beschneiden muss, also komplett realitätsfremde Testszenarien erzeugt, um Vorteile von HBCC aufzuzeigen lässt dies schon mal tief blicken. Wo sind denn die Vorteile unter reellen Bedingungen.1. Sind -wie die GTX970 zeigt- Szenarien mit solchen Limitationen oft deutlich schnell weniger "realitätsfern", als man meint... :whistle:
2. Ist es doch sonst immer ein Argument gegen AMD, daß die Karten mehr Speicher brauchen würden als die Konkurrenz. Und jetzt, wo AMD auch zeigt, daß man Speicher-sparende Technologien entwickelt, ist das natürlich total unnötiger Blödsinn? Schon klar...
Das erinnert mich daran, als man bei der Radeon 8500 Tesselation als total unnötige, unsinnige "Bullshit-Technik" verlacht hat, weil sie eben nicht den längeren Balken gebracht hat. Oder die Kyro-GPUs mit TBR. Heute würde einem eher das Lachen im Halse stecken bleiben, wenn man alle solchen Technologien aus Grafikkarten wieder entfernen würde.
Linmoum
2017-05-17, 18:39:15
Jetzt auf ein einmal HBCC der heilige Gral. Vor 2 Jahren war es noch Vulkan und DX12 womit AMD alles wegrocken wird. :lol:
Sinnloser Vergleich.
Das dafür jedes Spiel einzeln angepasst werden muss, scheinen wohl die meisten Leute hier zu vergessen.
Engine, nicht Spiel. Und selbst das ist anscheinend nicht zu 100% klar.
Desweiteren hilft es auch nur Spielen die sowieso nur enormen RAM Verbrauch haben, bei den Rest verpufft es.
Stimmt, ist ja nur bei Spielen hilfreich. Leider nichts verstanden du haben.
Und das da nur Spiele gezeigt werden die sowieso schon ein AMD Logo haben und deren Engines sowieso nicht wirklich gut sind spricht Bände.
Deswegen ist Rise of the Tomb Raider auch im Gameworks-Programm, stimmt. Schlimm, dieses AMD Logo.
Und wenn man dann noch die Grafikkarte künstlich beschneiden muss, also komplett realitätsfremde Testszenarien erzeugt, um Vorteile von HBCC aufzuzeigen lässt dies schon mal tief blicken. Wo sind denn die Vorteile unter reellen Bedingungen. Aber die Fanboys feiern schon mal. :lol:
Erneut leider nichts verstanden. Setzen, 6.
Ich bin mir ganz sicher, das die typischen AMD Spiele wie Ashes of the Singularity, Hitman, Deus Ex und Doom sicher ganz gut davon profitieren können. Die 15000 anderen Titel die am Markt sind laufen wie immer auf nVidia Hardware besser. Aber HBCC ist der nächste heilige Gral! Schwöre!
Siehe oben, RotTR ist im Gameworks-Programm. Also fällt dein klassisches "aber nur AMD-Spiele!!!1 mama hilfe" schonmal ins Reich der Fabeln. ;)
Ansonsten schade, dass du nur rumtrollen willst, denn das Thema HBCC bietet eigentlich einiges für gehaltvolle Diskussionen.
rentex
2017-05-17, 18:41:07
Was hält AMD eigentlich ab, GDDR5x für VEGA zu nutzen? Das es jetzt noch bis Herbst dauern soll, bis die Gamingvarianten erscheinen ist ziemlich schlecht.
[MK2]Mythos
2017-05-17, 18:43:04
Für die Ryzen Hypetrommel fand ich die Leistung am Ende sehr lahm. Besonders Gaming Performance. Dazu noch schrottige instabile Platform, schlechte Übertaktbar keit etc etc. Einfach nur ein bestenfalls mittelmäßiges Gesamtpaket.
Noch mieser war der Polaris Launch nach den vollmundigen vorherigen Ankündigungen.
Meine Güte, du trollst ja alleine so fleißig wie Schaffe, dildo und Troyan zusammen. Aber Sätze wie der oben zitierte, verraten ja wessen Geistes Kind du bist und das disqualifiziert dich ja quasi schon sofort von einer sachlichen Diskussion. "Mies" ist übrigens dein Satzbau sowie deine Rechtschreibung.
Dino-Fossil
2017-05-17, 18:47:42
Was hält AMD eigentlich ab, GDDR5x für VEGA zu nutzen? Das es jetzt noch bis Herbst dauern soll, bis die Gamingvarianten erscheinen ist ziemlich schlecht.
Hm, Vega hat keinen entsprechenden MC und den Chip spät im Designprozess anzupassen dauert noch viel länger.
Wie "verfügbar" GDDR5X ist wissen wir eigentlich auch nicht sooo genau. Offenbar genug für nVidia, aber reichts auch zusätzlich für Vega? Immerhin hat die 1070 ja auch schon keinen mehr bekommen.
Bietet GDDR5X die nötigen Eckdaten um zu Vega's Design zu passen (HBCC)?
Es gibt also durchaus ein paar potentielle Gründe...
Kriton
2017-05-17, 18:54:15
Das macht mich auch stutzig. Vor allem, was bringt es wenn man trotzdem 8-16GB verbaut? Klar, 16GB sind im absoluten high-end schon nice to have, aber niemand ist wirklich der Meinung das 8GB jetzt schon zu wenig sind.
Ich kann mir gut vorstellen, dass es bei 2 oder 4GB VRAM etwas bringt, aber dann muss AMD auch einen VEGA mit 2/4GB VRAM bringen, und selbst wen der HBCC wirklich funktioniert bin ich sehr skeptisch wie gut sich so eine SKU verkaufen würde.
Also wofür ist das von Nutzen? Klar, im HPC Sgement bei sehr großen Datenmengen, dafür hat AMD das ja auch entwickelt. Aber ob das beim gaming so nützlich ist wenn man ausreichend VRAM hat? Ich kann mir gut vorstellen, dass RX Vega "nur" mit 8GB HBM2 kommt, aber denke nicht, dass das dort schon spürbar ist.
Zukunftssicherheit. Gerade wenn man nicht die Mittel hat so schnell wie Nvidia neue Generationen zu bringen. Denk mal daran wie lange die 290(X) zu gebrauchen war/ist. Auch wenn man einen Refresh macht, kann sich das auszahlen, weil die karte grds. noch immer mithalten kann (und man nicht einmal den Speicher erhöhen muss).
Der_Korken
2017-05-17, 18:55:54
Was hält AMD eigentlich ab, GDDR5x für VEGA zu nutzen? Das es jetzt noch bis Herbst dauern soll, bis die Gamingvarianten erscheinen ist ziemlich schlecht.
Dass man den Chip umdesignen müsste (teuer) und damit vermutlich schon letztes Jahr hätte anfangen müssen, um einen nennenswerten Zeitvorteil rauszuholen. AMD hat sich aber entschieden ihr Ding mit HBM2 durchzuziehen, da müssen die jetzt durch.
Jetzt auf ein einmal HBCC der heilige Gral. Vor 2 Jahren war es noch Vulkan und DX12 womit AMD alles wegrocken wird. :lol:
Das dafür jedes Spiel einzeln angepasst werden muss, scheinen wohl die meisten Leute hier zu vergessen. Desweiteren hilft es auch nur Spielen die sowieso nur enormen RAM Verbrauch haben, bei den Rest verpufft es.
Woher stammt die Info, dass Spiele das explizit unterstützen müssen? Dem aktuellen Wissensstand nach zeichnet sich diese Technik gerade dadurch aus, dass die Software eben NICHT angepasst werden muss. Und ja, bei Spielen die eh kaum VRAM verbrauchen wird es keinen Unterschied machen - weil der VRAM auch so reicht :freak: Da könnte man genauso gut sagen, dass 16GB VRAM gegenüber 8GB nichts bringen, wenn die Anwendung mit 8GB auskommt. Und ein heiliger Gral ist HBCC nicht, sondern eine kluge Technik. HBM ist teuer und wenn man auf allen Karten nur halb so viel verbauen muss wie ohne die Technik, wirkt sich das sehr positiv auf die Marge aus. Fiji hätte sehr davon profitiert und es hätte vielleicht nie zur Debatte gestanden, ob die 4GB zu wenig sein könnten.
dargo
2017-05-17, 18:58:40
Dildo meint HBM. Den wird Raven Ridge nicht haben ;)
Da irrst du dich.
Linmoum
2017-05-17, 19:05:31
Fiji hätte sehr davon profitiert und es hätte vielleicht nie zur Debatte gestanden, ob die 4GB zu wenig sein könnten.
Es würde mich auch nicht wundern, wenn Fiji deswegen im Endeffekt der Grundstein für den jetzigen HBCC war. Für den Alltag muss sich nur noch das beweisen, was man bisher bei Deus Ex und Tomb Raider schon sehen konnte.
dargo
2017-05-17, 19:10:06
Die Diskussion ist mal wieder atemberaubend. Was wurde/wird DCC bei Nvidia gefeiert. Jetzt kommt AMD mit neuer Technik um Vram zu sparen... braucht kein Mensch. :uup: Wie schon gesagt wurde... gerade hier kann man ne Menge Geld sparen wenn man nur noch die Hälfte verbauen muss. HBCC stelle ich mir auch sehr interessant bei APUs vor.
Hübie
2017-05-17, 19:12:38
Kennst du die Bedingungen wie AMD gebencht hat? Was für Bauteile, wie viele Baugruppen etc?
Das steht bei AMD immer im Kleingedruckten. Problematisch finde ich es in dem Augenblick, wo man diese Vega Karte gegen eine Quadro stellt und (angenommen) schlechter dar steht. Das nimmt wieder Reputation von AMD. Ich würde das lieber offen und ehrlich angehen, gerade im Business to Business ist Vertrauen wichtig. Und auch wenn ich es ungern sage: Troyan hat Recht. Die Quadros sind treiberseitig in diesen Anwendungen nicht beschnitten, was ziemlich sicher der Grund für das relativ schlechte Abschneiden der TXp ist.
Edit: NVIDIA macht dies übrigens absichtlich zur Produktabgrenzung. Sonst kaufen sich ja alle nur noch GeForce-Karten - was meinst du wie hoch der Faktor vom Ertrag hier ist? ;)
Ex3cut3r
2017-05-17, 19:26:30
Vega verspätet sich für den Consumer, wie es vor ein paar Tagen gesagt habe, weckt mich im November wenn Vega kommt. So lange hole ich mal die HD2900XT aus dem Keller. :rolleyes:
Digidi
2017-05-17, 19:26:53
Das steht bei AMD immer im Kleingedruckten. Problematisch finde ich es in dem Augenblick, wo man diese Vega Karte gegen eine Quadro stellt und (angenommen) schlechter dar steht. Das nimmt wieder Reputation von AMD. Ich würde das lieber offen und ehrlich angehen, gerade im Business to Business ist Vertrauen wichtig. Und auch wenn ich es ungern sage: Troyan hat Recht. Die Quadros sind treiberseitig in diesen Anwendungen nicht beschnitten, was ziemlich sicher der Grund für das relativ schlechte Abschneiden der TXp ist.
Edit: NVIDIA macht dies übrigens absichtlich zur Produktabgrenzung. Sonst kaufen sich ja alle nur noch GeForce-Karten - was meinst du wie hoch der Faktor vom Ertrag hier ist? ;)
Auch die Titan XP ist nicht beschnitten. Aber bei einer Titan XP hast du keinen Premiumsupport Anspruch. Fehler im Treiber kannst du gerne an Nvidia schicken, aber die werden das bei einem müden lächeln lassen.
Bei einer Quadro unterschreibst du automatisch einen Vertrag der Nvidia dazu verpflichtet in angemessener Zeit bei Treiberfehlern zu reagieren. Das ist der einzige unterschied.
Denn für eine Firma gibt es nichts teures als ein Arbeiter oder System was nicht in Arbeit ist.
aceCrasher
2017-05-17, 19:28:53
Jetzt kommt AMD mit neuer Technik um Vram zu sparen... braucht kein Mensch.
Spart DCC nicht Bandbreite, während der HBCC Kapazität spart? Oder hab ich da was falsch verstanden? :confused:
dargo
2017-05-17, 19:32:53
Spart DCC nicht Bandbreite, während der HBCC Kapazität spart? Oder hab ich da was falsch verstanden? :confused:
Du hast nichts falsch verstanden. Beides sind Spartechniken in eigenen Bereichen.
Blediator16
2017-05-17, 19:33:07
Wieso ist die Karte eigentlich so riesig? Sollte HBM die Karte nicht kleiner machen?
http://www.bilder-upload.eu/thumb/b9a57f-1495042547.jpg (http://www.bilder-upload.eu/show.php?file=b9a57f-1495042547.jpg)
Sieht irgendwie länger aus als Fiji trotz großen Lüfters.
Memory capacity: 16 GBs of High Bandwidth Cache
HBM oder schummeln sie da mit zwei Speichertypen?
fondness
2017-05-17, 19:38:07
Naja, je länger die Karte, desto mehr Platz für den Kühler.
Blediator16
2017-05-17, 19:43:27
Naja, je länger die Karte, desto mehr Platz für den Kühler.
Sorry ich meine das PCB. Man sieht nicht wirklich wie lang es ist, aber es kommt mir doch schon etwas zu lang vor im Vergleich mit Fiji. Kann auch nur an meinen Augen liegen.
Hübie
2017-05-17, 19:43:35
Auch die Titan XP ist nicht beschnitten. Aber bei einer Titan XP hast du keinen Premiumsupport Anspruch. Fehler im Treiber kannst du gerne an Nvidia schicken, aber die werden das bei einem müden lächeln lassen.
Bei einer Quadro unterschreibst du automatisch einen Vertrag der Nvidia dazu verpflichtet in angemessener Zeit bei Treiberfehlern zu reagieren. Das ist der einzige unterschied.
Denn für eine Firma gibt es nichts teures als ein Arbeiter oder System was nicht in Arbeit ist.
Das ist nicht richtig. Informiere dich bitte wo die Unterschiede zwischen Quadro und Geforce in Hinblick auf CAD und Compute liegen bevor du so etwas behauptest. Bei Quadro unterschreibst du nix. Wer erzählt so etwas? :| Bestell bei amazon oder so und gut ist.
Mir ist durchaus bewusst dass den Fans so etwas nicht schmecken würde, aber wenn Tatsachen so sind ist es halt so. Ich vermute jedenfalls dass eine Quadro P6000 deutlich schneller ist als die TXp. Können da gerne wetten abschließen. :D
vinacis_vivids
2017-05-17, 19:44:58
Wieso ist die Karte eigentlich so riesig? Sollte HBM die Karte nicht kleiner machen?
http://www.bilder-upload.eu/thumb/b9a57f-1495042547.jpg (http://www.bilder-upload.eu/show.php?file=b9a57f-1495042547.jpg)
Sieht irgendwie länger aus als Fiji trotz großen Lüfters.
HBM oder schummeln sie da mit zwei Speichertypen?
Ist ne kompakt Wakü drauf und die braucht Platz.
Ich denke AMD ist sehr gut aufgestellt mit Vega. Vor allem der Rottr-Bench in 4k mit HBCC hat mich sehr beeindruckt. Auch glaube ich nicht, dass man bei den gezeigten Game-Demos komplett die Hose herunter gelassen hat. Ich denke Vega wird eine TI deutlich übertrumpfen. Leider kommt Vega vermutlich viel zu spät, da Volta bereits ~1/2 Jahr später aufschlägt.
Digidi
2017-05-17, 20:40:31
Das ist nicht richtig. Informiere dich bitte wo die Unterschiede zwischen Quadro und Geforce in Hinblick auf CAD und Compute liegen bevor du so etwas behauptest. Bei Quadro unterschreibst du nix. Wer erzählt so etwas? :| Bestell bei amazon oder so und gut ist.
Mir ist durchaus bewusst dass den Fans so etwas nicht schmecken würde, aber wenn Tatsachen so sind ist es halt so. Ich vermute jedenfalls dass eine Quadro P6000 deutlich schneller ist als die TXp. Können da gerne wetten abschließen. :D
Den Support bekommst du nicht über Nvidia direkt, sondern über die Softwarefirma wo der Fehler auftritt. Dafür bezahlst du das die Treiber von Nvidia zertifiziert werden und Fehler beseitigt werden.
Aber ich gebe zu ich lag bei den freischaltbaren Features. Das hat Nvidia noch immer. Dachte das wäre seit der Titan Black gestorben. Immerhin kostet das Ding ja Damals um die 1000 Euro.
vinacis_vivids
2017-05-17, 20:42:20
Ich denke AMD ist sehr gut aufgestellt mit Vega. Vor allem der Rottr-Bench in 4k mit HBCC hat mich sehr beeindruckt. Auch glaube ich nicht, dass man bei den gezeigten Game-Demos komplett die Hose herunter gelassen hat. Ich denke Vega wird eine TI deutlich übertrumpfen. Leider kommt Vega vermutlich viel zu spät, da Volta bereits ~1/2 Jahr später aufschlägt.
Schauen wir dochmal die UVP-Preise derzeit an:
Pascal:
Titan Xp - 471mm² - 3840SP - 1349€ 04/17
1080ti - 471mm² - 3584SP - 819€ 03/17
1080 - 314mm² - 2560SP - 635€ 02/17
1070 - 314mm² - 1920SP - 459€ 10/16
Da ist mit Vega ordentlich Bewegung nach unten drin. Egal ob man grün oder rot kaufen möchte.
Tamagothi
2017-05-17, 20:48:29
Wieso ist die Karte eigentlich so riesig? Sollte HBM die Karte nicht kleiner machen?
http://www.bilder-upload.eu/thumb/b9a57f-1495042547.jpg (http://www.bilder-upload.eu/show.php?file=b9a57f-1495042547.jpg)
Sieht irgendwie länger aus als Fiji trotz großen Lüfters.
HBM oder schummeln sie da mit zwei Speichertypen?
Könnte die variante mit der SSD sein!?
dargo
2017-05-17, 20:53:01
Schauen wir dochmal die UVP-Preise derzeit an:
Pascal:
Titan Xp - 471mm² - 3840SP - 1349€ 04/17
1080ti - 471mm² - 3584SP - 819€ 03/17
1080 - 314mm² - 2560SP - 635€ 02/17
1070 - 314mm² - 1920SP - 459€ 10/16
Da ist mit Vega ordentlich Bewegung nach unten drin. Egal ob man grün oder rot kaufen möchte.
UVP-Preise interessieren die Kunden nicht, sondern Straßenpreise. Die Preise der 1070, 1080 und 1080TI sind zu hoch angesetzt.
grauenvoll
2017-05-17, 21:01:09
Ich denke AMD ist sehr gut aufgestellt mit Vega. Vor allem der Rottr-Bench in 4k mit HBCC hat mich sehr beeindruckt. Auch glaube ich nicht, dass man bei den gezeigten Game-Demos komplett die Hose herunter gelassen hat. Ich denke Vega wird eine TI deutlich übertrumpfen. Leider kommt Vega vermutlich viel zu spät, da Volta bereits ~1/2 Jahr später aufschlägt.
AMD hat sich als Ziel 60Hz bei 4K gesetzt. Das macht Sinn, denn mehr können Monitore aktuell sowieso nicht wiedergeben. Egal ob nVidia mehr bietet oder nicht.
AMD hat sich als Ziel 60Hz bei 4K gesetzt. Das macht Sinn, denn mehr können Monitore aktuell sowieso nicht wiedergeben. Egal ob nVidia mehr bietet oder nicht.
Ja, aber die Klientel welche sich für ein derartiges Produkt interessiert, schaut halt oft auf die Balkenlänge. Zudem sind mehr als 600€ Kaufpreis kein Pappenstiel und jedes % an Performance wird doch gerne in Kauf genommen, vor allem in 4k.
Hübie
2017-05-17, 21:09:26
Den Support bekommst du nicht über Nvidia direkt, sondern über die Softwarefirma wo der Fehler auftritt. Dafür bezahlst du das die Treiber von Nvidia zertifiziert werden und Fehler beseitigt werden.
Aber ich gebe zu ich lag bei den freischaltbaren Features. Das hat Nvidia noch immer. Dachte das wäre seit der Titan Black gestorben. Immerhin kostet das Ding ja Damals um die 1000 Euro.
Die Treiber werden zertifiziert und sind universell für jedes Modell einsetzbar bei gleichem Featureset (es sei denn die Hardware kann es nicht). Dennoch gibt es eine Menge OGL extension die mit GeForce nicht laufen. Ist halt Firmware-bedingt. Eine Titan ist ein Schnäppchen im Vergleich zum Quadro Pendant, vergiss das nicht. Genau dies will weder NV noch Dassault, Siemens etc. :wink:
vinacis_vivids
2017-05-17, 21:21:40
UVP-Preise interessieren die Kunden nicht, sondern Straßenpreise. Die Preise der 1070, 1080 und 1080TI sind zu hoch angesetzt.
Naja, bin mir relativ sicher, dass viele grüne Käufer auch UVP geblecht haben.
Aber schauen wir mal zu MF
Asus 1080ti - 870€
MSI 1080ti - 760€
--> 815€ Durchschnittspreis bei 1000 verkauften Stücken
KFA2 1080 - 480€
MSI 1080 - 550€
Asus 1080 - 580€
Zotac 1080 - 590€
Asus strix 1080 - 710€
--> ~ 580€ Durchschnittspreis >7000 verkauften Stücken
Sollte Vega XT die 1080ti kassieren, oder gar die Titan Xp, wartet ein Geldsegen auf AMD. Es gibt so viele, die die GPU aufrüsten wollen. Volta im Gaming-Segment ist noch lange nicht in Sicht.
Preis/Leistung ist Triumph und bei Vega bin ich mir sicher, dass sie ein Knaller wird. Der impact könnte so groß sein wie die HD5870/5850 oder Radeon 9700/9500.
Außerdem finde ich gut, dass die Hype so klein gehalten wird.
Vorfreude pur :biggrin:
TheGood
2017-05-17, 21:34:58
Hm was haben wir gelernt?
- HBCC funktioniert jetzt schon bei zwei Spielen :) -ob es dafür aber spezielle Anpassung gibt, wissen wir nicht
- AMD liefert 16 GB auf dem VEGA aus. Das könnte tatsächlich auf für eine VEGA XP Black Edition eine Option sein
- Die Gamer Grafikkarten werden wohl nicht mehr im 2. Quartal ausgeliefert werden, was nicht so gut ist. ES ist zu hoffen, dass es dann ggf. Juli/August wird
- AMD hat sich ganz klar auf die professionielle Schiene im FAD bezogen und dieses GEschäftsfeld betont. Vor allem weil gerade in diesem Markt einfach mehr zu verdienen ist. Das ist durchaus logsich in einem Financial Analyst Day.
- Gaming Performance von VEGA ist auf jedenfall auf dem Level auf dem es sein sollte. hoffen wir auch dass das für die "Green" Features auch gilt.
- die HBM 2 ziele wurden nur minimal verfehlt, das lief auf jedenfall besser als bei NVidia
Alles in allem war es nicht so erhellend und ich hatte mir doch mehr versprochen.
PS: wer kann mir denn erklären warum Vega nur 480 GB/sec Speicherbandbreite hat und Volta ca. 900 GB/sec ? irgendwie erschilesst sich mir das nicht. Hat das mit 2 und 4 Stacks des HBM zu tun? Was sind denn die Auswirkungen davon?
robbitop
2017-05-17, 21:37:39
900 GiB/s? Meinst du GV100? Das ist eine GPU, die 1.) eine Generation weiter ist und 2.) in einer völlig anderen Liga spielt (>800 sqmm, "12nm").
Vega tritt gegen GP102 an. Also 1080ti. Im Profibereich ggf. gegen GP100.
Gesichert ist es mMn noch nicht, dass RX Vega nicht in Q2 erscheint. Es erscheint allerdings aufgrund des Fokus in der Präsentation (auf die Instinct Serie) als plausibel. Hier ist es sicherlich wahrscheinlich, dass die Menge an verfügbarem HBM Speicher die Stückzahl limitiert. Bei einer sehr kleinen Stückzahl macht ein Consumerprodukt wenig Sinn (hoher Stückzahlbedarf, geringerer Preis). Profiprodukte (geringerer Stückzahlbedarf, höherer Preis) schon eher. Nicht umsonst geht NV schon eine Weile mit den großen Chips für die ersten Monate auch ausschließlich in den Profimarkt.
dargo
2017-05-17, 21:37:58
Naja, bin mir relativ sicher, dass viele grüne Käufer auch UVP geblecht haben.
Das ist völlig irrelevant zum Releasezeitpunkt von Vega. Für die Interessenten die dann vor der Kaufentscheidung stehen zählen die dann aktuellen Straßenpreise und nichts anderes.
PS: wer kann mir denn erklären warum Vega nur 480 GB/sec Speicherbandbreite hat und Nvidia ca 900 GB/sec ? irgendwie erschilesst sich mir das nicht. HAt das mit 2 und 4 STacks des HBM zu tun? Was sind denn die tatsächlcihen Auswirkungen davon?
Erstens sind es keine 900GB/s bei GP100 sondern 720GB/s. Und ja... es liegt an den Stacks. Mit jedem weiteren Stack kannst du die Bandbreite erhöhen.
dargo
2017-05-17, 21:42:30
doppelpost
Linmoum
2017-05-17, 21:44:23
900 GiB/s? Meinst du GV100? Das ist eine GPU, die 1.) eine Generation weiter ist und 2.) in einer völlig anderen Liga spielt (>800 sqmm, "12nm").
Ich denke er bezieht das darauf, dass bei Volta ursprünglich 1TB/s geplant war und es jetzt eben "nur" 900GB/s wurden.
TheGood
2017-05-17, 22:04:26
Erstens sind es keine 900GB/s bei GP100 sondern 720GB/s. Und ja... es liegt an den Stacks. Mit jedem weiteren Stack kannst du die Bandbreite erhöhen.
Was ist denn jetzt die praktische Auswirkung davon?
Langlay
2017-05-17, 22:07:11
Der impact könnte so groß sein wie die HD5870/5850 oder Radeon 9700/9500.
Ich würde Vega wenn dann eher mit der 4870 vergleichen. Die 2900XT (heute Fury) war bei erscheinen gegenüber der sehr guten 8800GTX (heute 980Ti) eher eher ein Schuss in den Ofen. Langfristig war der 2900XT garnet so schlecht wie er beim Start erschien, aber anderes Thema. Dann kam die 3870 (heute Polaris) im deutlich kleiner als der Vorgänger. An sich brauchbarer Chip aber es fehlte an absoluter Leistung. Waren aber auch deutlich kleiner als die Highendchips von Nvidia. Und ich hoffe das Vega die neue 4870. Performe auf Augenhöhe für "kleines" Geld. Die 4870 ist der Geforce 260/280 damals ziemlich auf die Pelle gerückt und war zu einem ziemlich attraktiven Preis zu haben.
So ähnliches sollte imo auch das Ziel von Vega sein.
dargo
2017-05-17, 22:12:42
Was ist denn jetzt die praktische Auswirkung davon?
Ich verstehe deine Frage nicht.
vinacis_vivids
2017-05-17, 22:27:45
Was ist denn jetzt die praktische Auswirkung davon?
Tesla P100: 16GB ~ 4x4GB@180GB/s ~ 720GB/s
Tesla P100: 12GB ~ 3x4GB@180GB/s ~ 540GB/s
Volta:
Tesla V100: 16GB ~ 4x4GB@225GB/s ~ 900GB/s
Vega FE: 16GB ~ 2x8GB@240GB/s ~ 480GB/s
AMD beherrscht bereits die 8GB-Stacks Anbindung während Nvidia nur 4GB Stacks adressieren kann. Nvidia liegt also zurück was HBM² Technologie angeht.
TheGood
2017-05-17, 22:32:40
Ich verstehe deine Frage nicht.
Ja in der Regel hies es immer je mehr Bandbreite desto besser.
In der praxix hiesse das dass Volta die doppelte Bandbreite von Vega hat. Was sich erstens besser anhört und praktisch ja auch besser sein sollte.
Wäre es für VEGA dann nicht besser gewesen 4x4 zu nehmen um dann 960 GB/Sec zu haben anstelle von 2x8 mit 480 GB/sec ?
dargo
2017-05-17, 22:35:54
Ja in der Regel hies es immer je mehr Bandbreite desto besser.
Das ist doch Unsinn. Die Bandbreite sollte immer zur Rohleistung passen im jeweiligen Einsatzgebiet.
Rincewind
2017-05-17, 22:38:42
und da kommt die Frage nach der Praxis, bzw. praktischen Auswirkungen.
Der_Korken
2017-05-17, 22:53:11
AMD beherrscht bereits die 8GB-Stacks Anbindung während Nvidia nur 4GB Stacks adressieren kann. Nvidia liegt also zurück was HBM² Technologie angeht.
Das ist doch totaler Unsinn mit der Adressierung. Was soll das denn damit zu tun haben? Die Lieferbarkeit von 8GB-Stacks von Samung wird einfach zu unsicher oder zu gering sein für den von Nvidia anvisierten Release-Zeitpunkt.
vinacis_vivids
2017-05-17, 23:09:37
Und ich hoffe das Vega die neue 4870. Performe auf Augenhöhe für "kleines" Geld.
Vega misst vllt. ~ 490mm²
Nvidia verkauft einen 471mm² Chip in einer 819-1349€ Karte.
Bei einer Titan Xp Leistung darf man auch was verlagen. 699€ wäre ein Knaller. quasi eine Halbierung des Preises für eine äquivalente 4k/8k-Leistung.
Oder eine 4GB Karte, die fast an die 1080ti heranreicht und 449-499€ kostet. Wäre zu gut für alle, auch für die grünen. 4k-Gaming wäre dann massentauglicher.
Ex3cut3r
2017-05-17, 23:15:29
Deinen feuchten Träumen alle ehre, aber die Realität sieht erstmal anders aus. Wage zu bezweifeln das Vega in DX11 Games, an eine GTX 1080 rankommt, lasse mich aber gerne positiv überraschen, aber erstmal muss Vega überhaupt mal kommen.
Hübie
2017-05-17, 23:23:01
Tesla P100: 16GB ~ 4x4GB@180GB/s ~ 720GB/s
Tesla P100: 12GB ~ 3x4GB@180GB/s ~ 540GB/s
Volta:
Tesla V100: 16GB ~ 4x4GB@225GB/s ~ 900GB/s
Vega FE: 16GB ~ 2x8GB@240GB/s ~ 480GB/s
AMD Hynix beherrscht bereits die 8GB-Stacks Anbindung Herstellung während Nvidia Samsung nur 4GB Stacks adressieren kann aktuell anbietet. Nvidia Samsung liegt also zurück was HBM² Technologie Kapazität angeht.
FTFY :biggrin: So viel Blech in zwei Sätzen ist kaum zu fassen. Samsung hat 8GB-Stacks angekündigt, aber was meinst du wie es die Kosten noch mals hochtreiben würde, wenn man 4 x 8 GB verbaut (V100 hat 4 x 1024 Bit MC). HBM Gen3 wird das von Samsung anbieten. Für's Interleaving ist es z.B. besser mehr Memory-Channel zu haben, also kannst du nun nicht per se sagen, das eine oder das andere sei besser. Mir ist natürlich klar, dass du nur dein Fanatismus ausleben willst. Wollte es dennoch richtig stellen. :P
Edit: Und aktualisiere mal dein System X-D
TheGood
2017-05-17, 23:23:07
und da kommt die Frage nach der Praxis, bzw. praktischen Auswirkungen.
also ist es jetzt ein Nachteil gegenüber Volta mit 4x4 900 GB/s, wenn VEGA 2x8 einsetzt und "nur" 480 gb/s hat.
Langlay
2017-05-17, 23:24:01
Das sie Vega nicht für 250€ wie damals die 4870 auf den Markt schmeissen ist mir auch klar. Ich könnte mir z.b. vorstellen das Vega in der Geforce 1080 Preislage( +-10% je nach dem wie schnell das Teil dann in der Realität ist) angesiedelt sein wird und man mehr Bang for the Buck bekommt als bei Nvidia.
vinacis_vivids
2017-05-17, 23:34:34
also ist es jetzt ein Nachteil gegenüber Volta mit 4x4 900 GB/s, wenn VEGA 2x8 einsetzt und "nur" 480 gb/s hat.
Vega mit 3x4=12GB bis max. 768GB/s, real eher 720GB/s wäre auch denkbar. Chiptakt noch auf 1700 Mhz schrauben.
Linmoum
2017-05-17, 23:34:38
Deinen feuchten Träumen alle ehre, aber die Realität sieht erstmal anders aus. Wage zu bezweifeln das Vega in DX11 Games, an eine GTX 1080 rankommt, lasse mich aber gerne positiv überraschen, aber erstmal muss Vega überhaupt mal kommen.
Was? :freak: Das würde selbst 'ne Fury X mit Vegataktraten schon schaffen und das trotz der diversen Flaschenhälse, die Fiji einbremsen.
Ex3cut3r
2017-05-17, 23:41:27
Was? :freak: Das würde selbst 'ne Fury X mit Vegataktraten schon schaffen und das trotz der diversen Flaschenhälse, die Fiji einbremsen.
Dann ist es umso peinlicher, dass bisher kein Fiji Refresh kam. Man kann doch nicht über ein Jahr Nvidia einfach den Highend Markt überlassen. :redface:
Linmoum
2017-05-17, 23:46:41
Was denn für ein Refresh?
vinacis_vivids
2017-05-17, 23:49:05
Viele überschätzen die UHD Leistung der 1080.
Hübie
2017-05-17, 23:52:45
Die 1080 ist für 4k unbrauchbar. Die 1080 Ti weitgehend gut bis sehr gut nutzbar, aber auch hier muss man immer wieder Abstriche in Kauf nehmen. Wer 4k hat kennt das Problem nur allzu gut. Da sieht etwas so knackig scharf und klar aus und muss dann mit geringen Details erkauft werden. :rolleyes:
Rabiata
2017-05-17, 23:53:03
Dann ist es umso peinlicher, dass bisher kein Fiji Refresh kam. Man kann doch nicht über ein Jahr Nvidia einfach den Highend Markt überlassen. :redface:
Das ist schon passiert und nicht mehr rückgängig zu machen. Die GTX 1080 ist seit knapp einem Jahr released. Da kann auch ich als AMD-Fan nicht mehr behaupten, AMD hätte in diesem Jahr etwas gleichwertiges gehabt.
Mit Vega wird das hoffentlich besser...
Linmoum
2017-05-18, 00:03:16
Natürlich hatte AMD nichts gleichwertiges. Man braucht jetzt aber auch nicht so zu tun, als würde es mit Vega nicht mal für 'ne 1080 reichen. Wie gesagt, das würde 'ne Fury X schon mit den +50% an Takt schaffen, die Vega drauflegen wird. ;) Entscheidend für alles weitere werden die Veränderungen im Detail, die AMD mit Vega vorgenommen hat. Ich gehe davon aus, dass man mit Vega eine genauso gute "4K-Karte" bekommen wird, wie mit der 1080ti. OC wird sich zeigen müssen. Hoffentlich besser, als bei Fiji. :P
Ravenhearth
2017-05-18, 00:09:55
also ist es jetzt ein Nachteil gegenüber Volta mit 4x4 900 GB/s, wenn VEGA 2x8 einsetzt und "nur" 480 gb/s hat.
Nein, weil Vega10 und Nvidias GV100 nicht miteinander konkurrieren. Letzterer ist über 800mm² groß und für rein professionelle Zwecke gemacht und hat außerdem 1:2 DP. Vega10 konkurriert dagegen mit GP102, der in Form der GTX 1080 Ti ja auch nur 484 GB/s Bandbreite hat, und versucht quasi nebenbei noch im professionellen Markt mitzuspielen, weswegen AMD auch mit GP100 verglichen hat. Aber Vega10 hat kein 1:2 DP und wird auch nicht mit GV100 konkurrieren, deswegen reichen 480 GB/s aus. Die Bandbreite ist passend zu Leistung gewählt, mehr würde auch nicht viel bringen.
Vega mit 3x4=12GB bis max. 768GB/s, real eher 720GB/s wäre auch denkbar. Chiptakt noch auf 1700 Mhz schrauben.
Vega10 wird aber nur mit 2 Stacks kommen, nix 12GB und 768GB/s.
StefanV
2017-05-18, 01:26:33
Wäre es für VEGA dann nicht besser gewesen 4x4 zu nehmen um dann 960 GB/Sec zu haben anstelle von 2x8 mit 480 GB/sec ?
ja, aber auch deutlich teurer, da du 'nen deutlich größeren Interposer bräuchtest. Pi mal Daumen so +25% mehr.
horn 12
2017-05-18, 06:30:18
@edit
uweskw
2017-05-18, 07:22:40
Vega misst vllt. ~ 490mm²
Nvidia verkauft einen 471mm² Chip in einer 819-1349€ Karte.
Bei einer Titan Xp Leistung darf man auch was verlagen. 699€ wäre ein Knaller. quasi eine Halbierung des Preises für eine äquivalente 4k/8k-Leistung.
Oder eine 4GB Karte, die fast an die 1080ti heranreicht und 449-499€ kostet. Wäre zu gut für alle, auch für die grünen. 4k-Gaming wäre dann massentauglicher.
Wen interessiert hier Titan XP?
Die meist schnellere 1080Ti ist ab 720,00€ lieferbar. Wenn der große Vega nicht wirklich schneller ist, werde ich wohl kaum für weniger Speicher und weniger OC-Potential auch nur 650,00 hinlegen.
Und 499,00 für ne 4Gb Karte die nicht schneller ist als eine 1080 Custom zum gleichen Preis?
Wer zu spät kommt den bestraft das Leben, bzw. hier die Straßenpreise.
Wenn es wirklich so kommt, sieht es wirklich finster für AMD aus.
greetz
US
robbitop
2017-05-18, 07:28:22
also ist es jetzt ein Nachteil gegenüber Volta mit 4x4 900 GB/s, wenn VEGA 2x8 einsetzt und "nur" 480 gb/s hat.
Vega ist der Gegenspieler zu Pascal. Volta ist Nextgen. Die Consumer Voltas sind 2018.
rentex
2017-05-18, 08:06:48
Hm, so auf HBM zu setzen war wohl riskant, was die Verfügbarkeit angeht.
robbitop
2017-05-18, 08:25:08
Das ist sicherlich für Vega im Moment nachteilhaft. Für Fijii war es das auch.
Dafür hat man einen Verbrauchsvorteil. Ob der die Verzögerung des Markteintritts kompensieren kann?
Palpatin
2017-05-18, 08:31:08
Vega ist der Gegenspieler zu Pascal. Volta ist Nextgen. Die Consumer Voltas sind 2018.
Polaris ist gegenspieler von Pascal, ich sehe Vega klar als Gegenpart zu Volta. Man ist halt etwas früher dran. Ich rechne aber mit Gaming Vega mittlerweile auch eher Q4 als Q3, dafür das Topmodel auf Augenhöhe mit 2080 non TI.
robbitop
2017-05-18, 08:43:38
Polaris: P11 vs 1050 und P10 vs 1060. V10 wird der Gegenspieler zur 1080ti/GP102 und V11 wohl zum GP104/1070/1080.
Wenn es nach gleichem Muster abläuft, wie in den letzten Generationen, wird Q1/2 2018 sicher zunächst GV104 kommen und ähnlich schnell oder leicht schneller als GP102 sein. Hier wird V10 sicherlich auch antreten müssen. GV102 kommt sicherlich (wenn es so wie in den letzten Gen ist) später als extrem teure Titan. Der Volks GV102 (1180t/2080tii?) sicherlich noch deutlich später.
Bis es also einen echten Nachfolger für GP102 mit GV102 gibt, dauert es noch.
Achill
2017-05-18, 08:52:34
Polaris ist gegenspieler von Pascal, ich sehe Vega klar als Gegenpart zu Volta. Man ist halt etwas früher dran. Ich rechne aber mit Gaming Vega mittlerweile auch eher Q4 als Q3, dafür das Topmodel auf Augenhöhe mit 2080 non TI.
Es ist in der Regel so, dass die aktuell verfügbaren GPUs der verschiedenen Hersteller die Gegenspieler zueinander sind.
Solange es Pascal ist, muss sich Vega mit Pascal messen, wenn Volta raus kommt, dann ist es Volta. Genauso wenn Navi später kommt, muss sich diese GPU sich mit den aktuell verfügbaren anderen GPUs messen.
Das gleiche gilt für GV100, dieser ist angekündigt, ob er wirklich schon bezogen werden kann, ist eine ganze andere Frage. Damit treffen sich aktuell P100 und Vega FE im Compute-Markt.
dargo
2017-05-18, 08:53:57
Viele überschätzen die UHD Leistung der 1080.
Nichts für ungut. Aber auch ein V10 mit 13 TFLOPs ist für 4k imho ungeeignet. Jedenfalls wenn man recht hohe Frameraten haben möchte. Für mich persönlich wird 4k erst mit ca. 25 TFLOPs GPUs interessant da in der Zwischenzeit natürlich auch die Anforderungen etwas steigen werden bis wir diese Leistung mit einer Single-GPU sehen, erst recht "bezahlbar". 12-15 TFLOPs ist für mich die perfekte 1440p GPU (3440x1440 inbegriffen).
horn 12
2017-05-18, 09:03:10
@Dargo
KEIN Ultra HD Monitor kannn mehr als 60 Hz derzeit, und jene U-HD Monitore >60 Hz sind seit einem Jahr überfällig und vor Ende 2017, Anfang 2018 kommt da echt nix mehr...
FreeSync mit Vega Big sollte das Optimum darstellen können, auch bei meinem LG 27UD68-P /B
und da gurke ich oft mit 20 bis 25 fps rum, Sniper Ghost 3 und Ähnlichem obwohl bedingt spielbar mit maximalen Detail immer!
Da dürfte Vega in Regionen von 45 bis 50 locker kommen, da auch nur eine Fury habe...
dargo
2017-05-18, 09:06:11
@Dargo
KEIN Ultra HD Monitor kannn mehr als 60 Hz derzeit, und jene U-HD Monitore >60 Hz sind seit einem Jahr überfällig und vor Ende 2017, Anfang 2018 kommt da echt nix mehr...
Lol... völlig vergessen. Stimmt auch wieder. :freak: Jetzt fällt mir wieder ein warum ich kein UHD vor DP1.3 bzw. DP1.4 kaufen werde. :tongue:
fondness
2017-05-18, 09:39:40
FTFY :biggrin: So viel Blech in zwei Sätzen ist kaum zu fassen. Samsung hat 8GB-Stacks angekündigt, aber was meinst du wie es die Kosten noch mals hochtreiben würde, wenn man 4 x 8 GB verbaut (V100 hat 4 x 1024 Bit MC). HBM Gen3 wird das von Samsung anbieten. Für's Interleaving ist es z.B. besser mehr Memory-Channel zu haben, also kannst du nun nicht per se sagen, das eine oder das andere sei besser. Mir ist natürlich klar, dass du nur dein Fanatismus ausleben willst. Wollte es dennoch richtig stellen. :P
Edit: Und aktualisiere mal dein System X-D
Sorry, aber die Kosten sind bei einem Ding wie GV100 wirklich kein Argument. Wenn es 8 Hi Stacks von Samsung gebe, würde NV die verbauen, zumal 16 GB für ein solchen Ding nicht gerade üppig sind. GV100 wurde ja auch nicht ohne Grund mal mit 32 GB HBM2 und 1TB/s Bandbreite angekündigt. Also auch Samsung scheint hier deutlich mehr Probleme mit HBM2 zu haben wie angenommen, offensichtlich mehr noch als Hynix, die immerhin 8 Hi Stacks und etwas mehr Takt erreichen. Aber all diese Probleme zeigen natürlich, dass AMD mit HBM2 für das niedrigpreisige und hochvolumige Consumer-Segment nicht unbedingt die beste Wahl getroffen hat. Bei einem Chip wie GV100 kann man das noch verkraften, AMD braucht bei Vega10 aber natürlich hohe Yields und niedrige Preise.
LadyWhirlwind
2017-05-18, 09:43:38
Sorry, aber die Kosten sind bei einem Ding wie GV100 wirklich kein Argument. Und GV100 wurde nicht ohne Grund mal mit 32 GB HBM2 und 1TB/s Bandbreite angekündigt. Also auch Samsung scheint hier deutlich mehr Probleme mit HBM2 zu haben wie angenommen, offensichtlich mehr noch als Hynix, die immerhin 8 Hi Stacks und etwas mehr Takt erreichen. Aber all diese Probleme zeigen natürlich, dass AMD mit HBM2 für das niedrigpreisige und hochvolumige Consumer-Segment nicht unbedingt die beste Wahl getroffen hat. Bei einem Chip wie GV100 kann man das noch verkraften, AMD braucht bei Vega10 aber natürlich hohe Yields und niedrige Preise.
Abnehmer sind ja nicht Consumer, sondern hauptsächlich Firmen, da sieht das immer gleich etwas anders aus bei den Kosten.
Edit: die Zahlen gern ein bisschen mehr, wenn die Leistung ihnen ein Produktivitätsgewinn bringt.
scully1234
2017-05-18, 10:28:03
Vega ist der Gegenspieler zu Pascal. Volta ist Nextgen. Die Consumer Voltas sind 2018.
Wobei das wohl nur von der Hynix Timeline abhängt, und weniger von Nvidia/TSMC
Ein GV104 mit an den Rand getakteten GDDR5X wäre auch noch eventuell in der Waagschale um zum Weihnachtsfest was anzukurbeln
Peicy
2017-05-18, 10:37:23
Abnehmer sind ja nicht Consumer, sondern hauptsächlich Firmen, da sieht das immer gleich etwas anders aus bei den Kosten.
Edit: die Zahlen gern ein bisschen mehr, wenn die Leistung ihnen ein Produktivitätsgewinn bringt.
Die Frage ist, wie die Consumer Variante von Vega letztendlich aussieht. HBM scheint sich bis jetzt nicht auszuzahlen sondern ist teuer, schwer zu bekommen und ich sehe den Vorteil gegenüber GDDR5/X in Sachen Consumer-Anwendungen einfach nicht.
Im Moment sieht es so aus, als würde AMD´s Entscheidung bei HBM "all in" zu gehen sich bis jetzt nicht auf der Consumer-Seite auszuzahlen. Wobei ihnen wohl keine andere Wahl blieb als sich auf HBM zu fokussieren weil AMD es sich nicht leisten kann, in Sachen Speicher hinten dran zu sein. Bis jetzt zieht der Trumpf aber nicht.
Cyphermaster
2017-05-18, 10:54:30
Ich fände es durchaus gut, wenn man zumindest Demo-Karten auf der Computex demnächst zeigen würde, und wüßte, WAS kommt; wenn man schon nicht genau weiß, wann. Mit Performance- und evtl. Preisdaten noch hinter dem Berg zu halten, schadet nur unnötig imho.
uweskw
2017-05-18, 11:31:16
Die Frage ist, wie die Consumer Variante von Vega letztendlich aussieht. HBM scheint sich bis jetzt nicht auszuzahlen sondern ist teuer, schwer zu bekommen und ich sehe den Vorteil gegenüber GDDR5/X in Sachen Consumer-Anwendungen einfach nicht......
Geschickt gemacht: NV kann für die "geringen" Mengen im Profi Bereich fast beliebige Preise zahlen und AMD hat nicht genug Marktpräsenz um es für die Hersteller rentabel zu machen, HBM in entsprechenden Stückzahlen und Preisen zu bringen.
Doppel-Win für die Technologiebremse NV.
greetz
US
grauenvoll
2017-05-18, 11:42:23
Im Moment sieht es so aus, als würde AMD´s Entscheidung bei HBM "all in" zu gehen sich bis jetzt nicht auf der Consumer-Seite auszuzahlen. Wobei ihnen wohl keine andere Wahl blieb als sich auf HBM zu fokussieren weil AMD es sich nicht leisten kann, in Sachen Speicher hinten dran zu sein. Bis jetzt zieht der Trumpf aber nicht.
Im Moment ja. Für uns ist nicht ersichtlich was AMD mit HBM noch für Pläne hat. GDDR ist ein eingefahrener Prozess. Wenn man den HBM breiter einsetzen will, muss man irgendwann anfangen, auch wenn es holprig ist. Vielleicht wollen sie HBM als Cache in Notebook APUs einsetzen... Was auch immer, wir wissen es nicht.
Mancko
2017-05-18, 13:03:37
Das ist sicherlich für Vega im Moment nachteilhaft. Für Fijii war es das auch.
Dafür hat man einen Verbrauchsvorteil. Ob der die Verzögerung des Markteintritts kompensieren kann?
Den Verbrauchsvorteil hat man doch aber nur im Vergleich zu einem anderen Speicherinterface. Da die Konkurrenz bis heute die deutlich sparsameren GPUs hat nützt der aber letztlich dann ja auch nix. Klar ohne wäre es noch dramatischer beim Verbrauch, was man dann wieder nur durch geringere GPU Taktung kompensieren kann.
Ich denke aber, dass man aus heutiger Sicht mit sehr hoher Wahrscheinlich keit sagen kann, dass aus wirtschaftlichen Erfolgskriterien betrachtet man sicher besser gefahren wäre, wenn man ebenfalls auf GDDR5X oder GDDR5 mit breiterem Interface und dafür deutlich langsamer getakteter GPU agiert hätte. Wäre man damit an P100 oder GP102 herangekommen? Vermutlich nicht. Hätte man in der 1080/1070 Liga mitspielen können unter Verzicht auf Marge? Mit Sicherheit ja und zwar locker seit einem halben Jahr. Der HBM2 Poker ist hier jedenfalls m.E. nicht wirklich aufgegangen. Kommen die Consumer Karten erst in Q3 und kommt man dann nicht an der 1080Ti vorbei ist das mit Sicherheit schlechter als anders herum wie ich es vorher beschrieben habe. Nvidia kann dann die Preise brutal senken und AMD unter Druck bringen, da sie wissen dass der Volta Ersatz vor der Haustüre steht.
G3cko
2017-05-18, 13:09:47
Ich gehe davon aus, dass wir HBM später in APUs sehen oder in den Konsolen als eine Art großer Level5 Cache. Gerade in den Konsolen ist das doch klasse, schneller HBM dazu günstige Nvme SSD oder was auch immer + HBCC und schon gibt es keinenen speichermangel mehr.
Auch bei den Desktop CPUs wäre so ein cache prima. Man schau sich nur broadwell an mit dem EDRAM. Da ist also viel Potenzial und praktisch für alle Produktbereiche.
Dazu kommt noch die infinity fabric welche ja mit dem RAM zu skalieren scheint. HBM ist also auch dort ein Schlüssel. ;)
robbitop
2017-05-18, 13:27:30
Wobei das wohl nur von der Hynix Timeline abhängt, und weniger von Nvidia/TSMC
Ein GV104 mit an den Rand getakteten GDDR5X wäre auch noch eventuell in der Waagschale um zum Weihnachtsfest was anzukurbeln
GV104 bräuchte bei GDDR5X sicherlich 384 bit, um seine Leistung ausfahren zu können.
Ich denke aber, dass man aus heutiger Sicht mit sehr hoher Wahrscheinlich keit sagen kann, dass aus wirtschaftlichen Erfolgskriterien betrachtet man sicher besser gefahren wäre, wenn man ebenfalls auf GDDR5X oder GDDR5 mit breiterem Interface und dafür deutlich langsamer getakteter GPU agiert hätte. Wäre man damit an P100 oder GP102 herangekommen? Vermutlich nicht. Hätte man in der 1080/1070 Liga mitspielen können unter Verzicht auf Marge? Mit Sicherheit ja und zwar locker seit einem halben Jahr. Der HBM2 Poker ist hier jedenfalls m.E. nicht wirklich aufgegangen. Kommen die Consumer Karten erst in Q3 und kommt man dann nicht an der 1080Ti vorbei ist das mit Sicherheit schlechter als anders herum wie ich es vorher beschrieben habe. Nvidia kann dann die Preise brutal senken und AMD unter Druck bringen, da sie wissen dass der Volta Ersatz vor der Haustüre steht.
Man war damals in der Planung offenbar davon ausgegangen, dass es mit HBM etwas besser läuft. Die Frage ist auch, ob AMD zum Planungszeitpunkt von Fijii und Vega von GDDR5X wusste. Zu Vega sicherlich schon.
@GDDR5 hätte man für Fijii (hier war die Bandbreiteneffizienz nicht so doll) wohl 512bit gebraucht. Ob man die GPU niedriger hätte takten müssen? Nur wenn man auf eine feste TDP ausgewesen wäre. Man hätte auch um das delta die TDP erhöhen können. -> 270-300W.
Vega ist ja bereits offenbar seit vielen Monaten lauffähig. Es scheint vor allem am HBM zu haken. Auch hier wäre 384bit @GDDR5X oder 512bit @GDDR5 sicherlich eine interessante Lösung gewesen, um auf den Markt zu kommen.
IMO haben sie 1-2 Generationen zu früh auf HBM gesetzt.
Ich gehe davon aus, dass wir HBM später in APUs sehen oder in den Konsolen als eine Art großer Level5 Cache. Gerade in den Konsolen ist das doch klasse, schneller HBM dazu günstige Nvme SSD oder was auch immer + HBCC und schon gibt es keinenen speichermangel mehr.
Auch bei den Desktop CPUs wäre so ein chache prima. Man schau sich nur broadwell an mit dem EDRAM. Da ist also viel Potenzial und praktisch für alle Produktbereiche.
Zu Rave Ridge soll wohl eine HBM SKU kommen. Die wird sicherlich Nutzen aus HBCC (@graphics) ziehen.
HBCC und SSDs? Für Graphics vielleicht eine etwas große Lücke. Im Konsolenbereich wird HBCC sicherlich eher weniger gebraucht, da es nur eine feste Plattform gibt, auf die die Entwickler manuell sehr großen Einfluss haben. HBCC (als Verfahren) ist ja eher eine transparente Lösung, die wohl kaum/keine Softwareanpassung braucht.
HBM als Cache für Konsolen, Laptops und auch für dGPUs und SoCs/APUs ist sicherlich nicht uninteressant.
Hübie
2017-05-18, 13:54:59
Wobei das wohl nur von der Hynix Timeline abhängt, und weniger von Nvidia/TSMC
Ein GV104 mit an den Rand getakteten GDDR5X wäre auch noch eventuell in der Waagschale um zum Weihnachtsfest was anzukurbeln
Was hat Hynix damit zu tun? :| NV veröffentlicht dann, wenn's fertig ist und passt. Wer sagt eigentlich dass es zu Weihnachten Grakas regnet? Das ist als Release timeframe in dem Falle weniger bedeutend (im Gegensatz zu bspw. Apple).
uweskw
2017-05-18, 14:02:25
......Ich denke aber, dass man aus heutiger Sicht mit sehr hoher Wahrscheinlich keit sagen kann, dass aus wirtschaftlichen Erfolgskriterien betrachtet man sicher besser gefahren wäre, wenn man ebenfalls auf GDDR5X oder GDDR5 mit breiterem Interface und dafür deutlich langsamer getakteter GPU agiert hätte. ......
.
Wenn AMD nicht auf HBM gesetzt hätte, hätte NV das gemacht. Von Anfang an mit ganz anderer Marktmacht und somit Stückzahlen und Vefügbarkeit.
Was wäre wohl passiert wenn NV auf modernen, technisch überlegenen HBM gesetzt hätte und AMD beim veralteten DDR5 geblieben wäre?
Genau. RIP AMD
greetz
US
Eldoran
2017-05-18, 14:03:04
HBCC und SSDs? Für Graphics vielleicht eine etwas große Lücke. Im Konsolenbereich wird HBCC sicherlich eher weniger gebraucht, da es nur eine feste Plattform gibt, auf die die Entwickler manuell sehr großen Einfluss haben. HBCC (als Verfahren) ist ja eher eine transparente Lösung, die wohl kaum/keine Softwareanpassung braucht.
Ich denke auch auf Konsolen dürfte der HBCC interessant sein - der reduziert den Bedarf an RAM und auch Entwickler für Konsolen freuen sich über einfacher zu programmierende Hardware. Man beachte in dem Zusammenhang die Überlegung von eDRAM in PS4 (http://techon.nikkeibp.co.jp/english/NEWS_EN/20130401/274313/?P=2).
dargo
2017-05-18, 14:04:48
Ich gehe davon aus, dass wir HBM später in APUs sehen oder in den Konsolen als eine Art großer Level5 Cache. Gerade in den Konsolen ist das doch klasse, schneller HBM dazu günstige Nvme SSD oder was auch immer + HBCC und schon gibt es keinenen speichermangel mehr.
Ich denke zwei Speicherpools in Konsolen wäre wieder kontraproduktiv.
Eldoran
2017-05-18, 14:12:04
Gibt es eigentlich Informationen, wie viele PCIe Lanes Vega haben wird - ich meine am Chip, nicht die Steckkarte. Weniger wie 16x PCIe 3.0 wäre dumm, daher würde mich das sehr überraschen. Aber für Dual und/oder SSG wäre es ja vermutlich sinnvoll mehr Bandbreite zu haben und wegen dem HBM und Interposer sollte es ja auch kein Problem geben mehr als die Pins für 16 Lanes zu verbauen.
thegian
2017-05-18, 14:28:32
http://wccftech.com/amd-lower-priced-gaming-optimized-radeon-rx-vega-coming/
Gaming Vega kommt ev. erst Q3/17
Blediator16
2017-05-18, 14:33:01
Wenn wtftech das sagt, dann wird es so sein.
dildo4u
2017-05-18, 14:33:03
http://wccftech.com/amd-lower-priced-gaming-optimized-radeon-rx-vega-coming/
Gaming Vega kommt ev. erst Q3/17
Krass HBM2 von Hynix war mal für q3 2016 geplant.Der Chip wird vermutlich schon ewig fertig sein daher konnten sie schon Karten auf der CES zeigen.
DrumDub
2017-05-18, 14:46:51
Krass HBM2 von Hynix war mal für q3 2016 geplant.Der Chip wird vermutlich schon ewig fertig sein daher konnten sie schon Karten auf der CES zeigen. klingt plausibel.
Ravenhearth
2017-05-18, 14:47:10
Krass HBM2 von Hynix war mal für q3 2016 geplant.Der Chip wird vermutlich schon ewig fertig sein daher konnten sie schon Karten auf der CES zeigen.
Auf dem FAD 2015 wurde Vega, genau wie Zen, jedenfalls für 2016 angekündigt.
http://images.anandtech.com/doci/9239/AMDCGRoadmap.jpg
Gut, da steht nicht "Vega", aber was die High-Performance-GPU in FinFet mit HBM2 sein soll, ist klar.
Hübie
2017-05-18, 14:47:47
Gibt es eigentlich Informationen, wie viele PCIe Lanes Vega haben wird - ich meine am Chip, nicht die Steckkarte. Weniger wie 16x PCIe 3.0 wäre dumm, daher würde mich das sehr überraschen. Aber für Dual und/oder SSG wäre es ja vermutlich sinnvoll mehr Bandbreite zu haben und wegen dem HBM und Interposer sollte es ja auch kein Problem geben mehr als die Pins für 16 Lanes zu verbauen.
Könnte ähnlich wie bei dual graphics auch mit einem PLX-Switch gelöst werden. Bei der SSG kann ich es mir zumindest so vorstellen, da man dann kein Interface basteln muss was nicht in allen Produkten aktiv ist (obwohl AMD ja sogar 128 Bit vom MC ungenutzt lässt:D).
3. Quartal? Dann können die sich gehackt legen. :(
@dargo: Bist Du immer noch der Meinung, dass Vega nicht spät dran ist? ;) *stichel*
Wenn wtftech das sagt, dann wird es so sein.
Warum wird das ueberhaupt noch angezweifelt?
if gaming is your primary reason for buying a GPU, I’d suggest waiting just a little while longer for the lower-priced, gaming-optimized Radeon RX Vega graphics card. You’ll be glad you did.
http://pro.radeon.com/en-us/vega-frontier-edition/
Cyphermaster
2017-05-18, 14:57:11
Der Chip wird vermutlich schon ewig fertig sein daher konnten sie schon Karten auf der CES zeigen.Jo. Wenn man diesem Gedankengang weiter folgt, kommt man obendrein auch auf den Punkt, daß die Ingenieure schon seitdem fleißig an der nächsten Chipgeneration entwickeln. Ob man da wohl weiter (exklusiv) auf HBM setzen wird?
dargo
2017-05-18, 15:05:57
http://wccftech.com/amd-lower-priced-gaming-optimized-radeon-rx-vega-coming/
Gaming Vega kommt ev. erst Q3/17
Perfekt... erstmal den Sommer genießen. :up:
@dargo: Bist Du immer noch der Meinung, dass Vega nicht spät dran ist? ;) *stichel*
Nö... was soll ich damit im Sommer? ;)
Heute Abend gegen 21 23 Uhr gibt ein AMA (https://www.reddit.com/r/Amd/comments/6bklro/we_are_radeon_technologies_group_at_amd_and_were/)mit Raja als Host.
Wenn jemand "live" dabei sein möchte.
Die Frage nach dem Release von RX Vega wird sicherlich auch fallen.
Iruwen
2017-05-18, 15:19:10
Und dazu wird er sicherlich nichts Konkretes sagen.
Ravenhearth
2017-05-18, 15:19:35
Jemand muss nachfragen, welche Stromanschlüsse die Karte nun eigentlich hat. :D
Dino-Fossil
2017-05-18, 15:37:27
Ich hab mir erst letztes Jahr meine 480 geholt, die wird's noch 'ne Weile tun und High-End Vega liegt sowieso außerhalb meiner (preislichen) Interessenlage. So gesehen warte ich nicht auf Vega.
Andererseits ist es für AMD sicherlich suboptimal so lange ohne ein aktuelles Angebot in dem Bereich dazustehen.
Naja, wer weiß - wenn es wirklich nur (oder wenigstens hauptsächlich) an HBM2 liegt, ist die Entwicklung weiterer Vega(-Nachfolger?)-Chips wie angemerkt schon einigermaßen weit gediehen, so dass die wenigstens relativ schnell kommen könnten. Zu wünschen wäre es AMD und Kundschaft.
Loeschzwerg
2017-05-18, 16:43:58
Perfekt... erstmal den Sommer genießen. :up
Bei der Gelegenheit schöne Grüße aus dem sonnigen Kroatien :D Aber nachdem der Urlaub jetzt bald zu Ende ist, hätte ich nichts gegen einen früheren Vega Launch für Gamer.
Gibt es Gerüchte / Vermutungen hinsichtlich des verwendeten Kühlsystems bei "Gaming" Vega?
Leonidas
2017-05-18, 18:00:27
AMD hat in dem Video eben WTF-Tech zitiert ;D
Confirmed: Hölle zugefroren.
Absolut krank schon wieder Wakü also 300 Watt Plus Volta wird da vermutlich mit einer 180 Watt Karte gegenhalten.Mal sehen wie lange Nvdia AMD Atmen lässt.
Bei 1x6pol. & 1x8pol. dürfte die TDP bei 275 Watt (und nicht gerade 300W). Dies ist ähnlich dem, was NV abverlangt.
Wobei man auch bedenken sollte, dass der Sommer sicher nicht die Zeit mit den meisten GPU Verkäufen ist, eher andersrum. Aus betriebswirschaftlicher Sicht gesehen wird es erst ab der "back2school" Zeit, also im Spätsommer, wieder interessant. Wenn AMD bis dahin keine RX Vega Karten liefer kann wäre es blöd. Aber ob die gaming Karten jetzt im Juni oder August kommen wird nicht so viel ausmachen
Für die Back-to-School-Saison ist August aber auch schon wieder grenzwertig. Der Vorlauf für die Hersteller von Komplett-PCs und fürs Marketing eingerechnet sollte man da eigentlich bis zum Juli was spruchreifes haben.
Was ist denn jetzt die praktische Auswirkung davon?
Man kann ein größeres Speicherinterface im Grafikchips ansprechen. Jeder HBM-Stack bringt ein eigenes 1024 Bit Interface mit sich. Mit 2 Stacks hat man 2048 Bit, mit 4 Stacks dann 4096 Bit.
http://wccftech.com/amd-lower-priced-gaming-optimized-radeon-rx-vega-coming/
Ist dasselbe, was Planet 3DNow! schon vor einigen Seiten herausgefunden hatte. Nur mit weniger Füllworten und -bildern:
http://www.planet3dnow.de/cms/31984-amd-tarnt-vega-verschiebung-mit-frontier-edition/
Mancko
2017-05-18, 19:25:33
Wenn AMD nicht auf HBM gesetzt hätte, hätte NV das gemacht. Von Anfang an mit ganz anderer Marktmacht und somit Stückzahlen und Vefügbarkeit.
Was wäre wohl passiert wenn NV auf modernen, technisch überlegenen HBM gesetzt hätte und AMD beim veralteten DDR5 geblieben wäre?
Genau. RIP AMD
greetz
US
Glaub ich eher nicht. Nvidia ist zu Gewinn und Margenorientiert. Die wären m.E. auch dann im Consumer Segment bei herkömmlichen RAM geblieben. Die bringen immer nur so viel wie sie unbedingt müssen. Schau Dir mal das Speicherinterface der GTX1060 an. Gibt auch noch andere Beispiele. Ich bin mir ziemlich sicher dass selbst dann Nvidia nur das Profisegment für den Testballon benutzt hätte. Die Erfahrungen mit HBM2 und Interposern haben sie damit ja gut sammeln können bei deutlich fetteren Preisen und weniger Stückzahlen. Jetzt ist das Know-How da um jederzeit HBM2 auch im Consumer Markt zu bringen, wenn es wirtschaftlich sinnvoll ist und hardware technisch dringend benötigt wird. Solange das aber nicht zwingend der Fall ist wird m.E. Nvidia auch zukünftig bei herkömmlichen RAM bleiben, eben weil sie einfach zu gern Geld verdienen und zwar richtig viel Geld.
Complicated
2017-05-18, 19:44:42
Tesla P100: 16GB ~ 4x4GB@180GB/s ~ 720GB/s
Tesla P100: 12GB ~ 3x4GB@180GB/s ~ 540GB/s
Volta:
Tesla V100: 16GB ~ 4x4GB@225GB/s ~ 900GB/s
Vega FE: 16GB ~ 2x8GB@240GB/s ~ 480GB/s
Wäre es für VEGA dann nicht besser gewesen 4x4 zu nehmen um dann 960 GB/Sec zu haben anstelle von 2x8 mit 480 GB/sec ?
Vega10 wird aber nur mit 2 Stacks kommen, nix 12GB und 768GB/s.
Jeder HBM-Stack bringt ein eigenes 1024 Bit Interface mit sich. Mit 2 Stacks hat man 2048 Bit, mit 4 Stacks dann 4096 Bit.
Hier möchte ich mal an den grundlegenden Aufbau von HBM-Stacks zurück erinnern. Siehe auch Ausführliche Beschreibung von Hynix auf der Hotchips:
https://www.hotchips.org/wp-content/uploads/hc_archives/hc26/HC26-11-day1-epub/HC26.11-3-Technology-epub/HC26.11.310-HBM-Bandwidth-Kim-Hynix-Hot%20Chips%20HBM%202014%20v7.pdf
Jeder HBM-Stack besteht aus DDR-Slices. Das bezeichnet man mit den "Hi". Jeder "Hi" beinhaltet 2 Speicherkanäle wo jeder einzelne unabhängig ist. Das bedeutet, dass eine 4x4-Hi Konfuguration genauso viele Speicherkanäle a 128-Bit beinhaltet wie eine 2x8-Hi Konfiguration - sprich die Bandbreite kann hier identisch sein wenn identisch getaktet. Hynix hat zwar in seinem Produktkatalog alle Stacks, also sowohl die 8-Hi, 4-Hi und die 2-Hi Stacks mit 1024 I/O gelistet, doch das ist lediglich der Konfiguration des zugrunde liegenden Logic-Dies geschuldet. Was bedeutet, dass AMD hier durchaus einen eigenen Weg gehen kann und z.B. Hier nochmals der Link von Leonidas Bericht zu HBM2 damals: https://www.3dcenter.org/news/hbm2-speicher-ist-nunmehr-offiziell-spezifiziert
16/32 GB HBM2 haben bis zu 4096 bit SI bei 1000 MHz - es spielt keine Rolle ob das 4x4-Hi oder 2x8-Hi sind. Es sind in beiden Fällen 16 DDR-Slices die jeweils gleich viel Speicherkanäle beinhalten. Es hängt nicht von der Stackzahl ab, da AMD durchaus auch 2x 2048 SI auf dem Chip verbauen kann. Ein 1024-bit SI für HBM1 war ca. so groß wie ein 64-bit SI GDDR5 - also wäre der Platzbedarf für 2x2048 SI genau so groß wie bei Fiji mit seinen 4x1024. Wie viel I/O der Stack anbietet hängt einzig von der Konfiguration des Basic-Dies ab.
Hier noch eine Präsentation von Hynix wo für HBM2 hervorgeht, dass durchaus auch mehr Channels pro Slice möglich sind - bis zu 8 Kanäle. HBM2 hat pro Slice 4 mal so viel DDR verbaut:
https://www.hotchips.org/wp-content/uploads/hc_archives/hc28/HC28.21-Tutorial-Epub/HC28.21.1-Next-Gen-Memory-Epub/HC28.21.130-High-Bandwidth-KEVIN_TRAN-SKHYNIX-VERSION_FINAL-dcrp-t1-4_.pdf
Siehe Bildunterschrift auf Seite 9:
"Note: this is an illustration of a design with 2 Channels per DRAM slice"
Was zeigt es kann auch andere Designs geben.
Die jetzigen 1024-bit pro Stack sind eine rein Produktpolitische Limitierung. Es kann auch ein eigener Logic Die mit mehr I/O von AMD genuzt worden sein. Das würde IMHO auch am ehesten zu den Verzögerungen passen, da diese Anpassungen wohl schwieriger zu bewerkstelligen waren als gedacht (Wärmeentwicklung ist meine Spekulation und dadurch mussten mehr/breitere TSV verbaut werden was zur Verzögerung führt für 8-Hi Produkte - Siehe Seite 17 der Präsentation)
Die Spezifikation sieht bis zu 8 Kanaele pro Stack vor, also sind wir da schon beim Maximum. Das Base die ist uebrigens auch nur optional, es haengt also vor allem von den slices an sich ab, die auch einfach ohne base die durchverbunden werden koennten. Man braucht entsprechend pro Slice mehr oder weniger kanaele wenn man tiefer/hoeher stapelt. Du kannst nicht 8Hi mit 8*2 Channels bauen, sondern nur mit 8*1.
Complicated
2017-05-18, 20:10:10
https://www.hotchips.org/wp-content/uploads/hc_archives/hc28/HC28.21-Tutorial-Epub/HC28.21.1-Next-Gen-Memory-Epub/HC28.21.130-High-Bandwidth-KEVIN_TRAN-SKHYNIX-VERSION_FINAL-dcrp-t1-4_.pdf
Auf Seite 8 steht, dass die Spezifikation 8 Channels/Slice vorsieht:
"Channel / DRAM Slice: Up to 8 (2/4)"
Die 8 Kanäle pro Stack sind eine Limitierung des von Hynix angebotenen Logic-Dies, ebenfalls auf Seite 8 in der Tabelle ausgeführt:
"Logic Buffer Data IO / Rate: 1024 DQ's @ 1GT (500MHz)"
Edit: Im Prinzip ist das das separate Speicherinterface des Stacks - was nicht 1024 als Limit hat.
Und wie du ja schreibst kann man den auch weglassen, einen anderen drunter bauen etc. Du kannst 8-Hi auch mit 8x8 Channels bauen, wenn es nicht andere Limits hat.
Auf Seite 9 sind die DRAM-Cores dargestellt - diese sind 2xDDRDie. HBM2 hat 4x so viele DDR-Dies pro Slice(Hi) und auch die Möglichkeit 4x mal so viele Kanäle zu nutzen pro Hi.
Und in der Spec steht "up to 8 channels/stack".
Du kannst natuerlich bauen was du willst, dann ist es halt kein HBM :rolleyes:
Complicated
2017-05-18, 20:19:04
Ja die Specs beziehen sich auf den "Logic Buffer"- soll ich das nun zum vierten mal wiederholen? zitiert habe ich es auch schon zweimal. Natürlich ist es noch HBM weil es auch in den Spezifikationen mit 8 Kanälen pro Slice verzeichnet ist - auch das habe ich schon wiederholt. Schon wieder eine Kreisel-Diskussion? :rolleyes:
Complicated
2017-05-18, 20:25:29
Hast du Kopfweh von den Leseschwierigkeiten? Immer das selbe - Ich sollte nur noch Zweizeiler schreiben.....
Nur für dich als buntes Bild weil du offensichtlich verlinkte Quellen nicht liest:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60019&stc=1&d=1495132029
Leonidas
2017-05-18, 20:40:43
Ihr habt schon recht. Rein praktisch wird HBM derzeit nur in dieser Bauform angeboten, technisch wäre mehr möglich. Gerade jetzt, wo es da augenscheinlich Fertigungsschwierigkeiten gibt, sind allerdings Sonderbauformen eher unwahrscheinlich.
Davon abgesehen ergeben die 480 GB/sec bei der AMD "FE" zwingend ein 2048 Bit Interface im Chip.
Setsul
2017-05-18, 20:42:23
Wer hat hier Leseschwierigkeiten?
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60020&stc=1&d=1495132800
Mal abgesehen davon ist das völlig egal.
Du kannst auch 2048 Stacks mit je 4096 Channels nehmen.
Bei 2 Gbps pro Pin kommt exakt das gleiche raus.
2048 bit SI * 2 Gbps pro Pin = 512 GB/s.
Complicated
2017-05-18, 20:47:31
Wer hat hier Leseschwierigkeiten?
Echt jetzt? Kreis-Diskussion die zweite?
Die 8 Kanäle pro Stack sind eine Limitierung des von Hynix angebotenen Logic-Dies, ebenfalls auf Seite 8 in der Tabelle ausgeführt:
"Logic Buffer Data IO / Rate: 1024 DQ's @ 1GT (500MHz)"
Edit: Im Prinzip ist das das separate Speicherinterface des Stacks - was nicht 1024 als Limit hat.
Die jetzigen 1024-bit pro Stack sind eine rein Produktpolitische Limitierung. Es kann auch ein eigener Logic Die mit mehr I/O von AMD genuzt worden sein. Das würde IMHO auch am ehesten zu den Verzögerungen passen, da diese Anpassungen wohl schwieriger zu bewerkstelligen waren als gedacht (Wärmeentwicklung ist meine Spekulation und dadurch mussten mehr/breitere TSV verbaut werden was zur Verzögerung führt für 8-Hi Produkte - Siehe Seite 17 der Präsentation)
Complicated
2017-05-18, 20:50:34
Ihr habt schon recht. Rein praktisch wird HBM derzeit nur in dieser Bauform angeboten, technisch wäre mehr möglich. Gerade jetzt, wo es da augenscheinlich Fertigungsschwierigkeiten gibt, sind allerdings Sonderbauformen eher unwahrscheinlich.
Ich vermute die Sonderbauform könnte die Ursache für die Schwierigkeiten sein. 4-Hi mit 1024-bit Logicbuffer gab es ja schon bei HBM1. Vielleicht wollte AMD da einfach zu viel. Ich meine Produkte kommen ja in Q2, doch die Masse für Gamer lässt wohl auf sich etwas länger warten als jeder gehofft hat.
Setsul
2017-05-18, 21:13:50
Du kannst dich nicht selbst als Quelle zitieren.
Also erstens V10 hat 2048 bit. Egal auf wieviele Stacks man das verteilen will, schneller wirds nicht.
Zweitens kann man nicht einfach mehr Pins pro Stack verwenden ohne entweder Größe oder Pitch zu verändern. In beiden Fällen schafft das mehr Probleme als es löst. Andere Größe bedeutet man braucht andere Dies. Anderer Pitch bedeutet man braucht andere Dies und hat Spaß mit noch kleineren TSVs noch näher nebeneinander. Das bringt so schnell keiner zum Laufen.
Die unterschiedliche Anzahl Channels/Slice hat einen völlig anderen Grund. Mit 1Hi oder 2Hi kann man bei 2 Ch/Sl nicht die volle Bandbreite erreichen. Das hat überhaupt nichts damit zu tun, dass irgendjemand vor hat inkompatible Logic-Dies mit anderer Pinzahl zu bauen.
pilzsammler2002
2017-05-18, 23:15:47
AMA auf Reddit mit Raja fängt an :D
Mal sehen was so grob bei rumkommt...
Dass Vega für Gamer bald kommt https://www.computerbase.de/2017-05/amd-pressekonferenz-computex-2017/
So so...
Q:Will the consumer RX version be as fast at the Frontier version?
RK: Consumer RX will be much better optimized for all the top gaming titles and flavors of RX Vega will actually be faster than Frontier version!
QWas the card used in the gaming demos a Frontier Edition? And if so, was it the water cooled one or the air cooled version?
RK: It was an air-cooled version
usw:
https://videocardz.com/69662/raja-koduri-explains-where-radeon-rx-vega-in-reddit-ama
I want to start things off today but saying thank you to everyone for all of your excitement, energy and enthusiasm for all things AMD, and in particular, for Vega.
Earlier this week we were thrilled to launch Radeon Vega Frontier Edition. We think it will have a big impact on machine intelligence and content creators. I also know some of you are disappointed that we didn’t launch RX Vega as well. I wanted to hold this AMA and have an open discussion with you about our Vega launches. And while we're not launching RX Vega today -- so I won’t be talking about pricing or launch date -- there are lots of rumors and innuendo I want to put to bed, and there are plenty of questions I can answer.
I know you guys can’t wait to see Radeon RX Vega. I know that a lot of you guys obsess over when you’ll be able to game on Vega. Your passion for all things Radeon is what drives every single person in the Radeon Technologies Group to push hard on all fronts – hardware and software engineering, display technologies, and successful developer relationships. Everyone at AMD sees how much you guys talk about Vega and how eager you are to get your hands on it, and it fuels us.
Please know that we’re working incredibly hard on Radeon RX Vega. You are the lifeblood of Radeon, and you all deserve a graphics card that you’ll be incredibly proud to own.
Für mich liest sich das nach Treiber-Optimierung/ letzten Tweaks, um noch 10% vor der 1080Ti zu landen ^^
AlphaNUSS
2017-05-18, 23:30:20
Das könnte auch heißen, dass eine air-cooled consumer RX benutzt wurde.
Edit: Er hat gerade bestätigt, dass die demo auf einer frontier Edition lief.
So so...
usw:
https://videocardz.com/69662/raja-koduri-explains-where-radeon-rx-vega-in-reddit-ama
Vielleicht bezog sich die "2.5" doch auf die GPU-Speed ;D
TheGood
2017-05-18, 23:31:40
Danke zu den HBM2 Infos, werde mir das mal durchlesen, vielelicht verstehe ich das dann auch mal.
Eigetnlich können wir doch Ende Juni die ggf. die Frontier Editionn in einem Game test sehen. Das gibt doch schonmal einen Ausblick auf die Perfromance von VEGA.
Ich hoffe sie bekommen den Launch für RX VEGA noch im Juli hin, glaube es aber selber nicht wirklich....
Das könnte auch heißen, dass eine air-cooled consumer RX benutzt wurde.
Na... wenn es so ist, wasser oder luft.. > A: Luft. Feddisch. Die FE ist niedriger getaktet, als die Gamer Vega die wohl auch nur 1x 8 und 1x 6 hat während die wassergekühlte 2x 8 Pins bekommt :D
Complicated
2017-05-18, 23:33:38
Du kannst dich nicht selbst als Quelle zitieren.
Ich zitiere mich nicht als Quelle, sondern ich sehe nicht ein alles dreimal zu wiederholen.
Dass es bis zu 8 Channels pro Slice sind ist demnach also unstrittig. Und da auch die 8-Hi Slices identisch sind zu denen die bei 2-Hi verwendet werden sind diese Channels eben auch dort vorhanden. Das Limit von 8 Kanälen pro Stack ist beim Logic-Die verbaut. Das habe ich jetzt aber schon viermal geschrieben.
Na dass dies nicht so problemlos abgelaufen ist war ja ganz genau meine Spekulation zu AMDs Problemen derzeit - sie wollten die 8-Hi mit höheren SI als 1024 und daran knabbern sie länger als es geplant war. 4-Hi Stacks sind ein alter Hut seit HBM1. Der Logic-Die aka Speicherinterface ist IMHO genau der Problempunkt wenn man mit zwei Stacks genau so viel Bandbreite haben möchte wie mit 4 Stacks. AMD und SKHynix haben HBM gemeinsam entwickelt, daher denke ich AMD hat da noch andere Möglichkeiten der Anpassung als andere Kunden.
AlphaNUSS
2017-05-18, 23:39:55
The good news is that unlike HBM1, HBM2 is offered from multiple memory vendors – including Samsung and Hynix – and production is ramping to meet the level of demand that we believe Radeon Vega products will see in the market.
Das hört sich ja ganz gut an.
Linmoum
2017-05-18, 23:40:47
1. Does Frontier Edition use 4 stacks or 2 stacks of HBM2?
2. 480 GB/s of memory bandwidth is slower than Fiji's 512 GB/s, and that was with first generation HBM. When HBM1 on Fiji can match or beat these speeds, it sort of makes you wonder, what even is the point of using HBM2 anyway if configurations don't surpass Fiji's memory bandwidth? Besides PCB space savings and latency.
3. Can we please get the ability to overclock HBM2?
4. Can we pretty please get a 16 GB variant of Radeon RX Vega?
1: Frontier edition employs 2 stacks of HBM2
2: Both Fiji's and Vega's HBM(2) implementations offer plenty of bandwidth for all workloads.
3. We'll see what we can do about that :)
4: We will definitely look at that...
https://www.reddit.com/r/Amd/comments/6bklro/we_are_radeon_technologies_group_at_amd_and_were/dhqnx1k/?context=3
We’ll be showing Radeon RX Vega off at Computex, but it won't be on store shelves that week. We know how eager you are to get your hands on Radeon RX Vega, and we’re working extremely hard to bring you a graphics card that you’ll be incredibly proud to own. Developing products with billions of transistors and forward-thinking architecture is extremely difficult -- but extremely rewarding -- work. And some of Vega’s features, like our High Bandwidth Cache Controller, HBM2, Rapid-Packed Math, or the new geometry pipeline, have the potential to really break new ground and fundamentally improve game development. These aren’t things that can be mastered overnight. It takes time for developers to adapt and adopt new techniques that make your gaming experience better than ever. We believe those experiences are worth waiting for and shouldn’t be rushed out the door. We’re working as hard as we can to bring you Radeon RX Vega.
On HBM2, we’re effectively putting a technology that’s been limited to super expensive, out-of-reach GPUs into a consumer product. Right now only insanely priced graphics cards from our competitors that aren’t within reach of any gamer or consumer make use of it. We want to bring all of that goodness to you. And that’s not easy! It’s not like you can run down to the corner store to get HBM2. The good news is that unlike HBM1, HBM2 is offered from multiple memory vendors – including Samsung and Hynix – and production is ramping to meet the level of demand that we believe Radeon Vega products will see in the market.
https://www.reddit.com/r/Amd/comments/6bklro/we_are_radeon_technologies_group_at_amd_and_were/dhqo7ha/?context=3
Dino-Fossil
2017-05-18, 23:46:16
The good news is that unlike HBM1, HBM2 is offered from multiple memory vendors – including Samsung and Hynix – and production is ramping to meet the level of demand that we believe Radeon Vega products will see in the market.
Das hört sich ja ganz gut an.
Weitere Quellen neben Samsung und Hynix wäre wohl ne gute Sache. Allerdings könnte man "is ramping" auch so interpretieren, dass die Produktion eben erst am Anlaufen ist und noch nicht das nötige Niveau erreicht hat. Hmmm...
w0mbat
2017-05-18, 23:49:15
Also zusammengefasst: die Spiele liefen auf Vega FE, RX Vega wird schneller. RX Vega wird zur Computex gezeigt, launcht aber etwas später. Vega FE hat 2x 8-pin.
TheGood
2017-05-18, 23:52:54
Doch noch ein paar halbwegs positive Infos. Andererseits wars ja auch nicht anders zu Erwarten(fällt mir gerade auf), denn irgendwer hätte sicher die Frontier Edition mal durch ein paar Game Benchmarks gejagt und dann wissen wir ja was man am Ende von RX VEGA zu erwarten hat. Was aber leider nicht heisst dass RX VEGA bereits im Juli oder August verfügbar ist.
Ravenhearth
2017-05-18, 23:55:41
Zu den Stromanschlüssen:
I grabbed an engineering board from the lab on the way to the Sunnyvale auditorium, and that boards works well with a 6 and an 8 pin. We decided to put two 8 pin connectors in the production boards to give our Frontier users extra headroom
Heißt das, die RX könnten trotzdem 1x8 und 1x6 kriegen und die 2x8 sind vielleicht nur für FE?
AffenJack
2017-05-18, 23:56:59
Also zusammengefasst: die Spiele liefen auf Vega FE, RX Vega wird schneller. RX Vega wird zur Computex gezeigt, launcht aber etwas später. Vega FE hat 2x 8-pin.
Irgendein RX Vega wird schneller, das kann aber genauso gut sein, dass dies eine wassergekühlte Karte oder Partnerkarten sein werden. Es geht aber zumindest irgendwie noch ein Stück mehr beim Takt.
@Ravenhearth
Es wird bestimmt RX geben die 6+8pin haben werden, aber bei den Topmodellen wird es wohl 8+8Pin werden. Bei der Aussage habe ich so ein Gefühl die FE könnte 275W TDP haben und für genug Luft nach oben packt man 2x8Pin drauf.
Complicated
2017-05-18, 23:57:26
Interessant wie er bei der Speicherbandbreite ausgewichen ist. Damit halte ich die 480 GB/s für noch nicht in Stein gemeiselt:
wickedplayer494: Does Frontier Edition use 4 stacks or 2 stacks of HBM2?
RK: Frontier edition employs 2 stacks of HBM2
480 GB/s of memory bandwidth is slower than Fiji’s 512 GB/s, and that was with first generation HBM. When HBM1 on Fiji can match or beat these speeds, it sort of makes you wonder, what even is the point of using HBM2 anyway if configurations don’t surpass Fiji’s memory bandwidth? Besides PCB space savings and latency
RK: Both Fiji’s and Vega’s HBM(2) implementations offer plenty of bandwidth for all workloads. (nalasco – need help here)Wäre es wirklich nur um die Speichermenge gegangen wäre das hier eine einfache Antwort gewesen ;)
Linmoum
2017-05-18, 23:59:43
Heißt das, die RX könnten trotzdem 1x8 und 1x6 kriegen und die 2x8 sind vielleicht nur für FE?
Referenz 1x8 und 1x6, Customs dann 2x8 Pin. Würde ich spontan einfach mal annehmen.
Ravenhearth
2017-05-19, 00:05:22
Zum HBC:
Having 16GB of HBC on board will allow 3d artists to work on larger and even more complex models than ever before. Depending on the workload we have seen scenarios where 16 GB of HBC is effectively same performance as having 32 GB or 64 GB of regular VRAM
Setsul
2017-05-19, 00:26:02
Dass es bis zu 8 Channels pro Slice sind ist demnach also unstrittig. Und da auch die 8-Hi Slices identisch sind zu denen die bei 2-Hi verwendet werden sind diese Channels eben auch dort vorhanden. Das Limit von 8 Kanälen pro Stack ist beim Logic-Die verbaut. Das habe ich jetzt aber schon viermal geschrieben.
Na dass dies nicht so problemlos abgelaufen ist war ja ganz genau meine Spekulation zu AMDs Problemen derzeit - sie wollten die 8-Hi mit höheren SI als 1024 und daran knabbern sie länger als es geplant war. 4-Hi Stacks sind ein alter Hut seit HBM1. Der Logic-Die aka Speicherinterface ist IMHO genau der Problempunkt wenn man mit zwei Stacks genau so viel Bandbreite haben möchte wie mit 4 Stacks. AMD und SKHynix haben HBM gemeinsam entwickelt, daher denke ich AMD hat da noch andere Möglichkeiten der Anpassung als andere Kunden.
Ja wie oft denn noch, die Pins werden nicht auf magische Weise kleiner.
Noch kleinerer Pitch ist ekelhaft. Wenn man den Pitch ändert sind die DRAM-Dies inkompatibel.
Ohne anderen Pitch bringt man nicht mehr Pins in einen Stack bei gleicher Größe.
Wenn man die Größe ändert sind die DRAM-Dies inkompatibel.
Wenn man die Größe nicht ändert muss man den DRAM nebeneinander auf den Logic-Die stapeln. Dann kann man auch zwei 4Hi Stacks nehmen.
Und das alles ändert absolut rein gar nichts daran dass das SI mehr Pins braucht für mehr Bandbreite.
Wenn AMD 1024 GB/s wollte oder wieviel auch immer dann brauchen sie auch die Pins dafür.
Wenn AMD aus 2 Stacks soviel Bandbreite bekommen will wie aus 4 dann brauchen sie EXAKT GLEICH VIELE PINS.
Und dann braucht das SI EXAKT GLEICH VIELE PINS.
Glaubst du ernsthaft AMD entwirft V10 mit 2048 bit SI und dann fällt ihnen auf einmal auf, dass sie mit 2 Stacks nicht die Bandbreite bekommen die sie wollen? Stell dir vor zwei 2048er Stacks brauchen EXAKT GLEICH VIELE PINS wie vier 1024er Stacks und dann bekommt man auch die gleiche Bandbreite.
RK: You want a joke:) Vega needs some extra Volta(ge) for overclocking:)
Ah..haha...ja
N0Thing
2017-05-19, 00:49:01
Interessant wie er bei der Speicherbandbreite ausgewichen ist. Damit halte ich die 480 GB/s für noch nicht in Stein gemeiselt:
Wäre es wirklich nur um die Speichermenge gegangen wäre das hier eine einfache Antwort gewesen ;)
Speichermenge? Vermutlich meinst du Bandbreite, oder? ;)
Ich finde nicht, daß er der Frage ausgewichen ist. Mit Verbesserungen bei der Kompression und weiteren Stellschrauben, können die 480 GB/s von Vega genug Bandbreite darstellen. Der Vorteil, den er nicht erwähnt, ist der geringere Platzbedarf durch HBM2 sowohl beim Interposer, als vermutlich auch im Chip (Speicherinterface).
Hübie
2017-05-19, 01:43:48
Ah..haha...ja
Das klingt ja alles ganz nett, aber ich bleibe skeptisch. So kann man jedenfalls nicht enttäuscht werden. Ich gucke mich nichts desto trotz schon mal bei den Freesync-Monitoren um. :sneak:
Skeptisch sowieso.
Zumindest scheinen die Gerüchte mit dem HBM Problem mit hoher Wahrscheinlichkeit nicht zutreffend zu sein, da sich AMD ja sowohl bei Samsung als auch Hynix bedient.
Scheinen aber so wie es sich anhörte erst kürzlich mit der Massenproduktion gestartet zu haben (HBM) Computex oder im Juni Paper Launch @RX Vega und Juli erste geringe Verfügbarkeiten, Customs und co bis Sept. durch.
Raja kann man allerdings ziemlich schwer einschätzen nachdem Auftritt beim FAD.
Entweder Poker vom feinsten, oder Hype nen Dämpfer verpassen.
Computex mal sehen. Dauert ja nimmer lang.
Hatte allerdings damit gerechnet, dass so im Sept. / Nov. Star Citizen fertig wird, zumindest die Single Player Kampagne und man dann direkt die neuste GPU kauft und gut ist. Aber so wie es ausschaut, kann man fast auf Navi warten.
Jedenfalls werde ich Grafikkarten nicht mehr für die Zukunft bzw. längerfristig entscheidend kaufen. Der Zug hat mit der R200 anstelle Kepler noch super geklappt, wird aber nun wohl kaum mehr möglich sein. Ab Navi/Volta erwarte ich einen größeren Sprung.
StefanV
2017-05-19, 06:17:10
Freesync-Monitoren um. :sneak:
(VESA) Adaptive Sync.
"Freesync" ist nur AMDs Marketing Name für eine offizielle, standardisierte Technologie.
Das weis Hübie bestimmt;-)
Aber wenn du einen gefunden hast, mede dich doch mal.:wink:
Korvaun
2017-05-19, 07:42:13
Also die AMA hat ja wohl nicht wirklich neue Infos gebracht. Marketingspeak vom feinsten "wir arbeiten superhart und sind superstolz und ihr Kunden seid sowieso alle supertoll das ihr immer noch auf Vega wartet, es ist alles super in Ordnung und läuft supergut blabla..".
Wenn die Teile am 30.6. nicht gelauncht sind und am 1.7. nicht kaufbar sind dann hat sich (gaming-) VEGA verschoben, ganz simpel...
SamLombardo
2017-05-19, 08:29:52
Wenn Vega wirklich erst im September kommt, dann MUSS sie die 1080 TI schlagen. Selbst wenn Vega eine "ähnliche" Leistung bringen würde, wäre das mehr als ein halbes Jahr später nicht mehr wirklich positiv zu vermarkten. Alles mMn natürlich.
Palpatin
2017-05-19, 08:37:38
Kommt auf den Verbrauch und Volta an, wenn 2080 nur knapp über 1080ti liegt reicht das um mit V10 und dessen Refresh 1,5 Jahre mit zu schwimmen. 2080ti wird es wohl erst Q1 2019 geben, bis dahin dürfte V10 und ein hypothetischer Refresh reichen und dann sollte es auch nicht mehr weit zum V10 Nachfolger sein.
AMA Recap für alle die keine 10 Seiten durchlesen wollen.
Main goal of Vega was to create an architecture that can handle large data sets and game at 4K at 60fps.
The demo during Financial Analyst day was an air-cooled Frontier Edition, not an RX Vega card. There will be water cooled versions of Vega that will run slightly faster.
Frontier uses 2 x 8GB stacks of HBM2.
Both HBM1 and HBM2 provide plenty of bandwidth.
Raja will look into OC'ing HBM2 and a 16GB RX card.
RX Vega will be shown at Computex. It will not be available the same week but nothing else has been ruled out.
Frontier runs comfortably using 1x6-pin and 1x8-pin but RTG put 2x8-pin on the production card for more headroom.
Raja is keeping his beard until Vega launches.
Infinity fabric allows for the joining of multiple engines on a single die, and offers high bandwidth and low latency. There has been no mention of using Infinity fabric with multiple GPUs.
Frontier was designed for an array of workload usages. RX Vega is for gaming and will be faster than Frontier.
Vega will support Tensorflow, Cafe2, Cafe, Torch7 and MxNet via MIOpen.
Pro versions support hardware virtualization. He did not state out right if this included Frontier/Vega or or not.
The High Bandwidth Cache Controller (HBCC) helps increase minimum framerates and can improve performance even more if it's specifically coded for.
Developing drivers for GPUs is really hard.
Raja expects to grow ROCm to improve machine learning and compute. Another ROCm comment.
Raja replies to a comment regarding particle physics simulation, saying this will be improved via the new cache and infinity fabric.
New geometry pipeline in Vega improves throughput per clock cycle and will require no extra work on dev's part to utilize.
Radeon Vega Frontier will be the fastest single GPU solution for compute.
Radeon Instinct will provide dramatically better performance per dollar compared to the competition
RX will have different drivers than Frontier that are optimized for gaming as well as additional goodies.
Vega is the first GPU architecture to use Infinity Fabric and is in no way a re-hash of Polaris
Radeon Chill will continue to be improved and will be updated soon.
Kartenlehrling
2017-05-19, 09:09:02
Radeon Chill wird weiterhin verbessert und wird bald aktualisiert.
Daran habe ich schon nicht mehr geglaubt :)
pilzsammler2002
2017-05-19, 09:35:24
Ich war von Chill bisher sehr überzeugt und hoffe das sich das chill-spielerlebniss mit nem Freesync Monitor noch weiter verbessert :freak:
Hmmmm ...
Frontier mit ~1.550/940 MHz und RX Vega "X" mit 1.600/1.000 MHz dank Fluidkühlung und zwischenzeitlich besserer HBM-Liefersituation?
MfG,
Raff
grauenvoll
2017-05-19, 09:44:32
Ich war von Chill bisher sehr überzeugt und hoffe das sich das chill-spielerlebniss mit nem Freesync Monitor noch weiter verbessert :freak:
Chill und Freesync sind eine brilliante Kombination. Leider funktioniert Chill mit Dx12 nicht. Ich fürchte, dort muss das explizit von der Applikation unterstützt werden. Der hardwarenahe Ansatz hat manchmal auch Nachteile.
Eigentlich kann man sich sämtliche Performancediskussionen sparen, Vega wird 60Hz@4K erreichen. Bis 4K-Monitore mit DP 1.4 und 144Hz in bezahlbaren Regionen angekommen sind, werden noch locker 2 Jahre vergehen. DP1.2 wird bis dahin der limitierende Faktor sein. Bin aber gespannt was Vega abseits der FPS-Balkenlängen zu bieten hat.
scully1234
2017-05-19, 09:47:03
Hmmmm ...
Frontier mit ~1.550/940 MHz und RX Vega "X" mit 1.600/1.000 MHz dank Fluidkühlung und zwischenzeitlich besserer HBM-Liefersituation?
MfG,
Raff
und 2x8Pin Stromstecker, sieht aus als ob sich Fury wiederholt
Dino-Fossil
2017-05-19, 09:55:23
und 2x8Pin Stromstecker, sieht aus als ob sich Fury wiederholt
Du meinst so wie bei den 1080 Ti Customs? Schrottige Karten, ja...
Mortalvision
2017-05-19, 10:11:13
Ich denke, das AMD Management ärgert sich fürchterlich über die explodierte Lead Time eines ihrer Zulieferer...
und 2x8Pin Stromstecker, sieht aus als ob sich Fury wiederholt
Hoffentlich nicht in jeder Hinsicht. Wobei man 2017 mit 8 GiB besser zurecht kommt als 2015 mit nur vieren.
MfG,
Raff
Skaven
2017-05-19, 10:41:40
Wenn Vega wirklich erst im September kommt, dann MUSS sie die 1080 TI schlagen. Selbst wenn Vega eine "ähnliche" Leistung bringen würde, wäre das mehr als ein halbes Jahr später nicht mehr wirklich positiv zu vermarkten. Alles mMn natürlich.
Und was ist, wenn sie das nicht schafft / kann?
Ihr seid extrem aufmerksam, selbst kleine Veränderungen in diesem Markt bekommt ihr mit und werden diskutiert. Aber die meisten Kunden wissen nicht so viel und haben auch weniger Ansprüche.
Das Preisgefüge passt sich heutzutage der gebotenen Leistung / Güte der GraKa sehr gut an, vor allem in Preisregionen zwischen 150 und 350 Euro. Da kann man fast schon sagen "Mein Budget ist ..." und genau für dieses Budget kaufen, ohne auf den Hersteller zu schauen. Nachteile wie schlechtere Energieeffizienz sind immer mit eingepreist.
Insofern stellen sich vor allem drei Fragen: 1. Was muss die GraKa leisten können? 2. Wieviel Geld darf das kosten? 3. Wieviel Abwärme muss ich wegkühlen können?
In meinem Fall möchte ich zuverlässig WQHD mit 60 FPS auf Detail = High bei ordentlich programmierten Spielen schaffen. Ich gebe ein thermisches Budget von etwa 150 Watt vor. Außerdem soll die Karte in der Lage sein, VR-Brillen mit etwa 2,5 MegaPixeln pro Auge zu bedienen. Ich möchte auf jeden Fall weniger als 400 Euro ausgeben, besser unter 350. Ich denke, diese Eigenschaften wird Vega 11 erfüllen können, wenn nicht im Vollausbau dann als Salvage-Version.
Dann brauche ich (s.o.) eigentlich gar nicht wissen, was Nvidia mir anbietet (ich möchte gerne AMD unterstützen, aber nicht blind). Denn wenn Nvidia mir eine Volta-Karte mit 10% mehr Leistung und 10% weniger Stromverbrauch anbietet, wird diese Karte 25% teurer sein. Nur ganz oben und ganz unten im Leistungsbereich muss man genau hinsehen, denn da gibt es unten Fälle, wo man für 20 Euro mehr Einsatz eine deutlich bessere Karte bekommt, bzw. für 200 Euro mehr nur wenig zusätzliche Leistung bekommt.
Skaven
Hoffentlich nicht in jeder Hinsicht. Wobei man 2017 mit 8 GiB besser zurecht kommt als 2015 mit nur vieren.
MfG,
Raff
Mit dem HBCC sind es ja dann praktisch 16, wenn nicht 32.:D
:weg:
scully1234
2017-05-19, 11:10:43
Du meinst so wie bei den 1080 Ti Customs? Schrottige Karten, ja...
Die Customs der Boardpartner sind im allgemeinen auch höher getaktet als die Karte direkt vom Hersteller,hier geht es ja "nur" um die Serienkarte
Wenn AMD also schon wieder ne Wasserkühlung braucht ,um auf einen möglichen luftgekühlten Konkurrenten wie GP102 Founders Edition aufzuschließen, und von dem Renderbild ausgehend 2x8Pin dafür benötigt, dann gibts da schon gewisse Parallelen zu Fury X, weiteres Taktpotential like "OC King" noch gar nicht mit bedacht.
Ich kann mir auch nicht vorstellen das die OEMs sonderlich erbaut sind von der voluminösen Lösung
Megatron
2017-05-19, 11:32:14
Die Customs der Boardpartner sind im allgemeinen auch höher getaktet als die Karte direkt vom Hersteller,hier geht es ja "nur" um die Serienkarte
Wenn AMD also schon wieder ne Wasserkühlung braucht ,um auf einen möglichen luftgekühlten Konkurrenten wie GP102 Founders Edition aufzuschließen, und von dem Renderbild ausgehend 2x8Pin dafür benötigt, dann gibts da schon gewisse Parallelen zu Fury X, weiteres Taktpotential like "OC King" noch gar nicht mit bedacht.
Ich kann mir auch nicht vorstellen das die OEMs sonderlich erbaut sind von der voluminösen Lösung
Man könnte auch genauso unterstellen, dass Vega in der Praxis deutlich sparsamer/schneller ist, als vorher erwartet. Deshalb haben die Renderbilder noch 2x 8-Pin und die reale Karte nur noch 8+6 Pin :P
N0Thing
2017-05-19, 12:04:35
Man könnte auch genauso unterstellen, dass Vega in der Praxis deutlich sparsamer/schneller ist, als vorher erwartet. Deshalb haben die Renderbilder noch 2x 8-Pin und die reale Karte nur noch 8+6 Pin :P
Raja hat doch selbst gesagt, daß die gezeigte Karte in Prototyp ist und die reale Karte für den Handel mit 2x8-Pin kommen wird.
Daß langsamer getaktete Radeon Karten oder gar die beschnittenen Versionen mit 6 und 8-Pin kommen werden, ist ja weiterhin möglich. Ansonsten würde ich ausgehend von dem, was man Fiji kennt, ein ähnliches Szenario erwarten, was Verbrauch und entsprechende Kühllösung (WaKü vs. Luft) betrifft.
Mangel76
2017-05-19, 12:07:12
Die Customs der Boardpartner sind im allgemeinen auch höher getaktet als die Karte direkt vom Hersteller,hier geht es ja "nur" um die Serienkarte
Wenn AMD also schon wieder ne Wasserkühlung braucht ,um auf einen möglichen luftgekühlten Konkurrenten wie GP102 Founders Edition aufzuschließen, und von dem Renderbild ausgehend 2x8Pin dafür benötigt, dann gibts da schon gewisse Parallelen zu Fury X, weiteres Taktpotential like "OC King" noch gar nicht mit bedacht.
Ich kann mir auch nicht vorstellen das die OEMs sonderlich erbaut sind von der voluminösen Lösung
Das macht NVIDIA schon sehr clever: Standardkarte niedrig takten - geringe Leistungsaufnahme und großes OC-Potential - WOW, die Superkarte!!!
AMD muss dagegen näher ans Maximum gehen, denn sie brauchen mehr Leistung als NVIDIA um überhaupt noch wahrgenommen zu werden in weniger informierten Kreisen. Da wird sich nur an Balkenlängen orientiert.
Aber am liebsten sind mir die selbsternannten Experten, die AMD-Karten dann mit dem Verbrauch der Standardkarten von NVIDIA und den Leistungswerten der OC-Varianten vergleichen.;D
Und was haben OEMs damit zu tun? Wieviele OEM-PCs werden denn mit 1080Ti oder (künftig) VEGA verkauft? Ich spekuliere mal, dass das recht wenige sein werden, vor allem im Vergleich zu anderen Leistungsklassen. In diesem Preisbereich werden die meisten doch ihr System selbst aufsetzen bzw. selbst konfigurieren und vom Händler montieren lassen.
Klevapalis
2017-05-19, 12:15:57
Deshalb haben die Renderbilder noch 2x 8-Pin und die reale Karte nur noch 8+6 Pin :P
Die reale Karte hat ja (leider) 8+8.
Und selbst die 8+6 Pin heißen bis zu 300W Leistungsaufnahme. Ich denke die Frontier wird >250W aufnehmen.
Dino-Fossil
2017-05-19, 12:23:42
Nun, insofern Vega sich in Richtung 1080Ti ansiedeln sollte, bzw. wenigstens zwischen 1080 und 1080Ti, dann wäre die Leistungsaufnahme nicht so unterschiedlich zu den entsprechenden nVidia Karten.
Eine 1080Ti zieht wohl auch mal 250W+
10-15% machen in dem Bereich den Braten nicht fett. Aber erstmal abwarten, da sind viel zu viele offene Fragen als dass man schon ein Urteil fällen könnte.
scully1234
2017-05-19, 12:29:17
Das macht NVIDIA schon sehr clever: Standardkarte niedrig takten - geringe Leistungsaufnahme und großes OC-Potential - WOW, die Superkarte!!!
AMD muss dagegen näher ans Maximum gehen, denn sie brauchen mehr Leistung als NVIDIA um überhaupt noch wahrgenommen zu werden in weniger informierten Kreisen. Da wird sich nur an Balkenlängen orientiert.
Dann kommt man wohl abseits der Balkenlängen in informierten Kreisen zum Konzens ,das eine Architektur besser ausgelegt sein muss, wenn sie das von dir erwähnte so ausbreiten kann
Egal welcher Konzern nur mit Leistung wird man wahrgenommen, das ist keine Entschuldigung für irgendwas, und kein Alleinstellungsmerkmal als Opferlamm
Man könnte auch genauso unterstellen, dass Vega in der Praxis deutlich sparsamer/schneller ist, als vorher erwartet. Deshalb haben die Renderbilder noch 2x 8-Pin und die reale Karte nur noch 8+6 Pin :P
nas360: Why the official Frontier page shows renders of the card with 2x8pin connectors and the one you were holding at the presentation has 1×8 + 1×6 connectors?
RK: I grabbed an engineering board from the lab on the way to the Sunnyvale auditorium, and that boards works well with a 6 and an 8 pin. We decided to put two 8 pin connectors in the production boards to give our Frontier users extra headroom (https://videocardz.com/69662/raja-koduri-explains-where-radeon-rx-vega-in-reddit-ama)
Die reale Karte hat ja (leider) 8+8.
Und selbst die 8+6 Pin heißen bis zu 300W Leistungsaufnahme. Ich denke die Frontier wird >250W aufnehmen.
Ich finde 8+8 eigentlich gut. Selbst wenn man 300W benötigt, gibts jetzt keinen Kritikpunkt mehr wie bei Polaris damals. Offiziell ist bei 8x + 6x ja bei 300W schluss, aber auch nur dann, wenn man volle 75W über PCIe abgreift. Wenn man die Karte nur über PCIe-Strom steuern möchte, also den PEG gar nicht belasten möchte, wäre bei 8x + 6x schon bei 225W offiziell schluss. Du siehst, die Pin-Anzahl der Anschlüsse spielt keine Rolle, wenn man auf den tatsächlichen Verbrauch schließen möchte. Es kommt schlicht und ergreifend darauf an, wie das PCB designt ist. Möchte AMD den PEG in Zukunft bei Referenzdesigns gerne komplett vermeiden, muss man die 75W eben aus dem PCIe-Stecker holen.
Und bei V10 ist das auch wahrscheinlich genau so gelöst worden, weil die ja keinen klassischen Speicher mehr hat. Normalerweise wird der VRAM oft über den PEG-Slot versorgt, das fällt bei Vega flach. Versorgt man die ganze Karte also über 8+6Pin, reisst man die Spezifikation genauso schnell wie die Polaris 10-Referenzkarte das tut. Zudem denke ich, dass man hinter dem letzten Quäntchen Leistung bei der anvisierten Taktrate her sein wird, anders als bei Polaris, und deshalb gerne auf ca. 275W+ gehen möchte, um keine Performance durch eine 250W-Begrenzung einzubüßen. Damit ist aber auch klar, dass die Custom-Designs, die ja nochmal deutlich über dem Referenzdesign takten werden, sicherlich gern mal 300W+ aus der Dose ziehen werden, wie bei einigen hochgetakteten 1080ti-Karten eben.
Ich denke, dass V10 etwas mehr verbrauchen wird, aber das ist in den Regionen eh egal.
Megatron
2017-05-19, 13:18:04
@scully1234
Dein Quote von Raja liest sich aber durchaus so, dass für einen reinen Betrieb @stock Taktraten auch 6+8 ausreichen würden, bei OC aber die Gefahr bestünde, dass es eine neue Diskussion zu den Spezifikationen der Stromanschlüsse geben könnte.
Ich hoffe, dass man dieses mal nicht bis an die Kotzgrenze gehen muss was Takt/Spannung angeht. Hier ist aber sicher auch noch das Treiberteam gefragt, dass bei den initialen Tests nicht mehr so viel Leistung liegen gelassen wird.
AlphaNUSS
2017-05-19, 13:31:49
Wenn die Verspätung von Vega wirklich mit der HBM Produktion zusammenhängt, lässt das immerhin mehr Zeit für das Treiberteam und es läuft dann bei release alles rund.
grauenvoll
2017-05-19, 13:32:24
@scully1234
Hier ist aber sicher auch noch das Treiberteam gefragt, dass bei den initialen Tests nicht mehr so viel Leistung liegen gelassen wird.
Da geben Rajas Aussagen aber nicht unbegingt Anlass zu großer Vorfreude. Man darf davon ausgehen, dass wir einen typischen AMD-Launch sehen werden: Produkt reift bei m Kunden.
BoMbY
2017-05-19, 13:50:46
Wie ich schon sagte: Wenn Vega 10 auch mit 1850 MHz läuft und eine 1080Ti dabei gnadenlos versägt, darf sie auch gerne 375W verbrauchen. 13 TFlops bei 1600 MHz und 250-275 Watt TDP sind auch vollkommen in Ordnung für die FE.
Pumpi74
2017-05-19, 13:59:41
300 Watt bei 1080 Ti Leistung mit 16GB Vram wären ja kein Problem. 350 Watt inklusive OC und nur 8 GB Vram wären @1080Ti Leistung zu wenig. Es sei denn die Karte liegt bei unter 500€ im VK.
Iruwen
2017-05-19, 14:13:15
Raja hat doch selbst gesagt, daß die gezeigte Karte in Prototyp ist und die reale Karte für den Handel mit 2x8-Pin kommen wird.
Da gings aber um die FE.
Zumindest scheinen die Gerüchte mit dem HBM Problem mit hoher Wahrscheinlichkeit nicht zutreffend zu sein, da sich AMD ja sowohl bei Samsung als auch Hynix bedient.
Das war nicht was er gesagt hat. Er sagte:
It’s not like you can run down to the corner store to get HBM2. The good news is that unlike HBM1, HBM2 is offered from multiple memory vendors – including Samsung and Hynix – and production is ramping to meet the level of demand that we believe Radeon Vega products will see in the market.
Die erste Frage wäre schonmal, wie groß die Kapazitäten sind die NV sich gesichert hat.
Complicated
2017-05-19, 14:15:26
Speichermenge? Vermutlich meinst du Bandbreite, oder? ;)
Nein ich meinte schon Speichermenge - HBM2 Vorteil ist, dass mehr als 4 GB auf 4 Stacks möglich sind. Auf 2 Stacks wären nur 2 GB möglich trotz gleich großer Bandbreite. Er wurde ja gefragt warum sie nicht HBM1 verbauen wenn die Bandbreite zu HBM2 nicht steigt. 512 GB/s -> 480 GB/s ist ja sogar ein Rückschritt. Na weil sie mehr als 2 GB auf 2 Stacks bringen müssen.
Ja wie oft denn noch, die Pins werden nicht auf magische Weise kleiner.
Noch kleinerer Pitch ist ekelhaft. Wenn man den Pitch ändert sind die DRAM-Dies inkompatibel.
Ohne anderen Pitch bringt man nicht mehr Pins in einen Stack bei gleicher Größe.
Wenn man die Größe ändert sind die DRAM-Dies inkompatibel.
Wenn man die Größe nicht ändert muss man den DRAM nebeneinander auf den Logic-Die stapeln. Dann kann man auch zwei 4Hi Stacks nehmen.
Du wiederholst die selben unlogischen Argumente und denkst das überzeugt nun mehr? Hör mal auf über eine Pitch Änderung zu schwafeln, denn diese ist absolut nicht nötig. Das schrieb ich schon einmal - muss man sich denn wirklich immer wieder wiederholen und so den ganzen Thread schrotten?
Bitte nochmal einen Gang zurück schalten und versuchen das zu verstehen:
Du selber schriebst es gibt die 8-Kanal Variante für 2-Hi Stacks. Diese würden ja vor genau den selben "Problemen" stehen wie du sie eben beschreibst. Dem ist einfach nicht so und es gibt keine Die-Inkompatibilitäten wenn man mehr als 2 der sowieso verbauten Speicherkanäle nutzen will. Es sind exakt die selben Dies. Es benötigt nur eine andere Anbindung im Logic-Die - eben alle 8 Kanäle wenn man diese wünscht. Weitere Ausführungen gerne per PN. Hier langweilt es nur andere. Lediglich eine Frage des "Stack-Packages"
Linmoum
2017-05-19, 14:18:29
Die erste Frage wäre schonmal, wie groß die Kapazitäten sind die NV sich gesichert hat.
Viel interessante finde ich in dem Zusammenhang ja, ob die 8Hi-Stacks der Frontier auch von Samsung produziert/bezogen werden, oder ob sich das nur auf Hynix beschränkt. Wenn letzteres nicht der Fall ist, dann hat AMD da anscheinend ein Exklusivrecht drauf.
Hübie
2017-05-19, 14:48:26
(VESA) Adaptive Sync.
"Freesync" ist nur AMDs Marketing Name für eine offizielle, standardisierte Technologie.
Siehe:
Das weis Hübie bestimmt;-)
Aber wenn du einen gefunden hast, mede dich doch mal.:wink:
Exakt das war mein Gedanke als ich seinen Beitrag gelesen habe. Könnte nun tr0llen und sagen NV war erster im Desktop und AMD hat nur beim Vesa-Konsortium geklaut. :D Aber um ehrlich zu sein ist das scheiß egal. Innovativ sind beide IHVs. Ob es den Fans passt oder nicht.
Es wird langsam spannend um Vega. Freue mich auf den Tag der Veröffentlichung.
Danke für die Zusammenfassung bzw. den Beitrag. Es zeichnet sich auch ab was ich bereits vermutete: Die Verspätung ist nicht nur HBM2 bzw. dessen Herstellungsprozess sondern auch dem Treiber geschuldet. Ist mir zwar lieber als Bananenprodukte, aber langsam wird's nutzlos, wenn NV im Februar schon mit Volta an den Start geht. Zugegebenermaßen wird es letztendlich aber von der erbrachten Leistung abhängen.
von Richthofen
2017-05-19, 15:31:16
Techpowerup haben zuletzt ihre GPU-Datenbank zu Vega mehrfach aktualisiert:
AMD Radeon Vega Frontier Edition (https://www.techpowerup.com/gpudb/2958/radeon-vega-frontier-edition)
AMD Radeon RX Vega (https://www.techpowerup.com/gpudb/2871/radeon-rx-vega)
Neben den bekannten Fakten, die wie immer einen guten Überblick bieten, werden mE nach die Performance etwas zu hoch und der Energiebedarf zu niedrig projiziert. Natürlich ist dazu alles reine Spekulation.
StefanV
2017-05-19, 15:37:42
Siehe
Ich meine, dass wir die offizielle, technische Bezeichnung vom Standard nutzen sollten. Und nicht irgendwelche Marketing-Propaganda Bezeichnungen, von wem auch immer das ist.
Und das erste Patent, dass ich zu variabler Refresh Rate gefunden hab, ist älter als ich!
Also die Gedanken dafür gibts seit Dekaden, das ist ein alter Hut. Und im mobilen Bereich ist das ja auch etwas, was schon seit einiger Zeit üblich ist. Nur der Desktop ist mal wieder das letzte, dass mit neuen/sinnvollen Technologien versorgt wird...
Der Zug für den Alleingang ist eh abgefahren. Adaptive Sync ist im HDMI Standard integriert und damit wird die Unterhaltungsindustrie das auch nutzen.
Ich hasse es, wenn man Propaganda-Bezeichnungen statt technischer benutzt...
Es zeichnet sich auch ab was ich bereits vermutete: Die Verspätung ist nicht nur HBM2 bzw. dessen Herstellungsprozess sondern auch dem Treiber geschuldet.
Woher hast du diese Info?
Ist mir zwar lieber als Bananenprodukte, aber langsam wird's nutzlos, wenn NV im Februar schon mit Volta an den Start geht. Zugegebenermaßen wird es letztendlich aber von der erbrachten Leistung abhängen.
Muss hier jedesmal versucht werden, von den (vermeindlich) guten AMD Produkten abzulenken und auf 'das andere' zu lenken?
Muss hier jeder einen Holger Fischer* pullen?
War ein Mitarbeiter eines Herstellers, der sich vor ein paar Jahren in dt. Foren aufhielt und penetrant Werbung für seine Firma gemacht hat
Hübie
2017-05-19, 15:46:41
Ich arbeite nicht für NVIDIA ;)
Die Info steht zwischen den Zeilen vom AMA wo Raja einerseits sagt dass es mittlerweile zwei HBM-Hersteller statt nur einen gibt und dass ein Treiber unheimlich viel Arbeit bedeutet. Konkret sagt er das natürlich nicht und es kann sein dass ich es mir einbilde, aber erfahrungsgemäß ist immer eine Kette von Ereignissen für einen Umweltzustand verantwortlich und nicht ein einzelnes Ereignis. Das legt den Schluss nahe, HBM2 allein ist nicht für das relativ späte und geringe Aufkommen verantwortlich (gering bezieht sich auf spekulierte Anfangsvolumina).
Kann selbstverständlich alles total falsch sein, aber die Wahrscheinlichkeit ist nicht gering. Wir erfahren es eines Tages, wetten? ;)
Dino-Fossil
2017-05-19, 15:57:21
Die Info steht zwischen den Zeilen vom AMA wo Raja einerseits sagt dass es mittlerweile zwei HBM-Hersteller statt nur einen gibt und dass ein Treiber unheimlich viel Arbeit bedeutet.
Er sagte allerdings auch, dass die Produktion anläuft, nicht dass HBM2 bereits in rauen Mengen verfügbar ist.
Kann aber natürlich sein, dass mehr als nur HBM2 für die relativ späte Verfügbarkeit von Vega (auch in Relation zu Angeboten von nVidia) verantwortlich ist.
Kartenlehrling
2017-05-19, 16:25:04
Das AMD überlegte hier 6+8 zu verwenden deutet eher darauf hin, das man dachte, bei 225W abzuriegen (ähnlich wie P10 eben bei 150W abgeriegelt ist) und man sich eben dagegen entschied.
Marketingmäßig ist das dumm, man hätte einfach später MSI, Asus und Sapphire überlassen sollen 2x 8pin zu verbauen und die Bremse zu lösen.
Die Testkarten hätte sie lieber limiteren sollen, Nvidia zeigt es wie es geht und die R9nano finde ich immer noch gelungen.
Troyan
2017-05-19, 16:30:39
Wenn die Frontier Edition mit 8+8 Pin kommt, dann geht die Karte klar auf die 300W zu. Diese Karte richtet sich an professionelle Kunden, die Stabilität wollen.
Außerdem kann man auch die neue Pro Duo heranziehen: 250W mit 6+8 Pin. Die alte Pro Duo hatte 350W mit 8+8+8 Pin.
reaperrr
2017-05-19, 17:26:03
Marketingmäßig ist das dumm, man hätte einfach später MSI, Asus und Sapphire überlassen sollen 2x 8pin zu verbauen und die Bremse zu lösen.
Die Testkarten hätte sie lieber limiteren sollen, Nvidia zeigt es wie es geht und die R9nano finde ich immer noch gelungen.
Meine Güte, die Vega FE ist nicht für Spieler gedacht, und Partnermodelle wird es wahrscheinlich gar nicht geben.
Hoffentlich kommt dann auch Zeitgleich eine Eco Edition aka Nano zum Marktstart eine über dem Limit* werkeltender Vega brauch ich nicht. *Jenseits X Best Verbrauch/Performance. Ich befürchte schon ich "muss" bis Herbst warten. Edit: Das bin ich(wir) aber mittlerweile schon gewohnt...von daher noch mehr Vorfreude. :freak:
Der_Korken
2017-05-19, 19:09:55
Effizienztechnisch ist es immer gut die GPU über ein Powertarget permanent einzubremsen. Erst heute wurden auf CB diverse RX570er verglichen: Eine quasi ungedrosselte Nitro+ ist gerade mal 8% schneller als eine eingedampfte SingleFan-ITX-Version, verbraucht aber 32% mehr. AMD würde sich also einen großen Gefallen tun, wenn sie ihre Referenzversion auf 250W begrenzen, auch wenn man dann im Betrieb nur bei 1500Mhz landet. Das Hochprügeln überlässt man den Partnern, die auch ein 300W-Monster mit Tripleslot-Kühlung halbwegs leise bekommen.
Menace
2017-05-19, 19:13:33
Eine Nano-Version (klein, leise, sweetspot) ist eigentlich ein Muss (auch um den HBM-Vorteil wirklich zu nutzen).
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.