Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
Troyan
2016-12-13, 16:46:52
Taktraten sind am Ende ja nur ein Teil der Gleichung. NVs SPs benötigen mehr Transistoren pro Unit. Davon sind sicher nicht unwesentlich viele in die Erreichung der Taktraten geflossen (lange, ausbalancierte Pipeline). Am Ende ist Leistung pro W oder Leistung pro mm² entscheidender. Hier ist NV aktuell schon noch ein Stück voraus. Insbesondere Leistung pro W. Aber Leistung pro mm² sieht gar nicht so schlimm für AMD aus. Bei vergleichbarer Leistung bekommt NV knapp 17% mehr dies pro Wafer heraus. Das ist jetzt keine Welt. Leistung pro Watt hingegen ist man immerhin 25 % besser.
Was ist vergleichbare Leistung? GP107 ist bei gleichem Stromverbrauch (75W) zwischen 40% 27% (Rechenleistung) und 70% (Pixel- und Geometrieleistung) schneller als Polaris 11 mit 1024Cores und 1150Mhz.
Anhand der tatsächlichen Leistung pro Rohleistung zu rechnen ist IMO zu kurz gedacht, da die Philosophien unterschiedlich sind. (weniger dafür teurere Ausführungseinheiten vs mehr aber dafür billigere Ausführungseinheiten).
Ich sehe keine unterschiedlichen Pragmadigen zwischen Polaris und Pascal. GP107 und Polaris 11 sind sich doch sehr ähnlich, wobei nVidia pro mm^2 in Bereichen wie Speicherbandbreite (Kompression), Pixelleistung und Geometrieleistung weiter vor Polaris 11 liegt als bei der Rechenleistung zurück.
Setsul
2016-12-13, 16:51:40
Ich würde gar nicht so tief in die technischen Details gehen.
Man sollte jetzt noch nicht allzu viel in die 68 fps hineininterpretieren.
Vulkan bringt AMD in Doom wesentlich weniger auf 4K (~10%) aber generell kann man sich denke ich darauf einigen, dass das ganze außerhalb von Doom dann ungefähr auf dem Niveau einer 1080 wäre, genauso wie die 480 ungefähr auf dem Niveau der 1060 6GB liegt.
Ein paar Prozent hin oder her sind erstmal nicht wichtig.
Die 8GB kann man interpretieren wie man will, persönlich denke ich, dass weniger als 8GB (6GB mit HBM2 wären Schwachsinn) für eine Karte die schneller ist als die 480 (oder 1060) keinen Sinn ergeben und entsprechend falls es eine noch schnellere Karte gibt die dann eher mehr als 8GB hat.
Aber das kann man außen vor lassen, genauso ob AMD von Pascal Taktraten überrascht wurde oder nicht. Einfach nur dadurch, dass diese Karte kaum schneller ist als eine Fury X, kann man sagen dass entweder etwas fürchterlich schief gelaufen ist oder das nicht das Ende der Fahnenstange ist für Vega.
Die RX 480 ist mehr oder weniger ein Fixpunkt, ich denke niemand wird mir hier erzählen wollen, dass die 480 viel schneller geworden ist als erwartet. Das Ding sollte von Anfang an das offizielle VR minimum (970 / 390) erreichen und hat selbst das nur knapp geschafft (zu großer Abstand zu P11, normalerweise geht man nicht über 2x den nächstkleineren Chip wenn nicht unbedingt notwendig, Taktraten höher als optimal usw). Wenn also 1080 +-x% das Ziel für den Chip ist, dann kann das nicht der große Vega sein. Zwischen 480/1060 und 1080 bringt man beim besten Willen keine 4 Karten. Meinetwegen mit rebranding à la 390(X), aber nicht mit einem neuen Die mit HBM.
Den kleinen Vega als Ersatz für P10 scheint mir auch nicht sinnvoll. Nach nur einem Jahr und teurer in der Herstellung, AMD schwimmt definitiv nicht im Geld, da sollte das keine Option sein.
Meiner Meinung nach gibt es 3 Möglichkeiten:
1. AMD ist zurecht mit der Leistung zufrieden weil es nur der kleine Vega ist oder weil es der einzige Vega ist.
2. Das ist noch lange nicht die endgültige Leistung, egal woran es liegt, Treiber (vielleicht ist Doom/Vulkan sogar das einzige was bis jetzt läuft), Kühlung oder irgendetwas anderes, was zu diesem Zeitpunkt (angeblich ein paar Wochen alt) auch nicht unerwartet wäre.
3. AMD hat völlig versagt und weiß, dass Vega keinerlei Chancen hat also zeigen sie uns das gleich jetzt bevor dumme Leute auf die Idee kommen Vega zu hypen.
dargo
2016-12-13, 17:09:01
Den kleinen Vega als Ersatz für P10 scheint mir auch nicht sinnvoll. Nach nur einem Jahr und teurer in der Herstellung, AMD schwimmt definitiv nicht im Geld, da sollte das keine Option sein.
Sehe ich nicht so. Ursprünglich war afaik Polaris für 20nm gedacht. Und da man 20nm übersprungen hat kam Polaris entsprechend später. Vega lag/liegt wohl im Zeitplan. Es gibt sicherlich auch einen guten Grund warum AMD bei der nächsten APU auf Vega IP und nicht Polaris setzt.
Schaffe89
2016-12-13, 17:24:48
Die 137 Watt bei Metro 2033 der WX7100 gegenüber 119 Watt (GTX1060)
lassen hoffen das man auch hier schon gut aufgeholt hat. Rechnet man jetzt noch mögliche Ersparnisse durch HBM ein könnte AMD hier evtl sogar knapp vor NV landen.
Die Rechnung funktioniert aber nicht, da die professionelle Karte auch mit einem geringeren Takt operiert, ca 50mhz weniger als das Referenzdesign der RX480 und halt auf sparsam getrimmt ist. Das bekommt man imho mit jeder RX480 so hin.
Die Angabe der Leistungsaufnahme stand in keinem Zusammenhang mit der Doom-Präsentation. Du knüpfst da Verbindungen, die bisher so nicht gegeben sind.
Ich knüpfe keinerlei Verbindungen, ich nehme einfach nur die Angaben die AMD bisher zu VEGA gemacht hat und das sind nunmal laut AMD etwas weniger als 300 Watt, vermutlich 275 Watt, oder wie wir bereits von Polaris/Hawai/Fijii kennen nahe an 300 Watt. Wieso das auf die Consumerkarte nun nicht in etwa zutreffen solle, erschließt sich mir einfach nicht. Wenn sich das groß unterscheiden sollte, wäre das ein Novum, also warum immer so optimistisch? Gibts dafür irgend nen Grund? Wenn die Karte flott wird, dann ists ja eh kein Problem. Energieeffizienz ist halt nunmal wichtig.
Dino-Fossil
2016-12-13, 17:37:30
Sehe ich nicht so. Ursprünglich war afaik Polaris für 20nm gedacht. Und da man 20nm übersprungen hat kam Polaris entsprechend später. Vega lag/liegt wohl im Zeitplan. Es gibt sicherlich auch einen guten Grund warum AMD bei der nächsten APU auf Vega IP und nicht Polaris setzt.
Polaris war sicherlich nicht der technologische Riesenschritt, zeigt vermutlich auch die interne Bezeichnung als Graphics IP 8.1 (Tonga und Fiji waren 8.0, oder?). Eher evolutionär.
Vega kann in der Tat deutlich mehr Änderungen bieten, aber solange es keine Produkte gibt bleibt es streng genommen spekulativ (wobei es ja einige Hinweise gibt).
Ich vermute nach wie vor, dass ein wesentlicher Grund für den Erscheinungstermin von Vega auch die Verfügbarkeit/Bezahlbarkeit von HBM2 darstellt. Und evtl. hat der Launch von Pascal wirklich dazu geführt, Vega noch hier und da ein wenig zu überarbeiten.
Tamagothi
2016-12-13, 17:39:43
@ Schaffe89
Du glaubst doch selber nicht das die MI25 "Vega10" grade mal so schnell ist wie die GTX1080 in DOOM.
Dabei 50% mehr TFLOPS als Fiji hat ( der auch so schnell ist wie die GTX 1080) und >300 Watt verbrauch.
Hast recht AMD kann nichts!!
Schaffe89
2016-12-13, 17:47:38
Du glaubst doch selber nicht das die MI25 "Vega10" grade mal so schnell ist wie die GTX1080 in DOOM.
Na sie war doch schneller, ca 10% vor einer 1900mhz GTX 1080, das sind wohl in der Praxis so 15 bis 25% in einem pro AMD Titel, wo hatte ich denn bitte was anderes gesagt. :rolleyes:
Hast recht AMD kann nichts!!
Lies mal die Mod Anweisung. Wenn dir das nicht passt was ich schreibe setze mich auf Ignore und dann dildo4u, aufkrawall, Troyan und andere auch, dann siehst du nur noch pro AMD Gerede. Ziel erreicht.:mad:
Geht mal ruhig von 225 Watt Leistungsaufnahme aus und einer dollen Effizienzsteigerung gegenüber Polaris. Nur die Erwartungen schön schüren.
Gouvernator
2016-12-13, 17:56:24
Zweitens sollte jegliche Sicht auf die Grafikkarte verwehrt bleiben, sodass vorne, hinten, seitlich und oben alle Lüfterplätze abgeklebt wurden. Etwa Frischluft kann, wenn überhaupt, nur über die Unterseite ins Gehäuse gelangt sein. Die Grafikkarte war dadurch merklich laut und schaufelte ordentlich heiße Abluft nach hinten heraus.
Liest sich so als ob man eher mit der Absicht alles zugeklebt hat, damit die Leute denken, DAS wäre der Grund warum sie ordentlich heizt. Und nicht, das sie grundsätzlich so heizt. Das Klebeband ist eine Attrappe um beim ersten PR das zu verschleiern. :devil:
Tja, sieht nach einem großartigem Fail aus. Wenn sie schon wegen HBM2 nicht liefern werden können, dann wird ihnen die Verlustleistung "zweier 1080" mit der Leistung von "einer" den Hals brechen.
Die Rechnung funktioniert aber nicht, da die professionelle Karte auch mit einem geringeren Takt operiert, ca 50mhz weniger als das Referenzdesign der RX480 und halt auf sparsam getrimmt ist. Das bekommt man imho mit jeder RX480 so hin.
...
50 MHz hatte ein 486er. Das ändert nichts an seiner Aussage, da es die Leistung kaum verringert.
Monsta
2016-12-13, 18:09:32
Wer sagt denn das das schon ne Vega Karte war, kann ja auch ne Dual Polaris gewesen sein. Da passen die 8gb und die doppelte Performance zur 480.
Und zukleben passt auch, sonnst hätte man ja den "normalen Speicher" gesehen.
fondness
2016-12-13, 18:19:12
Wurde hier schon der "Vega-Cube" besprochen? Konduri mal wieder am herum albern
http://videocardz.com/64731/what-is-amd-vega-cube
Setsul
2016-12-13, 18:20:29
@dargo:
Ich glaube nicht, dass das etwas ändert. Selbst wenn man annimmt, dass Tonga auf 20nm nicht schneller gewesen wäre oder von Anfang an auf 28nm geplant war, kann P10 kaum langsamer gedacht gewesen sein. Zu nah an Tonga und langsamer als Hawaii, dank 20nm auch nicht wirklich billiger also nur in der Effizienz besser. Ich denke P10 sollte schon immer im mainstream Hawaii (gleiche Leistung) und im mobile Tonga (gleiche Leistungsaufnahme) ersetzen.
APU ist kein Argument, natürlich nimmt man für APUs Vega IP sobald es bereit ist. Wenn Polaris besser wäre als Vega bräuchte man Vega nicht.
Oder umgedreht, wenn der kleine Vega nur so schnell ist wie P10, aber effizienter, dann hätte AMD keinen Grund mehr den Chip zu bringen. P10 bringt mehr Gewinn, wer höhere Effizienz wollte hat schon GP106. Ich meine sie werden dadurch nicht soviel mehr verkaufen, dass sie insgesamt mehr Gewinn haben. Niemand wird wegen ein paar Watt weniger seine 480 oder 1060 wegwerfen und ne neue GPU kaufen und um Notebook Hersteller zu überzeugen ein Jahr zu warten müsste das Ding schon sehr viel effizienter oder billiger sein als der GP106.
EDIT:
@Monsta:
http://scr3.golem.de/screenshots/1612/AMD-Vega10-RadeonInstinct-Doom/AMD-Vega10-RadeonInstinct-Doom-03.jpg
Unicous
2016-12-13, 18:28:12
Wurde hier schon der "Vega-Cube" besprochen? Konduri mal wieder am herum albern
http://videocardz.com/64731/what-is-amd-vega-cube
Weiß nicht ob er herumalbert oder das Innere eines Mac Pro in die Linse hält.:wink:
http://store.storeimages.cdn-apple.com/4662/as-images.apple.com/is/image/AppleInc/aos/published/images/m/ac/mac/pro/mac-pro-gallery6-2013?wid=930&hei=629&fmt=jpeg&qlt=95&op_sharpen=0&resMode=bicub&op_usm=0.5,0.5,0,0&iccEmbed=0&layer=comp&.v=6Rllx0
Der Formfaktor wüsste jedenfalls zu gefallen. Natürlich nicht in einer Serverfarm... aber im kleinen Studio schon eher.
Botcruscher
2016-12-13, 18:33:56
Was sind denn die 3 Quadrate da bei dem Vegawürfel? Doch nicht etwa HBM Stapel?
Monsta
2016-12-13, 18:34:28
@Setsul
das ist doch nur ein Pappschild auf der weißen Kiste.
Da kann ich alles draufschreiben.
Unicous
2016-12-13, 18:38:12
Was sind denn die 3 Quadrate da bei dem Vegawürfel? Doch nicht etwa HBM Stapel?
Denk mal scharf nach. Warum sollte das HBM sein, wenn du noch nicht einmal den Interposer geschweige denn einen Chip siehst.:wink: Könnte alles mögliche sein. Abstandshalter, Kühlelemente...
Schaffe89
2016-12-13, 18:39:31
50 MHz hatte ein 486er. Das ändert nichts an seiner Aussage, da es die Leistung kaum verringert.
Wenn die Ersparnis bei den Retailkarten ankommt die dann mit bisherigen Taktraten angeboten werden, dann kann man von Verbesserungen sprechen. Vorher ja wohl kaum. Eine 1140mhz RX480 wäre jetzt nicht so der Brüller.
Wenn die Ersparnis bei den Retailkarten ankommt die dann mit bisherigen Taktraten angeboten werden, dann kann man von Verbesserungen sprechen. Vorher ja wohl kaum. Eine 1140mhz RX480 wäre jetzt nicht so der Brüller.
Das bekommt man angeblich mit jeder RX480 so hin und 50 MHz weniger beeinflussen die Leistung fast nicht, von den 2 GB Mehrspeicher und breiteren SI zur 1060 ganz abgesehen.
Die Rechnung stimmt also.
Setsul
2016-12-13, 18:50:57
@Monsta:
Dann darfst du aber auch nicht annehmen, dass da eine AMD GPU drinsteckt oder überhaupt irgendeine GPU.
Bild ist auch schon weg.
Nachtrag vom 13. Dezember 2016, 18:22 Uhr
AMD hat darum gebeten, alle Informationen zum Demo-System zu entfernen. Diese unterliegen rückwirkend einer Sperrfrist, wie uns der Hersteller mitteilte. Vor Ort hatte AMD es noch gestattet, die Daten zu veröffentlichen.
Kann man jetzt interpretieren wie man will.
Monsta
2016-12-13, 19:00:49
ja warum machen die da so ein Geheimnis draus? Ich glaube da war keine Vega drin.
Botcruscher
2016-12-13, 19:03:29
Denk mal scharf nach. Warum sollte das HBM sein, wenn du noch nicht einmal den Interposer geschweige denn einen Chip siehst.:wink: Könnte alles mögliche sein. Abstandshalter, Kühlelemente...
Die Chips könnten auf der Platine auch durchkontaktiert sein. Bei einem Stück aus der Forschungsabteilung kann alles möglich sein. PS Außerdem soll es ein Testboard ohne Chip sein. Das könnte also durchaus die richtige Seite des Interposers sein. Einfach zum testen von Layout und HBM.
PCI ID passt nicht zu Polaris, fuer dGPU waere das sehr ungewoehnlich. Ausserdem wuerde ich von DOOM Overlay erwarten, dass es dort auch 2 GPUs anzeigt - sofern mGPU Support da waere, was aber nicht der Fall ist.
Kann der Theorie bzgl. dual P10 daher nichts abgewinnen.
Tamagothi
2016-12-13, 19:11:33
Die Chips könnten auf der Platine auch durchkontaktiert sein. Bei einem Stück aus der Forschungsabteilung kann alles möglich sein. PS Außerdem soll es ein Testboard ohne Chip sein. Das könnte also durchaus die richtige Seite des Interposers sein. Einfach zum testen von Layout und HBM.
HBM sitzt auf dem Interposer der wiederum auf dem PCB.
Unicous
2016-12-13, 19:23:57
@Botcruscher
Ich sagte doch, da ist kein Chip drauf (e: bzw. man sieht ihn jedenfalls nicht), wie kommst du darauf, dass da etwas durchkontaktet wäre?:confused:
So sieht Fiji von hinten aus.
https://www.techpowerup.com/img/15-06-22/203a.jpg
Da wird nichts durchkontaktet sondern aufs Board gelötet. Ich schätze das sind Kapazitatoren oder andere Bauteile, der Chip könnte auf der anderen Seite sitzen. Ich kann mich aber auch irren, weil man eben so gar nichts erkennen kann.
Ich wüsste auch nicht wo etwas von Testboard gesprochen wurde. Es ist ein Prototyp-Board, also die Vorstufe zum retail-board.;)
Und den Interposer sieht man rot-bräunlich schimmern, der ist auch nichts anderes als ein großes Stück Silizium.
Setsul
2016-12-13, 19:26:41
@Monsta:
Wie gesagt, kann man interpretieren wie man will.
Aber außer AMD hat es geschafft mGPU vor Doom zu verstecken, siehe iuno, was auch interessantes bedeuten würde, oder andere Einstellungen verwendet als angegeben oder es geschafft die PCI ID einer Titan XP zu verändern heißt es dass sie eine GPU haben die schneller ist als eine Fury X.
Such dir aus was du für am wahrscheinlichsten hälst.
Monsta
2016-12-13, 19:48:29
@Monsta:
Wie gesagt, kann man interpretieren wie man will.
Aber außer AMD hat es geschafft mGPU vor Doom zu verstecken, siehe iuno, was auch interessantes bedeuten würde, oder andere Einstellungen verwendet als angegeben oder es geschafft die PCI ID einer Titan XP zu verändern heißt es dass sie eine GPU haben die schneller ist als eine Fury X.
Such dir aus was du für am wahrscheinlichsten hälst.
Die Pc id ändern wird nicht schwer sein, habe das selber mit ner Wlan Karte gemacht um das stinkige Whitelist Bios meines Thinkpads auszutricksen.
Ob sie das wirklich gemacht haben glaube ich nicht.
Troyan
2016-12-13, 19:51:45
Vulkan unterstützt zur Zeit kein mGPU.
fondness
2016-12-13, 20:03:56
Was von WhyCry:
"From what I heard AMD will also demonstrate Vega today. That Doom demo that was leaked yesterday was not meant to be published till January."
http://videocardz.com/64750/amd-new-horizon-live-stream
Nakai
2016-12-13, 20:04:22
Denk mal scharf nach. Warum sollte das HBM sein, wenn du noch nicht einmal den Interposer geschweige denn einen Chip siehst.:wink: Könnte alles mögliche sein. Abstandshalter, Kühlelemente...
Ich würde auf Abstandhalter tippen oder für einen Dummy für irgendwas anderes.
Fiji hatte eine SDD verbaut und Vega10 könnte direkt 3D NAND-Flash ansteuern.
Vll nur ein Platzhalter für 3D NAND?
Im Vega-Cube sitzen innen definitiv schon vier Vega-GPUs. Ich habe ein Bild, auf dem man eine sieht, darf's aber nicht zeigen ...
TheGood
2016-12-13, 20:56:56
Was von WhyCry:
"From what I heard AMD will also demonstrate Vega today. That Doom demo that was leaked yesterday was not meant to be published till January."
http://videocardz.com/64750/amd-new-horizon-live-stream
Was für eine Demo ? Das System stand doch da und jeder konnte gucken oder habe ich das in den Artikeln falsch verstanden ? Vermutlich wird da wieder irgendwas zusammengedichtet...
BlacKi
2016-12-13, 20:59:52
Was für eine Demo ? Das System stand doch da und jeder konnte gucken oder habe ich das in den Artikeln falsch verstanden ? Vermutlich wird da wieder irgendwas zusammengedichtet...
vermutlich aber unter nda gezeigt und dann ist irgendwas schief gelaufen.
TheGood
2016-12-13, 21:07:59
Ich hatte es eilig, weil man nie weiß ob man gleich vom Rechner weggezerrt wird :biggrin: der Kollege wusste dann schon, dass nix passiert ...
Doom-Benchmark mit Vega 10: http://www.golem.de/news/grafikchip-amds-vega-hat-mindestens-25-teraflops-sowie-8-gbyte-hbm2-1612-125003.html
http://scr3.golem.de/screenshots/1612/AMD-Vega10-RadeonInstinct-Doom/thumb620/AMD-Vega10-RadeonInstinct-Doom-02.JPG
vermutlich aber unter nda gezeigt und dann ist irgendwas schief gelaufen.
Ahja, jetzt hab ich es im Artikel von Golem auch gesehen. Da hat AMDs Marketing mal wieder schön gepennt... haha
Nakai
2016-12-13, 21:08:47
Im Vega-Cube sitzen innen definitiv schon vier Vega-GPUs. Ich habe ein Bild, auf dem man eine sieht, darf's aber nicht zeigen ...
Und wie groß ist ein Vega10 zum Vergleich zu einem HBM2-Stack?
Unicous
2016-12-13, 21:19:56
s1jvhHJ6xw8
This is the complete AMD Radeon Instinct tech briefing from the 2016 AMD Tech Summit, minus the section that is still under NDA.
Und wie groß ist ein Vega10 zum Vergleich zu einem HBM2-Stack?
Wir haben Vega 10 solo schon live gesehen, dürfen dazu also auch nichts sagen. :redface:
Wir haben Vega 10 solo schon live gesehen, dürfen dazu also auch nichts sagen. :redface:
Wer ist wir?:rolleyes:
Skysnake
2016-12-13, 22:00:28
T -10
Iruwen
2016-12-13, 22:04:39
Kommt noch nichts oder funktionierts nur bei mir nicht?
/e: ah jetzt.
blaidd
2016-12-13, 22:05:33
Auf Twitch läuft's.... (https://www.twitch.tv/amd)
StefanV
2016-12-13, 22:38:55
Showing Vega in Star Wars Battlefront, in 4k.
Screemer
2016-12-13, 22:42:18
naja das war mal ein kurzes aufblitzen von vega.
Hübie
2016-12-13, 22:42:21
Was schafft da ne 1080? Also ich bin erst mal beeindruckt. :D Sieht so aus als würde ich endlich mal wieder ein AMD / AMD System bauen.
qu3x^
2016-12-13, 22:44:31
Das Testsystem so am Röcheln. Der Fön war permanent zu höhren. :freak:
Ich hoffe mal das Vega keine FX 5950 Ultra 2 wird.
StefanV
2016-12-13, 22:57:19
Was schafft da ne 1080?
Nix, weils der Rogue one DLC war.
StefanV
2016-12-13, 22:57:54
Das Testsystem so am Röcheln. Der Fön war permanent zu höhren. :freak:
Ich hoffe mal das Vega keine FX 5950 Ultra 2 wird.
...wie es beispielsweise bei der Titan X der Fall ist, was? ;)
victore99
2016-12-13, 23:28:59
Kühlerlautstärke kümmert mich jetzt nicht so wirklich. Morpheus drauf und fertig.
Gabs abseits dieser Battlefront-Demo noch was anderes im Steam? Und was erreichen 1070, 1080, Fury und Co in der Szene auf den Einstellungen?
BlacKi
2016-12-13, 23:33:11
in der Szene auf den Einstellungen?
die szene gibts noch nicht, der dlc ist noch nicht draussen. "Star Wars Battlefront Rogue One: Scarif DLC is based on the the upcoming Star Wars: Rogue One movie which is set for release in mid-December during the holidays."
Jupiter
2016-12-14, 00:07:30
Der Battlefront-DLC ist für Season Pass-Besitzer schon seit letzter Woche draußen. Da habe ich ihn selbst gespielt.
Ich würde sagen das eine GTX 1070 die Weltall-Szene in UHD und mit 60+fps berechnen könnte.
horn 12
2016-12-14, 00:33:21
Vega könnte wenn alles gut läuft echt Februar aufschlagen!
BlacKi
2016-12-14, 00:40:41
oder juli! und im august vereinzelt lieferbar sein!
BoMbY
2016-12-14, 00:42:55
Vega könnte wenn alles gut läuft echt Februar aufschlagen!
Juni ist immer noch deutlich wahrscheinlicher. Q1 ist praktisch ausgeschlossen.
Ph03n!X
2016-12-14, 07:08:10
Was für eine Karte sollte man nehmen ab Q2 17? Ich konnte die Demo vom neuen Prozi und Vega nicht sehen. Oder kommt da noch eine für Vega? Aktuell habe ich ein 5 Jahre altes Intel System.
Skysnake
2016-12-14, 07:24:55
Ich habe mir gerade das Radeon Instinct Video angeschaut.
Die drei Dinger auf dem Compute Cube waren Abstandshalter (Schaumstoff). Die Dinger sind relativ typisch für Server/OEM Geräte. Einfach damit man sicher gehen kann, das es nicht zu einem Kurzschluss kommt, weil man irgendwelche Metallteile berührt.
Palpatin
2016-12-14, 10:50:15
Ich würde sagen das eine GTX 1070 die Weltall-Szene in UHD und mit 60+fps berechnen könnte.
UHD haut bei Battlefront gut rein, 41,x FPS im CB Benchmark gegenüber 83,x Frames in 1440p, bei der 1070. Kann natürlich sein das der Weltraum DLC genügsamer ist.
Cyphermaster
2016-12-14, 11:55:31
Juni ist immer noch deutlich wahrscheinlicher. Q1 ist praktisch ausgeschlossen.Kommt auf die noch anstehenden Optimierungen an (je weniger muß, desto schneller; auch wenn ich wenn eher von März als Januar ausgehe ;)), und was man als Maßstab nimmt - grade Verfügbarkeit ist so eine Sache. Wenn irgendwo auf der Welt die ersten Karten verkauft werden oder global in großen Stückzahlen auf Lager, da ist eine Menge Spielraum dazwischen.
Ich kann mir gut vorstellen, daß man die aktuelle positive Medien-Welle seitens des AMD-Marketings durchgängig und lange reiten wollen wird. Das spräche dafür, eher eine Salami-Taktik zu fahren = frühes "Release" mit geringen Stückzahlen, um die Interessenten "hungrig" und über die folgenden Benchmarks/Tests bei der Stange zu halten, bis dann die großen Stückzahlen anrollen.
Ailuros
2016-12-14, 12:12:49
ΑMD steuert aus verstaendlichen Gruenden (Verfuegbarkeiten und Margen) zuerst den Profi-Markt an mit Vega. Wenn man schon seit einiger Zeit ueber 24 TFLOPs FP16 hoert dann ist die Meldung auch ziemlich klar in der Richtung.
Von dem abgesehen ist der volle chip mit maximaler Frequenz kein Teil dass IMHO fuer niedrige Preise oder grosse Stueckzahlen spricht. Optimal waere natuerlich dass die Durchschnittsleistung zwischen einer 1080 und 1080Ti faellt mit einem MSRP unter dem des ersten, aber sooooo verdammt optimistisch bin ich nun auch wieder nicht.
Wer ist wir?:rolleyes:
Alle, die bei AMD in Somona anwesend waren? ^^
Achill
2016-12-14, 13:17:41
UHD haut bei Battlefront gut rein, 41,x FPS im CB Benchmark gegenüber 83,x Frames in 1440p, bei der 1070. Kann natürlich sein das der Weltraum DLC genügsamer ist.
Das können wir ja ggf. etwas besser fassen wenn das DLC zu Rogue One verfügbar ist und hier im Forum ein paar Besitzer von 1070/80 und Fuji dies mal grob gegen getestet haben.
Ravenhearth
2016-12-14, 13:33:19
Liege ich damit richtig, dass Vega10 aktuell folgendermaßen aussieht?
1) Im schlimmsten Fall ein Jahr später dran als die GTX 1080
2) Performance wahrscheinlich etwa auf deren Höhe, vielleicht +10% im Durchschnitt
3) Allerdings viel Rohleistung und viele Features für professionelle Anwedungen
4) Dadurch ein viel größerer Chip als GP104 sowie teurer HBM-Speicher, also ist die Karte viel teurer in der Herstellung
5) TDP angesichts von Polaris und den Daten zur MI25 im Bereich von 250-300W
6) Dadurch wird AMD die Karte nicht teurer als die GTX 1080 verkaufen können
- Viel zu spät, nicht schneller als eine GTX 1080 OC, viel höherer Stromverbrauch - dabei wollte ich mir endlich mal ne AMD-Karte leisten... :usad: und für AMD ist sie auch noch teurer in der Herstellung. Klingt jetzt nicht gerade wie der große Wurf.
Screemer
2016-12-14, 13:50:12
du hast alle punkte die sich troyan, dildo und schaffe zusammengesponnen haben genannt. damit liegst du also richtig. punkt 1 könnte aber stimmen und er liegt somit voll im zeitplan.
Dino-Fossil
2016-12-14, 14:06:01
Punkt 5 ist völlig offen. Die Pascal Tesla hat ebenfalls TDP von 300W bei sogar geringerer FP16 Leistung und die gaming Karten begnügen sich trotzdem mit deutlich weniger. Warten wir also erstmal ab.
Punkt 6, naja, die 1080 ist schon überteuert, von daher würde ich doch hoffen , dass AMD vernünftigere Preise macht.
Ravenhearth
2016-12-14, 14:11:18
Punkt 5 ist völlig offen. Die Pascal Tesla hat ebenfalls TDP von 300W bei sogar geringerer FP16 Leistung und die gaming Karten begnügen sich trotzdem mit deutlich weniger. Warten wir also erstmal ab.
Die basieren aber doch auf auch unterschiedlichen Chips: GP100 vs. GP102 usw. Da die Gaming-Chips den ganzen "Ballast" nicht mit sich rumtragen, ist es da nicht logisch anzunehmen, dass GP100 in Spielen auch mehr Strom aufnehmen würde als die anderen? Das dürfte für Vega10 auch gelten, eine abgespeckte Gaming-Variante wirds ja nicht geben.
Dino-Fossil
2016-12-14, 14:13:54
Möglich. Trotzdem ist aktuell alles rein spekulativ auf dünner Datenbasis.
Jupiter
2016-12-14, 14:22:12
UHD haut bei Battlefront gut rein, 41,x FPS im CB Benchmark gegenüber 83,x Frames in 1440p, bei der 1070. Kann natürlich sein das der Weltraum DLC genügsamer ist.
Im Weltall ist die Performance besser.
Das können wir ja ggf. etwas besser fassen wenn das DLC zu Rogue One verfügbar ist und hier im Forum ein paar Besitzer von 1070/80 und Fuji dies mal grob gegen getestet haben.
Wie gesagt gibt es den bereits seit letzter Woche.
AffenJack
2016-12-14, 14:45:41
Hab mal meine Gedanken zu deinem Post geschrieben
Liege ich damit richtig, dass Vega10 aktuell folgendermaßen aussieht?
1) Im schlimmsten Fall ein Jahr später dran als die GTX 1080 -> ziemlich wahrscheinlich ja
2) Performance wahrscheinlich etwa auf deren Höhe, vielleicht +10% im Durchschnitt -> Performance würde ich eher ein großes Fragezeichen setzen, dass kann durchaus auch 10-20% über der 1080 werden und damit nicht weit von 1080Ti entfernt werden, man sollte sich da nicht dran aufhängen.
3) Allerdings viel Rohleistung und viele Features für professionelle Anwedungen -> das auf jeden Fall
4) Dadurch ein viel größerer Chip als GP104 sowie teurer HBM-Speicher, also ist die Karte viel teurer in der Herstellung -> etwas teurer bestimmt, aber da sollte man erstmal abwarten wie groß der Chip wirklich ist
5) TDP angesichts von Polaris und den Daten zur MI25 im Bereich von 250-300W -> Bei consumer kann durchaus 250W möglich sein
6) Dadurch wird AMD die Karte nicht teurer als die GTX 1080 verkaufen können -> Man hat kein Plan wie schnell das Ding wird, aber ich gehe von mehr Geschwindigkeit als 1080 aus und dementsprechend höherer Preis als diese. Nv wird die 1080 aber sicher spätestens zum Vega Launch um 100$ senken
Der_Korken
2016-12-14, 15:08:26
Wenn die 12,5TFlops bzw. 4096SPs bei >1500Mhz stimmen, dann sollte V10 auch >10% über der GTX1080 rauskommen. Vergleicht man einfach mal die Fury X mit der 1080, ist die 1080 38%/34%/24% schneller in 1080p/1440p/4K laut CB Ranking. Würde man Fiji einfach shrinken und auf >1500Mhz hochprügeln, hätte man 45% mehr Takt und zusammen mit 4 Stacks HBM2 somit (min.) 45% mehr Performance. Dabei war Fiji der Chip, der am schlechtesten seine Rohleistung in fps umgesetzt hat. Selbst in 4K liegt er im Schnitt gerade mal 21% vor eine 390X, trotz 45% mehr CUs und 33% mehr Bandbreite.
Sofern AMD das ganze Entwicklungsbudget nicht dazu genutzt hat, das Design noch ineffizienter zu machen, kann man - unter der Annahme, dass der Chip auch wirklich 1500Mhz schafft - von mindestens 10%+x auf die 1080 ausgehen. Das "x" ist das, was zusätzlich aus der Architektur gegenüber Fiji rausgeholt wird.
Cyphermaster
2016-12-14, 15:31:49
Liege ich damit richtig, dass Vega10 aktuell folgendermaßen aussieht?Nach den Device-IDs gibt's aber auch Indizien, daß es sich beim gezeigten Chip um einen Vega11, nicht Vega10, dabei handeln könnte.
Siehe HIER (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11234946#post11234946).
Wäre interessant, wie zuverlässig man daraus was ablesen kann. Mir erscheint es jedenfalls relativ unlogisch, wenn diese Performance mit dem "Mini-Vega" erreicht worden sein sollte. Wenn das aber nicht zuverlässige Anhaltspunkte sein sollten, dann wäre zwar die Logik gewahrt, aber auch einige andere gemachte Annahmen im Thread noch weit weniger sicher, als vielfach genannt. :uponder:
dargo
2016-12-14, 15:34:24
Mit Fiji als Basis würde ich das gar nicht vergleichen. Da ist schon P10 besser für geeignet. Laut CB ist die GTX1080 Referenz 70-72% (1080-1440p) im Schnitt schneller als die RX480 Referenz mit ~1180Mhz. Vega hat 78% mehr CUs als P10 und sollten die >1,5Ghz stimmen zusätzlich mindestens 27% mehr Takt. Das wären insgesamt +126% Rohleistung gegenüber P10. Hinzu kommt noch die doppelte Speicherbandbreite mit verbesserten DCC. Und natürlich die überarbeiteten CUs.
Schnoesel
2016-12-14, 15:54:13
Liege ich damit richtig, dass Vega10 aktuell folgendermaßen aussieht?
Du liegst mit gar nix richtig, genausowenig wie jeder andere hier weil wir nichts wissen, schon gar nicht welcher Vega verbaut wurde und ob nun Vega 10 der große oder kleine ist oder ob es überhaupt 2 gibt. Aber das scheint hier niemanden zu interessieren. Jeder rät hier mal fröhlich ins Blaue. Wenns euch weiterhilft ...
Der_Korken
2016-12-14, 16:46:21
Mit Fiji als Basis würde ich das gar nicht vergleichen. Da ist schon P10 besser für geeignet. Laut CB ist die GTX1080 Referenz 70-72% (1080-1440p) im Schnitt schneller als die RX480 Referenz mit ~1180Mhz. Vega hat 78% mehr CUs als P10 und sollten die >1,5Ghz stimmen zusätzlich mindestens 27% mehr Takt. Das wären insgesamt +126% Rohleistung gegenüber P10. Hinzu kommt noch die doppelte Speicherbandbreite mit verbesserten DCC. Und natürlich die überarbeiteten CUs.
Man kann leider nicht einschätzen, wieviel zusätzliche CUs tatsächlich bringen. Daher habe ich Fiji genommen und nicht P10, um wirklich eine Baseline zu haben, die V10 eigentlich nicht unterschreiten sollte, sofern AMD das Design nicht noch weiter verschlechtert hat. Würde V10 mit der Rohleistung 1:1 gegenüber P10 skalieren, könnte sich das Teil stellenweise sogar mit der TXP anlegen. Allerdings kommt eine solche Skalierung praktisch nie vor. Selbst bei Maxwell und Pascal nicht, da haben die kleinen Chips auch mehr fps/Flop.
dargo
2016-12-14, 17:02:45
Wie kommst du darauf? GP102 hat 11 TFLOPs, GP104 9 TFLOPs. Die +22% werden sehr gut auf die Straße gebracht.
https://www.techpowerup.com/reviews/NVIDIA/Titan_X_Pascal/24.html
Die etwas stärkere Skalierung ergibt sich denke ich aus den leicht abweichenden Taktraten beim Boost.
BlacKi
2016-12-14, 17:05:18
Mit Fiji als Basis würde ich das gar nicht vergleichen. Da ist schon P10 besser für geeignet. Laut CB ist die GTX1080 Referenz 70-72% (1080-1440p) im Schnitt schneller als die RX480 Referenz mit ~1180Mhz. Vega hat 78% mehr CUs als P10 und sollten die >1,5Ghz stimmen zusätzlich mindestens 27% mehr Takt. Das wären insgesamt +126% Rohleistung gegenüber P10. Hinzu kommt noch die doppelte Speicherbandbreite mit verbesserten DCC. Und natürlich die überarbeiteten CUs.
edit:
lass uns doch einfach abwarten...
aufkrawall
2016-12-14, 17:10:24
Als für Polaris die ersten Ergebnisse für Ashes gelakt waren, war hier auch die Hoffnung groß, dass mit dem finalen Produkt schon alles besser würde. Jetzt haben wir schon mal offenbar Ashes und zusätzlich noch Doom mit Vulkan und Taktangabe.
Wer da das Teil noch so hypt, ist dann später an der eigenen Enttäuschung selbst schuld...
dargo
2016-12-14, 17:12:07
Ich werde es verkraften, du wahrscheinlich weniger. :wink:
aufkrawall
2016-12-14, 17:14:21
Mach dir um mich mal keine Sorgen. Ich kann mangels Sync-Monitor ja den Hersteller wechseln, wie ich lustig bin.
Höhnangst
2016-12-14, 17:23:29
Mal ungeachtet dessen, was Vega nun leistet oder nicht, frage ich mich dennoch, warum AMD das Jahr 2016 im Performance und HighEnd Segment komplett an nV abgegeben hat. Fehlt es an Kapital? Knowhow? Personal? R&D? Ich halte es nicht für unrealistisch, dass nV Mitte des Jahres (kurz nach Vega) schon einen optimierten und effizienteren Pascal auflegt, der sogar wieder schneller und sparsamer unterwegs sein könnte als Vega.
Ich denke, auch wenn sich sicherlich gewisse Synergieeffekte zwischen der GPU- und CPU-Sparte ergeben, es technologisch und finanziell trotzdem deutlich schwieriger für AMD ist, sich gegen Intel und nV zu behaupten. Vereinfacht ausgedrückt muss AMD alleine das leisten, was Intel im CPU-Sektor und nV im Grafiksektor addiert schaffen. Ohne richtige Konkurrenz ist der Markt echt im Eimer.
BlacKi
2016-12-14, 17:31:52
kam wohl vieles zusammen, hbm hat sich verzögert, der fehlende 20nm prozess 2014, vl zusätzliche falsche entscheidungen. ein geshrinkter fiji (20nm im jahr 2015, oder 14nm 2016) mit 8gb hbm2 hätte nv ganz schön ärger bereiten können. der wäre sicher 1k€ wert gewesen.
Schnoesel
2016-12-14, 17:33:35
Weil nur ZEN wichtig ist für AMD und nicht die paar Leute die High End Grafikkarten kaufen. CPUs haben eine sehr viel höhere Marge. AMD ist jetzt nicht gerade so reich und kann auf höchstem Niveau auf allen Hochzeiten gleichzeitig spielen. Ist doch nicht so unverständlich.
Schade für diejenigen die AMD als Steigbügelhalter für günstigere Nvidia Preise brauchen, für den Rest eher nicht.
The_Invisible
2016-12-14, 17:41:28
Liege ich damit richtig, dass Vega10 aktuell folgendermaßen aussieht?
1) Im schlimmsten Fall ein Jahr später dran als die GTX 1080
2) Performance wahrscheinlich etwa auf deren Höhe, vielleicht +10% im Durchschnitt
3) Allerdings viel Rohleistung und viele Features für professionelle Anwedungen
4) Dadurch ein viel größerer Chip als GP104 sowie teurer HBM-Speicher, also ist die Karte viel teurer in der Herstellung
5) TDP angesichts von Polaris und den Daten zur MI25 im Bereich von 250-300W
6) Dadurch wird AMD die Karte nicht teurer als die GTX 1080 verkaufen können
- Viel zu spät, nicht schneller als eine GTX 1080 OC, viel höherer Stromverbrauch - dabei wollte ich mir endlich mal ne AMD-Karte leisten... :usad: und für AMD ist sie auch noch teurer in der Herstellung. Klingt jetzt nicht gerade wie der große Wurf.
Da kommt ja schon bald wieder Volta. Ab dem Performance Segment ist eigentlich schon alles von Nvidia abgegrast. Wer 4k will hat gar keine andere Wahl als Nvidia, selbst in 1440p wirds schon langsam eng.
Wird langsam Zeit das AMD liefert sonst gibt nächste Gen noch eine Preiserhöhung.
Tesseract
2016-12-14, 17:46:39
Mal ungeachtet dessen, was Vega nun leistet oder nicht, frage ich mich dennoch, warum AMD das Jahr 2016 im Performance und HighEnd Segment komplett an nV abgegeben hat.
durch die ps4 pro und zen spielt personalknappheit sicher eine rolle, aber das alles entscheidende kriterium ist natürlich die späte verfügbarkeit von HBM2 - ohne HBM2 kein vega. hätte nvidia pascal mit HBM2 geplant hätten sie das gleiche problem und so ein chipdesignprozess zieht sich über jahre hinweg, den ändert man nicht mal eben ab weil sich der speichertyp ein paar monate verzögert.
Ailuros
2016-12-14, 17:53:22
Ich hab irgendwie das Gefuehl dass die meisten hier nicht bemerkt haben dass die angekuendigten Instict SKUs eigentlich nur fuer professionelle Maerkte gedacht sind ausser ich habe irgend etwas verpasst.
Unter dieser Logik kann man festhalten dass AMD fuer den MI-top dog <300W TDP wenn NV schon glatte 300W angiebt, mit um einiges hoeherem FP16 throughput (25 TFLOPs FP16 vs. 21.2 TFLOPs FP16) als beim letzten (zumindest auf Papier!) und womoeglich (noch) keine wirkliche Konkurrenz fuer die FP64 Seite des P100.
Desktop SKUs werden offensichtlich ganz andere Ziele haben und der TDP wird hier auch bei der groessten SKU nicht ueber sondern unter 250W liegen, selbst wenn es nur 249W sein sollten.
Mal ungeachtet dessen, was Vega nun leistet oder nicht, frage ich mich dennoch, warum AMD das Jahr 2016 im Performance und HighEnd Segment komplett an nV abgegeben hat. Fehlt es an Kapital? Knowhow? Personal? R&D? Ich halte es nicht für unrealistisch, dass nV Mitte des Jahres (kurz nach Vega) schon einen optimierten und effizienteren Pascal auflegt, der sogar wieder schneller und sparsamer unterwegs sein könnte als Vega.
Ich denke, auch wenn sich sicherlich gewisse Synergieeffekte zwischen der GPU- und CPU-Sparte ergeben, es technologisch und finanziell trotzdem deutlich schwieriger für AMD ist, sich gegen Intel und nV zu behaupten. Vereinfacht ausgedrückt muss AMD alleine das leisten, was Intel im CPU-Sektor und nV im Grafiksektor addiert schaffen. Ohne richtige Konkurrenz ist der Markt echt im Eimer.
Dave Baumann/AMD Marketing hat im B3D forum erwaehnt dass sie ab Polaris nur noch zwei chips pro Jahr aufs Laufband bringen werden. 2016 war das Jahr fuer Polaris, 2017 wird das Vega Jahr werden. Und ja es sind extreme Sparmassnahmen. Wenn jemand die AMD Ausgaben fuer R&D nur fuer GPUs segmentieren koennte waere die Summ im Vergleich zu dem was NV heutzutage ausgiebt einfach laecherlich klein. Dabei ist es sogar ein Wunder eigentlich dass sie am Ende so viel auf die Strasse bringen.
dargo
2016-12-14, 17:58:36
durch die ps4 pro und zen spielt personalknappheit sicher eine rolle, aber das alles entscheidende kriterium ist natürlich die späte verfügbarkeit von HBM2 - ohne HBM2 kein vega.
Scorpio und Raven Ridge nicht vergessen. Da läuft schon einiges Parallel bei AMD.
fondness
2016-12-14, 18:07:21
Dave Baumann/AMD Marketing hat im B3D forum erwaehnt dass sie ab Polaris nur noch zwei chips pro Jahr aufs Laufband bringen werden. 2016 war das Jahr fuer Polaris, 2017 wird das Vega Jahr werden. Und ja es sind extreme Sparmassnahmen. Wenn jemand die AMD Ausgaben fuer R&D nur fuer GPUs segmentieren koennte waere die Summ im Vergleich zu dem was NV heutzutage ausgiebt einfach laecherlich klein. Dabei ist es sogar ein Wunder eigentlich dass sie am Ende so viel auf die Strasse bringen.
Das scheint manchen offensichtlich nicht bewusst zu sein. Man sollte auch nicht vergessen, dass AMD mit dem Budget parallel noch CPUs und APUs sowohl für den Konsolenmarkt als auch für den Consumermarkt herstellt/entwickelt. Da kommen pro Jahr schon einiges an Tapeouts zusammen. Ohne mehr Umsatz ist das das absolute Maximum, was möglich ist.
Ailuros
2016-12-14, 18:11:24
Mal etwas OT aber ich musste beim Anfang vom video dass Unicous gepostet hat einfach nur schmunzeln.....erster Gedanke Lisa Su = weibliches alter ego von Jensen :freak:
Sonst zum Thema: http://images.anandtech.com/doci/10905/AMD%20Radeon%20Instinct_Final%20for%20Distribution-page-021.jpg?_ga=1.133675598.1352481436.1479283064
(aus dem writeup hier: http://www.anandtech.com/show/10905/amd-announces-radeon-instinct-deep-learning-2017
Ehrliche Fragen: DeepBench laeuft mit FP16? Wenn ja wieviel FP16 througphut hat GP102 genau nochmal und wieso erscheinen die Resultate eher merkwuerdig?
qu3x^
2016-12-14, 20:30:00
Mal etwas OT aber ich musste beim Anfang vom video dass Unicous gepostet hat einfach nur schmunzeln.....erster Gedanke Lisa Su = weibliches alter ego von Jensen :freak:
keine Sorge mir kam der selbe Gedanke, wo hat die Ihre Bikerjacke gelassen. ;D
BlacKi
2016-12-14, 21:05:43
keine Sorge mir kam der selbe Gedanke, wo hat die Ihre Bikerjacke gelassen. ;D
ich war schon froh das sie wenigstens keinen blumenstrauss am anzug trug^^ http://www.golem.de/1410/sp_109724-87666-i_rc.jpg
Iruwen
2016-12-14, 21:55:16
Die Leistungsaufnahme ist mir total egal, wenn das Teil entsprechend performt kanns meinetwegen auch 400W durchziehen, Wakü drauf und go.
BlacKi
2016-12-14, 22:06:58
Die Leistungsaufnahme ist mir total egal, wenn das Teil entsprechend performt kanns meinetwegen auch 400W durchziehen, Wakü drauf und go.
wenn sie wie eine TX performt ja^^ wenn sie mit 400w wie eine 1070 performt dann ist sie auch für 350€ nicht interessant genug^^
Palpatin
2016-12-14, 22:33:43
TX non OC Performance ist imo das Minimum womit ich bei VEGA Vollausbau rechne, allerdings nicht vor 06/17.
Ailuros
2016-12-15, 07:30:02
keine Sorge mir kam der selbe Gedanke, wo hat die Ihre Bikerjacke gelassen. ;D
Damit ich nicht falsch verstanden werde, mir sind dynamische Damen um zich Mal lieber als strohdumme Mietzekatzen.
qu3x^
2016-12-15, 07:52:04
Damit ich nicht falsch verstanden werde, mir sind dynamische Damen um zich Mal lieber als strohdumme Mietzekatzen.
Ich bin da bei Dir, Su macht einen guten CEO.
Locuza
2016-12-15, 08:08:30
[...]
Sonst zum Thema: http://images.anandtech.com/doci/10905/AMD%20Radeon%20Instinct_Final%20for%20Distribution-page-021.jpg?_ga=1.133675598.1352481436.1479283064
(aus dem writeup hier: http://www.anandtech.com/show/10905/amd-announces-radeon-instinct-deep-learning-2017
Ehrliche Fragen: DeepBench laeuft mit FP16? Wenn ja wieviel FP16 througphut hat GP102 genau nochmal und wieso erscheinen die Resultate eher merkwuerdig?
So wie die Zahlen aussehen und wie Raja es formuliert, lief alles mit FP32.
https://youtu.be/s1jvhHJ6xw8?t=40m7s
Bei Pascal besitzt besitzt nur der GP100 insgesamt einen doppelt so hohen FP16-Durchsatz, die restlichen Pascal Ableger müssen mit ihren 128 FP32 ALUs pro SM leben + 1 double-rate FP16 ALU.
Keine Ahnung wozu Nvidia eine einzige double-rate FP16 ALU verbaut.
Ailuros
2016-12-15, 08:18:17
So wie die Zahlen aussehen und wie Raja es formuliert, lief alles mit FP32.
https://youtu.be/s1jvhHJ6xw8?t=40m7s
Nun er erwaehnt dass noch nichts wirklich optimiert wurde u.a. auch fuer packed math (ergo noch nichts fuer FP16 optimiert), kann es durchaus FP32 sein.
Bei Pascal besitzt besitzt nur der GP100 insgesamt einen doppelt so hohen FP16-Durchsatz, die restlichen Pascal Ableger müssen mit ihren 128 FP32 ALUs pro SM leben + 1 double-rate FP16 ALU.
Keine Ahnung wozu Nvidia eine einzige double-rate FP16 ALU verbaut.
Ich hab's in der Zwischenzeit nachgeschlagen und alles unter P100 hat 1:64 fuer FP16. Zum letzten natuerlich um fuer hohen FP16 throughput die Kunden in die Richtung des superteuren P100 zu treiben.
Locuza
2016-12-15, 08:29:30
Also die Skalierung vom MI8 zum MI25 sollte besser ausfallen, falls FP16 verwenden worden wäre.
Gegenüber dem MI8 ist der Vorteil schon so gering (~ 35-45%), bei ~ 55% (FP32) bzw. ~110% (FP16) höherer theoretischer Leistung, wobei natürlich die Bandbreite leider gleich hoch (512 GB/s) ausfällt.
Die Pascal Ableger müssten natürlich heftig einbrechen, wenn die eine native FP16 verwenden worden wäre und da frage ich mich, ob Nvidia überhaupt irgendwo einen Compiler-Flag dafür gesetzt hat, um die Leistung in den Keller zu hauen.
Es ergibt für mich einfach wenig Sinn, da es für die Kunden auch keinen großen Aufwand darstellen sollte, einfach FP32 zu verwenden.
Ailuros
2016-12-15, 08:58:13
Es ergibt für mich einfach wenig Sinn, da es für die Kunden auch keinen großen Aufwand darstellen sollte, einfach FP32 zu verwenden.
Ausser Anandtech hat etwas falsch verstanden:
http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5
GeForce GTX 1080, on the other hand, is not faster at FP16. In fact it’s downright slow. For their consumer cards, NVIDIA has severely limited FP16 CUDA performance. GTX 1080’s FP16 instruction rate is 1/128th its FP32 instruction rate, or after you factor in vec2 packing, the resulting theoretical performance (in FLOPs) is 1/64th the FP32 rate, or about 138 GFLOPs.
To get right to the point then, each SM on GP104 only contains a single FP16x2 core. This core is in turn only used for executing native FP16 code (i.e. CUDA code). It’s not used for FP32, and it’s not used for FP16 on APIs that can’t access the FP16x2 cores (and as such promote FP16 ops to FP32). The lack of a significant number of FP16x2 cores is why GP104’s FP16 CUDA performance is so low as listed above. There is only 1 FP16x2 core for every 128 FP32 cores.
Und hier fuer TitanX Pascal: http://www.anandtech.com/show/10510/nvidia-announces-nvidia-titan-x-video-card-1200-available-august-2nd
Komischerweise verkaufen sie das letzte auch mit den Tesla SKUs fuer deep learning, AI und co. Mit einem $1200 MSRP haette man zumindest auf dem Ding einen um einiges hoeheren FP16 throughput erlauben sollen.
Locuza
2016-12-15, 09:20:11
Also entweder der Kunde ist dann gezwungen FP32 explizit zu verwenden oder es wird einfach FP16 mit FP32 emuliert und dann ein Ergebnis ausgespuckt.
Keine Ahnung was, aber 1/64 wird sich natürlich niemand antun.
Rabiata
2016-12-15, 10:10:51
Komischerweise verkaufen sie das letzte auch mit den Tesla SKUs fuer deep learning, AI und co. Mit einem $1200 MSRP haette man zumindest auf dem Ding einen um einiges hoeheren FP16 throughput erlauben sollen.
Wie Locuza schon geschrieben hat, 1/64 wird sich auf den Consumerkarten wohl keiner antun. Das soll wohl die Leute zum Tesla P100 treiben.
Aber bei Preisen um 6000-7000 Euro für die Tesla P100 dürfte es sogar kostengünstiger pro TFlop sein, sich mit Titan X oder GTX 1080 einzudecken und die mit FP32 zu betreiben.
AMD bringt mit Vega ja demnächst eine Architektur, die prinzipiell auch FP16 mit doppelter Performance gegenüber FP32 kann. Bin mal gespannt wie da die Preisgestaltung aussieht und ob die Consumerkarten bei AMD FP 16 dürfen :wink:.
AffenJack
2016-12-15, 10:20:09
Komischerweise verkaufen sie das letzte auch mit den Tesla SKUs fuer deep learning, AI und co. Mit einem $1200 MSRP haette man zumindest auf dem Ding einen um einiges hoeheren FP16 throughput erlauben sollen.
Nv teilt halt auf zwischen Training und Interference. Amd wird den Vorteil beim günstigeren Einstieg bei Training haben mit Vega, aber mit 4xInt8 wird Nv bei Interference deutlich mehr Gflops liefern (Falls das wirklich auf die Straße gebracht wird)
Ehrliche Fragen: DeepBench laeuft mit FP16? Wenn ja wieviel FP16 througphut hat GP102 genau nochmal und wieso erscheinen die Resultate eher merkwuerdig?
Guck dir da Carstens Post an, du kannst DeepBench Resultate ganz einfach so erstellen wie du willst. Damit kriest du mit jeder Karte nen Fall wo man super da steht:
Eine GEMM-Grafik mit den erreichten TFLOPS in Abhängigkeit von der Matrizengröße. Man braucht also nur eine kleine Fußnote und schon ist alles gut.
https://software.intel.com/sites/default/files/managed/dc/44/ML-pic1.png
edit: Beide in dieser Folie genannten Hersteller könnten wahrheitsgemäß behaupten „more than 2x Faster than the other guy“. :D
Noch spaßiger wird's mit speziellen Convolution-Kernels, die dann auch mal nur von einem Hersteller (*hust*) optimiert sein können:
https://software.intel.com/sites/default/files/managed/dc/44/ML-pic2.png
Beide Bilder aus:
https://software.intel.com/en-us/articles/intel-xeon-phi-delivers-competitive-performance-for-deep-learning-and-getting-better-fast#close
Merke: Traue keinem [Intel, Nvidia, AMD] bei Benchmarks mit unbekannten Parametern. :D
Wie Locuza schon geschrieben hat, 1/64 wird sich auf den Consumerkarten wohl keiner antun. Das soll wohl die Leute zum Tesla P100 treiben.
Aber bei Preisen um 6000-7000 Euro für die Tesla P100 dürfte es sogar kostengünstiger pro TFlop sein, sich mit Titan X oder GTX 1080 einzudecken und die mit FP32 zu betreiben.
AMD bringt mit Vega ja demnächst eine Architektur, die prinzipiell auch FP16 mit doppelter Performance gegenüber FP32 kann. Bin mal gespannt wie da die Preisgestaltung aussieht und ob die Consumerkarten bei AMD FP 16 dürfen :wink:.
Seit wann ersetzen Leute die HPC Produkte kaufen diese mit normalen GPUs? Bis auf Universitäten und kleine Klitschen passiert dies nicht. Wenn du P100 mit was vergleichen willst, dann mit P40 und dieser kostet eher 4-5000$. Da ist man mit 7000 für fast doppelte FP16 Leistung nicht schlecht dran, so man sie braucht. Auch Vega Mi25 dürfte sich in einem >~4000$ Bereich einordnen. Den meisten ist da der Systempreis aber relativ egal, was stimmen muss ist die Softwareunterstützung und da scheint AMD endlich auf einem guten Weg zu sein.
Ich frag mich beim Marketing und Software die ganze Zeit, wieso das nicht früher so ging? Man ist gerade in einer Situation wo man finanzielle Engpässe hat und langsam aus dem Loch kommt, aber die Software und das Marketing sind gerade ziemlich gut. Früher hatte man eigentlich viel mehr Manpower, aber daraus ist nicht soviel geworden in den Bereichen.
Nakai
2016-12-15, 11:28:53
Bei DL geht man schon eher in Richtung FixPoint-Arithmethik. Allem voran wird die INT8-Performance wichtig werden, da neuronale Netzwerke, wenn es richtig in Hardware implementiert ist, sehr stabil bezüglich numerischer Präzision sind.
Ailuros
2016-12-16, 11:31:09
Wie Locuza schon geschrieben hat, 1/64 wird sich auf den Consumerkarten wohl keiner antun. Das soll wohl die Leute zum Tesla P100 treiben.
Aber bei Preisen um 6000-7000 Euro für die Tesla P100 dürfte es sogar kostengünstiger pro TFlop sein, sich mit Titan X oder GTX 1080 einzudecken und die mit FP32 zu betreiben.
5.5 bis zu 9.4k $ fuer P100 je nach Variante wenn ich mich richtig erinnere. Dafuer koennte sich so manche Tesla vor der Pascal Generation besser lohnen.
AMD bringt mit Vega ja demnächst eine Architektur, die prinzipiell auch FP16 mit doppelter Performance gegenüber FP32 kann. Bin mal gespannt wie da die Preisgestaltung aussieht und ob die Consumerkarten bei AMD FP 16 dürfen :wink:.
Wichtiger ist wohl eher wieviel FP16 FLOPs jegliche Architektur genau in Echtzeit ausspucken kann denn maximale Zahlen wie 21.2 bzw. 25 TFLOPs sind nur schoen auf Papier. Mehr FP16 auf desktop GPUs waere eine schoene (-re) Sache wenn DevRel Abteilungen ISVs/developers auch fuer FP16 Optimierungen animieren.
---------------------------------------------------------------------------------------
Affenjack,
Danke. Das klaert natuerlich so manches auf.
---------------------------------------------------------------------------------------
Bei DL geht man schon eher in Richtung FixPoint-Arithmethik. Allem voran wird die INT8-Performance wichtig werden, da neuronale Netzwerke, wenn es richtig in Hardware implementiert ist, sehr stabil bezüglich numerischer Präzision sind.
Bei allem ab VOLTA mit Sicherheit. Ich hab mich erst vor kurzem kaputt gelacht weil woanders ein gruener fanboy glaubte dass Xavier auch die gleichen FP32 FLOPs liefern wird bei 20W TDP wie der gesamte Drive PX2 (2 SoCs + 2 dGPUs) und ja leider sind so manche fans so bloed.....
Nakai
2016-12-16, 14:11:19
Bei allem ab VOLTA mit Sicherheit. Ich hab mich erst vor kurzem kaputt gelacht weil woanders ein gruener fanboy glaubte dass Xavier auch die gleichen FP32 FLOPs liefern wird bei 20W TDP wie der gesamte Drive PX2 (2 SoCs + 2 dGPUs) und ja leider sind so manche fans so bloed.....
https://imgtec.com/blog/powervr-series7xt-plus-gpus-advanced-graphics-computer-vision/
IMG macht es ja auch, indem sie eine höher INT8/INT16-Performance einbauen. Natürlich muss die Implementierung angemessen sein, aber NV ist nicht der einzige IHV/IPV für soetwas.
Da ist AMD mit ihrem Support für 2xFP16 in Vega nicht auf der Höhe der Zeit.
Es sollte eher 4xINT8 werden mit integrierter SUmmierung auf INT32.
Ailuros
2016-12-16, 16:57:13
https://imgtec.com/blog/powervr-series7xt-plus-gpus-advanced-graphics-computer-vision/
IMG macht es ja auch, indem sie eine höher INT8/INT16-Performance einbauen. Natürlich muss die Implementierung angemessen sein, aber NV ist nicht der einzige IHV/IPV für soetwas.
Da ist AMD mit ihrem Support für 2xFP16 in Vega nicht auf der Höhe der Zeit.
Es sollte eher 4xINT8 werden mit integrierter SUmmierung auf INT32.
Ist mir schon bewusst (wenn ich nicht dann wer? LOL ) :wink: Womoeglich dumme Fragen:
1. Ich wuerde mir vorstellen dass man in einer solchen pipeline nicht floating point und integer ops gleichzeitig benutzen kann oder doch (stets pro SIMD)?
2. Ist die Not an Bandbreite theoretisch gleich wenn man von 1*INT32 auf 2*INT16 bzw. 4*INT8 erweitert.
Uebrigens sagte ich "ab Volta" weil ich Navi im Hinterkopf mitberechnet habe. Ausser AMD kann irgendwann mal mehr in R&D investieren, werden sie stets 1/2 bzw. 1 Jahr (je nach Perskeptive) hinter NV liegen wenn es zu Faehigkeiten fuer die Profi-Maerkte kommt.
Nakai
2016-12-16, 17:16:10
Ist mir schon bewusst (wenn ich nicht dann wer? LOL ) :wink: Womoeglich dumme Fragen:
1. Ich wuerde mir vorstellen dass man in einer solchen pipeline nicht floating point und integer ops gleichzeitig benutzen kann oder doch (stets pro SIMD)?
2. Ist die Not an Bandbreite theoretisch gleich wenn man von 1*INT32 auf 2*INT16 bzw. 4*INT8 erweitert.
Natürlich ist dir das bewusst und du hast es eh schon vor Monaten gepostet.
1) Die INT-Operationen werden auf den gleichen ALUs ausgeführt, wie die FP-Operationen. Nein, das kann man nicht gleichzeitig ausführen. Im Grunde sind die Anforderungen von FP deutlich höher als bei INT. Der Support für 4xINT8 oder 2xINT16 erfordert keine zusätzlichen Ausführungseinheiten, es werden die gleichen verwendet, wie bei FP-OPs. Kurz, der Schritt von FP auf 2xINT16 und 4xINT8 ist deutlich kleiner, als andersrum.
2) Die Organisation der Daten wird ganz interessant. Wenn die Daten aligned und packed sind, würde ein Load von 32Bit immer 4xINT8 oder 2xINT16 beinhalten. Problematisch wird es dann eher, wenn die 4xINT8 auf ein INT8 addiert wurden. Also a1 + a2+ a3+ a4 => b1. Ich weiß nicht, wie das Writeback der Daten aussieht, wenn in einem 32 Bit Block wieder 4 INT8 liegen sollen. Möglicherweise mit maskierbaren LD/ST-Operationen (geht in Richtung VLIW und Vec-LD/ST-Insturktionen). Wenn man die Daten so zurückschreibt, dass die Daten wieder schön aligned und packed in den Registern liegt, dann sollte das alles gut enden. Ansonsten kann es schon einen höheren Memoryoverhead geben.
Uebrigens sagte ich "ab Volta" weil ich Navi im Hinterkopf mitberechnet habe. Ausser AMD kann irgendwann mal mehr in R&D investieren, werden sie stets 1/2 bzw. 1 Jahr (je nach Perskeptive) hinter NV liegen wenn es zu Faehigkeiten fuer die Profi-Maerkte kommt.
Naja bzgl DL ist man hinten dran. Ansonsten sehe ich GP100 in keinem Bereich vor einem V10 technologisch. Leider wird DL in Zukunft ein wichtiger Teil werden...
Gipsel
2016-12-16, 20:09:52
Weswegen Vega ja wohl auch jede Menge INT16-Ops mitbringen wird. Das haben aktuelle GCN-GPUs ja auch schon (halt bisher nur mit identischer Performance zu FP32, nicht doppelt so schnell). ;)
Ein Multiply-Add gibt es auf Tonga (bei früheren müßte ich noch mal schauen) z.B. für folgende Datentypenkombinationen (Quelle=>Ziel):
F16 => F16
F32 => F32 (F64=>F64 gibt es nur als fused Variante, also als FMA, dies hier ist die unfused Operation mit Rundung zwischendurch)
I16 => I16
I24/32 => I32 (akkumuliert wird mit 32bit-Wert, auch Quelle ist dafür 32bit)
I32/64 => I64 (akkumuliert wird mit 64bit-Wert, auch Quelle ist dafür 64bit)
U16 => U16
U24/32 => U32 (akkumuliert wird mit 32bit-Wert, auch Quelle ist dafür 32bit)
U32/64 => U64 (akkumuliert wird mit 64bit-Wert, auch Quelle ist dafür 64bit)
I/U8 fehlt halt meist (gibt nur wenige Befehle, die mit 8bit-Integern rechnen, diverse SAD-Varianten [sum of absolute differences] und LERP gibt es z.B. auch für gepackte 8bit-Datentypen seit Anbeginn von GCN). Aber die doppelte Geschwindigkeit mit gepackten FP16 Werten bei Vega impliziert für mich das Gleiche auch für 16Bit-Integer. Alles Andere wäre irgendwie komisch.
Achja, und vor dem Schreiben in den Speicher kann man die Daten natürlich wieder beliebig zusammenpacken, falls sie zwischendurch mal entpackt waren. Dafür gibt es etliche Instruktionen (alle V_CVT_PK*-Varianten) mit diversen Umwandlungs und Normierungsoptionen. Außerdem kann man gegebenenfalls beim Lesen und Schreiben die Datentypen auch von der TMU konvertieren und ent-/packen lassen (also ohne ALU-Operationen), falls das paßt.
Ailuros
2016-12-17, 12:39:14
Naja bzgl DL ist man hinten dran. Ansonsten sehe ich GP100 in keinem Bereich vor einem V10 technologisch. Leider wird DL in Zukunft ein wichtiger Teil werden...
Ich hatte FP64 im Hinterkopf; ich habe zunehmende Zweifel dass V10 Hawaii fuer double precision ersetzen wird.
Sonst danke fuer die Antworten und auch an Gipsel.
Mal sehen ob schon V11 oder V20 bezueglich DL TOPs dynamisch nachladen wird. Mich wuerde es auf jeden Fall wundern wenn es so weit kommt dass beide IHVs nur bei 4*INT8/SP bleiben. Ausser ich hab mich fuer Xavier tragisch spekulativ verrechnet sehe ich nicht weniger als 16*INT8/SP.
Natürlich ist dir das bewusst und du hast es eh schon vor Monaten gepostet.
Ist ja auch klar denn auch IMG orientiert sich seit einiger Zeit auf den automotive Markt u.a. (wobei hier IMG dank dedizierter hw auch einiges mehr an Strom spart). Ich glaube wir sollten einen automotive relativen thread hier im Forum aufmachen, denn ich hab so manche Fragen und es gibt in letzter genug Stoff den man besprechen koennte - stets vendor agnostic - auf spekulativer Basis.
Hübie
2016-12-17, 17:31:58
Ich glaube wir sollten einen automotive relativen thread hier im Forum aufmachen, denn ich hab so manche Fragen und es gibt in letzter genug Stoff den man besprechen koennte - stets vendor agnostic - auf spekulativer Basis.
[x] Vote dafür
Das ist ein sehr spannendes Feld und immer mehr Hersteller springen auf den Zug auf. Ich hab die letzten Monate leider nicht viel lesen können und bisher ist mir noch kein spezifischer ASIC für z.B. image separation und image recognition unter gekommen. Im Labor hatten wir das noch mit dicken FPGAs gelöst (für debugging / prototyping sind die einfach flexibler). Ob daraus aber schon etwas hervor gegangen ist... Hm. Glaube nicht. Ebenso wenig glaube ich dass man sich eine teure GPU in die Autos stecken wird, welche auch noch am Energiebudget nagt (wenn auch nicht wirklich signifikant).
Es gibt jedoch mehrere Konzepte und welches sich am Ende durchsetzt steht noch auf einem anderen Blatt. Aktuell ist auch das Thema Sicherheit hoch im Kurs (Datenredundanz, Verschlüsselung, Übertragung, Lokalisation etc...).
Sorry 4 OT: :biggrin:
Vega steht bei mir auf der Liste ganz oben und ich hoffe man macht nicht den Fehler wie mit Fiji. Die Absatzzahlen sprechen ja ne deutliche Sprache. Wobei man ja nach und nach ein sehr breites Portfolio aufgestellt hat. Ich denke dass Vega, Fiji da in vielerlei Hinsicht beerben wird (Pro, SSG, Desktop, Workstation... was war noch?).
Complicated
2016-12-17, 22:44:07
Also wenn man bei Xilinx schaut, dann hatten ASIC nur ein kurzes Leben und werden nun von kompletten SoCs schon abgelöst:
https://www.xilinx.com/products/silicon-devices/soc/xa-zynq-7000.html
Und vermutlich ist der Grund einfach wie dort aufgeführt:
Replace ASIC/ASSP/DSP in existing systems
Eliminate multi-chip chip-to-chip bandwidth bottlenecks
Eliminate the need for board level high-speed interfaces
Reduce overall system power through parallel processing at lower clock speeds and higher integration
Hübie
2016-12-17, 23:05:55
SoC haben im Automobil aber u.a. den Nachteil A) zertifiziert zu werden und B) bedeutet dies ein zentralisiertes System. Für mich ist es allerdings zu nebelig um mich so weit aus dem Fenster zu lehnen.
Reine Spekulation meinerseits: Also es wird wahrscheinlich darauf hinaus laufen, dass mehrere kleine, dezentralisierte ASICs Sensordaten (Laser, Infrarot, Ultraschall, Optik) verarbeiten und die resultierenden Daten an so einen SoC weiter reichen, welcher nichts mit Infotainment etc. zu tun hat sondern per highspeed DSTC, Bremsen, Lenkung, Getriebe, Einspritzung und so etwas steuert. Der hat ja ne breite Anbindung und kann diese individuell steuern.
Ergibt das irgendwie Sinn? :freak:
So etwas wie Drive PX2 hat ja erst mal die Funktion zu trainieren. Das braucht man im Serienfahrzeug ja nicht, da Datensätze und 'AI' schon vorhanden sind.
BlacKi
2016-12-24, 09:56:55
vega ersetzt polaris dank günstigem gddr5? wäre das überhaupt sinnvoll?
[MK2]Mythos
2016-12-24, 11:14:09
Wie kommst du jetzt auf das schmale Brett? VEGA kommt mit HBM.
BlacKi
2016-12-24, 11:16:57
hörensagen^^
fudzilla: "Vega architecture will be introduced into the complete range of AMD's graphics cards."
reaperrr
2016-12-24, 11:31:23
vega ersetzt polaris dank günstigem gddr5? wäre das überhaupt sinnvoll?
Wenn Vega in Sachen Frontend (modernerer Rasterizer, der Tiling verwendet) und DCC zu Pascal oder wenigstens MXW2.0 auffschließt, ja, denn dadurch könnte die benötigte Bandbreite pro FLOP mal schnell um 30% oder sogar mehr gegenüber P10/11 sinken, die ständigen Minizugriffe auf den Speicher sind der Grund, warum Bandbreitenbedarf und auch Stromverbrauch des Interfaces bei AMD-Chips aktuell so viel höher sind.
Wenn AMD das architekturseitig in den Griff bekäme, würde man drei Fliegen mit einer Klappe schlagen (mehr Leistung bei weniger Verbrauch und Bandbreitenbedarf).
BlacKi
2016-12-24, 11:44:06
mir ging es eher darum ob es sinn macht vega (relativ großer chip) mit gddr5 für 200€ zu verkaufen.
Setsul
2016-12-24, 11:47:22
Ich bin mir nicht sicher wie das funktionieren soll.
Die Lücke zwischen Vega 10 und Vega 11 müsste schon riesig sein.
Außer man ignoriert einfach alles unter der 470 und über der 1080. Das ist dann aber nicht wirklich "complete range", von der Marge im High End sieht man nichts (1080 Ti wird drücken) und von der Menge in mid bis low range hat man auch nichts.
Ich sehe einfach keinen Sinn darin P10 jetzt zu ersetzen. Selbst wenn der kleine Vega genauso effizient ist wie GP106 wo ist da der selling point? Welchen Grund hat man das Ding zu kaufen? Vor allem wer, der bereit ist die Leistung bei der Effizienz für den Preis zu kaufen, hat noch keine 1060?
Vega wird wohl kaum effizienter als Pascal sein, also müsste man dann wieder mit dem Preis arbeiten. Wo ist jetzt der große Vorteil einen neuen Chip billiger zu verkaufen als den alten, damit man ihn überhaupt los wird?
[MK2]Mythos
2016-12-24, 12:35:56
Selbst Polaris 10 ist mit dem schnellsten GDDR5 schon bandbreitenlimitiert. Nach allem was man über VEGA weiß oder meint zu wissen, wird dieser deutlich schneller, es würde also absolut keinen Sinn ergeben VEGA mit GDDR5 zu bringen.
Locuza
2016-12-24, 12:47:35
Vega 10 erscheint definitiv mit 2 HBM-stacks, allerdings wird V11 laut Fudzilla/VideoCardZ (angebliche Server-Roadmap) unter V10 eingestuft und hier stellt sich die Frage, ob der nicht einfach mit einem klassischem GDDR5-Interface erscheint.
ecodriver
2016-12-24, 13:24:32
Laut AMD wird Vega 11 größer als Vega 10
Da gab es doch mal dieses schöne Wallpaper mit den 4 Sonnen,
dort war Vega 11 die mit Abstand größte Sonne ;).
wie oft noch: das war nur fanart
ecodriver
2016-12-24, 13:36:25
Ah ok, das ist an mir vorbei gegangen.
Nakai
2016-12-24, 13:47:21
V10 wird ungefähr Faktor 2 P10 sein. Da passt gut ein V11 dazwischen. Der kommt aber erst Ende 2017 Anfang 2018. HBM2 für die Consumer. Vega10 kommt Q2/Q3. Für V11 kann man sagen, 1~2 HBM2 Stacks. Falls 2 Stacks, dann niedrigere Taktraten.
P10 wird noch nicht ersetzt. Da kommt eine P10XT2. P12 ist auch in der Pipeline.
Mal gucken was 2017 kommt. P12 und V10 sollten erstmal reichen.
[MK2]Mythos
2016-12-24, 13:51:19
Q3 für V10 fänd ich aber schon ziemlich bitter.
BlacKi
2016-12-24, 13:59:39
Edit: ups sorry. du meinstes v10 nicht v11^^
[MK2]Mythos
2016-12-24, 14:07:05
Ich weiß dass das 3. Quartal von Juli bis September geht und Nein, wie kommst du darauf, dass Nakai November bis Februar (Welches Jahr?) meinte?
Nakai
2016-12-24, 16:14:56
Ich denke Vega10 kommt im Q2. Q3 spätestens.
horn 12
2016-12-24, 16:24:41
Vega MUSS und Wird früher kommen, ansonsten kann sich AMD Vega komplett sparen!
tm0975
2016-12-24, 16:27:48
Vega MUSS und Wird früher kommen, ansonsten kann sich AMD Vega komplett sparen!
alles eine frage der wettbewerbsfähigkeit zum zeitpunkt der markteinführung. allerdings leidet das image, wenn man zu lange nur im mainstream produkte anbietet.
Tamagothi
2016-12-24, 16:31:27
Ich frag mich warum alle denken das VEGA 10 nur 2 Stacks hat ? Damit wäre AMD auf 16 GB Vram beschränkt. Vorallem sollten 2x8 GB teurer sein als 4x4 GB.
Ich denke eher das VEGA 10 4 Stack hat aber nur im Profi Markt. Für uns sind vermutlich nur 2 Stack @ 4/8 GB drauf.
Vorallem sollten 2x8 GB teurer sein als 4x4 GB.
Und die Annahme beruht auf was?
Das untere ist natuerlich denkbar, passt aber nicht zu dieser Aussage. Wenn du "teurer" sagst, musst du schon alles beruecksichtigen. Waeren 4x4 billiger, wuerde es auch das fuer Consumer geben, statt 2x8.
Tamagothi
2016-12-24, 16:46:33
Die Ausbeute/Verfügbarkeit bei 8-Hi HBM wird mit Sicherheit deutlich schlechter sein als bei 4-Hi.
Auch bei Consumer könnte 4x4 Billiger sein als 2x8. Falls überhaut 16GB für die Consumer geplant sind.
Ich könnt mir sogar vorstellen das 4x4 mit reduziertem Takt sparsamer ist als 2x8 mit vollem Takt. Kenne mich da aber nicht aus.
Ich frag mich warum alle denken das VEGA 10 nur 2 Stacks hat ? Damit wäre AMD auf 16 GB Vram beschränkt. Vorallem sollten 2x8 GB teurer sein als 4x4 GB.
Ich denke eher das VEGA 10 4 Stack hat aber nur im Profi Markt. Für uns sind vermutlich nur 2 Stack @ 4/8 GB drauf.
So sehe ich das auch. Da ist gar nix sicher. Der kann ja auch 4 1GHz Stacks haben, wenn die 512GB/s stimmen.
Nakai
2016-12-24, 17:28:03
Ich frag mich warum alle denken das VEGA 10 nur 2 Stacks hat ? Damit wäre AMD auf 16 GB Vram beschränkt. Vorallem sollten 2x8 GB teurer sein als 4x4 GB.
Ich denke eher das VEGA 10 4 Stack hat aber nur im Profi Markt. Für uns sind vermutlich nur 2 Stack @ 4/8 GB drauf.
Vega10 hat nur 2 Stacks. PUNKT!
Vega11 wird wohl 1 Stack haben.
Jeder der etwas anderes sagt, lebt in einer Fantasie-Welt.
horn 12
2016-12-24, 18:13:05
Somit sind nur 8 oder 16 GB möglich, oder wie kann man dies deuten?
Tamagothi
2016-12-24, 18:40:19
Vega10 hat nur 2 Stacks. PUNKT!
Dann zeig mal etwas Offizielles von AMD bezüglich VEGA 10/11!
Speicheranbindung ?
Wie viele Stacks ?
Wer von beiden der kleine/große ist ?
Speicherausbau der MI25 ?
usw.
Und selbst wenn es Leaks zu 2 Stacks gibt kann immernoch das zu treffen!
Ich denke eher das VEGA 10 4 Stack hat aber nur im Profi Markt. Für uns sind vermutlich nur 2 Stack @ 4/8 GB drauf.
Wir sind im Speku Forum und ich denke eine Profi Karte MI25 mit nur 16GB Vram wäre ein schlechter scherz.
ich denke eine Profi Karte MI25 mit nur 16GB Vram wäre ein schlechter scherz.
So wie P100 fuer, ich weiss nicht mehr genau, 10k$?
Tamagothi
2016-12-24, 19:23:19
Schlechter vergleich!
P100 hat 4 Stacks und es wird mit Sicherheit auch eine mit 32 GB kommen
Setsul
2016-12-24, 21:29:58
@Nakai:
Großer Vega = 2xP10 reicht nicht. Das wäre nur das Niveau der 1080. 4 Karten zwischen 1080 und 1060 bzw. Full V10 und full P10 pressen? GP102 bleibt konkurrenzlos? 12,5 TFlops reichen nur um einem 8,etwas TFlops GP104 Paroli zu bieten?
Das wäre schon etwas enttäuschend.
Sagen wir 2xP10 +x.
In Sachen Bandbreite einfach mal realistisch bleiben. P10 hängt mit 256GB/s schon sehr stark am Speicher. Selbst wenn der große Vega leistungsmäßig nur P10x2 ist müsste der kleine Vega mindestens P10 +40% sein, eher noch mehr. Das heißt nur um genauso stark am Bandbreitenlimit zu hängen wie P10, müsste Vega 30-40% weniger Bandbreite pro Flop brauchen. Nur so zum Vergleich: Das ist wäre so wie Kepler zu Maxwell. Da habe ich einfach gewisse Zweifel.
Und dann ist noch die Frage ob 8 Hi 2GHz Stacks wirklich die ideale Wahl sind.
Locuza
2016-12-24, 21:30:06
Ich frag mich warum alle denken das VEGA 10 nur 2 Stacks hat ? Damit wäre AMD auf 16 GB Vram beschränkt. Vorallem sollten 2x8 GB teurer sein als 4x4 GB.
Ich denke eher das VEGA 10 4 Stack hat aber nur im Profi Markt. Für uns sind vermutlich nur 2 Stack @ 4/8 GB drauf.
Zuerst war das naheliegend weil AMDs Greenland-Pläne genau zwei Stacks vorgesehen haben:
http://cdn.wccftech.com/wp-content/uploads/2015/08/AMD-Greenland-GPU-Based-HPC-APU.jpg
Und jetzt für Vega 10, weil die Presse bei einer AMD-Veranstaltung den Speicher unter Doom auslesen konnte und der lag bei 8GB:
AMD hat der Fachpresse einen ersten Ausblick auf die Grafikarchitektur Vega gegeben. Über allzu viel dürfen wir an dieser Stelle noch nicht berichten, über unsere Erfahrungen in einem Demo-Raum allerdings schon. Dort standen zwei Systeme mit Vega-Grafikkarten, auf einem davon lief Doom mit einer Consumer-Vega. Die erweiterten Statistiken in Doom zeigten 8 GiByte HBM2-Speicher.
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/462107-amd-vega-gpu-hat-8-gibyte-hbm2-und-liegt-unoptimiert-auf-gtx-1080-niveau.html
Die News musste im Nachhinein aber wieder entfernt werden.
Für Consumer steht damit fest 8GB und vielleicht auch 16GB, falls es AMD freigibt.
Die MI25 kommt höchstwahrscheinlich mit 16GB, die MI6 mit P10 ist glaube ich schon mit 16GB GDDR5 ausgestattet.
[...]
Vega11 wird wohl 1 Stack haben.
Jeder der etwas anderes sagt, lebt in einer Fantasie-Welt.
Ich glaube dann schon eher an GDDR5.
1-Stack würde bedeuten das AMD zwingend auf 8-Hi angewiesen ist und maximal 8GB verbauen kann.
AMD müsste hohe Fixkosten bezahlen und wäre höchst unflexibel bei der Kapazität und die Bandbreite würde nicht einmal höher liegen.
Wäre in meinen Augen crazy, wenn AMD höhere Kosten und eine geringere Kapazität in Kauf nimmt, nur um die Effizienz zu erhöhen.
Da klingen selbst zwei Stacks in meinen Augen besser.
Ob das nur an den Kosten liegt weiss ich nicht, das Temp-Budget spielt hier ja auch ne tragende Rolle. Ich denke, dass V10 auf jeden Fall 4 Stacks hat, aber eben aus bestimmten Gründen bei den Vorabsamples nur 1GHz Stacks. 2x 8GB Stacks mit 2GHz halte ich für gänzlich und völlig ausgeschlossen, die gibts schlicht und einfach (absehbar) noch nicht. Man darf hierbei nicht vergessen, auch der P100 ist hier Kompromisse eingegangen, der ist ebenfalls erst jetzt lieferbar und hat Samsung HBM, nicht SKHynix wie die AMDs. Die V10-Samples sind sicherlich erst mal mit 4 2GB HiStacks mit 1GHz lieferbar, erst die Finalprodukte werden 4GB-Stacks mitbringen. Wenn ein ProfiVEGA in Q1/2017 mit 16GB HBM erscheinen soll muss dieser 4 Stacks haben, es gibt keine andere Chance.
V11 wird sicherlich schon aus Verfürbarkeitsgründen GDDR5(X). V10 und V20 werden absehbar die einzigen AMD-Chips mit HBM sein, wobei erst bei V20 ernsthaft mit 8GB-Stacks gerechnet werden kann, so dass erst dieser eine Chance hat mit 32GB auf den Markt zu kommen. Erst Navi wird mMn vollständig HBM bringen, bis dahin hat sich die Technologie sicherlich voll etabliert.
Tamagothi
2016-12-24, 22:43:01
@ Locuza
Joa sind schöne Bilder und haben genau 0 Aussagekraft.
Wenn Greenland=VEGA 10 wäre heißt es immer noch nicht das VEGA 10 nur 2 Stacks kann. Bei der HPC-APU könnten auch nur zwei der vier Stacks benutzt werden! Platzmangel?
Beim DOOM Screenshot das selbe Spiel! Consumer-VEGA nur zwei der vier Stacks = 2x4 GB oder 4x4GB für eine 16GB Variante oder oder oder.
Anhand irgendwelche Bilder zu schlussfolgern find ich :down:
BlacKi
2016-12-24, 23:20:24
In Sachen Bandbreite einfach mal realistisch bleiben. P10 hängt mit 256GB/s schon sehr stark am Speicher.
ihr müsst mal verstehen das bandbreite auch seine schattenseiten hat. die reduzierung von bandbreite hat auch seine vorteile. nämlich effizientere gpu´s. wenn man amd in der vergangenheit etwas vorwerfen darf dann das sie mit der bandbreite verschwenderisch umgangen sind, weshalb amd´s karten auch so abnormal viel saufen. wenn vega mit gddr5 kommt, dann wird die karte langsamer als mit hbm, aber dafür deutlich günstiger herzustellen. letztendlich macht der preis die attraktivität der karte.
[MK2]Mythos
2016-12-24, 23:30:13
Quatsch, HBM hat Fiji sparsamer gemacht.
Alles was deutlich schneller als P10 werden soll, wird zukünftig mit HBM oder GDDR5x kommen. Es sei denn AMD ist plötzlich eingefallen, wie man 50% Bandbreite sparen kann.
BlacKi
2016-12-24, 23:34:56
Mythos;11246424']Quatsch, HBM hat Fiji sparsamer gemacht.
ich hab nicht gesagt das gddr5 sparsamer wäre. es ist die bandbreite die effizienz kostet, innerhalb des genutzten speichers. meine 290 kann deutlich an verbrauch einsparen wenn man den speichertakt herabsenkt. die karte hat viel zu viel bandbreite. bei hbm spielt der verbrauch weniger die große rolle, eher die kosten, daher gddr5.
[MK2]Mythos
2016-12-24, 23:41:58
Deine 290 hat wegen des 512 Bit SI zu viel Bandbreite. Fakt ist jedenfalls, dass alles über P10 mehr Bandbreite benötigt, als mit ineffizientem GDDR5 an einem 256 Bit SI möglich ist. Falls wir nächstes Jahr einen kleinen VEGA sehen werden, der ähnlich schnell wie P10 wird, kann es sein, dass der nochmal mit GDDR5 kommt, aber alles was schneller wird, wird definitiv keinen GDDR5 bei AMD mehr bekommen, ich verstehe überhaupt nicht wie du darauf kommst, dass sich so die Effizienz steigern ließe, das macht null Sinn.
BlacKi
2016-12-25, 00:26:32
Mythos;11246429']Fakt ist jedenfalls, dass alles über P10 mehr Bandbreite benötigt, als mit ineffizientem GDDR5 an einem 256 Bit SI möglich ist.
jede karte bräuchte unendlich bandbreite. ein p10 mit 384bit würde erheblich mehr verbrauchen, auch wenn die performance zulegen würde.
stell dir mal ein gp106 vor mit hbm2? der würde gp104 konkurenz machen, aber vermutlich merh kosten, sonst gäbe es einen solchen, daher ist auch ein p10 mit 256bit der beste kompromiss. ein mangel an bandbreite p10 daher zu unterstellen ist daher gegen den zweck dessen das er efüllen sollte. hawaii hat nicht zuviel bandbreite, er könnte mit mehr bandbreite sogar besser performen. die bandbreite die ein chip hat ist vom designer so vorgesehen damit er in das vorgesehen bild passt. p10 soll nicht zuviel strom brauchen, und hawaii soll um himmels willen einfach nur die 780ti plätten, scheiß auf den verbrauch. beides sind ziele die als erfüllt gelten.
Setsul
2016-12-25, 00:30:41
Die Karten saufen deshalb so viel, weil sie soviel Flops/fps und bits/frame brauchen, nicht weil die Bandbreite völlig unnötig ist.
390 hat auch 50% mehr Bandbreite als die 480 für die gleiche Leistung. Natürlich kann man da runtergehen.
Jetzt versuch das gleiche mal bei der 480 und schau was passiert.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39615-amd-radeon-rx-480-im-test.html?start=25
Nimm bei einer 480 den Speicher mal 30% runter. 20% der fps sind weg. Kann man beim kleinen Vega natürlich auch machen, GDDR5 verbraucht mehr Strom, dann hat man eine langsamere und ineffizientere Karte. Aber wenigstens ist sie billig herzustellen.
Nein, GP106 kommt auch mit unendlicher Bandbreite nicht and GP104 ran. Doppelte Rechenleistung gleicht dir Bandbreite nicht aus.
Umgekehrt gehts aber schon. Wenn du weit genug runtergehst bekommst du bei halber Bandbreite auch nur noch halbe Leistung.
BlacKi
2016-12-25, 00:33:01
Nimm bei einer 480 den Speicher mal 30% runter. 20% der fps sind weg. Kann man beim kleinen Vega natürlich auch machen, GDDR5 verbraucht mehr Strom, dann hat man eine langsamere und ineffizientere Karte. Aber wenigstens ist sie billig herzustellen.
bingo, weniger bandbreite innerhalb der speicherart ist effizienter in stromverbrauch und kosteneffizienz.
[MK2]Mythos
2016-12-25, 00:42:47
Niemand versteht, was du eigentlich damit sagen willst.
Du hast VEGA und GDDR5 in den Zusammenhang gebracht und bist der Meinung dass eine AMD GPU, die netto geschwindigkeitsmäßig vermutlich im Bereich der GTX 1080 landen wird mit GDDR5 effizienter als mit HBM werden würde?
Das ist schlichtweg falsch.
Natürlich würde ein P10 mit 384 Bit SI schneller werden und mehr Watt verbraten, es geht ums Gleichgewicht.
GPU langsam - SI schnell = Krüppel Karte
GPU schnell - SI langsam = Krüppel Karte
GPU schnell - SI schnell = Gute Karte
Du bist auf einem Holzweg. Ehrlich.
BlacKi
2016-12-25, 00:47:49
Mythos;11246481']Niemand versteht, was du eigentlich damit sagen willst.
Du hast VEGA und GDDR5 in den Zusammenhang gebracht und bist der Meinung dass eine AMD GPU, die netto geschwindigkeitsmäßig vermutlich im Bereich der GTX 1080 landen wird mit GDDR5 effizienter als mit HBM werden würde?
Das ist schlichtweg falsch.
Du bist auf einem Holzweg. Ehrlich.
nö, höxtens auf 1080 non ref. darunter mit gddr5 zwischen 1060 und 1070, ergo ersetzt es p10.
Mythos;11246481']
Natürlich würde ein P10 mit 384 Bit SI schneller werden und mehr Watt verbraten, es geht ums Gleichgewicht.
und genau das gibt es eigentlich nur in den köpfen der spinner. eine karte kann so und so ausgelegt werden. nichts ist falsch wenn man die gesetzen ziele erreicht. das hat p10 und auch hawaii auf ihre art, das hätte wohl auch nicht anders erreicht werden können.
[MK2]Mythos
2016-12-25, 00:51:40
Nein, eine Karte wird so ausgelegt, dass die vorhandene Rechenpower der GPU nicht an einem zu mageren Speicherinterface verhungert, aber genau das versuchst du hier für VEGA vorzuschlagen weil du aus irgendwelchen unerfindlichen Gründen nicht verstehst, dass ein schneller VEGA mit GDDR5 einfach nur am Speicherinterface verrecken (=INEFFIZENT)würde und damit noch weniger konkurrenzfähig wäre, als er es vermutlich eh schon ist bzw wird.
BlacKi
2016-12-25, 00:53:53
Mythos;11246485']Nein, eine Karte wird so ausgelegt, dass die vorhandene Rechenpower der GPU nicht an einem zu mageren Speicherinterface verhungert,
das ist leider nicht realität.
[MK2]Mythos
2016-12-25, 01:10:33
Natürlich ist das nicht immer 100%ig die Realität, der gute Kompromiss aus Flops und Speicherbandbreite macht eine schnelle und effiziente Karte aus.
Ein schneller VEGA mit GDDR5 wäre das Gegenteil von effizient. Darüber gibt es eigentlich überhaupt nichts zu diskutieren, auch wenn wir das die letzte Seite getan haben.
BlacKi
2016-12-25, 01:35:43
ja nur manche meinen ein p10 mit 256bit hätte ein mangel an bandbreite. ein effizienter chip hat den usern nach ein mangel an bandbreite, das verstehen manche nicht.
[MK2]Mythos
2016-12-25, 01:46:04
Nochmal: Du behauptest, man könne GPUs effizienter machen indem man ihnen Speicherbandbreite klaut und machst das an deiner 290 fest die für ihre Flops viel zu viel Bandbreite hat. Das ist dein Fehler, das Design deiner 290 ist eben ziemlich unausgeglichen, bei deiner Karte macht es qausi keinen Unterschied ob du dem Speicher noch 10% mehr oder weniger Takt gibst, weil sie eben eine Viel zu hohe Speicherbandbreite besitzt. Bei anderen Designs, wie dem P10 ändert sich mit dem Verändern der Speichertaktfrequenz auch sofort der fps Output. Das bedeutet, dass P10 in der Speicherbandbreite hängt.
Ganz einfach. Und nun bitte genug OT.
BlacKi
2016-12-25, 02:41:10
Mythos;11246499']Nochmal: Du behauptest, man könne GPUs effizienter machen indem man ihnen Speicherbandbreite klaut und machst das an deiner 290 fest die für ihre Flops viel zu viel Bandbreite hat. Das ist dein Fehler, das Design deiner 290 ist eben ziemlich unausgeglichen, bei deiner Karte macht es qausi keinen Unterschied ob du dem Speicher noch 10% mehr oder weniger Takt gibst, weil sie eben eine Viel zu hohe Speicherbandbreite besitzt. Bei anderen Designs, wie dem P10 ändert sich mit dem Verändern der Speichertaktfrequenz auch sofort der fps Output. Das bedeutet, dass P10 in der Speicherbandbreite hängt.
Ganz einfach. Und nun bitte genug OT.
selbst wenn ich meiner 1070 bandbreite klaue wird die karte effizienter... auch wenn mehr bandbreiute deutlich an fps bringt, das ist kein widerspruch.
TheAntitheist
2016-12-25, 04:43:16
Wenn einige Leute mal den Kontext von Blacki verstehen würden, würden sie ihm wohl Recht geben müssen...aber manche wollen es einfach nicht oder sind auf Stress aus.
horn 12
2016-12-25, 09:14:31
Nun, die Frage wann Vega kommt sollte wohl +/- zum Zen Launch entgültig mal geklärt werden von AMD´s Seite aus.
Dieses Ewige Warten treibt einem zur Weißglut!
Die 390 hat nur einen wesentlichen Unterschied zur 290 - mehr Bandbreite und profitiert ganz schoen davon, sogar die Salvage-Variante. Das ist ganz schoener Quatsch zu behaupten, dass Hawaii zuviel Bandbreite haette.
tm0975
2016-12-25, 10:19:55
selbst wenn ich meiner 1070 bandbreite klaue wird die karte effizienter... auch wenn mehr bandbreiute deutlich an fps bringt, das ist kein widerspruch.
und wenn ich einer 480 den speichertakt erhöhe und damit die bandbreite steigere, gibts für minimalen mehrverbrauch mehr leistung und die effizienz steigt. wenn ich dann den gpu takt etwas reduziere und den verbrauch aufs ausgangslevel steigere, dann ist die karte immer noch schneller als zuvor. man kann es mit der effizienz also so und so drehen...
Setsul
2016-12-25, 11:29:42
Nimm bei einer 480 den Speicher mal 30% runter. 20% der fps sind weg. Kann man beim kleinen Vega natürlich auch machen, GDDR5 verbraucht mehr Strom, dann hat man eine langsamere und ineffizientere Karte. Aber wenigstens ist sie billig herzustellen.
bingo, weniger bandbreite innerhalb der speicherart ist effizienter in stromverbrauch und kosteneffizienz.
Erst lesen, dann schreiben.
GDDR5 vebraucht mehr Strom als HBM.
Die Karte wird langsamer.
Weniger Leistung und höherer Vebrauch = niedrigere Effizienz.
1. Von HBM auf GDDR5 zu wechseln erhöht nicht die Effizienz, sondern senkt sie.
2. Es gibt einen Punkt an dem langsamerer Speicher der selben Art die Karte ineffizienter macht.
P10 durch Vega zu ersetzen ergibt immernoch keinen Sinn.
2 Dies aufzulegen für das gleiche Segment ist teurer als nur einer. Also keine bessere Gewinnspanne. Wenn mit GDDR5 140W braucht für die Leistung für die die 1060 120W und die 480 160W braucht, dann sorgt das auch nicht wirklich für größere Absatzzahlen. Selbst mit 120W wäre man einfach ein Jahr zu spät dran.
tm0975
2016-12-25, 11:43:09
das sind doch aber alles alte kamellen und seit fiji klar. damit muss man doch nicht mehr anfangen.
ob sich das ersetzen von p10 lohnt, können wir nicht beurteilen. wir kennen das designziel nicht. p11 ist ein guter effizeinter runder chip, bei p10 sehe ich das etwas differenzierter. wenn amd etwas besseres in der schublade hat, dann sollten sie es auch bringen. die entwicklungskosten sind ja dann bereits ausgegeben und den neuen chip auflegen wird jetzt nicht teurer werden als in einem halben jahr. p10 wirkt allgemein nicht ganz rund.
Wenn es jetzt einen P10XT2 gibt, wird der wohl kaum ersetzt werden :freak:
Schlechter vergleich!
P100 hat 4 Stacks und es wird mit Sicherheit auch eine mit 32 GB kommen
Ja... oder halt nicht.
Du hast doch keine Ahnung, wann Nvidia 8Hi Stacks in die Haende bekommt. Vielleicht wird bis dahin alles in GV100 gesteckt.
Und es ging hier immer noch um die Speichermenge, nicht die Anzahl an Stacks. GP100 laeuft seit Monaten mit 16 GiB, der Einwand bleibt also valide.
Anhand irgendwelche Bilder zu schlussfolgern find ich :down:
Stimmt, voellig ohne jegliche Grundlage wilde Spekulationen aufzustellen ist deutlich besser :up:
jede karte bräuchte unendlich bandbreite. [...]
stell dir mal ein gp106 vor mit hbm2? der würde gp104 konkurenz machen
Schwachsinn. GP104 ist groesstenteils einfach mal das Doppelte von GP106, die Taktraten sind auf dem gleichen Niveau. Mach halt mal Skalierungstests mit dem Speicher und stelle fest, dass irgendwo Schluss ist.
Im Uebrigen geht es auch immer um die Balance und dabei darf man nicht vergessen, dass AMD eben aktuell auch wesentlich mehr Bandbreite braucht als Nvidia. Hawaii skaliert uebrigens nach oben vergleichsweise gut mit dem Speichertakt und sogar den Timings mit.
Wenn einige Leute mal den Kontext von Blacki verstehen würden, würden sie ihm wohl Recht geben müssen...aber manche wollen es einfach nicht oder sind auf Stress aus.
Und was fuer ein Kontext soll das sein, der derart absurde Behauptungen rechtfertigen soll? Dass Vega nur 2 Stacks bekommen soll (wovon ich im Uebrigen auch ausgehe) kann es jedenfalls nicht sein, weil die Herangehensweise der Begruendung voellig falsch ist.
Ansonsten herzlichen Glueckwunsch zu der Erkenntnis, dass niedrigere Taktraten den Verbrauch senken. Ich kann auch den Chip mit 400 MHz laufen lassen und bin ploetzlich super effizient, nur habe ich davon halt nichts.
Nakai
2016-12-25, 14:08:52
Ich glaube dann schon eher an GDDR5.
1-Stack würde bedeuten das AMD zwingend auf 8-Hi angewiesen ist und maximal 8GB verbauen kann.
AMD müsste hohe Fixkosten bezahlen und wäre höchst unflexibel bei der Kapazität und die Bandbreite würde nicht einmal höher liegen.
Wäre in meinen Augen crazy, wenn AMD höhere Kosten und eine geringere Kapazität in Kauf nimmt, nur um die Effizienz zu erhöhen.
Da klingen selbst zwei Stacks in meinen Augen besser.
Mhh, GDDR5/x bringt aber auch nicht wirklich etwas.
Wenn V11 nur einen Stack hat, dann sollte der Chip auch nur halb so groß wie V10 sein, also 2048 SPs. Wenn V11 ein P10-Ersatz ist, muss die Leistung pro SPS, also die IPC, schonmal gestiegen sein.
Zwei HBM2-Stacks für V11 sind auch unwahrscheinlich, da zu teuer.
Vega kann selbstverständlich bessere Speichertechnologien mit sich bringen.
Mehr Cache, besseres DCC, besseres Speichersubsystem, besseres Caching, etc...
Wenn Vega neue CUs hat, dann ist es sehr wahrscheinlich, dass das Speichersystem auch überarbeitet wurde.
Schaffe89
2016-12-25, 14:37:45
Die Präsentatio mit 8GB Speicher auf VEGA10 lassen ja nur noch 2 stacks als einzige Möglichkeit übrig. Sollte VEGA schneller als GP104 sein, dann wären 8GB aber schon wieder ein bisschen wenig Speicher für die Performance, also die sollten wenigstens beim Topmodell 16GB verbauen, ansonsten läuft ihnen das Ding 2017 ins V-ram Limit.
Ich frag mich immernoch wieso sie kein 384bit Interface mit GDDR5x genommen haben, die 512 GB/S Bandbreite sind doch für HBM lachhaft und soo viel Leistungsaufnahme spart man damit nun auch nicht ein, da sind wir vll bei 20 bis 30 Watt.
Die RX480 hat AMD von der Balance her ja mal völlig verkackt. Wenn man sich den HWL Test ansieht, dann braucht die Karte dringendst GDDR5x, da könnten teils bis zu 20% mehr Leistung schlummern, dann wäre die Karte auch da wo sie AMD auch wirklich erwartet hat, eben als kompletten Ersatz der teuren Fury Serie und Hawai GPU´s.
So muss das damals geplant gewesen sein, denn Vega kann unmöglich so geplant sein, dass man nur 20% auf eine Fury X drauflegt, da muss doch 2 Jahre nach Fijii mehr geplant sein.
Tamagothi
2016-12-25, 14:39:33
Ja... oder halt nicht.
Du hast doch keine Ahnung, wann Nvidia 8Hi Stacks in die Haende bekommt. Vielleicht wird bis dahin alles in GV100 gesteckt.
Und es ging hier immer noch um die Speichermenge, nicht die Anzahl an Stacks. GP100 laeuft seit Monaten mit 16 GiB, der Einwand bleibt also valide.
GP100 ist immer noch beschnitten. Es wird mit Sicherheit noch einen Full geben mit 32GB. Oder denkst du Nvidia hat einfach so 4 Stacks verbaut in dem wissen das die bei 16GB bleiben?
Stimmt, voellig ohne jegliche Grundlage wilde Spekulationen aufzustellen ist deutlich besser :up:
Bilder von Wccft, videocards oder andere Seiten als Grundlage zu nehmen ist auch :up:
Korvaun
2016-12-25, 14:43:45
Nun, die Frage wann Vega kommt sollte wohl +/- zum Zen Launch entgültig mal geklärt werden von AMD´s Seite aus.
Dieses Ewige Warten treibt einem zur Weißglut!
Worauf wartest du? Wenn du eine Karte hauptsächlich für Spiele haben willst kauf dir ne GTX 1070/1080. Sind wahrscheinlich nicht langsamer als VEGA, sind sparsam und leise. Preis ist auch ok. Kein Grund ewig zu warten auf die nächste angebliche AMD-Über-Karte (ausser du bist nV-Hasser ;) ).
Schaffe89
2016-12-25, 14:50:31
Warten ist man bei AMD doch schon gewohnt, also nix neues an der Westfront.
Verkauf doch deine Furien und gönn dir ne GTX 1080, gabs bei MF gestern für 559 Euro, relativ leises Design von KFA. VEGA wird nicht nennenswert schneller sein, darauf kannst du wetten.
[MK2]Mythos
2016-12-25, 14:55:32
Horn12 ist wohl der Inbegriff eines AMD-fanboys (no offense! ;) ) insofern kommt eine NVIDIA Karte da vermutlich nicht in Frage.
Für mich ebenfalls momentan nicht weil ich diese Preispolitik nicht unterstützen möchte.
Ich bin mir fast sicher, dass es hier nicht wenigen so geht und deswegen bei AMD eher mal ein Auge zudrücken bei Verbrauch oder fps Output.
Locuza
2016-12-25, 15:11:23
Mhh, GDDR5/x bringt aber auch nicht wirklich etwas.
Wenn V11 nur einen Stack hat, dann sollte der Chip auch nur halb so groß wie V10 sein, also 2048 SPs. Wenn V11 ein P10-Ersatz ist, muss die Leistung pro SPS, also die IPC, schonmal gestiegen sein.
Zwei HBM2-Stacks für V11 sind auch unwahrscheinlich, da zu teuer.
Vega kann selbstverständlich bessere Speichertechnologien mit sich bringen.
Mehr Cache, besseres DCC, besseres Speichersubsystem, besseres Caching, etc...
Wenn Vega neue CUs hat, dann ist es sehr wahrscheinlich, dass das Speichersystem auch überarbeitet wurde.
Es würde AMD wesentlich günstigere Preise und eine höhere Kapazität bescheren, natürlich auf Kosten der Effizienz, aber wäre es das wert?
256 GB/s wären es in beiden Fällen, bei GDDR5 könnte AMD aber auch 16 GB verwenden, wie sie es auch bei der MI6 für die Instict-Reihe mit Polaris 10 machen.
GDDR5X erscheint attraktiv, es wären dann auch 320 GB/s wie bei der GTX 1080 möglich und ein wenig effizienter, ich habe bloß bedenken ob Micron als einziger Zulieferer alle AMD und Nvidia-Karten versorgen könnte.
Bezüglich SK Hynix und Samsung habe ich nichts gehört, aber falls die Option offen stehen würde, wäre das sicherlich auch eine attraktive Alternative.
Für einen HBM-Stack müsste AMD sowieso schon die hohen Fixkosten für das packaging aufwenden und sie müssten zwingend 1x 8Hi kaufen, zwei Stacks sollten die Kosten relativ gering ansteigen lassen.
Das Interface selber ist klein und der Interposer müsste vielleicht nur geringfügig größer ausfallen und man könnte 2x4Hi ordern, mit der Option 2x8Hi und 16GB, für die Märkte wo das Vorteile bringen kann.
Von der Bandbreite her wäre es natürlich massiv, entweder AMD verwendet soviel Bandbreite oder sie kaufen bzw. lassen die Stacks mit viel weniger Mhz (1,6 Gbps und niedriger) laufen.
Agent117
2016-12-25, 15:14:58
Vega kann selbstverständlich bessere Speichertechnologien mit sich bringen.
Mehr Cache, besseres DCC, besseres Speichersubsystem, besseres Caching, etc...
Wenn Vega neue CUs hat, dann ist es sehr wahrscheinlich, dass das Speichersystem auch überarbeitet wurde.
Eigentlich hätte AMD wegen den APUs schon längst sowas wie Tile based rasterization nutzen müssen. Ich vermute aber mal dass das in der Hardware sehr aufwendig ist und möglicherweise sogar indirekt andere CUs erfordert.
Aber vielleicht kommt es ja jetzt mit Vega; da spart man schon nochmal 20-30% Bandbreite. Die 20-30% könnte V11 dann schneller als P10 sein und man käme mit 1 HBM Stack aus bei weiterhin 256GB/s.
Setsul
2016-12-25, 15:20:19
@Nakai:
Die Logik ist in sich stimmig, aber stimmt der Ausgangspunkt?
Bei nur einem Stack ist GDDR5 eine problemlose und billigere Alternative.
Ich meine wir sind uns einig, dass es mit einem Stack nur zum P10-Ersatz reicht.
Aber wenn HBM so teuer ist, dass man sich keinen zweiten Stack leisten kann, wie soll dann eine Karte mit HBM, selbst mit effizienteren SPs (-> weniger) und HBM MI (-> kleiner), billiger werden als P10?
Das bedeutet weniger Gewinn, welchen Grund hätte AMD das zu machen?
Die einzige Möglichkeit wäre, dass man erwartet soviel mehr Karten zu verkaufen als mit P10, dass es die höheren Kosten pro Karte und die zusätzlichen Entwicklungskosten ausgleicht. Aber ist das realistisch?
Ich meine ich bin für alle Ideen offen, aber kann mir jemand einen einzigen Grund nennen aus dem es wirtschaftlich Sinn ergibt P10 zu ersetzen.
Kleiner Vega gegen GP104 ergibt Sinn, da hat man keine Konkurrenz zu nVidia bis jetzt, da ist Gewinn zu machen.
Großer Vega so weit wie möglich nach oben, für Profi Markt, GP102/GP100 Konkurrenz, 2000er Serie. Da sind große Margen, sollte also auch etwas zu holen sein.
y33H@
2016-12-25, 15:49:58
Prinzipiell sind zwei 8Hi-Stacks mit jeweils 16 GByte denkbar, es muss nur einer fertigen ;-)
Tamagothi
2016-12-25, 15:55:20
Gibt einige Punkte um P10 zu ersetzten
-Durch HBM wird die GPU selber etwas kleiner.
-Das Board selber wird billiger.
-AMD verdient am HBM Speicher mit da zusammen mit GPU an Boardpartner verkauft wird.
P10 wird aber vorerst bleiben.
tm0975
2016-12-25, 15:58:04
Aber wenn HBM so teuer ist, dass man sich keinen zweiten Stack leisten kann, wie soll dann eine Karte mit HBM, selbst mit effizienteren SPs (-> weniger) und HBM MI (-> kleiner), billiger werden als P10?
pcb wird kleiner und günstiger. die kühlung wird dadurch wahrscheinlich einfacher.
Setsul
2016-12-25, 16:44:30
@Tamagothi:
Aber kommt dadurch insgesamt mehr Gewinn heraus?
@tm0975:
Reicht meiner Meinung nach nicht um billiger als GDDR5 zu werden.
Nakai
2016-12-25, 17:06:36
@Nakai:
Die Logik ist in sich stimmig, aber stimmt der Ausgangspunkt?
Bei nur einem Stack ist GDDR5 eine problemlose und billigere Alternative.
Ich meine wir sind uns einig, dass es mit einem Stack nur zum P10-Ersatz reicht.
Aber wenn HBM so teuer ist, dass man sich keinen zweiten Stack leisten kann, wie soll dann eine Karte mit HBM, selbst mit effizienteren SPs (-> weniger) und HBM MI (-> kleiner), billiger werden als P10?
Das bedeutet weniger Gewinn, welchen Grund hätte AMD das zu machen?
Die einzige Möglichkeit wäre, dass man erwartet soviel mehr Karten zu verkaufen als mit P10, dass es die höheren Kosten pro Karte und die zusätzlichen Entwicklungskosten ausgleicht. Aber ist das realistisch?
Ich meine ich bin für alle Ideen offen, aber kann mir jemand einen einzigen Grund nennen aus dem es wirtschaftlich Sinn ergibt P10 zu ersetzen.
Kleiner Vega gegen GP104 ergibt Sinn, da hat man keine Konkurrenz zu nVidia bis jetzt, da ist Gewinn zu machen.
Großer Vega so weit wie möglich nach oben, für Profi Markt, GP102/GP100 Konkurrenz, 2000er Serie. Da sind große Margen, sollte also auch etwas zu holen sein.
Ich würde Vega11 eher Richtung Ende 2017 erwarten. V10 wurde erst vorgestellt, ergo dauert es noch ein paar Monate bis wir diesen im Consumer-Bereich zu Gesicht bekommen. Die guten Chips kommen eh erstmal in den Profimarkt. Vielleicht kommt der Aussatz in den Consumer-Sektor. Ich tippe auf Q2.
Es braucht dann für V11 schon 8Hi-HBM2-Stacks, um wenigstens 8GB Volumen zu liefern. Darauf muss man dann sowieso warten.
Mein längerer Verdacht ist, dass V11 der Testballon für die HPC-APU wird. V10 wird wohl ein gutes Stück zu groß werden (~400mm²).
Durch den geringen Footprint wäre eine GPU mit nur einem Stack schon sehr nett für andere Bereiche. Wer andere Embedded-GPUs von AMD betrachtet, sieht öfter, dass der Speicher auf das Package wandert.
BlacKi
2016-12-25, 17:39:25
Die 390 hat nur einen wesentlichen Unterschied zur 290 - mehr Bandbreite und profitiert ganz schoen davon, sogar die Salvage-Variante. Das ist ganz schoener Quatsch zu behaupten, dass Hawaii zuviel Bandbreite haette.
aus kosteneffizienter sicht mag mehr bandbreite sinn machen, aus verbrauchstechnischer sicht nicht! so so hab ich das geschrieben und gemeint.
ein großer chip mit wenig bandbreite ist aus verbrauchstechnischer sicht effizienter als ein schwacher chip mit hoher bandbreite. zumindest wenn man hbm mal weglässt.
Erst lesen, dann schreiben.
GDDR5 vebraucht mehr Strom als HBM.
Die Karte wird langsamer.
Weniger Leistung und höherer Vebrauch = niedrigere Effizienz.
1. Von HBM auf GDDR5 zu wechseln erhöht nicht die Effizienz, sondern senkt sie.
2. Es gibt einen Punkt an dem langsamerer Speicher der selben Art die Karte ineffizienter macht.
P10 durch Vega zu ersetzen ergibt immernoch keinen Sinn.
2 Dies aufzulegen für das gleiche Segment ist teurer als nur einer. Also keine bessere Gewinnspanne. Wenn mit GDDR5 140W braucht für die Leistung für die die 1060 120W und die 480 160W braucht, dann sorgt das auch nicht wirklich für größere Absatzzahlen. Selbst mit 120W wäre man einfach ein Jahr zu spät dran.
ich hab schon richtig gelesen und an meiner aussage ist nichts falsch. denn mit reiner effizienz was den verbrauch angeht kann man keinen blumentopf gewinnen siehe r9 nano. die karte ist zwar sparsam aber nicht kosteneffizient.
warum soll das nicht gehen? die 470/480 wird einfach billiger weiterverkauft unter dem selben namen und wird im alten preisgefüge durch vega ersetzt. 20% schneller als die 480 mit gddr5 an 256bit mit 4000mhz als rx 570 und mit hbm als 580.
[MK2]Mythos
2016-12-25, 18:18:31
Weil VEGA ein fetter Chip mit 4096 SP's wird und es sich deswegen nicht lohnt ihn für P10 (2304 SP's) Preise zu verkaufen?
BlacKi
2016-12-25, 18:21:30
300€ sind für den kleinen vega mit 8gb gddr5 im sommer doch genug? leistungstechnisch würde ich sagen zwischen 1060-1070 oder 20% über der 480.
[MK2]Mythos
2016-12-25, 18:23:53
Ich gebs auf, entweder du willst einfach nur trollen, oder du hast wirklich keine Vorstellung davon was für Grafikkarten basierend auf dieser fetten GPU Sinn machen.
tm0975
2016-12-25, 19:05:39
wenn die chipfläche egal und hbm halbwegs bezahlbar wäre, dann hätten wir die nano von anfang an deutlich günstiger gesehen. zu einer markteinführung von 500 € wäre sie mit sicherheit ein verkaufsschlager geworden. und jetzt im abverkauf wären dann auch preis von ca 300 € drin. passiert aber nicht. nur der salvage-part ist im abverkauf...
aus kosteneffizienter sicht mag mehr bandbreite sinn machen, aus verbrauchstechnischer sicht nicht! so so hab ich das geschrieben und gemeint.
ein großer chip mit wenig bandbreite ist aus verbrauchstechnischer sicht effizienter als ein schwacher chip mit hoher bandbreite. zumindest wenn man hbm mal weglässt.
Das ist genau so ein Quatsch. Als ob der 6Gbps GDDR5 mehr brauchen würde als der 5Gbps GDDR5 auf der 290er :freak:. Da haste dir das denkbar schlechteste Beispiel ausgesucht.
Wie kommt man auf sowas?
[...]
300€ sind für den kleinen vega mit 8gb gddr5 im sommer doch genug? leistungstechnisch würde ich sagen zwischen 1060-1070 oder 20% über der 480.
Wenn dann hat der 6 und 12GB, denn in der Leistungsklasse wird er 384Bit mitbringen.
Korvaun
2016-12-25, 21:51:57
In meinen Augen wollte AMD einfach zu schnell zu viel in Bezug auf HBM. Seit der Machbarkeitsstudie Fury/X hat sich nix sichtbar getan für Endkunden. HBM2 gibts immer noch nicht für Normaluser. Wanns denn endlich kommt weiss auch keiner genau (AMD sollte es langsam mal wissen, obwohl ich mir da auch nicht sicher bin). Mit GDDR5X von Anfang an für die Polaris/VEGA Generation hätte man sich ne Menge Zeit/Kosten/Stress erspart. Ausgereiftes HBM2 hätte dann bequem mit Navi eingeführt werden können. Naja, typisch AMD ;)
robbitop
2016-12-25, 23:52:02
AMD benötigt leider mehr Bandbreite. Insofern kam ihnen hbm sicher ganz Recht. 512b GDDR5x würde aber wohl auch reichen.
Setsul
2016-12-26, 00:32:49
@Nakai:
Warum nicht die Zen + Vega APU als Testballon? Da gab es doch auch Gerüchte.
Ich komm jetzt mit deiner Logik nicht mehr mit.
Also Schritt für Schritt, dann einfach die Nummer schreiben, bei der etwas falsch ist.
1. V10 ist ~400mm² groß.
2. V10 ist ungefähr doppelt so schnell wie P10.
3. Also ein voller V10 wäre ungefähr so schnell wie eine 1080.
4. Aus V10 = 2 Stacks und V11 = 1 Stack (woher das kommt ist eine andere Sache) ergibt sich V11 ~ P10 von der Leistung her.
Mein Problem damit ist, dass AMD dann mit einem 400mm² + HBM chip gegen einen 300mm² + GDDR5X chip antreten müsste. Dann könnte AMD einpacken.
P10 gegen GP106 sah deutlich besser aus und Vega sollte doch eine Verbesserung sein, oder?
@BlacKi:
Ein großer Chip ist auch effizienter als ein kleiner Chip bei gleicher Bandbreite, einfach weil man ihn niedriger takten kann.
Derselbe Chip wird bis zu einem gewissen Punkt effizienter, wenn man den Speicher runtertaktet.
Aber wenn man einen Chip, der stark an der Bandbreite hängt, vergleicht mit einem kleineren, der das Problem nicht hat, dann sieht die Sache anders aus. Ein größerer Chip verbraucht auch mehr Strom. Und du glaubst doch nicht, dass der Speicher mehr verbraucht als der restliche Chip?
GDDR5 und HBM auf einem Die bedeuten:
-ein größerer Die
-2 PCBs
-2 Kühler
-2 Produktionslinien
Das soll billiger sein?
aus kosteneffizienter sicht mag mehr bandbreite sinn machen, aus verbrauchstechnischer sicht nicht! so so hab ich das geschrieben und gemeint.
ich hab schon richtig gelesen und an meiner aussage ist nichts falsch. denn mit reiner effizienz was den verbrauch angeht kann man keinen blumentopf gewinnen siehe r9 nano. die karte ist zwar sparsam aber nicht kosteneffizient.
Also was jetzt? Bandbreite hoch oder runter für die Kosteneffizienz?
@tm0975:
Genau das meine ich. Wie soll Vega da billiger als Polaris werden?
@Rest:
Ich glaube AMD hat nicht die Ressourcen um so spät noch umzuschwenken und wusste einfach nicht rechtzeitig von GDDR5X.
Oder man hat mehr/früher HBM2 -> billiger erwartet.
Oder es ist einfach bitter nötig für die Effizienz. Vielleicht nicht im Sinne von sonst wirds nicht <300W, sondern damit man nVidia irgendwo in perf/W schlägt. Macht sich immer gut wenn man für die 10k$ Deep Learning Karten u.ä. Diagramme zeigen kann "wir sind 5% effizienter als die Konkurrenz". "Wir sind nur 10% ineffizienter als die Konkurrenz" macht einfach nicht so viel her.
StefanV
2016-12-26, 00:36:35
AMD benötigt leider mehr Bandbreite. Insofern kam ihnen hbm sicher ganz Recht. 512b GDDR5x würde aber wohl auch reichen.
Nein, AMD/ATi ist generell der jene welche die 'neue Speichertechnologie' aktiv voran treibt und auch einsetzt...
Guggsu hier:
https://de.wikipedia.org/wiki/Graphics_Double_Data_Rate#GDDR3
AMD hat ja auch damals, bei der HD4k Serie schon GDDR4 genutzt, während der G200(b) noch mit GDDR3 lief...
Dazu kommt, dass HBM auch noch 'nen ganzes Stück effizienter ist als GDDR, bei aktuellen Frequenzen/Bandbreiten...
horn 12
2016-12-26, 02:09:29
Zudem nur so kam die R9 Nano zustande
15cm Karte als Alleinstellungsmerkmal und die Fury X Karte war, ist auch so kurz wie selten zuvor. Man darf AMD viel ankreiden, aber der Technische Vorsprung ist alleine AMD zu verdanken.
Auch wenn es oftmals nicht das bringt was AMD sich erhofft, bzw. besser erträumt hat ist dennoch AMD Spitzenreiter bei Allem was sie in die Entwicklung stecken!
Mantle - GDDR4 - HBM
Ansonsten würden wir auch kein DX12 "so schnell" gesehen haben.
BlacKi
2016-12-26, 05:48:05
Also was jetzt? Bandbreite hoch oder runter für die Kosteneffizienz?
bitte versteh doch das hbm nicht mit gddr zu vergleichen ist. hbm steht hierbei nicht zur diskussion. wenn man nun bei gddr5 bleibt, dann ist aus kosteneffizienter sicht mehr bandbreite sinnvoll auch wenn die verbrauchseffizienz etwas auf der strecke bleibt. mit hbm verbrauchen die karten erheblich weniger und die ganze diskussion chipgröße vs bandbreite stellt sich dann garnicht mehr.
@hot
klar, in den 2 jahren wurde ja auch exakt derselbe speicher genommen und übertaktet... *sarcasm*
die 290 hat niedriger getakteten speicher, ja, aber er wird komplett anders betrieben, andere volt, andere timings, und das eine 390 erheblich mehr schluckt als eine 290 spricht für meine these.
ich habs doch bei meiner 290 getestet. bei -50w PT erreicht die karte grade so mal 700mhz bei vollem speichertakt, wenn ich den speichertakt nun reduziere ebenfalls bei -50w pt, dann taktet der chip 900mhz und hat dabei mehr fps als mit hohem speichertakt.
bitte versteh doch das hbm nicht mit gddr zu vergleichen ist. hbm steht hierbei nicht zur diskussion. wenn man nun bei gddr5 bleibt, dann ist aus kosteneffizienter sicht mehr bandbreite sinnvoll auch wenn die verbrauchseffizienz etwas auf der strecke bleibt. mit hbm verbrauchen die karten erheblich weniger und die ganze diskussion chipgröße vs bandbreite stellt sich dann garnicht mehr.
@hot
klar, in den 2 jahren wurde ja auch exakt derselbe speicher genommen und übertaktet... *sarcasm*
die 290 hat niedriger getakteten speicher, ja, aber er wird komplett anders betrieben, andere volt, andere timings, und das eine 390 erheblich mehr schluckt als eine 290 spricht für meine these.
ich habs doch bei meiner 290 getestet. bei -50w PT erreicht die karte grade so mal 700mhz bei vollem speichertakt, wenn ich den speichertakt nun reduziere ebenfalls bei -50w pt, dann taktet der chip 900mhz und hat dabei mehr fps als mit hohem speichertakt.
Ich bezweifle, dass du grade in der Hinsicht Grenada mit Hawaii vergleichen kannst. Ansonsten verbraet der fette Speichercontroller so viel mehr, Der GDDR5 sicherlich nicht.
BlacKi
2016-12-26, 10:45:29
ich bin der meinung das der speicher sogar der hauptfaktor ist.
dargo
2016-12-26, 10:47:14
die 290 hat niedriger getakteten speicher, ja, aber er wird komplett anders betrieben, andere volt, andere timings, und das eine 390 erheblich mehr schluckt als eine 290 spricht für meine these.
Wieder nur ein Gerücht.
Es gibt keine 290 die weniger als meine 390 verbraucht. Was Grenada/Hawaii verbrauchen wird hauptsächlich über das vom Hersteller im Bios hinterlegte PT bestimmt!
ich bin der meinung das der speicher sogar der hauptfaktor ist.
Wenn schon dann eher der Speichercontroller. Es sind immerhin 512Bit SI.
BlacKi
2016-12-26, 11:08:50
Wenn schon dann eher der Speichercontroller. Es sind immerhin 512Bit SI.
mag sein, gehört für mich aber zusammen.
sapphire 390 metro gaming loop 276w http://www.tomshardware.de/sapphire-r9-390-nitro-radeon-grafikkarte-gpu,testberichte-241919-4.html
sapphire 290 metro gaming loop 215w http://www.tomshardware.de/amd-radeon-r9-290-290x-test,testberichte-241458-4.html
beide ca 1ghz.
wenn man bei dem 290 roundup sich den accelero ansieht der 1100 boostet, betrachet was die karte mehr zieht, obwohl nur 4° temperaturunterschied, dann muss einem doch klar sein, das der chiptakt nicht für den extremen verbrauch verantwortlich ist.
das deckt sich auch mit meinen tests mit herabgesenkten speichertakt.
dargo
2016-12-26, 11:11:24
Wie oft wollt ihr noch den Blödsinn durchkauen? Meine HiS R9 390 wurde bei der c´t mit 209W gemessen. Und nein, diesen Test findest du nicht Online.
Edit:
Gegen Bezahlung mittlerweile doch.
https://www.heise.de/ct/ausgabe/2015-18-Test-Spieler-Grafikkarten-der-Serie-AMD-Radeon-300-2767802.html
fondness
2016-12-26, 11:20:46
AMD benötigt leider mehr Bandbreite. Insofern kam ihnen hbm sicher ganz Recht. 512b GDDR5x würde aber wohl auch reichen.
Das ist für mich kein Argument. Die 512 gb/s, die man mit zwei hbm2 Stacks maximal erreicht, hätte man selbst mit 384 bit gddr5x erreichen können.
Schaffe89
2016-12-26, 11:35:05
AMD benötigt leider mehr Bandbreite. Insofern kam ihnen hbm sicher ganz Recht. 512b GDDR5x würde aber wohl auch reichen.
512 gb/s ist aber nunmal auch problemlos mit einem 384bit Interface und GDDR5x hinzubekommen, keine Ahnung wofür AMD bei VEGA HBM benötigt, vermutlich ist es ein reines Stromsparfeature, oder sie eiern mal wieder in irgendein Fettnäpfchen oder was unnötig kostentreibendes hinein.
dargo
2016-12-26, 11:51:51
Ganz einfach... weils strom-/ und platzsparender ist, insbesondere mit nur zwei Stacks. Ergo kannst du mehr Rohleistung bei gleicher Die-Size reinquetschen. Übrigens... ich kenne zwar keine Zahlen kann mir aber durchaus vorstellen, dass GDDR5x nicht gerade günstig ist. Es wird schon einen Grund geben warum Nvidia diesen nur bei der GTX1080 und Titan X verwendet. Dort kann man die Mehrkosten auch besser unterbringen. Die GTX1070 hätte man nämlich auch mit 192Bit @10Gbps GDDR5 und 6GB Vram bringen können. Oder eben 224Bit mit 7GB Vram.
Botcruscher
2016-12-26, 11:54:11
GDDR5 mit 512er Interface für einen lausigen 1070 Konkurrenten ist aber etwas übertrieben. Das gibt die Chipgröße einfach nicht her. Ansonsten kann da von 2 bis 4 HBM Stapeln alles drauf sein.
Screemer
2016-12-26, 11:57:29
@schaffe: Kosteneinsparung bei den phasen, phys, platine, routing, etc. Natürlich alles fettnäpfchen in die man nicht tappt, wenn man auf "alte" technilogien setzt.
Botcruscher
2016-12-26, 12:04:19
Das sind aber eben alles erprobte Technologien ohne Problempotential.
Screemer
2016-12-26, 12:12:51
Du glaubst ernsthaft, dass hbm und interposer für amd noch ein problem darstellen? Dann dürfte p100 überhaupt nicht funktionieren. Mal davon ab, dass die obigen punkte für amd das möglichst problempotential aufwiegen könnte.
Außerdem war dass geringerer problempotential auch nicht schaffes punkt. Er schrieb mal wieder davon, dass amd ohne hbm nicht im stande wäre einen sparsammen chip zu designen oder das manafment mal wieder zu dumm wäre. Kostentreiber oder in fettnäpfchen eiern. Darauf hab ich geantwortet.
Schaffe89
2016-12-26, 12:24:02
@schaffe: Kosteneinsparung bei den phasen, phys, platine, routing, etc. Natürlich alles fettnäpfchen in die man nicht tappt, wenn man auf "alte" technilogien setzt.
Gibt es da Hochrechnungen wieviel das genau einsparen soll?
Also die-space? Platineneinsparungen sind lächerlich, man kann auch mit GDDR5 ne kurze Karte bauen wenn man denn möchte. Nvidia setzt nur bei dem professionellen Chip auf HBM2, ansonsten gar nicht, das hat wohl seine Gründe.
Die Frage ist: Wieviel Strom es wirklich einsparen soll und wieviel die space das einspart, da gibts widersprüchliche Zahlen.
@Botcrusher
Ein 256bit Interface mit 12er GDDR5x müsste auch dafür reichen, der soll Anfang 2017 verfügbar sein, das wären nochmal 50% mehr Bandbreite inkl. der besseren Kompression bei VEGA.
Müsste doch eigentlich reichen, man hätte auch ein 384bit Interface nehmen können und die kleine Karte mit 320bit anbinden können.
Botcruscher
2016-12-26, 14:33:16
Du glaubst ernsthaft, dass hbm und interposer für amd noch ein problem darstellen? Dann dürfte p100 überhaupt nicht funktionieren. Mal davon ab, dass die obigen punkte für amd das möglichst problempotential aufwiegen könnte.
Definiere Problem. Sobald etwas technisch umsetzbar ist wird es allein ein Problem der Betriebswirtschaft. NV verkauft im Premiumbereich, da zählen 50$ nichts. AMD hingegen peilt den Massenmarkt an. Der ist extrem preissensibel. Wenn HBM so Problemlos funktionieren würde wären DIMM und CO schon ausgestorben.
Ein 256bit Interface mit 12er GDDR5x müsste auch dafür reichen, der soll Anfang 2017 verfügbar sein, das wären nochmal 50% mehr Bandbreite inkl. der besseren Kompression bei VEGA.
Müsste doch eigentlich reichen, man hätte auch ein 384bit Interface nehmen können und die kleine Karte mit 320bit anbinden können.
Bei Polaris reicht es schon nicht. Dazu kommt das massive Effizienzproblem (welche bei P10 nicht so offensichtlich ist). Doppelte P10 Leistung braucht mehr Bandbreite bei weniger Verbrauch. AMD kann überhaupt nicht anders.
Screemer
2016-12-26, 15:51:59
Wenn HBM so Problemlos funktionieren würde wären DIMM und CO schon ausgestorben.
dass das natürlich schon aufgrund der erweiterbarkeit und beschränkten kapiztäten völliger blödsinn ist, muss ich dir sicher nicht sagen.
Botcruscher
2016-12-26, 16:01:25
Zumindest die Verrenkungen von MS und Intel für ein paar MB wären nicht mehr existent. Heimrechner und Server würden sich sicher auf mindestens einen Stapel freuen. Menge ist zumindest im Heimbereich auch kein Thema. Für Prozessoren könnte zusätzlich die Bandbreite für mehr Menge gesenkt werden.
Tarkin
2016-12-27, 09:04:39
https://mobile.twitter.com/Radeon/status/813561408612945920
Dürfte wohl zur CES endlich soweit sein!
Ph03n!X
2016-12-27, 09:40:25
Leider zu spät.
Erst neulich günstig eine Nitro OC von Sapphire bekommen.
Bin mal gespannt ob wirklich bahnbrechendes "Neues" mit dabei ist.
Und vorallemdingen wie die preisliche Geschichte ausschauen mag.
chetigol
2016-12-27, 10:20:11
Ich konnte auch nicht mehr länger warten und hab bei der Konkurrenz zugeschlagen. Wollte zwar unbedingt wieder eine amd karte, aber meine 5870er hab ich jetzt gegen eine 1070 getauscht.
horn 12
2016-12-27, 10:35:35
Habe auch eine Fury und kann gemütlich abwarten
Denke Ende Jänner bis Ende Februar sind die Karten lieferbar und hauen hoffentlich Mindestens 60%+ auf eine Fury drauf!
Denn nur dann werde ich zwecks meines 4K Monitors wechseln.
[MK2]Mythos
2016-12-27, 10:37:54
Habe auch eine Fury und kann gemütlich abwarten
Made my day! :D
y33H@
2016-12-27, 12:03:34
Vega im Januar? Äh ja ...
[MK2]Mythos
2016-12-27, 12:08:15
Vega im Januar? Äh ja ...
Vega im Januar confirmed! :O
maximus_hertus
2016-12-27, 12:32:13
Denke Ende Jänner bis Ende Februar sind die Karten lieferbar und hauen hoffentlich Mindestens 60%+ auf eine Fury drauf!
Ich hoffe dann doch schon, dass wir im Sommer (2017) Vega sehen bzw. kaufen können und nicht erst Anfang 2018 ;)
BoMbY
2016-12-27, 12:42:36
Vega im Januar? Äh ja ...
Und ich dachte Vega gibt es seit Oktober, weil AMD das vorgezogen hat? :rolleyes:
Vermutlich erfolgt der Vega Launch zur Computex bzw. bei der "PC Gaming Show" 2017 im Juni, mit Verfügbarkeit dann Ende Juni.
Nakai
2016-12-27, 13:50:04
Die gehen eh erst auf den professionellen Markt.
Im AMD-Linux-Treiber gibt es noch keine Einträge bezüglich Vega. Ich würde da noch etwas abwarten.
horn 12
2016-12-27, 20:21:13
Wird alles unter Verschluß gehalten
d2kx weiss da mehr von und der Release ist wohl näher als manche meinen.
[MK2]Mythos
2016-12-27, 20:56:47
Das wiederholst du seit drei Monaten und du wirst das auch die nächsten 6 Monate behaupten bis VEGA endlich im Juni erscheint.
tm0975
2016-12-27, 22:07:12
und es stimmt jeden tag etwas mehr, also dass das release näher ist als manche denken. :-)
Complicated
2016-12-27, 23:56:48
Die Computex ist eigentlich der jährliche APU-Launch Termin. Ich denke Vega wird im Q2 erscheinen um den Zen-APUS das Q3 zu überlassen.
Auch für die weitere Roadmap würde das besser passen. Q4 Zen+ Refresh und H1 2018 kommt Navi in GFs non-EUV 7nm während die nächsten CPUs erst in 2019/2020 auf den EUV-7nm kommen, sollte dies mittlerweile wirtschaftlich laufen. Ansonsten gibt es einen Refresh auf den Non-EUV 7nm da die Designs kompatibel sind.
basix
2016-12-28, 10:37:39
Was? In Q4 schon Zen+? Wo hast du denn das her?
Complicated
2016-12-28, 11:23:16
1 Jahr nach Zen kommt Zen+. Es ist ja nur ein Refresh und es wäre ja selten dämlich die Verbesserungen nicht zu nutzen 1 Jahr nach Zen. Ich sehe hier einen klaren Zeitrahmen den AMD vorgibt mit jährlichen Refreshes der APUs zur Computex im Juni und weiter Entwicklungen der CPU Architektur jeweils zur CES.
TheGood
2016-12-28, 11:42:02
Wird alles unter Verschluß gehalten
d2kx weiss da mehr von und der Release ist wohl näher als manche meinen.
Dein Wort in Gottes Ohr :) Ich finde es aber gut, dass du die Sache immer optimistisch angehst. :)
AffenJack
2016-12-28, 14:54:32
Q4 Zen+ Refresh und H1 2018 kommt Navi in GFs non-EUV 7nm während die nächsten CPUs erst in 2019/2020 auf den EUV-7nm kommen, sollte dies mittlerweile wirtschaftlich laufen. Ansonsten gibt es einen Refresh auf den Non-EUV 7nm da die Designs kompatibel sind.
H1 2018 7nm Chips? Also bitte, das wird niemals was. Selbst Gf sagt Risc Production in H1 2018, also Massenproduktion in H2 und ausgelieferte Chips Ende H2, Anfang 2019. Dabei wissen wir, dass die Projektionen der Foundries immer knapp bemessen sind und oft nicht hinhauen.
dargo
2016-12-28, 15:06:40
Bei den kleineren Fertigungsprozessen sollte man vorsichtshalber 1 Jahr drauf rechnen. Ansonsten wird man wieder nur enttäuscht. ;)
Complicated
2016-12-28, 16:12:10
H1 2018 7nm Chips? Also bitte, das wird niemals was. Selbst Gf sagt Risc Production in H1 2018, also Massenproduktion in H2 und ausgelieferte Chips Ende H2, Anfang 2019. Dabei wissen wir, dass die Projektionen der Foundries immer knapp bemessen sind und oft nicht hinhauen.
http://www.globalfoundries.com/newsroom/press-releases/2016/09/14/globalfoundries-extends-roadmap-to-deliver-industry-s-leading-performance-offering-of-7nm-finfet-technology
GLOBALFOUNDRIES’ 7nm FinFET technology will be supported by a full platform of foundation and complex intellectual property (IP), including an application-specific integrated circuit (ASIC) offering. Test chips with IP from lead customers have already started running in Fab 8. The technology is expected to be ready for customer product design starts in the second half of 2017, with ramp to risk production in early 2018.
Da AMD mit IBM und GF diesen Prozess entwickelt ist das der Prozess, welcher wohl als erstes für Navi verwendet wird. Das sind Chips in H1 2018. Wenn Navi wie spekuliert ein Multichip-Design wird mit kleineren Chips auf Interposer, dann ist eine deutlich frühere Markteinführung möglich als wenn 400-500 mm² Chips erst durch die risc production müssen.
Bemerkenswert und anders als bei bisherigen Prozess-Einführungen ist dies:
https://www.dvhardware.net/article65168.html
As we reported last month, GlobalFoundries is skipping the 10nm process because the company believes this node will be too short-lived. Interestingly, GlobalFoundries mentions that it's already manufacturing 7nm prototype chips with IP from "lead customers" in Fab 8.
Jemand anderes als AMD kann dieser "Lead Customer" nicht sein. Und daher denke ich, dass AMD und GF hier etwas im Ärmel haben damit das ganze deutlich schneller in fertigen Produkten landet. Die Tools aus 14nm können weitgehend weiter genutzt werden und AMD hat das Design wohl schon weit voran getrieben. Sie müssen ja auch damit rechnen gegen 10nm antreten zu müssen, sollte Nvidia mit ihrer vollen Kriegskasse beschlossen haben nicht auf 7nm EUV zu warten und die Kosten für das Design nicht scheuen.
TerrorZivi
2016-12-28, 17:38:52
Also evtl. kaufbare Einzelstücke im Sommer/Herbst 2018 und Massenware im Spätherbst/Winter.
Complicated
2016-12-28, 17:57:13
Oder auch einfach zuerst ein HPC Produkt wie Nvidia es vor gemacht hat mit P100. Das kann man auch mit frühen Yields bedienen wenn das Design auf Anhieb zum Prozess passt.
mboeller
2016-12-28, 18:22:10
...um den Zen-APUS das Q3 zu überlassen.
Wie kommst du denn auf das schmale Brett?
tm0975
2016-12-28, 19:01:35
Jemand anderes als AMD kann dieser "Lead Customer" nicht sein. ich wette, dass die zeitangaben auf chips für msmartphones bezogen sind und sie nciht AMD sondern qualcomm meinen. für GPUs kann man leider immer nochmal ein jahr extra draufpacken. und cpus scheinbat nochmal, denn es gibt ja kein BR in 14 nm, obwohl es seit nem halben jahr p10 gibt.
vor allem, da zen apus und notebook ships erst für hj2/2017 angekündigt wurden.
reaperrr
2016-12-28, 19:27:42
denn es gibt ja kein BR in 14 nm, obwohl es seit nem halben jahr p10 gibt.
Das hat andere Gründe. Bei BR wäre der finanzielle Sinn eines Shrinks fraglich gewesen, weil er schon in ~9 Monaten dank RavenRidge obsolet geworden wäre.
Außerdem lagen die P10/P11 Designs (als Baffin/Ellesmere) schon halb fertig in GFs gecanceltem 20nm vor, der zumindest von den Strukturbreiten deutlich näher an 14LPP liegen dürfte als GF28A, wodurch Kosten und Zeitaufwand für die Shrinks wohl geringer waren.
Von der absoluten Notwendigkeit kostengünstigerer, halbwegs konkurrenzfähiger Ersatz-Chips für CV, Bonaire, Pitcairn und Tonga mal ganz abgesehen.
Patentschrift bezüglich Vega (vermutet)
- krasse Neuinterpretation von SIMD
- Vec-16-Einheiten im Betrieb teilbar und abschaltbar (auch in Teilen)
- Option auf mehr Scalar-Einheiten, die dann auch öfters Aufgaben der Vec-16 übernehmen und sozusagen "Schnellabfertigen"
- mehr Hardware-Autonomie
- variable Warp- und Thread-Größen
Der krasse Umbau soll dem Umstand geschuldet sein, dass es häufig vorgekommen ist in den 64-Thread-Blöcken Berechnungen durchführen zu müssen, deren Ergebnis vor Arbeitsbeginn bereits als falsch feststeht, DAS aber bei der Zusammenstellung des 64-Thread-Blocks nochnicht bekannt war.
In Zukunft wird das deutlich dynamischer passieren, heißt:
Wenn in Zukunft Teil-Aufgaben von Warps unsinnig werden, wird kein Strom mehr verschwendet weil diese Warps geteilt werden und der Unsinn quasi abgeschnitten wird.
Die Vec-16 ALUs können sich evtl. pro Takt umorganisieren GENIAL
Und weiter wird erwähnt, dass: Wenn viele Threads auf einen kritischen anderen Thread warten müssen, kann der aus dem Warp genommen und mit den Skalar-Einheiten bei evtl. sogar noch höherem Takt geboostet werden. GENIAL
hier der Link: ... ja von 2014 das passt ;p
http://patents.com/us-20160085551.html
Das hat andere Gründe. Bei BR wäre der finanzielle Sinn eines Shrinks fraglich gewesen, weil er schon in ~9 Monaten dank RavenRidge obsolet geworden wäre.
Außerdem lagen die P10/P11 Designs (als Baffin/Ellesmere) schon halb fertig in GFs gecanceltem 20nm vor, der zumindest von den Strukturbreiten deutlich näher an 14LPP liegen dürfte als GF28A, wodurch Kosten und Zeitaufwand für die Shrinks wohl geringer waren.
Von der absoluten Notwendigkeit kostengünstigerer, halbwegs konkurrenzfähiger Ersatz-Chips für CV, Bonaire, Pitcairn und Tonga mal ganz abgesehen.
Deshalb haben die auch Tonga/Fiji-IP. Und deshalb sind die AMD-Ingeneure ja auch so auf den FinFET-Prozess abgegangen, denn anstatt 1GHz Takt wie mit 28/20nm war bei den Teilen plötzlich 1,3GHz Takt möglich. Das erklärt ne Menge, auch wenn es weiterhin Spekulation bleibt. Man wollte da mMn einfach nicht mehr Mannstunden versenken als irgendwie nötig. Die ganze Arbeit sollte vor allem in Vega fließen.
Wenn man es versionieren sollte, müsste man das eigentlich eher so tun:
Tahiti -> v1.0 (asyncCompute möglich)
Bonaire -> v1.1 (SM6.0 möglich)
Tonga -> v1.2 (FP16 möglich)
P10 -> v1.21
Vega10 -> v2.0 (GCN-Neuinterpretation)
robbitop
2016-12-29, 16:04:09
Oder erst Navi ist ein großer Sprung. Wie oft das schon vermutet wurde, dass es einen großen Sprung mit GCN geben soll. Mit Hawaii, mit Tonga, mit Fijii und zuletzt mit Polaris. Die Sprünge blieben bisher sehr übersichtlich IMO. Wobei Polaris für "GCN 1.21" schon einen sehr großen Sprung (für AMD, in Bezug auf IPC) gemacht hat. Siehe Vergleich Tahiti, Tonga, Polaris @Computerbase. Auch gab es ja vor dem Launch von AMD Präsentationsfolien, die implizierten, dass bei Polaris in Bezug auf die mArch, die ALUs und die Kontrollogik ein großer Sprung passiert.
Aber es waren allesamt bisher IMO nur kleine Weiterentwicklungen. Ich befürchte, dass auch Vega nichts anderes sein wird. Oder gibt es Indizien, die etwas anderes besagen?
Kriton
2016-12-29, 16:16:27
Polaris wurde als großer Architektursprung vermutet? Beim Lesen hatte ich immer mehr das Gefühl, als wenn der Großteil der Meinung wäre, es wäre ursprünglich für 20nm geplant gewesen und dann "nur" auf FF umgesetzt. Das hatte ich in dem Kontext immer so verstanden, dass Vega tatsächlich deutlich weiter sein sollte (die Verzögerung durch die Umstellung brachte Polaris demnach erst in zeitliche Nähe zu Vega).
Hübie
2016-12-29, 16:37:30
Ich habe es so in Erinnerung, dass Polaris aus Tonga erwachsen ist und Vega schon deutlich größere Schritte macht. Wobei P10/11 schon enttäuschen, wenn man auf die Anzahl der Recheneinheiten stiehlt.
@cat: Das Patent klingt interessant, aber es ist fraglich ob es wirklich Einzug erhält. Sämtliche IHVs halten Patente en mass, die jedoch nicht zum Einsatz kommen. Dennoch netter Fund. Warten wir mal ab.
Nakai
2016-12-29, 16:56:59
Vega macht einen sehr großen Sprung.
Polaris war nur eine für 20nm geplante GCN-Inkrementierung, welche auf 14FF geshrinkt wurde.
Vega is the real deal.
Ahja, das ist das gleiche Patent, dass ich schon öfter hier verlinkt habe.
...
Ich vermute Vega wird ein großer Sprung werden. Ob es so kommt, wie im Patent ist fraglich. Es würde die CUs ziemlich aufblähen. Es wäre jedenfalls schön, wenn die skalare Einheit endlich mal "richtig" Verwendung findet. Derzeit ist die skalare Einheit hauptsächlich fürs Branching und Maskieren der SIMDs zuständig. Das ist auch notwendig, aber womöglich sehen wir diebezüglich mehr Funktionalitäten in den CUs inkludiert.
aufkrawall
2016-12-29, 17:27:51
Mit Vega dürfte man immerhin keine seltsamen "Regressions" gegenüber Hawaii sehen, wie das bei Polaris 10 bei einigen Spielen der Fall ist, weil einfach massig Bandbreite und Rohleistung vorhanden sein sollten. Bleibt zu hoffen, dass man diesmal die TDP besser im Griff hat als bei Fiji. Dafür sollte FF ja eigentlich hilfreich sein. Aber irgendwo lauert bestimmt der Wurm. :tongue:
Meezu
2016-12-29, 17:38:35
Hallo,
ich bin jetzt wahrlich kein Experte, aber zu den diversen Vorstellungen von VEGA Anfang/Mitte diesen Monats wurde doch immer ein "angepasster Fiji-Treiber" verwendet. Das klang für mich zwischen den Zeilen so, das dort zwar schon hier und da ein paar Änderungen nötig waren am Treiber, aber sich der VEGA Chip letztendlich doch recht ähnlich wie bisherige GCN-Architekturen verhält. Ich erwarte daher eigentlich mit VEGA auch "nur" eine weitere Weiterentwicklung.
Meezu
BoMbY
2016-12-29, 18:16:23
Vega hat GFX9 (Graphics IP v9.0), und es ist schon seit Jahren bekannt, dass dies ein großer Wurf werden wird, praktisch seit der Name Greenland (jetzt Vega) bekannt ist.
Außerdem siehe auch z.B. hier (https://lists.freedesktop.org/archives/dri-devel/2016-December/126422.html):
The new asic utilizes a completely re-designed atom interface, so we cannot easily leverage much of the existing atom-based code.
Edit: August 2015: It's being reported that AMD's upcoming 'Greenland' GPU will be an entirely new microarchitecture, with development on Greenland starting some two years ago. (http://www.tweaktown.com/news/47165/amds-next-gen-gpus-feature-between-8-16gb-super-fast-hbm2/index.html)
Und Raja hat das auch glaube ich in einem Interview gesagt. PCper, oder so?
Schaffe89
2016-12-29, 19:43:47
Die Computex ist eigentlich der jährliche APU-Launch Termin. Ich denke Vega wird im Q2 erscheinen um den Zen-APUS das Q3 zu überlassen.
Lisa sagte was von Q4 und aktuell wird eher Q1/Q2 2018 erwartet wenn man sich die Zen Verzögerungen ansieht. Ich wäre froh könnte man Zen vor Apri 2016 kaufen. Noch nicht mal die Mainboards sind final.
Auch für die weitere Roadmap würde das besser passen. Q4 Zen+ Refresh und H1 2018 kommt Navi in GFs non-EUV 7nm während die nächsten CPUs erst in 2019/2020 auf den EUV-7nm kommen
Aha.. ja seeehr wahrscheinlich. Viel zu optimistisch. Sei froh wenn das Zen Portfolio mitte das Jahres vollständig gelaunched ist.
robbitop
2016-12-29, 23:21:30
Polaris war nur eine für 20nm geplante GCN-Inkrementierung, welche auf 14FF geshrinkt wurde.
Wo kann man das nachlesen? Polaris brachte laut CB Test immerhin 5...10% mehr IPC (in shaderlimitierten Spieleszenen). Auch AMD gab auf einer Präsentationsfolie größere Neuerungen der mArch an. "New Command Processor", "up to 15% more IPC" etc
Das las sich nicht nach einem Aufguss.
Brillus
2016-12-29, 23:30:24
Oder erst Navi ist ein großer Sprung. Wie oft das schon vermutet wurde, dass es einen großen Sprung mit GCN geben soll. Mit Hawaii, mit Tonga, mit Fijii und zuletzt mit Polaris. Die Sprünge blieben bisher sehr übersichtlich IMO. Wobei Polaris für "GCN 1.21" schon einen sehr großen Sprung (für AMD, in Bezug auf IPC) gemacht hat. Siehe Vergleich Tahiti, Tonga, Polaris @Computerbase. Auch gab es ja vor dem Launch von AMD Präsentationsfolien, die implizierten, dass bei Polaris in Bezug auf die mArch, die ALUs und die Kontrollogik ein großer Sprung passiert.
Aber es waren allesamt bisher IMO nur kleine Weiterentwicklungen. Ich befürchte, dass auch Vega nichts anderes sein wird. Oder gibt es Indizien, die etwas anderes besagen?
Naja Polaris hatte (zumindest anfänglich ka wie es jetzt ist) die gleiche ISA-Version wie Tonga.
Brillus
2016-12-29, 23:34:00
Wo kann man das nachlesen? Polaris brachte laut CB Test immerhin 5...10% mehr IPC (in shaderlimitierten Spieleszenen). Auch AMD gab auf einer Präsentationsfolie größere Neuerungen der mArch an. "New Command Processor", "up to 15% more IPC" etc
Das las sich nicht nach einem Aufguss.
Ich glaub er bezieht sich drauf das am Anfgang im Linux-Treiber Polaris noch als Baffin/Ellesmere beszeichnet wurden, welche ja für orginal 20nm angenommen wurden.
robbitop
2016-12-29, 23:34:59
Die ISA sagt aber nichts über die Implementierung und somit die Leistung aus.
Intels Core und AMDs Bulldozer/Zen nutzen auch die gleiche ISA. Auch sämtliche moderne ARM CPUs. Die Implementierung selbst ist viel wesentlicher als eine ISA.
@20nm Polaris
Das ist allerdings ein Indiz. Kann aber auch zunächst nur als Platzhalter genutzt worden sein. Man muss ja nicht immer über Treiber bereits konkrete Existenz kommender Produkte verraten ;-)
@ Nakai
in dem Patent steht nichts drin was AMD aktuell schon in Polaris nutzt.
Derweil kann aber der neue Work-Distributor der PS4 Pro schon Richtung Teile des Patents weisen.
Genauso wie die FP16-Double-Speed-Fähigkeit der PS4 Pro
beides wurde von AMD als Vega bzw. "neuer als Polaris" bezeichnet.
Wenn das ein oder andere Beispiel in der Patentschrift nicht überspitzt darstellt, sondern eher Normalfälle erklärt was die vormals verschwendete Energie angeht.
genannte Beispiele:
8-Thread-Wavefront statt 64er auf Vec-4-ALU statt Vec-16-ALU
shows how an eight thread wide wavefront can be executed over two cycles on a four thread wide GPU microarchitecture
Generell kleinere Wavefronts
16-Thread auf Vec-4-ALU statt 64-Thread mit Datenleichen, kleine Wavefronts mit Skalar-Power-Boosten
If a wavefront has 64 threads (but only 16 active threads), instead of scheduling the wavefront to a 16 thread wide SIMD unit, the wavefront may be scheduled to a four thread wide SIMD unit
nochmal Skalar-Boost
Energie-Effizienz
This approach also works well with branch divergence in a wavefront. Because of branch divergence, some threads follow a control flow path, and other threads will not follow the control flow path, which means that many threads are predicated off. When it is determined that the active threads can be run in a smaller width SIMD unit, then the threads will be moved to the smaller width SIMD unit, and any unused SIMD units will not be powered up.
nochmal sehr deutlich, eine Wavefront wird immer mit 4-Taktzyklen angegeben, mit Ausnahmen bei den Skalar-Einheiten, es kann also bisher auf einer zu großen SIMD passieren das Takt1+2 brauchbar und Takt3+4 unbrauchbar Energie benötigen.
nochmal Vec-4 Einheit und Clock-Boost
Kombination kleiner SIMD zu einer großen Vec-16 SIMD
HIER das beste Bild ohne Bild
statt (4x Vec-16-SIMD)= 64 + 1x Skalar
(3x Vec-16 + 4x Vec-4)= 64 + 4x Skalar
For instance, if the number of active threads in a wavefront is very small (for example, one or two), the threads may be dispatched to the high-performance scalar unit, where the instruction will complete in only a couple of cycles.
Vec-4 mit 16-Taktzyklen statt Vec-16 mit 4-Taktzyklen wenn Memorybackpressure
Totalumbau der CU und der Front-Ends
Current GPUs (for example, as shown in FIG. 3) are designed with a 16 thread wide SIMD unit, and there may be multiple front-ends (multiple issue units) sharing multiple back-end units. The design may be modified to include N issue units that share M SIMD units, and those SIMD units may be of different thread widths.
Und dann folgen massig bestätigungen der brutal erhöhten Hardware-Autonomie
ähnlich nVidia etwas wie Betriebssystem-Agnostic und Hardware-Auto-Ballancing über etwas das der Nachfolger der HWS Hardware-Scheduler von Polaris sein könnte.
DAS wäre die Grundlage GCN durch den Namen NCU zu ersetzen,
das die Instinct-Karten mit Fiji-Treiber laufen kann dann zusätzlich die evtl. volle Software-Kompatiblität bestätigen, evtl. NOCH mit weniger HW-Autonomie und höherer Treiberlast, mit neuem Treiber wird dann der Geist aus der Flasche gelassen.
robbitop
Vega wird schon der Architektursprung sein. Navi wird mMn "nur" 7nm-Varianten dann hinzufügen.
Und nen neuen IP-Level braucht man ja auch nur dann, wenn die Hardware neue Funktionen hinzufügt.
horn 12
2016-12-30, 09:58:43
Also so wie ihr dies seht sollte Vega dann in 2 unterschiedlichen Versionen und Preisgefügen kommen:
1x Vega für GTX 1080 als Konkurrent
1x Vega nochmals über einer Titan X (Pascal)
Vega klein mit 8 GB HBM-2 und der Große Vega gar mit 16GB HBM-2
Jener wird sich mit Titan X Pascal und der GTX 1080 TI messen müssen...
robbitop
2016-12-30, 10:07:16
Der Einsatz von HBM impliziert leider, dass die Bandbreiteneffizienz nicht besonders gestiegen ist. Ich hoffe, dass AMD auch Defered Rasterizing wie bei Maxwell in Entwicklung hat.
tm0975
2016-12-30, 10:18:08
Der Einsatz von HBM impliziert leider, dass die Bandbreiteneffizienz nicht besonders gestiegen ist. persönliche meinung ja, verallgemeinern würde ich diese aber nicht unbedingt. es gibt deutlich mehr vorteile von HBM als die der erhöhten bandbreite. verbrauch, formfaktor, bessere kühlbarkeit, bessere skalierbarkeit. die bandbreiteneffizienz einer grafikkarte ist genaugenommen egal, solange leistung, effizienz und preis passen.
dargo
2016-12-30, 10:57:57
Der Einsatz von HBM impliziert leider, dass die Bandbreiteneffizienz nicht besonders gestiegen ist.
Und wie kommst du darauf? Die Titan X kommt ohne HBM auf 480GB/s. Da sind die ~7% mehr von Vega quasi nichts.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.