Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
Ailuros
2017-03-11, 08:40:23
Aus wohl dennoch starken 3840 CU und um die 1350 Mhz GPU Takt zusammen zu 449 Euro.
Sollte somit um die 40 bis 45 % schneller werden als eine Fury X zusammen mit Optimierungen!
Rechne vor Allem die Optimierungsarbeiten werden bei Vega weitaus mehr fruchten
Vega Groß 4096 CU und wohl 1600+ Mhz GPU Takt, sollte Mehrperformance von ca. 30% ermöglichen.
Ein 3840 CU config auf einer einzelnen GPU waere zwar schoen schon heute, aber fuers naechste Jahrzent wohl schwer realistisch in einem kaufbarem Paket :freak: ....zum Rest :weg:
fondness
2017-03-11, 08:45:37
19.05.2017 VEGA Launch?
https://meetwalter.com/
AffenJack
2017-03-11, 08:55:18
19.05.2017 VEGA Launch?
https://meetwalter.com/
Das schließt du aus dem Alien Filmlaunch? :freak:
Zwar wird AMD da erwähnt, aber das der Launch da stattfindet, da bin ich eher skeptisch.
Ailuros
2017-03-11, 08:57:36
Das schließt du aus dem Alien Filmlaunch? :freak:
Effekte usw wurden wohl auf Firepros gemacht und deswegen steht AMD dabei, ansonsten wirds da nix geben.
https://twitter.com/20thcenturyfox/status/839551559595745280
Ziemlich beschissen optimierte Seite uebrigens....
horn 12
2017-03-11, 09:40:32
Vega kommt wohl aller Voraussicht nach doch schon Anfang bis Mitte Mai, sprich in etwa 2 Monaten.
Umlauf Samples sind ja bereits gesichtet worden... Nun Muss AMD die Käufer in Schach halten und hoffe sie vermasseln es nicht ...
maximus_hertus
2017-03-11, 13:11:34
und hoffe sie vermasseln es nicht ...
Wir reden hier von AMD, oder?
Mal im Ernst, gibt es einen "Ernst" zu nehmenden Leak / Info, die von einem Vega Release Anfang - Mitte Mai berichtet? Dazu sollte man nicht von zu günstigen Preisen ausgehen.
Im "Bestcase" würde ich von 599 USD ausgehen, erwarten jedoch eher 699 USD. Für "uns" bedeutet das dann ca. 660-680 Euro oder wahrscheinlich eher 780 - 820 Euro.
AMD hat nichts zu verschenken und von Preisen um 400-450 USD für Vega (das sind dann 450-520 Euro bei uns) halte ich für (sehr) unwahrscheinlich.
Einfach bis spätestens Ende Juni warten, dann sollte es zumindest unabhängige Benchmarks geben ;)
BoMbY
2017-03-13, 11:35:04
Mal im Ernst, gibt es einen "Ernst" zu nehmenden Leak / Info, die von einem Vega Release Anfang - Mitte Mai berichtet? Dazu sollte man nicht von zu günstigen Preisen ausgehen.
Bisher gab es überhaupt keinen ernstzunehmenden Leak zu einem Launch von Vega. Der Beste Termin bisher war Oktober 2016 ... :ulol4:
Computex (30.05 - 03.06) bis E3 (14.06 - 16.06, PC Gaming Show, wenn es eine gibt) sind das wahrscheinlichste Zeitfenster.
[MK2]Mythos
2017-03-13, 11:36:36
Ich würde meinen das VEGA ein eigenes Event bekommt.
r3ptil3
2017-03-13, 12:29:10
Würde auf Ende April/Mai tippen.
Unicous
2017-03-13, 13:11:53
Computex macht Sinn, E3 auch und irgendwo wurde ja auch behauptet Ende Mai wäre der Launch-Termin (VCZ?).
btw.
Die von der Grafikkarte gemeldeten IDs 687F:C3 respektive 687F:C1 wurden bereits in der Vergangenheit Vega zugesprochen. Ob C1 und C3 auf unterschiedliche Steppings, verschiedene GPUs oder schlicht verschiedene Konfigurationen einer GPU hindeuten, ist jedoch unklar.
Wenn ich so etwas schon wieder lese wird mir ganz anders.:facepalm:
Nein, es sind keine Steppings. AMD nutzt diese Device IDs schon seit Ewigkeiten und es sind verschiedene SKUs bzw. Produkt-Samples.:rolleyes:
Koduri hat doch mal ein Bild von einer auseinanderfallenden Fabrikhalle verbreitet. Wenn das kein trolling war könnte es schon ein eigenes event geben. Wobei die PC gaming show ja auch ein AMD event neben der E3 ist.
crux2005
2017-03-13, 19:03:26
Wieso habe ich so ein blödes Gefühl das sich die Leistung von VEGA beim Launch zwischen 1080 und 1080 Ti bewegen wird. :freak:
BoMbY
2017-03-13, 19:07:50
Wieso habe ich so ein blödes Gefühl das sich die Leistung von VEGA beim Launch zwischen 1080 und 1080 Ti bewegen wird. :freak:
Mark my words: RX Vega wird mit deutlich mehr als 1500 MHz auf den Markt kommen (jedenfalls die größte Gaming-Karte davon) und die 1080 Ti ziemlich alt aussehen lassen.
dargo
2017-03-13, 19:09:09
AMD hat nichts zu verschenken...
Den gleichen Blödsinn haben schon vor dir einige im Ryzen-Thread gezwischert. Und der schnellste kam dann doch für 499$ obwohl Intel 1.000$+ verlangt.
Ist ja auch schlechter ausgestattet und vermutlich billiger herzustellen. Ryzen wird eher auf KBL-S Niveau liegen von den Kosten. Der 6er mit höherem Takt und IPC ist auch nicht so teuer im Vergleich. Relativ zur Konkurrenz ist ryzen natürlich günstig aber nicht geschenkt.
Vega wird dagegen imho teurer als GP102. Sicher verlangt man keine Titan Preise, aber warum nicht den der Ti?
dargo
2017-03-13, 19:19:38
Vega wird dagegen imho teurer als GP102.
Und wie kommst du zu dieser Annahme? Vega ist kleiner als Fury und hat ein doppeltes SI und kein vierfaches. Dafür halt die doppelte Speichermenge. Zudem gehe ich nicht davon aus, dass Vega mit AIO kommt, was die Fury X zusätzlich etwas verteuert hatte.
Sicher verlangt man keine Titan Preise, aber warum nicht den der Ti?
Weil dann kaum jemand Vega kauft.
r3ptil3
2017-03-13, 19:49:22
Wieso habe ich so ein blödes Gefühl das sich die Leistung von VEGA beim Launch zwischen 1080 und 1080 Ti bewegen wird. :freak:
Solche Erwartungshaltungen sind hier fehl am Platz.
Fakt ist AMD hat den Anschluss im Enthusiasten-Segment verloren. Wenn 1080 Performance erreicht wird, dann wäre das mehr als gut.
dargo
2017-03-13, 19:54:40
Fakt ist AMD hat den Anschluss im Enthusiasten-Segment verloren. Wenn 1080 Performance erreicht wird, dann wäre das mehr als gut.
Was wäre an ~12,5 TFLOPs vs. 9 TFLOPs (Custom 10 TFLOPs) für AMD denn gut? Oder ~500mm² vs. 314mm²? :freak:
Botcruscher
2017-03-13, 19:55:44
Mark my words: RX Vega wird mit deutlich mehr als 1500 MHz auf den Markt kommen (jedenfalls die größte Gaming-Karte davon) und die 1080 Ti ziemlich alt aussehen lassen.
Mit lausigen 4096 alus ist der Takt samt Effizienzsteigerung auch nötig.
Linmoum
2017-03-13, 19:57:10
Wenn 1080 Performance erreicht wird, dann wäre das mehr als gut.
Nein, wäre es sicherlich nicht. Wir reden hier immerhin von fast 500mm² und wohl 12,5 TFLOPS. Natürlich ist das kein reiner Gaming-Chip, aber die 1080 muss (und wird mMn auch) "klar" geschlagen werden.
crux2005
2017-03-13, 19:58:13
Solche Erwartungshaltungen sind hier fehl am Platz.
Fakt ist AMD hat den Anschluss im Enthusiasten-Segment verloren. Wenn 1080 Performance erreicht wird, dann wäre das mehr als gut.
Wieso?
In 4K ist der unterschied zwischen Fury X und 1080 ~25%
https://i.gyazo.com/3418be68b152a76a8691b48f0ed4e88d.png
Dank Architekturverbesserungen und höhere Frequenz sollten mindestens 30-40% mehr Leistung zur Fury X drin sein. Würde also zu meiner Aussage passen.
In 4K solle VEGA auch noch tendenziell besser sein als Fiji, also kann ich mir da min. +50% vorstellen.
aufkrawall
2017-03-13, 20:00:33
So eine ungenaue Verrechnung ist zweifelhaft, manche Spiele reduzieren die Details bei knappem VRAM.
rentex
2017-03-13, 20:00:51
Falls Vega wirklich zwischen 1080 und 1080Ti liegt, sollte sich AMD beeilen...wenn es bis Ende April, keine nennenswerte Menge an 1080Ti's zu kaufen gibt, könnten sie die Nachfrage bedienen.
dargo
2017-03-13, 20:03:28
So eine ungenaue Verrechnung ist zweifelhaft, manche Spiele reduzieren die Details bei knappem VRAM.
Und jene die es nicht tun verlangsamen Fury dank Vram-Mangel @4k überproportional. :wink:
dildo4u
2017-03-13, 20:07:12
Die 1080 wird eh noch Ersetzt mit Versionen mit dem 11Gbps Ram,ich denke mal es wird Eng wenn Custom Karten mit neuen Ram und 2Ghz Out of the Box kommen.
Consequently NVIDIA and their partners can finally push past 10Gbps for the GTX 1080 Ti and the forthcoming factory overclocked GTX 1080 and GTX 1060 cards.
http://www.anandtech.com/show/11180/the-nvidia-geforce-gtx-1080-ti-review/3
crux2005
2017-03-13, 20:13:29
Ja. Kann sein das deswegen AMD die Vorstellung verzögert.
Die wirklich Interessante Frage ist schon länger:
Wie hoch kann AMD VEGA takten UND bei welcher Spannung. :P
Hm ich denke, das die Performance im Allgemeinen falsch eingeschätzt wird. Wenn das Teil wirklich nur mit 1,2GHz lief bei der Doom-Demo und mit seinen dann anliegenden 9 TFLOPs eine 1080 geschlagen hat, ohne jegliche Optimierung und im Debug-Mode, dann muss da erhebliches zu holen sein im finalen Produkt. Ich denke eher, dass V10 XT, spätestens nach ein paar Treiberreleases sich mit dem vollen GP102 anlegen wird... oder den sogar überholt.
Man bedenke:
- kein Debug-Mode mehr
- 300MHz+ Mehrtakt
- aktiviertes TCR
- komplett neu entwickelte CUs und ein neues bärenstarkes Frontend
- generell neu geschriebener Shadercompiler (was wohl auch den älteren Chips sehr helfen kann)
- "Kleinkram" wie HBCC, Infinity Fabric (nur zusammen mit Zen natürlich) usw...
So eine ungenaue Verrechnung ist zweifelhaft, manche Spiele reduzieren die Details bei knappem VRAM.
Zudem sind das Referenzdesigns der 1080, die dort mitlaufen. Gegen die Costums sieht die fury x nichtmal gegen die 980ti einen Stich und ist von der 1080 weiter entfernt als 25%.
dildo4u
2017-03-13, 20:21:31
Warum soll Vega so viel besser gehen als die 480 wenn sie das Selbe Herstellungsverfahren nutzt?Bei Nvidia gehen egal ob kleine oder große Karten alle ca gleich auf 2Ghz.
crux2005
2017-03-13, 20:22:28
Hm ich denke, das die Performance im Allgemeinen falsch eingeschätzt wird. Wenn das Teil wirklich nur mit 1,2GHz lief bei der Doom-Demo und mit seinen dann anliegenden 9 TFLOPs eine 1080 geschlagen hat, ohne jegliche Optimierung und im Debug-Mode, dann muss da erhebliches zu holen sein. Ich denke eher, dass V10 XT, spätestens nach ein paar Treiberreleases sich mit dem vollen GP102 anlegen wird... oder den sogar überholt.
Ein Cherry-picked Idealfall ist definitiv aussagekräftig.
Warum soll Vega so viel besser gehen als die 480 wenn sie das Selbe Herstellungsverfahren nutzt?Bei Nvidia gehen egal ob kleine oder große Karten alle ca gleich auf 2Ghz.
Herstellungsprozess optimiert und Architekturänderungen damit höhere Frequenzen möglich sind.
dargo
2017-03-13, 20:23:22
Zudem sind das Referenzdesigns der 1080, die dort mitlaufen. Gegen die Costums sieht die fury x nichtmal gegen die 980ti einen Stich und ist von der 1080 weiter entfernt als 25%.
Die Custom 1080 sieht man doch im Bild mit +36%. :rolleyes:
Und natürlich ging es dabei um Referenz vs. Referenz. Es wird auch Customs von Vega geben. Es sei denn AMD betreibt Vega genau so am Limit wie Fury.
Warum soll Vega so viel besser gehen als die 480 wenn sie das Selbe Herstellungsverfahren nutzt?
Weil es ein völlig anderes Design ist? Außerdem... wurde 14nm überhaupt schon für Vega bestätigt?
Gipsel
2017-03-13, 20:25:23
Wieso?
In 4K ist der unterschied zwischen Fury X und 1080 ~25%
https://i.gyazo.com/3418be68b152a76a8691b48f0ed4e88d.png
Dank Architekturverbesserungen und höhere Frequenz sollten mindestens 30-40% mehr Leistung zur Fury X drin sein. Würde also zu meiner Aussage passen.Ähm, der Takt alleine (wenn man die MI-25-Servervariante mit 1525MHz als Minimum annimmt) bringt Dir zur FuryX +45% (die 4GB könnten die Fury in 4 K bei den Benchmarks schon ab und zu etwas ausbremsen, das sind also vermutlich mit 8GB schon mal locker +50% ohne jegliche Verbesserungen an der Architektur). Die diversen Effizienzsteigerungen sollten eigentlich dann noch obendrauf kommen. TitanX bzw. 1080Ti sollten also halbwegs in Schlagdistanz liegen.
Linmoum
2017-03-13, 20:29:01
Warum soll Vega so viel besser gehen als die 480 wenn sie das Selbe Herstellungsverfahren nutzt?Bei Nvidia gehen egal ob kleine oder große Karten alle ca gleich auf 2Ghz.
Der Vergleich mit Nvidia hinkt, weil wir da von Pascal reden. Vega ist nicht Polaris. Außerdem hat AMD selbst bei Vega schon davon gesprochen, dass höhere Taktraten möglich sind.
http://images.anandtech.com/doci/11002/Vega%20Final%20Presentation-29.png
Die Custom 1080 sieht man doch im Bild mit +36%. :rolleyes:
Und natürlich ging es dabei um Referenz vs. Referenz. Es wird auch Customs von Vega geben. Es sei denn AMD betreibt Vega genau so am Limit wie Fury.
Weil es ein völlig anderes Design ist? Außerdem... wurde 14nm überhaupt schon für Vega bestätigt?
Ach, und dass nicht erhältliche Costums eines nicht erhältlichen Chips so viel schneller sind ist bereits ausgemachte Sache? Sorry, aber das ist einfach pure Spekulation. Eher wird es so aussehen, dass der Chips wieder am Limit betrieben werden muss, damit man in die Nähe der 1080 kommt. Am Ende des Tages gilt es 36% aufzuholen und nicht 25%. Egal wie man es dreht.
crux2005
2017-03-13, 20:34:09
Ähm, der Takt alleine (wenn man die MI-25-Servervariante mit 1525MHz als Minimum annimmt) bringt Dir zur FuryX +45% (die 4GB könnten die Fury in 4 K bei den Benchmarks schon ab und zu etwas ausbremsen, das sind also vermutlich mit 8GB schon mal locker +50% ohne jegliche Verbesserungen an der Architektur). Die diversen Effizienzsteigerungen sollten eigentlich dann noch obendrauf kommen. TitanX bzw. 1080Ti sollten also halbwegs in Schlagdistanz liegen.
Ich habe aber die 1,5 GHz nicht als Minimum genommen. Es steht auch nicht ohne Grund bei der Karte "<300W".
Wenn die Desktop Version mit ~250W daher kommen soll und sie die besten Chips für Servervarianten benutzen... :P
dargo
2017-03-13, 20:40:47
Ach, und dass nicht erhältliche Costums eines nicht erhältlichen Chips so viel schneller sind ist bereits ausgemachte Sache? Sorry, aber das ist einfach pure Spekulation. Eher wird es so aussehen, dass der Chips wieder am Limit betrieben werden muss, damit man in die Nähe der 1080 kommt. Am Ende des Tages gilt es 36% aufzuholen und nicht 25%. Egal wie man es dreht.
Dir ist aber schon klar, dass 136% vs. 125% magere +~10% sind? Das schaffte selbst Fury mit entsprechenden Tools.
Und auf eine Costum 1080 konnte man das mit entsprechenden Tools auch noch drauf packen.
So schön es auch wäre, da ich als Besitzer eines Freesnyc Monitors lieber eine AMD als die 1080ti kaufen würde, aber bisher ist beim Hype um AMD Produkte nicht wirklich viel an der absoluten Spitze herumgekommen.
crux2005
2017-03-13, 20:49:17
Und auf eine Costum 1080 konnte man das mit entsprechenden Tools auch noch drauf packen.
So schön es auch wäre, da ich als Besitzer eines Freesnyc Monitors lieber eine AMD als die 1080ti kaufen würde, aber bisher ist beim Hype um AMD Produkte nicht wirklich viel an der absoluten Spitze herumgekommen.
Müssen sie auch nicht. 15% unterhalb der 1080 Ti für 550-600€ wäre IMHO ein Sehr Interessantes Produkt.
Gipsel
2017-03-13, 20:53:37
Ich habe aber die 1,5 GHz nicht als Minimum genommen. Es steht auch nicht ohne Grund bei der Karte "<300W".Hast recht, die <300W stehen da nicht ohne Grund. Es bedeutet, die Karte wird weniger als 300W verbrauchen. Das dürfte für die Consumervariante vermutlich ebenso gelten. :rolleyes:
Wenn die Desktop Version mit ~250W daher kommen soll und sie die besten Chips für Servervarianten benutzen... :PWann hat mal die Desktop-Version einer Karte mit dem HighEnd-Chip nicht mindestens so hoch getaktet wie die Workstation- bzw. Servervariante? Mir fällt da spontan kein Beispiel ein. Dir etwa? ;)
Mal eine Liste der verschiedenen Grafikchips und deren Maximaltakt der Profikarten (in Klammern Desktop-Versionen, offizielle Taktraten, keine OC-Versionen):
GCN v1
CapeVerde: 950 MHz (Desktop 1,0 GHz, mobil bis 1,015 GHz)
Pitcairn: 950 MHz (Desktop 1,05 GHz)
Tahiti: 975 MHz (Desktop 1,05 GHz)
GCN v2
Bonaire: 930 MHz (Desktop 1,1 GHz, mobil ebenfalls 1,1GHz)
Hawaii: 930 MHz (Desktop 1,05 GHz)
GCN v3
Tonga: 1,05GHz (Desktop 970MHz, aber klar nicht ausgefahren und nicht das Topmodell)
Fiji: 850MHz als FirePro, 1,0GHz als RadeonPro (Desktop 1,05GHz)
GCN v4
Polaris 11: 1,17GHz als RadeonPro (Desktop 1,2GHz)
Polaris 10: 1,24GHz als RadeonPro (Desktop 1,27GHz)
Linmoum
2017-03-13, 20:56:24
Ach, und dass nicht erhältliche Costums eines nicht erhältlichen Chips so viel schneller sind ist bereits ausgemachte Sache? Sorry, aber das ist einfach pure Spekulation. Eher wird es so aussehen, dass der Chips wieder am Limit betrieben werden muss, damit man in die Nähe der 1080 kommt. Am Ende des Tages gilt es 36% aufzuholen und nicht 25%. Egal wie man es dreht.
Genau, Big Vega muss an der Kotzgrenze betrieben werden, damit man ggü. einer 1080 überhaupt konkurrenzfähig sein wird. :facepalm:
Polaris als ref. Design taktet schon bis zu ~20% höher, bei den Customs reden wir von bis zu ~28%. Bei Vega wird taktmäßig noch mehr möglich sein, siehe die Folie oder die MI25 mit ihren 12.5 TFLOPS. Da reden wir dann nämlich schon von rund 1525MHz, das entspricht gegenüber Fiji +45% nur beim Takt.
aufkrawall
2017-03-13, 20:58:23
Wenn die TDP nicht wirklich bei 250W festgenagelt wäre, wär das schon wieder wie bei Fiji mit extrem abweichenden Verbräuchen und kaum Spielraum für Customs.
Im Gegensatz zu GP102. Bei GK110 hatte z.B. Asus 300W-Karten mit abnorm hohem Boost bringen können, das könnte sich jetzt wiederholen. Das dürfte man auf AMD-Seite nicht anbieten können.
scully1234
2017-03-13, 20:58:26
Wann hat mal die Desktop-Version einer Karte nicht mindestens so hoch getaktet wie die Servervariante? Mir fällt da spontan kein Beispiel ein. Dir etwa? ;)
Wann waren die Yields in jüngster Vergangenheit jemals so gut das man sich das leisten konnte ,den grössten Ausbau auch im Spielesektor für einen Apfel u n Ei zu verramschen?
Die Server Variante sollte doch der Top Dog sein ,oder wie will man sich sonst GP100 entgegenstellen?
Nvidia ist nicht einmal bei dem kleineren GP102 an dem Punkt den Vollausbau in den Geforce Markt zu drücken, und hier erwartet man das gleich am Anfang der Vega Architektur...
dildo4u
2017-03-13, 21:01:51
Jup Quadro P6000 zeigt wo die Sahnestücke hingehen garantiert nicht in 600€ Gamergpu's.
Und wie kommst du zu dieser Annahme? Vega ist kleiner als Fury und hat ein doppeltes SI und kein vierfaches. Dafür halt die doppelte Speichermenge. Zudem gehe ich nicht davon aus, dass Vega mit AIO kommt, was die Fury X zusätzlich etwas verteuert hatte.
Weil dann kaum jemand Vega kauft.
Ich gehe einfach davon aus. Der Chip wird wahrscheinlich groesser und der Speicher teurer sein.
Falls Vega konkurrenzfaehig zur Ti und gleich teuer ist kauft sie niemand? Die Fury X wurde auch gekauft, Ryzen wird auch gekauft. Verstehe den Punkt nicht.
Warum soll Vega so viel besser gehen als die 480 wenn sie das Selbe Herstellungsverfahren nutzt?Bei Nvidia gehen egal ob kleine oder große Karten alle ca gleich auf 2Ghz.
Aepfel vs. Birnen?
Ryzen laeuft mit 4 GHz im selben Fertigungsverfahren, und jetzt? :rolleyes:
Costum
Sorry, irgendwann reicht es mal und das Wort musste ich zuletzt hier so oft lesen. Sofern du dich nicht verkleiden willst (was auch noch falsch waere), sprechen wir von "custom".
Polaris als ref. Design taktet schon bis zu ~20% höher, bei den Customs reden wir von bis zu ~28%
Hoeher als was? Die MI6 ja wohl nicht, denn da sind es keine 3%. Und die MI8 taktet genauso hoch wie die Nano.
dargo
2017-03-13, 21:22:48
Ich gehe einfach davon aus. Der Chip wird wahrscheinlich groesser und der Speicher teurer sein.
Ich weiß gerade nicht was du vergleichst. Vega wird ~500mm² groß, Fiji ist 596mm² groß.
Falls Vega konkurrenzfaehig zur Ti und gleich teuer ist kauft sie niemand? Die Fury X wurde auch gekauft, Ryzen wird auch gekauft. Verstehe den Punkt nicht.
Ist das dein ernst? Hast du schon mal die Verkaufszahlen von Fiji und GTX980TI verglichen? Mich würde es nicht wundern wenn Fiji für AMD reines Verlustgeschäft war. Das Ding verstaubte praktisch in den Regalen. Bei Vega kann man wenigstens noch außerhalb vom Desktop damit Geld verdienen. Hier sollte es also wesentlich besser für AMD aussehen.
Hoeher als was? Die MI6 ja wohl nicht, denn da sind es keine 3%. Und die MI8 taktet genauso hoch wie die Nano.
Er meint natürlich Fiji.
Linmoum
2017-03-13, 21:23:54
Hoeher als was? Die MI6 ja wohl nicht, denn da sind es keine 3%. Und die MI8 taktet genauso hoch wie die Nano.
Im Vergleich zur Fury X, um die ging's ja. ;)
Da legt schon Polaris eben jene (bis zu) ~20-28% mehr an Takt rauf und mit Vega wird in der Hinsicht noch mehr möglich sein. Wie viel genau, wird man dann sehen. Als Anhaltspunkt hat man bisher nur die MI25 und da wären wir mit 12.5 TFLOPS dann schon bei über 1500MHz.
crux2005
2017-03-13, 21:29:43
Hast recht, die <300W stehen da nicht ohne Grund. Es bedeutet, die Karte wird weniger als 300W verbrauchen. Das dürfte für die Consumervariante vermutlich ebenso gelten. :rolleyes:
Du glaubst nicht, das AMD so dumm ist und <300W schreibt wenn sie auch <250W hätten schreiben können. Ja, die Consumer VEGA wird auch "<300W" haben, aber Real sind dann eher <260W. Die MI-25 wird also um die 20-30W mehr Verbraten. Das limitiert die Consumer VEGA im Takt.
Wann hat mal die Desktop-Version einer Karte nicht mindestens so hoch getaktet wie die Servervariante? Mir fällt da spontan kein Beispiel ein. Dir etwa? ;)
G80. Die Quadro FX hatten 600 MHz und die 8800 Ultra hatte 612 MHz. 2% Unterschied.
Und WANN soll die MI-25 auf den Markt? Vor oder nach Consumer VEGA? Ehrliche Frage. Kann ja sein das sie für diese GPUs ein anderes Metal Spin benutzen. :freak:
EDIT: Dieses Beispiel Passt IMHO am besten zu VEGA:
Fiji: 850MHz als FirePro, 1,0GHz als RadeonPro (Desktop 1,05GHz)
Was ist das TDP der RadeonPro und wie nannte sich die Karte genau? Kann keine RadeonPro mit Fiji finden. Es sind nur noch Polaris RadeonPro's auf der AMD Seite gelistet.
Gipsel
2017-03-13, 21:36:22
Wann waren die Yields in jüngster Vergangenheit jemals so gut das man sich das leisten konnte ,den grössten Ausbau auch im Spielesektor für einen Apfel u n Ei zu verramschen?Bei AMD bisher noch immer. ;D
Die Server Variante sollte doch der Top Dog sein ,oder wie will man sich sonst GP100 entgegenstellen?Bei der Servervariante könnten die Kunden allergisch darauf reagieren, daß eine Karte, auf der 275W steht, im Peak dann 300W verbraucht. Im Desktop-Markt kümmert das kaum eine Sau, wenn da entsprechend Leistung rüberkommt. Außerdem will man da eventuell auch eine höhere Zuverlässigkeit im Profimarkt erreichen, wenn man mehrere tausend Euro pro Karte verlangt. Da ist es nur natürlich, das Ganze ein paar MHz und Millivolt zurückzufahren.
Nvidia ist nicht einmal bei dem kleineren GP102 an dem Punkt den Vollausbau in den Geforce Markt zu drücken, und hier erwartet man das gleich am Anfang der Vega Architektur...NV ist nicht AMD. Auch Tahiti, Hawaii, Fiji und auch Polaris 10 (auch wenn das ein kleinerer Chip ist) kamen immer direkt im Vollausbau auf den Desktop. Vielleicht sollte man das als Maßstab nehmen? ;)
Vega wird dagegen imho teurer als GP102.
Und wie kommst du zu dieser Annahme?
Ich gehe einfach davon aus. Der Chip wird wahrscheinlich groesser und der Speicher teurer sein.
Ich weiß gerade nicht was du vergleichst.
:confused:
Ja, die Verkaufszahlen sind mir durchaus bewusst. Trotzdem kann man nicht einfach nur billig verkaufen. Und selbst wenn, wuerden doch trotzdem viele weiterhin zu NV greifen.
Auf die Preisgestaltung bei Polaris hatte das ja wohl auch keinen Einfluss.
(auch) @Linmoum: Dass Polaris hoeher taktet als Fiji ist mir auch klar. Vega wird die 1,5 GHz schaffen, sonst haette man das mit der Instinct nicht raus gelassen. Darueber hinaus wuerde ich aber vorerst mal gar nichts erwarten. Ich dachte, das war mal wieder eine Aussage wie "Die Profi-Karten takten viel niedriger, also muss Consumer Vega deutlich ueber 1,5 GHz liegen". Aber in diesem Falle ja nicht, gut ;)
NV ist nicht AMD. Auch Tahiti, Hawaii, Fiji und auch Polaris 10 (auch wenn das ein kleinerer Chip ist) kamen immer direkt im Vollausbau auf den Desktop. Vielleicht sollte man das als Maßstab nehmen? ;)
Wenn auch mit weniger Speicher und eingeschraenkten Features (DP). Sind wir eigentlich sicher, dass Vega "nur" 2048b hat? Vier Stacks fuer die Pro oder Instinct voellig ausgeschlossen?
dargo
2017-03-13, 21:47:28
Trotzdem kann man nicht einfach nur billig verkaufen.
Ich finde solche Behauptungen immer recht amüsant ohne die Herstellungskosten zu kennen.
Und selbst wenn, wuerden doch trotzdem viele weiterhin zu NV greifen.
Du kannst mir gerne erklären wie man Marktanteile zurück erobern will wenn man bei gleicher Leistung den selben Preis verlangt. Besonders im Enthusiasten-Bereich.
Auf die Preisgestaltung bei Polaris hatte das ja wohl auch keinen Einfluss.
Selbst im Mainstream ist aktuell die günstigste GTX1060 6GB ca. 14% teurer als eine RX480 8GB obwohl letztere 2GB mehr Speicher hat. Bei Vega wird es eher 8GB vs. GTX1080TI 11GB stehen.
AffenJack
2017-03-13, 21:49:25
Da ich nicht verstehen kann, wieso einige immernoch glauben, dass Vega in der Nähe von der 1080 landen wird, hab ich kurz mal die hypotethischen Daten gerechnet und GP106 und P10 zum Vergleich eingefügt.
Durchschnittliche Taktraten von CB bei Refdesigns
Polaris bei 1200mhz
Gp106 bei 1848mhz
Vega bei 1500mhz (Mi6 und Mi8 sind leicht höher angegeben als die Refkarten real takten, deshalb keine 1525mhz) mit Fijikonfiguration
GP102 bei 1600mhz
480 1060 Dif Vega 1080TI Dif
TFlop 5,5 4,7 1,17 12,5 11,5 1,09
Bandbreite 256 192 1,33 512 484 1,06
Pixelfr 38,4 88,7 0,43 96 141 0,68
Texelfr 172,8 147 1,17 384 358 1,07
Die 480 und 1060 sind nun etwa gleich schnell bei großen Bandbreitenvorteilen für die 480 und großen Pixelfüllratenvorteil für GP106. Vega hat keinen großen RohBandbreitenvorteil mehr, aber das sollte durch Tiling nun gut funktionieren. Ansonsten sieht man an den Daten doch, dass Vega grob auf 1080Ti-10%-Niveau landen sollte, wenn die Architekturänderungen nur die Leistungsaufnahme verringern oder sich sogar ein Kopf an Kopf rennen liefern könnte. Von der 1080 wird man auf jeden Fall weit genug weg sein.
@Dargo
Du solltest die Preise von Ryzen nicht wirklich mit Vega vergleichen. Vega kostet das 3-4fache von Ryzen in der Produktion. Nur weil man Ryzen also für 500€ anbietet, muss das bei Vega nicht der Fall sein. Ich gehe nicht davon aus, dass AMD da auf einen Preiskampf setzen wird.
Edit:Wie macht man hier eigentlich Tabellen richtig? Bin zu blöde dafür
Gipsel
2017-03-13, 21:51:17
Du glaubst nicht, das AMD so dumm ist und <300W schreibt wenn sie auch <250W hätten schreiben können.Die hatten da gerade mal die ersten Chips zurück aus der Fab. Die wußten zu dem Zeitpunkt doch noch gar nicht genau, wieviel das Teil bei >=1,5GHz dann am Ende wirklich verbraucht. Sie waren sich aber sicher, daß sie das Produkt mit weniger als 300W TDP auf den Markt bringen werden. Das ist in dem Zusammenhang eher eine Formfaktorangabe als eine Angabe des realen Verbrauchs. Das sollte man langsam mal lernen.
Ja, die Consumer VEGA wird auch "<300W" haben, aber Real sind dann eher <260W. Die MI-25 wird also um die 20-30W mehr Verbraten. Das limitiert die Consumer VEGA im Takt.Blödsinn. Das weißt Du doch überhaupt nicht. Oft verbrauchen die Consumervarianten real bei gleichem Workload sogar mehr. Hängt vielleicht am oft leicht höheren Takt. ;)
G80. Die Quadro FX hatten 600 MHz und die 8800 Ultra hatte 612 MHz. 2% Unterschied.Wir sind hier in einem AMD-Thread. Und außerdem ist auch in Deinem Beispiel die Desktop-Variante irgendwie höher getaktet als die Quadro. Oder ist bei Dir 600MHz mehr als 612 MHz? :freak:
Und soll die MI-25 auf den Markt?Na klar soll sie das. Sonst wäre sie wohl nicht als Produkt angekündigt worden. :rolleyes:
Vor oder nach Consumer VEGA? Ehrliche Frage. Kann ja sein das sie für diese GPUs ein anderes Metal Spin benutzen. :freak:Typischerweise kommen die Profikarten wegen der aufwendigeren Validierung etwas später. Aber falls es bis dahin einen neuen Spin gibt, dann wird die Consumervariante den wohl auch bekommen (typischerweise wird nur ein neues Stepping aufgelegt, wenn das vorherige die Vorgaben nicht erfüllt, sprich vor der Markteinführung oder eine ganze Weile später, wenn es einen Refresh gibt; ich kennen keinen Fall bei AMD, wo Desktop- und Profi-Variante mit verschiedenen Steppings ausgeliefert wurden). Es lohnt sich kaum, zwei praktisch identische Designs parallel zu fertigen. Das verursacht nur unnötige Kosten.
===================================
edit:
Wenn auch mit weniger Speicher und eingeschraenkten Features (DP). Sind wir eigentlich sicher, dass Vega "nur" 2048b hat? Vier Stacks fuer die Pro oder Instinct voellig ausgeschlossen?Das hast Du immer. Wer hätte denn Eine R9-290/390 mit 32GB VRAM für den Desktopmarkt gekauft? Und ein wenig muß auch AMD sicherstellen, daß Leute mit hohen DP-Anforderungen (oder ECC-Bedarf) auch mehr Geld bezahlen.
Was die Breite des Speicherinterfaces angeht, bin ich recht sicher, daß da nur 2 Stacks verbaut werden können. Und AMD hat ja das auch wohl so gezeigt und angegeben (maximal 512GB/s Bandbreite). Damit ist man dann natürlich beschränkt, wird aber versuchen, daß über das HBCC-Feature zumindest teilweise auszugleichen (neben dem Suchen von Partnerschaften mit Speicherherstellern, um frühzeitig an 8GB-Stacks zu kommen).
Ich finde solche Behauptungen immer recht amüsant ohne die Herstellungskosten zu kennen.
Du kannst mir gerne erklären wie man Marktanteile zurück erobern will wenn man bei gleicher Leistung den selben Preis verlangt. Besonders im Enthusiasten-Bereich.
Selbst im Mainstream ist aktuell die günstigste GTX1060 6GB ca. 14% teurer als eine RX480 8GB obwohl letztere 2GB mehr Speicher hat. Bei Vega wird es eher 8GB vs. GTX1080TI 11GB stehen.
Warum argumentierst du dann dagegen, ebenfalls ohne die Kosten genau zu kennen?
Was weiss ich denn, was die denken. Vielleicht ist AMD mit ihrem Marktanteil zufrieden oder sie fertigen Vega bei GF und die haben ueberhaupt wenige Kapazitaeten mehr frei, neben SR, RR, Polaris.
Zumal es ohnehin nicht mehr viel zu holen gibt, wenn man so viel spaeter auf den Markt kommt.
Der MSRP der 1060 ist gerade mal 10$ (6 vs. 8 GiB) bzw. gar nicht (3 vs 4 GiB) hoeher. Bei 460 vs 1050 ist er bei beiden Varianten genau gleich. Die Fury X war genau gleich teuer wie die 980 Ti, trotz weniger Speicher. Du willst mir doch nicht erzaehlen, dass AMD staendig deutlich billiger verkauft? Polaris sollte die Generation werden, wo man massig Marktanteile sichern wollte und ein Scheiss ist es geworden, alles wie bisher. AMD geht die Preise mit, die die Konkurrenz vorgibt, das kommt ihnen doch gerade recht. Warum verkaufen sie wohl nicht Ryzen zum Preis des 7700k, sind schliesslich in etwa gleich gross? :ulol:
Unicous
2017-03-13, 22:04:19
Wait a minute?:confused:
Du stellst Behauptungen auf, die du nicht belegen kannst und dann kritisierst du denjenigen der dagegen argumentiert?
Fakt ist, ihr beide habt keine Ahnung wie es um die Kostenstruktur bei den Chips bestellt ist und fischt im Trüben.:wink:
Es ist also müßig ohne konkrete Anhaltspunkte darüber zu diskutieren, was teurer ist und warum das angeblich so wäre.
Nein, ich wundere mich nur.
Zumal "man kann nicht einfach billig verkaufen" jetzt in der Wirtschaft nicht unbedingt eine These ist, die einen Beweis verlangt.
Uebrigens habe ich auch immer ueberall deutlich gemacht, dass ich nichts weiss und es nur Annahmen sind, was aber auch sonst jedem voellig klar sein duerfte.
Aber manche (nicht unbedingt dargo, etwas Realitaetssinn traue ich dir schon noch zu ;p ) gehen einfach schon wieder davon aus, dass Vega das ueber-Schnappchen wird, was einfach Bloedsinn ist, imho
Das hast Du immer. Wer hätte denn Eine R9-290/390 mit 32GB VRAM für den Desktopmarkt gekauft? Und ein wenig muß auch AMD sicherstellen, daß Leute mit hohen DP-Anforderungen (oder ECC-Bedarf) auch mehr Geld bezahlen.
Das ist klar, war nur als Feststellung genannt und um auf die andere Sache ueberzuleiten ;)
Alles klar
crux2005
2017-03-13, 22:18:57
Blödsinn. Das weißt Du doch überhaupt nicht. Oft verbrauchen die Consumervarianten real bei gleichem Workload sogar mehr. Hängt vielleicht am oft leicht höheren Takt. ;)
Dann gib bitte harte Fakten. Stromverbrauch Messwerte von einer Radeon vs. RadeonPro.
Wir sind hier in einem AMD-Thread. Und außerdem ist auch in Deinem Beispiel die Desktop-Variante irgendwie höher getaktet als die Quadro. Oder ist bei Dir 600MHz mehr als 612 MHz? :freak:
Und die 8800 GTX hatte nur 575 MHz. Also weniger als die Quadro FX.
Ich gebe dir ja Prinzipiell recht. Die Taktraten sind sehr ähnlich bei Desktop vs. Profi Karten wenn sie Zeitgleich auf den Markt kommen. Deswegen die Frage wann die MI-25 kommt. Vor oder erst paar Monate nach Consumer VEGA.
Na klar soll sie das. Sonst wäre sie wohl nicht als Produkt angekündigt worden. :rolleyes:
Ein WANN vergessen. :rolleyes:
Typischerweise kommen die Profikarten wegen der aufwendigeren Validierung etwas später. Aber falls es bis dahin einen neuen Spin gibt, dann wird die Consumervariante den wohl auch bekommen (typischerweise wird nur ein neues Stepping aufgelegt, wenn das vorherige die Vorgaben nicht erfüllt, sprich vor der Markteinführung oder eine ganze Weile später, wenn es einen Refresh gibt; ich kennen keinen Fall bei AMD, wo Desktop- und Profi-Variante mit verschiedenen Steppings ausgeliefert wurden). Es lohnt sich kaum, zwei praktisch identische Designs parallel zu fertigen. Das verursacht nur unnötige Kosten.
OK.
Um nochmal auf das eigentliche zurückzugehen. Ich sehe und werde die 1,5-1,6 GHz für Consumer Vega nicht als Minimum ansehen. Eher als Ziel was AMD am Ende erreichen möchte. Man kennt den Realen Verbrauch von MI-25 weder VEGA nicht. Also ist es alles Spekulation. Ich bin nur weniger Optimistisch als du.
Und deswegen die ursprüngliche Frage. Wie hoch kann AMD VEGA takten damit das ~250W Powertarget nicht gesprengt wird. :P
=Floi=
2017-03-13, 22:45:20
die große fire pro könnte trotz der 300watt noch immer die bessere stromversorgung der kleinen fire pro haben und dann würde die raedeon auch mit 300 watt nimals hinkommen. das sollte man auch bedenken, dass AMD hier bei der fire pro eine wesentlich effizientere stromversorgung verbaut hat und das doch einiges ausmacht.
scully1234
2017-03-13, 22:46:39
Bei AMD bisher noch immer. ;D
Sagen da die Bilanzen nicht eher was anderes,hat man sich das also wirklich "leisten können" immer all In zu gehen,gegen kleinere Chips des Mitbewerbers?
NV ist nicht AMD
Das ist richtig was den Namen betrifft ,doch fertigen beide bei TSMC, und kochen beide mit Wasser.
Nur ist ein Wasserkocher wegen höheren R&D Anteil sogar etwas grösser..
Also würde ich da nicht unbedingt exzellente oder zumindestens bessere Yields mit einer völlig neuen Architektur erwarten, auch nicht vom anderen noch in Frage kommenden Auftragsfertiger GloFo
Woher also die Zuversicht ,das man auf zwei Hochzeiten gleichzeitig tanzen kann,mit der maximalen Ausbaustufe,und nicht wie jeder andere dabei zwangsläufig in Versorgungsengpässe rennt?
Wenn man die Server/Workstation Sparte verärgert ,könnte ich mir vorstellen, das die Partner dann mal kurz oder mittelfristig nicht mehr in Erwägung ziehen, Fire Pro den Quadros u Teslas vorzuziehen...
Daher dürften die Gamingkarten zu Gunsten der Serversparte ,mittelfristig eher teil deaktivierte Vegas sehen, so wie Nvidia das auch priorisiert (Workstation und Server first)
Es sei denn die Quantität der verkauften Karten im Einzelhandel wäre so gering ,das sich das aus geht, das wäre aber schon ein gefährliches Zocken, wenn man darauf bauen würde
basix
2017-03-13, 23:01:27
Ich würde mehr als 1.5GHz jetzt auch nicht unbedingt erwarten oder wenn dann höchstens was um 1.6GHz rum (sind ja dann auch nur +6%). Dennoch ergibt das doch bei 1.5GHz wenn man Fiji als Basis nimmt schon 1080 Ti -10...15% Niveau. Nimmt man jetzt noch zur Grundlage, dass Fiji doch relativ stark vom Frontend eingebremst wird und die Bandbreite nicht richtig nutzen kann etc. sehe ich keinen Grund, den grössten Vega Brocken nicht auf Höhe 1080 Ti zu sehen. Und das ohne grosse Optimierungen. Das Zeug mit HBCC und Draw Stream Binning Rasterizer kann ebenfalls noch was bringen (nimmt man Nvidia Maxwell vs. Kepler als Grundlage sinds evtl. +35%, klar dort hat es auch noch andere Änderungen gegeben). Ich persönlich sehe den grossen Vega eher sogar über einer 1080 Ti FE, ausser die IPC sollte sinken oder der Stromverbrauch geht durch die Decke. Custom vs. Custom entscheidet dann die Taktbarkeit, also Vega OC vs. 2.0GHz GP102.
PrivateCeralion
2017-03-13, 23:03:17
Zumal es ohnehin nicht mehr viel zu holen gibt, wenn man so viel spaeter auf den Markt kommt.
Warum soll es nicht mehr viel zu holen geben? Vega ist eine Komplett neue Architektur. In dem Trailer hat AMD ja schon angedeutet, dass die sich gut gegenüber Volta positioniert sehen.
Es ist einfach unmöglich einzuschätzen, wie schnell Vega wird. Klar, man könnte jetzt den Takt* Shadereinheiten*2 nehmen und kommt auf ungefähr 12,5 Tflops. Dann skaliert man Polaris hoch und glaubt man weiß, wo Vega stehen wird. ABER das Ergebnis sagt nur, was Polaris mit 4096 Shadereinheiten unter 1500mhz kann, man hat keine Information über Vega. Wir wissen nur, dass es besser wird. HBM, HBC, Infinity Fabric, Erfahrungen im 14nm Prozess, ...
Gipsel
2017-03-13, 23:25:39
Dann gib bitte harte Fakten. Stromverbrauch Messwerte von einer Radeon vs. RadeonPro.Das erübrigt sich wohl, wenn z.B. die Specs für die Profi-Version neben niedrigeren Taktraten auch niedrigere TDPs angeben, z.B 130W für die WX7100 mit Polaris10 Vollausbau und 1243MHz Boosttakt (http://www.amd.com/en-gb/products/graphics/workstation/firepro-3d/wx7100#) (Desktop ist mit 150W bei 1266MHz Boost spezifiziert, real eher 160+W) oder bei den Hawaiis (als FirePro W8100 8GB mit 220W Maximum [nicht typisch] angegeben, als FirePro S9150 16GB mit 235W Maximum und als S9170 32GB mit 275W Maximum, d.h. bei dem Verbrauch regeln die ab) die Desktopvariante als 390X mit 8GB bekanntermaßen bereits hart an den 300W unter Last kratzt (bzw. die auch mal reißt). Ich weiß gar nicht, was es da zu diskutieren gibt, daß die leicht niedriger getakteten Profi-Karten natürlich bei vergleichbarer Ausstattung auch weniger verbrauchen, zumal wie von =Floi= angemerkt, die Profivarianten tendentiell auch die besseren VRMs verbaut haben dürften.
Ein anderes Beispiel (was Du gerne als Gegenbeispiel interpretieren darfst, auch wenn es wohl eher nur aufzeigt, wie unterschiedlich strikt man sich an die TDPs hält) wäre die FirePro S10000 (Dual Tahiti), die in ihrer 375W TDP (die strikt eingehalten werden) mit lediglich 720MHz taktet, die Desktopversion offiziell auf die gleichen 375W gezügelt läuft aber mit 0,95/1,0GHz. Du glaubst doch wohl nicht, daß die S10000 bei gleicher Last das Gleiche zieht (ungezügelt als "GHz-Edition" zogen die 7970X2/7990 450-500W [das schrieben die Hersteller drauf]).
Und die 8800 GTX hatte nur 575 MHz. Also weniger als die Quadro FX.Das war aber nicht das G80-Topmodell. Irgendeine Salvage-Variante, die am Desktop niedriger taktet als das Profi-Topmodell gibt es vermutlich öfter mal.
Ich gebe dir ja Prinzipiell recht. Die Taktraten sind sehr ähnlich bei Desktop vs. Profi Karten wenn sie Zeitgleich auf den Markt kommen. Deswegen die Frage wann die MI-25 kommt. Vor oder erst paar Monate nach Consumer VEGA.Das dürfte praktisch keine Rolle spielen, da beide sehr sehr wahrscheinlich das gleiche Stepping haben werden.
Um nochmal auf das eigentliche zurückzugehen. Ich sehe und werde die 1,5-1,6 GHz für Consumer Vega nicht als Minimum ansehen. Eher als Ziel was AMD am Ende erreichen möchte. Man kennt den Realen Verbrauch von MI-25 weder VEGA nicht. Also ist es alles Spekulation. Ich bin nur weniger Optimistisch als du.1,5 GHz (12,25 TFlops/s FP32, 24,5 TFlop/s FP16) sind für die MI-25-Variante praktisch gesetzt, wenn AMD sich nicht komplett verschätzt hat. Ansonsten hätte man das nicht schon so angekündigt. Die Wahrscheinlichkeit, daß man da am Ende drunter landet, ist recht klein. Und traditionell taktet eben das Topmodell der Desktop-Variante minimal höher und legt dafür die TDP etwas weniger strikt aus.
Und deswegen die ursprüngliche Frage. Wie hoch kann AMD VEGA takten damit das ~250W Powertarget nicht gesprengt wird. :PAm Desktop >=1,5GHz, weil da die 250W "typical Board Power" traditionell auch mal gerne 275-300W bedeuten. ;)
Gipsel
2017-03-14, 00:04:10
Sagen da die Bilanzen nicht eher was anderes,hat man sich das also wirklich "leisten können" immer all In zu gehen,gegen kleinere Chips des Mitbewerbers?Was haben die Bilanzen damit zu tun? Fakt ist, bisher konnte man bei AMD immer Desktopkarten mit voll aktivierten Chips des jeweils größten verfügbaren Dies zum Markstart kaufen.
Das ist richtig was den Namen betrifft ,doch fertigen beide bei TSMCNö. AMD läßt die 14nm Chips bei GF fertigen.
Also würde ich da nicht unbedingt exzellente oder zumindestens bessere Yields mit einer völlig neuen Architektur erwarten, auch nicht vom anderen noch in Frage kommenden Auftragsfertiger GloFoBei GF fallen alle Polaris und alle Ryzen vom Band (die Vega-Samples natürlich auch). Die dürften schon wissen, was sie dem Prozeß inzwischen zutrauen können, die haben Erfahrung damit und inzwischen sehr umfangreiche Daten über Defektraten und so, mit denen sich die Yields sehr gut abschätzen lassen. ;)
Hübie
2017-03-14, 00:17:23
Mich wundert es bei AMD auch, um ehrlich zu sein. Höhere Packdichte und mehr ALUs, dennoch Verfügbarkeit von FuryX vom Fleck weg. GM200 war da problematischer. Mag am höher taktenden Design liegen.
Von Vega erwarte ich es auch einfach mal, da es bei AMD unüblich wäre mit einem teildeaktivierten Chip zu kommen. Wo ich weniger erwarte ist einfach die Performance. Da täusche ich mich aber liebend gerne. ;)
aufkrawall
2017-03-14, 00:27:54
Wenn die TDP nicht wirklich bei 250W festgenagelt wäre, wär das schon wieder wie bei Fiji mit extrem abweichenden Verbräuchen und kaum Spielraum für Customs.
Im Gegensatz zu GP102. Bei GK110 hatte z.B. Asus 300W-Karten mit abnorm hohem Boost bringen können, das könnte sich jetzt wiederholen. Das dürfte man auf AMD-Seite nicht anbieten können.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11319673&postcount=268
;)
Vega müsste schon extrem auf Taktrate optimiert sein, um > 1,5GHz zu schaffen. NV hatte mit Maxwell nur ca. 20% Erhöhung im gleichen Prozess geschafft, und GF ist wohl immer noch nicht so taktfreudig wie TSMC. Ist wirklich nicht pessimistisch, 1,5 nahe dem Maximum zu verorten. AMDs letzte beiden großen Chips waren zudem das Gegenteil von Taktwunder.
Hübie
2017-03-14, 01:02:25
Generell fahren deren Chips deutlich näher am Limit. Denk mal an GK110 der bei 836 MHz anfing und oft auch 1100+ mit machen konnte. GM200 ebenfalls. 1300 sind immer drin. 1400 sehr häufig (>70%). Bei AMD sind es vielleicht 10% mehr Takt die möglich sind. Bei NV oftmals 20%. Die hohe Packdichte und einiges an fehlendem know-how (Stichwort Tegra) macht sich halt bemerkbar.
crux2005
2017-03-14, 02:43:13
Das erübrigt sich wohl, wenn z.B. die Specs für die Profi-Version neben niedrigeren Taktraten auch niedrigere TDPs angeben, z.B 130W für die WX7100 mit Polaris10 Vollausbau und 1243MHz Boosttakt (http://www.amd.com/en-gb/products/graphics/workstation/firepro-3d/wx7100#) (Desktop ist mit 150W bei 1266MHz Boost spezifiziert, real eher 160+W) oder bei den Hawaiis (als FirePro W8100 8GB mit 220W Maximum [nicht typisch] angegeben, als FirePro S9150 16GB mit 235W Maximum und als S9170 32GB mit 275W Maximum, d.h. bei dem Verbrauch regeln die ab) die Desktopvariante als 390X mit 8GB bekanntermaßen bereits hart an den 300W unter Last kratzt (bzw. die auch mal reißt). Ich weiß gar nicht, was es da zu diskutieren gibt, daß die leicht niedriger getakteten Profi-Karten natürlich bei vergleichbarer Ausstattung auch weniger verbrauchen, zumal wie von =Floi= angemerkt, die Profivarianten tendentiell auch die besseren VRMs verbaut haben dürften.
Ein anderes Beispiel (was Du gerne als Gegenbeispiel interpretieren darfst, auch wenn es wohl eher nur aufzeigt, wie unterschiedlich strikt man sich an die TDPs hält) wäre die FirePro S10000 (Dual Tahiti), die in ihrer 375W TDP (die strikt eingehalten werden) mit lediglich 720MHz taktet, die Desktopversion offiziell auf die gleichen 375W gezügelt läuft aber mit 0,95/1,0GHz. Du glaubst doch wohl nicht, daß die S10000 bei gleicher Last das Gleiche zieht (ungezügelt als "GHz-Edition" zogen die 7970X2/7990 450-500W [das schrieben die Hersteller drauf]).
:confused:
Das ist doch kein Argument dafür das der Power Limit bei den RadeonPro eingehalten wird und bei den Radeon nicht.
Das war aber nicht das G80-Topmodell. Irgendeine Salvage-Variante, die am Desktop niedriger taktet als das Profi-Topmodell gibt es vermutlich öfter mal.
8800 GTX war Topmodell bei Release. Also kein "salvage-part". Erst AFAIK 5 Monate später kam die Ultra. Und der unterschied war nur in der Frequenz (und Kühler). Aber das ist OT.
Das dürfte praktisch keine Rolle spielen, da beide sehr sehr wahrscheinlich das gleiche Stepping haben werden.
1,5 GHz (12,25 TFlops/s FP32, 24,5 TFlop/s FP16) sind für die MI-25-Variante praktisch gesetzt, wenn AMD sich nicht komplett verschätzt hat.Ansonsten hätte man das nicht schon so angekündigt. Die Wahrscheinlichkeit, daß man da am Ende drunter landet, ist recht klein. Und traditionell taktet eben das Topmodell der Desktop-Variante minimal höher und legt dafür die TDP etwas weniger strikt aus.
Am Desktop >=1,5GHz, weil da die 250W "typical Board Power" traditionell auch mal gerne 275-300W bedeuten. ;)
Und wozu die ganze Diskussion wenn wir der gleiche Meinung sind das AMD beim Desktop Vega Topdog 1,5 GHz Frequenz als Ziel hat/haben kann. Wie hoch die Karten wirklich taktet ist eine andere Frage.
Gipsel
2017-03-14, 04:49:36
:confused:
Das ist doch kein Argument dafür das der Power Limit bei den RadeonPro eingehalten wird und bei den Radeon nicht.Das nennt sich Realität. In der ist das wohl so. ;)
Im Übrigen ging es darum, daß Du nicht geglaubt hast, daß die Desktopversionen praktisch immer mit mindestens so viel bzw. auch etwas mehr Takt kommen als die Profivarianten (Du wolltest es bei Vega andersrum haben: Desktop niedriger getaktet als MI25). Dies war aber in Vergangenheit und Gegenwart ganz evident der Fall.
8800 GTX war Topmodell bei Release. Also kein "salvage-part". Erst AFAIK 5 Monate später kam die Ultra. Und der unterschied war nur in der Frequenz (und Kühler). Aber das ist OT.Ja, das stimmt mit dem OT. Die Quadro kam nebenbei bemerkt auch 4 Monate nach der GTX und hatte übrigens einen identischen Shadertakt zur GTX (die Ultra hatte zwar nur 12MHz mehr Chiptakt, aber satte 150MHz mehr Shadertakt).
Und wozu die ganze Diskussion wenn wir der gleiche Meinung sind das AMD beim Desktop Vega Topdog 1,5 GHz Frequenz als Ziel hat/haben kann. Wie hoch die Karten wirklich taktet ist eine andere Frage.Weil Du geschrieben hast, daß Du nicht davon ausgehst, daß der Vega Topdog mit >=1,5GHz kommen wird. Das ist aber nicht konsistent mit AMDs Ankündigungen in Verbindung mit der Historie. Alle Wahrscheinlichkeit sagt also >=1.5GHz. Und so ist ein Minimum definiert. Es müßte wie gesagt schon was mächtig schieflaufen, damit das weniger wird. Das ist die neutrale Einschätzung, keine optimistische.
Man muß also bei einer Performanceabschätzung eben von diesem Wert von wahrscheinlich mindestens 1,5 GHz für das Desktopmodell ausgehen, was eben schon +43% zur FuryX darstellt, vor weiteren Effizienzsteigerungen.
Der Vergleich bei der TDP bei der MI25 koennte hinken, wenn das teil flash speicher mit auf dem board hat.
Gipsel
2017-03-14, 06:01:06
Der Vergleich bei der TDP bei der MI25 koennte hinken, wenn das teil flash speicher mit auf dem board hat.Nö, hat es nicht. Zumindest nicht standardmäßig.
M4xw0lf
2017-03-14, 07:35:01
Generell fahren deren Chips deutlich näher am Limit. Denk mal an GK110 der bei 836 MHz anfing und oft auch 1100+ mit machen konnte. GM200 ebenfalls. 1300 sind immer drin. 1400 sehr häufig (>70%). Bei AMD sind es vielleicht 10% mehr Takt die möglich sind. Bei NV oftmals 20%. Die hohe Packdichte und einiges an fehlendem know-how (Stichwort Tegra) macht sich halt bemerkbar.
Die HD 7950 kam mit 800 MHz und ging bisweilen auf 1,2 GHz. "Generell" heißt hier also höchstens "in der jüngsten Vergangenheit".
Hübie
2017-03-14, 08:04:05
Das ist ein cut down der vielleicht aus Gründen der Produktdifferenzierung so taktet. ;) Tahiti wurde anfangs mit 925 dann mit 1000 MHz verkauft und beworben. Gut sind hier immer noch 20%, aber auch aaaaaaalt. :P
dargo
2017-03-14, 08:21:40
@Dargo
Du solltest die Preise von Ryzen nicht wirklich mit Vega vergleichen. Vega kostet das 3-4fache von Ryzen in der Produktion. Nur weil man Ryzen also für 500€ anbietet, muss das bei Vega nicht der Fall sein.
Ich habe keine Ahnung wie du darauf kommst ich würde mich am Preis von Ryzen für Vega orientieren. :confused:
Die Fury X war genau gleich teuer wie die 980 Ti, trotz weniger Speicher.
Genau... und die Folgen haben wir alle gesehen. Das Ding lag in den Regalen wie Blei. Was lernen wir also daraus?
Polaris sollte die Generation werden, wo man massig Marktanteile sichern wollte und ein Scheiss ist es geworden, alles wie bisher.
Nicht wirklich. Vor Polaris hatte die GTX970 den Gegenpart bei AMD bei den Verkaufszahlen komplett überfahren. Wenn mich nicht alles täuscht kamen auf eine 290/390 sieben GTX970. Jetzt sieht es eher so aus, dass auf eine RX480 8GB zwei GTX1060 6GB kommen. Bei Steam heißt es aktuell, dass auf jede RX480 vier GTX1060 kommen. Allerdings glaube ich hier, dass in der Rechnung auch die 1060-er mit 3GB und 480-er mit 4GB drin sind.
AMD geht die Preise mit, die die Konkurrenz vorgibt, das kommt ihnen doch gerade recht. Warum verkaufen sie wohl nicht Ryzen zum Preis des 7700k, sind schliesslich in etwa gleich gross? :ulol:
Wie bitte?
fondness
2017-03-14, 08:51:52
Vega müsste schon extrem auf Taktrate optimiert sein, um > 1,5GHz zu schaffen.
Seltsame Aussage, wo die Servervariante defacto bestätigt mit 1525Mhz taktet. Man wird sehen, was das Ding bringt, was es jedenfalls braucht, ist wieder eine Alternative zu NV in höheren Preisgefilden. Aber ja, gerade die GPU-Abteilung wurde bei AMD leider schon stark gerupft. Wenn gleichzeitig NV immer stärker aufrüstet kann das natürlich nicht auf Dauer gut gehen. Dazu kommt noch, dass sehr viele Leute gleich direkt zu NV gewechselt sind. Das Problem sehe ich dabei gar nicht so sehr bei Vega10, der wird schon mehr oder weniger gut mithalten können. Das Problem ist was nach Veag10 kommt, das dürfte nämlich bis 2019 nicht viel sein. Man kann nur hoffen dass Zen wieder Geld in die Kasse spült und die RnD-Ausgaben wieder deutlich erhöht werden können, womit eh schon begonnen wurde.
AffenJack
2017-03-14, 09:19:23
Ich habe keine Ahnung wie du darauf kommst ich würde mich am Preis von Ryzen für Vega orientieren. :confused:
Du hast den Ryzen Thread hier reingebracht und die 499$ von diesem.
@fondness
Kommt drauf an wie Vega jetzt einschlägt. Es ist schade, dass man Polaris nicht refreshen kann, aber ansonsten seh ichs jetzt nicht so als Beinbruch an, wenn man sich auf 7nm konzentriert. Polaris hält sich ja ganz gut gegen GP106, außer im Notebookbereich. Wenn Vega das gleiche im High-End erreichen sollte, dann kann man auch ne Zeit lang gegen Volta klar kommen.
dargo
2017-03-14, 09:27:52
Du hast den Ryzen Thread hier reingebracht und die 499$ von diesem.
Dann hattest du mich wohl falsch verstanden. Den Vergleich zu Ryzen hatte ich nur gebracht weil im Speku-Thread zu Ryzen damals mir auch viele nicht glauben wollten, dass der Top Dog für 500$ kommt. Da kam auch immer das Argument warum AMD Ryzen verschleudern sollte wenn Intel das doppelte verlangt. Das soll jetzt natürlich nicht heißen Vega kommt für 400€. ;) Ich tippe mal blind auf 599-649$ (ohne Deppenaufschlag) für den Top Dog am Anfang.
Screemer
2017-03-14, 09:29:14
es ging ihm nur ums einpreisen der produkte und was andere erwartet haben. da gabs genau so rufe, dass amd nicht zu verschenken hätte und die preise dem entsprechend knapp unterhalb von intel ansiedeln wird. knapp waren in dem fall dann -50%.
€dit: zu spät.
[MK2]Mythos
2017-03-14, 10:02:15
Der gravierende Unterschied ist aber, dass Ryzen für AMD deutlich billiger zu produzieren ist als die Konkurrenz von Intel.
Bei Vega ist das nicht so, Vega wird allem Anschein nach deutlich teurer für AMD als Pascal für Nvidia. Daher sollte man nicht erwarten dass AMD hier ähnlich günstiger als die Konkurrenz wird.
fondness
2017-03-14, 10:09:27
Die Margen im CPU-Bereich sind ohnehin pervers, die erreicht man im GPU-Bereich natürlich nicht keine Frage. Ansonsten sollte man die Fertigungskosten auch nicht überschätzen. Wenn V10 mit GP102 mithalten kann, wird man hier auch auf ähnliche Fertigungskosten wie NV kommen. Okay der HBM wird vielleicht etwas teurer, aber das sind ja diesmal auch nur noch 2 Stacks und ein kleineres Interface.
dargo
2017-03-14, 10:10:15
Mythos;11319839']Der gravierende Unterschied ist aber, dass Ryzen für AMD deutlich billiger zu produzieren ist als die Konkurrenz von Intel.
Bei Vega ist das nicht so, Vega wird allem Anschein nach deutlich teurer für AMD als Pascal für Nvidia. Daher sollte man nicht erwarten dass AMD hier ähnlich günstiger als die Konkurrenz wird.
Welcher Pascal? GP102? Das ist ne reine Gaming GPU. Im Gegensatz zu Vega.
Okay der HBM wird vielleicht etwas teurer, aber das sind ja diesmal auch nur noch 2 Stacks und ein kleineres Interface.
Mich würden ohnehin die Kosten von 8GB HBM2 @2 Stacks vs. 11GB 11Gbps GDDR5X interessieren. Leider weiß man hier nichts.
Sunrise
2017-03-14, 10:38:28
Mich würden ohnehin die Kosten von 8GB HBM2 @2 Stacks vs. 11GB 11Gbps GDDR5X interessieren. Leider weiß man hier nichts.
Generell sind solche Preisdiskussionen schwierig, da man auch nicht weiß, wie teuer TSMC relativ zu GF ist. Allerdings wurde bisher quasi immer davon gesprochen, dass TSMC auch aufgrund der sehr aggressiven Politik und der sehr guten Prozesse sehr teuer ist, zumindest nach Intel.
AMD wird das preislich ganz gut im Griff haben, HBM2 ist ja jetzt auch nichtmehr in dem Status, als es am Anfang war und es gibt zumindest schonmal zwei Fertiger.
Was AMD aber nicht so kurzfristig abfangen kann, ist das enorme R&D-Budget von NV. AMD muss relativ zügig auf 7nm und Navi gehen, dazwischen (wie ja von den üblichen Verdächtigen spekuliert worden ist) wäre nochmal Platz für einen Refresh.
Dass Vega aber sehr konkurrenzfähig wird, sollte klar sein.
BoMbY
2017-03-14, 11:06:40
Man muß also bei einer Performanceabschätzung eben von diesem Wert von wahrscheinlich mindestens 1,5 GHz für das Desktopmodell ausgehen, was eben schon +43% zur FuryX darstellt, vor weiteren Effizienzsteigerungen.
Exakt. Es müsste schon mit dem Teufel zugehen, wenn die RX Vega nicht wenigstens bei der Performance von 150-200% einer Fury X landet. Und mit 150% sind wir ganz grob bei einer 1080 Ti mit Standardtakt (je nach Benchmark natürlich).
aufkrawall
2017-03-14, 11:47:13
Seltsame Aussage, wo die Servervariante defacto bestätigt mit 1525Mhz taktet.
Mit FF muss der Unterschied zu Consumer nicht mehr so groß sein, wenn er technisch arg unsinnig wäre.
Und den Verbrauch nicht vergessen.
Nö, hat es nicht. Zumindest nicht standardmäßig.
Hm, ok, dann zeichnet sich bei Vega10 das ab, was wir von AMD ja schon länger kennen, konkurrenzfähige Leistung bei mehr Verlustleistung.
Hübie
2017-03-14, 14:36:15
Exakt. Es müsste schon mit dem Teufel zugehen, wenn die RX Vega nicht wenigstens bei der Performance von 150-200% einer Fury X landet. Und mit 150% sind wir ganz grob bei einer 1080 Ti mit Standardtakt (je nach Benchmark natürlich).
Bisher sah man nur 1080 non-Ti-Leistung. Ich fress n Besen, wenn Vega die 1080 Ti erreicht oder überholt. Damit meine ich keine Randbedingungen. ;) Dann kommt so ein Teil sofort in die Kiste.
Gipsel
2017-03-14, 14:39:51
Hm, ok, dann zeichnet sich bei Vega10 das ab, was wir von AMD ja schon länger kennen, konkurrenzfähige Leistung bei mehr Verlustleistung.Du kennst weder die Leistung, noch die Verlustleistung. :rolleyes:
Hübie
2017-03-14, 15:10:26
Ich denke er projiziert vergangene Erfahrungen. Apple's A9X lief ja trotz identischem Design auf dem GF-Prozess marginal schlechter. P10 ist für 14-nm ebenso ein 'Schluckspecht' (*übertreib*) wenn man die Leistung dagegen hält (wobei es hier Spielraum zu geben scheint, aber man hört nichts weiter).
Da würd ich jetzt erst mal kein Fass von auf machen. Einige 1080 kommen auch mit 6- und 8-Pin daher, ohne sofort das Power-Budget zu sprengen.
crux2005
2017-03-14, 15:37:43
Das nennt sich Realität. In der ist das wohl so. ;)
[...]
Weil Du geschrieben hast, daß Du nicht davon ausgehst, daß der Vega Topdog mit >=1,5GHz kommen wird. Das ist aber nicht konsistent mit AMDs Ankündigungen in Verbindung mit der Historie. Alle Wahrscheinlichkeit sagt also >=1.5GHz. Und so ist ein Minimum definiert. Es müßte wie gesagt schon was mächtig schieflaufen, damit das weniger wird. Das ist die neutrale Einschätzung, keine optimistische.
Man muß also bei einer Performanceabschätzung eben von diesem Wert von wahrscheinlich mindestens 1,5 GHz für das Desktopmodell ausgehen, was eben schon +43% zur FuryX darstellt, vor weiteren Effizienzsteigerungen.
Du legst einem Sachen in den Mund oder interpretierst dir etwas zusammen was ich so nicht geschrieben habe.
Und die Realität ist, das AMD noch am VEGA arbeiten muss, damit deine Optimistische Vorstellung auch Realität wird. Sonst hätten wir schon heute diesen VEGA mit ">1,5 GHz" auf den Markt. :P
Linmoum
2017-03-14, 15:43:26
Diese Realität ist auch nur deine Vermutung.
Ohne entsprechenden HBM gibt's kein Vega und insofern bezweifle ich, dass ein Release schon möglich gewesen wäre.
Dino-Fossil
2017-03-14, 15:49:35
P10 ist für 14-nm ebenso ein 'Schluckspecht' (*übertreib*) wenn man die Leistung dagegen hält (wobei es hier Spielraum zu geben scheint, aber man hört nichts weiter).
Das P10 mehr verbraucht als nVidia's Chips in dem Segment dürfte v.a. am Chipdesign liegen, weniger am Prozess.
NVidia hat ja v.a. mit Maxwell einen gewaltigen Sprung auf dem damals gleichen Prozess gemacht, der bei AMD bisher ausblieb.
Wobei P10 auch @Stock schon an der oberen Grenze des sinnvollen betrieben wird. Ein wenig undervolting und weniger als 1200MHz Takt und man kann schon einiges sparen.
Allerdings gibt es ja Hinweise, dass Vega ein paar ähnliche technologische Ansätze wie Maxwell und Nachfolger beinhalten dürfte, es bleibt also spannend...
Gipsel
2017-03-14, 16:01:11
Du legst einem Sachen in den Mund oder interpretierst dir etwas zusammen was ich so nicht geschrieben habe.
Ich lege Dir gar nichts in den Mund:
Dank Architekturverbesserungen und höhere Frequenz sollten mindestens 30-40% mehr Leistung zur Fury X drin sein.
Ähm, der Takt alleine (wenn man die MI-25-Servervariante mit 1525MHz als Minimum annimmt) bringt Dir zur FuryX +45% (die 4GB könnten die Fury in 4 K bei den Benchmarks schon ab und zu etwas ausbremsen, das sind also vermutlich mit 8GB schon mal locker +50% ohne jegliche Verbesserungen an der Architektur). Die diversen Effizienzsteigerungen sollten eigentlich dann noch obendrauf kommen.Ich habe aber die 1,5 GHz nicht als Minimum genommen.Im Klartext, Du gingst da für Desktop-Vega von <1,5 GHz aus. Ansonsten ergibt das nämlich Alles keinen Sinn.
Und die Realität ist, das AMD noch am VEGA arbeiten muss, damit deine Optimistische Vorstellung auch Realität wird. Sonst hätten wir schon heute diesen VEGA mit ">1,5 GHz" auf den Markt. :PUnd dabei habe ich extra dargelegt, daß die >=1,5GHz die realistische Einschätzung des wahrscheinlichen Taktes darstellt, nicht die optimistische. Hast Du wohl überlesen.
Mit welchen Frequenzen genau Vega bei AMD im Labor läuft, weiß keiner von uns. Aber offenbar war es schon im Dezember hoch genug, daß man sich hingestellt hat und 25 TFlop/s FP16 für das MI25-Modell anzukündigen (wenn man maximale Rundung annimmt, dann mindestens 24,5 TFlop/s und damit 1,5 GHz). Das ist auch in unserer Realität passiert.
Und das wir ansonsten heute schon Vega auf dem Markt hätten, ist ja wohl überhaupt kein Argument sondern ziemlich hanebüchen. Validierung und Bugfixing (Treiber bzw. auch neues Stepping) sollte Dir was sagen, oder? Von CPUs geistern Samples manchmal bald ein Jahr vor dem Marktstart durch die Gegend (wo die Hersteller auch bereits recht genaue Performance- und Taktvorstellungen haben, die sie meist auch treffen).
Ich denke er projiziert vergangene Erfahrungen. Apple's A9X lief ja trotz identischem Design auf dem GF-Prozess marginal schlechter. P10 ist für 14-nm ebenso ein 'Schluckspecht' (*übertreib*) wenn man die Leistung dagegen hält (wobei es hier Spielraum zu geben scheint, aber man hört nichts weiter).
Da würd ich jetzt erst mal kein Fass von auf machen. Einige 1080 kommen auch mit 6- und 8-Pin daher, ohne sofort das Power-Budget zu sprengen.
Na ja, V10 dürfte sicherlich dank TCR die Leistung der 1080Ti (mindestens) erreichen, hat ja auch mehr Rechenleistung als diese und mehr Speicherbandbreite, ich denke, darauf kann man sich einlassen. Jedoch ist Vega auch u.U. "schwerer" beladen als GP102 und kommt in 14LPP - das kann schon ein paar W ausmachen und den Vorteil von HBM auffressen. Aber das ist echt sehr spekulativ.
Auf der Folie steht übrigens explizit < 300W bei der MI25, das kann man auch einfach so dahingeschrieben haben, damit man nicht zu viel vorab verrät.
Hübie
2017-03-14, 16:51:27
Warten wir es doch einfach ab. ;)
Das werden 2 Gummibandmonate :D.
Hübie
2017-03-14, 17:13:34
Ja wem sagst du das. Für mich kommt Vega aber nun schon zu spät. Hab G-Sync und bleibe bei NV (wird wohl bald wieder ne Ti fällig :D).
Ailuros
2017-03-14, 17:16:54
Du kennst weder die Leistung, noch die Verlustleistung. :rolleyes:
Wir wissen aber was AMD ca. 1/2 Jahr vor dem launch erwartete:
http://users.otenet.gr/~ailuros/vega.jpg
12 TFLOPs@225W TDP
Das werden 2 Gummibandmonate :D.
Noch schlimmer evtl. Warten bis gescheite customs raus kommen. Hoffentlich kommt keine Wasser piepende Pumpe.
Ailuros
2017-03-14, 17:22:37
Noch schlimmer evtl. Warten bis gescheite customs raus kommen. Hoffentlich kommt keine Wasser piepende Pumpe.
Fuer die mGPU in H2 vielleicht schon.
vinacis_vivids
2017-03-14, 17:22:49
Es kommt drauf an wie dicht man die DIE mit Transistoren bepacken kann und was für eine Effizienz dabei heraus kommt. Ja Effizienz und Ausbeute ist für AMD wichtiger als die Gamer fps-Leistungskrone im singel GPU Bereich, da Vega ja als skalierbares Systembestandteil betrachtet wird.
AMD Polaris 10:
5,7Mrd bei 232mm² ~ 24,57Mio/mm²
AMD Fiji 28nm
8,9Mrd bei 596mm² ~ 14,93Mio/mm²
Nvidia Pascal P100:
15,3Mrd bei 610mm² ~ 25,1 Mio/mm²
Nvidia Pascal P104:
7,2Mrd bei 314mm² ~ 23Mio/mm²
AMD Vega Glaskugel:
Variante 1: Verdopplung der Fiji Transistoren für Vega groß
bis 18Mrd -> bis 500mm² ~ 36Mio/mm²
die 18Mrd kommen von der Verdopplung der Fiji (8,9Mrd)
Pro Duo ~16tflops ist bei skalierung von CF im Mittel +50-70%
16flops der Pro Duo bei 30% CF-Verlustleistung ~ 11,2tflops effektiv.
Diese Leistung dürfte Vega alleine mit 12,5tflops erreichen und auch überbieten können.
Mit etwas mehr Taktraten, die deutlich über Polaris@1100-1300Mhz liegen spricht 1400-1800Mhz sind schon bis zu 14,7tflops möglich. Das ergibt einen ordentlichen boost schon rein von der Rohleistung her.
Pascal ist mit 1700Mhz auch schon bei 12,1tflops und an der Kotzgrenze 1900Mhz bei 13,6tflops.
Ailuros
2017-03-14, 17:28:45
AMD Vega Glaskugel:
Variante 1: Verdopplung der Fiji Transistoren für Vega groß
bis 18Mrd -> bis 500mm² ~ 45Mio/mm²
die 18Mrd kommen von der Verdopplung der Fiji (8,9Mrd)
18 Mrd. bei 500mm2 entsprechen 36Mio/mm2 und nein so eine Steigerung ist eben NICHT auf 14FF moeglich. Fuer 16FF+ TSMC hat momentan GP102 mit ~25.5Mio/mm2 die hoechste Packdichte. Es koennte sein dass sie vielleicht irgendwo um die 28Mio erreicht haben aber fuer mehr sieht es verdammt grau aus. V10 ist uebrigens laut Raja selber unter 500mm2 gross.
Pro Duo ~16tflops ist bei skalierung von CF im Mittel +50-70%
16flops der Pro Duo bei 30% CF-Verlustleistung ~ 11,2tflops effektiv.
Diese Leistung dürfte Vega alleine mit 12,5tflops erreichen und auch überbieten können.
Mit etwas mehr Taktraten, die deutlich über Polaris@1100-1300Mhz liegen spricht 1400-1800Mhz sind schon bis zu 14,7tflops möglich. Das ergibt einen ordentlichen boost schon rein von der Rohleistung her.
Pascal ist mit 1700Mhz auch schon bei 12,1tflops und an der Kotzgrenze 1900Mhz bei 13,6tflops.
Pascal ist eine andere Architektur und ueberhaupt nicht vergleichbar was die Frequenzen betrifft und ebenso Polaris. Nachdem Du wohl mit async auf die Nase gefallen bist, sind jetzt frei erfundene extravagante Frequenzen an der Reihe?
Um es mal auf eine Basis zu bringen: nach AMD's Erwartungen ist fuer H2 (einige Monate spaeter nach dem ersten Vega 10 launch) eine mGPU davon geplant. Fuer eine mGPU mit einem power target von 300W TDP ist der TDP von 225W einer einzelnen V10 ziemlich gut angelegt. Wuerde single V10 eine 1080Ti deutlich ueberholen, koennte sich AMD den Spass mit der mGPU von Anfang an sparen denn IMHO ist die 1080Ti tatsaechlich am Rand des (logisch) moeglichen. Wobei ich nebenbei ernsthaft hoffen will dass AMD's Vorstellung einer mGPU diesmal um einiges besser sein wird als beim letzten Versuch.
vinacis_vivids
2017-03-14, 17:39:09
18 Mrd. bei 500mm2 entsprechen 36Mio/mm2 und nein so eine Steigerung ist eben NICHT auf 14FF moeglich.
Pascal ist eine andere Architektur und ueberhaupt nicht vergleichbar was die Frequenzen betrifft und ebenso Polaris. Nachdem Du wohl mit async auf die Nase gefallen bist, sind jetzt frei erfundene extravagante Frequenzen an der Reihe?
Die Taktraten von 1500Mhz für Vega sind Spekulation auf Grundlage der 12,5tflops, die schon lange benannt wurden.
Und natürlich vergleicht man Architekturen auf Gemeinsamkeiten und Unterschiede. Soll ich etwa Vega mit Vega vergleichen?
Zumal der Bezug zur Fury und Polaris dargestellt ist.
Wo bin ich denn mit async auf die Nase gefallen? Das gehört nach wie vor zum Schlüsselkonzept beim AMD.
fondness
2017-03-14, 17:43:21
12 TFLOPs@225W TDP
Was ja schon mal nicht so schlecht wäre.
Ailuros
2017-03-14, 17:48:35
Was ja schon mal nicht so schlecht wäre.
Das slide kam wohl nach dem "design done" Stadium. Alle Frequenz-relevanten Sicherheitsmassnahmen der foundry entfernt wissen IHVs schon in etwa schon zu dem Zeitpunkt wo ihre Zielfrequenz liegt. Geht jetzt bei der finalen Massenproduktion alles nach Plan koennen sie vielleicht nochmal um die 50MHz draufstecken. 12 TFLOPs entsprechen irgendwo um die 1465MHz, ergo haben wir momentan gute Indizien dass alles nach Plan laeuft bis jetzt.
Ailuros
2017-03-14, 17:54:58
Die Taktraten von 1500Mhz für Vega sind Spekulation auf Grundlage der 12,5tflops, die schon lange benannt wurden.
MI25 ist eine einfache Rechenschleuder mit passiver Kuehlung und einem <300W TDP.
Zwischen 1500 und 1800MHz einer desktop SKU gibt es wohl einen ziemlichen Unterschied. AMD selber redet in einem slide (siehe vorigen Post) von 12 TFLOPs@225W welches ~1465MHz (boost) entspricht. Den TDP fuer 1800MHz bzw. +20% mehr Takt kann ich mir schwer vorstellen.
Eine EVGA GTX1080 hat mit 1733 boost einen TDP von 180W. Bei 1860MHz ist der TDP bei 215W. Fuer 7% mehr Takt, 20% mehr Verbrauch.
Und natürlich vergleicht man Architekturen auf Gemeinsamkeiten und Unterschiede.
Ja aber nicht auf steriler Frequenz-basis ohne eine Menge anderer Faktoren zu beruecksichtigen. Pascal schafft so extravagante Frequenzen weil NV auch einen Haufen resources gewidmet quasi zwischen den Transistoren zu polstern und solche teure Turnereien sind Architektur-bedingt.
Soll ich etwa Vega mit Vega vergleichen?
Wenn es zu sterilen Frequenzen kommt macht es mehr Sinn.
Zumal der Bezug zur Fury und Polaris dargestellt ist.
Vega ist eine andere Architektur.
Wo bin ich denn mit async auf die Nase gefallen? Das gehört nach wie vor zum Schlüsselkonzept beim AMD.
Mit dem Prozenten des Leistungsunterschieds unter vielen anderen Punkten. Nichts fuer Ungut aber async compute macht auf Radeons im besten Fall ein einstelliges Prozentual (je nach Fall) Unterschied aus und nicht die ~30% die Du Gott weiss woher hattest, GPUs werden nicht so leicht ploetzlich mit =/>20% uebertaktet ohne dass der Stromverbrauch aus der Decke haut (1800MHz/14.7 TFLOPs auf Vega) und es werden weder 45 noch 36Mio/mm2 Packdichte fuer Vega auf 14FF sein.
aceCrasher
2017-03-14, 18:38:25
Eine EVGA GTX1080 hat mit 1733 boost einen TDP von 180W. Bei 1860MHz ist der TDP bei 215W. Fuer 7% mehr Takt, 20% mehr Verbrauch.
So ganz kommt das nicht hin, ich hab die 215W FTW Version selbst und die stößt Stock nicht an ihr Power limit, während die 180W SC laut PCGH stock definitiv bereits drosselt. Die 215W Version braucht ihre 215W nicht und die 180W bräuchte eig mehr, an diesem Punkt skaliert Takt/Verbrauch noch einigermaßen linear.
BoMbY
2017-03-14, 18:46:13
Die MI25 ist immer noch semi-passiv gekühlt ... keine der bisherigen semi-passiven Karten erreicht die gleiche Leistung wie die Gaming-Karten.
Vergleich bei Dual Fiji:
Fury Pro Duo: 16,4 TFLOPS; 350W; 1000 MHz
FirePro S9300 X2: 13.9 TFLOPs; 300W; 850 MHz
Felixxz2
2017-03-14, 19:05:53
Verstehe die Diskussion nicht ganz. 12 TFLOPs bei knapp 1,5 Ghz @ 225W sind sicher. Also wird die Desktooversion mit 250W TDP und leicht höherer Frequenz kommen, vielleicht 1,6 Ghz.
Die eigentliche Frage ist doch wie stark die Leistung/FLOP gestiegen ist. Zumindest an Bandbreite sollte es mit Tiling und HBM wohl nicht mangeln.
Fest steht auch, dass man bei 12 TFLOPs auf jeden Fall schneller als ne 1080 ist, rein von Fiji hochgerechnet.
Ailuros
2017-03-14, 19:20:53
So ganz kommt das nicht hin, ich hab die 215W FTW Version selbst und die stößt Stock nicht an ihr Power limit, während die 180W SC laut PCGH stock definitiv bereits drosselt. Die 215W Version braucht ihre 215W nicht und die 180W bräuchte eig mehr, an diesem Punkt skaliert Takt/Verbrauch noch einigermaßen linear.
Verbrauch skaliert nie linear zum Takt in solchen Faellen. Sonst hab ich deutlich TDP erwaehnt.
TheGood
2017-03-14, 19:23:33
Ich sehe den Takt auch zwischen 1500 und 1600 MHZ. Das sollte doch anhand der Darstellungen von AMD gut sehen. Die Frage ist, wie effizient das ganze bei 1600 mhz sein wird/kann. Die ganze Diskussion, dass die Graka keine 1500 MHZ erreichen soll erscheint mir an den Haaren herbeigezogen zu sein.
Die Frage ist wohl eher ist das der Boosttakt oder der Normaltakt...
Am Ende ist das auch wurscht, ich hoffe AMD mach diesesmal ein gescheites LIneup und released die Grafikkarten in einer guten Art und Weise. Am besten direkt eine Vega Nano und eine Vega. Später dann noch eine Vega X, welche sich um die Performancekrone streitet und ggf der Stromverbrauch nach oben ausbrechen darf.
Wenn sie mit der Vega nah an die Ti rankommen ist das mehr als in Ordnung. Die Vega X sollte dann gerne gleichziehen. So lange sie etwas günstiger bleiben (was bei 819 Euro nicht unrealistisch ist) ist das doch in Ordnung, aber die NVIDIA Totengräber stehen ja jetzt schon wieder in den Startlöchern...
Ich hoffe einmal, dass sie einen ordentlichen Launch hinkriegen und nicht wieder irgendwo was verkacken. Das muss doch einfach mal ein Ende haben :)
Ailuros
2017-03-14, 19:33:17
Ich sehe den Takt auch zwischen 1500 und 1600 MHZ. DAs kann man sich eigentlich jetzt schon von den Zahlen gut ablesen. Die Frage ist wie effizient das ganze bei 1600 mhz sein wird. Die Ganze Diskussion dass die Graka keine 1500 MHZ erreichen soll erscheint mir an den Haaren herbeigezogen zu sein.
Die Frage ist wohl eher ist das der Boosttakt oder der Normaltakt...
Am Ende ist das auch wurscht, ich hoffe AMD mach diesesmal ein gescheites LIneup und released die Grafikkarten sinnlos. Am besten direkt eine Vega Nano und eine Vega. Später dann noch eine Vega X die dann mit dem Stromverbrauch nach oben auch ausbrechen darf.
Wenn sie mit der Vega nah an die Ti rankommen ist das mehr als in Ordnung. die Vega X dann gerne gleichziehen und dann ists gut. So lange sie etwas günstiger bleiben (was bei 819 Euro nicht unrealistisch ist) ist das doch in Ordnung, aber die NVIDIA Totengräber stehen ja jetzt schon wieder in den Startlöchern...
Ich hoffe einmal dass sie einen ordentlichen Launch hinkriegen und nicht wieder irgendwo was verkacken. Das muss doch einfach mal ein Ende haben :)
Zwischen realistischen Erwartungen und bodenlosen Uebertreibungen wie 45Mio/mm2 unter 14FF ergo 1.8x Mal mehr Packdichte als bei sonstigen aehnlichen chips gibt es schon einen riesigen Unterschied.
vinacis_vivids
2017-03-14, 19:35:50
Verstehe die Diskussion nicht ganz. 12 TFLOPs bei knapp 1,5 Ghz @ 225W sind sicher. Also wird die Desktooversion mit 250W TDP und leicht höherer Frequenz kommen, vielleicht 1,6 Ghz.
Die Desktop Fury X ist bei 275W TDP. DIe 1080ti bei 250W TDP.
Von 225W bis 275W alles möglich. Die 275W fürs Spitzenmodell evtl. dann bei 1,7Ghz ~ 13,9tflops mit AiO-Wakü.
Ailuros
2017-03-14, 19:37:11
Eigentlich sollte V10 gleich auf 2GHz takten nur damit Du endlich aufhoerst mit frei erfundenen Zahlen herumzuschmeissen.
vinacis_vivids
2017-03-14, 19:48:44
Die 1500Mhz geistern schon seit ner Weile rum und das sind netto ~50% mehr als ne Fury X. Mit Potential nach oben.
Weiß jetzt nicht was du willst. Ohne die Verlustleistung von ~30% von CF wie bei der Pro Duo ist Vega im beta status geschätzt schneller als ne 1080ti. Insbesondere wenn es hart auf hart ankommt was min. fps@4k angeht.
Ailuros
2017-03-14, 19:50:32
Wie waere es mit fundemental weniger BS als Abwechslung. Trollen kann jeder.
5CH4CHT3L
2017-03-14, 20:41:06
Geht ja richtig heiß her hier (Wie die RX 480 G1 Gaming ;D)
Scherz beiseite, kommt mal wieder runter das wird sonst sinnlos hier.
V10 ist keine Wunderkarte noch ist sie auf/unter GP104-Niveau.
Die Preise werden leicht geringer (für die Performance), aber es wird nicht so billig wie Ryzen (warum? weil Nvidia arbeitet während Intel schläft). Außerdem ist ja Ryzen auch nicht so der Über-Prozessor (wenns ums gaming geht).
Jetzt liefer ich noch schnell meine Schätzungen ab (wenn sie zu extrem sind machen sich die nächsten paar Kommentare über mich her :D)
225W TDP (reell 250-275W)
~1500MHz (~1700 max mit Wakü)
Performance knapp unter 1080ti (mit noch ziemlich viel Spielraum)
Viele reden jetzt hier von 8GB HBM2, ich dachte wir hätten 16GB drin (2x8GB)
https://www.3dcenter.org/news/vorzeitiger-vega-teaser-offenbart-16-gb-hbm2-speicher-samt-vega-next-compute-unit
16GB bekommen erst mal offenbar nur die Profivarianten. Die Gamingkarten bekommen 8GB + HBCC, wobei man dort einfach nicht weiss, wie das wirkt.
In dem Teil steckt einfach zu viel neue Technologie, um da irgendwas abschätzen zu können offensichtlich.
Gipsel
2017-03-14, 20:55:25
Viele reden jetzt hier von 8GB HBM2, ich dachte wir hätten 16GB drin (2x8GB)
https://www.3dcenter.org/news/vorzeitiger-vega-teaser-offenbart-16-gb-hbm2-speicher-samt-vega-next-compute-unitFür die MI25 gibt es die 8Hi-Stacks, vielleicht auch noch für eine teure "Black Edition" des Topmodells. Aber die normale Consumerversion wird wohl mit 4Hi-Stacks und damit 8GB auskommen müssen. Es sei denn SKHynix und Samsung fangen nächsten Monat an, die völlig überraschend in Massen anzubieten.
Botcruscher
2017-03-14, 21:09:05
So überraschend wäre es dann doch wieder nicht. Mit 8GB darf AMD gleich wieder am Preis drehen.
Gipsel
2017-03-14, 21:18:36
So überraschend wäre es dann doch wieder nicht. Mit 8GB darf AMD gleich wieder am Preis drehen.Entscheidend ist, was hinten rauskommt. Können sie demonstrieren, daß das mit dem HBCC zuverlässig funktioniert und die Leute sind davon überzeugt, reichen dann für viele wohl auch 8GB.
BlacKi
2017-03-14, 21:26:00
Entscheidend ist, was hinten rauskommt. Können sie demonstrieren, daß das mit dem HBCC zuverlässig funktioniert und die Leute sind davon überzeugt, reichen dann für viele wohl auch 8GB.
ist das die masse der käufer? wenn die verkaufszahlen höher ausfallen sollen als bei fiji, dann muss das auch über den preis passieren, selbst wenn die features funktionieren wie gewünscht.
Gipsel
2017-03-14, 21:38:09
ist das die masse der käufer? wenn die verkaufszahlen höher ausfallen sollen als bei fiji, dann muss das auch über den preis passieren, selbst wenn die features funktionieren wie gewünscht."Die Masse" kauft sowieso keinen Vega 10 ;). Und wieso muß das über den Preis passieren? Falls der Vega10-Karte mit 8GB der VRAM nicht früher sondern später ausgehen sollte als der 11GB 1080Ti, sind dann die 8GB irgendwie relevant?
dargo
2017-03-14, 21:38:13
Für die etwas größere Masse wird es den V10 Salvage geben.
Nakai
2017-03-14, 22:13:11
Entscheidend ist, was hinten rauskommt. Können sie demonstrieren, daß das mit dem HBCC zuverlässig funktioniert und die Leute sind davon überzeugt, reichen dann für viele wohl auch 8GB.
Naja mal abwarten, wieviel Treiberarbeit AMD da reinstecken muss. Ebenso wird es interessant zu sehen, wie AMD den HBCC am Ende wirklich verfügbar macht. Reinher vom Konzept, sollte der HBCC jeden Speicher adressieren können und damit auch nur 4GB von den ganzen 8GB als Cache nutzen könnte. Das sollte dann ganz variabel konfigurierbar sein, jedenfalls wenn der HBCC das alles sehr transparent sieht.
Damit sollte man auch in Richtung APU mit Vega-GPU schielen. Ein HBM2-PHY sollte nicht soviel Platz fressen und es ist sehr möglich, dass AMD RavenRidge einen oder mehrere HBM2-Stacks spendieren könnte. Aber ich glaub kaum, dass Chips die für TSV einfach in ein normales Package geklatscht werden kann. Dementsprechend ist die Idee sehr fraglich...
Ich fasse die letzten Beiträge/Seiten mal zusammmen:
Performancemäßig liegt V10 mindestens 50% vor Fiji, da der Takt durch die TFLOPs-Angabe des MI25-Beschleunigers schon "geleakt" wurde. Ahja, ob das Desktop-Produkt genauso taktet, sei mal völlig dahingestellt. Darum wird man landen. Punkt.
Ahja, eine GTX1080Ti liegt so zwischen 50~100% vor Fiji.
Wenn Vega nun auch Tiles cached wie die NVs, dann sollte man davon schon erhebliche Performanceverbesserungen erwarten dürfen.
dargo
2017-03-14, 22:30:01
Damit sollte man auch in Richtung APU mit Vega-GPU schielen. Ein HBM2-PHY sollte nicht soviel Platz fressen und es ist sehr möglich, dass AMD RavenRidge einen oder mehrere HBM2-Stacks spendieren könnte.
Für was braucht RR mehr als einen Stack? Oder anders gefragt... was soll RR mit >256GB/s anstellen?
Thunder99
2017-03-14, 23:02:07
Was für TDP Bereiche hier wieder rum geistern. Eine 250W/275W Karte wird wieder negativen Beigeschmack haben. Es soll eine 225W Karte oder weniger her die man gut Luft kühlen kann. Der Rest ist dann für den User wo die Karte bis 300W drehen darf (so macht es Nvidia ja auch ;))
Nakai
Der liegt allein schon deshalb 50% vor Fiji, weil er 50% mehr Takt hat. Da ist wohl noch deutlich mehr drin ;).
Für die etwas größere Masse wird es den V10 Salvage geben.
Ne für die Masse gibts V11 und P10 Pro (RX580).
dargo
2017-03-14, 23:22:07
Nakai
Der liegt allein schon deshalb 50% vor Fiji, weil er 50% mehr Takt hat. Da ist wohl noch deutlich mehr drin ;).
Ich finde eure Hochrechnungen anhand vom GPU-Takt recht amüsant wo Vega die gleiche Bandbreite haben wird wie Fiji. Die Frage hierbei ist also eher... kann AMD bei Vega DCC dermaßen aufbohren, dass 50% mehr GPU-Takt auch 1:1 in Mehrleistung umgewandelt werden? ;)
Ne für die Masse gibts V11 und P10 Pro (RX580).
Du hast nicht ganz verstanden worauf ich hinaus wollte.
Schaffe89
2017-03-14, 23:50:14
Ähm, der Takt alleine (wenn man die MI-25-Servervariante mit 1525MHz als Minimum annimmt) bringt Dir zur FuryX +45% (die 4GB könnten die Fury in 4 K bei den Benchmarks schon ab und zu etwas ausbremsen, das sind also vermutlich mit 8GB schon mal locker +50% ohne jegliche Verbesserungen an der Architektur). Die diversen Effizienzsteigerungen sollten eigentlich dann noch obendrauf kommen.
Auch Takt alleine skaliert lange nicht einfach so nach oben, entscheidend ist immernoch die Bandbreite und die steigt mal gar nicht an, es gibt immernoch nur 512 gb/s.
Also dürften insgesamt +50% eh schon optimistisch genug sein.
Der_Korken
2017-03-14, 23:58:48
Ich finde eure Hochrechnungen anhand vom GPU-Takt recht amüsant wo Vega die gleiche Bandbreite haben wird wie Fiji. Die Frage hierbei ist also eher... kann AMD bei Vega DCC dermaßen aufbohren, dass 50% mehr GPU-Takt auch 1:1 in Mehrleistung umgewandelt werden? ;)
So wahnsinnig viel wird bei der Kompression nicht zu holen sein, zumindest nicht im Vergleich zu P10. Den Unterschied macht (hoffentlich) der neue Rasterizer von Vega, der durch das Tiling die Caches effektiver nutzt und somit Bandbreite einspart. Jedenfalls scheint das bei Nvidia der Fall zu sein, wenn man sich den Sprung von Kepler zu Maxwell anguckt (50% mehr Leistung bei gleicher Bandbreite).
Außerdem kommt eine Titan XP auch mit 480GB/s aus, um ihre Leistung zu erreichen und sogar mit OC noch ordentlich zu skalieren. Die 1080 hat sogar nur 320GB/s und ist deutlich schneller als Fiji. Ansonsten könnte man noch sagen, dass doppelte P10-Bandbreite auch für mindestens doppelte Leistung reichen sollte, zuzüglich das, was durch die neue Architektur eingespart wird. Die 512GB/s sollten schon passen.
prinz_valium
2017-03-15, 00:08:11
ich wusste gar nicht, dass polaris und die 470 / 480 rebranded werden sollen
gefällt absolut nicht
rein von den namen her, ist dann doch weider nur für eine 590 platz
ergo vega 11 erst irgendwann ganz spät in h2 2017 unter einem 5x5er namen?
PrivateCeralion
2017-03-15, 00:09:45
Ich finde eure Hochrechnungen anhand vom GPU-Takt recht amüsant wo Vega die gleiche Bandbreite haben wird wie Fiji. Die Frage hierbei ist also eher... kann AMD bei Vega DCC dermaßen aufbohren, dass 50% mehr GPU-Takt auch 1:1 in Mehrleistung umgewandelt werden? ;)
Ich finde deine Aussage amüsant. Wirklich jeder Teil wurde neu Designt und du glaubst, die Performance würde schlechter als linear mit dem Takt skalieren?
dildo4u
2017-03-15, 00:13:29
Was HBM 2 bringt nicht mehr Bandbreite WTF.Schätze mal das Schmä Bild von Nvidia zu HBM scheint recht zu haben,es zieht zu viel Saft bei hohem Takt.
http://abload.de/img/nvidia-hbm-memory-cri5rlkz.jpg
Dann hat Nvidia mit GDDR5X fast die selbe Bandbreite und mehr Kapazität für was haben wir jetzt HBM?
BoMbY
2017-03-15, 00:30:26
Was HBM 2 bringt nicht mehr Bandbreite WTF.Schätze mal das Schmä Bild von Nvidia zu HBM scheint recht zu haben,es zieht zu viel Saft bei hohem Takt.
http://abload.de/img/nvidia-hbm-memory-cri5rlkz.jpg
Dann hat Nvidia mit GDDR5X fast die selbe Bandbreite und mehr Kapazität für was haben wir jetzt HBM?
Ja, ist klar. 8 GDDR5 Chips mit 1.55 Volt verbrauchen natürlich ganz klar weniger Strom als 2 HBM2 4Hi Chips mit 1.2 Volt ... aber vermutlich nur bei Firmen die auch so einen Müll wie GimpWorks als Erfolg verkaufen.
Tesseract
2017-03-15, 00:38:04
Ich finde eure Hochrechnungen anhand vom GPU-Takt recht amüsant wo Vega die gleiche Bandbreite haben wird wie Fiji. Die Frage hierbei ist also eher... kann AMD bei Vega DCC dermaßen aufbohren, dass 50% mehr GPU-Takt auch 1:1 in Mehrleistung umgewandelt werden? ;)
warum nicht? fiji hat eine höhere bandbreite als pascal titan. die architektur krankt an ganz anderen stellen die durchaus mit dem coretakt skalieren und da kommen dann noch die architekturverbesserungen obendrauf.
Linmoum
2017-03-15, 00:53:50
ich wusste gar nicht, dass polaris und die 470 / 480 rebranded werden sollen
gefällt absolut nicht
rein von den namen her, ist dann doch weider nur für eine 590 platz
ergo vega 11 erst irgendwann ganz spät in h2 2017 unter einem 5x5er namen?
Rein von den Namen her wird Vega als "RX Vega" laufen und damit (eher) nichts mit dem Namensschema von Polaris zu tun haben. Da kann sich AMD dann ruhig austoben. ;) Würde mich nicht überraschen, wenn sie bei Vega dann einfach nach den Chips und ggf. Salvage in Form von 10(X) bzw. 11(X) gehen.
Blediator16
2017-03-15, 00:59:53
Rein von den Namen her wird Vega als "RX Vega" laufen und damit (eher) nichts mit dem Namensschema von Polaris zu tun haben. Da kann sich AMD dann ruhig austoben. ;) Würde mich nicht überraschen, wenn sie bei Vega dann einfach nach den Chips und ggf. Salvage in Form von 10(X) bzw. 11(X) gehen.
RX Vega XT und XTX :biggrin:
Der_Korken
2017-03-15, 01:00:33
Was HBM 2 bringt nicht mehr Bandbreite WTF.Schätze mal das Schmä Bild von Nvidia zu HBM scheint recht zu haben,es zieht zu viel Saft bei hohem Takt.
http://abload.de/img/nvidia-hbm-memory-cri5rlkz.jpg
Dann hat Nvidia mit GDDR5X fast die selbe Bandbreite und mehr Kapazität für was haben wir jetzt HBM?
Das Bild wurde schon mal in irgendwelchen Speku-Threads diskutiert. Man sieht, dass HBM2 für die gleiche Bandbreite ca. 1/3 des Stroms von GDDR5 verbraucht. GDDR5X dürfte etwas besser sein, aber niemals auf HBM2-Niveau.
Felixxz2
2017-03-15, 01:01:15
Auch Takt alleine skaliert lange nicht einfach so nach oben, entscheidend ist immernoch die Bandbreite und die steigt mal gar nicht an, es gibt immernoch nur 512 gb/s.
Also dürften insgesamt +50% eh schon optimistisch genug sein.
"Nur" 512GB/s, die höchste Bandbreite am Markt :freak:
Troyan
2017-03-15, 01:12:05
"Nur" 512GB/s, die höchste Bandbreite am Markt :freak:
P100 hat 720GB/s.
Felixxz2
2017-03-15, 01:18:18
P100 hat 720GB/s.
Den kann ich auch als Geforce kaufen.....wait.....nein
Screemer
2017-03-15, 01:19:23
P100 hat 720GB/s.
könnte schwierig werden mit dem gamingmarkt, wenn die kein bild ausspucken.
Troyan
2017-03-15, 01:21:42
Also ich sehe hier mindesten einen Displayport: http://geizhals.de/pny-quadro-gp100-vcqgp100-pb-a1573192.html
Screemer
2017-03-15, 02:11:14
oha. da gibts quadros seit nem monat. hatte nur die teslas auf der uhr. mea culpa. trotzdem nix mit gamingmarkt.
prinz_valium
2017-03-15, 02:23:24
Rein von den Namen her wird Vega als "RX Vega" laufen und damit (eher) nichts mit dem Namensschema von Polaris zu tun haben. Da kann sich AMD dann ruhig austoben. ;) Würde mich nicht überraschen, wenn sie bei Vega dann einfach nach den Chips und ggf. Salvage in Form von 10(X) bzw. 11(X) gehen.
welchen sinn ergibt dann das rebranding von 480 zu 580 wenn man für vega eh etwas komplett anderes nimmt
aber amd, was grafikkarten angeht, war ja schon immer das 2 schlimmste nach intel wenn es um namen geht
Linmoum
2017-03-15, 02:32:15
Welchen Sinn ergibt es überhaupt, das Polaris-Namensschema mit dem von Vega vergleichen zu wollen? ;)
Fiji hat man doch auch gesondert genannt und nicht einfach an das restliche 3XX-Lineup angelehnt.
StefanV
2017-03-15, 03:04:46
welchen sinn ergibt dann das rebranding von 480 zu 580 wenn man für vega eh etwas komplett anderes nimmt
Der Wille der OEMS, die immer wieder mal was neues wollen?!
Ailuros
2017-03-15, 06:39:06
oha. da gibts quadros seit nem monat. hatte nur die teslas auf der uhr. mea culpa. trotzdem nix mit gamingmarkt.
Was darf denn das Prachtexemplar genau kosten fuer eine hypothetische desktop SKU die in 3D sogar langsamer sein wird als eine 1080Ti mit um einiges hoeherem Stromverbrauch?
-----------------------------------------------------------------
Sonst insgesamt fuer die letzten Seiten: es schwirrt irgendwo im Hintergrund ein "Geruecht" herum dass AMD Frequenz-Probleme haben soll und dazu es schwer haben soll selbst 1300MHz boost zu erreichen. Meine linke Augenbraue zockte schon als ich es las und ich hab hier privat jemand gefragt der weiss wo es lang geht um zu sehen ob es ueberhaupt sein kann. Wir waren einer Meinung und ich will hoffen dass der Mist naiv orchestrierter BS irgend eines gruenen fanboys ist und nicht mehr. Zielfrequenzen duerften schon seit einiger Zeit fest liegen und der vorige Mist ist nur das Resultat irgend einer lebendigen Phantasie. Von dem Punkt ab ans andere Ofer zu rudern und verrueckt hohe Frequenzen weit ueber 1500MHz zu erwarten ist genauso absurd.
uweskw
2017-03-15, 07:33:09
"Die Masse" kauft sowieso keinen Vega 10 ;). Und wieso muß das über den Preis passieren? Falls der Vega10-Karte mit 8GB der VRAM nicht früher sondern später ausgehen sollte als der 11GB 1080Ti, sind dann die 8GB irgendwie relevant?
dann hoffe ich mal dass unsere Review Seiten es diesmal schaffen tatsächlich den Speicher und seine Effizienz zu bewerten.
Und nicht nur den Speicher Bedarf anhand irgendwelcher Programme auswerten.:freak:
Greetz
US
Botcruscher
2017-03-15, 07:49:24
Erst mal sehen wie es überhaupt getestet wird. Zwischen 8 und 11GB ist zwar ein netter Abstand aber eine ordentliche Belegung will erst mal erzeugt werden. Selbst Frame times dürften da wider nur die Halbe Wahrheit sein. Den PCIe kann am Ende auch keiner überlisten. Möglicherweise ist Vega bei Belegungen bis 11GB im Nachteil und führt dann stark wenn es darüber geht. Davon haben aber Spieler nichts.
dargo
2017-03-15, 07:55:58
Ansonsten könnte man noch sagen, dass doppelte P10-Bandbreite auch für mindestens doppelte Leistung reichen sollte, zuzüglich das, was durch die neue Architektur eingespart wird. Die 512GB/s sollten schon passen.
Stimmt auch wieder. Völlig vergessen, dass P10 nur mickrige 256GB/s hat. :freak: Aber was zum Geier lief da bei Fiji schief, dass selbst bei Speicher OC jener noch recht gut profitiert hatte?
Gipsel
2017-03-15, 08:38:47
Aber was zum Geier lief da bei Fiji schief, dass selbst bei Speicher OC jener noch recht gut profitiert hatte?Latenzen? Schlecht ausbalanciertes Design?
vinacis_vivids
2017-03-15, 11:14:24
Stimmt auch wieder. Völlig vergessen, dass P10 nur mickrige 256GB/s hat. :freak: Aber was zum Geier lief da bei Fiji schief, dass selbst bei Speicher OC jener noch recht gut profitiert hatte?
Fiji läuft super bei 1440p und P10 ist für 1080p, passt doch alles.
Bei Vega wird allein die 2160p Performance entscheiden. Da helfen schon mal die 8GB statt 4GB.
Ich spekuliere auf VEGA-X ~ Fury-X + 60-70% um mit der 1080ti zu konkurrieren bei einem niedrigeren Preis (~699-749€). Die 1080 wird man auf jeden Fall kassieren und eine kleinere Vega (~399-449€) dafür auflegen. Dazwischen kann man wieder eine "Nano" und non X platzieren.
Godmode
2017-03-15, 11:24:16
Was darf denn das Prachtexemplar genau kosten fuer eine hypothetische desktop SKU die in 3D sogar langsamer sein wird als eine 1080Ti mit um einiges hoeherem Stromverbrauch?
-----------------------------------------------------------------
Sonst insgesamt fuer die letzten Seiten: es schwirrt irgendwo im Hintergrund ein "Geruecht" herum dass AMD Frequenz-Probleme haben soll und dazu es schwer haben soll selbst 1300MHz boost zu erreichen. Meine linke Augenbraue zockte schon als ich es las und ich hab hier privat jemand gefragt der weiss wo es lang geht um zu sehen ob es ueberhaupt sein kann. Wir waren einer Meinung und ich will hoffen dass der Mist naiv orchestrierter BS irgend eines gruenen fanboys ist und nicht mehr. Zielfrequenzen duerften schon seit einiger Zeit fest liegen und der vorige Mist ist nur das Resultat irgend einer lebendigen Phantasie. Von dem Punkt ab ans andere Ofer zu rudern und verrueckt hohe Frequenzen weit ueber 1500MHz zu erwarten ist genauso absurd.
Wie bei jeder Neuvorstellung ist das Warten auf finale Test wieder das Gebot der Stunde. Wie oft hörten wir in der Vergangenheit schon von Überfliegern und kaputten Chips und am Ende wurde es doch ganz anders. :wink:
dildo4u
2017-03-15, 12:21:17
"Nur" 512GB/s, die höchste Bandbreite am Markt :freak:
Wenn die Kompression wieder nix taugt ist der winzige der Vorteil zur 1080 Ti vermutlich gar nicht vorhanden.
Felixxz2
2017-03-15, 13:01:08
Wenn die Kompression wieder nix taugt ist der winzige der Vorteil zur 1080 Ti vermutlich gar nicht vorhanden.
Wie oft wurde hier schon erklärt, dass nVs Vorteil auf Tiling und nicht auf besserer Kompression basiert?
Das bietet Vega nun auch.
Wie oft wurde hier schon erklärt, dass nVs Vorteil auf Tiling und nicht auf besserer Kompression basiert?
Das bietet Vega nun auch.
Nvidia sieht das anders. Zumal es sicher nicht so allgemeingültig sagen lässt wie die effektive Bandbreite ausfällt.
Und der binning rasterizer muss auch überhaupt erst mal so gut funktionieren, wie bei der Kompression halt auch
robbitop
2017-03-15, 13:38:13
Laut foobar funktioniert die dcc selbst bei Polaris sehr schlecht (was Bandbreitenersparnis angeht). Auch hier könnte es bei Vega Fortschritt geben.
Troyan
2017-03-15, 13:42:30
Natürlich entsteht nVidias Vorteil auch aufgrund der besseren Kompression: https://www.techpowerup.com/231129/on-nvidias-tile-based-rendering
Nightspider
2017-03-15, 13:50:27
Wie stehen eigentlich die Chancen das die große Version mit 4 HBM Cubes und 1TB/s als Enthusiasten-Variante für Gamer kommt?
Die wäre mit 16GB und dieser Bandbreite doch ein echter Titan Konkurrent und könnte für ein paar Scheinchen mehr verkauft werden.
Gipsel
2017-03-15, 14:04:01
Das mit der Kompression vs. tiled Caching kann man natürlich geschickt in Grafiken auftragen. Das geht aber an der Realität etwas vorbei. Denn sicher kann man (auch AMD) eine mittlere Kompression von 2x oder sowas in einigen Szenen ansetzen (bei nV ist es offenbar so ~1,8 in der Grafik). Das stimmt ja auch (bei beiden!). Allerdings erzeugt die Kompression (die immer eine Art Block-/Tile-Kompression sein muß) auch jede Menge Overhead, falls man mal einen Pixel wieder benötigen sollte (was ziemlich häufig der Fall ist). Dann muß man nämlich den kompletten komprimierten Block wieder einlesen. Dies reduziert zwar nicht die mittlere Kompression des Frames, aber doch erheblich die wirklich gesparte Bandbreite (weswegen auch relativ kleine Blöcke anzutreffen sind, trotz des Fakts, daß man mit größeren Blöcken im Mittel eine höhere Kompression erreichen würde, allerdings auch zum Preis eines höheren Overheads). Für die optimale Wirksamkeit der Framebufferkompression benötigt man also einen großen Cache (der diese Reloads von komprimierten Blöcken abfängt) sowie wenn möglich ein Ordnen der Framebufferzugriffe, die auf die gecachte Menge abgestimmt ist.
Das Ordnen erfolgt automatisch durch das Binnen in Tiles, die nacheinander abgearbeitet werden. Und die komprimierten Blöcke liegen im L2 und werden in der Zwischenzeit nicht rausgeschrieben. Voila!
Rechnet man jetzt den eingesparten Overhead der Framebufferkompression zu oder dem Tiling? :wink:
Vielleicht komprimiert nV ja verlustbehaftet.:D
AffenJack
2017-03-15, 14:09:16
Wie stehen eigentlich die Chancen das die große Version mit 4 HBM Cubes und 1TB/s als Enthusiasten-Variante für Gamer kommt?
Die wäre mit 16GB und dieser Bandbreite doch ein echter Titan Konkurrent und könnte für ein paar Scheinchen mehr verkauft werden.
Es gibt keine Version mit 4 Cubes, nur eine mit 2 8High Cubes
Nightspider
2017-03-15, 14:13:36
Echt? Ich dachte ich hätte vor kurzem sowas gelesen. *kratz*
Ailuros
2017-03-15, 14:14:36
Rechnet man jetzt den eingesparten Overhead der Framebufferkompression zu oder dem Tiling? :wink:
Spassvogel :freak:
Gipsel
2017-03-15, 16:00:44
Spassvogel :freak:
Das hat durchaus einen ernsten Hintergrund und ist nicht nur spaßig gedacht. Wir haben das hier im Forum (oder war es im Technologieforum?) ja bereits anhand eines entsprechenden Papers zur Framebufferkompression (was für verschiedene Szenarien, Tilegrößen und Kompressionsalgorithmen auch die durchschnittlichen Kompressionsraten mitsamt dem Overhead und die entsprechenden Break-Even-Punkte besprochen hat) besprochen. Das Cachen der Framebuffertiles im L2 und die höhere Lokalität der Speicherzugriffe durch das Ordnen der Pixelshader in Tiles verringert den durch mehrfaches Laden und Speichern der Blöcke der Framebufferkompression verursachten Verschnitt ganz erheblich. Ich bezweifle, daß dies bei der nV-Grafik als Vorteil des Tilings mit drin steckt. Die werden da schlicht die übertragenen Datenmengen bilanziert haben und den Unterschied der Kompression zuschlagen (der Bandbreitenvorteil durch das Tiling betrifft dann in der nV-Grafik nur das Puffern der Geometrie und Sachen, die nie die ROPs treffen). Macht man aber [B]exakt die gleiche Kompression nur ohne Tiling und ohne das Puffern der Framebuffertiles im L2 (also so wie AMD bisher, denen dann nur die recht kleinen ROP-Tile-Caches zur Verfügung stehen), ist die effektive Bandbreiteneinsparung deutlich geringer. Wie gesagt trotz exakt gleichem Kompressionsalgorithmus.
Zu sagen, daß nicht das Tiling, sondern die Kompression den Hauptanteil zur der besseren Bandbreiteneffizienz von nV-GPUs beiträgt, geht ziemlich daran vorbei, wie es dann wirklich in der Realität funktioniert. Kompression ohne Tiling funktioniert halt nur begrenzt. Dies kommt in den verlinkten nV-Grafiken aber nicht rüber.
Kurz:
Wenn man schon die Kompression hat (was alleine vielleicht 30% im Schnitt bringen mag) und dann Tiling hinzufügt, hat man einen deutlich größeren Vorteil, als man dem Diagramm naiv entnehmen würde.
Ailuros
2017-03-15, 16:27:31
Ausser ich hab etwas uebersehen, gibt es keinen aktuellen thread im Technologie-Forum (leider) ueber tiled caching/binning. Vielleicht waere ein solcher angebracht denn es scheinen sich zu viele egal von welcher Seite zu viel davon zu versprechen. Wundert mich ja auch nicht wenn NV in ihren Bumsfallera slides ihrem Publikum vorgeigt dass mit tiled caching + compression eine GTX1080Ti eine virtuelle Bandbreite von 1200GB/sec erreichen kann: https://www.techpowerup.com/img/17-03-01/2dfc232568a9.jpg
Wenn Du ein ekelhaftes scenario brauchst fuer solche Methoden waere ein Eckfall ein diagonal orientiertes langes und sehr duennes Dreieck dass genau in der Mitte vom Verschnitt der viewports liegt.
Sonst ging es mir darum dass es bei den begrenzten Mengen an Geometrie die NV (und auch wohl AMD in Vega) benutzen wird womoeglich kein Problem sein wenn es in Grenzfaellen mal gar nichts bringt, sonst haetten sie auch parameter compression fuer's binning eingebaut. Um ehrlich zu sein hab ich mir die relevanten NV Patente nie durchgelesen ist aber wohl alles Material fuer einen dedizierten thread im Techno-Forum.
Gipsel
2017-03-15, 17:25:34
Ausser ich hab etwas uebersehen, gibt es keinen aktuellen thread im Technologie-Forum (leider) ueber tiled caching/binning. Vielleicht waere ein solcher angebracht denn es scheinen sich zu viele egal von welcher Seite zu viel davon zu versprechen. Wundert mich ja auch nicht wenn NV in ihren Bumsfallera slides ihrem Publikum vorgeigt dass mit tiled caching + compression eine GTX1080Ti eine virtuelle Bandbreite von 1200GB/sec erreichen kann: https://www.techpowerup.com/img/17-03-01/2dfc232568a9.jpgDie Diskussion war in keinem extra Thread, soweit ich weiß. Aber ja, sicher ist das eine typische PR-Slide.
Und ich weiß ja nicht was Du meinst, was "zu viel" wäre, was sich Einige versprechen. Aber im Prinzip ist es durchaus möglich, die Bandbreiteneffizienz eines immediate Mode Renderers mit diesen Ansätzen signifikant zu erhöhen. Zwischen einem tiled deferred Renderer wie denen von IMG und einem traditionellen IMR ohne irgendwelche Tricks ist ziemlich viel Platz. Faktor 2 oder so für Framebufferzugriffe (nur dafür gilt ja die Grafik von nV, für Texturzugriffe bringt die Kompression glatt gar nichts, solange man kein Rendertarget einliest und die TMUs das komprimierte Format direkt verstehen) kann mit entsprechenden Tweaks (also hier tiled/binning Rasterizer + TileCaches im L2 mit Kompression) bei einem IMR da schon drin sein. Natürlich immer abhängig vom Szenario. Es lassen sich natürlich auch welche finden, wo es praktisch nichts bringt (genauso wie sich auch worst cases für deferred Renderer finden lassen).
robbitop
2017-03-15, 17:40:08
Schaut man sich an wie Polaris und Pascal mit der Bandbreite umgehen, ist NV da schon gute 30...40% effizienter seit Maxwell.
Selbst RX480 ist schon im Bandbreitenlimit bei ähnlicher Bandbreite einer 1070.
Ailuros
2017-03-15, 17:47:39
Und ich weiß ja nicht was Du meinst, was "zu viel" wäre, was sich Einige versprechen. Aber im Prinzip ist es durchaus möglich, die Bandbreiteneffizienz eines immediate Mode Renderers mit diesen Ansätzen signifikant zu erhöhen.
Da stets nur eine relativ begrenzte Menge von Geometrie fuer's jeweilige tiled caching benutzt wird, gelten jegliche Gewinne nur fuer die Menge der Geometrie die benutzt wird bzw. bis die jeweilige cache voll ist. Und nein auf Anhieb scheint es nicht jeder so leicht zu schnallen. Das neueste Beispiel war in etwa "nun ja Vega wird mit tiling und HBM den Unterschied schon gut machen". Es ist zwar leider unmoeglich tiled caching ausserhalb der IHVs abzuschalten aber ich waere verdammt ueberrascht wenn es im absoluten Durchschnitt mehr als ein einstelliges Prozentual ausmacht.
Schaut man sich an wie Polaris und Pascal mit der Bandbreite umgehen, ist NV da schon gute 30...40% effizienter seit Maxwell.
Selbst RX480 ist schon im Bandbreitenlimit bei ähnlicher Bandbreite einer 1070.
Damit wir uns nicht falsch verstehen eine 1080Ti hat auch 43% mehr rohe Bandbreite als eine 980Ti.
Foobar2001
2017-03-15, 18:28:51
Das partielle TBR das NVIDIA implementiert hat und Vega wohl auch hat bringt verdammt viel. Fuer Full-Screen-Blend-Passes wie Particle geht ueberhaupt gar nichts mehr durch den DRAM und sogar die ROP-Rate ist hoeher. Ausserdem ist die Color-Compression effizienter weil man nur komprimiert/dekomprimiert bei einem Flush. Bei traditionellen Chips kann Color-Compression bei vielen kleinen Dreiecken sehr einfach sogar langsamer sein, weil staendig ganze Tiles komprimiert und dekomprimiert werden.
Je nach Spiel kann das einiges mehr bringen als nur einstellige Prozent-Zahlen.
Ailuros
2017-03-15, 19:28:25
Dass particles davon profitieren wurde schon oefters erwaehnt. Von dem abgesehen wenn sie theoretisch die halbe Geometrie in die cache stopfen koennen, kann ich mir auch ein sehenswertes Prozentual an Zuschuss vorstellen. Im Gegenfall von einer frei erfundenen Zahl von 15% des Geometrie-estates das gebinnt wird, kann ich mir schwer vorstellen dass das ingesamte processing ploetzlich um 20% oder sogar mehr schneller wird.
Gipsel
2017-03-15, 19:40:40
Von dem abgesehen wenn sie theoretisch die halbe Geometrie in die cache stopfen koennen, kann ich mir auch ein sehenswertes Prozentual an Zuschuss vorstellen. Im Gegenfall von einer frei erfundenen Zahl von 15% des Geometrie-estates das gebinnt wird, kann ich mir schwer vorstellen dass das ingesamte processing ploetzlich um 20% oder sogar mehr schneller wird.Im Pixel-Backend spart man Bandbreite wohl hauptsächlich durch die erhöhte Lokalität und damit erhöhtem Reuse der Daten in den Caches (die Hitrate geht schlicht hoch und man muß seltener den VRAM bemühen). Da muß man wohl gar nicht soo viel Geometrie zwischenspeichern, um die niedrig hängenden Früchte zu ernten. Wenn der Chip noch soweit möglich HSR auf der in die Tiles gebinnten Geometrie macht (man kann nicht Alles schon vorher in Shadern cullen), sparst Du potentiell auch noch den Overdraw da drin, so daß schon weniger an die Pixelshader und letztendlich ROPs geht. Das kann sich schon addieren, auch wenn es nicht gerade ein Full-Screen-Blend-Pass ist.
Loeschzwerg
2017-03-16, 16:44:38
https://www.computerbase.de/2017-03/radeon-rx-vega-bilder-referenzdesign/
Länger als Fury X und damit ein DHE Design?
Civtam
2017-03-16, 17:33:18
https://www.computerbase.de/2017-03/radeon-rx-vega-bilder-referenzdesign/
Länger als Fury X und damit ein DHE Design?
Zumindest scheint es keine AIO zu sein. Bin schon gespannt. Bei den jetzigen Gebrauchtpreisen für ne 1080 fällts mir schon schwer zu warten.
Bin mal wirklich gespannt, wann die Vega endlich kommt.
Edit:
Was ist das eigentlich für eine komische schwarze Stelle unter dem Radeon R (über dem "Soul". Sieht ja aus, als ob da entweder nen Schalter ist (Ubermode?) oder etwas auf die Backplate gelötet wurde...
Sieht fuer mich wie zwei Schalter aus (Groesse, 4 Bezeichnungen).
BIOS switch und... :confused:
Godmode
2017-03-16, 18:00:22
https://www.computerbase.de/2017-03/radeon-rx-vega-bilder-referenzdesign/
Länger als Fury X und damit ein DHE Design?
Gab es den die letzten Jahre je was anderes als DHE bei AMD und Nvidia?
Fury X und Nano verpasst?
Loeschzwerg
2017-03-16, 18:04:27
Jup, alle Karten mit Fiji.
Godmode
2017-03-16, 18:24:24
Aja stimmt :facepalm:
Locuza
2017-03-17, 19:31:46
Mehr Bilder vom Trailer zur neuen Vega GPU:
https://cdn.videocardz.com/1/2017/03/AMD-Radeon-RX-Vega-5-1000x423.jpg
https://videocardz.com/67454/amd-radeon-rx-vegas-got-a-soul-and-brain
Die Backplate sieht wie Aluminium aus, jedenfalls ist das kein weißes Design, sondern silbern.
nagus
2017-03-17, 20:18:08
sieht geil aus :)
Finde auch. Kühler aus gebürstetem Alu sieht sicher ziemlich edel aus.
[MK2]Mythos
2017-03-17, 20:43:03
Laut meinen überragenden Photoshop-skillz ist die abgebildete VEGA Karte gaaanz genau 246,3mm lang. Wer bietet mehr bzw weniger? :D
Rampage 2
2017-03-18, 01:36:38
Wundert mich ja auch nicht wenn NV in ihren Bumsfallera slides ihrem Publikum vorgeigt dass mit tiled caching + compression eine GTX1080Ti eine virtuelle Bandbreite von 1200GB/sec erreichen kann: https://www.techpowerup.com/img/17-03-01/2dfc232568a9.jpg
Naja, zumindest realistischer als die "7-fache Performancesteigerung" bei der GeForce 3 ;)
OnTopic: Was wäre denn das schlimmstmögliche Datum für die Vega-Vorstellung? Computex Anfang Juni?
Und was war eigentlich nochmal der Grund dafür, dass sich Vega so sehr verzögert? Wenn es daran liegt, dass AMD im Vornherein die Treiber und Vega selbst optimieren will (und nicht erst im Nachhinein, wie es in der Vergangenheit und sogar noch bei Polaris der Fall war...), dann habe ich vollste Zustimmung dafür - auf diese Erkenntnis hätte AMD aber schon vor Jahren kommen müssen:rolleyes:
R2
Der_Korken
2017-03-18, 02:09:42
OnTopic: Was wäre denn das schlimmstmögliche Datum für die Vega-Vorstellung? Computex Anfang Juni?
Schlimmstmöglich wird Vega erst im Herbst vorgestellt, falls jetzt plötzlich noch ein fataler Fehler im Design gefunden wird, der sich nicht nachträglich fixen lässt. Ansonsten der 30. Juni, also der letzte Tag in H1 2017.
Linmoum
2017-03-18, 02:52:44
Und was war eigentlich nochmal der Grund dafür, dass sich Vega so sehr verzögert? Wenn es daran liegt, dass AMD im Vornherein die Treiber und Vega selbst optimieren will (und nicht erst im Nachhinein, wie es in der Vergangenheit und sogar noch bei Polaris der Fall war...), dann habe ich vollste Zustimmung dafür - auf diese Erkenntnis hätte AMD aber schon vor Jahren kommen müssen:rolleyes:
Wo verzögert sich Vega denn? Realistisch betrachtet war alles vor 2017 sowieso nur Wunschdenken und AMD selbst hatte bereits im August offiziell bestätigt, dass Vega im 1. HJ 2017 erscheinen wird. Im CC Ende Januar zu den Quartalszahlen wurde daraus dann, erwartungsgemäß, das 2. Quartal.
Berücksichtigen muss man, dass Vega mit HBM2 kommt. Ohne wird's mit 'nem Launch logischerweise schwer und die Verfügbarkeit spielt dafür natürlich auch eine entsprechende Rolle. ;)
vinacis_vivids
2017-03-18, 03:18:27
Finde auch. Kühler aus gebürstetem Alu sieht sicher ziemlich edel aus.
:up:
Gabs schonmal komplett silberne Alu Kartenkühler?
horn 12
2017-03-18, 08:08:41
Release tippe ich auf Anfang bis Mitte Mai 2017
Zudem häppchenweise Leaks die nächsten 6 Wochen!
Elite_Warrior
2017-03-18, 08:19:04
Wenn ich mir Polaris und Zen anschaue, wird da ziemlich wenig leaken
horn 12
2017-03-18, 08:23:09
Man muss die GTX 1080TI - Custom Käufer abgreifen,- ansonsten wird´s schwer werden!
Achim_Anders
2017-03-18, 08:25:31
Und wenn man sich den Polaris Release anschaut, der zeitlich bisher mit Vega identisch ist würde ich weiterhin eher von Juni Ref und August (für Customs) ausgehen..
dargo
2017-03-18, 08:26:31
Berücksichtigen muss man, dass Vega mit HBM2 kommt. Ohne wird's mit 'nem Launch logischerweise schwer und die Verfügbarkeit spielt dafür natürlich auch eine entsprechende Rolle. ;)
Inwiefern soll die "Verzögerung" an HBM2 liegen? GP100 hat doch schon ziemlich lange HBM2.
Ailuros
2017-03-18, 08:32:29
Es gibt ueberhaupt keine Verzoegerung fuer Vega. Wenn man nachbuddelt wann AMD ankuendigte dass sie einen "Meilenstein" mit Vega erreicht haben, haben sie quasi "design done" angekuendigt. Von da ab kann man sich den start der Massenproduktion leicht ausrechnen.
horn 12
2017-03-18, 09:02:47
Nun, dies war in der Fabrikshalle
Von da an nochmals 6 bis 9 Monate, sollte also spätestens Ende Mai werden, da ist man bei guten über 9 Monaten!
Dies war Ende Juni 2016 als AMD den Meilenstein ankündigte.
Denke Anfang April gehen die Karten in die Massenproduktion... von da an nochmals 4 bis 6 Wochen bis Release.
http://www.gamestar.de/hardware/grafikkarten/amd-radeon-rx-480/news-artikel/amd_vega_10,988,3274819.html
@Ailuros
Sollte wohl Recht behalten :-)
Elite_Warrior
2017-03-18, 09:50:49
Da allerdings Bilder des Alumiumgehäuses schon aufgetaucht sind, kann es doch sein, dass man jetzt en masse produziert?
Hübie
2017-03-18, 10:42:08
Inwiefern soll die "Verzögerung" an HBM2 liegen? GP100 hat doch schon ziemlich lange HBM2.
Ich denke zwar nicht, dass HBM2 die "Schuld" hat, aber mögliche Ursachen wären:
schlechte yieldrates
geringe Kapazitäten
Defektrate beim Zusammensetzen der Interposer, RAM-Module und der GPU (->Nacharbeit)
Hoher Einkaufspreis lässt die Produktion nur langsam hoch fahren / ansteigen
Ausgeschlossen ist es also nicht.
Meine Einschätzung ist eher eine Treiber-Geschichte, welche eine mögliche Verzögerung verursacht. Aber so richtig seh ich hier keine Verzögerung. 9-12 Monate sind normal. 6-9 schon eher speed-dating. ;)
Setsul
2017-03-18, 11:00:40
Bitte mal daran erinnern wann AMD die ersten Polaris Demos gezeigt hat. Wieviele Monate waren es dann noch bis zum Launch?
Für mich sieht das bei Vega nach einem ganz normalen Zeitrahmen aus.
Screemer
2017-03-18, 11:14:10
Es gibt keine Verzögerung bei Vega. Seit gut einem Jahr ist klar, wann der kommt. Alles vorher wäre extrem überraschend.
Locuza
2017-03-18, 12:47:20
Wobei auf der ersten Roadmap hat AMD Vega zwischen Ende 2016 und Anfang 2017 eingezeichnet:
http://images.anandtech.com/doci/10145/Roadmap2.jpg
Dino-Fossil
2017-03-18, 12:54:27
Inwiefern soll die "Verzögerung" an HBM2 liegen? GP100 hat doch schon ziemlich lange HBM2.
Wie schon angedeutet, gibt es einen Unterschied zw. HBM2 verfügbar in kleinen Mengen bei hohen Kosten und breiter Verfügbarkeit für den Massenmarkt.
Wobei es auch sein kann, dass (zusätzlich?) noch relativ spät Änderungen an Vega vorgenommen wurden um besser gegen Pascal und Nachfolger anzukommen.
BoMbY
2017-03-18, 13:29:42
Wobei auf der ersten Roadmap hat AMD Vega zwischen Ende 2016 und Anfang 2017 eingezeichnet:
http://images.anandtech.com/doci/10145/Roadmap2.jpg
Ja, und die Pixelzähler haben daraus eines der vielen total falschen Release-Datumsmöglichkeiten extrahiert, nur weil jemand bei AMD einen Knick in der Optik hatte, als er die Folie erstellt hat.
Screemer
2017-03-18, 13:36:15
Wobei auf der ersten Roadmap hat AMD Vega zwischen Ende 2016 und Anfang 2017 eingezeichnet:
http://images.anandtech.com/doci/10145/Roadmap2.jpg
wenn man nach der roadmap geht, dann müsste polaris auch schon mitte mai veröffentlicht worden sein. war aber dann erst ende juni, anfang juli. ich denke eher, dass das ready to launch daten sind und nicht die zeitpunkte der verkaufstarts.
Thunder99
2017-03-18, 16:37:12
Die Argumente wegen HBM 2 kann ich schon verstehen. Nvidia hat einfach ein Menge gekauft bzw geordert das die Produktion nicht nachkommt, da es noch nicht in Massen produziert wird?!
Vega wird sowas von neu sein, dass der Release im späten zweiten Quartal in Ordnung geht.
Dumm nur, dass im oberen Preissegment man Nvidia alleine lässt und sich Fette Gewinne entgehen lässt...
N0Thing
2017-03-18, 18:41:02
Inwiefern soll die "Verzögerung" an HBM2 liegen? GP100 hat doch schon ziemlich lange HBM2.
Bezieht Nvidia für GP100 nicht HBM2 von Samsung und AMD wird weiterhin die Produkte von SK Hynix einsetzen?
Abgesehen von Chip selber, vielleicht hat SK Hynix merklich länger für ihre HBM2-Chips gebraucht als es bei Samsung der Fall war.
horn 12
2017-03-18, 18:44:30
Nun Vega XT und Vega X oder wie immer sie heißen mögen brauchen ganz andere Kapazitäten als GP 100.
BlacKi
2017-03-18, 18:48:13
Nun Vega XT und Vega X oder wie immer sie heißen mögen brauchen ganz andere Kapazitäten als GP 100.
selbst wenn es der selbe hersteller wäre, da ganz andere mengen benötigt werden, spielt gp100 da keine rolle.
Botcruscher
2017-03-18, 18:55:46
Ja, und die Pixelzähler haben daraus eines der vielen total falschen Release-Datumsmöglichkeiten extrahiert, nur weil jemand bei AMD einen Knick in der Optik hatte, als er die Folie erstellt hat.
Der wird da schon nicht ohne Grund stehen. AMD wird zu dem Zeitpunkt schon noch früher geplant haben aber was sind schon 6 Monate. Den umgekehrten Fall haben wir doch mit AM4. Erste Boards gab es im Juli und der Termin stand mit Feb/März ewig fest. Trotzdem will man da was von vorzogen erzählen.
Mehr Bilder vom Trailer zur neuen Vega GPU:
https://cdn.videocardz.com/1/2017/03/AMD-Radeon-RX-Vega-5-1000x423.jpg
https://videocardz.com/67454/amd-radeon-rx-vegas-got-a-soul-and-brain
Jetzt kann man das auch lesen oder zumindest erahnen
Sieht fuer mich wie zwei Schalter aus (Groesse, 4 Bezeichnungen).
BIOS switch und... :confused:
Imho steht da
ON-██-RED
OFF-██-BLUE
Das Ding macht schon was her.
Es saueft im Bild komplett ab, aber es sind schon 2x8 Pins oder?
TheGood
2017-03-18, 20:47:15
Die Argumente wegen HBM 2 kann ich schon verstehen. Nvidia hat einfach ein Menge gekauft bzw geordert das die Produktion nicht nachkommt, da es noch nicht in Massen produziert wird?!
Vega wird sowas von neu sein, dass der Release im späten zweiten Quartal in Ordnung geht.
Dumm nur, dass im oberen Preissegment man Nvidia alleine lässt und sich Fette Gewinne entgehen lässt...
Wenn AMD jetzt schon seit 3 Jahren weiss sie brauchen HBM2 speicher, warum sollten Sie diesen nicht schon vor ewigen Zeiten geordert haben? Das macht doch keinen Sinn. Die Theorie ist für mich einfach nur abstrus....
Linmoum
2017-03-18, 20:59:29
Und AMD selbst kann jetzt genau wie beeinflussen, wann SK Hynix die Massenproduktion startet und entsprechender HBM2 verfügbar ist?
Screemer
2017-03-18, 21:32:07
in dem sie in als einziger kunde vielleicht ordern?!
5CH4CHT3L
2017-03-18, 21:37:10
in dem sie in als einziger kunde vielleicht ordern?!
Man muss trotzdem erst entiwckeln und Optimieren obwohl das Geld von Vega erst viel später kommt
Screemer
2017-03-18, 22:26:03
das zeug steht bei hynix seit ner halben ewigkeit auf der roadmap. kann mir auch nicht vorstellen, dass der schritt von hbm1 auf 2 für ne foundry so kompliziert ist.
Was soll denn genau entwickelt werden?
Die Technologie mit TSVs und dem stacking haben sie schon lange. Sie muessen nur neue DRAM slices mit hoeherer Dichte und hoeherem (immer noch vergleichbar niedrigem) Takt fertigen. Und laut eigenen Angaben waere Hynix auch bereits seit Q3/2016 soweit, nur hat eben die Nachfrage gefehlt.
Linmoum
2017-03-18, 22:41:12
Und laut eigenen Angaben waere Hynix auch bereits seit Q3/2016 soweit, nur hat eben die Nachfrage gefehlt.
Oder alles ging bzw. geht direkt an AMD. ;)
Es gab ja mal Gerüchte, dass AMD "exklusiv-Partner" wäre und entsprechende Priorität hat. Könnte auch ein Grund dafür sein, warum sich Hynix beim Produktkatalog mit der HBM2-Listung nicht entscheiden kann.
AffenJack
2017-03-18, 22:49:29
Oder alles ging bzw. geht direkt an AMD. ;)
Es gab ja mal Gerüchte, dass AMD "exklusiv-Partner" wäre und entsprechende Priorität hat. Könnte auch ein Grund dafür sein, warum sich Hynix beim Produktkatalog mit der HBM2-Listung nicht entscheiden kann.
Wenn irgendwer HBM2 haben will, kannst von ausgehen, dass die den bekommen würden. Hynix lässt sich bestimmt nicht ewig Käufe entgehen, weil AMD irgendwann mal mit einer GPU ankommt. Vielleicht haben sie ja eine gewisse Priorität, dass sie AMD zuerst beliefern. Nur brauchte AMD bis jetzt kein HBM2. Ich kann mir auch nicht vorstellen, wieso HBM2 Schwierigkeiten machen sollte. Offensichtlich fehlen einfach die Kunden und AMD hat ihre GPU halt nicht früher fertig gekriegt.
Tesseract
2017-03-18, 23:11:15
das zeug steht bei hynix seit ner halben ewigkeit auf der roadmap. kann mir auch nicht vorstellen, dass der schritt von hbm1 auf 2 für ne foundry so kompliziert ist.
HBM1 war ja quasi nur ein testlauf der technik in kleinserie wärend HBM2 in wesentlich größeren stückzahlen gefertigt werden wird. es geht also wohl weniger um "OMG, wie machen wir das bloß???" sondern mehr darum, dass einfach viele maschinen, räume usw. umgestellt werden müssen und man da dem zeitplan hinterherhinkt.
vinacis_vivids
2017-03-19, 00:04:11
Leute, der Treiber ist zurzeit des Pudels Kerns. Der ist einfach noch nicht reif und verschlingt jetzt die meiste Zeit.
Troyan
2017-03-19, 10:09:20
Wenn irgendwer HBM2 haben will, kannst von ausgehen, dass die den bekommen würden. Hynix lässt sich bestimmt nicht ewig Käufe entgehen, weil AMD irgendwann mal mit einer GPU ankommt. Vielleicht haben sie ja eine gewisse Priorität, dass sie AMD zuerst beliefern. Nur brauchte AMD bis jetzt kein HBM2. Ich kann mir auch nicht vorstellen, wieso HBM2 Schwierigkeiten machen sollte. Offensichtlich fehlen einfach die Kunden und AMD hat ihre GPU halt nicht früher fertig gekriegt.
AMD benötigt viel schnelleren HBM2 Speicher als nVidia. GP100 wurde für vier Stacks designt, Vega nur mit zwei. Wer weiß, wie aufwendig es ist, die Taktrate von HBM2 entsprechend nach oben zu bringen.
Selbst im offiziellen und öffentlichen Katalog von Hynix gibt es keinen HBM2 Speicher mit 256GB/s sondern nur 204,8GB/s...
[MK2]Mythos
2017-03-19, 10:48:45
Und von wem stammt dann deiner Meinung nach der auf den VEGA Karten verbaute Speicher?
vinacis_vivids
2017-03-19, 13:05:41
Selbst im offiziellen und öffentlichen Katalog von Hynix gibt es keinen HBM2 Speicher mit 256GB/s sondern nur 204,8GB/s...
AMD bestellt nach Katalog wie die Oma bei Otto-Versand?
Der_Korken
2017-03-19, 13:17:01
Wenn HBM2 mit 2Ghz noch nicht lieferbar ist, könnte AMD immer noch einen V10-Salvage mit 52 oder 56 CUs releasen, für den 1,6Ghz vielleicht ausreichen. Die guten Chips hält man zurück, bis es den passenden Speicher dafür gibt. Ist zwar kein optimaler Launch, aber warum Monate warten, wenn man auch mit V10 light schon Kohle scheffeln kann?
rentex
2017-03-19, 13:25:03
Leute, der Treiber ist zurzeit des Pudels Kerns. Der ist einfach noch nicht reif und verschlingt jetzt die meiste Zeit.
Da nutzt die schönste Hardware nix,
wenn der Treiber,
gar nix ist.
vinacis_vivids
2017-03-19, 13:37:17
Its done when its done.
Ich rechne mit Mai/Juni als Releasedatum.
dildo4u
2017-03-19, 13:39:48
Da nutzt die schönste Hardware nix,
wenn der Treiber,
gar nix ist.
Die 480 kam auch mit nem Schrott Treiber das wird AMD nicht aufhalten.
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/73945-gtx-1060-vs-rx-480-updated-review-23.html
dargo
2017-03-19, 13:41:49
Schrott Treiber. :facepalm: dildo wieder on the best :uup:
Dann wollen wir mal den Schrott Nvidia Treiber nicht vergessen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11315315&postcount=4928
aceCrasher
2017-03-19, 18:00:55
Its done when its done.
Ich rechne mit Mai/Juni als Releasedatum.
Leider ist das ein ziemlich problematisches Datum, ein großer Teil der High End/Enthusiast Käufer scheinen jetzt, falls sie nicht bereits eine 1080 haben, die nun für 500€ erhältlichen 1080s oder gleich 1080TIs zu kaufen. Das ist ja eigentlich genau der Markt für den Vega gemacht ist, drunter hat man sowieso schon P10.
Blediator16
2017-03-19, 18:03:12
Leider ist das ein ziemlich problematisches Datum, ein großer Teil der High End/Enthusiast Käufer scheinen jetzt, falls sie nicht bereits eine 1080 haben, die nun für 500€ erhältlichen 1080s oder gleich 1080TIs zu kaufen. Das ist ja eigentlich genau der Markt für den Vega gemacht ist, drunter hat man sowieso schon P10.
Die, die jetzt bereits die 1080TI gekauft haben, hätten AMD nicht einmal in Erwägung gezogen. AMD sollte meiner Meinung nach nicht direkt mit Nvidia konkurrieren, sondern dazwischen oder drüber. AMD sind die letzten, die Nvidias Preise runterdrücken wollen, damit noch mehr Leute für weniger die Nvidia Karten kaufen. Das hatten wir ja schon die letzten Jahre mehr als genug.
vinacis_vivids
2017-03-19, 18:11:43
Leider ist das ein ziemlich problematisches Datum, ein großer Teil der High End/Enthusiast Käufer scheinen jetzt, falls sie nicht bereits eine 1080 haben, die nun für 500€ erhältlichen 1080s oder gleich 1080TIs zu kaufen. Das ist ja eigentlich genau der Markt für den Vega gemacht ist, drunter hat man sowieso schon P10.
Zwischen der 1080 und 1080ti klafft eine Lücke. Ebenso zwischen Polaris und 1070. Da ist genügend Raum für die Platzierung der unterschiedlichen Chips. Die 1080 wird auf jeden Fall kassiert zum deutlich besseren Preis als die jetzigen 500€ und zudem 4k tauglich. Quasi ist 200-700+++ alles offen für Vega. Da tut es gut den Treiber zu polieren um auch die 1080ti zu schlagen (wenn auch nicht überall).
BlacKi
2017-03-19, 18:15:55
Die, die jetzt bereits die 1080TI gekauft haben, hätten AMD nicht einmal in Erwägung gezogen. AMD sollte meiner Meinung nach nicht direkt mit Nvidia konkurrieren, sondern dazwischen oder drüber. AMD sind die letzten, die Nvidias Preise runterdrücken wollen, damit noch mehr Leute für weniger die Nvidia Karten kaufen. Das hatten wir ja schon die letzten Jahre mehr als genug.
und ich dachte immer amd wäre gewinn orientiert :confused: wieder was gelernt:cool:
Blediator16
2017-03-19, 18:57:56
und ich dachte immer amd wäre gewinn orientiert :confused: wieder was gelernt:cool:
Was ist an dazwischen oder drüber so schwer zu verstehen? Zwischen 1080 und 1080ti und über 1080ti mit entsprechenden Preisen. Jetzt verständlicher?
BlacKi
2017-03-19, 19:23:26
mir gings garnicht um diese aussage. wobei die 30% zwischen 1080 und ti nicht wirklich viel sind.
vega wird so oder so nicht so platziert das sie genau zwischen jene karte passt. alle amd karten hatten keine reserven sei es fiji oder die 480, die chips wurden alle bis an die grenze getrieben, amd hat keine leistung zu verschenken, sie verkauft sie lieber.
Leider ist das ein ziemlich problematisches Datum, ein großer Teil der High End/Enthusiast Käufer scheinen jetzt, falls sie nicht bereits eine 1080 haben, die nun für 500€ erhältlichen 1080s oder gleich 1080TIs zu kaufen. Das ist ja eigentlich genau der Markt für den Vega gemacht ist, drunter hat man sowieso schon P10. Tja ich hätte jetzt bei der 1080 zugeschlagen, gebraucht gibts die ja noch mal günstiger. Aber ne nach 5 Jahren nvidia muss mal wieder AMD in meinem PC Einzug halten. Ich drück AMD die Daumen das die Vega abgeht wie eine Rakete. Ich hoffe nur bei Performance Watt schließt AMD zu nvidia auf oder nähert sich wieder.
aceCrasher
2017-03-19, 20:00:28
Die, die jetzt bereits die 1080TI gekauft haben, hätten AMD nicht einmal in Erwägung gezogen.
Was teilweise glaube ich auch daran liegt, dass viele Leute AMD gar nicht zutrauen mit der 1080ti rivalisieren zu können, da Fiji sich gegen GM200 ja auch nicht gerade mit Ruhm bekleckert hat.
Iruwen
2017-03-19, 20:32:38
Tja ich hätte jetzt bei der 1080 zugeschlagen, gebraucht gibts die ja noch mal günstiger. Aber ne nach 5 Jahren nvidia muss mal wieder AMD in meinem PC Einzug halten. Ich drück AMD die Daumen das die Vega abgeht wie eine Rakete. Ich hoffe nur bei Performance Watt schließt AMD zu nvidia auf oder nähert sich wieder.
Wenn nicht wieder irgendeine Nase meint die Performance auf den letzten Drücker soweit pushen zu müssen, dass der Sweet Spot überschritten wird und der Treiber halbwegs taugt, vielleicht.
Aber machen wir uns nichts vor, es ist immer noch AMD.
TheGood
2017-03-20, 20:12:40
Ja ich hoffe auch, dass sie das Startlineup gut hinkriegen.
Ich wäre für ne Nano und ne normale Variante und die Kotzvariante etwas später. Diese würde ich aber gleich alle beim Launch mit ankündigen.
Vielleicht müssen Sie aber mal zur Abwechslung gar keine Kotzvariante bringen. DAs wäre mal was neues :D Ich bin immer noch der Meinung dass Nvidia nicht ohne Grund die 1080Ti So "günstig" verkauft....
AMD Sends Out 100 Patches, Enabling Vega Support In AMDGPU DRM (http://www.phoronix.com/scan.php?page=news_item&px=AMDGPU-Vega-10-Support)
Phoronix
Unicous
2017-03-20, 23:20:22
Whoop, whoop.
Nakai
2017-03-20, 23:43:34
Cool, Hardwarevirtualisierung auf Vega10.
Locuza
2017-03-20, 23:50:00
Als zeitweilige Übersicht:
http://cdn.wccftech.com/wp-content/uploads/2016/03/AMD-Polaris-GPU-Architecture-635x226.jpg
Vega:
gmc : 9.0
ih: ?
smc: ?
dce: 12.0
gfx: 9.0
sdma: 4.0
uvd : 7.0
vce : 4.0
(gmc = graphics memory controller)
(ih = interrupt handler)
(smc = system management controller)
(dce = display controller engine)
(sdma = system direct memory access)
Natürlich sind das einfache Nummern die AMD vergeben kann, wie sie lustig sind, aber jeder IP-Block scheint eine neue (major) Revision bekommen zu haben.
Auch so gesehen, dass es wohl ueberall neue major Versionen gibt.
IH ist v4.0: https://cgit.freedesktop.org/~agd5f/linux/tree/drivers/gpu/drm/amd/amdgpu/vega10_ih.c?h=amd-staging-4.9
Koennte netten Support fuer VP9 geben, vielleicht auch HDMI 2.1? und weitere gimmicks.
edit: radeonsi Patches sind auch da: https://lists.freedesktop.org/archives/mesa-dev/2017-March/148795.html
Es fehlen noch Funktionen, aktuell nur bis OGL3.1 aber der Launch rueckt sicherlich naeher
horn 12
2017-03-21, 00:48:48
@d2kx
Vega Launch also Mitte bis Ende Mai 2017 ?
Interessant :-)
BoMbY
2017-03-21, 13:15:54
Als zeitweilige Übersicht:
http://cdn.wccftech.com/wp-content/uploads/2016/03/AMD-Polaris-GPU-Architecture-635x226.jpg
Vega:
gmc : 9.0
ih: ?
smc: ?
dce: 12.0
gfx: 9.0
sdma: 4.0
uvd : 7.0
vce : 4.0
(gmc = graphics memory controller)
(ih = interrupt handler)
(smc = system management controller)
(dce = display controller engine)
(sdma = system direct memory access)
Natürlich sind das einfache Nummern die AMD vergeben kann, wie sie lustig sind, aber jeder IP-Block scheint eine neue (major) Revision bekommen zu haben.
Ich denke einige Sachen wurden ersetzt, bzw. sind neu:
http://i.imgur.com/d6whTgC.png
NBIO (Bus I/O) und NBIF (Bus Interface) beziehen sich IMHO auf das Infinity Fabric.
SMUIO ist das "System Managment Unit IO".
"ATHUB is part of the memory controller"
HDP ist "Host Data Path"
"MP is the system management controller"
MMHUB ist "MultiMedia Hub"
OSSSYS = "OS Services"
THM = "THerMal control"
DrFreaK666
2017-03-21, 18:53:12
@d2kx
Vega Launch also Mitte bis Ende Mai 2017 ?
Interessant :-)
Verstehe nicht wieso AMD nicht mit dem Release-Date herausrückt
Gipsel
2017-03-21, 19:03:40
Verstehe nicht wieso AMD nicht mit dem Release-Date herausrücktDas könnte man z.B. tun, weil AMD das selbst noch nicht weiß und man sich bis recht lange die Möglichkeit offenläßt, noch einen zusätzlichen Spin einzuschieben, um auf die angepeilte Performance zu kommen (was dann so ~8 Wochen Verzögerung bedeutet, also Minimum, falls es nicht nur eine Minimaländerung in einem Metallayer ist, um z.B. ein sehr eng begrenztes Problem mit dem Takt zu regeln und man schon halb prozessierte Wafer auf Halde liegen hat [recht riskant]).
horn 12
2017-03-25, 05:30:46
Es wird spannend:
https://videocardz.com/67642/amd-radeon-rx-vega-is-just-around-the-corner
Ph03n!X
2017-03-25, 08:38:08
Warum nur 4 und 8GB? Sind 16 GB noch so teuer?
StefanV
2017-03-25, 08:44:37
Warum nur 4 und 8GB? Sind 16 GB noch so teuer?
Jop
Daran wird sich auch so schnell nix ändern, bis die Kapazität pro Die Slice steigt.
[MK2]Mythos
2017-03-25, 09:26:18
Er spricht zuerst von verschiedenen, von den Kartenherstellern, wählbaren Stack Konfigurationen und nennt dann 4 Gig oder 8 Gig. Ich bin mir nicht ganz sicher ob er damit meint, dass wir Karten mit 4 oder 8 Gb HBM sehen werden.
AffenJack
2017-03-25, 09:30:15
Mythos;11330876']Er spricht zuerst von verschiedenen, von den Kartenherstellern, wählbaren Stack Konfigurationen und nennt dann 4 Gig oder 8 Gig. Ich bin mir nicht ganz sicher ob er damit meint, dass wir Karten mit 4 oder 8 Gb HBM sehen werden.
Ich würde es vermuten. Es passt zu 2x 2High Stacks ->4Gb und 2x 4High Stacks 8Gb. 2x 8High dann nur in der Pro Version für die 16 Gb.
Wenn man sich entschließt Vega aber sogar noch mit 4Gb anzubieten, dann muss HBM2 noch extrem teuer sein.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.