Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
dargo
2017-04-15, 21:36:04
@dargo: Die Werte werden immer weiter übertragen. :P
Dann nimm halt die frischen Werte der GTX1080 TI. Diese hat 11,5 TFLOPs (avg. ~1,6Ghz) und ist "nur" 94% vor der RX480 mit 5,4 TFLOPs. Selbst Fiji sieht in Doom nicht mehr so grausam aus. Die GTX1080 TI ist in 1440p nur noch 39% schneller mit 33% mehr TFLOPs. Die Radeons könnten übrigens in den paar Monaten ebenfalls leicht in Doom zugelegt haben. Leider testet sowas niemand nachträglich.
Soweit ich verstanden habe, sind die CUs auch modernisiert worden. Kann also gut sein, dass deren Auslastung etwas steigt.
Das ist richtig. Bei Vega spricht AMD nicht mehr von CUs sondern NCUs. Entweder Next CUs oder halt New CUs.
Hübie
2017-04-15, 21:45:06
Das liegt einfach daran dass doch nicht alles skaliert. Mit TFlops kommst du hier nicht weit. ROPs, TMUs, Registerspace und Cache sind ebenfalls relevante Größen. Nimm doch nicht die eine Kirsche und stell diese als Allgemeingültig hin. Wenn ich von einer Leistungseinschätzung für Vega spreche dann rede ich nicht über cherry picked corner cases. Das ergibt also keinen Sinn da weiter zu diskutieren.
dildo4u
2017-04-15, 21:47:47
Dann nimm halt die frischen Werte der GTX1080 TI. Diese hat 11,5 TFLOPs (avg. ~1,6Ghz) und ist "nur" 94% vor der RX480 mit 5,4 TFLOPs. Selbst Fiji sieht in Doom nicht mehr so grausam aus. Die GTX1080 TI ist in 1440p nur noch 39% schneller mit 33% mehr TFLOPs. Die Radeons könnten übrigens in den paar Monaten ebenfalls leicht in Doom zugelegt haben. Leider testet sowas niemand nachträglich.
Das ist richtig. Bei Vega spricht AMD nicht mehr von CUs sondern NCUs. Entweder Next CUs oder halt New CUs.
Keiner kauft 1080 Ti die nur mit 1.6GHz laufen,Wenn Vega sich wieder nicht OC lässt gibt es kein Zweikampf.
https://www.computerbase.de/2017-04/zotac-gtx-1080-ti-amp-extreme-test/
dargo
2017-04-15, 21:55:20
Das liegt einfach daran dass doch nicht alles skaliert. Mit TFlops kommst du hier nicht weit. ROPs, TMUs, Registerspace und Cache sind ebenfalls relevante Größen.
Polaris hat doch nur 32 ROPs. Vega wird mit Sicherheit Faktor 2 haben. TMUs auch sicherlich mindestens 256. Das Ding wird trotz HBM mehr als doppelt so groß wie P10 sein.
Nimm doch nicht die eine Kirsche und stell diese als Allgemeingültig hin. Wenn ich von einer Leistungseinschätzung für Vega spreche dann rede ich nicht über cherry picked corner cases. Das ergibt also keinen Sinn da weiter zu diskutieren.
Der Unterschied zwischen uns ist der, dass ich nicht mehr hauptsächlich auf Games mit Steinzeit APIs schaue.
Keiner kauft 1080 Ti die nur mit 1.6GHz laufen,Wenn Vega sich wieder nicht OC lässt gibt es kein Zweikampf.
https://www.computerbase.de/2017-04/zotac-gtx-1080-ti-amp-extreme-test/
Dildos Logik mal wieder. :facepalm:
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+GTX+fuer+Gaming/GTX+1080+Ti.html
Ich zähle alleine bei MF 665 verkaufte FE Exemplare.
robbitop
2017-04-15, 21:57:28
Ich denke, dargo zieht Doom als Referenz an, weil es zeigt, was GCN rohleistungsnormiert kann, wenn man es auslastet. Vegas CUs sind prinzipiell mit ähnlich vielen Ausführungsressourcen ausgestattet, wie die in Polaris. Aber AMD will die Auslastung erhöhen. Ggf ergibt sich dann auch in allen anderen Spielen rohleistungsnormiert ein ähnliches Verhalten mit Vega, wie mit Polaris in nur Doom. Das wäre zwar optimistisch - aber sicherlich das Ziel und ggf nicht undenkbar. Ggf. Liegt die Wahrheit irgendwo dazwischen.
In Doom erreichen GCN ALUs offenbar fast Maxwell Niveau.
Zum Thema low level:
eine low level API allein reicht nicht. Doom ist schon ein Extremfall. Am Ende liegt dann mehr Verantwortung beim Entwickler. Was low level APIs offenbar immer zu holen scheinen ist geringerer Overhead. Aber ein Schalter, den man dadurch umlegt, hat man dennoch nicht. Bei vielen DX12 Titeln wird GCN im GPU Limit kaum schneller. Auch mit AC manchmal kaum -> hängt halt von der konkreten Implementierung ab. Und das wird nicht homogen passieren. Nicht jedes Studio hat Leute wie Tiago und Axel. Und nicht jedes Studio priorisiert es so.
IMO ist es wichtig, dass die Controllogik und der Shadercompiler auch ohne Optimierung so viel wie möglich Leistung extrahieren. So wie bei Maxwell. Genau das wird AMD IMO auch anstreben.
dargo
2017-04-15, 22:06:16
Bei vielen DX12 Titeln wird GCN im GPU Limit kaum schneller.
Ich kenne kein einziges, in meinem Fall Grenada.
In Doom erreichen GCN ALUs offenbar fast Maxwell Niveau.
Woran machst du das fest? Schau dir an wo in Doom @Vulkan eine RX480 und eine GTX1060 liegt.
59617
Als Referenz trennen beide 15% bei den TFLOPs.
Screemer
2017-04-15, 22:30:04
@dargo: Die Werte werden immer weiter übertragen. :P Klick doch den link. Exakt gleich (101,9 fps).
Es ist nur des prozentuale Verhältniss von 480ref zu 1070fe gleich 100->111%. Nicht aber die Werte. 79->87,9 und 51,6->57,4fps. Gleiches Spiel mir der 1080fe 100->153% bei anderen werten.
Die ALUs ändern sich nicht.
Klar, RPM hatte noch keine GCN CU.
Sollte natuerlich normalerweise keine Rolle spielen, nur zur Richtigstellung.
robbitop
2017-04-15, 22:56:38
Woran machst du das fest? Schau dir an wo in Doom @Vulkan eine RX480 und eine GTX1060 liegt.
59617
Als Referenz trennen beide 15% bei den TFLOPs.
Heutzutage irgendwie immer blöd mit boost und basistaktraten. Welche Taktraten liegen denn in der Praxis an? Wenn ich Boost vs Boost vergleiche, komme ich auf 5,8 TF vs 4,4 TF.
Sind 32 % mehr TF für RX480. Normiere ich obige Ergebnisse (RX480 liegt 22% vor 1060) entsprechend (reduziere also linear das Ergebnis der RX480 um 32 %), erreicht sie 92% des Ergebnisses von Pascal. Rohleistungsnormiert. Ein verdammt guter Wert für Polaris ggü Pascal.
Ggf sind die boost Taktraten leicht anders - an der Grundaussage ändert es aber wohl wenig: lastet man GCN ideal aus, kommt man fast auf Maxwell/Pascal "IPC".
aufkrawall
2017-04-15, 23:00:06
Einzelfälle gibts immer. Hier schlägt die Fury X die 1080, und das mit DX11 ;) :
http://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/vikings-wolves-of-midgard-test-gpu
Man sollte sich vielleicht nur nicht auf Einzelfälle versteifen, sondern sich auf einen Querschnitt für eine repräsentativere Bewertung beziehen...
dargo
2017-04-15, 23:13:32
Heutzutage irgendwie immer blöd mit boost und basistaktraten. Welche Taktraten liegen denn in der Praxis an? Wenn ich Boost vs Boost vergleiche, komme ich auf 5,8 TF vs 4,4 TF.
Das ist in der Tat ein großes Problem. Die Geizhals-/ sowie Herstellerangaben kann man völlig vergessen. Bei Polaris sind die zu hoch, bei Pascal zu niedrig. Den avg.Takt muss man sich heute leider aus den einzelnen Reviews rausfischen.
RX480 Referenz bei etwa 1180Mhz, ergibt 5,4 TFLOPs.
https://www.computerbase.de/2016-06/radeon-rx-480-test/5/
GTX1060 FE etwa 1850Mhz, ergibt 4,7 TFLOPs.
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-9.html
Edit:
Bei CB kommt die GTX1060 FE auf etwa 1840Mhz im Schnitt.
https://www.computerbase.de/2016-07/geforce-gtx-1060-test/3/#abschnitt_taktraten_der_founders_edition_und_msi_gaming
Einzelfälle gibts immer. Hier schlägt die Fury X die 1080, und das mit DX11 ;) :
Natürlich gibts die. Ich hatte auch schon im Ryzen Thread dieses Video verlinkt.
https://www.youtube.com/watch?v=RkJUPPHI4-I
Dort sieht man, dass P10 gegenüber GP106 auch sehr gut in Titanfall 2 und CoD: IW steht, beides DX11 Titel. Man sieht aber auch sehr gut (das ist dann an robbitop gerichtet), dass P10 immer in DX12 gegenüber DX11 schneller wird, oder halt Vulkan vs. OpenGL. Natürlich ist es jetzt schwer zu sagen ob das immer vollständiges GPU-Limit ist. Könnte auch zum Teil am Treiberoverhead liegen. Aber wie ich schon sagte... mein Grenada ist in jedem Spiel welches DX12 unterstützt hier auch im GPU-Limit schneller als in DX11.
Hübie
2017-04-16, 00:26:53
Es ist nur des prozentuale Verhältniss von 480ref zu 1070fe gleich 100->111%. Nicht aber die Werte. 79->87,9 und 51,6->57,4fps. Gleiches Spiel mir der 1080fe 100->153% bei anderen werten.
Die grauen Werte sind gemeint. Die schwarzen werden gebencht.
@dargo: Was die Steinzeit APIs können sehe ich regelmäßig. Sehe also keinen Grund DX12 und Vulkan ständig zu hypen. Das mag sich ändern, aber status quo ist D3D11 äquivalent.
ps: Die Reviews zeigen ein einziges Sample. Bei der heutigen silicon-lottery kann man also nicht mal etwas am Hersteller festmachen. Ein guter Kühler hilft zwar immer, aber ein perfekter Chip noch mehr.
Polaris hat doch nur 32 ROPs. Vega wird mit Sicherheit Faktor 2 haben. TMUs auch sicherlich mindestens 256. Das Ding wird trotz HBM mehr als doppelt so groß wie P10 sein.
Ja dann nimmst du halt etwas anderes das wohl limitieren wird, worüber wir jedoch nur spekulieren können. Es skaliert jedenfalls nicht linear.
vinacis_vivids
2017-04-16, 03:53:20
Bei Gears of Wars, eine ziemlich gute DX12 Implementierung, liegt die Titan X 45% vor der Fury X und 30% vor der 1080 FE.
http://www.tweaktown.com/tweakipedia/113/gears-war-tested-dx12-gtx-1080-rx-480-more/index.html
Wenn Vega in diesem Spiel FuryX + 50-60% erreicht, dann ist sie schneller als 1080ti/Titan X.
Nur ein paar Gedankenspiele :)
Doppelte FuryX Leistung wäre eine glatte Vernichtung von Pascal.
Unter 8k ist die Titan X 94% schneller als RX480:
http://www.tweaktown.com/tweakipedia/112/gears-war-benchmarked-dx12-8k-resolution/index.html
Ein doppelte RX480-Leistung wäre ein Kopf an Kopf Rennen an der Spitze.
Stimmt schon optimistisch.
Schaffe89
2017-04-16, 04:12:37
Es wird Vega mit 4GB geben,da können sie noch so viel Marketing mit ihrem HBC betreiben,die wird keiner für 500€ kaufen.
Einfach nur wahnsinnig wie sich AMD mit der HBM2 Karte selbst das Spiel vermiest.
Eine 4GB Karte wird angesichts der RX580 8GB komplett in der Luft zerissen, die wird wohl die Konkurrenz zur GTX 1070 werden, also die GTX1070 hat dann mit doppeltem V-ram ein sehr sehr leichtes Spiel.
Dass die sich das trauen hätte ich niemal gedacht.:confused::freak:
Wieviel soll die kosten? Mehr als 299 Dollar können die nicht verlangen.
Der Unterschied zwischen uns ist der, dass ich nicht mehr hauptsächlich auf Games mit Steinzeit APIs schaue.
Der Unterschied ist einfach, dass man nicht mit Kirschen argumentieren sollte. Doom ist ein AMD unterstützes Spiel und leistungstechnisch eine große Ausnahme.
Es wird nichts bringen sich auf Kirschen zu versteifen und davon etwas ableiten zu wollen.
Es gibt anscheinend 4 Vega 10 Versionen. Die DAU Version mit 4GB, 2 mit 8GB und eine Dualkarte.
Die 4GB Version wird sicher die GTX 1070 angreifen, die erste 8GB Version die GTX 1080 und die zweite mit Wasserkühlung dann zwischen 1080 und 1080 Ti liegen.
Ich tippe auf 200 Watt, 250 Watt und 275 Watt TDP.
Bei CB liegt die 1080Ti in WHQD 221% vor der RX480. Ich halte es für ausgeschlossen, dass Vega 10 da ran kommt.
TheGood
2017-04-16, 07:22:54
Du kannst dir einfach mal die Mühe machen und bekannte Leaks zusammen suchen und daraus mal lesen. Ist echt nicht schwierig. :rolleyes: Deine Kommentare sind demnach also genauso wertlos. Natürlich wäre es schön wenn V10 GP102 schlagen würde, aber es wird nicht eintreten (mal Kirschen* ausgenommen). Du kannst mir glauben, dass ich bei 8 GB eine Fiji gekauft hätte. Kannst also aufhören irgendwie zu versuchen mich irgendwo herein zu stecken (falls dies deine Intention war).
*Hitman lief damals auch auf NV grottig, weil deren Büro mit freundlicher Unterstützung von AMD gepimpt wurde. Mittlerweile ist auch dies passé. Also wird es peu à peu auch in Kirschen-Fällen wieder so eintreten, dass es sich normalisiert.
Nachdem was man so weiß kann man von einem überproportionalem Leistungssprung ausgehen und da wir ja schon einen Chip mit 4096 ALUs kennen, kann man von da anfangen hoch zu rechnen. Ich sehe es also exakt wie robbitop.
Nein ich versuch dich nirgends reinzustellen (fanboy kriege gibt's hier genug andere), aber dieses "ich weis was, was ihr nicht wisst" auftreten und dann nichts sagen, bringt einfach niemanden weiter und auch die Diskussion nicht. Ailuros macht das zwar auch immer wieder, aber eben anders. Entweder sag ich konkret was ich sagen kann oder ich lasse es bleiben...
Ich denke die meisten rechnen mit einer Performance irgendwo zwischen 1080 und 1080TI, wobei es eigentlich näher an der 1080TI sein muss. Die Hoffnung ist natürlich eine andere und wenn man so manche Dinge hochrechnet, könnte man schon auf deutlich mehr kommen, aber das klappt am Ende nichts weil dann wiederum woanders Flaschenhälse entstehen würden.
Wenn Sie es richtig machen sogar darüber, aber da ist der Einwand, dass die ganzen Profi Features (hatte ich nicht bedacht) mit drin sind durchaus berechtigt und kann und wird natürlich dafür sorgen, dass dies am Ende wohl Performance kostet. Vielleicht ist der V11 chip am Ende doch nicht viel langsamer als V10.
Trotzdem ist die Erwartungshaltung, dass das Ding nur 500$ kosten darf auch etwas abstrus. Am Ende gilt es den Preis festzulegen, nachdem die Performance klar ist und danach zu bewerten.
Warum sollten sie eine Vega mit 4 GB nicht verkaufen können (wenn es das überhaupts gibt!! Schaffe89 hat hier mal wieder irgendwo irgendwas gelesen und es als Fakt dargestellt), wenn sie in den Tests darlegen können dass sie damit in 7/10 spielen keine speicherprobleme bekommen, weil der hbcc eben doch gut funktioniert ?? Ist gibt immer Menschen denen das für Ihren Arbeitseinsatz reichen würde. Ich möchte aber nochmals sagen, dass der Ansatz den AMD hier fährt auf jedenfall der richtigere ist als jedes mal noch mehr speicher auf die karten zu hauen... Vor allem wenn wirklich der Grossteil des Speichers nur ungenutzt ist...
TheGood
2017-04-16, 07:25:59
Ist eigentlich bekannt seit wann AMD an Vega strickt? Wenn der Tiled Rasterizer wirklich so viel bringt wie man momentan annimmt, ist es schon bemerkenswert, dass Nvidia diese Technologie schon 2014 eingesetzt hat und AMD drei Jahre hinterherhinkt. Nach den Ausführung von einigen hier im Thread klingt das Vorgehen und seine Vorteile eigentlich sehr logisch und ich habe mich gefragt, warum da noch keiner früher drauf gekommen ist. Wie lange war Maxwell bei Nvidia in der Pipeline?
Ne ich glaube darauf sollte man sich nicht festsetzen. ES wird sicher was bringen aber ich glaube nicht an einen enormen Leistungssprung. Vielleicht 5-10%.
TheGood
2017-04-16, 07:28:30
Keiner kauft 1080 Ti die nur mit 1.6GHz laufen,Wenn Vega sich wieder nicht OC lässt gibt es kein Zweikampf.
https://www.computerbase.de/2017-04/zotac-gtx-1080-ti-amp-extreme-test/
Auch das stimmt so natürlich nicht, ansonsten hätte Nivdia keine einzige FE Edition verkauft und wie diese auf Ihren Umsatz und gewinn beigetragen haben, hat man in den letzten Quartalen ja gesehen...
dargo
2017-04-16, 08:24:17
Einfach nur wahnsinnig wie sich AMD mit der HBM2 Karte selbst das Spiel vermiest.
Eine 4GB Karte wird angesichts der RX580 8GB komplett in der Luft zerissen, die wird wohl die Konkurrenz zur GTX 1070 werden, also die GTX1070 hat dann mit doppeltem V-ram ein sehr sehr leichtes Spiel.
Dass die sich das trauen hätte ich niemal gedacht.:confused::freak:
Wieviel soll die kosten? Mehr als 299 Dollar können die nicht verlangen.
Wahnsinnig ist höchstens, dass du jeden Blödsinn glaubst.
Der Unterschied ist einfach, dass man nicht mit Kirschen argumentieren sollte. Doom ist ein AMD unterstützes Spiel und leistungstechnisch eine große Ausnahme.
Von Vulkan, guter AC-Implementierung (laut Entwicklern wird diese in kommenden Titeln noch besser) und Shader Intrinsic Functions hast du auch noch nichts gehört wah? Wie robbitop schon gesagt hat... im besten Fall sollte AMD auch den Shader Compiler überarbeiten damit es keine Ausnahmefälle bleiben.
Es gibt anscheinend 4 Vega 10 Versionen. Die DAU Version mit 4GB, 2 mit 8GB und eine Dualkarte.
Wo steht das mit einem 4GB V10? Nenne mir ein Quelle.
Bei CB liegt die 1080Ti in WHQD 221% vor der RX480. Ich halte es für ausgeschlossen, dass Vega 10 da ran kommt.
Das verwundert hier wirklich niemanden nachdem du ja so spitze über Ryzen informiert warst. :ulol:
horn 12
2017-04-16, 09:02:51
Vega ist wahrscheinlich näher als wir denken!
AMD wird wohl volle Performance bieten zu einem extrem guten Preis und die Karte voll einschlagen lassen wollen
Ähnlich wie Ryzen und diese CPU setzen sich hervorragend ab
GTX 1080 / 1070 Käufer sollen wohl zum Grübeln überredet werden doch auf Vega zu setzen (Umzusatteln) und da wird wohl angesetzt werden!
nagus
2017-04-16, 09:07:01
https://charts.stocktwits.com/production/original_80291425.png?1492307785
[MK2]Mythos
2017-04-16, 09:10:51
Sieht nach nem ziemlich schlechten Fake aus. Quelle?
dargo
2017-04-16, 09:15:42
Ist es auch.
Noja... unter Vulkan jetzt nicht so unwahrscheinlich. Zeitpunkt auch nicht. Ich hatte unweit 6 Mai gehört, 8 wie dort nun steht kommt doch gut hin.
horn 12
2017-04-16, 09:16:28
Sagte doch dass AMD systematisch alles der Reihe nach abarbeitet!
Gute 3 Wochen und wir haben Vega im Haus mit teils bis zu doppelter GTX 1080 Performance (Vulkan) und man ist für Volta gewappnet!
Unter DX12 ähnlicher Voreil gegenüber Pascal!
dargo
2017-04-16, 09:17:13
Noja... unter Vulkan jetzt nicht so unwahrscheinlich.
Öhm... du hast aber schon gesehen, dass die Titan X 89% vor der GTX1080 liegt? :tongue:
nagus
2017-04-16, 09:18:48
Mythos;11350340']Sieht nach nem ziemlich schlechten Fake aus. Quelle?
warum ist es deiner meinung nach ein schlechter fake?
Mir gehts gar nicht um die ollen Grünen Abstände zueinander. Mir geht es um den dort genannten Wert der Vega zur (im Geiste) Fury :)
dargo
2017-04-16, 09:22:42
Mir gehts gar nicht um die ollen Grünen Abstände zueinander. Mir geht es um den dort genannten Wert der Vega zur (im Geiste) Fury :)
Auch das ist unrealistisch. Gerade in Doom @Vulkan performt Fiji sehr gut. Das würde bedeuten Vega ist knapp 150% schneller als Fury X. Jetzt bleibt mal auf dem Teppich. :tongue:
victore99
2017-04-16, 09:25:32
darf ich mal zusammenfassen, was grad diskutiert wird?
wir haben eine Grafikkarte von Nvidia, die erst wenige Wochen auf dem Markt ist, dh die Straßenpreise finden sich noch, und wollen bei der mit dem Preis diskutieren, um auf die Preislage einer AMD-Grafikkarte zu schließen, von der bis auf Chipgröße und Anzahl an HBM2-Stacks nichts bekannt ist?
ich zeig mal den Worstcase auf. 12,5TFlop nur bei selektierten Profikarten, Gamer müssen mit 11 TFlop auskommen. Vega ist hitziger als Hawaii, HBM2 taktet nur auf 700 MHz. die Architekturverbesserungrn sind eher Papiertiger. ergibt nen Haufen Probleme, knapp 360 GB/s Speichertransferrate. Leistungsregion zwischen 1070 und 1080, Preis entsprechend.
Möglichkeit zwei: 12,5 Tflop haben die heruntergetakteten Profikarten, Gamer kriegen 14 Tflop. der Chip ist leicht zu kühlen. HBM2 gibt es auf 1000 Mhz, beim Topdog vvtl sogar höher. Die Architekturverbesserungen katapultieren Vega über das Rohleisungs-Effizienzniveau von Paxwell. Resultat über 500GB/s Speichertransferrate, Performance deutlich über TXp..
Preisspekulationen sind einfach nur unnötig wie sonstwas, es sei denn, irgendeine Seite weiß durch NDAs mehr als die andere.
Ich habe keine Teppiche, ist ziemlich unhygienisch :D
Joa... 150% sind doch toll, Vulkan haut halt richtig rein. Mal sehen, wie es im Wald und Wiesen außerhalb so auf die Straße kommt.
Doom ist doch AMDs neues Baby, da kriegt man halt den neusten "Shit" schön implementiert und umgesetzt.
Nicht falsch verstehen, ich sehe das eher negativ als es sich zunächst liest. Bezweifel, dass diese Leistung auf woanders so auf die Straße zu bekommen ist.
horn 12
2017-04-16, 09:29:18
Nun, die Treiberentwicklung wird sich äußerst positiv auf Vega auswirken und da sollte schon die eine oder andere große Überraschung vorhanden sein!
Die Trommeln lassen grüßen und werden immer lauter, in Sinne von Schneller.
[MK2]Mythos
2017-04-16, 09:32:17
warum ist es deiner meinung nach ein schlechter fake?
Das Design der Folie passt nicht zum AMD-Style und die Werte respektive Balkenlängen ergeben auch keinen Sinn.
Woher stammt die Folie nun?
dargo
2017-04-16, 09:37:55
Die hat er wahrscheinlich selbst gebastelt. :D
fondness
2017-04-16, 09:57:17
Die ALUs ändern sich nicht.
Das genaue Gegenteil ist natürlich der Fall. Das erste mal seit GCN1.0 werden die CUs wieder grundlegend überarbeitet. AMD hat sogar explizit von höherer IPC gesprochen und den Dingern auch einen neuen Namen gegeben.
Hübie
2017-04-16, 10:24:38
Nein ich versuch dich nirgends reinzustellen (fanboy kriege gibt's hier genug andere), aber dieses "ich weis was, was ihr nicht wisst" auftreten und dann nichts sagen, bringt einfach niemanden weiter und auch die Diskussion nicht. Ailuros macht das zwar auch immer wieder, aber eben anders. Entweder sag ich konkret was ich sagen kann oder ich lasse es bleiben...
Ich denke die meisten rechnen mit einer Performance irgendwo zwischen 1080 und 1080TI, wobei es eigentlich näher an der 1080TI sein muss. Die Hoffnung ist natürlich eine andere und wenn man so manche Dinge hochrechnet, könnte man schon auf deutlich mehr kommen, aber das klappt am Ende nichts weil dann wiederum woanders Flaschenhälse entstehen würden.
Wenn Sie es richtig machen sogar darüber, aber da ist der Einwand, dass die ganzen Profi Features (hatte ich nicht bedacht) mit drin sind durchaus berechtigt und kann und wird natürlich dafür sorgen, dass dies am Ende wohl Performance kostet. Vielleicht ist der V11 chip am Ende doch nicht viel langsamer als V10.
Trotzdem ist die Erwartungshaltung, dass das Ding nur 500$ kosten darf auch etwas abstrus. Am Ende gilt es den Preis festzulegen, nachdem die Performance klar ist und danach zu bewerten.
Warum sollten sie eine Vega mit 4 GB nicht verkaufen können (wenn es das überhaupts gibt!! Schaffe89 hat hier mal wieder irgendwo irgendwas gelesen und es als Fakt dargestellt), wenn sie in den Tests darlegen können dass sie damit in 7/10 spielen keine speicherprobleme bekommen, weil der hbcc eben doch gut funktioniert ?? Ist gibt immer Menschen denen das für Ihren Arbeitseinsatz reichen würde. Ich möchte aber nochmals sagen, dass der Ansatz den AMD hier fährt auf jedenfall der richtigere ist als jedes mal noch mehr speicher auf die karten zu hauen... Vor allem wenn wirklich der Grossteil des Speichers nur ungenutzt ist...
Na ja es wird eben schwer dem ahnungslosen zu verklickern, dass die kleiner Zahl die bessere ist. Fiji überraschte so manches mal mit immer noch guten Frametimes, trotz "überfüllten" Speicher. Könnte bei Vega ähnlich sein. HBCC braucht aber in jedem Falle eine Kontrollogik, wenn man nicht pro Engine / Spiel Anpassungen per Treiber vornehmen will (muss).
@fondness: CU ist nicht eine ALU. Iuno hat mich aber dahin gehend noch verbessert (rapid packed math aka half precision aka FP16). ;)
...
Ja dann nimmst du halt etwas anderes das wohl limitieren wird, worüber wir jedoch nur spekulieren können. Es skaliert jedenfalls nicht linear.
na dann, was nimmst du denn da so bspw.?
Hübie
2017-04-16, 10:48:26
Registerspace, das völlig unterschiedliche Frontend (Scheduler, Vertex-fetch/-setup, early-z passes), Kompression, Cachegröße... Mit low level erreicht man all dies pro Architektur. Simpel mot TFLOPs um sich werfen ist nach wie vor nicht sinnvoll.
Edit: Und selbst ROPs sind sehr unterschiedlich in dem was die können bzw. wie die es können. Wenn man sich also wundert warum eine 1080 Ti "nur" 94% vor Polaris in Doom@Vulkan ist, muss man eben auch hinter die Kulissen schauen. Es liegt also auf der Hand dass da deutlich mehr limitiert als virtuelle FLOPs. ;) Siehe Vulkan-Thread.
uweskw
2017-04-16, 11:26:53
warum ist es deiner meinung nach ein schlechter fake?
AMD hätte in jedem Falle die Fury in den Chart mit aufgenommen.
greetz
US
Unicous
2017-04-16, 11:44:01
AMD hätte zudem keine "obskure" Titan Xp genommen, eine Karte zu der es (afaik?) noch nicht einmal unabhängige Tests gibt.
Aber schick gemacht ist sie trotzdem.:)
r3ptil3
2017-04-16, 11:52:52
Es wurde doch vor einer Weile schon mal ein System von AMD gezeigt mit Vega und Doom auf 4k. Da waren ja auch die FPS sichtbar und die lagen nicht viel höher als bei der GTX 1080 oder irre ich mich da?
Unicous
2017-04-16, 12:03:44
Es wurde doch vor einer Weile schon mal ein System von AMD gezeigt mit Vega und Doom auf 4k. Da waren ja auch die FPS sichtbar und die lagen nicht viel höher als bei der GTX 1080 oder irre ich mich da?
Glaubst du etwa wirklich, dass ein Chip der wahrscheinlich 60% größer ist als der GP104 es gerade einmal schafft die 1080 in Doom zu erreichen?:eek:
Kriton
2017-04-16, 12:06:09
HBCC braucht aber in jedem Falle eine Kontrollogik, wenn man nicht pro Engine / Spiel Anpassungen per Treiber vornehmen will (muss).
Dass eine Kontrolllogik verbaut ist, hatten wir doch schon?!:confused:
AMD hätte zudem keine "obskure" Titan Xp genommen, eine Karte zu der es (afaik?) noch nicht einmal unabhängige Tests gibt.
Aber schick gemacht ist sie trotzdem.:)
Warum nicht? Wenn man zeigen will, dass man den Top Dog schlägt. Zumal Marketing-Folien ja nicht auf Neutralität ausgerichtet sind. So komisch das klingen mag, die Sterne im Hintergrund machen es für mich überzeugender.
Hübie
2017-04-16, 12:09:46
War über 1080-Niveau. Auf yt hatte einer diese Szene mit 2,1 GHz nachgestellt (Nightmare) und konnte ähnliche Werte erreichen.
Bei Erwartungen bzgl. AMD haben wir eben gelernt tief zu stapeln (umso besser wenn die dann übertroffen werden).
@Kriton: Hast du da nähere Infos? Eine reine MMIOU reicht ja nicht.
vinacis_vivids
2017-04-16, 12:16:04
Gibs bei Vega *tile based rendering*?
Hübie
2017-04-16, 12:17:02
Ja nennt sich da nur anders. Hab den Begriff vergessen. :S
dargo
2017-04-16, 12:22:37
Es wurde doch vor einer Weile schon mal ein System von AMD gezeigt mit Vega und Doom auf 4k. Da waren ja auch die FPS sichtbar und die lagen nicht viel höher als bei der GTX 1080 oder irre ich mich da?
Und wie hoch war das Engineering Sample da getaktet, auf welchen Stand war die Software? :rolleyes:
Bei Erwartungen bzgl. AMD haben wir eben gelernt tief zu stapeln (umso besser wenn die dann übertroffen werden).
Ich kann diesen Schwachsinn nicht mehr hören. :rolleyes: Ryzen hat sogar die Erwartungen übertroffen. Selbst das eigens gesetzte Ziel von +40% IPC hatte man übertroffen.
Ja nennt sich da nur anders. Hab den Begriff vergessen. :S
Draw stream binning rasterizer ;)
vinacis_vivids
2017-04-16, 12:37:30
Draw stream binning rasterizer ;)
Danke. Wie ist der "primitive Shader" darin involviert?
Gar nicht. Geometry- und Vertex-shader laufen vor der Rasterisierung ab. Der neue primitive shader soll beide Schritte zusammenfuehren und maechtiger werden, verschiebt aber die zeitliche Abfolge natuerlich nicht.
Hübie
2017-04-16, 13:00:51
Und wie hoch war das Engineering Sample da getaktet, auf welchen Stand war die Software? :rolleyes:
Ich kann diesen Schwachsinn nicht mehr hören. :rolleyes: Ryzen hat sogar die Erwartungen übertroffen. Selbst das eigens gesetzte Ziel von +40% IPC hatte man übertroffen.
A) Ist das eine CPU nach genau wievielen fails? Und B) nenne doch mal positive launches die auch echte Konkurrenz darstellten. Wo ist das nun Schwachsinn? So eine holprige Scheiße wie bei AMD gibt's halt nirgendswo sonst.
Selbst Ryzen stottert und stockt bei der Verbreitung. Auch wenn Ryzen in der Tat gute Leistung anliefert. Das spreche ich doch gar nicht ab. :rolleyes:
fails oh Mann, gewöhne dir doch endlich mal eine differenzierte Betrachtungsweise an
dargo
2017-04-16, 13:20:32
Selbst Ryzen Intels Qudcore stottert und stockt bei der Verbreitung.
fixed :tongue:
victore99
2017-04-16, 13:24:45
hat noch jemand die Quelle, bei der zum ersten Mal von Vega 10 gesprochen wurde?
PrivateCeralion
2017-04-16, 13:38:06
A) Ist das eine CPU nach genau wievielen fails? Und B) nenne doch mal positive launches die auch echte Konkurrenz darstellten. Wo ist das nun Schwachsinn? So eine holprige Scheiße wie bei AMD gibt's halt nirgendswo sonst.
Selbst Ryzen stottert und stockt bei der Verbreitung. Auch wenn Ryzen in der Tat gute Leistung anliefert. Das spreche ich doch gar nicht ab. :rolleyes:
Natürlich gibt es solche holprige Starts nirgendwo sonst. Es gibt nämlich nur 2 x86 Hersteller.
Und einer von beiden hat eine 14mal größere Marktkapitalisierung. Daher ist es ein Wunder, dass es AMD überhaupt geschafft hat. Wir müssen uns wirklich glücklich schätzen, dass Intel kein Monopol hat.
aceCrasher
2017-04-16, 15:06:43
warum ist es deiner meinung nach ein schlechter fake?
Seit wann ist eine TXp fast Faktor 2 schneller als eine 1080?
[MK2]Mythos
2017-04-16, 15:07:17
Die Fake Folie hat es heute Nacht um 1 schon auf videocardz geschafft, wenn Nagus sie erstellt hat, hat er sie zumindest woanders zuerst verteilt. ;)
https://videocardz.com/68526/amd-radeon-rx-580-first-benchmarks-and-overclocking#comment-3257906456
Hübie
2017-04-16, 15:58:44
fails oh Mann, gewöhne dir doch endlich mal eine differenzierte Betrachtungsweise an
Wie soll ich das sonst nennen? Lass uns das lieber per PN klären. ;-)
Vega wird zweifelsohne seinen Markt finden, nur hoffe ich einfach keinen zweiten Fuji zu bekommen. Ich fasse mal damals zusammen:
schwankende D3D11 Performance zu Release
mehr Energiebedarf als GM200
650 699 € für insgesamt weniger Leistung (auf Wunsch geändert)
deutlich geringeres OC-Potenzial
weniger VRAM (obwohl sich daraus selten schlechte Frametimes ergeben)
DX12 noch nirgends präsent
Stand heute hat sich etwas gebessert, jedoch haben potenzielle Kunden wie ich bereits anderweitig zugeschlagen. Es könnte nun also ähnliche Parallelen geben, da Vega auch sehr spät kommt und aller Voraussicht nach nicht an GP102 vorbei zieht. Das ist es was mir Sorgen bereitet. Ich bekomme GP102 schon ab 720€... Dennoch habe ich entschieden zu warten. :-P
dargo
2017-04-16, 16:18:10
Stand heute hat sich etwas gebessert, jedoch haben potenzielle Kunden wie ich bereits anderweitig zugeschlagen. Es könnte nun also ähnliche Parallelen geben, da Vega auch sehr spät kommt und aller Voraussicht nach nicht an GP102 vorbei zieht.
Spät? V10 kommt 2-3 Monate nach GP102. Die Titan X nehme ich hier raus, ist eh nur Abzocke. V11 gebe ich dir recht. Einen Gegner für GP104 hätte es schon früher geben müssen.
[MK2]Mythos
2017-04-16, 16:22:30
Die GTX 1080 gibts seit 10 Monaten. Den High End Markt 2016 hat AMD natürlich komplett verpasst, das war vermutlich auch gemeint.
OgrEGT
2017-04-16, 17:01:52
HBM2 Speicher soll es in 3 Varianten geben 2Hi 4Hi und später 8Hi Stacks. Ist es denkbar dass es bei bsp. 4Hi Stacks auch teildeaktivierte Versionen wie bspw 4Hi@3 geben könnte? So könnten sich bei 2 Modulen auch 6GB VRam realisieren lassen...
Hübie
2017-04-16, 17:06:44
Spät? V10 kommt 2-3 Monate nach GP102. Die Titan X nehme ich hier raus, ist eh nur Abzocke. V11 gebe ich dir recht. Einen Gegner für GP104 hätte es schon früher geben müssen.
Hast du seit August unter einem Stein gelebt? :|
@OgrEGT: Dann schmälert man die Busbreite, wenn ich nicht irre. Möglicherweise kommt es so, aber ich denke eher nicht weil man Nacharbeiten kann. Ob es sich lohnt..?
Kriton
2017-04-16, 17:27:53
Wie soll ich das sonst nennen? Lass uns das lieber per PN klären. ;-)
Vega wird zweifelsohne seinen Markt finden, nur hoffe ich einfach keinen zweiten Fuji zu bekommen. Ich fasse mal damals zusammen:
schwankende D3D11 Performance zu Release
mehr Energiebedarf als GM200
650€ für insgesamt weniger Leistung
deutlich geringeres OC-Potenzial
weniger VRAM (obwohl sich daraus selten schlechte Frametimes ergeben)
DX12 noch nirgends präsent
Stand heute hat sich etwas gebessert, jedoch haben potenzielle Kunden wie ich bereits anderweitig zugeschlagen. Es könnte nun also ähnliche Parallelen geben, da Vega auch sehr spät kommt und aller Voraussicht nach nicht an GP102 vorbei zieht. Das ist es was mir Sorgen bereitet. Ich bekomme GP102 schon ab 720€... Dennoch habe ich entschieden zu warten. :-P
Woher kennst Du die Performance von Vega? Und was hat Fiji damit zu tun? Wenn wir einen ähnlichen Sprung von Fiji auf Vega sehen wie vom FX auf Ryzen was wäre dann? Dabei geht es mir nicht darum wie wahrscheinlich das ist, sondern darum, dass es möglicherweise wenig Sinn macht von einer Vorgängergeneration (respektive deren Mängeln) auf die nächste zu schließen.
Wir stochern alle hier im Dunkeln was das angeht, also komm doch nicht mit "aller Voraussicht nach" um dann auch noch zu behaupten Du wärst in Deinen Ausführungen (!) nicht eher bei Nvidia.
Bin nicht sicher, der Wievielte ich bin, der Dir das sagt, vielleicht solltest Du doch mal darüber reflektieren, dass Du den Eindruck erweckst (und IMHO schon einige Zeit), auch wenn das mit Deiner Selbstwahrnehmung nicht übereinstimmen mag.
dargo
2017-04-16, 17:57:34
Hast du seit August unter einem Stein gelebt? :|
Ich frage mich gerade in welcher Welt du lebst? Die GTX1080 TI gibt es seit 09.03.2017.
Woher kennst Du die Performance von Vega? Und was hat Fiji damit zu tun?
Er sieht 4096 SPs bei Vega 10 und denkt das hätte irgendwas mit Fiji zu tun. ;D
HBM2 Speicher soll es in 3 Varianten geben 2Hi 4Hi und später 8Hi Stacks. Ist es denkbar dass es bei bsp. 4Hi Stacks auch teildeaktivierte Versionen wie bspw 4Hi@3 geben könnte? So könnten sich bei 2 Modulen auch 6GB VRam realisieren lassen...
Weder Hynix noch Samsung werden wohl kurzfristig 2Hi bauen.
Man wird keine kaputten slices uebereinander Stacken. Das Konstrukt wuerde sich wohl hoechstens jemand ausdenken um GPUs mit teildefektem MC retten zu koennen, wobei man dann trotzdem funktionierende 4Hi Stacks einkaufen muss aber nur 3 GiB bei 3/4 der Bandbreite bekommt.
Botcruscher
2017-04-16, 18:20:57
Spät?
Wie wollen wir die Nichtexistenz aller Chips jenseits des Mid-Range sonst beschreiben? Ob du die Titan dazu zählen willst ist doch komplett irrelevant. Das NV die Kuh seit letztem Jahr melkt ist nun mal Fakt. Wenn Vega sich nicht deutlich von der 1080 OC abhebt gibt es beim NV- Management gleich noch mal eine Runde Koks.
Weder Hynix noch Samsung werden wohl kurzfristig 2Hi bauen.
Bei nur 2 Stapeln verbietet sich die Idee eh.
TheGood
2017-04-16, 19:26:15
Woher kennst Du die Performance von Vega? Und was hat Fiji damit zu tun? Wenn wir einen ähnlichen Sprung von Fiji auf Vega sehen wie vom FX auf Ryzen was wäre dann? Dabei geht es mir nicht darum wie wahrscheinlich das ist, sondern darum, dass es möglicherweise wenig Sinn macht von einer Vorgängergeneration (respektive deren Mängeln) auf die nächste zu schließen.
Wir stochern alle hier im Dunkeln was das angeht, also komm doch nicht mit "aller Voraussicht nach" um dann auch noch zu behaupten Du wärst in Deinen Ausführungen (!) nicht eher bei Nvidia.
Bin nicht sicher, der Wievielte ich bin, der Dir das sagt, vielleicht solltest Du doch mal darüber reflektieren, dass Du den Eindruck erweckst (und IMHO schon einige Zeit), auch wenn das mit Deiner Selbstwahrnehmung nicht übereinstimmen mag.
Was hast du denn getrunken?? Sorry vor lauter Rot siehst du wohl nicht was mit dem Post gemeint ist. Er hat das rein auf Fiji bezogen und was dort alles "schief gelaufen" ist. Das hat mit VEGA rein gar nichts zu tun.
5CH4CHT3L
2017-04-16, 19:33:48
@dargo:
GP102 ist seit 8 Monaten fertig. Wenn V10 eher fertig wäre, hätte man die 1080ti auch eher herausgebracht und gleich die Titan Xp angeboten. V10 ist also 9 Monate nach GP102 fertig, V11 braucht noch länger.
Und zum Jahresende steht schon wieder Volta vor der Tür. Im Endeffekt ist Vega näher an Volta als an Pascal (deswegen muss es auch gegenüber Pascal gut dastehen, weil es sont gegen Volta nur auf Hypothetischen GTX 2070 - Niveau bei 50mm^2 stehen würde, und Navi braucht noch ein bisschen)
Also ja, Vega ist spät dran
dargo
2017-04-16, 19:43:06
Wie wollen wir die Nichtexistenz aller Chips jenseits des Mid-Range sonst beschreiben?
Du solltest vielleicht mal alles lesen was ich geschrieben habe.
V11 gebe ich dir recht. Einen Gegner für GP104 hätte es schon früher geben müssen.
@dargo:
GP102 ist seit 8 Monaten fertig.
Das ändert nichts daran, dass der "Volks"-GP102 letzten Monat released wurde.
Und zum Jahresende steht schon wieder Volta vor der Tür.
Möglich, aber garantiert kein High-End. Und ohne neuen Fertigungsprozess ist es auch eher fraglich ob große Performancesprünge möglich sind.
Kriton
2017-04-16, 19:48:07
Was hast du denn getrunken?? Sorry vor lauter Rot siehst du wohl nicht was mit dem Post gemeint ist. Er hat das rein auf Fiji bezogen und was dort alles "schief gelaufen" ist. Das hat mit VEGA rein gar nichts zu tun.
Mir ist klar, dass die Anmerkungen auf Fiji bezogen waren. Im Kontext der Diskussion hat er allerdings angedeutet, dass wir vergleichbare Probleme auch bei Vega sehen werden. Nicht nur den letzten Post losgelöst betrachten.
Wir kamen letztlich von hier:
Bei Erwartungen bzgl. AMD haben wir eben gelernt tief zu stapeln (umso besser wenn die dann übertroffen werden).
Kriton
2017-04-16, 20:12:35
@Kriton: Hast du da nähere Infos? Eine reine MMIOU reicht ja nicht.
Was ist MMIOU?
Hier ist etwas von Gipsel:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11305785#post11305785
Ansonsten noch aus meiner Suche (ich hatte das im Gedächtnis, bin aber nicht sicher, ob das die/alle relevanten Posts sind):
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11257375#post11257375
In dem Video ungefähr ab Minute 9. Jedenfalls wenn ich nicht irre, und das was er beschreibt nicht von Windows geleistet wird, dann müsste das in HW sein:
FwcUMZLvjYw
Das was Complicated hier beschreibt:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11260117#post11260117
BoMbY
2017-04-16, 21:05:15
Mythos;11350604']Die Fake Folie hat es heute Nacht um 1 schon auf videocardz geschafft, wenn Nagus sie erstellt hat, hat er sie zumindest woanders zuerst verteilt. ;)
https://videocardz.com/68526/amd-radeon-rx-580-first-benchmarks-and-overclocking#comment-3257906456
Das kommt wohl daher: https://stocktwits.com/message/80297574
An sich gar nicht so unrealistisch, nur das Datum stimmt wohl eher nicht. Das haben sich die Kinder ausgedacht, weil da Prey veröffentlicht wird. Gut, war mal der Freitag das Gerücht, und jetzt der Montag, was etwas realistischer ist, aber ich glaube AMD hat sich eher auf Dienstage eingeschossen ... Abgesehen davon wird das wohl nichts vor Ende Mai.
Botcruscher
2017-04-16, 21:18:33
Du solltest vielleicht mal alles lesen was ich geschrieben habe.
Ob 1250 oder 800€ ändert da auch nichts dran. NV hat geliefert. Gleiches gilt für GP100. AMD hat zwar in letzter Zeit viele Chips gebracht aber Vega ist trotzdem 12 Monate zu spät.
dargo
2017-04-16, 21:30:44
Ob 1250 oder 800€ ändert da auch nichts dran.
Nein... überhaupt nichts. :freak: Es sind übrigens 1299€ vs. aktuell ab 739€ bei der 1080 TI.
https://geizhals.de/?cat=gra16_512&xf=9810_7+10609+-+GTX+1080+Ti
Ist ja überhaupt kein Unterschied im Preis. :facepalm:
Screemer
2017-04-16, 22:05:18
Was wird hier eigentlich schon wieder für ne scheiß Diskussion geführt? Nvidia hat geliefert. Preis ist doch völlig scheiß egal.
Fakt ist außerdem, dass von euch Papnasen überhaupt niemand sagen kann was Vega auf gaming skus leisten wird. Spekuliert dazu aber tut nicht dauernd so als hättet ihr die weisheit mit löffeln gefressen. Die negativ Prognosen hier laufend als Fakten zu verkaufen stinkt zum Himmel. Das hier ist der speku-thread verdammte kacke.
[MK2]Mythos
2017-04-16, 22:09:55
Amen.
TheGood
2017-04-16, 22:39:03
Mir ist klar, dass die Anmerkungen auf Fiji bezogen waren. Im Kontext der Diskussion hat er allerdings angedeutet, dass wir vergleichbare Probleme auch bei Vega sehen werden. Nicht nur den letzten Post losgelöst betrachten.
Wir kamen letztlich von hier:
na das da rein zu interpretieren ist auch hohe Kunst...
Kriton
2017-04-16, 22:49:08
na das da rein zu interpretieren ist auch hohe Kunst...
Danke für Deine gehaltvolle Gegenargumentation. Vielleicht verfolgst Du noch einmal die Diskussion in der Gesamtheit, ich habe nicht umsonst darauf verwiesen. Und selbst im letzten Post (um den es wie gesagt noch nicht einmal allein geht):
Vega wird zweifelsohne seinen Markt finden, nur hoffe ich einfach keinen zweiten Fuji zu bekommen. Ich fasse mal damals zusammen:
[...]
Stand heute hat sich etwas gebessert, jedoch haben potenzielle Kunden wie ich bereits anderweitig zugeschlagen. Es könnte nun also ähnliche Parallelen geben, da Vega auch sehr spät kommt und aller Voraussicht nach nicht an GP102 vorbei zieht.
Aber ich interpretiere rein, dass der Vega Launch mit Fiji Launch verglichen wird...
BoMbY
2017-04-17, 01:19:10
Und wieder dieses Non-Argument: Jeder Mensch auf der Welt hat jetzt schon eine 1080 TI gekauft, und niemand wird deshalb jemals noch eine RX Vega kaufen ... Pappnasen ...
Ob es dir gefällt oder nicht, es ist und bleibt ein gültiges Argument. Ja, nicht JEDER Kunde hat sich schon bei der 1080 Ti bedient. Aber eben schon einige, welche den potentiellen Verkaufserfolg von Vega mindern. Wer das abstreitet lebt in seiner eigenen Welt.
Und dass nun der ganze Markt auf AMD wartet, dass könnt ihr gerne Annehmen, ob das realistisch ist steht auf einem anderen Blatt.
Hübie
2017-04-17, 01:35:54
Ich zitiere mich mal:
Es könnte nun also ähnliche Parallelen geben, da Vega auch sehr spät kommt und aller Voraussicht nach nicht an GP102 vorbei zieht. Das ist es was mir Sorgen bereitet. Ich bekomme GP102 schon ab 720€... Dennoch habe ich entschieden zu warten. :-P
Spät? V10 kommt 2-3 Monate nach GP102. Die Titan X nehme ich hier raus, ist eh nur Abzocke. V11 gebe ich dir recht. Einen Gegner für GP104 hätte es schon früher geben müssen.
Warum nimmst du dir nun in dieser Diskussion heraus, Titan X einfach nicht zu beachten, wo ich doch explizit GP102 sagte. "Ich dreh mir meine Welt wie's mir gefällt" oder was treibst du hier? :rolleyes:
Ich frage mich gerade in welcher Welt du lebst? Die GTX1080 TI gibt es seit 09.03.2017.
Ja wir missachten einfach mal Titan X. Genau. Pass auf. Ich schlage vor, dass wir V10 einfach nicht beachten in unser künftigen Argumentation und warten auf einen Volks-Vega. Dann argumentieren wir auf Augenhöhe.
Und somit stelle ich fest: ich lebe nicht in deiner Plastikwelt. :rolleyes:
Falls es dir entgangen ist: GP102 hat Lieferengpässe seit dem Tage der Veröffentlichung. Tipp: Das war NICHT am 09.03.2017.
Er sieht 4096 SPs bei Vega 10 und denkt das hätte irgendwas mit Fiji zu tun. ;D
Das sind letzten Endes die Recheneinheiten welche die Aufgaben lösen. Zum überschlagen einer Prognose reicht diese Basis. Ich weiß durchaus von den Änderungen in Vega. Du schubst doch auch deine FLOPs, was wenig Zielführend ist. Wo ist nun dein Problem? Es ist eine Spekulation :rolleyes:
Woher kennst Du die Performance von Vega? Und was hat Fiji damit zu tun? Wenn wir einen ähnlichen Sprung von Fiji auf Vega sehen wie vom FX auf Ryzen was wäre dann? Dabei geht es mir nicht darum wie wahrscheinlich das ist, sondern darum, dass es möglicherweise wenig Sinn macht von einer Vorgängergeneration (respektive deren Mängeln) auf die nächste zu schließen.
Ich glaube du solltest noch mal in Ruhe alles lesen. Man kann auch von Fiji einfach mit * 1,xx rechnen und kommt auf irgendwelche fantastischen Werte.
Wir stochern alle hier im Dunkeln was das angeht, also komm doch nicht mit "aller Voraussicht nach" um dann auch noch zu behaupten Du wärst in Deinen Ausführungen (!) nicht eher bei Nvidia.
Bin nicht sicher, der Wievielte ich bin, der Dir das sagt, vielleicht solltest Du doch mal darüber reflektieren, dass Du den Eindruck erweckst (und IMHO schon einige Zeit), auch wenn das mit Deiner Selbstwahrnehmung nicht übereinstimmen mag.
Ist mir ziemlich egal in welche Schubladen ihr mich steckt. NV stellte meine Bedürfnisse eben mehr zufrieden seit ich die habe. Das sage ich offen und euch fällt nix ein als Schubladen zu öffnen. Ich kaufe AMD wenn die ein Produkt bieten, dass mir gefällt. Ich geize auch nicht mit meinen Ausgaben. Daran soll's nicht scheitern. Aber Hand auf's Herz: Fiji ist immer noch AMD's Highend-Flaggschiff. :freak:
Mir ist klar, dass die Anmerkungen auf Fiji bezogen waren. Im Kontext der Diskussion hat er allerdings angedeutet, dass wir vergleichbare Probleme auch bei Vega sehen werden. Nicht nur den letzten Post losgelöst betrachten.
Nope. Das hast du falsch aufgefasst. Ich befürchte einfach, dass wieder etwas schief laufen wird was dann negativ anhaftet und erwarte daher erst mal weniger, anstatt meine Erwartungen zu hoch zu schrauben. Ryzen konnte in puncto Performance bestechen, aber das drum herum... omg :freak:
Da lehne ich mich noch mal entspannt zurück, guck auf meine Gurke von 2012 und denk mir: Wir warten mal noch gemütlich ab.
Ich erinnere mich an keinen Start bei AMD wo ich nicht dachte: "Manipuliert da einer von der Konkurrenz andauernd herum?"
Was ist MMIOU?
Memory Management Input Output Unit. Im Grunde also die Verwaltung für Adressräume. Logik bräuchte man ja für Zugriffe, garbage collection, prefetchen von texture loads usw. Auch die Unterscheidung der jeweiligen RAMs braucht einen Algorithmus (was kommt in den Cache, was in den HBM, was in den DRAM und was in den Flash-Memory etc..).
Hier ist etwas von Gipsel:
[...]
Ansonsten noch aus meiner Suche (ich hatte das im Gedächtnis, bin aber nicht sicher, ob das die/alle relevanten Posts sind):
[...]
Das was Complicated hier beschreibt:
[...]
Vielen Dank. Lese ich mir durch und guck's mir an. :smile:
@BoMbY: Ich warte nun auf Vega. ;) Also bin ich schon mal einer.
Warum nimmst du dir nun in dieser Diskussion heraus, Titan X einfach nicht zu beachten, wo ich doch explizit GP102 sagte. "Ich dreh mir meine Welt wie's mir gefällt" oder was treibst du hier? :rolleyes:
Ja wir missachten einfach mal Titan X. Genau. Pass auf. Ich schlage vor, dass wir V10 einfach nicht beachten in unser künftigen Argumentation und warten auf einen Volks-Vega. Dann argumentieren wir auf Augenhöhe.
Ich wollte mich in das Thema eigentlich gar nicht einmischen, weil es eh nichts bringt, aber das schreit geradezu danach.
nur hoffe ich einfach keinen zweiten Fuji zu bekommen. Ich fasse mal damals zusammen:
schwankende D3D11 Performance zu Release
mehr Energiebedarf als GM200
650€ für insgesamt weniger Leistung
deutlich geringeres OC-Potenzial
weniger VRAM (obwohl sich daraus selten schlechte Frametimes ergeben)
DX12 noch nirgends präsent
Wie kann 650€ ein Negativpunkt gegen GM200 sein, wenn man alle Karten beruecksichtigt?
Und das ist gerade mal eine Seite her. Das ganze beruht also auf Gegenseitigkeit und du lebst ganz offenbar ohne es zu merken in einer voellig konkruenten Blase.
Und diese "Diskussion" fuehrt uebrigens eh wieder zu nichts.
TGKlaus
2017-04-17, 01:59:53
Ob es dir gefällt oder nicht, es ist und bleibt ein gültiges Argument.
Die Frage ist nicht ob das Argument gültig ist oder nicht, sondern ob es sinnvoll oder dämlich ist.
Und sinnvoll ist es nun wahrlich nicht.
Wieviel % der PC Gamer habe jetzt 1080 Ti Leistung?
1% ? haha nene
0,1%? garantiert nicht
Wieviele werden in den nächsten 3 Jahren auf 1080 Ti Leistung kommen??
30.000% ausgehend von der jetzigen Basis? 50.000% ??? Mehr?
Hübie
2017-04-17, 02:07:08
Das ist im Zusammenhang ein Negativpunkt. Der Preis allein doch nicht. Die 980 Ti gab es auch schon ab 650€ (einige Ref- und Billig-Designs). Fiji startete sogar bei 699 €. Hätte ich das lieber hinschreiben sollen? :confused:
Die Frage ist nicht ob das Argument gültig ist oder nicht, sondern ob es sinnvoll oder dämlich ist.
Und sinnvoll ist es nun wahrlich nicht.
Wieviel % der PC Gamer habe jetzt 1080 Ti Leistung?
1% ? haha nene
0,1%? garantiert nicht
Wieviele werden in den nächsten 3 Jahren auf 1080 Ti Leistung kommen??
30.000% ausgehend von der jetzigen Basis? 50.000% ??? Mehr?
1% der Gamer sind vielleicht die einzigen, die überhaupt bereit sind im Highend zu kaufen. In 3 Jahren interessiert sich keiner mehr für Vega bzw ist die Leistung dann Mainstream mit entsprechendem Preispunkt. Das Argument zieht von hinten bis vorne nicht. Wer bereit ist jetzt 800€ für 1080ti Leistung auszugeben tut dies jetzt gerade. Daran andern auch eure Milchmädchenrechnungen nichts.
Hübie
2017-04-17, 07:47:09
Mit diesem Prozentual macht ein IHV jedoch auch massig Kohle, das darf man nicht vergessen.
dargo
2017-04-17, 08:50:14
Warum nimmst du dir nun in dieser Diskussion heraus, Titan X einfach nicht zu beachten, wo ich doch explizit GP102 sagte.
Warum wohl? :rolleyes:
1299€!
Zudem ist/war das Ding nicht mal über Händler beziehbar sondern nur direkt bei Nvidia. So kann man auch den Preis künstlich nach oben treiben.
Ja wir missachten einfach mal Titan X. Genau. Pass auf. Ich schlage vor, dass wir V10 einfach nicht beachten in unser künftigen Argumentation und warten auf einen Volks-Vega. Dann argumentieren wir auf Augenhöhe.
Können wir gerne machen wenn AMD für Desktop V10 auch solche hirnverbrannten Preise verlangt. Wird nur nur 99% nicht passieren.
G3cko
2017-04-17, 08:59:00
Den einzigen Markt den AMD ausgelassen hat ist der Performancebereich, einen Konkurrenten für GP104.
Wie schon beim Wechsel auf die 40nm Fertigung sind die Kosten viel zu hoch um gleich einen GP102 für die Masse (aka GTX 1080Ti) anbieten zu können. Mit 20% Marktanteil braucht man eben hier nicht angreifen. Titan war auf 2 Stück pro Kunde limitiert. Das Quadro Version kam auch deutlich später. Die Relevanz einer 1300€ Karte sei Mal dahingestellt. Einen höheren Wertverlust gibt es aktuell nirgends in der it für consumer...
Locuza
2017-04-17, 08:59:40
Jemand hat sich die Mühe gemacht die Vega-Patches genauer anzuschauen:
+ case CHIP_VEGA10:
+ adev->gfx.config.max_shader_engines = 4;
+ adev->gfx.config.max_tile_pipes = 8; //??
+ adev->gfx.config.max_cu_per_sh = 16;
+ adev->gfx.config.max_sh_per_se = 1;
+ adev->gfx.config.max_backends_per_se = 4;
+ adev->gfx.config.max_texture_channel_caches = 16;
+ adev->gfx.config.max_gprs = 256;
+ adev->gfx.config.max_gs_threads = 32;
+ adev->gfx.config.max_hw_contexts = 8;
https://lists.freedesktop.org/archives/amd-gfx/2017-March/006570.html
via https://forum.beyond3d.com/posts/1977701/
4 Shader-Engines, 4 Geometry-Engines, 16 CUs pro Shader-Engine und 4 Render-Backends pro Shader-Engine.
Stupide gesehen sind das die gleichen Eckdaten wie von Fiji, 4 Shader/Geometry-Engines, 4096 ALUs und 64 ROPs.
Fiji als Vergleich:
+ case CHIP_FIJI:
+ adev->gfx.config.max_shader_engines = 4;
+ adev->gfx.config.max_tile_pipes = 16;
+ adev->gfx.config.max_cu_per_sh = 16;
+ adev->gfx.config.max_sh_per_se = 1;
+ adev->gfx.config.max_backends_per_se = 4;
+ adev->gfx.config.max_texture_channel_caches = 816 (wurde von AMD später korrigiert);
+ adev->gfx.config.max_gprs = 256;
+ adev->gfx.config.max_gs_threads = 32;
+ adev->gfx.config.max_hw_contexts = 8;
https://patchwork.kernel.org/patch/6932301/
Botcruscher
2017-04-17, 09:58:19
Fiji done right ist nicht umsonst seit einer Ewigkeit bekannt.
Und sinnvoll ist es nun wahrlich nicht.
NV hat Karten verkauft. Ob Porsche sinnvoller als VW ist spielt dabei keine Rolle. Porsche ist schlicht profitabler.
Wieviel % der PC Gamer habe jetzt 1080 Ti Leistung?
Die Zielgruppe! Das ist Kapitalismus und nicht der Fünfjahresplan zur Steigerung des Konsums.
Warum wohl? :rolleyes:
Weil der nachträgliche Ausschluß von Fakten schon im Sandkasten toll funktioniert hat und so die eigene Realität zurecht gerückt wird. Auch als alternative Fakten bekannt. NV hatte kein Lineup weil alles so teuer war... Mit dem Argument haben sie schlicht überhaupt keins, weil alle Chips durch die Bank weg teuer sind. Was ja womöglich was mit der fehlenden Konkurrenz zutun hat..
Hübie
2017-04-17, 10:14:17
Warum wohl? :rolleyes:
1299€!
Zudem ist/war das Ding nicht mal über Händler beziehbar sondern nur direkt bei Nvidia. So kann man auch den Preis künstlich nach oben treiben.
Lies noch mal was ich schrieb. GP102. Was hat Titan X? GP102. Seit wann gibt es das Teil? August 2016. Tr0ll doch nicht herum. Was soll das? Vega kommt etwas spät auf den Markt. Fertig aus. :rolleyes:
Nur weil du keine 1300 Eier ausgeben magst, kannst du doch nicht einfach die Diskussion in deine Richtung lenken, damit dir deine Argumentation wieder passt. Ist doch völliger Bullshit*. Es geht um die Verfügbarkeit von Technologien, Performance und der Verbrauchsrelation - da ist NV bald ein Jahr voraus (~10 Monate). Wieso sagst du dann man sei keineswegs zu spät? Ich finde das schon beachtlich, denn diese Lücke gilt es zu schließen um Kunden zu überzeugen.
*Von GP100 reden wir lieber nicht - ist preislich wohl schon ausserhalb deiner Vorstellungskraft.
Können wir gerne machen wenn AMD für Desktop V10 auch solche hirnverbrannten Preise verlangt. Wird nur nur 99% nicht passieren.
Diese Diskussiongrundlage ist echt atemberaubend :facepalm: Mach dich doch nicht lächerlich. Wenn es einen Chip zu kaufen gibt ist doch egal ob 5 oder 5.000 Euro. Der ist fertig und kaufbar. Das wirft ein schlechtes Licht auf die Situation für die Kundschaft, welche gerne die Wahl haben. Darum ging es die ganze Zeit. AMD liegt nun mal hinten. Gefällt mir zwar auch nicht, aber so ist es nun mal.
@Locuza: War doch längst bekannt. Daraus kann man nach wie vor nicht viel ableiten, aber danke für's posten. :smile:
tm0975
2017-04-17, 10:14:44
Wieviel % der PC Gamer habe jetzt 1080 Ti Leistung?
1% ? haha nene
0,1%? garantiert nicht
Wieviele werden in den nächsten 3 Jahren auf 1080 Ti Leistung kommen??
30.000% ausgehend von der jetzigen Basis? 50.000% ??? Mehr?
AMD hat nur folgendes Problem. Letztes Jahr hat nvidia diese Zielgruppe für 1300 € abgegrast. Dieses Jahr grasen sie für 800 Ab. Wenn AMD mal so weit ist, grasen sie für 300 bis 500 €. Drum verdient sich nvidia dumm und dusselig, während AMD gerade so über die Runden kommt.
...
@Locuza: War doch längst bekannt. Daraus kann man nach wie vor nicht viel ableiten, aber danke für's posten. :smile:
Da hast du alles schon gewusst? Erstaunlich.
dargo
2017-04-17, 10:24:23
Lies noch mal was ich schrieb. GP102. Was hat Titan X? GP102. Seit wann gibt es das Teil? August 2016. Tr0ll doch nicht herum. Was soll das? Vega kommt etwas spät auf den Markt. Fertig aus. :rolleyes:
Nur weil du keine 1300 Eier ausgeben magst, kannst du doch nicht einfach die Diskussion in deine Richtung lenken, damit dir deine Argumentation wieder passt. Ist doch völliger Bullshit*. Es geht um die Verfügbarkeit von Technologien, Performance und der Verbrauchsrelation - da ist NV bald ein Jahr voraus (~10 Monate). Wieso sagst du dann man sei keineswegs zu spät? Ich finde das schon beachtlich, denn diese Lücke gilt es zu schließen um Kunden zu überzeugen.
Wieviele Kunden weltweit? 1.000 oder 2.000? :lol:
*Von GP100 reden wir lieber nicht - ist preislich wohl schon ausserhalb deiner Vorstellungskraft.
Nein... den betrachten wir noch gezielter. Der ist ja extrem für den Desktopbereich interessant und besonders für die Gamer. X-D
https://www.amazon.de/dp/B06X9X9PSS?smid=A3JWKAKR8XB7XF&linkCode=df0&creative=22502&creativeASIN=B06X9X9PSS&childASIN=B06X9X9PSS&tag=geizhalspre03-21
Diese Diskussiongrundlage ist echt atemberaubend :facepalm: Mach dich doch nicht lächerlich.
Der einzige der sich lächerlich macht bist du. Man könnte den Spieß auch umdrehen und sagen GP102 war 2016 schlicht zu teuer für eine größere Käuferschicht. Also hat man eine extrem begrenzte Auflage zu einem horrenden Preis in die Welt gesetzt.
Hübie
2017-04-17, 10:45:47
Dann war es Fiji ebenfalls, bei dem reißenden Absatz. :rolleyes: 1000 oder 2000 Kunden? Das zeigt doch schon dass du Null Ahnung hast oder dich damit gar nicht auseinandersetzen willst und es einfach in deinem Kopf ausmalen möchtest. Geile Diskussionsgrundlage. Tesla ist bei dir also auch nicht existent? :facepalm: Peinlich, peinlich. Ehrlich. Gerade von dir hätte ich da mehr erwartet.
@Pirx: Jetzt wo du es sagst: Am Techday war die Rede von 128 FP32 Ops pro NCU. :| Das passt also doch nicht mit dem zusammen was da nun steht. Mea culpa.
Kriton
2017-04-17, 11:14:12
Vielleicht sollten wir uns generell mehr auf die inhaltlichen Argumente stürzen und weniger die Personen (angreifen).
scully1234
2017-04-17, 11:17:57
Warum wohl? :rolleyes:
1299€!
Was hat der beliebig austauschbare Preis, mit der Verfügbarkeit eines Chips zu tun?
Das dort 1299 Euro aufgerufen werden, liegt doch nur an einem, der nicht zur Verfügung stehenden Konkurrenz Namens Vega.
Ist in deinem Mikrokosmos Marktwirtschaft nicht existent ,das dir dieser Gedankengang nicht in den Sinn kommt?
Kriton
2017-04-17, 11:23:02
Dargo zu Beginn der Diskussion gesagt, dass er Titan wegen des Preises nicht beachtet. Wenn Ihr das ignorieren wollt um dem Thema eine andere Richtung zu geben ist das nicht seine Schuld:
Spät? V10 kommt 2-3 Monate nach GP102. Die Titan X nehme ich hier raus, ist eh nur Abzocke. V11 gebe ich dir recht. Einen Gegner für GP104 hätte es schon früher geben müssen.
Er hat begonnen und nicht vom Chip geredet, sondern von Karten. Hübie ist auf GP102 geschwenkt.
victore99
2017-04-17, 11:23:22
Nun denn, Vega ergibt nur wirklich Sinn für die, die entweder noch auf den alten Keplerkarten oder auf Maxwell bis einschließlich GM204 sitzen, oder noch Hawaii nutzen, vvtl auch noch Fiji. bei allem darüber ist der Leistungsgewinn würde ich sagen zu gering. Das bedeutet, auch wenn Vega nicht in Konkurrenz zu GTX 1070 treten wird, so wird alles ab 1070,wahrscheinlich auch noch 1060 in nächster Zeit nicht upgraden, von nem Sidegrade brauch ich nicht anzufangen.
vinacis_vivids
2017-04-17, 11:29:05
Preis-Leistungs-Verhältnis ist schon eine Grundlage.
AMD hat gesagt, dass GPUs für >500$ anteillig sehr wenig gekauft werden. Die Masse der pot. Käufer hat einfach die Kohle nicht. Es geht darum den sweetspot zu treffen und die eher schwachen 1070/1080 im Preis zu unterbieten bei ähnlicher oder besserer Leistung.
Dazu muss man die 1300€ Zielgruppe nicht zwangsläufig angreifen. Ähnlich wie bei den CPUs, da gibs eben den 6950x bei Intel, wo Geld halt keine Rolle spielt.
scully1234
2017-04-17, 11:29:26
Dargo zu Beginn der Diskussion gesagt, dass er Titan wegen des Preises nicht beachtet.:
Der Preis ist doch völlig irrelevant für das worum es da geht
Das eine sind marktwirtschaftliche Entscheidungen eines Konzerns, und die haben nun mal in dem Kontext hier null Relevanz!
Den Chip in der Form gibt es bereits seit letztem Jahr Preis hin oder her
Vega ist also spät dran ,egal ob GP102 nun das doppelte oder dreifache von dem kostet/gekostet hat, was man nun für Vega kakuliert
Locuza
2017-04-17, 11:34:14
Da hast du alles schon gewusst? Erstaunlich.
Das höre ich von Hübie nicht zum ersten mal, dass etwas doch schon lange klar war. :D
Zwar kann man vernünftige Vermutungen anstellen, aber je nachdem wie streng man das Thema behandelt, kann man vieles dennoch nicht vorab als Fakt abhandeln.
[...]
@Pirx: Jetzt wo du es sagst: Am Techday war die Rede von 128 FP32 Ops pro NCU. :| Das passt also doch nicht mit dem zusammen was da nun steht. Mea culpa.
Es hat sich in dem Fall nichts verändert, da jede ALU 2 OPs rausspuckt, bei 64 SIMD-Lanes entsprechend 128 OPs.
Fiji war stark unbalanciert, es gab ein massives Shader-Array, aber nur ein schwaches (Geometry-)Frontend und auch beim Pixel-Output hat AMD im Vergleich zu Hawaii nicht zugelegt.
Man konnte spekulieren, ob AMD mit Vega jetzt mehr in die Breite geht, z.B. 6 Shader-Engines, so grob wie bei Nvidia oder gar 8?
Rein vom Papier her sind natürlich viele Lösungen möglich, aber nur einige Wege sind sinnvoll, besonders in Anbetracht des Startpunkts bzw. früherer Designs.
Jetzt weiß man eben definitiv wie Vega von den simplen Eckdaten her aussieht und im Vergleich zu Fiji hat sich nichts geändert, entsprechend hat AMD sich dafür entschieden die Effizienz deutlich zu erhöhen, anstatt das Design weiter zu skalieren und sich mit anderer Komplexität herumzuschlagen.
Wenn du schon Anfang an gewusst hast, wie viele Shader-Engines, ROPs und Register Vega (10) besitzt, dann ist das cool, noch cooler wäre es aber, wenn du das in Zukunft dann auch teilen würdest. ;)
@Locuza: danke fuers raussuchen. Eine Idee was es mit max_texture_channel_caches auf sich hat? Einfach mehr Cache, zu neuen Textureinheiten hat AMD noch nichts gesagt oder?
Ich glaube uebriges, dass jeder hier zustimmen wird, dass Vega spaet kommt. Was ist das ueberhaupt fuer eine Frage? Wer will nicht neue Hardware frueher sehen?
Aber solange nichts aussergewohenliches passiert muss man sich einfach damit abfinden, dass Nvidia jetzt und auch in Zukunft frueher dran ist. Das ist einfach eine Geldfrage und wenn sie so ihre Position erhalten und die Preise weiter treiben konnen, werden sie das tun. Wenn man wirklich ein Problem damit hat, muss man halt auch mal die paar Monate warten koennen.
Godmode
2017-04-17, 12:38:01
Mythos;11351283']Das THEMA ist VEGA!
Ganz genau! OT bitte einstellen!
Locuza
2017-04-17, 12:47:56
[...]
@Locuza: danke fuers raussuchen. Eine Idee was es mit max_texture_channel_caches auf sich hat? Einfach mehr Cache, zu neuen Textureinheiten hat AMD noch nichts gesagt oder?
Es waren 4 bei Cape Verde, 8 bei Pitcairn und 12 bei Tahiti.
https://github.com/ulli-kroll/linux/blob/master/drivers/gpu/drm/amd/amdgpu/gfx_v6_0.c
Auffällig war für mich das es mit den Memory-Channels übereinstimmt, Cape Verde war 128-Bit breit, Pitcairn 256-Bit und Tahiti hatte 384-Bit.
Und es passt es auch bei Bonaire mit 4 (128-Bit) und 16 (512-Bit) bei Hawaii:
http://www.staroceans.org/projects/beagleboard/drivers/gpu/drm/amd/amdgpu/gfx_v7_0.c
Fiji hatte übrigens auch 16:
One item that was later changed was max_texture_channel_caches value, which was later bumped up to 16.
https://patchwork.kernel.org/patch/7613411/
https://forum.beyond3d.com/posts/1977766/
vinacis_vivids
2017-04-17, 13:03:02
https://charts.stocktwits.com/production/original_80291425.png?1492307785
Ok, mal Spekulation:
https://abload.de/img/doom_3840_2160awudw.png
Auffällig war für mich das es mit den Memory-Channels übereinstimmt
Hast recht, wobei bei den HBM Chips Fragezeichen bleiben. Fiji steht bei 8 16 mit 32 HBM channels, Vega ebenfalls bei 16 mit 16(?) channels. Koennte auch auf die ueberarbeitete die Cache/Speicher Hierarchie hindeuten, viel sagt mir das so jedoch nicht. Vielleicht hat es eher auch mit cache lines oder dem Zugriff auf den Speicher zu tun... :confused:
Locuza
2017-04-17, 13:31:47
Ich quote einfach das ganze Zeug hier:
Do you mean aside from the deferred binning portion of the rasterizer?
There does seem to be a mode control for conservative rasterization: https://lists.freedesktop.org/archives/mesa-dev/2017-March/148861.html
+ si_pm4_set_reg(pm4, R_028C4C_PA_SC_CONSERVATIVE_RASTERIZATION_CNTL,
Other things I've run across:
Like virtually all architectures GFX9 does have to workaround a few quirks/bugs:
https://lists.freedesktop.org/archives/mesa-dev/2017-March/148879.html, titled "radeonsi/gfx9: add a scissor bug workaround"
There was some speculation about how the ROPs being L2 clients would change the behavior of the rest of the GPU. One item that appears to be continuing is a separate and incoherent metadata path, for things like delta compression:
https://lists.freedesktop.org/archives/mesa-dev/2017-March/148890.html
Also, whatever relationship the ROP path has with the L2 seems to have some subtleties to how coherence handled or not handled. GFX9 avoids some cache flushes, but still needs others that prior generations did:
+ /* GFX9: Wait for idle if we're flushing CB or DB. ACQUIRE_MEM doesn't
+ * wait for idle on GFX9. We have to use a TS event.
+ */
+ if (sctx->b.chip_class >= GFX9 && flush_cb_db) {
+ struct r600_resource *rbuf = NULL;
+ uint64_t va;
+ unsigned offset = 0, tc_flags, cb_db_event;
+
+ /* Set the CB/DB flush event. */
+ switch (flush_cb_db) {
+ case SI_CONTEXT_FLUSH_AND_INV_CB:
+ cb_db_event = V_028A90_FLUSH_AND_INV_CB_DATA_TS;
+ break;
+ case SI_CONTEXT_FLUSH_AND_INV_DB:
+ cb_db_event = V_028A90_FLUSH_AND_INV_DB_DATA_TS;
+ break;
+ default:
+ /* both CB & DB */
+ cb_db_event = V_028A90_CACHE_FLUSH_AND_INV_TS_EVENT;
+ }
+
+ /* TC | TC_WB = invalidate L2 data
+ * TC_MD | TC_WB = invalidate L2 metadata
+ * TC | TC_WB | TC_MD = invalidate L2 data & metadata
+ *
+ * The metadata cache must always be invalidated for coherency
+ * between CB/DB and shaders. (metadata = HTILE, CMASK, DCC)
+ *
+ * TC must be invalidated on GFX9 only if the CB/DB surface is
+ * not pipe-aligned. If the surface is RB-aligned, it might not
+ * strictly be pipe-aligned since RB alignment takes precendence.
The above's mention about ACQUIRE_MEM not waiting for idle runs counter to how it is discussed in a patch that removes a note that exempted the graphics ring from using it (perhaps a quirk of the ROP path?):
https://lists.freedesktop.org/archives/mesa-dev/2017-March/148925.html
While we're at it, it seems AMD has merged a few of its internal shader types, potentially correlating with the changes made in the geometry engine:
https://lists.freedesktop.org/archives/mesa-dev/2017-March/148903.html
+ /* GFX9 merged LS-HS and ES-GS. Only set RW_BUFFERS for ES and LS. */
There are some preliminary descriptions of the hardware dimensions of Vega10, which seem mostly in-line with Fiji. The one item with a question mark, for max_tile_pipes may have it because this is one number that is inferior to Fiji--listed as 16 elsewhere. One item of note is that the max number of texture channel caches, which seems to give a count of active L2 cache slices, is also 16 for Fiji elsewhere despite its wider channel count. (Hawaii's is also 16)
https://lists.freedesktop.org/archives/amd-gfx/2017-March/006570.html
https://forum.beyond3d.com/posts/1974347/
Hübie
2017-04-19, 07:37:02
Ich quote einfach das ganze Zeug hier:
https://forum.beyond3d.com/posts/1974347/
Heißt das jetzt, dass die ROPs direkt an einen L2$-slice hängen und es keine crossbar mehr an der Stelle gibt? :| Check ich nicht so richtig. Opfert man dann nicht die viel gelobte Flexibilität ein wenig?
Man scheint sich NV in der Hinsicht zu nähern (auch CR und binning rasterizer).
Locuza
2017-04-19, 08:16:36
Wahrscheinlich, da AMD schon im Januar im Architecture-Teaser gesagt hat, dass die ROPs nun Clienten vom L2$ sind und nicht mehr von den Memory-Controllern:
http://www.anandtech.com/show/11002/the-amd-vega-gpu-architecture-teaser/3
Zum tragen kam es bisher sowieso nur bei Tahiti und Tonga, wobei letzterer nie mit seinem vollen 384-Bit Interface verkauft wurde.
aufkrawall
2017-04-19, 19:02:58
Fiji done right wär ja gar nicht so übel, wenn V10 50-70% höher taktet. Wenn es dann nicht derartige Auslastungsprobleme hat, müsste die Skalierung bei Titeln, wo Fiji schlecht ist, also auch noch besser sein (wenn nicht wieder irgendwas mit dem HBM klemmt).
Nur warum ist das Teil für 2x HP schon so vergleichsweise groß? Packdichte für Taktbarkeit geopfert?
dargo
2017-04-19, 19:11:22
Was meinst du mit so groß? Das Ding wird ja nur unwesentlich größer als GP102.
aufkrawall
2017-04-19, 19:17:39
Ob man in die Nähe eines vollaktivierten GP102 bei vergleichbarem Verbrauch kommen wird, wird man sehen müssen.
dargo
2017-04-19, 19:27:05
Der Verbrauch war doch gar nicht das Thema sondern die Größe bzw. Packdichte. TFLOPs sind jedenfalls vergleichbar... ok bei Vega bissel höher.
Civtam
2017-04-19, 21:14:09
Was meinst du mit so groß? Das Ding wird ja nur unwesentlich größer als GP102.
Vermutlich, dass V10 auch 4096 Shader + Rest in 14 nm auf ~470mm^2 packt, während Fiji das Ganze in 28nm auf 601mm^2 gepasst hat.
Hübie
2017-04-19, 21:24:24
Der Verbrauch war doch gar nicht das Thema sondern die Größe bzw. Packdichte.
Das hängt unmittelbar miteinander zusammen. Wenn du Leitungen und Transistoren besser abschirmst bzw. isolierst, dann wird der Chip automatisch größer. Hohe Packdichte bedeutet mehr Stromdichte, was wiederum nachteilig für den Energiebedarf ist. Also doch: Es war Thema. :wink:
TFLOPs kannst du für 99% der Vergleiche in die Tonne treten. Sind allenfalls als Anhaltspunkt zu gebrauchen.
Vom Prozess selber wird wohl nicht so viel Effizienz kommen, wenn man sich Polaris so anschaut.
BoMbY
2017-04-19, 21:30:04
Wenn der Chip für höhere Taktraten optimiert ist, wird man sicher irgendwo Kompromisse eingehen müssen - eine geringere Packdichte wäre einer der möglichen Kompromisse die für mich im Moment Sinn ergeben würden.
dargo
2017-04-19, 21:43:15
TFLOPs kannst du für 99% der Vergleiche in die Tonne treten. Sind allenfalls als Anhaltspunkt zu gebrauchen.
Och... die passen schon ganz gut bei der aktuellen Generation. Natürlich nicht in einer PC-Umgebung mit einer high level API. ;)
Hübie
2017-04-20, 00:01:16
Du redest wieder wirres Zeug. Hat mit dem Thema aber nix zu tun. :rolleyes:
Hier läuft auch low level alles fluffig. :| The Division, BF1 und Doom... Da zieht auch keine Fury vorbei, wetten?
dargo
2017-04-20, 00:09:00
Was willst du ständig mit deiner Fury? :facepalm: Heute dreht sich alles um Polaris, morgen um Vega. Ich habe von aktueller Generation gesprochen.
Hübie
2017-04-20, 00:22:46
Vega wird dessen direkter Nachfolger. Was kommst Du denn immer mit so lahmen Schrottgurken an. Die TFLOPs passen zu 99% eben nicht zu der Leistung im Alltag. Kannst es gerne mal durchgehen.
Nakai
2017-04-20, 00:25:15
V10 wird eine höhere IPC mit sich bringen.
Die Frage ist es eher, wieviel es ist, und ob die ~500mm² Diegröße gut angelegt wurden. V10 ist von der Diegröße gut mit GP102 vergleichbar. Wer wird effizienter pro mm² sein?
Vielleicht werden die Karten mal neu gemischt...
...
AMD wird sicherlich den Launch irgendwie verkacken. Wir könnten (eher sollten) Wetten abschließen, wie AMD diesmal den Launch verschandeln könnte (WIRD).:D
Hübie
2017-04-20, 00:36:11
Fiepende Pumpen schon mal nicht. :D Beta BIOS hat Ryzen sich schon gekrallt. Heißes und lautes Referenzdesign hatten wir auch vor nicht allzu langer Zeit. Auch vertauschte Stromkreise gab's erst neulich. Mir fällt ehrlich gesagt nix mehr ein. X-D
Die IPC steigt im Grunde durch bessere Ausbeute, höhere (effektive) Bandbreite und kontinuierliche Auslastung. Da könnte man also die aktuelle Lücke der TFLOP-Angaben schließen, aber darauf verlassen will ich mich eben nicht. ;) Aktuell ist Polaris (6TFLOPs) ~30% schneller als die GP106 (4,6) und FijiXT (8,9) ~25% vor der 1070, wenn wir nach dieser Zahl gehen. Beide tun sich aber ständig schwer an den Kontrahenten.
Nakai
2017-04-20, 01:02:54
Fiepende Pumpen schon mal nicht. :D Beta BIOS hat Ryzen sich schon gekrallt. Heißes und lautes Referenzdesign hatten wir auch vor nicht allzu langer Zeit. Auch vertauschte Stromkreise gab's erst neulich. Mir fällt ehrlich gesagt nix mehr ein. X-D
Mein Tipp geht in Richtung Treiber.
Die IPC steigt im Grunde durch bessere Ausbeute, höhere (effektive) Bandbreite und kontinuierliche Auslastung. Da könnte man also die aktuelle Lücke der TFLOP-Angaben schließen, aber darauf verlassen will ich mich eben nicht. ;) Aktuell ist Polaris (6TFLOPs) ~30% schneller als die GP106 (4,6) und FijiXT (8,9) ~25% vor der 1070, wenn wir nach dieser Zahl gehen. Beide tun sich aber ständig schwer an den Kontrahenten.
Bezüglich Zen hat AMD meine Erwartungen sogar übertroffen.
Vielleicht tut Vega dies auch. Und Vega wird das eben tun, wenn die Effizienz/SP auf Pascal-Niveau ist. Das ist der Benchmark. AMDs erste Implementierung eines Renderer mit Tile-Caching (TBDR würde ich nicht in den Mund nehmen) sollte nicht in die Hose gehen. Das wird sehr spannend.
Agent117
2017-04-20, 01:14:03
AMD wird sicherlich den Launch irgendwie verkacken. Wir könnten (eher sollten) Wetten abschließen, wie AMD diesmal den Launch verschandeln könnte (WIRD).:D
Gaz klar Treiber, wenn sie wirklich Q2 launchen wollen.:cool:
horn 12
2017-04-20, 07:30:48
Vega Launch wohl um den 06 bis 09 Mai 2017, laut Forumsbericht.
Aber Warum um Himmels Willen verhält sich AMD wenige Wochen vor Launch immer noch so bedeckt?
Was verheimlicht uns AMD aber im Negativen Sinne... oder einfach nur die Ruhe vor dem Sturm?
dargo
2017-04-20, 08:00:10
Aktuell ist Polaris (6TFLOPs) ~30% schneller als die GP106 (4,6) und FijiXT (8,9) ~25% vor der 1070, wenn wir nach dieser Zahl gehen. Beide tun sich aber ständig schwer an den Kontrahenten.
Du hast mal wieder keine Ahnung wovon du sprichst.
Polaris 10 in Form einer RX480 Referenz hat 5,4 TFLOPs, GP106 aka GTX1060 FE 4,7 TFLOPs. Und schon sind es keine 30% mehr sondern nur noch 15%.
r3ptil3
2017-04-20, 08:27:43
Vega Launch wohl um den 06 bis 09 Mai 2017, laut Forumsbericht.
Kannst du das bitte noch erläutern? Zumindest einen Link angeben?
fondness
2017-04-20, 09:14:38
V10 wird eine höhere IPC mit sich bringen.
Die Frage ist es eher, wieviel es ist, und ob die ~500mm² Diegröße gut angelegt wurden. V10 ist von der Diegröße gut mit GP102 vergleichbar. Wer wird effizienter pro mm² sein?
Vielleicht werden die Karten mal neu gemischt...
...
AMD wird sicherlich den Launch irgendwie verkacken. Wir könnten (eher sollten) Wetten abschließen, wie AMD diesmal den Launch verschandeln könnte (WIRD).:D
Ich würde die Erwartungshaltung mal lieber tief halten. Es bleibt weiter dabei, dass AMDs kombiniertes RnD von CPU+GPU-Entwicklung irgendwo bei 60% von NVs RnD-Ausgaben liegt. Vielleicht schafft AMD ja wie bei Ryzen ein kleines Wunder, aber davon ausgehen kann man mit wesentlich weniger Personal und Ressourcen sicher nicht. In jüngster zeit wurden zwar dank Ryzen wieder einige Leute eingestellt, aber das wirkt sich frühestens bei der übernächsten Generation aus.
reaperrr
2017-04-20, 11:16:50
Ich würde die Erwartungshaltung mal lieber tief halten. Es bleibt weiter dabei, dass AMDs kombiniertes RnD von CPU+GPU-Entwicklung irgendwo bei 60% von NVs RnD-Ausgaben liegt. Vielleicht schafft AMD ja wie bei Ryzen ein kleines Wunder, aber davon ausgehen kann man mit wesentlich weniger Personal und Ressourcen sicher nicht. In jüngster zeit wurden zwar dank Ryzen wieder einige Leute eingestellt, aber das wirkt sich frühestens bei der übernächsten Generation aus.
Man könnte es aber auch so sehen, dass GCN1.2 und Polaris vielleicht gerade deshalb so wenig Verbesserungen brachten, weil AMD sich bei der R&D auf IP9.0 (Vega) konzentriert hat.
Im Grunde wusste AMD ja schon seit der 750 Ti, wie gut Maxwell und dementsprechend auch die Folgearchitekturen werden, demnach hatten sie jetzt 3 Jahre Zeit, um der Architektur die nötige Generalüberholung zu verpassen, und die bisherigen Infos klingen danach, dass sie das auch getan haben.
AMD muss - Prozess-normalisiert - wenigstens ungefähr das Niveau von Maxwell 2.0 erreichen um konkurrenzfähig zu bleiben, was die Effizienz, pro-ALU-Leistung und Taktbarkeit angeht, das ist soweit klar.
BoMbY
2017-04-20, 13:17:29
Alleine wenn es nur GCN 4.0 mit 64 CUs/4096 SP und 1.500 MHz wäre, wäre Vega schon deutlich schneller als eine Fiji mit 1.500 Mhz, wegen des "Primitive Discard Accelerators".
Locuza
2017-04-20, 13:34:30
7% kamen "damals" bei CB beim Vergleich zwischen GCN Gen 3 und Gen 4 insgesamt (DCC v2, größer L2$, Instruction Prefetch, Primitive DA) heraus:
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/
robbitop
2017-04-20, 13:36:33
Wahrscheinlich könnte es etwas mehr sein, wenn P10 nicht so bandbreitenlimitiert wäre.
Vega sollte da sicherlich noch etwas draufpacken können. Schon Fijii @1500MHz und 8GB VRAM wäre sicherlich nicht gerade langsam.
IMO hätte man sicherlich die Anzahl der ROPs etwas aufstocken können. Schon Hawaii hatte 64.
Auch war bei Fijii sicherlich das Verhältnis/Gruppierung von CUs zu Shaderengines nicht ideal. Hier hätte man lieber weniger CUs und mehr Shaderengines (Granularität) verbauen sollen. Das ist aber alles zu V10 leider gleich geblieben, oder?
Locuza
2017-04-20, 13:50:45
Das war ein fairer Vergleich, beide Chips hatten 32 CUs, 32 ROPs, die gleiche Rohbandbreite.
Vega 10 wird wie Fiji 512 GB/s bieten, also kann man das praktisch 1:1 übertragen, wobei Vega natürlich GCN Gen 5 darstellt und nicht nur 4.
Und ja, bei Vega 10 bleibt alles gleich, 4 Shader-Engines, 16 CUs pro SE.
Das Load-Balancing zwischen den Shader-Engines soll aber deutlich verbessert worden sein und die Geometry-Engines sollen auch bis zu 2,75 Primitives pro Takt schaffen gegenüber dem einem von damals, wobei da vermutlich noch Infos fehlen, unter welchen Umständen genau es 2,75 sind, da erwarte ich vorsichtshalber lieber ein paar Einschränkungen.
Spielt die Pixelfuellrate denn eine grosse Rolle?
Aber wenn der rasterizer umgebaut wird, laesst es sich doch eh nicht direkt vergleichen. Zumal der Takt ja auch noch 50% hoeher liegen soll als bei Hawaii/Fiji.
robbitop
2017-04-20, 13:54:58
Das war ein fairer Vergleich, beide Chips hatten 32 CUs, 32 ROPs, die gleiche Rohbandbreite.
Absolut. Sinnvoller wäre aber noch, für beide Chips, die Bandbreitenlimitierung zu entfernen.
Einfach in dem man beide GPUs untertaktet und den Speicher so belässt.
Vega 10 wird wie Fiji 512 GB/s bieten, also kann man das praktisch 1:1 übertragen, wobei Vega natürlich GCN Gen 5 darstellt und nicht nur 4.
Und ja, bei Vega 10 bleibt alles gleich, 4 Shader-Engines, 16 CUs pro SE.
Das Load-Balancing zwischen den Shader-Engines soll aber deutlich verbessert worden sein und die Geometry-Engines sollen auch bis zu 2,75 Primitives pro Takt schaffen gegenüber dem einem von damals, wobei da vermutlich noch Infos fehlen, unter welchen Umständen genau es 2,75 sind, da erwarte ich vorsichtshalber lieber ein paar Einschränkungen.
Ich frage mich, wie viel teurer (Transistoren) es gewesen wäre, 128 ROPs (die sind ja seit Vega wieder an die Speicherbandbreite gekoppelt?) und 2x so viele Shaderengines mit je nur halb so vielen CUs zu verbauen. Oder etwas dazwischen (96 ROPs und 1,5x so viele Shader Engines mit je 2/3 der CUs).
Bei ~500 sqmm ist man jedenfalls ein gutes Stück größer geworden als hätte man Polaris einfach nur aufskaliert. Ich hoffe, es hat sich gelohnt (Takt, "IPC").
Spielt die Pixelfuellrate denn eine grosse Rolle?
Seltsamerweise sind ROPs immernoch relativ wichtig. Insbesondere seit den DR-Engines. Warum das so ist, habe ich aber als Laie nicht verstanden. Ggf. kann sich ja mal Foobar dazu äußern?
fondness
2017-04-20, 13:58:07
Vega 10 wird wie Fiji 512 GB/s bieten, also kann man das praktisch 1:1 übertragen, wobei Vega natürlich GCN Gen 5 darstellt und nicht nur 4.
Fiji ist Tonga-Level, also GCN Gen 3.
Und ja, bei Vega 10 bleibt alles gleich, 4 Shader-Engines, 16 CUs pro SE.
Das Load-Balancing zwischen den Shader-Engines soll aber deutlich verbessert worden sein und die Geometry-Engines sollen auch bis zu 2,75 Primitives pro Takt schaffen gegenüber dem einem von damals, wobei da vermutlich noch Infos fehlen, unter welchen Umständen genau es 2,75 sind, da erwarte ich vorsichtshalber lieber ein paar Einschränkungen.
Diese aktuellen Einträge können auch nur Platzhalter sein und schnell geändert werden....
robbitop
2017-04-20, 14:02:53
Ich habe leider gar nicht im Überblick, ob sich das bei modernen Spielen noch immer so verhält. Aber 2012 war es so, dass die Skalierung der Leistung pro CU mit den größeren GPUs deutlich abnahm.
Cape Verde war normiert auf seine Rohleistung mit Abstand die schnellste GCN CPU. Pitcairn schon langsamer. Tahitii noch langsamer. Hawaii IIRC etwas besser (?), Fijii wieder schlechter. Tonga und Polaris besser. Aber ich vermute, dass an den alten Cape Verde noch immer nicht heran zu kommen ist, oder?
Das hängt sicherlich mit der Granularität des Designs zu sammen. Shaderengines zu CUs. Skalierung der Caches, Rasterizer, Bandbreite und ROPs.
Tonga Cape Verde hatte 10 CUs in 2 1 Shaderengines und 16 ROPs.
Bei 64 CUs bräuchte man also 102 ROPs (96 ist relativ nah dran) und 12,8 6,4 Shaderengines (126 ist nah genug dran)?
Locuza
2017-04-20, 14:13:56
Spielt die Pixelfuellrate denn eine grosse Rolle?
Aber wenn der rasterizer umgebaut wird, laesst es sich doch eh nicht direkt vergleichen. Zumal der Takt ja auch noch 50% hoeher liegen soll als bei Hawaii/Fiji.
Sehr unwissenschaftlich sagt mein Bauchgefühl nein.
Compute-Shader funktionieren gänzlich ohne ROPs und bei 64 ROPs @ 1,5 Ghz liegt die theoretische Bandbreite bei 384/768/1.536 GB/s bei RGBA8,16,32:
https://static2.gamespot.com/uploads/original/823/8237367/3175612-0982097327-lowle.jpg
Da die ROPs nun am L2$ hängen und der Tiled-Based-Rasterizer scheinbar auch die Effizienz erhöht, wird das praktisch wohl kaum eine Rolle spielen.
Absolut. Sinnvoller wäre aber noch, für beide Chips, die Bandbreitenlimitierung zu entfernen.
Wobei hier Gen 4 die DCC in ihrer verbesserten Version zur Seite steht, also für den Leistungszuwachs im Schnitt nicht unbedingt ein Nachteil.
Ich frage mich, wie viel teurer (Transistoren) es gewesen wäre, 128 ROPs (die sind ja seit Vega wieder an die Speicherbandbreite gekoppelt?) und 2x so viele Shaderengines mit je nur halb so vielen CUs zu verbauen. Oder etwas dazwischen (96 ROPs und 1,5x so viele Shader Engines mit je 2/3 der CUs).
Das sind immer interessante Fragen, was die bessere Balance wäre.
Aber doppelt soviele SEs zu synchronisieren und mehr Units zu vernetzten stellt auch einen beachtlichen Aufwand dar.
Wenn AMD die Units selber lieber aufbläst, soll es natürlich jedem Recht sein, wenn in der Praxis das ordentlich durchschlägt.
Fiji ist Tonga-Level, also GCN Gen 3.
Diese aktuellen Einträge können auch nur Platzhalter sein und schnell geändert werden....
1. Bezogen auf den Kontext, 7% Verbesserung von Gen 4 auf Gen 3, wobei natürlich Vega Gen 5 darstellt.
2. Ich habe die Linux-Treiber nie protokolliert, teilweise gab es schon Updates, aber ich würde nicht den Atem anhalten.
10 CUs in 2 Shaderengines und 16 ROPs.
Das stimmt doch gar nicht, Tonga hatte 4*8 CUs und 32 ROPs.
Die Chips skalieren nicht linear (z.B. eben Tonga un Fiji mit jeweils 4 SEs), deshalb gibt es oben natuerlich andere Limits. Eine theoretisch doppelt so grosse GPU ist nicht doppelt so schnell, das ist bei NV auch nicht anders. Und letztendlich haengt es auch vom Spiel ab.
Diese aktuellen Einträge können auch nur Platzhalter sein und schnell geändert werden....
Daran glaubt aber keiner wirklich oder?
robbitop
2017-04-20, 14:17:34
Das stimmt doch gar nicht, Tonga hatte 4*8 CUs und 32 ROPs.
Entschuldige - ich meine natürlich Cape Verde.
robbitop
2017-04-20, 14:20:57
Sehr unwissenschaftlich sagt mein Bauchgefühl nein.
Compute-Shader funktionieren gänzlich ohne ROPs und bei 64 ROPs @ 1,5 Ghz liegt die theoretische Bandbreite bei 384/768/1.536 GB/s bei
Ich meine, dass die ROPs in DR-Engines relativ viel (zB bei R2T )genutzt werden. Coda/Gipsel (? - ist ne Weile her) hatte IIRC mal erwähnt, dass die ROPs in modernen Engines relativ wichtig sind / ausgelastet werden.
Wobei hier Gen 4 die DCC in ihrer verbesserten Version zur Seite steht, also für den Leistungszuwachs im Schnitt nicht unbedingt ein Nachteil.
Laut Foobar ist AMDs DCC ziemlich unwirksam. Auch bei Polaris. Hier besteht wohl viel Nachholbedarf.
Nichtsdestotrotz wäre es interessant gewesen, beide Chips nochmal zu untertakten und nochmal zu messen. Um ganz sicher zu sein, dass man nicht im BB-Limit steckt. zumindest wenn man isoliert messen will, wieviel mehr die CUs auf die Straße bringen.
Ich denke mal, die werden sich schon genau ueberlegt haben, in wie viele SEs sie ihre CUs verteilen. Dass 4 vorlaeufig das Ende darstellen war ihnen ja schon vor Jahren klar. Man hat Fiji trotzdem mit 64 CUs gebracht, auch wenn die in fast keinem Titel wirklich aufspielen koennen. Wenn sie in den 4 SEs groessere Probleme sehen, haetten sie Vega dahingehend schon breiter geplant, so viel traue ich ihnen dann doch zu.
Dino-Fossil
2017-04-20, 14:23:59
Laut Foobar ist AMDs DCC ziemlich unwirksam. Auch bei Polaris. Hier besteht wohl viel Nachholbedarf.
Hätte da aber gerne mal mehr als einen zweifelhaften Datenpunkt.
Interessant wäre es schon, genauere Tests zu haben.
dildo4u
2017-04-20, 14:28:33
Die 580 sollte der 1060 komplett davon Rennen was Rohleistung angeht die wird massiv von der Bandbreite limitiert.
https://youtu.be/hTnFKwK_DaQ?t=2m6s
[MK2]Mythos
2017-04-20, 14:29:02
Eigentlich muss Vega mit 50% höherem Takt, den GCN Verbesserungen, den TBR Implementierungen und dem doppelten HBM Speicher doch am Ende mindestens doppelt so schnell wie Fiji sein, alles andere wäre meiner Meinung nach, angesichts des ganzen Aufwands, eine Enttäuschung. Wenn ich also grob von doppelter Performance unter 4K ausgehe, dann landet der Vega Top Dog locker über der 1080ti.
Selbst wenn Vega nur ein Fiji + 50% Takt wäre, wäre die 1080ti FE in Schlagdistanz!
Locuza
2017-04-20, 14:31:57
[...]
Das hängt sicherlich mit der Granularität des Designs zu sammen. Shaderengines zu CUs. Skalierung der Caches, Rasterizer, Bandbreite und ROPs.
Tonga Cape Verde hatte 10 CUs in 2 Shaderengines und 16 ROPs.
Bei 64 CUs bräuchte man also 102 ROPs (96 ist relativ nah dran) und 12,8 Shaderengines (12 ist nah genug dran)?
Cape Verde hatte nur eine Shader-Engine und 10 CUs = 640 Shader.
http://techreport.com/r.x/cape-verde/arch-diagram.jpg
Im Gegensatz zu Fiji würde ich mir aber deutlich weniger Gedanken machen, da das Load-Balancing verbessert wurde und eine Geometry-Engine über den doppelten Durchsatz erreichen kann und das ist bei der Geometrielast in modernen Spielen wahrscheinlich eher ein Problem, als mangelnde Pixelfüllrate.
robbitop
2017-04-20, 14:32:45
Hätte da aber gerne mal mehr als einen zweifelhaften Datenpunkt.
Interessant wäre es schon, genauere Tests zu haben.
Haben wir aber leider nicht. Zumal "zweifelhaft" ziemlich anmaßend ist. Foobar ist einer der fähigsten Engine Leute der Industrie. Die aktuelle id-Tech Engine ist nicht zu schlagen was viele Aspekte angeht. Wenn er das sagt, wird was dran sein.
Mythos;11354415']Eigentlich muss Vega mit 50% höherem Takt, den GCN Verbesserungen, den TBR Implementierungen und dem doppelten HBM Speicher doch am Ende mindestens doppelt so schnell wie Fiji sein, alles andere wäre meiner Meinung nach, angesichts des ganzen Aufwands, eine Enttäuschung.
Doppelt so schnell, bei nur 50 % mehr Rohleistung ist eine etwas überhöhte Erwartung. Selbst Maxwell brachte ggü Kepler keinen so hohen IPC Zugewinn (zumal sie ihre Shaderunits dafür augenscheinlich viel stärker umgebaut haben).
Ich tippe auf 10-15 % mehr IPC aus den CUs (man hat deutlich weniger RnD als NV!) und etwas mehr Bandbreiteneffizienz.
aufkrawall
2017-04-20, 14:36:19
Mythos;11354415']Eigentlich muss Vega mit 50% höherem Takt, den GCN Verbesserungen, den TBR Implementierungen und dem doppelten HBM Speicher doch am Ende mindestens doppelt so schnell wie Fiji sein, alles andere wäre meiner Meinung nach, angesichts des ganzen Aufwands, eine Enttäuschung. Wenn ich also grob von doppelter Performance unter 4K ausgehe, dann landet der Vega Top Dog locker über der 1080ti.
Das wäre schon ein ziemlich starker Auftritt.
Die 1080 OC-Leistung in Doom 4k ist halt immer noch nicht ausgeräumt. Kann ein nichtssagendes Indiz sein, muss aber nicht.
BoMbY
2017-04-20, 14:37:39
Mythos;11354415']Eigentlich muss Vega mit 50% höherem Takt, den GCN Verbesserungen, den TBR Implementierungen und dem doppelten HBM Speicher doch am Ende mindestens doppelt so schnell wie Fiji sein, alles andere wäre meiner Meinung nach, angesichts des ganzen Aufwands, eine Enttäuschung. Wenn ich also grob von doppelter Performance unter 4K ausgehe, dann landet der Vega Top Dog locker über der 1080ti.
Selbst wenn Vega nur ein Fiji + 50% Takt wäre, wäre die 1080ti FE in Schlagdistanz!
Sag ich schon länger. 150-200% einer Fury X sollte Vega nach Adam Riese mindestens bringen, aber das wollen viele nicht verstehen. GCN 4 Fiji mit 1500 MHz alleine wären mind. 160% einer Fury X.
Locuza
2017-04-20, 14:40:56
@ Robbitop
Ich würde es mir anmaßen, da AMD Beispiele liefert:
http://images.anandtech.com/doci/8460/ColorCompress.png
http://images.anandtech.com/doci/10446/P11.png
Selbst Sony hat bei der PS4 Pro die Rechenleistung um Faktor 2.3 erhöht, die Bandbreite aber nur um magere 23%, dass geht ja niemals auf, wenn die DCC nicht wenigstens etwas hilft.
Theoretisch kann auch The Techreport starke Zuwächse (Optimalwerte) mit der Beyond3D-Suite nachweisen:
http://techreport.com/r.x/rx480review/b3d-bandwidth.png
http://techreport.com/review/30328/amd-radeon-rx-480-graphics-card-reviewed/5
dargo
2017-04-20, 14:42:40
Die 1080 OC-Leistung in Doom 4k ist halt immer noch nicht ausgeräumt. Kann ein nichtssagendes Indiz sein, muss aber nicht.
Vielleicht wollte AMD nur alle trollen und es war Vega 11. X-D
robbitop
2017-04-20, 14:43:44
@Locuza
Was soll AMD denn anderes sagen? Ggf Spezialfälle, Synthies (edit Firestrike BB-Test...), die sie da beschreiben. IIRC war Carizzo (OK nur GCN 3.0) trotz DCC ggü Kaveri immernoch im Bandbreitenlimit und kaum schneller.
Einem unabhängigen Entwickler einer der modernsten Spielenegines traue ich persönlich eher.
Dass die Bandbreite kaum gesteigert wurde bei der PS4Pro wurde btw von den Entwicklern stark kritisiert. Sieht man übrigens auch daran, dass 2160p Checkerboard praktisch nie verwendet wird, obwohl die Rechenleistungssteigerung das hergeben würde. Selbst 1800P Checkerboard sind wohl oft eng. (Checkerboard kostet zusätzlich Bandbreite zum Lesen/Schreiben der IDs -> ID Buffer)
aufkrawall
2017-04-20, 14:45:18
Vielleicht wollte AMD nur alle trollen und es war Vega 11. X-D
Afair hatten sie aber eindeutig von Vega 10 gesprochen. :(
Ich glaube auch nicht daran, dass ein V11 mit ebenfalls zwei 4 GiB Stacks kommt, das wuerde ja ueberhaupt keinen Sinn ergeben.
Das Ding war aber auch zugeklebt und wir wissen nicht bei welchem Takt es lief oder?
die 1080 ist auch doppelt so schnell wie die 1060 und leistet in DOOM schon "nur" 70% mehr. Vega wuerde wenn sie so schnell waere wie die 1080 auf die 480 mit theoretischer doppelter Leistung aber nur 50% drauf legen. Das ergibt doch keinen Sinn. Der lief sicher nicht auf 1,5 GHz.
Locuza
2017-04-20, 15:05:56
@Locuza
Was soll AMD denn anderes sagen? Ggf Spezialfälle, Synthies (edit Firestrike BB-Test...), die sie da beschreiben. IIRC war Carizzo (OK nur GCN 3.0) trotz DCC ggü Kaveri immernoch im Bandbreitenlimit und kaum schneller.
Einem unabhängigen Entwickler einer der modernsten Spielenegines traue ich persönlich eher.
Dass die Bandbreite kaum gesteigert wurde bei der PS4Pro wurde btw von den Entwicklern stark kritisiert. Sieht man übrigens auch daran, dass 2160p Checkerboard praktisch nie verwendet wird, obwohl die Rechenleistungssteigerung das hergeben würde. Selbst 1800P Checkerboard sind wohl oft eng. (Checkerboard kostet zusätzlich Bandbreite zum Lesen/Schreiben der IDs -> ID Buffer)
Es ist natürlich mühsam das ganze ohne konkrete Zahlen zu debattieren, egal für oder gegen was man argumentiert.
Vor allem stellt sich die Frage was bedeutet "kaum, viel, etwas"?
Carrizo war aber ein gutes Stichwort, weil AMD laut Fußnote 24 Games in 1080p getestet hat und dabei 5-7% mehr Leistung erzielt wurde (Fußnote 14):
http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/AMDs-6th-gen-APU-Carrizo-Tolle-Technik-mit-HEVC-und-HSA-drei-Modelle-von-15-bis-35-Watt-1160641/galerie/2382038/
Wenn wir ein paar Prozentpunkte bei Polaris dazugeben, landen wir vielleicht bei ~10%.
(Wobei wir teilweise zwei Welten vergleichen, praktisch schwache APU vs. starke dGPU)
Und bezüglich der PS4 Pro ist es auch klar, dass man Faktor 2.3 einfach nicht füttern können wird.
Das ist einfach zu krass.
dargo
2017-04-20, 15:09:47
Afair hatten sie aber eindeutig von Vega 10 gesprochen. :(
War eher als Scherz gedacht. Bei V11 erwarte ich max. 9 TFLOPs, eher 8,5. Ich denke das waren einfach noch keine finalen Taktraten und unausgereifte Treiber. Bzw. die Karte lief bei Vulkan im sogenannten Fallbackmodus. Wer weiß ob die Entwickler damals schon das Spiel auf Vega optimiert haben.
robbitop
2017-04-20, 15:18:14
Carrizo ist schon ein guter Vergleich, weil dort die Bandbreite massiv limitiert. Die Frage ist, wie AMD die schon ziemlich mauen 5-7% getestet hat. Mit absolut gleichen Taktraten?
In AMDs Folien waren höhere Bandbreiteneinsparungen benannt.
Locuza
2017-04-20, 15:30:53
Leider ist es schwer das ganze vernünftig zu vergleichen.
AMD gibt sicherlich Peakwerte an und die Beyond3D-Suite testet auch den Best-Case.
Spiele werden nie die Peakwerte erreichen und selbst wenn die effektive Bandbreite um 20% höher ausfällt, steigt die Performance nur grob im selben Maßstab, wenn davor ein vollständiges Bandbreitenlimit geherrscht hat, ohne gravierende Nebenfaktoren.
Bei dem Carrizo Vergleich wird es komplex, die TDP lag nur bei 15W und man müsste jetzt noch nachschauen welcher RAM verwendet wurde.
Ich weiß auch nicht, ob es bei APUs zu geringeren Vorteilen führen kann, wenn die CPU dazwischenfunkt.
robbitop
2017-04-20, 15:35:39
Man sieht jedenfalls grob, wie viel effizienter Maxwell/Pascall mit der Bandbreite umgehen. Davon ist sicherlich ein gutes Prozentual auch auf die bessere DCC (und nicht nur auf das binned rasterizing) zu schieben.
Foobar wird hier sicherlich keinen Unsinn erzählen, wenn er AMDs DCC (selbst die von Polaris) kritisiert.
Locuza
2017-04-20, 15:50:38
Nvidia gibt den fiktiven Fall an, dass wenn eine 1080 Ti ~ 500 GB/s an Bandbreite besitzt, effektiv 400 GB/s durch die DCC dazu kommen und ungefähr 300 GB/s durch den Tiled Based Renderer:
https://www.techpowerup.com/img/17-03-01/2dfc232568a9.jpg
Etwas zielführender ist vielleicht ein Vergleich von Pascals DCC gegenüber Maxwell, da hier Nvidia echte Spiele vorführt und der Tiled-Based-Renderer vermutlich nicht verbessert wurde:
http://images.anandtech.com/doci/10325/PascalEdDay_FINAL_NDA_1463156837-012.png
11-28% mehr effektive Bandbreite gibt es je nach Spiel, im Schnitt 20%.
aufkrawall
2017-04-20, 15:51:15
War eher als Scherz gedacht. Bei V11 erwarte ich max. 9 TFLOPs, eher 8,5. Ich denke das waren einfach noch keine finalen Taktraten und unausgereifte Treiber. Bzw. die Karte lief bei Vulkan im sogenannten Fallbackmodus. Wer weiß ob die Entwickler damals schon das Spiel auf Vega optimiert haben.
Letztlich ist es ja auch gar nicht so unwahrscheinlich, dass AMD ihr Produkt in unvorteilhaftem Licht gezeigt haben, wenn man die Firma kennt. :redface:
*phew* :D
robbitop
2017-04-20, 16:02:52
Nvidia gibt den fiktiven Fall an, dass wenn eine 1080 Ti ~ 500 GB/s an Bandbreite besitzt, effektiv 400 GB/s durch die DCC dazu kommen und ungefähr 300 GB/s durch den Tiled Based Renderer:
https://www.techpowerup.com/img/17-03-01/2dfc232568a9.jpg
Etwas zielführender ist vielleicht ein Vergleich von Pascals DCC gegenüber Maxwell, da hier Nvidia echte Spiele vorführt und der Tiled-Based-Renderer vermutlich nicht verbessert wurde:
http://images.anandtech.com/doci/10325/PascalEdDay_FINAL_NDA_1463156837-012.png
11-28% mehr effektive Bandbreite gibt es je nach Spiel, im Schnitt 20%.
Wobei Pascal ja die DCC schon in der x-ten Iteration hat. AFAIK betreibt NV das seit Kelper oder gar seit Fermi. Offenbar ist man dennoch bei Pascal nochmal besser geworden. Wobei die Angaben alle sehr hoch sind IMO.
aufkrawall
2017-04-20, 16:07:47
Die 1070 hat ca. die gleiche Bandbreite zur Verfügung wie eine 7970. ;)
mighty_qwerty
2017-04-20, 16:13:32
Vielleicht wollte AMD nur alle trollen und es war Vega 11. X-D
omg endlicher einer mit dieser vermutung, das ist genau was ich mir gedacht habe, als linus raja gefragt hat (oder besser gesagt hat) was den für eine vega version im vorführsystem verbaut ist, so nach dem motto, es ist 10, es muss ja so sein, und raja hat da nur breit gegrinst, es wäre genial, wenn vega 11 verbaut war, aber er für die bilder das größere 10er chip in der hand hielt.
Locuza
2017-04-20, 16:17:00
Ja, angeblich seit Fermi.
Bei Kepler ist der Vorteil allerdings gering, jedenfalls wenn man die B3D-Suite verwendet:
http://techreport.com/r.x/radeon-r9-fury-x/b3d-bandwidth.gif
http://techreport.com/r.x/rx480review/b3d-bandwidth.png
http://techreport.com/r.x/gtx1080review/b3dbw.png
http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/4
http://techreport.com/review/30328/amd-radeon-rx-480-graphics-card-reviewed/5
http://techreport.com/review/30281/nvidia-geforce-gtx-1080-graphics-card-reviewed/6
Die Ergebnisse kann man vermutlich nicht direkt nur auf die DCC zuschieben, aber Pascal erreicht enorme Werte und auch Maxwell schafft ein besseres Delta als Polaris, wobei letzterer effektiv auch 36% (70 GB/s) gewinnt, in diesen unrealistischen Best-Case-Szenarios.
Edit: Ah hieran erinnere ich mich auch noch gut, zwei krass verschiedene Werte für Maxwell und ich glaube für Pascal findet man irgendwo auch noch andere Werte, also aufpassen.
Dino-Fossil
2017-04-20, 16:25:50
Foobar wird hier sicherlich keinen Unsinn erzählen, wenn er AMDs DCC (selbst die von Polaris) kritisiert.
Was ich vor allem meinte ist, dass ich die einzelne Aussage eines Entwicklers eben für zu dürftig halte.
Unter welchen Umständen bringt es "kaum" etwas? Wie viele unterschiedliche Szenarien hat er getestet, was hat er da womit gemacht?
Würde mich jedenfalls nicht wundern, wenn unterschiedliche Engines/Spiele/Szenen sich da auch sehr unterschiedlich verhalten können.
Ich geb ja gerne zu, dass nVidia da effektiver sein kann, sie arbeiten schon länger damit und haben sicherlich mehr Budget in die Entwicklung gesteckt, als AMD.
robbitop
2017-04-20, 16:34:04
Edit: Ah hieran erinnere ich mich auch noch gut, zwei krass verschiedene Werte für Maxwell und ich glaube für Pascal findet man irgendwo auch noch andere Werte, also aufpassen.
Wollte ich auch gerade herausstellen. Ggf. hat sich ja hier mit neueren Treiberständen was getan. Im letzten Test ist die Skalierung bei Pascal Faktor 2,33 und Maxwell 2,18. Im ersten Test erreicht Maxwell nur 1,66. Tonga 1,27 und Polaris 1,36.
Besser als Kepler (1,31) aber Meilenweit hinter Maxwell und Kepler zurück.
Ggf. meinte Foobar das ja. Er drückt sich manchmal sehr in der Art "schwarz/weiß" aus. :)
Aber interessante Ergebnisse. Auch besonders interessant wird die Skalierung dann mit Vega sein.
[MK2]Mythos
2017-04-20, 16:48:23
Könnt ihr jetzt endlich mal mit dem OT Gequatsche aufhören?
Der_Korken
2017-04-20, 17:03:45
Wegen der DCC hatte Gipsel mal folgendes geschrieben:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11321176#post11321176
Kompression und Tiling ergänzen sich also wunderbar, sodass das Kompressionsverfahren allein bei AMD vielleicht nicht unbedingt schlecht ist, sondern eher, dass ohne Tiling der Zugewinn durch den Overhead aufgefressen wird.
Botcruscher
2017-04-20, 17:46:49
Vielleicht wollte AMD nur alle trollen und es war Vega 11. X-D
Es war ein minimal angepasster Treiber für Fiji damit die Möhre angeht.
Achill
2017-04-20, 19:34:24
Wegen der DCC hatte Gipsel mal folgendes geschrieben:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11321176#post11321176
Kompression und Tiling ergänzen sich also wunderbar, sodass das Kompressionsverfahren allein bei AMD vielleicht nicht unbedingt schlecht ist, sondern eher, dass ohne Tiling der Zugewinn durch den Overhead aufgefressen wird.
Ich bin der Meinung das trifft nicht nur für DCC zu sondern auch für Shader-Effizenz und andere Teile zu.
In meinen laienhaften Verständis ist ein Vertex i.d.R. noch immer der Ausgangspunkt für alle nachfolgenden Operationen der Grafik-Pipeline. Kann man (und je früher) das Vertex verwerfen, desto mehr spart man an nachfolgenden Operationen ein.
Ich hoffe hier auch ähnliche Effekte bei Vega zu sehen.
Für meine These sollte Doom 4 laut diesen Artikel sprechen: http://www.adriancourreges.com/blog/2016/09/09/doom-2016-graphics-study/ - in meinen Verständnis wird bei D4 sehr gut Overdraw vermieden mit damit kann ein TBR-Ansatz weniger/kaum/nichts beitragen.
Doom 4 sollte also sehr gut Shader-Power der GPUs wiederspiegeln und (damit wir wieder zu Vega etwas Spekulieren) ggf. zeigen, wie im Verhältnis von Furry zu anderen NV GPUs eine Vega-GPU in anderen Spielen sein könnte.
https://twitter.com/GFXChipTweeter/status/855111959502606340
It always warms my heart when new content brings GPU down to its knee! It means we have content ready for Vega to shine:)
Thomas Gräf
2017-04-21, 08:31:01
Brrr irgendjemand wird dem Raja das Baby noch aus der Nase rausziehen müssen.
robbitop
2017-04-21, 09:01:26
Mythos;11354604']Könnt ihr jetzt endlich mal mit dem OT Gequatsche aufhören?
Die DCC von Vega (in Relation zu seinen Vorgänger mArchs und denen von NV) ist keineswegs OT.
@Achill
Ein Stück weit schon. Nur macht das das binned rasterizing keinen TBDR aus der GPU. Bedeutet, dass nur sehr begrenzt Overdraw dadurch eliminiert wird.
PrivateCeralion
2017-04-21, 13:02:46
Ich freue mich schon auf den 8. MAi, so die hier gepostete Folie kein Fake ist.
Mortalvision
2017-04-21, 13:26:05
Ich werde meine F5 Taste schonmal anspitzen :D
BoMbY
2017-04-21, 13:40:10
Ich freue mich schon auf den 8. MAi, so die hier gepostete Folie kein Fake ist.
Der 8. Mai ist vermutlich genauso falsch wie alle anderen Termine bisher. Computex bis E3 ist immer noch deutlich wahrscheinlicher. Möglicherweise startet am 8. Mai ein Presse-Event, wie der Macau Polaris-Tech-Day letztes Jahr.
r3ptil3
2017-04-21, 14:00:28
Etwas Spekulation:
http://fs5.directupload.net/images/170421/d5rckbzv.jpg
PrivateCeralion
2017-04-21, 14:00:47
Der 8. Mai ist vermutlich genauso falsch wie alle anderen Termine bisher. Computex bis E3 ist immer noch deutlich wahrscheinlicher. Möglicherweise startet am 8. Mai ein Presse-Event, wie der Macau Polaris-Tech-Day letztes Jahr.
Aber die Technik ist doch das interessante ;) Denn mal ganz ehrlich: Aktuell wissen wir nichts über Vega.
Nein, interessant ist jetzt, ob und wie gut die neue Technik funktioniert.
AMD hat doch auf dem Tech Summit schon ueber Vega gesprochen. Ich glaube ehrlich gesagt nicht, dass da noch viel nachkommt. Gab es doch sonst auch nie
AffenJack
2017-04-21, 14:16:30
Der 8. Mai ist vermutlich genauso falsch wie alle anderen Termine bisher. Computex bis E3 ist immer noch deutlich wahrscheinlicher. Möglicherweise startet am 8. Mai ein Presse-Event, wie der Macau Polaris-Tech-Day letztes Jahr.
Auf jeden Fall nichts öffentliches. Am 10 Mai wird Nv Volta präsentieren oder zumindest erste Details veröffentlichen. In der Woche davor Dinge zu Vega zu veröffentlichen macht marketingtechnisch keinen Sinn, da man die Aufmerksamkeit ja für sich will. Vielleicht gibts kurz danach was, aber ich tippe auch immer noch auf Computex.
Nein, interessant ist jetzt, ob und wie gut die neue Technik funktioniert.
AMD hat doch auf dem Tech Summit schon ueber Vega gesprochen. Ich glaube ehrlich gesagt nicht, dass da noch viel nachkommt. Gab es doch sonst auch nie
Doch bei Polaris hat man die Daten und den Preis der RX480 auf der Computex veröffentlicht, die vorher nur Gerüchten entsprachen. Das Jahr davor hat man auch die Furys mit Veröffentlichungstermin angekündigt auf der Computex. Daher kann man da eigentlich das meiste erwarten.
PrivateCeralion
2017-04-21, 14:30:01
Auf jeden Fall nichts öffentliches. Am 10 Mai wird Nv Volta präsentieren oder zumindest erste Details veröffentlichen. In der Woche davor Dinge zu Vega zu veröffentlichen macht marketingtechnisch keinen Sinn, da man die Aufmerksamkeit ja für sich will. Vielleicht gibts kurz danach was, aber ich tippe auch immer noch auf Computex.
Doch bei Polaris hat man die Daten und den Preis der RX480 auf der Computex veröffentlicht, die vorher nur Gerüchten entsprachen. Das Jahr davor hat man auch die Furys mit Veröffentlichungstermin angekündigt auf der Computex. Daher kann man da eigentlich das meiste erwarten.
Das sieht aber ziemlich öffentlich aus:
Doch bei Polaris hat man die Daten und den Preis der RX480 auf der Computex veröffentlicht, die vorher nur Gerüchten entsprachen. Das Jahr davor hat man auch die Furys mit Veröffentlichungstermin angekündigt auf der Computex. Daher kann man da eigentlich das meiste erwarten.
Die groben technischen Daten (die man eben bekommt) sind aber schon groesstenteils von der Instinct bekannt. Ich rede schon von neuen Infos.
Der Preis waere eine, aber keine technische, ist also vom statement ausgeschlossen.
Locuza
2017-04-21, 14:53:17
Das sieht aber ziemlich öffentlich aus:
Das ist ein hardcore fake, like gooby pls.
Blediator16
2017-04-21, 14:53:28
Das sieht aber ziemlich öffentlich aus:
Deine erste GPU Veröffentlichung?
PrivateCeralion
2017-04-21, 14:57:34
Weiß jemand, woher der Fake kommt?
dildo4u
2017-04-21, 14:59:29
Das sieht aber ziemlich öffentlich aus:
Titan XP ist vielleicht 40% schneller als eine 1080,die Grafik ist natürlich kompletter Unsinn.
Locuza
2017-04-21, 15:00:19
Hat jemand hier ohne Link einmal im Forum gepostet, bei VideoCardZ gab es den auch irgendwo im Kommentarbereich.
Ist auch wirklich egal, solche Balken verwendet kein Hersteller und vor allem so Details wie Titan Xp mit grünem p oder GTX 1080 in hellgrüner Schrift.
PrivateCeralion
2017-04-21, 15:19:11
Hat jemand hier ohne Link einmal im Forum gepostet, bei VideoCardZ gab es den auch irgendwo im Kommentarbereich.
Ist auch wirklich egal, solche Balken verwendet kein Hersteller und vor allem so Details wie Titan Xp mit grünem p oder GTX 1080 in hellgrüner Schrift.
Dann entschuldige ich mich dafür, dass ich es gepostet habe. Hab es irgendwie für echt gehalten.
Dino-Fossil
2017-04-21, 15:23:38
Naja, wäre schon schön, aber es gab ja schon eine Vorstellung, bei der Vega in Doom ca auf dem Niveau einer 1080 war, wenn auch mit unangepasstem Treiber, der sicherlich noch einiges bremst.
Allerdings denke ich, dass am Ende Vega im Mittel trotzdem nur wenig über einer 1080 herauskommt (oder sagen wir zw. 1080 und 1080Ti), es sei denn AMD fängt plötzlich an, sich in solchen Vergleichsvideos schlechter darzustellen, als sie sind.
Was allerdings für AMD eher ungewöhnlich wäre.
y33H@
2017-04-21, 15:30:27
Schon die Vorabversion von RX Vega mit niedrigem Takt, am thermischen Limit und frühem Treiber war auf dem Level einer GTX 1080 OC ...
Linmoum
2017-04-21, 15:32:42
Vermutung mit dem niedrige(re)n Takt? :tongue:
Dino-Fossil
2017-04-21, 15:33:47
Schon die Vorabversion von RX Vega mit niedrigem Takt, am thermischen Limit und frühem Treiber war auf dem Level einer GTX 1080 OC ...
Ich bin eher pessimistisch, werd' ich am Ende vielleicht positiv überrascht. :wink:
Botcruscher
2017-04-21, 15:35:52
Bei Doom. Eben alles offen.
y33H@
2017-04-21, 16:05:57
Vermutung mit dem niedrige(re)n Takt?
AMD hat mich auf dem Ryzen Tech Day vom Vega System auf dem Demo Floor entfernt und am nächsten Tag war eine RX 480 drin :freak:
Ph0b0ss
2017-04-21, 16:17:54
Etwas Spekulation:
http://fs5.directupload.net/images/170421/d5rckbzv.jpg
Eigentlich müsste AMD nur die Auslastung der Shader-Einheiten in den Griff bekommen. Die Fury X verhält sich hier wie eine R9 390X mit ~3416 Shader-Einheiten. Mit voller Auslastung und 1500 Mhz GPU-Takt hätte man dann (ohne IPC-Verbesserungen an den Shader-Einheiten) 71% mehr Leistung als Fury X. Ziemlich genau auf Augenhöhe der 1080 Ti. Ist nur die Frage, ob 512 GB/s Bandbreite dafür ausreichen diese +71% voll auf die Straße zu bringen?
Tamagothi
2017-04-21, 19:55:12
Vermutung mit dem niedrige(re)n Takt? :tongue:
Auf dem Tech Day, wo DOOM lief, war der Rechner total abgeklebt und laut -> Heiß -> niedriger Takt.
Kriton
2017-04-22, 12:48:57
Etwas Spekulation:
http://fs5.directupload.net/images/170421/d5rckbzv.jpg
Willst Du uns einfach sagen, dass Du glaubst, dass Vega zwischen 1080 und 1080Ti/Titan liegt? Balken wirken echter, oder was?
[MK2]Mythos
2017-04-22, 12:50:41
Jedenfalls würde das genau einer Fiji @1500 Mhz entsprechen und ist damit deutlich zu langsam.
Meezu
2017-04-22, 13:03:57
Mythos;11356159']Jedenfalls würde das genau einer Fiji @1500 Mhz entsprechen und ist damit deutlich zu langsam.
Hallo,
ich persönlich halte es für eine (unzulässige) Vereinfachung zu sagen, das Fiji 1:1 mit Takt skaliert. Zumindest meine Fiji tut das nichtmal ansatzweise. Ein hypothetischer Fiji@1500 wäre meiner Erfahrung nach vermutlich nur 25 bis 30% schneller als der selbe Fiji-Chip @ 1050MHz.
Das wollte ich an dieser Stelle nur mal anmerken, da auf den letzten Seiten wieder vermehrt so getan wurde, als ob Vega @ 1500MHz schonmal alleine aufgrund des Taktes mindestens 50% schneller sein müsste. ...
(Für 50% mehr FPS ist (bedeutend) mehr nötig als als geshrinkter Fiji@1,5GHz)
Gruß Meezu
horn 12
2017-04-22, 13:08:50
Vega Launch 09. Mai 2017
GPU Takt 1440 Mhz - Boost bis zu 1625
Luftkühlung und Juni kommt Wasserkühlung mit bis zu 1700+ Mhz daher!
Wahnsinn!
Link darf ich nicht posten, Sorry!
Hoffe dass Videocards dies verlinkt, bzw. WccTech
Oder Raja es posten darf.
@edit
Sapphire soll die Serie weiterfahren, also ähnlich der RX580 Sapphire "Special Edition" -er Serie mit mehr HeatPipes und stärkerem, größeren Lüfter, aber ähnlicher Lautstärke.
Zudem Premium Lieferung erhalten, bei sofortiger Lieferbarkeit der Vega-Karten.
@edit 2
@ Klein Vega scheint sich wohl knapp, auf GTX 1080 anzusiedeln, aber dazu sagt jener nix genaueres!
Preislich aber eine Hausnummer für sich werden!
Preislich AMD unschlüssig, wird aber wohl bei "überarbeiteter" GTX 1080 11 Gbps rauskommen, ----> meiner Meinung nach.
Also um die 550 bis 650 Euro.
Speicher 8GB HBM-2 und Wasserkühlung bis zu 16GB HBM-2
Preislich wohl um die 1000 Euro dann, Meine Vermutung!
[MK2]Mythos
2017-04-22, 13:14:19
Vega Launch 09. Mai 2017
GPU Takt 1440 Mhz - Boost bis zu 1625
Luftkühlung und Juni kommt Wasserkühlung mit bis zu 1700+ Mhz daher!
Wahnsinn!
Link darf ich nicht posten, Sorry!
Hoffe dass Videocards dies verlinkt, bzw. WccTech
Oder Raja es posten darf.
Es ist amtlich, horn ist Schaffes Zweitaccount.
Der_Korken
2017-04-22, 13:16:21
Hallo,
ich persönlich halte es für eine (unzulässige) Vereinfachung zu sagen, das Fiji 1:1 mit Takt skaliert. Zumindest meine Fiji tut das nichtmal ansatzweise. Ein hypothetischer Fiji@1500 wäre meiner Erfahrung nach vermutlich nur 25 bis 30% schneller als der selbe Fiji-Chip @ 1050MHz.
Das wollte ich an dieser Stelle nur mal anmerken, da auf den letzten Seiten wieder vermehrt so getan wurde, als ob Vega @ 1500MHz schonmal alleine aufgrund des Taktes mindestens 50% schneller sein müsste. ...
(Für 50% mehr FPS ist (bedeutend) mehr nötig als als geshrinkter Fiji@1,5GHz)
Gruß Meezu
Das dürfte dann am Speichertakt liegen, der nicht mit hochgezogen wird. Würde man diesen auch um 50% übertakten, dann wäre der Verbund auch 50% schneller, denn Takt skaliert immer. Allerdings ist die Ausbeute der Speicherbandbreite bei Fiji ziemlich mies, selbst im Vergleich zu anderen AMD-Chips. Fiji hat 33% mehr Bandbreite und 45% mehr Rechenleistung als eine 390X (die noch nicht mal DCC benutzt), ist aber nur selten 33% schneller. Die RX480 hat sogar nur halb so viel Bandbreite, ist aber weit mehr als halb so schnell wie Fiji. Sofern sich AMD hier nicht verschlechtert, sollten die 512GB/s von Vega bis hin zu doppelter 480-Performance nicht bremsen.
Digidi
2017-04-22, 13:42:51
Fiji war ein Done right in Bezug auf das Shader-Layout. Man sieht es auch sehr schön in Shader-Basierten Spielen. Da ist man gleichauf zu einer GTX 1070 und manchmal sogar einer GTX 1080.
Das Problem bei Fiji ist das Frontend. Einerseits ist der Rasterizer zu klein und dann sortiert dieser nicht mal die überflüssigen Polygonen aus.
Das heißt es werden nicht genug Polygonen ausgegeben, und bei denen Polygonen die Ausgegeben werden sind zu viele Dabei die man später nicht sieht die aber trotzdem von den Shadern berechnet werden müssen. Das senkt die FPS gleich 2 mal.
Naja, gegen die Costumdesigns sieht Fiji keinen Stich gegen sie 1070, welche in etwa so schnell ist wie der ursprüngliche Konkurrent, die 980ti. Cherrypicking mal ausgenommen, nur weil ein Spiel von 100erten mal auf Fiji sehr gut läuft hat das noch lange nicht mit den Shadeen zu tun.
Mythos;11356179']Es ist amtlich, horn ist Schaffes Zweitaccount.
:uban:
Klar, es steht frei verfuegbar im Netz darf aber nicht verlinkt werden ;D ;D
Das Problem bei Fiji ist das Frontend. Einerseits ist der Rasterizer zu klein und dann sortiert dieser nicht mal die überflüssigen Polygonen aus.
Das heißt es werden nicht genug Polygonen ausgegeben, und bei denen Polygonen die Ausgegeben werden sind zu viele Dabei die man später nicht sieht die aber trotzdem von den Shadern berechnet werden müssen.
Culling wird schon ewig gemacht, natuerlich auch bei Fiji. Nur eben nicht aggressiv/frueh genug relativ zu anderen Karten.
Ein Feature, ueber das auch kaum gesprochen wird, ist die Zusammenfassung der Vertex und Geometry zu einem Primitive shader. Das koennte schon auch helfen das backend besser auszulasten, gerade wenn das load balancing nicht ideal war bisher.
nur weil ein Spiel von 100erten mal auf Fiji sehr gut läuft hat das noch lange nicht mit den Shadeen zu tun.
Womit denn sonst? Haette Fiji weniger Shader wuerden nicht mal diese 1% "aussergewoehnlich gut" (so wie man es eigentlich erwarten wuerde) laufen.
Nakai
2017-04-22, 13:53:28
Vega Launch 09. Mai 2017
GPU Takt 1440 Mhz - Boost bis zu 1625
Luftkühlung und Juni kommt Wasserkühlung mit bis zu 1700+ Mhz daher!
Wahnsinn!
Link darf ich nicht posten, Sorry!
Hoffe dass Videocards dies verlinkt, bzw. WccTech
Oder Raja es posten darf.
@edit
Sapphire soll die Serie weiterfahren, also ähnlich der RX580 Sapphire "Special Edition" -er Serie mit mehr HeatPipes und stärkerem, größeren Lüfter, aber ähnlicher Lautstärke.
Zudem Premium Lieferung erhalten, bei sofortiger Lieferbarkeit der Vega-Karten.
@edit 2
@ Klein Vega scheint sich wohl knapp, auf GTX 1080 anzusiedeln, aber dazu sagt jener nix genaueres!
Preislich aber eine Hausnummer für sich werden!
Preislich AMD unschlüssig, wird aber wohl bei "überarbeiteter" GTX 1080 11 Gbps rauskommen, ----> meiner Meinung nach.
Also um die 550 bis 650 Euro.
Speicher 8GB HBM-2 und Wasserkühlung bis zu 16GB HBM-2
Preislich wohl um die 1000 Euro dann, Meine Vermutung!
Wieso darfst du es nicht posten? Ich hab genau diesen Text jetzt schon woanders gefunden.
PrivateCeralion
2017-04-22, 13:55:45
Vega Launch 09. Mai 2017
GPU Takt 1440 Mhz - Boost bis zu 1625
Luftkühlung und Juni kommt Wasserkühlung mit bis zu 1700+ Mhz daher!
Wahnsinn!
Link darf ich nicht posten, Sorry!
Das wären 11,8 Tflops Base und 13,3 Tflops Boost. Das klingt auf jedenfall sehr realistisch.Somit steckt da leider auch keine neue Information drinn.
:uban:
Hoffentlich geht sonst keiner mehr auf den Schwachsinn ein. Klar, es steht frei verfuegbar im Netz darf aber nicht verlinkt werden ;D ;D
Culling wird schon ewig gemacht, natuerlich auch bei Fiji. Nur eben nicht aggressiv/frueh genug relativ zu anderen Karten.
Ein Feature, ueber das auch kaum gesprochen wird, ist die Zusammenfassung der Vertex und Geometry zu einem Primitive shader. Das koennte schon auch helfen das backend besser auszulasten, gerade wenn das load balancing nicht ideal war bisher.
Womit denn sonst? Haette Fiji weniger Shader wuerden nicht mal diese 1% "aussergewoehnlich gut" (so wie man es eigentlich erwarten wuerde) laufen.
In 1% der Fälle seine Leistung zu bringen ist nicht done right. Mal abgesehen davon gibt es auch einige Spiele mit viel Shadereinsatz in denen Fiji gegen eine Costum 1070 oder 980ti keinen Stich sieht und gegen ein Ref-Design Referenzdesign ebenso wenig.
Blediator16
2017-04-22, 13:58:35
Das wären 11,8 Tflops Base und 13,3 Tflops Boost. Das klingt auf jedenfall sehr realistisch.
Das ist horn12...:freak:
Tesseract
2017-04-22, 13:58:53
man muss nur die blockdiagramme von fiji und hawaii vergleichen und sieht sofort, dass die architektur nicht 1:1 skaliert wurde. AMD hat fiji als kleinserien-machbarkeitsstudie für HBM entwickelt und versucht so viel arithmetikleistung in den 28nm zu pressen wie geht damit sie die vorteile von HBM zeigen können und dabei sind halt andere bereiche auf der strecke geblieben.
PrivateCeralion
2017-04-22, 14:01:14
Das ist horn12...:freak:
Der angebliche leak ist eh so schwammig, dass könnte jeder hier im Thread sich einfach erdichten.
horn 12
2017-04-22, 14:04:46
Habe dies nur hier gepostet, nirgends anders!
Gebe nix mehr preis, wartet einfach ab!
PS:
Zudem läuft Fiji, sprich meine Fury Nitro OC nicht so viel schlechter als eine GTX 1070 @OC
Ja teils auch um die 20% langsamer, aber dann auch kaum Unterschied.
Digidi
2017-04-22, 14:11:06
Culling wird schon ewig gemacht, natuerlich auch bei Fiji. Nur eben nicht aggressiv/frueh genug relativ zu anderen Karten.
Soweit ich weiß wird Culling bei Fiji aber eher auf den Shadern ausgeführt, oder lieg ich da falsch? Während bei Nvidia das ja schon im Rasterizer passiert.
Deshalb tut Fiji das hier auch noch mal doppelt weh. Man muss die Üppige Shaderleistung für das Culling verwenden und hat am ende weniger Shader-Leistung übrig.
BoMbY
2017-04-22, 14:31:14
Habe dies nur hier gepostet, nirgends anders!
Gebe nix mehr preis, wartet einfach ab!
Geheime Informationen von geheimen Links. :rolleyes:
Da nimmt Dich wohl jemand gehörig auf den Arm, solltest Du das wirklich glauben. Außerdem: Wie sollte das jemand verlinken, wenn der Link doch so geheim ist, dass nicht mal Google ihn findet?
Nakai
2017-04-22, 14:38:58
Habe dies nur hier gepostet, nirgends anders!
Gebe nix mehr preis, wartet einfach ab!
http://forum.onvista.de/forum/AMD_Mit_Zen_und_Vega_in_eine_bessere_Zukunft-t540994?page=679
#16991
Warum ist dieser Teil identisch mit deinem Text? Gleiche Person oder virales Copy&Paste?:freak:
AffenJack
2017-04-22, 14:41:33
http://forum.onvista.de/forum/AMD_Mit_Zen_und_Vega_in_eine_bessere_Zukunft-t540994?page=679
#16991
Warum ist dieser Teil identisch mit deinem Text? Gleiche Person oder virales Copy&Paste?:freak:
Lol, vielleicht versucht horn ja seine amd aktien hochzutreiben ;D
horn 12
2017-04-22, 14:42:02
Nicht mal dort registriert!
Nun wird Mugen 5 Bestellt, die PCGH Version für 47 Euro bei uns im Lande Italien... :-)
[MK2]Mythos
2017-04-22, 14:47:12
Und den baust du dann auf deine Vega Karte, die dir der Insider am 9. Mai persönlich überreicht, oder wie, oder was hat das mit Vega zutun? Ist das eigentlich der gleiche, der dir auch die Ryzen CPU lange vor Verfügbarkeit überlassen hat?
Screemer
2017-04-22, 15:16:41
Ihr habt aber schon gesehen, dass da auf myvista fleißig hier mit gelesen wird. 12 Minuten nach dem Horn das gepostet hat kommt es dort als quasi-Quote ohne Quellenangaben aber mit dem Zusatz "Hab da was aus einem anderen Forum gefunden!" :ugly: das war auch nicht der erste Quote aus dem 3dc in dem thread. Das zeug ist voll von quotes aus dem ryzen-specu-thread.
Nakai
2017-04-22, 16:48:01
Ihr habt aber schon gesehen, dass da auf myvista fleißig hier mit gelesen wird. 12 Minuten nach dem Horn das gepostet hat kommt es dort als quasi-Quote ohne Quellenangaben aber mit dem Zusatz "Hab da was aus einem anderen Forum gefunden!" :ugly: das war auch nicht der erste Quote aus dem 3dc in dem thread. Das zeug ist voll von quotes aus dem ryzen-specu-thread.
Ja, ich weiß. Aber 10 min Abstand fand ich interessant.
Ansonsten @Onvista-Forum:
Bitte nicht alles blind kopieren und immer mit Quellenangaben versehen. Es macht keinen Sinn, dass sich solche Aussagen viral weiterverbreiten, wenn die ursprüngliche Quelle nicht erwähnt wird. Nur weil manche Foren ganz gutes "Personal" hat, muss das nicht immer ein Quote wert sein.
...
http://forums.overclockers.com.au/showpost.php?p=17526256&postcount=550
Ahja hier Verlinkung von ein paar PAtenten. Eins ist schon bekannt. Vll findet jemand mal nette Details.;)
Botcruscher
2017-04-22, 17:02:50
Horn kopieren ist schon ne Leistung.:freak:
AffenJack
2017-04-23, 21:50:17
Wieso kommt der HBCC mit dem geringeren ramverbrauch eigentlich jetzt mit HBM? Was für Vorteile hat HBM, dass man dies mit GDDR nicht realisieren konnte, schließlich ist die Bandbreite ja nun nicht höher als Nv mit G5X. Oder könnte man das in der nächsten generation auch einfach mit GDDR Ram in den unteren Bereichen verwenden?
Setsul
2017-04-23, 21:54:08
G5X hat AMD wahrscheinlich nicht erwartet und die Planung ist ja etwas längerfristig, aber HBM hat durchaus noch Vorteile.
1. Niedrigere Leistungsaufnahme.
2. SI ist kleiner.
3. Der Speicher selbst braucht auch wesentlich weniger Platz.
Aber generell spricht nichts gegen HBCC + GDDR5/G5X.
Hübie
2017-04-23, 23:55:20
Die Entwicklung ging in der Tat ziemlich schnell und kam überraschend zum Erfolg (nicht zuletzt durch enge Kooperationen zwischen Micron, NVIDIA und einem AIB). Das hat bei AMD wohl so niemand erwartet.
Frage: Was für ein Rattenschwanz hinge denn dran ein SI auszutauschen? Afaik keiner. Man muss eben nur die ROPs und den Cache noch immer korrekt anbinden können aber ansonsten... Das ist ja mehr oder weniger ein Baukasten.
victore99
2017-04-24, 00:52:34
Gedanken eines Newbies:
ein 384 Bit Interface ist ja aufgeteilt in 32 Bit-Teile. Gedankenspiel: wenn jetzt ganz viele Daten durch eines dieser 32 Bit-Teile gehen (bei G5X ist eines dieser Teile also 40GB/sec), sodass die GPU immer auf diese Daten warten muss und somit automatisch auch noch andere 32 Bit-Teile mit denselben Daten beschreibt / versucht, die Daten aufzuteilen, um das eben von 40GB/s auf 80, 120.. anzuheben und somit weniger zu warten, dann geht das bestimmt oft, aber wahrscheinlich nicht immer.
Kann sein, dass dabei relativ viel Redundanter Datenmüll anfällt. Der ist bei nem zwölfgeteilten GDDR5X-Interface wahrscheinlich deutlich kleiner als bei nem zweiteiligen HBM2-IF.
Skysnake
2017-04-24, 01:00:12
Die Entwicklung ging in der Tat ziemlich schnell und kam überraschend zum Erfolg (nicht zuletzt durch enge Kooperationen zwischen Micron, NVIDIA und einem AIB). Das hat bei AMD wohl so niemand erwartet.
Frage: Was für ein Rattenschwanz hinge denn dran ein SI auszutauschen? Afaik keiner. Man muss eben nur die ROPs und den Cache noch immer korrekt anbinden können aber ansonsten... Das ist ja mehr oder weniger ein Baukasten.
Wenn es nur so einfach wäre eine Speicherinterface zu designen .... :freak::rolleyes:
Hübie
2017-04-24, 07:48:34
Na ja GDDR5X ist extensiv. Ich bin da zwar total bei dir, dass es wohl sehr kompliziert sein muss, jedoch muss man kein völlig neues SI designen. Die Frequenzen sind auch weit unter GDDR5. ;)
Gedanken eines Newbies:
ein 384 Bit Interface ist ja aufgeteilt in 32 Bit-Teile. Gedankenspiel: wenn jetzt ganz viele Daten durch eines dieser 32 Bit-Teile gehen (bei G5X ist eines dieser Teile also 40GB/sec), sodass die GPU immer auf diese Daten warten muss und somit automatisch auch noch andere 32 Bit-Teile mit denselben Daten beschreibt / versucht, die Daten aufzuteilen, um das eben von 40GB/s auf 80, 120.. anzuheben und somit weniger zu warten, dann geht das bestimmt oft, aber wahrscheinlich nicht immer.
Kann sein, dass dabei relativ viel Redundanter Datenmüll anfällt. Der ist bei nem zwölfgeteilten GDDR5X-Interface wahrscheinlich deutlich kleiner als bei nem zweiteiligen HBM2-IF.
HBM hat nicht nur zwei Kanäle ;)
Die Frequenzen sind auch weit unter GDDR5. ;)
Die Frequenzen der einzelnen Interface-Pins sind geringer. Intern müssen die größeren Datenmengen natürlich verarbeitet werden können (hier kann man aber vermutlich einfach in die Breite gehen) und die Clock-Delays müssen für QDR mit doppelter Präzision generiert werden.
Setsul
2017-04-24, 10:18:59
@victore99:
Nicht vergessen die 32 bit hängen physisch an exakt einem Chip. Man müsste also die Daten an einer anderen Adresse speichern als vorgesehen. Das zerlegt natürlich die Adressierung und dann müsste das SI Speicherverwaltung betreiben.
Man muss einfach von vornherein die Daten einigermaßen gleichmäßig auf den physischen Adressraum verteilen.
Skysnake
2017-04-24, 10:26:55
Na ja GDDR5X ist extensiv. Ich bin da zwar total bei dir, dass es wohl sehr kompliziert sein muss, jedoch muss man kein völlig neues SI designen. Die Frequenzen sind auch weit unter GDDR5. ;)
Wie kommst du bitte auf den Quark?
Der DRAM läuft mit niedrigerer Frequenz durch den höheren Prefetch, wenn ich es richtig verstanden habe, aber das Interface an sich läuft mit höheren Frequenzen, oder wie willste die X GBit/s mehr über ein gleich breites Interface jagen?
QDR dient nur dazu bei synchronen Interfaces den CLK-Takt unten zu halten und damit Energie bei CLK-Signal zu sparen. Für die Datensignale macht das aber rein GAR NICHTS! Du brauchst für QDR am Ende eben entweder zwei 90° verschobene CLK-Signale, oder aber du gehst hin und baust dir einen CLK-Multiplier....
Wie auch immer, an den Taktraten der Datensignale ändert sich dadurch rein gar nichts. Wenn du da etwas daran machen willst, dann brauchste multi-Bit transmission, also mehrere Level wie bei QAM
MilesEdgeworth
2017-04-24, 11:49:46
Wie auch immer, an den Taktraten der Datensignale ändert sich dadurch rein gar nichts. Wenn du da etwas daran machen willst, dann brauchste multi-Bit transmission, also mehrere Level wie bei QAM
Die Frage ist jetzt vielleicht etwas OT, aber wieso werden bei den Datensignalen keine höheren Modulationsverfahren verwendet? Ich würde zwar erwarten, dass der Aufwand der logischen Implementierung deutlich zunimmt, jedoch kann im Gegenzug mit geringeren Frequenzen gearbeitet werden.
Skysnake
2017-04-24, 11:56:41
Die zur verfügung steheden Spannungspegel sind halt nicht besonders groß. Wenn du da allein schon zwei Bits übertragen willst in einem Zustand brauchste 4 Level. Das fliegt dir schnell um die Ohren, weil du verdammt genaue Versorgungsspannungen und eben auch Referenzwiderstände usw usf brauchst.
1Bit ist 0815. Das beherrscht man da man viel Erfahrung hat. Zudem ist es halt einfach "robust". Aktuell sind wohl höhere Frequenzen noch immer einfacher als mehr Bits auf einmal zu senden.
Hübie
2017-04-24, 14:38:56
Wie kommst du bitte auf den Quark?
Der DRAM läuft mit niedrigerer Frequenz durch den höheren Prefetch, wenn ich es richtig verstanden habe, aber das Interface an sich läuft mit höheren Frequenzen, oder wie willste die X GBit/s mehr über ein gleich breites Interface jagen?
QDR dient nur dazu bei synchronen Interfaces den CLK-Takt unten zu halten und damit Energie bei CLK-Signal zu sparen. Für die Datensignale macht das aber rein GAR NICHTS! Du brauchst für QDR am Ende eben entweder zwei 90° verschobene CLK-Signale, oder aber du gehst hin und baust dir einen CLK-Multiplier....
Wie auch immer, an den Taktraten der Datensignale ändert sich dadurch rein gar nichts. Wenn du da etwas daran machen willst, dann brauchste multi-Bit transmission, also mehrere Level wie bei QAM
Das ist dein Fachgebiet. Jedoch weiß ich dass GDDR5 am gleichen SI läuft und GDDR5X einen nativen fallback auf GDDR5 bietet. ;) Das Interface baut also vollständig auf GDDR5 auf. Klar musst du durch QDR mehr clocks generieren, aber das ist per se keine so große Schwierigkeit. Soviel ich weiß muss am Rest nix geändert werden.
@iuno: Ich gucke mir das mal an. Weißt du in etwa die Seitenzahl?
Troyan
2017-04-24, 15:26:41
AMD hat heute eine Pro Duo mit Polaris angekündigt: https://videocardz.com/press-release/amd-announces-new-radeon-pro-duo-with-two-polaris-10-gpus
Irgendwie komisch, wenn Vega kurz vor der Veröffentlichung mit 12,5TFLOPs steht...
Hübie
2017-04-24, 15:28:37
Daran glaube ich irgendwie nicht obwohl mir das auch zur Ohren kam. Mit der Jahre lernt man aber, dass oft Wiederholtes nicht richtiger wurde. ;);)
dildo4u
2017-04-24, 15:32:19
AMD hat heute eine Pro Duo mit Polaris angekündigt: https://videocardz.com/press-release/amd-announces-new-radeon-pro-duo-with-two-polaris-10-gpus
Irgendwie komisch, wenn Vega kurz vor der Veröffentlichung mit 12,5TFLOPs steht...
Mit Vega haste erstmal keine Option auf 32GB.
Schaffe89
2017-04-24, 15:33:08
Polaris? Nuff said.
Das muss doch bestimmt Blödsinn sein so kurz vor Vega noch mit einer Dualpolaris aufzutauchen.
Ob das nun für das professionelle Segment ist oder nicht. Die ordentlichen 32GB RAM wird man bei Vega wohl nicht so billig sehen.
Halte ich für völligen Schwachsinn. Stimmts, dann ein sehr schlechtes Zeichen für Vega.
Blediator16
2017-04-24, 15:33:49
AMD hat heute eine Pro Duo mit Polaris angekündigt: https://videocardz.com/press-release/amd-announces-new-radeon-pro-duo-with-two-polaris-10-gpus
Irgendwie komisch, wenn Vega kurz vor der Veröffentlichung mit 12,5TFLOPs steht...
Könnte auch daran liegen, dass die Pro Duo Polaris einfach erheblich billiger zu produzieren ist, als eine hypothetische >32gb hbm2 GPU.
Polaris? Nuff said.
Das muss doch bestimmt Blödsinn sein so kurz vor Vega noch mit einer Dualpolaris aufzutauchen.
Ob das nun für das professionelle Segment ist oder nicht. Die ordentlichen 32GB RAM wird man bei Vega wohl nicht so billig sehen.
Halte ich für völligen Schwachsinn. Stimmts, dann ein sehr schlechtes Zeichen für Vega.
Gibt nur Schwarz/Weiß oder?
Edit: Byebye
Schaffe89
2017-04-24, 15:35:15
Wenn es die Karte wirklich gäbe, dann waren die Gerüchte um eine Dual-Polaris Karte wohl doch nicht so falsch. Für 400 Euro könnte man das Ding vll sogar kaufen.
Jedoch weiß ich dass GDDR5 am gleichen SI läuft und GDDR5X einen nativen fallback auf GDDR5 bietet. ;) Das Interface baut also vollständig auf GDDR5 auf.
Klar, Rückwärtskompatibel ist selten ein großes Problem.
http://monitorinsider.com/assets/QDR_WCK_4_phases.svg
http://monitorinsider.com/GDDR5X.html
Für den GDDR5-Modus müsstest du lediglich die Daten, die über WCK_1 und 3 gelesen werden, wegwerfen. Es baut vielleicht Grundsätzlich drauf auf, aber die beiden zusätzlichen Taktgeber (oder Delays) und der höhere Datentakt müssen ja irgendwo herkommen.
Klar musst du durch QDR mehr clocks generieren, aber das ist per se keine so große Schwierigkeit.
Bei mehreren GHz müssen die Clocks mit einer Präzision von vermutlich um die 100ps oder (um noch ein Auge erkennen zu können) weniger positioniert werden.
Vielleicht sollte man den Teil der Diskussion in den GDDRx-Thread auslagern. Ich finde ihn leider grad nicht, um ihn zu verlinken.
Edit: gefunden: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=506896&page=16
Hübie
2017-04-24, 15:51:39
Mir fehlt dazu auch das entsprechende Fachwissen und kann nur googlen sowie von euch lernen. :smile:
Botcruscher
2017-04-24, 15:52:46
Mit Vega haste erstmal keine Option auf 32GB.
Als Dualkarte sind es auch keine "32GB". Die Frage warum nicht schon vor einem Jahr ist schon berechtigt.
MilesEdgeworth
2017-04-24, 15:53:53
Die zur verfügung steheden Spannungspegel sind halt nicht besonders groß. Wenn du da allein schon zwei Bits übertragen willst in einem Zustand brauchste 4 Level. Das fliegt dir schnell um die Ohren, weil du verdammt genaue Versorgungsspannungen und eben auch Referenzwiderstände usw usf brauchst.
1Bit ist 0815. Das beherrscht man da man viel Erfahrung hat. Zudem ist es halt einfach "robust". Aktuell sind wohl höhere Frequenzen noch immer einfacher als mehr Bits auf einmal zu senden.
Danke für die Erklärung, das ergibt natürlich Sinn. :)
Mir fehlt dazu auch das entsprechende Fachwissen und kann nur googlen sowie von euch lernen. :smile:
Mir auch. Ich versuche mir das meiste auch nur zusammenzureimen und gebe es auch nur hier wieder, wenn ich mir ziemlich sicher bin. Wie man an meinem Post auf der vorigen Seite sieht, liege ich auch mal daneben :freak:
Aber wenn mich jemand mit Kompetenz bestätigt, weiß ich, dass ich's begriffen hab :biggrin:
Hehe, ich lach mich schlapp, wenn die GDDR6 Karte gar nicht von NV kommt sondern ein Hawaii-Nachfolger mit 1:2 DP-Leistung ist :freak: ein Vega 12 gewissermaßen. AMD hatte ja schon länger gute Kontakte zu SK Hynix mit ihrem Exklusiv-HBM, die werden sicher sehr früh davon erfahren haben. Wär natürlich witzig, wenn die Ende 2016 als Pascal-Antwort und Volta Reaktion möglichst günstig und schnell in bekanntem Prozess mit bekannter Architektur einen Big-Chip nachgeschoben hätten - wie Fiji eben - nur als Gedankenexperiment. Die Vega Architektur kann AFAIK 128NCUs. Davon wären in 600mm² in 14LPP+ sicherlich mindestens 80 drin.
Mal ganz abgesehen von GDDR6 ist ein solcher Chips 2018 sowieso fällig, denn AMD benötigt dringend einen Nachfolger für Hawaii im HPC-Markt. Ich halte nichts mehr von der V20-in-7nm-Theorie, denn das wird wie P20 einfach ein Refresh von V10 werden, ganz klassisch in 14nm. 7nm wird man rein für die neue µArch nutzen. Das ist deutlich weniger Entwicklungsaufwand.
Hübie
2017-04-24, 16:02:26
Möglich, wenn auch höchst unwahrscheinlich. Volta ist für diesen Zeitraum geplant.
Möglich, wenn auch höchst unwahrscheinlich. Volta ist für diesen Zeitraum geplant.
Wegen Volta? Kann doch zeitlich durchaus zusammenlaufen. Unwahrscheinlich ist das höchstens, dass AMD zugunsten GDDR6 HBM nicht nutzt...
Aber auch hier sind die Kosten wieder ein gewichtiger Punkt.
Botcruscher
2017-04-24, 16:19:03
AMD hat sich bei HBM einfach verfahren. Das da jetzt irgendwelche unbekannten Chips auftauchen halte ich für höchst unwahrscheinlich. GDDR6 sagt eher etwas über den (preislichen) Zustand von HBM aus.
AMD hat sich bei HBM einfach verfahren. Das da jetzt irgendwelche unbekannten Chips auftauchen halte ich für höchst unwahrscheinlich. GDDR6 sagt eher etwas über den (preislichen) Zustand von HBM aus.
Wie gesagt, es muss noch ein Chip definitiv ausstehen für 2018, in welcher Form auch immer - und das ist definitiv ein Profichip mit 1:2 DP und mit an Sicherheit grenzender Wahrscheinlichkeit wird der deutlich schneller als V10. Ob HBM oder nicht ist dafür einfach unerheblich. Ob man sich verfranst hat mit HBM oder nicht ebenfalls. Denn wenn das wirklich so ist, kommt GDDR6 doch sehr gut. Wie gesagt, ist SK Hynix ja ausgerechnet AMDs Exklusivpartner für HBM - warum dann nicht auch für GDDR6?
V10 ist doch vor allem der Entwicklungschip für die neue tile-based GCN-Archtektur gewesen, so wie Tahiti das für GCN war. Das heißt doch nicht, das da nix mehr kommt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.