Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
Eine neue Nano wurde von Koduri quasi bestaetigt:
Like Fiji Vega will excel in small form factors etc due to HBM2 advantages
https://www.reddit.com/r/Amd/comments/6bklro/we_are_radeon_technologies_group_at_amd_and_were/dhqn3si/
Civtam
2017-05-19, 19:38:40
Eine neue Nano wurde von Koduri quasi bestaetigt:
https://www.reddit.com/r/Amd/comments/6bklro/we_are_radeon_technologies_group_at_amd_and_were/dhqn3si/
Auf die freu ich mich auch schon sehr.
Bin wirklich auf die Computex gespannt und von meiner 290 wird das auf jeden Fall nen sinnvolles Upgrade.
Menace
2017-05-19, 20:14:35
wen Interessiert es denn ob eine High-End-Karte beim Zocken 250 oder 300W braucht? Doch nur einige Magazine die auf Balkenlänge und einfach zu Vergleichende Daten wert legen. Dem User kann es doch genau so egal sein wie 109 zu 120FPS.
Und BITTE!! endlich Schluß hier mit NV Werbung.
greetz
US
Zum ersten Punkt muss ich schon widersprechen; ich möchte schon auch unter (Teil)last eine sparsame Karte um z.B. auch mal die ein oder andere WU auf der Grafikkarte laufen zu lassen. 50 W ist jetzt nicht die Welt, aber weniger bei gleicher Leistung wäre natürlich schön. Allerdings ist das nur ein Faktor von vielen.
Ich hoffe für die Zukunftsfähigkeit von AMD/Radeon, dass Vega im professionellen Bereich wirklich Konkurrenzfähig ist und AMD für die Zukünftigen Karten auch etwas Gewinn generiert. Auch dafür wäre eine effiziente Karte wichtig.
Edit: Wobei ich doch noch auf Wattman hinweisen möchte: Mit Hilfe dieser Software kann man die Nano auch für das Crunchen sparsam und effizient einstellen.
Zum zweiten Punkt: Ja, wäre schön, aber wenn selbst der Admin sich nicht daran hält, habe ich Zweifel, dass es besser wird.
chetigol
2017-05-19, 20:16:26
Es interessiert dann, wenn beide Seiten ähnliche Performance abliefern. Die Priorität liegt natürlich in der Leistung, aber wenn beide Karten etwa gleich auf sind, dann entscheiden weitere Kriterien - je nach gewichtung individuell - Verbrauch, Lautstärke,...
Iruwen
2017-05-19, 20:25:03
wen Interessiert es denn ob eine High-End-Karte beim Zocken 250 oder 300W braucht?
Leute die keine Wakü haben?
Ravenhearth
2017-05-19, 20:33:38
Leute die keine Wakü haben?
Mit einem guten Luftkühler ist das kein Problem. Man sehe sich bspw. die Sapphire Tri-X R9 Fury OC an. Braucht fast 300W und ist dabei fast unhörbar (http://www.anandtech.com/show/9421/the-amd-radeon-r9-fury-review-feat-sapphire-asus/17).
Gipsel
2017-05-20, 00:35:35
Könnte nicht ein Mod mal das ganze off Topic Theater hier einfach löschen. Ist ja langsam nicht mehr auszuhalten....
Done (50 Posts auf den letzten 5 Seiten entsorgt).
@all:
Bitte haltet Euch an das Thema! Und das lautet Vega.
Gipsel
2017-05-20, 00:39:33
Ist eigentlich irgendwem aufgefallen, dass Raja Koduri in einem Nebensatz bei seinem Vortrag die Bemerkung hat fallen lassen, dass durch die neue Pixelengine mitsamt dem Binning (Tiling) Rasterizer im Schnitt 50% der Speicherbandbreite gespart werden soll (in Spezialfaellen wie immer noch deutlich mehr)?
Hübie
2017-05-20, 01:48:39
Nein. Wann und wo wurde das gesagt? Beim AMA oder auf dem Tech-day? Kann aber schon gut hinkommen, wenn man sich gängige Kompressionsverfahren bei NV mal so anschaut. Wobei 50% in der (Spiele-) Praxis wohl etwas zu optimistisch sind.
Gipsel
2017-05-20, 02:02:33
Nein. Wann und wo wurde das gesagt? Beim AMA oder auf dem Tech-day? Kann aber schon gut hinkommen, wenn man sich gängige Kompressionsverfahren bei NV mal so anschaut. Wobei 50% in der (Spiele-) Praxis wohl etwas zu optimistisch sind.
Das hat er bei seinem Vortrag auf dem FAD gesagt. War wie gesagt etwas versteckt.
Und ich habe glaube ich schon mehrfach betont, dass die Kompressionsverfahren da gar nicht so entscheidend sind (und bei denen AMD auch gar nicht wirklich zurueck liegt, wenn man sich mal FP16 Fuellratentests ansieht). Das Tiling (Binning Rasterizer) und die Cachestruktur fuer die ROPs sind das, was AMD bisher gefehlt hat. Und genau davon sprach er da (habe gerade keine Kopfhoerer hier, aber das muesste meiner Erinnerung nach ungefaehr da gesagt worden sein: https://youtu.be/590h3XIUfHg?t=2804).
Tatsaechlich
on the pixel side like a different primitive batch binning that increases memory bandwidth efficiency over 2x and in some cases in the professional workstation side we are seeing up to 8x improvement in performance with this advanced pixel engine
https://www.youtube.com/watch?v=590h3XIUfHg&feature=youtu.be&t=2865
automatische yt untertitel, (bzw. noch besser das Transkript, weil man darin suchen kann) helfen nicht nur bei fehlendem Ton ;)
Nvidia zeigt die Einsparungen in der Bandbreite uebrigens so auf, das hatten wir auch schon hier:
https://pics.computerbase.de/7/7/0/6/6/8-1080.1100072992.jpg
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-vorgestellt-update-4/ (letzter Abschnitt)
Gipsel
2017-05-20, 02:54:30
Tatsaechlich
https://www.youtube.com/watch?v=590h3XIUfHg&feature=youtu.be&t=2865
automatische yt untertitel, (bzw. noch besser das Transkript, weil man darin suchen kann) helfen nicht nur bei fehlendem Ton ;)Ha! Da haette ich auch drauf kommen koennen.
Nvidia zeigt die Einsparungen in der Bandbreite uebrigens so auf, das hatten wir auch schon hier:
https://pics.computerbase.de/7/7/0/6/6/8-1080.1100072992.jpg
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-vorgestellt-update-4/ (letzter Abschnitt)Das hatte ich auch schon mal mit einer ausfuehrlichen Beschreibung kommentiert. Man kann da bestimmte Sachen ziemlich frei entweder der Kompression oder dem Tiling zuschlagen, da sich das gegenseitig ergaenzt (z.B. die Verringerung des Overheads durch den Reload komprimierter Tiles). Kompression ohne Tiling bringt eben nur geringe Vorteile, selbst wenn die Kompression nominell auf vergleichbarem Standard ist.
Und somit kann man nVidias Angaben auch dafuer heranziehen, dass die Angabe von doppelter Bandbreiteneffizienz mit Vega durchaus realistisch ist.
Digidi
2017-05-20, 07:40:47
Amd hat ja auch angekündigt das man nur noch die Hälfte an Vram Daten schreiben will. Da gab es auch Demos, wo man sieht wie z.B. Witcher 3 nur die Hälfte vom Vram belegt. Steigert dies dann zusätzlich die Bandbreite? Also 4x
Weiß man denn nun auch woher die 90 Gigapixel/sec. Kommen? Es passt nicht zur Kombination 1600 MHz und 64 Rops
TheGood
2017-05-20, 08:59:18
überholt
vinacis_vivids
2017-05-20, 09:49:41
Ist eigentlich irgendwem aufgefallen, dass Raja Koduri in einem Nebensatz bei seinem Vortrag die Bemerkung hat fallen lassen, dass durch die neue Pixelengine mitsamt dem Binning (Tiling) Rasterizer im Schnitt 50% der Speicherbandbreite gespart werden soll (in Spezialfaellen wie immer noch deutlich mehr)?
Es gab ne Folie von AMD wo gezeigt wurde, wie der Speicherverbrauch von allgemeinen Anwendungen exponentiell steige. Dazu gab es eine Aussage, dass die Speichermenge hardwaretechnisch nicht mitsteigen könne, weshalb andere Wege (TBR, HBCC incl. HBM²) genommen werden müssen um schritthalten zu können.
DinosaurusRex
2017-05-20, 10:22:41
Das wäre ziemlich geil für die APUs wenn da was dran ist.
basix
2017-05-20, 10:44:53
Das wäre ziemlich geil für die APUs wenn da was dran ist.
Jo, ein kleiner 2-High Stack mit 2GB neben der APU würde dementsprechend schon sehr gut durchschlagen, wenn sich der HBC bewährt. Bei einem 8-High Stack könnte man evtl. komplett auf normalen RAM verzichten (schön kleiner Formfaktor). Dort steht einfach dei Preisfrage im Raum. Ich bin mir nicht ganz sicher, wie gut sich der HBCC bei rein normalem RAM verhält. Es gab ja Stimmen dazu, dass hier die Latenzen etc. zu hoch wären. Aber vielleicht gilt das ja nur für GDDR5 und nicht DDR4.
Also bei RR ist glaub ich die anvisierte Bandbreite bei 3200er DDR4 und die Bandbreitenersparnis durch das Tiling genug bei 704 Shadern.
Mancko
2017-05-20, 11:04:13
Netter Trick, man vergleicht mit einer Karte die nur Gaming-Treiber hat :biggrin:
Nimmt man eine Quadro P4000 zum Vergleich (und die ist nicht Highend, bloss ein abgespeckter GP104) würde die Vega bei 2 der 3 Benchmarks (deutlich) hinten liegen (und im dritten bloss ganz knapp davor).
Ja der SPECviewperf Vergleich ist mehr als fragwürdig, denn da hat man einfach mal gegen die falsche Karte verglichen. War bestimmt ein Versehen :)
Aber auch beim DeepBench ist wohl nicht alles so richtig korrekt abgelaufen bzw. man war recht kreativ bei der Ergebnis Endabrechnung. Gibt einen netten Artikel bei heise dazu:
https://www.heise.de/newsticker/meldung/Analyse-AMD-und-die-Kunst-des-Benchmarkings-3718824.html
Ehrlich gesagt sind solche Sachen immer eher schlechte Anzeichen. Ich glaube AMD wird sich schwer tun da Schritt zu halten und ich beziehe mich jetzt mal nur auf das professionelle Segment. Vermutlich wird man auch dort in der Leistung im Vergleich zu Pascal nach wie vor zurück liegen und auch Performance/Watt wird nicht gerade die Sonnenseite sein. Die erheblichen Softwarenachteile lass ich dabei mal außen vor genauso wie den Umstand, dass Volta recht bald vor der Tür steht und das dann gleich nochmal eine ganz andere Hausnummer ist.
Achill
2017-05-20, 11:55:59
Mal meine Specu zum HBCC ... evtl. passt es hier auch ganz gut.
@Leonidas - ich weiß nicht ob das so stimmt. Wenn HBCC nur HBM2 wäre, dann würde RotTR@4k mit deaktivierten HBM2 nicht so schnell laufen weil dann alle Reads aus dem System-RAM kommen würden? Siehe: https://youtu.be/UlZbDcSrj3o?t=123
(Jemand hat die Live-Präsi aufgenommen, die Rucker sind Streaming-Probleme)
Ich denke, dass der HBCC schon eine Logische Einheit ist, die zwischen der GPU und natürlich dem HBM2 aber auch anderen Speicher operiert.
Wenn AMD beim Namen nicht total nach klang gegangen ist, dann wäre ein "Cache Controller" äquivalent zu Konzepten aus der Software-Welt ein aktives Element, das darüber entscheidet:
* Welche Daten kommen in die Cache (HBM2)
* Entfernen von Daten aus der Cache
* Fetch von Daten aus attached NVRAM oder aus dem System-Ram
Ein weiterer Punkt kann sein, dass sich dadurch Latenz-Vorteile ergeben. Wenn bisher durch den Treiber (CPU) gesteuert wurde (und über den PCIe Chanel kommuniziert werden muss), jetzt aber der HBCC selbst fetched.
Eine weitere Möglichkeit könnte sein, dass der HBCC aufgrund der Lese- und Schreibzugriffe die Daten Optimal über die HBM2 Zellen anordnet, damit diese bei bestimmen Lese-Schreib-Mustern nicht blockiert sind.
Zuletzt könnte ich mir noch ein Caching/Swapping auf Blockebene vorstellen, wird zum Beispiel von einer Textur nicht alle Teile verwendet, so verbleiben nur die genutzten Daten in der Cache. Korrekter ist wahrscheinlich sogar, das nur die benötigten Daten-Blöcke gefetched werden (Reduktion der PCIe Last).
Ist natürlich alles nur Specu - aber wer weiß ... ;)
unl34shed
2017-05-20, 12:02:25
Aber auch beim DeepBench ist wohl nicht alles so richtig korrekt abgelaufen bzw. man war recht kreativ bei der Ergebnis Endabrechnung. Gibt einen netten Artikel bei heise dazu:
https://www.heise.de/newsticker/meldung/Analyse-AMD-und-die-Kunst-des-Benchmarkings-3718824.html
Was ist denn das wieder für eine Hexenjagd von Heise?
Warum sollte eine Gesamtlaufzeit eines Benchmarks keine Aussagekraft haben?
Sind die Einzeldisziplinen im Schnitt 5% langsamer, ist die Laufzeit entsprechend 5% länger.
Und die als Vergleich herangezogene Titan-X(Pascal) müsste 50% höher getaktet worden sein, als die P100, sprich OC am Limit, was man sicher im Professionellen Umfeld so nutzen wird :confused:
Hübie
2017-05-20, 12:04:05
Ich glaube es geht darum, dass die TXp für INT-Operationen per Firmware beschnitten ist, ganz im Gegensatz zu P6000. GP100 wiederum hat keine Vorteile bei INT. Man korrigiere mich wenn ich irre. ;)
Mal meine Specu zum HBCC ... evtl. passt es hier auch ganz gut.
Wenn ich das richtig verstanden habe, könnte man das auf AMD-Systemen aber noch einfacher lösen, da ja sowohl CPU als auch GPU Infinity Fabric beherrschen und so über PCIe kommunizieren können und die Speicher einfach kohärent abbilden können.
Civtam
2017-05-20, 12:10:45
Wenn ich das richtig verstanden habe, könnte man das auf AMD-Systemen aber noch einfacher lösen, da ja sowohl CPU als auch GPU Infinity Fabric beherrschen und so über PCIe kommunizieren können und die Speicher einfach kohärent abbilden können.
Das könnten wirklich sehr spannende Systeme werden, gibts vielleicht mit Navi und Zen2.
Eldoran
2017-05-20, 12:32:41
@Leonidas - ich weiß nicht ob das so stimmt. Wenn HBCC nur HBM2 wäre, dann würde RotTR@4k mit deaktivierten HBM2 nicht so schnell laufen weil dann alle Reads aus dem System-RAM kommen würden? Siehe: https://youtu.be/UlZbDcSrj3o?t=123
(Jemand hat die Live-Präsi aufgenommen, die Rucker sind Streaming-Probleme)
Ich denke, dass der HBCC schon eine Logische Einheit ist, die zwischen der GPU und natürlich dem HBM2 aber auch anderen Speicher operiert.
Wenn AMD beim Namen nicht total nach klang gegangen ist, dann wäre ein "Cache Controller" äquivalent zu Konzepten aus der Software-Welt ein aktives Element, das darüber entscheidet:
* Welche Daten kommen in die Cache (HBM2)
* Entfernen von Daten aus der Cache
* Fetch von Daten aus attached NVRAM oder aus dem System-Ram
Ein weiterer Punkt kann sein, dass sich dadurch Latenz-Vorteile ergeben. Wenn bisher durch den Treiber (CPU) gesteuert wurde (und über den PCIe Chanel kommuniziert werden muss), jetzt aber der HBCC selbst fetched.
Eine weitere Möglichkeit könnte sein, dass der HBCC aufgrund der Lese- und Schreibzugriffe die Daten Optimal über die HBM2 Zellen anordnet, damit diese bei bestimmen Lese-Schreib-Mustern nicht blockiert sind.
Zuletzt könnte ich mir noch ein Caching/Swapping auf Blockebene vorstellen, wird zum Beispiel von einer Textur nicht alle Teile verwendet, so verbleiben nur die genutzten Daten in der Cache. Korrekter ist wahrscheinlich sogar, das nur die benötigten Daten-Blöcke gefetched werden (Reduktion der PCIe Last).
Ist natürlich alles nur Specu - aber wer weiß ...
Irgendwo im Form wurde der RotTR@4k (HBC on/off) Benchmark erklärt - AMD hat das aktivieren/deaktivieren simuliert, allerdings sollte das Ergebnis tatsächlich das korrekte Ergebnis liefern.
Per Treiber trat faktisch eine Vega mit 2 GB VRAM gegen eine Vega mit 2 GB VRAM und 4 GB Virtual Memory. Aus sicht von RotTR war es ein Vergleich von Vega mit 2GB VRAM gegen Vega mit 4GB VRAM. Dementsprechend musste RotTR bei "HBC off" viel mehr Daten streamen als bei "HBC on". Gezeigt werden sollte damit effektiv, wie viel effizienter das hardware unterstützte Streamen (bzw. nutzen des VRAM als reinen L3 Cache) funktioniert. Das ist entspricht soweit ziemlich den Erfahrungen die bei CPUs bezüglich Cache oder Virtual Memory gemacht wurden - da eben i.d.R. nur bei einem kleinen Teil der Zugriffe das Miss Penalty anfällt und das Miss Penalty selbst durch entsprechende Hardwareunterstützung niedrig ausfällt. Allerdings gibt es da im Detail einen riesigen Haufen an Schwierigkeiten und Problemen, die AMD aus der CPU Sparte bekannt sein sollten. Wie gut da ganze in der Praxis funktioniert, wird sich erst zeigen müssen. Die bisherigen Angaben sind soweit plausibel, aber sie müssen sich erst in der Praxis bewähren.
Deine Spekulationen bezüglich der technischen Details decken sich ziemlich mit meinen eigenen.
Achill
2017-05-20, 12:36:48
Ja der SPECviewperf Vergleich ist mehr als fragwürdig, denn da hat man einfach mal gegen die falsche Karte verglichen. War bestimmt ein Versehen :)
Aber auch beim DeepBench ist wohl nicht alles so richtig korrekt abgelaufen bzw. man war recht kreativ bei der Ergebnis Endabrechnung. Gibt einen netten Artikel bei heise dazu:
https://www.heise.de/newsticker/meldung/Analyse-AMD-und-die-Kunst-des-Benchmarkings-3718824.html
Ehrlich gesagt sind solche Sachen immer eher schlechte Anzeichen. Ich glaube AMD wird sich schwer tun da Schritt zu halten und ich beziehe mich jetzt mal nur auf das professionelle Segment. Vermutlich wird man auch dort in der Leistung im Vergleich zu Pascal nach wie vor zurück liegen und auch Performance/Watt wird nicht gerade die Sonnenseite sein. Die erheblichen Softwarenachteile lass ich dabei mal außen vor genauso wie den Umstand, dass Volta recht bald vor der Tür steht und das dann gleich nochmal eine ganz andere Hausnummer ist.
Ich kann aus dem Artikel nicht entnehmen, dass "... wohl nicht alles so richtig korrekt abgelaufen bzw. man war recht kreativ bei der Ergebnis Endabrechnung."
Bzgl. dem Artikel wäre aus meiner Sicht anzumerken...
1. Es sollte AMD frei stehen, mit welchen Produkten man sich vergleichen will. Es gibt schon entsprechende preisliche Unterschiede (https://www.microway.com/hpc-tech-tips/nvidia-tesla-p100-price-analysis/) zwischen den verschiedenen P100 ausführungen. Wenn Vega FE die kleinste oder die beiden kleineren P100 schlagen kann, dann sind dies ggf. die Karten und damit auch Preisbereiche wo die Vega FE platziert wird.
2. Das "einfache aufaddieren" kann man sicher kritisieren, aber es erzeugt eine Zahl die vom Publikum verstanden wird und auf das es durch diverse Variationen (3DMurkse und co) geprägt wurde. Meiner Ansicht nach ist es besser als theoretische Peak-Größen in Präsentationen zu schreiben.
3. Zuletzt ist doch noch sehr interessant, dass für Deepbench unterschiedlich Algorithmen sowie Bibliotheken zum Zuge kommen. NV pflegt hier anscheinend einen CUDA Pfad und damit wäre es ein optimaler Fall für NV. Seitens AMD spekuliert der Author, dass ROCm v1.5 mit HIP zum Einsatz kam und damit CUDA Code auf die ROCm Plattform lief. Wenn dies der Fall ist, wäre das keine schlechte Leistung, weil man nicht nur bzgl. Bench-Zeit mitspielt sondern auch den SW-Stack soweit hat, um den CUDA-Code auf AMD-HW guten laufen zu lassen.
scully1234
2017-05-20, 12:40:22
2. Das "einfache aufaddieren" kann man sicher kritisieren, aber es erzeugt eine Zahl die vom Publikum verstanden wird und auf das es durch diverse Variationen (3DMurkse und co) geprägt wurde. Meiner Ansicht nach ist es besser als theoretische Peak-Größen in Präsentationen zu schreiben.
Und wie sieht es damit aus? Man war wohl insgesamt sehr kreativ mit den wahren Messwerten
Aber welches Unternehmen glaubt man denn hier ködern zu können, das dies nicht umgehend auffällt das dem Geforce Treiber die nötigen Eigenschaften fehlen?
Eldoran
2017-05-20, 12:54:59
Wenn ich das richtig verstanden habe, könnte man das auf AMD-Systemen aber noch einfacher lösen, da ja sowohl CPU als auch GPU Infinity Fabric beherrschen und so über PCIe kommunizieren können und die Speicher einfach kohärent abbilden können.
In den Präsentationen klingt das immer wieder an, aber das wäre höchstens die Minimalvariante.
Damit würde man sich aber auch kaum etwas ersparen - der Cache Controller an sich ist unumgänglich - das HBM ganz weglassen reduziert Vega auf APU Niveau - weil etwa Ryzen insgesamt grob 20GB/s Bandbreite hat (PCIe liegt noch darunter), der HBM auf Vega hat so 400-500GB/s. Ersparen könnte man sich noch am ehesten bei den anderen Speichertypen, dazu ist aber noch ziemlich offen wie das konkret funktionieren soll.
Das könnten wirklich sehr spannende Systeme werden, gibts vielleicht mit Navi und Zen2.
Nö, Vega + Zen reicht.
In den Präsentationen klingt das immer wieder an, aber das wäre höchstens die Minimalvariante.
Damit würde man sich aber auch kaum etwas ersparen - der Cache Controller an sich ist unumgänglich - das HBM ganz weglassen reduziert Vega auf APU Niveau - weil etwa Ryzen insgesamt grob 20GB/s Bandbreite hat (PCIe liegt noch darunter), der HBM auf Vega hat so 400-500GB/s. Ersparen könnte man sich noch am ehesten bei den anderen Speichertypen, dazu ist aber noch ziemlich offen wie das konkret funktionieren soll.
Guter Einwand. Ich meinte nur, dass es vllt. effektiver auf Zen-Systemen laufen könnte als auf Intel-Systemen.
Achill
2017-05-20, 13:15:30
Und wie sieht es damit aus? Man war wohl insgesamt sehr kreativ mit den wahren Messwerten
Aber welches Unternehmen glaubt man denn hier ködern zu können, das dies nicht umgehend auffällt das dem Geforce Treiber die nötigen Eigenschaften fehlen?
Ich habe mich auf den heise.de Artikel bezogen (https://www.heise.de/newsticker/meldung/Analyse-AMD-und-die-Kunst-des-Benchmarkings-3718824.html), die von dir angehängten Bilder stammen von zwei unterschiedlichen Quellen und es werden unterschiedliche GPUs gezeigt.
Die TXp wird wahrscheinlich bei professionellen Software durch Treiber bzw. FW limitiert. Wenn AMD den richtigen Preispunkt für die Vega FE wählt, wird genau dort angegriffen - das zeigen die Bilder von dir.
Bzgl. Unternehmen, was hat ein solches davon, wenn es auffällt aber keine Wahlmöglichkeit hat. Aktuell kann man sich bei den Produkten von NV entscheiden zwischen: Tessla, Quadro oder günstigere TXp mit weniger Leistung. Mit dem richtigen Preis + Kompatibilität zu CUDA kann AMD dann als Alternative wahrgenommen werden.
Digidi
2017-05-20, 13:17:01
In den Präsentationen klingt das immer wieder an, aber das wäre höchstens die Minimalvariante.
Damit würde man sich aber auch kaum etwas ersparen - der Cache Controller an sich ist unumgänglich - das HBM ganz weglassen reduziert Vega auf APU Niveau - weil etwa Ryzen insgesamt grob 20GB/s Bandbreite hat (PCIe liegt noch darunter), der HBM auf Vega hat so 400-500GB/s. Ersparen könnte man sich noch am ehesten bei den anderen Speichertypen, dazu ist aber noch ziemlich offen wie das konkret funktionieren soll.
Könnte es sein das infinit Fabric noch einen direkten Draht zwischen GPU CPU Vram und normalen Arbeitsspeicher hat?
Nur Mal so als Verständnis für mich es gibt den PCI Slot und dann gibt es die Datenverbindung x16 Pcie 3.0. kann da im PCI Slot noch andere Verbindungen geben, sind da sozusagen noch Pins frei für eine andere Datenkommunikation?
Hübie
2017-05-20, 13:29:16
Ich kann aus dem Artikel nicht entnehmen, dass "... wohl nicht alles so richtig korrekt abgelaufen bzw. man war recht kreativ bei der Ergebnis Endabrechnung."
Bzgl. dem Artikel wäre aus meiner Sicht anzumerken...
1. Es sollte AMD frei stehen, mit welchen Produkten man sich vergleichen will. Es gibt schon entsprechende preisliche Unterschiede (https://www.microway.com/hpc-tech-tips/nvidia-tesla-p100-price-analysis/) zwischen den verschiedenen P100 ausführungen. Wenn Vega FE die kleinste oder die beiden kleineren P100 schlagen kann, dann sind dies ggf. die Karten und damit auch Preisbereiche wo die Vega FE platziert wird.
2. Das "einfache aufaddieren" kann man sicher kritisieren, aber es erzeugt eine Zahl die vom Publikum verstanden wird und auf das es durch diverse Variationen (3DMurkse und co) geprägt wurde. Meiner Ansicht nach ist es besser als theoretische Peak-Größen in Präsentationen zu schreiben.
3. Zuletzt ist doch noch sehr interessant, dass für Deepbench unterschiedlich Algorithmen sowie Bibliotheken zum Zuge kommen. NV pflegt hier anscheinend einen CUDA Pfad und damit wäre es ein optimaler Fall für NV. Seitens AMD spekuliert der Author, dass ROCm v1.5 mit HIP zum Einsatz kam und damit CUDA Code auf die ROCm Plattform lief. Wenn dies der Fall ist, wäre das keine schlechte Leistung, weil man nicht nur bzgl. Bench-Zeit mitspielt sondern auch den SW-Stack soweit hat, um den CUDA-Code auf AMD-HW guten laufen zu lassen.
Natürlich kann AMD seine Gegner wählen wie sie wollen. Es hat nur eben etwas euphemistisches an sich, wenn man eine Karte für deep leanring als Gegner bei Inference Aufgaben nutzt und vice versa. GP102 hat besser INT8 Leistung während GP100 doppelte FP16 Geschwindigkeit aufweist. Der Benchmark legt nahe, dass er für INT8 gemacht ist (das wissen unsere Profis hier mit Sicherheit).
dildo4u
2017-05-20, 13:30:37
Ich habe mich auf den heise.de Artikel bezogen (https://www.heise.de/newsticker/meldung/Analyse-AMD-und-die-Kunst-des-Benchmarkings-3718824.html), die von dir angehängten Bilder stammen von zwei unterschiedlichen Quellen und es werden unterschiedliche GPUs gezeigt.
Die TXp wird wahrscheinlich bei professionellen Software durch Treiber bzw. FW limitiert. Wenn AMD den richtigen Preispunkt für die Vega FE wählt, wird genau dort angegriffen - das zeigen die Bilder von dir.
Bzgl. Unternehmen, was hat ein solches davon, wenn es auffällt aber keine Wahlmöglichkeit hat. Aktuell kann man sich bei den Produkten von NV entscheiden zwischen: Tessla, Quadro oder günstigere TXp mit weniger Leistung. Mit dem richtigen Preis + Kompatibilität zu CUDA kann AMD dann als Alternative wahrgenommen werden.
Nutzt TXp nicht die selben Treiber wie eine 1080 Ti?Gegen die würden Beide Karten nicht sonderlich gut aussehen was Preis/Leistung angeht.
Complicated
2017-05-20, 13:34:55
weil etwa Ryzen insgesamt grob 20GB/s Bandbreite hat (PCIe liegt noch darunter),
Ich bin mir nicht sicher welche Bandbreite du hier mit 20 GB/s bezifferst. Aus dem Kontext würde ich sagen du meinst Speicheranbindung zum DDR. Der beträgt allerdings schon mit DDR4-2666 42,7 GB/s.
@Hot
Das ist mit Sicherheit so und wird vielleicht auch ein Zweischneidiges Schwert für AMD werden. Der HBCC basiert auf Infinity Fabric, was eine Kombination aus CCIX und GenZ ist. Nvidia ist genauso wenig im CCIX-Konsortium wie Intel (IBM schon). Nvidia unterstützt OpenCAPI (AMD Gründungsmitglied) mit IBM und NVLink, während Intel wiederum einen ganz eigenen Weg geht um sein Xeon Phis zu pushen mit QPI.
Liest man diesen Artikel mal mit den Industrie-Politischen Hintergründen, so sind die CCIX, Genz und OpenCAPI Konsortien im Prinzip Anti-Intel Kooperationen unterstützt durch die "Key-Customers" Amazon, Apple, Facebook, Google und Microsoft auf der Data-Center Seite und durch Server-Hardware-Hersteller Cisco, Dell, Fujitsu, HDS, HPE, Huawei, IBM, InSpur, Lenovo, Oracle, Quanta und Supermicro.
https://www.theregister.co.uk/2016/10/14/opencapi_declaration_of_interconect_war/
Das ist eine recht beeindruckende Front, die QPI ablehnt und auf eine der drei Interconnects (oder alle drei) setzt.
Während NVLink und OpenCAPI auf den klassischen I/O-Interconnect setzt ist AMD mit CCIX und Genz-Z einen Schritt weiter und kombiniert beides in ihrer Infinity Fabric. Während CCIX Cache-Kohärenz bietet, bietet Gen-Z direkte Speicher read/writes.
Das zweischneidige Schwert für AMD ist eben dass man auf schon bestehenden Intel-Systemen die neuen Technologien nicht ausspielen kann, ebenso wie Nvidia ihren NVLink auf Intel und AMD Systemen nicht zum Einsatz bringen kann. Da AMD derzeit im Servermarkt mit ihren CPUs noch keine Rolle spielen ergibt das im Moment für beide die selbe Ausgangssituation mit einem Vorteil für Nvidia, da IBM schon mit im Boot sitzt. Hier muss AMD nun sowohl CPU seitig in die Datacenter rein kommen um dann auch eine Basis für ihre GPUs zu haben. Liest man die Liste der Konsortiumsmitglieder halte ich das für keinen Zufall, dass diese bei CCIX und Gen-Z fast identisch ist und der größte Zugang von namhaften Unternehmen im Oktober 2016 statt gefunden hat. Man könnte sagen die Industrie möchte CCIX/GenZ gemeinsam etablieren.
Hier ist eine kleine Übersicht was der Unterschied zwischen AMBA (das bisher übliche Modell bei Server-SoCs) CCIX und GenZ ist:
https://community.arm.com/processors/b/blog/posts/how-do-amba-ccix-and-genz-address-the-needs-of-the-data-center
https://community.arm.com/cfs-file/__key/communityserver-blogs-components-weblogfiles/00-00-00-21-42/4353.CMN_2D00_600_5F00_CCIX.png
https://community.arm.com/cfs-file/__key/communityserver-blogs-components-weblogfiles/00-00-00-21-42/0143.AddCCIX.png
https://community.arm.com/cfs-file/__key/communityserver-blogs-components-weblogfiles/00-00-00-21-42/2210.Gen_2B00_Z.png
While CCIX allows processors to extend their cache coherency to off-chip accelerators, GenZ is addressing the need for higher performance data accesses, with an interconnect based on memory operations that addresses both server node and rack scale. Today, storage requires block based accesses with complex, code intensive software stacks. Memory operations such as loads and stores allow processors to access both volatile (ie DRAM) and non-volatile storage in the same efficient manner. Wie man dieser Beschreibung entnehmen kann unterstützt Vega mit HBCC schon beides.
Das alles sieht mir danach aus, als ob AMD tatsächlich den Fuss tief drin hat im Datacenter Markt mit aktiver Unterstützung durch wichtig Player.
scully1234
2017-05-20, 13:36:31
Nutzt TXp nicht die selben Treiber wie eine 1080 Ti?Gegen die würden Beide Karten nicht sonderlich gut aussehen was Preis/Leistung angeht.
Ich kann mir auch nicht vorstellen ,das die Frontier mit der Ausstattung ,in diesen Regionen wildert .Preislich als auch von dem ,wo sie Raja gerne einsortiert sehen möchte.
Und wie schon gesagt ist die gewählte Software, nun mal Quadro Territorium, das wäre aufgrund der treiberseitigen Beschneidung ,reichlich sinnlos dort eine TXP zu verwenden
Digidi
2017-05-20, 13:48:21
Eine P6000 kostet 4000 Euro eine Titan Xp kostet 1200. Vega FE schätze ich auf 1500-2000 Euro.
Im übrigen ist ein CAD Programm heute mehr als nur 3D Design. Es gibt Simulationspakete, FEM, CFD etc. Hier könnte die Vega FE zur Titan Xp und auch p6000 Punkten.
scully1234
2017-05-20, 13:52:28
Eine P6000 kostet 4000 Euro eine Titan Xp kostet 1200..
Ist in den entsprechenden Benchmarks aber auch doppelt so schnell, und bietet umfassenden Treibersupport für die Unternehmen
Weiß nicht wo da nun die TXP die bessere Alternative sein soll bei den speziellen Anwendungsfällen
Vega FE schätze ich auf 1500-2000 Euro.
Das weisst du noch nicht, und selbst wenn, wäre sie immer noch langsamer wie die Quadro
Time is Money
Digidi
2017-05-20, 13:56:50
Ist in den entsprechenden Benchmarks aber auch doppelt so schnell, und bietet umfassenden Treibersupport für die Unternehmen
Weiß nicht wo da nun die TXP die bessere Alternative sein soll bei den speziellen Anwendungsfällen
Das weisst du noch nicht, und selbst wenn, wäre sie immer noch langsamer wie die Quadro
Time is Money
In FP64 wäre sie doppelt so schnell wie eine P6000 ;)
scully1234
2017-05-20, 14:02:11
In FP64 wäre sie doppelt so schnell wie eine P6000 ;)
Als ob es für 64bit nicht auch einen angepassten Chip gibt:wink:
Quadro P100 oder wahlweise Tesla
Digidi
2017-05-20, 14:04:01
Als ob es für 64bit nicht auch einen angepassten Chip gibt:wink:
Quadro P100 oder wahlweise Tesla
Der dann Mal Schlappe 7000 Euro kostet. Die richtige Mischung machts. Amd ist sehr gut aufgestellt mit dem Chip gerade im Mittelstands Business und der Preis wird sehr gut sein.
Der Benchmark legt nahe, dass er für INT8 gemacht ist
Reine FP32 Arithmetik, das hatten wir hier aber schon.
Etwas Kontext:
This first version of the benchmark will focus on training performance in 32-bit floating-point arithmetic
https://github.com/baidu-research/DeepBench
Also deep learning mit FP32
Verstehe immer noch nicht, warum das ueberhaupt Thema ist. Auch bei Heise. Offenbar war niemand live dabei, denn es wurde mehrfach ausdruecklich gesagt, dass es rein darum geht, die Software ueberhaupt ausfuehren zu koennen und die Messwerte rein gar nichts zu bedeuten haben. Wenn das derjenige schon sagt der selbst deutlich vorne liegt, sollte einem doch alles klar sein :rolleyes:
scully1234
2017-05-20, 14:14:21
Der dann Mal Schlappe 7000 Euro kostet. .
Was willst du mit dem Preis jetzt ausdrücken?
Das es bisher keine Konkurrenz gab , da dürftest du wohl recht haben
Das Nvidia keinen Spielraum mehr hätte für neue Kalkulation ,da dürftest du aufgrund des langen Produktionszeitraumes von P100 wohl falsch liegen
Und wie gesagt Vega wird mit den Spezifikationen der Frontier auch kein Aldi Produkt für 5 Cent,will man die Entwicklungskosten wieder einspielen.
Und die müssen erst einmal rein kommen, bei P100 ist der Punkt gewiss nicht mehr so dramatisch
Troyan
2017-05-20, 14:27:00
Reine FP32 Arithmetik, das hatten wir hier aber schon.
Verstehe immer noch nicht, warum das ueberhaupt Thema ist. Auch bei Heise. Offenbar war niemand live dabei, denn es wurde mehrfach ausdruecklich gesagt, dass es rein darum geht, die Software ueberhaupt ausfuehren zu koennen und die Messwerte rein gar nichts zu bedeuten haben. Wenn das derjenige schon sagt der selbst deutlich vorne liegt, sollte einem doch alles klar sein :rolleyes:
Soso. Es ging also überhaupt nicht um einen Vergleich. Wieso hat man dann die Karten im selben Graphen abgebildet?
Lass mich raten: Bei der Polaris 11 Präsentation ging es auch nicht um eine Perf/W Verbesserung zu Maxwell, sondern einzig, um zu zeigen, dass man 14nmFF Produkte produzieren könnte? :rolleyes:
Heise hat vollkommen reicht. Zum einen besteht die Suite aus 36 Einzeltests. AMD hat jedoch nur 5 Stück herausgezogen. Wobei in zwei der fünf die Vega Karte deutlich schneller ist und somit das Endergebnis zu gunsten von AMD ausgeht.
Dabei ist problematisch, dass in den veröffentlichen Werten von Baidu die Titan Pascal-Karte in genau diesen zwei Einzeltest doppelt so schnell als die P100 Karte ist.
Zum einen besteht die Suite aus 36 Einzeltests. AMD hat jedoch nur 5 Stück herausgezogen.
Weil vielleicht 30 andere ueberhaupt nicht laufen :rolleyes:
Darueber gibt es eh nichts weiter zu diskutieren, wenn man es nicht versteht ist es halt so.
Screemer
2017-05-20, 16:46:55
mich würde eine in depth analyse der von gipsel erwähnten bandbreitenoptimierungen interessieren und weitere diskussionen zu hbcc. ach nein das wäre ja themenbezogen.
Kriton
2017-05-20, 17:54:51
Was willst du mit dem Preis jetzt ausdrücken?
Das es bisher keine Konkurrenz gab , da dürftest du wohl recht haben
Das Nvidia keinen Spielraum mehr hätte für neue Kalkulation ,da dürftest du aufgrund des langen Produktionszeitraumes von P100 wohl falsch liegen
Und wie gesagt Vega wird mit den Spezifikationen der Frontier auch kein Aldi Produkt für 5 Cent,will man die Entwicklungskosten wieder einspielen.
Und die müssen erst einmal rein kommen, bei P100 ist der Punkt gewiss nicht mehr so dramatisch
Dass Du einen Porsche mit einem Golf vergleichst um dann zu behaupten alle würden Porsche kaufen, weil der ja schneller wäre...:rolleyes:
Selektion in der Präsentation ist nicht "Klappe aufreissen".
mich würde viel mehr eine in depth analyse der von gipsel erwähnten bandbreitenoptimierungen interessieren und weitere diskussionen zu hbcc. ach nein, dass wäre ja themenbezogen.
:up:
Kriton
2017-05-20, 20:31:22
Interessant wird IMHO auch die Frage (hatte IIRC auch schon jemand erwähnt), ob sich beide Hersteller in unterschiedlichen Nischen ausbreiten.
Nvidia mit ihren Tensorcores (und ggf. generell höhere Rechenleistung) und AMD mit HBCC (speichersensitive Bereiche).
horn 12
2017-05-20, 20:39:03
AMD versucht wohl mit einer Vega Nano die GTX 1070 ausser Gefecht zu setzen,
mit einer Vega RX zwischen GTX 1080 und 1080TI zu landen
und mit der Top Karte RX Vega 16GB der GTX 1080TI die Rücklichter zu zeigen.
Preislich dürfte wohl 379 Euro, sprich 479 und 649 bis 699 Euro realistisch werden.
ALLES Meine Reine Spekulation!!
Könnte aber hinkommen...
Hasenpfote
2017-05-20, 21:42:42
Preislich dürfte wohl 379 Euro, sprich 479 und 649 bis 699 Euro realistisch werden.Bei 379Euro sollte aber Samsung und Hynix genug Speicher produziert haben. Das wäre dann meine Karte :-)
Der_Korken
2017-05-20, 22:13:07
AMD versucht wohl mit einer Vega Nano die GTX 1070 ausser Gefecht zu setzen,
mit einer Vega RX zwischen GTX 1080 und 1080TI zu landen
und mit der Top Karte RX Vega 16GB der GTX 1080TI die Rücklichter zu zeigen.
Preislich dürfte wohl 379 Euro, sprich 479 und 649 bis 699 Euro realistisch werden.
ALLES Meine Reine Spekulation!!
Könnte aber hinkommen...
Die Spannweite erscheint mir zu hoch. Sagen wir mal das RX Topmodell hat 64CUs, 1600Mhz Boost und 8GB@2Ghz. Dann käme eine Nano vielleicht auf 56CUs, 1400Mhz Boost und 8GB@1,6Ghz. Das Topmodell wäre dann in der Praxis vielleicht 25% schneller, was ungefähr der Differenz zwischen GTX1070 und 1080 entspricht. Wenn eine Nano also nur auf 1070-Niveau ist, wäre das Topmodell auf 1080-Niveau und somit von einer 1080Ti weit entfernt. Andersrum wäre die Nano locker auf 1080-Niveau (und somit deutlich teurer als 379€), wenn das Topmodell die Ti knackt. 16GB machen den Chip nicht schneller (außer da, wo der VRAM voll ist, aber dann ist es eh unspielbar) und werden aus Kostengründen wahrscheinlich gar nicht für Consumer kommen.
TerrorZivi
2017-05-20, 22:23:34
Wenn ich ordentliche Miningrechenleistung auf Höhe der 1080 für unter 400€ bekomme, fliegen die 6 480er raus und werden direkt am Releasetag durch Vega ersetzt. Und bei dem Wahnsinn der gerade auf dem Cryptomarkt läuft wird der Gamer dann auf Monate keine Vega in den Shops sehen...
Langlay
2017-05-20, 23:27:24
Dann käme eine Nano vielleicht auf 56CUs, 1400Mhz Boost und 8GB@1,6Ghz.
Das denke ich nicht. Ich denke die Nano wird wieder der Vollausbau sein. 56CUs 1400MHz wird ungefähr genauso schnell sein wie 64CUs und 1300MHz und letzteres würde weniger Strom verbrauchen.
Tamagothi
2017-05-21, 00:07:23
Falls es einen Nano geben sollte wird die einen festen TDP wert haben und darf so hoch Boosten bis das TDP Limit erreicht ist. Es wird mit Sicherheit keinen festen (maximalen) Takt geben.
davidzo
2017-05-21, 16:28:56
Die Spannweite erscheint mir zu hoch. Sagen wir mal das RX Topmodell hat 64CUs, 1600Mhz Boost und 8GB@2Ghz. Dann käme eine Nano vielleicht auf 56CUs, 1400Mhz Boost und 8GB@1,6Ghz. Das Topmodell wäre dann in der Praxis vielleicht 25% schneller, was ungefähr der Differenz zwischen GTX1070 und 1080 entspricht. Wenn eine Nano also nur auf 1070-Niveau ist, wäre das Topmodell auf 1080-Niveau und somit von einer 1080Ti weit entfernt. Andersrum wäre die Nano locker auf 1080-Niveau (und somit deutlich teurer als 379€), wenn das Topmodell die Ti knackt. 16GB machen den Chip nicht schneller (außer da, wo der VRAM voll ist, aber dann ist es eh unspielbar) und werden aus Kostengründen wahrscheinlich gar nicht für Consumer kommen.
Um mit der 1080TI zu konkurrieren muss man nicht unbedingt dieselbe Leistung erreichen. Klar, das ist naheliegend und am überzeugendsten, aber man kann sich andere Premium-Merkmale überlegen um sich im Markt als Highe-End Konkurrent zu positionieren.
Z.B. der Speicherausbau von 16GB vs 11GB, eine geringere Baugröße oder mal wieder eine standardmäßige Wasserkühlung, diesmal aber mit einer leisen Pumpe. Auch großzügige Spieledreingaben, Controlpanels oder andere Gadgets und nicht zuletzt ein leicht geringerer Preis (ohne in eine andere Klasse zu fallen) können eine etwas langsamere Highend-Lösung am Markt konkurrenzfähiger machen.
Der_Korken
2017-05-21, 16:44:36
Das denke ich nicht. Ich denke die Nano wird wieder der Vollausbau sein. 56CUs 1400MHz wird ungefähr genauso schnell sein wie 64CUs und 1300MHz und letzteres würde weniger Strom verbrauchen.
Ich fürchte, dass eine 64CU-Nano zu einem sehr teurem Nischenprodukt verkommen wird. AMD wird die vollen Chips eher für das Topmodell und den Profimarkt nehmen, wo man deutlich höhere Margen hat. Irgendwo müssen die teilkaputten Chips schließlich hin und bei knapp 500mm² Die Size wird es sicherlich ordentlich Ausschuss geben (GP102 gab es auch lange Zeit gar nicht voll zu kaufen außer die Profimodelle). Eventuell belässt es AMD bei zwei Modellen: Eine Volldampf-Version mit Wakü und einen Salvage-Chip mit niedrigem Powertarget und kleinem PCB.
Um mit der 1080TI zu konkurrieren muss man nicht unbedingt dieselbe Leistung erreichen. Klar, das ist naheliegend und am überzeugendsten, aber man kann sich andere Premium-Merkmale überlegen um sich im Markt als Highe-End Konkurrent zu positionieren.
Z.B. der Speicherausbau von 16GB vs 11GB, eine geringere Baugröße oder mal wieder eine standardmäßige Wasserkühlung, diesmal aber mit einer leisen Pumpe. Auch großzügige Spieledreingaben, Controlpanels oder andere Gadgets und nicht zuletzt ein leicht geringerer Preis (ohne in eine andere Klasse zu fallen) können eine etwas langsamere Highend-Lösung am Markt konkurrenzfähiger machen.
Mir ist so, als würde sich AMD mit 16GB HBM2 als "Premium-Merkmal" selbst ins Knie schießen, weil die Herstellungskosten stärker ansteigen als man Aufpreis auf 8GB verlangen könnte. Wenn der HBCC so gut funktioniert wie spekuliert, wird AMD das auch ausnutzen, um ordentlich die Herstellungskosten zu drücken. Bei 8GB HBM2 vs 11GB GDDR5X und ~490mm² vs 471mm² wäre man ganz gut dabei.
davidzo
2017-05-21, 16:59:51
Mir ist so, als würde sich AMD mit 16GB HBM2 als "Premium-Merkmal" selbst ins Knie schießen, weil die Herstellungskosten stärker ansteigen als man Aufpreis auf 8GB verlangen könnte. Wenn der HBCC so gut funktioniert wie spekuliert, wird AMD das auch ausnutzen, um ordentlich die Herstellungskosten zu drücken. Bei 8GB HBM2 vs 11GB GDDR5X und ~490mm² vs 471mm² wäre man ganz gut dabei.
Ja, wenn die Ingenieure die Produkt-SKU-Entscheidungen fällen dürfen kommt das vielleicht auch so. Leider ist bei Produkt-Management-Entscheidungen immer auch eine große Portion Marketing mit dabei und nach dem Fiji-Desaster wo die Ingenieure technisch bedingt nicht mehr liefern konnten als 4GB VRAM und das Produkt-Management parallel an 8GB 390x karten gebastelt hat, würde ich leider nicht mehr erwarten dass sich erstere durchsetzen werden.
Andererseits hat man an Fiji gesehen, dass AMD eher auf die Marge verzichtet oder noch ein wenig draufzahlt anstatt dass man nivida kampflos ein ganzes Marktsegment überlässt. Wenn nichts anderes hilft ist man also vielleicht doch gezwungen wieder ein Modell mit 16GB, 300Watt und Wakü zu bauen...
Der_Korken
2017-05-21, 17:08:38
Ja, wenn die Ingenieure die Produkt-SKU-Entscheidungen fällen dürfen kommt das vielleicht auch so. Leider ist bei Produkt-Management-Entscheidungen immer auch eine große Portion Marketing mit dabei und nach dem Fiji-Desaster wo die Ingenieure technisch bedingt nicht mehr liefern konnten als 4GB VRAM und das Produkt-Management parallel an 8GB 390x karten gebastelt hat, würde ich leider nicht mehr erwarten dass sich erstere durchsetzen werden.
Dann sollten sich die Marketing-Leute vielleicht mal was einfallen lassen, wie man das neue Speichersystem ("dank neuester HBM-Technologie ist unser Speicher doppelt so ergiebig wie der von der Konkurrenz") und die hohe Bandbreite von HBM2 (512GB/s vs 480GB/s) den Leuten schmackhaft verkaufen kann. Wenn eine Firma nicht die Produkte baut, die konkurrenzfähig und margenträchtig sind sondern die, die das Marketing gerne hätte, dann ist das auf Dauer einfach nicht gesund. Das große "Wenn" bleibt natürlich immer, dass 8GB auch tatsächlich reichen.
vinacis_vivids
2017-05-21, 20:54:15
2GB für Tomb Raider + Deus Ex unter UHD sind sein guter Anfang.
Außerdem wird Vega auch 512GB/s anbieten...
dargo
2017-05-21, 21:45:28
Hmmmm ...
Frontier mit ~1.550/940 MHz und RX Vega "X" mit 1.600/1.000 MHz dank Fluidkühlung und zwischenzeitlich besserer HBM-Liefersituation?
MfG,
Raff
3% mehr GPU-Takt entscheiden zwischen Luft-/ und Wasserkühlung? :freak:
AffenJack
2017-05-21, 21:58:14
3% mehr GPU-Takt entscheiden zwischen Luft-/ und Wasserkühlung? :freak:
Bei Fury waren es 5% solltest du nicht vergessen. Wahrscheinlich kriegste das auch da, aber ob nun 50 oder 75mhz Unterschied ist nun auch völlig egal. Die Leute die hier schon von 1700/1800 mhz (ohne OC) träumen werden eher von der Realität eingeholt.
Es gibt auch verschiedene Folien einmal mit 13Tflops FP32, 26 Tflops FP16 sowie 13 und 25 Tflops. Kann alles nur Copy und Paste von früheren Folien sein, aber kann genauso auch einfach der Unterschied zwischen der Wasser Frontier Edition und der Luft FE sein. Da würden Raffs Werte sogar passen:-)
Bei Luft 1550mhz -> 12,7 tflops 25,4 Tflops Wasser 1600mhz ->13,1 Tflops ,26 Tflops.
Eldoran
2017-05-21, 22:26:57
Wie viel VRAM über die gesamte Nutzungsdauer notwendig/sinnvoll ist, ist schwer zu beurteilen. Vor allem kommt hier noch hinzu dass sich unsere bisherigen Erfahrungen sich auf ein völlig anderes Gesamtsystem beziehen. Klar ist, dass das VRAM zumindest so groß sein sollte, dass der gesamte Framebuffer und die im jeweiligen Frame tatsächlich genutzten Daten Platz finden. Vermutlich würden unter diesen Gesichtspunkten in fast allen Fällen 4GB ausreichend (http://www.tweaktown.com/tweakipedia/90/much-vram-need-1080p-1440p-4k-aa-enabled/index.html) sein. Klar ist andererseits aber auch, dass bei herkömmlichen GPUs 4GB mittlerweile nicht in jedem Fall ausreichend sind, wie diverse Benchmarks mit der Fury X zeigen. Im professional Bereich dürfe das anders sein, aber das wird für die meisten hier im Forum nicht der primäre Einsatzzweck sein und bei den Pro Modellen sollte man auch mit 16GB fündig werden, angefangen mit der FE. Ich würde daher eher von 4-8GB für Gaming Karten ausgehen. Vielleicht noch 16GB für ein Premium Modell - dem AMA nach dürfte das aber nicht für Consumer Standardmodelle vorgesehen sein. Es ist ja auch eine Preisfrage.
Fetza
2017-05-22, 12:42:41
Ist es eigentlich jetzt sehr wahrscheinlich das Vega für Spieler erst im August erscheint?
horn 12
2017-05-22, 12:46:00
Denke Zweite bis dritte Woche im Juli kommen die ersten Karten in den Handel
Sind von der Computex dann ganze 6 bis 7 Wochen bis zum Hardlaunch :-)
Eldoran
2017-05-22, 12:57:43
Denke Zweite bis dritte Woche im Juli kommen die ersten Karten in den Handel
Sind von der Computex dann ganze 6 bis 7 Wochen bis zum Hardlaunch :-)
Klingt plausibel - technisch gesehen sind bis nur wenige Punkte fix:
Launch FE: Ende Juni
RX: später als FE im Handel
Preview/Paperlaunch gibt es auf der Computex (30.Mai)
Allerdings wäre es wegen Volta ungünstig Oktober+ anzupeilen, daher liegt Juli/August nahe.
masked__rider
2017-05-22, 12:58:40
Ich denke im Juli wird sich das nur schwer ausgehen. Lasse mich gerne eines Besseren belehren, aber auch ich tendiere zu August, breite Verfügbarkeit dann im Laufe des Septembers..
horn 12
2017-05-22, 13:12:27
https://www.hartware.de/wp-content/uploads/2017/05/AMD-Vega-in-AMD-Lab.jpg
Klevapalis
2017-05-22, 13:19:47
Der Hypetrain muss natürlich wieder mal Vollgas geben :rolleyes:
Das Release der FE-Variante im Juni ist nur dann sinnvoll, wenn die restlichen Karten im Q3 erscheinen. Denn dann hätte man die vollmundige Ankündigung, Vega ab H2 auszuliefern, irgendwie ja doch eingehalten.
Ansonsten gab es noch nie einen Launch bei AMD, bei dem man die professionellen Karte vor den Gamingkarten gezeigt hätte.
So ergibt auch die News mit den 16.000 Karten Sinn - für die FE wäre das ein durchaus sinnvolles Kontingent.
https://www.hartware.de/wp-content/uploads/2017/05/AMD-Vega-in-AMD-Lab.jpg
Volllast oder Leerlauf? Egal, das ist sehr sparsam. :uup: ;)
MfG,
Raff
Klevapalis
2017-05-22, 13:26:35
Volllast oder Leerlauf? Egal, das ist sehr sparsam. :uup: ;)
Immerhin die LEDs an der Karte sind sparsam... :freak:;D
uweskw
2017-05-22, 13:29:05
@raff
warum sollte so ein Lüfter mehr brauchen?:smile:
Greetz
US
vinacis_vivids
2017-05-22, 13:39:41
https://www.hartware.de/wp-content/uploads/2017/05/AMD-Vega-in-AMD-Lab.jpg
Die Blaue ist wohl Vega FE 16GB und die rechte ist dann Gaming Vega mit 8GB?
grauenvoll
2017-05-22, 13:46:58
Die Blaue ist wohl Vega FE 16GB
... mit 20mA Stromaufnahme unter Volllast!! ;D
Da kann Volta einpacken und die nVidia Fanboys Schnappatmung!
Gerücht: Die 8-poligen Stecker sind Fake und in Wahrheit ohne Funktion. Es reicht ein 2-poliger mit Klingeldraht.
Screemer
2017-05-22, 13:48:07
Die Blaue ist wohl Vega FE 16GB und die rechte ist dann Gaming Vega mit 8GB?
das linke ist definitiv keine karte, sondern nur ein lüfter-shroud. fällt dir nicht mal auf das da keine peg-buchsen zu sehen sind?
=Floi=
2017-05-22, 13:53:11
warum setzt amd auf intel prozessoren?
Screemer
2017-05-22, 13:56:16
ach komm. da ist bei irgendeinem partner ein pc an ner teststation. wirklich sehr verwunderlich...
Blediator16
2017-05-22, 14:10:07
warum setzt amd auf intel prozessoren?
Weil das Labor sicherlich vor Jahren die Teile gekauft hat und da waren eben nur Intels im Angebot. AMD wird sicher keine Mitarbeiter abstellen um zig PCs zusammen zu bauen:freak:
PrivateCeralion
2017-05-22, 14:29:46
warum setzt amd auf intel prozessoren?
Hab mich auch gefragt. Hier ist Chris Hooks Antwort: https://twitter.com/Ceralion1/status/865351441225052160
BoMbY
2017-05-22, 14:34:03
Die Blaue ist wohl Vega FE 16GB und die rechte ist dann Gaming Vega mit 8GB?
Möglich. Hat große Ähnlichkeiten mit einer Fury X, scheint aber nicht ganz zu passen. Hier die Rückseite der Fury X zum Vergleich:
http://i.imgur.com/vwHi1oil.jpg (http://i.imgur.com/vwHi1oi.jpg)
Für mich sieht das Layout jedenfalls leicht anders aus im Moment, wobei der Ausschnitt und Winkel wirklich nicht optimal sind.
Complicated
2017-05-22, 14:34:15
Ja den Launch würde ich gerne sehen wo weder die Hardware noch die Treiber mit Intel CPU getestet wurden - was für eine Frage.
BoMbY
2017-05-22, 18:01:36
Angeblich hat Lisa gerade bei der "J.P. Morgan Technology, Media & Telecom Conference" gesagt, dass RX Vega "a couple of month" nach Vega FE kommt ...
Paßt doch, im Sommer spielt eh kaum jemand Computerspiele.
Complicated
2017-05-22, 18:41:42
Ende August ist eigentlich der beste Zeitpunkt für einen GPU-Launch. Dort kann das Marketing seine ganze Dynamik aufbauen. Volta wird noch nicht so weit sein zu diesem Zeitpunkt und bis dahin werden die Profi-/Serverprodukte die Presse beherrschen. Naples, Threadripper und Vega Instinct.
Digidi
2017-05-22, 18:44:31
Angeblich hat Lisa gerade bei der "J.P. Morgan Technology, Media & Telecom Conference" gesagt, dass RX Vega "a couple of month" nach Vega FE kommt ...
So ein Blödsinn so was darf man aus Finanzrechtlichen Gründen nicht in einer Telco Bringen.....
Complicated
2017-05-22, 18:45:27
Du denkst eine "Technology, Media & Telecom Conference" sei eine Telefonkonferenz?
https://www.jpmorgan.com/country/US/EN/jpmorgan/investbk/conferences/tmt
This conference offers a premier opportunity to hear from established industry leaders and emerging growth companies. This year we expect more than 200 companies to host fire-side chats and conduct one-on-one meetings with more than 4,000 participants.
Digidi
2017-05-22, 18:47:07
Du denkst eine "Technology, Media & Telecom Conference" sei eine Telefonkonferenz?
Nein es ging mir darum das nur Jp informiert wurde. Das wäre Insider Handel. So was muss bei allen Aktionären vorher angemeldet werden.
Screemer
2017-05-22, 18:47:57
https://www.jpmorgan.com/country/US/EN/jpmorgan/investbk/conferences/tmt
Das ist sowas wie der FAD nur mit dutzenden von Firmen und hunderten von Teilnehmern.
Digidi
2017-05-22, 18:49:50
https://www.jpmorgan.com/country/US/EN/jpmorgan/investbk/conferences/tmt
Das ist sowas wie der FAD nur mit dutzenden von Firmen und hunderten von Teilnehmern.
Schön aber auch dann müssen die Aktionäre darüber informiert werden, bei so wichtigen Zahlen!
https://de.m.wikipedia.org/wiki/Ad-hoc-Publizität
Complicated
2017-05-22, 18:50:27
Nein es ging mir darum das nur Jp informiert wurde. Das wäre Insider Handel. So was muss bei allen Aktionären vorher angemeldet werden.
Du denkst wenn JP Morgan eine Konferenz hostet, wo 200 Unternehmen daran teilnehmen, dass nur sie informiert werden? Die Konferenzen sind für die (Groß)Investoren die dort informiert werden - nicht JPM. JPM ist die Bank der Investoren. Zumal das keine wichtige Zahl ist. Es ist gar keine Zahl und auch kein konkreter Termin. August steht im Raum und das passt ja auch mit dem was Lisa sagt.
Digidi
2017-05-22, 18:52:38
Du denkst wenn JP Morgan eine Konferenz hostet, wo 200 Unternehmen daran teilnehmen, dass nur sie informiert werden? Die Konferenzen sind für die (Groß)Investoren die dort informiert werden - nicht JPM. JPM ist die Bank der Investoren. Zumal das keine wichtige Zahl ist. Es ist gar keine Zahl und auch kein konkreter Termin.
Dann wüssten es aber auch schon die Medien und es gebe eine Ad-hoc Meldung
https://de.m.wikipedia.org/wiki/Ad-hoc-Publizität
Complicated
2017-05-22, 18:55:55
Wofür - es gibt noch keinen Termin. Der wird am 31.05 auf dem Presseevent der Computex angekündigt. Dafür braucht es keine Ad-hoc Meldung weil das schon längst kommuniziert wurde im FAD. Und die Medien schreiben darüber seit dem.
Koduri didn’t reveal specifics, but AMD’s holding a press event on May 31 at 10 a.m. Taipei time, which translates to 10 p.m. Eastern/7 p.m. Pacific. Don’t expect a hard launch though. “We’ll be showing Radeon RX Vega off at Computex, but it won’t be on store shelves that week,” Koduri wrote.
Zumal die Nasdaq sich wohl kaum an das WpHG halten muss.
Digidi
2017-05-22, 19:01:06
Wofür - es gibt noch keinen Termin. Der wird am 31.05 auf dem Presseevent der Computex angekündigt. Dafür braucht es keine Ad-hoc Meldung weil das schon längst kommuniziert wurde im FAD. Und die Medien schreiben darüber seit dem.
Zumal die Nasdaq sich wohl kaum an das WpHG halten muss.
Es bezog sich auf couple of month. Das hört sich nicht so an als ob es gleich kommt oder kurz danach kommt, sondern das es erhebliche Verspätung gibt. So etwas ist unverzüglich zu melden.
In den USA ist es sogar noch schlimmer
Complicated
2017-05-22, 19:07:58
Was denn melden? "couple of month" ist doch kein Zeitpunkt oder Termin. Am 31.05 wird die GPU vorgestellt, was willst du denn noch?
Und was denn bitte für eine Verspätung? Vega kommt in Q2 Ende Juni auf den Markt in Form der Frontier Edition wie angekündigt. Da gibt es keine Verspätung bezogen auf AMDs Ankündigungen aus den letzten 12 Monaten. So etwas wie eine "Gamer-GPU" existiert nicht im Börsenrecht. Die Frontier Edition wird mit Profi und Radeon Treibern laufen. Es ist die zum Q2 angekündigte Vega-Karte für Enthusiasten.
Was denn melden? "couple of month" ist doch kein Zeitpunkt oder Termin. Am 31.05 wird die GPU vorgestellt, was willst du denn noch?
Und was denn bitte für eine Verspätung? Vega kommt in Q2 Ende Juni auf den Markt in Form der Frontier Edition wie angekündigt. Da gibt es keine Verspätung bezogen auf AMDs Ankündigungen aus den letzten 12 Monaten. So etwas wie eine "Gamer-GPU" existiert nicht im Börsenrecht. Die Frontier Edition wird mit Profi und Radeon Treibern laufen. Es ist die zum Q2 angekündigte Vega-Karte für Enthusiasten.
Man muss nicht immer nur "dagegen" sein, man kann auch auf die sachlichen Argumente eingehen.
Loeschzwerg
2017-05-22, 19:42:38
Die Blaue ist wohl Vega FE 16GB und die rechte ist dann Gaming Vega mit 8GB?
Eher das bekannte Prototyp Board ;)
http://www.pcgameshardware.de/screenshots/original/2017/02/AMD-Vega-1-pcgh_b2article_artwork.jpg
Screemer
2017-05-22, 19:47:19
Inkl. verbogener Pins :)
Brillus
2017-05-22, 20:13:04
Du denkst wenn JP Morgan eine Konferenz hostet, wo 200 Unternehmen daran teilnehmen, dass nur sie informiert werden? Die Konferenzen sind für die (Groß)Investoren die dort informiert werden - nicht JPM. JPM ist die Bank der Investoren. Zumal das keine wichtige Zahl ist. Es ist gar keine Zahl und auch kein konkreter Termin. August steht im Raum und das passt ja auch mit dem was Lisa sagt.
Solche Sachen müssen ALLEN Aktionären mitgeteilt werden, nicht nur Großinvestoren.
Achill
2017-05-22, 20:49:24
Solche Sachen müssen ALLEN Aktionären mitgeteilt werden, nicht nur Großinvestoren.
Sehe ich aus so, das hätte man auch schon zur FAD (Financial Analyst Day) gewusst und dort mitteilen müssen.
Ich sage mal, einfach ruhig bleiben und noch etwas warten. Wer es nicht kann, der muss halt bei der Konkurrenz kaufen - müssen wir nicht weiter diskutieren.
Linmoum
2017-05-22, 21:04:40
Solche Diskussionen bringen ohne den genauen Wortlaut sowieso erstmal nichts.
Die einen reden davon, dass das auf die Frontier Edition bezogen war, andere behaupten das Gegenteil.
Sorry to disappoint, but that's not what she said. Her words, "And, so we will be launching Vega across all of the market segments over the next couple of months." She also mentioned when referring to the launch of EPYC in June, "and Vega GPUs also in a similar timeframe."
https://www.reddit.com/r/Amd/comments/6co1rn/rx_vega_to_be_launched_a_couple_months_after_vega/dhw55yk/?context=3
Entweder auf irgendein Transcript warten wenn man es genau wissen will oder die Computex nächste Woche mitnehmen, wo Consumer-Vega Thema sein wird.
Edit: Hier noch was
The webcast recording is up. Here's what Su said -
"Frontier Edition will ship with 16GB of HBM2 towards the latter half of June. You will see the enthusiast gaming platform, the machine learning platform and the processional graphics platform very soon thereafter. And so, we will be launching Vega across all the market segments over the next couple of months. "
Looks like op heard wrong.
https://www.reddit.com/r/Amd/comments/6co1rn/rx_vega_to_be_launched_a_couple_months_after_vega/dhwbq7n/?context=3
TheGood
2017-05-22, 21:14:15
Bekommt glecih einen ganz anderen Anstrich :)
ES ist trotzdem komisch, dass sie aus dem nichts eine Frontier Edition zaubern die weder in den profi markt noch in den gamermarkt gehört. Ggf. wollen sie wirklich nur Entwickler damit erreichen.
Oder sie haben 16000 Chips falsch produziert und vermarkten Sie jetzt noch irgendwie.... :D
Linmoum
2017-05-22, 21:16:34
The webcast recording is up. Here's what Su said -
"Frontier Edition will ship with 16GB of HBM2 towards the latter half of June. You will see the enthusiast gaming platform, the machine learning platform and the processional graphics platform very soon thereafter. And so, we will be launching Vega across all the market segments over the next couple of months. "
Looks like op heard wrong.
https://www.reddit.com/r/Amd/comments/6co1rn/rx_vega_to_be_launched_a_couple_months_after_vega/dhwbq7n/?context=3
Das hat sie exakt so gesagt, der "couple months after FE" Quark kann also getrost wieder vergessen werden. Reddit...
Audio dazu, damit ihr euch selbst überzeugen könnt. ;)
https://streamable.com/9p5fo
BoMbY
2017-05-22, 21:18:01
Der Ausschnitt der Konferenz ist verfügbar: https://streamable.com/9p5fo
Das was manche behauptet haben ist falsch.
Das ganze Zitat, via Reddit (https://www.reddit.com/r/Amd/comments/6cpb3g/rx_vega_to_be_released_shortly_after_vega_fe_not/):
Frontier Edition will ship with 16GB of HBM2 towards the latter half of June. You will see the enthusiast gaming platform, the machine learning platform and the processional graphics platform very soon thereafter. And so, we will be launching Vega across all the market segments over the next couple of months.
Achill
2017-05-22, 21:27:40
Der Launch klingt also äquivalent zu Ryzen. Erst die dicken Schiffe, später die kleineren Sachen und die Bemerkung bzgl. "next couple of months" passt ja auch, wenn wir an VEGA in APUs denken / Su diese hier einbezieht.
Klevapalis
2017-05-22, 21:28:55
Und was denn bitte für eine Verspätung? Vega kommt in Q2 Ende Juni auf den Markt in Form der Frontier Edition wie angekündigt. Da gibt es keine Verspätung bezogen auf AMDs Ankündigungen aus den letzten 12 Monaten. So etwas wie eine "Gamer-GPU" existiert nicht im Börsenrecht. Die Frontier Edition wird mit Profi und Radeon Treibern laufen. Es ist die zum Q2 angekündigte Vega-Karte für Enthusiasten.
Wie das verstanden wird ist aber immer identisch:
Die Computex ist eigentlich der jährliche APU-Launch Termin. Ich denke Vega wird im Q2 erscheinen um den Zen-APUS das Q3 zu überlassen.
Über die 16.000 Karten zum Vega-Launch wurde gelacht. Nun, mit der Foo...sorry, Frontier Edition! ... macht das plötzlich extrem Sinn.
Consumerkarten erst im Q3. Das ist damit klar.
StefanV
2017-05-22, 21:44:42
ES ist trotzdem komisch, dass sie aus dem nichts eine Frontier Edition zaubern die weder in den profi markt noch in den gamermarkt gehört
Du meinst also sowas wie 'ne nVidia Titan?
Iruwen
2017-05-22, 21:45:37
Die wurde aber nicht plötzlich aus dem Hut gezogen.
Complicated
2017-05-22, 21:55:21
Man muss nicht immer nur "dagegen" sein, man kann auch auf die sachlichen Argumente eingehen.Wogegen? Gegen falsche Interpretationen? Und wieso soll das von mir unsachlich gewesen sein?
Solche Sachen müssen ALLEN Aktionären mitgeteilt werden, nicht nur Großinvestoren.
Sehe ich aus so, das hätte man auch schon zur FAD (Financial Analyst Day) gewusst und dort mitteilen müssen.
Siehe
Dafür braucht es keine Ad-hoc Meldung weil das schon längst kommuniziert wurde im FAD. Und die Medien schreiben darüber seit dem.
FAD Liveticker bei PCGH:
http://www.pcgameshardware.de/Vega-Codename-265481/News/AMD-Financial-Analyst-Day-2017-Raven-Ridge-Zen-2-Live-Ticker-1227984/
Mehr Informationen soll es zur Computex Ende Mai geben.
Das ist doch alles genau so geschehen. Und danke für die vollständigen Quellen der Aussagen von Lisa.
Aus dem Transscript der Konferenz:
Our goal is to be aggressive with 7-nanometer technology. We will be doing tape-outs later this year.
7nm Tapeout noch dieses Jahr.
Hier das vollständige Zitat aus dem Transscript, welches Bomby schon gepostet hat
Yes, so we’re very excited about Vega. Vega is a brand new architecture and actually has really the world’s most advanced memory architecture for CPUs. What we did announce at our Analyst Day is that the first shipping Vega will be the frontier editions, which will ship with 16 gigabytes of memory and it will ship towards the latter half of June. You will see the enthusiast gaming platform, the machine learning platform, the professional graphics platform very soon thereafter. And so we will be launching Vega across all of the market segments over the next couple of months.
vinacis_vivids
2017-05-22, 22:05:40
Der Launch klingt also äquivalent zu Ryzen. Erst die dicken Schiffe, später die kleineren Sachen und die Bemerkung bzgl. "next couple of months" passt ja auch, wenn wir an VEGA in APUs denken / Su diese hier einbezieht.
Der Zen-Core wurde zuerst fürs Desktop gelauncht und später erst für Server (die dicken cpu's).
Vega-Core gibs zuerst nur für Developer und später fürs Desktop. Andersherum wäre möglich gewesen, aber das liegt sicher nicht an AMD.
TheGood
2017-05-22, 22:31:30
Du meinst also sowas wie 'ne nVidia Titan?
Keine Ahnung, da ich bisher nicht weis für was diese KArte denn stehen soll.
Fuer mich sieht das eher nach Testlauf aus bzw. als Entwicklerkarte. Nur so kriegen sie auch von den Engineentwicklern Support und kriegen Ihre Sicht der Dinge in der Programmierung von Grafikengines und professionellen Engines in den Markt. Das dauert natürlich Jahre.
Eine Titan macht keinen Sinn, weil ja schon gesagt wurde dass die RX VEGA für spiele (deutlich) besser ist. Vor allem vor dem Hintergrund dass Sie dann in weniger als 3 Monaten abgelöst wird. Ne ne das macht keinen Sinn.
Edit: Nichts destotrotz sehen wir wahrscheinlich schon erste Tests der VEGA Frontier Edition, welche uns auch schon zeigen auf welcher Performance der Chip im Gaming Bereich rauskommen wird. Das ist doch das Spannende! Keine 4 Wochen mehr und endlich gibt's Klarheit.
Eldoran
2017-05-22, 22:45:18
Und in gut einer Woche sollen ja die nächsten Details veröffentlicht werden.
Achill
2017-05-22, 22:57:34
Der Zen-Core wurde zuerst fürs Desktop gelauncht und später erst für Server (die dicken cpu's).
Vega-Core gibs zuerst nur für Developer und später fürs Desktop. Andersherum wäre möglich gewesen, aber das liegt sicher nicht an AMD.
Ich dachte in Richtung der FirePro Server Serie bzw. Radeon Instinct MI25, da sehe ich die Vega FE nicht - ich erwarte hier dann nochmal angepasste Lösungen (z.B. keine Ausgänge) für diese Bereiche.
Kriton
2017-05-22, 23:09:37
Frontier Edition will ship with 16GB of HBM2 towards the latter half of June. You will see the enthusiast gaming platform, the machine learning platform and the processional graphics platform very soon thereafter. And so, we will be launching Vega across all the market segments over the next couple of months.
D.h. doch, dass Vega in den nächsten Monaten (sicher erst sehr spät: im nächsten Jahr) auch Polaris ersetzen wird?!
Was im Umkehrschluss bedeutet Vega=nix mehr GCN :confused:?
Eldoran
2017-05-22, 23:40:34
D.h. doch, dass Vega in den nächsten Monaten (sicher erst sehr spät: im nächsten Jahr) auch Polaris ersetzen wird?!
Das ist derzeit noch eines der großen Mysterien. Wir wissen von Vega 11 - angeblich kleiner als Vega 10 - nur wenn Vega nicht viel leistungsfähiger als gedacht ist, ist damit oberhalb von Polaris nicht so viel Platz für 2x Vega zuzüglich etwaiger Salvage Modelle. Andererseits könne damit auch unter anderem der Vega in Raven Ridge gemeint sein, auch Vega 20 steht da noch als Erklärung zu Verfügung. Ich persönlich tippe eher darauf, dass Vega 11 die größeren Polaris Modelle bedrängt/ersetzt und Raven Ridge die kleinen weitgehend überflüssig macht.
Es wäre irgendwie untypisch für AMD für ein Preissegment, das üblicherweise von einem Chip sowie der Salvage Version besetzt wird, 2 separate Designs aufzulegen. Vor allem wenn man betrachtet, wie sehr Baukastemmäßig das gesamte CPU Portfolio mit Ryzen aufgebaut ist - da wird aus einem einzigen Die quasi das gesamte Sortiment aufgebaut - deutlich weniger wie intel produziert.
Dino-Fossil
2017-05-22, 23:52:50
Ich vermute eher, dass Vega zunächst nur für das high-end kommt.
Später werden sicherlich kleinere Chips auf Vega-IP auch Polaris ersetzen, aber das dürfte frühestens nächstes Jahr passieren.
Polaris wird aber sicherlich zumindest in Form der P11 und P12 Chips noch eine Weile im low-end vertreten bleiben.
Das Raven Ridge genug GPU-Performance bietet um selbst P11 zu ersetzen glaube ich erst wenn ich es sehe - vielleicht zusammen mit HBM, aber das werden wir mit APUs vermutlich erstmal nicht bekommen.
Aber wenn man es so will hätte man auch so Vega in allen Marktsegmenten vertreten, dazu müsste man Polaris noch nicht vollständig ablösen.
Nakai
2017-05-23, 00:05:51
HBM2 ist einfach ein Problem. Naja wenn es so weiter geht sehen wir Raven Ridge vor Vega. RR wird so Oktober rum aufschlagen, wenn man die derzeitige Treiberentwicklung anguckt.
€: Höchstwahrscheinlich hat man Probleme den HBM2 auf die notwendigen Clocks zu jagen. NV hat sich diesbezüglich schon etwas zurückgelehnt, indem man nur HBM2 mit weniger Takt benutzt hat. Man hätte bei V10 auch 4 Stacks verwenden müssen. Der Chip wäre zwar etwas größer geworden, aber man hätte 4 Stacks verwenden können, ergo mehr Vorteil beim Speicher, eine theoretisch höhere Bandbreite. Ein V10 mit so 640GB/s als Gaming-Chip und 16 GB RAM wär schon geil.
Dino-Fossil
2017-05-23, 00:14:58
Ganz so pessimistisch sehe ich es nicht, aber HBM kommt wohl langsamer am Markt an, als erhofft. Der etwas geringere Takt muss dabei kein so großes Problem sein, da ich schätze, dass Vega weniger Bandbreite benötigen wird als vorherige GCN-Generationen.
Aber der Preis dürfte einfach anfangs noch zu hoch liegen, als dass es wirklich eine große Marktdurchdringung erreichen kann.
horn 12
2017-05-23, 00:32:23
Nun, AMD wird schon wissen was sie tun müssen und diese Wochen machen den Braten auch nicht mehr fett. Nicht umsonst haut Nvidia die Volta GPU so schnell hinterher...
Gipsel
2017-05-23, 01:25:32
Was im Umkehrschluss bedeutet Vega=nix mehr GCN :confused:?:confused:
Wo liest Du denn das raus?
:confused:
Wo liest Du denn das raus?
Weil ja gerüchteweise sämtliche GPUs incl. auch Polaris relativ zügig aussortiert/ausgetauscht werden. So habe ich das Statement interpretiert.
Locuza
2017-05-23, 01:47:04
Weil ja gerüchteweise sämtliche GPUs incl. auch Polaris relativ zügig aussortiert/ausgetauscht werden. So habe ich das Statement interpretiert.
Vega gehört weiterhin zur GCN-"Familie".
Wann Polaris ersetzt wird, ist aber eine interessante Angelegenheit.
AMD hat nicht die Ressourcen viele Chips "gleichzeitig" zu entwickeln und alle Produkte zügig zu ersetzten.
Meistens wissen wir durch die Treiber, wann wir einen neuen Chip erwarten können.
Bisher ist nur Vega 10 und Raven-Ridge im Linux-Treiber aufgetaucht und von Vega 11 oder gar anderen Ablegern fehlt jede Spur.
Ich denke nicht das Polaris vor 2018 noch eine Ablösung erhält.
Ravenhearth
2017-05-23, 01:54:26
D.h. doch, dass Vega in den nächsten Monaten (sicher erst sehr spät: im nächsten Jahr) auch Polaris ersetzen wird?!
Nein, mit Marktsegmente meint sie eben die, die sie vorher aufgezählt hat, also Machine Learning, Professional und Gaming. Das heißt aber nicht, dass Vega schon bald das ganze Gaming-Segment abdecken wird.
D.h. doch, dass Vega in den nächsten Monaten auch Polaris ersetzen wird?!
Denke eher, dass es um die verschiedenen Anwendungsgebiete geht, nicht Preisklassen.
Bisher ist nur Vega 10 und Raven-Ridge im Linux-Treiber aufgetaucht und von Vega 11 oder gar anderen Ablegern fehlt jede Spur.
Upstream halt, aber ansonsten war schon vor einer Ewigkeit mal was mit V11 im Treiber:
btw, VEGA 11 taucht jetzt auch im OpenCL Treiber auf, das war vor kurzem noch nicht so
SI: TAHITI
CI/GFX7: MILOS, KRYPTOS, HAWAII, NEVIS, PENNAR, BONAIRE, KABINI
VI/GFX8: ICELAND, TONGA, CARRIZO, BERMUDA, RACERX, FIJI
GFX81: AMUR, STONEY, ELLESMERE, DERECHO
GFX9: GREENLAND, RAVEN1X, VEGA10, VEGA11
Zudem scheint Raven Ridge Vega-IP zu sein
Seither aber nichts mehr gesehen, vielleicht auch eingestampft? BTW: was ist/war denn nun eigentlich Greenland?
Locuza
2017-05-23, 04:36:45
Das stimmt, aber da aktuell keine Linux-Kernel-Einträge zu Vega 11 zu finden sind und wir von anderen möglichen Chips überhaupt nichts wissen, steht eine hypothetische Ablöse unwahrscheinlich direkt vor der Tür.
Greenland war laut geleakten Folien von Fudzilla ein Chip mit 4096 ALUs, 2048-Bit HBM2 mit 512 GB/s und einer FP64-Rate von 1/2.
http://www.fudzilla.com/media/k2/items/cache/7e42c9447e754167c85105ffe1a1d866_XL.jpg
http://www.fudzilla.com/media/k2/items/cache/bdff5e4df5710735d8a1ecdc5dd9efcf_XL.jpg
Praktisch Vega 10 nur mit einer hohen FP64-Rate.
Ich habe lange gedacht, dass Vega 10 nur ein umbenannter Greenland ist, eben wie P10/P11 nur ein neues Etikett für Ellesmere und Baffin dargestellt haben.
Aber die Leaks von VideoCardz und die ganze Produktankündigungen von AMD deuten daraufhin das Vega 10 keine hohe FP64-Rate besitzt und somit auch nicht ein reines Relabel von Greenland darstellen kann.
https://videocardz.com/65521/amd-vega-10-and-vega-20-slides-revealed
Charlie meinte vor langer Zeit das Greenland gestorben sei.
Spekulativ könnte AMD bei Greenland einfach die Konfiguration der CUs geändert haben, um mit Vega 10 fokussierter Marktsegmente anzusprechen und mit Vega 20 einen größeren Aufwand für HPC-Clients betreiben.
Alle bisher geleakten Folien sind sehr wahrscheinlich echt, die von Fudzilla haben sich alle im Nachhinein als korrekt erwiesen, lange bevor wir offizielle Bestätigungen über grundlegende Sachen bekommen haben und die Slides von VideoCardz erwähnen HW-Page-Management-Support und xGMI, auch zwei Dinge die sich zuvor niemand einfach so hätte ausdenken können.
Aber bei Vega 20 gibt es seitdem FAD17 Unstimmigkeiten, AMD weist für Vega nur 14nm und 14nm+ aus, 7nm sollen erst ab Navi Verwendung finden.
http://www.pcgameshardware.de/screenshots/medium/2017/05/AMD-Roadmap-Navi-pcgh.png
Es scheint als wäre Greenland damals ein Kombiprojekt gewesen, um eine dicke HPC-APU zusammen zu basteln, die auf dem FAD15 für 2017 angekündigt war:
http://images.anandtech.com/doci/9234/AMDDatacenterRoadmap.jpg
Auf dem FAD17 wurde so eine HPC-APU gar nicht mehr direkt erwähnt.
Da K12 praktisch auch gestrichen wurde, wundern mich die Unstimmigkeiten nicht.
AMD hat offensichtlich viele Projekte modifiziert und/oder verschoben.
AffenJack
2017-05-23, 07:05:54
D.h. doch, dass Vega in den nächsten Monaten (sicher erst sehr spät: im nächsten Jahr) auch Polaris ersetzen wird?!
Nein, es sind die für vega relevanten Märkte gemeint. Enthusiast Gaming, Datacenter und Workstation. Lisa Su hat schon mehrfach gesagt, dass Vega sich oberhalb von Polaris einordnen wird. Da ist nix mit Ersetzen von Polaris. Polaris wird bis Navi leben.
Cyphermaster
2017-05-23, 07:28:41
Da ist nix mit Ersetzen von Polaris. Polaris wird bis Navi leben.Nope:
https://www.3dcenter.org/dateien/abbildungen/AMD-Grafikchip-Roadmap-Server-2016-2019.jpg
Wenn sie die Roadmap so durchhalten, wird Polaris durch V11 abgelöst (es sagt ja niemand, daß das keinen Leistungszuwachs beinhalten würde), und erst dann kommt Navi. Ein Chip läuft da jeweils über 2 Jahre ab Launch, bis er -/edit: in seinem Segment- ersetzt wird. Resteramschen mit Altproduktion geht immer.
Korvaun
2017-05-23, 07:43:47
Ich spekuliere mal, eine Idealversion für AMD:
Vega10 = ca. 1080ti
Vega10 salvage = 1080ti - 10/15%
Vega11 = ca. 1080
Vega11 salvage = ca. 1070
Alles in 14nm. Nächstes Jahr dann leicht verbessert in 10/12nm (14nm+), Vega11 ersetzt dann Polaris, Vega 10 rutscht auch entsprechend 1 Stufe runter. Neuer TopDog wird dann ? (Dual Vega10?)
Danach dann Ruhe bis Navi kommt.
AffenJack
2017-05-23, 07:56:02
Nope:
Wenn sie die Roadmap so durchhalten, wird Polaris durch V11 abgelöst (es sagt ja niemand, daß das keinen Leistungszuwachs beinhalten würde), und erst dann kommt Navi. Ein Chip läuft da jeweils über 2 Jahre ab Launch, bis er -/edit: in seinem Segment- ersetzt wird. Resteramschen mit Altproduktion geht immer.
Ahh, also ersetzt Vega X2 Polaris. Danke, aber nein.
Das ist ne Serverroadmap, es geht aber um Mainstream.
David M. Wong - Wells Fargo Securities, LLC, Research Division - MD and Senior Equity Technology and Services Analyst Can you give us some idea of where Vega sits? Does it focus on the price points above Polaris? Or does it provide a refresh also within the lower price points where currently you have Polaris?
Lisa T. Su - Advanced Micro Devices, Inc. - CEO, President and Non-Independent Director Yes, absolutely, David. So Vega is really a new architecture, so it is focused on the price point above Polaris. We expect Vega to be a broad product for us that will go across the gaming segment, the professional workstation segment as well as GPUs in the data center, and we will be launching products across all of those segments with the Vega architecture in the next couple of months. So the Polaris refresh for us is the RX 500 series that we launched just a couple weeks ago. And that is what we would use in sort of those mainstream price points in 2017.
Asu dem Transcript: http://ir.amd.com/phoenix.zhtml?c=74093&p=quarterlyearnings
Zusätzlich zeigt die Folie nochmal das gleiche:
https://abload.de/img/amdfadizxmh.png (http://abload.de/image.php?img=amdfadizxmh.png)
Cyphermaster
2017-05-23, 08:35:47
Ahh, also ersetzt Vega X2 Polaris. Danke, aber nein.
Das ist ne Serverroadmap, es geht aber um Mainstream.Ja, man kann es sich auch zurechtlesen. OK, schon klar, du hast recht und V11 baut man natürlich exklusiv für Server, genau wie Polaris und Vega. Oh, wait... :rolleyes:
Asu dem Transcript: http://ir.amd.com/phoenix.zhtml?c=74093&p=quarterlyearnings
Zusätzlich zeigt die Folie nochmal das gleiche:
https://abload.de/img/amdfadizxmh.png (http://abload.de/image.php?img=amdfadizxmh.png)"Vega" != V11, sondern die gesamte Architektur. Und "focusing" bedeutet, daß man sich auf etwas konzentriert, nicht sich beschränkt ("limited") - was heißt, auch den Rest wird's voraussichtlich geben. Sonst wäre es ja auch falsch zu sagen, Vega "will go across the gaming Segment", was du ja zitierst.
AffenJack
2017-05-23, 08:49:31
Ja, man kann es sich auch zurechtlesen. OK, schon klar, du hast recht und V11 baut man natürlich exklusiv für Server, genau wie Polaris und Vega. Oh, wait... :rolleyes:
Natürlich kommt Vega11 auch in den Gamingmarkt, aber über P10. V11 wird die riesige Lücke zwischen V10 und P10 schließen, nichts anderes. P10 wird aber nicht ersetzt.
V10 = 1080TI
V10LE = 1080TI -15-20% (1080 +10-15%)
V11= 1080 -5-10%
V11LE = 1070
P10 ...
So in etwa stell ich mir das vor.
Amd hat in der Regel kleinere Lücken zwischen Vollausbau und kleinerem Chip als Nvidia.
"Vega" != V11, sondern die gesamte Architektur. Und "focusing" bedeutet, daß man sich auf etwas konzentriert, nicht sich beschränkt ("limited") - was heißt, auch den Rest wird's voraussichtlich geben. Sonst wäre es ja auch falsch zu sagen, Vega "will go across the gaming Segment", was du ja zitierst.
Across the gaming, professional, datacenter sagt sie da. Quer durch alle Segmente, nicht aufs Gaming bezogen. Aber selbst da wird V11 +V10 schon viele Segmente abdecken, nur eben nicht die Polarissegmente. Schön, dass du auch die FAD Folie ignorierst. Die zeigt auch nochmal, dass Polaris in 2018 aktuell bleiben wird.
Ist das so schwer zu glauben, dass da noch ein weiterer 14nm Vega kommen muss, den AMD noch nicht erwaehnt hat? V10 und V11 sind offensichtlich die Consumerchips.
Mangel76
2017-05-23, 08:55:35
Ja, man kann es sich auch zurechtlesen. OK, schon klar, du hast recht und V11 baut man natürlich exklusiv für Server, genau wie Polaris und Vega. Oh, wait... :rolleyes:
"Vega" != V11, sondern die gesamte Architektur. Und "focusing" bedeutet, daß man sich auf etwas konzentriert, nicht sich beschränkt ("limited") - was heißt, auch den Rest wird's voraussichtlich geben. Sonst wäre es ja auch falsch zu sagen, Vega "will go across the gaming Segment", was du ja zitierst.
Also für mich war die oben zitierte Folie sehr eindeutig: VEGA (sollte 2 GPUs kommen, dann auch beide!) liegt deutlich über Polaris und wird diesen daher in absehbarer Zeit nicht ersetzen. Wieso kann NVIDIA 2 GPUs oberhalb der 1060 haben, bei AMD wird das aber total abgelehnt??? Polaris wird höchstens mit Erscheinen von VEGA noch etwas nach unten rutschen im Portfolio, aber doch nicht komplett verschwinden!!!
Screemer
2017-05-23, 09:07:41
tahiti hat auch 2 weitere chips über sich noch erlebt und ist mit tonga sogar noch mal mit goodies "neu" aufgelegt worden.
polaris wird imho sicher nicht gescrapt. schaut man sich die aktuelle preislage von p20(xtr) mit >280€ allerdings an, dann lässt das nichts gutes für den kleinen vega erwarten.
Cyphermaster
2017-05-23, 10:06:27
Natürlich kommt Vega11 auch in den Gamingmarkt, aber über P10. V11 wird die riesige Lücke zwischen V10 und P10 schließen, nichts anderes. P10 wird aber nicht ersetzt.Ich glaub, du hast eine andere Definition von "ersetzt" im Kopf, als ich. Man kann sich auf den Preis, die Leistung, oder das Marktsegment beziehen. Ich beziehe das "Ersetzen" auf das Übernehmen der Markt-/Portfolio-Positionierung "Mainstream Gaming", nicht auf die Leistung. Also ein Ersatz im Sinne von "Beerben".
Das ist ein Zweier-Schema: Immer zwei neue Chips pro Zyklus, "Lebensdauer" eines Chips immer 1x Neu + 1x Refresh, Grundvarianten (abseits von OEM- oder Dualkarten-Sonderlocken-Gedöns) immer 1x Vollausbau und 1x Salvage (Nur bei den APUs bin ich nicht ganz sicher, ob sie da genauso fahren). Dadurch ergibt sich mit den versetzten Launches auch logisch die aktuelle, temporäre "Lücke" auf der Leistungsskala für den V11.
AffenJack
2017-05-23, 10:46:47
Ich glaub, du hast eine andere Definition von "ersetzt" im Kopf, als ich. Man kann sich auf den Preis, die Leistung, oder das Marktsegment beziehen. Ich beziehe das "Ersetzen" auf das Übernehmen der Markt-/Portfolio-Positionierung "Mainstream Gaming", nicht auf die Leistung. Also ein Ersatz im Sinne von "Beerben".
Glaube ich eigentlich nicht, gerade beim Beerben im Markt/Portfolio sage ich ja, dass V11 da P10 nicht ersetzt. Beide haben andere Zielgruppen. Polaris klappert den <250$ Markt ab. V11 nimmt 300-450$ und V10 kommt darüber. Nächstes Jahr kann sich das ganze dann nach unten Verschieben und Polaris nimmt nur noch bis 200$ den Markt mit, aber er wird nicht ersetzt. Ich sehe weder beim Preis, Leistung oder Marktsegment ein ersetzen, insofern nicht ein Vega12 kommt.
Das einzige worin Vega Polaris beerbt ist in AMDs eigenem R&D Zyklus mit den 2 Chips, das war es in meinen Augen aber auch.
Der Zyklus ist denke ich evtl sogar erweitert worden, da Navi ja sowohl Polaris als auch überhalb von Vega ansetzen muss. zudem gibt es ja auch 3 Polaris-Chips, nicht nur zwei. Auch bei Tonga/Fiji/Iceland waren es 3 Chips. Bei Vega wird man ebenfalls 3 Chips haben. V11 für zwischen P10/20 und V10 und einen "Vega Pro" für 1:2 DP als Ersatz für Hawaii, wie auch immer der aussehen mag. Aber es ist absolut klar, dass so ein Chip kommen muss, in 14LPP, 14HP oder 10LPP und wie groß ist ja egal, aber sowas muss kommen.
Die beiden jetzigen Vegas werden sicherlich eh wieder in 2018 als V20 und V21 refresht.
[...]
Zusätzlich zeigt die Folie nochmal das gleiche:
https://abload.de/img/amdfadizxmh.png (http://abload.de/image.php?img=amdfadizxmh.png)
Man beachte die Klammer, da fehlt noch ein Chip, der 2018 kommen muss. Vega in 2017 ist noch nicht voll ausgebaut.
Locuza
2017-05-23, 11:02:23
Nope:
https://www.3dcenter.org/dateien/abbildungen/AMD-Grafikchip-Roadmap-Server-2016-2019.jpg
Wenn sie die Roadmap so durchhalten, wird Polaris durch V11 abgelöst (es sagt ja niemand, daß das keinen Leistungszuwachs beinhalten würde), und erst dann kommt Navi. Ein Chip läuft da jeweils über 2 Jahre ab Launch, bis er -/edit: in seinem Segment- ersetzt wird. Resteramschen mit Altproduktion geht immer.
Im "Inference-Segment" wo FP16 wichtig ist, dort wird Polaris 10 und die Fiji Nano ersetzt.
Ähnlich wie auch Vega 10 und Vega 10 x2 Polaris 10 und Nano x2 im "Ultra-Scale Deep-Learning-Market" ersetzen sollen.
Hawaii bleibt unbesetzt, da vorerst kein Vega Chip eine hohe FP64-Rate mit sich bringen wird.
Für den Gaming-Markt bedeutet das nicht automatisch, dass Vega 11 Polaris 10 direkt ersetzten wird.
Setsul
2017-05-23, 11:45:56
tahiti hat auch 2 weitere chips über sich noch erlebt und ist mit tonga sogar noch mal mit goodies "neu" aufgelegt worden.
polaris wird imho sicher nicht gescrapt. schaut man sich die aktuelle preislage von p20(xtr) mit >280€ allerdings an, dann lässt das nichts gutes für den kleinen vega erwarten.
Naja Tonga war definitiv nicht einfach nur Tahiti Refresh. Das Problem ist von den Effizienzsteigerungen war nicht viel zu sehen und 20nm ist auch nichts geworden. Tonga war damit kein großer Fortschritt zu Tahiti und wenn man dann das ganze wieder aufbohrt auf doppelt soviele SPs für Fiji dann wirds unangenehm.
Aber mal abgesehen von Tonga als 20nm/GCN3 Pipe Cleaner war es jedes Mal das gleiche. Eine neuer, großer Chip fürs High End, alles andere wandert eine Kategorie nach unten.
Da ist an sich nichts falsches dran. Solange sich an der Fertigung nichts ändert und eine Architektur normalerweise länger als ein Jahr hält, kann man das machen. War bei nVidia mit Kepler auch nicht anders. AMD musste das leider 4 Generationen lang machen.
Polaris 20 ist doch auch kein neuer Chip? Das ist P10 mit bestenfalls einem Metal Spin, oder irre ich mich da?
Also was ich erwarte ist folgendes:
V10 kommt ins High End und in die 600er Series entweder mit Namen oder als 680/690. Wahrscheinlich Namen.
680/690 oder tiefer, falls V10 das schon blockiert, bleibt für V11 frei. Das wäre dann der ~300-500€ Bereich.
P10/20 bekommt noch ein Rebranding als 660/670 falls frei oder bleibt als 580/570 und hält den Bereich zwischen 100 und 200€ so wie vorher Pitcairn. Irgendwie muss das schließlich abgedeckt werden und ein neuer Chip lohnt sich für den Preisbereich erstmal nicht.
Navi schiebt dann wieder und P10/20 verschwindet.
Die Frage ist dann natürlich was passiert unterhalb von V11. P10/20 lohnt sich definitiv nicht mehr, selbst V11 wird schon recht knapp. Bei Navi wäre es eigentlich definitiv Zeit mal alles zu ersetzen, aber keine Ahnung ob 7nm dafür billig genug wird (und ob AMD die Ressourcen hat genügend verschiedene Chips zu entwerfen, sind wir wieder bei der multi-Die auf Interposer Idee).
Dino-Fossil
2017-05-23, 12:03:53
Ich denke, P10 (wie auch immer die Inkarnation dann heißt) könnte bei humaner Taktung durchaus noch eine Weile genutzt werden, um die Mittelklasse nach unten abzuschließen. Darüber dann Vega11 (falls kleiner als V10) und dann V10 oder die jeweiligen Nachfolger.
Hängt aber davon ab, wie schnell Vega wirklich wird. Falls V10 auf dem Niveau der 1080Ti kommt, wäre für eine weitere Vega-GPU auf 1070 Niveau Platz, falls V10 schon nur 1080-Niveau erreicht, wird das wohl nicht notwendig und Polaris "reicht" fürs erste.
Die kleinen Polaris Chips werden wir sicherlich noch für Jahre als low-cost Lösungen sehen, das ist ja in dem Bereich üblich.
Nakai
2017-05-23, 12:06:12
Das stimmt, aber da aktuell keine Linux-Kernel-Einträge zu Vega 11 zu finden sind und wir von anderen möglichen Chips überhaupt nichts wissen, steht eine hypothetische Ablöse unwahrscheinlich direkt vor der Tür.
Greenland war laut geleakten Folien von Fudzilla ein Chip mit 4096 ALUs, 2048-Bit HBM2 mit 512 GB/s und einer FP64-Rate von 1/2.
http://www.fudzilla.com/media/k2/items/cache/7e42c9447e754167c85105ffe1a1d866_XL.jpg
http://www.fudzilla.com/media/k2/items/cache/bdff5e4df5710735d8a1ecdc5dd9efcf_XL.jpg
Praktisch Vega 10 nur mit einer hohen FP64-Rate.
Ich habe lange gedacht, dass Vega 10 nur ein umbenannter Greenland ist, eben wie P10/P11 nur ein neues Etikett für Ellesmere und Baffin dargestellt haben.
Aber die Leaks von VideoCardz und die ganze Produktankündigungen von AMD deuten daraufhin das Vega 10 keine hohe FP64-Rate besitzt und somit auch nicht ein reines Relabel von Greenland darstellen kann.
https://videocardz.com/65521/amd-vega-10-and-vega-20-slides-revealed
Charlie meinte vor langer Zeit das Greenland gestorben sei.
Spekulativ könnte AMD bei Greenland einfach die Konfiguration der CUs geändert haben, um mit Vega 10 fokussierter Marktsegmente anzusprechen und mit Vega 20 einen größeren Aufwand für HPC-Clients betreiben.
Alle bisher geleakten Folien sind sehr wahrscheinlich echt, die von Fudzilla haben sich alle im Nachhinein als korrekt erwiesen, lange bevor wir offizielle Bestätigungen über grundlegende Sachen bekommen haben und die Slides von VideoCardz erwähnen HW-Page-Management-Support und xGMI, auch zwei Dinge die sich zuvor niemand einfach so hätte ausdenken können.
Aber bei Vega 20 gibt es seitdem FAD17 Unstimmigkeiten, AMD weist für Vega nur 14nm und 14nm+ aus, 7nm sollen erst ab Navi Verwendung finden.
http://www.pcgameshardware.de/screenshots/medium/2017/05/AMD-Roadmap-Navi-pcgh.png
Es scheint als wäre Greenland damals ein Kombiprojekt gewesen, um eine dicke HPC-APU zusammen zu basteln, die auf dem FAD15 für 2017 angekündigt war:
http://images.anandtech.com/doci/9234/AMDDatacenterRoadmap.jpg
Auf dem FAD17 wurde so eine HPC-APU gar nicht mehr direkt erwähnt.
Da K12 praktisch auch gestrichen wurde, wundern mich die Unstimmigkeiten nicht.
AMD hat offensichtlich viele Projekte modifiziert und/oder verschoben.
Der ursprungliche Greenland war ein Polaris 9 und deutlich kleiner als Vega10. Ich weiß, dass Namen Schall und Rauch ist, aber ab einem gewissen Zeitpunkt wurde Greenland/P9 zu einem Vega10. Höchstwahrscheinlich gibt es eine HPC-APU nicht mehr, jedenfalls nicht mit Vega10, da einerseits die TDP ins unermessliche steigen würde und der Platz langsam knapp werden würde. V11 wäre dafür predistiniert, aber für eine HPC-APU fehlt dem Ding wohl Features. Ergo sollte man eher in Richtung Intel+AMD GPU schielen.
dargo
2017-05-23, 12:23:53
Nope:
https://www.3dcenter.org/dateien/abbildungen/AMD-Grafikchip-Roadmap-Server-2016-2019.jpg
Wenn sie die Roadmap so durchhalten, wird Polaris durch V11 abgelöst (es sagt ja niemand, daß das keinen Leistungszuwachs beinhalten würde), und erst dann kommt Navi. Ein Chip läuft da jeweils über 2 Jahre ab Launch, bis er -/edit: in seinem Segment- ersetzt wird. Resteramschen mit Altproduktion geht immer.
Was kann man sich eigentlich unter Vega 20 vorstellen? Dual-GPU ist es schon mal nicht. Dafür kommt ja Vega 10 x2. Ein fetterer Vega 10 der Richtung ~600mm² geht?
Der_Korken
2017-05-23, 12:31:51
Was kann man sich eigentlich unter Vega 20 vorstellen? Dual-GPU ist es schon mal nicht. Dafür kommt ja Vega 10 x2. Ein fetterer Vega 10 der Richtung ~600mm² geht?
Vermutlich. Eventuell bläht man das Teil auf 80 CUs auf mit 1:2 DP. Mit Taktraten von vielleicht 1,4 Ghz käme man auf etwa 7 TFlops DP, dazu dann vier Stacks HBM. Man wäre dann bei den meisten Parametern nicht weit von V100 entfernt, nur die Tensorcores wären noch ein Alleinstellungsmerkmal von Volta.
AffenJack
2017-05-23, 12:35:11
Was kann man sich eigentlich unter Vega 20 vorstellen? Dual-GPU ist es schon mal nicht. Dafür kommt ja Vega 10 x2. Ein fetterer Vega 10 der Richtung ~600mm² geht?
Nach bisherigne Spekus 4xHBM2, 1:2 DP, auf jeden Fall fetter. Bei 600mm² dürften aber nicht mehr soviele shader zusätzlich reinpassen, eher so ~4600 Shader. Würde in Spielen wahrscheinlich nicht soviel bringen, aber für HPC wichtig sein durch die Bandbreite und 1:2 DP. Bei 80CUs muss man denke ich schon eher in richtung ~650mm².
Ich lehne mich mal aus dem Fenster und sage, dass ein V20 auch nur 64 CUs bekommt. Dafuer spricht imho die Nummer (P10/P20 refresh), dafuer gibt es 1/2 FP64, was urspruenglich geplant (Greenland) aber zunaechst gestrichen wurde, und vielleicht 4 Stacks. Hawaii wird damit endlich ersetzt und das 64 CU Limit erst mit Navi ueberwunden.
Der_Korken
2017-05-23, 13:16:05
Ich lehne mich mal aus dem Fenster und sage, dass ein V20 auch nur 64 CUs bekommt. Dafuer spricht imho die Nummer (P10/P20 refresh), dafuer gibt es 1/2 FP64, was urspruenglich geplant (Greenland) aber zunaechst gestrichen wurde, und vielleicht 4 Stacks. Hawaii wird damit endlich ersetzt und das 64 CU Limit erst mit Navi ueberwunden.
Lohnt es sich denn überhaupt dafür einen extra Die zu fertigen? Wenn man Hawaii mit Tahiti und Tonga vergleiche, habe ich nicht das Gefühl, dass 1:2 DP da großartig aufs Transistorenbudget schlagen würde, da im Gegensatz zu Nvidia keine dedizierten DP-ALUs verbaut werden. Auch das Taktverhalten war nicht schlechter als die nachfolgenden 1:16-Chips. Da wäre es doch besser gewesen die DP-Leistung und vier HBM-Stacks noch mit in V10 reinzuquetschen und dafür auf vielleicht 10% Perf/W beim Gaming zu verzichten. Klar hat man dann weder den besseren Gaming-Chip noch den besseren Compute-Chip verglichen mit Nvidia, dafür aber jede Menge Entwicklungskosten gespart, was ja als Hauptgrund angegeben wird, warum AMD nur noch so wenige neue Chips raushaut.
Nach bisherigne Spekus 4xHBM2, 1:2 DP, auf jeden Fall fetter. Bei 600mm² dürften aber nicht mehr soviele shader zusätzlich reinpassen, eher so ~4600 Shader. Würde in Spielen wahrscheinlich nicht soviel bringen, aber für HPC wichtig sein durch die Bandbreite und 1:2 DP. Bei 80CUs muss man denke ich schon eher in richtung ~650mm².
80 NCUs wird schon gehen in 14nm und werden die 600mm² sicherlich auch ausreizen wie bei Fiji, es ist ja nicht wie bei NV, wo die FP64 viel mehr Platz benötigt, siehe Hawaii. Das wird fast ohne mehr Platzbedarf gehen. 80CUs bei bisheriger Fertigung ist denke ich realistisch; die Vega Architektur kann AFAIK 128NCUs maximal unterstützen. Es kann auch sein, dass man den Prozess wechselt und das Ding beispielsweise in 14HP oder bei Samsung in 14LPU fertigt, beide lassen kleinere Strukturen zu als 14LPP und beide sind explizit für High-Performance und große Die-Größen konzipiert.
Könnte dann so aussehen:
- 80 NCUs
- 1:2 DP
- 14LPU bei Samsung
- 600mm² +
- 4x 1,9GHz HBM 8GB oder 4x 1,6GHz HBM 4GB (consumer-Variante, gedrosselt auf 1:8 DP als RX Vega Fury (X))
- 300W TDP+
- maximal 1,5GHz um den Sweetspot auszunutzen
Leonidas
2017-05-23, 13:28:49
Wenn wir die Echtheit früherer Roadmap-Leaks annehmen wollen, ist Vega 20 wiederum nur 64 CU. Dafür aber 7nm mit eventuell mehr Takt, doppeltem Speicherinterface und DP/SP von 1:2.
https://www.3dcenter.org/artikel/amd-grafikchip-roadmap-2016-2019
Der Leak war mit ganz großer Sicherheit Fake, genau wie die Folie in der letzten Seite, die die Produkte auf die Jahre aufteilt.
Es macht über genau 0 sinn, dass der Profi-Vega wiederum 64 CUs haben soll (i.Ü. erst recht in 7nm nebenbei bemerkt). Dann hätte man sich V10 einfach sparen können. Bei AMD kostet wie gesagt FP64 wenig Fläche, das macht hinten und vorne keinen Sinn. 7nm scheidet bei Vega nach dem letzten Event sowieso aus, dort ist keine Rede davon. Vega wird generell 14nm sein.
V20 ist seitdem P20 bekannt ist, sowieso für den Refresh belegt. Der heißt mit ganz großer Sicherheit irgendwie anders. Diese ganzen "Leaks" sind alle BS und wenn sich richtig lagen, lagen sie nur zufällig richtig, da einiges Specs von V10 ja schon bekannt waren.
Es macht eigentlich nur so Sinn:
P20 + 30% = V11 (36-40 NCUs)
V11 + 30% = V10 (56-64 NCUs)
V10 + 15-25% = Vega Profi (72-80 NCUs)
alle 14nm
Locuza
2017-05-23, 13:49:52
Der ursprungliche Greenland war ein Polaris 9 und deutlich kleiner als Vega10. Ich weiß, dass Namen Schall und Rauch ist, aber ab einem gewissen Zeitpunkt wurde Greenland/P9 zu einem Vega10. Höchstwahrscheinlich gibt es eine HPC-APU nicht mehr, jedenfalls nicht mit Vega10, da einerseits die TDP ins unermessliche steigen würde und der Platz langsam knapp werden würde. V11 wäre dafür predistiniert, aber für eine HPC-APU fehlt dem Ding wohl Features. Ergo sollte man eher in Richtung Intel+AMD GPU schielen.
Polaris 9 ergibt keinen Sinn.
Greenland wurde schon früh als Leitprojekt für die erste IP v9-Generation angegeben:
http://deliddedtech.com/wp-content/uploads/2016/03/greenlandlinkedin-e1459036016358.png
Das ganze Rebranding mit Polaris und den Sternen kam danach und Polaris war dabei ein relativ kurzes Projekt mit alter IP v8 ISA auf 14nm gebracht, um wenigstens im unterem Segment weiterhin Umsatz generieren zu können.
Wenn Greenland noch früher wirklich etwas anderes dargestellt hat und man das ganze als Polaris 9 aus heutiger Sicht bezeichnen könnte, dann war das ja ein völlig anderes Projekt.
[...]
Könnte dann so aussehen:
- 80 NCUs
- 1:2 DP
- 14LPU bei Samsung
- 600mm² +
- 4x 1,9GHz HBM 8GB oder 4x 2GHz HBM 4GB (consumer-Variante, gedrosselt auf 1:8 DP als RX Vega Fury (X))
- 300W TDP+
- maximal 1,5GHz um den Sweetspot auszunutzen
Wenn Vega 10 mit 64 CUs, 2048-Bit HBM2 und einer vermutlichen FP64-Rate von 1/16 nahe 500mm² landet, dann kannst du bei 80 NCUs, 4096-Bit und FP64 mit half-rate bei 600mm² ruhig drei mal +++ hinten anhängen.
Iruwen
2017-05-23, 14:01:10
Kommt Vega grundsätzlich mit HBM2? Das ergibt doch bei den kleinen Karten nicht viel Sinn, da wird uns Polaris jawohl noch länger begleiten.
Locuza
2017-05-23, 14:07:06
Über Vega 11 wissen wir bis Heute nichts Verlässliches.
Vielleicht erscheint der Chip auch nur mit HBM2, vielleicht aber auch mit GDDR5.
Darüber hinaus wissen wir natürlich ebenso gar nichts.
Raven-Ridge mit Vega-IP als APU wird jedenfalls auch mit DDR4 auskommen müssen.
Die Frage stellt sich gar nicht, Polaris läuft solange wie die 14nm-Generation läuft. P12 wird sogar noch erheblich darüber hinaus laufen. Man wird in der Navi-Generation P11 und P10 durch ein 7nm-Produkt ersetzen und den Rest überhalb von Vega ansetzen würd ich mal vermuten. Vega wird sicherlich kein Low-Cost-Produkt abseits der APUs bedienen. Dafür gibts Polaris. Und auch V11 wird HBM haben, 1,6GHz ist ja problemlos verfügbar. Die Energieeffizienz ist grad für dieses Produkt sehr wichtig. Langfristig wird das ja der neue Pitcairn.
dargo
2017-05-23, 14:52:38
Raven-Ridge mit Vega-IP als APU wird jedenfalls auch mit DDR4 auskommen müssen.
Nö... es soll zwei Versionen geben. Die kleinere kommt nur mit DDR4 daher.
Dino-Fossil
2017-05-23, 15:03:29
Nö... es soll zwei Versionen geben. Die kleinere kommt nur mit DDR4 daher.
Quelle? Und wenn Roadmap, ist die noch aktuell?
AffenJack
2017-05-23, 16:21:08
Über Vega 11 wissen wir bis Heute nichts Verlässliches.
Vielleicht erscheint der Chip auch nur mit HBM2, vielleicht aber auch mit GDDR5.
Darüber hinaus wissen wir natürlich ebenso gar nichts.
Raven-Ridge mit Vega-IP als APU wird jedenfalls auch mit DDR4 auskommen müssen.
Wieso sollte es nicht sogar GDDR6 werden? Hynix stellt GDDR6 in Q4 in Aussicht mit 12 oder 14Gbps. Bedenkt man, dass V10 Volume erst in Q3 kommt und wir von V11 noch gar nicht gehört haben, könnte das schon hinkommen. Bei LinkedIn gibts Leute die bei AMD schon seit fast 2 Jahren an GDDR6 Speicherkontrollern arbeiten. Könnte zwar auch erst bei Navi kommen, aber im Moment denke ich eher an V11.
Setsul
2017-05-23, 16:27:34
Die Frage stellt sich gar nicht, Polaris läuft solange wie die 14nm-Generation läuft. P12 wird sogar noch erheblich darüber hinaus laufen. Man wird in der Navi-Generation P11 und P10 durch ein 7nm-Produkt ersetzen und den Rest überhalb von Vega ansetzen würd ich mal vermuten. Vega wird sicherlich kein Low-Cost-Produkt abseits der APUs bedienen. Dafür gibts Polaris. Und auch V11 wird HBM haben, 1,6GHz ist ja problemlos verfügbar. Die Energieeffizienz ist grad für dieses Produkt sehr wichtig. Langfristig wird das ja der neue Pitcairn.
Wieso sollte da die Effizienz sehr wichtig sein?
Für Mobile, also P11 und P12 ist mMn Effizienz sehr viel wichtiger als für eine Desktop GPU zwischen 100 und 200W.
Bei ~300mm2 + HBM kann ich mir für V11 auch nur schwer die Position von Pitcairn vorstellen. Wenn V11 so wie Pitcairn wird dann würde es in der nächsten Rebranding-Runde unter 200€ fallen.
P10/20 dürfte einfacher durchzuschleifen sein. Ob 120 oder 180W interessiert nicht wirklich. 232mm² 14nm + 256b GDDR5 kosten nicht die Welt.
Klar, zu der Zeit sollten die Entwicklungskosten von V11 schon wieder drin sein und <200€ hat man sicher weit höhere Stückzahlen, also wenn ich mich entscheiden müsste V11 oder P10/20 durch einen neuen 7nm Chip zu ersetzen, dann würde ich auch P10/20 wählen, aber es geht eben nicht nur um die beiden.
Abgesehen von der Möglichkeit mGPU auf Interposer muss mit Navi wieder eine große GPU kommen, so wie jede Generation. Wenn es so wenig Chips wie möglich werden sollen dann muss mMn P11 und P12 ersetzt werden. Ja, Polaris ist effizienter wenn man die Taktraten nicht hochprügelt, aber gegen Volta und eventuell TSMC 7nm? Da sehe ich wenig Chancen. Wenn P11 und P12 parallel zu Navi weiterexistieren, dann hat AMD im Mobile Bereich für mindestens ein Jahr, eher länger, bei Weitem nichts konkurrenzfähiges.
Locuza
2017-05-23, 16:47:35
Nö... es soll zwei Versionen geben. Die kleinere kommt nur mit DDR4 daher.
Nö zu was? ;)
Die Ursprungsfrage lautete nämlich, ob Vega grundsätzlich nur mit HBM erscheint.
Das Raven-Ridge eine HBM-Version bekommt ist aktuell nur ein Gerücht als Textform, was die Gerüchteküche ansonsten ausspuckt nennt bisher nur DDR4:
https://cdn.videocardz.com/1/2017/05/AMD-Data-Center-Presentation-5_VC.jpg
https://videocardz.com/69428/amd-snowy-owl-naples-starship-grey-hawk-river-hawk-great-horned-owl
http://cdn.wccftech.com/wp-content/uploads/2017/03/AMD-Raven-Ridge-APU-Specs-and-AMD-Pinnacle-Ridge-CPU-Specs.png
Und einen weiteren SoC mit nur zwei Zen-Kernen und 3 Vega CUs:
https://cdn.videocardz.com/1/2017/05/AMD-Data-Center-Presentation-2_VC.jpg
Wieso sollte es nicht sogar GDDR6 werden? Hynix stellt GDDR6 in Q4 in Aussicht mit 12 oder 14Gbps. Bedenkt man, dass V10 Volume erst in Q3 kommt und wir von V11 noch gar nicht gehört haben, könnte das schon hinkommen. Bei LinkedIn gibts Leute die bei AMD schon seit fast 2 Jahren an GDDR6 Speicherkontrollern arbeiten. Könnte zwar auch erst bei Navi kommen, aber im Moment denke ich eher an V11.
Also grundsätzlich finde ich den Gedanken nicht abwegig.
Complicated
2017-05-23, 16:55:11
Also ich bin nicht überzeugt dass bei Navi nochmal große GPUs geben wird in 7nm. Ich glaube AMD wird das Naples-Konzept im nächsten Schritt von den 14nm CPUs auf die 7nm GPUs übertragen. Gerade hier würden kleine Dies die per Infinity Fabric zusammen geschaltet werden den maximalen Nutzen bei Kosten/Performance einbringen. Bei Navi ist auf der Roadmap "NxtGen Memory" und "Scalability" als Schlagworte verzeichnet. HBCC öffnet die Tür für NVM Speicher und Ryzen öffnet die Tür für IF-Verbundene MCM-Packages bis vier Dies. IMHO hat AMD einen größeren Schritt gemacht mit Ryzen als viele erwartet haben in der Produktentwicklung.
Gemeinsamer Speicherzugriff von 2 oder mehr GPUs auf einen gemeinsamen Adressraum ist IMHO der zwingend nächste Schritt. Das würde AMD einen enormen Kostenvorteil gegenüber Nvidia bringen. Man stelle sich vor die Yields eines 200mm² Dies gegen die Yields eines Monsterchips mit 800mm² - Das gäbe einen Preiskrieg bei dem Nvidia nicht mithalten könnte. Wie das ausschaut können wir uns ja die nächsten 1-2 Jahre im CPU-Sektor anschauen. Nur ist Nvidia nicht ganz so dominant wie Intel bei CPUs und würde deutlich schneller Federn lassen bei Desktop GPUs.
dargo
2017-05-23, 17:03:37
Ist zwar eine nette Idee. Wenn du dir dadurch aber die AFR-Nachteile ans Land ziehst hast du schon verloren. Diese GPU-Cluster (ich nenne die mal so) müssten sich schon wie eine Single-GPU verhalten damit sich sowas duchsetzt.
Cyphermaster
2017-05-23, 17:05:29
Für den Gaming-Markt bedeutet das nicht automatisch, dass Vega 11 Polaris 10 direkt ersetzten wird.Automatisch nicht, aber wohin sollte V11 sonst, als das Mainstream-Segment von 2018 zu bilden (zumal da im Leistungsspektrum auch eine passende Lücke besteht)? Den P10 als RX670/680 noch weiter auf das für Konkurrenzfähigkeit zur GTX 2060 nötige Midrange/Mainstream-Leistungsniveau zu prügeln, wird nicht gehen - also muß P10 weichen, so (Entry-Segment) oder so (Auslauf).
@dargo
Dafür der HBCC
Sehe das Problem nicht, jene als eine GPU behandeln zu lassen.
dargo
2017-05-23, 17:07:32
Du meinst HBCC ist die Lösung? Dann werden die nächsten Jahre hochinteressant in der GPU-Sparte. :naughty:
Achill
2017-05-23, 17:15:08
Ist zwar eine nette Idee. Wenn du dir dadurch aber die AFR-Nachteile ans Land ziehst hast du schon verloren. Diese GPU-Cluster (ich nenne die mal so) müssten sich schon wie eine Single-GPU verhalten damit sich sowas duchsetzt.
Das kann man so nicht vergleichen - AFR ist ja Alternate Frame Rendering, wie wir wissen rendern hier die GPUs immer im Wechsel die Scene.
Die Achilles-Ferse von AFR sind Engines, Libs oder Shader (TAA), die Zustand im Speicher über eine Frame hinaus benötigen / diesen ändern. Diesen Zustand (bzw. das Delta) muss man zwischen den zwei GPUs systematisch synchronisieren. Wenn das nicht sauber umgesetzt ist / kein Profil exisitert, kennen wir das als flimmernde Schatten, Kanten oder gar Geometrie.
Aktuell gibt es PCIe (+NV-Bridge +NV-Link irgendwann) und die Linierung ist hier immer Bandbreite und Latenzen.
Mittels shared Memory kann die Bandbreite massiv vergrößert werden und Latenzen reduziert. Es könnte aber auch andere Konzepte wie Tiled(-Cluster)-Rendering angewendet werden, wo man das Frame in Tiles aufgeteilt wird und jede GPU ein Teil davon übernimmt. Wie gut sowas geht / ob das schon ausgeschlossen ist, weiß ich natürlich nicht.
Cyphermaster
2017-05-23, 17:15:26
Die Frage stellt sich gar nicht, Polaris läuft solange wie die 14nm-Generation läuft. P12 wird sogar noch erheblich darüber hinaus laufen.Sicher, aber nicht mehr an der Stelle im Portfolio.
Vega wird sicherlich kein Low-Cost-Produkt abseits der APUs bedienen. Dafür gibts Polaris.Ich gehe davon aus, daß aus Wirtschaftlichkeitsgründen jeweils nur ein step-down um EIN Segment von dem des Launches aus passiert und man darunter nächstkleinere Chips positioniert. Von V10 oder V11-Launchniveau wären es aber ins Low-Cost mehrere Stufen, d.h. auf dem Niveau wäre das Spielfeld eines anderen Chips. Ob der dann auf der Polaris- oder Vega-Konstruktion basiert, ist wieder was Anderes.
dargo
2017-05-23, 17:45:17
Mittels shared Memory kann die Bandbreite massiv vergrößert werden und Latenzen reduziert. Es könnte aber auch andere Konzepte wie Tiled(-Cluster)-Rendering angewendet werden, wo man das Frame in Tiles aufgeteilt wird und jede GPU ein Teil davon übernimmt. Wie gut sowas geht / ob das schon ausgeschlossen ist, weiß ich natürlich nicht.
Das wäre dann SFR oder nicht? Gibt es auch schon länger, ebenfalls mit Nachteilen. Die Effizienz nimmt stark ab. Wenn du dann zwei GPUs @300mm² nimmst anstatt einer mit 600mm². Erstere Kombi aber nur 60% Leistung der zweiteren liefert (rein fiktive Zahl) hast du auch nichts gewonnen.
Achill
2017-05-23, 18:05:30
Das wäre dann SFR oder nicht? Gibt es auch schon länger, ebenfalls mit Nachteilen. Die Effizienz nimmt stark ab. Wenn du dann zwei GPUs @300mm² nimmst anstatt einer mit 600mm². Erstere Kombi aber nur 60% Leistung der zweiteren liefert (rein fiktive Zahl) hast du auch nichts gewonnen.
Nein, SFR im "klassischen" SLI/CFX hat erstmal die gleichen Probleme wie AFR was den Zustandssync. über Frames hinweg angeht.
Gleichzeitig haben Effekt wie Schatten, Reflektion, Volum. Beleuchtung Zustand innerhalb eines Frames. Die Lichtquelle auf der linken Seite eines Bildes hat auch Auswirkungen auf Objekte auf der rechten Seite, wenn das Bild per SFR in der Mitte für die GPUs geteilt ist, wie bekommt die GPU für die rechte Seite die Daten von der GPU der linken Seite - man muss wieder Daten hin-und-her kopieren oder Sachen doppelt berechnen.
Complicated
2017-05-23, 18:20:35
Ist zwar eine nette Idee. Wenn du dir dadurch aber die AFR-Nachteile ans Land ziehst hast du schon verloren. Diese GPU-Cluster (ich nenne die mal so) müssten sich schon wie eine Single-GPU verhalten damit sich sowas duchsetzt.
Wie Achill schon erläutert hat ist das überhaupt nicht vergleichbar. Diese Aussage schließt ja AFR und SFR schon aus:
Gemeinsamer Speicherzugriff von 2 oder mehr GPUs auf einen gemeinsamen Adressraum ist IMHO der zwingend nächste Schritt.
Was im heterogenen Computing möglich ist, das kann man auch bei homogenen Chips bewerkstelligen. Nutzt man einen gemeinsamen HBM-Cache für 2 GPUs anstatt eine GPU dann geht es lediglich noch um die mögliche Skalierung und den Verlust durch Overhead um das ganze gemeinsam am selben Frame arbeiten zu lassen. Mal sehen welche Änderungen die NCUs haben werden und ob welche davon in diese Richtung zielen.
Das was ich meine ist im Prinzip das CCX-Konzept von Ryzen auf GPUs umgesetzt. Man stelle sich vor jeder CCX wäre eine GPU. Bei GPUs und deren stark parallelen Workloads müsste dies sogar zu weniger Performance Einbußen führen als bei für CPUs geschriebenen Code. Die große Frage sind dann Latenzen, was aber eben durch einen HBCC schon gelöst sein kann.
dargo
2017-05-23, 18:23:06
Wie die Umsetzung dann immer heißen mag. Erstmal möchte ich die Frametimes davon sehen. Gleiches gilt für die Messung vom Inputlag.
Complicated
2017-05-23, 18:43:42
Natürlich. Ich gehe davon aus, dass dies dann auf dem Niveau einer Single GPU, sprich nicht zu unterscheiden sein muss, statt findet. Alles andere wäre nicht akzeptabel und hätte dann auch keine Zukunft. Sobald hier Testredaktion einen Unterschied, und sie würden genau nach messen, feststellen würden wäre diese Architektur "Dead on arrival" wie man so schön sagt. Allerdings arbeitet AMD daran seit sie das erste mal Fusion und APUs öffentlich gemacht haben - daher traue ich es ihnen zu über diesen Zeitraum das Konsequent durch gezogen zu haben. DX12 war sicherlich auch ein Baustein hierzu und wird wohl die Grundlage dazu sein. Explicit Multi-GPU ist da nur ein Beispiel.
Wäre doch cool, wenn Navi auf den Markt kommt muss man seine alte GPU nicht mehr austauschen, sondern kann sie drin behalten und sie arbeitet noch solange mit wie man es möchte. Egal ob Nvidia oder AMD, Hauptsache DX12 fähig - mal ein echtes Upgrade ;) Die Steuerung übernimmt der neue MC auf Navi. Klar sehr positiv spekuliert.
Tamagothi
2017-05-23, 19:05:57
Es gibt immer noch die Möglichkeit einen aktiven Interposer zu benutzten um 2 Chips zu verbinden. dadurch sind wieder ganz andere Bandbreiten und Latenzen erreichbar.
=Floi=
2017-05-23, 20:17:40
warum belichtet man die verbindung nicht mit?
ohne CUT 2x300mm2 mit cut der midrange chip
Eldoran
2017-05-23, 20:25:57
Es gibt immer noch die Möglichkeit einen aktiven Interposer zu benutzten um 2 Chips zu verbinden. dadurch sind wieder ganz andere Bandbreiten und Latenzen erreichbar.
Allerdings wenn weiterhin HBM verwendet wird, gibt es viel Platz für Interconnects. Rein eine Einordnung: Ryzen hat ~200mm² mit diverser Perpherie und 2 DDR4 channels. Vega hat ~500mm², der Interposer liegt bei grob 700mm². Selbst wenn Navi jeweils nur halb so groß ist - 7nm etc. sollte eigentlich locker die Bandbreite von 4x 32 Lanes PCIe machbar sein (von der Dichte des BGA), schließlich ist es immer noch grob die Größe von Ryzen und der könnte vermutlich mindestens 64 lanes unterbringen, wenn der Großteil der restlichen Peripherie wegfallen würde. Also in dem Bereich sollte es machbar sein. Derart kurze Wege sollten weiters auch höhere Datenraten erlauben.
Die notwendige Bandbreite sollte damit auch locker abgedeckt sein, der Großteil kann ja aus dem HBC bedient werden.
Architektonisch wäre vermutlich auch ausreichend den HBCC die Daten aus dem HBC bereitstellen zu lassen mit Kohärenz wie bei dem CPUs. Weiters auch noch ein Austausch beim Frontend, sonst bleibt das klassische Problem bei split screen Verarbeitung - die Teile sind eben nicht gleich aufwändig und brauchen daher unterschiedlich lange in der Verarbeitung bestehen. Vermutlich macht Vega eine derartige Lastverteilung bei den Frontends, das wäre dann auf alle weiteren dies verallgemeinert. Latenz und Bandbreite sollte von IF neben dem reinen Datentransfer möglich sein.
basix
2017-05-23, 21:38:57
warum belichtet man die verbindung nicht mit?
ohne CUT 2x300mm2 mit cut der midrange chip
Sehr interessante Idee :up: Einfach dei Infinitiy Fabric Links als Cut-Schlitz ausgestalten. Soweit ich weiss, könnte man allerdings schwer Fertigungsprobleme bekommen. Bei den Frässchlitzen im Wafer wird immer zum Chip hin eine Struktur eingebaut, welche das Propagieren von mechanischen Rissen im Material stoppen soll (mir kommt jetzt der Fachbegriff nicht in den Sinn). Diese können durch das Fräsen entstehen. Der Rissstopper ist eine Struktur (im einfachsten Fall eine Vertiefung) welche optimalerweise senkrecht zu einem potentiellen Riss verläuft. Dadurch erreicht der Riss die aktiven Teile des Chips nicht. Mit Laser Cutting könnte man evtl. was machen. Dort hat man aber das Problem, dass der Laser einen "Auswurf" generiert. Das heisst, dass rund um den Laser das entfernte Material "herumspritzt" und somit an die falschen Stellen gelangen könnte. Deshalb braucht man genügend Abstand zwischen Trennstelle und aktiven Teilen des Chips.
Aber weiter gefragt: Warum das ganze mit MCM nicht schon mit Vega? Bei Zen macht man es ja bei Threadripper / Naples auch schon. Einfach ein paar Vegas in ein Package integrieren und fertig ist Vega x2 ;) Mit Bandbreiten von 512GB/s wie sie für IF von Vega genannt werden wäre zu grössten Teilen das Bandbreiten-Problem vom VRAM schon gelöst. Also 2x Vega + 2x 8GB HBM = Vega2 + 16GB HBM. Die Latenz von IF ist bei GPUs sowieso weniger wichtig wie bei CPUs. Somit evtl. nicht einmal ein Nachteil.
Eldoran
2017-05-23, 22:17:24
An sich scheint das aktuelle crossfire (XDMA) ohnehin schon eine hardwareengine zu haben um über PCIe die Daten auszutauschen und an sich gab es das Split Screen Verfahren schon seit beginn - es war nur eben nie sonderlich praxistauglich, da die statische Arbeitsteilung sehr schlecht skalierte. Das ganze für einen vollen Austausch aufzubohren, der dann das als mehr oder weniger transparente einheit arbeiten lässt, scheint mir nicht komplexer als das aufbohren des Memory Subsystems mit HBCC mit HBM.
DAS würde wohl zu Scalability passen. Und angewendet auf des HBM - Mitnutzung/Kohärenz der einzelnen Navi Dies mit jeweils HBM zu einem gesamten heterogenen Cache, könnte durchaus unter next gen memory gemeint sein.
Complicated
2017-05-23, 22:37:57
Vor allem wenn man bedenkt, dass Infinity Fabric die bestehenden PCIe Steckplätze nutzen kann für höhere Datenraten als PCIe 3.0 bietet. Es werden ja die vorhandenen Datenleitungen lediglich mit einem anderen Protokoll genutzt. Ich glaube das ist bei vielen noch gar nicht richtig angekommen.
CCIX und GenZ sind die Technologien auf denen Infinity Fabric basiert. Vega und Ryzen sind schon damit ausgestattet. CCIX nutzt PCIe Slots für bis zu 50 GB/s bei 16 lanes und bietet Cache-Kohärenz zur CPU. GenZ nutzt PCIe Slots und IEEE 802.3 als Physikalischen Transport-Layer für bis zu 52 GT/s (PCIe 3.0 10 GT/s), unterstützt Cache-Kohärente Protokolle wie CCIX und ermöglicht direkte Memory read/writes ohne Blocktransfer auf Massenspeicher wie SSD/NVM und Netzspeicher. Das ist im Prinzip Infinity Fabric über PCIe-Slots in Verbindung mit einem HBCC auf Vega und einer Ryzen CPU könnten die nächsten Wochen noch ein Paar Überraschungen kommen.
Hier eine Präsentation, welches die beschriebenen Eigenschaften von CCIX und GenZ beshreibt, für diejenigen die es noch nicht kennen. Auf Seite 9 ist eine gute Zusammenfassung:
https://www.openfabrics.org/images/eventpresos/2017presentations/213_CCIXGen-Z_BBenton.pdf
Loeschzwerg
2017-05-24, 07:40:21
Der Gedankengang ist doch nicht neu und hatten wir schon bei Fiji durchgekaut (mit vielen Infos die mittlerweile untergegangen sind). Der entscheidende Punkt könnte jetzt wirklich der HBCC sein.
So oder so, das Thema würde ich auslagern.
Kriton
2017-05-24, 10:40:33
Was mich irritiert (und nur meine Ahnungslosigkeit demonstriert): Warum PCIe?
Wenn sie Multi-GPU in der angedachten Form realisieren würden, wären die verschiedenen Dies doch Teil desselben Packages und würden durch einen Interposer verbunden?!
Wo spielt da PCIe rein?
Screemer
2017-05-24, 11:06:46
weiß man eigentlich schon ob ryzen auch die pcie links als infinity fabric links, mit enhanced coherent HT als protokoll, nutzen kann, um schneller mit vega zu kommunizieren bzw. hbcc schneller an die daten aus dem ram und nicht flüchtigen speicher kommen kann?
epyc scheint das ja zu unterstützen (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11383745#post11383745). die frage ist nur ob das auf desktop plattformen auch gehen wird. threadripper und ryzen wären da als workstation cpus sicher auch nicht uninteressant. falls dem so ist, dann wäre vega in kombination mit ryzen der kombination mit intel meilen weit voraus bzgl. nutzbarer bandbreite zwischen cpu und gpu. da können sich ganz neue anwendungsfälle auftun. allein günstige workstations mit bis zu 4 vega-gpus ohne auf dinge wie die derzeit arschteuren oder nur in speziellen konfigurationen vorhanden nvlink oder quickpath setzen zu müssen.
Loeschzwerg
2017-05-24, 11:25:54
Ich denke schon dass die Mainboards und Steckkarten auf die Bandbreite entsprechend vorbereitet sein müssen. Ganz so einfach wird es wohl nicht sein, sonst hätte man den PCIe Standard doch schon längst erweitern können.
vinacis_vivids
2017-05-24, 11:32:05
Navi soll in PCIe 4.0 kommen. Also 7nm Fertigung, GPU,Memory-Skalierung. Das wird eine Revolution sein im Hinblick auf VR.
Loeschzwerg
2017-05-24, 11:34:58
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=576240 !!! Hier ist Vega ;)
Screemer
2017-05-24, 11:42:58
Ich denke schon dass die Mainboards und Steckkarten auf die Bandbreite entsprechend vorbereitet sein müssen. Ganz so einfach wird es wohl nicht sein, sonst hätte man den PCIe Standard doch schon längst erweitern können.
die frage ist in wieweit sich PCIE und der "neue" HT in sachen Protokoll unterscheiden. Vielleicht ist Infinity Fabric einfach wesentlich robuster als PCIe3.0 und kann auf den gleichen Links schlicht mehr Durchsatz rausholen. Wäre ja nicht das erste mal, dass ein geändertes Protokoll den Durchsatz eines Links massiv steigern kann.
Loeschzwerg
2017-05-24, 12:09:11
Ich will es nicht ausschließen, aber warum tut man (die Industrie) sich dann so schwer mit PCIe4.0? Ganz doof sind die beim PCI Consortium ja auch nicht.
Complicated
2017-05-24, 12:13:02
Was mich irritiert (und nur meine Ahnungslosigkeit demonstriert): Warum PCIe?
Wenn sie Multi-GPU in der angedachten Form realisieren würden, wären die verschiedenen Dies doch Teil desselben Packages und würden durch einen Interposer verbunden?!
Wo spielt da PCIe rein?
Es werden die vorhandenen Industriestandards weiter verwendet- Keine neuen Steckplätze, auch wenn GenZ zusätzlich neue mechanische Steckplätze anbieten wird. Der Transit ist auf diese Weise so sanft wie möglich. PCIe ist etabliert und wenn die neuen Protokolle mal in Hardware etabliert sind ist es kein Problem einen neuen Steckplatz einzuführen wo schon vorhandene Designs dann aufsetzen.
Man vermeidet das Henne<->Ei Problem, welches ja z.B. Nvidia mit NVLink lösen muss wenn Steckplätze zum Einsatz kommen sollen und nicht fest verlötete fertige Nodes. Das erschwert das spätere aufrüsten durch schnellere Hardware.
Kriton
2017-05-24, 12:18:34
Es werden die vorhandenen Industriestandards weiter verwendet- Keine neuen Steckplätze, auch wenn GenZ zusätzlich neue mechanische Steckplätze anbieten wird. Der Transit ist auf diese Weise so sanft wie möglich. PCIe ist etabliert und wenn die neuen Protokolle mal in Hardware etabliert sind ist es kein Problem einen neuen Steckplatz einzuführen wo schon vorhandene Designs dann aufsetzen.
Man vermeidet das Henne<->Ei Problem, welches ja z.B. Nvidia mit NVLink lösen muss wenn Steckplätze zum Einsatz kommen sollen und nicht fest verlötete fertige Nodes. Das erschwert das spätere aufrüsten durch schnellere Hardware.
Danke. Aber ich fürchte wir reden aneinander vorbei (wobei das Problem vermutlich bei mir liegt).
In meinem Verständnis wird PCIe benutzt wenn die Komponenten separat vorliegen (also z.B. GPU und CPU, 2 GPUs im Crossfire, etc.) und über das MB kommunizieren.
Bei einem (wie oben) skizzierten Multi-GPU-Ansatz in einem Package mittels Interposer (in meiner Formulierung also eine Komponente) leite ich die Kommunikation doch nicht über das MB (ebensowenig wie das zwischen den CCX bei Ryzen der Fall ist), wo kommt da also PCIe in´s Spiel?
Ich brauche doch gar keinen Steckplatz (für die Verbindung der Multi-GPUs untereinander)
Loeschzwerg
2017-05-24, 12:22:06
wo kommt da also PCIe in´s Spiel?
Damit sind die PCIe PHYs innerhalb des jeweiligen Prozessors (CPU, GPU oder was auch immer) gemeint. CCIX nutzt die bestehenden PHYs.
Hier sehe ich auch nicht das Problem, eher ob die Bandbreite auch über die Leiterbahnen der Boards getragen werden kann. If so, geniale Sache.
Screemer
2017-05-24, 12:23:08
Ich will es nicht ausschließen, aber warum tut man (die Industrie) sich dann so schwer mit PCIe4.0? Ganz doof sind die beim PCI Consortium ja auch nicht.
das ist schon klar. pcie schleppt halt noch viele altlasten mit. ht ist da ein wesentlich einfacheres protokol. zumindest hab ich die diskussionen in den späten 2000ern immer so verstanden. ich denke amd hat die letzten jahre massiv in das voranschreiten von ht für infinity fabric gesorgt. was wir bisher sehen ist da wohl erst der anfang. allein die skalierbarkeit von ht von 40-50GB/s bei der anbinung von ddr4 an ravenridge bis 512GB/s für HBM2 auf Vega sind schon ne andere hausnummer als pcie. Mich würde auch mal interessieren wie viele links epyc und threadripper für interchipkommunikation haben und wie hoch die datenrate dafür ist.
Complicated
2017-05-24, 12:23:09
Ich will es nicht ausschließen, aber warum tut man (die Industrie) sich dann so schwer mit PCIe4.0? Ganz doof sind die beim PCI Consortium ja auch nicht.
Warum tat sich Microsoft so schwer mit der nächsten DX-Version?
Hier wird viel Politik betrieben in den Konsortien und manchmal muss eben ein anderer rechts überholen um den etablierten auf die Sprünge zu helfen. (siehe parallelen zu Mantle ;) )
@Kriton
So gut wie jede Peripherie wird heute über PCIe angebunden. LAN, SSD am M2 Port, USB etc.. Über eben diese PHYs welche Löschzwerg erwähnt. Daher lässt sich z.B. Netzwerkspeicher über LAN durch Vega ansprechen und dank des HBCC mit direkten memory read/writes ansprechen anstatt durch ein Block-Protokoll. Daten die dort liegen werden im VRAM/Cache bereit gestellt. Bis zu 512 TB gemeinsamer Adressraum.
Screemer
2017-05-24, 12:25:33
man muss ja nur mal nen blick aufs pcie konsortium werfen und schauen wer da so alles sitzt. intel hat doch überhaupt kein interesse die leistung von pcie zu steigern. die wollen im highperformance sektor omni path etablieren. nicht umsonst gibts gen-z und ccix als gegenbewegung aus der industrie an dem eben auch amd beteiligt ist. infinity fabric ist denke ich ein amd eigenes kind dieses prozesses. dann gibts ja auch noch opencapi. alles ist schneller als pcie und in der letzten zeit umgesetzt worden. da kann man doch schon sehen, dass das kind pcie in den brunnen gefallen ist.
Werden da mittels IF wirklich mehr Daten/Zeit bspw. über einen PCIe-Slot übertragen, als es bspw. Polaris möglich wäre? Wie soll das gehen?
Loeschzwerg
2017-05-24, 12:34:50
dass das kind pcie in den brunnen gefallen ist.
Wäre eine mögliche Erklärung, da stimme ich dir zu. Letztendlich war schon 3.0 eine schwere Geburt.
@Pirx: Siehe z.B. den Link den Complicated hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11383428#post11383428) gepostet hat. Theoretisch ja. Die "Unbekannte" für mich ist noch das Board.
Kriton
2017-05-24, 12:56:16
Damit sind die PCIe PHYs innerhalb des jeweiligen Prozessors (CPU, GPU oder was auch immer) gemeint. CCIX nutzt die bestehenden PHYs.
Hier sehe ich auch nicht das Problem, eher ob die Bandbreite auch über die Leiterbahnen der Boards getragen werden kann. If so, geniale Sache.
Danke, ich glaube ich hab´s verstanden.
Wäre dann aber die Frage für mich: Warum nicht andere/eigene PHys wenn die PCIe PHYs nicht ausreichen? Ist der Entwicklungsaufwand zu hoch (weil es z.B. keine vernünftige Alternative gibt und diese erst selbst entwickelt werden müsste)? Oder diskutieren wir nur deshalb auf Basis von PCIe weil es vordergründig die einfachste Lösung wäre (Tunnelblick unsererseits)?
Eldoran
2017-05-24, 13:11:32
die frage ist in wieweit sich PCIE und der "neue" HT in sachen Protokoll unterscheiden. Vielleicht ist Infinity Fabric einfach wesentlich robuster als PCIe3.0 und kann auf den gleichen Links schlicht mehr Durchsatz rausholen. Wäre ja nicht das erste mal, dass ein geändertes Protokoll den Durchsatz eines Links massiv steigern kann.
Warum PCIe - nun elektrisch betrachtet ist mittlerweile fast alles "PCIe" (gemeint ist da wie ein Signal übertragen wird), auch IF, USB oder SATA übertragen Daten wie PCIe. Die Protokolle die darüber gefahren werden sind allerdings jeweils andere.
Das bedeutet dass zumindest der Teil der für die reine Signalübertragung und verarbeitung zuständig ist, immer der gleiche ist. Einem Kombiinterface sollte damit nichts im Wege stehen. Nur nebenbei bemerkt, über den selben USB-C Stecker werden sehr unterschiedliche Protokolle übertragen.
Worin sich PCIe und IF unterscheiden kann ich nicht sicher sagen, so wie ich es verstanden habe, ist PCIe ein serielles Protokoll, also die ganzen Metainformationen über die Daten werden zwischen den Datenblöcken auf der selben Leitung gesendet. Bei IF sind Daten und die Steuerung getrennt. Weiters fällt bei PCIe dieser Overhead pro Lane an. Bei der reinen Datenübertragung (Bandbreite) dürfte sich PCIe und IF nicht signifikant unterscheiden, aber PCIe hat wohl deutliche Latenzen und IF hat für Steuerung und andere Übertragungen mit niedriger Bandbreite sehr niedrige Latenzen. Wie das allerdings genau funktioniert, ist mir aber noch ein Rätsel.
Klevapalis
2017-05-24, 13:12:08
Es werden die vorhandenen Industriestandards weiter verwendet- Keine neuen Steckplätze
[...]
Man vermeidet das Henne<->Ei Problem, welches ja z.B. Nvidia mit NVLink lösen muss wenn Steckplätze zum Einsatz kommen sollen und nicht fest verlötete fertige Nodes. Das erschwert das spätere aufrüsten durch schnellere Hardware.
Infinity Fabric über PCIe ist ziemlich sinnlos, da die Bandbreite auf PCIe-Niveau festhängt - wie auch sonst. Es müsste spezielle Mainboards geben, die auf einem mechanischen PCIe-Slot elektrisch Infinity Fabric unterstützen. Nur gibt es dann weder eine CPU, die über ihren Sockel Infinity Fabric nach außen auf das Mainboard führt, noch eine GPU, die selbiges auf dem PCIe tut.
Der Vergleich mit NVLink ist also Blödsinn, weil NVLink eben genau gegenüber Infinity Fabric den Vorteil der vielfach höheren Bandbreite hat - und sobald Infinity Fabric diesen Vorteil ausgleichen soll, ist es eben kein PCIe mehr.
Du hast offensichtlich das Konzept und dessen Limitierungen nicht verstanden. AMD hat das Henne/Ei-Problem genauso wie NVIDIA. Der Unterschied: NVIDIA liefert bereits seit gut einem Jahr entsprechende GPUs aus, demnächst die zweite Generation und entsprechende CPUs gibt es auch. Die Vega-Karten beherrschen offensichtlich nur PCIe.
BoMbY
2017-05-24, 13:25:58
Infinity Fabric über PCIe ist ziemlich sinnlos, da die Bandbreite auf PCIe-Niveau festhängt - wie auch sonst. Es müsste spezielle Mainboards geben, die auf einem mechanischen PCIe-Slot elektrisch Infinity Fabric unterstützen.
Falsch. Die würden einfach ein anderes Protokoll nutzen, wenn beide Seiten das unterstützen. Gen-Z zum Beispiel ist theoretisch voll abwärtskompatibel (auch mechanisch/elektrisch) zu PCIe, und bietet höhere Datenraten pro Lane.
Klevapalis
2017-05-24, 13:31:36
Falsch. Die würden einfach ein anderes Protokoll nutzen, wenn beide Seiten das unterstützen. Gen-Z zum Beispiel ist theoretisch voll abwärtskompatibel (auch mechanisch/elektrisch) zu PCIe, und bietet höhere Datenraten pro Lane.
Blödsinn, Folie 9:
https://www.openfabrics.org/images/eventpresos/2017presentations/213_CCIXGen-Z_BBenton.pdf
GenZ ist ausschließlich mechanisch kompatibel zu PCIe und nicht ohne Grund ist CCIX, das tatsächlich auf dem PCIe Bus basiert, auf 32 GB/s limitiert. Und nicht ohne Grund steht bei GenZ auch noch, dass man zukünftige andere mechanische Busse einführen will.
Screemer
2017-05-24, 14:06:23
Warum PCIe - nun elektrisch betrachtet ist mittlerweile fast alles "PCIe" (gemeint ist da wie ein Signal übertragen wird), auch IF, USB oder SATA übertragen Daten wie PCIe. Die Protokolle die darüber gefahren werden sind allerdings jeweils andere.
Das bedeutet dass zumindest der Teil der für die reine Signalübertragung und verarbeitung zuständig ist, immer der gleiche ist. Einem Kombiinterface sollte damit nichts im Wege stehen. Nur nebenbei bemerkt, über den selben USB-C Stecker werden sehr unterschiedliche Protokolle übertragen.
Worin sich PCIe und IF unterscheiden kann ich nicht sicher sagen, so wie ich es verstanden habe, ist PCIe ein serielles Protokoll, also die ganzen Metainformationen über die Daten werden zwischen den Datenblöcken auf der selben Leitung gesendet. Bei IF sind Daten und die Steuerung getrennt. Weiters fällt bei PCIe dieser Overhead pro Lane an. Bei der reinen Datenübertragung (Bandbreite) dürfte sich PCIe und IF nicht signifikant unterscheiden, aber PCIe hat wohl deutliche Latenzen und IF hat für Steuerung und andere Übertragungen mit niedriger Bandbreite sehr niedrige Latenzen. Wie das allerdings genau funktioniert, ist mir aber noch ein Rätsel.
Das ich nicht die sonstigen spezifizierten Teile wie connectoren von pcie meine, war für mich offensichtlich. Bei löschzwerg scheint das auch so angekommen zu sein. Infinity Fabric ist eine Weiterentwicklung von HT. Die Unterschiede zwischen diesen sind ja soweit klar und auch schon früher diskutiert worden. IF packt allerdings noch mal ordentlich Bandbreite pro Link auf die letzte HT-Spec oben drauf. Jetzt frag ich mich halt wieviel da netto über bestehende pcie-links zu holen ist, wenn man IF als Protokoll nutzt.
Complicated
2017-05-24, 14:09:06
Das stimmt CCIX ist auf 32 GB/s limitiert bei 16 PCIe 3.0 Lanes. Das ist doppelt so viel als es über reines PCIe 3.0 ist - da sind es nämlich lediglich 16 GB/s.
Die 25 GT/s benötigen PCIe 4.0, welches dann max. 32 GB/s kann während CCIX dort schon die 50 GB/s bringt. Wobei der PCIe Standard bis zu 32x Lanes vorsieht - mal sehen wer das vielleicht im Serverbereich nutzen möchte, mit entsprechenden Verdopplungen auch bei CCIX.
PCIe 3.0: 8 GT/s Vollduplex
CCIX: 16 GT/s Vollduplex (25 GT/s optional)
https://forums.xilinx.com/t5/Xcell-Daily-Blog/CCIX-Consortium-develops-Release1-of-its-fully-cache-coherent/ba-p/727860
The CCIX consortium has chosen PCIe for the specification’s first transport layer, supporting several standard PCIe line rates (2.5, 8, and 16Gbps) with an additional high-speed 25Gbps option. However, the CCIX coherency protocol is actually agnostic of the link layer. At the existing PCIe line rates, this choice leverages the existing PCIe ecosystem including silicon, connectors, chip- and board-level design IP, and software. The faster 25Gbps rate will require something different.
Screemer
2017-05-24, 14:13:47
Infinity Fabric über PCIe ist ziemlich sinnlos, da die Bandbreite auf PCIe-Niveau festhängt - wie auch sonst. Es müsste spezielle Mainboards geben, die auf einem mechanischen PCIe-Slot elektrisch Infinity Fabric unterstützen. Nur gibt es dann weder eine CPU, die über ihren Sockel Infinity Fabric nach außen auf das Mainboard führt, noch eine GPU, die selbiges auf dem PCIe tut.
Das sind schon mal alles reine Vermutungen deinerseits. Die Präsentation zu Epyc zeigt ganz klar, dass auch CPUs über IF angebunden werden sollen und die Boards für Epyc haben keine speziellen connectoren für IF. Nur weil NV das für ihren NVlink benötigt, heißt das noch lange nicht, dass AMD das auch tut. Deshalb hab ich die Diskussion Oberhaupt angestoßen. Die Behauptung man wäre mit einem anderen Protokoll auf die Bandbreite des PCIe-Links festgenagelt stimmt so schlicht und ergreifend nicht. Das andere Protokolle ganz andere Bandbreiten auf bestehenden Links zulassen, kannst du ganz simpel am einfachen beispiel IEEE 1901 sehen.
https://s14.postimg.org/rgf0wv38x/image.jpg
Klevapalis
2017-05-24, 14:16:25
At the existing PCIe line rates, this choice leverages the existing PCIe ecosystem including silicon, connectors, chip- and board-level design IP, and software. The faster 25Gbps rate will require something different.
Tja, soviel eben zu deiner tollen Behauptung, NVIDIA hätte ein Henne/Ei-Problem und AMD nicht. AMD hat es genauso. Defakto wird Infinity Fabric nur über PCIe getunnelt, wenn man zu PCIe kompatibel sein will, und das wird unterm Strich ziemlich sinnlos sein. Coherence wird es nicht für lau geben, ergo wird die Netto-Datenrate unterhalb von reinem PCIe sein.
Wenn man wirklich die Bandbreiten stark steigern will - also dahin will, wo NVIDIA mit NVLink heute schon ist - muss man genauso einen neuen elektrischen und mechanischen Bus einführen.
Für Vega10 - um mal zum Thema zurück zu kommen - gibt es da definitiv nichts, nur PCIe. Sonst hätte man es mit der Frontier Edition gezeigt.
Das sind schon mal alles reine Vermutungen deinerseits. Die Präsentation zu Epyc zeigt ganz klar, dass auch CPUs über IF angebunden werden sollen und die Boards für Epyc haben keine speziellen connectoren für IF. Nur weil NV das für ihren NVlink benötigt, heißt das noch lange nicht, dass AMD das auch tut.
Die Präsentation von Epyc zeigt eindeutig, dass die Infinity Fabric nur als CPU<->CPU Interconnect genutzt wird.
Der einzige "High Speed I/O" (;D) der nach außen über den Sockel geht ist - Oh Wunder! - PCIe:
https://cdn01.hardwareluxx.de/razuna/assets/1/372E71F19DBC4FDA93C4C370219B4189/img/81EC313FD38041C4B1BA1F8D9B7C06D0/amd-fad17-datacenter-pressdeck-15_81EC313FD38041C4B1BA1F8D9B7C06D0.jpg
Es ist doch völlig irrelevant, was Infinity Fabric theoretisch könnte, wenn es keine Produkte gibt, die diese Technik nutzen :rolleyes:
Screemer
2017-05-24, 14:23:17
Tja, soviel eben zu deiner tollen Behauptung, NVIDIA hätte ein Henne/Ei-Problem und AMD nicht. AMD hat es genauso. Defakto wird Infinity Fabric nur über PCIe getunnelt, wenn man zu PCIe kompatibel sein will, und das wird unterm Strich ziemlich sinnlos sein. Coherence wird es nicht für lau geben, ergo wird die Netto-Datenrate unterhalb von reinem PCIe sein.
Schwachsinn ein Protokoll ist unabhängig vom Layer. Complicated hat ja schon gezeigt, dass ccix höhere Bandbreiten über den selben Mayer bieten kann als pcie. Bei IF sieht es dann nicht anders aus. Natürlich müssen beide Endstellen also GPU und CPU IF als Protokoll unterstützen. Vega und alle Zen-basierenden chips tun das. Ob es Pins bei AM4 gibt ist fraglich. Die ursprüngliche Diskussion hat sich auch um Threadripper, Epyc und Vega gedreht. Die folie die ich oben gepostet hab hast du aber gesehen, oder?
Digidi
2017-05-24, 14:28:43
PCIe wird ja über den Prozessor gesteuert. Wenn der aber nun erkennt das da auf der gegenuberligende Seite eine Data Fabric von Vega ist, dann schaltet er auf Infinity Fabric um. Das wäre meine Idee dazu
Klevapalis
2017-05-24, 14:34:11
Vega und alle Zen-basierenden chips tun das.
Auf dem PCIe Bus? Bitte Link.
Die folie die ich oben gepostet hab hast du aber gesehen, oder?
Ja, deshalb schrieb ich ja:
Es ist doch völlig irrelevant, was Infinity Fabric theoretisch könnte, wenn es keine Produkte gibt, die diese Technik nutzen
Deine Folie nennt nicht ohne Grund keine konkreten Produkte. Weil da gibt es in naher Zukunft schlicht nichts, weder Vega, noch Epyc.
@Digidi:
Auch dann hätte AMD das Henne/Ei-Problem.
Digidi
2017-05-24, 14:37:18
Welches Henne Ei Problem??? Bitte konkretisieren!
Screemer
2017-05-24, 14:45:21
Das es für IF angeblich neue mechanische und elektrische interconnects braucht. Dafür hat er natürlich keine belege und stellt seine Vermutungen als Fakten dar.
Kriton
2017-05-24, 14:46:15
Die Präsentation von Epyc zeigt eindeutig, dass die Infinity Fabric nur als CPU<->CPU Interconnect genutzt wird.
Daher kam zumindest ich. Wir reden schließlich über Multi-GPU auf einem Interposer. Zumindest war das mal der Auslöser.
Digidi
2017-05-24, 14:48:09
Also soweit ich weiß ist zwischen CPU und GPU nur Kupfer. Wie sie dann kommunizieren hängt dann nur vom Handshake ab was die CPU und die GPU vereinbaren. Natürlich muss das Kupfer das mitmachen. Das ist nun die Frage.
Screemer
2017-05-24, 14:50:20
@Kriton: die Diskussion um IF als interconnect startet hier und ist unabhängig von der Diskussion über multigpu: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11383758#post11383758
Epyc nutzen zumindest für den interconnect zwischen den Sockeln IF. Also wird IF auf jeden Fall aus dem Sockel geführt.
https://s27.postimg.org/krhrd7wsj/image.jpg
Kann aber ja nach klevapalis nicht sein...
Klevapalis
2017-05-24, 14:59:20
Welches Henne Ei Problem??? Bitte konkretisieren!
Dass passende Hardware auf beiden Seiten notwendig ist (GPU + Host).
Das es für IF angeblich neue mechanische und elektrische interconnects braucht. Dafür hat er natürlich keine belege und stellt seine Vermutungen als Fakten dar.
Bitte lesen und verstehen, was ich schreibe. Meine Aussage war, wenn Infinity Fabric über PCIe genutzt wird, ist es schlicht sinnlos, weil die Bandbreite auf PCIe limitiert ist.
Sobald man die Bandbreite steigern will, ist man mit Infinity Fabric beim exakt gleichen Henne/Ei Problem wie NVIDIA mit NVLink.
Auch dein "unterstützen" von Epyc ist von deinem Link nicht gedeckt. In deinen verlinkten Folien geht es allgemein um Infinity Fabric und wie ich bereits nachgewiesen habe, nutzt es AMD auch nur als CPU-Interconnect. Nach außen an die restliche Hardware nutzt AMD nur PCIe.
Screemer
2017-05-24, 15:03:55
Dass passende Hardware auf beiden Seiten notwendig ist (GPU + Host).
Bitte lesen und verstehen, was ich schreibe. Meine Aussage war, wenn Infinity Fabric über PCIe genutzt wird, ist es schlicht sinnlos, weil die Bandbreite auf PCIe limitiert ist.
Sobald man die Bandbreite steigern will, ist man mit Infinity Fabric beim exakt gleichen Henne/Ei Problem wie NVIDIA mit NVLink.
Dass das mit der Bandbreite nicht stimmt zeigt ccix in der bestehenden spec. Natürlicu müssen Vega und Epyc/Threadripper das unterstützen. Darum gehts Oberhaupt nicht. Das Vega keine Möglichkeit hat IF statt pcie auf protokollebene zu nutzen ist schlicht eine Behauptung von dir. Wir sind hier im Spekuthread und spekulieren über etwaige Möglichkeiten. Du stellst deinen glauben als Fakten dar. Lass das sein, verdammt noch mal!
Auch dein "unterstützen" von Epyc ist von deinem Link nicht gedeckt. In deinen verlinkten Folien geht es allgemein um Infinity Fabric und wie ich bereits nachgewiesen habe, nutzt es AMD auch nur als CPU-Interconnect. Nach außen an die restliche Hardware nutzt AMD nur PCIe.
Na dann schau dir mein letztes post noch mal genau an.
Digidi
2017-05-24, 15:08:31
Deshalb hat man ja den PCI Slot direkt an die CPU angebunden das sowas möglich ist. Es liegt nur Kupfer zwischen CPU und GPU.
Früher war da ja noch die North/Southbridge dazwischen.
Wenn Vega IF hat und Ryzen auch warum sollten sie dann nicht auch über if miteinander kommunizieren können? Amd hat das bestimmt auf einigen Mainboards getestet.
Screemer
2017-05-24, 15:14:42
Weil unser Klevapalis das so sagt. Punkt.
Troyan
2017-05-24, 15:17:45
Wenn Vega IF hat und Ryzen auch warum sollten sie dann nicht auch über if miteinander kommunizieren können? Amd hat das bestimmt auf einigen Mainboards getestet.
Natürlich können die miteinander über IF "kommunizieren" - jedoch eben nicht mit dem vollen Speed von PCIe, da die Steuerungsinformationen im Stream kodiert übertragen werden müssen.
Kriton
2017-05-24, 15:19:57
Natürlich können die miteinander über IF "kommunizieren" - jedoch eben nicht mit dem vollen Speed von PCIe, da die Steuerungsinformationen im Stream kodiert übertragen werden müssen.
Wenn PCIe nur als physikalische Verbindung genutzt wird, das IF-Protokoll jedoch effizienter ist, dann kann das prinzipiell sogar schneller sein. Deine Aussage macht IMHO nur Sinn, wenn sie auch das Protokoll von PCIe in irgendeiner Form nutzen würden.
Klevapalis
2017-05-24, 15:27:29
Dass das mit der Bandbreite nicht stimmt zeigt ccix in der bestehenden spec. Natürlicu müssen Vega und Epyc/Threadripper das unterstützen. Darum gehts Oberhaupt nicht. Das Vega keine Möglichkeit hat IF statt pcie auf protokollebene zu nutzen ist schlicht eine Behauptung von dir. Wir sind hier im Spekuthread und spekulieren über etwaige Möglichkeiten. Du stellst deinen glauben als Fakten dar. Lass das sein, verdammt noch mal!
Auch CCIX erlaubt nur PCIe-Bandbreiten, wenn man zu PCIe kompatibel sein soll. Ansonsten muss man spezielle Endgeräte haben.
Ob diese Endgeräte dann CCIX über PCIe nutzen oder NVLink ist beim Henne/Ei-Problem völlig irrelevant. Es spricht eher für NVLink, weil dort die Bandbreite um den Faktor 10 höher als bei PCIe ist, während es bei CCIX nur Faktor 2 ist.
Na dann schau dir mein letztes post noch mal genau an.
Auch dort identisch: CPU-Interconnect. Damit wirst du keine GPU ansteuern können.
Ansonsten zeig doch mal bitte den entsprechenden für GPU nutzbaren Intereconnect am Epyc und das entsprechende Gegenstück bei Vega.
Wenn Vega IF hat und Ryzen auch warum sollten sie dann nicht auch über if miteinander kommunizieren können? Amd hat das bestimmt auf einigen Mainboards getestet.
Auf welchem Stecker hat Vega denn Infinity Fabric laufen? Wenn es PCIe ist: Siehe oben.
Das ist ne ganz andere Liga als NVLink, gerade im Zusammenspiel mit Power8/9.
Screemer
2017-05-24, 15:40:44
Auch dort identisch: CPU-Interconnect. Damit wirst du keine GPU ansteuern können.
Ansonsten zeig doch mal bitte den entsprechenden für GPU nutzbaren Intereconnect am Epyc und das entsprechende Gegenstück bei Vega.
HT als link war schon agnostisch gegenüber den verbindungen. Du glaubst IF das als Protokoll ein "enhanced coherent HT protocol" nutzt wäre da anders? Deine Aussage, dass ccix nur pcie-bandbreiten unterstützt, wenn man zu pcie kompatibel sein will ist doch völlig unstrittig. Man kann aber die doppelte Bandbreite aus den gleichen links kitzeln, wenn man eben zwei ccix Geräte am selben Bus nutzt. Ob der mechanisch pcie nutzen ist völlig irrelevant, wenn alle spezifizierten Parameter eingehalten werden. Nutz t man die spezifizierten CCIX Links, dann ist die 4fache Bandbreite gegenüber PCIe möglich. Das Nvlink auf 10x brutto gegenüber 16x pcie3.0 muss es erst mal unter beweisstellen und nicht nur auf bunten marketingfolien von NV. Mir scheint es so als ob du den unterschied zwischen Elektischembus und Protokoll nicht versteht oder gekonnt ignorierst.
Es ist doch auch völlig unstrittig, dass nvlink in Kombination mit power9 ein ganz anderes Pferd ist. Dafür muss man aber auch ordentlich investieren. Die Herstellet in die Infrastruktur auf den Boards/Karten und der Kunde in die dann schweineteure Hardware.
Hättest du die Diskussionen von Beginn an verfolgt, dann hättest du auch gesehen worum es ging. Nämlich um Workstationsituationen und nicht um HPC-Konzepte. Da ist nämlich in manchen Situatiinen jedes GB\s wertvoll.
Ich habe einfach mal die Spekulation angestoßen, was wäre wenn. Aber nein ist nicht sagt der Herr. Diskussion beendet.
Klevapalis
2017-05-24, 15:49:59
Man kann aber die doppelte Bandbreite aus den gleichen links kitzeln, wenn man eben zwei ccix Geräte am selben Bus nutzt.
Aha. So und jetzt erkläre doch mal bitte, wo AMD kein Henne/Ei Problem haben will, wenn man sowohl Host (GPU), als auch Ei (Host) entsprechend kaufen muss.
Ich habe einfach mal die Spekulation angestoßen, was wäre wenn. Aber nein ist nicht sagt der Herr. Diskussion beendet.
Da weder Vega, noch Epyc, Infinity Fabric über eine externe Schnittstelle (für den Herrn Klugscheißer: außer für die CPU-Interkommunikation beim Epyc) implementiert haben, ist die Diskussion auch beendet.
Screemer
2017-05-24, 15:56:25
Da weder Vega, noch Epyc, Infinity Fabric über eine externe Schnittstelle (für den Herrn Klugscheißer: außer für die CPU-Interkommunikation beim Epyc) implementiert haben, ist die Diskussion auch beendet.
Das ist eine Behauptung von dir. Die zichfache Wiederholung macht es nucht besser. Wurde sind hier im Spekuthread und spekulieren über hypothetische Möglichkeiten.
Bei der Vorstellung von ryzen gab es Bereiche, die nicht eindeutig dem ccx oder den ddr4-phys zuzuordnen waren. Warum soll Zeppelin nicht auch phys für dedizierte IF-Links oder gar hybid-phys für pcie und if mitbringen? Warum sollte Vega das nicht auch tun? Warum können es keine hybird pcie-phys bei Vega sein?
Verdammte Kacke wir sind hier im Spekulationssub. Wenn dir das nicht passt, dann halt dich raus und preise deinen Lederjacken Gott im entsprechenden Thread.
Klevapalis
2017-05-24, 16:01:53
Das ist eine Behauptung von dir. Die wiederholt du nun zum zichstrn mal. Wurde sind hier im Spekuthread und spekulieren über hypothetische Möglichkeiten.
Da braucht man nicht spekulieren, weil die technischen Daten bereits von AMD veröffentlicht wurden. Sowohl für Vega10, als auch für Epyc. Spekuliere lieber über Dinge, die noch nicht öffentlich sind.
Bei der Vorstellung von ryzen gab es Bereiche, die nicht eindeutig dem ccx oder den ddr4-phys zuzuordnen waren. Warum soll Zeppelin nicht auch phys für dedizierte IF-Links oder gar hybid-phys für pcie und if mitbringen? Warum sollte Vega das nicht auch tun? Warum können es keine hybird pcie-phys bei Vega sein.
Warum sollte AMD damit werben, wenn all diese tollen Features vorhanden sind? Warum fehlen diese Angaben auf den offiziellen Folien? Warum gibt es dann bereits technischen Daten von Servern mit Mi25 (=Vega10), bei denen nur PCIe 3.0 als Schnittstelle genannt wird?
Einfach: Weil es das nicht gibt. Du darfst dir aber gern weiterhin ganz, ganz feste einbilden, dass es diese Features irgendwo gibt. Aber wundere dich nicht, wenn ich dir mit Fakten widerspreche.
Da braucht man nicht spekulieren, weil die technischen Daten bereits von AMD veröffentlicht wurden. Sowohl für Vega10, als auch für Epyc. Spekuliere lieber über Dinge, die noch nicht öffentlich sind....
Es wurde dir bereits mehrfach dargelegt, welche anderen Möglichkeiten bestehen.
Oder sagst du, du weißt zu 100%, daß lediglich PCIe-Bandbreite verfügbar sein wird?
Klevapalis
2017-05-24, 16:11:15
Oder sagst du, du weißt zu 100%, daß lediglich PCIe-Bandbreite verfügbar sein wird?
Jupp. Alles Andere hätte AMD doch schon laut verkündet.
Kriton
2017-05-24, 16:16:59
Jupp. Alles Andere hätte AMD doch schon laut verkündet.
Warum sollten sie? Ein paar Dinge kann man auch kurz vor oder zum launch bringen.
Seine Frage war ja:
weiß man eigentlich schon ob ryzen auch die pcie links als infinity fabric links, mit enhanced coherent HT als protokoll, nutzen kann, um schneller mit vega zu kommunizieren bzw. hbcc schneller an die daten aus dem ram und nicht flüchtigen speicher kommen kann?
Dein Henne-Ei-Problem besteht also im Kontext der Fragestellung nicht, weil er explizit innerhalb des AMD-eigenen Ökosystems gefragt hat.
grauenvoll
2017-05-24, 17:03:09
Auch CCIX erlaubt nur PCIe-Bandbreiten, wenn man zu PCIe kompatibel sein soll. Ansonsten muss man spezielle Endgeräte haben.
Ob diese Endgeräte dann CCIX über PCIe nutzen oder NVLink ist beim Henne/Ei-Problem völlig irrelevant. Es spricht eher für NVLink, weil dort die Bandbreite um den Faktor 10 höher als bei PCIe ist, während es bei CCIX nur Faktor 2 ist.
Man sollte das Problem nicht nur auf die Bandbreite beschränken. Sie ist garnicht so sehr das Problem. PCIe erlaubt nicht einen so tiefen Zugriff auf die CPU wie notwendig. So ist es z.B. von einem Device über PCIe nicht möglich Teile des Caches der CPU als invalid zu markieren.
Etwas Nachhilfe:
https://sites.utexas.edu/jdm4372/2013/05/29/notes-on-cached-access-to-memory-mapped-io-regions/
AMDs Ansatz ist wesentlich leichter umzusetzen als NVLink.
Troyan
2017-05-24, 17:13:08
Man sollte das Problem nicht nur auf die Bandbreite beschränken. Sie ist garnicht so sehr das Problem.
AMDs Ansatz ist wesentlich leichter umzusetzen als NVLink.
Natürlich ist die Bandbreite das primäre Problem. Es ist der einzige Grund, wieso solche Verbindungen deutlich schneller werden.
NVLink kann mit bis zu 80GB/s bzw. 150GB/s aus dem Systemspeicher von Power8 bzw. Power9 lesen. Erst mit solchen Geschwindigkeiten machen Unified-Memory-Systeme zwischen CPU und dGPU überhaupt Sinn.
Deswegen ist auch die Diskussion nicht frucht- sondern furchtbar. Niemand will mit 16GB/s aus der CPU bzw. dem Systemspeicher lesen. Das ist grausam langsam und beschränkt massiv die Nutzbarkeit von Systemen.
Screemer
2017-05-24, 17:30:42
Wollte man das, dann würde man auf pcie3.0 setzen. Die Diskussion geht aber in eine völlig andere richtig. Eben den vorhanden physikalischen layer von pcie mit IF als Protokoll zu nutzen. Was ist daran so schwer zu verstehen? Ccix bringt es schon auf die doppelte Bandbreite mit dem selben physikalischen layer wie pcie3.0. warum sollte IF da nicht noch was oben drauf packen? Was von deinen 80gb/s übrig bleiben siehst du ja hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11384018#post11384018).
Troyan
2017-05-24, 17:55:07
Wollte man das, dann würde man auf pcie3.0 setzen. Die Diskussion geht aber in eine völlig andere richtig. Eben den vorhanden physikalischen layer von pcie mit IF als Protokoll zu nutzen. Was ist daran so schwer zu verstehen? Ccix bringt es schon auf die doppelte Bandbreite mit dem selben physikalischen layer wie pcie3.0. warum sollte IF da nicht noch was oben drauf packen? Was von deinen 80gb/s übrig bleiben siehst du ja oben.
Wie wäre es, wenn man die verlinkte PDF-Datei sich genau anschaut: https://www.openfabrics.org/images/eventpresos/2017presentations/213_CCIXGen-Z_BBenton.pdf
Ccix hat nur die doppelte Bandbreite, wenn in eine Richtung kommuniziert wird. Es hat die selbe Bandbreite, wenn beidseitig kommuniziert werden muss.
Screemer
2017-05-24, 18:25:21
Wie wäre es, wenn man die verlinkte PDF-Datei sich genau anschaut: https://www.openfabrics.org/images/eventpresos/2017presentations/213_CCIXGen-Z_BBenton.pdf
Ccix hat nur die doppelte Bandbreite, wenn in eine Richtung kommuniziert wird. Es hat die selbe Bandbreite, wenn beidseitig kommuniziert werden muss.
Wie wärs, wenn du mich nicht einfach anblaffen würdest? Das file wurde verlinkt bevor ich die Diskussion überhaupt angestoßen hatte und war in Zusammenhang mit der multigpu Diskussion. Die hat mich aber nicht besonders interessiert und deshalb ist das Dokument an mir vorbei gegangen.
Ernst gemeint Frage interpretiert noch jemand außer troyan unidrectional bandwidth 32gb/s so, dass das nur halfdublex als Durchsatz gilt? Ich kann in dem PDF sonst nix finden. Für obencapi sind auch 25gb/s angegeben ka ob das bidirektional ist. Bei power9 nutzen auf jeden Fall nvlink2 und opencapi3.0 die gleichen 25g ports. Wenn nicht alle seiten die bisher über opencapi berichtet haben falsch liegen, dann ist das pro lane. Letzteres glaube ich nicht. Viel wichtiger als ccix in dem Dokument ist die Aufteilung bei gen-z und der nebenstehende Text: Signaling Rates: 16, 25, 28, 56 GT/s / Supports existing PCIe mechanicals/form factors. Das gilt auch für die höheren signalraten. Das ist also auch für IF denkbar.
Klevapalis
2017-05-24, 18:55:30
Warum sollten sie? Ein paar Dinge kann man auch kurz vor oder zum launch bringen.
Weil man u.A. Server damit angekündigt hat.
Dein Henne-Ei-Problem besteht also im Kontext der Fragestellung nicht, weil er explizit innerhalb des AMD-eigenen Ökosystems gefragt hat.
Die Grundaussage auf die ich mich beziehe war, dass AMD anders als NVLink kein Henne/Ei-Problem hätte. Haben sie aber sehr wohl, wenn sie auf das Niveau von NVLink kommen wollen - was sie aber nicht sind.
Und es ist hier keine "fruchbare" Diskussion, weil es Derailing ist. Vega kann es nicht - was hat es dann im entsprechenden Thread zu suchen?
Ernst gemeint Frage interpretiert noch jemand außer troyan unidrectional bandwidth 32gb so, dass das nur halfdublex als Durchsatz gilt? Ich kann in dem PDF sonst nix finden.
Sieht wohl jeder so - also zumindest wer das PDF lesen kann und die Überschrift "unidirectional Bandwidth" lesen kann :rolleyes:
Aber ist wahrscheinlich Trolling, wenn man ein PDF auch wirklich liest :rolleyes:
Kriton
2017-05-24, 19:16:42
Die Grundaussage auf die ich mich beziehe war, dass AMD anders als NVLink kein Henne/Ei-Problem hätte. Haben sie aber sehr wohl, wenn sie auf das Niveau von NVLink kommen wollen - was sie aber nicht sind.
NVlink hast Du reingebracht (IIRC). Screemers Frage war (wie von mir zitiert) eine andere. Und Complicated (der das Henne-Ei-Thema angebracht hat) sprach explizit von den Steckplätzen. Und im Kontext von Screemers Frage hat er recht, dass es nicht exisitiert, weil eben auf die mechanischen PCIe-Steckplätze aufgesetzt wird.
Du ignorierst die formulierten Limitierungen der Leute, erweiterst die insoweit angesprochene Zielvorgabe und behauptest dann, dass die Ursprungsaussage falsch wäre weil Deine Zielvorgabe nicht erreicht wird.:freak:
Sieht wohl jeder so - also zumindest wer das PDF lesen kann und die Überschrift "unidirectional Bandwidth" lesen kann :rolleyes:
Aber ist wahrscheinlich Trolling, wenn man ein PDF auch wirklich liest :rolleyes:
Die Lesart ist legitim. Man kann es aber auch so lesen, dass die unidirectional bandwidth vollduplex erreicht wird. Dann würde das uni dafür stehen, dass es eben nur die bandwidth für eine Richtung betrifft. Das würde Sinn machen, wenn man die bandwidth nicht erhöhen könnte falls vollduplex nicht genutzt wird/werden kann.
Auf Basis der Folie allein würde ich mir kein abschließendes Urteil erlauben, auch wenn ich zumindest eher in Deine Richtung tendiere.
Hübie
2017-05-24, 20:59:32
Im Grunde ist das alles nicht so spannend. Vor allem weil wir hier bei Vega sind und NVLINK total OT ist. :D
Mich interessiert vorrangig die Leistung von Vega in Relation zum Preis. Polaris liegt aktuell bei 250 Euro und danach kommt nix ernsthaftes mehr. Fiji kauft man 2017 eigentlich nicht mehr. Also klingen 379, 499 und 599 plausibel, wenn man sich denn auch entsprechend bei 1070, 1080 und 1080 Ti einordnet (jeweils @stock aka Founder Edition als counterpart mit +/-
10% Leistung gerechnet).
Rincewind
2017-05-24, 21:11:15
Die Grundaussage auf die ich mich beziehe war, dass AMD anders als NVLink kein Henne/Ei-Problem hätte. Haben sie aber sehr wohl, wenn sie auf das Niveau von NVLink kommen wollen - was sie aber nicht sind.
öhm, wenn sie eh nicht in die Region von NVLInk kommen können, kann es doch auch kein Henne/Ei-Problem geben.
Rincewind
2017-05-24, 21:27:12
...
Also klingen 379, 499 und 599 plausibel, wenn man sich denn auch entsprechend bei 1070, 1080 und 1080 Ti einordnet (jeweils @stock aka Founder Edition als counterpart mit +/-
10% Leistung gerechnet).
Ist zwar alles Glaskugel, aber dies ist ja Speku-Forum: Warum nicht die gleichen Preise für 1080, 1080Ti, über 1080Ti?
Ich finde den Bereich um die 1070 absolut überflüssig.
5CH4CHT3L
2017-05-24, 21:44:19
Ist zwar alles Glaskugel, aber dies ist ja Speku-Forum: Warum nicht die gleichen Preise für 1080, 1080Ti, über 1080Ti?
Ich finde den Bereich um die 1070 absolut überflüssig.
Der Abstand zwischen 1060 und 1080 wäre aber schon ziemlich groß.
1070 ist so die gute WQHD 60Hz und Einsteiger 4k 60Hz Karte, zudem auch gut für hohe Wiederholraten bei FullHD sowie WQHD. Und 100€ mehr für die 1080 will halt doch nicht jeder bezahlen.
Rincewind
2017-05-24, 22:01:19
ja, der Unterschied ist relativ groß, aber eine neue Generation der AMD-Karte muss sich ja nicht preis-/leistungstechnisch zwingend am Mitbewerber richten. Warum soll der potentielle 1070-Käufer (Bereich) zum gleichen Preis nicht ne Vega im 1080-Bereich bekommen?
IMHO gehe ich davon aus, dass der überwiegende Teil der Käufer ein Budget hat und guckt, was man für den Preis an Leistung bekommt. Wenn man für den gleichen Preis eine Klasse höher bekommt ist das Argument pro AMD. Wichtig ist P/L.
Vielleicht bin ich ja auch nur naiv und möchte die Situation bei Ryzen auch bei Vega haben.
StefanV
2017-05-24, 22:29:53
Weil unser Klevapalis das so sagt. Punkt.
Und das verdammt übel für nVidia wäre, wenn AMD das implementieren würde....
Es braucht doch nur eines Negotioation Protokolls, um das ganze umschalten zu können. ggF könnte man das auch mit dem Treiber und der Abfrage der CPUID machen.
Die Frage ist also, warum sollte AMD das nicht implementieren und, wenn sie es nicht tun, was sie davon abgehalten hat. Die GPU und CPU unterstützen das ja. Da spricht sehr vieles dafür, dass man das auch im normalen Desktop nutzen könnte, wenn man eh elektrisch PCIe nutzt, nur logisch nicht.
Civtam
2017-05-24, 23:27:08
Vielleicht bin ich ja auch nur naiv und möchte die Situation bei Ryzen auch bei Vega haben.
Die Frage ist, ob AMD die gleiche Situation mit Vega wie bei Ryzen erzeugen möchte und kann. Wenn Vega sehr performant ist und in ausreichender Zahl lieferfähig, kann ich mir gut vorstellen, dass AMD wieder versucht Marktanteile zu gewinnen und ähnliche Leistung zu einem besseren Preis, oder für den gleichen Preis eine Leistungsklase höher anbietet.
Allerdings spricht Polaris ein wenig dagegen, hier ist P/L gefühlt recht ähnlich zu den Nvideapendants.
Gipsel
2017-05-25, 02:13:14
Mal ein wenig sortiert (es gibt bereits einen Thread zu P100).
Und bitte geht vernünftig miteinander um! Ich will hier keine Fanboy-Grabenkämpfe sehen.
Gipsel
2017-05-25, 02:29:11
Zum Thema:
Also auf den geleakten Folien zur Vega 10/20 und ROCm 2017/18 steht bei Vega 10 PCIe 3.0 und bei Vega 20 xGMI und PCIe 4.0 als Interconnect. Das schließt es nicht völlig aus, daß auch schon Vega 10 xGMI (dann eben bei etwas niedrigeren Datenraten als Vega 20) beherrscht, ein Indiz dafür ist es aber erstmal auch nicht gerade.
Letzteres (also xGMI über PCIe 3.0 Kombi-PHYs) benutzt ja bereits auch Epyc als Interconnect über PCIe-Kombi-PHYs zwischen den Sockeln (Infinity Fabric aka GMI extern, also off-Die/off-Package). Hat AMD eigentlich schon mal verkündet, mit welchen Datenraten genau das zwischen den Sockeln läuft? Ohne PCIe-Slots nur über die Sockel könnte man ja vielleicht ein paar Gbps mehr rausquetschen. Die Verbindung der bis zu vier Dies innerhalb eines Packages mittels GMI/Infinity Fabric läuft übrigens über eigene, separate PHYs (das geht ganz offenbar nicht über die PCIe-PHYs). Daran sieht man also sofort, daß das recht flexibel ist, über welchen physischen Layer die eigentliche Datenübertragung läuft.
@Troyan:
Nein, Bandbreite ist längst nicht Alles.
Tamagothi
2017-05-25, 02:52:34
Hat AMD eigentlich schon mal verkündet, mit welchen Datenraten genau das zwischen den Sockeln läuft?
Nein nur das bei 2 Sockel Systeme 64 Lanes benutzt werden.
AffenJack
2017-05-25, 07:35:55
Zum Thema:
Also auf den geleakten Folien zur Vega 10/20 und ROCm 2017/18 steht bei Vega 10 PCIe 3.0 und bei Vega 20 xGMI und PCIe 4.0 als Interconnect. Das schließt es nicht völlig aus, daß auch schon Vega 10 xGMI (dann eben bei etwas niedrigeren Datenraten als Vega 20) beherrscht, ein Indiz dafür ist es aber erstmal auch nicht gerade.
Auf dieser ROCm Folie steht auch 7nm für V20, aber das wird wohl nicht eintreten, wie die FAD Folien gezeigt haben. Daher würde ich die immernoch mit Vorsicht sehen, kann alles auch nur ein guter Fake sein.
grauenvoll
2017-05-25, 10:26:04
NVLink kann mit bis zu 80GB/s bzw. 150GB/s aus dem Systemspeicher von Power8 bzw. Power9 lesen. Erst mit solchen Geschwindigkeiten machen Unified-Memory-Systeme zwischen CPU und dGPU überhaupt Sinn.
NVLink hat sicher einiges an Reserven für die Zukunft. Aktuell fallen mir aber kaum Anwendungen ein, für das notwendig ist. Allein der Sprung von PCIe x8 auf x16 bringt in den seltensten Fällen einen Vorteil. Aus meiner Sicht ein Marketingfeature um mit einer proprietären Schnittstelle Lizenzkosten zu einzuspielen und nVidias Marktvorsprung zu zementieren. Wenn der Bus mal etabliert sein sollte, kann es als Alleinstellungsmerkmal für sich verbuchen. Das haben sie in der Vergangenheit schon oft genug paktiziert.
Fragman
2017-05-25, 12:36:26
NVLink hat sicher einiges an Reserven für die Zukunft. Aktuell fallen mir aber kaum Anwendungen ein, für das notwendig ist. Allein der Sprung von PCIe x8 auf x16 bringt in den seltensten Fällen einen Vorteil. Aus meiner Sicht ein Marketingfeature um mit einer proprietären Schnittstelle Lizenzkosten zu einzuspielen und nVidias Marktvorsprung zu zementieren. Wenn der Bus mal etabliert sein sollte, kann es als Alleinstellungsmerkmal für sich verbuchen. Das haben sie in der Vergangenheit schon oft genug paktiziert.
wenn du 2 v100 hast, verdoppelt sich der ram, also 32 statt 16. bei dem vlc dann bis zu 128gb. wie das ganze performt am ende, muss man sehen. aber die bandbreite wurde bei volta ja deutlich erhoeht.
sowas haette ich gern mal zum testen fuers rendering. leider macht der preis, selbst fuer 2 karten, dem ganzen einen strich durch die rechnung.
zu vega, bringt deren speicher spar tech auch im rendering was? gibts da mittlerweile infos?
Skysnake
2017-05-25, 15:26:12
Jupp. Alles Andere hätte AMD doch schon laut verkündet.
Genau das hat AMD doch auch gemacht...
Es gibt mehrere Folien auf denen AMD sagt das Vega IF unterstützt. Das wurde sogar hier im Top ich bereits verlinkt und zwar mehrfach
Vega und Zen sind IF-Produkte, das ist laut und klar kommuniziert worden AFAIK.
Ich geh mal schon davon aus, dass beide Produkte PCIe auf IF konfigurieren können, warum sonst sollte man dafür ein spezielles Protokoll für den PCIe-Port entwickeln? für Nüsse? Die Frage ist wohl eher, ob das nur in Pro-Produkten (Epic, FE und Pro/Instinct) aktiv ist oder überall. Darum dreht sich jetzt alles. Die technische Seite ist in meinen Augen unzweifelhaft. Wenn man sowas entwicklt, wird man das alleine schon aufgrund der Profiprodukte so schnell wie möglich implementieren.
Dennoch werde ich aus Vorsicht mit dem Zen-Kauf warten, wer weiss, was die Mobo-Hersteller mal wieder für Scheiss fabriziert haben, dass es hinterher doch nicht läuft, weil das BIOS Mist ist oder die Implementation auf dem Board, das kennt man ja bei neuen Technologien. Wenns gar nicht geht, wirds wohl ein Coffeelake bei mir, dann ist es auch egal.
Kriton
2017-05-25, 16:47:51
Ich geh mal schon davon aus, dass beide Produkte PCIe auf IF konfigurieren können, warum sonst sollte man dafür ein spezielles Protokoll für den PCIe-Port entwickeln? für Nüsse?
Das war nicht speziell für PCIe (aber damit nutzbar), das hatten wir hier doch schon?
Hübie
2017-05-25, 18:22:13
Na ja irgendwie sind alle LVDS Signalverarbeitungssysteme ähnlich / gleich. ;) Also dass man die untereinander koppeln kann ist irgendwie klar.
[MK2]Mythos
2017-05-26, 00:54:53
Hatten wir das schon? 8 GB HBM2 Speicher kosten 160$.
http://www.fudzilla.com/news/graphics/43731-vega-hbm-2-8gb-memory-stack-cost-160
Hübie
2017-05-26, 01:05:35
Wir hatten uns mal über Preise unterhalten:
Jeweils auf 1 GB bezogen:
GDDR5 fängt bei ~6$ an und steigt auf knappe 10 (8 Gbps)
GDDR5X sehr wahrscheinlich so um die 12$ mit Tendenz darunter zu liegen
HBM2 ca. 18$ wobei AMD hier sicher mehr zahlen darf weil NV mehr herum heult ;D
Na ja nun hat man eine klarere Marschrichtung. Das es teuer ist war wohl schon jedem klar. Danke fürs Teilen. :up:
Der_Korken
2017-05-26, 01:09:23
Mythos;11384978']Hatten wir das schon? 8 GB HBM2 Speicher kosten 160$.
http://www.fudzilla.com/news/graphics/43731-vega-hbm-2-8gb-memory-stack-cost-160
Wenn das die ungefähren Einkaufspreise für HBM2 sind, wäre eine 16GB-Karte locker 200$ teurer als eine 8GB-Karte. Sofern die GPU also mit 8GB zufriedenstellend läuft, wird man keine 16GB-Modelle für Gaming bringen aus der Motivation heraus, dass sich 16GB besser lesen als 8GB. Den Aufpreis holt man damit nicht wieder rein. Umso wichtiger dass die neue cachebasierte Speicherverwaltung einschlägt, da es ein unschätzbarer Kostenvorteil ist.
Tamagothi
2017-05-26, 01:23:27
Man darf aber auch nicht vergessen das HBM auch kosten einspart! einfaches Board-Stromversorgung- Einfache kühler....
Und was vielleicht sogar noch besser ist das AMD am RAM jetzt mit verdient da sie CPU+HBM zusammen verkaufen.
Linmoum
2017-05-26, 01:31:04
Wenn das die ungefähren Einkaufspreise für HBM2 sind, wäre eine 16GB-Karte locker 200$ teurer als eine 8GB-Karte. Sofern die GPU also mit 8GB zufriedenstellend läuft, wird man keine 16GB-Modelle für Gaming bringen aus der Motivation heraus, dass sich 16GB besser lesen als 8GB. Den Aufpreis holt man damit nicht wieder rein. Umso wichtiger dass die neue cachebasierte Speicherverwaltung einschlägt, da es ein unschätzbarer Kostenvorteil ist.
Klar wird man nicht einfach 16GB auflegen, wenn keine Notwendigkeit besteht.
Dafür hat man den HBCC und wenn der funktioniert wie bisher zu sehen war, braucht man mehr als 8GB für den Consumerbereich auch gar nicht.
Wobei ich die "11GB+ sind ja mehr als 8GB und daher besser ätsch" statt "wofür 11GB+ wenn 8GB mindestens genauso gut sind"-Diskussionen schon jetzt vor mir sehe, wenn es so kommt. Höhere Zahl = automatisch besser, wer geht mit? ;D
Für die 4GB bei Fiji geisterten ja rund $50 umher, insofern halte ich die $30 mehr bei HBM2 für nicht unwahrscheinlich. Das könnte schon hinhauen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.