PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Ravenhearth
2017-02-28, 20:25:02
Heißt die Firma echt Limitless Limited? ;D

Gipsel
2017-02-28, 20:25:10
64NCUs confirmed :DSind sie doch schon lange (für die MI25 mit Vega10).

victore99
2017-02-28, 20:26:02
Sind sie doch schon lange (für die MI25 mit Vega10).
auch offiziel quasi bestätigt?

Gipsel
2017-02-28, 20:27:44
auch offiziel quasi bestätigt?Das war auf den Folien zur Vorstellung drauf. Also ja.

basix
2017-02-28, 20:29:02
Da AMD von 128x 32b OPs/clk pro NCU spricht ist die Frage ob MADD als 2x OPs gerechnet wird.

Schnitzl
2017-02-28, 20:32:53
Heißt die Firma echt Limitless Limited? ;D
Danke für diesen Lacher am Abend X-D

P.S.: 100% mehr min frames? AMD-typische Übertreibung seit 2016?

Gipsel
2017-02-28, 20:34:25
Da AMD von 128x 32b OPs/clk pro NCU spricht ist die Frage ob MADD als 2x OPs gerechnet wird.Na klar, machen auch alle so.

Akkarin
2017-02-28, 20:36:26
Danke für diesen Lacher am Abend X-D

P.S.: 100% mehr min frames? AMD-typische Übertreibung seit 2016?

Wenn du total im memorylimit hängst find ich das sogar glaubwürdig.

Aber wann passiert das dem normaluser schon ?

edit: die Hawaii demo war damals awesome, aber das wars dann schon. Seit dem sind die ganzen streams von AMD langweilig³

Blediator16
2017-02-28, 20:37:41
Ich glaubs nicht. Die haben Kyle Bennet auf der Bühne

basix
2017-02-28, 20:38:05
Jo es wird vor allem Software Zeugs gezeigt. Evtl. kommt am Schluss noch was

Screemer
2017-02-28, 20:38:16
Kyle bei AMD? Oha. Da muss ja schon fast was großes kommen.

Ravenhearth
2017-02-28, 20:39:07
Bin ich der einzige, der die Präsi extrem komisch und langweilig findet? Das sind nur irgendwelche komischen VR-Titel und sonst nicht viel konkretes :D

AffenJack
2017-02-28, 20:40:07
verdammt, das ist kyle, ich hab beim angucken immer nur das gefühl, dass er gebrauchtwagen verkauft.
@Ravenhearth, ja, finde ich auch, aber es war auch nix anderes zu erwarten. Letztes Jahr war nicht groß anders.

Screemer
2017-02-28, 20:40:41
das amd mal was mit hardocp auf die beine stellt hätte ich ja nie gedacht. die haben in der vergangenheit ja kaum ein gutes wort an amd gelassen.

lacher des abends:

i have never been critical with amd cpus :lol:

der ist ja mal richtig von vr und dem potentiellen markt überzeugt.

ps: es hieß von anfang an vega gibts zum schluss. da wird nicht sonderlich viel kommen.

TwoBeers
2017-02-28, 20:40:59
@Ravenhearth: Nein, da bist du nicht der einzige, irgendwie gibt's so gut wie keine Infos zu Vega. :(

Immerhin wissen wir jetzt, dass Vega Vega heißen wird (und nich 580 oder so). ;)

BlacKi
2017-02-28, 20:51:13
Radeon RX Vega

schön unkompliziert!

Akkarin
2017-02-28, 20:51:17
Was tf war das ?

Screemer
2017-02-28, 20:52:23
na also. vega heißt vega. wissen wir das schon mal.

y33H@
2017-02-28, 20:52:30
59041

qu3x^
2017-02-28, 20:53:41
Brand Introduction = https://i.imgur.com/SDiiSUD.gif

Kartenlehrling
2017-02-28, 20:55:02
Mein Gott wieder so eine langweilige Show.

fondness
2017-02-28, 20:55:33
Radeon RX Vega wir das Flagship also heißen .... IMO deutlich besser wie Radeon R9 Fury.

Atma
2017-02-28, 20:57:30
Wahnsinnig informativ gewesen ... bin fast eingeschlafen X-(

aufkrawall
2017-02-28, 20:57:41
Radeon RX Vega wir das Flagship also heißen .... IMO deutlich besser wie Radeon R9 Fury.
Kann man anders sehen. Man hätte Fury auch weiter als Premium-Marke etablieren können, Nvidia scheint erfolgreich damit zu fahren.

basix
2017-02-28, 20:58:58
Jo, Vega tönt schnittig. Wie Titan auch. Jetzt noch irgendwo ein Grössenvergleich zwischen Vega (Stern) und Titan (Mond von Saturn) rauskramen :upara:

5CH4CHT3L
2017-02-28, 20:59:10
Aber wie werden dann die Polaris Rebrands und Vega 11 genannt? Doch woeder RX 500 Series?

BlacKi
2017-02-28, 20:59:19
frage zur hbc deus ex demo, war das ein vega mit 4gb? oder wolln die uns verarschen? das es auf 4gb ruckelt ist nichts neues, das es auf 8gb sauber läuft auch nichts...

w0mbat
2017-02-28, 20:59:58
https://www.heise.de/newsticker/meldung/DirectX-12-Grafikkarten-Nvidia-GeForce-GTX-1080-Ti-im-Maerz-AMD-Radeon-RX-580-Anfang-April-3637882.html

BlacKi
2017-02-28, 21:00:38
Aber wie werden dann die Polaris Rebrands und Vega 11 genannt? Doch woeder RX 500 Series?
hat format c schon letzte woche gepostet, er hat schon eine 580 getestet. ist eine 480 nur teurer.

5CH4CHT3L
2017-02-28, 21:01:34
frage zur hbc deus ex demo, war das ein vega mit 4gb? oder wolln die uns verarschen? das es auf 4gb ruckelt ist nichts neues, das es auf 8gb sauber läuft auch nichts...
Nein, sie haben desagt das Spiel braucht 4GB/ist auf 4GB optimiert.
Sie haben bei beiden Karten alles bis auf 2GB ausgeschaltet, nur bei einer den High Bandwith Cache Controller laufen lassen und dadurch 50% mehr FPS und 100% bessere FPSLows

Dass Vega 8/16GB HBM2 hat war doch eigentlich schon lange klar oder?

BlacKi
2017-02-28, 21:07:21
Nein, sie haben desagt das Spiel braucht 4GB/ist auf 4GB optimiert.
Sie haben bei beiden Karten alles bis auf 2GB ausgeschaltet, nur bei einer den High Bandwith Cache Controller laufen lassen und dadurch 50% mehr FPS und 100% bessere FPSLows

Dass Vega 8/16GB HBM2 hat war doch eigentlich schon lange klar oder?
ah stimmt, ich habs nochmal angesehen. hätte ich gleich machen sollen.

das war dann doch ganz interessant das feature.

Pirx
2017-02-28, 21:15:10
Wenn sie den RX Vega nennen, brauchen sie doch keine 500er Serie aus Rebrands einführen.

HOT
2017-02-28, 21:18:15
Wenn man P10 als XT2 renoviert hat und als RX580 mit mehr Takt bringt, dann wohl doch. Die beiden weiteren Vegas dürften ja darüber angesiedelt sein.
Das mit dem RX Vega wird auch ganz sicher noch mit einer Nummer garniert werden, es sind ja immerhin 4 Ausprägungen (V10XT und Pro, V11XT und Pro), die doch nen ganz schön großen Preisbereich abdecken können.

Dino-Fossil
2017-02-28, 21:25:18
Format_C scheint ja überzeugt, dass die Chips reine rebrands ohne irgendwelche Änderungen sind.
Schauen wir mal, ob er recht hat.

Schnitzl
2017-02-28, 21:50:58
https://www.heise.de/newsticker/meldung/DirectX-12-Grafikkarten-Nvidia-GeForce-GTX-1080-Ti-im-Maerz-AMD-Radeon-RX-580-Anfang-April-3637882.html
Als sicher gilt, dass die GeForce GTX 1080 Ti zumindest weniger kosten wird als die ebenfalls mit einer High-End-Pascal-GPU bestückte Titan X – diese verkauft Nvidia über seine Webseite für 1359 Euro.
hahahaha .... 1299,- ? ;D ;D ;D
Hm, ich schätze greed wins und nVidia wird uns mal wieder negativ überraschen.

Nicht vergessen sollte man aber das AMD wohl die 500 Serie nur mit Rebrands füllt.
Was erlaube AMD??? :mad:

Botcruscher
2017-02-28, 21:52:40
Twix ist jetzt tatsächlich Twix. Sonst irgendwas neues?

HarryHirsch
2017-02-28, 21:53:34
raiders?

Unicous
2017-02-28, 21:58:22
Also die Bethesda Kooperation ist schon interessant, auch wenn ich es zum Kotzen finde, dass hier wieder ISV und IHV sich so eng zu verbandeln scheinen.
Könnte in der Tat bedeuten, dass Bethesda zukünftig Vulkan nutzt. Wird auch langsam Zeit, dass sie in der Zukunft ankommen, nachdem id ja schon gezeigt hat wie es geht.


Asynchronous Reprojection für VR wird in Kürze unterstützt, hat aber auch lange genug gedauert.

Forward Rendering in UE4 für VR.

Ansonsten wohl nur Gelaber und ein paar "me too"-Projekte.

HOT
2017-02-28, 22:00:44
Format_C scheint ja überzeugt, dass die Chips reine rebrands ohne irgendwelche Änderungen sind.
Schauen wir mal, ob er recht hat.
Der Chip ist natürlich der gleiche. Wenn ändert sich nur was am Takt. Das er das Produkt unspannend findet, wenn da nur ein paar MHz mehr rausspringen, wundert mich hingegen nicht. Zudem sagt er ja, das Produkt wäre teurer, dann muss ja auch ein Mehrwert dahinter sein, sonst macht das Ganze keinen Sinn. Ich tippe auf 9Gbps-RAM und ein paar MHz mehr, sonst nix.
Die RX550 kommt außerdem hinzu, dürfte Polaris 12 Pro dann sein.

aufkrawall
2017-02-28, 22:01:06
Forward Rendering in UE4 für VR.

Wusste man schon vorher.

d2kx
2017-02-28, 22:28:32
Raja hatte schon immer einen, aber jetzt hat Lisa Su auch endlich einen Twitter Account angelegt :smile:

https://twitter.com/LisaSu

robbitop
2017-02-28, 22:38:46
Kann man anders sehen. Man hätte Fury auch weiter als Premium-Marke etablieren können, Nvidia scheint erfolgreich damit zu fahren.
"Fury" ist aber wahrscheinlich verbrannt.

Palpatin
2017-02-28, 23:27:26
Der Chip ist natürlich der gleiche. Wenn ändert sich nur was am Takt. Das er das Produkt unspannend findet, wenn da nur ein paar MHz mehr rausspringen.
An der guten Perf/Watt der WX 7100 kann man ja gut sehen das im Polaris Chip noch ein wenig mehr Potential steckt als bei der RX480 RX470 bisher abgerufen wurde.

vinacis_vivids
2017-03-01, 03:00:27
Man kann ja ein etwas Spekulieren mit HBM Leistungsgewinn und schaue sich die Fury X genauer an.

Raja sagte zu den min Fps: Fury X mit 4Gib besser als 1070 mit 8GiB
https://abload.de/img/snel44k55s70.png

Halo Wars 2 mit average Fps
https://abload.de/img/hlw24kx8uep.png

Sicherlich nicht überall aber wenn 4GiB HBM schnell genug geleert werden können, siehts gut aus. Im optimistischen Fall kann VEGA ~ 2xFuryX die Titan auch deutlich schlagen.

dildo4u
2017-03-01, 03:09:43
Für 100% müsste sie aber 16 Tflops haben nicht 12.

vinacis_vivids
2017-03-01, 03:18:57
Die 12,5 TFlops wurden bei der MI25 bestätigt aber nicht bei Vega oder? Nach oben oder unten gibs ja Platz, siehe 2*Fury. Außerdem gibs ja auch Architekturoptimierung.
Der Sprung von HD4870 1,2 TFlops auf HD5870 2,8 TFlops entsprach von der %-Rohleistung noch mehr.

Ravenhearth
2017-03-01, 03:25:38
Du bräuchtest annähernd 2 GHz für 16 TFLOPS... eher unwahrscheinlich. Ich würde nicht von (viel) mehr als bei der MI25 ausgehen. Dafür gibts Architekturverbesserungen.

vinacis_vivids
2017-03-01, 07:13:06
Du bräuchtest annähernd 2 GHz für 16 TFLOPS... eher unwahrscheinlich. Ich würde nicht von (viel) mehr als bei der MI25 ausgehen. Dafür gibts Architekturverbesserungen.

Besseres Async@DX12 wäre der Trump(h) neben HBM wenn die Rohpower bei 12,5 TFlops bleibt.

Ailuros
2017-03-01, 07:46:08
Besseres Async@DX12 wäre der Trump(h) neben HBM wenn die Rohpower bei 12,5 TFlops bleibt.

Wohl eher eine Reihe Architektur-bedingten Verbesserungen in Vega die schon seit Polaris faellig waren. In Feldern wie Geometrie, blending/ROPs, tiled rasterizing u.a. bringt es insgesamt einen um einiges hoeheren Unterschied in Echtzeit als nur async compute. Wobei TFLOPs genauso wenig aussagen koennen wie immer.

Hat AMD Vega um so viel weiter optimiert wie man sich vorstellen koennte, brauchen sie erstmal nicht unbedingt 12.5 TFLOPs FP32 bei der groessten V10 SKU und async war/ist ohnehin schon seit Generationen anwesend auch bei Polaris10 gegen GP106 Vergleichen.

HBM bringt die noetige Bandbreite hauptsaechlich fuer professionelle Anwendungen; fuer 3D hat sich FuryX gegen GM200 auch nicht beweisen koennen, wobei es wieder zu noetigen Architektur-bedingten Aenderungen im VEGA eher ankommt als HBM steril von sich aus.

bbott
2017-03-01, 10:47:10
Ich denke die RX500 / Vega Serie/Protfolio wird wie folgt aussehen:

- RX Vega X (Vega 10 XT)
- RX Vega (Vega 10)
- RX590 (Vega 11 XT)
- RX580 (Vega 11)
- RX570 (RX 480 (Refresh?))
- RX560 (RX 470 (Refresh?))
- RX550 (RX 460 oder Polaris 12)
- (RX540 (RX 460 oder Polaris 12))

Die Performance sollte bei Vega deutlich über die Titan hinausgehen, das AMD davon ausgehen sollt das 2017 NV ein Refresh bringen wird/würde und dem zufolge mehr oben drauf legen muss.

Ein skalierter 2x Polaris sollte es mit einer 1080 aufnehmen können, ein Vega 10 sollte es da mit den Architktur Verbesserungen über die 1080ti/Titan schaffen. Anderen Falls wäre NCU kein Fortschritt.

24p
2017-03-01, 11:08:30
Man kann ja ein etwas Spekulieren mit HBM Leistungsgewinn und schaue sich die Fury X genauer an.

Raja sagte zu den min Fps: Fury X mit 4Gib besser als 1070 mit 8GiB
https://abload.de/img/snel44k55s70.png

Halo Wars 2 mit average Fps
https://abload.de/img/hlw24kx8uep.png

Sicherlich nicht überall aber wenn 4GiB HBM schnell genug geleert werden können, siehts gut aus. Im optimistischen Fall kann VEGA ~ 2xFuryX die Titan auch deutlich schlagen.




Sniper Elite 4 überzeugt während unserer Tests mit einem sauberen, genügsamen Streaming. Grafikkarten mit 4 GiByte haben selbst in Ultra HD keine Speicherprobleme - das hat mittlerweile Seltenheitswert.

Aus dem Artikel. Lesen hilft. Mit einer HBM-Secret Sauce hat das nichts zu tun.

Godmode
2017-03-01, 11:39:10
Ich denke die RX500 / Vega Serie/Protfolio wird wie folgt aussehen:

- RX Vega X (Vega 10 XT)
- RX Vega (Vega 10)
- RX590 (Vega 11 XT)
- RX580 (Vega 11)
- RX570 (RX 480 (Refresh?))
- RX560 (RX 470 (Refresh?))
- RX550 (RX 460 oder Polaris 12)
- (RX540 (RX 460 oder Polaris 12))

Die Performance sollte bei Vega deutlich über die Titan hinausgehen, das AMD davon ausgehen sollt das 2017 NV ein Refresh bringen wird/würde und dem zufolge mehr oben drauf legen muss.

Ein skalierter 2x Polaris sollte es mit einer 1080 aufnehmen können, ein Vega 10 sollte es da mit den Architktur Verbesserungen über die 1080ti/Titan schaffen. Anderen Falls wäre NCU kein Fortschritt.


Nein, Vega wird als Vega laufen, nicht als RX580, das haben sie gestern bestätigt. RX 580 wird ein rebranded Polaris Chip.

Ich gehe auch davon aus, der größte VEGA für Spieler die Titan schlagen wird. Polaris war ja IMHO eher GCN3 + Poweroptimierung.

Nightspider
2017-03-01, 12:07:34
HBCC muss ja auch wieder erst von den Games unterstützt werden oder?

Da bin ich ja mal gespannt wie viele Games das unterstützen werden.

Was man von Vega so ließt klingt aber schon hochinteressant.

pilzsammler2002
2017-03-01, 12:19:44
Da bin ich ja mal gespannt wie viele Games das unterstützen werden.


Voraussichtlich/Vermutlich einige von Bethesda :freak:

victore99
2017-03-01, 12:25:08
hochinteressant ja - aber wer sagt, dass es nicht was wie trueaudio ist, was keiner so wirklich sinnvoll nutzt? oder wie Async, was erst zu Ende von Fury und Co mal genutzt wurde? Wenn der HBM2 ordentlich taktet, wenn dieses Haarberechnungszeug aus der Demo und dieser HBCC automatisch funktionieren (dh ohne Arbeit der Gamedevs..), dann kann Vega abgehen. wenn nicht, sollte es so knapp über GP104 liegen.. mir sind das zu viele wenns... deutlich zu viele.

LadyWhirlwind
2017-03-01, 12:42:37
Bei HBCC könnte ich mir vorstellen, dass sich das auch sehr positiv auf die Spielbarkeit von zukünftigen APUs auswirken wird. Daher dürfte es für die Entwickler durchaus attraktiv sein das einzubauen, wenn sie wollen, dass ihre Spiele auch auf schwächeren GPUs oder APUs gut laufen.

HOT
2017-03-01, 12:46:16
HBCC muss ja auch wieder erst von den Games unterstützt werden oder?

Da bin ich ja mal gespannt wie viele Games das unterstützen werden.

Was man von Vega so ließt klingt aber schon hochinteressant.
Ich denke nicht, dass es separat unterstützt werden muss, weil das low-Level-Speicherverwaltung zu sein scheint. Da es aber offenbar coherent Fabric nutzt wird das erstmal nur auf Ryzen überhaupt gehen, das haben die verschwiegen. Vielleicht gehts auch mit Intel (ab SkylakeX), denn man hat den Grafikbereich ja lizenziert.

Die RX500-Serie ist einfach ein Refresh der 400-Serie.
RX480 -> RX580 (P10 XT2, evtl. mit schnelleren RAM)
RX470 -> RX570 (P10 Pro, evtl. mit 8Gbps RAM)
RX460 -> RX560 (P11 Pro mit mehr Takt, sonst nix)
neu: RX550 (P12 Pro)

Für Vega wirds einfach neue Nummern geben. Das wird auch keine 600-Serie sein, das wird einfach neu. Polaris wird das Rx-Nummernschema, das mit Hawaii angeführt wurde, beenden oder maximal für reine OEM-Ware noch erhalten. V10 XT könnte Radeon RX Vega 1900 heißen z.B.
Vega ist ja ein so großer Sprung, wie Maxwell damals, er bringt ja die gleichen Vorteile des neuen Tile-based-Renderers und höhere Taktraten. Polaris ist dagegen wirklich alte Generation. Ein Sprung im Namensschema ist da echt fälllig, um alte Zöpfe abzuschneiden. Das nicht zu machen wär marketingtechnisch sau dämlich. Das ist als wenn man Ryzen FX2 genannt hätte.

Gipsel
2017-03-01, 13:47:24
HBCC muss ja auch wieder erst von den Games unterstützt werden oder?Nein, muß es nicht. Das funktioniert ohne Anpassungen von Spielen (interessant wird nur sein, wie gut). Übrigens genau wie der Draw Stream Binning (Tiling) Rasterizer.

Nightspider
2017-03-01, 14:01:27
Oh, interessant. Danke.

Hübie
2017-03-01, 16:34:18
Offenbar habe ich nichts verpasst. :D

@godmode: Warum gehst du davon aus? Ich gehe eher davon aus, dass man die 1080 schlägt. Mehr deutete sich doch bisher nicht an oder hab ich was verpasst?

BlacKi
2017-03-01, 17:18:55
Ich denke nicht, dass es separat unterstützt werden muss, weil das low-Level-Speicherverwaltung zu sein scheint.
ich wüsste nicht das witcher3 und fallout4 LL api´s unterstützen. genau solche vergleiche haben sie aber schon angestellt.

ich bin gespannt wie groß der HBC sein wird. weitere 8gb wären zwar nice, aber es könnten auch viel mehr sein, da der speicher viel günstiger ist. vl 8gb hbm2 + 32gb hbc?^^

ndrs
2017-03-01, 17:45:04
Was hat eine Änderung Low-Level-Speicherverwaltung mit der Notwendigkeit einer Low-Level-Programmier-API zu tun?

Gipsel
2017-03-01, 18:04:43
ich wüsste nicht das witcher3 und fallout4 LL api´s unterstützen. genau solche vergleiche haben sie aber schon angestellt.Die HBC-Funktionalität wird durch die Kombination des Chips auf der Karte im Zusammenspiel mit dem Treiber erreicht. Das Spiel selber muß davon nichts wissen.
ich bin gespannt wie groß der HBC sein wird. weitere 8gb wären zwar nice, aber es könnten auch viel mehr sein, da der speicher viel günstiger ist. vl 8gb hbm2 + 32gb hbc?^^Was?!?
Der HBM ist der HBC.

Hübie
2017-03-01, 18:06:54
Welche Kombination wurde da verwendet? 2 GB HBM2 und ...???... Hab's net so richtig herausgelesen =) DRAM?

Godmode
2017-03-01, 18:21:34
Offenbar habe ich nichts verpasst. :D

@godmode: Warum gehst du davon aus? Ich gehe eher davon aus, dass man die 1080 schlägt. Mehr deutete sich doch bisher nicht an oder hab ich was verpasst?

Das wird wie bei den AMD-CPUs die größere Veränderung seit langem IMHO. Polaris war ja eher nur eine leichte Verbesserung zur 2xx/3xx Serie.

Locuza
2017-03-01, 18:51:56
Welche Kombination wurde da verwendet? 2 GB HBM2 und ...???... Hab's net so richtig herausgelesen =) DRAM?
Soweit ich es verstanden habe, war das gestern eine reine Software-Sache.
Man hat die GPU mit 2GB simuliert und einmal HBCC im Treiber ausgeschaltet, was vermutlich der alten Speicherverwaltung entspricht und einmal wieder angemacht, dass Resultat sind eben die genannten FPS-Zuwächse, weil nur mit den Daten gearbeitet wird, welche das Spiel auch effektiv verwendet.

PrivateCeralion
2017-03-01, 19:03:08
Die HBC-Funktionalität wird durch die Kombination des Chips auf der Karte im Zusammenspiel mit dem Treiber erreicht. Das Spiel selber muß davon nichts wissen.
Was?!?
Der HBM ist der HBC.

Nein, dass ist was neues.

Loeschzwerg
2017-03-01, 19:10:28
Nope, Gipsel hat schon recht, HBC ist der HBM. Neu an der ganzen Geschichte ist der HBCC (Controller).

PrivateCeralion
2017-03-01, 19:22:04
Nope, Gipsel hat schon recht, HBC ist der HBM. Neu an der ganzen Geschichte ist der HBCC (Controller).


Achso, ja das stimmt. Ein Prof. von mir wahr sehr interessiert an dem HBCC ;)

BlacKi
2017-03-01, 19:24:01
Nope, Gipsel hat schon recht, HBC ist der HBM. Neu an der ganzen Geschichte ist der HBCC (Controller).
achso, alles geht über den hbcc. also ist der hbm2 speicher direkt an den hbcc angebunden und der hbcc entscheidet dann was in den geht in den hbm2 speicher geht und in den langsam angebundenen (nichtdram) speicher.

G3cko
2017-03-01, 19:29:07
Wie wahrscheinlich ist es, dass AMD es geschafft hat mit Vega in grob 2 Jahren ebenfalls ein Tiled Cache Rendering einzuführen? Die GTX750Ti kam ja 02/2014.

Nightspider
2017-03-01, 19:29:12
Soweit ich es verstanden habe, war das gestern eine reine Software-Sache.
Man hat die GPU mit 2GB simuliert und einmal HBCC im Treiber ausgeschaltet, was vermutlich der alten Speicherverwaltung entspricht und einmal wieder angemacht, dass Resultat sind eben die genannten FPS-Zuwächse, weil nur mit den Daten gearbeitet wird, welche das Spiel auch effektiv verwendet.
Achso also waren beide Szenen eh in Situationen die kaum auftreten weil man es ja mit Absicht umgeht.
Niemand schaltet die Settings so hoch das der VRAM extrem überläuft weil die Performance doch dann total in den Keller geht.
Das wird der HBCC sicherlich nicht komplett abfangen. Hmmm.

Der Nutzen für HighEnd Karten dürfte doch dann eher gegen 0 gehen bei neuen Games weil eh genug VRAM verbaut ist oder?

Achso, ja das stimmt. Ein Prof. von mir wahr sehr interessiert an dem HBCC ;)
In welchem Fach? Was hat er dazu gesagt?

Gipsel
2017-03-01, 19:34:30
achso, alles geht über den hbcc. also ist der hbm2 speicher direkt an den hbcc angebunden und der hbcc entscheidet dann was in den geht in den hbm2 speicher geht und in den langsam angebundenen (nichtdram) speicher.Bevorzugt natürlich trotzdem DRAM, nämlich den Systemspeicher (also heutzutage der DDR4-Hauptspeicher). Memory mapped Dateien auf den Festplatten/SSDs zu benutzen, dürfte für Spiele eher kontraproduktiv sein. Das ist was für Profi-Lösungen mit Datensätzen in TB-Größe. ;)

BlacKi
2017-03-01, 19:39:14
Bevorzugt natürlich trotzdem DRAM, nämlich den Systemspeicher (also heutzutage der DDR4-Hauptspeicher). Memory mapped Dateien auf den Festplatten/SSDs zu benutzen, dürfte für Spiele eher kontraproduktiv sein. Das ist was für Profi-Lösungen mit Datensätzen in TB-Größe. ;)
dieser amd fritze der für den speicher verantwortlich ist sagte auf dem amd vereinstreffen das Dram nicht in frage kommt, da nicht effizient genug. ich xpoint ist 2 much intel, ausserdem hat amd bereits ssds auf grafikkarten montiert. also entweder der alte man hat stuss verzählt oder ich verstehe kein englich mit asiatischem akzent.^^

Gipsel
2017-03-01, 19:42:06
Wie wahrscheinlich ist es, dass AMD es geschafft hat mit Vega in grob 2 Jahren ebenfalls ein Tiled Cache Rendering einzuführen? Die GTX750Ti kam ja 02/2014.Das ist sicher und von AMD für Vega bestätigt.
"Draw Stream Binning Rasterizer" ist nur ein anderes Wort für "Tiling Rasterizer" und die größeren L2-Caches, die jetzt auch für die ROPs zuständig sind, sprechen ebenfalls eine deutliche Sprache.

============================

Achso also waren beide Szenen eh in Situationen die kaum auftreten weil man es ja mit Absicht umgeht.
Niemand schaltet die Settings so hoch das der VRAM extrem überläuft weil die Performance doch dann total in den Keller geht.
Das wird der HBCC sicherlich nicht komplett abfangen. Hmmm.Die Message der Demonstration war, daß es eben doch ganz gut geht.
Der Nutzen für HighEnd Karten dürfte doch dann eher gegen 0 gehen bei neuen Games weil eh genug VRAM verbaut ist oder?Nicht unbedingt. Vega 10 wird in der Consumervariante wohl nur mit 8GB kommen. Da ist es wichtig, daß das funktioniert.

Loeschzwerg
2017-03-01, 19:43:47
dieser amd fritze der für den speicher verantwortlich ist sagte auf dem amd vereinstreffen das Dram nicht in frage kommt, da nicht effizient genug. ich xpoint ist 2 much intel, ausserdem hat amd bereits ssds auf grafikkarten montiert. also entweder der alte man hat stuss verzählt oder ich verstehe kein englich mit asiatischem akzent.^^

Guck dir das Bild welches PrivateCeralion gepostet (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11306144#post11306144) hat an, da findest du die Antwort :)

Gipsel
2017-03-01, 19:45:25
dieser amd fritze der für den speicher verantwortlich ist sagte auf dem amd vereinstreffen das Dram nicht in frage kommt, da nicht effizient genug. ich xpoint ist 2 much intel, ausserdem hat amd bereits ssds auf grafikkarten montiert. also entweder der alte man hat stuss verzählt oder ich verstehe kein englich mit asiatischem akzent.^^Vermutlich Letzteres ;). Und der Kontext ist natürlich wichtig. Wenn er gerade von irgendeinem 100TB Datensatz geredet hat, dann hat er ja auch Recht. Das ist aber für Spiele irrelevant, da geht es um eine Handvoll Gigabyte, die eventuell gerade nicht mehr in den knapp bemessenen HBM auf dem Package passen.
Link?

BlacKi
2017-03-01, 19:48:13
hmm, ok. danke.

PrivateCeralion
2017-03-01, 20:27:07
In welchem Fach? Was hat er dazu gesagt?
Informatik, Bereich High Permformance Computing. Er hat gesagt, dass es sehr interessant werden könnte (im Server und high performance Bereich), da der HBCC sehr viel virtuellen Speicher adressieren kann.

Schaffe89
2017-03-01, 20:38:42
Besseres Async@DX12 wäre der Trump(h) neben HBM wenn die Rohpower bei 12,5 TFlops bleibt.

Schonmal nachgesehen wieviel Async Compute auf einer RX480 bringt? ~2 bis 7% so um den Dreh.

dargo
2017-03-01, 21:08:32
Das Thema ist hier Vega, nicht Polaris. Zudem entwickelt sich Software auch weiter.

robbitop
2017-03-01, 21:15:31
In Doom bringt AC sicherlich mehr als 2-7%. Es kommt stark darauf an, wie es umgesetzt ist und wieviel compute parallel zu GFK läuft und wie abhängig beide auf die Ergebnisse des anderen sind.

vinacis_vivids
2017-03-01, 21:19:07
Schonmal nachgesehen wieviel Async Compute auf einer RX480 bringt? ~2 bis 7% so um den Dreh.

Ganz frisch aus dem Jahr 2017 :wink:
Bei Nvidia bringts 2-5% bei AMD 20-25%

https://abload.de/img/dx12_async_gains48s11.jpg
https://abload.de/img/216006s8p.png

dargo
2017-03-01, 21:31:33
Das ist ein Vergleich zwischen DX12 AC On und DX11 und nicht DX12 AC Off vs. DX12 AC On.

Gipsel
2017-03-01, 21:31:46
Ganz frisch aus dem Jahr 2017 :wink:
Bei Nvidia bringts 2-5% bei AMD 20-25%

https://abload.de/img/dx12_async_gains48s11.jpg
https://abload.de/img/216006s8p.pngDas ist aber nicht nur AC. DX12 bringt auch ohne AC deutliche Vorteile, was bei SE4 den Großteil des Unterschiedes ausmacht.

vinacis_vivids
2017-03-01, 21:40:08
Das ist ein Vergleich zwischen DX12 AC On und DX11 und nicht DX12 AC Off vs. DX12 AC On.

Ok, dann halt 20% nur für DX12 + 5-7% AC on.

24p
2017-03-01, 21:53:06
Nö. 3,5%. Also nichts worüber hier ewig gehypt und diskutiert werden muss. Mal ganz abgesehen davon ist es eh unsinn Dinge wie AC als Feature aufzuzählen, aber das wurde hier schon x mal erklärt und die Leute lernen es nicht.


@gipsel

Er wurde hier auch schon darauf hingewiesen, als er den selben bench gepostet hat.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11305566#post11305566

Offenbar wird es immer wieder versucht.

vinacis_vivids
2017-03-01, 22:00:59
Nö. 3,5%. Also nichts worüber hier ewig gehypt und diskutiert werden muss. Mal ganz abgesehen davon ist es eh unsinn Dinge wie AC als Feature aufzuzählen, aber das wurde hier schon x mal erklärt und die Leute lernen es nicht.

AC geht nur mit DX12 glaub ich oder?
Wenn das kein Feature ist, dann ist das ein bug?

24p
2017-03-01, 22:05:15
Nein. DX12 mit und ohne AC wurde da gebencht.

robbitop
2017-03-01, 22:07:11
Gibts auch in Vulkan. Wie gesagt: in Doom bringt es wohl mehr. Kann man aber auch nicht separat an/ausschalten.

Locuza
2017-03-02, 01:08:34
Eine Meinung von Sebastian Aaltonen bezüglich der HBCC-Geschichte:
Many modern games allocate more than 4GB of VRAM, but that doesn't mean the game accesses it all every frame (it can't, there wouldn't be enough bandwidth). Less than 50% of the loaded data is accessed during a peak single frame (at 64 KB page granularity, at cache line granularity even less). Vega is supposed to have hardware paging solution that uploads pages on demand from system memory to GPU memory. We don't yet know how well it works. It is entirely possible that a 8GB Vega is comparable to a traditional 16GB+ card.

Nvidia P100 has similar feature for CUDA compute use and it seems very promising (esp with NVLINK). Game data sets change much less per frame compared to long running professional compute workloads, meaning that similar technology should work even better for games.
https://forum.beyond3d.com/threads/amd-vega-10-vega-11-and-vega-20-rumors-and-discussion.59649/page-53#post-1968717

Ailuros
2017-03-02, 06:25:35
AC geht nur mit DX12 glaub ich oder?
Wenn das kein Feature ist, dann ist das ein bug?

Es ist nur ein bug wenn man konstant auf async compute als Argument herumreitet und am Ende leider nur ein Bruchteil davon versteht.

Da wir im Vega thread sind: Vega wird im Vergleich zu Polaris in der Mehrzahl in den Stellen aufholen u.a. die ich in meinem vorigen Beitrag erwaehnte. Ohne weitere Optimierungen im Vergleich zu Polaris wuerde Vega trotz mehr Einheiten ein ziemlich fragwuerdiger Konkurrent fuer Pascal.

Eine Meinung von Sebastian Aaltonen bezüglich der HBCC-Geschichte:

https://forum.beyond3d.com/threads/amd-vega-10-vega-11-and-vega-20-rumors-and-discussion.59649/page-53#post-1968717

Sebbi's Beitraege sind immer sachlich und sehr interessant. Er gehoert auch Gott sei Dank zu denjenigen die eine balancierte Haltung generell haben zur uebertriebenen Speichermengen-Spinnerei.

Hübie
2017-03-02, 07:48:00
Soweit ich es verstanden habe, war das gestern eine reine Software-Sache.
Man hat die GPU mit 2GB simuliert und einmal HBCC im Treiber ausgeschaltet, was vermutlich der alten Speicherverwaltung entspricht und einmal wieder angemacht, dass Resultat sind eben die genannten FPS-Zuwächse, weil nur mit den Daten gearbeitet wird, welche das Spiel auch effektiv verwendet.

Wenn dem so ist, erscheint es mir eher wie eine Variante von hUMA. Sowas wurde mit CUDA 6 (so meine ich mich zu erinnern) ebenfalls eingeführt. Wie das Management abläuft weiß natürlich niemand und Spiele haben sicher andere Anforderungen an die allocation und das data streaming als computetasks.

Locuza
2017-03-02, 12:01:58
Wenn dem so ist, erscheint es mir eher wie eine Variante von hUMA. Sowas wurde mit CUDA 6 (so meine ich mich zu erinnern) ebenfalls eingeführt. Wie das Management abläuft weiß natürlich niemand und Spiele haben sicher andere Anforderungen an die allocation und das data streaming als computetasks.
Das Thema ist komplex und ich kenne keinen Vergleich, geschweige denn Performancewerte, die das ganze übersichtlich darstellen.

Bezüglich CUDA kann man das Whitepaper vom P100 heranziehen:
Unified Memory History

The NVIDIA Fermi GPU architecture, introduced in 2009, implemented a unified GPU address space spanning the three main GPU memory spaces (thread private local memory, thread block shared memory, and global memory).
This unified address space only applied to GPU memory addressing, and mainly resulted in simpler compilation by enabling a single load/store instruction and pointer address to access any of the GPU memory spaces (global, local, or shared memory), rather than different instructions and pointers for each. This also enabled full C and C++ pointer support, which was a significant advancement at the time.

In 2011, CUDA 4 introduced Unified Virtual Addressing (UVA) to provide a single virtual memory address space for both CPU and GPU memory and enable pointers to be accessed from GPU code no matter where in the system they reside, whether in GPU memory (on the same or a different GPU), CPU memory, or on-chip shared memory.
UVA enables Zero-Copy memory, which is pinned CPU memory accessible by GPU code directly, over PCIe, without a memcpy. Zero-Copy provides some of the convenience of Unified Memory, but none of the performance, because it is always accessed by the GPU with PCIe’s low bandwidth and high latency.

CUDA 6 introduced Unified Memory, which creates a pool of managed memory that is shared between the CPU and GPU, bridging the CPU-GPU divide. Managed memory is accessible to both the CPU and GPU using a single pointer. The CUDA system software automatically migrates data allocated in Unified Memory between GPU and CPU, so that it looks like CPU memory to code running on the CPU, and like GPU memory to code running on the GPU. But CUDA 6 Unified Memory was limited by the features of the Kepler and Maxwell GPU architectures: All managed memory touched by the CPU had to be synchronized with the GPU before any kernel launch. The CPU and GPU could not simultaneously access a managed memory allocation and the Unified Memory address space was limited to the size of the GPU physical memory.

Pascal GP100 Unified Memory
Expanding on the benefits of CUDA 6 Unified Memory, Pascal GP100 adds features to further simplify programming and sharing of memory between CPU and GPU, and allowing easier porting of CPU parallel compute applications to use GPUs for tremendous speedups. Two main hardware features enable these improvements: support for large address spaces and page faulting capability.
GP100 extends GPU addressing capabilities to enable 49-bit virtual addressing. This is large enough to cover the 48-bit virtual address spaces of modern CPUs, as well as the GPU's own memory. This allows GP100 Unified Memory programs to access the full address spaces of all CPUs and GPUs in the system as a single virtual address space, unlimited by the physical memory size of any one processor (see Figure 21).
Memory page faulting support in GP100 is a crucial new feature that provides more seamless Unified Memory functionality. Combined with the system-wide virtual address space, page faulting provides several benefits. First, page faulting means that the CUDA system software does not need to synchronize all managed memory allocations to the GPU before each kernel launch. If a kernel running on the GPU accesses a page that is not resident in its memory, it faults, allowing the page to be automatically migrated to the GPU memory on-demand. Alternatively, the page may be mapped into the GPU address space for access over the PCIe or NVLink interconnects (mapping on access can sometimes be faster than migration). Note that Unified Memory is system-wide: GPUs (and CPUs) can fault and migrate memory pages either from CPU memory or from the memory of other GPUs in the system.

https://images.nvidia.com/content/pdf/tesla/whitepaper/pascal-architecture-whitepaper.pdf

Vega führt ebenso Hardware Page Management und ein 49-Bit großen Adressraum ein.

Sehr unübersichtlich für einen Laien wird es, wenn man wissen will wie genau ein Vorgang abläuft und was wofür verantwortlich ist, sprich Betriebssystem, DX/CUDA-Runtime, API-Driver und letztendlich die Hardware.
Aus dem Paper kann ich nicht direkt herauslesen, wie viel von den Beispielen völlig CUDA unabhängig sind und unter anderen APIs genauso umgesetzt werden könnten.
Ich weiß natürlich ebenso wenig wie effizient die Hardware das verwaltet und wie Vegas HBCC im Vergleich dasteht.
Prinzipiell klingt es jedenfalls sehr ähnlich.

Bei hUMA bzw. allgemein APUs öffnet man dann noch einmal ein spezielles Buch.
Dort gibt es es Adress Translation Cache (ATC) mit extra Tags für den L1$ und L2$ bei der GPU, dann eine IOMMUv2 die letztendlich das ganze verwaltet, extra Verbindungen für die Cache-Kohärenz und boah, was funktioniert dort API unabhängig und was funktioniert z.B. selbst bei Vega in Zukunft nicht, wenn die dGPU eben über PCIe verbunden werden muss?
http://www.notebookcheck.com/fileadmin/_processed_/csm_carrizo_hsa_features_d6eff11ebd.jpg
http://pc.watch.impress.co.jp/img/pcw/docs/630/741/45.jpg

mksn7
2017-03-02, 12:51:28
Ja, an nvidias Unified Memory Sachen für HPC hat mich HBCC auch erinnert, nur dass Nvidia hat das im gaming Kontext noch überhaupt nicht erwähnt hat.

Die große Frage ist wie feingranular das funkioniert, und wie page faults gehandelt werden. Ich hab gehört, dass bei nvidia momentan jeder einzelne miss einen Page Fault generiert. Da kommen dann schnell tausende Page Faults für eine einzelne fehlende Seite zusammen... Die streaming bandbreite über Pagefaults bleibt dann weit unter der PCIe Bandbreite.

Das Feature funktioniert wohl durch zwei Mechanismen: 1. müssen nur die bytes im VRAM liegen die tatsächlich benutzt werden, plus overhead durch die Granularität. Und 2. kann der ein oder andere Zugriff, der doch mal auf was geht was nicht da ist gut behandelt werden, dann stallen zwar ein paar threads auf der GPU, aber alle anderen laufen weiter und können die Latenz überbrücken. Bei Spielen laufen die meisten Kernel natürlich nur im ms Bereich, da muss die Latenz zur Behandlung des Page Faults dann auch deutlich unter dieser Schwelle sein.

AMD sieht die Technik sowohl für Gaming als auch HPC/Large Data Sets, da scheinen sie zuversichtlicher zu sein als nvidia dass ihre Lösung auch fürs Gaming funktioniert. Nvidia scheint das momentan eher als Progammiererkomfortlösung für gemeinsames Arbeiten von CPU und mehreren GPUs auf den gleichen Daten zu positionieren.

Skysnake
2017-03-02, 14:41:25
Informatik, Bereich High Permformance Computing. Er hat gesagt, dass es sehr interessant werden könnte (im Server und high performance Bereich), da der HBCC sehr viel virtuellen Speicher adressieren kann.
Nur doof, dass die meisten HPC nodes schon lange diskless sind, wobei sich das durch die SSDs teils wieder ändert.

Was beim HBCC interessant ist, ist die Möglichkeit für Pagefaults auf Hardware basis. Das ist einfach performanter als Softwarelösungen.

mksn7
2017-03-02, 15:59:04
Nur doof, dass die meisten HPC nodes schon lange diskless sind, wobei sich das durch die SSDs teils wieder ändert.


Die Pagefaults könnten ja auch vom VRAM anderer GPUs bedient werden, oder von anderen Nodes. Also Kommunikation ohne explicites Message Passing.

matty2580
2017-03-04, 03:40:33
Das Thema nach AMDs Capsaicin & Cream scheint hier HBCC zu sein, obwohl ich AMDs Draw Stream Binning Rasterizer mindestens genau so interessant finde.

Ist das wirklich AMDs Pendant zu Nvidias Tiled Cache Renderer, was wie Leo behauptet zu der extrem gestiegenen Effizienz von Maxwell/Pascal beigetragen hat?

Dies dürfte dann letztlich auch den großen Effizienzsprung der Maxwell-Generation besser erklären, welche zum einen aus derselben Rechenleistung wesentlich mehr Performance herausholt und zum anderen dafür nicht mehr Energie verbraucht – und dies alles auf Basis derselben Fertigungstechnologie (zur Vorgänger-Generation Kepler). Auch daß nVidia für dieselbe Performance mit auffällig weniger Speicherbandbreite zurechtkommt, läßt sich hierüber erklären – nVidia gibt den Effekt grob mit 60% mehr effektiver Speicherbandbreite (nur durch dieses Feature) an.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1-maerz-2017

Rein theoretisch müsste Vega dann einen riesigen Effizienzsprung machen.

TheGood
2017-03-04, 10:08:26
Das habe auch überlegt. Wenn man diesen Effiziennz und performancesprung macht, dann sollten eigentlich beide Architekturen wieder ziemlich ähnlich performen. ES ist allerdings zu erwarten dass der erste Schritt von AMD eher Maxwell Niveau erreicht und nicht Pascal.

Eigentlich kann nur das die Erklärung sein, warum Nvidia seine Grakapreise offensichtlich etwas angepasst hat (von billig kann man weiterhin nicht reden). Natürlich auch vor dem Hintergrund noch einen guten teil der Kundschaft in diesem Segment abzugrasen. Mir persönlich ist das aber immer noch viel zu teuer.
Die Frage die noch offenbleibt ist ob die jetzt angepassten 10XX Versionen schon den Refresh darstellen oder ob im HErbst noch eine echte Refreshgeneration kommt. Diese würde AMD aber richtig treffen, ausser VEGA performt deutlich besser als erwartet.
Wobei es ja noch unklar ist, was man erwarten kann... Mit dem Tile Renderer Approach sollte VEGA eigentlich locker auf ein 1080TI niveau kommen können... Allerdings muss man inzwischen sagen, dass es eben AMD ist...
Es bleibt spannend und ich würde die 2-3 Monate noch abwarten was passiert und erst dann eine neue Highend karte kaufen.

Gipsel
2017-03-04, 12:06:27
Das Thema nach AMDs Capsaicin & Cream scheint hier HBCC zu sein, obwohl ich AMDs Draw Stream Binning Rasterizer mindestens genau so interessant finde.

Ist das wirklich AMDs Pendant zu Nvidias Tiled Cache Renderer, was wie Leo behauptet zu der extrem gestiegenen Effizienz von Maxwell/Pascal beigetragen hat?Klare Antwort: Ja.
Nach den AMD-Folien geht das eventuell sogar noch etwas über die nV-Lösung hinaus (mehr Buffering und HSR), aber da wäre ich noch vorsichtig, wie weit das wirklich in der realen Umsetzung in Vega geht.

iuno
2017-03-04, 12:09:59
Das Thema nach AMDs Capsaicin & Cream scheint hier HBCC zu sein, obwohl ich AMDs Draw Stream Binning Rasterizer mindestens genau so interessant finde.

Ist das wirklich AMDs Pendant zu Nvidias Tiled Cache Renderer, was wie Leo behauptet zu der extrem gestiegenen Effizienz von Maxwell/Pascal beigetragen hat?


https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1-maerz-2017

Rein theoretisch müsste Vega dann einen riesigen Effizienzsprung machen.

Laut nvidia sparen die sich auch dadurch fast 50% Bandbreite und konnten ja dementsprechend auch schmaler bauen. Man stelle sich Hawaii mit 256 bit gegen gm204 vor, Tonga oder eben P10 mit 128 Bit. Da ist imho schon einiges alleine durch diese Einsparung zu holen.

https://pics.computerbase.de/7/7/0/6/6/8-630.1100072992.jpg

Bin mal gespannt wie gut sie das hinbekommen. Imho könnte es aber vor allem auch für V11 und Raven Ridge interessant. V10 bekommt voraussichtlich eh "genug" Bandbreite. Natürlich ist es wichtig, dass die Effizienz dort steigt, aber bei den kleinen finde ich es noch spannender

uweskw
2017-03-04, 16:18:49
Ich habe jetzt nicht alles verfolgt bzzgl Vega. Stimmt es, dass NV den Preis der 1080Ti deshalb "vernünftig" ansetzen musste, weil Vega leistungsmäßig klar vor der 1080 FE liegt?

greetz
Uwe

maximus_hertus
2017-03-04, 16:25:57
Ich habe jetzt nicht alles verfolgt bzzgl Vega. Stimmt es, dass NV den Preis der 1080Ti deshalb "vernünftig" ansetzen musste, weil Vega leistungsmäßig klar vor der 1080 FE liegt?

greetz
Uwe

Ein ~500mm² Chip sollte einen ~300mm² Chip schlagen, selbst wenn der 500er kein reiner Gaming-Chip ist. Von der Fury X ist es auch nicht so weit bis zur 1080, dazu die neue Architektur, keine Limitierung auf 4 GiB, etc.

Vernünftig ist relativ, es ist die TEUERSTE Ti aller Zeiten. 819 Euro!

HOT
2017-03-04, 16:27:03
Das denkt offensichtlich jedenfalls NV.

uweskw
2017-03-04, 16:27:47
OK, danke. Hatte irgendwas im Kopf das Vega nur so knapp an die 1080 kommt.
Wegen dem Preisrutsch war ich schon in Versuchung meine 980Ti gegen eine 1080 Zotak Extreme zu tauschen.
Besser ich warte noch ein Weilchen und schick meinen Sandy gleich mit in Rente. Ich hol mir dann wohl nen Ryzen 1700 @OC und ne Vega Karte.

greetz
US

TheGood
2017-03-04, 17:59:24
OK, danke. Hatte irgendwas im Kopf das Vega nur so knapp an die 1080 kommt.
Wegen dem Preisrutsch war ich schon in Versuchung meine 980Ti gegen eine 1080 Zotak Extreme zu tauschen.
Besser ich warte noch ein Weilchen und schick meinen Sandy gleich mit in Rente. Ich hol mir dann wohl nen Ryzen 1700 @OC und ne Vega Karte.

greetz
US

Man muss weiterhin ehrlich sagen, dass keine sinnvolle Performance Einschätzung des VEGA Chips möglich ist. Es kann von 1080 niveau bis 180TI oder darüber hinaus alles möglich sein.

Andererseits muss man hier nochmals die Berichterstattung kritisieren. Als man im Januar VEGA vorgestellt hat, wusste man dass sie den Tile Renderer Approach fahren, aber interessiert hat es keinen. Jeder hat nur rumgemault, dass wieder nichts vorgestellt wurde.
Nachdem Nvidia dies jetzt bekannt gegeben hat, steht das in jeder News drin und ist ein Riesending...

M4xw0lf
2017-03-04, 18:27:08
Ein ~500mm² Chip sollte einen ~300mm² Chip schlagen, selbst wenn der 500er kein reiner Gaming-Chip ist. Von der Fury X ist es auch nicht so weit bis zur 1080, dazu die neue Architektur, keine Limitierung auf 4 GiB, etc.

Vernünftig ist relativ, es ist die TEUERSTE Ti aller Zeiten. 819 Euro!
500? 300? Was soll da was sein?
GP102 hat 470mm², Vega 10 gute 500.

iuno
2017-03-04, 18:28:49
Und GP104 hat ~300mm².
Vielleicht mal mehr lesen, als die Haelfte eines Posts, der auch noch Bezug auf einen anderen, auch noch zitierten, nimmt.

@uweskw: das kann dir momentan keiner sagen. Nvidia kann uebrigens Preise machen wie sie Bock haben, das muss ueberhaupt kein Indiz auf irgendetwas sein. Zumal es bei so einer Aktion wenn ueberhaupt darum geht, jetzt Marktanteil zu sichern und nicht irgendwann in ein paar Monaten mal konkurrenzfaehige Preise zu haben.

M4xw0lf
2017-03-04, 18:31:40
Und GP104 hat ~300mm².
Vielleicht mal mehr lesen, als die Haelfte eines Posts, der auch noch Bezug auf einen anderen, auch noch zitierten, nimmt.
Ach jetzt. Ich hab zweimal 1080 Ti gelesen, statt 1080 FE beim zweiten mal.

Locuza
2017-03-04, 19:33:38
https://abload.de/img/fp16hku59.jpg

Seite 82 von der 4K Checkerboard Präsentation bei der Frostbite-Engine:
http://frostbite-wp-prd.s3.amazonaws.com/wp-content/uploads/2017/03/04173623/GDC-Checkerboard.compressed.pdf

Sicherlich kein Prime-Example für PC-Spiele, wenn überhaupt, aber konkrete FP16-Beispiele schaden auch nicht.

TheGood
2017-03-04, 21:16:28
Und GP104 hat ~300mm².
Vielleicht mal mehr lesen, als die Haelfte eines Posts, der auch noch Bezug auf einen anderen, auch noch zitierten, nimmt.

@uweskw: das kann dir momentan keiner sagen. Nvidia kann uebrigens Preise machen wie sie Bock haben, das muss ueberhaupt kein Indiz auf irgendetwas sein. Zumal es bei so einer Aktion wenn ueberhaupt darum geht, jetzt Marktanteil zu sichern und nicht irgendwann in ein paar Monaten mal konkurrenzfaehige Preise zu haben.


oder in 3 monaten nicht so dazustehen als dass man seine Kunden richtig abgezockt hätte... Achja das haben Sie ja mit der Titan X bereits gemacht...

Die Gründe werden wohl für immer ein Geheimnis von Nvidia bleiben...

Blediator16
2017-03-04, 21:25:51
oder in 3 monaten nicht so dazustehen als dass man seine Kunden richtig abgezockt hätte... Achja das haben Sie ja mit der Titan X bereits gemacht...

Die Gründe werden wohl für immer ein Geheimnis von Nvidia bleiben...

Abgezockt wurde niemand.

Mangel76
2017-03-04, 22:03:22
Abgezockt wurde niemand.

Naja, ich käme mir schon verarscht vor, wenn ich mir gerade ne 1080 gekauft hätte und jetzt gibt es zum gleichen Listenpreis wie die FE die deutlich schnellere 1080 Ti. Hat schon was von erst maximal abzocken, dann Marktanteile ausbauen und dabei nochmal abzocken, schnell bevor der Gegner wieder auf die Beine kommt. Noch viel schlimmer ergeht es wohl den Titan-Käufern. Jetzt gibt es die gleiche Leistung für schlappe 500€ weniger.

Blediator16
2017-03-04, 22:09:58
Naja, ich käme mir schon verarscht vor, wenn ich mir gerade ne 1080 gekauft hätte und jetzt gibt es zum gleichen Listenpreis wie die FE die deutlich schnellere 1080 Ti. Hat schon was von erst maximal abzocken, dann Marktanteile ausbauen und dabei nochmal abzocken, schnell bevor der Gegner wieder auf die Beine kommt. Noch viel schlimmer ergeht es wohl den Titan-Käufern. Jetzt gibt es die gleiche Leistung für schlappe 500€ weniger.

Jedes Produkt hat ein gewissen Lebenszyklus, das es im Markt durchläuft. Wenn man sich vorher absolut keine Gedanken macht und vorher zu informiert, dann hat man mit seiner Entscheidung zu leben. Verarscht wurde niemand.

Schnitzl
2017-03-05, 09:45:48
Wenn eine Firma für eine Performance-Karte High-End-Preise verlangt, kann man das schon als Abzocke bezeichnen.

HOT
2017-03-05, 09:49:46
Man beachte die Zeiträume: Die TXP war nicht mal ein halbes Jahr auf dem Markt und der Preis wurde ohne jegliche Konkurrenz um 1/3 reduziert im Prinzip. Die 1080 ist etwas mehr als 1/2 Jahr auf dem Markt.
Andererseits haben viele davor gewarnt, das diese Produkte im erheblichen Maße überteuert sind - was man an NVs astronomischen Gewinnen sehr gut sieht - und die "Schafe" waren sich ja nicht zu schade trotzdem im erheblichen Umfang den überteuerten Krempel zu kaufen - da hält sich das Mitleid also stark in Grenzen. Erschreckend ist nur, dass das jetzt zum 2. Mal so passiert ist und es keinerlei Lerneffekt zu geben scheint. Das funktioniert auch ein 3. Mal.

Soviel übrigens zu den vielgerühmten "Marktgesetzen".

5CH4CHT3L
2017-03-05, 10:56:54
Man beachte die Zeiträume: Die TXP war nicht mal ein halbes Jahr auf dem Markt und der Preis wurde ohne jegliche Konkurrenz um 1/3 reduziert im Prinzip. Die 1080 ist etwas mehr als 1/2 Jahr auf dem Markt.
Andererseits haben viele davor gewarnt, das diese Produkte im erheblichen Maße überteuert sind - was man an NVs astronomischen Gewinnen sehr gut sieht - und die "Schafe" waren sich ja nicht zu schade trotzdem im erheblichen Umfang den überteuerten Krempel zu kaufen - da hält sich das Mitleid also stark in Grenzen. Erschreckend ist nur, dass das jetzt zum 2. Mal so passiert ist und es keinerlei Lerneffekt zu geben scheint. Das funktioniert auch ein 3. Mal.

Soviel übrigens zu den vielgerühmten "Marktgesetzen".
Es freuen sich halt alle über die ganze Leistung und kaufen wie die blöden während sie nicht merken das so ein Fortschritt normal ist und die Preise schnell fallen.
Wenn eine neue Generation ähnliche Preis/Leistung hat wie die Alte muss da irgendwas faul sein

Screemer
2017-03-05, 11:00:25
Warum gehts hier eigentlich schon wieder seitenweise um nvidia?

rentex
2017-03-05, 13:32:44
Warum gehts hier eigentlich schon wieder seitenweise um nvidia?

Schleichende Vereinnahmung durch NV Fanboys 😂😉
Aber mal ehrlich: Jeder der z.B. von ner 980Ti oder GTX Titan X auf 1080 gewechselt ist, hat es doch gewusst. Der Abstand war klar und deutlich dokumentiert.,,ich war auch schon kurz davor, mir ne TXP zu holen...abwarten, abwägen und widerstehen haben sich gelohnt.
Jetzt aber Schluß mit Jensen und Co. weiter zu AMD und Vega.

Civtam
2017-03-05, 17:57:54
Gibt es eigentlich schon mehr Ausagen zum Veröffentlichungsdatum außer Q2? Der März scheibt wohl der Unbennung der 400er in die 500er Serie zu gelten. Im April kommt dann der Ryzen R5.
Dann wäre Mai als Ankündigung doch recht Vernünftig.
Eine nicht nach Entwicklerkarte aussehende Vega hat ja noch niemand gesehen, oder?

AffenJack
2017-03-05, 18:18:25
500er Serie kommt eher April. Sonst gibts zu Vega da nix neues, um die Computex rum würde ich vermuten.

TheGood
2017-03-05, 18:36:57
4. und 11. April habe ich gerüchteweise für die R5XX Serie gehört.

Aber nochmals zurück, was konnte man denn jetzt aus dem HBCC Präsentation von VEGA wirklich rauslesen. Ist das nur ein Spielzeug für die modder die jetzt unbegrenzt megatexturen basteln können oder nimmt AMD es zum Anlass nicht mehr soviel Speicher zu verbauen.
Grundsätzlich glaube ich mal dass genau das der Weg der Zukunft sein wird, zumindest bis zu einem gewissen Rahmen.

Und zum tile Renderer Approach ist hier ja auch noch nicht viel gesprochen worden. Erewarten die experten hier ähnliche Effizienz und performancegewinne wie beim Maxwell oder passt das mit der GPU Architektur von AMD nicht so gut zusammen wie bei Nvidia??

dargo
2017-03-05, 18:46:59
Aber nochmals zurück, was konnte man denn jetzt aus dem HBCC Präsentation von VEGA wirklich rauslesen. Ist das nur ein Spielzeug für die modder die jetzt unbegrenzt megatexturen basteln können oder nimmt AMD es zum Anlass nicht mehr soviel Speicher zu verbauen.
Grundsätzlich glaube ich mal dass genau das der Weg der Zukunft sein wird, zumindest bis zu einem gewissen Rahmen.

Versteif dich nicht so sehr auf die dGPU. Stell dir einfach Raven Ridge mit 16 NCUs, DDR4 und zusätzlich bsw. einen 4GB HBM2 Stack vor.

Ailuros
2017-03-05, 19:02:48
Und zum tile Renderer Approach ist hier ja auch noch nicht viel gesprochen worden. Erewarten die experten hier ähnliche Effizienz und performancegewinne wie beim Maxwell oder passt das mit der GPU Architektur von AMD nicht so gut zusammen wie bei Nvidia??

Kommt IMHO auf die Methode selber an und weniger der unterliegenden Architektur. Im Grund sind sowohl Radeons und GeForces immediate mode renderers. Jegliches tile based caching/binning oder wie man es nennen will wird auf beiden nur fuer begrenzte Mengen von Geometrie gelten, ergo kann ich mir schwer vorstellen dass erfahrene engineers hier etwas falsch machen koennten.

matty2580
2017-03-05, 19:52:09
Nvidia setzt Tiled Cache Renderer seit der 750ti ein, und ist damit AMD einen riesigen Schritt seit Jahren voraus.

Die Frage die sich mir stellt ist, warum dauerte dass so extrem lange, fast 4 Jahre, bis AMD mit Draw Stream Binning Rasterizer eine ähnliche Technologie entwickelt hat?

Vielleicht hat Nvidia ja wieder eine so extrem mächtige Technologie in der Schublade?
Und es dauert wieder fast ein halbes Jahrzehnt lang bis AMD den Anschluss findet.

Zwischen Kepler und Maxwell war der Abstand ungewöhnlich lange.
Der zeitliche Abstand zwischen Pascal und Volta scheint wieder sehr groß zu werden.
Nvidia brütet wieder einmal ein "Ei" aus, was sehr mächtig zu werden scheint, also eine neue Technologie.
Meine Sorge ist, dass AMD dann wieder Jahre braucht um aufzuholen.

dargo
2017-03-05, 19:55:35
Den Spieß könnte man auch umdrehen... Thema Async Compute.

Setsul
2017-03-05, 19:55:59
750 Ti gibt es seit 2014. Nach welcher Rechnung sind das über 4 Jahre?

matty2580
2017-03-05, 20:07:52
Na gut, dann aufgerundet 4 Jahre.
Das ändert aber nichts an der Situation an sich, dass AMD viel Zeit brauchte sich anzupassen.

Und dabei wissen wir jetzt ja noch nicht einmal ob Draw Stream Binning Rasterizer so gut bei GCN funktioniert wie das Gegenstück bei Nvidia.

AffenJack
2017-03-05, 21:03:27
Ähmm, dir ist offensichtlich nicht klar, wie Chipentwicklung funktioniert. Du nennst das extrem lange, dabei ist das der kürzest mögliche Zeitraum, wenn man nicht vorher an ähnliche Ansätze gedacht hat. Die Architektur die gerade im Moment entwickelt wird, siehst du in vielleicht 3 Jahren in Produkten. Nicht ohne Grund kann Nvidia Async auch immernoch schlechter als Nv, wie Dargo schon schrieb.

matty2580
2017-03-05, 21:36:55
Nein, ich weiß schon dass zwischen der Entwicklung und neuen Konsumer Chips sehr viel Zeit vergehen kann.

Darum geht es mir auch gar nicht unbedingt. Auch wenn ich mir eigentlich viel mehr Dynamik in der GPU Entwicklung wünsche.

Nur scheint Nvidia immer irgendwie besser die neuen Produkte von AMD zu kennen, als umgedreht.
Der Async Vergleich passt auch nicht unbedingt, da unterm Strich Nvidias Tiled Cache Renderer eine viel effektivere Technologie war.

BlacKi
2017-03-05, 21:37:58
Na gut, dann aufgerundet 4 Jahre.

18.feb 2014 aufrunden auf 4 jahre?:biggrin:

HOT
2017-03-05, 21:38:14
NV hat sich einfach recht früh dazu entschieden, diesen Schritt zu gehen, bei AMD regierte hingegen der Rotstift - bis Ellesmere gabs keine wirklich neue Technologie seit Tahiti. Das dauerte eben seine Zeit.
Zudem sehe ich das nicht so, dass der zeitliche Abstand zu Kepler groß war. Fermi kam Mitte 2010, Kepler erst in 2012. Maxwell DX11 dann Ende 2013 und diese Architektur gibts mit eher kleineren Änderungen bis heute. NV hatte aber beispielsweise niemals die Flexibilität, die AMD seit Tahiti in den CUs mitbringt (Stichwort Compute, vor allem gleichzeitig mit Grafik). Der Vorteil des neuen Rasterizers, der eben tile based arbeitet, wiegt nur einfach mehr im Nachhinein betrachtet. Vorsprung ist also relativ. In der Hinsicht gehts auch so nicht weiter, man könnte daraus noch einen deferred renderer machen, aber das würde wahrscheinlich heute mehr Probleme als Nutzen mitbringen. Es fällt schwer zu glauben, das NV noch sowas in der Hinterhand haben könnte, was so extrem wirkt.

matty2580
2017-03-05, 21:50:00
18.feb 2014 aufrunden auf 4 jahre?:biggrin:
Vega wird wahrscheinlich Anfang Juni zur Computec vorgestellt.
Und wann erste GPUs mit Vega im Konsumer Markt ankommen, wissen wir jetzt noch nicht.

Ja, ich habe etwas großzügiger aufgerundet. Das ist auch angebracht bei den AMD Launch der Vergangenheit.

Selbst Format_C beschreibt denn Launch von Ryzen als einen der schlechtesten Launch der letzten Jahre.

Da AMD es erst am Dienstag, also 2 Tage vor Launch geschafft hat, die EU überhaupt offiziell zu besampeln und ich fair genug war, keine PR0-Samples zu nutzen, sind die Gaming-Benchmarks und die Intro von meinem Kollegen Paul Acorn in den USA gemacht worden. Der hat seinen Holzkoffer ja schon eine Woche vorher bekommen. Deshalb steht er dort im Review auch an erster und ich an zweiter Stelle. Mal letzte Seite bis zur Fußzeile scrollen. America first? Vielleicht sind wir ja jetzt für die Amis (dazu gehört AMD ja auch) nur noch Tester zweiter Klasse? Trumpification hellau!

Ich bin hier in DE erst am Abend fertig geworden. Das war der übelste Launch seit Jahren. 62 Benchmarks samt Grafiken und Text in weniger als 24 Stunden. Vielen Dank dafür.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11308940&postcount=705

Bei AMD bin ich selbst als bekennender AMD-Fan sehr vorsichtig geworden. ^^

Knuddelbearli
2017-03-05, 22:11:16
das übelste war eindeutig bezogen auf den Stress da er 62 Benchmarks samt Grafiken und Text in weniger als 24 Stunden durchpeitschen musste.

matty2580
2017-03-05, 22:21:01
Ja, trotzdem wieder ein "gelungener" Launch von AMD.
http://www.planet3dnow.de/cms/30155-amd-ryzen-7-1800x-teil-1/subpage-das-geht-besser-amd/
Ich will jetzt auch nicht darüber streiten.

Wir werden im Juni ja erfahren, wann es Vega endlich zu kaufen gibt.

AlphaNUSS
2017-03-05, 23:48:36
Wenn AMDs R&D Budget so hoch wie das von Nvidia wäre, dann würden sie auch öfters mal vorlegen.

Complicated
2017-03-06, 00:27:31
Ja, trotzdem wieder ein "gelungener" Launch von AMD.
http://www.planet3dnow.de/cms/30155-amd-ryzen-7-1800x-teil-1/subpage-das-geht-besser-amd/
Ich will jetzt auch nicht darüber streiten.

Das war bezogen auf Versandprobleme der Hardware, wenn du mal lesen würdest was du hier so als Launchprobleme und zudem Offtopic zusammen trägst. Ryzen ist noch nicht mal mit einer iGPU ausgestattet und der Thread handelt von Vega.

Nightspider
2017-03-06, 02:55:32
In ihrer GDC Präsentation sprach DICE vom zukünftigen Support von Checkerboard auf anderen Plattformen.

PC wird zwar nicht explizit aufgeführt aber wäre schon geil wenn Checkerboard kurz nach dem Vega Release schon Support auf dem PC bekommen würde.

Folie 150
http://frostbite-wp-prd.s3.amazonaws.com/wp-content/uploads/2017/03/04173623/GDC-Checkerboard.compressed.pdf

just4FunTA
2017-03-06, 06:22:19
In ihrer GDC Präsentation sprach DICE vom zukünftigen Support von Checkerboard auf anderen Plattformen.

PC wird zwar nicht explizit aufgeführt aber wäre schon geil wenn Checkerboard kurz nach dem Vega Release schon Support auf dem PC bekommen würde.

Folie 150
http://frostbite-wp-prd.s3.amazonaws.com/wp-content/uploads/2017/03/04173623/GDC-Checkerboard.compressed.pdf

upscaling obwohl man auch die native Auflösung wählen könnte? Nein danke..

mboeller
2017-03-06, 07:25:19
Nur scheint Nvidia immer irgendwie besser die neuen Produkte von AMD zu kennen, als umgedreht.


Ist auch kein Wunder, da ja einige AMD-Mitarbeiter bei ihrem Wechsel zu Nvidia sehr viele Daten mitgehen haben lassen... Nvidia hat dadurch einen sehr tiefen Einblick in die Pläne von AMD gewonnen.

https://arstechnica.com/tech-policy/2013/01/amd-accuses-former-top-employees-of-stealing-over-100000-documents/

... die Welt ist anscheinend ziemlich kurzlebig wenn du das schon wieder vergessen hast

Lurtz
2017-03-06, 10:32:43
upscaling obwohl man auch die native Auflösung wählen könnte? Nein danke..
Ja, bitte! Bei High-DPI-Displays sind smarte Softwarelösungen nur zu begrüßen.

AnarchX
2017-03-06, 18:24:14
Spielen wohl schon ein paar Boardpartner mit Vega herum und sind wieder auf den Upload-Button gekommen:
Details for Result ID 687F:C3 (4096SP 64C 344MHz, 16kB L2, 8GB 2048-bit) (OpenCL)


GP (GPU/CPU/APU) Processing
Half-float GP Compute 9414.36Mpix/s
Single-float GP Compute 9422.16Mpix/s
Double-float GP Compute 806.54Mpix/s
Quad-float GP Compute 50.80Mpix/s

http://ranker.sisoftware.net/show_run.php?q=c2ffcdf4d2b3d2efdbe9dcebdaebcdbf82b294f194a999bfccf1c9&l=en

Godmode
2017-03-06, 18:37:43
Kein 1:2 DP wie man an den Benchmarks sehen kann. Das dürfte dann der GP102-GP104 Konkurrent sein. Oder nur ein Softwareproblem? Ich denke nicht. Mit dieser Leistung wird GP104 auf jende Fall kein Land sehen und der Chip dürfte direkt gegen GP102 gerichtet sein. Vorausgesetzt die Leistung skaliert nach oben hin und es limitiert nicht wieder irgendetwas, wie bei der Fury.

Zum Vergleich Polaris 10 auf der RX480 mit 1,2 GHz:

Half-float Shader Compute 3112.52Mpix/s
Single-float Shader Compute 3690.54Mpix/s
Double-float Shader Compute 322.21Mpix/s
Quad-float Shader Compute 30.56Mpix/s

http://ranker.sisoftware.net/show_run.php?q=c2ffcdfbddbcdde0d2e0d8e9dbe8cebc81b197f297aa9abccff2ca&l=en

Unicous
2017-03-06, 18:40:28
Und das bei nur 344MHz?:eek:



:wink:

Gipsel
2017-03-06, 18:42:44
Kein 1:2 DP wie man an den Benchmarks sehen kann. Das dürfte dann der GP102-GP104 Konkurrent sein. Oder nur ein Softwareproblem? Ich denke nicht.

Zum Vergleich Polaris 10 auf der RX480 mit 1,2 GHz:



http://ranker.sisoftware.net/show_run.php?q=c2ffcdfbddbcdde0d2e0d8e9dbe8cebc81b197f297aa9abccff2ca&l=enMan sollte schon die gleiche API (OpenCL) benutzen. ;)
http://ranker.sisoftware.net/show_run.php?q=c2ffcdf4d2b3d2efdbebdce5d4eccab885b593f693ae9eb8cbf6c7f3&l=de
Half-float GP Compute 1593,26Mpix/s
Single-float GP Compute 6785,07Mpix/s
Double-float GP Compute 650,28Mpix/s
Quad-float GP Compute 41,79Mpix/s

Lief wohl auf ~1GHz. Und der Shadercompiler erzeugt offenbar noch keine (Vektor-)FP16-Instruktionen. Also noch work in progress. Und auf Werte von Sandra sollte man sowieso nichts geben. Ist (und war das auch schon immer) im Prinzip total schrottig.

Godmode
2017-03-06, 18:47:09
Oh, mein Fehler. Hassenswerte Website BTW.

mironicus
2017-03-06, 18:55:43
Wäre schön, wenn Vega 300% schneller als Polaris wäre. Aber mindestens doppelt so schnell sollte es schon sein.

Setsul
2017-03-06, 21:02:25
@matty2580:
Aufrunden ist immernoch falsch. Außer du würdest sagen morgen ist ein Jahr entfernt, gerundet auf Jahre.

Tiling und AC haben völlig andere Zwecke, was soll der Vergleich? Dann kannst du auch DX12 und HBM vergleichen.

Rampage 2
2017-03-07, 00:39:22
Ist eigentlich schon bekannt, wieviele ROPs und TMUs der Vega-Topdog haben wird?

Fury X hatte 64/256; ich hoffe, dass bei Vega wenigstens die Anzahl der ROPs auf 128 verdoppelt wurde - beim Pixeldurchsatz hinkt Polaris seinen Pascal-Pendanten weit hinterher...

R2

matty2580
2017-03-07, 18:32:19
Aufrunden ist immernoch falsch. Außer du würdest sagen morgen ist ein Jahr entfernt, gerundet auf Jahre.
Tiling und AC haben völlig andere Zwecke, was soll der Vergleich? Dann kannst du auch DX12 und HBM vergleichen.
Von mir aus korrigiere den zeitlichen Abstand auf 3 Jahre, und runde ab. Das ändert aber nichts an der ursprünglichen Aussage, dass AMD viel Zeit brauchte eine vergleichbare Technologie wie Tiled Cache Renderer zu entwickeln und umzusetzen.

Weil immer wieder Async Compute als die große Technologie für AMD genannt wird. Dafür gibt es nur sehr wenige Games die wirklich gut davon profitieren. Bei Tiled Cache Renderer dagegen hat Nvidia seit Maxwell einen großen Vorsprung bei der Effizienz gegenüber AMD. Natürlich sind das sehr verschiedene Technologien.

Der Vergleich kam ursprünglich nicht von mir, sondern von dargo. Abgesehen davon bringt es nichts jede noch so kleine Aussage/Frage von mir zu zerpflücken und aus dem Kontext zu reißen. Ich werde auf den Quatsch hier auch nicht mehr antworten.

Mein ursprünglicher Post (#2348) war ein nur eine Frage zu einem Technologie-Vergleich, und deren mögliche Auswirkungen.

Botcruscher
2017-03-07, 19:21:12
Drei Jahre sind in der Chipentwicklung nicht viel Zeit. Wenn es nicht im Konzept berücksichtigt wurde dauert es eben etwas...

Ailuros
2017-03-07, 20:25:47
Es waere ehrlich endlich sinnvoller wenn man sowohl fuer GeForces als auch Radeons einen balancierteren Abstand zu Sachen wie tiled caching/binning und/oder async compute nehmen wuerde. Vielleicht hilft es einige einzusehen dass das tilied caching Zeug fuer beide Seiten nur fuer eine begrenzte - relativ kleine - Menge von Geometrie relativ ist, welches auch wiederrum bedeutet dass der insgesamte Vorteil davon eben auf diese Menge auch wirklich begrenzt ist. Und nein es ist auch kein besonderes Hexenwerk das Zeug in einen IMR einzubauen.

matty2580
2017-03-07, 21:01:25
Und nein es ist auch kein besonderes Hexenwerk das Zeug in einen IMR einzubauen.
Genau das war meine eigentliche Frage. Du schreibst ja selbst, dass es kein Hexenwerk ist. Aber warum braucht AMD so lange um eine ähnliche Technologie wie Nvidias Tiled Cache Renderer zu entwickeln?

Das ist doch eine neutrale Frage, und nicht bösartig gemeint.

Statt dessen werde ich hier von Pseudo-AMD-Fans "angegriffen", die jedes Wort von mir auf die Goldwaage legen, und aus dem Kontext reißen.

Mit meinen jetzt 44 Jahren mache ich PC-Gaming seit über 20 Jahren, und hatte die letzten 20 Jahre fast ausschließlich nur AMD/ATI Komponenten in meinem PC verbaut.

Greifen sich die AMD-Fans hier jetzt schon gegenseitig an und drehen durch? Das hat schon seinen Grund warum ich hier viel weniger schreibe als auf anderen Seiten. :(

@Screemer:
Alles wird gut Screemer.
Und keine Angst, du wirst mich hier nur ganz selten lesen. ^^

Screemer
2017-03-07, 21:03:01
kannst du es jetzt bitte endlich sein lassen? dir wurden jetzt antworten in zig variationen präsentiert. es nervt einfach nur noch.

Godmode
2017-03-07, 21:40:23
Weil immer wieder Async Compute als die große Technologie für AMD genannt wird. Dafür gibt es nur sehr wenige Games die wirklich gut davon profitieren. Bei Tiled Cache Renderer dagegen hat Nvidia seit Maxwell einen großen Vorsprung bei der Effizienz gegenüber AMD. Natürlich sind das sehr verschiedene Technologien.


@Async: Es könnte auch daran liegen, dass die Entwickler den Code sowieso ohne Async-Compute schreiben müssen, da es auf den NV-Karten oft Nachteile hat (hatte?). Wenn du Code ohne Async-Compute schreibst, ist das mehr Arbeit als mit, da du dich dann selber um die Ausführung und Synchronisation der einzelnen Command-Lists (Compute, Copy) kümmern musst, IIRC.

Es würden eventuell anders aussehen, wenn AMD 80% vom Markt hätte und Nvidia nur 20%.

aufkrawall
2017-03-07, 21:45:00
Es wird laut Entwickler-Slides sowieso immer ein serieller Pfad geschrieben, um überprüfen zu können, ob async wirklich schneller ist. Async ist also immer zusätzliche Arbeit.

Complicated
2017-03-07, 22:00:05
Genau das war meine eigentliche Frage. Du schreibst ja selbst, dass es kein Hexenwerk ist. Aber warum braucht AMD so lange um eine ähnliche eine Technologie wie Nvidias Tiled Cache Renderer zu entwickeln?
Aus dem selben Grund warum Nvidia erst Jahre später Tesselation in Hardware gebaut hat. Es dauert nun mal Jahre wenn ein anderer Hersteller etwas vorlegt, woran man selber nicht gearbeitet hat. Wurde doch nun wirklich schon geschrieben. GCN ist nun in 4 Generation verwendet worden mit Verbesserungen und da konnte es eben nicht ohne großes Risiko verbaut werden. Stellt man an einem Rad verändern sich viele andere Parameter ebenfalls. Vega ist die erste sinnvolle Gelegenheit solche größeren Änderungen zu implementieren.

scully1234
2017-03-07, 22:24:33
Aus dem selben Grund warum Nvidia erst Jahre später Tesselation in Hardware gebaut hat..

Sind das Charlies Nachwehen die du da wiederholst?

Gipsel
2017-03-07, 22:31:33
Sind das Charlies Nachwehen die du da wiederholst?Nee, die Radeons hatten tatsächlich schon sehr lange einen Tessellator eingebaut. Der wurde nur praktisch nie genutzt (und war auch eher umständlich nutzbar und später nicht DX11 kompatibel). War afaik eine Nachwehe der Xenos-Entwicklung (XBox360) oder sowas in der Art. Als Beispiel kann ich Dir z.B. Blockdiagramme des R600 und des RV770 anbieten:

http://images.anandtech.com/reviews/video/ATI/2900XT/blockdiag.jpg http://images.bit-tech.net/content_images/2008/09/ati-radeon-4850-4870-architecture-review/rv770-block.jpg

AMD hat damals auch öfter mal noch Demos rausgebracht, die die Vorzüge von Tessellation zeigen sollten.
http://images.anandtech.com/reviews/video/ATI/2900XT/terrain.jpg
Findest auch noch mehr, wenn Du mal suchst.

Das ist eins der obskureren Anekdoten der GPU-Entwicklung. ATI baut jahrelang Tessellatoren in ihre GPUs ein, ohne das irgendwas passiert. Und wenn es dann ernst wird, brauchen sie eine ganze Weile, um ihr Design auf Vordermann zu bringen. :rolleyes:

scully1234
2017-03-07, 22:35:36
Nee, die Radeons hatten tatsächlich schon sehr lange einen Tessellator eingebaut.

Ich meinte den Stunt mit der angeblichen Software Tesselation bei Fermi

Gipsel
2017-03-07, 22:43:14
Ich meinte den Stunt mit der angeblichen Software Tesselation bei FermiSchon klar, aber das ist nicht, was Complicated meinte. ;)

Achill
2017-03-07, 22:47:34
Aus dem selben Grund warum Nvidia erst Jahre später Tesselation in Hardware gebaut hat. Es dauert nun mal Jahre wenn ein anderer Hersteller etwas vorlegt, woran man selber nicht gearbeitet hat. Wurde doch nun wirklich schon geschrieben. GCN ist nun in 4 Generation verwendet worden mit Verbesserungen und da konnte es eben nicht ohne großes Risiko verbaut werden. Stellt man an einem Rad verändern sich viele andere Parameter ebenfalls. Vega ist die erste sinnvolle Gelegenheit solche größeren Änderungen zu implementieren.

Ich meinte den Stunt mit der angeblichen Software Tesselation bei Fermi

In dem Quote von dir steht nichts von Fermi ...

Ansonsten hatte die Radeon 8500 (August 2001) die erste Form von Tessellation via TruForm.

Aber vielleicht BtT?

scully1234
2017-03-07, 22:58:06
In dem Quote von dir steht nichts von Fermi ...


Ich dachte das dürfte mit Charlie im Quote eigentlich nicht in die falsche Richtung gehen, da noch Fermi mit aufzuführen ,wäre nur für die Newbies von Relevanz

horn 12
2017-03-07, 23:05:24
Hoffe AMD macht was daraus zum Release der GTX 1080TI und schockiert die womöglichen TI Käufer mit einer richtig Geilen Performance zum noch geileren Preis und dem halben Speicherverbrauch!

Verschläft man auch dies wiederum ist der Markt weiter gesättigt und für AMD wird es Sauschwer Vega absetzen zu können.

Complicated
2017-03-07, 23:12:32
Das ist eins der obskureren Anekdoten der GPU-Entwicklung. ATI baut jahrelang Tessellatoren in ihre GPUs ein, ohne das irgendwas passiert. Und wenn es dann ernst wird, brauchen sie eine ganze Weile, um ihr Design auf Vordermann zu bringen. :rolleyes:
Allerdings, das war sehr skurril. Mal sehen ob nun Nvidias Tiled Cache Renderer ähnliches widerfährt wie AMDs Truform damals. Sozusagen der Nachzügler es dann nach dem Motto macht "Feature done right" und davon zieht mit der Performance/Effizienz. Vegas Draw Space Binning Rasterizer könnte ja Verbesserungen beinhalten.

Agent117
2017-03-07, 23:18:40
Hoffe AMD macht was daraus zum Release der GTX 1080TI und schockiert die womöglichen TI Käufer mit einer richtig Geilen Performance zum noch geileren Preis und dem halben Speicherverbrauch!

Verschläft man auch dies wiederum ist der Markt weiter gesättigt und für AMD wird es Sauschwer Vega absetzen zu können.

...Wäre schön. Zumindest scheint Nvidia sich bezüglich Vega nicht so sicher zu sein oder aber sie sind sich sicher und Vega liegt nahe an GP102.
Es ist schon etwas verwunderlich, dass die GTX 1080 Ti die Titan XP zu 99% obsolet macht und sogar schneller ist. Der 1GB Ram der ihr Fehlt ist ein Witz.
Wüsste Nvidia sicher, dass Vega GP102 nicht richtig gefährlich werden kann, hätten sie doch die 1080Ti mit 10Gb Ram und 3200Sp gebracht und die Titan XP nicht faktisch gekillt. Mit 3200SP hätten sie auch eine Geometrieengine deaktiviern können, wie bei der GTX 1070, was die Ausbeute noch zusätzlich etwas erhöhen sollte.
Die aktuelle GTX 1080Ti ist mMn das Maximum, was man - sofern die Yields für den 480mm² Die nach wie vor nicht so gut sind - vernünftig als Massenware bringen kann, natürlich mit Nachteilen gegenüber der 3200SP und 320Bit Lösung.

Wahrscheinlich ist Vega aber wegen dem neuen Shadercompiler auch einfach schwerer für Nvidia zu durchschauen und sie gingen deshalb bei der 1080Ti auf Nummer sicher.

horn 12
2017-03-08, 00:08:14
Zum Release sollte wohl von AMD ABSICHTLICH einiges Geleakt werden, ansonsten ... vermasselt es nur nicht AMD :-)

Gipsel
2017-03-08, 00:16:54
Ich dachte das dürfte mit Charlie im Quote eigentlich nicht in die falsche Richtung gehen, da noch Fermi mit aufzuführen ,wäre nur für die Newbies von RelevanzDa Du die Anspielung von Complicated auf die Tessellation der deutlich älteren TeraScale-Architekturen (Xenos/C1/R500, R600, R700 ff.) nicht mitgeschnitten und fälschlicherweise auf Fermi bezogen hast, bist wohl eher Du der Newbie ;).

rentex
2017-03-08, 05:47:07
...Wäre schön. Zumindest scheint Nvidia sich bezüglich Vega nicht so sicher zu sein oder aber sie sind sich sicher und Vega liegt nahe an GP102.
Es ist schon etwas verwunderlich, dass die GTX 1080 Ti die Titan XP zu 99% obsolet macht und sogar schneller ist. Der 1GB Ram der ihr Fehlt ist ein Witz.
Wüsste Nvidia sicher, dass Vega GP102 nicht richtig gefährlich werden kann, hätten sie doch die 1080Ti mit 10Gb Ram und 3200Sp gebracht und die Titan XP nicht faktisch gekillt. Mit 3200SP hätten sie auch eine Geometrieengine deaktiviern können, wie bei der GTX 1070, was die Ausbeute noch zusätzlich etwas erhöhen sollte.
Die aktuelle GTX 1080Ti ist mMn das Maximum, was man - sofern die Yields für den 480mm² Die nach wie vor nicht so gut sind - vernünftig als Massenware bringen kann, natürlich mit Nachteilen gegenüber der 3200SP und 320Bit Lösung.

Wahrscheinlich ist Vega aber wegen dem neuen Shadercompiler auch einfach schwerer für Nvidia zu durchschauen und sie gingen deshalb bei der 1080Ti auf Nummer sicher.

Das klingt als Erklärung, auch plausibel.

Ailuros
2017-03-08, 07:46:41
Genau das war meine eigentliche Frage. Du schreibst ja selbst, dass es kein Hexenwerk ist. Aber warum braucht AMD so lange um eine ähnliche Technologie wie Nvidias Tiled Cache Renderer zu entwickeln?

Das ist doch eine neutrale Frage, und nicht bösartig gemeint.

Statt dessen werde ich hier von Pseudo-AMD-Fans "angegriffen", die jedes Wort von mir auf die Goldwaage legen, und aus dem Kontext reißen.

Man koennte mit zich Gruenden aufkommen u.a. dass man eine Implementierung bis zum kotzen durchtesten muss damit es auch nirgends "stolpert", bis zur moeglichen Pflicht die bestimmte Implementierung zu patentieren.

Drehe ich es um 180 Grad warum hat es NV nicht geschafft async compute seit Kepler in einem Zug so effizient zu implementieren wie AMD? Die Loesung an fuer sich mag trivial sein, es muss aber auch zum Rest der Architektur passen.

Fuer den letzten Paragraphen: Gott hat Dir zwei Ohren geschenkt.


Das ist eins der obskureren Anekdoten der GPU-Entwicklung. ATI baut jahrelang Tessellatoren in ihre GPUs ein, ohne das irgendwas passiert. Und wenn es dann ernst wird, brauchen sie eine ganze Weile, um ihr Design auf Vordermann zu bringen. :rolleyes:

IMG hatte einen (damals nannten sie es....) programmable primitive processor auch schon seit einer Ewigkeit, das Resultat war aber beschissen lahm und quasi nutzlos. Wavey sagte mal selber bei B3D dass sie nie jegliche Tesselations-Logik bei AMD entfernt hatten weil mehr Muehe bedeutet haette es zu entfernen als es stehen zu lassen.

....und dann gibt es noch das "Wehwechen" um das sich bis jetzt niemand gekuemmert hat:

https://forum.beyond3d.com/posts/1786790/

One of the biggest issues with Dx11 style tessellation is that LOD is not continuously variable across a patch, i.e any LOD difference between the edges of a patch is resolved at its edges. This means that in order to get better LOD management surfaces need to be pre-broken down into smaller patches, which means that it's entirely probable that in real use cases Dx11 style tessellation actually increases the amount of input geometry instead of reducing it.

Ob es wirklich so schwer ist es richtig hinzubiegen?

In theory it's just a change to the fixed function tessellation the rest of the pipeline could stay the same, although no one, including NV, has done this of their own backs yet.

Fuer low level APIs hat man gedrueckt in DX12, aber die relativ kleine Aenderung konnte wohl keiner der Grossen behandeln oder? Ich weiss zwar nicht wie die Vorschlaege fuer DX11 Tessellation von jeder Seite aussahen, aber ich hab das Gefuehl dass die finale Loesung fuer DX11 naeher an NV's Ideen waren und sich seither einfach keiner mehr darueber gekuemmert hat.

Das klingt als Erklärung, auch plausibel.

Die eigentliche Erklaerung warum es ueberhaupt noch Titan SKUs nach dem originalen Titan gibt ist ziemlich laecherlich und hat hier mit dem thread auch nichts zu tun.

Locuza
2017-03-08, 09:10:15
[...]
Ob es wirklich so schwer ist es richtig hinzubiegen?

Fuer low level APIs hat man gedrueckt in DX12, aber die relativ kleine Aenderung konnte wohl keiner der Grossen behandeln oder? Ich weiss zwar nicht wie die Vorschlaege fuer DX11 Tessellation von jeder Seite aussahen, aber ich hab das Gefuehl dass die finale Loesung fuer DX11 naeher an NV's Ideen waren und sich seither einfach keiner mehr darueber gekuemmert hat.
[...]
Die Entwicklerstimmen der letzten Jahren haben jedenfalls klar gemacht, dass Geometry-Shader und Tessellation suboptimale Lösungen für die Anwendungsfelder darstellen.

Das Thema kam "neulich" wieder auf, bei der Siggraph 2016 im Kurs "Geometry and Material Representation in Games: Lessons Learned and Challenges Remaining?"
http://openproblems.realtimerendering.com/s2016/index.html

Leider gibt es dazu kein öffentliches Material, aber die Community hat darüber getwittert:
Yeah I'm not sure why people have been dancing around this for so long - it clearly isn't working well for games.
wait, I heard “tessellation shaders, biggest waste of transistors since geometry shaders” at siggraph 2010!
Tessellation in practice is just bad geometry compression. Should revisit from compression POV.
https://twitter.com/aras_p/status/758623547237564416

Vega mag sich der Problematik aber mit den neuen Primitive-Shadern vielleicht annehmen.

Unicous
2017-03-08, 10:54:14
Etwas OT: Rys Sommefeldt verlässt IMG und geht zu RTG.

5 days left as a PowerVR employee. Sad to go after 7 years, leaving some unsolved problems behind, but very excited for the new thing.

I'm off to AMD RTG to work on game graphics things \o/
https://twitter.com/ryszu/status/839104168073781250

Ailuros
2017-03-08, 14:50:12
Etwas OT: Rys Sommefeldt verlässt IMG und geht zu RTG.



https://twitter.com/ryszu/status/839104168073781250

Wavey hat ihm vielleicht geholfen? So oder so gab es fuer jemand wie Rys keine Weiterentwicklung mehr da wo er heute ist bei IMG. Bei AMD ist er um einiges besser aufgehoben und ich kann Dir schon jetzt sagen dass es NV ueberhaupt nicht schmecken wird dass der Admin von B3D bei AMD arbeiten wird https://forum.beyond3d.com/threads/the-amd-execution-thread.37641/page-95

....Rys wird sich hauptsaechlich wieder mit competitive analysis bei AMD abgeben, denn da brauchen sie wirklich jemand mit Erfahrung denn die Bumsfallera gestohlenen Dokumente die mboeller auf einer vorigen Seite erwaehnte waren/sind nicht das wirkliche Problem.

[/end of OT]

Die Entwicklerstimmen der letzten Jahren haben jedenfalls klar gemacht, dass Geometry-Shader und Tessellation suboptimale Lösungen für die Anwendungsfelder darstellen.

Das Thema kam "neulich" wieder auf, bei der Siggraph 2016 im Kurs "Geometry and Material Representation in Games: Lessons Learned and Challenges Remaining?"
http://openproblems.realtimerendering.com/s2016/index.html

Leider gibt es dazu kein öffentliches Material, aber die Community hat darüber getwittert:

https://twitter.com/aras_p/status/758623547237564416

Vega mag sich der Problematik aber mit den neuen Primitive-Shadern vielleicht annehmen.

So oder so wird es wieder verdammt lange dauern bis es zu einer Loesung kommen wird und Tessellation rundum endlich nutzvoller eingesetzt werden kann. Egal ob die primitive shaders dazu beitragen oder nicht der Markt braucht eine pflichtmaessige Loesung durch eine API Revision damit es je zu etwas kommt. Ich hab zwar keine Ahnung ob Microsoft irgendwo an drafts fuer eines neues API arbeitet, aber das Ganze klingt in letzten Jahren alles so traege fuer DX als ob alle Probleme in hw und sw schon seit langem geloest sind und sich alle nur auf ihren Lorbeeren ausruhen koennen.

N0rG
2017-03-08, 22:37:53
Gibt es eigentlich schon Prognosen wo Vega performancetechnisch landen wird? Also Bestcase/Worstcase

PrivateCeralion
2017-03-08, 23:42:55
Gibt es eigentlich schon Prognosen wo Vega performancetechnisch landen wird? Also Bestcase/Worstcase

Worstcase: GTX 1070
Bestcase: Over 9000

basix
2017-03-08, 23:55:51
Worstcase: GTX 1070
Bestcase: Over 9000

Signaturwürdig ;D

Schaffe89
2017-03-09, 00:13:09
Wäre schön, wenn Vega 300% schneller als Polaris wäre. Aber mindestens doppelt so schnell sollte es schon sein.

Dass Vega besonders schnell wird, kann man anhand der Namensgebung von AMD die angesetzt wird, eigentlich fast ausschließen.
Man benennt die RX480 in RX580 das heißt es kommen darüber 2 maximal 3 untersch. Vega SKU´s.

Wenn man Vega 11 noch dazwischen schieben würde, würde man die Polariskarten als 560 und 570 benennen, Vega 11 dann als 580 und 590.
Aber von Vega 11 haben wir ja ewig nichts gehört.

So wird recht schnell klar dass Vega 10 eher maximal bei einer GTX 1080 rauskommen wird, denn zwischen RX580 (RX480 + 5%) und GTX 1080 liegen etwa 60%, genau genug für 2 SKU´s von Vega 10.
Daher geh ich davon aus, dass Vega 11 doch ein größerer Chip ist.

[MK2]Mythos
2017-03-09, 00:40:30
Dass Vega besonders schnell wird, kann man anhand der Namensgebung von AMD die angesetzt wird, eigentlich fast ausschließen.
Man benennt die RX480 in RX580 das heißt es kommen darüber 2 maximal 3 untersch. Vega SKU´s.

Wenn man Vega 11 noch dazwischen schieben würde, würde man die Polariskarten als 560 und 570 benennen, Vega 11 dann als 580 und 590.
Aber von Vega 11 haben wir ja ewig nichts gehört.

So wird recht schnell klar dass Vega 10 eher maximal bei einer GTX 1080 rauskommen wird, denn zwischen RX580 (RX480 + 5%) und GTX 1080 liegen etwa 60%, genau genug für 2 SKU´s von Vega 10.
Daher geh ich davon aus, dass Vega 11 doch ein größerer Chip ist.
Keine Ahnung was du dir da wieder zusammen reimst, Vega bekommt ein eigenes Namensschema und wird mit RX5xx nichts Zutun haben. Davon abgesehen, über die Bezeichnung zu spekulieren und auf Grund dieser Spekulation dann auf die Geschwindigkeit zu spekulieren, ist echt mal wieder Level Expert.

Setsul
2017-03-09, 00:45:07
@Schaffe89:
Wie groß wird V11 deiner Schätzung nach?

Schaffe89
2017-03-09, 00:51:02
Mythos;11314757']Keine Ahnung was du dir da wieder zusammen reimst, Vega bekommt ein eigenes Namensschema und wird mit RX5xx nichts Zutun haben.

Wenn Vega mit dem Namensschema von RX4xx und RX5xx nichts zu tun hätte, würde AMD auch nach so kurzer Zeit keine Rebrands einführen, sondern einfach die beschnittende RX460 als RX465 bringen und Vega dann über die RX480 oben drauf legen.

AMD hat noch nie einen Rebrand innerhalb eines Jahres gebracht, jedenfalls dürfte das sehr sehr lange her sein. Das sind die Vorwehen für Vega 10, von Vega11 ist nach meinem Kenntnisstand absolut nix bekannt.
Wo presst man dan Vega 11 in die 5xx Generation rein? Will man 4x RX Vega verwenden oder mit Vega 11 die RX6xx einläuten?

Sieht zumindest nach dem Namensschema alles danach aus als würde man Polaris 10 und Vega 10 irgendwie verwursten. Und wenn dann dazwischen ne allzu große Lücke klafft, würde es mich schon sehr wundern.
Sollte Vega 10 so schnell sein, also einmal zwischen 1080 und 1080 Ti und einmal drüber, dann benennt man die Polaris 10 nicht in RX580 um, sondern in RX570 maximal im für Vega 11 Platz zu lassen.

@Schaffe89:
Wie groß wird V11 deiner Schätzung nach?

Tolle Fangfrage, was weiß ich.^^

vinacis_vivids
2017-03-09, 00:59:42
12,5 TFlops....

Civtam
2017-03-09, 01:01:58
Wenn Vega mit dem Namensschema von RX4xx und RX5xx nichts zu tun hätte, würde AMD auch nach so kurzer Zeit keine Rebrands einführen, sondern einfach die beschnittende RX460 als RX465 bringen und Vega dann oben drauf legen.

AMD hat noch nie einen Rebrand innerhalb eines Jahres gebracht, jedenfalls dürfte das sehr sehr lange her sein. Das sind die Vorwehen für Vega 10, von Vega11 ist nach meinem Kenntnisstand absolut nix bekannt.
Alle Vega GPUs werden nicht in das RX 5XX Schema gepresst, sondern laufen als RX Vega
Quelle (sonst wärs ja nur ne Behauptung ;)) (https://www.heise.de/newsticker/meldung/AMD-Radeon-RX-Vega-kommt-im-ersten-Halbjahr-2017-3639528.html)

Schaffe89
2017-03-09, 01:47:54
Das hieße dann auch dass Vega 11 noch im ersten Halbjahr 2017 kommen wird.
Denn es wird immer von Vega gesprochen. Ob da jetzt Vega10 und Vega 11 gemeint sind? Keine Ahnung.

Unicous
2017-03-09, 01:51:14
Keine Ahnung.

qft.

MikePayne
2017-03-09, 02:04:21
qft.

U made my day äh night ;D ;D ;D

Es waere ehrlich endlich sinnvoller wenn man sowohl fuer GeForces als auch Radeons einen balancierteren Abstand zu Sachen wie tiled caching/binning und/oder async compute nehmen wuerde. Vielleicht hilft es einige einzusehen dass das tilied caching Zeug fuer beide Seiten nur fuer eine begrenzte - relativ kleine - Menge von Geometrie relativ ist, welches auch wiederrum bedeutet dass der insgesamte Vorteil davon eben auf diese Menge auch wirklich begrenzt ist. Und nein es ist auch kein besonderes Hexenwerk das Zeug in einen IMR einzubauen.

Wg sowas liebe ich 3DC :up: :massa:

Schaffe89
2017-03-09, 03:01:59
qft.

Dann beleg es doch dass damit auch Vega 11 gemeint ist.
Ich kann da auch der Quelle nichts finden.
Genauso hab ich noch nicht mal was von einem Tapout von Vega 11 gehört.

iuno
2017-03-09, 03:04:29
Zu V11 hoert man eh generell fast gar nichts. Koduri weicht auch komplett aus, wenn er darauf angesprochen wird. Meint ihr nicht, dass das vielleicht sowas wie Iceland wird, was gar nicht gross angekuendigt wird? Als Companion Chip fuer eine APU?

@[MK2]Mythos: es ist schon Grundlage fuer Spekulation. Als man noch dachte, dass Greenland relativ kurz nach Ellesmere etc. kommt, wurde auch viel deswegen spekuliert.
Aber da kann man eh nichts ernstnehmen, selbst das was von offizieller Seite kommt. Es gab zwei unterschiedliche Erklaerungen fuer das tolle neue Namensschema und Rebrands sollten nie einfach nur um einen Hunderter angehoben werden, dafuer ist ja schliesslich die 5 an letzter Stelle da. Jetzt gibt es halt doch wieder eine 4580 :rolleyes:

Ph03n!X
2017-03-09, 06:08:59
Verstehe ich das richtig das Vega 10 ein Refresh für Polaris ist und VEGA 11 eigentlich neu?

Gibt es schon Datrum für die Vega 11?
Soll meine 480 ersetzen bzgl. 4K Gaming.

Gipsel
2017-03-09, 06:30:32
Verstehe ich das richtig das Vega 10 ein Refresh für Polaris ist und VEGA 11 eigentlich neu?Nein.
Vega ist insgesamt eine generalüberholte GCN-Architektur. Vega 10 ist der große Chip, Vega 11 der kleinere.
Gibt es schon Datrum für die Vega 11?Nein.
Soll meine 480 ersetzen bzgl. 4K Gaming.Dann schaust Du Dir vielleicht besser was am oberen Ende der Leistungsskala an, also vermutlich einen Vega 10. Wo Vega11 am Ende leistungstechnisch einzuordnen sein wird, ist noch unbekannt.

Gipsel
2017-03-09, 06:33:06
Dass Vega besonders schnell wird, kann man anhand der Namensgebung von AMD die angesetzt wird, eigentlich fast ausschließen.Daß Du irgendwas Sinnvolles zum Thema beizutragen hast, kann man anhand obigen Satzes eigentlich fast ausschließen.
:freak:

Ailuros
2017-03-09, 06:45:18
Dann beleg es doch dass damit auch Vega 11 gemeint ist.
Ich kann da auch der Quelle nichts finden.
Genauso hab ich noch nicht mal was von einem Tapout von Vega 11 gehört.

Selbst Charlie verpasst oefters die wichtigsten tape outs bei NV, wobei ich auch nicht wirklich weiss ob es reine Schlamperei oder nur Absicht ist.

Nur mal so nebenbei fuer den V10 tape out wurde auch nirgends berichtet. Es gab lediglich einen hint vor geraumer Zeit dass sie einen Meilenstein mit Vega erreicht hatten und dieses stand fuer "design done" und keinen tape out eines bestimmten chips.

Um 180 Grad gedreht: wo genau befindet sich GV100 im Moment? Beim offensichtlichen Schulterzucken ist die Antwort dass der IHV es nicht fuer noetig empfindet dass schon jetzt jemand ausserhalb der Firma darueber bescheid weiss.

AMD hat bestaetigt dass 2 chips pro Jahr veroeffentlicht werden, ergo kann Vega10 nicht der einzige chip fuer 2017 sein. Ob der zweite jetzt Pippi Langstrumpf heisst interessiert wohl keinen.

12,5 TFlops....

....und wie hoch ist z.B. das Prozentual der pipeline utilization auf V10?

Pirx
2017-03-09, 07:27:12
...
AMD hat bestaetigt dass 2 chips pro Jahr veroeffentlicht werden, ergo kann Vega10 nicht der einzige chip fuer 2017 sein. Ob der zweite jetzt Pippi Langstrumpf heisst interessiert wohl keinen.
...
Polaris 12;(

victore99
2017-03-09, 07:34:46
auch eine Idee, was V11 sein kann:
NV hat ja das Potential etc von Maxwell mit GM107 getestet, die Spieleentwickler konnten sich an die Programmierung für Maxwell gewöhnen. Was sonst aus GM204 geworden wäre, hätte man nicht die Erfahrungen im Markt mit GM107 gemacht, ist kaum wirklich vorstellbar.
Kann es sein, dass AMD mit V11 ähnliches vorhat?

Ailuros
2017-03-09, 07:43:06
Polaris 12;(

Es koennte auch schlimmer sein, z.B. ein umgekrempelter Fiji. Ich glaube aber an weder/noch denn mit 2 chips sind offensichtlich 2 neue chips gemeint und nicht ein altes aufgewaermtes Sueppchen.

fondness
2017-03-09, 09:41:44
V11 macht Sinn, wenn es V10 mit GP102 aufnehmen kann. Denn dann braucht man noch etwas für GP104. Wenn nicht, dann könnte V11 auch irgendein völlig uninteressanter lowend-Chip sein.

Botcruscher
2017-03-09, 09:59:34
Es koennte auch schlimmer sein, z.B. ein umgekrempelter Fiji.

Fiji done right ist also bestätigt.:D


Mal sehen wann überhaupt dieses Jahr ist. Für April mit Polaris sah mir das Testboard noch nicht aus.

Ailuros
2017-03-09, 10:32:15
Fiji done right ist also bestätigt.:D


Mal sehen wann überhaupt dieses Jahr ist. Für April mit Polaris sah mir das Testboard noch nicht aus.

Noe eher Sarkasmus. Fuer Instict wurden Fiji chips ja wieder benutzt aber ich bezweifle dass sie so viele Fiji chips herumliegen haben dass sie damit auch noch eine desktop SKU ausstatten koennen :weg:

Setsul
2017-03-09, 11:25:53
@Schaffe89:
Wie groß wird V11 deiner Schätzung nach?
Tolle Fangfrage, was weiß ich.^^

Das sollte nicht wirklich eine Fangfrage sein.
Wir haben einen Chip gesehen der zwischen 485 und 500 mm² groß ist. Selbst wenn man GMI Links und DP erwartet und das dann abzieht, bringt ein 600 mm² Chip immenoch nicht viel mehr. Wenn der 500mm² Chip kaum an der 1080 vorbei kommt, dann hat der 600mm² auch keine Chance gegen GP102.

Wenn V10 ein kleinerer Chip ist und der große V11, dann wären wir uns wieder einig. Der kleine irgendwo bei GP104 in der Nähe und der große irgendwo bei GP102.

Nakai
2017-03-09, 11:45:08
V11 wird ziemlich sicher zwischen P10 und V10 liegen.

Entweder mit HBM2 oder mit GDDR5X.

Gipsel
2017-03-09, 11:48:02
Das sollte nicht wirklich eine Fangfrage sein.
Wir haben einen Chip gesehen der zwischen 485 und 500 mm² groß ist. Selbst wenn man GMI Links und DP erwartet und das dann abzieht, bringt ein 600 mm² Chip immenoch nicht viel mehr. Wenn der 500mm² Chip kaum an der 1080 vorbei kommt, dann hat der 600mm² auch keine Chance gegen GP102.

Wenn V10 ein kleinerer Chip ist und der große V11, dann wären wir uns wieder einig. Der kleine irgendwo bei GP104 in der Nähe und der große irgendwo bei GP102.
Der bisherige Stand ist eher, daß Vega 10 an DP spart (1/16), also im professionellen Bereich für die MI-Reihe und alle anderen Anwendungen ohne DP-Anforderungen taugt. Weiterhin soll er als Desktop-Topmodell kommen. Er nimmt also ein Art Hybridrolle zwischen GP102 und GP100 ein. Und nein, das ist keine Aussage über die Performance.

Und wie mir Nakai zuvorgekommen ist, Vega11 sollte sich zwischen Polaris10 und Vega10 einordnen (was mit z.B. 40 CUs@1,5GHz + Effizienzsteigerungen locker auch mit nur 256GB/s Bandbreite möglich wäre).

Nakai
2017-03-09, 12:05:55
Und wie mir Nakai zuvorgekommen ist, Vega11 sollte sich zwischen Polaris10 und Vega10 einordnen (was mit z.B. 40 CUs@1,5GHz + Effizienzsteigerungen locker auch mit nur 256GB/s Bandbreite möglich wäre).

Dann sollte ein HBM2-Stack mit 256GB/s ausreichen. Indirekt zielt das ziemlich auch auf den HBCC ab. Wenn ein V11 mit nur einem Stack und 4GB trotzdem in Richtung GP104 kommen sollten, auch reinher von der generellen Speicherperformance.

€: Womöglich wird Vega generell sehr viel Cache mit sich bringen. Tile-Based Renderer haben diesbezüglich höhere Anforderungen. Könnte gut sein, dass Vega 4 oder gar 8 MB L2-Cache mit sich bringt.
Das würde auch die hohe Diesize erklären, wenn das Memory-Subsystem ebenfalls stark überarbeitet wurde.

HOT
2017-03-09, 13:24:29
Der hat auch 2 Stacks. Dann wohl einfach 1,6GHz-Variante. Der wird ja nicht mit 32CUs daherkommen sondern eher mit 40.

Der_Korken
2017-03-09, 13:48:13
Wenn V11 irgendwo bei der GTX1070 rauskommt oder knapp drunter, dann sollte auch ein Stack mit 256GB/s reichen. Den Rückstand bei der Bandbreiteneffizienz wird man durch die Architekturverbesserungen voraussichtlich aufholen. Das einzige, was dagegenspricht wäre, dass man entweder einen 8GB-Stack bräuchte oder nur 4GB verbaut und hofft, dass das neue Caching/Paging den Rest ausgleicht. Eventuell wäre es da billiger einfach 8GB GDDR5 zu nehmen.

HOT
2017-03-09, 13:52:06
Ich denke, das 2 4GB Stacks 1,6GHz HBM sowieso billiger sind als 1 8GB 2GHz Stack, der hat mit an Sicherheit grenzender Wahrscheinlichkeit auch 2 Stacks. GDDR werden die Vegas nicht haben.

Setsul
2017-03-09, 14:08:01
@Gipsel:
Weiß ich, aber selbst wenn man den best/worst case annimmt, bringt man vor diesen Chip keinen mehr mit mehr als 30% Abstand, weil man einfach die maximale Größe vorher erreicht. Was will man mit so einem Chip?
Schlussfolgerung: Das ist schon der größte Chip.


Andererseits muss man natürlich bedenken die größte Zahl die AMD zur Verfügung steht ist 590. Das ist nicht viel größer als 480 und immernoch kleiner als 1080.
Schlussfolgerung: Der größte Vega Chip wird nur etwas schneller als Polaris 10 und ist immernoch viel langsamer als die GTX 1080. So war doch die Argumentation, oder?

Achill
2017-03-09, 14:09:35
Laut phoronix.com (http://phoronix.com/scan.php?page=news_item&px=AMDGPU-Prep-Patches-For-Vega) sind die ersten Patches für VEGA und AMDGPU heute eingetroffen: https://lists.freedesktop.org/archives/amd-gfx/2017-March/006191.html

Nakai
2017-03-09, 14:16:02
Falls AMD nun auch auf Tile-Based-Rendering umsteigt, und hier ähnlich effizient agiert, dann sollte im BestCase eine ähnliche Perf/SP rauskommen.

Ergo ein hypothetischer V11 mit 40 CUs (2560 SPs) wäre schon auf GP104-Niveau. Einziges Problem könnten, wie immer, die Speicherbandbreite, Speichervolumen und AMD-typische Kinderkrankheiten sein.
Das gleiche gilt für V10, welcher auf GP102-Niveau sein wird.

Wie immer können mangelnde Treiber ein Strich durch die Rechnung machen.

Gipsel
2017-03-09, 14:30:07
Andererseits muss man natürlich bedenken die größte Zahl die AMD zur Verfügung steht ist 590. Das ist nicht viel größer als 480 und immernoch kleiner als 1080.
Schlussfolgerung: Der größte Vega Chip wird nur etwas schneller als Polaris 10 und ist immernoch viel langsamer als die GTX 1080. So war doch die Argumentation, oder?Na ich hoffe doch, daß Du Schaffes "Argumentation" nicht auch nur ansatzweise ernst nimmst.

Da AMD angekündigt hat, Vega als Produktnamen einzuführen, ist die RX-Numerierung ja mit einer gewissen Wahrscheinlichkeit überholt. Will sagen, es gibt für die Zukunft dann entweder ein neues Nummernschema für Vega und Nachfolger oder Vega wird analog zur Fury nur für das größte Die benutzt und der kleinere Vega belegt dann den RX-Nummernbereich oberhalb der Polaris-Rebrands.
Ist doch aber auch egal. Die Marketing-Abteilung wird sich schon irgendeinen Namen und gegebenfalls Nummern dafür ausdenken. Das sollte uns doch völlig egal sein, wenn wir die Chips besprechen. Und deren Qualität wird immer noch von den daran arbeitenden Leuten bestimmt und nicht vom Namensschema, was auf dem Mist von Personen wächst, die mit der Entwicklung der Chips eher nichts zu tun haben.

iuno
2017-03-09, 14:40:12
Ich denke, das 2 4GB Stacks 1,6GHz HBM sowieso billiger sind als 1 8GB 2GHz Stack, der hat mit an Sicherheit grenzender Wahrscheinlichkeit auch 2 Stacks. GDDR werden die Vegas nicht haben.

Auf welchen Tatsachen beruht diese Schaetzung?
Beruecksichtigst du dabei auch, dass man doppelt so viel Platz auf der GPU selbst braucht, der Interposer ggf. groesser wird, man mehr Strom verbraucht, was sicherlich auch eine Rolle spielt?

Falls AMD nun auch auf Tile-Based-Rendering umsteigt, und hier ähnlich effizient agiert, dann sollte im BestCase eine ähnliche Perf/SP rauskommen.

Ergo ein hypothetischer V11 mit 40 CUs (2560 SPs) wäre schon auf GP104-Niveau. Einziges Problem könnten, wie immer, die Speicherbandbreite, Speichervolumen und AMD-typische Kinderkrankheiten sein.
Das gleiche gilt für V10, welcher auf GP102-Niveau sein wird.

Wie immer können mangelnde Treiber ein Strich durch die Rechnung machen.
Ich glaube nicht, dass die Treiber in grossem Masse relevant sind. Die werden doch bei jedem Launch genannt und haben noch nie eine entscheidende Rolle gespielt. Klar gewinnt man ueber die Zeit immer noch ein paar Prozent, das war es dann aber auch.

Interessanter wird imho ob man auch mal von der "Taktschwaeche" wegkommt. Was fuer Pascal 2,1 GHz sind, sind fuer Polaris 1,4 und entsprechend liegt natuerlich auch der sweetspot verschoben. Zumal AMD tendenziell die schlechteren Partnerkarten hat.
Selbst wenn AMD es gelaenge, die Effizienz auf Anhieb auf Paxwell Niveau zu hieven, koennte das noch problematisch werden. Klar, die Founder's Editions zu schlagen waere ein grosser Erfolg, wenn AMD aber schon wieder an der Grenze des Machbaren ausliefert und Nvidia customs und OC Potenzial mit Hunderten MHz mehr hat, wuerde wohl alles ziemlich beim Alten bleiben.

@Gipsel:
Ich nehme mal an, es wird aehnlich wie bei der Fury 2-3 Karten geben, die unter "RX Vega" laufen. Aber doch nicht noch mehr Karten mit auch noch zwei unterschiedlichen Chips. V11 muss man schon irgendwie noch in Nummern unter bekommen.

AffenJack
2017-03-09, 14:44:34
Falls AMD nun auch auf Tile-Based-Rendering umsteigt, und hier ähnlich effizient agiert, dann sollte im BestCase eine ähnliche Perf/SP rauskommen.


Erhöht TBR wirklich die Effizient der Shader? Ich dachte das bringt vor allem Bandbreiteneffizienz und damit auch Verbrauchsverbesserungen, aber bei den Perf/Sp muss eher das Frontend oder die Shader die Verbesserung schaffen.

iuno
2017-03-09, 14:51:54
An Shaderleistung fehlt es AMD doch ueberhaupt nicht :confused: Man bekommt so hoffentlich mehr Durchsatz hin, auch wenn es gleich viele SP bleiben. Die sind ja selten genug voellig ausgelastet.

Gerade wieder im 1080 Ti Test (https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#diagramm-doom-3840-2160) gesehen:
Bei DOOM, wo die Shader von Fiji wohl anstaendig ausgelastet sind und die 4 GiB nicht bremsen, ist die 1080 Ti "Max" (PowerTarget hoch, also imho vergleichbar mit Customs) gerade mal noch 40% schneller als die Fury X. Sonst sind es eher 80-100%. Das entspricht auch genau der Differenz in der theoretischen Rechenleistung (~12,5 vs. ~8,5 TF)
Das regelt ja alleine schon der Takt (1,05 auf 1,5 GHz), fuer den Rest sind dann wirklich die Verbesserungen wie eben der Binning Rasterizer gefragt.

Achill
2017-03-09, 17:17:09
Erhöht TBR wirklich die Effizient der Shader? Ich dachte das bringt vor allem Bandbreiteneffizienz und damit auch Verbrauchsverbesserungen, aber bei den Perf/Sp muss eher das Frontend oder die Shader die Verbesserung schaffen.

Wie ich TBR verstanden habe, so werden nicht sichtbare Dreiecke möglichst früh verworfen.

Damit spart man nicht nur die Bandbreite um Operationen auf diesen Dreieck durch zu führen, sondern auch alle Operationen an sich - wie Shader - die das Dreieck angewendet werden würden.

Damit sieht es so aus, als ob Shader oder andere Teile der Pipeline sehr effizient wären, wozu man aber gar keine Aussage treffen kann weil ggf. das Dreieck einfach verworfen wird.

Das gilt Äquivalt auch bzgl. Leistungsaufnahme.

Pirx
2017-03-09, 18:45:53
ein TBDR wird es aber nicht werden (oder?)

dildo4u
2017-03-09, 18:54:34
An Shaderleistung fehlt es AMD doch ueberhaupt nicht :confused: Man bekommt so hoffentlich mehr Durchsatz hin, auch wenn es gleich viele SP bleiben. Die sind ja selten genug voellig ausgelastet.

Gerade wieder im 1080 Ti Test (https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#diagramm-doom-3840-2160) gesehen:
Bei DOOM, wo die Shader von Fiji wohl anstaendig ausgelastet sind und die 4 GiB nicht bremsen, ist die 1080 Ti "Max" (PowerTarget hoch, also imho vergleichbar mit Customs) gerade mal noch 40% schneller als die Fury X. Sonst sind es eher 80-100%. Das entspricht auch genau der Differenz in der theoretischen Rechenleistung (~12,5 vs. ~8,5 TF)
Das regelt ja alleine schon der Takt (1,05 auf 1,5 GHz), fuer den Rest sind dann wirklich die Verbesserungen wie eben der Binning Rasterizer gefragt.
Der hat was anderes gemessen.

http://techreport.com/review/31562/nvidia-geforce-gtx-1080-ti-graphics-card-reviewed/5

Ich glaube man kann Fury in Doom gar nicht überladen,da nur 8 GB Karten alles freigeschaltet haben.Die Frage ist jetzt ob CB bei den Geforce Karte mehr Detail eingestellt hat.

Noch ein Doom Test mit neuem Treiber:

Die Titan X ist nun fast 14 Prozent schneller als im August, so dass es in der Tat so aussieht, als habe Nvidia positive Änderungen umgesetzt – entweder über seine Treiber oder über eine Zusammenarbeit mit id.

http://abload.de/img/doomvul8xkwd.png

http://www.tomshardware.de/nvidia-geforce-gtx-1080-ti,testberichte-242335-3.html

Gipsel
2017-03-09, 19:06:21
ein TBDR wird es aber nicht werden (oder?)Nein, es bleibt fundamental ein immediate mode renderer, der nur "opportunistisch" ein wenig Geometrie sammelt und vermutlich ab und zu ein wenig deferred, solange es keine Probleme gibt und man nicht grundlegend was am Renderprozeß umstellen muß.
Wieviel Geometrie gesammelt und wieviel hidden surface removal wirklich gemacht wird, wissen wir noch nicht, wahrscheinlich ist es recht limitiert (wie auch bei nV). Das könnte aber unter Umständen etwas mehr als bei nV sein (oder aber auch nicht). Hauptgrund der Effizienzsteigerung dürfte wie bei nV die deutlich verbesserte Lokalität der Speicherzugriffe und damit gesteigerte Wirksamkeit der Caches darstellen (und die größeren Tiles helfen auch der Framebufferkompression).

iuno
2017-03-09, 20:04:49
@dildo: Dann hat CB mit altem Treiber gemessen?
PCGH ist etwas naeher dran, liegt sicher auch an der Szene. Mir ging es aber auch weniger um absolute Werte, als um die Relation zwischen DOOM und anderen Titeln. Auch bei diesen Zahlen schneidet Fiji ja vergleichsweise noch besser ab, mitunter ist der Unterschied ja bei >100%

dildo4u
2017-03-09, 21:48:09
Der Vulkan NV Treiber war bis Heute Schrott ich hatte da immer 94% GPU Last jetzt 98%.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11315574&postcount=11

vinacis_vivids
2017-03-09, 23:04:50
Auch unter 2160p?
Da wird die 1080 bei Hitman und Doom geschlagen von der Fury X.

horn 12
2017-03-09, 23:09:33
Vega bzw. AMD gibt klein bei ... Wohl eher nicht!
Morgen zum Verkaufsstart erhoffe ich (mir) uns wohl einige GEZIELTE Häppchen zur Vega GPU ansonsten ist es ein Verlorenes Unterfangen seitens AMD.

dildo4u
2017-03-09, 23:35:24
Auch unter 2160p?
Da wird die 1080 bei Hitman und Doom geschlagen von der Fury X.

Nicht mehr:

Doom 4k

http://abload.de/img/doomvul8xkwd.png

http://www.tomshardware.de/nvidia-geforce-gtx-1080-ti,testberichte-242335-3.html

Hitman 4k

http://techreport.com/review/31562/nvidia-geforce-gtx-1080-ti-graphics-card-reviewed/10

Felixxz2
2017-03-10, 02:51:41
Nein, es bleibt fundamental ein immediate mode renderer, der nur "opportunistisch" ein wenig Geometrie sammelt und vermutlich ab und zu ein wenig deferred, solange es keine Probleme gibt und man nicht grundlegend was am Renderprozeß umstellen muß.
Wieviel Geometrie gesammelt und wieviel hidden surface removal wirklich gemacht wird, wissen wir noch nicht, wahrscheinlich ist es recht limitiert (wie auch bei nV). Das könnte aber unter Umständen etwas mehr als bei nV sein (oder aber auch nicht). Hauptgrund der Effizienzsteigerung dürfte wie bei nV die deutlich verbesserte Lokalität der Speicherzugriffe und damit gesteigerte Wirksamkeit der Caches darstellen (und die größeren Tiles helfen auch der Framebufferkompression).

Was hinter eigentlich AMD und nV am harten Schritt hin zu einem TBDR?

crux2005
2017-03-10, 02:59:45
DirectX 12, bzw. die Komplexität einer solchen Architektur. Und ein purer TBDR hat nicht immer Vorteile vor einem IMR.

Foobar2001
2017-03-10, 05:43:12
DX12 erzeugt keine Probleme mit TBDRs. Zumindest keine, die nicht mit DX11 auch schon da waren.

Ailuros
2017-03-10, 07:14:54
Wie ich TBR verstanden habe, so werden nicht sichtbare Dreiecke möglichst früh verworfen.

Damit spart man nicht nur die Bandbreite um Operationen auf diesen Dreieck durch zu führen, sondern auch alle Operationen an sich - wie Shader - die das Dreieck angewendet werden würden.

Damit sieht es so aus, als ob Shader oder andere Teile der Pipeline sehr effizient wären, wozu man aber gar keine Aussage treffen kann weil ggf. das Dreieck einfach verworfen wird.

Das gilt Äquivalt auch bzgl. Leistungsaufnahme.

Pixel shading faengt erst NACH dem binning an. Nochmal bei Maxwell/Pascal bzw. Vega betrifft es stets eine begrenzte Menge von Geometrie und um IMG fuer ihre TBDRs zu zitieren:

Geometry fetch and binning is often more than 10% of per-frame bandwidth.

Wobei erstmal IMG jeglichen parameter bis zum Erbrechen komprimiert um Platz zu sparen. Die ~10% gelten hier aber fuer die insgesamte Geometrie und nicht nur die Fetzen die gerade noch in N cache reingequetscht werden koennen.

Es ist nicht so dass tiled caching/binning nicht hilft aber nochmals nicht zum Grad wo sich viele ausmalen wollen, eben GENAU weil es stets eine begrenzte Menge von Geometrie betrifft. Uebrigens zur Erinnerung: selbst wenn HSR (hidden surface removal) in hw gegossen ist, ist es stets sogenanntes low level HSR. Sorgt der Entwickler bzw. die game engine nicht dass an Stellen X informiert wird dass Y data nicht sichtbar ist, dann wird Dir KEINE einzige Methode je etwas verwerfen. Und wenn Du denken solltest dass es "nie" heutzutage vorkommt, frag mal einen Entwickler wie oft aus purer Schlamperei unnoetig Daten berechnet werden. Es gibt sogar heute noch Faelle wo zich Mal mehr berechnet wird als man in Echtzeit sehen kann und es werden dann noch fuer ALLES teure Schatten mitberechnet....

DirectX 12, bzw. die Komplexität einer solchen Architektur. Und ein purer TBDR hat nicht immer Vorteile vor einem IMR.

Jegliche Methode wird auch Nachteile haben. Haetten IMRs nur Vorteile wuerden sie durch die Jahre (angefangen mit early Z) nicht Anteile von DRs teilweise anwenden. DX12 hat ueberhaupt nichts das gegen DRs spricht, aber es gibt auch keinen einzigen Grund fuer AMD oder NVIDIA IMR aufzugeben womit sie so starke Erfahrung haben.

Was hinter eigentlich AMD und nV am harten Schritt hin zu einem TBDR?

Gipsel hat es IMHO keineswegs so geschrieben dass jemand rauslesen kann dass TBDRs ein Allerheilmittel darstellen. Ein alternative Methode ja. Sonst u.a. an den Stellen wo IMG durch die Jahre die Nachteile von DRs bekaempft hat ist es verdammt schwer ihre Patente zu umgehen. ARM hat zwei Mal versucht tiling relevante Patente anzufechten (weil alle anderen nur quasi bounding box tiling anwenden), aber jedesmal war die Antwort von Patentaemtern negativ.

Entropy
2017-03-10, 11:42:16
An Shaderleistung fehlt es AMD doch ueberhaupt nicht :confused: Man bekommt so hoffentlich mehr Durchsatz hin, auch wenn es gleich viele SP bleiben. Die sind ja selten genug voellig ausgelastet.

Gerade wieder im 1080 Ti Test (https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#diagramm-doom-3840-2160) gesehen:
Bei DOOM, wo die Shader von Fiji wohl anstaendig ausgelastet sind und die 4 GiB nicht bremsen, ist die 1080 Ti "Max" (PowerTarget hoch, also imho vergleichbar mit Customs) gerade mal noch 40% schneller als die Fury X. Sonst sind es eher 80-100%. Das entspricht auch genau der Differenz in der theoretischen Rechenleistung (~12,5 vs. ~8,5 TF)
Das regelt ja alleine schon der Takt (1,05 auf 1,5 GHz), fuer den Rest sind dann wirklich die Verbesserungen wie eben der Binning Rasterizer gefragt.
Du kannst Doom nicht als Vergleich der Hardwareeffizienz nehmen. Bei AMD verwendet es handoptimierte Shader von der Konsole mit speziellen Instrinsics. Das ist wie Cinebench zu nutzen um AMD (vor Zen) gegen Intel zu vergleichen.

Entropy
2017-03-10, 11:58:04
Pixel shading faengt erst NACH dem binning an. Nochmal bei Maxwell/Pascal bzw. Vega betrifft es stets eine begrenzte Menge von Geometrie
Der Presentation nach ist es auch eher ein Bandbreitenersparnis.
Dei meisten modernen Spiele haben einen Depth Pass, damit werden schon alle unsichtbaren Teile der Szene nicht im Pixelshader landen. (Das würde niemand bei einem TBDR machen).

Bei normalen Geometriedetails kann es gut sein, dass die Datenmenge zwischen Vertex- und Pixelshader mehr als die Framebufferbandbreite ist. NVidia muss eigentlich einen "Flush" einbauen sobald das der Fall ist, sonst ist es eine Optimierung die manchmal nur Nachteilig ist.

Deswegen denke ich, dass die auf sowas wie Partikeleffekte abzielen.

Achill
2017-03-10, 12:14:10
Du kannst Doom nicht als Vergleich der Hardwareeffizienz nehmen. Bei AMD verwendet es handoptimierte Shader von der Konsole mit speziellen Instrinsics. Das ist wie Cinebench zu nutzen um AMD (vor Zen) gegen Intel zu vergleichen.

Ich denke schon. Evtl. gibt es ein paar Prozente für die optimierten Shader aber wir wissen auch nicht, wie oft es anders herum ist und die Shader stärker auf NV in anderen Spielen optimiert sind.

Sprich: Was ist die "neutrale Basis" die man nutzen kann, um eine relationale Aussage treffen zu können.

Ein ganz anderer Fakt ist einfach die Id Tech 6 Engine, hier gibt es einen sehr guten Artikel dazu: http://www.adriancourreges.com/blog/2016/09/09/doom-2016-graphics-study/

Soweit wie ich es verstehe, ist diese sehr Effizient und Clever bei der Bestimmung was alles gerendert werden muss. D.h. ein DTB-Ansatz gewinnt hier weniger im vergleich zu Spielen mit mehr Overdraw / einer anderen Engine (ist keine Kritik am NVs TBDR-Ansatz).

=> Da damit TBDR gut egalisiert wird (soweit ich es verstehe), kann man evtl. Doom schon gut als Information für Shader-Leistung sehen, da diese Variabilität aus der Betrachtung der Schäder-Effizenz entfernt.

=> Es hilft natürlich nichts für Spiele, wo TBDR sehr gut durchschlägt, weil die Engine sich nicht so gut darum kümmert.

scully1234
2017-03-10, 16:19:37
https://videocardz.com/67242/amd-vega-with-64-compute-units-spotted

Unicous
2017-03-10, 16:35:50
Damit wissen wir aber immer noch nicht mit welchen Taktraten Vega10 lief. Da MI25 mit bis zu 1,5GHz laufen muss um die genannten TFLOPs zu erreichen ist also klar, dass das nicht einmal ansatzweise die Taktraten sind die ein Consumer-Produkt erreichen wird.

iuno
2017-03-10, 16:41:39
Wieder mal News ohne Neuigkeiten...
Wieso wird sowas ueberhaupt verlinkt? Wie Unicous schon schreibt, gibt es bessere Infos von offizieller Seite.

Setsul
2017-03-10, 16:51:09
@Gipsel:
Natürlich nehme ich Schaffe todernst. Immer.

@topic:
Historisch ist der Grund für IMRs bei Desktop GPUs einfach die Komplexität. Eine recht große GPU zu bauen, die dann auch noch komplex ist, ist einfach zu schwierig. IMR ist einfacher, also einfach eine größere IMR GPU bauen und man hat mehr Leistung.
Das Ziel von DRs ist letztendlich so wenig Arbeit wie möglich leisten zu müssen, also möglichst wenig überflüssige Arbeit erledigen. Wenn man das richtig macht (das ist der schwierige Teil), ist das natürlich sehr effizient. Ideal wenn man bei der Leistungsaufnahme sehr eingeschränkt ist. Dann darf die GPU natürlich gar nicht so groß sein und die Komplexität ist in den Griff zu kriegen.

Mittlerweile hängen auch Desktop GPUs aber an der Leistungsaufnahme, also wird es immer attraktiver in Richtung DR zu gehen.

Hauptvorteil ist momentan aber immernoch Tiling, Cache Lokalität ist einfach immer sehr gut. Wenn man eine Tile macht, aber nur für ein Objekt, und dann zur nächsten geht, dann ist es immernoch ein IMR. Man muss also erstmal Geometrie sammeln, sonst bringt Tiling nichts. Und wenn man schon sammelt, dann kann man auch ein bisschen HSR machen.

Unicous
2017-03-10, 16:58:32
@iuno

Das ist aber Peak Performance und afaik nicht sustained.
Die Workstation/Server GPUs müssen ihre TDP unbedingt einhalten und z.B. bei Polaris aber auf Fiji weiß man, dass die TDP nicht immer der Wahrheit entspricht zumal AMD ja seit einiger Zeit auch nur noch die TBP angibt.

Daher sind die FLOPs-Angaben eher theoretische Angaben. Außerdem hinkt der Vergleich, da sowohl Fiji als auch Polaris ja schon ein wenig Zeit zum Reifen hatten und man entsprechend gute bins haben dürfte. Bei Vega ist das nicht so.

dildo4u
2017-03-10, 17:02:50
Sind die Server Karten nicht für 300 Watt freigegeben?AMD nutzt bei den Consumer Karte keine Wakü mehr,wenn das Ding nich Super Laut werden sollen müssen sie sich vermutlich wie Nvidia mit 250 Watt begnügen.

Ailuros
2017-03-10, 17:06:53
Ich denke schon. Evtl. gibt es ein paar Prozente für die optimierten Shader aber wir wissen auch nicht, wie oft es anders herum ist und die Shader stärker auf NV in anderen Spielen optimiert sind.

Sprich: Was ist die "neutrale Basis" die man nutzen kann, um eine relationale Aussage treffen zu können.

Ein ganz anderer Fakt ist einfach die Id Tech 6 Engine, hier gibt es einen sehr guten Artikel dazu: http://www.adriancourreges.com/blog/2016/09/09/doom-2016-graphics-study/

Soweit wie ich es verstehe, ist diese sehr Effizient und Clever bei der Bestimmung was alles gerendert werden muss. D.h. ein DTB-Ansatz gewinnt hier weniger im vergleich zu Spielen mit mehr Overdraw / einer anderen Engine (ist keine Kritik am NVs TBDR-Ansatz).

=> Da damit TBDR gut egalisiert wird (soweit ich es verstehe), kann man evtl. Doom schon gut als Information für Shader-Leistung sehen, da diese Variabilität aus der Betrachtung der Schäder-Effizenz entfernt.

=> Es hilft natürlich nichts für Spiele, wo TBDR sehr gut durchschlägt, weil die Engine sich nicht so gut darum kümmert.

Es gibt keine "TBDR-Ansatz" bzw TBDR weder bei NV noch sonst wo. Tile based caching != deferred rendering.

Fuer's letzte: informiert die game engine nicht korrekt was wo genau ist wird keine hw bzw. sw je etwas verwerfen koennen. Es gab in der Vergangenheit in Return to Castle Wolfenstein eine Stelle mit einem lehrem Gang mit Steinwaenden. Leistung war generell hoch bis man sich irgendwo gegen die Wand zu einer Leiter drehte. Egal mit welcher GPU brach die Leistung von irgendwelchen verrueckten Werten ueber 100fps auf 30+ fps ohne erklaerlichen Grund ein. Das bsp hat in dem Fall eben nicht informiert dass hinter der Leiter und hinter der Wand noch zwei parallele grosse Raeume befanden die leider aber mitberechnet wurden obwohl man es als Spieler nicht sehen konnte. In dem Fall kann nichts den overdraw entfernen.

Und wenn jemand denkt dass es heute nicht vorkommt....es gibt momentan einen ziemlich bekannten Titel wo wenn man durch die Stadt laeuft gesamte Gebaeude mit ihren Kellern komplett berechnet werden egal was man als Spieler nur sehen kann.

Skysnake
2017-03-10, 17:10:37
Oder tesselierte Wellen auf Wasser. Da gabs doch auch mal so einen Fall ;)

Achill
2017-03-10, 18:33:35
Es gibt keine "TBDR-Ansatz" bzw TBDR weder bei NV noch sonst wo. Tile based caching != deferred rendering.

Fuer's letzte: informiert die game engine nicht korrekt was wo genau ist wird keine hw bzw. sw je etwas verwerfen koennen. Es gab in der Vergangenheit in Return to Castle Wolfenstein eine Stelle mit einem lehrem Gang mit Steinwaenden. Leistung war generell hoch bis man sich irgendwo gegen die Wand zu einer Leiter drehte. Egal mit welcher GPU brach die Leistung von irgendwelchen verrueckten Werten ueber 100fps auf 30+ fps ohne erklaerlichen Grund ein. Das bsp hat in dem Fall eben nicht informiert dass hinter der Leiter und hinter der Wand noch zwei parallele grosse Raeume befanden die leider aber mitberechnet wurden obwohl man es als Spieler nicht sehen konnte. In dem Fall kann nichts den overdraw entfernen.

Und wenn jemand denkt dass es heute nicht vorkommt....es gibt momentan einen ziemlich bekannten Titel wo wenn man durch die Stadt laeuft gesamte Gebaeude mit ihren Kellern komplett berechnet werden egal was man als Spieler nur sehen kann.

Dann ist es Tile Based Caching, es hat aber ähnliche Effekte und damit ähnlich Auswirkungen.

Ist die Aussage falsch, dass das Verwerfen von Geometrie und damit verbunden auch nachfolgende Operationen einen Vergleich von Shader-Effizenz erschwert? Und das ein Spiel, welches gut das Overdraw per SW reduziert, das Tile Based Caching bzw. dessen fehlen egalisiert?

maguumo
2017-03-10, 18:34:07
Auf Wasser und Felsen unter der Map wenn ich mich recht erinnere :D

horn 12
2017-03-10, 19:22:54
JETZT kann oder MUSS AMD die Katze aus dem Sack lassen!! ---> und Vega für 499 bis 599 Euro ankündigen mit GTX 1080TI Performance +10% :-)

Gynoug MD
2017-03-10, 19:31:17
Schon ohne die +10% wärs schon ein Knaller zu dem fiktiven Preis.😀

Botcruscher
2017-03-10, 19:46:41
Horns Tagträume sind bis jetzt der einzige Knaller. NV macht derweil mit der Resterampe ordentlich Kohle. Da besteht überhaupt kein Zwang für AMD billig in den Markt zu gehen. Das Angebot muss nur passen, siehe Ryzen.

horn 12
2017-03-10, 20:05:06
Sag ich doch :-)
Durch HBM mit Hynics hat man seinen Eigenen Partner im Boot und AMD MUSS Marktanteile gewinnen,- da steigt selbst Vega nicht bei 749 bis 799 Dollar ein, und die Fiji Zeiten sind glücklicherweise vorbei, was den Aufwand und das Know-How betrifft, bzw. betraf.
Zudem hat AMD genug Erfahrung sammeln können und derzeit Exklusiv Partner bei Hynics was Grafikkarten anbelangt.

[MK2]Mythos
2017-03-10, 21:30:31
Ich orakel mal mit und behaupte, dass Vega im Topausbau teuer wird. Ich würde auf knapp 1080ti Preis tippen.

iuno
2017-03-10, 23:32:49
NV macht derweil mit der Resterampe ordentlich Kohle. Da besteht überhaupt kein Zwang für AMD billig in den Markt zu gehen. Das Angebot muss nur passen, siehe Ryzen.
Ryzen ist ja sogar noch vergleichsweise guenstig. Da wuerde ich eher Fiji zum Vergleich heranziehen. AMD wird auch das verlangen, was NV sich fuer ein entsprechend aehnlich schnelles Produkt bezahlen laesst. Wenn NV die Preise hochzieht, kann das AMD doch nur recht sein. Vega ist sicher teurer in der Produktion als eine 1080 Ti. Zumal es manchen Leuten ohnehin nicht teuer genug werden kann, wenn ich sehe wie viele am Durchdrehen sind, was die Ti wieder fuer ein Schnaeppchen sei :facepalm:
Wenn AMD eh durch Zen noch praesent ist und auch positiv wahrgenommen wird, umso mehr.
Ein bisschen Spiele dazu (mit Bethesda ist ja schon was angekuendigt), dann ist das Angebot eh nochmal besser.
Wer, wie so viele bei Ryzen, einen Killer zum halben Preis erwartet wird imho bitter enttaeuscht werden.

vinacis_vivids
2017-03-10, 23:44:06
Gibt ja nicht nur Vega groß, sondern auch Vega klein für den kleinen Mann :)
+ das Versprechen für eine überaus lange Haltbarkeit der kommenden GNC.

horn 12
2017-03-10, 23:52:42
Vega klein würde ich zwischen GTX1080 und GTX 1080 TI für 449 Euro gut sehen und Vega groß um Einiges über einer GTX 1080TI für 599 bis maximal 649 Euro.
AMD MUSS sich die Marktanteile sichern, und weiss der Teufel warum man KEIN Marketing bereibt.
RyZen hat es ja souverän vorgemacht und fruchtete enorm!

iuno
2017-03-10, 23:54:32
Schalt mal wieder einen Gang runter, sonst haeltst du es diesmal gar nicht durch bis zum Launch. Zumal du danach auch noch monatelang den Wundertreiber beschwoeren musst, was auch Energie kostet ;p

Ohne Produkt kein Marketing.

vinacis_vivids
2017-03-11, 00:44:37
Vega klein würde ich zwischen GTX1080 und GTX 1080 TI für 449 Euro gut sehen und Vega groß um Einiges über einer GTX 1080TI für 599 bis maximal 649 Euro.
AMD MUSS sich die Marktanteile sichern, und weiss der Teufel warum man KEIN Marketing bereibt.
RyZen hat es ja souverän vorgemacht und fruchtete enorm!

Sehe ich ähnlich was die Preisgestaltung angeht. Die Masse der Vega-GPUs wird <500€ landen bei ähnlicher Leistung wie ne 1080ti oder besser. 4k Gaming soll ja endlich massentauglich gemacht werden.

iuno
2017-03-11, 01:39:32
So wie die 480 halt VR fuer die Masse gebracht hat.

Ailuros
2017-03-11, 07:29:34
Dann ist es Tile Based Caching, es hat aber ähnliche Effekte und damit ähnlich Auswirkungen.

Nein. Es hat nur die begrenzten Vorteile fuer den Anteil der Geometrie die bearbeitet wird und wenn keine parameter komprimiert werden dann ist der Unterschied immer noch da, ebenso da es sich um bounding box tiling handelt in merkwuerdigen Grenzfaellen.

Um 180 Grad gedreht: es gibt Grenzfaelle wo es keinen anderen Ausweg gibt als das sich ein TBDR wie ein immediate mode renderer verhaelt; der grosse Nachteil ist dann eben dass unter normalen Umstaenden in einigen Stellen sparsamer gestalten ist (ueberhaupt was Busbreite bzw. rohe Bandbreite betrifft) als ein konkurrierender IMR und in dem Fall zeigt sich der TBDR dann auch als ueberwiegend schwach an.

So lange ein IMR ist verbleibt er auch ein solcher. Es handelt sich hier lediglich um Optimierungen die so begrenzt sind dass sie nur Vorteile bringen koennen.

Ist die Aussage falsch, dass das Verwerfen von Geometrie und damit verbunden auch nachfolgende Operationen einen Vergleich von Shader-Effizenz erschwert? Und das ein Spiel, welches gut das Overdraw per SW reduziert, das Tile Based Caching bzw. dessen fehlen egalisiert?

Warum machst Du es Dir so kompliziert? Tiled caching/binning in diesen Faellen hat nichts mit pixel shading zu tun und ja jegliche Methode um Daten frueh zu verwerfen in einer Architektur ist nutzlos wenn die game engine nicht rechtzeitig informiert dass N Daten unsichtbar sein werden fuer den Spieler.

Mythos;11316658']Ich orakel mal mit und behaupte, dass Vega im Topausbau teuer wird. Ich würde auf knapp 1080ti Preis tippen.

Klingt momentan am moeglichsten. Die brennendere Frage liegt aus was der zweite Vega chip besteht und was dieser kosten wird.

horn 12
2017-03-11, 08:21:28
Aus wohl dennoch starken 3840 CU und um die 1350 Mhz GPU Takt zusammen zu 449 Euro.
Sollte somit um die 40 bis 45 % schneller werden als eine Fury X zusammen mit Optimierungen!
Rechne vor Allem die Optimierungsarbeiten werden bei Vega weitaus mehr fruchten

Vega Groß 4096 CU und wohl 1600+ Mhz GPU Takt, sollte Mehrperformance von ca. 30% ermöglichen.