PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 [33] 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

dargo
2017-07-05, 08:11:26
Ein großer Teil geht aber bei X64 sicherlich auch auf Kosten vom Takt der ja bei Vega FE wesentlich höher (im Beispiel +48%) als bei Fiji ist. Afaik skaliert Tessellation 1:1 mit dem Takt.

AffenJack
2017-07-05, 08:19:19
Ein großer Teil geht aber bei X64 sicherlich auch auf Kosten vom Takt der ja bei Vega FE wesentlich höher (im Beispiel +48%) als bei Fiji ist. Afaik skaliert Tessellation 1:1 mit dem Takt.

Es sind zu gleichen Anteilen der Takt, 48% wie du schreibst und Features +45%. Ob das nun der Primitive Shader, TBR oder beides ist kann ich nicht beurteilen, da ich da zu wenig Ahnung habe. Aber auf jeden Fall laufen schon einige Vegaspezifische Features.

dargo
2017-07-05, 08:26:45
Mal was anderes... kann man denn mit VEGA FE ein paar Bandbreitentests durchführen? Mir schwirrt da bsw. der Test vor als damals die Verarsche mit der GTX970 aufgedeckt wurde.

robbitop
2017-07-05, 08:33:32
Gegenfrage... warum beschleunigt Vulkan in Doom einen Fiji und Grenada um bis zu 50% im GPU-Limit gegenüber OpenGL bei praktisch gleichem Stromverbrauch?
http://www.pcgameshardware.de/Doom-2016-Spiel-56369/News/Vulkan-Patch-bessere-Performance-Benchmarks-1201321/
Höhere Auslastung der ALUs. Da machen die Jungs von id einen deutlich besseren Job als der shadercompiler. Stand zumindest mal in einer Präsentation von den Doom Leuten.

Cyphermaster
2017-07-05, 08:42:07
Nimmt man den Treiber aus dem Build vorher. Ist der halt ne Woche älter oder zwei. Aber so alt, dass ein dermaßen wichtiges, Wunderheilermittel-ähnliches Feature nicht funktioniert? Blödsinn, um es mal realistisch zu sagen.

Realistisch wird der Treiber im Großen und Ganzen schon im März/April gelaufen sein. Sicherlich nicht bugfrei, aber schon so, dass man ihn vorzeigen kann. Sonst bräuchte man einen Release im Juli auch nicht zu denken.Und deshalb ist es total unrealistisch, daß sich dann rausstellt, daß eben einer dieser Bugs wider Erwarten NICHT so einfach/schnell behebbar ist, wie angenommen? Daß immer alle Annahmen während der Entwicklungsphase genau richtig bzw. nahezu richtig sind, entspräche zumindest nicht meiner persönlichen Erfahrung in der Produktentwicklung...
Man muß dann auch jeweils zu dem Treiberstand zurück, in dem der Bug noch nicht drin war. Das kann natürlich der der Vorwoche gewesen sein, aber -worst case- auch einer von vor vielen Monaten; wenn der dicke Hund eben schon ganz zu Anfang reingekommen ist.

Einzige Alternative: der Fehler ist nicht im Treiber, sondern man hat erst ganz kurz vor dem Release bemerkt, daß das Silizium buggy ist. Dafür sprächen die geringen Mengen an Karten, die man zum Launch hat, das kann aber auch nur eine Fertigungssache sein. Dagegen spricht, daß man sich mit so einem Produkt rückwirkend Klagen ausgesetzt sehen könnte (und dann muß ggf. auch mal ein Manager seinen Bonus zurückzahlen), weswegen man in so einem Fall wohl eher doch eine Verschiebung des Launchs ins Auge fassen würde.
Was für ein Aufwand, diese exe-Erkennung, die doch heute schon überall Teil des Treiber ist:Du willst ja nicht nur, daß der Treiber eine exe erkennt, sondern dann die entsprechenden Features in bestimmter Art und Weise an- und dabei evtl. auch noch um einen Bug herumsteuert. Das nach dem Komma ist wohl kaum schon Teil des Treibers, und müßte mit der heißen Nadel (und wohl ziemlich komplett ohne Test-/Verifizierungsphase) schnell-schnell reingetippt werden.
Und es bleibt unsinnig bei einer Karte, deren Primäraufgabe nicht eine private Runde MMO am Abend ist, sondern das Erzeugen von neuem Content. Das heißt, es sind durchweg neue/andere exe-Dateien, die der Treiber gar nicht richtig erkennen KANN, die selektive Spielerkennung brächte deshalb für den Zweck der Karte nichts. Und wenn's ein Hardware-Bug ist, bringt es generell nix.

dargo
2017-07-05, 08:48:39
Höhere Auslastung der ALUs.
Du hast meine Frage nicht ganz verstanden. :wink: Es ging mir darum, dass die allgemeine Annahme der Stromverbrauch würde 1:1 mit der Mehrleistung durch Softwareoptimierung steigen generell falsch ist.

Cyphermaster
2017-07-05, 08:54:11
Ich möchte etwas Öl ins Feuer gießen.

Mal eine dumme Annahme:
Der TileBased-Renderer bei Vega ist kaputt und man nimmt einen Fallback-Modus, welcher eigentlich nur fürs Debugging verwendet wird. Da muss definitiv etwas nicht funktionieren. Die Frage ist eher, wieso AMD eine FE rausbringt und das finale Produkt noch auf sich warten lässt. Man hört nichts, was da passiert ist. Vega war Anfang 2017 "geplant", aber der Release wurde immer weiter nach hinten diregiert. Treiber sind wahrscheinlich ein wichtiger Punkt. aber eventuell steckt mehr dahinter. Die Vega FE Boards sehen sehr Beta aus. Man verschwendet nicht, so einfach, soviel Platz. Klar ist es eine Beta-Karte, aber ich bin wirklich gespannt, ob man das ganze auf 30 Tage hinbiegen kann. Awaiting Siggraph.

€: Compute-Sachen scheinen ganz passabel zu laufen. Ergo liegt der schwarze Peter in Richtung Grafik. Compute-Kompatiblität kann man wohl simpler auf Fiji ummünzen.Dumm ist die Annahme nicht. Aber es wäre wenig realistisch imo, daß sich das Management damit selber so einen riesigen Bumerang baut. Leute aus dem (semi-)Pro-Bereich klagen noch viel eher als Normalos, wenn sich rausstellt, daß das Produkt de facto nicht voll funktional ist, wie zugesichert. Ein Feature das erst mit einem neuen Treiber funzt/optimal funzt, das ist eine Sache. Aber wenn das Feature GAR NICHT funktioniert, ist das eine ganz andere Nummer.

Der Imageschaden wäre noch größer als bei einer Verschiebung (inklusive der an den Fähigkeiten/der Integrität des Managers), und wenn sowas bekannt ist, sind gezahlte Boni für einen gehaltenen Launch (wenn man annimmt, daß man es deshalb so gemacht haben könnte) auch wieder futsch.

Mal noch ein wenig Spekulatius in Geschmacksrichtung "devils advocate" (:devil:) auf dein Gedankenspiel obendrauf:

Das einzige Szenario, in dem ich mir das so wie von dir beschrieben vorstellen könnte, ist, daß man wußte, daß ein Respin notwendig wird, man aber den zum Launch nicht mehr hinkriegen kann. Also hat man eingeplant, die paar Beta-Karten, mit denen man den Launch "halb hingefaked" hat, zeitnah kostenfrei durch Karten aus gefixter Produktion zu ersetzen (ab SIGGRAPH?) - und liefert bis dahin nur einen Treiber, mit dem der Bug gar nicht auffallen KANN, und der so schlecht ist, daß keiner die zu erwartenden Benchmarks vollkommen ernst nehmen will...

robbitop
2017-07-05, 09:18:23
Einzige Alternative: der Fehler ist nicht im Treiber, sondern man hat erst ganz kurz vor dem Release bemerkt, daß das Silizium buggy ist. Dafür sprächen die geringen Mengen an Karten, die man zum Launch hat, das kann aber auch nur eine Fertigungssache sein. Dagegen spricht, daß man sich mit so einem Produkt rückwirkend Klagen ausgesetzt sehen könnte (und dann muß ggf. auch mal ein Manager seinen Bonus zurückzahlen), weswegen man in so einem Fall wohl eher doch eine Verschiebung des Launchs ins Auge fassen würde.


Naja - lauffähiges Silizium gibt es mindestens seit Ende letzten Jahres. Wenn es dahingehend einen Bug gäbe, der durch ein Respin zu lösen wäre, wüßte man das längst und dieser würde sich bereits in der Validierung befinden.

Du hast meine Frage nicht ganz verstanden. :wink: Es ging mir darum, dass die allgemeine Annahme der Stromverbrauch würde 1:1 mit der Mehrleistung durch Softwareoptimierung steigen generell falsch ist.
Das versteht sich von selbst.

pixeljetstream
2017-07-05, 09:25:22
Es sind zu gleichen Anteilen der Takt, 48% wie du schreibst und Features +45%. Ob das nun der Primitive Shader, TBR oder beides ist kann ich nicht beurteilen, da ich da zu wenig Ahnung habe. Aber auf jeden Fall laufen schon einige Vegaspezifische Features.

AMD hat schon mit Polaris ihre Tessallierungsleistung verbessert, glaube nicht dass PS,TBR hier zwingend notwendig sind um sich von Fury abzusetzen. Müsste jemand mal Werte von Polaris posten.

AffenJack
2017-07-05, 09:48:39
AMD hat schon mit Polaris ihre Tessallierungsleistung verbessert, glaube nicht dass PS,TBR hier zwingend notwendig sind um sich von Fury abzusetzen. Müsste jemand mal Werte von Polaris posten.

Hast recht, an die Verbesserungen hatte ich gar nicht gedacht. Da müsste wirklich mal wer mit Polaris seine Werte zeigen.

-/\-CruNcher-/\-
2017-07-05, 10:00:47
AMD hat schon mit Polaris ihre Tessallierungsleistung verbessert, glaube nicht dass PS,TBR hier zwingend notwendig sind um sich von Fury abzusetzen. Müsste jemand mal Werte von Polaris posten.

Jo am Besten gleich Batmal Arkham Night, FarCry 4 und Fallout 4 als Worst Competitor Workload Case drauf testen ;)

Das sollte Vega ordentlich stressen.

Bei Ryse sieht das verhalten momentan sehr Ausgewogen aus selbst mit dem jetzigen DX 11 Treiber gegen eine GTX 1080 OC selbst in Betrachtung eines 4 Core Intel (4.2 Ghz, Vega FE) vs 8 Core Intel (4.6 GHz,GTX 1080 OC) :)

Das macht Hoffnung :)

Auch bei Witcher 3 sah das mit Hairworks vom einbrechen und die Performance halten gatrnicht so schlecht aus, müsste einer mal Fiji,Polaris und Vega gegenüberstellen :)

Vor allem aber wie hoch der Performance boost nun bei TressFX 4.1 ausfällt gegenüber Fiji und Polaris und wie sich dort die GTX 1080 OC verhält :)

Das alles Allerdings auch in Betrachtung des Power Kontext.

Viel zu wenige Reviewer konzentrieren sich auf die eigentliche Frage wer das Workload des anderen besser meistert, welche Ergebnise dabei Heruaskomen und wieviel Energie das schluckt das finde ich sehr sehr schade,

Auch wenn diese "Waffen" noch relativ wenig zum Einsatz kommen und sich glücklichwerise nicht viele auf dieses spielchen bis jetzt einlassen (und vor allem sie keine fest eingebaute Restriktion sind ohne unabhängigen gegenpart) vor allem den Indies wird es egal sein und genau dort hin scheint Nvidia nun eine massive großinitiative zu schalgen ihre Optimierungen unter zu bekommen.

Nicht das ich gegen diese sachen bin seit den Konsolen muss die Balance gehalten werden schon klar aber es darf nicht kippen, und es ist ja auch legitim das Nvidias Engineers nun mal versuche das meiste aus ihrer Hardware herauszuholen und sie machen einen Super job aber es ist nunmal auch fakt das Nvidia agnostisch gesehen weniger Perofrmant ist als GPU Open auf Nvidia Hardware und die Ergebnise teils nicht weniger schlecht ;)

Datarecovery09
2017-07-05, 10:24:01
Da müsste wirklich mal wer mit Polaris seine Werte zeigen.

Euer Wunsch sei mir Befehl!


Karte: RX480 @ 1288/2000 MHz
Settings: Map 4, kein AA, kein PostFX, Fenstermodus


Ergebnisse:

720p
748 734 673 322

1080p
731 724 516 261

Screemer
2017-07-05, 10:26:39
AMD hat schon mit Polaris ihre Tessallierungsleistung verbessert, glaube nicht dass PS,TBR hier zwingend notwendig sind um sich von Fury abzusetzen. Müsste jemand mal Werte von Polaris posten.Kann ich heute abend mal machen, wenn sich bis dahin niemand gefunden hat. 980ti ist schnell gegen 480 getauscht.
Siehe oben

Euer Wunsch sei mir Befehl!


Karte: RX480 @ 1288/2000 MHz
Settings: Map 4, kein AA, kein PostFX, Fenstermodus


Ergebnisse:

720p
748 734 673 322

1080p
731 724 516 261

Vega fe 720p: 981 987 955 393

Mal die 390X ...

720p: 1424 1267 404 102
1440p: 1108 - - 99

Mythos;11421662']R9 Nano @900Mhz
Set4
720p
X8: 1489; X16: 1369; X32: 608; X64: 157


Txm 720p: 2594 2344 1254 537


Die Werte bei x64 von Vega liegen taktbereinigt ziemich genau dort wo der polaris tesselator liegt. Die anderen ca 10% darüber. Ausgehend von 1550mhz für Vega und 1280mhz für polaris.

Datarecovery09
2017-07-05, 10:32:12
Wäre super, wenn du das trotzdem machen könntest, und sei es nur, um zu schauen, ob das Ergebnis so stimmen kann. Irgendwie kommen mir meine Resultate im Vergleich mit der RX390 ein klein wenig fishy vor - ist die Tesselation-Leistung von Grenada auf Polaris tatsächlich so drastisch angestiegen?

Der_Korken
2017-07-05, 10:34:51
Es ergeben sich also folgende Werte in 720p:

Hawaii: 1424 1267 404 102
Fiji: 1489 1369 608 157
Polaris: 748 734 673 322
Vega FE: 981 987 955 393
Titan Xm: 2594 2344 1254 537

Man sieht, dass bereits Polaris den Einbruch bei 64X ganz gut behoben hat im Vergleich zu den vorigen Chips. Vega ist bei 64X ziemlich genau so viel schneller wie er höher taktet als Polaris (1550 vs 1288Mhz). Bei 32X ist das Verhältnis zu Polaris besser, entspricht aber nur dem Mehrtakt gegenüber Fiji (eventuell schlagen hier gegenüber Polaris die zusätzlichen CUs durch). Bei kleineren Faktoren scheint irgendwas bei 1000 zu limitieren. Es ist also in keinem der Fälle irgendwas außergewöhnliches zu erkennen, was nicht auf CU-Count und Takt alleine zurückzuführen wäre.

AffenJack
2017-07-05, 10:38:26
Euer Wunsch sei mir Befehl!


Karte: RX480 @ 1288/2000 MHz
Settings: Map 4, kein AA, kein PostFX, Fenstermodus


Ergebnisse:

720p
748 734 673 322

1080p
731 724 516 261

Danke

Bei 720p ergibt sich damit nur eine genaue Skalierung mit dem Takt und man landet bei Vega FE. Bei 1080p ist Vega FE dann immernoch ein gutes Stück vorne, aber da limitieren bei Polaris wahrscheinlich auch schon andere Sachen.
Fazit: Vergeßt meine Posts, dass Tessmark irgendwelche Vorteile von Vega zeigt:-)

Screemer
2017-07-05, 10:42:25
Wäre super, wenn du das trotzdem machen könntest, und sei es nur, um zu schauen, ob das Ergebnis so stimmen kann. Irgendwie kommen mir meine Resultate im Vergleich mit der RX390 ein klein wenig fishy vor - ist die Tesselation-Leistung von Grenada auf Polaris tatsächlich so drastisch angestiegen?
Jap ist sie. Der tesselator von Tonga war schon massiv besser als der von Hawaii/Granada. Polaris ist beim tesselator ergo auch gefixt. Der einbruch über x16 bis dahin war vorer teils massiv.

http://www.pcgameshardware.de/screenshots/1020x/2015/06/Tessellation_Benchmark-pcgh.png

-/\-CruNcher-/\-
2017-07-05, 10:48:00
Vor allem bei Cutscenes ist das immernoch ein massiver Vorteil 4- 5 PBR High Poly characters on screen at once das haut schon rein.

aufkrawall
2017-07-05, 10:52:35
Und wieso sollte das vergleichbar zu Tess sein? Wüsste nicht, dass die High Poly-Charaktere in Ryse Hawaii nennenswert interessiert hätten.

AffenJack
2017-07-05, 10:53:04
Jap ist sie. Der tesselator von Tonga war schon massiv besser als der von Hawaii/Granada. Polaris ist beim tesselator ergo auch gefixt. Der einbruch über x16 bis dahin war vorer teils massiv.


Jo das stimmt. Da gabs schon ordentliche Verbesserungen.
Wo du gerade das DX SDK geposted hast. Das DX12 nBodyGravity Async Sample könnte auch wer mit der FE mal testen, um paar Ansatzpunkte zu haben ob sich Vega genauso wie Fury oder Polaris verhält. Siehe: https://www.computerbase.de/2016-06/radeon-rx-480-test/11/#diagramm-ms-dx12-sample-nbodygravity-gpuopen-vorteil-durch-async-compute_2

-/\-CruNcher-/\-
2017-07-05, 11:03:31
Und wieso sollte das vergleichbar zu Tess sein? Wüsste nicht, dass die High Poly-Charaktere in Ryse Hawaii nennenswert interessiert hätten.

Nicht jeder optimiert so extreme und dort kommt meines wissens auch nicht viel Displacement Mapping insgesammt zum Einsatz eben weil man rücksicht auf ältere AMD Hardware nehmen musste.

Das schlimmste Ergebnis was ich bis Dato gesehen hab war auf der PS4 Until Dawn und so komplexe Szenen sieht man halt nicht alle Tage auch bei Ryse eher selten, dort erschlug man das Problem mit Pre Rendered Cutscenes meistens ;)

Wenn die beim Lighting nicht so extreme sparen hätten können durch das Szenario bedingt meine fresse ;)

KWOWDU3PgYU

aufkrawall
2017-07-05, 11:07:59
Es gab bei Ryse allerdings auch aufwändige Cutscenes in Echtzeit, afair liefen die nicht langsamer als das Spiel selbst. Die Gesichter sahen im echten Spiel zumindest auf dem PC wohl auch genau so detailliert aus wie in den Cutscenes, also richtig gute Verschattung etc.

LadyWhirlwind
2017-07-05, 11:08:31
Naja - lauffähiges Silizium gibt es mindestens seit Ende letzten Jahres. Wenn es dahingehend einen Bug gäbe, der durch ein Respin zu lösen wäre, wüßte man das längst und dieser würde sich bereits in der Validierung befinden.


Das versteht sich von selbst.

Ich vermute ja immer noch das es einfach eine Ressourcenfrage ist und AMD im Verzug mit dem Treiber ist. TBR ist ja vorallem etwas für Games und daher wohl bei der Treiberentwicklung ziemlich weit hinten in der Liste, da die Gamer-Karten zuletzt kommen. Wenn dann natürlich erst auffällt, das etwas nicht funktioniert...

Pirx
2017-07-05, 11:13:36
und mal wieder Videocardz mit 3DMark-Werten...

https://videocardz.com/70777/amd-radeon-rx-vega-3dmark11-performance

nairune
2017-07-05, 11:16:07
Für die Reviewer muss der Treiber dennoch in den nächsten Wochen fertig werden, sonst wird das ein Desaster. Wenn denn überhaupt so viel rauszuholen ist.
Es bleibt spannend. WENN AMD die Überraschung tatsächlich gelingt, wäre das das erste Mal in diesem Ausmaß...

HOT
2017-07-05, 11:37:20
und mal wieder Videocardz mit 3DMark-Werten...

https://videocardz.com/70777/amd-radeon-rx-vega-3dmark11-performance

Passt zu einer übertakteten FE denke ich von den Ergebnissen her. Immer noch kein TBR. Mir schwant furchtbares zum Launch. Ist der Chip doch einfach kaputt und packt seinen eigenen Befehlssatz nicht?

Für die Reviewer muss der Treiber dennoch in den nächsten Wochen fertig werden, sonst wird das ein Desaster. Wenn denn überhaupt so viel rauszuholen ist.
Es bleibt spannend. WENN AMD die Überraschung tatsächlich gelingt, wäre das das erste Mal in diesem Ausmaß...

Die werden denke ich einen instabilen pre-beta-IP9-Treiber bekommen oder die ganze Sache geht sowieso mit dem IP8-Treiber baden. Wie auch immer, in diesem Falle könnte eine Verschiebung um 2 Monate doch angebracht gewesen sein.
Vielleicht hat das aber auch sein Gutes und das Ganze schmälert die Bedeutung von Launch-Reviews weiter.

Für die Reviewer muss der Treiber dennoch in den nächsten Wochen fertig werden, sonst wird das ein Desaster. Wenn denn überhaupt so viel rauszuholen ist.
Es bleibt spannend. WENN AMD die Überraschung tatsächlich gelingt, wäre das das erste Mal in diesem Ausmaß...
Oder AMD versendet in dem Fall einfach keine Samples, das gibts auch nichts zu reviewen.

-=Popeye=-
2017-07-05, 11:56:21
Lesen scheint nicht gerade die Stärke einiger User hier zu sein, die hier im Thread gezeigten Titan Werte sind mit einer MAXWELL TX und nicht Pascal TXP entstanden.

grauenvoll
2017-07-05, 12:21:20
Passt zu einer übertakteten FE denke ich von den Ergebnissen her. Immer noch kein TBR. Mir schwant furchtbares zum Launch. Ist der Chip doch einfach kaputt und packt seinen eigenen Befehlssatz nicht?


Wenn der Chip so kaputt ist, wie kann es dann sein, dass Sniper Elite in 4K mit 80 FPS läuft? Kaputt ist kaputt. Oder war die Demo ein Fake?

basix
2017-07-05, 12:25:41
Wenn der Chip so kaputt ist, wie kann es dann sein, dass Sniper Elite in 4K mit 80 FPS läuft? Kaputt ist kaputt. Oder war die Demo ein Fake?

Ich glaube die Tests die du meinst sind von PCper? Soweit ich weiss, konnte er die Resultate nicht mehr reproduzieren und hat daraufhin gesagt, dass er wahrscheinlich etwas falsch eingestellt hatte (Auflösung).

Piefkee
2017-07-05, 12:28:57
Ich glaube nach den Werten von VC muss man auch langsam damit abfinden das Vega kein Ti Gegner ist...RTG wollte zu viel mit dem Chip und hat es nicht gebacken bekommen...Da wird auch kein Wundertreiber helfen

Jetzt heißt es auf Release Benchmarks und Preis warten.

HOT
2017-07-05, 12:46:03
Wenn der Chip so kaputt ist, wie kann es dann sein, dass Sniper Elite in 4K mit 80 FPS läuft? Kaputt ist kaputt. Oder war die Demo ein Fake?
Auch wieder wahr :D. Also muss es ja einen entsprechenden Treiber, und sei es in frühem Stadium, geben.
Ich glaube nach den Werten von VC muss man auch langsam damit abfinden das Vega kein Ti Gegner ist...RTG wollte zu viel mit dem Chip und hat es nicht gebacken bekommen...Da wird auch kein Wundertreiber helfen

Jetzt heißt es auf Release Benchmarks und Preis warten.
Letztes stimme ich zu, ersteres ist völlig offen. Untere Grenze mit voller Funktion 1080 + 20%, obere Grenze 1080ti + 20% würde ich schätzen. Wir man aber eben erst wissen, wenn es einen Treiber gibt, der das Ding auch ausreizt.

Nakai
2017-07-05, 12:54:07
Keine Ahnung wie du darauf kommst? Das PCB wurde nur künstlich wegen der Kühlung verlängert.

Warum sehen die Boards sehr Beta aus? Die Länge des PCBs kann an der Kühllösung liegen. Mit dem längeren PCB bei der Vega FE kann man einen größeren Kühlkörper neben dem Lüfter unterbringen.
Die Custom Fury Karten haben auch deutlich längere PCBs als die Referenz Fury X, ohne dabei einen Beta-Status zu haben.

https://www.youtube.com/watch?v=zeoiPVVUnl8

Selbst Fiji hatte nicht so ein langes Board, obwohl der Kühler größer war. Die Platine ist anscheinend schon fast überbestückt. Man wollte wohl auf Nummer sicher gehen. Ein finales PCB für ein finales Produkt sind imo anders aus.

Dumm ist die Annahme nicht. Aber es wäre wenig realistisch imo, daß sich das Management damit selber so einen riesigen Bumerang baut. Leute aus dem (semi-)Pro-Bereich klagen noch viel eher als Normalos, wenn sich rausstellt, daß das Produkt de facto nicht voll funktional ist, wie zugesichert. Ein Feature das erst mit einem neuen Treiber funzt/optimal funzt, das ist eine Sache. Aber wenn das Feature GAR NICHT funktioniert, ist das eine ganz andere Nummer.

Der Imageschaden wäre noch größer als bei einer Verschiebung (inklusive der an den Fähigkeiten/der Integrität des Managers), und wenn sowas bekannt ist, sind gezahlte Boni für einen gehaltenen Launch (wenn man annimmt, daß man es deshalb so gemacht haben könnte) auch wieder futsch.

Mal noch ein wenig Spekulatius in Geschmacksrichtung "devils advocate" (:devil:) auf dein Gedankenspiel obendrauf:

Das einzige Szenario, in dem ich mir das so wie von dir beschrieben vorstellen könnte, ist, daß man wußte, daß ein Respin notwendig wird, man aber den zum Launch nicht mehr hinkriegen kann. Also hat man eingeplant, die paar Beta-Karten, mit denen man den Launch "halb hingefaked" hat, zeitnah kostenfrei durch Karten aus gefixter Produktion zu ersetzen (ab SIGGRAPH?) - und liefert bis dahin nur einen Treiber, mit dem der Bug gar nicht auffallen KANN, und der so schlecht ist, daß keiner die zu erwartenden Benchmarks vollkommen ernst nehmen will...

AMD musste Vega "launchen", weil man es eben angekündigt hatte. Das war ein Bindender Launch und war so geplant.

Falls es ein Hardware-Problem ist, dann ist er selbstverständlich schon recht früh erkannt worden. Falls es mit einem Respin gefixt werden kann, dann wird sich der Launch um 3 Monate verschieben. Dass er etwas nach hinten geschoben wurde, kann man zwischen den Zeilen erkennen. AMD hielt sich sehr bedeckt. Wenn Vega herausragende Spieleperformance bringen würde, hätte man das schon längst gezeigt gehabt.

Entweder kaputte Treiber oder kaputte Hardware. Beides ist fixbar. Ersteres wäre besser.

Piefkee
2017-07-05, 13:01:52
Letztes stimme ich zu, ersteres ist völlig offen. Untere Grenze mit voller Funktion 1080 + 20%, obere Grenze 1080ti + 20% würde ich schätzen. Wir man aber eben erst wissen, wenn es einen Treiber gibt, der das Ding auch ausreizt.

AMD hat selbst nie von einer Ti Konkurrenz gesprochen ...die Erwartungen kamen aus der Community, in Anbetracht der gewaltigen Specs von Vega. Meiner Meinung war AMD sehr über das Taktpotential uns Performance der Pascal Generation überrascht worden. Da war der Chip schon so gut wie fertig.

Wenn man sich den Ryzen Launch mit den ganzen Preview Benchmarks ansieht. Da hat AMD gezeigt was sie für ein heißen Eisen im Offen haben. Bei Vega? Ja es gab DOOM in Januar in 4k und 60fps und das ist auf Performance einer 1070 - 1080.

Ich lasse mich aber auch gerne positiv überraschen. Aber leider gibt es dafür einfach keine wirklichen Indizien.

Cyphermaster
2017-07-05, 13:04:08
Ich glaube nach den Werten von VC muss man auch langsam damit abfinden das Vega kein Ti Gegner ist...RTG wollte zu viel mit dem Chip und hat es nicht gebacken bekommen...Da wird auch kein Wundertreiber helfen

Jetzt heißt es auf Release Benchmarks und Preis warten.VC liefert selber keine Werte, sondern kommentiert Einträge in 3DMark11 (wie gut/schlecht der ist, sollte bekannt sein), die angeblich eine RX Vega unter Übertaktung zeigen sollen.

Also auch mehr Orakel als Information.

aufkrawall
2017-07-05, 13:07:56
Meiner Meinung war AMD sehr über das Taktpotential uns Performance der Pascal Generation überrascht worden.
Und warum haut das Marketing dann noch so peinliches Zeug wie "poor Volta" raus?

grauenvoll
2017-07-05, 13:12:02
AMD hat selbst nie von einer Ti Konkurrenz gesprochen ...die Erwartungen kamen aus der Community, in Anbetracht der gewaltigen Specs von Vega.

AMD hat von dem Ziel 60Hz@4k gesprochen. Das Ziel habe man erreicht.
Die GTX1080 ist ein gutes Stück davon entfernt. Wer bleibt dann noch?

Piefkee
2017-07-05, 13:12:08
Pascal Launch war 14.05.16

Und Vega Design war fix am 23.06.16
https://mobile.twitter.com/GFXChipTweeter/status/745887920809218049

Ich nehme an AMD Ziel war Performance über der 1080. Und das glaube ich wird so auch kommen.

Die Verzögerungen könnten damit zu tun haben das AMD das letzte aus der Karte holen möchte. Warum sollte man den sonst eine Waku Karte Releasen???

crux2005
2017-07-05, 13:13:27
Und warum haut das Marketing dann noch so peinliches Zeug wie "poor Volta" raus?

Weil AMD.

Am besten fand ich die AMD fanbois. Erst waren viele sicher das VEGA der Volta killer wird. Jetzt auf einmal waren es die nVidia fanbois die es so interpretiert haben. Zu geil. :D

Piefkee
2017-07-05, 13:14:47
Und warum haut das Marketing dann noch so peinliches Zeug wie "poor Volta" raus?

Naja wegen dem Hype der entsteht und der auch entstanden ist! Aber jetzt fliegt ihnen das mehr oder weniger um die Ohren...

PrivateCeralion
2017-07-05, 13:14:59
Und warum haut das Marketing dann noch so peinliches Zeug wie "poor Volta" raus?

Weil Volta vielleicht bis auf die Tensor prozesoring units nur ein größerer Pascal ist?

crux2005
2017-07-05, 13:15:07
Pascal Launch war 14.05.16

Und Vega Design war fix am 23.06.16
https://mobile.twitter.com/GFXChipTweeter/status/745887920809218049

Ich nehme an AMD Ziel war Performance über der 1080. Und das glaube ich wird so auch kommen.

Die Verzögerungen könnten damit zu tun haben das AMD das letzte aus der Karte holen möchte. Warum sollte man den sonst eine Waku Karte Releasen???

++
Und die "X2" Karte nicht vergessen.

Piefkee
2017-07-05, 13:17:00
AMD hat von dem Ziel 60Hz@4k gesprochen. Das Ziel habe man erreicht.
Die GTX1080 ist ein gutes Stück davon entfernt. Wer bleibt dann noch?


Richtig aber unter welchen Spielen? Ja bei DOOM trifft es zu aber dort schafft das auch eine 1080...
Mittlerweile sollte wir wissen wie AMDs Marketing arbeitet...

Screemer
2017-07-05, 13:21:50
Lesen scheint nicht gerade die Stärke einiger User hier zu sein, die hier im Thread gezeigten Titan Werte sind mit einer MAXWELL TX und nicht Pascal TXP entstanden.
Freundlichkeit scheint auch nicht die stärker einiger user hier zu sein. Sorry. Das zusammenkopieren auf dem Handybildachirm war mühsam genug. Hatte ich wohl schlicht nicht gesehen und bin von Pascal ausgegangen. Wen interessiert schon Maxwell. Hab meine posts mal verbessert. Vielleicht macht das der_Korken auch noch und jemand liefert Txp Werte.

Piefkee
2017-07-05, 13:23:58
Ich würde mal sagen diese Folie spricht Bände...
Man schaue sich den Bereich an den AMD mit Vega 2017 abdecken will. Dieser geht nicht bis ganz oben...Dort will man erst 2018 konkurieren....

Achim_Anders
2017-07-05, 13:47:26
Trotz der Folie: Das wäre in Anbetracht der Größe des Chips und des Leistungsniveaus in Relation zu Polaris schlicht enttäuschend.

elhomomomo
2017-07-05, 13:50:56
Ich würde mal sagen diese Folie spricht Bände...
Man schaue sich den Bereich an den AMD mit Vega 2017 abdecken will. Dieser geht nicht bis ganz oben...Dort will man erst 2018 konkurieren....

Lässt sich aber auch dahingehend interpretieren dass Mitte des Jahres 2017 nun mal die Hälfte des Geldes, was in dem Bereich verdient werden kann, schon "futsch" ist und 2018 dann komplett von Beginn an mit Vega bedient wird :)

grauenvoll
2017-07-05, 14:04:31
Richtig aber unter welchen Spielen? Ja bei DOOM trifft es zu aber dort schafft das auch eine 1080...
Mittlerweile sollte wir wissen wie AMDs Marketing arbeitet...

Wenn ich so ein Ziel ausgebe, kann dass nur für einen Großteil der verfügbaren Titel bedeuten. Das nur an einem einzigen Titel zu bemessen ist lächerlich. Kindergartenniveau.
Raja himself hat dieses Ziel ausgegeben. Es wurde wahrscheinlich lange vor dem erscheinen der GTX1080 definiert und ich kann mir nur schwer vorstellen, dass AMD sich an der GTX1080 orientiert.

Ich, für meinen Teil, glaube noch nicht mal, dass es technische Probleme sind, die den späteren Launchtermin verursachen. Ryzen kam auch 3 Monate später, obwohl er längst fertig war. Man muss sich einfach nur mal vor Augen halten was AMD und Partner dieses Jahr an Produkten auf den Markt schmeißen. Terminlich alles sehr eng. Aus meiner Sicht die Perfomanceprobleme der FE von AMD gewollt und verstehe die Panik nicht die einige in den Augen haben.

Dino-Fossil
2017-07-05, 14:10:11
Lässt sich aber auch dahingehend interpretieren dass Mitte des Jahres 2017 nun mal die Hälfte des Geldes, was in dem Bereich verdient werden kann, schon "futsch" ist und 2018 dann komplett von Beginn an mit Vega bedient wird :)

Genau - oder man interpretiert es leicht abgewandelt so, dass 2017 ein Übergangsjahr für die Architekturen ist und eben noch ältere Produkte parallel am Markt sind.
Sollte man nicht zu viel reininterpretieren.

aceCrasher
2017-07-05, 14:17:42
Ich hab zwar keine TXp, aber ich könnte 1080 OC Werte bieten. Karte is ne EVGA 1080 FTW DT.
Core clock: ~1950MHz
Memory clock: 5400MHz
Jeweils Afterburner Werte während des Benchmarks.

720p:

2541 8X
2320 16X
1408 32X
620 64X

1080p:

2264 8X
2024 16X
1109 32X
479 64X

Da hat AMD immernoch Einiges aufzuholen.

Screemer
2017-07-05, 14:24:49
720p:

Hawaii/Granada@?: 1424 1267 404 102
Fiji aka nano@900/?: 1489 1369 608 157
Polaris@1280/2000: 748 734 673 322
Vega FE@1550/1050: 981 987 955 393
TitanXm@1367/4001: 2594 2344 1254 537
1080@1940/5400: 2541 2320 1408 620

Vielleicht können achill und Mythos noch ihre Takte ergänzen.

crux2005
2017-07-05, 14:25:23
In Spielen relativiert sich der Unterschied weil nicht nur Tessellations Leistung ausschlaggebend ist.

Und ja die Tess Einheiten laufen mit GPU Frequenzen, also sollte deine 1080 auch schneller im Tessmark sein als TXp.

dargo
2017-07-05, 14:26:14
Selbst Fiji hatte nicht so ein langes Board, obwohl der Kühler größer war.

Doch, bei einer Custom bsw.
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/36032-asus-radeon-r9-fury-strix-im-test.html?start=3

Vega FE ist nur wegen dem Radiallüfter so lang.

Pascal Launch war 14.05.16

Weil alle Pascals zum gleichen Zeitpunkt kamen. :rolleyes:

dildo4u
2017-07-05, 14:26:26
Man braucht die Geoleistung der NV Karten nicht wirklich,Polaris hat das schon ausreichend gefixt.

https://youtu.be/AX1YlAnldLI

aceCrasher
2017-07-05, 15:02:40
Man braucht die Geoleistung der NV Karten nicht wirklich,Polaris hat das schon ausreichend gefixt.

https://youtu.be/AX1YlAnldLI

Naja, hätten alle Karten mehr Geometrieleistung, würden Entwickler vielleicht auch mehr gebrauch davon machen außerhalb von Gameworks. Ich zumindest möchte meine Ultra Godrays, die mit niedrigen Tessfaktoren echt schrecklich aussehen, zumindest nicht mehr missen.

aufkrawall
2017-07-05, 15:06:39
Tesselation (zumindest mit hohen Faktoren) scheint auch für volumetrisches Licht/Fog Shadows Schwachsinn zu sein, gibts mittlerweile in mehreren Engines performancesparender in schön.

dargo
2017-07-05, 15:13:07
Naja, hätten alle Karten mehr Geometrieleistung, würden Entwickler vielleicht auch mehr gebrauch davon machen außerhalb von Gameworks.
Das wird erst passieren wenn auch die Konsolen genügend Tess.-Leistung haben. Also erst in den nächsten Jahren.

Piefkee
2017-07-05, 15:14:01
Weil alle Pascals zum gleichen Zeitpunkt kamen. :rolleyes:


Ja das ist mir klar. Aber zum Zeitpunkt des Releases der 1070 und 1080, war das höchste der Gefühle eine 980Ti. An dieser hat sich AMD als an dem VEGA Chip gearbeitet orientiert. Und wenn am 14.05.16 ein "Performance" Chip (1080) eine 980Ti um 10-20% schlägt, bin ich mir sicher das AMD extrem von der Performance des GP104 Chips überrascht worden ist.

aufkrawall
2017-07-05, 15:18:28
Die 1080 war eher ~30% schneller als die 980 Ti.

crux2005
2017-07-05, 15:20:30
Und wenn am 14.05.16 ein "Performance" Chip (1080) eine 980Ti um 10-20% schlägt, bin ich mir sicher das AMD extrem von der Performance des GP104 Chips überrascht worden ist.

Du meinst wohl GP102. Und so einfach ist es mit dem Perf. targeting dann doch nicht. Mindestens kann ich sagen das AMDs Graphic Group vom GP102 wusste und deren Einschätzung war auch nicht schlecht. Meistens besser als was vom NV "Lager" Kam.

Troyan
2017-07-05, 15:21:34
Ja das ist mir klar. Aber zum Zeitpunkt des Releases der 1070 und 1080, war das höchste der Gefühle eine 980Ti. An dieser hat sich AMD als an dem VEGA Chip gearbeitet orientiert. Und wenn am 14.05.16 ein "Performance" Chip (1080) eine 980Ti um 10-20% schlägt, bin ich mir sicher das AMD extrem von der Performance des GP104 Chips überrascht worden ist.

Wie kann AMD von der Leistung überrascht gewesen sein, wenn 14/16nm bis zu doppelt soviele Transistoren pro Fläche erlaubt?!

Selbst AMD hat bei Polaris mit bis zu 2,7x mehr Leistung/W beworben. Die 1,7x, die Pascal über Maxwell bringt, kann also überhaupt keine Überraschung gewesen sein.

iuno
2017-07-05, 15:27:40
Nicht jeder optimiert so extreme und dort kommt meines wissens auch nicht viel Displacement Mapping insgesammt zum Einsatz eben weil man rücksicht auf ältere AMD Hardware nehmen musste.

Das schlimmste Ergebnis was ich bis Dato gesehen hab war auf der PS4 Until Dawn und so komplexe Szenen sieht man halt nicht alle Tage auch bei Ryse eher selten, dort erschlug man das Problem mit Pre Rendered Cutscenes meistens ;)
Das Spiel ist (rein technisch) absoluter Schrott. Habe das bei einem Kumpel auf der Pro im Boost Modus gespielt und das ruckelt durchgehend und unertraeglich. Selbst die Cutscenes sind zum Kotzen. Das ist aber ein Ueberbleibsel dass urspruenglich fuer PS3 geplant war, vielleicht liegt es daran.

Achill
2017-07-05, 15:30:32
720p:

Hawaii/Granada@?: 1424 1267 404 102
Fiji aka nano@900/?: 1489 1369 608 157
Polaris@1280/2000: 748 734 673 322
Vega FE@1550/1050: 981 987 955 393
TitanXm@1367/4001: 2594 2344 1254 537
1080@1940/5400: 2541 2320 1408 620

Vielleicht können achill und Mythos noch ihre Takte ergänzen.

Meine lief wie immer mit 1150/1500 ... also mit OC, habe aber nicht nach dem Taktschwankungen geschaut, kann ich heute später am Abend noch nachschauen.

PrivateCeralion
2017-07-05, 15:33:49
Wie kann AMD von der Leistung überrascht gewesen sein, wenn 14/16nm bis zu doppelt soviele Transistoren pro Fläche erlaubt?!

Selbst AMD hat bei Polaris mit bis zu 2,7x mehr Leistung/W beworben. Die 1,7x, die Pascal über Maxwell bringt, kann also überhaupt keine Überraschung gewesen sein.

Ich glaube auch nicht, dass Entwickler von Nvidias Performance überrascht worden sind, da sogar Foren Mitglieder mit einfachem Dreisatz ausrechnen konnten, wie schnell ungefähr Pascal wird.

dildo4u
2017-07-05, 15:34:47
Ich hab noch mal das Vega Marketing Material durchgeguckt,AMD spricht nur bei der Geoleistung von 2X,zur Kompression gibt es keine Zahlen,also gut möglich das der Sprung sich dort unter 50% bewegt.

Piefkee
2017-07-05, 15:36:36
Wie kann AMD von der Leistung überrascht gewesen sein, wenn 14/16nm bis zu doppelt soviele Transistoren pro Fläche erlaubt?!

Selbst AMD hat bei Polaris mit bis zu 2,7x mehr Leistung/W beworben. Die 1,7x, die Pascal über Maxwell bringt, kann also überhaupt keine Überraschung gewesen sein.


Das stelle ich doch gar nicht infrage. Aber was ich damit sagen wollte ist folgendes. In den Generationen davor war es doch so das Gen1 zu Gen2 (TopChip) irgendwas zwischen 10-20% draufgelegt hat.

Jetzt von 28nm auf 16nm hat NV das gleiche geschafft aber nicht mit dem mit GM102 auf GP102 sondern von GM102 auf GP104.


Und zu den 2,7x mehr Leistung/Watt bei Polaris. Bitte gib mir ein Spiel an wo eine solche Performance/W steigerung von (Hawaii zu Polaris) gibt. Ich finde da kein...


Und alleine die doppelte Transitoranzahl von 28 auf 16nm alleine ist es ja bei NV nicht. Da kommt halt nochmal von max. 1.202 MHz (980Ti) auf 1.480 MHz (1080Ti) auf drauf. Vom OC-Potenzial spreche ich garnicht. Ich denke AMD ist hier sehr wohl überrascht worden.

Isen
2017-07-05, 15:39:22
Ich würde mal sagen diese Folie spricht Bände...
Man schaue sich den Bereich an den AMD mit Vega 2017 abdecken will. Dieser geht nicht bis ganz oben...Dort will man erst 2018 konkurieren....


Den Fehler diese Folie so zu interpretieren, haben viele gemacht.
Sie bildet aber nicht die Performance dar... ;)

Troyan
2017-07-05, 15:43:23
Jetzt von 28nm auf 16nm hat NV das gleiche geschafft aber nicht mit dem mit GM102 auf GP102 sondern von GM102 auf GP104.

GK104 war rund 30% schneller als GF110. Wir reden hier von einem Chip, der von 28nm auf 16nm "geshrinkt" wurde. Dieser Schritt erlaubt fast doppelt soviele Transistoren pro Fläche gegenüber 28nm. Ein Teil der Transistoren wurde für bessere Taktbarkeit aufgewendet, wodurch eine GPU mit 10% weniger Transistoren eben auch ~25% schneller sein kann. AMD kann vielleicht davon überrascht worden sein, dass nVidia Taktraten mit Spannungen erreicht, die weit von AMDs entfernt sind. Aber das sollte wohl kaum eine Begründung sein, wieso AMD einen 50% größeren Chip benötigen könnte, um eine ähnliche Leistung mit fast doppelten Stromverbrauch zu erreichen...

Piefkee
2017-07-05, 16:00:57
Aber das sollte wohl kaum eine Begründung sein, wieso AMD einen 50% größeren Chip benötigen könnte, um eine ähnliche Leistung mit fast doppelten Stromverbrauch zu erreichen...

Das bei Vega es etwas nicht richtig gelaufen ist/oder war das sollte klar sein. Nicht ohne Grund ist Vega (FE) anders als bei NV am oberen OC-Limit. Wie gesgt warum sollte man Fury X wiederholen mit dem Wasserkühler? Wer will den sowas haben? Außer man erreicht die Leistung nicht...

Ich bin wirklich sehr auf RX Vega gespannt weil ich mir gerne eine kaufen will wegen meines Free-Sync Monitors. Aber der erhoffte Wurf (auch von mir) wird VEGA nicht werden (Glaube ich, dafür gab es zu viele schlechte Vorzeichen).

Screemer
2017-07-05, 16:06:40
Das stelle ich doch gar nicht infrage. Aber was ich damit sagen wollte ist folgendes. In den Generationen davor war es doch so das Gen1 zu Gen2 (TopChip) irgendwas zwischen 10-20% draufgelegt hat.



580 -> 780ti: ~70-80%
780ti -> 980ti/txm: ~50-60%
980ti/Txm -> 1080ti: ~60-70%

Ich sehr da keine 10-20%

crux2005
2017-07-05, 16:22:34
Das könnte die Wakü RX Vega sein: https://www.computerbase.de/2017-07/3dmark-11-radeon-rx-vega-benchmark/

Gipsel
2017-07-05, 16:31:59
Ich würde mal sagen diese Folie spricht Bände...
Man schaue sich den Bereich an den AMD mit Vega 2017 abdecken will. Dieser geht nicht bis ganz oben...Dort will man erst 2018 konkurieren....Vega steht da ab 2017 im Premium+Professional-Segment dran. Die Höhe der Balken gibt nur die Größe des Gesamtmarktes aufgeschlüsselt nach Segmenten an (die Skala lautet ausgeschrieben "total addressable market in Milliarden $"). Der wächst halt über die Jahre. Und die weißen Brackets an der Seite zeigen auch nur, daß Vega 10 nicht Alles im Professional-Markt abdecken kann, weil z.B. double precision nur mit 1:16 statt 1:2 geht. Das kommt dann 2018 (vermutlich mit Vega20).

==================================

720p:

Hawaii/Granada@?: 1424 1267 404 102
Fiji aka nano@900/?: 1489 1369 608 157
Polaris@1280/2000: 748 734 673 322
Vega FE@1550/1050: 981 987 955 393
TitanXm@1367/4001: 2594 2344 1254 537
1080@1940/5400: 2541 2320 1408 620Also in Anbetracht des Taktes so ganz grob Polaris-Stand. Keine Architekturverbeserungen sichtbar/aktiv.

valis
2017-07-05, 17:41:45
Auch wieder wahr :D. Also muss es ja einen entsprechenden Treiber, und sei es in frühem Stadium, geben.

Letztes stimme ich zu, ersteres ist völlig offen. Untere Grenze mit voller Funktion 1080 + 20%, obere Grenze 1080ti + 20% würde ich schätzen. Wir man aber eben erst wissen, wenn es einen Treiber gibt, der das Ding auch ausreizt.

Eine sehr optimistische Einschätzung. Amd hat nicht unbedingt einen guten Ruf was Treiber betrifft und das auch völlig zurecht. Die Frage für einen informierten User ist doch, warum sollte ich Vega einer 1080TI vorziehen. Mit dem Kauf schließe ich im Moment eine Wette über die zukünftige Treiberentwicklung ab. Und das kann gut aber auch sehr schlecht ausgehen.
LG

P.S. Ich glaube nicht das bis Ende Juli der Treiber für Spiele gigantische Sprünge machen wird. Wahrscheinlich wird wieder auf zukünftige Optimierungen hingewiesen, wie schon öfters in der Vergangenheit.

24p
2017-07-05, 17:47:00
Das könnte die Wakü RX Vega sein: https://www.computerbase.de/2017-07/3dmark-11-radeon-rx-vega-benchmark/


Zwischen 1080 und 1080Ti bei 1630MHz. Also ein weiteres Indiz, welches diese Erwartung unterstützt.

Armaq
2017-07-05, 17:47:35
Eine sehr optimistische Einschätzung. Amd hat nicht unbedingt einen guten Ruf was Treiber betrifft und das auch völlig zurecht. Die Frage für einen informierten User ist doch, warum sollte ich Vega einer 1080TI vorziehen. Mit dem Kauf schließe ich im Moment eine Wette ab über die zukünftige Treiberentwicklung ab. Und das kann gut aber auch sehr schlecht ausgehen.
LG

P.S. Ich glaube nicht das bis Ende Juli der Treiber für Spiele gigantische Sprünge machen wird. Wahrscheinlich wird wieder auf zukünftige Optimierungen hingewiesen, wie schon öfters in der Vergangenheit.
Das stimmt so nicht. Es gibt hinreichende Untersuchungen die anzeigen, dass AMD etwas langlebiger im Geschäft ist. Ob das einen 1080TI Käufer interessiert, ist eine andere Frage. Langfristig setzt man mit AMD auf jeden Fall nicht falsch.

dildo4u
2017-07-05, 17:51:09
Also in Anbetracht des Taktes so ganz grob Polaris-Stand. Keine Architekturverbeserungen sichtbar/aktiv.
AMD hat 2.6 Geoperformance zu Fiji versprochen nicht Polaris das passt also.

http://abload.de/img/amd-vega-videocardz-3foqu7.jpg

157 zu 393.Sind genau 2.5X.

24p
2017-07-05, 17:51:22
Das war bei der 290er und der 79xxer so, aber das bedeutet noch lange nicht, dass es immer noch so sein wird. Seit Maxwell hat sich das mit der Zukunftsfähigkeit eher gegessen (die 980Ti zieht eine Fury X als Costumdesign auch nach zwei Jahren im Mittel ab) und spätestens mit Pascal ist der theoretische Vorteil bei der Rohleistung (und der war früher der Grund, weswegen die AMD Karten langfristig schneller waren) auch nahezu verschwunden.

Isen
2017-07-05, 17:56:43
War doch seit Fiji abzusehen, was AMD vor hat und was NV.
NV ging mit Pascal Richtung GCN-Ähnlichkeit und AMD geht nun Richtung Pascal Ähnlichkeit.
Treffen sich am Ende in der Mitte.

Klar, dass die geringe Alterung wie bei der r200/r300 bei Vega und bei zukünftigen Karten nicht mehr gegeben ist und abnimmt - was man aber nun bei NV sagen kann, kommt doch eh nur ein Pascal Refresh, wer ne fette TI OC hat, wird da einen ähnlichen Sprung bekommen, wie die r200/300 Besitzer zur Fiji

dargo
2017-07-05, 18:11:12
Das stimmt so nicht. Es gibt hinreichende Untersuchungen die anzeigen, dass AMD etwas langlebiger im Geschäft ist.
Bis auf Fiji trifft das zu. Das Design von Fiji war imho etwas missglückt. Zu dolle mit SPs vollgestopft. Ich frage mich heute immer noch ob es nicht besser gewesen wäre Fiji XT mit max. 3584 SPs zu bringen und für etwas höhere Frequenzen paar Transistoren mehr zu opfern? So 1,2GHz @3584 SPs würden imo zu Fiji besser passen. Man konnte oft beobachten, dass eine Fury @1050Mhz oft nahezu die gleiche Leistung lieferte wie Fury X.

Troyan
2017-07-05, 18:13:25
Weil die Architektur nicht so hoch taktbar ist. Tonga kann auch nicht mit 1200MHz betrieben werden.

Piefkee
2017-07-05, 18:17:05
https://www.youtube.com/watch?v=0l6Uc5kBrxY

Sehr interessantes Video! Vega FE vs Fury X (Clock-for-Clock)

Edit: Fury x (1050Mhz) ca. 2%-5% schneller als FE (1050Mhz) in Games.. :freak:

Digidi
2017-07-05, 18:17:17
AMD hat 2.6 Geoperformance zu Fiji versprochen nicht Polaris das passt also.

http://abload.de/img/amd-vega-videocardz-3foqu7.jpg

157 zu 393.Sind genau 2.5X.

Polygonenoutput ≠ Tesselation :ucoffee:

dargo
2017-07-05, 18:17:29
Weil die Architektur nicht so hoch taktbar ist.
Deshalb schrieb ich ja... weniger SPs dafür mehr Transistoren für höhere Taktbarkeit opfern.

https://www.youtube.com/watch?v=0l6Uc5kBrxY

Sehr interessantes Video! Vega FE vs Fury X (Clock-for-Clock)
Läuft das Ding also doch nur im Fiji-Modus? :D

Troyan
2017-07-05, 18:19:16
Du musst die komplette Architektur überarbeiten. Polaris frisst mehr Strom mit 1450MHz als eine 28nm GTX980 mit der selben Taktung.

AMD hat das richtige getan mit den 64 CUs. Computeunits kosten kaum Transistoren.

dargo
2017-07-05, 18:24:41
Polaris frisst mehr Strom mit 1450MHz als eine 28nm GTX980 mit der selben Taktung.

Und was genau soll uns jetzt dieser Äpfel/Birnen Vergleich sagen?

dildo4u
2017-07-05, 18:33:07
Läuft das Ding also doch nur im Fiji-Modus? :D
Nope.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11422284&postcount=441

SpielerZwei
2017-07-05, 18:33:39
Angeblicher Vega RX 3dmark
https://www.computerbase.de/2017-07/3dmark-11-radeon-rx-vega-benchmark/

Piefkee
2017-07-05, 18:33:57
Läuft das Ding also doch nur im Fiji-Modus? :D


Keine Ahnung was an der Karte im Moment nicht funktioniert. In ein paar Wochen sind wir schlauer:smile::smile:

Piefkee
2017-07-05, 18:35:09
Nope.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11422284&postcount=441


Siehe -->

https://www.youtube.com/watch?v=0l6Uc5kBrxY

Digidi
2017-07-05, 18:40:28
https://videocardz.com/70777/amd-radeon-rx-vega-3dmark11-performance


In 3dmark11 gibt's einen 15% bist. Komisch ist aber das alle gleichem Treiber haben

Troyan
2017-07-05, 18:42:52
Weil das die selbe Karte ist, die ohne Handbremse fahren darf. 3DMark zeigt nur die höchste Taktrate an und nicht die reale.

dargo
2017-07-05, 18:49:07
Nope.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11422284&postcount=441
:uconf2:

Siehe -->

https://www.youtube.com/watch?v=0l6Uc5kBrxY
Hier siehsts ja noch schlimmer aus. @Stock skaliert Vega FE in SE4 praktisch gar nicht im Vergleich zu 1050Mhz. WTF? :|

Dino-Fossil
2017-07-05, 18:53:28
:uconf2:

Er meint damit, das Vega nicht im "Fiji-Mode" läuft weil es einen Benchmark gibt (hohe Tesselationsfaktoren), bei denen Vega etwas besser läuft.

Ich vermute, dass seine "logische" Schlussfolgerung ist, das damit Vega generell nicht mehr liefert als das, was wir in der FE schon sehen.
Was ja durchaus sein könnte, es ignoriert aber das offensichtliche Fehlen einiger zentraler Features, die für Vega angekündigt waren.

BoMbY
2017-07-05, 18:58:48
Weil Volta vielleicht bis auf die Tensor prozesoring units nur ein größerer Pascal ist?

Volta existiert bisher nur auf dem Papier. Wie bei NVidia üblich wird die Consumer-GPU vermutlich wenig mit dem Chip für die Großen zu tun haben. Eventuell soll "Volta" für die Spielerkarten auch nur ein Pascal in TSMC "12nm" mit GDDR5 sein - die Leute würden es trotzdem kaufen. Ist natürlich schon fraglich, was AMD da geritten hat.

LadyWhirlwind
2017-07-05, 18:59:24
Er meint damit, das Vega nicht im "Fiji-Mode" läuft weil es einen Benchmark gibt (hohe Tesselationsfaktoren), bei denen Vega etwas besser läuft.

Ich vermute, dass seine "logische" Schlussfolgerung ist, das damit Vega generell nicht mehr liefert als das, was wir in der FE schon sehen.
Was ja durchaus sein könnte, es ignoriert aber das offensichtliche Fehlen einiger zentraler Features, die für Vega angekündigt waren.

Kann natürlich auch sein, weil das grundsätzlich noch gleich funktioniert und der Treiber das auch ohne (grosse) Optimierung nutzen kann?

dargo
2017-07-05, 19:03:10
Er meint damit, das Vega nicht im "Fiji-Mode" läuft weil es einen Benchmark gibt (hohe Tesselationsfaktoren), bei denen Vega etwas besser läuft.

Was kompletter Unfug ist. Nicht die Tatsache sondern die Schlussfolgerung.

-/\-CruNcher-/\-
2017-07-05, 19:03:57
Das war bei der 290er und der 79xxer so, aber das bedeutet noch lange nicht, dass es immer noch so sein wird. Seit Maxwell hat sich das mit der Zukunftsfähigkeit eher gegessen (die 980Ti zieht eine Fury X als Costumdesign auch nach zwei Jahren im Mittel ab) und spätestens mit Pascal ist der theoretische Vorteil bei der Rohleistung (und der war früher der Grund, weswegen die AMD Karten langfristig schneller waren) auch nahezu verschwunden.

Jep was das angeht hat Nvidia so gut wie alle ihre Probleme erfolgreich beseitigt.

Bin immernoch absolut fasziniert von der GTX 970 als Produkteinführung zu dem unschlagbaren Preis von damals auch abgesehen des kleinen skandals auch wenn es ordentlicher hätte kommuniziert werden müssen.

Und die GTX 970 steht auch momentan noch sehr gut da als schwester der GTX 1060 ;)

Und die GTX 1070 hat das für einen minimalen Aufpreis (selbst gegenüber damals nochmals verstärkt)

Die Preis/Leistungs/Verbrauchs Balance der GTX 1070 ist schon ohne Frage jetzt die faszinierenste ;)

460/970/1070 alles teils quantensprünge in der Balance.

x60/x70 sind Generel die faszinierensten Nvidia lines im gesammten auch wenn sie auf DSP seite meist der x50 nachhängen aber das ist bewusst so kalkuliert ;)


Was da drüber ist interessiert mich nicht so wirklich Vega muss auf jedenfall die knacken und vor allem die 1070, in Costumer Satisfaction.

Nvidia hat immernoch ihren Sheduling Nachteil/Vorteil wie man es sehen möchte.


Vega RX für 400€ wäre ein Quantensprung dieser Art ;)

daraufhin wäre auch Nvidia gezwungen den Preis der 1070 zu senken ;)


Leider hat dieser Mining quatsch einen erheblichen schaden angerichtet, das es für die Käufer teurer werden wird.

pixeljetstream
2017-07-05, 19:33:14
Btw die Theorie nen Treiber der letzten Generation zu haben, halte ich für sehr weit hergeholt. einige Optimierungen die fehlen ja, aber es muss immer einen Unterbau geben. Meist sind die Treiber eigentlich schon vor der Hardware fertig, denn der Chipsimulator muss ja auch mit was laufen. Spätestens zum Chip bring-up brauch man vernünftige Treiber um zu sehen wie gut die Chips sind, wie nah man an seinen Vorgaben dran ist, ob man ne Revision braucht, weil was kaputt ist usw. Wären die Treiber zu dem Zeitpunkt nicht fertig oder nicht aussagekräftig ist ja alles danach nen Blindflug.
Die Logistik um den gesamten Entwicklungsprozess sind enorm. Die Hersteller müssen hier sich auch viel ihre Tools selber bauen, weil es gibt ja nicht jemanden der ähnlich große Chips baut und dafür seine Software verkauft ;) Zum Ablauf gibts nen sherguten Artikel hier https://rys.sommefeldt.com/post/semiconductors-from-idea-to-product/

Auf jeden Fall ist mit der FE AMD gelungen dass der Gamer release kaum an Drama und Spannung zu überbieten ist, egal wie es ausgeht.

berhan
2017-07-05, 19:34:08
3dmark11 mit einer VegaRX und neuem Treiber
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43595-vermeintliche-benchmarks-der-radeon-rx-vega-mit-neuem-treiber-aufgetaucht.html

Isen
2017-07-05, 19:38:53
Selbe Treiber, nur diesmal ohne Handbremse (Vollen Takt)
Und der Luxx User seine Karte entsprechend ähnlich - wo ist da nen neuer Treiber, wo liest du das bitte?

Ich sehe da noch immer kein zuschalten der Features. Das Bild des TBR ist unverändert.

Digidi
2017-07-05, 19:43:34
3dmark11 mit einer VegaRX und neuem Treiber
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43595-vermeintliche-benchmarks-der-radeon-rx-vega-mit-neuem-treiber-aufgetaucht.html

Hier ist es überall der selbe
22.19.653.0

https://videocardz.com/70777/amd-radeon-rx-vega-3dmark11-performance

berhan
2017-07-05, 19:48:56
Im Artikel steht das er neuerm Datums wäre.
Die neuen Ergebnisse sind mit der Treiberversion 22.19.653.0 entstanden, die deutlich neuer sein dürfte. Zum Vergleich: Der auf den 12. Juni datierte Radeon Crimson ReLive Edition 17.10 verwendet einen Displaytreiber der Version 22.19.171.257.

Digidi
2017-07-05, 19:52:15
Im Artikel steht das er neuerm Datums wäre.
Die neuen Ergebnisse sind mit der Treiberversion 22.19.653.0 entstanden, die deutlich neuer sein dürfte. Zum Vergleich: Der auf den 12. Juni datierte Radeon Crimson ReLive Edition 17.10 verwendet einen Displaytreiber der Version 22.19.171.257.

Es gibt auch mehrere Benchmarks mit dem selben Treiber und Unterschiedlichen Ergebnissen. So whaaatt

https://videocardz.com/70777/amd-radeon-rx-vega-3dmark11-performance

Isen
2017-07-05, 20:01:19
Einzige was sich dort wohl meiner Vermutung nach geändert haben könnte - da der Takt höher und stabiler bleibt - ist die Lüfterkurve.

-/\-CruNcher-/\-
2017-07-05, 20:19:50
AMD darf jetzt keinen Fehler machen sie müssen den Preis adequat halten Nvidia kann nicht mehr reagieren der Shader count der 1080 kann nicht kompensiert werden auch nicht mit OC

Letztendlich würde ihnen nur noch eine Preissenkung der 1080 TI übrigbleiben das würde weh tun je nachdem wo der Preis der VEGA RX liegt

AMD muss das Risiko eingehen Performance auf die 1080 gesehen zu verschenken unter DX 11 das würde Nvidia richtig treffen, manchmal muss man Risiko eingehen ;)

Mann muss Nvidia Preislich unter DX 11 schaden anderster wird Nvidia nicht anfangen zu zittern und wenn man die Performance verschenken muss ist das das Risiko wert.

Nvidia kann nicht mehr darauf mit einem extrem niedriegeren Preis der 1080 TI reagieren es wäre ein mächtiger schaden.

Auch haben sie alle ihre Treiberoptimierungen verschossen es sei den sie haben Reserven gelassen zu einem Competitor Review und wir sehen die 1080/1080 OC plötzlich aus dem nichts nochmal zulegen.


Die Leute dürfen unter gar keinen umständen den Eindruck bekommen das sie für die 50W Mehrverbrauch nichts bekommen oder nur unter Vulkan oder DX 12.

Man hält die Subjektive Performance schon sehr nice mit der 1080 OC (auch wenn TBR nicht aktiv sein sollte), das ist schonmal eine gute Entwicklung innerhalb der VEGA FE.

Think Sony like damnit, der Markt muss mit Vega jetzt geflutet werden vor Volta erst dann kann man sich sicher sein überhand über Gameworks zu Gewinnen.

Digidi
2017-07-05, 21:36:54
Im Beyond3d Forum hat gerade RYS (Beyond3d Suite, AMD Mitarbeiter,?) gepostet, das es kein FIJI Treiber ist, es aber Gemeinsamkeiten gibt und das so Softwareentwicklung ist.


https://forum.beyond3d.com/threads/amd-vega-10-vega-11-and-vega-20-rumors-and-discussion.59649/page-138

Isen
2017-07-05, 21:39:27
Ok. Also unvollständiger Treiber dann eben - oder wie man das nun schimpfen mag :D

Der_Korken
2017-07-05, 21:41:08
Hier siehsts ja noch schlimmer aus. @Stock skaliert Vega FE in SE4 praktisch gar nicht im Vergleich zu 1050Mhz. WTF? :|

Die Skalierung der FE mit Mehrtakt ist wirklich nicht berauschend. Spricht imho dafür, dass die Bandbreite für die FE@Stock schon etwas knapp ist. Zufälligerweise ist der Bandbreitenbedarf genau das was, was mit TBR sinkt.

BoMbY
2017-07-05, 21:42:33
Hat das schon wer gepostet:

http://i.imgur.com/5oxlQya.png

http://www.gamersnexus.net/guides/2977-vega-fe-vs-fury-x-at-same-clocks-ipc

?

-/\-CruNcher-/\-
2017-07-05, 21:44:58
:uconf2:


Hier siehsts ja noch schlimmer aus. @Stock skaliert Vega FE in SE4 praktisch gar nicht im Vergleich zu 1050Mhz. WTF? :|

Compute skaliert zum größtenteil mit Shader und Bandbreite weniger mit Clock, mit clock (bruteforce) läufst du eher in Gefahr das ganze instabil werden zu lassen ;)

TGKlaus
2017-07-05, 21:52:20
Der Siemens NX Test ist Hammer.
Wenn sich das bestätigt, werden wohl so einige neue Workstations fällig.

-/\-CruNcher-/\-
2017-07-05, 22:20:29
Oh man da soll mal einer Zbrush testen :D

LadyWhirlwind
2017-07-05, 22:20:55
Hat das schon wer gepostet:

http://i.imgur.com/5oxlQya.png

http://www.gamersnexus.net/guides/2977-vega-fe-vs-fury-x-at-same-clocks-ipc

?

Das sieht ja schonmal nicht schlecht aus.

Hat jemand ein Vergleich zu Nvidia?

_shorty_
2017-07-05, 22:27:12
Das sieht ja schonmal nicht schlecht aus.

Hat jemand ein Vergleich zu Nvidia?

das sind die links zu den benches auch im Vergleich zur Titanxp bzw. anderen Karten (gaming)

synth: http://www.gamersnexus.net/hwreviews/2973-amd-vega-frontier-edition-reviewed-too-soon-to-call/page-3

Gaming: http://www.gamersnexus.net/hwreviews/2973-amd-vega-frontier-edition-reviewed-too-soon-to-call/page-4

Screemer
2017-07-05, 22:43:02
Wie gesagt das Problem ist das der Takt nachgibt,mit 1.6Ghz ist sie dort wo sie AMD vermutlich erwartet hat.

http://abload.de/img/amd-rx-vega-gtx-1080-z7uyo.jpg

http://wccftech.com/amd-rx-vega-benchmark-leaked-specs-confirmed-1630mhz-8gb-hbm2-484gbs-of-bandwidth/

Default 28k und OC 32k.

https://videocardz.com/70777/amd-radeon-rx-vega-3dmark11-performance

Entsprechen die 32k einem Fury @1600 oder etwas, was tatsächlich (weil TBR) effizienter ist?

Ausgehend von 19200 punkten für die fury x @1050mhz und vega @1550mhz müsste letzterer bei knapp 28300 punkten landen, wenn er rein über den Takt skaliert. Das entspricht genau den non OC Vorstellungen von Dildo.

http://www.3dmark.com/3dm11/10699409

Da ist auf jeden Fall etwas gewaltig faul im Staate Dänemark.


Ich glaub das passt eher hier rein.

MadManniMan
2017-07-05, 23:04:56
Ich glaub das passt eher hier rein.

Conclusio ist also: Vega tut aktuell noch wie ein Fury?

gravitationsfeld
2017-07-05, 23:19:16
Oh man da soll mal einer Zbrush testen :D
ZBrush ist ein Software Renderer du Spezialist.

mczak
2017-07-05, 23:42:45
Der Siemens NX Test ist Hammer.
Wenn sich das bestätigt, werden wohl so einige neue Workstations fällig.
Bei diesen Tests muss man aufpassen weil der Performanceunterschied durch die verschiedenen Treiber bei Pro/Gaming Karten einfach enorm ist (ich gehe mal davon aus dass bei der FE nicht gebremst wird).
Es gibt keine Fiji Karte mit Pro Treiber, so super ist der snx02 Score im Vergleich mit den Pro-Karten jetzt auch wieder nicht. Alle SpecViewPerf Werte sind zwar sehr deutlich besser als die schnellste bisherige AMD-Karte (auch die runtergetaktete Variante ist schneller), aber das ist auch nicht wirklich ein fairer Vergleich (denn die schnellste Pro Karte ist die WX 7100 mit Polaris 10 Chip). Im Vergleich mit nvidia liegen die Werte in etwa auf P5000 (gp104) Niveau, jedenfalls alle unter P6000 (gp102). Aber klar preislich liegt da die FE super im Rennen lässt sich nvidia die Chips bei den Quadros doch vergolden (die FE liegt da ja preislich gerade mal auf Quadro P4000 Niveau und dass man einen abgespeckten, runtergetakteten gp104 schlägt kann nicht weiter erstaunen).

Screemer
2017-07-05, 23:49:26
Und was kostet p5000 und was kostet ne Vega? Sprichst du doch selbst an. Wer "nur" snx benutzt kann 2 Workstations mit Vegas bestücken und das zum preis einer p5000. Dazu hat man auch noch bessere Leistung. Darauf hat Klaus wohl eher abgezielt.

CompuJoe
2017-07-06, 00:09:23
Genau das, ein bekannter von mir, arbeitet im Maschinenbau arbeitet z.zt. mit einer Quadro K2200 und letzten in der Kneipe haben wir drüber gesprochen.
Habe den jetzt die Benchmarks der FE geschickt und er ist Hellhörig geworden, es sollten 4 P5000 werden im August, jetzt will er mit den Chefs reden ^^

http://www.asw-naumburg.de/

mczak
2017-07-06, 00:12:39
Und was kostet p5000 und was kostet ne Vega? Sprichst du doch selbst an. Wer "nur" snx benutzt kann 2 Workstations mit Vegas bestücken und das zum preis einer p5000. Dazu hat man auch noch bessere Leistung. Darauf hat Klaus wohl eher abgezielt.
Klar, es gibt hier zwei Betrachtungsweisen. Von der Technik her sind die SpecViewPerf Werte nicht berauschend - der Chip ist in jeder Hinsicht komplexer als GP104 und trotzdem liegt die Vega FE bloss etwa gleichauf mit der P5000 (und gegenüber der theoretisch eher vergleichbaren P6000 mit gp102 klar hinten).
Vom Preis her ist das natürlich etwas ganz anderes. Der Vergleich hinkt insofern etwas weil die Vega FE keine "echte" Profikarte ist - der Treiber mag zwar bei den Anwendungen die volle Performance haben (ganz im Gegensatz zur Titan XP) ist aber nicht zertifiziert dafür.

Screemer
2017-07-06, 00:20:39
Was vielen mittelständlern völlig egal ist. Meine Frau arbeitet bei beim zweitgrößter Hersteller weltweit in ihrem Fachbereich. mit ca. 150 Mitarbeitern an verschiedenen standorten. Da sitzen 11 Mann in der Konstruktion. Keine sau interessiert sich da für die Zertifizierung von Treibern, wenn die performance passt. Sowas ist das Rückgrat der Wirtschaft.

Sven77
2017-07-06, 00:42:40
Dafür sind die Maya Werte wirklich mies..ne GTX 1070 hat da 160-170 Punkte

CompuJoe
2017-07-06, 00:47:36
Was vielen mittelständlern völlig egal ist. Meine Frau arbeitet bei beim zweitgrößter Hersteller weltweit in ihrem Fachbereich. mit ca. 150 Mitarbeitern an verschiedenen standorten. Da sitzen 11 Mann in der Konstruktion. Keine sau interessiert sich da für die Zertifizierung von Treiber, wenn die performance passt. Sowas ist das Rückgrat der Wirtschaft.

Genau so ist es, da kenne ich einige hier.

Hübie
2017-07-06, 01:22:52
Klar, es gibt hier zwei Betrachtungsweisen. Von der Technik her sind die SpecViewPerf Werte nicht berauschend - der Chip ist in jeder Hinsicht komplexer als GP104 und trotzdem liegt die Vega FE bloss etwa gleichauf mit der P5000 (und gegenüber der theoretisch eher vergleichbaren P6000 mit gp102 klar hinten).
Vom Preis her ist das natürlich etwas ganz anderes. Der Vergleich hinkt insofern etwas weil die Vega FE keine "echte" Profikarte ist - der Treiber mag zwar bei den Anwendungen die volle Performance haben (ganz im Gegensatz zur Titan XP) ist aber nicht zertifiziert dafür.

Vega bringt ungefähr 20% weniger Leistung bei ca. 53% der Kosten einer P5000 (160 vs 200 fps im NX02 Benchmark bei 1000 vs 1900 € Kosten). Ein Unternehmen, dass damit Kohle verdient, Dinge in CAD zu konstruieren, kümmert solche Zahlen aber nicht sonderlich. Da ist die Produktivität wichtiger und die hängt eben eher von der Zuverlässigkeit eines Treibers, der Kompatibilität der eingesetzten Programme und vor allem Features ab. In der TV-Branche braucht man oft Quadro Sync und Moscaic (keine Ahnung ob AMD da überhaupt ein Pendant hat). Künftig ist iray bzw V-Ray ein weiteres Zugpferd für Designer. Das sind eher Punkte wo AMD aufholen muss. Performance alleine verkauft keine Produkte in der Industrie.
Mir fehlen Erfahrungswerte von AMD-Karten, weshalb ich da nun kein Urteil abgeben will. NVIDIA bekleckert sich seit einiger Zeit auch nicht mehr so mit Ruhm, was Treiberqualität angeht.

-/\-CruNcher-/\-
2017-07-06, 01:32:22
Das Empfindest du nur so ist aber insgesammt blödsin es gab immer Zeiten innerhalb Nvidias Treiberentwicklung die holprig waren letztens war das die Zeit des G-Sync umbaus nur zugegeben Win 10 ist ein größerer Umbau, der einigen noch viele ihrer Nerven kosten wird. ;)

vinacis_vivids
2017-07-06, 01:51:28
AMD's Vega-Chip wird sich überall durchsetzen, sei es semi-Pro, Pro, Gaming oder Mining. Wie beim Ryzen gegen Intel wird man über den Preis kommen und Nvidia einige Marktanteile wegschnappen. Gewinn und große Margen sind gar nicht das primäre Ziel, sondern Erstmal die Verbreitung in den Köpfen der Leute, die Nvidia als heilige Kuh sehen und nichts anderes kennen. Die Hardware wird wohl nur mit wenig Gewinn verkauft, um eine möglichst schnelle Verbreitung/Optimierung der Software zu ermöglichen. win-win Situation für alle (außer Nvidia).

N0Thing
2017-07-06, 02:01:11
Schau dir mal die Spannungsregler an...
Und dann vergleiche mal die Fury X oder whatever...

Und dann schau hier:
https://www.pcper.com/news/Graphics-Cards/Radeon-Vega-Frontier-Edition-GPU-and-PCB-Exposed

12 Phasen für die GPU (+1 Aux)? SRYSLY?!
Looks kinda fishy too me.

Insbesondere da die Fury X mit deutlich weniger auskommt. Und die auch nicht z.T. fast in der GPU drin sitzen wie bei der VEGA FE...

Frontier Edition hat hier wohl mehr als einen Grund/Sinn ;)

Wie wäre es mit echten Antworten, anstatt Fragen auf eine Frage zu stellen? Was fällt dir beim Vergleich mit der Fury X auf? Warum sieht es für dich fishy aus?

Schaffe89
2017-07-06, 02:19:39
Wie beim Ryzen gegen Intel wird man über den Preis kommen und Nvidia einige Marktanteile wegschnappen.

Eher wird der Marktanteil von Nvidia Richtung 80% gehen.
Vega ist langsam und extrem ineffizient, jedenfalls im Bereich Gaming.

dildo4u
2017-07-06, 02:37:25
AMD's Vega-Chip wird sich überall durchsetzen, sei es semi-Pro, Pro, Gaming oder Mining. Wie beim Ryzen gegen Intel wird man über den Preis kommen und Nvidia einige Marktanteile wegschnappen. Gewinn und große Margen sind gar nicht das primäre Ziel, sondern Erstmal die Verbreitung in den Köpfen der Leute, die Nvidia als heilige Kuh sehen und nichts anderes kennen. Die Hardware wird wohl nur mit wenig Gewinn verkauft, um eine möglichst schnelle Verbreitung/Optimierung der Software zu ermöglichen. win-win Situation für alle (außer Nvidia).
Es wird so oder so schon auf AMD Hardware hingearbeitet,da die jeweilige Engine das Optimale aus den Konsolen holen muss.Nur schadet das NV nicht mehr da sie massiv bei der Rechenleistung aufgeholt haben.
980 Ti 5.6 Tflops,Fury X 8.6 Tflop's.(50% Mehr Rechenleistung)1080 Ti 11 Tflops vs Vega 13 Tflop.(20% mehr Rechenleistung)Und fraglich ob Vega RX 1.6Ghz hält.

mczak
2017-07-06, 02:43:01
Keine sau interessiert sich da für die Zertifizierung von Treiber, wenn die performance passt.
Das ist schon klar dass da manchmal die Treiberzertifizierung egal ist. Wäre das nicht so gäbe es auch gar keinen Grund wieso die Gamingkarten da überhaupt so langsam sind :tongue:. Die Vega FE ist da halt ziemlich ein Spezialfall, weder Pro- noch Gamingkarte. AMD hat mit dieser Karte auch nicht wirklich etwas zu verlieren, denn man hat in diesen Leistungsregionen eh keine echte Profikarte (die WX 7100 als schnellste Profikarte kostet auch weniger), da könnte man also durchaus den Marktanteil etwas erhöhen.

=Floi=
2017-07-06, 03:36:58
Es wird so oder so schon auf AMD Hardware hingearbeitet,da die jeweilige Engine das Optimale aus den Konsolen holen muss.

nur ist das eine alte architektur und ein vega user hat davon auch nichts.

Loeschzwerg
2017-07-06, 07:24:44
Im Beyond3d Forum hat gerade RYS (Beyond3d Suite, AMD Mitarbeiter,?) gepostet, das es kein FIJI Treiber ist, es aber Gemeinsamkeiten gibt und das so Softwareentwicklung ist.


https://forum.beyond3d.com/threads/amd-vega-10-vega-11-and-vega-20-rumors-and-discussion.59649/page-138

War das jetzt was neues? Die "alten" Spieleprofile sind ja ebenfalls schon enthalten.

Was vielen mittelständlern völlig egal ist. Meine Frau arbeitet bei beim zweitgrößter Hersteller weltweit in ihrem Fachbereich. mit ca. 150 Mitarbeitern an verschiedenen standorten. Da sitzen 11 Mann in der Konstruktion. Keine sau interessiert sich da für die Zertifizierung von Treiber, wenn die performance passt. Sowas ist das Rückgrat der Wirtschaft.

Kenne ich auch genügend, die Probleme gehen halt dann los wenn mal etwas NICHT läuft und man auf offiziellen Support angewiesen ist.
Das gleiche Spiel wie mit Garantie und Versicherung im allgemeinen oder z.B. dem Backup von wichtigen Daten (oft genug erlebt dass kein Sicherungskonzept existiert :freak:).

Mancko
2017-07-06, 07:39:46
AMD's Vega-Chip wird sich überall durchsetzen, sei es semi-Pro, Pro, Gaming oder Mining. Wie beim Ryzen gegen Intel wird man über den Preis kommen und Nvidia einige Marktanteile wegschnappen. Gewinn und große Margen sind gar nicht das primäre Ziel, sondern Erstmal die Verbreitung in den Köpfen der Leute, die Nvidia als heilige Kuh sehen und nichts anderes kennen. Die Hardware wird wohl nur mit wenig Gewinn verkauft, um eine möglichst schnelle Verbreitung/Optimierung der Software zu ermöglichen. win-win Situation für alle (außer Nvidia).

Mir ist noch nicht ganz klar wie das nachhaltig funktionieren soll, insbesondere wenn Nvidia einfach die Preise mitgeht. Anders als AMD können die sich das leisten. Im Profi Segment werden die das ohnehin nicht müssen. Die sind da eine Bank weil sie eben in vielen Bereichen mit ihrer Software ganz einfach gesetzt sind. Da spielt die Hardware einfach nur noch eine untergeordnete Rolle. Im Consumer Bereich können sie leicht einfach Preissenkungen durchführen, insbesondere wenn sich AMD am Ende mit einer 1080OC herumschlagen sollte. Da ist so irrsinnig viel Spielraum, dass es AMD mit dem deutlich teureren Produkt richtig weh tun kann.

grauenvoll
2017-07-06, 07:45:13
Eher wird der Marktanteil von Nvidia Richtung 80% gehen.
Vega ist langsam und extrem ineffizient, jedenfalls im Bereich Gaming.
Solange der Miningboom anhält, wird sich alles blendend verkaufen wo Grafikkarte draufsteht.

Sunrise
2017-07-06, 08:04:53
AMD's Vega-Chip wird sich überall durchsetzen, sei es semi-Pro, Pro, Gaming oder Mining. Wie beim Ryzen gegen Intel wird man über den Preis kommen und Nvidia einige Marktanteile wegschnappen. Gewinn und große Margen sind gar nicht das primäre Ziel, sondern Erstmal die Verbreitung in den Köpfen der Leute, die Nvidia als heilige Kuh sehen und nichts anderes kennen. Die Hardware wird wohl nur mit wenig Gewinn verkauft, um eine möglichst schnelle Verbreitung/Optimierung der Software zu ermöglichen. win-win Situation für alle (außer Nvidia).
Ich sehe das nicht ganz so rosig, denn die 1080 Ti ist schon ziemlich brachial schnell (Übertaktbarkeit) und der Preis war von NV auch wieder sehr gut gesetzt. NV hat einfach zuviel Preisspielraum.

AMD müsste da ordentliche Mengen an Vegas raushauen können für einen Preis knapp oberhalb der 1080 und das mit HBM2 und einem viel größeren Die. Insgesamt spart AMD mit dem einen Die natürlich enorme Kosten und Zeit (theoretisch) ein, aber flexibler wird man dadurch nicht. AMD hat treiberseitig wohl alle Hände voll zu tun und das ist wohl der Pferdefuß.

Dass man bei guten Treibern auf AMD wohl eher entwickelt, kann ich aber gerne glauben, aber die Masse kauft eben Preis/Leistung.

dargo
2017-07-06, 08:20:46
Es wird so oder so schon auf AMD Hardware hingearbeitet,da die jeweilige Engine das Optimale aus den Konsolen holen muss.Nur schadet das NV nicht mehr da sie massiv bei der Rechenleistung aufgeholt haben.
980 Ti 5.6 Tflops,Fury X 8.6 Tflop's.(50% Mehr Rechenleistung)1080 Ti 11 Tflops vs Vega 13 Tflop.(20% mehr Rechenleistung)Und fraglich ob Vega RX 1.6Ghz hält.
Deine Rechenbeispiele sind immer sagenhaft. :uup:

Eine 1080TI FE hat 11,6 TFLOPs, habe 175Mhz abgezogen.
Mit den Standard-Einstellungen rennt die GeForce GTX 1080 Ti Founders Edition in jedem halbwegs anspruchsvollen Spiel ins Temperature Target und taktet herunter. Im Parcours arbeitet die Grafikkarte letztendlich in keinem Spiel mit den zum Start erzielten 1.797 MHz. Deutlich realistischer sind Frequenzen um 150 bis 200 MHz weniger.
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/

Im anderen Thread redest du wieder davon die Karte hat Probleme die 1,6Ghz zu halten.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11421965&postcount=424

Nimmst den Wert aber in deine Berechnung. :facepalm:

Bei PCP liegt der Takt im Schnitt bei etwa 1,4-1,45Ghz, was 11,5 bis 11,9 TFLOPs entspricht.

Edit:
Und hier nächstes Beispiel für deine 13 TFLOPs.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11422119&postcount=428

Dildo wieder in Perfektion.

Der_Korken
2017-07-06, 08:59:28
Deine Rechenbeispiele sind immer sagenhaft. :uup:

Eine 1080TI FE hat 11,6 TFLOPs, habe 175Mhz abgezogen.

https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/

Im anderen Thread redest du wieder davon die Karte hat Probleme die 1,6Ghz zu halten.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11421965&postcount=424

Nimmst den Wert aber in deine Berechnung. :facepalm:

Bei PCP liegt der Takt im Schnitt bei etwa 1,4-1,45Ghz, was 11,5 bis 11,9 TFLOPs entspricht.

Ich glaube du hast seine Aussage falsch verstanden. Es ging ihm darum, dass Nvidia bei der Rohleistung massiv aufgeholt hat. Während AMD-Karten früher durch höhere Rohleistung immer einen latenten Vorteil für die Zukunft hatten (wo die Leistung besser genutzt werden könnte), ist dieser Vorteil mittlerweile auch weg - zusätzlich zu der Tatsache, dass Nvidia wesentlich mehr Leistung aus einem Flop/s rausholt.

deekey777
2017-07-06, 09:10:31
Ich sehe das nicht ganz so rosig, denn die 1080 Ti ist schon ziemlich brachial schnell (Übertaktbarkeit) und der Preis war von NV auch wieder sehr gut gesetzt. NV hat einfach zuviel Preisspielraum.

AMD müsste da ordentliche Mengen an Vegas raushauen können für einen Preis knapp oberhalb der 1080 und das mit HBM2 und einem viel größeren Die. Insgesamt spart AMD mit dem einen Die natürlich enorme Kosten und Zeit (theoretisch) ein, aber flexibler wird man dadurch nicht. AMD hat treiberseitig wohl alle Hände voll zu tun und das ist wohl der Pferdefuß.

Dass man bei guten Treibern auf AMD wohl eher entwickelt, kann ich aber gerne glauben, aber die Masse kauft eben Preis/Leistung.

Das klingt für einen Laien wie mich so, als hätte man das Treiberteam mit Vega überrascht.

LadyWhirlwind
2017-07-06, 09:31:45
Das klingt für einen Laien wie mich so, als hätte man das Treiberteam mit Vega überrascht.


Nicht überrascht, aber wohl zu wenig Ressourcen um alles gleichzeitig fertig zu kriegen. AMD hat ja nicht nur Vega RX, sondern auch die MI25, die Vega FE, eine WX9100 soll auch noch kommen und ROCm an dem das Software-Team arbeiten muss.

Dural
2017-07-06, 09:34:08
Da glauben ja wirklich noch einige der Treiber sei noch nicht fertig :rolleyes:

pixeljetstream
2017-07-06, 09:44:23
Glaube nicht dass da jemand überrascht wurde, es ist einfach viel Arbeit/Aufwand.

Überraschend imo ist, dass viele den wirtschaftlichen Rahmen und die Konsequenzen zu ignorieren scheinen. AMD geht es nicht gerade super über die letzten Jahre, Entlassungswellen usw. das muss sich ja auch irgendwo widerspiegeln.

Mir ist noch nicht ganz klar wie das nachhaltig funktionieren soll...

Genau, Marktanteile sich auf ihre eigenen Kosten zu erkaufen, wird ihnen da auch nicht raushelfen.

Die Sachen günstig rauszuhauen ist für den Endkunden erstmal nett, langfristig für die Firma ein enormer Druck aus immer weniger Entwicklungskosten, immer mehr rausholen zu müssen. Mit den Konsolen ist man ja schon in einem Geschäftsbereich wo die Wertschöpfung eher beim Besteller liegt, wenn sie am PC also auch nix für sie lukratives hinkriegen wird's immer härter.

deekey777
2017-07-06, 09:49:05
Sofern der Chip nicht "kaputt" ist, dann kann man von einem Organisationsversagen der Chefetage sprechen. Dass AMD zwischen zwei Stühlen sitzt, ist klar: Sie müssen konkurrenzfähig bleiben und neue Hardware auf den Markt bringen, haben aber nicht genug Resourcen für die Treiberentwicklung, Developersupport usw.

M4xw0lf
2017-07-06, 09:55:39
Genau, Marktanteile sich auf ihre eigenen Kosten zu erkaufen, wird ihnen da auch nicht raushelfen.

Die Sachen günstig rauszuhauen ist für den Endkunden erstmal nett, langfristig für die Firma ein enormer Druck aus immer weniger Entwicklungskosten, immer mehr rausholen zu müssen. Mit den Konsolen ist man ja schon in einem Geschäftsbereich wo die Wertschöpfung eher beim Besteller liegt, wenn sie am PC also auch nix für sie lukratives hinkriegen wird's immer härter.
Tja, über die letzten Jahre hat die GPU-Sparte den Laden vorm Absaufen bewahrt, jetzt ist die CPU-Sparte dran, der RTG den Arsch zu retten. :uup:

r3ptil3
2017-07-06, 10:03:57
Behauptet eigentlich irgendwer hier noch Vega würde über der 1080 Ti liegen?

Menace
2017-07-06, 10:06:05
Ich weiß nicht, ob AMD bei Vega schon versagt hat.

Wurde Vega nicht vor allem für den Profimarkt und für die kommende APU Bristol Ridge entwickelt?

Vielleicht legten sie für Vega einfach andere Schwerpunkte als eine alles gewinnende diskrete Highend-Grafikkarte zu entwickeln. Man nimmt die Architektur halt auf für Vega RX mit allen seinen Nachteilen mit, aber das Ziel ist ein anderes. Deswegen gibt es auch keine großartigen Statements von AMD, da das nur ein peripheres Problem ist. [/spekulation]

unl34shed
2017-07-06, 10:06:46
Wartet doch den Release der rx Vega an, bevor ihr es Versagen nennt. Eine FE mit voller Spieleleistung hatte den Release der gaming Vega doch sinnlos gemacht.

Das einzige, was vllt. nicht schön ist, ist der doppelte Release, wobei man so die Spieler nicht mit Programmen langweilt und professionelle Anwender nicht mit Spielen.

pilzsammler2002
2017-07-06, 10:08:49
Behauptet eigentlich irgendwer hier noch Vega würde über der 1080 Ti liegen?

Je nach Fall gehe ich derzeitig noch davon aus das RX Vega vor einer 1080ti liegen wird...
Zwar nicht überall aber in einigen Fällen.

Man beachte eifnach den Sprung von GK zu GP... Da war auch einiges an perofrmance/effizienz drin und da wurde weniger geändert als jetzt bei Vega... :freak:

Loeschzwerg
2017-07-06, 10:10:28
Eine FE mit voller Spieleleistung hatte den Release der gaming Vega doch sinnlos gemacht.


Äh, nein?! Die RX Vega punktet über den Preis und es fehlen einige Features ;)

Cyphermaster
2017-07-06, 10:25:12
Sofern der Chip nicht "kaputt" ist, dann kann man von einem Organisationsversagen der Chefetage sprechen. Dass AMD zwischen zwei Stühlen sitzt, ist klar: Sie müssen konkurrenzfähig bleiben und neue Hardware auf den Markt bringen, haben aber nicht genug Resourcen für die Treiberentwicklung, Developersupport usw.Diese Schere läßt aber die Frage offen, ob eben das nicht eine von vorn herein nicht lösbare Aufgabe war, d.h. die Performance der Chefetage im Rahmen des Möglichen vielleicht sogar gut war.

Insgesamt ist es natürlich schade, daß man als Interessierter so wenig an Hintergründen weiß, aber das liegt eben in der Natur der Sache. Da hilft nur Geduld, bis wieder was an verwertbaren Informationen bzw. Daten kommt. Mittlerweile sind sogar sämtliche Tiereingeweide, Knochen, Kaffeesatz und alle anderen Orakel imo schon so weit "ausgelesen", daß nicht mal mehr neue Spekulationen mehr zu machen sind - außer, man will sich abseits jeglicher Basis bewegen.

Korvaun
2017-07-06, 10:26:33
Äh, nein?! Die RX Vega punktet über den Preis und es fehlen einige Features ;)

Also wenn AMDs Ziel sein sollte "über den Preis" zu punkten dann ist VEGA nen "Epic-Fail". Großes Die + HBM/Interposer = teuer, zusätzlich hoher Verbrauch und bisher sehr mäßige Spieleleistung, dazu noch jahrelange Entwicklungsarbeit (Kosten). Eine schlechtere Kombination kann ich mir fast nicht vorstellen für ne "Preisknaller-Karte".
Wenn die Spieleleistung auf Augenhöhe mit 1080ti liegt bei VegaRX-Release dann siehts schon anders aus...wenn...

dargo
2017-07-06, 10:31:10
Behauptet eigentlich irgendwer hier noch Vega würde über der 1080 Ti liegen?
Ja... ich. Bekomme ich jetzt einen Keks?

In Doom @Vulkan erwarte ich etwas mehr Leistung von RX Vega sofern die Anwendung darauf optimiert wird. Spätestens dann bei Wolfenstein 2. Auf Coda & Co ist Verlass. :D Aktuell mache ich mir mehr Gedanken über den Stromverbrauch. Weit über 225W (leise Luftkühlung wird dann schwierig) wollte ich eigentlich nicht hinaus. Ob das mit dem Salvage RX Vega klappt? :uponder:

BoMbY
2017-07-06, 10:38:02
AMD geht es nicht gerade super über die letzten Jahre, Entlassungswellen usw. das muss sich ja auch irgendwo widerspiegeln.

Jo, > 300 offene Stellenausschreibungen sprechen eindeutig für eine schlecht laufende Firma, und Entlassungswellen. Ich würde mal empfehlen in der Gegenwart anzukommen ...

unl34shed
2017-07-06, 10:40:01
Äh, nein?! Die RX Vega punktet über den Preis und es fehlen einige Features ;)

Dann wäre die Präsentation eine 1min Show, "hallo schön, dass ihr da seit, Vega kostet xyz$, gute Nacht und auf Wiedersehen"

Über den Preis punkten kann sie ja immer noch, da ist es doch egal, in die Werte vorher bekannt sind oder nicht.

Der_Korken
2017-07-06, 10:41:40
Aktuell mache ich mir mehr Gedanken über den Stromverbrauch. Weit über 225W wollte ich eigentlich nicht hinaus. Ob das mit dem Salvage RX Vega klappt? :uponder:

Im Zweifelsfall einfach das Powertarget reduzieren. Kostet bei Karten, wo das Powertarget viel zu hoch ist, fast keine Leistung, weil du fast nur Spannung aber kaum Takt "verlierst". Wenn man das noch mit undervolting kombiniert, kommt trotz geringerem Verbrauch am Ende vielleicht sogar auf mehr Leistung als Stock (ist aber durch die vielen Powerstates auch etwas Arbeit).

dargo
2017-07-06, 10:44:11
Im Zweifelsfall einfach das Powertarget reduzieren.
Schon klar, bin ja kein Anfänger. Wenn das Produkt fertig ist muss man eh schauen was der beste Kompromiss aus Leistung/Watt und Lautstärke dann bei den Customs ist.

Edit:
Mal was anderes... wurden die Temperaturgrenzen bei HBM2 eigentlich nach oben verschoben? In dem einen Video wo Vega FE mit Metro und max. PT getestet wurde stieg die GPU Temperatur auf 81°C hoch. Ich meine bei Fiji mit HBM1 war die Grenze tiefer oder täusche ich mich?

berhan
2017-07-06, 10:53:08
Als Problem bei AMD sehe ich, dass sie ihre GPU-Serien nie über alle Marktsegmente durchziehen. Bei Polaris fehlt Highend, bei Vega und Fiji Low- und Mid-Range. Das kostet sicher Ressourcen bei der Treiberentwicklung. Nvidia ist da konsequenter, vom GM107 mal abgesehen.

Loeschzwerg
2017-07-06, 10:53:24
Dann wäre die Präsentation eine 1min Show, "hallo schön, dass ihr da seit, Vega kostet xyz$, gute Nacht und auf Wiedersehen"

Über den Preis punkten kann sie ja immer noch, da ist es doch egal, in die Werte vorher bekannt sind oder nicht.

Sorry, aber was erzählst du da? Die FE ist ein anderes Segment (bietet Pro Features, 16GB...) und es werden entsprechend Preise gefahren. Wo hätte es den Launch der RX Vega sinnlos gemacht, wenn man mit der FE die "volle" Spieleleistung fährt?

Die RX hat keine Pro Features und nur 8GB (zumindest zum Launch), dafür kostet die Karte geschätzte 400€ weniger.

Um es kurz zu machen, es wurde nichts künstlich gedrosselt oder beschnitten.

unl34shed
2017-07-06, 10:54:17
Sorry, aber was erzählst du da? Die FE ist ein anderes Segment (bietet Pro Features, 16GB...) und es werden entsprechend Preise gefahren. Wo hätte es den Launch der RX Vega sinnlos gemacht, wenn man mit der FE die "volle" Spieleleistung fährt?

Die RX hat keine Pro Features und nur 8GB (zumindest zum Launch), dafür kostet die Karte geschätzte 400€ weniger.

Ich meine das Launch Event, nicht die Karte.

Loeschzwerg
2017-07-06, 10:55:51
Ok, schreib das doch gleich ;)

dargo
2017-07-06, 10:55:58
Als Problem bei AMD sehe ich, dass sie ihre GPU-Serien nie über alle Marktsegmente durchziehen. Bei Polaris fehlt Highend, bei Vega und Fiji Low- und Mid-Range.
:confused:

V11 kommt doch noch.

LadyWhirlwind
2017-07-06, 11:02:23
Diese Schere läßt aber die Frage offen, ob eben das nicht eine von vorn herein nicht lösbare Aufgabe war, d.h. die Performance der Chefetage im Rahmen des Möglichen vielleicht sogar gut war.

Insgesamt ist es natürlich schade, daß man als Interessierter so wenig an Hintergründen weiß, aber das liegt eben in der Natur der Sache. Da hilft nur Geduld, bis wieder was an verwertbaren Informationen bzw. Daten kommt. Mittlerweile sind sogar sämtliche Tiereingeweide, Knochen, Kaffeesatz und alle anderen Orakel imo schon so weit "ausgelesen", daß nicht mal mehr neue Spekulationen mehr zu machen sind - außer, man will sich abseits jeglicher Basis bewegen.

Nein, ich denke nicht das es ein Organisationsversagen der Chefetage ist. Ganz ehrlich, wenn Vega RX ein paar Wochen verspätet kommt oder ein bisschen schlechter performt als man gehoft hat, dann verkaufen Sie halt weniger Karten, bzw. senken den Preis. Mittelfristig hat das wenig Auswirkungen auf AMD, wenn sie mit Navi eine Karte zu 70% Preises und 130% der Leistung des Nvidai Top-Models bringen, werden Ihnen die Karten aus der Hand gerissen.
Sich im HPC-Markt zu etablieren ist da schon deutlich schwerer. Hier ist die Plattform deutlich wichtiger. Mit EPIC haben sie auf der CPU-Seite ein gutes Produkt, und Vega soll jetzt auf der GPU-Seite nachziehen. Mittelfristig bringt es AMD mehr, wenn sie hier erfolgreich sind, als wenn sie im Sommer 2017 Nvidia schlagen.

fondness
2017-07-06, 11:18:08
Jo, > 300 offene Stellenausschreibungen sprechen eindeutig für eine schlecht laufende Firma, und Entlassungswellen. Ich würde mal empfehlen in der Gegenwart anzukommen ...

Ja, sie stellen jetzt ein was geht, das ist aber auch dringendst nötig, wenn man die GPU-Sparte nicht aufgeben will. Dank Ryzen ist das zum Glück auch finanziell wieder möglich. Jedenfalls musste die GPU-Sparte in den letzten Jahren stark bluten, Rory Read hat hier auch in der FuE radikal Leute abgebaut. Dass das nicht ohne Auswirkungen bleibt sollte klar sein. Bei der CPU-Sparte hingegen hat man nur die Chipsatzabteilung aufgelöst, hier hat man wohl das größere Potential gesehen um AMD Langfristig zu sichern.

LadyWhirlwind
2017-07-06, 11:24:09
Ja, sie stellen jetzt ein was geht, das ist aber auch dringendst nötig, wenn man die GPU-Sparte nicht aufgeben will. Dank Ryzen ist das zum Glück auch finanziell wieder möglich. Jedenfalls musste die GPU-Sparte in den letzten Jahren stark bluten, Rory Read hat hier auch in der FuE radikal Leute abgebaut. Dass das nicht ohne Auswirkungen bleibt sollte klar sein. Bei der CPU-Sparte hingegen hat man nur die Chipsatzabteilung aufgelöst, hier hat man wohl das größere Potential gesehen um AMD Langfristig zu sichern.


Seit der Übernahme von ATI braucht AMD beides, CPU und GPU um eine Zukunft zu haben. Es wird natürlich noch 2-3 Jahre dauern, bis sich AMD von der Durststrecke erholt hat.

Und nochmals: zeitweise eine schlechte Consumer-Grafikkarte zu haben drückt zwar im entsprechenden Zeitraum auf den Ertrag, hat aber mittelfristig wenig Auswirkungen. Da wird man bei AMD lieber auf Produkte fokussiert haben, die mittel- und langfristig hohe Erträge bringen, z.B: der HPC-Markt.

PrivateCeralion
2017-07-06, 11:37:17
Behauptet eigentlich irgendwer hier noch Vega würde über der 1080 Ti liegen?

Ich behaupte das. Die neusten Tweets von Bits and Chips stimmen mich positiv.

Aber was viel wichtigeres: Gibt es ein Test, in dem der HBCC an und ausgeschaltet wird und gezeigt wird, wie viel Performance Unterschied es gibt? Das würde mich nämlich an Vega momentan am meisten interessieren.

r3ptil3
2017-07-06, 11:41:53
Aber was viel wichtigeres: Gibt es ein Test, in dem der HBCC an und ausgeschaltet wird und gezeigt wird, wie viel Performance Unterschied es gibt? Das würde mich nämlich an Vega momentan am meisten interessieren.

Ein Video dazu wurde von AMD selber veröffentlicht mit Sniper Elite 4.

Und was soll bitsandchips da spannendes veröffentlicht haben?

Der_Korken
2017-07-06, 11:46:54
Aber was viel wichtigeres: Gibt es ein Test, in dem der HBCC an und ausgeschaltet wird und gezeigt wird, wie viel Performance Unterschied es gibt? Das würde mich nämlich an Vega momentan am meisten interessieren.

Bei 16GB sollte das keinen Unterschied machen. Selbst 8GB sind schwer überhaupt zum Überlaufen zu bringen. Es könnte sogar sein, dass es ohne HBCC minimal schneller wird, je nachdem wieviel es kostet die Speicheradressen auf Cache-Lines zu mappen.

dargo
2017-07-06, 11:51:36
Aber was viel wichtigeres: Gibt es ein Test, in dem der HBCC an und ausgeschaltet wird und gezeigt wird, wie viel Performance Unterschied es gibt? Das würde mich nämlich an Vega momentan am meisten interessieren.
Ich kenne nur das hier.
https://www.youtube.com/watch?v=85ProuqAof0

Afaik wurde dort aber 2GB vs. 4GB verglichen. Bis sich HBCC also bei 8GB (RX Vega) bemerkbar macht kann es noch dauern. Falls es aktuell schon Games gibt wo 8GB zu Framedrops führen wird sich natürlich HBCC jetzt schon bemerkbar machen.

Edit:
Und paar Bilder.
http://cdn.wccftech.com/wp-content/uploads/2017/05/AMD-Vega-Tomb-Raider-HBCC-Demo.jpg
https://cms-images.idgesg.net/images/article/2017/05/radeon-vega-frontier-edition-hbcc-100722928-orig.jpg

PrivateCeralion
2017-07-06, 11:54:33
Ein Video dazu wurde von AMD selber veröffentlicht mit Sniper Elite 4.

Und was soll bitsandchips da spannendes veröffentlicht haben?

https://www.reddit.com/r/Amd/comments/6lh1x6/bits_and_chips_says_that_vega_gaming_performance/

Einige Tweets.

Isen
2017-07-06, 12:30:10
:D

I think the real click-bait sites are those which are publishing articles of VEGA FE as VEGA RX, using inappropriate drivers.

https://pbs.twimg.com/media/DD_mPmcXYAAIBn_.jpg

Complicated
2017-07-06, 12:34:01
HBCC macht sich bei 8 GB schon bei der Entscheidung über den Kauf bemerkbar - nicht technisch natürlich. Doch die ewige Frage wie lange mein Speicherausbau bei zukünftigen Spielen ausreicht hat ein Ende mit diesem Feature. Dem Käufer wird diese Frage abgenommen und dementsprechend kann man die 8 GB für Gamingkarten für die nächsten Jahre als gesetzt bezeichnen sofern ein HBCC auf der GPU verbaut ist.

Die Entwickler müssen ebenfalls nicht mehr Rücksicht nehmen auf den Speicherverbrauch, ausser eben auf Karten ohne HBCC. In jedem Fall hat man sich gegen "Speicher-Marketing" abgesichert und sich langfristig mit 8 GB auch einen Kostenfaktor im High-End gespart. 11 oder 12 GB Karten im Gaming wirken ab Verfügbarkeit von HBCC nicht mehr modern sondern altbacken und rückständig, und sie müssen deutlich mehr (teurer) Speicher verbauen um als zukunftssicher zu gelten.

Troyan
2017-07-06, 12:37:56
HBCC macht sich bei 8 GB schon bei der Entscheidung über den Kauf bemerkbar - nicht technisch natürlich. Doch die ewige Frage wie lange mein Speicherausbau bei zukünftigen Spielen ausreicht hat ein Ende mit diesem Feature. Dem Käufer wird diese Frage abgenommen und dementsprechend kann man die 8 GB für Gamingkarten für die nächsten Jahre als gesetzt bezeichnen sofern ein HBCC auf der GPU verbaut ist.

Lmao. Deswegen verkauft AMD auch 16GB an Speicher, weil 8GB ja so ausreichend sind. ;D


Die Entwickler müssen ebenfalls nicht mehr Rücksicht nehmen auf den Speicherverbrauch, ausser eben auf Karten ohne HBCC. In jedem Fall hat man sich gegen Speiher-Marketing abgesichert und sich langfristig mit 8 GB auch einen Kostenfaktor im High-End gespart. 11 oder 12 GB Karten im Gaming wirken ab Verfügbarkeit von HBCC nicht mehr modern sondern altbacken und rückständig, und sie müssen deutlich mehr (teurer) Speicher verbauen um als zukunftssicher zu gelten.

Lmao^2. Aber echt, 11GB, die mit 480GB/s angebunden sind, sind natürlich altmodischer als 11GB, wo nur 8GB mit 480GB/s angebunden sind. Da muss die GTX970 eine technische Revolution gewesen sein.

Deine Postings haben ein technisches Niveau [..].

Complicated
2017-07-06, 12:40:33
Lmao. Deswegen verkauft AMD auch 16GB an Speicher, weil 8GB ja so ausreichend sind.
So? Bei welcher Gaming Karte hast du mehr als 8 GB Speicher bei AMD?

Bevor du über technisches Niveau philosophierst, solltest du Kontext verstehen.

BTW technisches Niveau:
Aber echt, 11GB, die mit 480GB/s angebunden sind, sind natürlich altmodischer als 11GB, wo nur 8GB mit 480GB/s angebunden sind.
Hä?

Troyan
2017-07-06, 12:43:15
Seit wann spielt es eine Rolle, was für Programme auf der GPU ausgeführt werden, wenn es um die Speichermenge geht?

Entweder benötigen Spiele mehr als 8GB oder nicht. In beiden Fällen bringt HBCC überhaupt nichts. Deswegen geht AMD bei der FE auch "All-In" mit 16GB an Speicher. Die wissen, dass Werbung nur selten etwas mit Realität zu tun.

Complicated
2017-07-06, 12:44:52
Das fragst du mal die Profi-Karten Nutzer. Was für eine technische Unwissenheit willst du nun hier demonstrieren?

Eine Video-Schnitt Software benötigt deutlich mehr Speicher als ein Spiel. Bilde dich mal weiter bevor du hier so unqualifiziert den Mund aufreißt.

Screemer
2017-07-06, 12:48:28
Entweder benötigen Spiele mehr als 8GB oder nicht. In beiden Fällen bringt HBCC überhaupt nichts. Deswegen geht AMD bei der FE auch "All-In" mit 16GB an Speicher. Die wissen, dass Werbung nur selten etwas mit Realität zu tun.
deswegen läuft tr mit 2gb gescheiden und mit 2gb+hbcc stressfrei. bringt also gar nix!!! vor allem wissen wir alle schon wie sich hbcc in der realworld performance niederschlägt und es bringt erst recht nichts!!!

dargo
2017-07-06, 12:50:03
@Troyan

:facepalm:

Die selbe Frage könnte man stellen wofür Nvidia bei P100 732GB/s mit 16GB liefert wenn im Gamingbereich 480GB/s @11GB reichen. ;D

Sven77
2017-07-06, 12:53:19
Eine Video-Schnitt Software benötigt deutlich mehr Speicher als ein Spiel. Bilde dich mal weiter bevor du hier so unqualifiziert den Mund aufreißt.

Ist das so? Nenn mir mal ein Beispiel

Troyan
2017-07-06, 12:53:57
Das fragst du mal die Profi-Karten Nutzer. Was für eine technische Unwissenheit willst du nun hier demonstrieren?

Eine Video-Schnitt Software benötigt deutlich mehr Speicher als ein Spiel. Bilde dich mal weiter bevor du hier so unqualifiziert den Mund aufreißt.

Also wenn eine Anwendung mehr als 8GB benötigt, dann sind mehr als 8GB notwendig. :eek:

Erkläre doch einfach, wieso eine "Video-Schnitt Software" nicht mit 8GB und HBCC genauso gut funktionieren sollte als mit 16GB, wenn doch 8GB mit HBCC vollkommen ausreichend wären.

Cyphermaster
2017-07-06, 13:01:52
Ist das so? Nenn mir mal ein Beispiel
Ein Beispiel für eine große Videodatei oder was? :confused:

Complicated
2017-07-06, 13:03:32
Eine Video-Schnitt Software benötigt deutlich mehr Speicher als ein Spiel - ohne HBCC. - Den Kontext präzisiert.

Die Frontier Edition ist für Content Entwickler ausgelegt und bietet daher 16 GB Speicher, damit eben mehr als NUR das Spiel zeitgleich ausgeführt werden kann. AMD hat den Usecase erklärt, man muss nur mal lesen was die selber veröffentlichen und nicht immer alles als Marketing abtun was einem nicht in den Kram passt.
https://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/
The Radeon™ Vega Frontier Edition graphics card is designed to simplify and accelerate game creation by providing a single GPU that is optimized for every stage of this workflow, from asset production, to playtesting, to performance optimization.

When creating assets and working with game development tools, developers can take advantage of the professional application performance and rock-solid reliability of Radeon™ Pro Software to help ensure maximum stability and productivity when using tools like Autodesk® Maya®, Unity®, and Unreal® Engine.
Furthermore, Radeon™ Vega Frontier Edition’s revolutionary Memory Engine when combined with Radeon™ ProRender enables the rendering of assets that would normally be restricted by the confines of the limited VRAM of other graphics cards.

BoMbY
2017-07-06, 13:08:25
Für Videoschnitt und ähnliches sind ja primär die SSGs gedacht, damit man auch mal mehr als ein paar Sekunden 4K Rohvideos ordentlich verarbeiten kann.

Edit: Siehe Solid State Graphics (SSG) Technical Brief (https://www.amd.com/Documents/Radeon-Pro-SSG-Technical-Brief.pdf)

Edit2: Es geht natürlich hauptsächlich um kommende 8K Videoanwendungen - 4K geht wohl auch noch mehr oder weniger ohne.

tm0975
2017-07-06, 13:10:28
Ein Beispiel für eine große Videodatei oder was? :confused:

nun nenne schon deinen Lieblingskinofilm ;D

Sven77
2017-07-06, 13:12:52
Ein Beispiel für eine große Videodatei oder was? :confused:

Also 4K kann man mit allen Effekten auch auf ner ollen 2GB Quadro schneiden.. hier wird behauptet dass Videoschnitt viel VRAM braucht. Ich hätte gerne einen Usecase, denn obwohl ich in der Branche arbeite ist mir das neu..

Es gibt diverse Broadcastsoftware die VRAM lastig ist, aber auch da sind 8GB stark übertrieben.

Troyan
2017-07-06, 13:17:27
Eine Video-Schnitt Software benötigt deutlich mehr Speicher als ein Spiel - ohne HBCC. - Den Kontext präzisiert.

Die Frontier Edition ist für Content Entwickler ausgelegt und bietet daher 16 GB Speicher, damit eben mehr als NUR das Spiel zeitgleich ausgeführt werden kann. AMD hat den Usecase erklärt, man muss nur mal lesen was die selber veröffentlichen und nicht immer alles als Marketing abtun was einem nicht in den Kram passt.
https://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/

Oh, jemand fragt nach einer technischen Erklärung und es wird mit Marketing gekontert. :freak:

Also, dass ich dich verstehe: Wenn ein Spiel 16GB benötigt, dann sind 8GB mit HBCC ausreichend. Wenn eine "Video-Schnitt-Software" 16GB benötigt, dann müssen es mindesten 16GB sein. Gotcha.

BTW: Selbst 8GB mit HBCC würde das "Onboard VRAM limit" beheben. Es wäre also technisch sinnbefreit mehr als 8GB (oder 4? oder 2?) zu verbauen.

Complicated
2017-07-06, 13:18:19
Offensichtlich bist du in einem Teil der Branche tätig wo die Leistung nicht benötigt wird:
http://www.anandtech.com/show/10518/amd-announces-radeon-pro-ssg-fiji-with-m2-ssds-onboard
Hier wird die Videodatei näher an die GPU gebracht im Vergleich zum normalen ablegen auf SSD:
To showcase the potential benefits of this solution, AMD had an 8K video scrubbing demonstration going, comparing performance between using a source file on the SSG’s local SSDs, and using a source file on the system SSD (also a 950 Pro).

The performance differential was actually more than I expected; reading a file from the SSG SSD array was over 4GB/sec, while reading that same file from the system SSD was only averaging under 900MB/sec, which is lower than what we know 950 Pro can do in sequential reads.

Sven77
2017-07-06, 13:18:34
Eine Video-Schnitt Software benötigt deutlich mehr Speicher als ein Spiel - ohne HBCC. - Den Kontext präzisiert.

Die Frontier Edition ist für Content Entwickler ausgelegt und bietet daher 16 GB Speicher, damit eben mehr als NUR das Spiel zeitgleich ausgeführt werden kann. AMD hat den Usecase erklärt, man muss nur mal lesen was die selber veröffentlichen und nicht immer alles als Marketing abtun was einem nicht in den Kram passt.
https://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/

Da ist nicht die Rede von "Videoschnitt".. Bilde dich mal weiter.

Btw. Maya läuft auf einer GTX 1070 ca. 45% schneller

Complicated
2017-07-06, 13:21:57
Nein es ist von Video-Bearbeitung die Rede. AMD baut keine Video-Schnitt-Tische usecase only.
Um mich nicht weiter bilden zu müssen präzisiere ich auch für dich: Ich meine Video Bearbeitung, wovon Videoschnitt ein Teilaspekt ist. Kannst du mit dieser erweiterten Definition nun etwas anfangen?

Sven77
2017-07-06, 13:24:17
Nein es ist von Video-Bearbeitung die Rede. AMD baut keine Video-Schnitt-Tische usecase only.
Um mich nicht weiter bilden zu müssen präzisiere ich auch für dich: Ich meine Video Bearbeitung, wovon Videoschnitt ein Teilaspekt ist. Kannst du mit dieser erweiterten Definition nun etwas anfangen?

;D okay, jetzt wirds langsam peinlich. Nenn doch mal das Pferd beim Namen. Welche Software in diesem Bereich profitiert von mehr VRAM? Und bei welchen Arbeitsschritten? Nicht nur irgendwelche Folien nachplappern, Butter bei die Fische

Cyphermaster
2017-07-06, 13:35:01
Also 4K kann man mit allen Effekten auch auf ner ollen 2GB Quadro schneiden.. hier wird behauptet dass Videoschnitt viel VRAM braucht. Ich hätte gerne einen Usecase, denn obwohl ich in der Branche arbeite ist mir das neu..

Es gibt diverse Broadcastsoftware die VRAM lastig ist, aber auch da sind 8GB stark übertrieben.Ich hatte da was anderes im Hinterkopf (2GB noch ok für HD, aber nicht mehr, 4K+ kämen dann entsprechend deutlich höher raus; daher auch mein Posting) - ich arbeite in dem Feld aber im Unterschied zu dir nicht.

Hast du eine Ahnung, wie sich CGI, d.h. das Verschneiden künstlicher mit natürlichen Quellen, hinsichtlich Speicherbedarf verhält? Das ist dann ja was Anderes, als "klassischer" Videoschnitt.

Sven77
2017-07-06, 13:39:08
Compositing? Nicht viel.. auch da wird fast alles CPU berechnet, die Grafikkarte tut nicht viel ausser den Viewport zu zeichnen. Es gibt natürlich auch GPU berechnete Effekte, das ist aber alles sehr anspruchslos was VRAM angeht.
https://www.foundry.com/products/nuke/requirements


Ich will hier auch nicht bös reingrätschen, 16GB Vram hat natürlich auch bei Content Creation seine Daseinsberechtigung. Allerdings gehört Videoschnitt nicht dazu.
Texturen mit Mari zu erstellen oder eben GPU-Rendering mit Pathtracern kann gar nicht genug VRAM haben

deekey777
2017-07-06, 13:58:06
Wäre ja blöd, wenn iMovie die 2-4 GB VRAM in den neuen iMacs sprengt. X-D

Hasenpfote
2017-07-06, 14:14:33
Spieleleistung wird höher sein bei Vega Full, Salvage knapp dahinter, bis gleichauf!:up: Wenn jetzt noch der Pres stimmen würde und die Miner die Karte in Ruhe lassen, wäre das Top.

Zergra
2017-07-06, 14:17:46
:up: Wenn jetzt noch der Pres stimmen würde und die Miner die Karte in Ruhe lassen, wäre das Top.
Wenn der Preis stimmt, werden die Miner die Karte wohl nicht in Ruhe lassen :freak:

Complicated
2017-07-06, 14:40:07
;D okay, jetzt wirds langsam peinlich. Nenn doch mal das Pferd beim Namen.
Ich denke das habe ich bereits getan mit dem Link zu Anandtech. Peinlich ist eher, dass du das zwei Beiträge später schon vergessen hast.

Du wirst mir doch nicht erzählen wollen es gäbe bei der Erstellung von 8K Videos keinen Bedarf an größerem Speicher auf den GPUs und dass die da mit 2-4 GB klar kommen? Wenn du aus der Branche bist, dann muss ich dir auch nicht erklären wo die Profi-GPUs von AMD und Nvidia mit 16, 24 oder 32 GB zum Einsatz kommen. Ich leite deren Daseinsberechtigung einfach mal aus deren Verkaufszahlen ab.

Ich kann mich jetzt natürlich auf die Googlesuche begeben um dir das offensichtliche zu belegen, doch das kannst du als Profi aus der Branche bestimmt besser - du bist doch aus der Branche?

Isen
2017-07-06, 14:41:53
Ausm beyond (https://forum.beyond3d.com/posts/1990840/) geklaut:



Differences:

Maximum Feature Level: D3D_FEATURE_LEVEL_12_0 (0xc000) increased to D3D_FEATURE_LEVEL_12_1 (0xc100)
MinPrecisionSupport : D3D12_SHADER_MIN_PRECISION_SUPPORT_NONE (0) increased to D3D12_SHADER_MIN_PRECISION_SUPPORT_16_BIT (2) (there was some talk about this might be a bug in the detection)
TiledResourcesTier : D3D12_TILED_RESOURCES_TIER_2 (2) increased to D3D12_TILED_RESOURCES_TIER_3 (3)
ROVsSupported : False -> True
ConservativeRasterizationTier : D3D12_CONSERVATIVE_RASTERIZATION_TIER_NOT_SUPPORTED (0) added as D3D12_CONSERVATIVE_RASTERIZATION_TIER_3 (3) (Pascal is Tier 2? Massive jump here)

MaxGPUVirtualAddressBitsPerResource : 40 -> 44 (this might be due to cut Fury air chip?)
MaxGPUVirtualAddressBitsPerProcess : 40 -> 44 (this might be due to cut Fury air chip?)
TotalLaneCount : 3584 -> 4096 (this is the number of cores, so different because mine is the fury air not fury X)



#Fury (Air)

Windows 10 version 1703 (build 15063)

ADAPTER 0
"AMD Radeon (TM) R9 Fury Series"
VEN_1002, DEV_7300, SUBSYS_E331174B, REV_CB
Dedicated video memory : 4269826048 bytes
Total video memory : 4240932864 bytes
Video driver version : 22.19.171.1
Maximum feature level : D3D_FEATURE_LEVEL_12_0 (0xc000)
DoublePrecisionFloatShaderOps : 1
OutputMergerLogicOp : 1
MinPrecisionSupport : D3D12_SHADER_MIN_PRECISION_SUPPORT_NONE (0)
TiledResourcesTier : D3D12_TILED_RESOURCES_TIER_2 (2)
ResourceBindingTier : D3D12_RESOURCE_BINDING_TIER_3 (3)
PSSpecifiedStencilRefSupported : 1
TypedUAVLoadAdditionalFormats : 1
ROVsSupported : 0
ConservativeRasterizationTier : D3D12_CONSERVATIVE_RASTERIZATION_TIER_NOT_SUPPORTED (0)
StandardSwizzle64KBSupported : 0
CrossNodeSharingTier : D3D12_CROSS_NODE_SHARING_TIER_NOT_SUPPORTED (0)
CrossAdapterRowMajorTextureSupported : 0
VPAndRTArrayIndexFromAnyShaderFeedingRasterizerSupportedWithoutGSEmulation : 1
ResourceHeapTier : D3D12_RESOURCE_HEAP_TIER_2 (2)
MaxGPUVirtualAddressBitsPerResource : 40
MaxGPUVirtualAddressBitsPerProcess : 40
Adapter Node 0: TileBasedRenderer: 0, UMA: 0, CacheCoherentUMA: 0, IsolatedMMU: 1
HighestShaderModel : D3D12_SHADER_MODEL_5_1 (0x0051)
WaveOps : 1
WaveLaneCountMin : 64
WaveLaneCountMax : 64
TotalLaneCount : 3584
ExpandedComputeResourceStates : 1
Int64ShaderOps : 1
RootSignature.HighestVersion : D3D_ROOT_SIGNATURE_VERSION_1_1 (2)
DepthBoundsTestSupported : 1
ProgrammableSamplePositionsTier : D3D12_PROGRAMMABLE_SAMPLE_POSITIONS_TIER_NOT_SUPPORTED (0)
ShaderCache.SupportFlags : D3D12_SHADER_CACHE_SUPPORT_SINGLE_PSO | LIBRARY (3)
Vega FE:

https://forum.beyond3d.com/posts/1990730/

#Vega FE
Windows 10 version 1703 (build 15063)

ADAPTER 0
"Radeon Vega Frontier Edition"
VEN_1002, DEV_6863, SUBSYS_6B761002, REV_00
Dedicated video memory : 4211945472 bytes
Total video memory : 4193810432 bytes
Video driver version : 22.19.384.2
Maximum feature level : D3D_FEATURE_LEVEL_12_1 (0xc100)
DoublePrecisionFloatShaderOps : 1
OutputMergerLogicOp : 1
MinPrecisionSupport : D3D12_SHADER_MIN_PRECISION_SUPPORT_16_BIT (2)
TiledResourcesTier : D3D12_TILED_RESOURCES_TIER_3 (3)
ResourceBindingTier : D3D12_RESOURCE_BINDING_TIER_3 (3)
PSSpecifiedStencilRefSupported : 1
TypedUAVLoadAdditionalFormats : 1
ROVsSupported : 1
ConservativeRasterizationTier : D3D12_CONSERVATIVE_RASTERIZATION_TIER_3 (3)
StandardSwizzle64KBSupported : 0
CrossNodeSharingTier : D3D12_CROSS_NODE_SHARING_TIER_NOT_SUPPORTED (0)
CrossAdapterRowMajorTextureSupported : 0
VPAndRTArrayIndexFromAnyShaderFeedingRasterizerSupportedWithoutGSEmulation : 1
ResourceHeapTier : D3D12_RESOURCE_HEAP_TIER_2 (2)
MaxGPUVirtualAddressBitsPerResource : 44
MaxGPUVirtualAddressBitsPerProcess : 44
Adapter Node 0: TileBasedRenderer: 0, UMA: 0, CacheCoherentUMA: 0, IsolatedMMU: 1
HighestShaderModel : D3D12_SHADER_MODEL_5_1 (0x0051)
WaveOps : 1
WaveLaneCountMin : 64
WaveLaneCountMax : 64
TotalLaneCount : 4096
ExpandedComputeResourceStates : 1
Int64ShaderOps : 1
RootSignature.HighestVersion : D3D_ROOT_SIGNATURE_VERSION_1_1 (2)
DepthBoundsTestSupported : 1
ProgrammableSamplePositionsTier : D3D12_PROGRAMMABLE_SAMPLE_POSITIONS_TIER_NOT_SUPPORTED (0)
ShaderCache.SupportFlags : D3D12_SHADER_CACHE_SUPPORT_SINGLE_PSO | LIBRARY (3)
Differences:

Maximum Feature Level: D3D_FEATURE_LEVEL_12_0 (0xc000) increased to D3D_FEATURE_LEVEL_12_1 (0xc100)
MinPrecisionSupport : D3D12_SHADER_MIN_PRECISION_SUPPORT_NONE (0) increased to D3D12_SHADER_MIN_PRECISION_SUPPORT_16_BIT (2) (there was some talk about this might be a bug in the detection)
TiledResourcesTier : D3D12_TILED_RESOURCES_TIER_2 (2) increased to D3D12_TILED_RESOURCES_TIER_3 (3)
ROVsSupported : False -> True
ConservativeRasterizationTier : D3D12_CONSERVATIVE_RASTERIZATION_TIER_NOT_SUPPORTED (0) added as D3D12_CONSERVATIVE_RASTERIZATION_TIER_3 (3) (Pascal is Tier 2? Massive jump here)

MaxGPUVirtualAddressBitsPerResource : 40 -> 44 (this might be due to cut Fury air chip?)
MaxGPUVirtualAddressBitsPerProcess : 40 -> 44 (this might be due to cut Fury air chip?)
TotalLaneCount : 3584 -> 4096 (this is the number of cores, so different because mine is the fury air not fury X)

reaperrr
2017-07-06, 14:46:10
Wenn der Preis stimmt, werden die Miner die Karte wohl nicht in Ruhe lassen :freak:
MH/s pro Watt werden den P10-Karten nach derzeitigem Stand wohl klar unterlegen sein, also bleiben die Polaris-Karten selbst zu überteuerten Preisen die bessere Wahl.

Es sei denn natürlich, die betreffenden Personen wohnen noch bei Mami und müssen den Strom nicht bezahlen weil die Eltern gar nicht ahnen, was Söhnchen da genau treibt, was ich für ein gar nicht so abwegiges Szenario halte :freak: ;D
Dann stehen natürlich die MH/s pro $/€ im Vordergrund. Wobei, vielleicht werden die Karten auch noch fremdfinanziert, dann ist außer MH/s alles egal :freak:

Stullen Andi
2017-07-06, 14:47:51
...Es sei denn natürlich, die betreffenden Personen wohnen noch bei Mami und müssen den Strom nicht bezahlen weil die Eltern gar nicht ahnen, was Söhnchen da genau treibt, was ich für ein gar nicht so abwegiges Szenario halte :freak: ;D...

So einem habe ich die Tage ne Dual 1366 Plattform verkauft, natürlich zum minen xD

fondness
2017-07-06, 14:51:41
Ausm beyond (https://forum.beyond3d.com/posts/1990840/) geklaut:


Okay, bestätigt also die schon erwähnten D3D12_1 "top tier for everything". Technologisch ist der Chip also top of the hill.

Dural
2017-07-06, 15:04:58
Das war doch schon lange klar.

Complicated
2017-07-06, 15:16:04
Es sei denn natürlich, die betreffenden Personen wohnen noch bei Mami und müssen den Strom nicht bezahlen weil die Eltern gar nicht ahnen, was Söhnchen da genau treibt, was ich für ein gar nicht so abwegiges Szenario halte :freak: ;D
Unterschätze nicht die Verbreitung von Solar-Installationen bei Eigenheimen. Da sind viele die nicht mehr auf Stromkosten schauen müssen.

Sven77
2017-07-06, 15:18:20
Ich denke das habe ich bereits getan mit dem Link zu Anandtech. Peinlich ist eher, dass du das zwei Beiträge später schon vergessen hast.

Dann lies dir das doch nochmal genau durch.. vielleicht auch ein paar Kommentare. SSG ist nichts anderes als eine schnelle Storage-Lösung die man auch ganz losgelöst von einer Grafikkarte realisieren kann.. was das mit VRAM zu tun hat weisst wahrscheinlich nur du. Das ist nix anderes als ne schnelle Platte auf ner Grafikkarte (warum auch immer)..

pilzsammler2002
2017-07-06, 15:19:57
:freak::freak::freak::freak::freak::freak:

Weil die Karte die SSD als VRAM benutzt? ;D

Complicated
2017-07-06, 15:22:39
@Sven77
Wenn du aus der Branche bist, solltest du spätestens JETZT ein Update deiner technischen Hintergrundkenntnisse in deinem Beruf durchführen. Beantrage eine Schulung oder etwas entsprechendes. Es zeigt mal wieder, dass ein Anwender von Hardware/Software absolut nichts über deren Funktionsweise wissen muss und trotzdem seinen Beruf ausführen kann. So ist es ja auch gedacht. Doch nur weil du eine Tatstatur und Maus bedienst beim Video schneiden bist du nicht der Experte für die verwendete Hardware.

HBCC Funktionsweise und die Nutzung der SSD mittels direkter memory read/writes anstatt eines blockbasierenden Protokolls machen es möglich den direkt adressierbaren Speicherbreich bis 512 TB zu erweitern (Quasi 512 TB VRAM für die Software). Das ganze auf HDD/SSD oder auch Netzwerkspeicher im SAN. Kein kopieren mehr auf Platte, in den RAM oder in den VRAM. Das alles entfällt mit HBCC.

Sven77
2017-07-06, 15:25:59
Doch nur weil du eine Tatstatur und Maus bedienst beim Video schneiden bist du nicht der Experte für die verwendete Hardware.

Doch bin ich.. denn ich schneide nicht, ich kümmere mich um die Hardware und Infrastrktur. IO ist beim Videoschnitt alles.. lies dir deinen Artikel durch, vielleicht machts dann Klick.

Leonidas
2017-07-06, 18:09:01
Hat das schon wer gepostet:
http://www.gamersnexus.net/guides/2977-vega-fe-vs-fury-x-at-same-clocks-ipc


Benchmarks mal in Form gebracht und ausgewertet:
https://www.3dcenter.org/news/ipc-test-zur-radeon-vega-frontier-edition-zeigt-sehr-ineffektiven-vega-10-chip


.|Radeon R9 Fury X|Vega FE @ 1050 MHz|Vega FE @ Stock
Schnitt aus 4 Spielen & FS-Ultra|104,6%|100%|117,6%

Troyan
2017-07-06, 18:12:29
FE ist für andere Workloads gedacht, die 16GB sind da nicht für die Spieleperformance drauf. Du hast dich mit dem Thema scheinbar gar nicht beschäftigt, darauf wurde seitens AMD bereits sehr intensiv eingegangen.

So, Spiele werden nie mehr als 8GB an Daten in Zukunft benötigen? :rolleyes:


Wenn das workload insgesamt größer ist, muss wohl auch der cache größer sein, damit die performance stimmt.

8GB Cache -> 16GB Workloads (Spiel)
16GB Cache -> 32GB Workloads (professionelle Anwendung)

Ich weiß, höhere Mathematik, schwierig zu verstehen.


Erkläre dann mal folgendes:
Die CPU kann 256TB an Daten adressieren. Wieso spielt es dann eine Rolle, ob Vega nun 8GB oder 16GB an HBM2 hat?
Der Großteil der Daten liegt also nicht im VRAM sondern auf einem extern angeschlossenen Datenbestand.

Das Problem hier ist, dass Leute wie du nicht wissen, was die Implikationen aus dem Datentransfer über eine Schnittstelle wie PCIe sind.

So schwer kann es nun wirklich nicht sein, eine technische Erklärung zu liefern, wieso man mehr als 8GB (oder 4 oder 2 oder 1) auf der Karte benötigen würde, wenn man mit HBCC sowieso das über 100fache im kompletten System adressieren könnte...

Cyphermaster
2017-07-06, 19:01:35
So schwer kann es nun wirklich nicht sein, eine technische Erklärung zu liefern, wieso man mehr als 8GB (oder 4 oder 2 oder 1) auf der Karte benötigen würde, wenn man mit HBCC sowieso das über 100fache im kompletten System adressieren könnte...
Hm. Könnte es vielleicht einen Unterschied machen, wie breit/schnell die Anbindung der jeweiligen möglichen Adressen ist, aus denen man die Daten holen muß? :uponder:

Mangel76
2017-07-06, 19:03:31
So, Spiele werden nie mehr als 8GB an Daten in Zukunft benötigen? :rolleyes:



Erkläre dann mal folgendes:
Die CPU kann 256TB an Daten adressieren. Wieso spielt es dann eine Rolle, ob Vega nun 8GB oder 16GB an HBM2 hat?
Der Großteil der Daten liegt also nicht im VRAM sondern auf einem extern angeschlossenen Datenbestand.

Das Problem hier ist, dass Leute wie du nicht wissen, was die Implikationen aus dem Datentransfer über eine Schnittstelle wie PCIe sind.

So schwer kann es nun wirklich nicht sein, eine technische Erklärung zu liefern, wieso man mehr als 8GB (oder 4 oder 2 oder 1) auf der Karte benötigen würde, wenn man mit HBCC sowieso das über 100fache im kompletten System adressieren könnte...
Wieso ist das so schwer zu verstehen? Wenn ich einen Datensatz zur Analyse in meinen RAM lade, sollte der entsprechend groß sein. Habe ich zu wenig für den gesamten Datensatz, so wird auf die Festplatte ausgelagert, was massiv Perfomance kostet.

Bei Vega stell ich es mir ähnlich vor. Spiele brauchen nie alle Texturen zu selben Zeit, ergo reichen wohl 8GB. Für andere Szenarios ist dann ein großer HBC dann vielleicht doch besser, da mehr Daten zur gleichen Zeit gebraucht werden.

decimad2
2017-07-06, 19:52:35
Ich denke das hängt hauptsächlich davon ab, wieviele Frames man pro Sekunde darstellen möchte, was die Speicherbandbreite zusammen mit der Framerate als Datenbestand pro Frame zulässt (HBC -> GPU -> HBC) und wie schnell man sich durch die Welt bewegen kann (RAM -> HBC). Wobei man das Akronym HBC nun nach belieben durch VRAM ersetzen darf, außer dass HBC das ausdrückt, was moderne Engines sowieso alle schon umsetzen: Reaktiv aus dem RAM/Festplatte lesen, falls etwas nicht im VRAM liegt.
Moderne Engines streamen ja eigentlich doch alle reaktiv Texturen, oder nicht? Also schauen ob eine Textur da ist, in der richtigen Auflösung etc.. ansonsten wird nachgeladen, ergo ergeben sich da Zeitversätze. Im Gegensatz zu Engines wie Doom wird das meist aber doch etwas grober durchgeführt mit mehr Texturwiederholungen, weshalb "normale" Engines eine größere Umgebung der erlebbaren Welt vorcachen können und der Prozess nicht gar so sehr auffällt.
Nun hat es mit der virtuellen Adressierung des RAM durch die GPU vielleicht einfach wesentlich weniger Latenz, als würde die Applikation oder der Treiber ständig Pollen, ob etwas nachgeladen werden muss. Ergo findet der traditionelle "langsame Regelkreis" zwischen Applikation und dem erweiterten Videospeicher statt und das, bei dem es stark auf geringe Latenz ankommt, macht dann die GPU direkt mit der virtuellen Addressierung über PCIe. Kostet natürlich mehr Hauptspeicher, wenn ich das richtig verstehe, sollte aber das Streaming optimieren.

Mir fällt es zumindest nicht schwer vorzustellen, dass die GPU einen kürzeren Draht hat, um reaktives Streaming durchzuführen als die Applikation. Wahrscheinlich fallen so auch weniger Roundtrips der Kommunikation über PCIe an und der Treiber muss der GPU nicht signalisieren wo was hinkopiert wurde, weil die GPU den Speicher selbst verwalten kann mit dem Cache-Controller. Will meinen die logischen Textur-Adressen ändern sich ja nicht, egal wo sie nun liegen, das heißt an den Ressourcen-Objekten der APIs, die meinem Verständnis nach irgendwie ja speichern müssen, wo die Ressource nun eigentlich gerade liegt, muss überhaupt nicht mehr herumgepfuscht werden während des Prozesses des Cachings.

Dies meine unzusammenhängender Gedankenwust :P

Complicated
2017-07-06, 20:05:01
Es kostet überhaupt nicht mehr Hauptspeicher. Das was du beschrieben hast ist das Verhalten der Fury mit HBM. Genau analysiert hat es mal HardOCP hier:
https://www.hardocp.com/article/2016/02/29/rise_tomb_raider_graphics_features_performance/13
The AMD Radeon R9 Fury X VRAM behavior does make sense though if you look toward the dynamic VRAM. It seems the onboard dedicated VRAM was mostly pegged at or near its 4GB of capacity. Then it seems the video card is able to shift its memory load out to system RAM, by as much as almost 4GB at 4K with 4X SSAA. If you combine the dynamic VRAM plus the on board 4GB of VRAM the numbers come out to equal numbers much higher than the AMD Radeon R9 390X and closer to what the GeForce GTX 980 Ti achieved in terms of dedicated VRAM.
Da ist HBCC noch gar nicht im Einsatz. Was durch HBCC erweitert wird ist die Möglichkeit der direkten memory read/writes auf die SSD oder auf Netzwerkspeicher, so dass das Vorladen in den System RAM entfällt. Hier wird man aber darauf warten müssen wie AMD das genau gelöst hat.

decimad2
2017-07-06, 20:06:58
Wobei, wenn ich mal die Gedanken so weiter spinne, wäre es dann ja clever, wenn die Texturen schon im Hauptspeicher "blockweise" vorliegen würden, in quadratischen/rechteckigen Blöcken so groß wie die Cache-Granularität des HBCC. Diese "Blockierung" müsste nun die CPU übernehmen, wo das traditionell die Memory-Transfer-Einheiten der GPU übernehmen mussten, oder nicht? Regnet es da jetzt bald neue Texturformate? :D

Korvaun
2017-07-06, 20:10:46
Das sich hier immer noch Leute die Karte im aktuellen Zustand schönreden ist echt putzig. Das Ding ist mit viel wohlwollen ne Betaversion (insbesondere die Treiber). Ich frag mich welcher Spieleentwickler jetzt mit dem Ding entwickeln soll, wenn er nicht weiß ob der "game-mode" wenigstens grob die endgültige Performance zeigt und und ob alle angekündigten VEGA-Features laufen (für Engine-Optimierung und so...). Ist doch einfach nur noch lächerlich was AMD da veranstaltet mit VEGA-FE. Sollen sie halt sagen was Sache ist. In 3 Wochen wissen es eh alle, wenn bis jetzt intern die Treiber nicht einigermaßen laufen wird das eh nix mit Anfang August, dann rechne ich eher mit September... wenns gut läuft :(

decimad2
2017-07-06, 20:12:18
Na ich kann nicht beurteilen, wieviel Speicher "normale" Treiber so allozieren, aber dieser Fiji-Treiber wird dann ja eher 8 GB im RAM vorhalten bei 4 GB VRAM für 8GB virtuellen VRAM, wo ein normaler auch im RAM eher maximal 4 GB belegte, weil sich die Applikation an der rückgemeldeten Größe orientierte? Aber das ist nur aus der Hüfte geschossen.

Bei Fiji war diese Verwaltung aber noch Aufgabe des Treibers, statt einer Hardware-Einheit in der GPU, oder? Also Push-Caching anstatt Pull-Caching. Ansonsten würde ich jetzt nicht verstehen, was da der Fortschritt von VEGA mit dem HBCC noch sein sollte?!
Will meinen, spätestens wenn von der Festplatte "durchgelesen" wird, ist ja eh Software mit im Spiel, das ist kein großes Wunder imho, es lauffähig zu machen. Da reserviert man sich soundsoviel Speicher und sorgt dann mit Page-Faults und Lese-Handlern irgendwie dafür, dass der Kram gelesen wird. Für's Gaming ist wohl eher interessant, möglichst ohne Software-Intervention direkt in's RAM durchzulesen. Und da denke ich, dass das beim Fiji noch ausschließlich im Treiber stattfand und deshalb eben mehr aufgehalten hat, als es nötig wäre.

Hübie
2017-07-06, 20:40:07
Es kostet überhaupt nicht mehr Hauptspeicher. Das was du beschrieben hast ist das Verhalten der Fury mit HBM. Genau analysiert hat es mal HardOCP hier:
https://www.hardocp.com/article/2016/02/29/rise_tomb_raider_graphics_features_performance/13

Da ist HBCC noch gar nicht im Einsatz. Was durch HBCC erweitert wird ist die Möglichkeit der direkten memory read/writes auf die SSD oder auf Netzwerkspeicher, so dass das Vorladen in den System RAM entfällt. Hier wird man aber darauf warten müssen wie AMD das genau gelöst hat.

Keine Ahnung wie akutell das noch ist, aber mit einer 980 Ti hat man immer um die 16 GB in RotTR belegt (6 GB VRAM, 10 GB DRAM). Ist wohl eine Eigenart der Engine an sich (im positiven Sinne). Das dürfte mit einem HBCC dann wegfallen, da es unabhängig von der Software ist, wenn es denn so kommt wie vermutet. 100%ig ist da ja noch nichts oder hab ich das verpasst?

Troyan
2017-07-06, 20:50:06
Wobei, wenn ich mal die Gedanken so weiter spinne, wäre es dann ja clever, wenn die Texturen schon im Hauptspeicher "blockweise" vorliegen würden, in quadratischen/rechteckigen Blöcken so groß wie die Cache-Granularität des HBCC. Diese "Blockierung" müsste nun die CPU übernehmen, wo das traditionell die Memory-Transfer-Einheiten der GPU übernehmen mussten, oder nicht? Regnet es da jetzt bald neue Texturformate? :D

Die werden schon immer in den Hauptspeicher geladen, weil es der schnellste Weg ist Daten on the fly zur GPU zu bekommen.

Complicated
2017-07-06, 20:52:41
Der Link zeigt doch ganz deutlich dass die 980 Ti 6 GB VRAM genutzt hat und keinen dynamischen RAM. Ausschließlich die Fury nutzt diesen im Test. Wenn du eine Quelle hast wo diese 10 GB DRAM bei der 980 Ti belegt sind bin ich sehr interessiert daran.
On the GeForce GTX 980 Ti it seems to reach its maximum VRAM usage pegging the 6GB of onboard VRAM simply at 1440p with "Very High" textures. So of course enabling 2X SSAA or 4X SSAA just keep it pegged at 6GB of usage. However, turning it down to "High" textures free up VRAM down to 3.4GB at 1440p with No AA. Then enabling 2X SSAA brings it up to 3.7GB and 4X SSAA brings it up to 4.2GB, still under its 6GB maximum.
Die werden schon immer in den Hauptspeicher geladen, weil es der schnellste Weg ist Daten on the fly zur GPU zu bekommen.
Nein werden sie nicht. Was verstehst du nicht bei direct memory read/write auf SSD/SAN nicht?
Du kapierst immer noch nicht was der gemeinsam genutzte Speicher für Auswirkungen hat, da du immer noch denkst das funktioniert wie bei Nvidia.

Ein Cache ist ein Cache.

decimad2
2017-07-06, 21:04:12
Ja klar liegen sie sowieso im RAM, aber das Format in dem sie im RAM liegen ist nicht so wichtig, da die GPU das beim Nachladen ja im Speicher umbauen kann. Aber wenn der Cache-Controller der GPU nun einen "Cache-Block" aus dem Speicher nachladen möchte, würde er, wenn die Daten im RAM so liegen, wie man am API-Level die Texturdaten überträgt, ja mehr oder weniger nur eine oder einige wenige Zeilen der Textur bekommen. Dabei stelle ich mir vor, dass die GPU intern lieber mit echten Textur-Blöcken (Also bspw. ein 64x64-Ausschnitt einer größeren Textur) arbeitet, zwecks Datenlokalität. Also müssten die Texturen schon im GPU-freundlichen Format im Speicher liegen, wofür dann ja der Treiber auf der CPU beim Laden der Textur-Daten sorgen müsste anstatt eine Memory-Transfer-Unit auf der GPU?
Stelle ich mir das falsch vor?

Cyphermaster
2017-07-06, 21:07:14
Ich frag mich welcher Spieleentwickler jetzt mit dem Ding entwickeln soll, wenn er nicht weiß ob der "game-mode" wenigstens grob die endgültige Performance zeigt und und ob alle angekündigten VEGA-Features laufen (für Engine-Optimierung und so...).Also bei dem Satz aus deinem Posting gehe ich nicht mit. 10% Performance hin oder her ist beim Entwickeln egal, solange das Verhalten konsistent ist (d.h. der Vergleich vorher-nachher aussagekräftig). Und was die für Engine-Optimierung notwendigen Featurelevel angeht, sind die doch implementiert - TBR ist nichts, worauf man eine Engine hin optimieren müßte.

decimad2
2017-07-06, 21:15:18
@Complicated: Ich stelle mir das schwierig vor, dass die GPU ohne Software-Intervention auf eine SSD zugreifen kann, deren Controller NICHT direkt an den GPU-Bus angeschlossen ist, sondern im Mainboard-Chipsatz verbaut ist.
Oder bieten moderne Plattformen schon in Hardware an, dass SATA-Controller und die daranhängenden Speichermedien auf System-Bus-Level in den Speicherbereich gemapped sind?!

Troyan
2017-07-06, 21:16:42
Nein werden sie nicht. Was verstehst du nicht bei direct memory read/write auf SSD/SAN nicht?
Du kapierst immer noch nicht was der gemeinsam genutzte Speicher für Auswirkungen hat, da du immer noch denkst das funktioniert wie bei Nvidia.

Ein Cache ist ein Cache.

Erkläre doch mal die Auswirkungen, wenn anstelle von 484GB/s oder 16GB/s Daten mit 100MB/s aus einer Magnetplatte gelesen wird und wieso dieses Vorgehen besser wäre.

Gleichzeitig stelle doch technisch bitte dar, wie der HBCC Daten von der Magnetfestplatte auf eine SSD/SAN Platte verschieben könnte.

Complicated
2017-07-06, 21:18:12
@decimad
Das ermöglicht CCIX/GenZ, was wohl der HBCC enthält. Das besagen zumindest die gemeinsamen Eigenschaften. Schau mal hier im Thread einige dutzend Seiten weiter vorne wo das ausführlich besprochen wurde mit vielen Quellen und Zitaten.

@Troyan
Das selbe Prinzip wie der Cache eine CPU beschleunigt. Entferne den L2 Cache einer CPU und schau dann mal.
Das Basiswisen kannst du dir selber aneignen - solltest du auch um das endlich mal zu verstehen. Das hat man dir in diesem Thread nun mehrfach schon mitgeteilt.

decimad2
2017-07-06, 21:25:59
Da glaube ich erst dran, wenn SATA-Controller CCIX unterstützen und dann stelle ich mir das schwierig vor, da die GPU ja nicht weiß, welches Datenformat das Betriebssystem auf der SSD abgelegt hat... Das müsste dann ja eine zumindest teilweise dedizierte SSD sein oder ein Dateisystem-Treiber auf der GPU laufen Oo. Unmöglich natürlich nicht... Aber irgendwie klingt es komisch, das ganze System so aufzubauen, dass die Grafikkarte direkt auf einer SSD lesen kann... und selbst dann sind die Leseraten mit sagen wir mal einem GB/s nicht so groß, dass ein Zwischenstopp in Software/Treiber der übermäßig limitierende Faktor wäre, der interaktive Frameraten verhinden würde.

Thunder99
2017-07-06, 21:27:03
Bin echt mal gespannt auf den Launch mit hoffentlich fertigen Treiber. Dann sehen wir das volle Potential von Vega.

Der Leak ist ja nicht so rosig :(

decimad2
2017-07-06, 21:28:08
Wohlgemerkt, wenn der SSD-Controller am System hängt, nicht direkt an der GPU und dort quasi als linear addressiertes RAM fungieren kann.

Complicated
2017-07-06, 21:28:10
@decimad:
hier wurde das im Thread thematisiert https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11385460#post11385460
Es geht einige Seiten lang mit einigen Abschweifungen.

Edit: Hier zum CCIX
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11386632#post11386632

decimad2
2017-07-06, 21:41:03
Ich habe auf den ersten 4 Seiten keinen Beleg dafür gesehen, dass CCIX mehr erlauben sollte, als eben von der GPU direkt in den Speicherbereich des Host-Systems zu greifen. SATA/NVM bringst dort eigentlich nur Du in's Spiel oder? Dass man letztere natürlich in den System-Speicher mappen kann und dann per Page-Fault im Treiber abhandeln kann ist natürlich gesetzt. Aber dass die GPU einfach mal flux an der CPU vorbei den Welt-Adressraum über TCP/IP ansprechen kann, halte ich doch für eine gewagte Theorie.

Complicated
2017-07-06, 21:47:44
Seufz....lies den Thread und dann kannst du deine Zweifel anbringen. Aber das ganze muss doch hier nicht noch einmal durch gekaut werden. Vor allem ist es keine Theorie wenn AMD das als Feature auf den Folien zu Vega ausführt und den HBCC mit NVM/SATA/Networkstorage kompatibel beschreibt.
Aus diesem Beitrag:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11385881#post11385881

http://www.heise.de/imgs/18/2/1/1/1/0/7/8/GPU-76f6e980cfc7a64f.png

LadyWhirlwind
2017-07-06, 21:56:23
Seufz....lies den Thread und dann kannst du deine Zweifel anbringen. Aber das ganze muss doch hier nicht noch einmal durch gekaut werden. Vor allem ist es keine Theorie wenn AMD das als Feature auf den Folien zu Vega ausführt und den HBCC mit NVM/SATA/Networkstorage kompatibel beschreibt.
Aus diesem Beitrag:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11385881#post11385881

http://www.heise.de/imgs/18/2/1/1/1/0/7/8/GPU-76f6e980cfc7a64f.png

Wenn man mal darüber nachdenkt, ist es auch eine logische Weiterentwicklung. Es wird mit immer mehr Daten gearbeitet, da macht es durchaus Sinn, wenn man das Datenhandling vereinfacht.

decimad2
2017-07-06, 21:56:47
Da steht doch aber nicht, wie das umgesetzt ist, sondern nur dass es eine Möglichkeit gibt, darauf zuzugreifen!
Wenn die einen speziellen Controller auf der Grafikkarte selbst an den GPU-Adressbus anbindet (der sich beispielsweise als linear adressierbarer Speicher darstelt und parallel angebunden ist wie sonstiger Speicher auch) hat man doch ganz andere Möglichkeiten. So bin ich der Meinung, haben sie es für die Demo da gemacht.
Aber die Folie schließt nicht aus, dass dort nicht für bspw. "Network Storage" noch die CPU dazwischengehen muss. Ich deute daraus nur, dass der HBCC von sich aus den Transfer anstoßen kann (eben über memory-mapping), ohne den Grafikkarten-Treiber lieb darum bitten zu müssen. Ein Hop weniger gewissermaßen.

Complicated
2017-07-06, 22:04:11
Nein AMD schreibt von direkten memory read/writes auf den Storages ohne blockbasierten Datenverkehr. Daher ist es auch der Speichercontroller der hier schreibt und liest.
Es ist KEIN memory mapping. Es ist Cache im gemeinsamem kohärentem Adressraum der bis zu 512 TB groß sein kann.
https://www.extremetech.com/extreme/242122-amd-releases-new-details-new-gpu-architecture-codename-vega0

gravitationsfeld
2017-07-06, 22:05:47
Das Problem ist ja das sämtliche Texturen zurzeit in normaler Größe Abgelegt werden.
Jede AAA-Engine hat einen Texture-Streamer, der Texel-Dichte und Entfernung natuerlich berucksichtigt.

decimad2
2017-07-06, 22:22:35
Nein AMD schreibt von direkten memory read/writes auf den Storages ohne blockbasierten Datenverkehr. Daher ist es auch der Speichercontroller der hier schreibt und liest.
Es ist KEIN memory mapping. Es ist Cache im gemeinsamem kohärentem Adressraum der bis zu 512 TB groß sein kann.
https://www.extremetech.com/extreme/242122-amd-releases-new-details-new-gpu-architecture-codename-vega0

Also entweder mein Englisch lässt es nicht zu, oder da steht eigentlich überhaupt nichts, außer dass Vega Speicher eben mit 49-Bit-Adressen adressieren kann, wenn ich mich jetzt nicht verrechnet habe. Damit hat man noch etwas mehr Luft als es die gegenwärtigen x64-Implementierungen zulassen.
Und ansonsten lese ich da, dass eben kleine Daten-Blöcke übertragen werden können (wenn der Treiber solch kleine Transfers anstoßen würde, gäbe das entsprechend größeren Overhead auf der CPU und vielleicht ist PCIe auch nicht gut für kleinere Transfers ausgelegt, weiß ich nicht).
Auf jeden Fall lese ich dort nicht, was Du mir gerade belegen möchtest.

Iruwen
2017-07-06, 22:25:43
Eine FE mit voller Spieleleistung hatte den Release der gaming Vega doch sinnlos gemacht.

Du meinst wie bei Titan und 1080 Ti? :rolleyes:

Complicated
2017-07-06, 22:28:18
Auf jeden Fall lese ich dort nicht, was Du mir gerade belegen möchtest.Nein das liest du hier im Thread wenn du die 100 Seiten zurück gehst wie ich verlinkt habe - ich bin sicher das hast du noch nicht getan.

Digidi
2017-07-06, 22:31:34
Man beachte den Autor
https://www.imgtec.com/blog/a-look-at-the-powervr-graphics-architecture-tile-based-rendering/

decimad2
2017-07-06, 22:34:01
Nein das liest du hier im Thread wenn du die 100 Seiten zurück gehst wie ich verlinkt habe - ich bin sicher das hast du noch nicht getan.
Ich bin Deinem Link gefolgt und habe ab der Stelle alle Posts über die nächsten 4 Seiten durchgelesen. Die einzigen Kommentare, die in die Richtung gehen, über die wir uns gerade unterhalten, kamen in diesem Seiten-Intervall von Dir selber und dort ohne Beleg.

Complicated
2017-07-06, 22:42:34
Und jetzt liest du die nächsten 50 Seiten wo das andere steht -soll ich das alles hier erneut wiederholen? Das ist ein Forum und kein Chat, sorry.

Hübie
2017-07-06, 23:30:18
Der Link zeigt doch ganz deutlich dass die 980 Ti 6 GB VRAM genutzt hat und keinen dynamischen RAM. Ausschließlich die Fury nutzt diesen im Test. Wenn du eine Quelle hast wo diese 10 GB DRAM bei der 980 Ti belegt sind bin ich sehr interessiert daran.


Nein werden sie nicht. Was verstehst du nicht bei direct memory read/write auf SSD/SAN nicht?
Du kapierst immer noch nicht was der gemeinsam genutzte Speicher für Auswirkungen hat, da du immer noch denkst das funktioniert wie bei Nvidia.

Ein Cache ist ein Cache.

Ich kann dir einen screenshot machen. Warte.

decimad2
2017-07-06, 23:35:26
Und jetzt liest du die nächsten 50 Seiten wo das andere steht -soll ich das alles hier erneut wiederholen? Das ist ein Forum und kein Chat, sorry.

Ja naja, warum hast Du denn nicht gleich auf den relevanten Post gezeigt, der einen Beleg dafür enthält, dass AMD sagte, dass der HBCC an der CPU vorbei auf SSDs zugreifen kann, die am Chipsatz hängen, wenn Du mir überhaupt schon einen Link gibst? Das wirft doch schon dramatische Datenschutzprobleme auf, mal von der technischen Realisierbarkeit abgesehen. Jetzt muss ich mich durch 50 Seiten wühlen...

Locuza
2017-07-06, 23:36:03
Man beachte den Autor
https://www.imgtec.com/blog/a-look-at-the-powervr-graphics-architecture-tile-based-rendering/
Rys Sommefeldt (Auch Gründer von Beyond3D), ist von Imagination zu AMD im März/April 2017 gewechselt.
Zwar hat er bezüglich des Hardware-Design nichts am Hut gehabt, aber möglicherweise kommt seit Expertise schon bei der Software ein wenig an.
Zu hoffen wäre es.

Hübie
2017-07-06, 23:39:13
Bitte:

https://abload.de/thumb/rottr_usagedps8n.png (http://abload.de/image.php?img=rottr_usagedps8n.png)

Das füllt sich dann und kommt auf ca. 16 GB insgesamt. Glaube früher war das immer 14,5 GB. Ist echt gut dass so viele Resourcen genutzt werden. Die Engine ist echt gut. :up:

yamamoto_dc
2017-07-06, 23:46:55
Offensichtlich will AMD die finalen Treiber so spät wie möglich breit streuen.

Also entweder VEGA wird wirklich einer der größten Flops, den AMD jemals produziert hat, oder die Firma pokert und spielt gerade den größten Bluff in seiner Geschichte.

dildo4u
2017-07-06, 23:55:19
2x8Pin hat schon vor Monaten gezeigt das Panik da ist,niemand reduziert freiwillig die Kompatibilität für OEM's.

http://www.pcgameshardware.de/Vega-Codename-265481/Specials/AMD-Radeon-Vega-Frontier-Edition-1228115/

Linmoum
2017-07-07, 00:12:41
Die Karte zieht rund +-280W, ist also meilenweit von deinen 2x8-Pin und 375W entfernt. Und OEMs werden natürlich sterben, weil es 2x8 statt 6/8 sind. Hoffentlich kann sich die Branche davon erholen.

Locuza
2017-07-07, 00:43:20
Das ist korrekt. AVFS (Adaptive voltage & frequency scaling, seit Polaris) und ACG (neu mit Vega) sind im aktuell verfügbaren Treiber noch nicht richtig lauffähig bzw. letzteres sogar noch vollständig deaktiviert.
[...]
Halleluja, mal ein wenig Insiderstaub. (y)
Bekommt man auch gesagt, wofür die Abkürzung ACG steht?

Hübie
2017-07-07, 00:50:10
Advanced Clock Gating macht im dem Kontext Sinn. :D Mal so ins Blaue geraten.

Digidi
2017-07-07, 01:42:31
Jop, da hapert es auf jeden Fall an irgendwas. Andererseits zeigen die x64 Werte anscheinend, dass der primitive shader oder TBR doch laufen. Denn die unterscheiden sich zu stark von der Fury, als dass das deaktiviert sein könnte.
Schon Mal auf die Idee gekommen das es aktiviert ist aber sich die einzelnen Architektur Verbesserungen auch auf alte Features anwenden lassen.:biggrin:

24p
2017-07-07, 08:26:37
Die Karte zieht rund +-280W, ist also meilenweit von deinen 2x8-Pin und 375W entfernt. Und OEMs werden natürlich sterben, weil es 2x8 statt 6/8 sind. Hoffentlich kann sich die Branche davon erholen.

Eher 300W und da wäre es mit 6+8 zu knapp geworden.

dargo
2017-07-07, 08:50:20
Halleluja, mal ein wenig Insiderstaub. (y)

Oh man... in dem ganzen Müll der hier gepostet wird ist diese wichtige Info komplett untergegangen. :freak: Das dürfte dann auch erklären warum Vega FE in dem einen Test mit Metro teilweise deutlich unter die 1,6Ghz mit 100% PT gerutscht ist.

Gipsel
2017-07-07, 08:54:16
Falls weiter Bedarf besteht, die HBC-Geschichte im Detail zu diskutieren, bitte ich darum, einen entsprechenden Thread im Technologie-Forum zu eröffnen.