Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - VEGA (Vega10, Vega11, Vega12, Vega20) - 2017
Momentaufnahmen, die Grund zur Annahme haben, dass sich dahingehend etwas ändern kann und auch wird, sollte dann entsprechend als solches benannt werden.
Tut man das nicht, darf man sich nicht beschweren, wenn andere Quellen herangezogen werden - auch wenn diese der letzte Rotz sind.
Damit das nicht zu OT wird - AMD nannte ja, so wie CB es kurz erwähnte, dass via Treiber noch eine Menge rauszuholen ist.
Es stellt sich eigentlich nur noch die Frage, in welchem Ausmaß dies denn stattfindet.
Ungefähr der, den die Hawaiis betraf und auch in den selben Zeitraum - also über 1 Jahr ca...
oder mehr als Hawaii und in einem kürzeren Zeitraum (~Ende 2017) ...
Gerade wenn man sich an der Schwelle befindet, wo nun doch langsam immer mehr DX12/Vulkan auf den Markt aufschlägt, kann man sämtliche Benchmarks vorrangig als Momentaufnahme betrachten, da 2-3 Treiber und Patches dies wieder auf den Kopf stellen können. Insofern sollte man die Argumentation bei den Tests bzw. die Ergebnisse unter ganz anderen Blickpunkten betrachten und ins Fazit setzen, als es sonst üblich war, der eben dazu führte, dass etwaige Nachfragen überwiegend von den Schrottigen YTlern begutachtet wird - die Nachfrage ist schließlich da; und kommt auch nicht von ungefähr - die Frage ist nur eben, wieso liefert nicht der, der solche Nachfragen erst erzeugt nicht selbst?
Gorkon
2017-08-14, 00:25:58
Wen interessierts ob jemand hier Partner ist? Was hat das für einen Belang für die derzeitige Performance? Bei Doom machts doch auch nichts.:weg:
Es ist immer noch ein Unterschied, ob ein HW-Hersteller (egal ob nV, AMD oder Intel) einem Entwickler beim Optimieren hilft oder ob der Entwickler dies von alleine macht ;)
Jupiter
2017-08-14, 00:32:16
Doom ist eines wenn nicht das effizienteste und am besten optimierte Spiel und es performt anders als andere AAA Spiele sowohl auf Nvidia als auch auf AMD Karten abartig gut.
STAR WARS BATTLEFRONT auf Endor.
Sehr dichter und offener Wald, 40 Spieler, überall Explosionen, umfallende Bäume, Speederbikes, reichlich Tesselation und eine ähnliche Performance wie ein enges Spiel wie DOOM. Die id 6 kann da bei Performance/Optik nicht mithalten.
Eine GTX 1080 schafft in BATTLEFRONT 1800p problemlos in den höchsten Einstellungen bei 60fps. In anderen Karten ist sogar UHD/60fps drin. Wenn die id 6 bei Performance/Optik dahin kommen soll, muss Wolfenstein einen großen Sprung vorweisen. Mehr als 60fps in UHD auf einer GTX 1080.
Schaffe89
2017-08-14, 00:34:41
Gerade wenn man sich an der Schwelle befindet, wo nun doch langsam immer mehr DX12/Vulkan auf den Markt aufschlägt, kann man sämtliche Benchmarks vorrangig als Momentaufnahme betrachten, da 2-3 Treiber und Patches dies wieder auf den Kopf stellen können.
Die Schwelle muss aber ganz schön lange sein, denn von dem aufkeimenden Directx12/Vulkan redet man jetzt schon lange, aber die erscheinenden Directx12 und Vulkan Spiele kann man an zwei Händen abzählen, wobei meistens der Directx11 Pfad dann noch besser funktioniert.
Lazol
2017-08-14, 00:47:49
Nach sehr langem Gast-Lesen hab ich mir auch mal nen Account gemacht. Damit ich den kleinen Fehler eines Youtubers posten kann, der Slides über 25 Game Average vorher gepostet hatte.
Sind nur ein paar Stunden vor offiziellem Embargo-Lifting und die Bilder sind auch nicht soooo gut zu erkennen, aber wenn man hinschaut, deutets darauf hin, dass die RX Vega 56 quasi gleich schnell wie eine GTX 1070 ist.
Also wie erwartet.
Twitter-Post:
https://twitter.com/HardwareUnboxed/status/896852396394991616/photo/1
Foto: https://pbs.twimg.com/media/DHJCRPIUwAAylf6.jpg:large
(Und zur Not noch archive.is-Links, falls der Tweet gelöscht wird: Tweet (http://archive.is/opGLT) bzw.
Bild (http://archive.is/3ZFp0))
Schaffe89
2017-08-14, 01:04:25
Sieht genau danach aus und wenn man dann mal wichtige Spiele statt Doom und Konsorten testen würde, kommt Vega 64 wohl zwischen 1070 und GTX 1080 heraus.
Bin gespannt wie es in RUST, PUBG, ARK, Arma3, und Conan Exiles aussieht.
Nur wirds wohl keiner testen, weil angeblich uninteressant, aber Ausreißer wirds wohl nach unten und nach oben geben.
Rincewind
2017-08-14, 01:23:40
Die performance ändert sich täglich. Es macht einen unterschied mit wievielen Spielern du wo auf der map bist, ob vielleicht jemand ne smoke irgendwo in deiner Ecke gezündet hat, auf welchem teil der map du gerade bist und und und. Die matches sind völlig unvorhersehbar. Das ist nicht mal im Ansatz mit irgend einem anderen Spiel vergleichbar, dass ich bisher gespielt habe. Macht man irgendwelche hampeleien im squad am Arsch der Welt, dann hat das gar nichts mit der tatsächlichen performance während des regulären Spielens zu tun. Wer sich einbildet er könnte das reproduzierbar benchen, der hat das Spiel nicht wirklich gespielt.
ALLE Benches sind Momentaufnahmen und natürlich kann es sich dann nach diversen Updates anders darstellen, aber das ist bei jedem Spiel so.
Doom ist Best Case, so wie demnächst Wolfenstein 2. Dieses Spiel zeigt uns, was Vega so kann. PUBG ist dann mal Worst Case. PUBG wurde über 6(?) Mio. mal heruntergeladen und alleine deswegen sollte man es benchen, egal wie kacke es für die jeweilige Karte (nicht) optimiert wurde. Nur weil es nicht wirklich optimiert wurde kann man es doch nicht ignorieren.
y33H@
2017-08-14, 01:44:25
Sowas wie PUBG ist nur mit absurdem Zeitaufwand ansatzweise testbar, leider.
Bin übrigens nun fertig, gute Nacht :P
X-Bow
2017-08-14, 01:48:01
Releaste Grafikkarten mit releasten Spielen Benchen, ganz einfach. Da interessieren Rust, PUBG, ARK und CE ein feuchten und Arma 3 ist ein alter Schinken aus 2013, gähn...
Wenn Ihr Games wollte wo keiner der beide ihre Finger im Spiel hatten dann bleibt noch Stardew Valley, Gückwunsch.
Außerdem, die Redakteure haben extra Wochenenddienst geschoben um die Benches rechtzeitig fertig zu bekommen, dann kommt Ihr Sonntagnacht daher und stellt noch Vorderungen?!?
aufkrawall
2017-08-14, 02:07:15
Es ist immer noch ein Unterschied, ob ein HW-Hersteller (egal ob nV, AMD oder Intel) einem Entwickler beim Optimieren hilft oder ob der Entwickler dies von alleine macht ;)
Und was genau macht es für einen Unterschied? Baut Nvidia fremden, nicht abschaltbaren Code intransparent zwischen dem der Entwickler ein?
Und natürlich ist es Gang und Gäbe, dass HW-Hersteller Entwicklern helfen/Auskunft erteilen. Dazu brauchst du nur mal gravitationsfelds (id Software) Äußerungen zu Anfragen bei AMD lesen.
=Floi=
2017-08-14, 02:12:28
http://store.steampowered.com/stats/
PUBG ist zeitweise auf dem zweiten platz bei steam.
DOOM kommt in den top 100 nicht mehr vor...
genau hier liegt der erfolg bei NV und wieder auf die devs zu schimpfen halten ich einfach für falsch, weil hier AMD liefern muss. Die karten müssen überall gut sein. Das läuft bei amd schon die letzten 10 jahre so mies und dann muss man eben auch mal was an der architektur machen und bei den zickigen games/engines optimieren, damit alles sauber läuft.
http://store.steampowered.com/stats/
PUBG ist zeitweise auf dem zweiten platz bei steam.
DOOM kommt in den top 100 nicht mehr vor...
genau hier liegt der erfolg bei NV und wieder auf die devs zu schimpfen halten ich einfach für falsch, weil hier AMD liefern muss. Die karten müssen überall gut sein. Das läuft bei amd schon die letzten 10 jahre so mies und dann muss man eben auch mal was an der architektur machen und bei den zickigen games/engines optimieren, damit alles sauber läuft.
Bei einem Spiel, welches selbst in 4k aussieht wie ein Xbox360-Game und dabei schlechter läuft als z.B. C3 in 4k :rolleyes: - wobei es natürlich schon Spaß macht.
horn 12
2017-08-14, 07:18:49
https://www.timeanddate.com/countdown/generic?iso=20170814T08&p0=64&font=cursive
Test der RX 56, aber sollte wohl nicht ganz passen
Exakt +/- auf GTX 1070 Level:
https://videocardz.com/71953/are-these-radeon-rx-vega-56-benchmarks
Prototype der RX56 Custom (Powercolor?)
https://videocardz.com/71958/prototype-radeon-rx-vega-56-pictured-with-three-fans
Haha... wenn die günstiger ist als die Nano .... hat man den kleinen 56er Bruder in Nanogröße, anderen Kühler drauf, bingo :)
Skysnake
2017-08-14, 07:39:48
Sowas wie PUBG ist nur mit absurdem Zeitaufwand ansatzweise testbar, leider.
Bin übrigens nun fertig, gute Nacht :P
Bei solchen Problemen frage ich mich immer, warum die Entwickler der Presse keine abgetrennten Server mit bots bekommen
Warum so Umständlich?
Würde doch schon reichen, wenn die Internen Benchmarks mal genau das tun, was das Spiel für den Spieler auch tut, anstelle mit Wattebällchen um sich zu schmeißen, während im realen Spiel man Felsbrocken in die Fresse bekommt :D
dargo
2017-08-14, 07:55:13
Auf weniger Leistung...
Hör auf sonst bekommt horn noch einen Herzinfarkt. :tongue:
kann mal jeweils die relative Mehrleistung von 1070 zu 1080 mit vega 56 zu 64 vergleichen und dann wie viel davon noch auf die staße kommt?
Nicht ganz. Die GTX1080 hat gegenüber der GTX1070 33% mehr Shader und TMUs. ROPs bleiben gleich bei 64, genauso wie bei V10 Full vs. V10 Salvage. Die Speicherbandbreite ist bei GTX1080 25% höher als bei GTX1070. Wenn beide FEs jetzt in der Praxis unterschiedlich boosten kann es zu leichten Verschiebungen außerhalb der Bandbreite kommen.
Bei Vega64 vs. Vega56 sieht es etwas anderes aus. Erstere hat unter Berücksichtigung vom leicht höheren Takt beim typischen Boost und 14% mehr Shadereinheiten insgesamt 20% mehr Rohleistung und 18% mehr Bandbreite. Vega64 sollte somit prozentual weniger gegenüber Vega56 zulegen als GTX1080 vs. GTX1070. Ich tippe mal auf ca. +15%. Sicherlich wird es Fälle geben wo es minimal mehr und weniger ist.
ALLE Benches sind Momentaufnahmen und natürlich kann es sich dann nach diversen Updates anders darstellen, aber das ist bei jedem Spiel so.
Doom ist Best Case, so wie demnächst Wolfenstein 2.
Doom ist kein Best Case für Vega. Dafür fehlt mindestens Rapid Packed Math. Bei Wolfenstein 2 dürftest du recht haben.
Prototype der RX56 Custom (Powercolor?)
https://videocardz.com/71958/prototype-radeon-rx-vega-56-pictured-with-three-fans
Sieht zwar potthässlich aus. Dadurch, dass aber grob 40% beim Kühler offen ist dürfte das Ding sehr effektiv sein. Zumindest wenn Powercolor nicht an den HPs gespart hat.
vinacis_vivids
2017-08-14, 08:18:55
https://abload.de/img/bf164jzt.jpghttps://abload.de/img/metrol4s6a.jpg
Zergra
2017-08-14, 08:22:50
Die ist ja in UHD kaum schneller als eine Fury X?...
Linmoum
2017-08-14, 08:26:32
Wenn das nachher so kommt, ist Alpha-Stadium für die Software aber noch vier Etagen zu hoch gegriffen.
Und anstatt einzelner Bilder kann man auch gleich das komplette "Review" verlinken...
http://www.hwbattle.com/bbs/board.php?bo_table=hottopic&wr_id=7333&ckattempt=2
Welche CPU wurde da verwendet?
@Linmoum, danke ^^
Edit: Hahaha die nehmen da sogar den kleinen Würfel auseinander. (http://www.hwbattle.com/data/editor/1708/thumb-b6b4f6095944affde44975b3a8cd23c8_1502679057_5077_992x662.jpg) Das nenne ich mal Konsequent! :uup:
vinacis_vivids
2017-08-14, 08:29:05
https://abload.de/img/civ6iljua.jpghttps://abload.de/img/tcgc18jcg.jpg
https://abload.de/img/rotr1nsrg.jpghttps://abload.de/img/tf2r2srt.jpg
Achim_Anders
2017-08-14, 08:38:41
Nach den Slides sieht es noch schlechter aus als von mir befürchtet...
Loeschzwerg
2017-08-14, 08:42:17
Die Liquid ist ein derber Suffkopf :freak:
Naja, wirklich der Burner scheint die Sache nicht zu werden... ich kaufe trotzdem eine 64 Air wegen Alternativlosigkeit.
dildo4u
2017-08-14, 08:43:48
http://abload.de/img/b6b4f6095944affde4497k0aq2.jpg
http://abload.de/img/b6b4f6095944affde4497rbu4b.jpg
http://abload.de/img/b6b4f6095944affde4497dxuzp.jpg
http://www.hwbattle.com/bbs/board.php?bo_table=hottopic&wr_id=7333&ckattempt=2
Wenn das nachher so kommt, ist Alpha-Stadium für die Software aber noch vier Etagen zu hoch gegriffen.
Und anstatt einzelner Bilder kann man auch gleich das komplette "Review" verlinken...
http://www.hwbattle.com/bbs/board.php?bo_table=hottopic&wr_id=7333&ckattempt=2
Man lädt die Bilder extra hoch falls er das Review wieder offline nimmt das ist ja ein NDA Bruch.
dargo
2017-08-14, 08:49:20
Und anstatt einzelner Bilder kann man auch gleich das komplette "Review" verlinken...
http://www.hwbattle.com/bbs/board.php?bo_table=hottopic&wr_id=7333&ckattempt=2
Autsch... beim Stromverbrauch sieht es noch übler aus als ich erwartet hätte. Um in die 250W zu passen sollte man bei RX Vega64 wohl die ~1,3Ghz nicht überschreiten. :freak:
http://fs5.directupload.net/images/170814/a6dd8xou.jpg
Zergra
2017-08-14, 08:50:32
Mit einem bisschen UV bekommt man in die 250Watt bestimmt 1,5Ghz untergebracht.
Rancor
2017-08-14, 08:53:11
Bei einem Spiel, welches selbst in 4k aussieht wie ein Xbox360-Game und dabei schlechter läuft als z.B. C3 in 4k :rolleyes: - wobei es natürlich schon Spaß macht.
Polemik. Wenn man es auf Ultra stellt sieht es überhaupt nicht schlecht aus, sondern gut. Ansonsten doch eher etwas durchwachsen, aber es war zu erwarten. Mal sehen wie es in ein paar Monaten aussieht.
Die 1070 wird dann erstmal drinn bleiben
Linmoum
2017-08-14, 08:54:24
Erklärt jedenfalls, warum man die RX56-Reviews scheinbar auch schon heute mit dabei haben wollte. Autsch.
Schnoesel
2017-08-14, 08:59:40
Polemik. Wenn man es auf Ultra stellt sieht es überhaupt nicht schlecht aus, sondern gut
Sehe ich anders, das sieht selbst auf Ultra noch grottig aus im Vergleich zu anderen Spielen.
@Topic
Also die Leistung wäre ja noch halbwegs klar gegangen aber der Verbrauch Srsly? Ich warte noch auf die offiziellen Benches aber sollte es sich bewahrheiten überlege ich mir stark eine zuzulegen.
Joaa... wär mir jedenfalls neu, dass Wein gekocht in die Fässer kommt, zum reifen abkühlen.
dargo
2017-08-14, 09:03:59
Wenn das nachher so kommt, ist Alpha-Stadium für die Software aber noch vier Etagen zu hoch gegriffen.
Ich hoffe echt bei den Treibern tut sich noch einiges. Ansonsten wird das eine ziemlich schwache Vorstellung. Wenn ich den balanced Takt, ergo Standard betrachte liegt die RX Vega64 bei ca. 1450Mhz im Schnitt. Das wären knapp 11,9 TFLOPs und somit 38% mehr als bei der Fury X. Von den einzelnen Design Verbesserungen bei Vega sehe ich leider noch nichts.
Flusher
2017-08-14, 09:04:01
Autsch... beim Stromverbrauch sieht es noch übler aus als ich erwartet hätte. Um in die 250W zu passen sollte man bei RX Vega64 wohl die ~1,3Ghz nicht überschreiten. :freak:
http://fs5.directupload.net/images/170814/a6dd8xou.jpg
Ist das fürs Gesamtsystem oder nur die Karte selber?
So wie es aussieht, muss ich es nicht bereuen meine Nano im Januar gegen eine 1080 getauscht zu haben.
dildo4u
2017-08-14, 09:04:17
AMD lässt bei den RX Karten mehr Spielraum PCGH hat die Vega FE nur bei 260 Watt.
Ist das fürs Gesamtsystem oder nur die Karte selber?
Natürlich nur die Karte selbst die kleine Karte hat 2X 8 Pin.
Flusher
2017-08-14, 09:07:43
AMD lässt bei den RX Karten mehr Spielraum PCGH hat die Vega FE nur bei 260 Watt.
Natürlich nur die Karte selbst die kleine Karte hat 2X 8 Pin.
Im PowerSaving modus soll das Ding 245 W verbrauchen? Wenn das stimmt, dann kauft das doch kein Mensch.
1080 Performance bei +50 % Verbrauch ein Jahr später. :freak:
dildo4u
2017-08-14, 09:09:10
Deshalb will AMD die kleine Karte hervorheben.
http://abload.de/img/b6b4f6095944affde4497vejkd.jpg
dargo
2017-08-14, 09:09:41
Ist das fürs Gesamtsystem oder nur die Karte selber?
Nur die Karte... ansonsten kenne ich kein schnelles System mit knapp 19W Idleverbrauch. :D
AMD lässt bei den RX Karten mehr Spielraum PCGH hat die Vega FE nur bei 260 Watt.
Dann läuft die Vega FE bei der PCGH ins TT. Ohne TT-Limit liegt sie bei ca. 290W im Schnitt.
Kriton
2017-08-14, 09:12:11
Aber, dass das Durchschnittswerte der Karte sein sollen: 327,70 auf balanced in der Luftvariante?
Einfach nur, pervers :D
d.h. mein System würde dann grob 500W aus meinem Speicher nuckeln... dafür reicht die Sonne noch
Aber der Kühler, der dafür nötig ist, damit das leise bleibt, soviel Platz hab ich net.
Nene... passt schon. Xbone X ich komme. Mal sehen was 2018 kommt. Den Grünen Kobold geb ich kein Geld also dieses Jahr kein PC für mich :)
Grendizer
2017-08-14, 09:15:03
Autsch... beim Stromverbrauch sieht es noch übler aus als ich erwartet hätte. Um in die 250W zu passen sollte man bei RX Vega64 wohl die ~1,3Ghz nicht überschreiten. :freak:
http://fs5.directupload.net/images/170814/a6dd8xou.jpg
Habe ich es nicht gesagt.
Der_Korken
2017-08-14, 09:15:41
Autsch... beim Stromverbrauch sieht es noch übler aus als ich erwartet hätte. Um in die 250W zu passen sollte man bei RX Vega64 wohl die ~1,3Ghz nicht überschreiten. :freak:
Die Liquid Version ist noch lächerlicher:
Power Saving: ~1550Mhz @288W
Balanced: ~1650Mhz @380W
Turbo+50%: ~1730Mhz @467W
Also von der kleinsten zur größten Config +11,6% mehr Takt (und noch weniger Mehrleistung) für 62% mehr Verbrauch :rolleyes: Die Luftversion mit 300W sieht vom absoluten Verbrauch her etwas besser aus, aber selbst diese 300W sind in Relation zu anderen Karten ein Witz. Ich verstehe ja, dass AMD extrem viele Transistoren investiert hat, um den Takt anzuheben, allerdings steht dieser Mehrtakt imho in keinem Verhältnis zu den Kosten. Insbesondere scheint es im Gegensatz zu Nvidia keinen Mehrtakt bei gleichem Verbrauch zu sein, sondern der Verbrauch eskaliert fröhlich weiter, bloß die "Taktwall" hat man angehoben.
Mal ein Vergleich zu Polaris: P10 schafft mit moderaten Spannungen 1250-1300Mhz, P20 nochmal 50-75Mhz mehr. Mit max. OC geht letzter auch Richtung 1500Mhz. Da AMD bei Polaris von dedizierter Taktsteigerung nichts gesagt hat und die Transistoren/CU ziemlich genau denen von Tonga entsprechen, mutmaße ich einfach mal, dass man diese Taktsteigerung einfach durch 14nm allein bekommen hat. Hätte man also für Vega einfach die CUs auf Polaris-Niveau gelassen und nur den besseren Rasterizer und den HBCC umgesetzt, hätte man demnach einen Chip erhalten müssen, der locker ~1300Mhz schafft und dabei deutlich sparsamer als Fiji ist. Die IPC von Polaris ist etwas höher als die von Tonga/Fiji, d.h. ein solcher Chip hätte für die 30% auf Fiji, die wir bisher von V10 gesehen haben, locker gereicht. Dazu wäre man vielleicht irgendwo bei 380mm² und <250W rausgekommen, was gegen eine 1080 dann schon nicht mehr sooo mies aussieht.
Rapid Packed Math wäre zwar nicht drin, aber eventuell hätte man das auch noch in den alten CUs umsetzen können (wenn das Feature nennenswert Takt kostet oder den Verbrauch steigert, wäre es ohnehin nutzlos, da der theoretische Leistungsgewinn in realen Anwendungen doch relativ begrenzt ist).
dildo4u
2017-08-14, 09:16:06
Aber, dass das Durchschnittswerte der Karte sein sollen: 327,70 auf balanced in der Luftvariante?
Metro ist besonder's Aggressiv AMD wird für die 295 Angaben ein Durchschnitt aus verschiedenen Games genommen haben.3DMark ist bei 308.
MartinRiggs
2017-08-14, 09:16:27
Das sieht momentan alles nicht sehr gut aus und kann eigentlich nur ein Hardwarebug und/oder der Treiber sein.
dargo
2017-08-14, 09:17:29
Aber, dass das Durchschnittswerte der Karte sein sollen: 327,70 auf balanced in der Luftvariante?
Scheint so. Ein hartes Limit von 295W gibt es offenbar nicht.
Habe ich es nicht gesagt.
Bekommst ein Keks von mir.
Nene... passt schon. Xbone X ich komme. Mal sehen was 2018 kommt. Den Grünen Kobold geb ich kein Geld also dieses Jahr kein PC für mich :)
Das nenne ich konsequent. :D Ich warte in Ruhe die Customs bei RX Vega 56 ab. Und dann auf einen Schnapper warten, bis November+ habe ich noch Zeit damit. Bei den Daten werden die Preise von Vega schnell purzeln (müssen). Es sei denn die Miner kaufen alles auf.
dildo4u
2017-08-14, 09:18:03
Da fehlt einfach Bandbreite daher setzt sich die Wakü auch kaum ab.
Der_Korken
2017-08-14, 09:23:11
Da fehlt einfach Bandbreite daher setzt sich die Wakü auch kaum ab.
Das werden die Tests zeigen müssen. Die Karten haben fast doppelt so viel Bandbreite wie Polaris, sind aber bei weitem nicht doppelt so schnell trotz TFlops ohne Ende. Außerdem sollte der neue Rasterizer eigentlich den Bandbreitenbedarf deutlich reduzieren, dafür hat man schließlich entwickelt ...
dargo
2017-08-14, 09:29:05
Die Liquid Version ist noch lächerlicher:
Power Saving: ~1550Mhz @288W
Balanced: ~1650Mhz @380W
Turbo+50%: ~1730Mhz @467W
Also von der kleinsten zur größten Config +11,6% mehr Takt (und noch weniger Mehrleistung) für 62% mehr Verbrauch :rolleyes: Die Luftversion mit 300W sieht vom absoluten Verbrauch her etwas besser aus, aber selbst diese 300W sind in Relation zu anderen Karten ein Witz.
Ja... das ist schon bitter. Jetzt hat man ein Design für wesentlich höhere Taktraten als bei Fiji, nur schießt der Stromverbrauch völlig durch die Decke wenn man den Takt ausreizt.
dildo4u
2017-08-14, 09:29:40
Das werden die Tests zeigen müssen. Die Karten haben fast doppelt so viel Bandbreite wie Polaris, sind aber bei weitem nicht doppelt so schnell trotz TFlops ohne Ende. Außerdem sollte der neue Rasterizer eigentlich den Bandbreitenbedarf deutlich reduzieren, dafür hat man schließlich entwickelt ...
Die Wakü Version ist fast da 5800 Fire Stirke Ultra eine OC 480 kommt auf 3000.
http://abload.de/img/b6b4f6095944affde4497dxuzp.jpg
Und das sind Werk' OC Versionen denke mal die normale liegt bei 2800?
http://abload.de/img/3dmark-fsue9j0l.png
https://www.pcper.com/reviews/Graphics-Cards/Radeon-RX-580-8GB-Review-Polaris-Populism/3DMark-Unigine-Heaven
vinacis_vivids
2017-08-14, 09:30:04
Gab noch gar keine Benches mit fp16. Bei ID tech6 und Frostbite ist man auf 1080ti Level. Mit fp16 dann noch etwas höher.
GhostRecon mit Gamesworks auf 1080FE Level wobei die Engine im UHD ja schwach läuft.
Jupiter
2017-08-14, 09:31:49
Gab noch gar keine Benches mit fp16. Bei ID tech6 und Frostbite ist man auf 1080ti Level. Mit fp16 dann noch etwas höher.
GhostRecon mit Gamesworks auf 1080FE Level wobei die Engine im UHD ja schwach läuft.
Frostbite interessiert keinen mit DX12 und NVIDIA-Karte. Kaum einer wählt da DX12.
Grendizer
2017-08-14, 09:33:26
Frostbite interessiert keinen mit DX12 und NVIDIA-Karte. Kaum einer wählt da DX12.
Ja da würden mich auch die DX11 nVidia vs DX12 AMD interessieren.
dargo
2017-08-14, 09:34:02
Gab noch gar keine Benches mit fp16.
Bei FP16 kannst du grob +15% erwarten. Das wird an den Verhältnissen nicht gravierend was ändern. Da muss schon mehr kommen.
Das nenne ich konsequent. :D Ich warte in Ruhe die Customs bei RX Vega 56 ab. Und dann auf einen Schnapper warten, bis November+ habe ich noch Zeit damit. Bei den Daten werden die Preise von Vega schnell purzeln (müssen).
Auf ~350€ müsste die purzeln - aber das kann man knicken.
Bei den Preisen sind die Miner sofort da, selbst wenn die Karte nur ihre 46 MH/s schafft, wie die FE nachdem man die optimiert hat und 420-450€ wird die ja nachher um 15 Uhr kosten... vergleich ich da mal die RX 580 Preise ( 299€ ) ...
Selbst bei 400€ ging die ja weg wie nichts...
Nene... das beste was AMD nun machen kann ist, die Krypto-Features weiter zu optimieren und den Treiber dahingehend optimieren, dass deutlich mehr Karten auf ein Board unterstützt werden, das ganze noch mit dem X370 Chipsatz kombinieren .. und dann alles in Navi zu pumpen, was man an Kohle auftreiben kann - wenn das dann wieder nichts wird, kann mich der PC mal komplett am oarsch. Können sich die ganzen Grünen gegenseitig bekriegen und jammern wieso die scheiße immer teurer wird.
P.S
Es würde aufhören, dass CB, PCGH, Golem und co als NV-Base bezeichnet werden. Mit "Intel-Base und co " aber hört es leider nicht auf - schade :(
Was mach ich eigentlich nun mit meinen 152k bei AMD... hm... neues Auto wär auch mal fein...
Fragman
2017-08-14, 09:39:46
Das sieht momentan alles nicht sehr gut aus und kann eigentlich nur ein Hardwarebug und/oder der Treiber sein.
treiberseitig wird da sicher nichts mehr kommen, das waere sonst schon passiert. und hardwarebug kann man auch ausschliessen, sonst haette amd die karte jetzt nicht released.
will damit nur sagen, das man aufhoeren sollte, sich daran zu klammern.
Screemer
2017-08-14, 09:41:56
Sowas wie PUBG ist nur mit absurdem Zeitaufwand ansatzweise testbar, leider.
Bin übrigens nun fertig, gute Nacht :P
Ihr wisst ja auch wie benches funktionieren und dass es keine Momentaufnahme sein sollen, sondern um nachvollziehbare und reproduzierbare Messungen. Der gemeine forist scheinbar nicht.
Ich hoffe es war keine qual sich die halbe Nacht um die Ohren zu schlagen!
Polemik. Wenn man es auf Ultra stellt sieht es überhaupt nicht schlecht aus, sondern gut.
Pubg sieht auch auf ultra scheiße aus. Mal völlig davon ab, dass es so für 98% aller Spieler, die nicht in kartoffelauflösungen wie fhd spielen, unspielbar ist. Selbst wenn ihr die optik als gut empfindet, ändert das nix an der unbenchbarkeit. PS ich hab über 400std auf der Uhr...
dildo4u
2017-08-14, 09:43:15
Laut Ryan ist Mining wie auf der FE.
https://twitter.com/ryanshrout/status/896821929654571008
MartinRiggs
2017-08-14, 09:43:48
treiberseitig wird da sicher nichts mehr kommen, das waere sonst schon passiert. und hardwarebug kann man auch ausschliessen, sonst haette amd die karte jetzt nicht released.
will damit nur sagen, das man aufhoeren sollte, sich daran zu klammern.
Ich klammer mich an gar nichts, aber Konkurrenz würde das Geschäft beleben.
Wenn ich aufrüste von der 1070 muss mindestens 1080TI-Leistung rumkommen und da ist AMD momentan überhaupt nicht.
Laut Ryan ist Mining wie auf der FE.
https://twitter.com/ryanshrout/status/896821929654571008
Mit den optimierungen also 46-50 MH/s - purzeln die Preise noch unter 500€ sind die eh nicht mehr lange am Markt erhältlich für den angesetzten UVP.
vinacis_vivids
2017-08-14, 09:47:53
treiberseitig wird da sicher nichts mehr kommen, das waere sonst schon passiert. und hardwarebug kann man auch ausschliessen, sonst haette amd die karte jetzt nicht released.
will damit nur sagen, das man aufhoeren sollte, sich daran zu klammern.
Treiber ist beta. Und natürlich kommen neue Treiber mit der Zeit.
Der_Korken
2017-08-14, 09:51:04
Die Wakü Version ist fast da 5800 Fire Stirke Ultra eine OC 480 kommt auf 3000.
OK hier bringt Vega wirklich die Leistung auf die Straße und man steht auch gegenüber der 1080 ganz gut dar. Wenn ich mir allerdings die geleakten Spielebenches angucke, kommt man grob auf 1080-Niveau raus, was nach meinem Wissensstand ca. 60-65% über der 580 liegt. Und zu den 87,5% mehr Bandbreite kommt ja eigentlich auch noch der DSBR hinzu. Ich könnte mir gut vorstellen, dass wirklich die GPU limitiert. Wenn man an CPU-Designs denkt, dann gab es Taktboosts oft auch nur auf Kosten der IPC (P4 und BD ahoi). Da hoffe ich, dass ein Reviewer irgendwann mal ein paar Taktexperimente und 1:1-Vergleiche zu Fiji macht (natürlich nicht zum Launch, sondern später wenn man Zeit ist :))
treiberseitig wird da sicher nichts mehr kommen, das waere sonst schon passiert. und hardwarebug kann man auch ausschliessen, sonst haette amd die karte jetzt nicht released.
will damit nur sagen, das man aufhoeren sollte, sich daran zu klammern.
Der Verbrauch wird sich sicherlich nicht durch Treiber bessern, bei der Leistung können natürlich immer 10-15% drin sein, wenn man bisher nur auf Stabilität optimiert hat, damit das Ding released werden kann. Sicherheit gibt es dafür aber nicht. Ich könnte mir vorstellen, dass wir erst mit der nächsten Iteration substantielle Verbesserungen sehen, sowie damals beim R600: Erst ein RV670 in sparsam und dann ein RV770 in schnell. Eventuell wird ja bereits V11 deutlich besser und V10 war der unfreiwillige Pipe Cleaner :freak:.
dildo4u
2017-08-14, 09:51:30
Der Treiber spielt keine große Rolle siehe Doom,sie brauchen mehr Game's die alle Hardware Features nutzen und jetzt kommt auch noch FP16 dazu.
Treiber ist beta.
Ist doch Jacke wie Hose.... AMD wird da keinen Quantensprung hinlegen können.... die können ja noch nicht mal im Ansatz glaubhaft darlegen, wie hoch die Aussichten sein werden... weil da eh nichts kommt.
Und ich krieg noch nen paar mehr Infos auf den Versammlungen, weil ich da nicht gerade wenig in den Schuppen investiert habe.
Das, was Vega ist, ist der Wein den die jetzt in die Fässer gekippt haben und wenn nicht gerade einer in das selbige gestrullert hat, profitiert Navi davon...
Bei dem Pech den AMD bei den Fertigungen hatte, wird der 7nm sich entweder verspäten oder die Aussichten sind schlechter als in Aussicht gestellt, seitens GF.
Am Ende kommt ein Navi auf dem Markt, der eine überbreite besitzt (PCB) haufenweise Kühler mit 120mm Lüftern ( ja ehrlich :P ) und endlich ein AMD Ref Kühler der echt mal gut wird und NV das selbe passiert wie jetzt Intel.
Fragman
2017-08-14, 09:54:11
Wenn ich aufrüste von der 1070 muss mindestens 1080TI-Leistung rumkommen und da ist AMD momentan überhaupt nicht.
leider,
und nv kann weiterhin machen, was sie wollen.
(wobei ich persoenlich keine TI leistung braeuchte, das problem bei vega ist der verbrauch).
dargo
2017-08-14, 09:56:50
Auf ~350€ müsste die purzeln - aber das kann man knicken.
Bei den Preisen sind die Miner sofort da, selbst wenn die Karte nur ihre 46 MH/s schafft, wie die FE nachdem man die optimiert hat und 420-450€ wird die ja nachher um 15 Uhr kosten... vergleich ich da mal die RX 580 Preise ( 299€ ) ...
Selbst bei 400€ ging die ja weg wie nichts...
Echt blöde Situation. Wenn die Karte beim Gaming nicht ganz überzeugt sollten die Straßenpreise eigentlich relativ schnell purzeln. Wenn die aber gleichzeitig beim Mining überzeugt gibt es keinen Grund die Straßenpreise purzeln zu lassen da die Karten sofort weggerissen werden. :freak: Naja... mal beobachten wie sich das bis Ende des Jahres entwickelt. Sollte die Nachfrage bei Vega für die Miner dermaßen hoch sein kann ich nur hoffen, dass die GTX580 von denen in Ruhe gelassen wird, dass dort die Preise wieder purzeln. Dann aber bitte max. 250€ für 8GB. Wäre dann für mich nur ein minimales Upgrade. Bei +50€ zu verschmerzen. Oder ich mache ne Pause bis Navi. Schauen wir mal.... :)
OK hier bringt Vega wirklich die Leistung auf die Straße und man steht auch gegenüber der 1080 ganz gut dar.
Naja... nicht wirklich. Man ist mit der Air Version 3% schneller (also praktisch gleich schnell) wie die GTX1080FE bei ca. 128W mehr Stromverbrauch.
Daredevil
2017-08-14, 09:57:58
1080ti Performane erwarten für 500€ Startpreis ist halt aber auch reichlich naiv.
Treiber ist beta. Und natürlich kommen neue Treiber mit der Zeit.soon. Logisch das neue Treiber kommen...großartige Verbesserungen kann man aber ausschließen.
@dargo
Es wird ja immer gern auf ETH geschaut, durch Vega können da nen paar andere an Fahrt aufnehmen... wenn dann nämlich sich diverse Giganten mit Vegas eindecken, wie damals jene mit Hawaii, dann wird es sehr spannend.
@Daredevil,
für 800€ hätte ich toll gefunden - oder wie jetzt zwischen 1080 und TI.
Aber net sowas... Albern ist das.
Menace
2017-08-14, 10:01:02
Oder ich mache ne Pause bis Navi. Schauen wir mal.... :)
Falls die Nano-Variante auch so ein zwiespältiges Bild abgibt, dann wird es bei eine Pause bis Navi geben. Ich wünschte mir aber heute von AMD zum Release, dass sie auch mal die Schwierigkeiten und Möglichkeiten offen ansprechen. :P
Daredevil
2017-08-14, 10:09:31
Solange sich die Karten preislich unter 1070/1080 ansiedeln und der Stromverbrauch irgendwie nachvollziehbar ist, ist das doch n tolles Bang for Buck Kärtchen.
Seien wir doch erstmal froh, dass es überhaupt wieder HighEnd Material gibt für unsere ganzen Freesync Monitore. Entweder wir krebsen mit Polaris rum, oder wir haben schon längst zu einer 1070\1080 gegriffen.
Meine 980ti könnte ebenfalls für ne kleine Vega weichen, hat jemand ne Uhrzeit fürs Ende der NDA?
vinacis_vivids
2017-08-14, 10:09:42
Bei FP16 kannst du grob +15% erwarten. Das wird an den Verhältnissen nicht gravierend was ändern. Da muss schon mehr kommen.
DICE hat bei bf1 +25% und Mass Effekt Andromeda +35% gezeigt in UHD.
Was bei Wolfenstein 2 und FarCry 6 rauskommen, wird man sehen.
Die Vulkan arbeiten bei der Unreal Engine sollen auch was bringen.
dildo4u
2017-08-14, 10:11:24
DICE hat bei bf1 +25% und Mass Effekt Andromeda +35% gezeigt in UHD.
Da Ging's um's upsclaing auf 4k.Das ganze Game kann nicht in FP16 laufen.
dargo
2017-08-14, 10:17:40
DICE hat bei bf1 +25% und Mass Effekt Andromeda +35% gezeigt in UHD.
Auf Konsole beim Checkerboard vielleicht. Am PC nutzt weder das eine noch das andere FP16.
Was bei Wolfenstein 2 und FarCry 6 5 rauskommen, wird man sehen.
fixed
Locuza
2017-08-14, 10:18:29
[...]
NV optimiert ja MT im DX11 Treiber, weil Pascal kein AC hat.
Weißt nicht ob DX12 mehr Details enthält.
Hat praktisch nichts damit zu tun.
Multithreading ist auf der CPU-Seite, zusätzliche Compute-Queues sind am Ende für die GPU dar, um einen höheren Durchsatz zu erzielen.
AMD könnte ebenso die Multithreading-Eigenschaften ihres Treibers verbessern, aber das ist komplex und benötigt entsprechende Investitionen.
Unter DX12 kümmert sich der Entwickler explizit um das Multithreading, wovon AMD dann entsprechend profitiert, egal ob AC noch zusätzlich verwendet wird oder nicht.
DICE hat bei bf1 +25% und Mass Effekt Andromeda +35% gezeigt in UHD.
Es gab eine Folie mit +30% Leistung, was sich aber nur auf den Checkerboard-Resolve Schritt bezogen hat, insgesamt war der Einfluss sehr gering auf die Frametimes.
vinacis_vivids
2017-08-14, 10:19:00
Da Ging's um's upsclaing auf 4k.Das ganze Game kann nicht in FP16 laufen.
Gerade in UHD greift die Optimierung doch noch besser. Ist lediglich eine höhere Auflösung.
Dass das ganze Game nicht komplett fp16 läuft, ist mir schon klar.
foenfrisur
2017-08-14, 10:19:10
Da hofft jemand auf den schnellen Euro mit minern.
Oder einem dem der Preis egal ist.
1088euro für vega 64 air
http://m.ebay.de/itm/AMD-Radeon-RX-Vega-64-8GB-HBM2-/142474765437?hash=item212c28647d%3Ag%3AiN4AAOSw6cJZj7ms&_trkparms=pageci%253Ae6b2ee89-80c8-11e7-9676-74dbd1a0867f%257Cparentrq%253Adfd0fa1815d0a9e46b6e2f3dfffff527%257Ciid%253A1
Mfg
Matrix316
2017-08-14, 10:30:54
Solange sich die Karten preislich unter 1070/1080 ansiedeln und der Stromverbrauch irgendwie nachvollziehbar ist, ist das doch n tolles Bang for Buck Kärtchen.
Seien wir doch erstmal froh, dass es überhaupt wieder HighEnd Material gibt für unsere ganzen Freesync Monitore. Entweder wir krebsen mit Polaris rum, oder wir haben schon längst zu einer 1070\1080 gegriffen.
Meine 980ti könnte ebenfalls für ne kleine Vega weichen, hat jemand ne Uhrzeit fürs Ende der NDA?
Ob sich das lohnt? Ich würde ja sehr gerne auch wieder eine AMD Karte kaufen, aber die 980TI ist ja immer noch so 1070 Niveau und die schnellste Vega maximal so schnell wie eine 1080 (oder knapp drüber). Wenn die Vega zur 1080 Zeit rausgekommen wäre, wäre richtig Feuer im Wettbewerb gewesen, aber heute? Wenns wenigstens eine Vega X2 geben würde OK - damit hat man sich schonmal über Wasser gehalten zur 4870 X2 Zeiten - aber eigentlich war man mit der Fury X schon auf knapp 980(TI) Niveau. Normalerweise muss man doch viel weiter sein.
Erbsenkönig
2017-08-14, 10:33:31
http://i.imgur.com/l2Hw4Ek.jpg
Es kann keiner sagen, er hätte von nichts gewusst! :D
Cyphermaster
2017-08-14, 10:43:16
Falls die Nano-Variante auch so ein zwiespältiges Bild abgibt, dann wird es bei eine Pause bis Navi geben.
So ähnlich sieht es bei mir aus. Ich verstehe dennoch nicht, wie die Features derart umfänglich nicht greifen können. Noch unoptimierter Pipecleaner hin oder her, aber es ist schon herb, wie das Ding säuft - als wäre keinerlei Einsparungsfeature aktiviert. Meine Erwartung war, dass man zumindest in einigen Spielen das zeigen kann, was im Design steckt. Muss man aber wohl mit der Stecknadel suchen, schade.
vinacis_vivids
2017-08-14, 10:50:48
Hat praktisch nichts damit zu tun.
Multithreading ist auf der CPU-Seite, zusätzliche Compute-Queues sind am Ende für die GPU dar, um einen höheren Durchsatz zu erzielen.
AMD könnte ebenso die Multithreading-Eigenschaften ihres Treibers verbessern, aber das ist komplex und benötigt entsprechende Investitionen.
Unter DX12 kümmert sich der Entwickler explizit um das Multithreading, wovon AMD dann entsprechend profitiert, egal ob AC noch zusätzlich verwendet wird oder nicht.
Natürlich hat das eine mit dem anderen zu tun. MT Forcierung beudeutet mehr draw calls von der CPU um die 4096SP besser ausgelasten zu können, abgesehen von AC.
Dass AMD nicht mehr die ganze manpower in die Sackgasse SingelCore Treiber haut, ist wohl klar. Der Aufwand zu hoch und der Nutzen zu gering. low lvl API ist schon der richtige und unvermeidbare Weg.
Es gab eine Folie mit +30% Leistung, was sich aber nur auf den Checkerboard-Resolve Schritt bezogen hat, insgesamt war der Einfluss sehr gering auf die Frametimes.
Der Einfluss waren die +25% bzw +35% in frametimes:
https://abload.de/thumb/ps4meakmlw8.png (http://abload.de/image.php?img=ps4meakmlw8.png)https://abload.de/thumb/ps4bf19fya4.png (http://abload.de/image.php?img=ps4bf19fya4.png)
Locuza
2017-08-14, 11:06:17
Natürlich hat das eine mit dem anderen zu tun. MT Forcierung beudeutet mehr draw calls von der CPU um die 4096SP besser ausgelasten zu können, abgesehen von AC.
Dass AMD nicht mehr die ganze manpower in die Sackgasse SingelCore Treiber haut, ist wohl klar. Der Aufwand zu hoch und der Nutzen zu gering. low lvl API ist schon der richtige und unvermeidbare Weg.
Du sprachst davon, dass Nvidia MT unter DX11 optimiert, weil "Pascal kein AC hat".
Das eine hat mit dem anderem aber nichts direkt zu tun.
Bei Nvidia hat man sich offensichtlich den Arsch aufgerissen, den ursprünglichen SingleCore-Treiber so zu optimieren, dass einige Aufgaben auf mehrere Threads gesplittet werden können und zusätzlich den Overhead reduziert.
Soll der Kunde dann entscheiden, welche DX11 Performance ihm ausreicht.
Der Einfluss waren die +25% bzw +35% in frametimes:
Für die ganze Berechnung des Spiels im Checkerboard-Modus, FP16 hat davon nur einen Bruchteil zu verantworten und darum handelte es sich doch.
Erbsenkönig
2017-08-14, 11:08:46
Falls der Stromverbrauch des geleakten Tests stimmt, wird man die scheinbar kommende Vega X2 als 2x64er perfekt zum Heizen der Bude einsetzen können :D
Schnitzl
2017-08-14, 11:14:20
So ähnlich sieht es bei mir aus. Ich verstehe dennoch nicht, wie die Features derart umfänglich nicht greifen können. Noch unoptimierter Pipecleaner hin oder her, aber es ist schon herb, wie das Ding säuft - als wäre keinerlei Einsparungsfeature aktiviert. Meine Erwartung war, dass man zumindest in einigen Spielen das zeigen kann, was im Design steckt. Muss man aber wohl mit der Stecknadel suchen, schade.
Ja so siehts wohl aus im Moment.
Man könnte natürlich hoffen das selbst die Leaks noch Irreführung von AMD sind aber so weit aus dem Fenster lehnen - aber da bin ich dann schon auf der anderen Strassenseite...
Frage mich auch: Wo sind die Verbesserungen?
Ist so langsam wie ne Langspielplatte mit Sprung: Fury wird der Hammer... ok war wohl nix aber die nächste Karte wirds.
Polaris wird supereffizient... ok war wohl nix aber die nächste Karte wirds.
Vega [poor Volta] wird der Hammer...ok war wohl nix aber die nächste Karte wirds.
Navi.....
und so weiter
@ Isen: das mit dem Auto ist auch keine schlechte Idee ... E500 oder so :freak:
Es hat sich alles so vielversprechend angehört: HBCC, DSBR (:freak:), HBM2, HF-Design, IF ......
... und übrig geblieben ist - tataaa - ein R600 :ulol:
Troyan
2017-08-14, 11:24:53
Der Stromverbrauch der Air-Version kann nicht richtig sein. Wie will man 320(!) Watt mit einem Radial-Design halbwegs erträglich wegkühlen? Das klappt kaum bei 250W...
grauenvoll
2017-08-14, 11:25:50
Polaris wird supereffizient...
Month ahead, die größte aller Fehleinschätzungen, hast du vergessen.
Es ist ja immer leicht, sich über Rohrkrepierer auszulassen, aber über AMDs Marketing kann man sich nur wundern.
Schnoesel
2017-08-14, 11:27:52
Der Stromverbrauch der Air-Version kann nicht richtig sein. Wie will man 320(!) Watt mit einem Radial-Design halbwegs erträglich wegkühlen? Das klappt kaum bei 250W...
Das frage ich mich allerdings auch. Abgesehen davon wie kann eine Karte 500 Watt ziehen (Liquid Edition mit + 50% Powertarget). Dachte mit 2x 8 Pin gehen 375 Watt. Klar kann man die Specs reißen aber in dem Ausmaß?
Flusher
2017-08-14, 11:30:26
Das frage ich mich allerdings auch. Abgesehen davon wie kann eine Karte 500 Watt ziehen (Liquid Edition mit + 50% Powertarget). Dachte mit 2x 8 Pin gehen 375 Watt. Klar kann man die Specs reißen aber in dem Ausmaß?
War doch damals bei der R9 295X2 nicht anders? Gut - die karte war damals für absolute Enthusiasten gedacht die sich nicht gerade ein billiges 1000 W China-Netzteil einbauen.
anddill
2017-08-14, 11:30:44
Das frage ich mich allerdings auch. Abgesehen davon wie kann eine Karte 500 Watt ziehen (Liquid Edition mit + 50% Powertarget). Dachte mit 2x 8 Pin gehen 375 Watt. Klar kann man die Specs reißen aber in dem Ausmaß?
Und dann mit einem 120mm Radi wegkühlen. Das passt wirklich nicht so richtig zusammen.
Fragman
2017-08-14, 11:31:44
Month ahead, die größte aller Fehleinschätzungen, hast du vergessen.
Es ist ja immer leicht, sich über Rohrkrepierer auszulassen, aber über AMDs Marketing kann man sich nur wundern.
deshalb haben sie nach dem FE release mal richtig gehandelt und die klappe gehalten.
(richtig wars nicht, aber sie haben zumindest nicht weiter auf den putz gehauen)
Hübie
2017-08-14, 11:33:40
Die zieht ~330 Watt im balanced mode. Wo ist jetzt das Problem bei 2 x 8 Pin PCIE? :| Guckt ihr auf den Gesamtverbrauch des Systems oder hab ich was falsch gelesen?
Meine Erwartung wurde bisher voll erfüllt. Das meine ich nicht positiv. :( 15 Uhr wird da auch nicht viel dran ändern.
@vinacis_vivids: Die Gewinne kommen zum Großteil vom Nutzen des Checkerboard-Renderings nicht vom Nutzen einige FP16-Shader. Der Vergleich ist also eher: Supersampling vs. Checkerboard-Rendering.
Schnoesel
2017-08-14, 11:35:36
War doch damals bei der R9 295X2 nicht anders?
Tatsache, die hatte auch nur 2x 8-Pol (ich dachte es waren 3) und nen Single Radi. Also wie gesagt sollte es wirklich die Karte allein sein, die so viel ziehen darf dann ist das imo völlig daneben.
Loeschzwerg
2017-08-14, 11:36:21
Der Stromverbrauch der Air-Version kann nicht richtig sein. Wie will man 320(!) Watt mit einem Radial-Design halbwegs erträglich wegkühlen? Das klappt kaum bei 250W...
Siehe FE.
PCGH
Wer die Radeon Vega Frontier Edition übertaktet und dabei einen stabilen Boost sehen möchte, muss sich auf eine wesentlich größere Geräuschemission gefasst machen. Mit 50 Prozent Lüfterleistung, was rund 2.500 Umdrehungen pro Minute entspricht, steigt die Lautheit auf 5,8 Sone, mit 60 Prozent (~3.000 U/Min) sogar auf 8,5 Sone. Mit dieser Lüfterleistung ist die Kühlung ausreichend für mehr als 300 Watt Abwärme.
vinacis_vivids
2017-08-14, 11:44:01
@vinacis_vivids: Die Gewinne kommen zum Großteil vom Nutzen des Checkerboard-Renderings nicht vom Nutzen einige FP16-Shader. Der Vergleich ist also eher: Supersampling vs. Checkerboard-Rendering.
Checkerboard resolved shader benutzt FP16 und es bringt +30% an Performance.
Schnoesel
2017-08-14, 11:45:53
Die zieht ~330 Watt im balanced mode. Wo ist jetzt das Problem bei 2 x 8 Pin PCIE?
Das Problem ist, dass der balanced mode für mich absolut uninteressant ist, da sich hier die Karte nicht weit genug von meiner Fury-X absetzen kann. Mit OC wäre die Leistungssteigerung noch in Ordnung aber nicht zu der Leistungsaufnahme.
Mortalvision
2017-08-14, 11:45:55
Aua, also 8,5 Sone hört man definitiv unter vollumschließenden Kopfhörern...
Wie werden wohl die custom Lösungen air aaussehen? 3Slot Minimum?
Jupiter
2017-08-14, 11:48:26
Checkerboard resolved shader benutzt FP16 und es bringt +30% an Performance.
So etwas wie Checkerboard Rendering (Temporal Filtering) wird auch bei Watch Dogs 2 am PC und Konsole genutzt und es werden auch ohne FP16-Berechnungen 30% im Vergleich zur nativen Auflösung gespart.
EDIT:
Bild: https://static.giantbomb.com/uploads/original/8/87610/2903275-watch-dogs-2-temporal-filtering-performance.png
Palpatin
2017-08-14, 11:48:49
Der Stromverbrauch der Air-Version kann nicht richtig sein. Wie will man 320(!) Watt mit einem Radial-Design halbwegs erträglich wegkühlen? Das klappt kaum bei 250W...
Hat doch schon bei der R290x im "Ueber" Mode mehr oder weniger geklappt.
http://www.guru3d.com/news-story/amd-vega-rx-56-with-triple-fans-surfaces.html
Cyphermaster
2017-08-14, 11:52:25
Ist so langsam wie ne Langspielplatte mit Sprung: Fury wird der Hammer... ok war wohl nix aber die nächste Karte wirds.
Polaris wird supereffizient... ok war wohl nix aber die nächste Karte wirds.
Vega [poor Volta] wird der Hammer...ok war wohl nix aber die nächste Karte wirds.
Navi.....
und so weiterHypefaktoren wie das rein spekulative 'poor Volta' abgezogen, ist das Alles gar nicht so weit weg. Fury war ein technischer Hammer in der Architektur - nur limitiert in ein paar Faktoren, Performance also mau. Polaris ist sehr effizient - kam aber nur unter Prügeln auf Takt, Performance also wieder mau. Auch Volta scheint potent, das aber wieder nicht auf die Straße zu bringen.
Ideen sind wohl da; nur in der Realisierung ist man so weit hinterher, dass man als Kunde heulen möchte. Sogar ein nVidia-Hardcore-Fan kann nicht froh darüber sein, dass man so weiter gut gemolken wird, wenn man etwas Leistung haben will.
Dino-Fossil
2017-08-14, 11:54:24
Autsch... beim Stromverbrauch sieht es noch übler aus als ich erwartet hätte. Um in die 250W zu passen sollte man bei RX Vega64 wohl die ~1,3Ghz nicht überschreiten. :freak:
Was denn, doch noch unter die Ökos gegangen?
Aber hey, sind nur die Steinzeit-APIs, wenn wir dann in wenigen Monaten alle nur noch Vulkan/DX12 nutzen schaut's viel besser aus! :tongue:
Ansonsten scheint die wassergekühlte Variante rein von der Leistung her teilweise gar nicht so schlecht, aber der Stromverbrauch zu dem man sich die Leistung erkauft ist einfach zu hoch.
Ich bleib dabei - 1080 Performance @300W ist einfach nicht zeitgemäß.
Ich bin mal gespannt, was die sonstigen Reviews noch so bringen. Hoffe, dass da auch ein paar dabei sind, die sich die technischen Aspekte etwas genauer anschauen. Wäre interessant zu wissen, was die Karte jetzt an Fortschritten bringt, und wo es evtl. hakt (also außer bei der Leistungsaufnahme).
Wer weiß, vermutlich wird die Karte in den nächsten Monaten noch zulegen, aber den Ersteindruck verhunzt man sich so wohl erstmal.
vinacis_vivids
2017-08-14, 11:58:59
Du sprachst davon, dass Nvidia MT unter DX11 optimiert, weil "Pascal kein AC hat".
Das eine hat mit dem anderem aber nichts direkt zu tun.
Bei Nvidia hat man sich offensichtlich den Arsch aufgerissen, den ursprünglichen SingleCore-Treiber so zu optimieren, dass einige Aufgaben auf mehrere Threads gesplittet werden können und zusätzlich den Overhead reduziert.
Nvidia optimiert DX11 MT weil Pascal offensichtlich von MT in DX12 nicht harmoniert oder Hardwaremäßig nicht kann (AC). Dazu braucht es eine krasse uArch Änderung und nicht nur Treiber bei NV.
Die Overhead Reduzierung bei DX11 ist in der Sackgasse und der Aufwand wird exponentiell Steigen.
Für die ganze Berechnung des Spiels im Checkerboard-Modus, FP16 hat davon nur einen Bruchteil zu verantworten und darum handelte es sich doch.
FP16 beschleunigt Checkerboard resolve shader und bringt +30%. Bei bf1 +25% und ME:A +35%
Schnitzl
2017-08-14, 12:00:12
Month ahead, die größte aller Fehleinschätzungen, hast du vergessen.
Es ist ja immer leicht, sich über Rohrkrepierer auszulassen, aber über AMDs Marketing kann man sich nur wundern.
was meinst du mit dem ersten Satz?
Hypefaktoren wie das rein spekulative 'poor Volta' abgezogen, ist das Alles gar nicht so weit weg. Fury war ein technischer Hammer in der Architektur - nur limitiert in ein paar Faktoren, Performance also mau. Polaris ist sehr effizient - kam aber nur unter Prügeln auf Takt, Performance also wieder mau. Auch VoltaVega scheint potent, das aber wieder nicht auf die Straße zu bringen.
Ideen sind wohl da; nur in der Realisierung ist man so weit hinterher, dass man als Kunde heulen möchte. Sogar ein nVidia-Hardcore-Fan kann nicht froh darüber sein, dass man so weiter gut gemolken wird, wenn man etwas Leistung haben will.
Jupp + fixed ;)
Dieses Prügeln auf Takt ist imho der größte Fehler, den AMD jedesmal begeht. Ich verstehs einfach nicht. auch bei Vega wieder...
Was mich interessieren würde ob es HW-Unterschiede zwischen 64 und 56 gibt, z.B. weniger Heatpipes, Alu statt Kupfer andere Spannungsversorgung usw.
noch 3 Stunden :D
w0mbat
2017-08-14, 12:04:08
Ich habe es schonmal gesagt, aber ich bin der Meinung, dass so viel gar nicht schief laufen muss um plötzlich richtig schlecht dazustehen.
Aktuell geht man ja davon aus, dass die Verzögerung vor allem auf die HBM2 Probleme zurückzuführen ist. Man stelle sich vor, HBM2 wäre nach Zeitplan mit 2Gbps @ 1,2v gekommen und wir hätten Vega 64 im Februar mit den gleichen Taktraten, aber 512GB/s HBM2 und 20W weniger TDP bekommen. Klar, nicht der über Bringer, aber bei einem guten Preis akzeptabel.
Wenn jetzt der Prozess oder das Design noch etwas besser laufen würde und man den GPU Takt mit etwas weniger Spannung erreichen würde, bäm, wäre es ein ordentlicher Konkurrent gewesen. Klar, trotzdem noch zu spät und bei gleicher Leistung etwas Stromhungriger, aber passabel.
Aber so ist es nicht gekommen und jetzt haben wir GTX 1080 Leistung bei 300W ein Jahr später. Das bedeutet Nvidia muss nicht reagieren, wir bekommen Volta erst 2018 und die Preise bleiben weiter hoch. Was für ein Scheiß...
dildo4u
2017-08-14, 12:06:05
Aber so ist es nicht gekommen und jetzt haben wir GTX 1080 Leistung bei 300W ein Jahr später. Das bedeutet Nvidia muss nicht reagieren, wir bekommen Volta erst 2018 und die Preise bleiben weiter hoch. Was für ein Scheiß...
Die Preise wären so oder so nicht gefallen da Mining noch zu lukrativ ist.
http://www.finanzen.net/devisen/ethereum-euro-kurs
Hübie
2017-08-14, 12:07:00
Checkerboard resolved shader benutzt FP16 und es bringt +30% an Performance.
Der Anteil von resolve + TAA ist bei 1,15 ms (BF1) bzw 2,00 ms (ME:A) und da ist kein Vergleich wie viel Zeit FP32 hier vergleichsweise brauchen würde...
https://abload.de/img/checkerboarding31uqt.png (http://abload.de/image.php?img=checkerboarding31uqt.png)
Cyphermaster
2017-08-14, 12:08:06
Hoffe, dass da auch ein paar dabei sind, die sich die technischen Aspekte etwas genauer anschauen. Wäre interessant zu wissen, was die Karte jetzt an Fortschritten bringt, und wo es evtl. hakt (also außer bei der Leistungsaufnahme).Absolut. Der Stromdurst ist wohl mehr das Symptom als die Ursache. Es ist einfach unplausibel, daß man Ingenieurteams so lange und intensiv an Features hat arbeiten lassen, die aber -scheinbar- keinerlei Wirkung zeigen (vor allem, wenn Ähnliches bei nVidia deutlich etwas bringt). Auch Richtung Navi wird interessant sein zu sehen, wo die Pferdefüße (oder positiv formuliert) die angezogenen Handbremsen sitzen.
Locuza
2017-08-14, 12:13:11
Checkerboard resolved shader benutzt FP16 und es bringt +30% an Performance.
Und CB Resolve + TAA benötigt 1,15ms, Seite 144:
http://frostbite-wp-prd.s3.amazonaws.com/wp-content/uploads/2017/03/04173623/GDC-Checkerboard.compressed.pdf
Selbst wenn du den ganzen Schritt 30% langsamer rechnest, kommt für das Gesamtergebnis nur wenig Unterschied heraus.
dildo4u
2017-08-14, 12:15:35
Aua, also 8,5 Sone hört man definitiv unter vollumschließenden Kopfhörern...
Wie werden wohl die custom Lösungen air aaussehen? 3Slot Minimum?
So stellt sich AMD die 56 Karten vor.
http://www.guru3d.com/news-story/amd-vega-rx-56-with-triple-fans-surfaces.html
dargo
2017-08-14, 12:16:49
Was denn, doch noch unter die Ökos gegangen?
250W sind für mich nicht "Öko", eher obere Schmerzgrenze bei Luftkühlung.
Aber hey, sind nur die Steinzeit-APIs, wenn wir dann in wenigen Monaten alle nur noch Vulkan/DX12 nutzen schaut's viel besser aus! :tongue:
Natürlich wird es besser aussehen. Perf/W ist immer noch das Ergebnis aus Software und Hardware. Und da GCN grundsätzlich unter LL schneller ist (vorausgesetzt der Entwickler weiß was er da tut) wirst du sicherlich 1 und 1 zusammen zählen können. Für die Konkurrenz wird es aber höchstwahrscheinlich nicht reichen.
Ich habe es schonmal gesagt, aber ich bin der Meinung, dass so viel gar nicht schief laufen muss um plötzlich richtig schlecht dazustehen.
Aktuell geht man ja davon aus, dass die Verzögerung vor allem auf die HBM2 Probleme zurückzuführen ist. Man stelle sich vor, HBM2 wäre nach Zeitplan mit 2Gbps @ 1,2v gekommen und wir hätten Vega 64 im Februar mit den gleichen Taktraten, aber 512GB/s HBM2 und 20W weniger TDP bekommen. Klar, nicht der über Bringer, aber bei einem guten Preis akzeptabel.
Sehe ich nicht so. Der Verbrauch von HBM2 bei Vega ist das kleinste Übel, wenn man vom Übel dort überhaupt sprechen kann.
grauenvoll
2017-08-14, 12:18:35
Es ist einfach unplausibel, daß man Ingenieurteams so lange und intensiv an Features hat arbeiten lassen, die aber -scheinbar- keinerlei Wirkung zeigen (vor allem, wenn Ähnliches bei nVidia deutlich etwas bringt).
Es sei denn, man hat Bugs im Design und kann einige der neuen Features nur eingeschränkt oder gar nicht nutzen. Die angeblich so komplizierte Treiberentwicklung lässt nichts gutes vermuten.
vinacis_vivids
2017-08-14, 12:24:29
Und CB Resolve + TAA benötigt 1,15ms, Seite 144:
http://frostbite-wp-prd.s3.amazonaws.com/wp-content/uploads/2017/03/04173623/GDC-Checkerboard.compressed.pdf
Selbst wenn du den ganzen Schritt 30% langsamer rechnest, kommt für das Gesamtergebnis nur wenig Unterschied heraus.
Checkerboard biezieht sich auf mehr als die 1,15ms..., das ist nur TAA
1800p = 21,07ms
1800p CB = 15,99ms
-> ~25% schnelleres Redering.
https://abload.de/img/cbcibsu.png
deekey777
2017-08-14, 12:26:05
Polaris wie auch Vega werden bei GF gefertigt, beide Chips sind im Vergleich zu der Konkurrenz, die bei TSMC gefertigt wird, stromhungriger. Und irgendwie muss ich gleich an den Vergleich des Apple A8 (TSMC) vs. A8 (Samsung) denken.
Troyan
2017-08-14, 12:31:16
Das würde bedeuten, dass der Prozess von GF deutlich schlechter wäre als bei Samsung. GP107 kommt auch von einem ähnlichen Prozess und ist nicht stromhungrig. In Fakt, der Chip verhält fast 100% ähnlich zu jedem anderen Pascal-Chip.
dildo4u
2017-08-14, 12:32:19
Checkerboard biezieht sich auf mehr als die 1,15ms..., das ist nur TAA
1800p = 21,07ms
1800p CB = 15,99ms
-> ~25% schnelleres Redering.
https://abload.de/img/cbcibsu.png
Da geht's um temporales hochrechnen das hat nix mit FP16 zu tun.
https://static.giantbomb.com/uploads/original/8/87610/2903275-watch-dogs-2-temporal-filtering-performance.png
akuji13
2017-08-14, 12:32:35
So stellt sich AMD die 56 Karten vor.
http://www.guru3d.com/news-story/amd-vega-rx-56-with-triple-fans-surfaces.html
Damit habe ich kein Problem.
Allerdings ist schon meine PowerColor 480 in dem design nicht leise kühlbar so das ich hier große Bedenken habe.
Das würde bedeuten, dass der Prozess von GF deutlich schlechter wäre als bei Samsung. GP107 kommt auch von einem ähnlichen Prozess und ist nicht stromhungrig. In Fakt, der Chip verhält fast 100% ähnlich zu jedem anderen Pascal-Chip.
Das ist einfach Unsinn. Es Polaris läuft ja bei GloFo und Samsung vom Band, da gibts keine Unterschiede.
deekey777
2017-08-14, 12:33:36
Checkerboard biezieht sich auf mehr als die 1,15ms..., das ist nur TAA
1800p = 21,07ms
1800p CB = 15,99ms
-> ~25% schnelleres Redering.
https://abload.de/img/cbcibsu.png
Was genau willst mit dieser Folie zeigen? Es werden weniger Pixel berechnet, daher die Ersparnis. Die Aussage von DICE ist, dass der beim Resolve-Shader durch FP16 30% der Zeit eingespart wird.
Das ist einfach Unsinn. Es Polaris läuft ja bei GloFo und Samsung vom Band, da gibts keine Unterschiede.
Dass es mein Unsinn ist, spricht https://www.computerbase.de/2017-05/geforce-gt-1030-radeon-rx-550-test/4/
Dino-Fossil
2017-08-14, 12:34:13
250W sind für mich nicht "Öko", eher obere Schmerzgrenze bei Luftkühlung.
Natürlich wird es besser aussehen. Perf/W ist immer noch das Ergebnis aus Software und Hardware.
Die deutlich über 250W bei 1080-Performance waren leider(!) abzusehen. :frown:
Das LL Perf/Watt über die erhöhte Performance steigert ist klar, aber bis auf weiteres bleibt DX11 zu verbreitet um einen deutlichen Effekt zu sehen.
Es ist einfach unplausibel, daß man Ingenieurteams so lange und intensiv an Features hat arbeiten lassen, die aber -scheinbar- keinerlei Wirkung zeigen (vor allem, wenn Ähnliches bei nVidia deutlich etwas bringt).
Ja, in der Tat. Entweder ist das Feature einfach sehr komplex, oder nVidia ist da Patentrechtlich sehr gut abgesichert (glaube ich eigentlich eher nicht).
vinacis_vivids
2017-08-14, 12:36:02
Also +30% für CBR und nochmal +30% mit fp16?
https://abload.de/img/fp16q6b9u.png
Polaris wie auch Vega werden bei GF gefertigt, beide Chips sind im Vergleich zu der Konkurrenz, die bei TSMC gefertigt wird, stromhungriger. Und irgendwie muss ich gleich an den Vergleich des Apple A8 (TSMC) vs. A8 (Samsung) denken.
Auch das ist Unsinn. Du vergleichst ja 14LPE mit 16FF+.
NV hat bei der Erstellung der Masken einen sehr großen Optimierungsaufwand getrieben, AMD hat lediglich Massetransistoren hinzugefügt. Ich würd mal denken, dass der Unterschied darin begründet ist. 14LPP soll sich so fein gar nicht optimieren lassen, erst bei 7LP soll das auch bei GloFo möglich sein.
deekey777
2017-08-14, 12:38:20
Also +30% für CBR und nochmal +30% mit fp16?
https://abload.de/img/fp16q6b9u.png
Nein.
Mortalvision
2017-08-14, 12:39:55
Oder man hat wegen Einsparungen nur ein Rumpfteam von ca. 50 Programmierern über?
dildo4u
2017-08-14, 12:40:36
Würde es so viel Performance bringen hätte Dice es auf der PS4 Pro in echten 1800p zu laufen gebracht,gerade das es nur hochgerechnet wird auf 1800p sollte Hinweis genug sein,das es nicht um die Gesamtperformance geht.
Cyphermaster
2017-08-14, 12:45:53
Es sei denn, man hat Bugs im Design und kann einige der neuen Features nur eingeschränkt oder gar nicht nutzen.Das müßte sich dann bei tiefergehenden Tests zeigen. So weitgehend verbuggt kann Vega aber imho eigentlich unmöglich sein, ohne daß es während der Entwicklung schon aufgefallen wäre. Kann ja nicht sein, daß man übersieht, daß keines der Features, an denen man arbeitet, auch nur ansatzweise wirksam läuft.Die angeblich so komplizierte Treiberentwicklung lässt nichts gutes vermuten.Kann auch nur heißen, daß die korrekte/wirksame Ansprache der Features über den Treiber sich deutlich aufwendiger gestaltet, als man abgeschätzt hatte. Kommt aber auf so ziemlich das Gleiche raus, nämlich ein gegenüber den Zielen zu schlechtes Performance/Watt-Verhältnis.
dargo
2017-08-14, 12:47:37
Die deutlich über 250W bei 1080-Performance waren leider(!) abzusehen. :frown:
Ich fürchte die 210W von Vega56 werden auch nicht passen. Das werden eher ~225W. Bei vielen Customs dann 250-275W. :freak: Meine letzte Hoffnung ist Vega Nano, aber bitte auch mit Custom Kühllösungen. Wenn ich aber sehe, dass Vega64 mit ca. 1350Mhz ca. 250W braucht wie hoch taktet dann die Nano? Mit 1,1Ghz? :ulol:
Hübie
2017-08-14, 12:56:03
Also +30% für CBR und nochmal +30% mit fp16?
https://abload.de/img/fp16q6b9u.png
Nein. Statt 1,15 ms beim FP16 Resolver + TAA bräuchte man rund 1,5 ms mit FP32. :rolleyes:
Was genau ist eigentlich der Resolver-Shader? Hab das nicht ganz kapiert und möchte das nicht so hirnlos nachplappern.
G3cko
2017-08-14, 12:59:06
Man hätte lieber auf mehr shader setzen sollen. Dann wäre die skalierung zwar genauso schlecht wie bei Fiji, aber dafür hätte man wieder die LL Fahne schwingen können. So haben sie nichts von beidem. Bleibt nur zu hoffen, dass der Treiber einiges Potenzial liegen lässt.
grauenvoll
2017-08-14, 12:59:27
Das müßte sich dann bei tiefergehenden Tests zeigen. So weitgehend verbuggt kann Vega aber imho eigentlich unmöglich sein, ohne daß es während der Entwicklung schon aufgefallen wäre.
Oder nennen wir es Designfehler, das man erst mit der Treiberentwicklung festgestellt hat, dass das Konzept nicht aufgeht. Aber wie schon sagst, die nächsten Wochen werden es zeigen...
Cyphermaster
2017-08-14, 13:04:37
Wie gut eine Nano kommt, wird man erst sehen, wenn man Skalierungs-Benchmarks fährt. Je nachdem, wie hart der Stromverbrauch in den RX bei Spannung und Takt nach oben duch die Decke geht, kann das auch sehr gut laufen. Schon die Polaris waren mit nur wenig weniger Saft um Längen effizienter - und auch die Undervolting-Versuche auf Vega waren bisher vielversprechend:
http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/2/#a5
http://www.gamersnexus.net/guides/2990-vega-frontier-edition-undervolt-benchmarks-improve-performance
http://media.gamersnexus.net/images/media/2017/GPUs/vega/fe/undervolt/vega-undervolt-frequency_3.png
The red and blue lines converge on this chart, as increasing the power target and removing the thermal limit gives us a perfectly flat 1600MHz frequency – closer to what’s advertised on the box. That said, the red line is pulling 344-370W through the PCIe cables, so that’s a little aggressive and may not be worth the power and thermal load over stock. Undervolting, however, permits 1600MHz and draws 87W less power than the red line, but 15W more than the orange line. That’s a damn good trade.
deekey777
2017-08-14, 13:09:45
...
Was genau ist eigentlich der Resolver-Shader? Hab das nicht ganz kapiert und möchte das nicht so hirnlos nachplappern.
(Wieder-)Herstellung des eigentlichen Bildes?
dargo
2017-08-14, 13:11:30
Die Erwartungen ans UV würde ich nicht zu hoch schrauben. 110mV ist schon eine Menge und ob das in jedem Spiel stabil ist bezweifle ich. Sowas braucht Wochen an Untersuchungen. 50-75mV UV sind da schon realistischer.
Sowas wie PUBG ist nur mit absurdem Zeitaufwand ansatzweise testbar, leider.
Bin übrigens nun fertig, gute Nacht :P
Hat von den Redakteuren der Hardwaremagazine schonmal jemand bei den Devs angefragt ob man Zugang zu Custom Games(also mit PW, so wie es einige große Streamer als PUBG-Partner haben um mit ihren Communities zu spielen) bekommt?
Müßte man halt klar machen, dass es gute Werbung für das Game ist, dass die Benchmarks immer nur als Momentaufnahme gelten und nicht alte Werte zwischen verschiedenen Versionen weiterverwendet werden (da ja immer noch Optimierungen stattfinden).
So sollten ja 2 Accounts reichen um ein "leeres" Spiel zu starten, hat aber mit echtem Spielverlauf dann wenig zu tun. Wobei, ein Benchmark wo einmal geschossen wird und einmal nicht oder einmal 1 Gegner und dann wieder 10 am Schirm sind weil es sich einfach so ergibt ist auch wenig Sinnvoll ;).
Locuza
2017-08-14, 13:14:40
Nvidia optimiert DX11 MT weil Pascal offensichtlich von MT in DX12 nicht harmoniert oder Hardwaremäßig nicht kann (AC). Dazu braucht es eine krasse uArch Änderung und nicht nur Treiber bei NV.
Die Overhead Reduzierung bei DX11 ist in der Sackgasse und der Aufwand wird exponentiell Steigen.
[...]
Das sind jetzt unterschiedliche Dinge in einem Topf:
1. Die Erstellung von Command-Lists bzw. Command-Buffer
2. Die Einteilung in unterschiedliche Command-Buffer-Typen für die GPU
3. Die grundlegende DX12 Umsetzung
[1] Unter DX11 erstellt der Treiber die Command-Buffer für die GPU und aufgrund des Abstraktionsmodell ist es schwer für den Treiber das ganze Mulithreaded zu designen.
Unter DX12 erstellt der Entwickler die Command-Buffer selber und kann das dank dem neuem Design über mehrere Threads machen, damit hat keine GPU ein Problem und davon profitiert auch Nvidia, falls der CPU-Overhead vom DX11 Treiber einen Flaschenhals darstellt.
[2] Zusätzlich gibt es unterschiedliche Command-Buffer-Typen, 3D, Compute, Copy.
Hierbei kann man die Aufgaben und deren Zeitpunkt genauer einteilen und der GPU das Signal geben, dass ab Zeitpunkt X mehrere Aufgaben gleichzeitig erledigt werden können.
AMDs GCN profitiert davon, weil die Hardware flexibel 3D und Compute Aufgaben mixen kann und effektiver Leerphasen füllen.
Nvidias Fermi bis Maxwell sind dagegen starrer und scheinen Probleme damit zu haben, wenn mehrere Command-Buffer gleichzeitig zur Verfügung stehen, weswegen das ganze auch einfach ignoriert wird und alle Command-Lists in eine Queue gefüllt werden.
Pascal kann die Ressourcen dynamischer verwalten und schneller zwischen Aufgabentypen umschalten, weswegen bei Pascal der Treiber unterschiedliche Command-Buffer laufen lässt und ein wenig Performance kann man auch gewinnen.
Intel fehlt ebenso wie Nvidia die Funktionalität auf den Recheneinheiten flexibel 3D und Compute laufen zu lassen, dort wird es intern entweder auch ignoriert oder ohne großen Performancegewinn ausgeführt.
[3] Unter DX12 muss der Entwickler auch das ganze Resource-Management explizit verwalten, eine Aufgabe welche die ersten DX12 Spiele scheinbar mehr schlecht, als recht hinbekommen haben und wo Nvidia allgemein einen sehr guten Treiber hat.
Nvidia hat hauptsächlich oder nur ein Problem mit Nr.3, falls DX12 langsamer läuft, als DX11.
Und das ist kein Hardwareproblem, sondern ein Sofwareproblem, wenn die DX12 Implementierung vom Entwickler die DX11 Umsetzung nicht schlagen kann.
Was genau ist eigentlich der Resolver-Shader? Hab das nicht ganz kapiert und möchte das nicht so hirnlos nachplappern.
Derjenige, der die Loecher zu macht ;)
Locuza
2017-08-14, 13:18:25
Checkerboard Resolve
►Spatial Component
►Color Bounding Box
►Differential Blend Operator
►Object and Primitive IDs
Temporal Component
► Sub-Pixel Jittering
►Velocity-Based Reprojection
►Neighborhood Clamping
http://frostbite-wp-prd.s3.amazonaws.com/wp-content/uploads/2017/03/04173623/GDC-Checkerboard.compressed.pdf
DrFreaK666
2017-08-14, 13:19:58
Hätte man eine geshrinkte Fury X nicht auch höher takten können??
Cyphermaster
2017-08-14, 13:25:43
Die Erwartungen ans UV würde ich nicht zu hoch schrauben. 110mV ist schon eine Menge und ob das in jedem Spiel stabil ist bezweifle ich. Sowas braucht Wochen an Untersuchungen. 50-75mV UV sind da schon realistischer.
Bei den ersten Versuchen, die sich im Netz finden lassen, war's zumindest so, daß unisono die FE mit 1100 (+/-25mV) statt 1200mV stabil waren. Ist natürlich für die RX-Version nicht 1:1 übertragbar (sagte ich ja), aber es deutet doch stark an, daß da ordentlich was geht - was bei der Ähnlichkeit der Architektur zu Fiji und dem aktuellen Bild (weniger "Fiji done right" als "Fiji, just faster") auch nicht sooo weit hergeholt sein dürfte.
deekey777
2017-08-14, 13:26:11
Derjenige, der die Loecher zu macht ;)
Wie der Box-Filter, Wide-Tent, Narrow-Tent.
Die Erklärung ist aber wirklich passend.
http://www.guru3d.com/news-story/amd-vega-rx-56-with-triple-fans-surfaces.html
Mmhh, lecker, eine neue Tri-X. Das Ding bitte als Triple-Slot-Kiste und XTX-Chip mit 1,8 GHz.
Hätte man eine geshrinkte Fury X nicht auch höher takten können??
Nur zu schrumpfen bringt nicht automatisch 50 Prozent höhere Frequenzen. Irgendwann muss man auch mal schauen, dass die Signalwege kurz genug sind, Engpässe entschärfen etc.
MfG,
Raff
vinacis_vivids
2017-08-14, 13:33:34
Das sind jetzt unterschiedliche Dinge in einem Topf:
1. Die Erstellung von Command-Lists bzw. Command-Buffer
2. Die Einteilung in unterschiedliche Command-Buffer-Typen für die GPU
3. Die grundlegende DX12 Umsetzung
[1] Unter DX11 erstellt der Treiber die Command-Buffer für die GPU und aufgrund des Abstraktionsmodell ist es schwer für den Treiber das ganze Mulithreaded zu designen.
Unter DX12 erstellt der Entwickler die Command-Buffer selber und kann das dank dem neuem Design über mehrere Threads machen, damit hat keine GPU ein Problem und davon profitiert auch Nvidia, falls der CPU-Overhead vom DX11 Treiber einen Flaschenhals darstellt.
[2] Zusätzlich gibt es unterschiedliche Command-Buffer-Typen, 3D, Compute, Copy.
Hierbei kann man die Aufgaben und deren Zeitpunkt genauer einteilen und der GPU das Signal geben, dass ab Zeitpunkt X mehrere Aufgaben gleichzeitig erledigt werden können.
AMDs GCN profitiert davon, weil die Hardware flexibel 3D und Compute Aufgaben mixen kann und effektiver Leerphasen füllen.
Nvidias Fermi bis Maxwell sind dagegen starrer und scheinen Probleme damit zu haben, wenn mehrere Command-Buffer gleichzeitig zur Verfügung stehen, weswegen das ganze auch einfach ignoriert wird und alle Command-Lists in eine Queue gefüllt werden.
Pascal kann die Ressourcen dynamischer verwalten und schneller zwischen Aufgabentypen umschalten, weswegen bei Pascal der Treiber unterschiedliche Command-Buffer laufen lässt und ein wenig Performance kann man auch gewinnen.
Intel fehlt ebenso wie Nvidia die Funktionalität auf den Recheneinheiten flexibel 3D und Compute laufen zu lassen, dort wird es intern entweder auch ignoriert oder ohne großen Performancegewinn ausgeführt.
[3] Unter DX12 muss der Entwickler auch das ganze Resource-Management explizit verwalten, eine Aufgabe welche die ersten DX12 Spiele scheinbar mehr schlecht, als recht hinbekommen haben und wo Nvidia allgemein einen sehr guten Treiber hat.
Nvidia hat hauptsächlich oder nur ein Problem mit Nr.3, falls DX12 langsamer läuft, als DX11.
Und das ist kein Hardwareproblem, sondern ein Sofwareproblem, wenn die DX12 Implementierung vom Entwickler die DX11 Umsetzung nicht schlagen kann.
1. Nvidia profitiert eben nicht, sondern verliert unter DX12, Ausnahme SE4, aber auch da verliert NV im Vergleich zu AMD. DX11 bei Nvidia profitiert nach wie vor vom Takt und SingelThreaded in strict order CommandLine, darauf ist auch die ganze uArch ausgelegt (mehr Takt, weniger Cores). Das bedeutet, dass NV stärker von max fps profitiert während die min fps nicht wesentlich besser werden.
2. AMD hat breitere, flexiblere Hardware und ist auf die Parallelisierung des Codes ausgelegt.
3. DX12 Implementierung ist bei Nvidia schwach weil die CUDA Cores verschlossen sind, man will sich nicht in die Karten schauen lassen. Da kann kein Entwickler was machen. Und es sind hardwareseitige features.
horn 12
2017-08-14, 13:35:49
Italien listet Vega 64 Air ---> 487 Euro
Limited Edition 569 Euro
15 Karten gerade bestellt :-)
Picke die Beste Vega raus ...
Dural
2017-08-14, 13:36:49
NV wird nie eine so hohe steigerung unter DX12 erzielen wie es AMD macht, aus einem ganz einfachen grund, bei NV läuft DX11 und OpenGL einfach extrem gut im gegensatz zu AMD.
Cyphermaster
2017-08-14, 13:37:31
Mmhh, lecker, eine neue Tri-X. Das Ding bitte als Triple-Slot-Kiste und XTX-Chip mit 1,8 GHz.Nun, den halben Weg sind wir da wohl schon - denn der Aufkleber hinten auf der Karte zeigt, daß zumindest die dargestellte Karte /edit: entgegen der News-Schlagzeile nicht die RX Vega 56, sondern eine RX Vega 64 sein muß ("XT (http://www.guru3d.com/index.php?ct=news&action=file&id=22767)", nicht "XL"!)... ;)
/edit2: Die Konfiguration mit 8+6pin statt 2x8pin macht das Ganze noch interessanter.
PrivateCeralion
2017-08-14, 13:39:37
Die Aussage, dass AMD es unterstützen soll, ist viel zu einfach. Kurze Antwort, dass kann AMD gar nicht direkt sondern nur Rahmenbedingungen schaffen, dass dies passiert.
Lang:
Das Hauptprojekt von TensorFlow (google!) unterstützen aktuell nur CUDA - siehe: https://www.tensorflow.org/install/install_linux
Bei TF und anderen Projekten die auf NV-GPUs setzen, liegt dies maßgeblich an der Nutzung von cuDNN (https://developer.nvidia.com/cudnn). Man bekommt viel low-level Arbeit abgenommen, aber es gibt natürlich kein OpenCL support.
Für TF mit OpenCL gibt forks (schnell mal gesucht):
- https://github.com/hughperkins/tf-coriander
- https://github.com/benoitsteiner/tensorflow-opencl
AMD's langfristige Lösung ist miOpen:
- http://gpuopen.com/compute-product/miopen/
- https://www.reddit.com/r/Amd/comments/6bklro/we_are_radeon_technologies_group_at_amd_and_were/dhqoalj/
Es gibt auch eine gute Stackoverflow-Antwort: https://stackoverflow.com/questions/37892784/using-keras-tensorflow-with-amd-gpu#answer-43219422
Danke für die ausführliche Antwort.
Ich kenne halt so viele Menschen in meinem Studienumfeld, die sich Nvidia Hardware nur wegen Tensor Flow holen. Die zocken sehr wenig( 1 bis 2 Stunden die Woche), und legen trotzdem über 800€ auf den Tisch, weil ihr Programm dann sehr viel schneller läuft. Und bleiben dann natürlich auch im Nvidia Ökosystem.
Und dann werden sie von ihrem gesamten Umfeld gefragt, welche Hardware sich zum Aufrüsten lohnt. Und dann sagen alle:" Ich hab positive Erfahrungen mit Nvidia gemacht", was ja auch stimmt.
Es wäre ziemlich cool, wenn AMD dies mit Vega ändern würde.
Neulich wurde ich von einem Kommilitonen angesprochen, der mir sagte, dass er total beeindruckt von AMD ist, dass sie ja Apple gleiche Werbung machen und in ihren Videos eine Vision transportieren.
Es ist sehr schön zu sehen, dass AMD eine 180° Wendung gemacht hat und der "Fixer" beerdigt wurde. Die Hardware ist wieder gut, es wird Zeit, dass Software Ökosystem zu vergrößern.
Hübie
2017-08-14, 13:41:00
Vielen Dank deekey777, iuno & Locuza. :up:
boxleitnerb
2017-08-14, 13:41:37
Italien listet Vega 64 Air ---> 487 Euro
Limited Edition 569 Euro
15 Karten gerade bestellt :-)
Picke die Beste Vega raus ...
Und so ein mieses Verhalten auch noch öffentlich zugeben.
Abgesehen davon: Tests abwarten
Hübie
2017-08-14, 13:44:36
1. Nvidia profitiert eben nicht, sondern verliert unter DX12, Ausnahme SE4, aber auch da verliert NV im Vergleich zu AMD. DX11 bei Nvidia profitiert nach wie vor vom Takt und SingelThreaded in strict order CommandLine, [...]
Was redest du da für Zeug? :freak: Eine GPU ist per se schon massiv multi threaded. Was meinst du mit strict order command line? :confused:
horn 12
2017-08-14, 13:44:44
Ne, für den Verkauf bestimmt OHNE Öffnung
E-Price.it sollte auch Karten liefern können
Die Miner werden sie mir aus den Händen reisen.
anddill
2017-08-14, 13:46:10
Auf GH sind die Vega-Karten inzwischen alle eingepflegt, nur aktuell noch ohne Preise:
https://geizhals.de/?fs=rx+vega&in=
Dabei fällt eine Karte aus dem Rahmen:
https://geizhals.eu/asus-rog-strix-radeon-rx-vega-64-oc-gaming-a1664657.html
ASUS 2,5 Slot Monster mit 3 Lüftern. Mal sehen ob es nachher schon lieferbar ist.
DrFreaK666
2017-08-14, 13:46:18
Ne, für den Verkauf bestimmt OHNE Öffnung
E-Price.it sollte auch Karten liefern können
Die Miner werden sie mir aus den Händen reisen.
Die Aussage macht's jetzt auch nicht besser
Dural
2017-08-14, 13:46:26
Ne, für den Verkauf bestimmt OHNE Öffnung
E-Price.it sollte auch Karten liefern können
Die Miner werden sie mir aus den Händen reisen.
Ich wäre mir da nicht so sicher ;)
Und so ein mieses Verhalten auch noch öffentlich zugeben.
Abgesehen davon: Tests abwarten
Ich kaufe horn die zweitbeste 64er ab! :ulol:
MfG,
Raff
Auf GH sind die Vega-Karten inzwischen alle eingepflegt, nur aktuell noch ohne Preise:
https://geizhals.de/?fs=rx+vega&in=
Dabei fällt eine Karte aus dem Rahmen:
https://geizhals.eu/asus-rog-strix-radeon-rx-vega-64-oc-gaming-a1664657.html
ASUS 2,5 Slot Monster mit 3 Lüftern. Mal sehen ob es nachher schon lieferbar ist.
Die Karte hat man Manuell eingepflegt, nachdem diese vor ca einer Woche bekanntgegeben wurde, sind auch alle die identischen Bilder, die auch Asus bereits gezeigt hat.
Glaube, die kommt erst später, aber man kann ja hoffen :)
anddill
2017-08-14, 13:49:53
Ist halt nur interessant daß sie schon drin ist und schon gefunden werden kann.
Hübie
2017-08-14, 13:50:03
ASUS 2,5 Slot Monster mit 3 Lüftern. Mal sehen ob es nachher schon lieferbar ist.
Zu 99,9% nicht, da die AIB wohl erst Anfang August das BIOS bekommen haben sollen und die Fertigung und Fracht ja auch ne Weile dauert. Da mach dir mal keine Hoffnung. :redface:
Cooles Bild der Vega-Flotte von PCPer
https://pbs.twimg.com/media/DHH3feyXUAEKI3a.jpg:large
Die sammeln die ja wie Pokemon, fehlt nur noch die Limited Air dann ist der Vegadex voll :biggrin:
vinacis_vivids
2017-08-14, 13:51:39
Was redest du da für Zeug? :freak: Eine GPU ist per se schon massiv multi threaded. Was meinst du mit strict order command line? :confused:
Eine CPU hat in der Regel 4-8 Threads, wenige sind bei 16/32 Threads. Allein beim resolve EQAA braucht man 16200 Threads bei einer Auflösung von 1920x2160 :rolleyes:
Taigatrommel
2017-08-14, 13:52:30
Ist halt nur interessant daß sie schon drin ist und schon gefunden werden kann.
Asus selbst sprach vor einiger Zeit von "Anfang September". Deshalb glaube ich nicht, dass man von dieser Karte heute irgendwas zu Gesicht bekommen wird.
Lehdro
2017-08-14, 13:53:10
Es ist sehr schön zu sehen, dass AMD eine 180° Wendung gemacht hat und der "Fixer" beerdigt wurde.
Haben sie leider nicht ganz: Ryzen7 seconds (https://www.youtube.com/playlist?list=PLx15eYqzJiffiN8wnDtIiHHuPcLhXIeRf)
Rancor
2017-08-14, 13:55:25
Vega 56 ist denke ich das bessere Gesamtpaket... Noch eine Stunde... :D
Dino-Fossil
2017-08-14, 13:56:11
Ich fürchte die 210W von Vega56 werden auch nicht passen. Das werden eher ~225W. Bei vielen Customs dann 250-275W. :freak: Meine letzte Hoffnung ist Vega Nano, aber bitte auch mit Custom Kühllösungen. Wenn ich aber sehe, dass Vega64 mit ca. 1350Mhz ca. 250W braucht wie hoch taktet dann die Nano? Mit 1,1Ghz? :ulol:
Gut möglich, dass es bisschen mehr wird, AMD scheint eine geringe Überschreitung teils zuzulassen. Könnte trotzdem noch deutlich "vernünftiger" daher kommen, als die 64 - der Abstand zu einer 1070 wäre etwas besser und die Kühlung macht weniger Probleme.
Aber die Customs werden's vermutlich wieder übertreiben. Naja - musst dir eben zur Not mit Wattmann die gewünschten Einstellungen selbst basteln.
dildo4u
2017-08-14, 14:03:55
1. Nvidia profitiert eben nicht, sondern verliert unter DX12, Ausnahme SE4, aber auch da verliert NV im Vergleich zu AMD. DX11 bei Nvidia profitiert nach wie vor vom Takt und SingelThreaded in strict order CommandLine, darauf ist auch die ganze uArch ausgelegt (mehr Takt, weniger Cores). Das bedeutet, dass NV stärker von max fps profitiert während die min fps nicht wesentlich besser werden.
Ich frag mich was dann hier mit Tomb Raider ist.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11460035&postcount=255
bbott
2017-08-14, 14:06:17
Falls der Stromverbrauch des geleakten Tests stimmt, wird man die scheinbar kommende Vega X2 als 2x64er perfekt zum Heizen der Bude einsetzen können :D
Und die >=1kW NTs machen endlich mal Sinn! Echt übel wenn die Vega-Werte stimmen. Ich hatte überlegt von meiner RX 470 auf Vega 56 zu wechseln, wenn per Eco-Bios und/oder UV <=150W erreichbar sind. Bei den 210W war das noch im Bereich des möglichen, aber so sehe ich schwarz :P
Langsam sollte man jemand in die GPU-Entwicklungsabteilung schauen was die so rauchen, wie kann man nur so am Markt vorbei entwickeln. Ein 2facher Polaris wäre einfach besser schneller und mit ~1,1 Ghz deutlich Effizienter.
Wo sind denn die ganzen Vega Verbesserungen?! Ich sehe da eher ein Rückschritt im vergleich zu Fiji/Polaris.
dargo
2017-08-14, 14:07:07
Hätte man eine geshrinkte Fury X nicht auch höher takten können??
Nein, denn das GPU-Design muss die Taktraten auch mitmachen. AMD hat bei Vega nicht umsonst mehr Transistoren für höhere Frequenzen investiert.
dargo
2017-08-14, 14:11:17
Bei den ersten Versuchen, die sich im Netz finden lassen, war's zumindest so, daß unisono die FE mit 1100 (+/-25mV) statt 1200mV stabil waren. Ist natürlich für die RX-Version nicht 1:1 übertragbar (sagte ich ja), aber es deutet doch stark an, daß da ordentlich was geht - was bei der Ähnlichkeit der Architektur zu Fiji und dem aktuellen Bild (weniger "Fiji done right" als "Fiji, just faster") auch nicht sooo weit hergeholt sein dürfte.
Das sind keine Langzeiterfahrungen.
Nochmal... für sowas brauchst du viel Zeit. Ich spreche da aus Erfahrung mit Grenada. Es gab Games die -100mV ohne Grafikfehler mitmachten. Dann gab es welche die damit direkt Bildfehler produzierten. Und welche wo mir erst nach paar Stunden Spielzeit aufgefallen ist, dass da in der Ecke was aufblitzt was nicht sein sollte. Und später können Games erscheinen die Vega stärker auslasten und schon musst du wenige mV wieder drauf legen. UV grundsätzlich ja... aber die Dimensionen von ~100mV halte ich für zu optimistisch.
Italien listet Vega 64 Air ---> 487 Euro
Immerhin ist der Preis gut.
Ich frag mich was dann hier mit Tomb Raider ist.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11460035&postcount=255
Er spricht vom GPU-/ nicht CPU-Limit.
nairune
2017-08-14, 14:11:29
Bei den 210W war das noch im Bereich des möglichen, aber so sehe ich schwarz :P
Wieso? Für Vega 64 wird doch auch 295W angegeben und in dem Bereich scheint sie unter normaler Spielelast auch zu sein.
Also ich gebe die Hoffnung für die 56 noch nicht auf. Sonst bleibt meine Kiste von 2009 (core i5 750, r9 270) eben noch 1-2 Jahre.
dildo4u
2017-08-14, 14:29:52
Er spricht vom GPU-/ nicht CPU-Limit.
Und wichtig ist wie es an der schlechtesten Stelle im Game performt nicht wenn es ohne Probleme mit 100fps läuft.
dargo
2017-08-14, 14:33:08
Bezug zum Thema = Null.
TwoBeers
2017-08-14, 14:49:35
Endlich hat das Warten ein Ende. Gleich wissen wir endlich wie Vega performt, nach all dem rumgerate die letzten Monate und Wochen. Puuuh.
10min noch. :D
Ich hätte mir eigentlich gerne eine geholt, aber ich glaube Performance/Verbrauch stört mich zu sehr. Vielleicht in 6-10 Monaten wenn sie günstiger ist. Schaun mer ma. ;)
Taigatrommel
2017-08-14, 15:03:53
Erste Reviews sind live, aber noch keine Händler haben die Artikel freigeschaltet. :x
Von mir gibt es das erste mal ein fettes Buhhhhh Richtung AMD ... das ist ja noch schlimmer als die Fury... hinsichtlich Lautstärke und ein bisschen im Verbrauch können die Customs es noch richten, aber die sind dann wieder den Aufpreis nicht Wert...
Vielleicht kommt ja beim Preis noch die große Überraschung. :freak:
nairune
2017-08-14, 15:13:53
Wenn man die 56 mit besserem Kühler und evtl. etwas UV gezügelt bekommt, ist sie okay. Aber schon schade die Vorstellung.
THEaaron
2017-08-14, 15:16:16
Eigentlich ziemlich genau was ich erwartet habe. Eher sogar noch besser. Mit der Vega56 kann ich ganz entspannt bei FreeSync bleiben. (y)
Taigatrommel
2017-08-14, 15:16:22
Caseking hat erste Karten gelistet:
Sapphire RX Vega 64 (Black): 609,-
Sapphire RX Vega 64 (Air LE): 679,-
Sapphire RX Vega 64 (AIO): 714,90
Die Karten der anderen Hersteller unterscheiden sich teils deutlich im Preis, die "Blacks" von MSI und Gigabyte sind teils drastisch (649,-) teurer als die Sapphire Varianten. Wassergekühlt geht auch nichts unterhalb der knapp 715,- los. Liefertermine übrigens alle unbekannt! Soviel zum Thema, man kann sie heute bereits effektiv kaufen. Bei den Preisen halte aber selbst ich als quasi Hardcore AMD Fan zurück.
Caseking hat erste Karten gelistet:
Sapphire RX Vega 64 (Black): 609,-
Sapphire RX Vega 64 (Air LE): 679,-
Sapphire RX Vega 64 (AIO): 714,90
Die Karten der anderen Hersteller unterscheiden sich nicht großartig, die "Blacks" der anderen Hersteller sind teils drastisch (649,-) teurer als die Sapphire Varianten. Wassergekühlt geht auch nichts unterhalb der knapp 715,- los. Liefertermine übrigens alle unbekannt! Soviel zum Thema, man kann sie heute bereits effektiv kaufen. Bei den Preisen halte aber selbst ich als quasi Hardcore AMD Fan zurück.
Absolut lächerlich...
1080, here we go.
akuji13
2017-08-14, 15:20:33
So eben wurden alle Auf/Umrüstpläne für den Zweitrechner über den Haufen geworfen. :freak:
Auch wenn man es erahnen konnte, es endgültig bestätigt zu bekommen tut nochmal mehr weh.
[MK2]Mythos
2017-08-14, 15:21:47
Notebooksbilliger.de hat übrigens noch keine Karten. War gerade im Hannover Store.
Gibt es jetzt eigentlich Radeon Packs auch in Deutschland?
TwoBeers
2017-08-14, 15:24:21
Tja, leider wie erwartet.
Performance nur auf 1070/1080 (knapp) Niveau, Verbrauch höher, dafür günstiger .. und das ganze nen Jahr zu spät. :(
Die 56 könnte noch interessant sein.
Wenn ja wenn nicht die Miner die auch entdecken, undervolten, übertakten und dann der Preis durch die Decke geht.
Wie ich gerade schon geschrieben habe, vielleicht in 6 - 10 Monaten interessant.
Wenn ja wenn dann nicht schon Volta um die Ecke guckt. ;)
Schade für AMD, ich hoffe sie kriegen mit Navi mal nen richtigen Kracher hin.
Taigatrommel
2017-08-14, 15:25:06
Gibt es jetzt eigentlich Radeon Packs auch in Deutschland?
Bis jetzt gibt es nicht einmal Karten, die Limited Editions, welche es ja eigentlich nur in Kombination mit Radeon Packs geben sollte, zeigen bei Caseking jedenfalls keine entsprechenden Informationen.
Hier der Direktlink, wen es interessiert:
https://www.caseking.de/cat/index/sCategory/138953
Entropy
2017-08-14, 15:26:43
Wenn ich mich richtig erinnere: die packs soll es geben, aber statt Wolfenstein nur Ghost Wildlands oder so.
Gibt es jetzt eigentlich Radeon Packs auch in Deutschland?
Clicky (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11445148&postcount=9989)
Wie es genau umgesetzt wird steht noch aus.
Rancor
2017-08-14, 15:34:07
Also für die Speccs, die die Vega Karten haben ist das Ergebnis wirklich schlecht... Da muss einiges im Argen liegen... Ich hoffe das es nur Treiberprobleme sind.
Nach Ryzen ist das schon ein wenig enttäuschend.
Grendizer
2017-08-14, 15:49:10
Hmm... selbst beim Mining entäuschen sie ?
Keine Karten bei Mindfactory ? Was ist den da los ? Preise doch noch nicht final und keiner traut sich was rauszulassen ?
dargo
2017-08-14, 16:08:10
Hmm... selbst beim Mining entäuschen sie ?
Na hoffentlich. Dann stehen die Chancen für RX Vega56 Custom @350€ dieses Jahr gut. :)
Grendizer
2017-08-14, 16:11:18
Na hoffentlich. Dann stehen die Chancen für RX Vega56 Custom @350€ dieses Jahr gut. :)
Das schon, aber nach der Ankündigung seitens AMD doch jetzt wieder ernüchternd. Ich habe keine Ahnung, warum sie die Leistungsversprechen ihrer Produkte so maßlos übertreiben. So generiert man doch nur noch entäuschung. Aber Hauptsache in der Presse sein.
Edit: Und das man die Redaktionen zum Vega 56 Tests überreden wollte und es dann nicht rechtzeitig schafft Samples zu liefern ist doch echt ein Armutszeugnis.
Dino-Fossil
2017-08-14, 16:14:40
Kam da je eine offizielle Mining-Hashrate von AMD? Ich dachte eigentlich, das waren alles nur Gerüchte...
Grendizer
2017-08-14, 16:17:04
Kam da je eine offizielle Mining-Hashrate von AMD? Ich dachte eigentlich, dass waren alles nur Gerüchte...
Gab es nicht eine Mitteilung an die Partner, das die Vega Karten eine hohe Minigleistung hätten ? Kann aber sein das das tatsächlich nur ein Gerücht war.
Edit: Du hast recht. Offiziell gab es tatsächlich nichts.
Edit2: Die Luftkühlung ist im Vergleich zur FE jetzt doch auf einmal ein Problem und wohl doch nicht so optimal. Aber zu Thema bin ich ja auch schon angeraunzt worden.
Fragman
2017-08-14, 16:25:38
https://geizhals.de/?fs=vega&in=
die preise sind halt zu hoch, mal die naechsten tage abwarten.
Hübie
2017-08-14, 16:25:41
Eine CPU hat in der Regel 4-8 Threads, wenige sind bei 16/32 Threads. Allein beim resolve EQAA braucht man 16200 Threads bei einer Auflösung von 1920x2160 :rolleyes:
Was hat denn die Anzahl der CPU-Kerne samt SMT auf einmal mit dem FP16-Resolver des Checkerboards am Hut? :confused: Meine Frage was dieses strict order commandline ist hast du ebenfalls nicht beantwortet.
Diese 16200 Threads sind in wenigen Mikrosekunden gemapped (woher hast du die Zahl überhaupt? - Gewöhne dir mal an Quellen anzugeben).
Grendizer
2017-08-14, 16:29:36
https://geizhals.de/?fs=vega&in=
die preise sind halt zu hoch, mal die naechsten tage abwarten.
Vor allem die Verfügbarkeit.
Nur Caseking und da auch nur bestellt ?
Vielleicht ist die ja einem entsprechenden BIOS/Treiber im Mining unschlagbar, gut ist aber, dass sie das bei der Gaminghardware nicht ist.
Taigatrommel
2017-08-14, 16:46:21
Vor allem die Verfügbarkeit.
Nur Caseking und da auch nur bestellt ?
Da bin ich ebenfalls enttäuscht, zumal die Preise bei Caseking IMHO eine Frechheit sind, da sieht einzig und alleine die Liquid Edition halbwegs akzeptabel aus. Laut Tom's Hardware liegt die UVP bei 499€ für die normale schwarze Karte, 609€ für die silberne mit Spielebundle und 715€ für AIO Kühler mit Spielebundle. PCGH und Computerbase geben für die normale schwarze Version ebenfalls 499€ UVP an.
Das keinerlei Karten verfügbar sind, enttäuscht noch mehr. Wurde nicht erst letzte Woche immer mal berichtet, man könne die Karten heute direkt erwerben und es sei sogar eine gute Verfügbarkeit gewährleistet?
Ich würde sofort bestellen, doch nicht zu den Mondpreisen des Käsekönigs.
Edit:
Mindfactory hat gerade eine Aktionsseite zu den Bundles freigeschaltet - https://www.mindfactory.de/Highlights/AMD_Radeon_RX_Vega/new/true
Man bekommt Sniper Elite 4 und Prey gratis, sowie 85,-€ Rabatt beim Kauf eines Ryzen 7 Bundles. Beim Klick auf den Link zu den Aktionsgrafikkarten werden allerdings auch nur die beiden Frontier Editions gelistet. Wie die CPU Bundles auszusehen haben (offenbar ja in Kombination mit bestimmten Mainboards von Asus, MSI und Gigabyte), konnte ich leider nicht erkennen.
Dino-Fossil
2017-08-14, 16:57:29
Somit frage ich mich jetzt, was Vega11 genau wird?
Viel Platz unter RX Vega 56 ist nicht und Polaris nicht so viel älter/schlechter, dass ein (un)mittelbarer Ersatz nötig wäre.
Naja, hat ja vermutlich eh noch Zeit bis dahin.
Grendizer
2017-08-14, 16:57:39
Also nur bis zum 30.09. bekommt man den 85 Euro Rabatt.
Taigatrommel
2017-08-14, 17:01:14
Also nur bis zum 30.09. bekommt man den 85 Euro Rabatt.
Und die beiden kostenlosen Spiele...wobei kostenlos ja so eine Sache ist, gültig ja wohl nur mit der Limited Edition (oder Liquid Edition), welche ja über 100,-€ Aufpreis hat.
AlterSack
2017-08-14, 17:02:42
Somit frage ich mich jetzt, was Vega11 genau wird?
Viel Platz unter RX Vega 56 ist nicht und Polaris nicht so viel älter/schlechter, dass ein (un)mittelbarer Ersatz nötig wäre.
Naja, hat ja vermutlich eh noch Zeit bis dahin.
Vega11 wird....gecancelt.
Würde grösser und nicht schneller als Polaris,
also überflüssig.
Grendizer
2017-08-14, 17:06:30
Und die beiden kostenlosen Spiele...wobei kostenlos ja so eine Sache ist, gültig ja wohl nur mit der Limited Edition (oder Liquid Edition), welche ja über 100,-€ Aufpreis hat.
Ich empfinde die auch als abgehangen:
Prey gab schon für 20 Euro und Sniper Elite 4 für 25 Euro...
Edit: Irgendwie extrem ruhig. Man könnte meinen, das tatsächlich ein schwarzes Loch aufgegangen ist.
Edit2: Also breite Verfügbarkeit mit mehreren tausend Karten ?
Mir ist das grad was aufgefallen: Die neue Geometrieengine läuft doch nicht, also muss das Ding doch im Fiji-Mode laufen - und war das nicht schon bei Fiji der Engpass? Das würde einiges erklären.
Überhaupt war das mal wieder ein all-you-can-fail launch.
- Die Geometrieengine läuft nicht, dadurch kann das Backend nicht gefüttert werden, weil man anstatt das ganze Teil einfach mal adäquat zu verbreitern da unbedingt so ein Softwaremonster einbauen musste, von dem man nicht weiss, ob das je wirklich effizient läuft
- dadurch bedingt kann auch der tolle neue Rasterizer natürlich seine Vorzüge überhaupt nicht ausspielen - aber der funktioniert ja nicht wie er soll, sonst würde Vega nicht bei UHD regelmäßig die Bandbreite ausgehen
- diese Bandbreitenproblematik wird noch dadurch verschärft, dass man den HBCC (ein weiteres unkalkulierbares Softwaremonster) nicht funktioniert wie eigentlich vorgesehen...
Tolle Arbeit. Man kann ja so Hardware ruhig bauen, aber dann doch bitte nur, wenn man weiss, dass man die Software dazu auch hinbekommt und nicht erst in 10 Jahren...
Natürlich werden sich diese Softwaremonster dann bei Navi auszahlen, da gibts dann aber das nächste Softwaremonster, nämlich das multchip-Design...
Was meinst du? Der DSBR soll doch jetzt "funktionieren" oder etwa nicht? Hat jemand mit der RX mal diesen "optischen" Test mit den ueberlappenden Dreiecken gemacht?
Primitive Shader sind interner Umbau, das wurde schon mehrfach besprochen. Da funktioniert alles wie es soll. Und dass der HBCC ganz ohne VRAM-Knappheit irgendwo Leistung herzaubern soll, hat doch niemand je wirklich geglaubt oder?
Was meinst du? Der DSBR soll doch jetzt "funktionieren" oder etwa nicht? Hat jemand mit der RX mal diesen "optischen" Test mit den ueberlappenden Dreiecken gemacht?
Primitive Shader sind interner Umbau, das wurde schon mehrfach besprochen. Da funktioniert alles wie es soll. Und dass der HBCC ganz ohne VRAM-Knappheit irgendwo Leistung herzaubern soll, hat doch niemand je wirklich geglaubt oder?
Na aben nicht. CB schreibt, dass AMD bestätigt hat, dass es die Primitive-Shaderengine noch inaktiv ist - also gibts auch kein Culling und keinen höheren Polydurchsatz...
Taigatrommel
2017-08-14, 17:27:56
Edit: Irgendwie extrem ruhig. Man könnte meinen, das tatsächlich ein schwarzes Loch aufgegangen ist.
Edit2: Also breite Verfügbarkeit mit mehreren tausend Karten ?
Davon war die Rede, alleine Sapphire sollte mehrere Tausend Karten am Start haben, dazu dürften ja noch XFX, Powercolor oder größere Partner wie Gigabyte, Asus und MSI kommen. Käsekönig hat den Preis der Sapphire Liquid in den vergangenen zwei Stunden übrigens um 65,-€ erhöht. ;D
Dino-Fossil
2017-08-14, 17:31:25
Na aben nicht. CB schreibt, dass AMD bestätigt hat, dass es die Primitive-Shaderengine noch inaktiv ist - also gibts auch kein Culling und keinen höheren Polydurchsatz...
Sollte der DSBR nicht unabhängig von den primitive shadern sein?
Also zwei Features die teils ähnliche (oder synergetische) Auswirkungen haben können, aber andere Ansätze verfolgen.
Taigatrommel
2017-08-14, 17:40:59
Mindfactory hat Karten gelistet und auf Lager!
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+VEGA.html
Die luftgekühlten Versionen, egal ob Black oder LE, kosten 609,-€ die Liquid Editionen genau 715,-€
Alle Varianten sind auf Lager (XFX und Sapphire).
PrivateCeralion
2017-08-14, 17:42:33
Mindfactory hat Karten gelistet und auf Lager!
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+VEGA.html
Die luftgekühlten Versionen, egal ob Black oder LE, kosten 609,-€ die Liquid Editionen genau 715,-€
Alle Varianten sind auf Lager (XFX und Sapphire).
Black kostet 509€
Taigatrommel
2017-08-14, 17:44:57
Black kostet 509€
Wird bei mir mit 609,-€ angezeigt, egal ob nun XFX oder Sapphire?
dildo4u
2017-08-14, 17:48:21
Wird bei mir mit 609,-€ angezeigt, egal ob nun XFX oder Sapphire?
https://www.mindfactory.de/Highlights/MindStar
Ph03n!X
2017-08-14, 17:56:55
Wird bei mir mit 509€ angezeigt.
Na aben nicht. CB schreibt, dass AMD bestätigt hat, dass es die Primitive-Shaderengine noch inaktiv ist - also gibts auch kein Culling und keinen höheren Polydurchsatz...
Da gibt es auch kein Culling umsonst. Das macht der Dev, wie bisher (ggf. ueber CS) auch. Ich sehe nicht, was man da (de)aktivieren soll.
Digidi
2017-08-14, 18:09:00
[Da gibt es auch kein Culling umsonst. Das macht der Dev, wie bisher (ggf. ueber CS) auch. Ich sehe nicht, was man da (de)aktivieren soll.
https://cdn01.hardwareluxx.de/razuna/assets/1/26B50487C56D4E62B04AF098AD0E73B1/img/9F7DA2C1F2694593A4E5ECD439F7299E/amd-vega-techday-vega-architecture-pressdeck-28_9F7DA2C1F2694593A4E5ECD439F7299E.jpg
Das culling kann besser ausgeführt werden wenn man den Primitive Shader steuert Moment ich auch die Folie....
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43866-amd-radeon-rx-vega-64-und-56-offiziell-vorgestellt-preise-details-und-mehr.html?start=1
Und genau so sieht die Leistung z.Z. aus. Es kommt einfach nix beim Backend an...
Vega Native = Fiji Native + Takt und Ende. Genau so sehen die Reviews auch aus. Es gibt eben doch einige Fälle, wo das einfach nicht ausreicht.
Kriton
2017-08-14, 18:16:47
Na aben nicht. CB schreibt, dass AMD bestätigt hat, dass es die Primitive-Shaderengine noch inaktiv ist - also gibts auch kein Culling und keinen höheren Polydurchsatz...
Golem im Grunde auch:
Entwickler müssen die neue Shader-Stage in ihre Spiele integrieren, damit sie genutzt werden kann - entweder die von AMD oder eine eigene. So soll der Durchsatz von 4 auf 17 Polygone pro Takt steigen. Künftig möchte AMD die Primitive Shader auch als alternativen Pfad im Treiber anbieten, so sollen auch Spiele ohne dedizierte Implementierung profitieren.
https://www.golem.de/news/radeon-rx-vega-64-im-test-schnell-und-durstig-mit-potenzial-1708-127610-3.html
Taigatrommel
2017-08-14, 18:31:45
https://www.mindfactory.de/Highlights/MindStar
Danke für den Link, habe noch eine abgegriffen.
Caseking hat von Sapphire jetzt die schwarze Version, sowie die AIO Version lagernd. Bei ersterer hat man natürlich am Preis gedreht - 649,-€ soll man dafür nun hinlegen. ;D:freak:
Digidi
2017-08-14, 18:42:18
Golem im Grunde auch:
https://www.golem.de/news/radeon-rx-vega-64-im-test-schnell-und-durstig-mit-potenzial-1708-127610-3.html
Danke für den Link von Golem. Nicht um sonst bei meinen Top3 Textseiten, da bekommt man immer mehr Background Infos.
https://cdn01.hardwareluxx.de/razuna/assets/1/26B50487C56D4E62B04AF098AD0E73B1/img/9F7DA2C1F2694593A4E5ECD439F7299E/amd-vega-techday-vega-architecture-pressdeck-28_9F7DA2C1F2694593A4E5ECD439F7299E.jpg
Das culling kann besser ausgeführt werden wenn man den Primitive Shader steuert Moment ich auch die Folie....
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/43866-amd-radeon-rx-vega-64-und-56-offiziell-vorgestellt-preise-details-und-mehr.html?start=1
Das aendert nichts daran, dass man es erst implementieren muss. Es wird im Shader gemacht, ergo vom Entwickler, siehe eine Folie davor:
https://pics.computerbase.de/7/9/4/9/4/10-1080.2504167248.jpg
Dass die Aenderung auf Hardwareebene vom Treiber beruecksichtigt werden muss ist voellig klar. Davon, dass der Treiber ploetzlich in allen moeglichen Spielen Culling Shader einfuehren soll, war bisher aber keine Rede.
Und genau so sieht die Leistung z.Z. aus. Es kommt einfach nix beim Backend an...
Vega Native = Fiji Native + Takt und Ende. Genau so sehen die Reviews auch aus.
Fuer mich sieht es nach wie vor so aus, dass man einfach zu wenig Bandbreite hat. Dass die Leistung je nach Spiel stark schwankt erklaert das auch:
https://pics.computerbase.de/7/9/4/9/4/17-1080.496798911.jpg
Und V64@Max ist im CB UHD Ranking 14% vor V56@Max, was exakt den 14% mehr CUs entspricht. Wuerde "im Backend nichts ankommen" wuerde das ja wohl nicht 1:1 durchschlagen.
https://www.golem.de/news/radeon-rx-vega-64-im-test-schnell-und-durstig-mit-potenzial-1708-127610-3.html
@y33h@ kannst du das vielleicht ausfuehren? Wollen die jetzt anfangen, Geometry Shader zu injecten?
y33H@
2017-08-14, 18:54:29
Nein, das läuft Treiber-seitig unter DirectX sagte AMD mir, ist aber derzeit Zukunft.
Und bei UHD fehlt auch einfach Bandbreite, die 14% sind also wohl eher Zufall...
Danke fuer die Antwort. Verstehe ich nicht ganz, aber gut.
Ich war der Meinung, die (Hardware) Shader stage, die frueher da war, fehlt jetzt und man packt etwa Vertex+Geometry Shader zu einer hardware stage zusammen. Wenn das nicht der Fall ist und die Stage immer noch da ist, aber nicht mehr genutzt werden soll, verstehe ich den ganzen Aufriss nicht.
Digidi
2017-08-14, 18:59:21
Das aendert nichts daran, dass man es erst implementieren muss. Es wird im Shader gemacht, ergo vom Entwickler, siehe eine Folie davor:
https://pics.computerbase.de/7/9/4/9/4/10-1080.2504167248.jpg
Dass die Aenderung auf Hardwareebene vom Treiber beruecksichtigt werden muss ist voellig klar. Davon, dass der Treiber ploetzlich in allen moeglichen Spielen Culling Shader einfuehren soll, war bisher aber keine Rede.
Fuer mich sieht es nach wie vor so aus, dass man einfach zu wenig Bandbreite hat. Dass die Leistung je nach Spiel stark schwankt erklaert das auch:
https://pics.computerbase.de/7/9/4/9/4/17-1080.496798911.jpg
Und V64@Max ist im CB UHD Ranking 14% vor V56@Max, was exakt den 14% mehr CUs entspricht. Wuerde "im Backend nichts ankommen" wuerde das ja wohl nicht 1:1 durchschlagen.
@y33h@ kannst du das vielleicht ausfuehren? Wollen die jetzt anfangen, Geometry Shader zu injecten?
Die Bandbreite hängt ja mit dem Culling zusammen. Wenn man viel Culling betreibt sinkt die benötigte Bandbreite oder?
Digidi
2017-08-14, 19:01:46
Danke fuer die Antwort. Verstehe ich nicht ganz, aber gut.
Ich war der Meinung, die (Hardware) Shader stage, die frueher da war, fehlt jetzt und man packt etwa Vertex+Geometry Shader zu einer hardware stage zusammen. Wenn das nicht der Fall ist und die Stage immer noch da ist, aber nicht mehr genutzt werden soll, verstehe ich den ganzen Aufriss nicht.
https://mobile.twitter.com/_/status/895587041269952512?ref_src=twsrc%5Etfw&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2Ftwitter.min.html%2389630478630746 9313
Das hilft dir vielleicht weiter.
Die Bandbreite hängt ja mit dem Culling zusammen. Wenn man viel Culling betreibt sinkt die benötigte Bandbreite oder?
Man designt aber keinen Chip auf Kante mit irgendwelchen hypothetischen shaderseitigen culling Effekten, die ueberhaupt erst mal ein Entwickler implementieren muss.
Das hilft dir vielleicht weiter.
Nein, aber danke fuer die Muehe ;)
Digidi
2017-08-14, 19:04:54
Man designt aber keinen Chip auf Kante mit irgendwelchen voellig hypothetischen shaderseitigen culling Effekten, die ueberhaupt erst mal ein Entwickler implementieren muss.
Na ja Async Compute Einheiten ist doch genau das selbe. Siehe 290x die rennt ihn Doom allen davon wenn es aktiviert ist.
Auch ein Chip der auf Kante ist.
Nein, aber danke fuer die Muehe ;)
Hast du den ganzen Tweet gelesen? ;)
Man designt aber keinen Chip auf Kante mit irgendwelchen hypothetischen shaderseitigen culling Effekten, die ueberhaupt erst mal ein Entwickler implementieren muss.
Nein, aber danke fuer die Muehe ;)
In diesem Falle wohl schon, denn so im native mode ist das mMn ein richtiger Flaschenhals. Reicht für den Notfall, sollte aber nicht die Regel sein.
Hast du den ganzen Tweet gelesen? ;)
Ja, er sagt, dass es voellig transparent funktionieren soll. Das ergibt fuer mich fuer die eine Sache (stages zusammenfuehren) Sinn, fuer die andere aber halt nicht (culling via "primitive shader"). Zumal ich mir nicht vorstellen kann, dass man als Entwickler Spass damit hat wenn er auch noch schreibt dass man keine Kontrolle hat. Was soll passieren, wenn die Engine z.B. eh schon viel Culling ueber async compute macht? Dann hat man einen extra pass, der Zeit kostet oder darf fuer Vega extra wieder umbauen?
edit: Auch diese Folie haengt noch davor:
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/slides-25.jpg
A programmable shader-based approach, das widerspricht einfach dem, was Rys (und y33h@) sagt, oder er hat die Frage falsch verstanden.
Na ja Async Compute Einheiten ist doch genau das selbe.
Auch ein Chip der auf Kante ist.
Die MECs werden auch schon lange fuer Computing benutzt, da wollte man einfach extra Blocke und mehr Modularitaet/Skalierbarkeit haben anstatt den ME/CP aufzublaehen. Sehe keinen Zusammenhang.
Grendizer
2017-08-14, 19:11:15
Findet ihr nicht, das die Vega sich in Doom zwar von der 1080 absetzen kann, aber mit 14% bei den min. fps bzw. 12% bei den average fps dann doch nicht so gut performt, wie man geglaubt hatte ?
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Vergleich-vs-Nvidia-1235712/
dargo
2017-08-14, 19:17:55
Na ja Async Compute Einheiten ist doch genau das selbe. Siehe 290x die rennt ihn Doom allen davon wenn es aktiviert ist.
Dass Hawaii so in Doom rennt wie er rennt liegt nicht nur an AC. Es ist ein Teil von mehreren Aspekten.
Digidi
2017-08-14, 19:37:18
Kann das Mal jemand testen ?
http://www.realworldtech.com/tile-based-rasterization-nvidia-gpus/
Das ist der Rasterizer Test wo man sehen kann ob der neue DSBR an ist. Siehe Github Link.
Hier der Link zur exe.
https://github.com/nlguillemot/trianglebin/releases
dosenfisch24
2017-08-14, 19:53:19
Der neue Treiber lässt sich zwar anstandslos mit Vega FE installieren, aber trianglebin sieht noch genau so aus wie mit dem alten Releasetreiber. Vielleicht schaltet der neue Treiber das für die FE noch nicht frei.
Digidi
2017-08-14, 19:57:25
Der neue Treiber lässt sich zwar anstandslos mit Vega FE installieren, aber trianglebin sieht noch genau so aus wie mit dem alten Releasetreiber. Vielleicht schaltet der neue Treiber das für die FE noch nicht frei.
Danke Daumen hoch!
Locuza
2017-08-14, 20:23:25
Das White-Paper zu Vega ist interessant und gibt etwas mehr Einblick bezüglich der ganzen Änderungen:
http://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf
Von mir zufällig gewählte Punkte:
- Der HBCC befindet sich wie schon gewusst in aktiver Entwicklung, laut Fußnote:
"This feature is still in development and may be better utilized in future releases of Radeon Software, SDKs available via GPUOpen, or updates from the owners of 3D graphics APIs"
- Primitive Shaders werden etwas näher beleuchtet und auch das die Anwendungsbereiche ziemlich breit ausfallen können.
Laut internen Tests hat man auch schon eine Peak-rate von 17 bei 1Ghz erreicht, gegenüber den 4 vom klassischem Pfad und gegenüber den 11 die man des Tech-Teasers genannt hat.
"Peak discard rate: Data based on AMD Internal testing of a prototype RX Vega sample with a prototype branch of driver 17.320.
Results may vary for final product, and performance may vary based on use of latest available drivers."
Ein kleiner Auszug aus dem Text:
"Primitive shaders can operate on a variety of different geometric primitives, including individual vertices, polygons, and patch surfaces.
When tessellation is enabled, a surface shader is generated to process patches and control points before the surface is tessellated, and the resulting polygons are sent to the primitive shader.
In this case, the surface shader combines the vertex shading and hull shading stages of the Direct3D graphics pipeline, while the primitive shader replaces the domain shading and geometry shading stages."
"Primitive shaders will coexist with the standard hardware geometry pipeline rather than replacing it. "
An den neuen N(ext)G(eneration)G(eometry)-Pfad scheint auch die verbesserte Arbeitsverteilung gebunden zu sein:
"Another innovation of “Vega’s” NGG is improved load balancing across multiple geometry engines."
"Some draw calls also include many small instances (i.e., they render many similar versions of a simple object).
If an instance does not include enough primitives to fill a wavefront of 64 threads, then it cannot take full advantage of the GPU’s parallel processing capability, and some proportion of the GPU's capacity goes unused.
The IWD can mitigate this effect by packing multiple small instances into a single wavefront, providing a substantial boost to utilization."
Allgemein hat AMD den Parameter-Cache gegenüber Polaris bei den Geometry-Engines doppelt so groß gestaltet.
- Ein paar Details zum DSBR finden sich dort, was unter den getesteten Spielen bis zu 10% Performance gebracht hat, bei gleichem Energieverbrauch.
Wieder ein technischer Auszug:
"Pixel shading can also be deferred until an entire batch has been processed, so that only visible foreground pixels need
to be shaded. This deferred step can be disabled selectively for batches that contain polygons with transparency.
Deferred shading reduces unnecessary work by reducing overdraw (i.e., cases where pixel shaders are executed multiple times when different polygons overlap a single screen pixel).
Deferred pixel processing works by using a scoreboard for color samples prior to executing pixel shaders on them.
If a later sample occludes or overwrites an earlier sample, the earlier sample can be discarded before any pixel shading is done on it.
The scoreboard has limited depth, so it is most powerful when used in conjunction with binning"
- Noch weitere Details über den Aufwand für die höheren Taktraten, was für Clock-Domains es gibt und welche Display-Fähigkeiten der Chip besitzt.
Danke fuer den Link. Der Auszug zum Primitive Shader ist uebrigens ganz genau die Tabelle aus den radeonsi Kommentaren in Textform ;)
Und das
Primitive shaders will coexist with the standard hardware geometry pipeline rather than replacing it.
Soll wohl heissen, dass tatsaechlich doch keine von den alten Hardware Stages wirklich fehlt und die Zusammenfassung nur aus Performancegruenden passiert. Insofern wird sicherlich das gemeint sein, wenn man davon spricht, der Treiber wuerde das Feature noch aktivieren. Automatisch gecullt wird deshalb aber trotzdem nichts, wenn man es nicht im Shader macht.
bertramfx
2017-08-14, 20:39:40
Hat sich AMD mit HBM und HBM2 im consumer Segment eventuell verhoben? Mit Polaris und Vega sieht es so aus, als hätte man besser die Effizienz/Auslastung der GPUs verbessert als mit neuen Speichertechnologien experimentiert. Zudem dürfte HBM2 für den Grossteil der Vega Verzögerung verantwortlich sein - schließlich waren die Doom Benchmarks von Dezember ( vor 8 Monaten ) schon ähnlich gut wie heute...
Digidi
2017-08-14, 20:54:52
Wieso ist eigentlich der DSBR immer noch off???
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/3/#a1
Sind sie denn wahnsinnig?
Ich verstehe das nicht. Warum bringt eigentlich das Treiber Team kurz vorher neue Treiber für alte Karten raus anstatt alle Hebel in Bewegung zu setzen für Vega und den DSBR.
Ich hoffe da Haken Mal die Magazine nach was da los ist
Linmoum
2017-08-14, 21:05:10
Der DSBR ist bei RX Vega aktiv, so, wie es von AMD auch kommuniziert wurde.
Anders als bei der Radeon Vega Frontier Edition ist der DSBR auf der Radeon RX Vega bereits mit dem ersten Treiber aktiviert und soll in den meisten Spielen auch genutzt werden. Eigene Untersuchungen von ComputerBase mit Hilfe des Tools Trianglebin bestätigen, dass Vega in der Tat anders als GCN rendert. Das von Maxwell und Pascal bekannte Muster lässt sich aber nicht erkennen.
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/
Locuza
2017-08-14, 21:11:09
Danke fuer den Link. Der Auszug zum Primitive Shader ist uebrigens ganz genau die Tabelle aus den radeonsi Kommentaren in Textform ;)
Und das
Soll wohl heissen, dass tatsaechlich doch keine von den alten Hardware Stages wirklich fehlt und die Zusammenfassung nur aus Performancegruenden passiert. Insofern wird sicherlich das gemeint sein, wenn man davon spricht, der Treiber wuerde das Feature noch aktivieren. Automatisch gecullt wird deshalb aber trotzdem nichts, wenn man es nicht im Shader macht.
Ich empfinde es als verwirrend, denn Rys Tweets und die Umschreibungen kann man auch so interpretieren, dass etwas automatisch läuft und nicht direkt von einem Entwickler eingepflegt werden muss.
Rys hat auch gesagt, dass vorerst keine Pläne existieren, dass ganze direkt in die Hand von Entwicklern zu geben.
Dann stellt sich natürlich die Frage, was macht dann der Treiber im Hintergrund und wann?
Irgendwie hat ja AMD einen Fall konstruiert, wo bis zu 17 Primitives geculled werden und nicht nur 4 (Bei 1 Ghz Takt).
Alle synthetischen Benches welche die Presse verwendet hat, bescheinigen aber nur 4 und unter Spielen gibt es auch keinen definitiven Ausschlag.
Wieso ist eigentlich der DSBR immer noch off???
[...]
Soll an sein und Primitive Culling ist nicht die Aufgabe vom DSBR.
Dino-Fossil
2017-08-14, 21:17:43
Hier ist definitiv noch einiges an offenen Fragen...
Hoffe nur, dass es nicht weitestgehend "kreatives" Marketing war.
Digidi
2017-08-14, 21:18:43
Soll an sein und Primitive Culling ist nicht die Aufgabe vom DSBR.
Die Ergebnisse im vergleich zu Vega FE sind aber 1 zu1 und im Forum hier, gibt es auch jemanden der sagt, dass der neue Treiber keine Änderung bei Trianglebin bringt. .....
Im übrigen beschreibt Computerbase ja das der DSBR massive Bandbreite zum HBM spart was hier auch alles potentielles Problem noch offen ist. Hier ist mächtig was faul.
Dino-Fossil
2017-08-14, 21:21:50
Die Ergebnisse zu Vega FE sind aber 1 zu1 und im Forum hier, gibt es auch jemanden der sagt, dass der neue Treiber keine Änderung bei Trianglebin bringt. .....
Ja, bei der FE, aber es gibt auch keine Garantie, dass der Treiber den DSBR in der FE ebenfalls aktiviert. Zumal CB im Review geschrieben haben, dass trianglebin mit der RX "anders" aussieht.
Sonderlich effektiv scheint er aber (bisher?) sowieso nicht zu sein...
Digidi
2017-08-14, 21:27:36
Ja, bei der FE, aber es gibt auch keine Garantie, dass der Treiber den DSBR in der FE ebenfalls aktiviert. Zumal CB im Review geschrieben haben, dass trianglebin mit der RX "anders" aussieht.
Sonderlich effektiv scheint er aber (bisher?) sowieso nicht zu sein...
Das ist ja das merkwürdige es gibt kaum Unterschiede zur Vega FE. Leider hat Computerbase keine Screenshots gepostet von Trianglebin
Grendizer
2017-08-14, 21:29:23
Das ist ja das merkwürdige es gibt kaum Unterschiede zur Vega FE. Leider hat Computerbase keine Screenshots gepostet von Trianglebin
Ich vermute einfach, das intern einige Sachen überhaupt nicht funktionieren und jetzt müssen Workarounds gefunden werden um nicht ganz so bescheuert dazustehen. Aber das war bisher noch nicht durchgängig vom Erfolg gekrönt.
G3cko
2017-08-14, 21:37:10
650€ Was sind denn das für Preise... Wechselkurs liegt sogar bei 1,18 aktuell.
vinacis_vivids
2017-08-14, 21:39:09
Gehen weg wie warme Semmeln.
dargo
2017-08-14, 21:39:43
Du bist seit 2012 hier registriert und hast immer noch nichts vom Deppenaufschlag gehört? :freak:
Grendizer
2017-08-14, 21:41:13
Habe mal eine potentielle Wertanlage getätigt.... für 526 konnte man bei den Mindstars vorhin eigentlich nichts falsch machen....
Grendizer
2017-08-14, 21:42:14
Du bist seit 2012 hier registriert und hast immer noch nichts vom Deppenaufschlag gehört? :freak:
Wie lange war der Polaris Deppenaufschlag aktiv ?
G3cko
2017-08-14, 21:44:19
Du bist seit 2012 hier registriert und hast immer noch nichts vom Deppenaufschlag gehört? :freak:
Hab ich von gehört. Aber da meine 7970 aus 2012 war hab ich das wohl schon wieder vergessen... ;D
Menace
2017-08-14, 21:46:14
Kann es sein, dass gar keine Referenzdesign von Vega 64 nachkommt. Mindfactory schreibt nur etwas von "nicht mehr lieferbar".
TheGood
2017-08-14, 21:46:37
ISt es nicht schön, dass man selbst nach dem Release noch über die ganze Architektur von VEGA diskutieren kann?
Wann hatten wir denn das das letzte mal.
Die Frage ist, ist das alles einfach zu neu oder funktioniert es tatsächlcih nicht wie gedacht. Ich bezweifle auch dass das Ganze Mehr an Transistoren nur für den Takt draufgegangen sein soll...
Natürlich ist das für AMD eher unschön....
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.