PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

dargo
2017-08-14, 20:40:55
Hat eigentlich eine Seite Forza Horizon 3 gebencht? Hier würde mich die Performance auch noch sehr interessieren.

Troyan
2017-08-14, 20:42:54
Stimmt.
https://i.gyazo.com/3f9f5ed718230fbf0d32feddab8aac06.png

Bei PCGH sind es 25% gegen 1075Mhz: http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Vergleich-vs-Nvidia-1235712/

Bei Techreport sind es 15,3% gegenüber der EVGA GeForce GTX 1070 SC2: http://techreport.com/review/32391/amd-radeon-rx-vega-64-and-rx-vega-56-graphics-cards-reviewed/6

Bei PCLab.com sind es 17% bis 20% gegenüber der GTX1070FE: http://pclab.pl/art75140-15.html

Bei hardwarecanucks sind es 10% zur GTX1070: http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/75865-amd-rx-vega-64-vega-56-performance-review-11.html

Bei Bit-Tech sind es 12% zur Palit GTX1070: https://www.bit-tech.net/reviews/tech/graphics/amd-radeon-rx-vega-64-and-rx-vega-56-review/11/

Der Unterschied zwischen der 300W RX Vega und einer Custom GTX980TI (leicht schneller als eine Custom GTX1070) mit <=300W liegt bei rund 10% in solchen Spielen.

Wer ältere Spiele zockt, der hat schon lange eine ausreichende Grafikkarte. Vega bringt überhaupt keine Vorteile.

Linmoum
2017-08-14, 20:43:38
Gibt's (abseits von Gamersnexus) eigentlich noch weitere UV-Tests? Bevorzugt für die 56, die 64 interessiert mich ehrlich gesagt nicht.

Irgendwie sieht man überwiegend nur max. PT, OC und weiß der Geier was aber selten nur das, wo sich, gerade bei Radeons, oftmals noch sehr viel rausholen lässt.

bertramfx
2017-08-14, 20:47:27
Als Kunde hat man nun die Wahl: man kauft kurzfristig ein besseres Produkt ( von nvidia ) und erhält eine langfristige Stagnation ( ähnlich wie im CPU Markt bis zur Einführung von Zen ), oder man kauft ein kurzfristig leicht schlechteres Produkt ( von amd ) und finanziert eine langfristig vorteilhaftere Konkurrenzsituation ( siehe Zen ).

Blöde Situation.

dargo
2017-08-14, 20:48:43
Also wenn ich das hier sehe frage ich mich echt auf welchen Stand die Grafiktreiber bei Vega aktuell sind? :freak:
http://pclab.pl/art75140-7.html

RX Vega 64 teilweise langsamer als Polaris 20. :crazy:

Pirx
2017-08-14, 20:48:52
...
Wer ältere Spiele zockt, der hat schon lange eine ausreichende Grafikkarte. Vega bringt überhaupt keine Vorteile.
Das hast du sicher auch schon bei der HD 7970 geschrieben...

pixeljetstream
2017-08-14, 20:51:31
was ist es denn?
klär uns unwissende doch mal auf.

das würde mich nämlich wirklich interessieren, warum man die Rohleistung nicht so auf die Straße bringt

Der Chip ist ein Zusammenspiel von zig internen Units. In komplexen Anwendungsfällen wie ein Spiel verschieben sich die bottlenecks mehr oder weniger laufend.

Theoretische Limits wie tflops/s oder bandwidth, werden mit einfachen direkten Tests bestimmt. Diese sollen möglichst "den schnellsten Pfad" durch den Chip gehen können um somit das Peak zu erfassen. Sagen wir mal compute statt grafik, keine Texturen sondern blöcke von linearem Speicher mit Idealzugriffspattern usw...

Per Definition ist ein Chip immer am Limit, es ist halt die Frage welche von den vielen internen Engines es nun genau ist. Aber es ist nicht "ein Limit" über den ganzen Frame. Daher brauch man diverse GPU counter, detailiertes Profiling und auch Hintergrundwissen die Werte zu interpretieren. Je homogener die Aufgabe die der Chip bearbeitet, desto einfacher für den Entwickler. Stichwort große compute jobs, post processing passes usw. Je mehr Kleinkram, desto schwerer, weil alles mehr im Flux ist.

Sowas wie "Bandbreite", ist nettes Stichwort, aber was ist jetzt gemeint, der traffic zwischen den caches zum dram, innerhalb der caches, daten zwischen den units. Wird zu wenig gespart wo gespart werden sollte?
Der Kreis der Leute die sich darüber effektiv unterhalten können ist relativ klein, daher ist imo die Aussage von wegen "der Chip sei am Limit" halt nicht wirklich weiterführend.

horn 12
2017-08-14, 20:52:32
Bekomme nur eine einzelne Karte und Preis ist bei dem anderen ital. Händel wieder auf 642 Euro raufgeschossen. Die Limited Edition hat jener noch nicht im Programm
Karte wird aber erst in 1 Woche hier sein, Ferragosto in Italien sei dank!

Erbsenkönig
2017-08-14, 20:52:55
Also wenn ich das hier sehe frage ich mich echt auf welchen Stand die Grafiktreiber bei Vega aktuell sind? :freak:
http://pclab.pl/art75140-7.html

RX Vega 64 teilweise langsamer als Polaris 20. :crazy:

Du sagst also die Karte kann nur besser werden? Sehr gut. :D

Schaffe89
2017-08-14, 20:54:12
125 Stück RX Vega 64 bereits bei MF verkauft. Erstaunlich... :D

Bei dem Miningaufkommen ist das überhaupt keine Überraschung.
Sogut wie alle Karten werden überdurchschnittlich verkauft.
Vermutlich sind das hautsächlich Miner die das austesten wollen.

http://www.gamestar.de/artikel/amd-radeon-rx-vega-64-liquid-cooled-benchmark-duell-gegen-nvidias-gtx-1080,3318225,seite4.html#lautstaerke-temperatur-und-stromverbrauch

Die Liquid schafft es die GTX 1080 einzuholen, bei 220 Watt mehr Strombedarf.

dargo
2017-08-14, 20:58:10
Du sagst also die Karte kann nur besser werden? Sehr gut. :D
Bei Crysis 3 würde ich das definitiv erwarten... ja. :freak:

DrFreaK666
2017-08-14, 21:09:09
Ich Kauf mir eine Grafikkarte weil sie in 2 Jahren alles fressen muss was kommt. Bei Nvidia sieht das nicht immer so toll aus....

Ich denke die RX Vega 56 ist nicht schneller als meine knapp zwei Jahre alte 980TI. Und wenn dann nur knapp

Schnoesel
2017-08-14, 21:12:03
So enttäuschend das Ganze ist kann es vielleicht sein, dass AMD sich bewusst war, dass Sie nicht in der Lage sein werden Vega auszureizen? Ich persönlich gehe nicht von schlechter Hardware aus aber von fehlender Softwarebasis. In einigen ausgewählten Spielen wird man sehen was Vega zu Leisten im Stande wäre wenn die Software so weit wäre wie die Hardware.

Ich denke, dass AMD sich bewusst auf Ryzen konzentriert hat, weil man sich im klaren war wenn Ryzen failt, dann könnte es das gewesen sein. Man hat also bewusst den kleinen Gamingmarkt (den für AMD kleinen) geopfert um alle Ressourcen in Ryzen stecken zu können. RX Vega ist also ein Abfallprodukt der Profisparte um Ryzen, Epyc und Project 47. Die Gamer sind schlicht und ergreifend hinten runtergefallen.

Ich meine mich erinnern zu können, dass der Fokus bei AMD auf Ryzen lag. Wenn es dem Unternehmen hilft ist das vielleicht sogar der richtige Weg, auch wenn es bitter ist für die Konkurrenzsituation im GPU Markt.

https://www.kitguru.net/components/cpu/anton-shilov/amd-development-of-zen-processors-is-our-largest-rd-spending-now/

Für mich persönlich ist Vega leider das Equivalent zum R600 daher habe ich auch diesmal zur Konkurrenz gegriffen. In meinen HTPC darf aber weiterhin eine RX 470 ihren Dienst tun.

prinz_valium
2017-08-14, 21:16:45
Als Kunde hat man nun die Wahl: man kauft kurzfristig ein besseres Produkt ( von nvidia ) und erhält eine langfristige Stagnation ( ähnlich wie im CPU Markt bis zur Einführung von Zen ), oder man kauft ein kurzfristig leicht schlechteres Produkt ( von amd ) und finanziert eine langfristig vorteilhaftere Konkurrenzsituation ( siehe Zen ).

Blöde Situation.

nö dafür ist Vega dann doch wieder zu weit hinter her
ich habe mich allerdings in die AM4 platform eingekauft, da ich Jahrelangen Sockel Support begrüße.

Zen+ oder Zen2 werden dann hoffentlich ordentlich Takt mitmachen und die Speicherprobleme beseitigt.
Das Geld können sie dann gerne in Ihre GPU Entwicklung stecken, oder eben wieder nicht liefern und Nvidia zu einem Monopol machen :(

Menace
2017-08-14, 21:17:38
RX Vega ist also ein Abfallprodukt der Profisparte um Ryzen, Epyc und Project 47. Die Gamer sind schlicht und ergreifend hinten runtergefallen.


Was mich wundert ist, dass dies GCN-Ausgabe (5?) doch noch für weitere Produkte genutzt werden sollte. Ich hoffe, bei der APU bekommen sie das Ding (a) sparsam und (b) zum rennen.

Außerdem wundert mich, dass Apple da nichts sagt.

dildo4u
2017-08-14, 21:17:39
Das ist ziemlich Cool AMD ProRender läuft überall sehr gut. :up:

https://techgage.com/article/a-look-at-amds-radeon-rx-vega-64-workstation-compute-performance/2/

Linmoum
2017-08-14, 21:25:01
Was mich wundert ist, dass dies GCN-Ausgabe (5?) doch noch für weitere Produkte genutzt werden sollte. Ich hoffe, bei der APU bekommen sie das Ding (a) sparsam und (b) zum rennen.

Außerdem wundert mich, dass Apple da nichts sagt.
Weil man bei Apple dann einfach den Takt senkt und schon sieht der Verbrauch auch freundlicher aus. Jedes Produkt hat irgendwo (s)einen Sweetspot.

dargo
2017-08-14, 21:29:09
Apple nimmt afaik eh nur die 56-er.

dildo4u
2017-08-14, 21:30:03
Apple nimmt afaik eh nur die 56-er.
Nein sie nehmen Beide.

https://www.apple.com/de/imac-pro/specs/

Platos
2017-08-14, 21:31:10
Ganz und gar nicht. Ich mache das auch so

Das machen wohl viele so, ich auch. Die Hardware reicht bei mir sowieso nicht aus für die neuesten Spiele und die Spiele sind auch günstiger. Nach 1-1.5 Jahren kriegt man meistens eine Art von GOTY-Edition für einen akzeptablen Preis.

Eigentlich eine Win-Win Situation. Weniger zahlen für Spiele, keine Bugs, weniger gute Hardware benötigt. Nur bei Onlinespielen würde ich "nur" ein halbes Jahr warten, wenn ich denn online spielen würde.

gedi
2017-08-14, 21:31:52
nö dafür ist Vega dann doch wieder zu weit hinter her
ich habe mich allerdings in die AM4 platform eingekauft, da ich Jahrelangen Sockel Support begrüße.

Zen+ oder Zen2 werden dann hoffentlich ordentlich Takt mitmachen und die Speicherprobleme beseitigt.
Das Geld können sie dann gerne in Ihre GPU Entwicklung stecken, oder eben wieder nicht liefern und Nvidia zu einem Monopol machen :(

Auch wenn Vega eine große Enttäuschung ist, so sehe ich in V56 noch (viel) Potential. Von daher sollte 1080FE-Performance in absehbarer Zeit im Schnitt in neueren Games möglich sein - für 400 Teuronen imo ein sehr guter Deal. V64 - naja, darüber braucht man nicht im Ansatz nachzudenken, da Hardwareschrott.

Cyphermaster
2017-08-14, 21:48:24
Die 64er ist nur größer als die 56er. Das Potential kann kaum komplett unterschiedlich sein.

horn 12
2017-08-14, 21:50:21
Nope, rechne Vega 64 wird gut und im Herbst bereits um die GTX 1080 TI +/- Leistung haben.
Da klemmt noch was gewaltig und nu da Ryzen Durch ist kann man sich auf das Wesentliche konzentrieren, zusammen mit RyZen 2

Nun gut, 2 Karten geordert in der Limited Edition.
Eine für mich und eine für guten Kollegen.

Hübie
2017-08-14, 21:51:03
Ich denke die RX Vega 56 ist nicht schneller als meine knapp zwei Jahre alte 980TI. Und wenn dann nur knapp

Das denke ich auch. Vor allem meine Karte. :biggrin: Den Speicher kann ich z.B. auch noch weiter übertakten. Die Grenze habe ich hier nie ausgelotet. GPU macht 1500 MHz, aber das brauch ich nicht. Da stinkt jede 1070 @2 GHz+ ab und ich denke auch RX Vega56 ist hier keine Alternative. Da fragt man sich wen AMD da abgrasen will.

@pixeljetstream: Gut formuliert. :up: Über interne Bandbreiten können wir uns hauptsächlich deshalb nicht unterhalten, weil das z.B. Infos sind die dein AG ungerne heraus gibt. Wir wissen gerade noch so dass 512GB/s zwischen L1<->L2 bei Maxwell drin sind, aber Pascal? Registerbandbreite, OCN, clock distribution / clock tree, PLLs und und und...

Hat nun schon jemand den DSBR testen können? Hab nix gefunden. Gamersnexus müsste doch einer der ersten sein... :confused::rolleyes:

@horn12: Berichte dann mal fleißig. An 1080 Ti Leistung glaube ich erst mal nicht. Man kratzt nächstes Jahr vielleicht an der 1080 Ti FE, aber die profitiert ja auch so krankhaft von OC. Das sieht für mich uneinnehmbar aus.

Grendizer
2017-08-14, 21:52:54
Nope, rechne Vega 64 wird gut und im Herbst bereits um die GTX 1080 TI +/- Leistung haben.
Da klemmt noch was gewaltig und nu da Ryzen Durch ist kann man sich auf das Wesentliche konzentrieren, zusammen mit RyZen 2

Nun gut, 2 Karten geordert in der Limited Edition.
Eine für mich und eine für guten Kollegen.


Ganz ehrlich ... die haben das seit mehreren Monaten nicht an den Start bekommen. Seit dem Start der FE hat sich auch nicht viel gebessert. Woher nimmst du diesen grenzenlosen Optimismus ?

horn 12
2017-08-14, 22:00:24
Weil man nicht auf 2 Hochzeiten gleichzeitig tanzen kann. Aber man musste Vega bringen egal wie kaputt noch die Treiber sind.

AtTheDriveIn
2017-08-14, 22:06:04
Nope, rechne Vega 64 wird gut und im Herbst bereits um die GTX 1080 TI +/- Leistung haben.
.

Dein Optimismus in allen Ehren, aber die heute gezeigte Performance ist auf dem Niveau von Dezember 2016. Was soll da noch groß kommen?

burninghey
2017-08-14, 22:06:37
Kann man davon ausgehen, dass AMD die Miningfähigkeiten künstlich eingeschränkt hat?

Nachdem die Gerüchte mit den 70 MH/s nicht bestätigt wurden, hab ich mein Plan mit der Mining Rig aus mehreren Vega 56 erstmal auf Eis gelegt und mir stattdessen für 609€ Vega 64 gekauft. Brauche nicht auf Custom Designs zu warten kommt eh Wasser drauf :)

Isen
2017-08-14, 22:10:52
Möglich... wie gesagt, auf YT gibt es son 4 Min Video (wenn ich es finde, ich such das nachher, irgendwo im Verlauf), wo einer die FE @Stock mit ihren 30 MH/s zeigt und dann mit den Optimierungen ( weniger Verbrauch, weniger Lautstärke ) und +40 MH/s... eine Woche danach kam dann erst das Gerücht mit den 70-100 MH/s - in den Mining Foren sprach man dann von realistischen 45-50 MH/s und auf der russischen Seite hieß es, da geht mehr... dann kamen Gerüchte, dass AMD da mit im Spiel ist, hinsichtlich Optimierungen und bla...

gedi
2017-08-14, 22:11:30
Die 64er ist nur größer als die 56er. Das Potential kann kaum komplett unterschiedlich sein.

Ich sehe den Preis, Performance, Verbrauch. Zum Preis addiert sich bei V64 mit anvisiertem OC mitunter gleich noch ein Netzteil für ~150 Teuronen. V64 ist max. so rund wie Quadrat.

Timbaloo
2017-08-14, 22:14:09
Ich dachte eine der relevanten organisatorischen Änderungen war CPU- und GPU-Sparte voneinander loszulösen. Gut, mag sein, dass das während der Entwicklung von Vega noch nicht vollständig fertig war, aber zu glauben dass da massiv R&D-Kapa von der GPU- zur CPU-Entwicklung verschoben wurde ist doch naiv.

Ich glaube auch nicht, dass hier ein Wundertreiber kommt. Imho muss hier was anderes Faul sein, ähnlich Fermi/Thermi 1. Ich meine nur mit schlechter "Treiberoptimierung" kann es doch nicht sein, dass man mit 484mm^2 + HBM2(!!!) gerade mal die Performance eines 314mm^2 Chips mit GDDR5X hinbekommt, bei einem Mehrverbrauch von ~100W...
Stellt euch mal vor was ein ähnlich großer (wie Vega) Chip wie GP102 bei ~1080er Performance schlucken würde, da wäre man bei wahrscheinlich rund der halben Leistungsaufnahme, und das ohne HBM2! Das ist kein Treiberproblem, das ist Hardware...

Thomas Gräf
2017-08-14, 22:14:36
Oje bin gerade nach Hause gekommen...is Vega ein zweiter Fitji geworden?
Wenn das so weitergeht können sie bei GloFo sonstwas backen an GPU, es fehlt immernoch der Umschwung wie bei den CPUs.
...ich wollt mir heut abend eigentlich die AiO Version bestellen. brrrr

Isen
2017-08-14, 22:15:31
@Timbaloo

Die Summe machts würd ich meinen... halt nen ekliger Rattenschwanz...

Linmoum
2017-08-14, 22:16:35
Oje bin gerade nach Hause gekommen...is Vega ein zweiter Fitji geworden?
Nicht mal das. :freak:

Timbaloo
2017-08-14, 22:17:24
@Timbaloo

Die Summe machts würd ich meinen... halt nen ekliger Rattenschwanz...
Aber doch nicht ~Faktor 2? Ich meine, das ist so krass, da vergeht sogar mir die Häme...

dildo4u
2017-08-14, 22:17:32
Oje bin gerade nach Hause gekommen...is Vega ein zweiter Fitji geworden?


Fury X war im Bereich der 980 Ti.

http://abload.de/img/bench47klk.png

vinacis_vivids
2017-08-14, 22:18:09
Undervolting ist das Stichwort
Die ganzen hater comments kommen ja nicht unerwartet von Leuten, die keine AMD Karte haben.

Digidi
2017-08-14, 22:18:57
Oje bin gerade nach Hause gekommen...is Vega ein zweiter Fitji geworden?
Wenn das so weitergeht können sie bei GloFo sonstwas backen an GPU, es fehlt immernoch der Umschwung wie bei den CPUs.
...ich wollt mir heut abend eigentlich die AiO Version bestellen. brrrr

Viel Glück ausverkauft ;)

Mancko
2017-08-14, 22:20:35
Das was AMD da wieder mal auf die Straße bringt ist echt ein Fail. Das ist schlimmer als mit der Fury. Preis lasse ich erstmal bewusst außen vor, weil der von Unternehmen in Anbetracht der Konkurrenzsituation ohnehin entsprechend angepasst wird bzw. gesetzt wird.

Rein technisch muss man wirklich sagen ist das Teil fürs Gaming ein Fail und zwar beide. Man schaue sich mal diesen riesen Aufwand an Hardware an. Angefangen von der GPU über die RAM Anbindung über notwendige Stromversorgung, notwendige Kühllösungen Strombedarf usw. In Anbetracht dessen ist das was am Ende herauskommt eindeutig viel zu wenig. Den zeitlichen Rückstand habe ich dabei bewusst jetzt erstmal außen vor gelassen. Der macht das nur noch schlimmer. Es kann doch nicht sein, dass AMD eine Enthusiast Karte von den Herstellungskosten, mit Sicherheit sogar noch teurer als die 1080Ti, benötigt um dann am Ende gerade mal im Bereich der 1070 bis 1080 FE zu landen. Das ist einfach extrem schlecht und nicht schön zu reden. Die 1070 und 1080FE sind von den Herstellungskosten reine Performance Segment Produkte. Da ist man einfach nochmal so viel schlechter im Vergleich zur Konkurrenz als mit Fiji unterwegs, dass man hier auch wirklich gar nichts positives abgewinnen kann.

Irgendwelche Verweise auf zukünstige Optimierungen und Treiber und blah lass ich nicht gelten. AMD kennt das Produkt In-House schon sehr lange und mir kann keiner erzählen, dass die Treiberabteilung nicht genügend Zeit hatte. Hier ist einfach irgendwas in der Hardware kaputt. Das Teil ist definitiv ein NV30 ala FX-Geforce. Nur war letztere wenigstens in der Leistung oben dabei. AMD ist aktuell extrem weit weg und das lässt sich auch mit Treibern nicht beheben. Das Teil ist von der Hardware Seite her im Gaming Bereich einfach ein Griff ins Klo. Anders kann man das nicht bezeichnen.

Dass AMD dann bei der 56er versucht preislich irgendwo noch zu punkten ist sozusagen am Ende auch nur die Folge. Das ist auf keinen Fall in irgendeiner Weise ein besonderer Pluspunkt. Für den Kunden nett, ja. Für AMD beschissen und vor allem mittel bis langfristig definitiv problematisch, denn die Konkurrenz kann mit einfachsten überschaubaren Preisanpassungen bei der 1070 hier problemlos reagieren.

Und zu guter Letzt hat sich wieder einmal bestätigt, dass je aufgetragener und aufgeblasener das Marketing im Vorfeld ist, desto schlechter ist das Produkt. Nvidia hatte sich dazu mit NV30 auch schon mal genötigt gesehen und auch mit Fermi. Das Marketing der RTG ist in Anbetracht dieser extrem unterdurchschnittlichen Leistung mal so ein richtiges Eigentor.

Linmoum
2017-08-14, 22:21:12
Undervolting ist das Stichwort
Die ganzen hater comments kommen ja nicht unerwartet von Leuten, die keine AMD Karte haben.
Habe bisher ausschließlich rote GPUs bei mir verbaut. Man braucht kein Fanboy, Hater oder sonstwas zu sein um festzustellen, dass das schlicht und ergreifend desaströs ist.

Dass die RX56 potentiell attraktiv ist ändert nichts daran, dass AMD noch gravierendere Probleme hat, die Rohleistung auf die Straße zu bringen, als es über die Jahre hinweg immer wieder der Fall war. Fiji war schon recht unausgegoren aber bei Vega muss man festhalten, dass die Performance dahingehend sogar noch schlechter ist.

dargo
2017-08-14, 22:21:56
Dein Optimismus in allen Ehren, aber die heute gezeigte Performance ist auf dem Niveau von Dezember 2016. Was soll da noch groß kommen?
Und das weißt du woher? Nur weil man Doom und eventuell noch Battlefront kurz gezeigt hatte? Es sind sogar heute nicht mal alle Vega Features aktiviert.

TheGood
2017-08-14, 22:24:00
Naja immerhin spült die KArte jetzt Umsatz bei AMD ein :) Es wir nämlich immer Leute geben die sich aktuell gerade Grafikkarten kaufen, ansonsten würde nvidia und amd kein Geschäft mehr machen und irgendwie scheint sich das bishe rnicht zu bewahrheiten....

Und für alle die sich bisher eine 1070 oder 1080 angeschaut haben können sich jetzt auch eine VEGA 56 und VEGA 64 ansehen. So schlecht kann das doch ned sein. Vor allem für die 1070 Interessenten sollten sich intensiv mit der VEGA 56 beschäftigen, da Sie imho klar das bessere Gesamtpaket hat. Für Leute die Ihre Grafikkarten länger als ein Jahr behalten sowieso :) Aber irgendwie scheint es mir trifft das auf fast alle AMD Besitzer zu...

Insgesamt ist das Ergebnis natürlich enttäuschend und sicherlich nicht das was AMD sich erhofft oder erwartet hat. Die Welt wird trotzdem nicht untergehen, sondern der geht das am Arsch vorbei ;) (um mal ein paar Leute hier im Forum wieder auf den Boden der Tatsachen zu bringen). ES kann nur heissen dass AMD sich jetzt richtig den Arsch aufreisst und Ihre neue Technik in dem Chip endlich zum Laufen bringt, sofern das möglich ist. Alternativ würde es auch reichen das Design so anzupassen dass es mit der nächsten Generation endlich mal sein Potential hebt.

Ich warte mal auf die VEGA 56 customs und harre solange der Dinge.

ilPatrino
2017-08-14, 22:24:30
Oje bin gerade nach Hause gekommen...is Vega ein zweiter Fitji geworden?

eher das uneheliche kind aus fx5900 und hd2900xt mit ein paar extra-chromosomen.

bandbreite und (brutto)auslastung sind am limit, wie man an der leistungsaufnahme sieht. sämtliche effizienzsteigernden maßnahmen fehlen (noch?) oder funktionieren nicht. selbst die 56er ist bestenfalls drittklassig - zumindest im moment

dargo
2017-08-14, 22:34:34
Bin ich eigentlich der einzige der sich über die geringen Stückzahlen bei der ersten Rutsche wundert? MF hat über 140 Stück abgesetzt und in DE ist nichts mehr zu bekommen?

Isen
2017-08-14, 22:37:14
Undervolting ist das Stichwort
Die ganzen hater comments kommen ja nicht unerwartet von Leuten, die keine AMD Karte haben.



Ich hatte bis zuletzt zwei 290X gehabt (seit 5850 nur AMD) und hock, weil ich auf Vega hoffte, bis jetzt mit ner 6600 GT hier rum, weil ich meine beiden Porno 1,3Ghz 290X verscheuert habe ( 280€ pro Nase :D)

Ich hab ja nicht mit vielem gerechnet, aber doch schon oberhalb einer 1080 und im Verlauf, ähnlich wie mit Hawaii Richtung 1080 TI ... wär auch kein Thema gewesen, geht in Ordnung.

Aber was AMD da jetzt hinlegt, dass ist einfach ohne Worte - hater comments sehen für mein empfinden anders aus.

Da braucht man nur mal das CB-Forum besuchen... man mag dieses Schandfleck eines Sammelbeckens schlechter Manieren bei zu toleranten Mods in die nächst beste Block-Liste klatschen, und den Namen als auch Kürzel aus dem Wortschatz streichen. Was dort rum kriecht ist unterste Schublade.
Für weitere Beschreibungen dafür, reicht nicht mal der Wortschatz der dreckigsten Vulgären Sprache.

Ich kauf mir auch keine Karte im Referenzdesign, die ich dann auch noch UV muss, damit das Schandbild abgemildert wird, wo die Aussichten völlig Ungewiss sind, weil AMD nicht aus dem Knick kommt, mal Tacheles zu reden.
(Ich weiß, kann man in dieser Branche eh abschminken)

Und für sowas will man dann im besten Fall (kurzfristigem Angebot @Mindstar) 509€ haben...

Ne... das ist frech...
meine Konsequenz daraus ist schlicht und ergreifend nen vollständiger Boykott. Ich geb keinen der beiden Pillemännern mein Geld, die gesamte Situation @PC-Gaming ist der allerletzte Mist und AMD setzt da noch nen schönen dicken Haufen oben drauf.

Und dann kommst du, und verteilst hier Pflaster für Fleischwunden in einem abgefuckten Gaming Markt, inmitten der Haufen von AMD hervor sticht.

Grendizer
2017-08-14, 22:37:15
Bin ich eigentlich der einzige der sich über die geringen Stückzahlen bei der ersten Rutsche wundert? MF hat über 140 Stück abgesetzt und in DE ist nichts mehr zu bekommen?


Nicht wirklich... kennt man ja schon von Polaris. Ich habe trotz AMD Beteuerungen nichts anderes erwartet. (und in den Mindstars vorhin zugeschlagen :biggrin:)

Und mal ehrlich... Apple werden immer zuerst beliefert werden. Die werden so üble Vertragsstrafen in den Verträgen haben, das AMD erstmal Containerweise für Apple produziert hat :biggrin:

CD-LABS
2017-08-14, 22:38:13
Undervolting ist das Stichwort
Die ganzen hater comments kommen ja nicht unerwartet von Leuten, die keine AMD Karte haben.
Fiji war besser. Punkt.
Sollte nicht zumindest bis zu der RX Nano ein Wundertreiber kommen, dann wird die leider nicht mal im Ansatz eine gute Karte werden.

Das sah bei Fiji anders aus, die R9 Nano wurde eine top Karte. Als sie und die 980 gleich bepreist waren, war die 980 keine Option mehr. Damit das in dieser Gen mit der 1080 auch passiert, müsste einiges geschehen.


Was die RX Nano aber werden wird ist eine schicke Karte, wie die anderen Vega-Karten auch. Das muss man AMD echt lassen, Design haben sie in dieser Gen echt super drauf! :eek:

dargo
2017-08-14, 22:44:50
Nicht wirklich... kennt man ja schon von Polaris.
Naja... igor meinte die Stückzahlen würden der GTX1800TI entsprechen. Ich frage mich wo die alle geblieben sind? Oder wurden die schon von den Minern direkt beim Großhändler abgefangen? :D Will ja nicht den Teufel an die Wand malen, ist erst der Realesetag. Mal sehen wie es nächste Woche aussieht.

vinacis_vivids
2017-08-14, 22:46:15
Habe bisher ausschließlich rote GPUs bei mir verbaut. Man braucht kein Fanboy, Hater oder sonstwas zu sein um festzustellen, dass das schlicht und ergreifend desaströs ist.

Dass die RX56 potentiell attraktiv ist ändert nichts daran, dass AMD noch gravierendere Probleme hat, die Rohleistung auf die Straße zu bringen, als es über die Jahre hinweg immer wieder der Fall war. Fiji war schon recht unausgegoren aber bei Vega muss man festhalten, dass die Performance dahingehend sogar noch schlechter ist.


Was genau ist desaströs?
Die Performance der RX56 ist in best case jetzt schon besser als 1080. In anderen Titeln vergleichbar mit 1070.

Linmoum
2017-08-14, 22:49:29
Was genau ist desaströs?
Die Performance der RX56 ist in best case jetzt schon besser als 1080. In anderen Titeln vergleichbar mit 1070.
Liest du die ganzen Reviews nicht oder trollst du eigentlich bewusst? :confused: Im Hinterkopf natürlich immer behalten, dass wir hier über einen fast 500mm² großen Chip reden. Den Vergleich mit Fiji fang ich gar nicht erst an, trotz deutlich höherem Takt und u.a. aktivem DSBR sind es nur +-30% mehr an Performance. Muss man das ernsthaft alles immer wieder durchkauen, bis es auch der letzte verstanden hat? Hardcore-Schönreden ist hier völlig deplatziert.

Aber du würdest es wahrscheinlich auch als nicht desaströs erachten, wenn 'ne 480 es gerade so mit einer 1050ti aufnehmen könnte. Halleluja!

-=Popeye=-
2017-08-14, 22:51:46
Naja... igor meinte die Stückzahlen würden der GTX1800TI entsprechen. Ich frage mich wo die alle geblieben sind? Oder wurden die schon von den Minern direkt beim Großhändler abgefangen? :D Will ja nicht den Teufel an die Wand malen, ist erst der Realesetag. Mal sehen wie es nächste Woche aussieht.

Vermutung...

Verfügbarkeit künstlich gekappt um den Preis hoch zu halten.

... Vermutung.

Angiesan
2017-08-14, 22:55:24
Nun ist sie da und..... heiß,hungrig und gar nicht mal so schlecht wenn man die ersten beiden Punkte ausblendet. Nur was will man da noch erwarten? Die Treiber Verbesserungen bringen vielleicht noch mal 20% im besten Falle. OC wo will man denn da noch hin? Die Karte läuft doch heute schon am Limit. Also kann man maximal 1080 oc erreichen und in einigen wenigen optimierten Titeln vielleicht 1080ti Niveau unter einigermaßen normalen Bedingungen und liegt dann immer noch gute 80 Watt schlechter.
Was ich aber absolut nicht verstehe, wie alle auf die RX 56 fliegen was hat das Ding denn was es wirklich interessant macht? Bei der RX64 kann man wirklich darüber nachdenken ob man die nicht untervoltet oder und untertaktet und dann vielleicht sogar wenn alles mal funktioniert so auch auf 1080 Niveau landet. Das abgearbeitet Feature Set als Ass im Ärmel, nice to have. Bei runden 500 Euro doch ok und vielleicht wirklich mal wieder langlebiger wie die Grünen.

vinacis_vivids
2017-08-14, 22:55:48
Liest du die ganzen Reviews nicht oder trollst du eigentlich bewusst? :confused: Im Hinterkopf natürlich immer behalten, dass wir hier über einen fast 500mm² großen Chip reden. Den Vergleich mit Fiji fang ich gar nicht erst an, trotz deutlich höherem Takt und u.a. aktivem DSBR sind es nur +-30% mehr an Performance. Muss man das ernsthaft alles immer wieder durchkauen, bis es auch der letzte verstanden hat? Hardcore-Schönreden ist hier völlig deplatziert.

Aber du würdest es wahrscheinlich auch als nicht desaströs erachten, wenn 'ne 480 es gerade so mit einer 1050ti aufnehmen könnte. Halleluja!

RX56 >= 1080
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/codiw_3840_2160.png
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/bf1_3840_2160.png
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/deusex_3840_2160.png
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/doom_3840_2160.png
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/f12016_3840_2160.png
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/fallout4_3840_2160.png
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/residentevil7_3840_2160.png

Schnoesel
2017-08-14, 22:57:55
Und wie ich es befürchtet hatte. Die Leistung ist dermaßen inkonsistent:

https://s23.postimg.org/t9qdwe417/image.jpg

Und das nicht nur gegenüber der Konkurrenz was relativ normal wäre aber gegenüber dem Vorgänger ist das schon erstaunlich.Von Gleichstand bis auf + 71% ist alles dabei gegenüber Fiji (V56)

CD-LABS
2017-08-14, 23:03:00
(...)
Was spricht gegen einen Gebrauchtkauf? Von dem hat auch keine Partei unmittelbar etwas, aber du wieder eine ernstzunehmende Graka...

TwoBeers
2017-08-14, 23:03:47
Wisst ihr was mir gerade einfällt? Nvidia beißt sich wahrscheinlich gerade richtig in den Ar*ch, warum sie die 1080 Ti überhaupt gebracht haben .. die hatten sicher Angst vor Vega und wollten damit konkurrieren .. und jetzt das. Da hätte ne 1080 custom OC völlig gereicht.
Die hätten zum Start den Preis der 1080 um weitere $100 erhöhen können und den der Ti und Titan natürlich auch.
AMD wäre entweder mitgegangen oder Nvidia hätte jetzt erst den Preis senken müssen.

Der Hypetrain von AMD hat uns immerhin das gebracht, günstigere Nvidia Karten. ;)
Edit: Die Ti wäre nie gekommen .. entweder 1080 für $600 oder max Performance (30-40% mehr) für $1500.

dargo
2017-08-14, 23:04:13
Also jetzt blicke ich überhaupt nicht mehr durch. Wie können so große Unterschiede zwischen den Tests auftreten? Schaue mir gerade den Test von techpowerup an. Schnitt der Performance über 20 Games in 1440p sieht folgendermaßen bei denen aus.

https://www2.pic-upload.de/img/33738247/Zwischenablage19.jpg

Ergo ist die GTX1080 knapp 10% schneller als die RX Vega64 mit dem sparsamsten Bios. Wieviele Settings hat eigentlich das Ding? Da blickt doch keine Sau mehr durch. ;D

Bei den Verbräuchen sieht es so aus.

https://www2.pic-upload.de/img/33738269/Zwischenablage20.jpg https://www2.pic-upload.de/img/33738344/Zwischenablage21.jpg

1. RX Vega 64 kann auch nur ~200W verbrauchen? WTF? :|
2. Nur 34W bei den avgs. und 20W bei Peak Gaming mehr als die GTX1080 dann? Nochmal WTF? :|
3. Zweites Bios mit Powersave = 200W bei 92% Leistung, Standard Bios balanced = 292W mit 100% Leistung. WTF³? :|

Sind da irgendwelche Biose kaputt???

Quelle (https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/)

dildo4u
2017-08-14, 23:06:29
Die nutzten z.b bei BF1 und Deus Ex DX12 was auf NV grottig läuft.

CD-LABS
2017-08-14, 23:08:52
Wisst ihr was mir gerade einfällt? Nvidia beißt sich wahrscheinlich gerade richtig in den Ar*ch, warum sie die 1080 Ti überhaupt gebracht haben .. die hatten sicher Angst vor Vega und wollten damit konkurrieren .. und jetzt das. Da hätte ne 1080 custom OC völlig gereicht.
Die hätten zum Start den Preis der 1080 um weitere $100 erhöhen können und den der Ti und Titan natürlich auch.
AMD wäre entweder mitgegangen oder Nvidia hätte jetzt erst den Preis senken müssen.

Der Hypetrain von AMD hat uns immerhin das gebracht, günstigere Nvidia Karten. ;)
Die 1080ti ist durch die Miner auch wieder teurer geworden.

Mit der 1080ti haben sie es geschafft, die Lücke zur Titan ganz winzig zu machen---das gibt ihnen eine Vielzahl von Handlungsoptionen für die nächste Gen.
Übrigens hätten die Benches ohne eine 1080 ti psychologisch anders ausgesehen, dann wäre es nämlich (unter Ausklammerung der Titan) um ein Kronen-Duell gegangen.

deekey777
2017-08-14, 23:09:59
Die nutzten z.b bei BF1 und Deus Ex DX12 was auf NV grottig läuft.
Tja, Scheiße für Nvidia.

dargo
2017-08-14, 23:11:40
Die nutzten z.b bei BF1 und Deus Ex DX12 was auf NV grottig läuft.
Das sind 2 Spiele von 20. Die verzerren natürlich den gesamten Schnitt. :rolleyes:

-=Popeye=-
2017-08-14, 23:12:57
Wisst ihr was mir gerade einfällt? Nvidia beißt sich wahrscheinlich gerade richtig in den Ar*ch, warum sie die 1080 Ti überhaupt gebracht haben .. die hatten sicher Angst vor Vega und wollten damit konkurrieren .. und jetzt das. Da hätte ne 1080 custom OC völlig gereicht.
Die hätten zum Start den Preis der 1080 um weitere $100 erhöhen können und den der Ti und Titan natürlich auch.
AMD wäre entweder mitgegangen oder Nvidia hätte jetzt erst den Preis senken müssen.

Der Hypetrain von AMD hat uns immerhin das gebracht, günstigere Nvidia Karten. ;)
Edit: Die Ti wäre nie gekommen .. entweder 1080 für $600 oder max Performance (30-40% mehr) für $1500.

:facepalm: ohne Worte

@dargo

andere Benchmark Szene?

CD-LABS
2017-08-14, 23:13:01
(...)
Das mit dem Bios hatten auch schon andere Test enthüllt. Reicht aber trotzdem nicht, um aus denen gute Karten zu machen---immerhin aber effizienter als eine 580 kann man dann aber werden.
Aber, wie schon gesagt (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11460780&postcount=297), die RX Nano wird nicht nochmal so eine geile Karte wie die R9 Nano werden. :frown:

TwoBeers
2017-08-14, 23:18:17
D
Übrigens hätten die Benches ohne eine 1080 ti psychologisch anders ausgesehen, dann wäre es nämlich (unter Ausklammerung der Titan) um ein Kronen-Duell gegangen.

Eine custom OC 1080 gewinnt gegen die V64 jedes Kronen-Duell (von Vulkan mal abgesehen), früher hat sowas gereicht. ;)

TheGood
2017-08-14, 23:18:35
Liest du die ganzen Reviews nicht oder trollst du eigentlich bewusst? :confused: Im Hinterkopf natürlich immer behalten, dass wir hier über einen fast 500mm² großen Chip reden. Den Vergleich mit Fiji fang ich gar nicht erst an, trotz deutlich höherem Takt und u.a. aktivem DSBR sind es nur +-30% mehr an Performance. Muss man das ernsthaft alles immer wieder durchkauen, bis es auch der letzte verstanden hat? Hardcore-Schönreden ist hier völlig deplatziert.

Aber du würdest es wahrscheinlich auch als nicht desaströs erachten, wenn 'ne 480 es gerade so mit einer 1050ti aufnehmen könnte. Halleluja!
ER spielt das absolute Gleichgewicht zu Dir. Ihr schenkt Euch nichts. Mehr gibt's da nicht zu sagen.

Linmoum
2017-08-14, 23:19:54
RX56 >= 1080
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/codiw_3840_2160.png
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/bf1_3840_2160.png
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/deusex_3840_2160.png
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/doom_3840_2160.png
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/f12016_3840_2160.png
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/fallout4_3840_2160.png
https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/residentevil7_3840_2160.png
1070 > RX 56
https://i.gyazo.com/7d0c27b520a512b5621f1a7adc3c2475.png
Was soll der Cherry-Picking Unfug? Das ist ja schon fast Verzweiflung, dass man irgendwas sucht, damit Vega halbwegs gut dasteht. Für einen über 480mm² großen Chip (GP102 ist kleiner), den enorm hohen Verbrauch und >14 Monate nach GP104 ist das erschreckend schwach, was an Gaming-Performance abgeliefert wird. Und das ist noch nett umschrieben.

Achja, eines noch: Vielleicht merkst du es ja selbst, aber selbst deine herausgepickten Benchmarks lassen Vega nur wenig in besserem Licht erscheinen, wenn man in dem Zusammenhang einen Blick auf die Fury X wirft.

dargo
2017-08-14, 23:20:16
Das mit dem Bios hatten auch schon andere Test enthüllt. Reicht aber trotzdem nicht, um aus denen gute Karten zu machen---immerhin aber effizienter als eine 580 kann man dann aber werden.

Ich bitte dich... wenn das Ding nur 200W verbrauchen kann bei lächerlichen 8% weniger Leistung dann nehme ich die für 500€ sofort. :D Fehlt nur noch der Custom-Kühler.

btw.
Sehe ich es richtig, dass RX Vega 56 solche Biosspielereien nicht hat?
https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_56/29.html


andere Benchmark Szene?
Was meinst du damit?

1070 > RX 56
https://i.gyazo.com/7d0c27b520a512b5621f1a7adc3c2475.png
Was soll der Cherry-Picking Unfug? Das ist ja schon fast Verzweiflung, dass man irgendwas sucht, damit Vega halbwegs gut dasteht. Für einen über 480mm² großen Chip (GP102 ist kleiner), den enorm hohen Verbrauch und >14 Monate nach GP104 ist das erschreckend schwach, was an Gaming-Performance abgeliefert wird. Und das ist noch nett umschrieben.

Achja, eines noch: Vielleicht merkst du es ja selbst, aber selbst deine herausgepickten Benchmarks lassen Vega nur wenig in besserem Licht erscheinen, wenn man in dem Zusammenhang einen Blick auf die Fury X wirft.
Jetzt übertreibst du aber... 56fps vs. 55,1fps. Ist das wirklich ernst gemeint? :D

-=Popeye=-
2017-08-14, 23:23:48
Eine custom OC 1080 gewinnt gegen die V64 jedes Kronen-Duell (von Vulkan mal abgesehen), früher hat sowas gereicht. ;)

Und wie schliesst man die Lücke zwischen TitanXp und Custom GTX1080?

Die Frage ist eher wie schliesst AMD die riesen Lücke zwischen Vega 56 und Polaris 580.

...


Was meinst du damit?

Je nach Szene kann auch der Verbrauch variieren.

TwoBeers
2017-08-14, 23:24:27
:facepalm: ohne Worte


Findest du nicht?

Also wenn ich Nvidia wäre und ich wüsste mein Konkurrent kann nichts gegen meine 1080 anrichten, warum bringe ich dann eine Ti, die $500 weniger kostet als mein bestes Produkt?
Das macht man doch nur, um den Konkurrenten in Schach zu halten.
Weil man denkt, er könnte die 1080 um Längen schlagen und man möchte die Krone auf alle Fälle behalten, auch bei P/L.

@Popeye: Gar nicht, wer max Performance will, zahlt max Preis, danach gibt es von Nvidia nur die 1080. Aber weil sie dachten, dass Vega irgendwo dazwischen rauskommt und dann AMD typisch natürlich günstiger ist, brauchten sie etwas vergleichbares für weniger Geld .. die Ti.
Nur ist AMD da überhaupt nicht angekommen.

vinacis_vivids
2017-08-14, 23:24:55
1. RX Vega 64 kann auch nur ~200W verbrauchen? WTF? :|
2. Nur 34W bei den avgs. und 20W bei Peak Gaming mehr als die GTX1080 dann? Nochmal WTF? :|
3. Zweites Bios mit Powersave = 200W bei 92% Leistung, Standard Bios balanced = 292W mit 100% Leistung. WTF³? :|

Sind da irgendwelche Biose kaputt???

Quelle (https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/)


Das Standardbios ist auf Sicherheit getrimmt, spricht lieber zuviel Watt als zu wenig, damit die Streueung der Chips eingehalten wird beim werksseitig angegebenen TBP.

Durch undervolting gibst schon mal ordentlich Mehrtakt bei gleicher Temp und minimal Mehrverbrauch:
1200mV -> 1025mV (-15%)
1300Mhz -> 1524Mhz (+17%)
70°C -> 70°C

https://abload.de/img/undervolt-v56-freq_3_x6oxm.png
https://abload.de/img/undervolt-v56-temp_3_n5u4j.png

Leistung ist sogar höher als PT+50% ohne undervolting:
https://abload.de/img/firestrike-hbm2-v-corasaco.png

http://www.gamersnexus.net/hwreviews/3020-amd-rx-vega-56-review-undervoltage-hbm-vs-core

Ex3cut3r
2017-08-14, 23:26:18
1070 > RX 56
https://i.gyazo.com/7d0c27b520a512b5621f1a7adc3c2475.png
Was soll der Cherry-Picking Unfug? Das ist ja schon fast Verzweiflung, dass man irgendwas sucht, damit Vega halbwegs gut dasteht. Für einen über 480mm² großen Chip (GP102 ist kleiner), den enorm hohen Verbrauch und >14 Monate nach GP104 ist das erschreckend schwach, was an Gaming-Performance abgeliefert wird. Und das ist noch nett umschrieben.

Achja, eines noch: Vielleicht merkst du es ja selbst, aber selbst deine herausgepickten Benchmarks lassen Vega nur wenig in besserem Licht erscheinen, wenn man in dem Zusammenhang einen Blick auf die Fury X wirft.

Sehr schön auf den Punkt gebracht. :up:

vinacis_vivids
2017-08-14, 23:37:06
1070 > RX 56
https://i.gyazo.com/7d0c27b520a512b5621f1a7adc3c2475.png
Was soll der Cherry-Picking Unfug? Das ist ja schon fast Verzweiflung, dass man irgendwas sucht, damit Vega halbwegs gut dasteht. Für einen über 480mm² großen Chip (GP102 ist kleiner), den enorm hohen Verbrauch und >14 Monate nach GP104 ist das erschreckend schwach, was an Gaming-Performance abgeliefert wird. Und das ist noch nett umschrieben.

Achja, eines noch: Vielleicht merkst du es ja selbst, aber selbst deine herausgepickten Benchmarks lassen Vega nur wenig in besserem Licht erscheinen, wenn man in dem Zusammenhang einen Blick auf die Fury X wirft.


Du bist ja lustig. Es gibt übrigens noch mehr Fälle wo RX56>=1080 ist. Das kann man von der 1070 nie behaupten.

dargo
2017-08-14, 23:38:41
Je nach Szene kann auch der Verbrauch variieren.
Die messen dort mit Metro: Last Light in 1440p, genau wie igor.

* Average (Gaming): Metro: Last Light at 2560x1440 because it is representative of a typical gaming power draw. We report the average of all readings (12 per second) while the benchmark is rendering (no title/loading screen). In order to heat up the card, the benchmark is run once first, without measuring power consumption.
* Peak (Gaming): Same test as Average, but we report the highest single reading during the test.

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/29.html

Timbaloo
2017-08-14, 23:40:04
Du bist ja lustig. Es gibt übrigens noch mehr Fälle wo RX56>=1080 ist. Das kann man von der 1070 nie behaupten.
Es wäre auch schräg wenn die 1070 irgendwo schneller als die 1080 wäre :ulol:

BlacKi
2017-08-14, 23:42:55
Du bist ja lustig. Es gibt übrigens noch mehr Fälle wo RX56>=1080 ist. Das kann man von der 1070 nie behaupten.
lol, aber es gibt fälle wo 1070 schneller ist als rx64.

ps: undervoltage richtig gemacht bringt bei pascal mehr undervoltage bei vega. ich kann 1,8ghz mit unter 110w laufen lassen(nicht nur asic), versuch das mal mit rx56...

deshalb wird rx64/56 auch nie in notebooks verbaut werden im gegensatz zum konkurenten. allerhöchstens vega11 mit der performance der 580. -.-

dargo
2017-08-14, 23:43:28
Das Standardbios ist auf Sicherheit getrimmt, spricht lieber zuviel Watt als zu wenig, damit die Streueung der Chips eingehalten wird beim werksseitig angegebenen TBP.

Durch undervolting gibst schon mal ordentlich Mehrtakt bei gleicher Temp und minimal Mehrverbrauch:
1200mV -> 1025mV (-15%)
1300Mhz -> 1524Mhz (+17%)
70°C -> 70°C

https://abload.de/img/undervolt-v56-freq_3_x6oxm.png
https://abload.de/img/undervolt-v56-temp_3_n5u4j.png

Leistung ist sogar höher als PT+50% ohne undervolting:
https://abload.de/img/firestrike-hbm2-v-corasaco.png

http://www.gamersnexus.net/hwreviews/3020-amd-rx-vega-56-review-undervoltage-hbm-vs-core
Was hat das Undervolting jetzt mit dem Thema zu tun? Ich spreche von dem Bios bei RX Vega 64. Wenn ich das richtig überblicke gibt es dort zwei Biose mit jeweils 3 Einstellungen... Powersave, Standard (balanced) und Turbo. Ergo insgesamt 6 verschiedene Vegas.


ps: undervoltage richtig gemacht bringt bei pascal mehr undervoltage bei vega. ich kann 1,8ghz mit unter 110w laufen lassen, versuch das mal mit rx56...

Hör mir bloß auf mit dem Schwachsinn UV bei Pascal wo die Performance sinkt. UV bei Pascal ist die größte Verarschung!

Linmoum
2017-08-14, 23:44:00
deshalb wird rx64/56 auch nie in notebooks verbaut werden im gegensatz zum konkurenten.
Halte ich gegen.

Fragman
2017-08-14, 23:44:05
naja, das schoenreden, und auch das hoch halten der "moral", laeuft seit wochen im vega speku thread. nun gehts hier halt weiter, keine ueberraschung soweit.


auch fuer mich interessant waere ein undervolting test der 56 und ein direkter vergleich mit dem vorgaenger bei takt und verbrauch. der sollte dann auch klaeren, ob vega wirklich irgendwas besser macht.

-=Popeye=-
2017-08-14, 23:44:31
Die messen dort mit Metro: Last Light in 1440p, genau wie igor.

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/29.html

Ist dies auch die selbe Szene bzw Savegame?

Berkeley
2017-08-14, 23:46:15
1070 > RX 56
https://i.gyazo.com/7d0c27b520a512b5621f1a7adc3c2475.png
Was soll der Cherry-Picking Unfug? Das ist ja schon fast Verzweiflung, dass man irgendwas sucht, damit Vega halbwegs gut dasteht. Für einen über 480mm² großen Chip (GP102 ist kleiner), den enorm hohen Verbrauch und >14 Monate nach GP104 ist das erschreckend schwach, was an Gaming-Performance abgeliefert wird. Und das ist noch nett umschrieben.

Achja, eines noch: Vielleicht merkst du es ja selbst, aber selbst deine herausgepickten Benchmarks lassen Vega nur wenig in besserem Licht erscheinen, wenn man in dem Zusammenhang einen Blick auf die Fury X wirft.
Naja, wobei in dem Fall selbst mit Cherry-Picking die GTX 1070 gerade mal extrem knapp vor die VEGA 56 rutscht. Man muss aus allen Spielen nur ein Spiel rausnehmen (Anno 2205), schwups ist die 56er im Standard-Modus schneller als eine 1070 Custom (und das bei CB...).
Nach Betrachtung einiger Reviews komme ich zum Entschluss, dass VEGA 56 eindeutig die bessere GTX 1070 ist. Die 1070 Custom Modelle gönnen sich auch lockere 40-80W mehr als die FE, sind im Schnitt 14% schneller und verbrauchen 200-220W. Das reicht realistisch betrachtet nicht aus, um performancetechnisch an eine undervoltete VEGA 56 ranzukommen (bzw. nur sehr knapp). Falls dann 399€ für die Karte aufgerufen werden, ist das mehr als Fair. Ob nun nach einem oder zehn Jahren released, die Alternative bzw. Konkurrenz in dem Preissegment zum jetzigen Zeitpunkt ist immer noch die 1070 (und bleibt es vermutlich noch mind. 1 Jahr).

VEGA 64 ist hingegen "Holzhammer" und auch keine wirkliche Empfehlung wert.

EDIT:
Hier nochmal konkret was V56 leisten kann (natürlich ohne irgendwelche UV Optimierungen etc.)
60836
Auch ohne OC stets vor der 1070
https://www.youtube.com/watch?v=iZ4Exiban2w&feature=youtu.be

dargo
2017-08-14, 23:48:00
Ist dies auch die selbe Szene bzw Savegame?
Das kann ich dir leider nicht beantworten.

Mal was anderes... hat sich sonst noch jemand mit den 6 Biossettings genauer auseinander gesetzt wie techpowerup? Einfach um die Ergebnisse zu stärken.

Tobalt
2017-08-14, 23:49:55
absolut enttäuscht. es war aber schon vorher klar. hoffentlich hat die Karte gutes Mining Potential im power save mode (-100w). damit AMD ein bissel Geld dran verdient.

ohne eine massive perf/watt steigerung sind sie nicht konkurrenzfähig. die Situation erinnert langsam an den cpu markt 2012

BlacKi
2017-08-14, 23:50:09
Hör mir bloß auf mit dem Schwachsinn UV bei Pascal wo die Performance sinkt. UV bei Pascal ist die größte Verarschung!
das ist nicht korrekt? natürlich bringt undervolting bei pascal sogar performance! genau wie bei vega. einfach das gegenteil behaupten? warum?

Halte ich gegen.
wie gesagt vega 11 vl.

Die 1070 Custom Modelle gönnen sich auch lockere 40-80W mehr als die FE, sind im Schnitt 14% schneller und verbrauchen lockere 200-220W.

welche zb? meine macht 2050mhz + speicher OC und knackt nichtmal die 185w powertarget die ich ihr gewähre.

Dino-Fossil
2017-08-14, 23:50:27
Wieviele Settings hat eigentlich das Ding? Da blickt doch keine Sau mehr durch. ;D

Die Sache mit dem BIOS-Switch hattest du doch noch vor kurzem selbst angesprochen. Dazu kommen aber noch 3 (glaube ich) Settings im Wattman: Öko/Normal/Turbo (Namen von mir).
Also 6 verschiedene Einstellungen.

Wenn die Karte wirklich @200W nur ca 10% langsamer ist, zeigt das eigentlich nur, dass AMD die Vega 64 wirklich schon nahe der Kotzgrenze und jenseits aller sinnvollen Taktraten betreibt.
Wobei man sich dann auch fragen kann, inwieweit das "Hochtaktdesign" Vega wirklich eines ist.
Jedenfalls würde ich aber gerne auch noch sehen, ob da bei 200W die frametimes noch passen, bevor ich die 10% Leistungsverlust abschließend bewerte.

unl34shed
2017-08-14, 23:50:49
1. RX Vega 64 kann auch nur ~200W verbrauchen? WTF? :|
2. Nur 34W bei den avgs. und 20W bei Peak Gaming mehr als die GTX1080 dann? Nochmal WTF? :|
3. Zweites Bios mit Powersave = 200W bei 92% Leistung, Standard Bios balanced = 292W mit 100% Leistung. WTF³? :|

Sind da irgendwelche Biose kaputt???

Nicht kaputt, nur straffere Power Targets. Aber die Unterschiede sind schon krass. Ich verstehe einfach nicht, warum die verschiedenen BIOS Modi mehr Bedeutung bekommen haben. Viele schreien nach Effizienz und das wurde damit mMn. geliefert.

Was glaubst du, wie der Ersteindruck von Vega wäre, wenn es 5-10% weniger Leistung bei 34W mehr Verbrauch gewesen wäre. 5-10% würde wohl jeder dem Treiber zutrauen aufzuholen und 34W ist nicht wirklich viel.
Auf der anderen Seite haben wir jetzt gleichstand bei 140W mehr...

Thomas Gräf
2017-08-14, 23:51:09
Was hat das Undervolting jetzt mit dem Thema zu tun? Ich spreche von dem Bios bei RX Vega 64. Wenn ich das richtig überblicke gibt es dort zwei Biose mit jeweils 3 Einstellungen... Powersave, Standard (balanced) und Turbo. Ergo insgesamt 6 verschiedene Vegas.


Hör mir bloß auf mit dem Schwachsinn UV bei Pascal wo die Performance sinkt. UV bei Pascal ist die größte Verarschung!

Moment 2xBIOS und 3xPower Mode im Treiber, oder?

Tobalt
2017-08-14, 23:51:48
dino. schau in den techreport test.

dargo
2017-08-14, 23:58:29
das ist nicht korrekt? natürlich bringt undervolting bei pascal sogar performance! genau wie bei vega. einfach das gegenteil behaupten? warum?

Weil ich das selbst getestet habe.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11402738&postcount=190

Da kannst du genauso das Power Target reduzieren, kommt fast aufs selbe raus.


Wenn die Karte wirklich @200W nur ca 10% langsamer ist, zeigt das eigentlich nur, dass AMD die Vega 64 wirklich schon nahe der Kotzgrenze und jenseits aller sinnvollen Taktraten betreibt.

Es sind 8% weniger Leistung bei 92W weniger Verbrauch. Oder anders ausgedrückt... die Karte braucht 46% mehr Strom für knapp 9% mehr Leistung.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11460814&postcount=307

Das ist einfach nur oberkrank. :usweet: Und wenn du den schlimmsten Fall nimmst dann sind es sogar 58% mehr Strom für knapp 9% mehr Leistung (Standard Bios Turbo vs. zweites Bios Powersave). :crazy:

vinacis_vivids
2017-08-15, 00:04:13
Project Cars ist ja auch gut optimiert inkl. Kepler 780Ti!
https://abload.de/img/pcmin29j6r.png

"its meant to be played" - man schaue sich die min fps an...
https://abload.de/img/mordor-radeon-rx-veganvsdl.png

wieder RX56 ~ 1080
https://abload.de/img/the-division-radeon-rqgshk.png


@dargo: -70W bei powersave V64, 11111
https://abload.de/img/amd-radeon-rx-vega-po04u5z.png

N0Thing
2017-08-15, 00:04:55
Aber diese Zielgruppe hat nichts von Vega. In The Witcher 3 mit oder ohne Hairworks ist die Karte kaum schneller als eine GTX980TI von vor zwei Jahren...

Und warum sollte sich jetzt jemand noch eine GTX980TI kaufen?? Wer in dem Segment etwas Neues sucht, der landet doch hoffentlich bei einer GTX 1070 oder Vega 56.

Thomas Gräf
2017-08-15, 00:08:53
Project Cars ist ja auch gut optimiert inkl. Kepler 780Ti!
https://abload.de/img/pcmin29j6r.png

Wie geht das denn???
Gerade da hätt ich nix erwartet. Also PCars, die min Frames da sind auch fesch.

dargo
2017-08-15, 00:10:08
Nicht kaputt, nur straffere Power Targets. Aber die Unterschiede sind schon krass. Ich verstehe einfach nicht, warum die verschiedenen BIOS Modi mehr Bedeutung bekommen haben. Viele schreien nach Effizienz und das wurde damit mMn. geliefert.

Was glaubst du, wie der Ersteindruck von Vega wäre, wenn es 5-10% weniger Leistung bei 34W mehr Verbrauch gewesen wäre. 5-10% würde wohl jeder dem Treiber zutrauen aufzuholen und 34W ist nicht wirklich viel.
Auf der anderen Seite haben wir jetzt gleichstand bei 140W mehr...
Ich verstehe ehrlich gesagt nicht warum AMD alles über Powersave (egal ob Bios 1 oder 2) anbietet? Das macht doch bei der Skalierung in den fps überhaupt keinen Sinn. :confused:

Dino-Fossil
2017-08-15, 00:12:52
dino. schau in den techreport test.

Interessant.
Kommt mir gerade ziemlich absurd vor. Obwohl - erinnert ein wenig an den Polaris Launch. Da sollte auch schon auf Teufel komm raus ein bestimmtes Performance-Ziel erreicht werden und der Chip wurde viel weiter geprügelt als eigentlich sinnvoll war. Damals war's die 970, heute ist es die 1080.

Schaffe89
2017-08-15, 00:14:21
1. RX Vega 64 kann auch nur ~200W verbrauchen? WTF? :|


Das ist halt das AMD´sche Dauerübertakten ihrer Hardware um Konkurrenzfähig zu sein. Du musst auch bedenken dass man mit dem 200 Watt Bios der 64er dann kaum vor einer GTX 1070 wäre, vielleicht 7% oder so.

Aber prinzipiell sieht man, dass wenn bei AMD die Architektur funktioniert hätte, Vega definitiv auch sparsam betrieben werden könnte, so muss man halt wieder die Brechstange fahren wegen 10% mehr FPS 50% mehr Leistungsaufnahme draufpacken.

Und wenn man dann übertaktet oder die Karte maximal ausfährst bist du bei 400 Watt Strombedarf, das ist krank.

Berkeley
2017-08-15, 00:14:51
welche zb? meine macht 2050mhz + speicher OC und knackt nichtmal die 185w powertarget die ich ihr gewähre.
Keine Ahnung, fast alle, such dir aus:
https://www.computerbase.de/2016-10/geforce-gtx-1070-partnerkarten-vergleich-test/4/#abschnitt_so_viel_watt_kosten_die_hoeheren_taktraten


EDIT @dildo4u
Ja klar, Gesamtsystem, ist aber für meine Aussage unerheblich:
Die 1070 Custom Modelle gönnen sich auch lockere 40-80W mehr als die FE

dargo
2017-08-15, 00:15:30
"its meant to be played" - man schaue sich die min fps an...
https://abload.de/img/mordor-radeon-rx-veganvsdl.png

Das ist Hardcore wenns wirklich stimmt, auch gegen Fiji. :D Ich glaube Vega braucht definitiv mehr Zeit bei der Betrachtung.

dildo4u
2017-08-15, 00:16:26
Keine Ahnung, fast alle, such dir aus:
https://www.computerbase.de/2016-10/geforce-gtx-1070-partnerkarten-vergleich-test/4/#abschnitt_so_viel_watt_kosten_die_hoeheren_taktraten
Gesamtsystem.

Schaffe89
2017-08-15, 00:18:20
Und wie schliesst man die Lücke zwischen TitanXp und Custom GTX1080?

Die Frage ist eher wie schliesst AMD die riesen Lücke zwischen Vega 56 und Polaris 580.

Die Frage ist ob ein Vega 11 überhaupt schneller sein kann als eine RX 580?

dargo
2017-08-15, 00:18:58
@dargo: -70W bei powersave V64, 11111
https://abload.de/img/amd-radeon-rx-vega-po04u5z.png
Hier ist nicht ersichtlich ob Bios 1 oder Bios 2. Man... gebt doch bitte die Quellen an. Dieses reine Bilder verlinken nervt.

Thomas Gräf
2017-08-15, 00:21:31
Das ist Hardcore wenns wirklich stimmt, auch gegen Fiji. :D Ich glaube Vega braucht definitiv mehr Zeit bei der Betrachtung.

Das ist #1 Cherrypicking im Guten gemeint. Auch PCars, das geht doch gar nicht! Was is da los?

Achill
2017-08-15, 00:24:13
@Leo, das Review für Linux von phoronix.com (http://www.phoronix.com/scan.php?page=article&item=rx-vega-linux1&num=4) ist noch gar nicht in der Liste.

Abgesehen von den Manko des Verbrauchs scheint die Karte gut unter Linux mit dem freien Treiber zu laufen - es wird sogar einmal die 1080TI geschlagen und es ist nicht Doom :redface:

Ex3cut3r
2017-08-15, 00:24:46
Das ist #1 Cherrypicking im Guten gemeint. Auch PCars, das geht doch gar nicht! Was is da los?
Da er ja immer nur Bilder zeigt, ohne die Quelle zu verlinken, wäre ich da sehr skeptisch was er uns zeigt, sowas ist doch in PS in 3 Minuten erledigt.

Troyan
2017-08-15, 00:26:58
Die Werte stammen von hier: https://nl.hardware.info/reviews/7517/12/amd-radeon-rx-vega-56--64-review-minder-euros-meer-watts-benchmarks-project-carsndx11

Bei PCLab.com sieht es so aus:
http://pclab.pl/zdjecia/artykuly/stilgarus/2017/sierpien/vega/wykresy/pcars_1440p_2.png
http://pclab.pl/art75140-13.html

vinacis_vivids
2017-08-15, 00:27:20
Hier ist nicht ersichtlich ob Bios 1 oder Bios 2. Man... gebt doch bitte die Quellen an. Dieses reine Bilder verlinken nervt.
https://hothardware.com/reviews/amd-radeon-rx-vega-gpu-review?page=7

dargo
2017-08-15, 00:28:47
Das ist #1 Cherrypicking im Guten gemeint. Auch PCars, das geht doch gar nicht! Was is da los?
Ich habe ehrlich gesagt keine Ahnung.

Möglichkeit 1:
Features von Vega die die Karte gegenüber dem Vorgänger gut beschleunigen sollten funktionieren aktuell nur in bestimmten Spielen. Noch schlimmer wäre es wenn es nur bestimmte Szenen wären.

Möglichkeit 2:
Reviewer verwenden unterschiedliche Grafiktreiber. Hier habe ich aber nicht darauf geachtet ob alle den gleichen Treiber verwenden. Gibt es überhaupt unterschiedliche für die Reviewer?

Möglichkeit 3:
Manche Reviewer verwenden externe Tools wie zb. den MSI Afterburner der sich mit dem Wattman beißen kann und man dadurch falsche Ergebnisse bekommt. Ich hoffe jeder hat ein sauberes OS für den Test installiert und sich nur auf die Möglichkeiten vom Treiber (Wattman) beschränkt.

Nazar
2017-08-15, 00:34:42
1070 > RX 56
https://i.gyazo.com/7d0c27b520a512b5621f1a7adc3c2475.png
Was soll der Cherry-Picking Unfug? Das ist ja schon fast Verzweiflung, dass man irgendwas sucht, damit Vega halbwegs gut dasteht. Für einen über 480mm² großen Chip (GP102 ist kleiner), den enorm hohen Verbrauch und >14 Monate nach GP104 ist das erschreckend schwach, was an Gaming-Performance abgeliefert wird. Und das ist noch nett umschrieben.

Achja, eines noch: Vielleicht merkst du es ja selbst, aber selbst deine herausgepickten Benchmarks lassen Vega nur wenig in besserem Licht erscheinen, wenn man in dem Zusammenhang einen Blick auf die Fury X wirft.

Ähm.. dir ist schon aufgefallen, dass in deinem Bildchen nur Benches markiert sind, die richtig schlecht für VEGA sind? :confused:
Ansonsten muss ich hier natürlich sagen, dass das von AMD Abgelieferte richtig übel ist.

vinacis_vivids
2017-08-15, 00:37:01
"Maybe we got lucky, maybe we were given so-called “golden samples”, maybe the excessive fan speeds are skewing things compared to what you would get from more restrained cooling, or maybe Vega is better at overclocking than AMD let on, but we were able to overclock both cards to their maximum values on the core, which saw them boosting to 1,980MHz in both cases according to monitoring in both WattMan and GPU-Z. " :eek:

http://bit-tech.net/reviews/tech/graphics/amd-radeon-rx-vega-64-and-rx-vega-56-review/13/

dargo
2017-08-15, 00:37:58
Die Werte stammen von hier: https://nl.hardware.info/reviews/7517/12/amd-radeon-rx-vega-56--64-review-minder-euros-meer-watts-benchmarks-project-carsndx11

Danke. :)

Das ist hart. Da hat man praktisch die 1080TI. :freak:

https://www2.pic-upload.de/img/33738726/Zwischenablage22.jpg

Gerade bei pCars hätte ich sowas nie für möglich gehalten.


Bei PCLab.com sieht es so aus:
http://pclab.pl/zdjecia/artykuly/stilgarus/2017/sierpien/vega/wykresy/pcars_1440p_2.png
http://pclab.pl/art75140-13.html
Gibt es zwischen Regen und trockener Fahrbahn eventuell riesen Unterschiede im CPU-Overhead? Wäre für mich die einzig sinnvolle Erklärung.

Thomas Gräf
2017-08-15, 00:38:33
Die Werte stammen von hier: https://nl.hardware.info/reviews/7517/12/amd-radeon-rx-vega-56--64-review-minder-euros-meer-watts-benchmarks-project-carsndx11

Bei PCLab.com sieht es so aus:
http://pclab.pl/zdjecia/artykuly/stilgarus/2017/sierpien/vega/wykresy/pcars_1440p_2.png
http://pclab.pl/art75140-13.html

Okay danke Herzschlag Attacke vorbei. ;)
Die polnischen Tester sehen das viel realistischer als die niederländischen Kollegen.
Wiegesagt bei RaceSims/Games kenne ich mich eigentlich aus.

Wiseman
2017-08-15, 00:42:24
Auf Beyond3D berichtet jemand:

"So, Overclockers UK sold over a thousand Vega based cards in under an hour (complete sell out). WTF."

Über 1000 Vegas in weniger als 1 Stunde verkauft? WTF.

dildo4u
2017-08-15, 00:43:10
Gibt es zwischen Regen und trockener Fahrbahn eventuell riesen Unterschiede im CPU-Overhead? Wäre für mich die einzig sinnvolle Erklärung.
Der Overhead ist massiv im Regen vermutlich da wegen den Reflektionen Geometrie doppelt berechnet wird.

Ohne und mit DX11MT.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11427845&postcount=389

Thomas Gräf
2017-08-15, 00:43:27
Danke. :)

Das ist hart. Da hat man praktisch die 1080TI. :freak:

https://www2.pic-upload.de/img/33738726/Zwischenablage22.jpg

Gerade bei pCars hätte ich sowas nie für möglich gehalten.


Gibt es zwischen Regen und trockener Fahrbahn eventuell riesen Unterschiede im CPU-Overhead? Wäre für mich die einzig sinnvolle Erklärung.

Nja der Regen is nich das einzige, Radeons mögen das ganze Pcars nicht.
Es geht so lala im Test single Modus, aber im Race ist es nicht mehr gut.

w0mbat
2017-08-15, 00:44:31
Je mehr man sich mit Vega befasst, desto klarer wird das Potential. Da kann locker noch 1080Ti+ Performance rauskommen. Eindeutig die bessere Architektur als Pascal.

dargo
2017-08-15, 00:44:46
https://hothardware.com/reviews/amd-radeon-rx-vega-gpu-review?page=7
Danke. Kannst du da herauslesen ob die sich nur auf das erste Bios beschränkt haben? Falls ja würde das mit den Messungen von techpowerup in etwa passen. Techpowerup mist zwischen Standard Bios balanced und Standard Bios Powersave 78W weniger für letzteres. Powersave vom Bios 2 ist noch etwas sparsamer.

Nja der Regen is nich das einzige, Radeons mögen das ganze Pcars nicht.
Es geht so lala im Test single Modus, aber im Race ist es nicht mehr gut.
Naja... laut Hardware.info schmeckt pCars Vega offenbar extrem gut. Zumindest ohne Regen. Ich weiß aber auch nicht wie die pCars getestet haben. Waren die zb. alleine auf der Strecke oder dergleichen?

dildo4u
2017-08-15, 00:47:34
Je mehr man sich mit Vega befasst, desto klarer wird das Potential. Da kann locker noch 1080Ti+ Performance rauskommen. Eindeutig die bessere Architektur als Pascal.
Sie erreicht nicht mal in Doom die 1080 Ti,ich wäre da Vorsichtig.

24p
2017-08-15, 00:47:57
Das sind 2 Spiele von 20. Die verzerren natürlich den gesamten Schnitt. :rolleyes:


Ja, tun sie, da der Vorsprung bei Bf recht groß ist und die Karten im Index nah beieinander liegen.


Klar, irgendwelche Buzzword Abkürzungsfeatures und neue Treiber werden es richten.

Thomas Gräf
2017-08-15, 00:49:11
Je mehr man sich mit Vega befasst, desto klarer wird das Potential. Da kann locker noch 1080Ti+ Performance rauskommen. Eindeutig die bessere Architektur als Pascal.

Ja gut, das mag sein. Aber weiß das Treiberteam auch was ihr Arbeitgeber da bei GloFo backen lässt?
Das ist schon bissl anders al bei nV, das wissen wir doch hier alle, oder?

dargo
2017-08-15, 00:51:17
Ja, tun sie, da der Vorsprung bei Bf recht groß ist und die Karten im Index nah beieinander liegen.

Dann rechne nochmal nach.

24p
2017-08-15, 01:00:33
Nö, das überlasse ich dir.

Screemer
2017-08-15, 01:04:24
Oh hat da jemand seinen dritt account reaktiviert. Wir haben dich vermisst.

dargo
2017-08-15, 01:06:25
Nö, das überlasse ich dir.
Ich habe schon mein Ergebnis, deine Behauptung bleibt dennoch Bullshit.

vinacis_vivids
2017-08-15, 01:06:30
Sie erreicht nicht mal in Doom die 1080 Ti,ich wäre da Vorsichtig.

Wolfenstein 2 + FP16 wird spannend.

@dargo
Da stehts nichts von Bios 1&2 drin.
Aber hier:
https://www.kitguru.net/wp-content/uploads/2017/08/power-profiles.jpg

-80W bei power saving
http://hexus.net/media/uploaded/2017/8/4c4c307a-9d77-43f8-b3ce-e32ff653dd6c.png

24p
2017-08-15, 01:11:35
Ich habe schon mein Ergebnis, deine Behauptung bleibt dennoch Bullshit.

Beweis?

dargo
2017-08-15, 01:12:29
Dein erster Link ist tot.

btw.
Jetzt die große Frage... werden alle Customs von RX Vega 64 auch diesen Biosschalter haben für alle 6 Profile?

vinacis_vivids
2017-08-15, 01:19:47
https://www.kitguru.net/components/graphic-cards/luke-hill/amd-radeon-rx-vega64-8gb-air-review/

dargo
2017-08-15, 01:23:09
Beweis?
Wenn du dich unbedingt zum Affen machen willst gerne. CB hat dafür nämlich ein nettes Werkzeug.

https://www2.pic-upload.de/img/33738861/Zwischenablage23.jpg https://www2.pic-upload.de/img/33738863/Zwischenablage24.jpg https://www2.pic-upload.de/img/33738862/Zwischenablage25.jpg

Wahnsinns Unterschied wenn ich die beiden Games rausnehme. :eek: CB hat übrigens ein Spiel weniger im Parcour als Techpowerup.

https://www.kitguru.net/components/graphic-cards/luke-hill/amd-radeon-rx-vega64-8gb-air-review/
Hier ist das wichtigste Bild für mich.

https://www.kitguru.net/wp-content/uploads/2017/08/power-profiles-768x241.jpg

Also kann man die Asic Power bis 150W runter drücken, für ~8% weniger Leistung. Komplett strange. Bin jetzt umso mehr auf die Nano gespannt.

gmb
2017-08-15, 01:32:46
Flop des Jahres. Wer soll sich den Schrott eigentlich kaufen? 15! Monate nach der 1080 und trotzdem wird nichtmal eine 1080 Custom geschlagen bei übelstem Verbrauch. Was ein Schrott.

dargo
2017-08-15, 01:33:25
Flop des Jahres. Wer soll sich den Schrott eigentlich kaufen?
Ich. Ist deine Frage damit beantwortet?

Schaffe89
2017-08-15, 01:33:33
Also kann man die Asic Power bis 150W runter drücken, für ~8% weniger Leistung. Komplett strange. Bin jetzt umso mehr auf die Nano gespannt.

Wo steht das dass das nur 8% Performance kostet?

Ich. Ist deine Frage damit beantwortet?

Da muss man aber schon Liebhaber sein. Ich würde mir ja eher eine GTX 1070 kaufen und auf die letzten 15% mehr Leistung bei doppeltem Verbrauch der VEGA 64 dann verzichten.
Damals bei der GTX 480 wars ja genauso, da war die Kritik an so einem Verbrauchsmonster noch wesentlich vernünftiger als jetzt.
Ich bin gespannt ob die Customdesigns dann wirklich bei 400 Watt herauskommen, ich könnts mir schon vorstellen.

Statt dem Powersaver Zeug kann man dann auch gleich eine 1070 kaufen, dann muss man nicht frickeln.

vinacis_vivids
2017-08-15, 01:34:03
Ein seltener Test mit Ryzen 1800x
http://www.ddworld.cz/pc-a-komponenty/graficke-karty/amd-radeon-rx-vega-64-test-a-review-aneb-navrat-konkurence-a-prvni-100-dx12-vulkan-gpu.html

Kurztest aus India:
http://in.ign.com/amd-radeon-rx-vega-64-and-56/111686/review/amd-radeon-rx-vega-64-56-review

Russischer Test mit 5960X
https://3dnews.ru/956930/

Russischer Test mit i9 7900x
http://greentechreviews.ru/2017/08/14/sravnenie-proizvoditelnosti-videokart-amd-radeon-rx-vega-64-rx-vega-56-geforce-gtx-1080-ti-i-geforce-gtx-1080-v-igrax/

Workstation&Compute [EN]
https://techgage.com/article/a-look-at-amds-radeon-rx-vega-64-workstation-compute-performance/

Kurztest mit 6950x (Man beachte GTA min fps)
http://www.techradar.com/reviews/amd-radeon-rx-vega-64

Vega56&64 [EN]
https://www.forbes.com/sites/antonyleather/2017/08/14/amd-radeon-rx-vega-64-full-review-can-it-beat-nvidias-geforce-gtx-1080/
https://www.forbes.com/sites/antonyleather/2017/08/14/amd-radeon-rx-vega-56-versus-nvidia-geforce-gtx-1070-who-wins-the-400-crown/

AMD RADEON RX VEGA 64 測試報告 / 完勝1080P遊戲 新API性能更勝 (Viel Mining Benches)
https://news.xfastest.com/review/39629/amd-radeon-rx-vega-64/

Vega64 Air + Vega64 H²O (Watt output von 288-467W)
http://www.hwbattle.com/bbs/board.php?bo_table=hottopic&wr_id=7333&ckattempt=1

Vega64 inkl. Forza3 (min.fps), FFXIV
http://www.4gamer.net/games/337/G033714/20170814053/
Vega56
http://www.4gamer.net/games/337/G033714/20170814075/

Vega56&64 mit 6950x [EN]
http://www.legitreviews.com/amd-radeon-rx-vega-benchmark-review-vega-64-vega-56-tested_196989

Vega auf Dänisch :)
http://www.tweak.dk/review/AMD-Radeon-RX-Vega-64-Vega-power-i-gaming-og-GTX-10xx-killer/3041/1/1

Vega64 H²O auch mit alten Games
http://www.pcekspert.com/clanak/amd-radeon-vega-64-liquid-recenzija/?pg=1

Vega64 Air + H²O Rumänisch bis 1822Mhz GPU-CLK
https://wasd.ro/hardware-reviews/3d-vga-cards/amd-radeon-rx-vega-64-black-liquid-edition-review/

Ex3cut3r
2017-08-15, 02:00:38
Flop des Jahres. Wer soll sich den Schrott eigentlich kaufen? 15! Monate nach der 1080 und trotzdem wird nichtmal eine 1080 Custom geschlagen bei übelstem Verbrauch. Was ein Schrott.

Sehe ich auch so, wenn ich Lisa/Chef wäre, weiß ich ehrlich gesagt nicht, wie ich reagieren wurde, hätten mir meine ach so lieben hochbezahlten Mitarbeiter so ein Produkt vor die Nase gesetzt.

Schlecht für uns. Bin mal gespannt, was Nvidia für Preise bei Volta im Frühling ansetzt....

w0mbat
2017-08-15, 02:14:09
Statt dem Powersaver Zeug kann man dann auch gleich eine 1070 kaufen, dann muss man nicht frickeln.

Dann hat man aber eben auch nur 1070er Leistung.

Hübie
2017-08-15, 02:15:20
Als wäre einer alleine schuld daran. Afaik kam Raja als Vega schon sehr weit voran geschritten war. Er brachte noch einiges mit rein, aber es hat wohl doch nicht sein sollen. Talentierte Soft- und Hardwareingenieure wachsen außerdem nicht auf Bäumen. Bei Navi können wir uns nochmal drüber unterhalten. ;)

dildo4u
2017-08-15, 02:17:16
Als wäre einer alleine schuld daran. Afaik kam Raja als Vega schon sehr weit voran geschritten war. Er brachte noch einiges mit rein, aber es hat wohl doch nicht sein sollen. Talentierte Soft- und Hardwareingenieure wachsen außerdem nicht auf Bäumen. Bei Navi können wir uns nochmal drüber unterhalten. ;)
Laut dem war Raja schon an Fiji beteiligt.

http://www.amd.com/de-de/who-we-are/corporate-information/leadership/raja-koduri

Screemer
2017-08-15, 02:25:45
Und du glaubst das Vega Projekt lief erst nach Fiji an? :ugly:

dildo4u
2017-08-15, 02:34:01
Na er wird die Erfahrung aus der Entwicklung von Fiji doch bei Vega eingesetzt haben oder?Wobei das Endergebnis wohl dagegen spricht.

vinacis_vivids
2017-08-15, 03:08:37
Vega geht weg wie warme Semmeln, AMD hat alles richtig gemacht. Was Gaming Performance betrift, ist Vega56 teilweise in Schlagweite der GTX1080. In Zukunft noch flotter bei id tech6 oder Forstbite, low lvl API FTW.

Schaffe89
2017-08-15, 03:38:56
Ja sowie die GTX 1070 öfters in Schlagweite einer VegaRX ist, wirklich grandios.
Bei PCGH ist die RX Vega 64 ganze 14% in Front mit HQ AF, die anderen Seiten testen mit schlechterem Standard AF.
Wurde eigentlich bei den Tests das AF untersucht? Grade bei Vega könnte doch AMD verlockend dazu greifen da ein bisschen die Qualität runterzuschrauben.

aufkrawall
2017-08-15, 04:13:20
Unter DX12 dürfte es btw. mit Radeons immer noch gar kein HQ AF geben, nur die Standardeinstellung.

Mortalvision
2017-08-15, 06:02:35
Na, die Miner decken sich ein. Selbst wenn eth nicht so gut läuft, tun es bestimmt andere crypto miner?

L233
2017-08-15, 07:01:45
Vega geht weg wie warme Semmeln, AMD hat alles richtig gemacht. Was Gaming Performance betrift, ist Vega56 teilweise in Schlagweite der GTX1080. In Zukunft noch flotter bei id tech6 oder Forstbite, low lvl API FTW.
Mit Ach-und-Krach in "Schlagweite" eines mehr als 2 Jahre alten Chips sein, und das bei 50% höherer Chipgröße und höherem Energieverbrauch, läuft bei dir also unter "alles richtig machen". :confused:

Und die AMD-Fanboy-Gebetsmühle, dass es die APIs schon richten werden, hören wir ja mittlerweile auch schon seit 4 Generationen...

RoughNeck
2017-08-15, 07:36:29
Lass ihn halt, der kann nicht anders.
Ich persönlich finde es schade, so wird sich Nvidia weiter ausruhen und keiner hat was davon. Neben der Fury einer der schlechtesten Grafikkarten release seit langem.

iuno
2017-08-15, 07:39:43
Mit Ach-und-Krach in "Schlagweite" eines mehr als 2 Jahre alten Chips sein, und das bei 50% höherer Chipgröße und höherem Energieverbrauch
Pascal ist keine 2 Jahre alt ;D

Ich persönlich finde es schade, so wird sich Nvidia weiter ausruhen
Wo ruht sich NV aus? Das ist nicht Intel. Klar, es wird halt teurer.

Vega geht weg wie warme Semmeln
Klar, wenn es keine Karten gibt.
Geht halt genauso weg wie Polaris und im Quartalsbericht sehen wir dann wieder, dass man, obwohl alles ausverkauft ist, trotzdem irgendwie kein Geld verdient. Die Marge wird insbesondere bei dem sicherlich begehrteren V56 bestimmt nicht besonders toll sein.

Skysnake
2017-08-15, 07:52:18
Gab es jetzt bezüglich GMIx noch ein paar Infos zu Vega?

Kann V10 das wirklich nicht, sondern erst V20?

Sunrise
2017-08-15, 08:08:17
Vega geht weg wie warme Semmeln, AMD hat alles richtig gemacht. Was Gaming Performance betrift, ist Vega56 teilweise in Schlagweite der GTX1080. In Zukunft noch flotter bei id tech6 oder Forstbite, low lvl API FTW.
Das bringt uns und AMD nur aktuell nichts, wenn man weiter mit CPU-Verkäufen die GPU-Abteilung füttern muss, da man nicht in der Lage ist, Geld zu verdienen. Vega zeigt, dass sich auf Low-Level und Cherrypicking "ich baue mir die Welt wie sie mir gefällt"-Resultaten auszuruhen Quatsch ist. Das interessiert die meisten nicht die Bohne und AMD hilft es auch nicht.

Ich will garnicht wissen, wie es aussieht, wenn man mal etwas mehr als den üblichen Mainstream bencht. Dass man diverse Features der GPU, die man mit viel Tamtam angepriesen hatte auch nicht per Default aktiv hat ist äußerst unschön.

Das Ding ist fast schlimmer als Fermi (allerdings ohne HW-Defekt) und das will was heißen.

Es ist ja jetzt nicht so als hätten wir nicht in etwa gewusst (der konservative Skeptiker), was da von AMD kommt, wenn man Polaris in etwa verdoppelt und an max. 512GBit/s Bandbreite gebunden ist. AMD hat sehr genau gelenkt, was vorab ans Licht kommen darf und der Vega FE-Launch war schonmal ein deutliches Warnsignal.

Dass man aber wieder sowas wie Vega 64 nötig hat ist sehr sehr schade. Selbst mit 7nm wäre AMD da wohl in etwa gleichauf mit einer 1080Ti, da muss noch einiges mit Navi mehr passieren und ich hoffe, dass man dadurch nicht noch mehr Ballast mit sich rumtragen muss.

Pirx
2017-08-15, 08:17:23
Jupp, klingt so, als hätte man hier noch was drangebastelt und da noch und muß nun einen immensen Aufwand betreiben um die Features zum Laufen zu bekommen. Ich hoffe, das ist nicht so - ist egtl. auch nicht AMDs Art und wäre gerade für AMD kontraproduktiv.

mili2110
2017-08-15, 08:20:35
Gibt es irgendwo UWQHD Tests?

konkretor
2017-08-15, 08:22:48
hat das wer schon durch gearbeitet?

http://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf

L233
2017-08-15, 08:24:32
Pascal ist keine 2 Jahre alt ;D
Stimmt, my bad. Sind "nur" 15 Monate.

Gumril
2017-08-15, 08:25:57
@dargo:
Hier wird auch ein wenig von den 2 Biosmodis und 3 Modis getestet: http://www.gamestar.de/artikel/amd-radeon-rx-vega-64-liquid-cooled-benchmark-duell-gegen-nvidias-gtx-1080,3318225,seite4.html#drei-power-profile-zwei-vbios

dargo
2017-08-15, 08:41:40
Unter DX12 dürfte es btw. mit Radeons immer noch gar kein HQ AF geben, nur die Standardeinstellung.
Und das ist jetzt deine Begründung warum man keine Vega kaufen sollte? Dann bin ich beruhigt. :tongue:

Das bringt uns und AMD nur aktuell nichts, wenn man weiter mit CPU-Verkäufen die GPU-Abteilung füttern muss, da man nicht in der Lage ist, Geld zu verdienen.
Ich finde es immer bemerkenswert eure Unterganggeschichten zu lesen von Leuten die absolut keine Ahnung davon haben was die IHVs hinten rum tatsächlich in der Tasche haben. Zerbrecht euch da nicht zuviel den Kopf. Vega 10 wird mit bis zu 7.000$ pro Stück verkauft.
https://www.heise.de/newsticker/meldung/Workstation-Grafikkarten-mit-Vega-GPU-AMD-Radeon-Pro-SSG-mit-2-TByte-Speicher-und-Radeon-Pro-WX-9100-3787131.html

Gaming ist nur ein Teilsegment des ganzen.

* Radeon Pro SSG = 7.000$
* Radeon Pro WX 9100 = 2.200$
* Mi25 = ???$
* Radeon Vega FE = 1.000-1.500$
* RX Vega für Gaming = 400-700$
* Apple = ???$

Cyphermaster
2017-08-15, 08:50:11
OC wo will man denn da noch hin? Die Karte läuft doch heute schon am Limit.So sieht das nicht aus, in einigen Reviews kriegen sie das Design nahe an die 2GHz. Es stellt sich mehr die Frage, in wie weit das dann Strom kostet. Wenn man sich ansieht, wie gut UV und teils OCing funktionieren, die Treiber aber nicht, drängt sich einem der Begriff "unoptimiert", weniger höflich formuliert "unfertig" förmlich auf. Das Problem sehe ich mehr darin, daß die Zeit und Ressourcen fehlen, bei der derzeitigen RX Vega vorhandenes Potential noch zu heben.
Die Frage ist ob ein Vega 11 überhaupt schneller sein kann als eine RX 580?Wenn Vega 11 deutlich sparsamer als eine RX580 bei gleicher Leistung zu kriegen ist, stellt sich die Frage, ob er das überhaupt müßte, um sinnvolle Produkte damit zu bekommen. Er hätte das deutlich modernere Featureset, weniger Strombedarf, aber immer noch Gaming-fähige Leistung. Produktionskosten und möglicher Launchzeitpunkt würden dann entscheiden. Wenn ich mir aber den Zustand der V10 ansehe, glaube ich eher, das Ding kriegt zugunsten freier Ressourcen für die Vega-Optimierung die Axt.

Nazara
2017-08-15, 09:01:56
Um nochmal auf meinen früheren Eintrag zurückzukommen und auch um auf Cyphermaster einzugehen. Unfertig ist ja schön und gut, und ich glaube mittlerweile nicht mehr, dass es am Treiber liegt, wenn die in 8! Monaten seit den ersten Benches Null Verbesserung treibermäßig geschafft haben, dann hege ich starke Zweifel, dass da in Zukunft noch was gehen wird. Sollte es anders sein, wann sollen die Treiber kommen? In einem Jahr? In zwei Jahren?

Und btw, hab derzeit selbst eine AMD Karte drin und wollte eigentlich auf Vega upgraden, aber das ist einfach nur noch schlimm.

Raff
2017-08-15, 09:03:38
Ja sowie die GTX 1070 öfters in Schlagweite einer VegaRX ist, wirklich grandios.
Bei PCGH ist die RX Vega 64 ganze 14% in Front mit HQ AF, die anderen Seiten testen mit schlechterem Standard AF.
Wurde eigentlich bei den Tests das AF untersucht? Grade bei Vega könnte doch AMD verlockend dazu greifen da ein bisschen die Qualität runterzuschrauben.

Siehe PCGH (http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/2/#a1) – das wurde bereits mit der Frontier Edition untersucht:

Selbstverständlich haben wir uns auch die Qualität der anisotropen Texturfilterung angesehen, denn in der Vergangenheit war diese oft das Ziel von "Optimierungen". Auch bei der Radeon Vega sind im Treiberstandardzustand Kniffe aktiv, welche Rechenzeit sparen. Das trifft auf jede aktuelle Radeon und Geforce zu und ist nicht verwerflich, zumal sich die Sparmaßnahmen mit zwei Klicks deaktivieren lassen: Wählen Sie einfach "Hoch" anstelle von "Standard". Vegas HQ-AF ist in all unseren Stichproben sauber und liefert keinen Anlass zur Kritik.

MfG,
Raff

Menace
2017-08-15, 09:05:01
Bei den Verbräuchen sieht es so aus.


:eek: Netter und für mich wichtigster Fund. Die 64 wird sogar effizienter als die 56.

Außerdem einfaches Vorgehen (hier einmal ein Kompliment an den Test von Gamestar.

1. Biosschalter auf "2"
2. Wattman auf Powersave?

Ich fürchte nur, dass solche Verbesserungen bei der Nano nicht möglich sind, da schon am Sweetspot.

Und normalerweise müsste diese die Standardeinstellung sein. Alle andere Schalter dann als Zusatz. So wäre der mögliche geringere mehr im Focus.

Gibt es dazu noch mehre Tests und Seiten (muss ich zumindest gleich mal überprüfen). :D

Wer soll sich den Schrott eigentlich kaufen?

Warum die nvidianer mir immer erklären möchten, was ich zu kaufen hätte. Seit dem zweiten Blick und Dargos Fund bin ich mir wirklich am Überlegen, ob es nicht doch eine 64 wird. :tongue:

Taigatrommel
2017-08-15, 09:05:58
Ich denke ebenfalls, dass Vega einige OC Reserven bietet, sei es mit eigener Wasserkühlung oder eben mit einem dicken, schweren Luftkühler. Letzterer vom Schlag einer Sapphire Nitro Fury oder eben Asus Strix dürfte da Möglichkeiten abseits von Wasser aufzeigen, wobei ich einen faden Beigeschmack wegen der hohen Abwärme innerhalb des Gehäuses hätte. Die Version mit AIO Wasserkühlung geht ja bereits jetzt ganz gut und das nur mit einem 120er Radiator. Ein "echter" Wasserkühler mit 240er oder 280er Radiator und entsprechenden Lüftern dürfte da noch mehr Potenzial entfesseln.
Es bleibt halt die Frage, wie hoch der Stromverbrauch am Ende geht. Habe ich es richtig verstanden, macht die Software aktuell noch Probleme bei der Spannungsanpassung. Funktioniert diese erst einmal und man kann sich in Ruhe mit guter Kühlung, entsprechendem Undervolting und gleichzeitig OC auseinandersetzen, gibt es ggf. attraktivere Ergebnisse.

Das die Karte dadurch weder zum Spar- noch zum Leistungswunder mutiert, dürfte klar sein. Dennoch bin ich mir sicher, dass die kommenden Wochen noch interessante Artikel zeigen werden.

iuno
2017-08-15, 09:08:25
http://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf

“Vega” can also decode the VP9 format at resolutions up to 3840x2160 using a hybrid approach where the video and shader engines collaborate to offload work from the CPU.

So viel dazu:
Die Vega-10-GPU hat AMDs am weiten entwickelte Videoeinheit. Diese kann mit sämtlichen gängigen Formaten umgehen
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/7/#abschnitt_videoencoding_mit_staerken_und_schwaechen

IMHO ein klarer Kritikpunkt, aber lieber misst man ob es 500 oder 600 FPS in h.264 sind? Voellig unverstaendlich fuer mich. Schon bei Polaris stand VP9 in den Slides und wurde einfach so hingenommen. Haette es dafuer mal richtig Kritik gehagelt, waere vielleicht mal was passiert.
Zumal das auch fuer Raven hoechst interessant waere, aber dann halt nicht :rolleyes:

dargo
2017-08-15, 09:10:47
@dargo:
Hier wird auch ein wenig von den 2 Biosmodis und 3 Modis getestet: http://www.gamestar.de/artikel/amd-radeon-rx-vega-64-liquid-cooled-benchmark-duell-gegen-nvidias-gtx-1080,3318225,seite4.html#drei-power-profile-zwei-vbios
Super Fund, ich danke dir. :up:

Den Vergleich mit BF1 kann man denke ich knicken, hohes CPU-Limit. Das mit Witcher 3 ist aber wieder heftig.

https://www2.pic-upload.de/img/33739787/Zwischenablage26.jpg

Beim Gesamtsystem braucht Turbo Bios 1 210W mehr (+59%) für 7% mehr Leistung als Bios 2 Powersave. X-D Also das sprengt jegliche Physikgesetze. ;D Zudem verwundert mich sehr, dass Vega 10 in den Taktbereichen so schwach nach oben skaliert. Das sind 15% mehr GPU-Takt wovon nur die Hälfte auf die Straße gebracht werden. Also entweder funktioniert da noch was nicht richtig oder AMD hat sie nicht mehr alle was die "Taktrekorde" angeht.

PS: mit beiden Powersavemodis bleibt der Lüfter im Schnitt unter 1.000RPM. :eek:

Menace
2017-08-15, 09:11:28
@Raff: Ich glaube, das habt ihr etwas "unglücklich" formuliert:

Das Standard-BIOS (Schalterstellung 1, nahe der I/O-Blende) entspricht der "Balanced"-Einstellung im Wattman.

http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/2/#a1

PCGH und Tomshardware haben (bisher) noch nicht alle Möglichkeiten durchgetestet.
Edit: Computerbase hat das auch nicht getestet? :confused:

Wer hätte das gedacht, dass Gamestar im Grafikkartentest eine bessere Figur macht, als die Fachkonkurrenz. :rolleyes:

Der_Korken
2017-08-15, 09:14:12
Sehe ich auch so, wenn ich Lisa/Chef wäre, weiß ich ehrlich gesagt nicht, wie ich reagieren wurde, hätten mir meine ach so lieben hochbezahlten Mitarbeiter so ein Produkt vor die Nase gesetzt.

Ich denke mal, dass die Leistung intern schon lange bekannt ist. Da hätte das Tischtuch schon länger zerschnitten sein müssen. Die Frage ist aber auch, wie groß das Budget letztlich war, denn man kann einer Abteilung nicht auf der einen Seite immer mehr Geld wegnehmen und dann erwarten, dass die alle Termine einhalten und hohe Qualität abliefern.

Es ist zumindest nicht alles schlecht, was mit Vega neu kommt. Das neue Speichersystem hat bisher einen sehr guten Eindruck gemacht mit Anwendungen im Gaming- sowie im professionellen Bereich. Die Primitive Shader hat man bisher noch nicht richtig in Aktion gesehen. Es wirkt nur eben überladen mit Features, nur die Leistung ist auf der Strecke geblieben (der Verbrauch kann ja durchaus OK sein, wenn man sich mit den Taktraten etwas zurückhält. Mit etwas Verzicht wären <250W locker drin gewesen).

Die Frage ist ob ein Vega 11 überhaupt schneller sein kann als eine RX 580?

Bisher sah die Skalierung von Vega 56 auf Vega 64 nicht besonders gut aus. Wenn es da bereits Auslastungsprobleme gibt, wäre ein V11 mit 40CUs vielleicht gar nicht so viel langsamer. Schneller als eine 580 geht also schon, fragt sich nur, ob sich für 20% mehr Leistung gleich ein neuer Chip lohnt. Dann schon lieber die Ressourcen in die nächste Gen investieren.

Raff
2017-08-15, 09:15:55
@Raff: Ich glaube, das habt ihr etwas "unglücklich" formuliert:

http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/2/#a1

PCGH und Tomshardware haben (bisher) noch nicht alle Möglichkeiten durchgetestet.

Das liegt daran, dass die ultraknappe Testzeit nicht in Dinge investiert wurde, die die Leistung um 1-3 Prozent verändern. :) AMD bietet bei ein und derselben Grafikkarte 6 Power-Modi an, maßgeblich ist jedoch der Werkszustand – und das ist BIOS 1 mit der Treiberstandardeinstellung "Balanced".

Bisher sah die Skalierung von Vega 56 auf Vega 64 nicht besonders gut aus. Wenn es da bereits Auslastungsprobleme gibt, wäre ein V11 mit 40CUs vielleicht gar nicht so viel langsamer. Schneller als eine 580 geht also schon, fragt sich nur, ob sich für 20% mehr Leistung gleich ein neuer Chip lohnt. Dann schon lieber die Ressourcen in die nächste Gen investieren.

Ich finde, dass Vega 64 Air gut gegenüber der Vega 56 skaliert. Besser als alle Radeon-GPUs zuvor. Es liegen immerhin rund 15 Prozent zwischen den Karten. Das liegt aber nicht nur am Einheiten- und Taktbeschnitt, sondern vor allem an den Power-Restriktionen der Vega 56. Das sollte man nie vergessen. Ein verlässlicher Pro-Takt-Test 3.584 vs. 4.096 Shader-ALUs könnte derzeit noch am etwas verrückten Wattman scheitern. Oft stellt das Ding zur Laufzeit lustige Sachen ein, die nichts mit dem zu tun haben, was der Nutzer wollte ...

MfG,
Raff

Sunrise
2017-08-15, 09:16:15
...Vega 10 wird mit bis zu 7.000$ pro Stück verkauft.
Ist natürlich auch wichtig, die Dinger im Pro-Sektor konkurrenzfähig anzupreisen. AMD muss da erstmal diverse Basis-Werte schaffen, bevor ich oder andere sich als "Pro-User" eine Radeon kaufen würde(n). Da gäbe ich jederzeit NV bzw. Intel Vorrang. Kommt auch etwas auf den Anwendungsbereich an.

Sei es drum, will ich die Performance jetzt, kaufe ich NV. Sollte AMD das Ruder wie auch immer stark rumziehen und sei es nur deutlich mehr Speed bei Vega, kann man daran denken, vielleicht auf Vega zu wechseln. Damit einhergehend bleibt aber der sehr hohe Verbrauch und somit (hier sind größtenteils Spieler unterwegs) wieder für viele ein KO-Kriterium was AMD so nicht wegradieren kann, ohne da etwas Grundsätzliches zu verändern.

Apple mag da u.a. die Rettung sein, aber ob sich das für AMD bei den Apple-Knebelverträgen lohnt sei mal dahingestellt.

dargo
2017-08-15, 09:21:01
:eek: Netter und für mich wichtigster Fund. Die 64 wird sogar effizienter als die 56.

Das auf jeden Fall. Was ich so in den Reviews gelesen habe gibt das wieder.

Vega 64 mit Powersave = 200-214W (je nach Bios)
Vega 56 = 223-229W

Ich kann jetzt nur die Leistung der beiden Varianten noch nicht richtig zuordnen.

Menace
2017-08-15, 09:22:16
Das liegt daran, dass die ultraknappe Testzeit nicht in Dinge investiert wurde, die die Leistung um 1-3 Prozent verändern. :) AMD bietet bei ein und derselben Grafikkarte 6 Power-Modi an, maßgeblich ist jedoch der Werkszustand – und das ist BIOS 1 mit der Treiberstandardeinstellung "Balanced".

MfG,
Raff

Nein, ich meine Eure Formulierung ist so doch falsch. Bios 1 kann sowohl 3 Einstellungen in Wattman haben wie auch Bios 2.
Balanced entspricht somit nicht Bios 1.

Die Leistung mögen sich um 1-3 Prozent unterscheiden. Beim Stromverbrauch haben dabei ein weit aus größerer Unterschied. Zumindest da sollte man noch kurz darauf eingehen.

Zitat: Gamestar (http://www.gamestar.de/artikel/amd-radeon-rx-vega-64-liquid-cooled-benchmark-duell-gegen-nvidias-gtx-1080,3318225,seite4.html#drei-power-profile-zwei-vbios):
AMD spricht im offiziellen Reviewers Guide beim Vergleich vom Profil Power Saver und Balanced selbst von einer gestiegenen Effizienz im Bereich von 25 bis 30 Prozent. Außerdem betont man, dass die Karten von Haus aus recht aggressiv auf möglichst hohe Performance eingestellt sind.

Aber ich gebe Dir Recht, die Zeit war zu kurz; zumal wenn noch eine 56 reingeschoben wird.

Menace
2017-08-15, 09:24:50
Ich kann jetzt nur die Leistung der beiden Varianten noch nicht richtig zuordnen.

Blöde Frage: Kann diese Effizienz bei den Custom-Modellen wieder kaputtoptimiert werden? Ich fürchte, Referenzmodelle werden wir bei vernünftigen Preisen nicht mehr sehen.

Timbaloo
2017-08-15, 09:26:26
Also wenn man mit 1-3% Reduktion in Performance 25-30% Reduktion in der Leistungsaufnahme erreichen kann, dann frage ich mich: Warum ist das nicht der Standard? Die 1-3% würden niemand jucken, die 25-30% aber würden einen der Hauptkritikpunkte deutlich abmildern? Das wäre (Achtung Konjunktiv) ja an Dummheit kaum zu überbieten...

Raff
2017-08-15, 09:26:42
Nein, ich meine Eure Formulierung ist so doch falsch. Bios 1 kann sowohl 3 Einstellungen in Wattman haben wie auch Bios 2.
Balanced entspricht somit nicht Bios 1.

Wenn du die Karte einbaust und nix am Treiber (genauer: Wattman-Menü) machst: BIOS 1, Balanced. Viele Menschen handeln tatsächlich so. Einbauen und einfach nutzen. :D

MfG,
Raff

dargo
2017-08-15, 09:27:24
PCGH und Tomshardware haben (bisher) noch nicht alle Möglichkeiten durchgetestet.
Edit: Computerbase hat das auch nicht getestet? :confused:

Wer hätte das gedacht, dass Gamestar im Grafikkartentest eine bessere Figur macht, als die Fachkonkurrenz. :rolleyes:
Finde ich auch sehr enttäuschend. Aber gut... bei der knappen Zeit haben sich viele auf Standardsettings konzentriert.

Blöde Frage: Kann diese Effizienz bei den Custom-Modellen wieder kaputtoptimiert werden? Ich fürchte, Referenzmodelle werden wir bei vernünftigen Preisen nicht mehr sehen.
Möglich wenn die Partner eigene grenzen (TDP-Limits) bei den jeweiligen Profilen hinterlegen. Bei den Customs heißt es dann besonders die Augen nach den effizienten Vegas offen halten. Am besten wäre es wenn man die Profile aus den Biosen auslesen könnte. Den Anhaltspunkt von AMD gibt es ja bereits.

Palpatin
2017-08-15, 09:30:09
Ich finde, dass Vega 64 Air gut gegenüber der Vega 56 skaliert. Besser als alle Radeon-GPUs zuvor. Es liegen immerhin rund 15 Prozent zwischen den Karten. Das liegt aber nicht nur am Einheiten- und Taktbeschnitt, sondern vor allem an den Power-Restriktionen der Vega 56.

Ich denk es liegt in erster Line an der Bandbreite. Vega56 mit Vega 64 Bandbreite wäre sicher ~10% schneller. In einigen Tests liegt Vega 56 ja gleichauf mit Fury X und Vega 64 ist dann in etwa um das schneller was mehr an Bandbreite zur Verfügung steht.
Läst sich der HBM2 von Vega 56 auf das Niveau von 64 übertakten und wieviel bringt es wenn man nur den Speicher höher taktet?

gedi
2017-08-15, 09:30:45
So ganz habe ich es jetzt nicht verstanden: Bevorzugen sollte man bei V64 BIOS_2+Power_Save+UV um die maximale Leistung freizusetzen?

Rancor
2017-08-15, 09:31:41
NAja AMD macht genug Kohle mit den RadiForce Karten. Im medizinischen Bereich ist AMD ganz weit vorne. Das ist NV imho kaum vertreten. Sorgen um die Finanzierung würde ich mir da nicht machen

yamamoto_dc
2017-08-15, 09:32:06
V56 am Sweetpot gefällt mir sehr gut, genau das richtige für meinen 4k-Freesync-Monitor. Wenn die Lüfter unter 1000RPM bleiben wäre sogar das Referenzdesign eine Überlegung wert. Gibt es Lautstärkemessungen bei dieser Drehzahl?

dargo
2017-08-15, 09:35:49
So ganz habe ich es jetzt nicht verstanden: Bevorzugen sollte man bei V64 BIOS_2+Power_Save+UV um die maximale Leistung freizusetzen?
Ohne "Gefrickel" ist Powersavemodus im Bios 2 mit 200W für die Karte (oder 150W für die Asic Power) am sparsamsten. Wenn du jetzt noch UV betreiben möchtest könntest du hierbei noch etwas mehr Leistung bei gleichem Stromverbrauch herauskitzeln.

Also wenn man mit 1-3% Reduktion in Performance 25-30% Reduktion in der Leistungsaufnahme erreichen kann, dann frage ich mich: Warum ist das nicht der Standard? Die 1-3% würden niemand jucken, die 25-30% aber würden einen der Hauptkritikpunkte deutlich abmildern? Das wäre (Achtung Konjunktiv) ja an Dummheit kaum zu überbieten...
Was mich an der ganzen Sache am meisten wundert... AMD hatte die Reviewer gebeten Vega 56 mehr Aufmerksamkeit zu widmen. Dabei ist Vega 64 @Powersave imho viel interessanter. Gut... sind 100$ mehr, vielleicht meint AMD deshalb das mit der Vega56.


Sei es drum, will ich die Performance jetzt, kaufe ich NV. Sollte AMD das Ruder wie auch immer stark rumziehen und sei es nur deutlich mehr Speed bei Vega, kann man daran denken, vielleicht auf Vega zu wechseln. Damit einhergehend bleibt aber der sehr hohe Verbrauch und somit (hier sind größtenteils Spieler unterwegs) wieder für viele ein KO-Kriterium was AMD so nicht wegradieren kann, ohne da etwas Grundsätzliches zu verändern.

200-214W bei einem fetten V10 64 ist also hoher Verbrauch? Du bist also nicht in der Lage einen Biosschalter umzulegen und Powersave im Wattman zu wählen? Da wird mit externen Tools wie MSI Arschbrenner rumhantiert und mit offiziellen Optionen vom Hersteller ist man überfordert. :freak:

Raff
2017-08-15, 09:38:02
V56 am Sweetpot gefällt mir sehr gut, genau das richtige für meinen 4k-Freesync-Monitor. Wenn die Lüfter unter 1000RPM bleiben wäre sogar das Referenzdesign eine Überlegung wert. Gibt es Lautstärkemessungen bei dieser Drehzahl?

Die Karte fackelt bei 1.000 RPM ab. BIOS-Standard sind 2.400, mit 2.000 (Wert der Frontier Edition) kommt man aber gut zurande.

*Auf den Messzettel schaut*

Sollte es jemand hinkriegen, die Referenzkarten mit 30 % = 1.500 RPM zu betreiben -> nette 1,7 Sone Lautheit

MfG,
Raff

Majestic
2017-08-15, 09:38:10
Halte ich gegen.

http://www.iefimerida.gr/sites/default/files/styles/708x320/public/fdghfghfgh.jpg?itok=tmpbIR3F
Praktisch für die Mittagszeit....:uroll:
:ulol4:

Gibt es schon Informationen zu den reellen Preise in der EU?
Mich würde mal interessieren ob Nvidia(inklusive der Partner) in der Lage(wirtschaftlich) ist die Preise so richtig zu senken. (1060-6Gb<200€/1070<350€/1080<450€/1080ti<550€). Das würde wahrscheinlich reichen um AMD ihren Erfolg so richtig zu verhageln.

Menace
2017-08-15, 09:39:09
Wenn du die Karte einbaust und nix am Treiber (genauer: Wattman-Menü) machst: BIOS 1, Balanced. Viele Menschen handeln tatsächlich so. Einbauen und einfach nutzen. :


Ja, so bin ich ja häufig auch. :biggrin: Das kritisiere ich auch (noch) nicht so heftig. Ich denke, dass ihr das in einem Nachtest noch genauer beleuchtet.

Mich stört die Formulierung, die so keinen Sinn ergibt.

"Das Standard-BIOS (Schalterstellung 1, nahe der I/O-Blende) entspricht der "Balanced"-Einstellung im Wattman."

Vielleicht meintet ihr: "Bei der Standard-Einstellung steht der Bios-Schalter auf 1 und im Wattman auf "Balanced".

gedi
2017-08-15, 09:39:47
Ohne "Gefrickel" ist Powersavemodus im Bios 2 mit 200W für die Karte (oder 150W für die Asic Power) am sparsamsten. Wenn du jetzt noch UV betreiben möchtest könntest du hierbei noch etwas mehr Leistung bei gleichem Stromverbrauch herauskitzeln.

Ändert sich dadurch nicht auch die Targetfrequenz - also Bios_1 max. z.B. 1.6G, Bios_2 max. 1.45G?

Dural
2017-08-15, 09:42:43
Und das ist jetzt deine Begründung warum man keine Vega kaufen sollte? Dann bin ich beruhigt. :tongue:


Ich finde es immer bemerkenswert eure Unterganggeschichten zu lesen von Leuten die absolut keine Ahnung davon haben was die IHVs hinten rum tatsächlich in der Tasche haben. Zerbrecht euch da nicht zuviel den Kopf. Vega 10 wird mit bis zu 7.000$ pro Stück verkauft.
https://www.heise.de/newsticker/meldung/Workstation-Grafikkarten-mit-Vega-GPU-AMD-Radeon-Pro-SSG-mit-2-TByte-Speicher-und-Radeon-Pro-WX-9100-3787131.html

Gaming ist nur ein Teilsegment des ganzen.

* Radeon Pro SSG = 7.000$
* Radeon Pro WX 9100 = 2.200$
* Mi25 = ???$
* Radeon Vega FE = 1.000-1.500$
* RX Vega für Gaming = 400-700$
* Apple = ???$

Ich kann mir fast nicht vorstellen das ein ernsthaft grosser kunde in anbetracht von GP100 und GV100 zu Vega greift, vega dürfte rund 2x mehr strom ziehen pro flops als Pascal / Volta.

Und Apple wird ihren entscheid vor jahren zu AMD sicherlich schon bereuen...

yamamoto_dc
2017-08-15, 09:46:07
Die Karte fackelt bei 1.000 RPM ab. BIOS-Standard sind 2.400, mit 2.000 (Wert der Frontier Edition) kommt man aber gut zurande.

*Auf den Messzettel schaut*

Sollte es jemand hinkriegen, die Referenzkarten mit 30 % = 1.500 RPM zu betreiben -> nette 1,7 Sone Lautheit

MfG,
Raff

Ah danke, werde mich mit dem Thema noch mal genauer beschäftigen, eine Referenzkarte die ohne großen Leistungsverlust leise bleibt, würde mich sehr interessieren. :smile:

Raff
2017-08-15, 09:46:25
Vielleicht meintet ihr: "Bei der Standard-Einstellung steht der Bios-Schalter auf 1 und im Wattman auf "Balanced".

Na gut, ich habe das mal angepasst. :up:

MfG,
Raff

Der_Korken
2017-08-15, 09:48:59
Ich finde, dass Vega 64 Air gut gegenüber der Vega 56 skaliert. Besser als alle Radeon-GPUs zuvor. Es liegen immerhin rund 15 Prozent zwischen den Karten. Das liegt aber nicht nur am Einheiten- und Taktbeschnitt, sondern vor allem an den Power-Restriktionen der Vega 56. Das sollte man nie vergessen. Ein verlässlicher Pro-Takt-Test 3.584 vs. 4.096 Shader-ALUs könnte derzeit noch am etwas verrückten Wattman scheitern. Oft stellt das Ding zur Laufzeit lustige Sachen ein, die nichts mit dem zu tun haben, was der Nutzer wollte ...

Naja, die 13% aus euren Tests sind zwar besser als die 10% bei CB, aber immer noch recht durchschnittlich. Allein der GPU-Takt sind ja schon um die 10% und der Speichertakt 18%.

Ich denk es liegt in erster Line an der Bandbreite. Vega56 mit Vega 64 Bandbreite wäre sicher ~10% schneller. In einigen Tests liegt Vega 56 ja gleichauf mit Fury X und Vega 64 ist dann in etwa um das schneller was mehr an Bandbreite zur Verfügung steht.

Bei der Bandbreite wäre ich nicht zu voreilig. Verglichen mit Polaris holt Vega weniger fps/Bandbreite und das trotz DSBR.

dargo
2017-08-15, 09:50:37
Ändert sich dadurch nicht auch die Targetfrequenz - also Bios_1 max. z.B. 1.6G, Bios_2 max. 1.45G?
Das kann ich dir nicht sagen. Diese ganzen Profile müssten stärker durchleuchtet werden. Wo ist eigentlich igor wenn man ihn braucht? :D Wenn ich aber sehe wie schlecht Vega 10 mit mehr GPU-Takt skaliert ist mir das völlig wurscht wie hoch das Ding taktet. Hauptsache die Leistung passt ohne, dass der Stromverbrauch durch die Decke schießt.

AtTheDriveIn
2017-08-15, 09:51:16
Gibt es BIOS 2 + Powersave benches mit Doom, ein Game also in dem Vega die Leistung auch auf die Straße bringen kann? Dort wird es doch sicher nicht bei 1-3% Unterschied in den FPS bleiben.

dargo
2017-08-15, 09:53:46
*Auf den Messzettel schaut*

Sollte es jemand hinkriegen, die Referenzkarten mit 30 % = 1.500 RPM zu betreiben -> nette 1,7 Sone Lautheit

Testet bitte das Ding doch einfach mit den beiden Powersavemodis. Da würde mich die Lautheit und Temperatur interessieren. Alles über Powersave ist nach den bisherigen Beobachtungen eh Gaga. Keine Ahnung was sich AMD dabei gedacht hat.

Dino-Fossil
2017-08-15, 09:55:24
Das auf jeden Fall. Was ich so in den Reviews gelesen habe gibt das wieder.

Vega 64 mit Powersave = 200-214W (je nach Bios)
Vega 56 = 223-229W

Sicher, dass es die Wattman-Modi nicht auch genauso für Vega 56 gibt?

dargo
2017-08-15, 09:56:58
Gibt es BIOS 2 + Powersave benches mit Doom, ein Game also in dem Vega die Leistung auch auf die Straße bringen kann? Dort wird es doch sicher nicht bei 1-3% Unterschied in den FPS bleiben.
In Witcher 3 ist Vega auch schnell im Vergleich zur Konkurrenz.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11461071&postcount=408

Dort ist Bios 2 Powersave lächerliche 5% langsamer als Balanced bei 94W weniger Verbrauch (Gesamtsystem).

Sicher, dass es die Wattman-Modi nicht auch genauso für Vega 56 gibt?
Ich glaube bei Vega56 gibt es diese Modis auch, aber nur ein Bios. Also 3 Profile dann. Man möge mich korrigieren wenn ich damit falsch liege.

Erbsenkönig
2017-08-15, 09:57:30
mit den beiden Powersavemodis.

Immerhin hast du es versucht. :D:biggrin:

Ändern die verschiedenen BIOS-Modi etwas an der Karte, das man per Hand nicht ändern kann (Afterburner, Wattman, usw)? Und gibt es diese für die 56er auch? Hab bei Techpowerup beim 56er Test keine Bemerkung zu etwaigen anderen BIOS Einstellungen gefunden.:confused:

Menace
2017-08-15, 10:02:20
Na gut, ich habe das mal angepasst. :up:

MfG,
Raff

:up:Danke.

Sicher, dass es die Wattman-Modi nicht auch genauso für Vega 56 gibt?


Ich glaube bei Vega56 gibt es diese Modis auch, aber nur ein Bios. Also 3 Profile dann. Man möge mich korrigieren wenn ich damit falsch liege.

PCGH berichtet etwas anderes:

Auch die Radeon RX Vega 56 darf mithilfe des zweiten BIOS und mittels Wattman-Profilen umfassend konfiguriert werden. Bei ihr sind die Auswirkungen der "Turbo"-Einstellung etwas größer als bei der RX Vega 64, da die 56er - wie erwähnt - stark powerlimitiert ist. Fühlbare Unterschiede sollten Sie jedoch nicht erwarten.
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/2/#a5

Raff, kläre uns mal auf. :biggrin:

yamamoto_dc
2017-08-15, 10:04:38
Testet bitte das Ding doch einfach mit den beiden Powersavemodis. Da würde mich die Lautheit und Temperatur interessieren. Alles über Powersave ist nach den bisherigen Beobachtungen eh Gaga. Keine Ahnung was sich AMD dabei gedacht hat.

Vermutlich hatte jemand in der Zielvereinbarung stehen, dass mindestens 1070 / 1080 Niveau erreicht werden muss, also hat man das dann auch so gemacht. ;D

dargo
2017-08-15, 10:04:52
Ändern die verschiedenen BIOS-Modi etwas an der Karte, das man per Hand nicht ändern kann (Afterburner, Wattman, usw)?
Die Asicpower wird geändert. Eventuell auch was an der Telemetrie. Vom Afterburner würde ich grundsätzlich die Flossen bei einem komplett neuen GPU-Design lassen. Wer weiß was es da wieder für Probleme in Verbindung mit Wattman geben kann? Afterburner vielleicht in ein paar Monaten wenn Unwinder sich da reingearbeitet hat.


PCGH berichtet etwas anderes:

Umso besser. =) Dann kann sich jeder seine eigene Vega konfigurieren. Wichtig ist hier bloß, dass die Customs auch die 6 Profile bieten.

Zergra
2017-08-15, 10:07:15
Wenn ich das so lese, werde ich die V64 heute abend gleich mit dem zweiten BIOS betreiben.
Da ich aktuell eh nur mal Bf1 Spiele, stört mich das eh nicht.

Menace
2017-08-15, 10:12:01
Vermutlich hatte jemand in der Zielvereinbarung stehen, dass mindestens 1070 / 1080 Niveau erreicht werden muss, also hat man das dann auch so gemacht. ;D

Wenn man hier den Thread liest, dann wird doch (jenseits der üblichen Trolle) vor allem der Verbrauch kritisiert. Schaue ich mir die Tests an, dann hat bis auf Gamestar keiner die verschiedenen Modi durch getestet bzw testen können.

Und schon hat man aus einer relativ vielseitigen Karte (mediumdurstig bis sehr durstig) nur noch eine sehr durstige Karte. :freak:

Statt die 56 nochmals kurzfristig testen zu lassen, wäre ein freundlicher Anruf bei den Testredaktionen, dass zumindest Bios 2 + Powersave etwas genauer angetestet werden könnten der weit aus sinnvollere Gang gewesen.

Und von mir aus dann am Donnerstag oder nächsten Montag die NDA der 56 auslaufen lassen.

Erbsenkönig
2017-08-15, 10:12:35
Die Asicpower wird geändert. Eventuell auch was an der Telemetrie. Vom Afterburner würde ich grundsätzlich die Flossen bei einem komplett neuen GPU-Design lassen. Wer weiß was es da wieder für Probleme in Verbindung mit Wattman geben kann? Afterburner vielleicht in ein paar Monaten wenn Unwinder sich da reingearbeitet hat.

Also gibt man der Karte also soz. eine Begrenzung vor und sie orientiert sich entsprechend daran?


Umso besser. =) Dann kann sich jeder seine eigene Vega konfigurieren. Wichtig ist hier bloß, dass die Customs auch die 6 Profile bieten.

Davon dürfte denke ich auszugehen sein.

Interessant ist in diesem Zusammenhang aber, ob die Einsparnis bei der 56er sich ähnlich verhält zu den Ergebnissen bei der 64er, oder aber ist die 56er schon so weit optimiert, dass da eh "nicht mehr viel geht"?

Menace
2017-08-15, 10:13:35
Umso besser. =) Dann kann sich jeder seine eigene Vega konfigurieren. Wichtig ist hier bloß, dass die Customs auch die 6 Profile bieten.

Edit: To late: Erst mal warten ob das stimmt und ob die ein ähnliches Einsparpotential dann hätte. Aber falls ja, wird es die Nano schwer haben. :D

yamamoto_dc
2017-08-15, 10:19:54
Edit: To late: Erst mal warten ob das stimmt und ob die ein ähnliches Einsparpotential dann hätte. Aber falls ja, wird es die Nano schwer haben. :D

Die Nano wird vor allem durch den Formfaktor punkten.

Gimmick
2017-08-15, 10:24:18
Gibts Berichte über die Encoder/Decoder Eigenschaften?

grauenvoll
2017-08-15, 10:26:12
Es ist zumindest nicht alles schlecht, was mit Vega neu kommt. Das neue Speichersystem hat bisher einen sehr guten Eindruck gemacht mit Anwendungen im Gaming- sowie im professionellen Bereich. Die Primitive Shader hat man bisher noch nicht richtig in Aktion gesehen. Es wirkt nur eben überladen mit Features, nur die Leistung ist auf der Strecke geblieben (der Verbrauch kann ja durchaus OK sein, wenn man sich mit den Taktraten etwas zurückhält. Mit etwas Verzicht wären <250W locker drin gewesen).


AMD ist seit letzten Herbst mit Vorserienmodellen unterwegs. Ich frage mich, warum diese 9! Monate nicht gereicht haben, etwas halbwegs rundes auf den Markt zu schmeißen.

Menace
2017-08-15, 10:27:09
Die Nano wird vor allem durch den Formfaktor punkten.

Stimmt. Falls sie aber die ähnliche Preispolitik wie bei der Fiji-Serie fahren, wird das auch etwas mehr kosten.

Edit: Gibt wieder ein paar Referenzkarten von XFX und Sapphire (https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+VEGA.html).

Cyphermaster
2017-08-15, 10:29:49
AMD seit letzten Herbst mit Vorserienmodellen unterwegs. Ich frage mich, warum diese 9! Monate nicht gereicht haben, etwas halbwegs rundes auf den Markt zu schmeißen.
Das ist eine gute Frage für den zugehörigen Vega-Speku-Thread im anderen Subforum... :wink:

dargo
2017-08-15, 10:33:44
Also gibt man der Karte also soz. eine Begrenzung vor und sie orientiert sich entsprechend daran?

Ja... jedes Profil hat eine eigene Asicpower Begrenzung. Bei AMD ist es eher ein Richtwert, kein hartes Limit. Das Bild der 64-er hatte ich hier gepostet. Ich glaube mein Post wurde damit wieder gelöscht, warum auch immer? :freak:

https://www.kitguru.net/wp-content/uploads/2017/08/power-profiles-768x241.jpg

https://www.kitguru.net/components/graphic-cards/luke-hill/amd-radeon-rx-vega64-8gb-air-review/


Interessant ist in diesem Zusammenhang aber, ob die Einsparnis bei der 56er sich ähnlich verhält zu den Ergebnissen bei der 64er, oder aber ist die 56er schon so weit optimiert, dass da eh "nicht mehr viel geht"?
Edit: To late: Erst mal warten ob das stimmt und ob die ein ähnliches Einsparpotential dann hätte.
Ich denke mal die 56-er wird prozentual etwas weniger nach unten sparsamer sein und etwas mehr nach oben schlucken. Ganz einfach weil sie eine viel niedrigere TDP @Balanced hat. Aber auch das müsste genauer durchleuchtet werden.

Dino-Fossil
2017-08-15, 10:38:11
Wenigstens im Hinblick auf die verschiedenen Leistungsprofile scheint Vega also nicht zwangsläufig ein Schluckspecht zu sein.
Es bleibt leider ein Chip, der für das gebotene eigentlich zu groß ist. Ob das "nur" ein Softwareproblem ist wird sich vielleicht im laufe der nächsten Monate zeigen. Wunder würde ich allerdings erstmal nicht erwarten.

Ein wenig ironisch finde ich außerdem, das das "Hochtaktdesign" Vega potentiell durchaus hoch takten kann, aber die Effizienz trotzdem recht schnell flöten geht. Ich schätze, dass in der Richtung auch noch ein paar Hardwareprobleme existieren.

iuno
2017-08-15, 10:41:49
Es waere schon nett, wenn das von jemandem noch etwas naeher beleuchtet wuerde.

https://i.imgur.com/wkYuxzi.png

Wenn man so eine Tabelle anschaut faellt es natuerlich erstmal leicht zu sagen, BIOS#1 sei unnoetiger Unsinn. Ob minFPS/frametimes darunter leiden, sagt es aber nicht. Irgendeinen Grund wird es ja wohl haben, dass es zwei gibt, die auch noch so eng beieinander sind und dann noch das ineffizientere Standardeinstellung ist.

Quelle: http://www.gamestar.de/artikel/amd-radeon-rx-vega-64-liquid-cooled-benchmark-duell-gegen-nvidias-gtx-1080,3318225,seite4.html#drei-power-profile-zwei-vbios

Dass Gamestar ganz eindeutig den Stromsparmodus empfiehlt, dann aber trotzdem mit BIOS 1 misst, verstehe ich aber auch nicht.

dargo
2017-08-15, 10:44:02
Ja, das stimmt. Die Frametimes sollte man sich im Powersavemodus gegenüber balanced genau anschauen.

y33H@
2017-08-15, 10:45:04
Gleiche Bildrate bei Balanced mit BIOS #1 und BIOS #2 halte ich für einen Messfehler, da die 20W weniger GPU-Power definitiv den Takt senken.

dargo
2017-08-15, 10:50:26
Ich nicht... erstens sind die Frameraten gerundet. Und zweitens... vergleich mal das Verhältnis bei balanced/Turbo bei der Framerate und dem Verbrauch. Beim Verbrauch steht auch ca.

hlynska
2017-08-15, 10:52:46
Sind die 1727 MHz Durchschnittswert bei Witcher 3 (das impliziert ja noch deutlich höhere Spitzenwerte) eigentlich belegt? Ich meinte gelesen zu haben, dass AMD im Treiber anfangs viel zu hohe Werte zurückgemeldet hat (Zielwert des Steps und nicht der tatsächlich erreichte Takt).

Gefunden:
This new driver also reports the previously advertised GPU boost clock instead of the top DPM peak frequency.

Damit sollten einige Reviews sicher mit Vorsicht zu genießen sein.

Erbsenkönig
2017-08-15, 10:59:54
Ja... jedes Profil hat eine eigene Asicpower Begrenzung. Bei AMD ist es eher ein Richtwert, kein hartes Limit. Das Bild der 64-er hatte ich hier gepostet. Ich glaube mein Post wurde damit wieder gelöscht, warum auch immer? :freak:

https://www.kitguru.net/wp-content/uploads/2017/08/power-profiles-768x241.jpg

Man sieht das Bild aus welchem Grund auch immer nicht. Das Bild ist aber durchaus interessant: Bis zu 100 W Differenz! Wenn man davon ausgeht, dass Vega (wie hier schon diskutiert) aus welchem Grund auch immer massig W für vergleichsweise wenig Leistungszuwachs frisst, könnte man sich auch einfach auf PowerSaver2 beschränken, wenn sonstige Eigenschaften der Karte nicht darunter leiden.

Das Ganze wirkt auf mich so ein bisschen wie Ryzen, wo ja auch dem Vernehmen nach die letzten MHz mit vergleichsweise sehr großen Spannungserhöhungen einhergehen müssen. Man hat den Chip wohl von Haus aus aufs Maximum geprügelt. Interessant wären eingehendere Untersuchungen, die den "Sweet Spot" suchen.


Ich denke mal die 56-er wird prozentual etwas weniger nach unten sparsamer sein und etwas mehr nach oben schlucken. Ganz einfach weil sie eine viel niedrigere TDP @Balanced hat. Aber auch das müsste genauer durchleuchtet werden.

Unter die 64er (dem TechPowerUp Bild zu urteilen) sollte sie aber schon noch kommen. Auf jeden Fall interessant. Vielleicht könnte man ja selbst mit der Powersaver#2 Einstellung sogar noch imt ein wenig UV nachhelfen. Weiß man schon, welche Spannung bei dieser Einstellung anliegt?

Sunrise
2017-08-15, 11:00:25
...200-214W bei einem fetten V10 64 ist also hoher Verbrauch? Du bist also nicht in der Lage einen Biosschalter umzulegen und Powersave im Wattman zu wählen? Da wird mit externen Tools wie MSI Arschbrenner rumhantiert und mit offiziellen Optionen vom Hersteller ist man überfordert. :freak:
Das ist doch explizit nur das Powersaver-BIOS, von dem hier gerade geredet wird. Und das wurde bisher wenig bis garnicht beleuchtet. Das macht den Eindruck jetzt nicht besser. Es liegt in der Pflicht von AMD und den Review-Medien (aber vor allem von AMD), das genauer zu erklären und NICHT vom Endkunden.

Sollte das eine gangbare Option für die Masse an Anwendungen bzw. insbesondere Spiele sein, frage ich mich, was diese konfuse Vorstellung soll.

Hat man da ein Ziel X gehabt und Vega wieder so unnötig hochgeprügelt das es weh tut? Ich kann nur mit dem Kopf schütteln.

Cyphermaster
2017-08-15, 11:01:42
Ein wenig ironisch finde ich außerdem, das das "Hochtaktdesign" Vega potentiell durchaus hoch takten kann, aber die Effizienz trotzdem recht schnell flöten geht. Ich schätze, dass in der Richtung auch noch ein paar Hardwareprobleme existieren.Man sieht, daß die Effizienz an der Auslastung hängt - was man nicht alleine ohne den Treiber hinbekommen kann. Wo's dann mehr hängt, ist aus unserer Perspektive nur schwer zu sagen. Daß die Architektur aber noch nicht ausoptimiert ist, ist allerdings logisch und erwartbar (Fermi a.k.a. "Thermi" läßt grüßen? Die Beschreibungen der GTX480 und 470 lesen sich in den Eigenschaften und Verhältnissen doch recht ähnlich zu V64 und V56.).

Cyphermaster
2017-08-15, 11:04:19
Damit sollten einige Reviews sicher mit Vorsicht zu genießen sein.Das sollte im Hinblick auf die nur minimale Zeit, die man dafür bekommen hatte, wohl grundsätzlich so sein.

Menace
2017-08-15, 11:07:39
Das ist doch explizit nur das Powersaver-BIOS, von dem hier gerade geredet wird. Und das wurde bisher wenig bis garnicht beleuchtet. Das macht den Eindruck jetzt nicht besser. Es liegt in der Pflicht von AMD und den Review-Medien (aber vor allem von AMD), das genauer zu erklären und NICHT vom Endkunden.


AMD hat das in ihrem Review-Guide geschrieben. Hat nur (fast) keiner getestet. Nochmals an dieser Stelle, obwohl so gerne Häme über die Leute ausgeschüttet wird: Gamestar hat sich das Review-Guide durchgelesen.

Es gibt zwei Biose; das zweite ist sparsamer. Powersave-Einstellung gibt es aber auch im Wattman.

Vergleichstest hätte ich gerne gesehen in Bios 1 + Balanced und Bios 2 + Powersave.

Aber Du hast Recht (falls das nicht doch irgendwo steht): AMD könnte das ruhig etwas genauer beleuchten.
Mein Eindruck bei diesem Launch: Denen fehlt es massiv an Zeit und Leute. Wahrscheinlich auf Grund auch der neuen Ausrichtung auf den Profimarkt.

Vielleicht ist das BIOS 2 = Apple-Bios. :smile:

@Raff, y33h@: Hat Vega 56 jetzt auch zwei Biose?

Grendizer
2017-08-15, 11:09:04
Finde aber, das die Reviewer jetzt unterschwellig anzugreifen der falsche Weg ist. Wenn dir Karten erst Donnerstags eintreffen und dann noch gebeten wird den Fokus auf die Vega 56 zu legen, die es dann aber gar nicht rechtzeitig zu allen Testern geschafft haben, dann liegt das an dem Chaos, das AMD selber angerichtet hat.

Und ja... man hätte nicht am 14.08. live gehen müssen, aber an dem Tag werden halt erstmal viele Clicks generiert und für Onlinemedien bedeutet Aktualität dann in gewisser Weise auch leider Umsatz.

Ich finde es dankenswert, das sich die Leute den Arsch aufgerissen haben.

Menace
2017-08-15, 11:14:35
Finde aber, das die Reviewer jetzt unterschwellig anzugreifen der falsche Weg ist. Wenn dir Karten erst Donnerstags eintreffen und dann noch gebteten wird den Fokus auf die Vega 56 zu legen, die es dann aber gar nicht rechtzeitig zu allen Testern geschafft haben, dann liegt das an dem Chaos, das AMD selber angerichtet hat.

Die Hauptschuld liegt eindeutig bei AMD. Das mit Vega 56 war unnötig und sie schießen sich komplett ins eigene Knie; keine Frage. Trotzdem könnte man kurz einen Ausblick bzgl. Bios 1-2 geben mit dem Hinweis, dass weitere Tests folgen werden.

Dino-Fossil
2017-08-15, 11:14:47
Daß die Architektur aber noch nicht ausoptimiert ist, ist allerdings logisch und erwartbar (Fermi a.k.a. "Thermi" läßt grüßen? Die Beschreibungen der GTX480 und 470 lesen sich in den Eigenschaften und Verhältnissen doch recht ähnlich zu V64 und V56.).

Ich hatte damals eine GTX 460, die kam einiges später und war mMn die einzige vernünftige Fermi-Karte.
Ob das allerdings für V11 (so er irgendwann kommt) dann auch gilt, bleibt abzuwarten, auch da Polaris ja nicht soo weit weg ist.


Vergleichstest hätte ich gerne gesehen in Bios 1 + Balanced und Bios 2 + Powersave.

Die beiden Bios-Modi liegen ja anscheinend (siehe iuno's Post vorige Seite) sehr nahe beieinander. So ganz ist mir noch nicht klar, warum AMD das so gewählt hat.
Aber genaue Tests dazu gibts ja noch nicht...

MartinRiggs
2017-08-15, 11:18:14
Mal schauen was die Customs noch richten können, ich hatte damals die viel gescholtene GTX480 (Thermi) als Zotac AMP, das Ding war schnell, leise und einfach eine verdammt gute Karte.

Cyphermaster
2017-08-15, 11:19:26
Trotzdem könnte man kurz einen Ausblick bzgl. Bios 1-2 geben mit dem Hinweis, dass weitere Tests folgen werden.Für einen Ausblick benötigt man Daten - und die Tester hatten bisher grade genug Zeit, mit ein paar Zusatzschichten die bisherigen Testreihen hinzukriegen. Ich bin in dem Punkt bei Grendizer, mehr war für die Zeit bisher einfach nicht zu erwarten.

r3ptil3
2017-08-15, 11:22:31
Habe mir gestern Abend nochmals die Reviews durchgelesen.

Bin erstaunt, dass OC-Modelle der GTX 980 TI noch durchaus gut konkurrieren können mit den neuen Vega-Karten, wenn nicht teilweise sogar besser sind.

Die Argumente mit künftigen Treibern, halte ich für sinnlos. Wie ein User hier schon erwähnt hat, ist es doch verwunderlich, dass die "Treiberoptimierungen" in Doom seit Dezember 2016 anscheinend leistungsmässig keine Fortschritte gebracht haben.

Beim neuen Powersave-Mode hat man sich wohl Mühe gegeben. Das dürfte etwas Aufschluss darüber geben, wie gross das Problem bei AMD intern war bezüglich dem Stromverbrauch.

Hätte man davon abgesehen, um alles oder nichts teilweise auf GTX 1080 Niveau zu sein, wäre jetzt eine angenehme und sparsame Grafikkarte da.

Erbsenkönig
2017-08-15, 11:26:36
https://i.redd.it/r6lfwraubpfz.png

Microcenter. Das gefällt mir :D

Sunrise
2017-08-15, 11:36:46
...Vergleichstest hätte ich gerne gesehen in Bios 1 + Balanced und Bios 2 + Powersave.
Ja, bitte her damit!

Vielleicht ist das BIOS 2 = Apple-Bios. :smile:
Das könnte durchaus sein, Vega soll im neuen iMac Pro verbaut werden, da hat man nicht endlos Kühlkapazität und schon garnicht für ein paar einstellige Prozent über 100 Watt mehr. Wobei das dann eher die Radeon Pro sein sollte aber vielleicht dient das dennoch als Basis.

Daredevil
2017-08-15, 11:39:50
Hab mir heute Nacht noch ein paar Tests angeschaut, scheint echt nicht so das wahre zu sein.
Wenn der Preis stimmt, könnte ich mich aber, wenn ich meine 980ti für 300€ verkauft bekomme, für ~50€ Aufpreis für ne kleine Vega schon vorstellen.
Sie ist zwar nicht das beste Paket, aber eine 1070 ist preislich deutlich weiter weg ( ~419€ ) und ein besseres Paket als eine 980ti ist sie ebenfalls. :D
Aber so ein Preis muss erstmal verfügbar sein, die Karten halt auch.

Würde auch nicht soweit gehen, die Karte als Fail oder R600 zu bezeichnen, AMD hat sich bei dieser Karte schon irgendwas gedacht und hat sie Transistoren vollgestopft.
Es ist ja nicht so, dass sie überall langsam ist. Es gibt Szenarien, wo sie einer 1080 die Hosen auszieht, das muss aber anscheinend für AMD nicht primär Gaming sein.

Eine R600 konnte halt im Vergleich nirgendwo groß punkten, das Ding hat gerödelt wie bescheuert und du hattest keine Ahnung, wieso sie das tut.

Man muss AMD auch mal zugute halten, dass sie mit diesen ganzen neuen Krimskrams tatsächlich mal was gewagt haben ( Mit Ryzen übrigens auch. ). Kann sein, dass sie damit überfordert sind und es nicht richtig hinbekommen haben, hätte auch ganz anders laufen können. Ist ja nicht so, als hätte sie keine Power unter der Haube, das hätte auch ein 1080ti Killer werden können in einer weit entfernten Galaxie.

Mich würden die Powersave Modis auch mal im Detail interessieren.
Wenn ich da ne feine 200w Karte habe und ein Brechhammer Bios draufklatsche mit 5% mehr Leistung und 40% mehr TPD ist da aber auch bei jemanden irgendwas nicht richtig gelaufen.
Ich möchte mal behaupten, eine Vega64 kann man bestimmt feintunen auf ~200w mit vielleicht -15% weniger 1080 Leistung und dann ist das doch ne feine Sache.

Loeschzwerg
2017-08-15, 11:39:52
Dass Gamestar ganz eindeutig den Stromsparmodus empfiehlt, dann aber trotzdem mit BIOS 1 misst, verstehe ich aber auch nicht.

Weil Auslieferungszustand.


@Raff, y33h@: Hat Vega 56 jetzt auch zwei Biose?

Ja, siehe Links:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/2/ (ca. Mitte)
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/2/

Lest ihr die Artikel nicht? :D

Menace
2017-08-15, 11:50:23
Ja, siehe Links:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/2/ (ca. Mitte)
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/2/

Lest ihr die Artikel nicht? :D

Doch, bei PCGH las ich was; allerdings war ich noch nicht überzeugt. CB habe ich überlesen: Mea Culpa. Sieht aber sehr nice aus. Hoffe auf viele Nachtests.

Loeschzwerg
2017-08-15, 11:53:29
Auf Nachtests diesbezüglich hoffe ich ebenfalls und bis dahin ist hoffentlich auch meine Limited angekommen :)

Thowe
2017-08-15, 11:56:34
Die Karte ist großartig geworden, mit nur einer Einschränkung: Spieler. Schaut man sich die Leistung an, die es hier, vor allem bei FP64 pro Euro gibt, ist das nur mit grandios zu beschreiben. So oder so hängt die VEGA hier die Gaming-Karten von NV bequem in den meisten Bereichen ab oder liegt auf einem ähnlich hohen Niveau wie die 1080TI. Die Karte ist hier quasi ein sehr guter Geheimtipp, weil es durchaus Szenarien gibt wo sie einer ~ 4500,- Euro Quadro P6000 die Schamesröte ins Gesicht treibt, immerhin dieser bis hin zu Faktor 2 überlegen und auch der Fury deutlich. Hier hat die Karte definitiv (auch) einen Markt.

Das interessiert bei Spielebenchmarks alles wenig bis gar nicht, wer hier eine Karte erwartet hat die nur pur auf Spieleperformance ausgelegt ist, wird definitiv enttäuscht. Das ist legitim und der Versuch wenigstens per Übertaktung noch besser auszusehen, nun AMD, dass ist peinlich.

Ich gehöre, wie die allermeisten meiner Bekannten, zu den Spielertypus die so oder so keine neuen Spiele mehr erwerben, zu einem, habe ich keine Lust über irgendwelche Bugs zu stolpern, zum anderen habe ich derart viele Spiele die ich noch spielen muss, dass ich viel Zeit zum Abwarten habe und dafür ein ausgereiftes/fertiges Produkt für wenig Geld bekomme. Multiplayer spiele ich eh nicht. Aktuell reicht hier meine Fury in 4K absolut für alles aus und ich bilde mir immer noch ein, dass sie bessere Darstellungsqualität abliefert (optisch) als die NV 970.

Die Preisfrage für eine Vielzahl aller Kunden ist eben die, wieviel Leistung bekommt ich für wieviel Euro, hier wird der Markt den Preis bestimmen, wobei ich bereits davon ausgehe, dass es eine hohe Produktionsmenge braucht um überhaupt einen Preisverfall zu generieren. Hier vorausgesetzt, das sich die Qualität der Karte im Nicht-Spieler-Bereich herumspricht. Meine Schmerzgrenze für eine Grafikkarte liegt bei max. 400,- Euro, für meine Fury zahlte ich 300,-, der Grund, dass ich die 390 nicht lange hatte. Wobei ich sagen muss, dass meine Vorurteile gegenüber AMD heute ganz andere sind, als in der langen Zeit in der ich NV-Kunde war. Eines weiß ich seitdem aber, es wird immer Mehrperformance im Laufe der Zeit geben, die Treiberprobleme von damals mit vielen Bugs sind eher den der fehlenden Optimierung gewichen und für die Vega sieht es aktuell dermaßen inkonsistent aus, dass hier noch einiges an Potential sein muss.

Fragman
2017-08-15, 12:02:42
https://i.imgur.com/wkYuxzi.png



ist das generell so oder nur bei witcher?

wenn das generell ist, bringt eine erhoehung des chiptaktes KEINE mehrperformance. stattdessen faengt die karte an, massivst mehr strom zu ziehen.
wieso gibt es diese moeglichkeit, per preset, strom fuer nichts als waerme in die luft zu blasen?
das duerfte dann auch der grund sein, weshalb es ueberhaupt eine wassergekuehlte version gibt. die dann aber so teuer ist, das es wirtschaftlich null sinn macht, die zu kaufen (ich lass mal die diskussion aussen vor, das man mit dem kauf von dem teil so einen unsinn auch noch unterstuetzt).

amd hatte da allem anschein nach wirklich keine wahl und musste den chip releasen, statt ihn einzumotten und auf navi zu warten. ich hoffe nur, das das kein hinweiss auf den zustand von navi ist.


das ding haengt am ende an der bandbreite, richtig?
die ist generell nicht ausreichend?
wieso hat amd an der front nicht was versucht im letzten jahr? geht bei dem speicher im moment nicht mehr? oder ist das "mehr" dann einfach wieder zu teuer?

Angiesan
2017-08-15, 12:03:51
Wie undifferenziert hier zum Großteils wieder argumentiert wird ist schon toll.

RX Vega ist doch Konkurrenzfähig, gerade der Test bei TPU zeigt doch das eine RX 64 selbst mit 200-210 Watt an eine 1080 heranreichen kann. Zwischen der Einstellung Bios 2 und PWR-Save und Bios 1 und und Turbo liegen gute 100 Watt aber nur 5% Performance-Zuwachs :freak:

Wenn man dann mal weiter schaut erkennt man doch ebenso das die alten Probleme unter DX11 auch bei Vega weiter Bestand haben und man oft nicht an die Konkurrenz heranreicht. Unter DX 12, Vulcan und Low-Level sieht es dann deutlich freundlicher aus.
Wie schlecht die Treiber wirklich sind oder wie gut der NV Treiber optimiert ist sieht man dann, wenn eine 1080 unter DX11 schneller ist wie eine Vega64 unter DX12:mad: NV lässt sich das seit Jahren gut bezahlen, Recht haben sie!
Man sollte endlich mal verstehen, dass ich nicht nur HW kaufe sondern ein Paket das da besteht aus HW und Treiber. Und hier zeigt sich die Kompetenz und die Güte eines Produktes nicht ob ich ein Featerset abgearbeitet habe:P

Da man an dieser Schwäche nun schon mehr als 2 Jahre vergeblich oder aber nicht mit einem durchschlagenden Erfolg arbeitet erhoffe ich mir hier weder "morgen" noch "übermorgen" bahnbrechende Erfolge.
Vielmehr wird es so sein, dass Vega ganz alleine durch die zunehmende Verbreitung von DX12 gegenüber der aktuellen Mitbewerber HW zulegen wird. Wie schnell das gehen wird kann ich aber überhaupt nicht einschätzen.
Mit welcher Wahrscheinlichkeit das eintreffen könnte solange Vega halbwegs aktuell ist, ?????. Wie sich das Feature-Set der kommenden NV HW dann an das von Vega angenähert hat mag ich heute nicht beurteilen ich vermute mal das man aber zumindest gleichziehen wird und so absurd sich das jetzt anhört könnte das AMD wirklich helfen.

Ich denke AMD hat mal wieder den Markt komplett falsch eingeschätzt und die Verbreitung der neuen Schnittstellen und Standards viel zu optimistisch eingeschätzt, parallel hat man nicht erfolgreich an den alten Schwächen gearbeitet, der DX11 Performance. Das versucht man jetzt wieder mit hohen Taktraten auszugleichen auf Kosten der Effizienz. Vielleicht sollte man mal darüber nachdenken ob ich mit den richtigen Leuten rede oder und die richtigen Fragen stelle :freak:

Das Problem könnte natürlich aber auch sein, dass wir (jetzt werden die Enthusiasten laut aufschreien) faktisch zu viel Leistung am Kunden haben.

Mit der aktuellen DX11 Performance lassen sich zumindest auf den Grünen die klar Marktführer sind (und daran werden sich viele Studios orientieren) immer noch schnelle und erstklassig ausschauende Ergebnisse erzielen. Es besteht einfach kein Druck für die Studios auf eine neue API umzusteigen da es aktuell nur ca. 20-25% der Spieler ein besseres Spiele-Ergebniss bescheren könnte und wohl mit deutlich mehr Aufwand verbunden wäre. Solange man nicht etwas vorhat und zeigen möchte guck wir sind gerüstet für die Zukunft oder das geht unter DX11 einfach nicht wird sich das meiner Meinung nach langsam bewegen.
Die mangelnde Kompetenz den Treiberoverheat untere DX11 in den Griff zu bekommen holt AMD mal wieder ein und verhagelt einmal mehr eine wohl sehr gute HW. Ob dies an der Komplexität der HW liegt oder wirklich einfach an den mangelnden Fähigkeiten des Treiberteams mag AMD am Besten abzuschätzen. Ich vermute aber mal, dass es an der Software liegt, ansonsten würde man normalerweise bei einer neuen Generation einen HW Flaschenhals der nun lange genug bekannt ist sicherlich umgehen.

Mein Fazit, nachdem ich mir einige Test genau angesehen habe: RX Vega64 hatte und hat Potential! Man kommt selbst mit 200-210 Watt an gut gemachten Spielen und DX 12 oder Vulcan an die 1080 ran. Die Performance wird tendenziell eher über die Masse der Test mit Zukunft zunehmen da irgendwann wohl doch der Schritt zu DX12 oder und Vulcan in der breiten Masse vollzogen wird. Sicherlich wird AMD selbst auch noch die ein oder andere Stellschraube finden und ebenso etwas zur Performance beisteuern können.
Müsste ich heute eine Grafikkarte kaufen, würde es wohl eine Vega64 werden die Performance ist nirgends wirklich schlecht in Form von unspielbar und es gibt ein paar Lichtblicke die zumindest Raum für Vermutungen und Hoffnungen für die Zukunft haben. Bei meiner aktuellen 1080 sehe ich aber überhaut keine Veranlassung darüber nachzudenken, da weiß ich was ich habe. Ich habe aber auch keine Hoffnung, dass sich das in Zukunft noch deutlich verbessern wird ganz nach dem Motto: "What you see is what you get" und nicht "may be"

Screemer
2017-08-15, 12:04:15
Die Karte fackelt bei 1.000 RPM ab. BIOS-Standard sind 2.400, mit 2.000 (Wert der Frontier Edition) kommt man aber gut zurande.

Mit BIOS 2 und powersave kam die GS nicht über 1k RPM und das bei weniger als 4% Leistungsverlust. Von abfackeln kann da auch keine rede sein. Man sollte das also nicht AO pauschalisieren, nur weil ihr keine Zeit hattet die anderen powermodi und biose zu testen.

Gibts Berichte über die Encoder/Decoder Eigenschaften?
Vp9 weiterhin hybrid über die shader. Sonst gibts glaube ich nix neues.

Daredevil
2017-08-15, 12:09:26
Das ist halt auch nur ne Vapor Chamber und ein kack Radiallüfter, sowas war noch nie dafür bekannt, richtig gut zu kühlen.
Mit Custom Designs wird man vermutlich noch den ein oder anderen Prozent aufholen können.

anddill
2017-08-15, 12:14:13
Das ist halt auch nur ne Vapor Chamber und ein kack Radiallüfter, sowas war noch nie dafür bekannt, richtig gut zu kühlen.
Mit Custom Designs wird man vermutlich noch den ein oder anderen Prozent aufholen können.

Dafür hast Du dann die Hitze im Gehäuse und kannst 5x 120er Lüfter damit beschäftigen die wieder raus zu bekommen.

BoMbY
2017-08-15, 12:14:37
Vp9 weiterhin hybrid über die shader. Sonst gibts glaube ich nix neues.


“Vega” 10 naturally includes the latest versions of AMD's
video encode and decode acceleration engines, as well.
Like “Polaris,” “Vega” offers hardware-based decode of
HEVC/H.265 main10 profile videos at resolutions up to
3840x2160 at 60Hz, with 10-bit color for HDR content.
Dedicated decoding of the H.264 format is also supported
at up to 4K and 60Hz. “Vega” can also decode the VP9
format at resolutions up to 3840x2160 using a hybrid
approach where the video and shader engines collaborate to
offload work from the CPU.

“Vega’s” video encode accelerator also supports today's most
popular formats. It can encode HEVC/H.265 at 1080p240,
1440p120, and 2160p60. Encoding H.264 video is also
supported at 1080p120, 1440p60, and 2160p60. “Vega’s”
ability to encode the H.264 format at 3840x2160 at up to
60Hz is an upgrade from “Polaris,” which tops out at
2160p30.

Furthermore, “Vega” 10 extends its video encoding
acceleration to an exciting new use case. Radeon™ GPUs
uniquely provide robust hardware support for SR-IOV
virtualization, allowing the GPU to be shared between
multiple user sessions in a virtualized environment. “Vega”
10 adds a crucial new piece to this puzzle: sharing the
hardware video encoding and decoding acceleration
capabilities built into the GPU. With Radeon Virtualized
Encoding, “Vega” 10 GPUs can provide hardware-encoding
acceleration for up to 16 simultaneous user sessions. This
capability should make “Vega” 10 especially well-suited to
hosting sessions in multi-user virtualized applications with
graphically intensive workloads, such as enterprise remote
workstations and cloud gaming.


http://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf

y33H@
2017-08-15, 12:15:34
Damit sollten einige Reviews sicher mit Vorsicht zu genießen sein.Das bezieht sich nur auf den in den Radeon Settings genannten Core-Clock, das hat mit den ausgelesenen Frequenzen unter Last nichts zu tun.Hat Vega 56 jetzt auch zwei BIOSe?Natürlich, da gleiche Karte. Ich habe BIOS #2 mit Power Save bei der V64 in meinem Test vermessen und der V56-Artikel am Donnerstag enthält auch Werte.Vergleichstest hätte ich gerne gesehen in Bios 1 + Balanced und Bios 2 + Powersave. Genau das habe ich bei V64 drin: https://www.golem.de/news/radeon-rx-vega-64-im-test-schnell-und-durstig-mit-potenzial-1708-127610-7.html

284 Watt vs 213 Watt

Dino-Fossil
2017-08-15, 12:15:52
Ich befürchte allerdings, dass die Customs vor allem auf noch bescheuertere Taktraten setzen.
Die Kühlung mag dann ok sein, aber Perf./Watt wird unterirdisch.

Troyan
2017-08-15, 12:16:51
Jemand etwas über neue VR-Fähigkeiten gefunden? Laut VRMark Blue ist man auch nur auf GTX1080 Niveau.

Alternate.de hat jetzt auch Karten gelistet: https://www.alternate.de/SAPPHIRE/Radeon-RX-VEGA64-Limited-Edition-Grafikkarte/html/product/1373149?

Die Preise sind jedoch ebenfalls jenseits von Gut und Böse.

Steffko
2017-08-15, 12:19:31
Gibt es schon Tests, bei denen mit Undervolting rumgespielt wurde? Egal ob 56 oder 64 oder beides.

Screemer
2017-08-15, 12:24:22
SR-IOV ist für mich auch interessanter Punkt. Ein Rechner mit zwei user-sessions und beide können daddeln. Einer zB. im Wohnzimmer über inhome streaming und einer vor dem Rechner. Das kann für viele ne Konsole ersetzen. Gibts da eigentlich auch support unter Windows oder ist da was geplant? Zwei Windows vms unter Linux laufen zu lassen für das feature ist für die meisten sicherlich ne zu große Schwelle.

hq-hq
2017-08-15, 12:24:54
Habe mir gestern Abend nochmals die Reviews durchgelesen.

Bin erstaunt, dass OC-Modelle der GTX 980 TI noch durchaus gut konkurrieren können mit den neuen Vega-Karten, wenn nicht teilweise sogar besser sind.




auf die Artikel von CB "980Ti" und "Vega64/56" bezogen, und an die 1450MHz GPU Takt kann man bei ner vernünftigen 980Ti normal immer halten, schaut es für die alte 980Ti sogar super aus (Diagramm vom Vega64/56 Test 1440p)

https://abload.de/img/980ti_ocgdxuw.jpg

Erbsenkönig
2017-08-15, 12:25:55
Ich habe BIOS #2 mit Power Save bei der V64 in meinem Test vermessen und der V56-Artikel am Donnerstag enthält auch Werte.Genau das habe ich bei V64 drin: https://www.golem.de/news/radeon-rx-vega-64-im-test-schnell-und-durstig-mit-potenzial-1708-127610-7.html

284 Watt vs 213 Watt

Du hattest nicht zufällig Zeit gegenzutesten, wie "absolut" das Limit ist, das AMD über das BIOS setzt? Sprich könnte man das stromsparendere BIOS verwenden und trotzdem den Takt noch ein wenig hochdrehen, ohne mit erneut erhöhtem Stromverbrauch konfrontiert zu sein?

Gibt es schon Tests, bei denen mit Undervolting rumgespielt wurde? Egal ob 56 oder 64 oder beides.

http://www.gamersnexus.net/hwreviews/3020-amd-rx-vega-56-review-undervoltage-hbm-vs-core

dargo
2017-08-15, 12:30:22
Unter die 64er (dem TechPowerUp Bild zu urteilen) sollte sie aber schon noch kommen. Auf jeden Fall interessant.
Das dürfte das kleinste Problem sein.

Vega64 mit Bios 2 Powersave = 200W
Vega56 mit balanced = 223-229W

Hier würden schon 50-60W weniger mit Powersave reichen für Vega56.

Mal schauen was die Customs noch richten können, ich hatte damals die viel gescholtene GTX480 (Thermi) als Zotac AMP, das Ding war schnell, leise und einfach eine verdammt gute Karte.
Kann ich bestätigen. Zur damaligen Zeit war der Kühler aber auch erstklassig.

Birdman
2017-08-15, 12:32:09
Auf genauere BIOS2/PowerSave Tests bin ich auch sehr gespannt.

Weil gemäss aktuell vorliegenden Daten könnte man quasi über den Daumen gepeilt sagen, dass AMD hier wegen ~5% Balkenlänge, (welche die Karte nicht mal klar auf oder über dem Niveau einer 1080FE platzieren) einen mehr oder weniger desaströsen Launch mit entsprechend negativer Wirkung hingelegt hat.

Diese ~5% hätten bei nüchterner Betrachtung die von AMD angestrebte Vergleichbarkeit zu einer GTX1080 kaum negativ beeinflusst.
Dafür wären dann als grosse Pluspunkte, den mehr oder weniger ähnlichen Stromverbrauch, sowie die bei einigen Spielen (tendenziell die neueren mit DX12/Vulkan - aka dir "wichtigeren") trotzdem bessere Performance in den Köpfen der Tester und der Leser hängen geblieben...

AtTheDriveIn
2017-08-15, 12:33:31
Bios2 + Powersave sieht ganz okay aus. Wenn da mit Undervolting noch was geht und der Treiber ein paar % bringt, wäre man hier in allen Belangen auf 1080 Niveau gelandet. Wenigstens etwas Licht.

Steffko
2017-08-15, 12:36:28
http://www.gamersnexus.net/hwreviews/3020-amd-rx-vega-56-review-undervoltage-hbm-vs-core[/url]

Danke! Ziemlich... überraschend, dass man im Vergleich zum Default Zustand die Spannung von 1,2 auf 1,025V stabil bekommt und dabei sogar noch deutlich höhere Taktraten fahren kann. Da frage ich mich doch, was möglich wäre, wenn man die Taktraten auf Default belässt, sprich geht da noch (deutlich?) mehr bei der Spannung und landet man dann vielleicht bei 170, 180 Watt für die Gesamtkarte.. dann wäre das Ding plötzlich ungefähr auf dem Stromverbrauchs- und Leistungsniveau einer Custom 1070.

Daredevil
2017-08-15, 12:38:10
auf die Artikel von CB "980Ti" und "Vega64/56" bezogen, und an die 1450MHz GPU Takt kann man bei ner vernünftigen 980Ti normal immer halten, schaut es für die alte 980Ti sogar super aus (Diagramm vom Vega64/56 Test 1440p)

https://abload.de/img/980ti_ocgdxuw.jpg
Die säuft aber dann auch ohne Ende. :D
Beim 1080ti Test ist eine 980ti Gaming mit im Test drin
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/3/#abschnitt_leistungsaufnahme

CD-LABS
2017-08-15, 12:39:01
Danke! Ziemlich... überraschend, dass man im Vergleich zum Default Zustand die Spannung von 1,2 auf 1,025V stabil bekommt und dabei sogar noch deutlich höhere Taktraten fahren kann. Da frage ich mich doch, was möglich wäre, wenn man die Taktraten auf Default belässt, sprich geht da noch (deutlich?) mehr bei der Spannung und landet man dann vielleicht bei 170, 180 Watt für die Gesamtkarte.. dann wäre das Ding plötzlich ungefähr auf dem Stromverbrauchs- und Leistungsniveau einer Custom 1070.
Was aber immer noch im Vergleich zur R9 Nano (980 überboten) zu schlecht wäre...

dargo
2017-08-15, 12:46:59
Ja, siehe Links:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/2/ (ca. Mitte)

Argh... ich habs auch übersehen. :redface:

https://www2.pic-upload.de/img/33740849/Zwischenablage27.jpg

Die Vega56 dürfte mit der Asic Power von 135W bei ca. 180W für die ganze Karte landen. Das wäre dann auch nur wenig mehr als die GTX1070 FE.

Birdman
2017-08-15, 12:47:13
SR-IOV ist für mich auch interessanter Punkt. Ein Rechner mit zwei user-sessions und beide können daddeln. Einer zB. im Wohnzimmer über inhome streaming und einer vor dem Rechner. Das kann für viele ne Konsole ersetzen. Gibts da eigentlich auch support unter Windows oder ist da was geplant?
Hyper-V unter Windows Server 2016 kann GPU passthrough, damit sollte das eigentlich gehen.
Unter Windows10 vermutlich nicht, da hier die Hyper-V Funktionalität etwas abgespeckt ist.

Raff
2017-08-15, 12:53:34
Mit BIOS 2 und powersave kam die GS nicht über 1k RPM und das bei weniger als 4% Leistungsverlust. Von abfackeln kann da auch keine rede sein. Man sollte das also nicht AO pauschalisieren, nur weil ihr keine Zeit hattet die anderen powermodi und biose zu testen.

Die Gamestar testet die LCE. Das hat nix mit einer luftgekühlten Karte zu tun, weder die Leistung noch die Temperaturen. ;)

MfG,
Raff

Schnoesel
2017-08-15, 12:57:33
Diese ~5% hätten bei nüchterner Betrachtung die von AMD angestrebte Vergleichbarkeit zu einer GTX1080 kaum negativ beeinflusst.
Dafür wären dann als grosse Pluspunkte, den mehr oder weniger ähnlichen Stromverbrauch, sowie die bei einigen Spielen (tendenziell die neueren mit DX12/Vulkan - aka dir "wichtigeren") trotzdem bessere Performance in den Köpfen der Tester und der Leser hängen geblieben...

Ja das verstehe ich auch nicht. Ich hätte die Karte nur mit Powersaving Mode verkauft und dann gesagt hier habt ihr den Overclockers Dream. Hängen bleibt der niedrige Verbrauchswert der Reviews und das potentiell hohe OC = tolle Karte.

So allerdings haben sie mal wieder die Hosen runtergelassen ... verstehe wer will. Eventuell ist das aber auch ein deutsches Problem? Ich kann mir vorstellen, dass dieser Teil der Geschichte der von allen (inklusive mir) als größter Negativpunkt wahrgenommen wird bei den Amis gar keine große Roille spielt?!

Die Gamestar testet die LCE. Das hat nix mit einer luftgekühlten Karte zu tun, weder die Leistung noch die Temperaturen.

Was ist da genau der Unterschied? Kann man die Air auf LCE Niveau bringen (mit richtiger Kühlung) oder ist die limitiert?

Rush
2017-08-15, 12:57:49
SR-IOV ist für mich auch interessanter Punkt. Ein Rechner mit zwei user-sessions und beide können daddeln. Einer zB. im Wohnzimmer über inhome streaming und einer vor dem Rechner. Das kann für viele ne Konsole ersetzen. Gibts da eigentlich auch support unter Windows oder ist da was geplant? Zwei Windows vms unter Linux laufen zu lassen für das feature ist für die meisten sicherlich ne zu große Schwelle.

Now that the NDA has lifted, I have received confirmation that SR-IOV is not currently supported on Consumer ASICs like the RX Vega.

https://community.amd.com/message/2815591

BoMbY
2017-08-15, 12:57:51
I have received confirmation that SR-IOV is not currently supported on Consumer ASICs like the RX Vega.


https://community.amd.com/message/2815591

Edit: lol. 2 Sekunden zu spät ...

yamamoto_dc
2017-08-15, 13:00:23
So allerdings haben sie mal wieder die Hosen runtergelassen ... verstehe wer will. Eventuell ist das aber auch ein deutsches Problem? Ich kann mir vorstellen, dass dieser Teil der Geschichte der von allen (inklusive mir) als größter Negativpunkt wahrgenommen wird bei den Amis gar keine große Roille spielt?!

Ich vermute auch mal, das wir Deutschen da besonders sensibel sind, gerade in Asien interessiert sich vermutlich kein Mensch für den Stromverbrauch.