PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

Grendizer
2017-08-16, 22:20:16
Du musst auf der Seite deinen Beleg Code eingeben. Hatte den am nächsten Tag bekommen.
Einfach auf der Promo Seite herunter Scrollen und das Formular unten ausfüllen.

https://www.mindfactory.de/Highlights/AMD_Radeon_RX_Vega/new/true

ok danke

Zergra
2017-08-16, 22:25:32
Ich muss nach jedem fast jedem Reboot am Monitor FreeSync aus und wieder anmachen. Sonst Steuert der Treiber die Grafikkarte nur mit 30Hz an.

d2kx
2017-08-16, 22:36:33
Y1JxvN_2i6c

Auch DigitalFoundry mag die RX Vega 56 sehr, die RX Vega 64 eher weniger.

Cyphermaster
2017-08-16, 22:38:01
Eigentlich muss er gar nichts erklären, er testet auch ohne diese Titel genug Spiele. Wer sich an so was stört, hängt sich auch an Wortfetzen hier im Online-Journalismus-Thread auf. ;)Ich störe mich nicht an der Erklärung, sondern an der Aussage von Schaffe, daß das irgendwie besonders neutral und ausgeglichen ausgewählt wäre.
Klingt für mich so, als bestünde die Schnittmenge aus Spielen, die einigermaßen aktuell sind, viel gespielt werden und leicht reproduzierbare Ergebnisse zulassen.

So auf den ersten Blick ein vernünftiger Ansatz.Auf den ersten Blick, ja. Nur müßte man nach dieser Logik dann eventuell auch andere Spiele aus seinen Tests rausnehmen, und es ist nicht unbedingt "vernünftiger" als andere Ansätze. Zum Beispiel könnte man F1 drin lassen, denn mehr Testaufwand bedeutet für den Kunden schließlich nicht weniger Relevanz. Oder eben sich auf die 10 meistgespieltesten Spiele stürzen. Oder auf die 10 Aktuellsten. Kann man alles gut argumentieren, ist nur eine Frage, wo man den Fokus setzen will.

Bei sowas gibt es keine "einzige Wahrheit", nur Kompromisse - über die man verschiedener Meinung sein kann. Oder, um es mit dem alten Meßtechnik-Sinnspruch zu hinterlegen: "Wer mißt, mißt Mist." ;)

Iruwen
2017-08-16, 22:48:24
Sogar wenn AMD unbedingt Spieler zu Vega kriegen wollen würde, wäre eine Preissenkung Hersteller-seitig dafür völlig wirkungslos derzeit - solange die Dinger schon bei einem Strompreis von relativ hohen ~30 Cent wie bei uns zum Mining gut lohnen, dürften solche Anpassungen wegen der Nachfrage aus dieser Richtung eine ganze Zeit lang nicht auf den Straßenpreis durchschlagen.
Vielleicht sollte man den Leuten einfach mal sagen, dass es wesentlich lohnender ist jetzt für 500€ z.B. OMG zu kaufen, das sind dann am Jahresende garantiert mindestens 1500-2500€ :freak:

Ex3cut3r
2017-08-16, 22:57:26
http://youtu.be/Y1JxvN_2i6c

Auch DigitalFoundry mag die RX Vega 56 sehr, die RX Vega 64 eher weniger.

Wenn man sich mal die Spiele anguckt, ist das alles irgendwie alter Schinken, aber teilweise auch verständlich, ich kann man an das letzte AAA+ Game welches ich durchgezockt habe, gar nicht Erinnern, muss wohl Witcher 3 gewesen sein?!

Was ich damit sagen will, die letzen 1-2 Jahre sind irgendwie keine guten Games rausgekommen (ist meine Meinung) hoffentlich wird das die nächsten Jahre wieder besser. Denn sonst brauch ich eigentlich diesen ganzen Tech-Schnick Schnack gar nicht, vlt. muss ich auch mal meine Prioritäten ändern und vermehrt junge Hühner vernaschen, bevor es zu spät ist. :biggrin:

Kriton
2017-08-16, 22:57:36
Vielleicht sollte man den Leuten einfach mal sagen, dass es wesentlich lohnender ist jetzt für 500€ z.B. OMG zu kaufen, das sind dann am Jahresende garantiert mindestens 1500-2500€ :freak:

OMG?

dargo
2017-08-16, 23:01:51
http://youtu.be/Y1JxvN_2i6c

Auch DigitalFoundry mag die RX Vega 56 sehr, die RX Vega 64 eher weniger.
Wusste gar nicht, dass Vega56 in The Division schon die GTX1070 @DX11 leicht überholt. Ob in DX12 die GTX1080 erreicht wird?

dildo4u
2017-08-16, 23:10:55
Vega 64 und 1080 sind ca gleich schnell,könnte aber sein das das skaling von 56 zu 64 kacke ist.


https://www.hardocp.com/article/2017/08/14/amd_radeon_rx_vega_64_video_card_review/9

Ich fand das Game lief immer gut in DX12 auf der 1070,bis sie es kaputt gepatcht haben,aber das wurde dann später ja wieder gefixt.

dargo
2017-08-16, 23:14:27
Vega 64 und 1080 sind ca gleich schnell,könnte aber sein das das skaling von 56 zu 64 kacke ist.

Ist es auch wenn ich bei DF zb. sehe, dass Vega64 AIO nur 15% schneller ist als Vega56 in Witcher 3. Ich frage mich immer wieder warum man von dem Taktvorteil kaum was sieht?

TGKlaus
2017-08-16, 23:32:04
Auch DigitalFoundry mag die RX Vega 56 sehr, die RX Vega 64 eher weniger.

VEGA 56 schlägt hier die GTX 1070 deutlich.

IchoTolot
2017-08-16, 23:34:16
Hier stand was falsches.. Ja sie ist etwas schneller, aber variiert hier und da etwas. Und Effizient ist was anderes. Das Video hatte ich mit einer anderen Aussage verstanden als es dann im Artikel steht.

Sie braucht aber satte 70 Watt mehr für die Leistung.

dildo4u
2017-08-16, 23:37:49
NV hat sein Job bei der 1080 gemacht sie setzt sich schön von der 1070 ab.Die 64 scheint wie immer eine unsinnige Karte zu sein,schon wie bei der 290X,390X und Fury X.

Goser
2017-08-16, 23:39:37
Wenn der Marktpreis angemessen ist rüste ich gerne meine RX 580 8GB auf, wenn nicht wird eben gewartet. Gute Karten sind es aber.

IchoTolot
2017-08-16, 23:42:15
Wenn man sich mal die Spiele anguckt, ist das alles irgendwie alter Schinken, aber teilweise auch verständlich, ich kann man an das letzte AAA+ Game welches ich durchgezockt habe, gar nicht Erinnern, muss wohl Witcher 3 gewesen sein?!


Das finde ich bei DF auch zunehmend als störend. Es gibt schon genug aktuelle Games. Wildlands, Doom, Prey, BF1.. etc.. Die Spiele dort sind wirklich etwas alt, aber das stört mich auch an PCGH. Die testen da tatsächlich noch Far Cry 4, das ist doch uralt. Und Far Cry Primal stört auch. Der Benchmark läuft auf einem Kern, das Spiel selber nutzt dann aber 4 Kerne. The Division und Hitman aber sind ja wiederum aktuelle Spiele.

dargo
2017-08-16, 23:42:26
NV hat sein Job bei der 1080 gemacht sie setzt sich schön von der 1070 ab.Die 64 scheint wie immer eine unsinnige Karte zu sein,schon wie bei der 290X,390X und Fury X.
Na... das würde ich nicht unbedingt sagen. Vega64 ist im Powersave Modus bissel effizienter als Vega56 @balanced bei vergleichbarer Leistung. Ob das einem 100$ mehr wert ist sei mal dahin gestellt.

TGKlaus
2017-08-16, 23:44:34
Sie braucht aber satte 70 Watt mehr für die Leistung.

Laut DF sinds 67W im Vergleich zur FE ist aber so schnell / schneller als ne 1070OC und die verbraucht dann merklich mehr als die FE.

Also liegt der Unterschied vielleicht bei ca. 30W. (im Vergleich zu den Gigabyte Karten bei null)

Edit: IchoTolot hat Recht, ein Bier und ich mach Fehler im Kopfrechnen .....

IchoTolot
2017-08-16, 23:46:27
http://www.eurogamer.net/articles/digitalfoundry-2017-amd-radeon-rx-vega-56-review

Hier stehen aber 330 zu 263 Watt.

horn 12
2017-08-16, 23:46:38
@d2kx

Weisst Du bitte bezüglich der Treiber etwa was Neues zu Vega
Ist da etwas weitaus Besseres, Schnelleres in der Mache und kann uns dies Positiv überraschen oder wird wenig bis nix mehr gehn.

TGKlaus
2017-08-16, 23:50:40
@ IchoTolot

Habs berichtigt.



Hat Gibbo schon was verlauten lassen, wie die Verkäufe der V64 Karten laufen?

dargo
2017-08-17, 00:12:33
http://www.eurogamer.net/articles/digitalfoundry-2017-amd-radeon-rx-vega-56-review

Hier stehen aber 330 zu 263 Watt.
Verbrauchsmessungen hinter dem Netzteil sind immer etwas ungenauer. Bzw. vermitteln einen leicht höheren Unterschied auf den ersten Blick. Mal angenommen das Netzteil hat einen Wirkungsgrad von 90% bei den beiden Systemen in den entsprechenden Lasten.

330W *90% = 297,0W Nettolast
263W *90% = 236,7W Nettolast

Auf dem ersten Blick hattest du einen Unterschied von 67W. Tatsächlich sind es aber 60,3W Unterschied.

Bei einem weniger effizienten Netzteil mit zb. 85% Wirkungsgrad würde es so aussehen.

330W *85% = 280,50W Nettolast
263W *85% = 223,55W Nettolast

Tatsächlicher Unterschied zwischen beiden Systemen 56,95W. Je ineffizienter das NT umso ungenauer die Verbrauchsmessung hinter dem NT.


Hat Gibbo schon was verlauten lassen, wie die Verkäufe der V64 Karten laufen?
Mein letzter Stand war seine 1.000 Karten waren innerhalb einer Stunde weg.

IchoTolot
2017-08-17, 00:16:00
Ich bitte dich. Glaubst du die haben nicht mit dem gleichen Netzteil gemessen? Für wie blöd hältst du die?

dargo
2017-08-17, 00:17:23
Mich beschleicht das Gefühl du hast meinen Post nicht im geringsten verstanden. Lese bitte nochmal.

Edit:
Falls es immer noch nicht klarer wird helfe ich gerne nach. Für deine Stromrechnung ist selbstverständlich die Messung hinter dem Netzteil ausschlaggebend (Bruttollast). Für die Effizienzbetrachtung der Hardware ist ausschließlich der Verbrauch der Hardware vor dem Netzteil ausschlaggebend (Nettolast).

horn 12
2017-08-17, 00:18:11
https://twitter.com/SAPPHIRE_Adrian/status/897846087666499584

Kriton
2017-08-17, 00:21:27
Verbrauchsmessungen hinter dem Netzteil sind immer etwas ungenauer. Bzw. vermitteln einen leicht höheren Unterschied auf den ersten Blick. Mal angenommen das Netzteil hat einen Wirkungsgrad von 90% bei den beiden Systemen in den entsprechenden Lasten.

330W *90% = 297,0W Nettolast
263W *90% = 236,7W Nettolast

Auf dem ersten Blick hattest du einen Unterschied von 67W. Tatsächlich sind es aber 60,3W Unterschied.

Bei einem weniger effizienten Netzteil mit zb. 85% Wirkungsgrad würde es so aussehen.

330W *85% = 280,50W Nettolast
263W *85% = 223,55W Nettolast

Tatsächlicher Unterschied zwischen beiden Systemen 56,95W. Je ineffizienter das NT umso ungenauer die Verbrauchsmessung hinter dem NT.


Mein letzter Stand war seine 1.000 Karten waren innerhalb einer Stunde weg.

Erst einmal danke für den Hinweis, das hatte ich nicht auf dem Schirm. Was ich mich aber bei der reinen Betrachtung der Karte frage: Muss nicht dennoch das Gesamtsystem betrachtet werden, weil in Abhängigkeit der Karte auch dieses unterschiedliche Stromverbräuche hat? Und ist es "fair" dies nicht zu betrachten?

dargo
2017-08-17, 00:24:27
Siehe mein Edit oben.

Kriton
2017-08-17, 00:29:07
Siehe mein Edit oben.

Da reden wir (glaube ich) aneinander vorbei. Ich denke (als Beispiel!) an Treiber die eine höhere Auslastung der CPU verursachen und damit deren Verbrauch erhöhen.

IchoTolot
2017-08-17, 00:30:57
Mich beschleicht das Gefühl du hast meinen Post nicht im geringsten verstanden. Lese bitte nochmal.


Ich hab verstanden was du meinst aber das spielt doch keine Rolle. Wenn das gleiche Netzteil verwendet wird und sich bei zwei Karten die Gesamtlast des Systems unterscheidet, was willst du da noch diskutieren? So testen alle Magazine. Mag ja sein, dass der Verbrauch "vor dem Netzteil" gemessen etwas variieren würde, aber das kann man denke ich ignorieren weil die Differenz aufs Gleiche rauskommt.

dargo
2017-08-17, 00:36:20
Da reden wir (glaube ich) aneinander vorbei. Ich denke (als Beispiel!) an Treiber die eine höhere Auslastung der CPU verursachen und damit deren Verbrauch erhöhen.
Du musst erstmal wissen was du messen willst. :tongue:

Willst du wissen um wieviel Watt Karte X effizienter ist als Karte Y misst du direkt an der Karte, was anderes ist auch sinnfrei. Willst du wissen wie hoch deine Stromrechnung beim Gesamtsystem ist misst du halt hinter dem Netzteil. Und natürlich kann eine höhere Auslastung der CPU dazu führen, dass der Gesamtverbrauch steigt.

Edit:
Das sieht man auch zb. bei Nvidia sehr gut.

Die CB misst bei der RX480 alleine 164W in RotTR, für die GTX1070FE 137W.

https://www2.pic-upload.de/img/33750275/Zwischenablage30.jpg

Bei älteren Messungen vom Gesamtsystem sind dann aber beide Systeme mit 215W hinter dem Netzteil auf gleichem Niveau.

https://www2.pic-upload.de/img/33750287/Zwischenablage31.jpg

Diese Erzeugung von zusätzlichen Threads durch den Grafiktreiber sind bei NV nicht umsonst. ;)

Ich hab verstanden was du meinst aber das spielt doch keine Rolle. Wenn das gleiche Netzteil verwendet wird und sich bei zwei Karten die Gesamtlast des Systems unterscheidet, was willst du da noch diskutieren? So testen alle Magazine. Mag ja sein, dass der Verbrauch "vor dem Netzteil" gemessen etwas variieren würde, aber das kann man denke ich ignorieren weil die Differenz aufs Gleiche rauskommt.
Je nach Betrachtungsweise ist mal die Messung vor dem NT interessant als auch hinter dem NT, ganz einfach. Wenn es um die nötige Kühlung der verbauten Hardware zum Beispiel geht, warum sollte mich da der gemessene Verbrauch hinter dem NT interessieren? Sprich inkl. der Wärmeverluste vom Netzteil?

Schaffe89
2017-08-17, 00:44:20
Ich störe mich nicht an der Erklärung, sondern an der Aussage von Schaffe, daß das irgendwie besonders neutral und ausgeglichen ausgewählt wäre

Ist es aber, weil viele Seiten einfach nur die Directx12 Benchmark Demos benchen wie etwa Anandtech. Ein breites Benchmarksfeld mit deutlich mehr Directx11 Titeln is weit aussagekräfter für die aktuelle Performance und natürlich weil er PUBG auch drinnen hat. Als einer der wenigen Reviewer die Software abseits von den Hersteller unterstützen "Grafikdemos" im Parcours haben.

VEGA 56 schlägt hier die GTX 1070 deutlich.

Deutlich schlägt die Vega 56 nie eine GTX 1070.
Die Leistung dürfte sich im Testmittel ~5% darüber bewegen.
Custumdesigns dürften hübsch gleichschnell sein, bei deutlich weniger Strombedarf auf Seiten von Nvidia und der üblichen erheblichen Vorteile in Early Access Games die kaum beachtet werden.

CB misst fast 100 Watt mehr in ihrem Test, also mehr wie ein Pyrrhussieg ist das nicht.

Je nach Betrachtungsweise ist mal die Messung vor dem NT interessant als auch hinter dem NT, ganz einfach. Wenn es um die nötige Kühlung der verbauten Hardware zum Beispiel geht, warum sollte mich da der gemessene Verbrauch hinter dem NT interessieren?

Ganz genauso ist es.

Mangel76
2017-08-17, 01:33:07
Du musst erstmal wissen was du messen willst. :tongue:

Willst du wissen um wieviel Watt Karte X effizienter ist als Karte Y misst du direkt an der Karte, was anderes ist auch sinnfrei. Willst du wissen wie hoch deine Stromrechnung beim Gesamtsystem ist misst du halt hinter dem Netzteil. Und natürlich kann eine höhere Auslastung der CPU dazu führen, dass der Gesamtverbrauch steigt.

Edit:
Das sieht man auch zb. bei Nvidia sehr gut.

Die CB misst bei der RX480 alleine 164W in RotTR, für die GTX1070FE 137W.

https://www2.pic-upload.de/img/33750275/Zwischenablage30.jpg

Bei älteren Messungen vom Gesamtsystem sind dann aber beide Systeme mit 215W hinter dem Netzteil auf gleichem Niveau.

https://www2.pic-upload.de/img/33750287/Zwischenablage31.jpg

Diese Erzeugung von zusätzlichen Threads durch den Grafiktreiber sind bei NV nicht umsonst. ;)


Durch solch ein Verhalten wird der Effizienzbegriff aber doch ad absurdum geführt. Zieht der Treiber Arbeit von der Karte ab, erscheint die natürlich viel sparsamer. Und alle freuen sich, dass alles kühl und leise bleibt. Und dann fängt dafür die CPU an zu kochen? Meiner Meinung nach gehören beide Verbräuche getestet, also Grafikkarte und Gesamtsystem. Gibt es Reviews, die beides testen?

aufkrawall
2017-08-17, 01:43:06
Gute Güte, da wird nichts von der GPU auf die CPU "abgezogen". RotTR läuft auf Radeons mit DX11 wie Abfall, und rat mal wieso.

TGKlaus
2017-08-17, 02:30:25
Du hast das Problem nicht erkannt, versuch es noch einmal.

Oder analog der Diskussion von Wolfgang und complicated sind die Werte von CB auch hier nicht zu gebrauchen.

aufkrawall
2017-08-17, 03:00:23
Du hast das Problem nicht erkannt, versuch es noch einmal.

Nein und nein, danke.

Der_Korken
2017-08-17, 06:38:21
@d2kx

Weisst Du bitte bezüglich der Treiber etwa was Neues zu Vega
Ist da etwas weitaus Besseres, Schnelleres in der Mache und kann uns dies Positiv überraschen oder wird wenig bis nix mehr gehn.

Das können dir wahrscheinlich nicht mal die Devs genau sagen, so zumindest mein Eindruck. Da wird man noch viel Geduld haben müssen.

Loeschzwerg
2017-08-17, 07:29:51
https://twitter.com/SAPPHIRE_Adrian/status/897846087666499584

Das hört sich irgendwie nicht danach an als würde es bald Customs von Sapphire geben.

Mangel76
2017-08-17, 07:39:15
Gute Güte, da wird nichts von der GPU auf die CPU "abgezogen". RotTR läuft auf Radeons mit DX11 wie Abfall, und rat mal wieso.

Gute Güte, nichts kapiert. Vielleicht ist abgezogen auch nicht ganz richtig, verlagert ist vielleicht besser. Ich habe auch nicht gesagt, dass es schlimm ist. Aber man liest hier immer wieder, wieviel Aufwand Nvidia betreibt, im Treiber Optimierungen durchzuführen. Wenn das zu höheren FPS führt, ist es völlig legitim. Wenn ich dann aber bei der Effizienzbeurteilung diese Arbeit außerhalb der Grafikkarte vernachlässigen, mache ich einen großen Fehler.

Daher nocheinmal meine Frage: Gibt es Tests mit Gesamtverbräuchen oder sogar beiden Werten? Nur so lässt sich Effizienz wirklich beurteilen.

Loeschzwerg
2017-08-17, 07:47:29
Das fällt ein wenig in die gleiche Richtung (besserer GPU Auslastung durch LL-API -> gesteigerte Leistungsaufnahme): http://www.planet3dnow.de/cms/6751-amd-mantle/subpage-windows-7-leistungsaufnahme/

dargo
2017-08-17, 07:55:31
Durch solch ein Verhalten wird der Effizienzbegriff aber doch ad absurdum geführt. Zieht der Treiber Arbeit von der Karte ab, erscheint die natürlich viel sparsamer. Und alle freuen sich, dass alles kühl und leise bleibt. Und dann fängt dafür die CPU an zu kochen?
Zu kochen ist jetzt etwas übertrieben. Und da wird auch nichts abgezogen. Der NV-Treiber erzeugt einfach eine höhere CPU-Last. Am Beispiel vom Erzeugen der zusätzlichen Threads um den Mainthread zu entlasten wird die CPU halt mit zusätzlichen Last beschäftigt was zwangsläufig auch zum höheren Verbrauch führt.

Gute Güte, nichts kapiert. Vielleicht ist abgezogen auch nicht ganz richtig, verlagert ist vielleicht besser. Ich habe auch nicht gesagt, dass es schlimm ist. Aber man liest hier immer wieder, wieviel Aufwand Nvidia betreibt, im Treiber Optimierungen durchzuführen. Wenn das zu höheren FPS führt, ist es völlig legitim. Wenn ich dann aber bei der Effizienzbeurteilung diese Arbeit außerhalb der Grafikkarte vernachlässigen, mache ich einen großen Fehler.

Bingo, du hast es richtig erkannt. ;)

anddill
2017-08-17, 07:57:11
Verbrauchsmessungen hinter dem Netzteil sind immer etwas ungenauer. Bzw. vermitteln einen leicht höheren Unterschied auf den ersten Blick. Mal angenommen das Netzteil hat einen Wirkungsgrad von 90% bei den beiden Systemen in den entsprechenden Lasten.

330W *90% = 297,0W Nettolast
263W *90% = 236,7W Nettolast

Auf dem ersten Blick hattest du einen Unterschied von 67W. Tatsächlich sind es aber 60,3W Unterschied.

Bei einem weniger effizienten Netzteil mit zb. 85% Wirkungsgrad würde es so aussehen.

330W *85% = 280,50W Nettolast
263W *85% = 223,55W Nettolast

Tatsächlicher Unterschied zwischen beiden Systemen 56,95W. Je ineffizienter das NT umso ungenauer die Verbrauchsmessung hinter dem NT.


Mein letzter Stand war seine 1.000 Karten waren innerhalb einer Stunde weg.

Puh, da sträubt sich mir das Fell wenn ich das lese. Nicht weil Du in der Sache an sich falsch liegst, sondern wegen "vor dem Netzteil" als Bezeichnung für die Niederspannungsseite. Entweder Du sagst "Netzseite" und "Niederspannungsseite", oder Du hältst Dich an die Konvention die Bezeichnungen in Energieflussrichtung anzugeben.

Und um den eigentlichen Gedanken nochmal auf die Spitze zu treiben: Der Wirkungsgrad des Netzteils ist nicht konstant, bei Laständerungen im mittleren Bereich kann der sich um bis zu 5% verändern, ganz zu schweigen von Idle zu Last, da könnens auch mal 30% sein.

Trotzdem kann man duchaus vor dem Netzteil auf der Netzseite messen. Man muss es nur entsprechend bewerten und nicht auf den Kommastellen rumreiten. Immer noch besser als eine schlechte Messung zB. nur an der PCIe-12V Schiene, die mit üblichen halbwegs erschwinglichen DC-Stromzangen auch mal völlig daneben liegen kann und die Leistungsaufnahme über den Slot ignoriert.

Cyphermaster
2017-08-17, 08:06:18
Ist es aber, weil viele Seiten einfach nur die Directx12 Benchmark Demos benchen wie etwa Anandtech. Ein breites Benchmarksfeld mit deutlich mehr Directx11 Titeln is weit aussagekräfter für die aktuelle Performance und natürlich weil er PUBG auch drinnen hat. Als einer der wenigen Reviewer die Software abseits von den Hersteller unterstützen "Grafikdemos" im Parcours haben.Als deine persönliche Meinung, wie gesagt, kein Thema. Als allgemeine Feststellung zum einzig wahren Testparcour ist und bleibt die Aussage allerdings Bullshit, egal wie oft du es wiederholst.

Jede Auswahl an Titeln hat zwangsläufig ihre Vor- wie ihre Nachteile, und verschiebt am Ende das sich ergebende Gesamtbild. Das ist genau wie die Diskussion um die Normprüfzyklen für Autos, Waschmaschinen, Spülmaschinen, Trockner und so weiter - das sind alles nur Näherungen, auch da gibt es nicht DEN einen Test, der 1. Alles und 2. neutral abbilden kann. Scheinbar hast du aber das Video selber nicht ganz angesehen, weil am Ende sogar nochmal explizit auf sowas abgehoben wird (Testen von FEs vs. Customs statt FE/FE und Custom/Custom und Argumentation dafür/dagegen).

dargo
2017-08-17, 08:08:04
@anddill

Mir ist das alles bekannt, ich wollte es nur nicht unnötig verkomplizieren. :wink: Zum Wirkungsgrad... nehmen wir mal als Beispiel ein be quiet! Pure Power 10 mit 500W.
https://www.computerbase.de/2017-02/be-quiet-pure-power-10-cm-evga-bq-test/3/

Bei den genannten Lasten bist du grob in der Mitte. Über 50% Last fällt der Wirkungsgrad schon. Es ist aber noch recht harmlos. Je nach NT kann der Wirkungsgrad bei den genannten Nettolasten in etwa gleich liegen. Muss es aber nicht wie man im Link sieht. Er kann auch durchaus um 1-2% sowohl in die eine als auch in die andere Richtung abweichen.

Rancor
2017-08-17, 08:16:49
Also ich muss sagen VEGA 56 wird immer interessanter. Ich bin echt gespannt auf die Customs. In WQHD scheint sie sich auch deutlicher von der 1070 absetzen zu können.

Da ich noch keinen adaptive Sync Monitor habe wäre ne 56 + Freesync ne Option. G-Sync Geräte sind einfach absurd teuer.
Dann hätte ich nach Urzeiten mal wieder ein AMD only System :D

Loeschzwerg
2017-08-17, 08:21:54
Also ich muss sagen VEGA 56 wird immer interessanter.

Jup, zumal sich bei der Karte relativ einfach die Leistung steigern lässt. Den HBM2 Takt von 950MHz (Vega64) scheint die Vega56 problemlos mitzumachen. Bringt Leistung ohne nennenswerten Anstieg bei der Leistungsaufnahme.

Gut möglich dass hier die Customs ansetzen werden.

horn 12
2017-08-17, 08:25:38
@Loeschzwerg

Deine Vega 64 bereits bestellt ... ?

Loeschzwerg
2017-08-17, 08:27:55
Jap, gleich am ersten Tag ca. 1 Stunde nach Launch bei Caseking. Leider ist die Limited Air immer noch auf Status "bestellt", da muss ich mich wohl noch etwas gedulden.

Dorn
2017-08-17, 08:27:55
Also ich muss sagen VEGA 56 wird immer interessanter. Nur wenn der Preis stimmt. Also Vega 64 mit 649 Euro, kaufen doch nur AMD Fanboys und wenn die Preise auch bei Vega 56 so nach oben geht..

Loeschzwerg
2017-08-17, 08:29:05
Ich nix Fanboy, lediglich technikbegeistert und ein Sammler ^^ Pascal => Langweilig

Rancor
2017-08-17, 08:30:58
Nur wenn der Preis stimmt. Also Vega 64 mit 649 Euro, kaufen doch nur AMD Fanboys und wenn die Preise auch bei Vega 56 so nach oben geht..

Ja natürlich. Um die 400€ darf Sie kosten, aber danach wirds eben auch wieder unintressant. 450€ ist schon grenz wertig. Es sei denn die Customs legen nochmal 10 - 15 % Performance drauf, ohne eine Kernschmelze auszulösen. ^^

Cyphermaster
2017-08-17, 08:32:15
Also ich muss sagen VEGA 56 wird immer interessanter. Ich bin echt gespannt auf die Customs. In WQHD scheint sie sich auch deutlicher von der 1070 absetzen zu können.

Da ich noch keinen adaptive Sync Monitor habe wäre ne 56 + Freesync ne Option. G-Sync Geräte sind einfach absurd teuer.
Dann hätte ich nach Urzeiten mal wieder ein AMD only System :D
Kann ich mich anschließen. Da es bei mir nicht eilt, und ich ja auch Spaß am Basteln habe, wäre sowas schon mal wieder eine Sache, auf adaptive Sync schiele ich schon länger. Wenn dann noch eine schöne Tri-X rauskommt, wieder mit kurzem PCB und überlangem Kühler - oder alternativ etwas in Richtung einer "Nano" -, dann könnte man sich das schon überlegen. Mindestvoraussetzung dafür wäre aber definitiv, daß AMD bei der Treiberarbeit MASSIV nachlegt.

aufkrawall
2017-08-17, 08:33:01
Gute Güte, nichts kapiert. Vielleicht ist abgezogen auch nicht ganz richtig, verlagert ist vielleicht besser.

Ist genau so ein Unfug, wer hier wohl nichts kapiert hat...



Ich habe auch nicht gesagt, dass es schlimm ist. Aber man liest hier immer wieder, wieviel Aufwand Nvidia betreibt, im Treiber Optimierungen durchzuführen. Wenn das zu höheren FPS führt, ist es völlig legitim. Wenn ich dann aber bei der Effizienzbeurteilung diese Arbeit außerhalb der Grafikkarte vernachlässigen, mache ich einen großen Fehler.

Wen interessieren denn 10-20W mehr auf der CPU, die den Grafikkartenkühler nicht belasten und die CPU immer noch weiterhin unterhalb von x264 beim Verbrauch ist?
Weder kann man die GPU deshalb leistungsmäßig schlechter ausfahren, noch wird signifikant mehr aus der Steckdose gezogen, noch wird es spürbar wärmer deshalb im Raum.
Nicht mal Nvidia sagen, dass sie den DX11 Overhead einfach wegzaubern können, sollte also mit etwas Gedankenakrobatik nicht überraschen.

dargo
2017-08-17, 08:38:13
Wen interessieren denn 10-20W mehr auf der CPU, die den Grafikkartenkühler nicht belasten und die CPU immer noch weiterhin unterhalb von x264 beim Verbrauch ist?

Die Bulldozer Besitzer. :devil:

=Floi=
2017-08-17, 09:24:29
In WQHD scheint sie sich auch deutlicher von der 1070 absetzen zu können.

zeigt mal 8xAA benchmarks mit 16xAF

Rancor
2017-08-17, 10:16:02
zeigt mal 8xAA benchmarks mit 16xAF

Da natürlich nicht. Aber ich würde bei WQHD auch kein 8xAA einsetzen. Ich setze es schon unter FHD mit der 1070 nicht ein.

anddill
2017-08-17, 10:23:29
Nur wenn der Preis stimmt. Also Vega 64 mit 649 Euro, kaufen doch nur AMD Fanboys und wenn die Preise auch bei Vega 56 so nach oben geht..

Nope, nicht mal die. Ich dürfte einer der größten AMD-Fanboys sein den Du finden kannst, und mir ist das zu teuer. Vor allem da ich als AMD-Fanboy schon ein AM4 High-End Board und einen R7-1800X habe bringen mir die Packs gar nichts.
Interessanter Weise tauchen die Vega-Packs in Dauerschleife für 609€ immer wieder im Mindstar auf. Ich sehe das als Hinweis daß zumindest MF & Co genug Karten haben. Ich hoffe mal daß der Blödsinn mit den Packs daher bald aufhört, und ich endlich eine nackte Karte ohne unnützes Bundle kaufen kann. Für ~500€ wäre sie ok, aber nicht für den derzeitigen Preis.

Mangel76
2017-08-17, 10:30:15
Ist genau so ein Unfug, wer hier wohl nichts kapiert hat...


Das ist so typisch hier. Leider. Ich gebe etwas zu bedenken, übe berechtigte Kritik an Testmethoden und frage nach Fakten. Und was kommt: persönliche Beleidigungen. Aber was soll man bei diesem Nick auch anderes erwarten?

Vor mir liegt die letzte PC Games Hardware. Was sehe ich da: 2 Doppelseiten ausführliche Daten zu Verbrauchswerten von Grafikkarten, insgesamt und auf den jeweiligen Leitungen. Finde ich toll, da kann sich jeder ein Bild davon machen, wieviel die Customs wirklich verbrauchen und das die FE-Daten völlig irrelevant für Custom-Nutzer sind. Da findet sich beispielsweise ziemlich weit vorne zwischen all den durstigen AMD-Karten auch die Zotac GTX 1080 Ti AMP! Extreme mit fast 320W. Die hat dabei natürlich eine sehr hohe Leistung, aber von den angeblichen 230W Durchschnittsverbrauch der FE ist das meilenweit entfernt.

Und noch einmal: eine Grafikkarte kann nur effizient arbeiten, wenn sie entsprechend gefüttert wird. Das sieht man ja an der aktuellen Treiberdiskussion in diesem Thread wieder sehr deutlich. Wenn Nvidia es schafft, durch den Treiber entsprechende Vorarbeit zu leisten, so dass die Grafikkarte effizient und schnell arbeiten kann, so ist das doch sehr gut! Nur leider wird dieser Teil bei der Effizienzbetrachtung mittlerweile völlig vernachlässigt. Seit einiger Zeit ist es angesagt, mit sauteurem Equipment den Verbrauch der Grafikkarte auf die xte Nachkommastelle und mikrosekundengenau zu messen. Das hat auch seine Berechtigung, aber leider ist das profane Messen des Gesamtverbrauchs damit irgendwie in Verruf geraten.

Auch im Artikel der PCGH findet sich dazu kein Wort, eine Betrachtung des Gesamtsystems findet nicht mehr statt. Aber nur mit beiden Werten kann ich die Gesamteffizienz wirklich beurteilen. Das Beispiel von Dargo hat es doch sehr gut gezeigt: RX480 vs. GTX1060 - Grafikkarte allein gemessen ist die GTX deutlich sparsamern, beim Gesamtsystem ist der Verbrauch jedoch gleich. Letztendlich muss ich dann sagen, dass ich mit beiden Grafikkarten den gleichen Stromverbrauch habe bei etwa gleicher Leistung, insgesamt also beide Systeme gleich effizient sind.

Dino-Fossil
2017-08-17, 10:37:00
Ich dürfte einer der größten AMD-Fanboys sein den Du finden kannst

Glaub ich dir nicht, dir fehlt der Schaum vor dem Mund. ;D

G3cko
2017-08-17, 10:50:26
Nope, nicht mal die. Ich dürfte einer der größten AMD-Fanboys sein den Du finden kannst, und mir ist das zu teuer. Vor allem da ich als AMD-Fanboy schon ein AM4 High-End Board und einen R7-1800X habe bringen mir die Packs gar nichts.
Interessanter Weise tauchen die Vega-Packs in Dauerschleife für 609€ immer wieder im Mindstar auf. Ich sehe das als Hinweis daß zumindest MF & Co genug Karten haben. Ich hoffe mal daß der Blödsinn mit den Packs daher bald aufhört, und ich endlich eine nackte Karte ohne unnützes Bundle kaufen kann. Für ~500€ wäre sie ok, aber nicht für den derzeitigen Preis.

So sieht es aus. Vollste Zustimmung. So toll die Technik auch ist, das muss sich eben noch zeigen durch zukünftige Implementierungen. 650€ für eine vega sind gerade mal 50€ weniger als eine 1080Ti mit custom Lüfter. Sry nein danke.

Wenn man wirklich wollte das die Karten bei gamer landen hätte man sinnvolle bundles gebastelt. So sieht es so aus als wolle AMD bei jedem bundle kräftig dazu verdienen, da anscheinend die Marge anscheinend nicht ausreicht um gegen nvidia zu bestehen. Ich sag nur never settle mit 5 spielen, und nicht 2 für 100€. Oder ein 800€ Monitor... Die extrem teuren mainboards schießen den Vogel komplett ab.

horn 12
2017-08-17, 10:52:26
@anddill

Wie schätzt Du die Vega Karte sprich die 56 und aber auch 64-er ein
Denkst da reist der Treiber noch gewaltiges raus und dass dann der Stromverbrauch akzeptabel erscheinen möge bei endlich Finaler Leistung ,- oder wird es dies schon fast gewesen sein.

PS:
Mein Shop hat nun geschlossen über die Feiertage und erreiche ihn nicht.

Mangel76
2017-08-17, 10:52:43
Hab jetzt selbst mal gesucht, einige Tests gibt es noch mit Gesamtverbrauch. Hier mal das Beispiel Deus Ex von bit-tech.net
(http://bit-tech.net/reviews/tech/graphics/amd-radeon-rx-vega-64-and-rx-vega-56-review/8/) (nur Beispiel!!!)


In diesem Falle bestätigt sich das bisher Gesagte zur Vega 64, viel zu durstig. Leistungsmäßig etwa gleich auf mit den beiden GTX 1080, aber 70 bzw. sogar 110W Mehrverbauch im Gesamtsystem. (Leider nicht im Spiel gemessen, da könnte es eventuell noch etwas anders aussehen?).

Die Vega 56 ist jedoch konkurrenzfähig, Leistung und Leistungsaufnahme etwas über der Custom-1070. Auch wenn die Karte allein vielleicht mehr Verbraucht, Gesamtsystem scheint in etwa das gleiche zu verbrauchen.

grauenvoll
2017-08-17, 11:00:08
Nope, nicht mal die. Ich dürfte einer der größten AMD-Fanboys sein den Du finden kannst, und mir ist das zu teuer. Vor allem da ich als AMD-Fanboy schon ein AM4 High-End Board und einen R7-1800X habe bringen mir die Packs gar nichts.
Interessanter Weise tauchen die Vega-Packs in Dauerschleife für 609€ immer wieder im Mindstar auf. Ich sehe das als Hinweis daß zumindest MF & Co genug Karten haben. Ich hoffe mal daß der Blödsinn mit den Packs daher bald aufhört, und ich endlich eine nackte Karte ohne unnützes Bundle kaufen kann. Für ~500€ wäre sie ok, aber nicht für den derzeitigen Preis.

Würde Board und CPU nehmen und teilen uns den Rabatt. ;)

Dino-Fossil
2017-08-17, 11:10:40
Wie schätzt Du die Vega Karte sprich die 56 und aber auch 64-er ein
Denkst da reist der Treiber noch gewaltiges raus und dass dann der Stromverbrauch akzeptabel erscheinen möge bei endlich Finaler Leistung ,- oder wird es dies schon fast gewesen sein.


Was für eine Frage wieder. :freak:
Ich glaube nicht, das hier einer hellsehen kann!
Aber alles im Vega-Umfeld ist so dermaßen Beta-Status aktuell, dass man sicherlich davon ausgehen kann, dass sich da noch was tut.

Birdman
2017-08-17, 11:13:45
Letztendlich muss ich dann sagen, dass ich mit beiden Grafikkarten den gleichen Stromverbrauch habe bei etwa gleicher Leistung, insgesamt also beide Systeme gleich effizient sind.
NEIN! - genau hinschauen bitte.
Denn bei diesem Test (RoTR) leistet die GTX1070 57-67% mehr fps als die RX480, also ist das alles andere als "gleiche Leistung".

Der Verbrauch des Gesammtsystems ist hier bei RX480 vs GTX1070 nur deshalb auf ähnlichem Niveau, weil die AMD Karte deutlich weniger FPS liefert und daher die CPU (und andern Komponenten) viel weniger fordert.

dargo
2017-08-17, 11:16:37
Gute Güte, da wird nichts von der GPU auf die CPU "abgezogen". RotTR läuft auf Radeons mit DX11 wie Abfall, und rat mal wieso.
Ähm... moment mal.

Die CB misst für die RX480 alleine 164W. Das ist der typische avg. Verbrauch für die Referenz RX480 im GPU-Limit. Ich glaube kaum, dass die Karte alleine 164W im starken CPU-Limit säuft. ;) Ich vermute mal (hier müsste mal Wolfgang genaueres zu sagen) die CB misst den Verbrauch bei Radeon in RotTR @DX12 und bei Nvidia @DX11. Insofern ist die DX12 Lösung beim Gesamtsystem durchaus effizienter. Der Vorteil von GP104 Salvage von 27W löst sich bei der Gesamtsystembetrachtung komplett in Luft auf.

Das Beispiel von Dargo hat es doch sehr gut gezeigt: RX480 vs. GTX1060 - Grafikkarte allein gemessen ist die GTX deutlich sparsamern, beim Gesamtsystem ist der Verbrauch jedoch gleich. Letztendlich muss ich dann sagen, dass ich mit beiden Grafikkarten den gleichen Stromverbrauch habe bei etwa gleicher Leistung, insgesamt also beide Systeme gleich effizient sind.
Ich habe jetzt nur das Beispiel RX480 vs. GTX1070 genommen da die beiden beim Gesamtsystem absolut gleich in RotTR liegen. Sinnvoller wäre es natürlich die selbe Leistungsklasse bei den Grafikkarten zu betrachten. Da hätten wir dann eine GTX1060FE mit 110W und eine RX480 mit 164W. Also 54W Unterschied. Beim Gesamtsystem heißt es dann aber 187W (Nvidia) vs. 215W (AMD). Und schon sind es keine 54W mehr sondern nur noch 28W.

AtTheDriveIn
2017-08-17, 11:17:02
In diesem Falle bestätigt sich das bisher Gesagte zur Vega 64, viel zu durstig. Leistungsmäßig etwa gleich auf mit den beiden GTX 1080, aber 70 bzw. sogar 110W Mehrverbauch im Gesamtsystem. (Leider nicht im Spiel gemessen, da könnte es eventuell noch etwas anders aussehen?).


Aber sicher nicht im Powersave Modus. 294W vs 333W wie auf dem von dir gezeigten Bild zu sehen. Das System mit EVGA 1080 liegt sogar bei 339W, also sogar über der Vega 64 @Powersave

dildo4u
2017-08-17, 11:18:41
Hab jetzt selbst mal gesucht, einige Tests gibt es noch mit Gesamtverbrauch. Hier mal das Beispiel Deus Ex von bit-tech.net
(http://bit-tech.net/reviews/tech/graphics/amd-radeon-rx-vega-64-and-rx-vega-56-review/8/) (nur Beispiel!!!)


In diesem Falle bestätigt sich das bisher Gesagte zur Vega 64, viel zu durstig. Leistungsmäßig etwa gleich auf mit den beiden GTX 1080, aber 70 bzw. sogar 110W Mehrverbauch im Gesamtsystem. (Leider nicht im Spiel gemessen, da könnte es eventuell noch etwas anders aussehen?).

Die Vega 56 ist jedoch konkurrenzfähig, Leistung und Leistungsaufnahme etwas über der Custom-1070. Auch wenn die Karte allein vielleicht mehr Verbraucht, Gesamtsystem scheint in etwa das gleiche zu verbrauchen.
Die Werte sind fürn Arsch DX12 ist kaputt in Deus Ex und zwar auf NV und AMD.

https://www.hardocp.com/article/2017/08/14/amd_radeon_rx_vega_64_video_card_review/5

Dino-Fossil
2017-08-17, 11:22:38
Die Werte sind fürn Arsch DX12 ist kaputt in Deus Ex und zwar auf NV und AMD.

Jetzt übertreibst du aber erheblich...

Was meinst du mit "kaputt" und inwiefern sind die Werte dadurch "fürn Arsch"?

Birdman
2017-08-17, 11:29:53
Der Vorteil von GP104 Salvage von 27W löst sich bei der Gesamtsystembetrachtung komplett in Luft auf.
Der Löst sich nicht in Luft auf, sondern in 60+% mehr Performance....

Sorry, aber eure (Gesammtsystem)Verbrauchsplauderei ist komplett fubar wenn nicht auch die Performance mit in die Betrachtung gezogen wird.

HOT
2017-08-17, 11:30:02
Na ja, Optimierungen des Spieleherstellers vs. Treiberoptimierung in DX11... das ist doch eigentlich logisch, dass man da andere Verhaltensstrukturen bekommt. Kaputt ist da nix, es ist halt anders.

dargo
2017-08-17, 11:31:54
Der Löst sich nicht in Luft auf, sondern in 60+% mehr Performance....

Ich empfehle an der Leseverständlichkeit zu arbeiten.


Sorry, aber eure (Gesammtsystem)Verbrauchsplauderei ist komplett fubar wenn nicht auch die Performance mit in die Betrachtung gezogen wird.

Bei der GTX1060 (selbe Leistungsklasse) lösen sich ca. 50% der Verbrauchsersparnis in Luft auf.

Loeschzwerg
2017-08-17, 11:39:05
Golem Test zur Vega56:
https://www.golem.de/news/radeon-rx-vega-56-im-test-amd-positioniert-sich-in-der-mitte-1708-129519.html

Zum Bundle/Preis-Thema von CB:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-preise-bundles-partnerkarten-ueberblick/#update2

Troyan
2017-08-17, 12:00:50
Zum Bundle/Preis-Thema von CB:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-preise-bundles-partnerkarten-ueberblick/#update2

Vor Allem hat AMD es überhaupt nicht kommuniziert, dass die "Pack"-Version auch ohne "Pack" aber für 100€ mehr gekauft werden kann. Das ist also schon eine klare Verarsche, um in Test mit tollen Preiszahlen werben zu können.

BTW: Bei Mindfactory steht, dass man 85€ mit der Packversion beim Kauf von Prozessor und Mainboard sparen würde. Heißt wohl, dass man ohne Betrachtung der Spiele 15€ Verlust gegenüber dem Einzelkauf macht. Und nimmt man den Preis von 649€, spart man ganze 41€.

Das klingt echt wie ein Ponzi-Scheme...

/edit:
Ich habe jetzt genauer nachgerechnet: Beim Kauf der Einzelkomponenten komme ich auf rund 1200€ = 509€ 64er + 257€ Mainboard + 434€ 1800X.
Die "Pack"-Version kostet 1299€ laut Mindfactory. Ich bezahle also 100€ mehr gegenüber dem Einzelkauf. Damit nehmen die "kostenlosen" Spiele also 100€ ein... Naja, Prey kann man z.B. bei Steam zur Zeit für 30€ kaufen...

Menace
2017-08-17, 12:01:45
Golem Test zur Vega56:
https://www.golem.de/news/radeon-rx-vega-56-im-test-amd-positioniert-sich-in-der-mitte-1708-129519.html


Danke auch an y33h@. Hätte mir ein etwas ausführlicherer Test gewünscht (vielleicht auch zum Vergleich Nano - 56 Powersave; was der Stromverbrauch angeht). Etwas schneller ist die 56 ja schon.

Dino-Fossil
2017-08-17, 12:09:09
Das klingt echt wie ein Ponzi-Scheme...

Das klingt überhaupt nicht so, denn ein Ponzi-Scheme hat damit nichts zu tun.
Oder verspricht AMD über die Rabattaktion hinaus irgendwo Gewinne oder Rendite aus Invesitionen in Vega-Karten?

dildo4u
2017-08-17, 12:11:15
Der Mining Treiber hilft auch der 580,schätze mal damit wird so schnell keine Midrange bzw High End AMD GPU billiger.


http://www.legitreviews.com/amds-new-mining-block-chain-optimized-driver-tested_197095

anddill
2017-08-17, 12:12:21
Vor Allem hat AMD es überhaupt nicht kommuniziert, dass die "Pack"-Version auch ohne "Pack" aber für 100€ mehr gekauft werden kann. Das ist also schon eine klare Verarsche, um in Test mit tollen Preiszahlen werben zu können.

BTW: Bei Mindfactory steht, dass man 85€ mit der Packversion beim Kauf von Prozessor und Mainboard sparen würde. Heißt wohl, dass man ohne Betrachtung der Spiele 15€ Verlust gegenüber dem Einzelkauf macht. Und nimmt man den Preis von 649€, spart man ganze 41€.

Das klingt echt wie ein Ponzi-Scheme...

Du kannst immer eine im Mindstar für 609€ bekommen, die dreht da Dauerschleife. Steht auch so auf der Aktionsseite (https://www.mindfactory.de/Highlights/AMD_Radeon_RX_Vega/Badge/163x80_badge_AMD_Radeon_RX_VEGA_Bundle). Oder Du knallst gleich das ganze Pack in den Warenkorb, dann zahlst Du erst mal gleich noch ein paar Ct weniger und bekommst dann noch die 85€ Rabatt und die zwei Spiele.
Was Dir natürlich nur was nützt wenn Du Verwendung für die gebundelten Komponenten und die Spiele hast.

y33H@
2017-08-17, 12:24:51
Danke auch an y33h@. Hätte mir ein etwas ausführlicherer Test gewünscht (vielleicht auch zum Vergleich Nano - 56 Powersave; was der Stromverbrauch angeht). Etwas schneller ist die 56 ja schon.Die Nano braucht regulär um die 180 Watt, die @ 1 GHz Variante mit hochgezogenem Power-Limit hingegen sind gleich mal 250 Watt ^^

Troyan
2017-08-17, 12:29:28
Du kannst immer eine im Mindstar für 609€ bekommen, die dreht da Dauerschleife. Steht auch so auf der Aktionsseite (https://www.mindfactory.de/Highlights/AMD_Radeon_RX_Vega/Badge/163x80_badge_AMD_Radeon_RX_VEGA_Bundle). Oder Du knallst gleich das ganze Pack in den Warenkorb, dann zahlst Du erst mal gleich noch ein paar Ct weniger und bekommst dann noch die 85€ Rabatt und die zwei Spiele.
Was Dir natürlich nur was nützt wenn Du Verwendung für die gebundelten Komponenten und die Spiele hast.

Mit der 609€ Karte komme ich auf exakt 1300€ - also "Pack"-Preis. Die aktuellen Einzelpreise bei Mindfactory machen die Packs vollkommen sinnlos...

Einzig allein mit der 150€ teureren 649€ Karte spart man gegenüber dem Einzelkauf...

anddill
2017-08-17, 12:31:23
Du bekommst noch die 85€ gutgeschrieben wenn Du das Pack kaufst und nicht vergisst den richtigen Code im Warenkorb einzutragen. Zumindest verstehe ich die Aktionsseite so.
Es fällt aber schon auf daß da sehr viele Hürden eingebaut sind um zum aktuell günstigsten Angebot zu kommen.

Erbsenkönig
2017-08-17, 12:36:11
Vor Allem hat AMD es überhaupt nicht kommuniziert, dass die "Pack"-Version auch ohne "Pack" aber für 100€ mehr gekauft werden kann. Das ist also schon eine klare Verarsche, um in Test mit tollen Preiszahlen werben zu können.

BTW: Bei Mindfactory steht, dass man 85€ mit der Packversion beim Kauf von Prozessor und Mainboard sparen würde. Heißt wohl, dass man ohne Betrachtung der Spiele 15€ Verlust gegenüber dem Einzelkauf macht. Und nimmt man den Preis von 649€, spart man ganze 41€.

Ist für mich eine Sauerei. So schafft man einen Preispunkt, der völlig gaga ist. Und die Customs werden sich sicherlich daran orientieren.

Isen
2017-08-17, 12:38:04
Der ganze Markt dahingehend ist völlig Gaga. Macht echt kein Spaß zur Zeit.
Benötigt man unbedingt eine Karte, bleibt einem nichts anderes übrig als in den sauren Apfel zu beißen, egal wo man sich nun entscheidet. Alternativ eben gebraucht, aber auch dort ein wenig teurer, aber noch zu verschmerzen... mich regt diese Situation einfach nur noch auf...

Eine 980 TI mit Custom Kühler auf 1400Mhz würde ich für 300€ kriegen... ich weiß aber noch nicht...
Rest von AMD bietet weniger Leistung als meine ex 290x...

Troyan
2017-08-17, 12:40:39
Du bekommst noch die 85€ gutgeschrieben wenn Du das Pack kaufst und nicht vergisst den richtigen Code im Warenkorb einzutragen. Zumindest verstehe ich die Aktionsseite so.
Es fällt aber schon auf daß da sehr viele Hürden eingebaut sind um zum aktuell günstigsten Angebot zu kommen.

Ah, gut, das macht mehr Sinn. Ich dachte die 85€ wären schon im Preis drin.
Aber die 85€ sind immer noch 15€ weniger als der Aufpreis zur "Pack"-Karte.

Birdman
2017-08-17, 12:41:18
Bei der GTX1060 (selbe Leistungsklasse) lösen sich ca. 50% der Verbrauchsersparnis in Luft auf.
:crazy: oder am einfach nur am trollen?
https://dexter.birdman.ch/screens/misc/480-1060.png

Ich sehe da ~10% mehr Leistung bei ~30W weniger Verbrauch.
Die GTX1060 alleine zieht etwa 40W weniger (120 vs 160W) - also keine Ahnung wo Du da wieder etwas "verpuffen" siehst...

Die VerlustLeistung welche die Grafikkarte einspart oder in FPS umsetzt kommt nahezug 1:1 an der Steckdose an.
Wenn ich das ganze natürlich mit einem Threadripper oder Skylake-X System kombiniere, welches alleine für CPU und Mainboard mit 500W in die Stromkiste greift, dann ist klar dass der prozentuale Verbrauchsanteil der Grafikkarte geringer wird.

dargo
2017-08-17, 12:49:16
Zeig mir das ganze nochmal bitte mit 1xAF bis 2xAF, Verbrauchsmessungen und Frameraten. ;) Ich weiß... hat CB nicht getestet. Dennoch würde mich das interessieren. An den Verbräuchen dürfte sich kaum was ändern, die Framerate steigt allerdings bei RX480 wesentlich stärker an als bei GTX1060. Und so sind am Ende beide in etwa gleich schnell in RotTR.

btw.
Bei dem Vegatest trennen die beiden nur noch 8% bei den avgs mit 16xAF.

https://www2.pic-upload.de/img/33752412/Zwischenablage33.jpg

Bei den 99th Percentile sind es dann nur noch 5%.

Birdman
2017-08-17, 13:03:14
Zeig mir das ganze nochmal bitte mit 1xAF bis 2xAF, Verbrauchsmessungen und Frameraten. ;)
Kannst gerne selber suchen, wenn Du der Meinung bist dass eine AMD Karte dann besser dastehen würde.

Dabei ist RoTR für AMD Karten ja noch positives Cherrypicking....
Bei SW:BatteFront schafft es eine RX480 trotz schlechterer Performance, 50W mehr aus der Steckdose zu nuckeln. Hier skaliert dein Karte vs Gesammtsystem Vergleich sogar negativ wenn man von ~40W Differenz zwischen den beiden Karten ausgeht :freak:

https://dexter.birdman.ch/screens/misc/480-1060sw.png

dargo
2017-08-17, 13:09:34
SW:BatteFront hat also einen DX12 Renderer? ;) Wenn eine Applikation bei beiden IHVs ähnlich stark multithreaded (was bei Frostbite durchaus der Fall ist) dann ist es wohl logisch, dass die CPU ähnlich viel verbrauchen wird. Außerdem hatte ich schon gefühlte 10x gesagt... Perf/W ist immer das Ergebnis aus Software + Hardware. Mit effizienteren Software (low level) steigt die Perf/W bei GCN wesentlich stärker als bei Nvidia im GPU-Limit, sofern sich bei letzteren überhaupt was tut. Was glaubst du wohl wie die Perf/W zwischen P10 und GP106 in Doom ausschaut wenn GCN den Vulkanrenderer verwendet und Nvidia den OpenGL Renderer? Und wenn ich es auf die Spitze treiben möchte dann in einer cpu-limitierten Szene?

Hier skaliert dein Karte vs Gesammtsystem Vergleich sogar negativ wenn man von ~40W Differenz zwischen den beiden Karten ausgeht :freak:

https://dexter.birdman.ch/screens/misc/480-1060sw.png
Da gibts kein Negativscaling. Eine GTX1060 liegt nicht immer stur bei 120W. Es gibt Fälle wo es auch mal 110W sind.

Birdman
2017-08-17, 13:33:47
Ich weiss selber dass man dies nicht einfach so unreflektiv und anhand nackter Zahlen eines einzelnen Balken bestimmen soll/kann.

Aber genau Du warst ja derjenige der hier einfach nur einen Screenshot der Gesammtsystems-Verbrauchswerte gepostet hast, inkl. textlicher Implizierung, dass eine nVidia (GTX1060) Karte quasi "einfach so" mehr CPU Leistung vebrät und damit die Effizienz im Endeffekt im nix verpufft.
Dieses pro-AMD trolling war ja auch durchaus erfolgreich, wenn man dann solche (falschen und gefährlichen) Aussagen von andern Users hier lesen kan...
Letztendlich muss ich dann sagen, dass ich mit beiden Grafikkarten den gleichen Stromverbrauch habe bei etwa gleicher Leistung, insgesamt also beide Systeme gleich effizient sind.

anddill
2017-08-17, 13:35:37
Gähn. Ich mach einfach den Framelimiter an.

Sven77
2017-08-17, 13:38:46
Gähn. Ich mach einfach den Framelimiter an.

Warum sollte man das tun

Birdman
2017-08-17, 13:42:40
Warum sollte man das tun
- geringere Input-Latenz *
- weniger Stromverbrauch
- weniger Lärm
- weniger Spulenfiepen


* In Verbindung mit G/Free-Sync

Timbaloo
2017-08-17, 13:45:04
Konkurriert Vega mittlerweile nur noch mit der 1060 oder was habe ich verpasst?

Daredevil
2017-08-17, 13:47:45
- geringere Input-Latenz *


* In Verbindung mit G/Free-Sync
Was? Warum?

Höhere FPS = weniger Input lag
Wieso sollte irgendein Sync die Latenz besser machen, wenn Bilder langsamer losgeschickt werden?

Erbsenkönig
2017-08-17, 13:52:19
Der ganze Markt dahingehend ist völlig Gaga. Macht echt kein Spaß zur Zeit.
Benötigt man unbedingt eine Karte, bleibt einem nichts anderes übrig als in den sauren Apfel zu beißen, egal wo man sich nun entscheidet. Alternativ eben gebraucht, aber auch dort ein wenig teurer, aber noch zu verschmerzen... mich regt diese Situation einfach nur noch auf...

Eine 980 TI mit Custom Kühler auf 1400Mhz würde ich für 300€ kriegen... ich weiß aber noch nicht...
Rest von AMD bietet weniger Leistung als meine ex 290x...

Ja, es ist schon höchst unbefriedigend im Moment. 480 und 580 sind nur unbedeutend schneller als meine alte 390 und dafür gleichzeitig viel zu teuer. 980 Ti ist schon zwei Jahre alt. Dann bleiben noch 1070 und 1080.

Ich bezweifle hinsichtlich Vega ganz stark, dass sich an den Preisen in nächster Zeit groß was tun wird. Die Händler werden einen Teufel tun und die Paket-Preise bis zum Start der Customs um 100 € senken. Und die Partner werden auch nicht plötzlich den Preiskampf eröffnen. So wird man sich auf 56er für 500 einstellen können. Und das ist mir einfach zu viel des Guten.

captain_drink
2017-08-17, 13:57:13
Was? Warum?

Höhere FPS = weniger Input lag
Wieso sollte irgendein Sync die Latenz besser machen, wenn Bilder langsamer losgeschickt werden?

Sofern man die Sync-Range von Async verlässt, wird entweder Vsync aktiv oder nicht (je nach Einstellung). Im ersteren Fall würde der Input Lag gg. Async steigen, im zweiten nicht. Damit die Sync-Range nicht verlassen wird, verwendet man einen Framelimiter.

anddill
2017-08-17, 13:58:46
Warum sollte man das tun

Das letzte mal als ich nachgesehen habe hatte ich noch den OC Bulldozer drin. Da ging der Verbrauch im Spiel von 340W auf 180W runter. Gesamtsystem.

Cyphermaster
2017-08-17, 13:59:42
Konkurriert Vega mittlerweile nur noch mit der 1060 oder was habe ich verpasst?
Du hast die Diskussion verpaßt, ob die eigentliche Effizienz bzw. der Verbrauch der Karten nicht durch unterschiedliche Treiberlasten auf der CPU vom theoretischen Alleinverbrauch der Karte differiert. Daher der Vergleich über das Gesamtsystem und über den Umweg der RX480 auf die GTX 1060.

=Floi=
2017-08-17, 13:59:54
/edit:
Ich habe jetzt genauer nachgerechnet: Beim Kauf der Einzelkomponenten komme ich auf rund 1200€ = 509€ 64er + 257€ Mainboard + 434€ 1800X.
Die "Pack"-Version kostet 1299€ laut Mindfactory. Ich bezahle also 100€ mehr gegenüber dem Einzelkauf.


https://www.mindfactory.de/product_info.php/Radeon-Vega-Bundle-X370-XPOWR-TITANIUM-1700X-RX-Vega-64_1186958.html

du bekommst nur den 1700X

Birdman
2017-08-17, 14:04:50
Höhere FPS = weniger Input lag
Wieso sollte irgendein Sync die Latenz besser machen, wenn Bilder langsamer losgeschickt werden?
Will man die geringsmögliche Input-Latenz setzt man bei G/Free-Sync einen Framelimiter ein und stellt diesen auf 2 fps tiefer als die maximale Refreshrate vom Display.
Grundsätzlich muss es einfach tiefer als die Refreshrate sein, aber 1fps ist manchmal zu knapp und alles über 2 bringt nix mehr, bzw. steigert dann natürlich wieder die Latenz, wie Du durchaus korrekt bemerkt hast.

Wenn deine GPU mehr fps rendert als die Refreshrate vom Display, wird die Input-Latenz mitunter deutlich erhöht.


p.s args...nach der RX480/GTX1060 Verbrauchsdiskusion bereits der nächste völlige Offtopic Abschweifer :rolleyes:

Daredevil
2017-08-17, 14:10:11
Sofern man die Sync-Range von Async verlässt, wird entweder Vsync aktiv oder nicht (je nach Einstellung). Im ersteren Fall würde der Input Lag gg. Async steigen, im zweiten nicht. Damit die Sync-Range nicht verlassen wird, verwendet man einen Framelimiter.
Achso meinst du das, ich hab das jetzt ganz anders gelesen.
Aber gut, ist natürlich auch ne Sache, über das Limit selber hinaus zu schießen, das hab ich mir bislang gar nicht so vorgestellt.

IchoTolot
2017-08-17, 14:11:35
Noobfrage:

Wenn ich im RTSS die FPS auf 60 limitiere, ist das der gleiche Effekte wie vsync on im Spiel? Mein Display kann nur 60 Hz.

inspectah
2017-08-17, 14:16:50
Noobfrage:

Wenn ich im RTSS die FPS auf 60 limitiere, ist das der gleiche Effekte wie vsync on im Spiel? Mein Display kann nur 60 Hz.
Wenn du 60fps hast sollte es keinen Unterschied geben.
Fällst du aber darunter hast du mit RTSS Tearing und mit Vsync eben Vsync.

Hast du ein adaptive Sync Display macht es mehr Sinn die FPS direkt im Treiber auf die maximale Refreshrate des Monitors (-1) zu limitieren und nicht mit RTSS.
Oder eben Vsync anmachen.

Hübie
2017-08-17, 14:21:19
Nein. Es wird nicht synchron ausgelesen / gescannt und die Bilder werden nicht erst am Ende verworfen bzw. überschrieben. Vom Verbrauch her sollte der Effekt gleich sein.

Edit:@inspectah: Bei 144 Hz ist es sogar besser -2 (also 142) zu setzen. Battlenonsense hat da auf yt ein nettes Video zum input lag gemacht. War so am geringsten (prerenderlimit 1).

IchoTolot
2017-08-17, 14:27:36
Wenn du 60fps hast sollte es keinen Unterschied geben.
Fällst du aber darunter hast du mit RTSS Tearing und mit Vsync eben Vsync.


Das mit darunter war mir klar. Danke. :smile:

inspectah
2017-08-17, 14:29:04
Edit:@inspectah: Bei 144 Hz ist es sogar besser -2 (also 142) zu setzen. Battlenonsense hat da auf yt ein nettes Video zum input lag gemacht. War so am geringsten (prerenderlimit 1).
Macht Sinn, umso höher die Framerate, umso größer die Toleranz für diese FPS Ausreißer im Limiter.

Bei meinem 75Hz Panel und Freesync hatte ich mit einem 75er limit gelegentlich Tearing, mit 74 läuft alles super.
Vermutlich schneidet der Treiber nicht glatt genug ab.

anddill
2017-08-17, 14:51:50
...

p.s args...nach der RX480/GTX1060 Verbrauchsdiskusion bereits der nächste völlige Offtopic Abschweifer :rolleyes:

Nicht so ganz. Mir ging es mit dem Einwurf darum daran zu erinnern daß nicht jeder 24/7 Metro zockt. Der worst Case der in den Reviews gemessen wird, teilweise mit synthetischer Last, liegt ja nicht immer an.
In Spielen mit weniger Last auf der GPU (oder wenn es an einem Thread im CPU-Limit hängt) und Begrenzung der Framerate auf sinnvolle Werte wird die ganze Energiediskussion hinfällig, da die Grafikkarte dann 60x pro Sekunde für ein paar ms in den Idlemodus geht.

dargo
2017-08-17, 15:25:34
Mich erinnert die ganze Stromverbrauchsdiskussion sowas von an damals mit Plasma und LCD. ;D Was gab es da für seitenlange Diskussionen wieviel Strom ein Plasma frisst. Klar... wenn du den ganzen Tag nur weißen Bildschirminhalt anstarrt und am besten noch den Bildmodus Dynamik bis zum Anschlag aufdrehst bis die Augen bluten dann wird so ein Plasma ein schöner Säufer. :D

dildo4u
2017-08-17, 15:26:52
Läuft die Karte nicht immer volles Brett wenn man Freesync nutzt?

Schnoesel
2017-08-17, 15:27:19
Oder ab Polaris einfach das neue Feature nutzen:

https://www.computerbase.de/2017-07/crimson-17.7.2-benchmark/2/#abschnitt_enhanced_sync_reduziert_das_stottern_und_die_latenz

dargo
2017-08-17, 15:33:59
Läuft die Karte nicht immer volles Brett wenn man Freesync nutzt?
Definiere "volles Brett".

Langlay
2017-08-17, 15:39:25
Läuft die Karte nicht immer volles Brett wenn man Freesync nutzt?


Nein, bei meiner R9 290 geht der Takt einfach runter. Ich hab einen 60FPS Freesync Monitor mit Framelimiter auf 59FPS. Und wenn ich z.b. Motorsport Manager spiele ist der Takt dann meist nur 700-800MHz(947MHz is max Freq.) bei 59 FPS.

Erbsenkönig
2017-08-17, 15:50:39
Mich erinnert die ganze Stromverbrauchsdiskussion sowas von an damals mit Plasma und LCD. ;D Was gab es da für seitenlange Diskussionen wieviel Strom ein Plasma frisst. Klar... wenn du den ganzen Tag nur weißen Bildschirminhalt anstarrt und am besten noch den Bildmodus Dynamik bis zum Anschlag aufdrehst bis die Augen bluten dann wird so ein Plasma ein schöner Säufer. :D

Und meine beiden Pana Plasmas laufen immer noch! :cool:

Daredevil
2017-08-17, 15:55:23
Ein Plasma war aber auch deutlich besser besser als ein vergleichbar teurer LCD, sonst hätte man sich das auch nicht geholt. Hab selber noch einen :D

Opprobrium
2017-08-17, 15:58:28
Und meine beiden Pana Plasmas laufen immer noch! :cool:
Und ich bin immer noch begeistert von der Bildqualität eines Plasmaschirms, vor allem bei z.B. Sci-Fi Filmen :)

Werde am WE mal testen, im Stromsparmodus sieht doch sogar die 64er ganz vernünftig aus.

Mit etwas Glück gibt's dann auch schon den 4.12er Kernel für OpenSuse Tumbleweed samt Vega Unterstützung.

dr.denton
2017-08-17, 16:10:03
Hat schon mal jemand eine Analyse der Architektur im Hinblick auf mögliche Bremsen gemacht? Mich erinnert Vega ein bisschen an R520/580, als nVidia auch früher am Markt war und bei geringerem Verbrauch schneller. Bis modernere Spiele die Radeons wirklich ausnutzten und sich die Verhältnisse umkehrten.

Zergra
2017-08-17, 16:42:09
Warum wird überall geschrieben, das die "Standalone" günstiger war ? Bei Mindfactory ist das alles das gleiche. Überall gibt es das Spiele Paket zu. Daher auch bei den "Standalone" Versionen.

24p
2017-08-17, 16:44:13
Mich erinnert die ganze Stromverbrauchsdiskussion sowas von an damals mit Plasma und LCD. ;D Was gab es da für seitenlange Diskussionen wieviel Strom ein Plasma frisst. Klar... wenn du den ganzen Tag nur weißen Bildschirminhalt anstarrt und am besten noch den Bildmodus Dynamik bis zum Anschlag aufdrehst bis die Augen bluten dann wird so ein Plasma ein schöner Säufer. :D

Ein Plasma hat auch abseit dessen mehr Strom verbraucht. Nur mal so zum Vergleich, da waren es bei den Panas 40 nits im Vollweiss dank ABL. Bei Fussball dann etwas mehr aber dafür war der Verbrauch dann auch nicht wirklich niedriger. Pro nits pro Fläche waren Plasmas ineffizient ohne Ende, auch wenn die urbane Legende es anders sieht. Ein LCD mit einer derart geringen Helligkeit fährt mit dem Plasma Schlitten, was den Verbrauch angeht.


Der Verbrauch von Vega ist ein Nachteil, auch wenn einem die Stromrechnungen egal ist, weil das ding einfach gekühlt werden muss.

Erbsenkönig
2017-08-17, 16:45:02
Warum wird überall geschrieben, das die "Standalone" günstiger war ? Bei Mindfactory ist das alles das gleiche. Überall gibt es das Spiele Paket zu. Daher auch bei den "Standalone" Versionen.

Weil das so von AMD kommuniziert wird:

https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-preise-bundles-partnerkarten-ueberblick/#update2

Weitere Gespräche mit Personen, die über die notwendigen Einblicke verfügen, zeichnen mittlerweile auch ohne eine offizielle Aussage von AMD ein klares Bild. Die Erklärung, warum es Radeon RX Vega 64 nicht mehr für die beworbene UVP von 499 US-Dollar vor Steuern respektive 499 Euro inkl. MwSt. gibt, ist die folgende.

Wie von AMD bereits zur finalen Präsentation von RX Vega Ende Juli kommuniziert, galt die niedrigere UVP nur für die nackte Grafikkarte ohne Bundle. Der abgebildeten Folie aus der Präsentation vom 31. Juli 2017 ist das klar zu entnehmen. Nicht kommuniziert hatte AMD jedoch: Anbieten konnten diese Version über gewährte Rabatte nur ausgewählte Händler weltweit, die Stückzahl war stark limitiert. Der Händler OverclockersUK sprach von ein paar Hundert Produkten, die nach 20 Minuten vergriffen waren. In Deutschland gab es das Angebot nur bei Mindfactory.

Seitdem verkaufen Händler nur noch die Kombination aus Grafikkarte und den beiden Spielen Prey und Sniper Elite 4 (Deutschland) als kleinstes „Radeon Pack“, deren offizielle UVP bei 599 US-Dollar liegt – in Deutschland werden im Handel 609 Euro verlangt. Ohne den von AMD gewährten Rabatt zur anfänglichen Verfügbarkeit der niedrigeren Preise für die einzelne Grafikkarte sei die Marge allerdings extrem gering, viele Händler verlangen deshalb noch einmal mehr.

Im Übrigen ist das doch aber auch alles nur Gelaber. Das ist doch dieselbe Karte mit zwei Spielen dazu. Ist ja nicht so, als würde man ein anderes Produkt erwerben. Man kriegt dieselbe Karte und zwei Spiele und zahlt dafür nen 100er mehr.

Troyan
2017-08-17, 16:51:07
Es gibt keine "low budget"-Version. Die minimale Menge, die zu 509€ verkauft wurde, war auch nur die "Pack"-Variante.

Es gibt genau ein Produkt zur Zeit: Die 609€ RX Vega 64.

Menace
2017-08-17, 17:03:31
Es gibt genau ein Produkt zur Zeit: Die 609€ RX Vega 64.

Die hätten der Referenz-Vega einen schmissigen Namen (http://www.pcgameshardware.de/Pascal-Codename-265448/Specials/Founders-Edition-Geforce-GTX-1080-1195206/) geben sollen (vielleicht noch ein paar Extras dazu packen) und dann für 100 € mehr verkaufen; dass da noch keiner drauf gekommen ist....

Oh, wait. :rolleyes:

Troyan
2017-08-17, 17:06:03
Gibt es doch: Nennt sich Frontier Edition. War 6 Wochen früher für den doppelten Preis auf dem Markt. :lol:

Menace
2017-08-17, 17:11:36
Gibt es doch: Nennt sich Frontier Edition. War 6 Wochen früher für den doppelten Preis auf dem Markt. :lol:

Gut, dass Deine Aussagen immer wieder gleich zu werten sind. ;) Ich hätte eigentlich trotz Deiner Trollerei eher vermutet, dass Du die Adressaten der Frontier Edition kennst.

Erbsenkönig
2017-08-17, 17:14:04
https://www.hardwareluxx.de/community/f14/xfx-amd-vega-64-air-unboxing-und-einbau-1172786.html

HLX User mit einer 64er. Sein 450 W NT streikt wohl unter Last :D

Cyphermaster
2017-08-17, 17:16:38
Jammert nicht über die UVP, die ihr eh nicht zahlt. :rolleyes:
Wir als Endkunden zahlen immer Straßenpreise. Eine sinkende UVP hieße noch lange nicht, daß die Händler diese Senkung auch 100% an die Kunden durchreichen würden - grade, wenn wie momentan die Nachfrage nach dem Produkt richtig hoch ist.

24p
2017-08-17, 17:29:09
Sehe ich auch so. Es gibt keinen Grund weswegen die Marge den Händlern schenken sollte. Wenn sie wirklich wollten, dann müssten sie die Vega64 per Treiber bzw. bios entsprechend beschneiden.

Achill
2017-08-17, 18:15:09
Sehe ich auch so. Es gibt keinen Grund weswegen die Marge den Händlern schenken sollte. Wenn sie wirklich wollten, dann müssten sie die Vega64 per Treiber bzw. bios entsprechend beschneiden.

Was aber überhaupt nichts bringt da schon ein funktionierender Treiber raus ist ...

Erbsenkönig
2017-08-17, 18:28:28
http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Specials/HBCC-Gaming-Benchmark-1236099/

Loeschzwerg
2017-08-17, 18:48:48
Jetzt wäre interessant zu wissen warum gerade Metro LL Redux so vom HBCC profitiert und sonst bis jetzt kein ähnliches Beispiel gefunden wurde.

dargo
2017-08-17, 19:03:50
Ihr müsst auch die (Nach)tests lesen. ;)
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/7/#diagramm-mafia-3-hbcc-aktiv-16-gb

Dort sind auch einige Games mit >10% bei den 99th Percentile.

Loeschzwerg
2017-08-17, 19:45:17
Ohjaaa, da geht ja was in einigen Titeln =)

Erbsenkönig
2017-08-17, 20:04:00
http://www.gamersnexus.net/news-pc/3023-aib-partners-to-gn-yes-vega-price-will-change

In speaking with different sources from different companies that work with AMD, GamersNexus learned that “Gibbo is right” regarding the AMD rebate expiry and subsequent price jump. AMD purportedly provided the top retailers and etailers with a $499 price on Vega 64, coupling sale of the card with a rebate to reduce spend by retailers, and therefore use leverage to force the lower price. The $100 rebate from AMD is already expiring, hence the price jump by retailers who need return. Rebates were included as a means to encourage retailers to try to sell at the lower $499 price. With those expiring, leverage is gone and retailers/etailers return to their own price structure, as margins are exceptionally low on this product.

We also learned from the AIB partners that AMD provided a list of retailers that board partners should sell to, as those would be the companies most likely holding rebates to best support the lower pricing of the product. We are not clear if any such rebates will be reinstated at time of partner card launch, and have not been given information to lead us to either conclusion. At this point, our understanding is that said initial rebates have expired – they were only available for the first wave of cards – and retailers now largely have free rein on pricing. The packs are still in-stock at some stores and, from what we’ve been told by a third, reliable source, have seen highest allocation since Vega’s launch. Our present understanding is that Newegg received 60-70 units allocated for “packs” on their store, but a significantly lower number of standalone cards. That’d explain why we saw the inventory and sell-through behavior at launch.

Also scheint es wohl wirklich darum zu gehen, dass AMD die Dinger selber zu teuer weitergibt. Über den Preis wird also wohl (vorerst?) nicht kommen.

EDIT:

Ähnliches liest man auch hier:

https://www.kitguru.net/components/graphic-cards/matthew-wilson/ocuks-andrew-gibson-clears-up-rx-vega64-pricing-disaster/


So what exactly is going on with Vega’s pricing? We got in touch with Andrew Gibson at Overclockers UK who gave us the full breakdown:

“Launch price was $499 with NO games for the Black card, as outlined to us by AMD as a launch only price. AMD allowed us to sell a set amount at this price, which was several hundred, clearly not enough as they were sold out in approximately 15 minutes. After this the regular price was $599 with FREE games for both the black and silver cards, $699 for the aqua card plus taxes.”

Gibson’s claims are corroborated by an additional source too, as Norwegian tech retailer, komplett.no, also spoke out, telling the site tek.no that the cheaper launch price for RX Vega64 was limited to just 275 cards to allow it to appear more favourable at launch. Here is the full quote translated:

“Komplett.no today confirms to Tek.no that the price of just over 5,000 kroner was limited to a limited edition of 275 graphics cards, as the company – as one of AMD’s “selected” online stores – was allowed to sell at a favourable price at launch. The RX Vega 64 version we had for sale was in a limited edition of this price and will unfortunately not be put up for sale again. When these were sold out, we had to remove this product from our pages”.

BlacKi
2017-08-17, 20:17:30
Also scheint es wohl wirklich darum zu gehen, dass AMD die Dinger selber zu teuer weitergibt. Über den Preis wird also wohl (vorerst?) nicht kommen.

ob das bei rx56 genauso sein wird? wenn ja, wird man kurz nach dem auslaufen 500€ und mehr verlangen. die customs wohl nochmal mehr.

Erbsenkönig
2017-08-17, 20:21:29
ob das bei rx56 genauso sein wird? wenn ja, wird man kurz nach dem auslaufen 500€ und mehr verlangen. die customs wohl nochmal mehr.

Ich denke mal schon, ist doch im Endeffekt dieselbe Karte, nur eben ein wenig "beschnitten".
Die Frage, die ich mir dahingehend stelle, ist die Folgende: Kann man Gibbo von OCUK glauben, wenn er sagt, dass AMD die Karten für mehr als die ursprüngliche UVP verkauft? Und wenn ja, was bedeutet das für die Karte? Versucht AMD so viel wie möglich mitzunehmen, oder aber ist die Fertigung so teuer, dass es gar nicht wirklich billiger gehen wird und sie ansonsten einen Verlust einfahren würden?
Sollte letzteres der Fall sein, könnte das für uns als Kunden ein (großes) Problem sein, denn dann kann AMD eigentlich gar nicht über den Preis gehen. Und das lässt die Karte plötzlich in einem ganz anderen Licht erscheinen.

captain_drink
2017-08-17, 20:22:18
ob das bei rx56 genauso sein wird? wenn ja, wird man kurz nach dem auslaufen 500€ und mehr verlangen. die customs wohl nochmal mehr.

Vermutlich, da die 56 nur minimal beschnitten ist. Sofern die Preise der 1080/1070 nicht entsprechend nach oben gehen, sehe ich hinsichtlich P/L für Vega eher schwarz, da schließlich auch die höheren laufenden Kosten mit einkalkuliert werden müssen.

BlacKi
2017-08-17, 20:36:04
Ich denke mal schon, ist doch im Endeffekt dieselbe Karte, nur eben ein wenig "beschnitten".
Die Frage, die ich mir dahingehend stelle, ist die Folgende: Kann man Gibbo von OCUK glauben, wenn er sagt, dass AMD die Karten für mehr als die ursprüngliche UVP verkauft? Und wenn ja, was bedeutet das für die Karte? Versucht AMD so viel wie möglich mitzunehmen, oder aber ist die Fertigung so teuer, dass es gar nicht wirklich billiger gehen wird und sie ansonsten einen Verlust einfahren würden?
Sollte letzteres der Fall sein, könnte das für uns als Kunden ein (großes) Problem sein, denn dann kann AMD eigentlich gar nicht über den Preis gehen. Und das lässt die Karte plötzlich in einem ganz anderen Licht erscheinen.
die HW kosten liegen deutlich niedriger, ob sie sich daran "nur bereichern" oder "die entwicklungskosten decken müssen" spielt letztendlich nicht die rolle, denn beides hat auswirkungen auf die neuentwicklungen, oder personalaufbau usw.

das problem sehe ich auch eher beim kunden, denn es fällt nun das bisher positivste argument nun weg, nämlich das P/L verhältnis ggü. der konkurenz in den letzten jahren. d.h. fokus gaming wird geringer und es wird mehr fokus auf die miner gelegt, was dann gaming angeht AMD und NV noch weiter trennen wird. bin gespannt wie sich das entwickeln wird.

Erbsenkönig
2017-08-17, 20:40:51
die HW kosten liegen deutlich niedriger, ob sie sich daran "nur bereichern" oder "die entwicklungskosten decken müssen" spielt letztendlich nicht die rolle, denn beides hat auswirkungen auf die neuentwicklungen, oder personalaufbau usw.

Ich kann da nur spekulieren; ich hab keine Ahnung, was so ein Produkt kostet und für wie viel Geld es "kostendeckend" vertrieben werden muss.
Meines Erachtens hat der Beweggrund für den "Vertriebspreis" jedoch schon Relevanz, denn es geht ja in diesem Zusammenhang (wenn man den Berichten Glauben schenken darf) insbesondere darum, dass AMD die Karten scheinbar so teuer weiterverkauft, dass der Einzelhandel die billigen Preis nicht mitgehen kann. Wenn AMD noch genug Puffer hat, könnten sie ja mit den Preisen runtergehen; falls dieser nicht besteht, würde das schon schwieriger werden. Aber wie gesagt, ich gehe an die Sache auch ein wenig naiv heran, denn ich komme nicht aus der IT-Ecke und bin auch wirtschaftswissenschaftlich nicht allzu sehr bewandert. ;)

das problem sehe ich auch eher beim kunden, denn es fällt nun das bisher positivste argument nun weg, nämlich das P/L verhältnis ggü. der konkurenz in den letzten jahren. d.h. fokus gaming wird geringer und es wird mehr fokus auf die miner gelegt, was dann gaming angeht AMD und NV noch weiter trennen wird. bin gespannt wie sich das entwickeln wird.

Jap. Wenn der Preis als Argument wegfällt, bleibt nicht mehr viel übrig außer ein möglicherweise vorhandenes Potential, Bastel-Spaß, Freesync und/oder Kundentreue. Wieso sollte ein Kunde mehr Geld für das schlechtere Produkt ausgeben?

Zergra
2017-08-17, 20:46:22
Ich habe mir Vega 64 gekauft, weil das Gesamtpaket akzeptabel war. Für 509€ konnte ich damit Leben, auch die LE wäre mit die 609€ Wert gewesen. Wenn auch etwas weniger. Ich habe mir vor ein paar Wochen einen 4k FreeSync Monitor gekauft. Hätte ich das nicht getan, hätte ich auch Vega nicht gekauft. Dann wäre es J4F eine 1080TI geworden.

Etwas Basteln kann man jedenfalls, UV ist derzeit nicht gut Testbar. Dafür setz sich der Treiber auch im normalen Betrieb ab und zu zurück.

hq-hq
2017-08-17, 20:54:24
UV ist derzeit nicht gut Testbar. Dafür setz sich der Treiber auch im normalen Betrieb ab und zu zurück.

:eek: das klingt aber nicht gut :frown:
Early Adopters Bonus :freak:

Grendizer
2017-08-17, 21:02:03
Ich habe eigentlich gedacht, das AMD den Polarislaunch nicht mehr toppen kann. Aber bei Vega zeigen sie, das man noch viel mehr falsch machen kann, als nur zuwenig Chips zur Verfügung zu haben.

Wenn sich das mit dem Preisen als Strategie bewahrheitet, dann kann man mit Fug und Recht behaupten, das AMD kein Deut besser ist als nVidia beim Thema Kundenverarsche.

TwoBeers
2017-08-17, 21:53:50
Ich habe eigentlich gedacht, das AMD den Polarislaunch nicht mehr toppen kann. Aber bei Vega zeigen sie, das man noch viel mehr falsch machen kann, als nur zuwenig Chips zur Verfügung zu haben.

Wenn sich das mit dem Preisen als Strategie bewahrheitet, dann kann man mit Fug und Recht behaupten, das AMD kein Deut besser ist als nVidia beim Thema Kundenverarsche.

This! 1.) habe ich gerade an so verbotene (und bestrafte) Preisnachlässe bei Intel gedacht 2.) an den schon schlechten Polaris launch und 3.) an die schlechte (zumindest nicht erreichte) Performance bei Fiji (Tenor: "da kommt noch was, die nächste Generation wird viel besser").

Es sieht so aus als ob die GPU und die CPU Sparte bei AMD völlig anders arbeiten.
Ja, Bulldozer war ein fail, aber danach kam mit Ryzen und TR wirklich der Phönix aus der Asche.
Bei der GPU Sparte is nach der 290/390 Generation nur Kleinkram rausgekommen, der gegen Nvidia kein Licht sieht.
Viel tamtam, keine Effizienz, Features die durch unterschiedliche Gründe nicht genutzt werden und jetzt noch ein P/L Verhältnis welches vielleicht noch den Minern gefällt (und zu einem kleinen Teil den Workstation Nutzern), aber sicher nicht den Gamern. :frown:
Shame, shame, shame! *dingding*

Edit: Und das Schlimme ist, dass damit Volta nicht günstig wird, 1080Ti Performance für 400€ .. warum sollte Nvidia das tun? Die werden die schön für 600€ raushauen und den großen Chip für 1200€ bringen, bämm. ;(

Rubber Duck
2017-08-17, 22:31:19
Mal gut das ich keine neue Grafikkarte brauche zur Zeit. :freak:

Menace
2017-08-17, 22:53:33
Ich dachte der Preis wird durch die Nachfrage bestimmt. Ist das Angebot dabei gering bzw die Nachfrage höher als das Angebot, dann verkauft AMD oder die Händler halt teuer. Wenn AMD auch bei einem hohen Preis die Karten verkaufen kann, warum sollte sich dann etwas ändern.

Die Frage ist nur, warum ist das Angebot gering bzw. die Nachfrage dazu hoch?

Ich denke/hoffe, dass mit den Customs auch die Preise geringer werden.

Birdman
2017-08-17, 22:58:47
Nicht so ganz. Mir ging es mit dem Einwurf darum daran zu erinnern daß nicht jeder 24/7 Metro zockt. Der worst Case der in den Reviews gemessen wird, teilweise mit synthetischer Last, liegt ja nicht immer an.
Das ist schon klar, aber mit Framelimiter senkt sich auch der Verbrauch der grundsätzlich effizienteren Hardware - das Verhältnis bleibt daher gleich und High-End Karten "gewinnen" dabei sogar mehr.

Darüberheinaus sind ja viele Messungen nicht im worst Case und mit synthetischer Last entstanden. Gerade RoTR ist ja so ein Beispel welches dazumals auf den Radeons ziemlich schlecht lief und daher sogar eine geringere Systemlast verursachte als "normal" der Fall wäre.

Zudem zeigen diese Messwerte eh nie die ganze Wahrheit, da ja alles auf der selben Plattform mit den gleichen Grafikeinstellungen gemessen wird. (weil es sonst gar nicht vergleichbar wäre)
Wenn ich da aber rangehen würde, eine GTX1030 und Vega64 auf einer uralten Bulldozer Plattform in 1080p laufen lasse und an der Steckdose messe, würde der Verbrauch des Gesammtsystems mit der Vega allenfalls sogar tiefer sein...

Daher muss man diese Messungen schon auch immer im korrekten Kontext sehen.

r3ptil3
2017-08-17, 23:10:07
https://www.hardwareluxx.de/community/f14/xfx-amd-vega-64-air-unboxing-und-einbau-1172786.html

HLX User mit einer 64er. Sein 450 W NT streikt wohl unter Last :D

Das Case sieht ja von innen aus wie in einem Urwald.

Die schöne Vega passt da nicht wirklich rein. :freak:

Und unter 600 Watt würde ich einfach grundsätzlich keine Experimente machen mit solchen Komponenten...


Ein User hier hat in einem Post erwähnt, wie mies die AMD Launches sind. Erst vermitteln die Produkte einen miserablen Eindruck beim Launch und nach einigen Tagen mag man es trotzdem. Da steckt doch etwas Wahrheit dahinter.
Also vielleicht verkaufe ich doch noch meine 1080 TI. :D Bin mal auf hochwertige Customs gespannt und dann mal schauen.

Erbsenkönig
2017-08-17, 23:12:26
Ich dachte der Preis wird durch die Nachfrage bestimmt. Ist das Angebot dabei gering bzw die Nachfrage höher als das Angebot, dann verkauft AMD oder die Händler halt teuer. Wenn AMD auch bei einem hohen Preis die Karten verkaufen kann, warum sollte sich dann etwas ändern.

Die Frage ist nur, warum ist das Angebot gering bzw. die Nachfrage dazu hoch?

Ich denke/hoffe, dass mit den Customs auch die Preise geringer werden.

Naja. Es wurde ja nun schon mehreren Seiten berichtet, dass das nicht so viel mit Angebot/Nachfrage zu tun hat, sondern vielmehr damit, was vonseiten AMDs rüberkommt. Bei Mindfactory scheint ja auch kein Lieferproblem zu bestehen.

=Floi=
2017-08-17, 23:38:07
Es sieht so aus als ob die GPU und die CPU Sparte bei AMD völlig anders arbeiten.

du hast im cpu bereich eben einen relativ absehbaren woarkload und du brauchst vor allem keinen treiber. Das ding ist ab dem ersten tag (bios lasse ich außen vor) voll entwickelt und einsatzfähig.
Genau hier müsste AMD bei der gpu-sparte mal ansetzen und eben das frontend mal aufarbeiten und optimieren. Es bräuchte auch offene profile und eine bessere grundauslastung bei unoptimiertem treiber. Dann könnte man auch die optimierungsarbeit über den treiber reduzieren.

dargo
2017-08-17, 23:41:48
Was bringt das Untervolten?

Was bei Hawaii, Fiji und Polaris noch recht ordentliche Ergebnisse brachte, ist bei Vega mit der aktuellen Software eine sehr ungewisse Angelegenheit ohne wirklichen Mehrwert. Das manuelle Absenken der Spannungsvorgaben für die beiden höchsten Taktstufen crashte entweder komplett oder ließ den Takt deutlich absinken. Kolportierte Übertaktungserfolge allein durch das Absenken der Spannungen können wir damit definitiv nicht bestätigen.
Ob dies wiederum am möglicherweise schlechten Chip, der unfertigen Software oder einfach unserer Ehrlichkeit den tatsächlichen Fakten gegenüber liegt, können wir mangels anderer Karten nicht bestätigen. Man muss sich nicht selbst in die Tasche lügen, um vermeintliche Sensationen zu produzieren. Die Vega FE konnten wir zum Vergleich nicht heranziehen, denn der aktuell letzte Treiber für die RX Vega sperrt für die Vega FE den Gaming Mode (und somit auch den Wattman) leider komplett.

http://www.tomshardware.de/vega64-wasserkuhlung-benchmarks-temperaturen-ubertaktung,testberichte-242383-3.html

Man ist das eine Baustelle. :freak: Das Ding wurde definitiv zu früh released.

btw.
In dem Powersave Modus verbraucht die Karte 212,8W. Ob Bios 1 oder 2 ist nicht ersichtlich. Dabei taktet die GPU dann nur noch mit 1238Mhz was 10,1 TFLOPs entspricht.

yamamoto_dc
2017-08-17, 23:58:50
Ich denke AMD kann zur Zeit einfach nicht genug fertigen, Ryzen und Threadripper haben Prio. Gerade da das margenstarke Produkt Threadripper so gut läuft, wird man lieber Zeppelin-Dies fertigen.

N0Thing
2017-08-18, 00:27:08
Ich dachte der Preis wird durch die Nachfrage bestimmt. Ist das Angebot dabei gering bzw die Nachfrage höher als das Angebot, dann verkauft AMD oder die Händler halt teuer. Wenn AMD auch bei einem hohen Preis die Karten verkaufen kann, warum sollte sich dann etwas ändern.

Die Frage ist nur, warum ist das Angebot gering bzw. die Nachfrage dazu hoch?

Ich denke/hoffe, dass mit den Customs auch die Preise geringer werden.

Ich kann mir gut vorstellen, daß die aktuellen Karten bei den Händler per Flugzeug eingetroffen sind und die nächste Charge mit dem Frachter kommt. Vermutlich wird auch erst dann der Preis der UVP wieder an den Endkunden weitergegeben.

http://www.tomshardware.de/vega64-wasserkuhlung-benchmarks-temperaturen-ubertaktung,testberichte-242383-3.html


Meine Güte, was für ein mieser Stil des Autors. Solche Andeutungen sind menschlich ganz, ganz schwach. :(

scully1234
2017-08-18, 00:43:47
Meine Güte, was für ein mieser Stil des Autors. Solche Andeutungen sind menschlich ganz, ganz schwach. :(


Welche Andeutungen meinst du?

N0Thing
2017-08-18, 00:55:50
Diesen Abschnitt im Zitat, das dargo eingefügt hat:

Ob dies wiederum am möglicherweise schlechten Chip, der unfertigen Software oder einfach unserer Ehrlichkeit den tatsächlichen Fakten gegenüber liegt, können wir mangels anderer Karten nicht bestätigen. Man muss sich nicht selbst in die Tasche lügen, um vermeintliche Sensationen zu produzieren.

Ich kann ja verstehen, daß man angepisst ist, wenn man im Gegensatz zu anderen Redaktionen bei der Verteilung von Testhardware übergangen wird .
Aber solche Äußerungen, sind einfach nur billige Diskreditierung von anderen Testern. Schlechter Stil hoch³.

IchoTolot
2017-08-18, 02:10:57
Finde ich auch. Sowas geht nicht. Kann ja seine eigene Meinung haben, aber die hat dann in so einem review nichts zu suchen.

=Floi=
2017-08-18, 02:22:06
Meine Güte, was für ein mieser Stil des Autors. Solche Andeutungen sind menschlich ganz, ganz schwach. :(

vom mund halten und hochloben anderer wird es nicht besser. gerade solche eklatanten sachen müssen einfach auch laufen! :rolleyes:
Das produkt wird frei verkauft und AMD verlangt auch nicht nur 2,50€ dafür. Bei einem premium produkt kann man auch erwarten, dass so etwas triviales funktioniert. Neue Treiber 24 stunden vor den release sind auch eine fragwürdige taktik.

Ich finde es super, dass der frust mal niedergeschrieben wird damit sich die hersteller mal hinsetzen und mit mehr ruhe und hirn an die sache rangehen.

Soll ich als kunde jetzt noch 1 jahr warten, bis das überarbeitete produkt kaufbar ist?
Bei intel ist es ja auch nicht anders und bei ryzen kräht kein hahn mehr nach den bios versionen?!

N0Thing
2017-08-18, 03:04:29
Ich glaube du hast nicht verstanden, warum, bzw. was ich kritisiere. Als kleiner Hinweis, es geht nicht um AMD.

uweskw
2017-08-18, 07:09:43
Naja. Es wurde ja nun schon mehreren Seiten berichtet, dass das nicht so viel mit Angebot/Nachfrage zu tun hat, sondern vielmehr damit, was vonseiten AMDs rüberkommt. Bei Mindfactory scheint ja auch kein Lieferproblem zu bestehen.

Der Handel stopft sich seit Monaten die Taschen voll und verkauft weit über UVP. Angebot und Nachfrage.
Vega war offensichtlich von Leistung und Preis anders geplant als 1070/1080 Niveau. Für uns Gamer ist es mittelfristig nur gut wenn wenigstens ein Teil der überhöten Preise bei AMD landet. So kann man evtl. in der nächsten Generation Nvidia wieder ordentlich unter Druck setzten.

greetz
US

berhan
2017-08-18, 07:40:53
Ich glaube du hast nicht verstanden, warum, bzw. was ich kritisiere. Als kleiner Hinweis, es geht nicht um AMD.

Dann musst du ein bisschen konkreter werden.
Ich sehe das Problem nicht
1. Bezog sich die Kritik auf die UV-Ergebnisse. Da vermute ich, hat FormatC wirklich eine Gurke erwischt.
2. Das Mangels Treiberfunktion, er mit der FE nicht gegentesten konnte ist auch frustrierend.
3. War es ja nicht der Review-Artikel, wie ein anderer User meinte, sondern ein Artikel mit einer modifizierten Karte (Wasserkühlung) um die Grenzen auszuloten.
4. Er schreibt ja auch nicht dass andere UV-Ergebnisse nicht stimmen, sondern dass sich diese bei ihm nicht einstellen. Ich schließe daraus, somit das Produkt zumindest eine große Streuung aufweist. Ich glaube sowieso dass die Tester teilweise selektierte Hardware bekommen, unabhängig vom Hersteller (NVidia, AMD, Intel, ...)

HOT
2017-08-18, 08:09:36
Das tut ja weh... :freak:

dargo
2017-08-18, 08:21:02
Meine Güte, was für ein mieser Stil des Autors. Solche Andeutungen sind menschlich ganz, ganz schwach. :(
Ach... du siehst die Welt viel zu ernst. :)

Fragman
2017-08-18, 08:46:01
naja, ein bisschen mehr ehrlichkeit in den reviews wuerde nicht schaden.

was aktuell bleibt ist der preis und der stromverbrauch. diese kombination macht, zumindest vega64, unbrauchbar.
wieso sie trotzdem diese karte zu DIESEN preisen absetzen? ich hab keine ahnung. vielleicht hat man da einfach von nv gelernt. das wird auch gekauft, egal, wenn der preis eigentlich zu hoch ist. der preis ist ja auch kaum mehr ein thema, hab zumindest das gefuehl hier.

fuer den moment bleibt dann auch das stehen, die preise bleiben hoch, egal welcher hersteller.

Pirx
2017-08-18, 08:49:54
unbrauchbar ist doch Blödsinn. Der "Stromverbrauch" "bleibt" eben nicht, sondern bewegt sich in einem relativ großen Bereich, ist anpassbar.

Rancor
2017-08-18, 08:53:04
10% durch den Treiber + Customs können VEGA richtig gut werden lassen.

Fragman
2017-08-18, 08:53:42
Der "Stromverbrauch"

preis und der stromverbrauch.

ich habs mal hervorgehoben. :rolleyes:

Cyphermaster
2017-08-18, 08:55:33
wieso sie trotzdem diese karte zu DIESEN preisen absetzen? ich hab keine ahnung.Es mag dich überraschen, aber ich kenne das Geheimnis.
Die wollen Geld verdienen.
Solange die Nachfrage die aktuellen Preise erlaubt, warum sollten sie ihre Produkte verschenken?

Pirx
2017-08-18, 08:59:13
ich habs mal hervorgehoben. :rolleyes:
Das macht es nicht besser. Es gibt nicht nur den Preis und den "Stromverbrauch".

dargo
2017-08-18, 09:02:00
Hat eigentlich irgendeine Redaktion Benchmarks mit allen 6 Profilen durchgeführt? Ich weiß... ist ne Mammutaufgabe. Eigentlich würden mir schon Benchmarks mit 4 Profilen reichen. Bios 1 Powersave + Balanced, gleiches bei Bios 2. Die Turbomodis sind jenseits von gut und böse.

Bios 1 Powersave = ~215W
Bios 2 Powersave = ~200W
Bios 1 Balanced = ~280W
Bios 2 Balanced = ~250W(?)

Und was hat sich AMD eigentlich bei Vega56 gedacht? Welchen Sinn sollen zwei identische Powerprofile mit 150W haben? :confused:
http://abload.de/image.php?img=untitled05j3s.png

hlynska
2017-08-18, 09:03:06
Aber solche Äußerungen, sind einfach nur billige Diskreditierung von anderen Testern. Schlechter Stil hoch³.

Der Hype-Train ist nun mal (vorhersehbar) entgleist, mit höchstmöglichem Kollateralschaden. Das kann man nun mal nicht vom Tisch wischen. Trotzdem klatscht halb YouTube noch sabbernd Beifall... Ich bezweifle stark, dass es sich gegen professionelle Kollegen richtet.

Ich nehme an, er meinte sowas hier:
https://www.youtube.com/watch?v=roNc1AAevMM

Knapp 1,8 GHz hat keiner der seriösen Tester wirklich stabil bei allen Games hinbekommen. Und das mit Luft... Da kann man so eine (ausgesprochen zurückhaltend formulierte) Andeutung durchaus akzeptieren. Wenn dann irgendwelche Youtuber mit Hardware gepampert werden und Redaktionen nicht, dann würde ich auch Frust schieben. Außerdem weiß ja keiner, was im Hintergrund eigentlich abgelaufen ist. Zumal wohl erst ein kurz vorm Launch der Presse zugeschickte Beta-Treiber die Taktfrequenzen richtig angezeigt hat. Da ist offensichtlich wirklich viel Mist im Umlauf.

Dino-Fossil
2017-08-18, 09:08:03
Und was hat sich AMD eigentlich bei Vega56 gedacht? Welchen Sinn sollen zwei identische Powerprofile mit 150W haben? :confused:

Die beiden BIOS-Modi liegen auf dem Papier erstmal so nah beeinander - irgendwie verstehe ich eh noch nicht warum man das so gemacht hat. Gibt es da im Hintergrund evtl. noch andere Änderungen, als nur das PT?

Menace
2017-08-18, 09:12:58
Und was hat sich AMD eigentlich bei Vega56 gedacht? Welchen Sinn sollen zwei identische Powerprofile mit 150W haben? :confused:
http://abload.de/image.php?img=untitled05j3s.png

Vermutungen:

1. Die Spanne zwischen Min und Balanced ist zu gering;
2. Wer möchte schon immer sein Case aufschrauben um das Bios zu ändern;

Du legst zu Beginn fest, welches Bios Du bevorzugst (eher Leistung = Bios 1 oder eher Sparsam = Bios 2); danach wird die Karte eingebaut und Du kannst es dann über Wattman steuern.

3. Vielleicht verhalten sie die Biose auch noch etwas anders; fand bisher dazu aber keinen Test.

AlphaNUSS
2017-08-18, 09:43:09
Laut Gamer Nexus verdient AMD mit Vega nicht viel. Der verdienst durch die höheren Preise landet bei den Händlern. https://youtu.be/iM5_t1Vk1GI?t=48s

dargo
2017-08-18, 09:45:31
Hier sieht man übrigens sehr schön wie der Arschbrenner immer wieder zwischen den beiden letzten P-States wechselt. Den real anliegenden Takt kann er noch nicht erfassen.
https://www.youtube.com/watch?v=YYclbxNPTjE

Erbsenkönig
2017-08-18, 10:41:33
Laut Gamer Nexus verdient AMD mit Vega nicht viel. Der verdienst durch die höheren Preise landet bei den Händlern. https://youtu.be/iM5_t1Vk1GI?t=48s

Im Endeffekt ist es für den Kunden egal, welcher Teil der Lieferkette wie viel Geld verdient. Bei den jetzigen Preisen lohnt sich die 64er nicht und die 56er ebenso wenig, wenn (wovon ausgegangen werden kann) der ursprünglich bekanntgegebene Preis nicht gehalten wird. Die Customs werden einen Teufel tun und den Preis der Referenz-Version unterbieten; die dürften eher noch drüber liegen.

Ob da jetzt nicht auch Lieferschwierigkeiten und starke Nachfrage eine Rolle spielen, wird kaum jemand beantworten können. Die Berichte über die UVP und die geringe Menge an Standalone-Karten (auch wenn diese laut Berichten hier auch mit den Spielen verkauft wurden) lässt mich aber stark daran zweifeln, dass es da nicht auch Probleme hinter den Kulissen gibt, die mit Mining und Verfügbarkeit der Karte nichts zu tun haben.

Taigatrommel
2017-08-18, 10:57:21
10% durch den Treiber + Customs können VEGA richtig gut werden lassen.

Die Treiber sind generell noch verbessungswürdig: Wattman scheint Probleme zu haben, Chiptakte und -spannung wirklich zu steuern. Multi-GPU funktioniert gar nicht nicht. HBCC ist so eine Sache, dieses Feature sollte man aktuell wirklich Titel für Titel für sich selbst ausprobieren. Da ärgere ich mich fast schon, vor einigen Monaten nicht gleich ein Pack mit 32 GB RAM gekauft zu haben. So will ich von 16 GB nur ungerne etwas abzwacken.

Nach all der Zeit finde ich es schade, dass zumindest grundlegende Funktionen im Treiber noch Probleme machen. Das neue Technologien wie der Rasterizer oder HBCC noch (längeren) Entwicklungsbedarf haben, dafür habe ich vollstes Verständnis. Der der Rest sollte doch inzwischen vorhanden sein.

So grob fühle ich mich an den Ryzen Launch erinnert: Hardware in Form von CPUs und Mainboards war gut, doch die Software in Form des BIOS war schlicht unfertig. Doch auch bei Ryzen sieht die Lage, nach nunmehr einem knappen halben Jahr, deutlich besser aus.

mkh79
2017-08-18, 11:01:08
Da müssen dann schon ganz erhebliche Zwänge vorliegen, derartige Entscheidungen zu treffen.
Dass AMD den Review- Seiten einen Preis von 499$ mitteilt (was in eine Beurteilung mit einfließt), was dann aber nur für eine geringe Menge zu Verkaufsbeginn gültig ist und alles Weitere deutlich teurer ist, stößt mir übel auf :mad:

Eine derartige Praktik kann ich, aus welchen Gründen auch immer, nicht gutheißen.

Edit: Beitrag ist auf die Preisgestaltung bezogen.

dargo
2017-08-18, 11:01:25
HBCC ist so eine Sache, dieses Feature sollte man aktuell wirklich Titel für Titel für sich selbst ausprobieren. Da ärgere ich mich fast schon, vor einigen Monaten nicht gleich ein Pack mit 32 GB RAM gekauft zu haben. So will ich von 16 GB nur ungerne etwas abzwacken.

Warum? 4GB kannst du da locker frei machen. Du wirst mit 12GB in keinem Spiel irgendwelche Probleme bekommen. In 99,x% der Fälle nicht mal mit 8GB.

Korvaun
2017-08-18, 11:01:39
Theoretisch wäre es ja auch möglich das AMD das größere Kontingent an derzeit schon produzierten "VEGA Modulen" (Chip+HBM+Interposer) explizit für Custom Modelle vorgesehen hat, da VEGA dort wahrscheinlich insgesamt besser aussieht (bessere Kühllösung & neuere Treiber).

Wenn nicht, dann kann man davon ausgehen das es wohl bis in den Herbst hinein schlechte Verfügbarkeit geben wird...

dargo
2017-08-18, 11:08:21
Mich beschleicht das ungute Gefühl, dass wir hier Ähnliches wie bei der Fury erleben werden. Verärgerte Partner da zu wenige GPUs. Bisher wurde nur eine Custom von Asus präsentiert. Den Prototypen von Powercolor lasse ich auch noch gelten. Merkwürdig finde ich aber, dass wir noch von Sapphire nichts gesehen haben. Sapphire war doch bisher die Nummer 1 bei AMD. Möglicherweise geht der Großteil von V10 erstmal in die Server. Kann ich auch irgendwie nachvollziehen bei "knapper" Gesamtstückzahl. Dort gibt es ganz andere Margen. Aber vielleicht liege ich auch voll daneben.

Erbsenkönig
2017-08-18, 11:16:07
Da müssen dann schon ganz erhebliche Zwänge vorliegen, derartige Entscheidungen zu treffen.
Dass AMD den Review- Seiten einen Preis von 499$ mitteilt (was in eine Beurteilung mit einfließt), was dann aber nur für eine geringe Menge zu Verkaufsbeginn gültig ist und alles Weitere deutlich teurer ist, stößt mir übel auf :mad:

Eine derartige Praktik kann ich, aus welchen Gründen auch immer, nicht gutheißen.

Edit: Beitrag ist auf die Preisgestaltung bezogen.

Das ist ein ganz wichtiger Punkt, denn man kann in den Karten sicherlich "Potential" sehen und auch zugreifen, aber wenn sie dann plötzlich teurer sind als die Konkurrenz, kräftig Strom schlucken (was mit den Profilen alles geht, muss man noch sehen; einen ausführlichen Test gab es dahingehend soweit ich weiß noch nicht) und generell unfertig wirken, dann ist das Produkt für potentielle Käufer nicht gerade attraktiv, außer sie müssen unbedingt einen Freesync Monitor befeuern.

Theoretisch wäre es ja auch möglich das AMD das größere Kontingent an derzeit schon produzierten "VEGA Modulen" (Chip+HBM+Interposer) explizit für Custom Modelle vorgesehen hat, da VEGA dort wahrscheinlich insgesamt besser aussieht (bessere Kühllösung & neuere Treiber).

Wenn nicht, dann kann man davon ausgehen das es wohl bis in den Herbst hinein schlechte Verfügbarkeit geben wird...

Sollte das so sein, hätte dies AMD denke ich schon mitgeteilt. Dass sie hinsichtlich der Preisgestaltung um ein paar Tage für eine Stellungnahme bitten, macht auf mich den Eindruck, dass sie nach einem Weg suchen, da irgendwie rauszukommen.

Mich beschleicht das ungute Gefühl, dass wir hier Ähnliches wie bei der Fury erleben werden. Verärgerte Partner da zu wenige GPUs. Bisher wurde nur eine Custom von Asus präsentiert. Den Prototypen von Powercolor lasse ich auch noch gelten. Merkwürdig finde ich aber, dass wir noch von Sapphire nichts gesehen haben. Sapphire war doch bisher die Nummer 1 bei AMD. Möglicherweise geht der Großteil von V10 erstmal in die Server. Kann ich auch irgendwie nachvollziehen bei "knapper" Gesamtstückzahl. Dort gibt es ganz andere Margen. Aber vielleicht liege ich auch voll daneben.

Bei Geizhals werden die meisten Referenzdesigns als lieferbar angezeigt; manche sind aber noch gar nicht lieferbar. Kann also schon sein, dass da die Boardpartner selber nicht liefern können, weil sie nicht genug erhalten haben (es dürfte ja nicht in ihrem Interesse sein, bei Launch keine Karten verkaufen zu können).

Und ja, auch das mit den Gerüchten/Custom Karten macht mich etwas stutzig. Die 56er soll in 1,5 Wochen als Referenzdesign kommen und Custom 64er kurz darauf. Dass man noch gar nichts dahingehend hört/sieht, ist schon seltsam. War das auch bei anderen Grafikkarten-Launches so?

dildo4u
2017-08-18, 11:18:40
Im Gegensatz zu Polaris wollen vermutlich wesentlich mehr OEM's Ryzen +Vega Rechner bauen,da wird ne Masse hingehen.Bulldozer + 480 wird kaum was abgesetzt haben.

nairune
2017-08-18, 11:24:53
RX 480 offizieller launch war am 29.06.
Einige Customs wurden dann um den 08.07. gezeigt (siehe z.B. die hier angeführten Quellen https://videocardz.com/62059/asus-msi-gigabyte-powercolor-and-sapphire-custom-radeon-rx-480-pictured)

Also mal ruhig bleiben, wie hier immer alles dramatisiert wird... der Preis wird sich schon regeln, wenn AMD die Karten verkaufen will. Ist halt blöd für alle, die kurzfristig eine Referenzkarte kaufen wollen.

Taigatrommel
2017-08-18, 12:03:13
Warum? 4GB kannst du da locker frei machen. Du wirst mit 12GB in keinem Spiel irgendwelche Probleme bekommen. In 99,x% der Fälle nicht mal mit 8GB.

Aktuell und bei den meisten Titeln durchaus. Mir ging es da eher um die Zukunftssicherheit, wie es dann in ein bis zwei Jahren aussehen könnte. Wenn ich Zeit habe, werde ich mit HBCC jedenfalls ein wenig herumspielen.


Übrigens: Gewechselt von einer Referenz 290X kann ich über den Referenzkühler der Vega 64 nichts schlechtes sagen. Allerdings habe ich direkt das Powersaving BIOS geschaltet und auch im Wattman eher die Bremse angezogen. Dennoch: Der Lüfter arbeitete gestern wohl mit ca. 2300-2500rpm und kam *mir* (ich bin da eher abgehärtet, was Lautstärke im Rechner angeht) absolut nicht störend vor. Eine hörbare Verbesserung gegenüber der 290X (Standard-BIOS, Uber ist dann auch für mich eine Zumutung).

dargo
2017-08-18, 12:21:16
@Taigatrommel

Könntest du an der Steckdose mit ein paar Benchmarks messen was dein Gesamtsystem hier braucht?

1. Bios 1 balanced
2. Bios 2 balanced
3. Bios 1 powersave

Mit den jeweiligen Frameraten dann.

Zergra
2017-08-18, 12:29:58
Woran kann man überhaupt erkennen welches BIOS das jetzt ist?

Erbsenkönig
2017-08-18, 12:38:00
Woran kann man überhaupt erkennen welches BIOS das jetzt ist?

Na ist doch klar - am Stromverbrauch :D

dargo
2017-08-18, 12:49:07
Woran kann man überhaupt erkennen welches BIOS das jetzt ist?
Links zu den Luftauslässen sollte Bios 1 (Auslieferungszustand) sein.

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/images/biosswitch.jpg

Zergra
2017-08-18, 13:21:50
Danke, ja so war es bei mir auch. War mit halt nicht Sicher welches Bios jetzt welches ist. Habe es aber seit Anfang an auf 2 stehen.

Wenn man den Strom nicht misst... :D

horn 12
2017-08-18, 13:43:53
Wie störend ist der Lüfter und halte mal bitte alle GehäuseLüfter an
Drosselt dann die Karte schnell und der Lüfter dreht weiter auf ?

Hätte das Thermaltake View 27 NEU hier seit Dezember 2016 und müsste dann für die Vega 64 herhalten.

Kriton
2017-08-18, 14:08:17
Ich denke mal schon, ist doch im Endeffekt dieselbe Karte, nur eben ein wenig "beschnitten".
Die Frage, die ich mir dahingehend stelle, ist die Folgende: Kann man Gibbo von OCUK glauben, wenn er sagt, dass AMD die Karten für mehr als die ursprüngliche UVP verkauft? Und wenn ja, was bedeutet das für die Karte? Versucht AMD so viel wie möglich mitzunehmen, oder aber ist die Fertigung so teuer, dass es gar nicht wirklich billiger gehen wird und sie ansonsten einen Verlust einfahren würden?
Sollte letzteres der Fall sein, könnte das für uns als Kunden ein (großes) Problem sein, denn dann kann AMD eigentlich gar nicht über den Preis gehen. Und das lässt die Karte plötzlich in einem ganz anderen Licht erscheinen.

Vermutlich fehlt hier Hintergrundwissen wie das läuft. Ich skizziere das mal (kurz):

Die Hersteller haben üblicherweise Listenpreise (das sind nicht die UVPs!). Die sind praktisch nie unmittelbar relevant, sondern dienen eigentlich nur als Referenzierung für jeweils eingeräumte Rabatte gegenüber dem einzelnen Abnehmer.

Was AMD hier getan haben dürfte ist, anfangs einen höheren Rabatt eingeräumt zu haben als sie es inzwischen tun. Das hat aber nichts mit dem UVP zu tun. Die Marge in der Kette wird dadurch natürlich geringer, was man dann durch höhere Preise gegenüber dem nächsten in der Kette weitergibt und aktuell zu höheren Preisen als die UVP führt (von der ich nicht glaube, dass sie geändert wurde).

Natürlich vermute ich nur auf Basis meiner allgemeinen Kenntnisse in dem Bereich. Da aber in den Berichten nicht einmal im Ansatz die Listenpreise thematisiert werden, vermute ich mal stark, dass das nicht hinreichend ausdifferenziert wurde. Ich kann daher nicht garantieren, dass es so wie von mir beschrieben ist, aber es würde mich sehr wundern, wenn es da größere Abweichungen gäbe.

Kriton
2017-08-18, 14:09:40
ich habs mal hervorgehoben. :rolleyes:

Es ist doch klar, dass er darauf anspielt, dass man den (!) Stromverbrauch massiv und leicht reduzieren kann. Du wirst doch wohl nicht erzählen wollen, dass Du das nicht gesehen hast...

Erbsenkönig
2017-08-18, 14:16:09
https://www.reddit.com/r/Amd/comments/6u27e3/ramblings_about_vega_2_bios_modding_power_play/

inspectah
2017-08-18, 14:30:35
„Radeon RX Vega 64 demand continues to exceed expectations. AMD is working closely with its partners to address this demand. Our initial launch quantities included standalone Radeon RX Vega 64 at SEP of $499, Radeon RX Vega 64 Black Packs at SEP of $599, and Radeon RX Vega 64 Aqua Packs at SEP of $699. We are working with our partners to restock all SKUs of Radeon RX Vega 64 including the standalone cards and Gamer Packs over the next few weeks, and you should expect quantities of Vega to start arriving in the coming days.“
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-preise-bundles-partnerkarten-ueberblick/ Update 18.08.2017 13:47 Uhr

Also wird es wieder Standalonekarten für 500€ geben.
Ich frage mich wirklich was die sich bei dem HickHack gedacht haben.

horn 12
2017-08-18, 14:31:04
https://videocardz.com/72123/amd-issues-official-statement-regarding-radeon-rx-vega-64-pricing

Besserung in den nächsten Wochen, teilweise auch Tagen

Erbsenkönig
2017-08-18, 14:32:42
Gut. Immerhin besteht dann die Chance, dass die Customs preislich attraktiv genug sein werden.

Zergra
2017-08-18, 14:44:31
Also in BF1 habe ich mit dem B2 und Powersafe ca. 15-20% weniger Frames. Scheinbar skaliert der Takt da relativ gut. ca. 1250Mhz vs 1450Mhz. Turbo bringt gegenüber Balanced vllt. 5-10%.

dargo
2017-08-18, 15:14:22
Genauere Zahlen wären besser. 20% weniger Frames bei den angegebenen Taktraten macht keinen Sinn.

Erbsenkönig
2017-08-18, 15:33:31
Genauere Zahlen wären besser. 20% weniger Frames bei den angegebenen Taktraten macht keinen Sinn.

Liefert Techpowerup

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/31.html

1/Turbo => 2/Powersave bringt demnach 92-95 der 1/Turbo Leistung bei ~2/3 des Verbrauchs.

Kriton
2017-08-18, 15:35:18
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-preise-bundles-partnerkarten-ueberblick/ Update 18.08.2017 13:47 Uhr

Also wird es wieder Standalonekarten für 500€ geben.
Ich frage mich wirklich was die sich bei dem HickHack gedacht haben.

Siehe meinen Post oben. Es gab mit Sicherheit keinen Hickhack auf AMDs Seite. Die Leute, die das verbreitet haben, hatten einfach keine Ahnung über was sie genau reden.
Es gab (wenn man dem Update folgt) noch nicht einmal Änderung des Rabattsatzes auf die Preisliste (was im Übrigen auch vertraglich geregelt ist, wenn da Änderungen möglich sind, müssten das die Vertragspartner vorher wissen). Und die Preisliste als solche anpassen macht man auch nicht einfach mal so.

dargo
2017-08-18, 15:44:10
Liefert Techpowerup

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_64/31.html

1/Turbo => 2/Powersave bringt demnach 92-95 der 1/Turbo Leistung bei ~2/3 des Verbrauchs.
Die Tests kenne ich schon. :wink:

dildo4u
2017-08-18, 16:09:06
Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

https://www.computerbase.de/2017-08/asus-radeon-rx-vega-64-vorserie-test/

TGKlaus
2017-08-18, 16:13:39
[url]https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-preise Update 18.08.2017 13:47 Uhr

Also wird es wieder Standalonekarten für 500€ geben.


Radeon RX Vega 64: Hat AMD die Preispolitik absichtlich verschwiegen?

http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/News/AMD-Standalone-Preise-1236139/


Und dann wundert sich pcgh immer wieder, das es bei ihnen nach redaktionellen Bashing riecht ...

dargo
2017-08-18, 16:18:32
Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

https://www.computerbase.de/2017-08/asus-radeon-rx-vega-64-vorserie-test/
Kühler überzeugt schon mal. Wobei... Asus lässt die GPU mit 79°C max. laufen. Da verwundert es nicht, dass es dann noch leise bleibt. Das Gehäuse dürfte sich damit dennoch schön aufheizen. Gleichen Kühler bitte auf Vega56, dann passt es. :) Und wenns geht bitte nicht noch die Asicpower anheben. :freak:

TGKlaus
2017-08-18, 16:23:20
Gleichen Kühler bitte auf Vega56, dann passt es. :)

Ich bräuchte ne VEGA56 die max 28cm lang ist.
Asus, also bitte noch etwas kürzen.

w0mbat
2017-08-18, 16:31:17
Jetzt noch einen horn12 Treiber mit +10% Leistung und ich hol sie mir, wenn Pinnacle Ridge draußen ist :D

Korvaun
2017-08-18, 16:33:02
Das sieht ja gar nicht so übel aus, einziger größerer Unterschied zu ner Custom 1080 ist dann ca. 100W mehr Verbrauch. Wäre da nur nicht der erwartete Erscheinungstermin Ende September! Das sind dann mind. 3 Monate von FE Vorstellung bis endlich kaufbare Customs kommen... neuer Rekord an Kaugummi-Release-Taktik für AMD? Na vielleicht ist die Versorgungslage dann besser und die Preise pendeln sich dann nahe des UVP ein für Refdesigns...

dildo4u
2017-08-18, 16:39:33
Das ist der 1080 Ti Kühler,würde mich nicht wundern wenn sie bei 650 einsteigt.

Erbsenkönig
2017-08-18, 16:52:52
Gute 10 % an Leistung bei weiterhin sehr hohem Verbrauch. Die 64er wird wohl wirklich eine "Brechstangen-Karte".

Mich würden vielmehr Custom-Modelle interessieren, die auf eine bessere Effizienz gehen.

Das ist der 1080 Ti Kühler,würde mich nicht wundern wenn sie bei 650 einsteigt.

Man darf gespannt sein. Ich befürchte auch, dass es mindestens Richtung 600 € gehen wird.

horn 12
2017-08-18, 16:54:16
Und die Hitze bleibt im Case und muss abgeführt werden ....

=Floi=
2017-08-18, 16:58:30
mit nem gescheiten case ist das überhaupt kein problem. Der kühler ist um welten besser/leiser/leistungsfähiger und somit ist die ganze karte ein ganzes stück besser.
Das war vielleicht mal früher so, dass es zu heiß wurde, aber bei meinem system stellen die 300 watt kein problem dar.
Was aber jeden tag zum tragen kommt ist die niedrigere geräuschkulisse!

TwoBeers
2017-08-18, 17:12:32
Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

https://www.computerbase.de/2017-08/asus-radeon-rx-vega-64-vorserie-test/

Ich finde dieses Preview etwas zu optimistisch, das P/L Verhältnis wird bei der Asus sicher noch schlechter, als bei der Ref. Karte.
Gut, sie ist leiser und kühler, aber immernoch keine Alternative zu einer 1080. Außer man braucht Freesync.

blaidd
2017-08-18, 17:15:59
Hmm, offenbar hab ich (aus Versehen) tatsächlich doch noch eine positive Seite bei Vega entdeckt...:wink: (Stichwort: "AMD-Overhead"... achtet mal auf die Unterschiede zwischen den AMD-Architekturen besonders: Hawaii, Fiji, Polaris, Vega)

Mal als Teaser. Sehr spezifisches Szenario (stark CPU-limitiert); eher eine Engine und ein Lastszenario, mit dem AMD schon seit Jahren Probleme hat... – Und keine Sorge, in höheren Auflösungen sucken die Karten dann wieder ;)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60869&stc=1&d=1503069474

Isen
2017-08-18, 17:18:17
Najaa .. mal sehen ob Navi zu den " alle guten Dinge sind 3 " gezählt werden kann

masked__rider
2017-08-18, 17:36:02
Najaa .. mal sehen ob Navi zu den " alle guten Dinge sind 3 " gezählt werden kann

Man kanns nur hoffen.. Auch im Bezug auf die Freesync Monitore jenseits der 1080p..

AlphaNUSS
2017-08-18, 17:37:26
Najaa .. mal sehen ob Navi zu den " alle guten Dinge sind 3 " gezählt werden kann

Waren die guten 3 Dinge nicht Fiji, Polaris und Vega? Navi müsste also top werden.

Erbsenkönig
2017-08-18, 17:42:30
http://hexus.net/tech/reviews/graphics/109078-asus-radeon-rx-vega-64-strix-gaming/

G3cko
2017-08-18, 18:24:20
Also gibt's die Vega nun doch wieder ohne die gamebundles. Doof gelaufen für AMD. Hätte man von Anfang an kommuniziert, dass das Ding zu teuer in der Herstellung ist, man aber ein super "never settle Vega bundle" dazupackt mit wieder 5-7 spielen für 100-150€ zum Start die auch Top sind, hätte wohl kaum jemand etwas gesagt. So ist es halt selten doof die Karte erst für 500€ zu verkaufen und anschließend für +100€ aber mit nur 2 spielen welche gerade mal die Hälfte Wert sind.

Das Marketing hat super Arbeit geleistet Monate, aber auf AMD ist dann doch verlass... So richtig vorm Tor den Ball nicht getroffen.;D

Kann jemand hier schreien wenn es die Karte wieder standalone gibt. Danke.

Isen
2017-08-18, 18:28:21
Waren die guten 3 Dinge nicht Fiji, Polaris und Vega? Navi müsste also top werden.


Hm.. ne...

Fiji = HBM
Vega = Architectur, Pipe-Cleaner etc
Navi + Zen @IF = Doll :O :confused:

BlacKi
2017-08-18, 18:42:59
Hmm, offenbar hab ich (aus Versehen) tatsächlich doch noch eine positive Seite bei Vega entdeckt...:wink: (Stichwort: "AMD-Overhead"... achtet mal auf die Unterschiede zwischen den AMD-Architekturen besonders: Hawaii, Fiji, Polaris, Vega)
wann und wo gibts dazu mehr infos?

blaidd
2017-08-18, 18:56:33
Ich schätze mal Anfang der Woche... Benchmarks sind (fast) fertig, der Rest fehlt aber noch. Aber ich denke, das kann ich am WE noch erledigen, ich muss eh noch ein bisschen Ordnung vor der GC schaffen...
www.pcgameshardware.de ;)

Berkeley
2017-08-18, 19:06:38
Hmm, offenbar hab ich (aus Versehen) tatsächlich doch noch eine positive Seite bei Vega entdeckt...:wink: (Stichwort: "AMD-Overhead"... achtet mal auf die Unterschiede zwischen den AMD-Architekturen besonders: Hawaii, Fiji, Polaris, Vega)

Mal als Teaser. Sehr spezifisches Szenario (stark CPU-limitiert); eher eine Engine und ein Lastszenario, mit dem AMD schon seit Jahren Probleme hat... – Und keine Sorge, in höheren Auflösungen sucken die Karten dann wieder ;)

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60869&stc=1&d=1503069474
Na das sieht ja mal heftig aus (im positiven Sinne für AMD). Besonders im Vergleich zu älteren GCN Karten.
Ich würde fast schätzen, es handelt sich um WoW oder ähnliches...

foenfrisur
2017-08-18, 19:21:56
ich schreibe grad von meiner frisch installierten v64 liquid.

optisch eine augenweide.
die graka erinnert mich irgendwie daran...

https://snag.gy/nh0duk.jpg

mfg

Erbsenkönig
2017-08-18, 19:36:05
Ich finde dieses Preview etwas zu optimistisch, das P/L Verhältnis wird bei der Asus sicher noch schlechter, als bei der Ref. Karte.
Gut, sie ist leiser und kühler, aber immernoch keine Alternative zu einer 1080. Außer man braucht Freesync.

Ich weiß auch nicht so recht, was ich davon halten soll. Die haben dem Anschein nach einen Kühler draufgeklatscht, der die Abwärme auffangen kann und dabei auch noch leise ist. Das ist schon einmal sehr gut. Ich bezweifle aber, dass solch eine Kühllösung zu einem annehmbaren Preis zu haben sein wird. Die anderen Customs werden wohl zumindest bei der 64er Probleme damit haben, diese auf vergleichbarem Niveau zu kühlen.

Hinsichtlich der 56er dürften die Schwierigkeiten dahingehend wohl geringer ausfallen, denn die schleppt ja so schon fast 100 W weniger mit sich rum.

Interessant ist aber auch hier, dass sich ASUS an die Taktraten gar nicht rantraut. Die Karte ist wohl wirklich jenseits von gut und böse nach oben geprügelt.

blaidd
2017-08-18, 19:49:32
Ich würde fast schätzen, es handelt sich um WoW oder ähnliches...

Wenn du ein bisschen zwischen den Zeilen liest (und vielleicht den Namen des Bildes in Betracht ziehst), kommst du drauf... ist grad populär. ;)

Cyphermaster
2017-08-18, 20:04:39
Interessant ist aber auch hier, dass sich ASUS an die Taktraten gar nicht rantraut. Die Karte ist wohl wirklich jenseits von gut und böse nach oben geprügelt.Man mußte doch gar nicht an die Taktraten ran. Solange die gewünschte Leistungssteigerung dank dem Kühler rein über stabileren Boost praktisch automatisch passiert, braucht man sich nicht groß damit abplagen und riskieren, daß viele Chips das nicht schaffen.

Interessant ist auch, daß die ~9-10% gemessene Mehrleistung bei diesen Taktraten-Gefilden aus nur ~6% Mehrverbrauch resultiert. Beim Übertakten darüber hinaus hingegen (siehe Hexus) nuckelt das Ding das Netzteil leer (+80W bzw. +25% über die ~320W der Asus hinaus, insgesamt fast 2x GTX 1080), kommt aber dabei auf -in Relation extrem magere- +6,4% Mehrleistung (bei fast 2 GHz laut Anzeige, also +20% Takt).

Das gleicht den bisherigen Erfahrungen mit den Referenzkarten, daß Undervolting+Speicher-OC bei den Karten wenig Energie kostet, aber im Verhältnis dazu viel Leistungszuwachs bringt - während die Karten beim GPU-OC im Wesentlichen lauter und durstiger, aber nicht schneller werden (erinnert mich an ein Auto, das ich mal hatte... :biggrin::redface:).

Zergra
2017-08-18, 20:07:27
Genauere Zahlen wären besser. 20% weniger Frames bei den angegebenen Taktraten macht keinen Sinn.
Ist richtig, aber vom Lautstärke und FPS verhalten gefällt mir Bios 2 + Balanced am besten.

horn 12
2017-08-18, 20:17:31
Aber dann kaum schneller als Fiji mit 1200+ Mhz, also Fiji plus maximal 10 bis 15%
oder?

@edit

Die Limiteed Edition hat weitaus Mehr Lüftungsschlitze und somit sollte jene auch kühler bleiben, sprich Lüfter weniger hoch drehen müssen um die Temperatur halten zu können.
Die Abwärmeübertraggung Richtung Case sollte somit komplett unterbunden werden, nochmals Besser als bei der BLACK Version.
Baugleich sind die Karten denk ich auch nicht 100 Prozentig... und Besserer GPU Chip verbaut ... ?

https://www.caseking.de/sapphire-radeon-rx-vega-64-limited-edition-8192-mb-hbm2-gcsp-178.html?sPartner=185&utm_source=geizhals&utm_medium=cpc&utm_campaign=geizhals&campaign=psm/geizhals

Elite_Warrior
2017-08-18, 20:26:47
Wenn du ein bisschen zwischen den Zeilen liest (und vielleicht den Namen des Bildes in Betracht ziehst), kommst du drauf... ist grad populär. ;)
Playerunknown's Battleground nehm ich an. Hatte man da nicht vor kurzem eher ein Nachteil bei AMD gesehen? Neuer treiber?

Berkeley
2017-08-18, 20:26:54
Wenn du ein bisschen zwischen den Zeilen liest (und vielleicht den Namen des Bildes in Betracht ziehst), kommst du drauf... ist grad populär. ;)
Bestimmt Wild Unknown... (http://store.steampowered.com/app/592570/Wild_Unknown/) spass :freak:
Zufällig PUBG? :) Wüsste sonst spontan nichts.

Grendizer
2017-08-18, 20:27:19
Boahh ... also das Referenzdesign geht gar nicht. Ich habe sie jetzt bei Benutzerdefiniert für Status 6 und Status 7 auf 1050 mV gesetzt und das Ding röhrt trotzdem mit 2400 rpms rum.

Das geht gar nicht. Das warten auf die Customdesigns ist definitv anzuraten.

Thomas Gräf
2017-08-18, 20:27:53
ich schreibe grad von meiner frisch installierten v64 liquid.

optisch eine augenweide.
die graka erinnert mich irgendwie daran...

https://snag.gy/nh0duk.jpg

mfg

Meinen Glückwunsch!

Scheibenkleister ich habe mich noch nicht getraut.
THG hat mich verunsichert. Aber sachma im Balanced Mode müßte der Radi doch voll langen für unter 60° GPU. Ab wann drosselt Vega, ab 75° ?

horn 12
2017-08-18, 20:29:37
@Grendizer

Black oder Limited Edition
und wie hoch dreht der Lüfter bei 2400 U/min, mit 41 bis 42% denke ich ?

Grendizer
2017-08-18, 20:33:43
@Grendizer

Black oder Limited Edition
und wie hoch dreht der Lüfter bei 2400 U/min, mit 41 bis 42% denke ich ?

Black und 49% ...

Bei aller liebe zum Basteln und forschen.... aber die geht am Sonntag in die Bucht... ich glaube da gibt wieder Auktionen für 1 Euro Provision .... das hält doch kein normaler Mensch beim zocken aus...

Der_Korken
2017-08-18, 20:40:01
Interessant ist auch, daß die ~9-10% gemessene Mehrleistung bei diesen Taktraten-Gefilden aus nur ~6% Mehrverbrauch resultiert. Beim Übertakten darüber hinaus hingegen (siehe Hexus) nuckelt das Ding das Netzteil leer (+80W bzw. +25% über die ~320W der Asus hinaus, insgesamt fast 2x GTX 1080), kommt aber dabei auf -in Relation extrem magere- +6,4% Mehrleistung (bei fast 2 GHz laut Anzeige, also +20% Takt).

Die 1980Mhz von hexus sind doch niemals korrekt. Wenn dann sind die nur im Wattman eingestellt und unter der Last dümpelt der irgendwo bei 1600-1700Mhz rum. Dafür würde auch sprechen, dass die Leistung kaum noch ansteigt. Trotzdem ist die Karte aber erfreulich effizient für Vega-Verhältnisse. Ich hatte schon etwas Angst vor den Custom Designs, dass die sich Wettrennen um die letzten Mhz liefern und 400W wegnuckeln (*hust* RX480@230W von Sapphire *hust*).

dargo
2017-08-18, 20:40:33
Boahh ... also das Referenzdesign geht gar nicht. Ich habe sie jetzt bei Benutzerdefiniert für Status 6 und Status 7 auf 1050 mV gesetzt und das Ding röhrt trotzdem mit 2400 rpms rum.

Versuche mal Bios 2 mit balanced und dann UV. Dort hast du 20W weniger Asicpower, ergo bissel weniger Takt. Mit etwas Glück gehen vielleicht noch bissel weniger als 1050mV so, dass du irgendwo bei 2000-2200RPM Lüfter landest.

Trotzdem ist die Karte aber erfreulich effizient für Vega-Verhältnisse. Ich hatte schon etwas Angst vor den Custom Designs, dass die sich Wettrennen um die letzten Mhz liefern und 400W wegnuckeln (*hust* RX480@230W von Sapphire *hust*).
MSI schafft das bestimmt. :devil:

Grendizer
2017-08-18, 20:52:37
Versuche mal Bios 2 mit balanced und dann UV. Dort hast du 20W weniger Asicpower, ergo bissel weniger Takt. Mit etwas Glück gehen vielleicht noch bissel weniger als 1050mV so, dass du irgendwo bei 2000-2200RPM Lüfter landest.



Ich glaube in meinem Büro (unterm Dach) ist es einfach zu warm.... Bios 2 , balanced ... 2400 rpm und 84°

What....meine GPU hat den Temperaturgrenzwert überschritten.... ... ey das ist ein Coolermaster HAF 932 Gehäuse mit fetten Seitenlüfter und 4 weitern Gehäuselüftern. Das Problem hatte ich mit meiner 390 nie ... aber was da hinten rausgeblasen wird ist echt super heiss

Erbsenkönig
2017-08-18, 20:55:32
Die 1980Mhz von hexus sind doch niemals korrekt. Wenn dann sind die nur im Wattman eingestellt und unter der Last dümpelt der irgendwo bei 1600-1700Mhz rum. Dafür würde auch sprechen, dass die Leistung kaum noch ansteigt. Trotzdem ist die Karte aber erfreulich effizient für Vega-Verhältnisse.

Das wurde bei Reddit auch schon thematisiert.

------------------------------

https://tweakers.net/reviews/5633/asus-strix-videokaarten-twee-varianten-getest.html

Weiterer ASUS Strix Test. Hier ist im Übrigen von "zwei Strix" die Rede, aber mir ist nicht klar, woher die 2.Karte herkommt bzw. was diese von der ersten unterscheidet.

Grendizer
2017-08-18, 21:03:35
GPU-Z ist auch noch sehr sparsam, was die Sensoren angeht...

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=60876&stc=1&d=1503083356

Thomas Gräf
2017-08-18, 21:06:26
Bei mir in der Zokker-Ecke ist es bissl Fußkalt. September hab ich dann auch ne Vega.

Zergra
2017-08-18, 21:20:54
Aber dann kaum schneller als Fiji mit 1200+ Mhz, also Fiji plus maximal 10 bis 15%
oder?

@edit

Die Limiteed Edition hat weitaus Mehr Lüftungsschlitze und somit sollte jene auch kühler bleiben, sprich Lüfter weniger hoch drehen müssen um die Temperatur halten zu können.
Die Abwärmeübertraggung Richtung Case sollte somit komplett unterbunden werden, nochmals Besser als bei der BLACK Version.
Baugleich sind die Karten denk ich auch nicht 100 Prozentig... und Besserer GPU Chip verbaut ... ?

https://www.caseking.de/sapphire-radeon-rx-vega-64-limited-edition-8192-mb-hbm2-gcsp-178.html?sPartner=185&utm_source=geizhals&utm_medium=cpc&utm_campaign=geizhals&campaign=psm/geizhals

Naja in BF1 ist der Unterschied dann doch größer. Sind eher 1350Mhz im Schnitt. Die Karte schwankt ja enorm in den Taktraten. Kann sonst nochmal ein Screenshot vom Verlauf machen.

Bin mir zu 100% sicher das AMD dort nicht selektiert. Dann würden die das auch Ankündigen. Mehr als der Kühler wird das nicht sein.

blaidd
2017-08-18, 21:25:55
Playerunknown's Battleground nehm ich an. Hatte man da nicht vor kurzem eher ein Nachteil bei AMD gesehen? Neuer treiber?

Der Nachteil ist definitiv auch da. Kaum überspitzt gesagt liegt eine RX Vega 56 auf GTX-1060-, eine Vega RX 64 auf GTX-1070-Niveau. Aber im CPU-Limit ist das Bild plötzlich (und ehrlich komplett unerwartet) genau andersherum.

Irgendwas ist da ganz gewaltig nicht in Balance. Disclaimer: Das ist mein Ersteindruck. Der ehrliche Ersteindruck... ich habe Vega bislang erst in diesem Spiel in zwei sehr unterschiedlichen Lastszenarien (Full HD: CPU-limitiert; UHD: grafiklimitiert), das außerdem mit einiger Gewissheit ein Extrem darstellt, selbst performen sehen... Aber wäre vielleicht mal interessant, sich das auch mal in ein paar anderen Titeln anzusehen... ;)

=Floi=
2017-08-18, 21:45:33
ich schreibe grad von meiner frisch installierten v64 liquid.



mit dem lüfter ist der name foenfrisur jetzt wieder programm :cool:

dargo
2017-08-18, 21:54:26
Hier ist im Übrigen von "zwei Strix" die Rede, aber mir ist nicht klar, woher die 2.Karte herkommt bzw. was diese von der ersten unterscheidet.
OC und non OC.
http://promos.asus.com/US/PR_2017/ROG_AMD_RX_Vega/index.html

Erbsenkönig
2017-08-18, 23:11:24
OC und non OC.
http://promos.asus.com/US/PR_2017/ROG_AMD_RX_Vega/index.html

Danke für die Klarstellung. Wäre interessant zu wissen, wie der Kühler mit der Übertaktung klarkommt.

Erbsenkönig
2017-08-18, 23:13:58
http://www.gamersnexus.net/guides/3024-rx-vega-56-hybrid-mod-242pct-power-offset

:freak:

TwoBeers
2017-08-18, 23:19:29
Disclaimer: Das ist mein Ersteindruck. Der ehrliche Ersteindruck... ich habe Vega bislang erst in diesem Spiel in zwei sehr unterschiedlichen Lastszenarien (Full HD: CPU-limitiert; UHD: grafiklimitiert), das außerdem mit einiger Gewissheit ein Extrem darstellt, selbst performen sehen... Aber wäre vielleicht mal interessant, sich das auch mal in ein paar anderen Titeln anzusehen... ;)

Finde ich gut, dass du uns daran teilhaben lässt. Und endlich mal ein paar Tests abseits der ausgelatschten Benchmarkpfade. :) :up:
Ich würde mich freuen, wenn da noch viel Potential der Vega Architektur nach oben gefördert werden könnte.
Leider denke ich, dass das vielleicht erst in 10 Monaten der Fall sein wird (wie man AMD RTG so kennt) und wir dann schon ganze andere Gegenkandidaten zu laufen haben.

BlacKi
2017-08-19, 01:15:20
Aber wäre vielleicht mal interessant, sich das auch mal in ein paar anderen Titeln anzusehen... ;)
undbedingt! aber am besten noch niedriger die auflösung, damit die unterschiede noch stärker auffallen.

dargo
2017-08-19, 08:18:18
Danke für die Klarstellung. Wäre interessant zu wissen, wie der Kühler mit der Übertaktung klarkommt.
Siehst du doch bei den Vorabtests. :confused:

horn 12
2017-08-19, 10:09:30
Was ist einfach mit Sapphire los ... ?
Jene als Mutter von AMD hat noch keine Custom Karte angekündigt und man weiss gar nicht wann und ob sie etwas bringen. Da überlässt AMD Asus den Vorrang wo sie doch bei den vorherigen Karten so gepatzt haben und die Spannungswandler fast freilagen.

Sapphire sollte nun durch den Fall des NDA doch mal Werbung für Ihre Custom Karten machen
zumindest etwas ankündigen.

Zergra
2017-08-19, 10:20:20
Habe Sniper Elite 4 mal mit HBCC getestet. Windows erkennt das anscheinend nicht das der RAM reserviert ist. Dadurch schmiert das Spiel nach 10min mangels RAM ab. Ich hatte das auf 117xx MB stehen.

horn 12
2017-08-19, 10:23:53
Hast Sniper Leite 4 und Prey dazubekommen
Wie hoch dreht bei Dir der Lüfter und wieviel U/min werden angezeigt
Mit 2400 U/Min echt so laut,- oder bei weitem Angenehmer als damals bei einer R9 290 (X)

Erbsenkönig
2017-08-19, 10:38:49
Siehst du doch bei den Vorabtests. :confused:

Bei dem von CB ist die Karte doch aber nicht übertaktet.:confused:

Lowkey
2017-08-19, 10:45:57
Gibt es eine knappe Zusammenfassung über die bisherigen Ergebnisse zur Einordnung der Vega und zweitens zu den zukünftigen Optionen?

dargo
2017-08-19, 10:46:13
Bei dem von CB ist die Karte doch aber nicht übertaktet.:confused:

Und wie kommst du zu dieser Annahme?

260 oder 240 Watt Power Limit für die Vega-10-GPU

Es gibt zwei BIOS-Versionen auf der Karte, die beim Power Limit unterschiedlich konfiguriert sind. Mit dem Standard-BIOS darf die GPU 260 Watt ziehen, mit dem zweiten BIOS sind es 240 Watt. Die Referenzkarte ist auf 220 Watt konfiguriert.

https://www.computerbase.de/2017-08/asus-radeon-rx-vega-64-vorserie-test/

Bios 1 der Referenz @balanced = 220W, Bios 2 = 200W.