PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

Zergra
2017-08-19, 11:07:42
Hast Sniper Leite 4 und Prey dazubekommen
Wie hoch dreht bei Dir der Lüfter und wieviel U/min werden angezeigt
Mit 2400 U/Min echt so laut,- oder bei weitem Angenehmer als damals bei einer R9 290 (X)

Kann leider nichts zur 290(x) sagen. Die habe ich nur mit dem EKL Peter 2 betrieben.

2400rpm sind nicht Leise nein, aber auch nicht extrem störend. Die dreht bei SNE4 bei 2400rpm. Solange man die Spielsounds nicht ganz leise hat hört man nur ein rauschen.
Dazu 85°C und meist springt zwischen 1400 und 1530Mhz hin und her. Auf Bios 2 und BL

Erbsenkönig
2017-08-19, 11:08:59
Und wie kommst du zu dieser Annahme?

https://www.computerbase.de/2017-08/asus-radeon-rx-vega-64-vorserie-test/

Bios 1 der Referenz @balanced = 220W, Bios 2 = 200W.

Mehr Leistung durch ein höheres Power Limit

Asus hebt bei der Radeon RX Vega 64 Strix nicht die Taktraten an. Dies ist aber auch nicht nötig, da durch das höhere Power Limit die Frequenzen automatisch höher ausfallen. Der höchste DPM-State ist für die GPU deshalb auch hier mit 1.630 MHz und der für den Speicher mit 945 MHz angegeben. Was Asus unabhängig vom Power Limit jedoch verbessert haben will, ist die Taktstabilität. Die Strix soll einen deutlich stabileren Takt aufweisen als die Referenzkarte, die häufig die Taktrate ändert.

Wenn ASUS zwei verschiedene Strix 64 rausbringen will, gehe ich davon aus, dass bei der "OC-Karte" auch wirklich der Takt erhöht wurde und nicht nur das Power Limit angehoben wurde.

dargo
2017-08-19, 11:12:13
Das eine hängt zwangsläufig mit dem anderen zusammen. ;) Jede RX Vega64 hängt im Powerlimit. Es sei denn du willst ihr 400W genehmigen (Asicpower), das könnte vielleicht für dauerhafte 1750Mhz reichen. :freak: Wenn Asus der Karte 40W mehr genehmigt steigen auch zwangsläufig die Taktraten an gegenüber Referenz. Wo soll auch die Mehrleistung herkommen?

Erbsenkönig
2017-08-19, 11:21:31
Das eine hängt zwangsläufig mit dem anderen zusammen. ;) Jede RX Vega64 hängt im Powerlimit. Es sei denn du willst ihr 400W genehmigen (Asicpower), das könnte vielleicht für dauerhafte 1750Mhz reichen. :freak: Wenn Asus der Karte 40W mehr genehmigt steigen auch zwangsläufig die Taktraten an gegenüber Referenz. Wo soll auch die Mehrleistung herkommen?

Da hast du natürlich Recht. Worin sollen sich dann aber die Karten unterscheiden? Gibt ASUS bei der "OC Karte" das Powerlimit für 400 W frei oder wie?:confused:

------------------------

Noch was zum Preis:

http://www.gamersnexus.net/industry/3025-amd-statement-on-vega-pricing-retailers-fault

“I have a point of clarification on the official statement: The statement notes ‘initial launch quantities’ and attaches prices to those initial quantities. What is not clear -- to me, at least -- is whether the RX Vega 64 cards will be restocked at a specific price. The statement works around that. Can you confirm for print whether RX Vega 64 single cards (non-bundles) will be restocked at $500?”

AMD responded:

“Because we can’t control pricing, I can’t say that.”

Die nächsten Wochen werden interessant. Man könnte AMDs Aussagen auch so deuten, dass sie für bessere Verfügbrakeit sorgen und ansonsten nichts weiter dazu sagen/machen (können).

Achim_Anders
2017-08-19, 11:30:17
Die Antwort ist doch letztlich "Nein" in "Marketingsprache"...

horn 12
2017-08-19, 11:34:17
http://www.amd.com/en/events/pax-west-2017

Vorstellung der Custom Versionen, wäre möglich ...

dargo
2017-08-19, 11:50:05
Da hast du natürlich Recht. Worin sollen sich dann aber die Karten unterscheiden? Gibt ASUS bei der "OC Karte" das Powerlimit für 400 W frei oder wie?:confused:

Eigentlich ganz einfach.

Referenzkarte = Bios 1 220W, Bios 2 = 200W
Asus Strix OC = Bios 1 260W, Bios 2 = 240W
Asus Strix non OC = Bios 1 220W, Bios 2 = 200W

Erbsenkönig
2017-08-19, 12:21:04
Eigentlich ganz einfach.

Referenzkarte = Bios 1 220W, Bios 2 = 200W
Asus Strix OC = Bios 1 260W, Bios 2 = 240W
Asus Strix non OC = Bios 1 220W, Bios 2 = 200W

Ich lass mich überraschen. Große Übertaktungen kann ich mir eh nicht vorstellen, da der Chip ja scheinbar beim Core-Takt richtig schlecht skaliert ab einem bestimmten Punkt.

dargo
2017-08-19, 12:26:46
Viel schlimmer finde ich wieviel das Ding bei hohen Taktraten säuft. Das steht ja absolut in keiner Relation zur Mehrleistung. Meiner Meinung nach macht Vega64 keinen Sinn bei mehr als 1,3 bis 1,35Ghz. Mit UV kann man hier noch paar Hertzchen beim gleichen Verbrauch rauskitzeln. Also u.U. 1,4-1,5Ghz. Dann ist aber auch Schluss bei grob geschätzten 230-250W für die gesamte Karte.

Edit:
Mal was anderes, da ja bei den Profilen Powersave und Turbo UV nicht möglich ist... kann man eigentlich Powerlimit im Treiber @benutzerdefiniert auch senken oder nur bis +50% anheben? Letzteres wäre doof wenn man der Karte zb. 230-250W genehmigen möchte.

Habs gefunden bei der PCGH.

http://www.pcgameshardware.de/screenshots/original/2017/08/Radeon-RX-Vega-64-Air-Wattman-Power-Save-pcgh.png

Das ist der Powersavemodus vom Bios 1. Man kann ganz schwach erkennen, dass AMD im Powersavemodus das Powerlimit um 25% senkt (entspricht exakt 165W Asicpower). Somit sollte -50% bis +50% @Custom machbar sein. :up: Wer der Karte also ~250W genehmigen will sollte Bios 1 @Custom wählen und das Power Limit auf -15% setzen. Asicpower liegt dann bei 187W.

Hübie
2017-08-19, 12:31:57
@blaidd: Hast du im NV-Treiber maximale Leistung bevorzugen eingestellt?

Achill
2017-08-19, 12:35:32
Ich scheine anscheiden Pech mit der LE Vega64 gehabt zu haben. Ist die GPU eingebaut bekomme ich kein Output auf dem Monitor, Asus Code sagt D6 (No Console Output Device). Die Karte fährt voll hoch und der Lüft dreht auf Max - sieht so aus wie damals meine getötete 7950 ... :(

Dazu der Aufwand mit der Wakü ... ach Mensch. Das einzig positive ist das eine 390X raus ist und ich diese jetzt für die Bucht fertig mache.

Zergra
2017-08-19, 13:08:27
Hast die die schon auf den Custom Kühler umgebaut ? :O

Erbsenkönig
2017-08-19, 13:09:34
Viel schlimmer finde ich wieviel das Ding bei hohen Taktraten säuft. Das steht ja absolut in keiner Relation zur Mehrleistung. Meiner Meinung nach macht Vega64 keinen Sinn bei mehr als 1,3 bis 1,35Ghz. Mit UV kann man hier noch paar Hertzchen beim gleichen Verbrauch rauskitzeln. Also u.U. 1,4-1,5Ghz. Dann ist aber auch Schluss bei grob geschätzten 230-250W für die gesamte Karte.

Edit:
Mal was anderes, da ja bei den Profilen Powersave und Turbo UV nicht möglich ist... kann man eigentlich Powerlimit im Treiber @benutzerdefiniert auch senken oder nur bis +50% anheben? Letzteres wäre doof wenn man der Karte zb. 230-250W genehmigen möchte.

Habs gefunden bei der PCGH.

http://www.pcgameshardware.de/screenshots/original/2017/08/Radeon-RX-Vega-64-Air-Wattman-Power-Save-pcgh.png

Das ist der Powersavemodus vom Bios 1. Man kann ganz schwach erkennen, dass AMD im Powersavemodus das Powerlimit um 25% senkt (entspricht exakt 165W Asicpower). Somit sollte -50% bis +50% @Custom machbar sein. :up: Wer der Karte also ~250W genehmigen will sollte Bios 1 @Custom wählen und das Power Limit auf -15% setzen. Asicpower liegt dann bei 187W.

Gibt's die Werte zu BIOS 2/Powersave auch irgendwo? Das dürfte ja dann schon Richtung 50 % gehen bei 5-8 %-Punkte geringerer Leistung.

Ich scheine anscheiden Pech mit der LE Vega64 gehabt zu haben. Ist die GPU eingebaut bekomme ich kein Output auf dem Monitor, Asus Code sagt D6 (No Console Output Device). Die Karte fährt voll hoch und der Lüft dreht auf Max - sieht so aus wie damals meine getötete 7950 ... :(

Dazu der Aufwand mit der Wakü ... ach Mensch. Das einzig positive ist das eine 390X raus ist und ich diese jetzt für die Bucht fertig mache.

Stimmt vielleicht was mit der Verkabelung nicht? Ich hatte das auch mal, als ich vergessen hatte, die 8-Pin Stromkabel anzuschließen.

dargo
2017-08-19, 13:16:15
Gibt's die Werte zu BIOS 2/Powersave auch irgendwo?

Das dürfte ja dann schon Richtung 50 % gehen bei 5-8 %-Punkte geringerer Leistung.

Logo...

https://images.idgesg.net/images/article/2017/08/gpu-power-limit-vega-power-profile-100731707-orig.jpg

Sind auch -25%. Diese beziehen sich aber auf den Defaultwert von 200W vom Bios 2. Gegenüber Bios 1 sind es praktisch -~32%.

btw.
Das mit den Profilen finde ich richtig geil. Jeder kann sich seine eigene RX Vega basteln. =) Bei einer Custom würde ich mich persönlich nach der Lautstärke der Kühlung orientieren bei einer GPU Temperatur von ca. 70-72°C (hatte ich bei Grenada auch gemacht). Erstmal also die fürs Ohr angenehme Lüfterdrehzahl bei Last für sich persönlich herausfinden und danach dann das Powerlimit setzen. Mit Wattman und zwei Biosen hat man hier praktisch hunderte Möglichkeiten.

Erbsenkönig
2017-08-19, 13:33:44
Logo...

https://images.idgesg.net/images/article/2017/08/gpu-power-limit-vega-power-profile-100731707-orig.jpg

Sind auch -25%. Diese beziehen sich aber auf den Defaultwert von 200W vom Bios 2. Gegenüber Bios 1 sind es praktisch -~32%.

btw.
Das mit den Profilen finde ich richtig geil. Jeder kann sich seine eigene RX Vega basteln. =) Bei einer Custom würde ich mich persönlich nach der Lautstärke der Kühlung orientieren bei einer GPU Temperatur von ca. 70-72°C (hatte ich bei Grenada auch gemacht). Erstmal also die fürs Ohr angenehme Lüfterdrehzahl bei Last für sich persönlich herausfinden und danach dann das Powerlimit setzen. Mit Wattman und zwei Biosen hat man hier praktisch hunderte Möglichkeiten.

Da sieht man aber auch, dass da irgendwas nicht stimmt bzw. die Karte den "Sweetspot" schon längst überschritten hat. Gut 60 % des größtmöglichen Powerlimits und die Karte verliert (zumindest laut den Techpowerup Werten) 5-8 %-Punkte an Leistung.

Bei einer Custom, die mehr auf Effizienz geht, würde es vielleicht auch gar keine riesige Kühllösung benötigen, weil viel weniger Abwärme bestünde.

Achill
2017-08-19, 13:42:01
Hast die die schon auf den Custom Kühler umgebaut ? :O

Nein, war wenigstens so clever und habe natürlich im orig. Zustand die Karte getestet. Der GPU Block kommt wahrscheinlich eh erst am Montag an.


Stimmt vielleicht was mit der Verkabelung nicht? Ich hatte das auch mal, als ich vergessen hatte, die 8-Pin Stromkabel anzuschließen.

Ich habe alle vier 16xPCIe Steckplätze durch getestet, und auch die 2x8-Pin Stromkabel der beiden 390er getestet - immer das gleich Ergebnis.

Heute steht noch auf den Plan, Bios-Update (wobei ich nur 2 Updates zurück liege) und die GPU parallel zu einer 390X einbauen und schauen ob das System startet und dann ggf. Vega erkannt wird.

Zergra
2017-08-19, 13:51:50
Okay, Bios Reset wäre auch ein Versuch. Bei mir kam auch nicht sofort ein Bild.

horn 12
2017-08-19, 14:00:21
@Achill

Funkt die Karte nun oder echt im Eimer

dargo
2017-08-19, 14:06:26
Da sieht man aber auch, dass da irgendwas nicht stimmt bzw. die Karte den "Sweetspot" schon längst überschritten hat. Gut 60 % des größtmöglichen Powerlimits und die Karte verliert (zumindest laut den Techpowerup Werten) 5-8 %-Punkte an Leistung.

Was soll da nicht stimmen? Das Ding läuft einfach zu weit vom Sweetspot @balanced Powerlimit entfernt. Mit Bios 1 noch ein Stück weiter als Bios 2.


Bei einer Custom, die mehr auf Effizienz geht, würde es vielleicht auch gar keine riesige Kühllösung benötigen, weil viel weniger Abwärme bestünde.
Die Abwärme ist eine feste Größe. Die ist immer da sofern der Partner die gleichen Powerlimits wie AMD setzt. Das einzige was passieren kann ist, dass die Custom durch kühlere Temps (kühlere GPU = weniger Power) minimal höher boostet bei gleichem Stromverbrauch. Der maximale Boost bei Air liegt bei 1630Mhz. Die erreichst du weder mit der Referenz, noch einer Custom @220W Asicpower. Zumindest nicht bei hoher GPU-Last. In stärkeren CPU-Limits sicherlich.

Bei Computerbase sieht man sehr schön, dass die Asus Strix trotz 260W (40W mehr als Referenz) Asicpower im Schnitt mit ca. 1,5Ghz läuft.
https://www.computerbase.de/2017-08/asus-radeon-rx-vega-64-vorserie-test/2/#abschnitt_taktraten_unter_last

Wie ich schon sagte... der sinnvolle Bereich liegt irgendwo bei 1,3-1,35Ghz ohne UV. Richtig sparsam wird es erst bei 1,2-1,25Ghz ohne UV. Laut TH läuft die Karte im Bios 1 @Powersave (ergo 165W Asicpower) im Schnitt bei 1238Mhz @213W in Witcher 3.
http://www.tomshardware.de/vega64-wasserkuhlung-benchmarks-temperaturen-ubertaktung,testberichte-242383-3.html

In anderen Games könnte der Takt minimal höher sein. Witcher 3 heizt ziemlich stark.

2Ms
2017-08-19, 14:15:42
Ich scheine anscheiden Pech mit der LE Vega64 gehabt zu haben. Ist die GPU eingebaut bekomme ich kein Output auf dem Monitor, Asus Code sagt D6 (No Console Output Device). Die Karte fährt voll hoch und der Lüft dreht auf Max - sieht so aus wie damals meine getötete 7950 ... :(

Dazu der Aufwand mit der Wakü ... ach Mensch. Das einzig positive ist das eine 390X raus ist und ich diese jetzt für die Bucht fertig mache.
Kenne das von meiner RX480.
Da hatte damals ein Bios-Reset vom Mainboard geholfen.

horn 12
2017-08-19, 14:31:14
Wie gut läuft Sniper Ghost Warrior 3 unter der VEGA Karte mit 4K
Auf meiner Fury bekomm ich nur 20 bis 24 fps unter 4K zusammen mit meinem FrreeSync Monitor.
Ab 32/33 fps greift erst FreeSync und bin ich da echt mit Vega noch entfernt.
So 20-25% auf ein Fury X sollte möglich sein,- und da auch noch erst unter 30 fps bei diesem Game.
Wer hat dieses Game,- und kann mal gerne und bitte Testen.

iuno
2017-08-19, 15:15:02
Also gibt's die Vega nun doch wieder ohne die gamebundles. Doof gelaufen für AMD. Hätte man von Anfang an kommuniziert, dass das Ding zu teuer in der Herstellung ist, man aber ein super "never settle Vega bundle" dazupackt mit wieder 5-7 spielen für 100-150€ zum Start die auch Top sind, hätte wohl kaum jemand etwas gesagt.
Komisch. Mir ist eine Realitaet bekannt, wo es genau so verlaufen ist. Davon, dass "kaum jemand etwas gesagt hat" kann ueberhaupt nicht die Rede sein. :rolleyes:
Es hat halt nicht jeder so aufgefasst, auch von den Redakteuren nicht (oder nur nicht weitergegeben), aber die Info war da.
AMD sieht den eigenen Vorteil bei der Verwendung im Rahmend der Kryptowährungen durch die Open-Source-Software begründet.

Allerdings will man diesem Trend auch in gewisser Weise entgegenwirken, um Spielern zumindest die Chance zu geben, die aktuelle Hardware kaufen zu können. Zu diesem Zweck will man mit der Radeon RX Vega die Anzahl der Karten auf einen Kunden pro Kauf einschränken. Diese Maßnahme muss natürlich mit dem Online-Handel koordiniert werden.

Zudem bietet AMD zusammen mit der Radeon RX Vega einige Bundles an, in denen die Grafikkarten verkauft werden. Diese Radeon Packs bestehen aus der Grafikkarte selbst, zwei Spielecodes und auf Wunsch einem FreeSync-Monitor sowie einer Ryzen-CPU plus dazugehörigem Mainboard.
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/43969-amd-radeon-rx-vega-64-und-rx-vega-56-im-test.html?start=4

AMD hatte in der Vergangenheit betont, Vega über Bundles unattraktiver für Miner machen zu wollen.
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-preise-bundles-partnerkarten-ueberblick/


Mal als Teaser. Sehr spezifisches Szenario (stark CPU-limitiert); eher eine Engine und ein Lastszenario, mit dem AMD schon seit Jahren Probleme hat... – Und keine Sorge, in höheren Auflösungen sucken die Karten dann wieder ;)
Man koennte auch noch dazusagen, dass das Spiel eine Katastrophe und eine Zumutung ist, egal welches Herstellers Grafikkarte man besitzt. Aber gut, wenn die Leute fuer derartigen Muell ihr Geld ausgeben wollen, kommt man wohl nicht drum rum, sowas auch mal zu "testen".
Und wenn du schon mal dabei bist, waere es doch auch interessant zu schauen, was HBCC on/off im CPU Limit macht ;p

RoughNeck
2017-08-19, 15:33:18
Wie gut läuft Sniper Ghost Warrior 3 unter der VEGA Karte mit 4K
Auf meiner Fury bekomm ich nur 20 bis 24 fps unter 4K zusammen mit meinem FrreeSync Monitor.
Ab 32/33 fps greift erst FreeSync und bin ich da echt mit Vega noch entfernt.
So 20-25% auf ein Fury X sollte möglich sein,- und da auch noch erst unter 30 fps bei diesem Game.
Wer hat dieses Game,- und kann mal gerne und bitte Testen.

Sobald ich @ home bin kann ich es mal testen.
Du hast alles auf Anschlag und 4K richtig?

Digidi
2017-08-19, 15:51:35
Ich scheine anscheiden Pech mit der LE Vega64 gehabt zu haben. Ist die GPU eingebaut bekomme ich kein Output auf dem Monitor, Asus Code sagt D6 (No Console Output Device). Die Karte fährt voll hoch und der Lüft dreht auf Max - sieht so aus wie damals meine getötete 7950 ... :(

Dazu der Aufwand mit der Wakü ... ach Mensch. Das einzig positive ist das eine 390X raus ist und ich diese jetzt für die Bucht fertig mache.

Bei mir ist die Karte nun 2 mal gecrasht in Battelfield 1 hmmm...... Treiber oder auch Hardware? (Könnte auch der neue 1800x sein denn ich noch mit verbaut habe)

Zergra
2017-08-19, 15:57:53
Hatte ich auch schon 2x in Bf1, bin mir aber auch nicht sicher ob es an der CPU liegt oder am RAM oder an der gpu

dildo4u
2017-08-19, 16:01:46
Bei Ryzen müsst ihr mit dem Ram aufpassen ich musste jetzt schon öfter die Timing's lockern bis es stabil lief.Daher kommen vermutlich auch die Fehler beim Linux kompilieren.
Ein guter Win 10 Test ist der Ashes DX12 Benchmark der fliegt schnell ab wenn man nicht im totalen GPU Limit bencht.
Das ganze fällt fielen nicht auf weil sie in 1080p testen,ich teste extra in 720p damit die CPU maximalen Stress hat.(Kritische Games sind bei mir zusätzlich BF1 DX11 und The Division DX12)

Scheinbar hatte die FE schon den Finalen Gameingtreiber?

Vega 64 vs FE Witcher 3.

https://youtu.be/RNXGr-8jcnE

Zergra
2017-08-19, 16:10:28
Ja, habe auch 2 Stunden Sniper E 4 gespielt bei 99% GPU. Da ist nichts passiert. Die CPU lief dort bei 12-15% Auslastung.

Die Timings habe ich aber auch etwas gelockert, habe ein Bios Update gemacht und nur ein bisschen optimiert. Dazu noch die Spannung von CPU und RAM erhöht. Mal sehen wie sich das auswirkt.

Digidi
2017-08-19, 16:32:28
Ich hatte auch mal ein Totalaufall vom System einfach Schwarzer Bildschirm. Das war aber nachdem ich das Mobo gewächselt hatte. ich glaub ich setzte Windows noch mal neu auf

horn 12
2017-08-19, 18:41:47
Sobald ich @ home bin kann ich es mal testen.
Du hast alles auf Anschlag und 4K richtig?

Jupp 3840 x 2160
Alles auf SEHR HOCH
Frames bewegen sich von 19 bis 24 fps

Da müsste Vega schon mindestens 50% schneller sein um von FreeSync zu profitieren... Bin gespannt
Zudem viel höhere MIN Frames aufweisen können...

RoughNeck
2017-08-19, 20:34:17
Sniper Ghost Warrior 3
3840 x 2160
Sehr Hoch
16x AF im Treiber eingestellt.

Bin vom Versteck zur Bergbaustadt gefahren

Radeon VEGA 64
MIN FPS 26
AVG FPS 33
MAX FPS 36

1080 TI
MIN FPS 35
AVG FPS 42
MAX FPS 47

Das ganze ist hart an der Grenze und der Verbrauch ist irrwitzig hoch. Habe satte 480 - 510W, das sind 220W über meiner 1080 TI. Beide Karten Out of the Box, nichts optimiert.

Achill
2017-08-19, 21:50:27
Kenne das von meiner RX480.
Da hatte damals ein Bios-Reset vom Mainboard geholfen.

Ja war gleich das erste was ich versucht habe.

@Achill
Funkt die Karte nun oder echt im Eimer

Karte scheint im Eimer zu sein. Auch als sekundäre Karte wird diese nicht erkannt. Das MB zeigt den Slot - egal in welchen ich die Karte stecke - als nicht belegt an (ist aber fest eingerastet).Auch unter win & linux wird die Karte nicht als Device gelistet. Und das Update des Bios hat nichts geändert außer dass alle meine OC-Profile weg sind ... :D

Geht also am Montag zurück an MF ... trotzdem Danke für die Tips. Wird meine 390x noch etwas länger ihren Dienst verrichten müssen.

horn 12
2017-08-19, 22:05:52
@RoughNeck

Dies ist wenig, verdammt wenig!
Da greift ja kaum bis gar nicht FreeSync mit 26 fps Minimum.

Achill
2017-08-19, 22:19:56
@RoughNeck

Dies ist wenig, verdammt wenig!
Da greift ja kaum bis gar nicht FreeSync mit 26 fps Minimum.

Doch klar, mit angepasster Range oder Low Framerate Compensation (LFC).

RoughNeck
2017-08-19, 22:35:10
In dem Szenario wird die Karte einfach vom PT eingebremst.
Aktuell ist eher mau mit undervolting und der gleichen der Treiber ist einfach zu Buggy. Ich habe grad mit dem Tool "WattTool" die letzten beiden Power Stages bearbeitet (Volt gesenkt).
Habe mal aus dem Bauch raus 0,100 weniger eingestellt.

Jetzt sieht es so aus.

MIN FPS 28
AVG FPS 36
MAX FPS 41

Der Verbrauch ist auch etwa 60W gesunken. Besser wird es aktuell nicht.
Den Mining Treiber habe ich auch mal probiert, aber der ist komplett zum vergessen. Mit dem bekomme ich am DP kein Bild mehr, HDMI geht aber die Games neigen zum laggen.

3D Mark

1080 TI
https://abload.de/thumb/3dmark1080ti6jshp.jpg (http://abload.de/image.php?img=3dmark1080ti6jshp.jpg)

VEGA 64
https://abload.de/thumb/3dmarkvega64uzo5u.jpg (http://abload.de/image.php?img=3dmarkvega64uzo5u.jpg)

Opprobrium
2017-08-20, 11:52:34
Soweit bin ich eigentlich ganz zufrieden.

Linux:

Linux macht naturgemäß ein paar Problem (Opensuse Tumbleweed Installer läuft z.B. nur im Textmodus), das war bei Fiji damals nicht anders. Und die R9 Nano hatte ich mir erst ein halbes Jahr nach Release geholt...

Eventuell muss ich wegen der offiziellen Treiberunterstützung doch erstmal auf eine Ubuntu Distro wechseln.

Steam OS werde ich bei Gelegenheit mal ausprobieren, das ist mir aber dieses Wochenende zuviel Aufwand.

Windows:

Habe direkt von Anfang an das zweite Bios eingestellt und nutze eigentlich ausschließlich die Powersave Einstellung im Wattman.

Die Leistung ist spürbar besser als die der Nano. Werde jetzt keine großen Benchmark Marathons hinlegen (auch weil ich die einschlägigen Spiele größtenteils gar nicht besitze), aber der Hexer, bei dem ich mir die zweite Erweiterung noch aufgehoben hatte, läuft nun absolut flüssig. Bei der Nano musste ich auf Full HD runterskalieren, die VEGA läuft in WQHD mit maximalen Details und Hair Works (8x Tesselation eingestellt) top. Ist bis jetzt nur subjektiv, werde heute abend noch ein bißchen zocken und das ganze dann auch messen :)

Lautstärke ist in etwa gleich, also nicht hörbar im Idle, hörbar aber nicht unangenehm oder gar unerträglich unter Last. Mal gucken wann ich mich durchringen kann bei der wirklich schicken LE den Kühler zu tauschen (danke nochmal Zergra :smile:)


Allgemein bin ich bis jetzt ganz zufrieden, auch weil die Karte dank gut abgepasstem Nano Verkauf vor ein paar Wochen auf Höhe des Mining Hypes nicht sooo teuer war. Und schneller als die integrierte Grafik von meiner Intel CPU ist sie allemal :freak:

Die Treiber sind halt noch Beta-Treiber, Wattman setzt sich ab und an nach einem Neustart zurück, und alle hatten mehr erwartet. Aber hey, ich mag AMD, ich bin ziemlich sicher, dass da in den nächsten Monaten noch einiges an Performance dazukommt (ich glaube nicht wirklich an einen Wundertreiber, aber es kam doch die letzten Jahre immer wieder vor, dass man sich zumindest etwas gewundert hat wenn man die AMD GPUs nach einem Jahr oder mehr nocheinmal mit ihrem ursprünglichen Treiber verglichen hat), und außerdem macht es Spaß mit Prototypen zu spielen ;D

dargo
2017-08-20, 11:58:16
Lautstärke ist in etwa gleich, also nicht hörbar im Idle, hörbar aber nicht unangenehm oder gar unerträglich unter Last. Mal gucken wann ich mich durchringen kann bei der wirklich schicken LE den Kühler zu tauschen (danke nochmal Zergra :smile:)

Wie hoch (RPM) dreht der Lüfter bei dir in Witcher 3? Würde mich interessieren da du das Bios 2 mit Powersave verwendest. Die Taktraten dabei zu erfahren wäre auch nett. :)

horn 12
2017-08-20, 12:00:09
@RoughNeck

Welche Vega hast nochnmals?
Liquid oder die Black, oder gar die Limited Edition...

PS:
Wie gut läuft nun Sniper Ghost Warrior 3 und spürbar langsamer als mit GTX 1080TI (Gefühlt nicht zwecks der Frameraten)

Opprobrium
2017-08-20, 12:03:50
Wie hoch (RPM) dreht der Lüfter bei dir in Witcher 3? Würde mich interessieren da du das Bios 2 mit Powersave verwendest. Die Taktraten dabei zu erfahren wäre auch nett. :)

Wie gesagt, bisher nur kurzer, subjektiver Eindruck. Heute abend werd ich nach dreimonatiger Pause endlich Blood & Wine anfangen, davor installiere ich dann denn neuesten Afterburner mit RivaStatisticsServer und messe das ganze durch. Hab die letzten Wochen wie gesagt nur die integrierte Grafik genutzt, da braucht man keinen Afterburner :cool:

Dino-Fossil
2017-08-20, 12:10:11
Mit Afterburner wäre ich noch vorsichtig, der macht mit neuer Hardware+neuen Treibern gerne mal Probleme.

Opprobrium
2017-08-20, 12:22:13
Mit Afterburner wäre ich noch vorsichtig, der macht mit neuer Hardware+neuen Treibern gerne mal Probleme.
Geht mir vornehmlich um den Rivatuner Statistics Server :smile:

RoughNeck
2017-08-20, 12:31:12
@RoughNeck

Welche Vega hast nochnmals?
Liquid oder die Black, oder gar die Limited Edition...

PS:
Wie gut läuft nun Sniper Ghost Warrior 3 und spürbar langsamer als mit GTX 1080TI (Gefühlt nicht zwecks der Frameraten)

Vega 64 LC.
Na ja, spürbar schlechter würde ich jetzt nicht sagen. Beim zoomen mit dem Gewehr merke ich es dass es kurz ruckt. Die Karte ist neu und der Treiber wie gesagt ein Witz, einfach abwarten bis die Custom Karten, dann kommt sicher ein neuer Treiber.

horn 12
2017-08-20, 12:40:00
Ok, Karte ist bestellt und sollte morgen beim Shop ankommen, da Italien alles geschlossen hat zwecks Ferragosto eben.
Sapphire hält sich als Mutter von AMD komplett bedeckt, sickert bis morgen Abends was durch kann ich noch umsatteln... Ansonsten wird´s die Limited Edition.
Zudem die Custom erst wohl Mitte bis Ende September verfügbar sein werden.
AMD will wohl zuerst etwas vom Kuchen abbekommen.

eratte
2017-08-20, 16:44:31
Sapphire ist nicht die "Mutter" von AMD.

MadManniMan
2017-08-20, 17:05:56
Wann geht es eigentlich mit 3DCenter-Artikeln zu Vega weiter? Ich war ne Woche im Urlaub und hatte zumindest die Bench-Vorschau erwartet ;)

=Floi=
2017-08-20, 17:08:33
Ok, Karte ist bestellt und sollte morgen beim Shop ankommen,

Dann kannst dich wenigstens selbst vor der top hardware überzeugen.
Bei dir ist wohl eh alles für die wand. hättest dir gleich ne 1080ti gekauft könntest auch sniper 3 super spielen.
Deine nano war ja auch ein super langzeitkauf.

dargo
2017-08-20, 17:27:55
Deine nano war ja auch ein super langzeitkauf.
Länger als vieles aus dem grünen Lager wenn ich das Forum so überblicke. :ulol:

24p
2017-08-20, 17:44:07
Logisch, wenn von AMD über Jahre hinweg kaum schnelleres auf den Markt kommt.

BlacKi
2017-08-20, 17:48:51
Wann geht es eigentlich mit 3DCenter-Artikeln zu Vega weiter? Ich war ne Woche im Urlaub und hatte zumindest die Bench-Vorschau erwartet ;)
die frage habe ich mir auch gestellt, vl wartet man auf den wundertreiber.

Rancor
2017-08-20, 17:56:18
Ich warte auch auf customs und den "Wundertreiber". Ich plane die Anschaffung eines Adaptive Sync Monitors und da muss man sich ja quasi auf einen IHV festelgen. Würde ich mir jetzt nen G-Sync Monitor holen und Vega liefert dann in 4 Wochen doch noch ab, wäre das schon ärgerlich.

=Floi=
2017-08-20, 18:06:44
Länger als vieles aus dem grünen Lager wenn ich das Forum so überblicke. :ulol:

er hat die karte im feb/märz (2017!) für ~250€ im ausverkauf gekauft und da hochgelobt. an sich sollte sie für ihn ja reichen und der umstieg auf die 600€ vega ist eher der p/l supergau und unnötig. Auf das wollte ich hinaus.


-Treiber
-langzeitperformance unabsehbar
-keine custom
-600€ und damit ein schlechteres p/l als NV (das hätte vor 2 monaten auch keiner geglaubt!)
-luftkühlung bei der karte
-umsteig von der nano
-bei sniper 3 hat die 1080ti spielbare fps und er bestellt dann ne vega :ugly:

dargo
2017-08-20, 18:08:44
er hat die karte im feb/märz (2017!) für ~250€ im ausverkauf gekauft und da hochgelobt.
Achso... na dann kann er sie ja noch mit Gewinn verkaufen. Passt doch. :D

btw.
Was soll er mit der GTX1080 TI bei einem Freesync Birdschirm? Wieder ruckelnde Games zocken?

RoughNeck
2017-08-20, 18:09:22
@Rancor

Glaubst du das wirklich?
Ja, Vega wird aufholen aber eine 1080 TI bleibt eine 1080 TI, da kommt Vega 64 nicht ran. Ja die Karte hat Potenzial aber das was ich aktuell sehe und wie die Leistung zum Verbrauch steht.
AMD hat da einen langen Weg vor sich. Ich denke selbst beim Fury Launch waren die AMD Treiber ausgereifter als jetzt.
Aber gut, ich habe wusste worauf ich mich einlasse beim Kauf.

Hübie
2017-08-20, 18:30:03
Länger als vieles aus dem grünen Lager wenn ich das Forum so überblicke. :ulol:

Ja sehr repräsentativ. :rolleyes: Wenn du dir die deutlich repräsentative Statistik von Steam ansiehst stellst du fest, dass Kepler, Maxwell und Pascal sehr ausgewogen vertreten sind.

B2t: Ich suche ein Review das sich bei der Liquid mal dem secondary BIOS in den drei States widmet. Ich kann mir nämlich nur schwer vorstellen, dass die Liquid weniger effizient sein soll, wenn man sie einbremst - ohne sinnloses Powertarget. Wandler werden bei Hitze doch auch exponentiell ineffizienter...

Rancor
2017-08-20, 19:06:50
@Rancor

Glaubst du das wirklich?
Ja, Vega wird aufholen aber eine 1080 TI bleibt eine 1080 TI, da kommt Vega 64 nicht ran. Ja die Karte hat Potenzial aber das was ich aktuell sehe und wie die Leistung zum Verbrauch steht.
AMD hat da einen langen Weg vor sich. Ich denke selbst beim Fury Launch waren die AMD Treiber ausgereifter als jetzt.
Aber gut, ich habe wusste worauf ich mich einlasse beim Kauf.

Ehh ich rede doch net davon das VEGA die 1080tI erreicht. Aber Vega 64 zwischen 1080 und TI für 500€ wäre nice :)

Rancor
2017-08-20, 19:32:48
Sry Doppenpost

Erbsenkönig
2017-08-20, 22:33:45
Zu AMD und den Preisen:

https://youtu.be/evaBde4MKDQ

unl34shed
2017-08-20, 22:57:27
Man könnte glatt meinen, das wäre denen ihr erster Graka Launch...

Lässt mich immer mehr an der "Fachpresse" oder den "Fach-Youtubern" zweifeln. Was da grade abgeht... ohne Worte ...


Die gießen ihre Blumen bestimmt auch schon mit Red Bull Äh Gatorade


E: Und bezüglich Linus am 30.7. hat er das Video gepostet
https://www.youtube.com/watch?v=XcpZ0305-wY&feature=youtu.be&t=189
3:25 Bacause at launch, ..., It's likely that the only way you'll be able to buy a Vega64 is with a bundle

Schaffe89
2017-08-21, 06:25:54
Würde ich mir jetzt nen G-Sync Monitor holen und Vega liefert dann in 4 Wochen doch noch ab, wäre das schon ärgerlich.

Wenn AMD es seit Dezember 2016 nicht geschafft hat bessere Treiber zu liefern, dann werden sie es auch nicht bis Dezember 2017 schaffen.
Außerdem müssen sie erstmal den 10% Rückkstand auf die GTX 1080 einholen, bevor man dann auf eine GTX 1080 Ti aufholt.:rolleyes:

mjs
2017-08-21, 07:01:02
Habe gestern meine Xfx Vega 64 erhalten.
Eine schöne Karte, sieht sehr wertig aus. Ist zudem meine erste Radeon seit Ewigkeiten, da sieht man erst, wie altbacken das Nvidia Control Panel ist.

Betreibe die Karte im BIOS2 und Powersave Modus, da mache ich mir bei meinem BeQuite 580W Netzteil noch keine Sorgen (alte Evga GTX980 ist leider verstorben).

Loeschzwerg
2017-08-21, 07:55:26
Meine Limited ist immer noch auf Status "bestellt" :frown:

dargo
2017-08-21, 08:58:20
Habe gestern meine Xfx Vega 64 erhalten.
Eine schöne Karte, sieht sehr wertig aus. Ist zudem meine erste Radeon seit Ewigkeiten, da sieht man erst, wie altbacken das Nvidia Control Panel ist.

Betreibe die Karte im BIOS2 und Powersave Modus, da mache ich mir bei meinem BeQuite 580W Netzteil noch keine Sorgen (alte Evga GTX980 ist leider verstorben).
Glückwunsch.

Auch an dich die Bitte... könntest du paar Games zocken und sagen wie schnell der Lüfter im GPU-Limit dreht? Sowie bei welcher Temp.?

Hübie
2017-08-21, 09:26:11
Habe gestern meine Xfx Vega 64 erhalten.
Eine schöne Karte, sieht sehr wertig aus. Ist zudem meine erste Radeon seit Ewigkeiten, da sieht man erst, wie altbacken das Nvidia Control Panel ist.

Ja das dachte ich auch. Das CP von NV fühlt sich so 1999 an, während die Radeon Settings schnell von der Hand gehen und vor allem, dass finde ich viel wichtiger, intuitiver zu bedienen sind. :up: Hast du die Liquid oder die Air?

Betreibe die Karte im BIOS2 und Powersave Modus, da mache ich mir bei meinem BeQuite 580W Netzteil noch keine Sorgen (alte Evga GTX980 ist leider verstorben).

Ich denke da musst du dir selbst im balanced oder gar turbo mode vom primary keine Sorgen machen. ;)

Flusher
2017-08-21, 09:44:15
Achso... na dann kann er sie ja noch mit Gewinn verkaufen. Passt doch. :D

btw.
Was soll er mit der GTX1080 TI bei einem Freesync Birdschirm? Wieder ruckelnde Games zocken?

/OT
Eine Ti hat genug Power um mit schlichtem VSync zu spielen ;D

AstraGSi
2017-08-21, 09:45:42
Hat schon jemand irgendwo Benchmarks von WoW mit Vega gesehen?

dargo
2017-08-21, 10:17:06
/OT
Eine Ti hat genug Power um mit schlichtem VSync zu spielen ;D
Ja, für 30Hz wirds reichen. :ulol:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11465919&postcount=1280

y33H@
2017-08-21, 10:17:48
Nope ... ist WoW nicht eh wie gehabt CPU-limitiert?

Hübie
2017-08-21, 10:18:19
Als ob man wieder V-Sync will wenn man erst mal Async hatte... Aber die 220 Watt Differenz sind nicht zu verachten. :eek:

BlacKi
2017-08-21, 10:48:01
Nope ... ist WoW nicht eh wie gehabt CPU-limitiert?
eben gerade deswegen, der grafiktreiber und wie blaidd schon gespoilert hatte vl auch die HW haben auswirkungen wie die performance im cpu limit ist.

und wenn das ein feature der neuen vega karten ist, dann sollte das auch beleuchtet werden.

AstraGSi
2017-08-21, 11:09:39
Die PCGH hat zum WoW Legion Release einen Artikel gebracht. Auffällig war dort halt auch die schlechte Performance der AMD Karten im Vergleich zu Nvidia. Würde mich interessieren ob das mit Vega immer noch so ist.

http://www.pcgameshardware.de/World-of-Warcraft-Legion-Spiel-55966/Specials/Legion-Test-Benchmarks-1204205/

Rancor
2017-08-21, 11:43:51
Die PCGH hat zum WoW Legion Release einen Artikel gebracht. Auffällig war dort halt auch die schlechte Performance der AMD Karten im Vergleich zu Nvidia. Würde mich interessieren ob das mit Vega immer noch so ist.

http://www.pcgameshardware.de/World-of-Warcraft-Legion-Spiel-55966/Specials/Legion-Test-Benchmarks-1204205/

Oha das ist natürlich bitter. Gerade bei einem Spiel mit Millionen Kunden. AMD muss da wirklich dringend was an ihren DX 11 Treiber tun und wenn es nur punktuelle Optimierungen für beliebte Spiele sind. Alleine PUBG und WOW dürften mehr als 10 Mio Nutzer haben.

Das sieht ja wirklich katastrophal für AMD aus. Ne Fury X ist langsamer als ne GTX 1060 Oo.....

yamamoto_dc
2017-08-21, 12:13:49
Oha das ist natürlich bitter. Gerade bei einem Spiel mit Millionen Kunden. AMD muss da wirklich dringend was an ihren DX 11 Treiber tun und wenn es nur punktuelle Optimierungen für beliebte Spiele sind. Alleine PUBG und WOW dürften mehr als 10 Mio Nutzer haben.

Das sieht ja wirklich katastrophal für AMD aus. Ne Fury X ist langsamer als ne GTX 1060 Oo.....

Ist doch vollkommen wurscht, solange du locker über 60FPS hast. Das einzige Argument wäre der Stromverbrauch, WoW Spieler sollen ja lange vor dem Monitor hängen...:biggrin:

herp_derp
2017-08-21, 12:26:46
@JayzTwoCents

I've been thinking about this @AMD Vega price increase and the position they put us reviewers in... I no longer recommend Radeon.

They never once mentioned a "coupon" and they clearly chose a deceptive marketing strategy with regards to reviewers.

For this very reason, I will no longer accept any RADEON product for review and will purchase my review samples for their graphics reviews


https://twitter.com/JayzTwoCents/status/899321072960512000


Ich frage mich wann bei AMD die Köpfe zu rollen beginnen

Erbsenkönig
2017-08-21, 12:32:02
https://twitter.com/JayzTwoCents/status/899321072960512000


Ich frage mich wann bei AMD die Köpfe zu rollen beginnen

AMD handhabt das Ganze schon bemerkenswert schlecht. Dass sie da nicht gleich versuchen, dem Eindruck der Kunden-Verarsche vorzubeugen, spricht entweder für eine komplett unfähige PR-Abteilung, oder aber dafür, dass man es genauso geplant hatte und dachte, damit durchkommen zu können.

AstraGSi
2017-08-21, 12:34:02
Ist doch vollkommen wurscht, solange du locker über 60FPS hast. Das einzige Argument wäre der Stromverbrauch, WoW Spieler sollen ja lange vor dem Monitor hängen...:biggrin:

Mag sein, nur bringt Vega über 60FPS :freak:? Zock in WQHD.

Wie man in dem Test sieht schaffte, ab 2560x1440, keine der AMD Karten "locker" über 60 FPS - auch die Fury X krebst nur gerade so bei ~54 bis 60,5 rum.

dildo4u
2017-08-21, 12:37:46
AMD handhabt das Ganze schon bemerkenswert schlecht. Dass sie da nicht gleich versuchen, dem Eindruck der Kunden-Verarsche vorzubeugen, spricht entweder für eine komplett unfähige PR-Abteilung, oder aber dafür, dass man es genauso geplant hatte und dachte, damit durchkommen zu können.
Die Karten sind viel zu teuer in der Herstellung als das man sie für unter 500€ verkaufen könnte,nur konnte AMD Vega nicht noch weiter verschieben bis die Yield's deutlich besser werden.
Im Prinzip wäre die 56 bei Nvidia so als wenn sie die 1080 Ti für 400€ verkaufen müssten.(Beides sind beschnittene große Chips)

Opprobrium
2017-08-21, 12:50:51
Wie hoch (RPM) dreht der Lüfter bei dir in Witcher 3? Würde mich interessieren da du das Bios 2 mit Powersave verwendest. Die Taktraten dabei zu erfahren wäre auch nett. :)

Der Lüfter läuft mit max. 2400, je nach Szenario. Durchschnitt sind aber 2080

Taktrate schwankt, Durchschnitt liegt bei ~1200. Das liegt aber vermutlich auch daran, dass ich die Framerate auf 60 limitiert habe und die Karte zwischendrin auch mal ausruhen kann. Werde das nochmal ohne Limit und ohne VSync testen.

Erbsenkönig
2017-08-21, 12:50:55
Die Karten sind viel zu teuer in der Herstellung als das man sie für unter 500€ verkaufen könnte,nur konnte AMD Vega nicht noch weiter verschieben bis die Yield's deutlich besser werden.
Im Prinzip wäre die 56 bei Nvidia so als wenn sie die 1080 Ti für 400€ verkaufen müssten.(Beides sind beschnittene große Chips)

Dann muss man das aber von Anfang an so kommunizieren. So wurde der Kundschaft und den Testern vorgegaukelt, die Karten seien für 400 € bzw. 500 € zu haben. Sich jetzt auf irgendwelche Lager-Probleme rauszureden ist lächerlich, denn es sind ja dieselben Karten, die verkauft werden, nur werden einem jetzt zwei Spiele für nen 100er aufgedrängt, die man sich selber für 50 € oder weniger besorgen könnte.

Ich vermute ja, dass man nach einem Weg gesucht hat, die Karte teurer zu verkaufen und sich nun diesen Unsinn mit den Spielen ausgedacht hat. Die werden zudem auch selber wissen, dass sich fast niemand diese großen Pakete gönnen wird, wenn die Produkte einzeln billiger zu bekommen sind.

Bucklew
2017-08-21, 13:30:29
AMD handhabt das Ganze schon bemerkenswert schlecht. Dass sie da nicht gleich versuchen, dem Eindruck der Kunden-Verarsche vorzubeugen, spricht entweder für eine komplett unfähige PR-Abteilung, oder aber dafür, dass man es genauso geplant hatte und dachte, damit durchkommen zu können.
Seien wir doch ehrlich: Eine logische Konsequenz unseres (Kunden + Journalisten) Verhalten, bei AMD einfach alles durchgehen zu lassen, egal wie plump die Lüge auch war. Sei es "overclocker's dream" bei Fury, die sich einfach nur mies übertakten lies. Sei es die falschen Behauptungen bezüglich der Energieeffizienz bei Polaris. Und nun eben Vega mit falschen Preisangaben, Reviews innerhalb von 48h und das vorziehen der 56 von zwei Wochen.

Warum sollte AMD da ehrlich sein?

Die gleichen Leute übrigens, die dieses Verhalten gleich schön reden werden, motzen seit 10 Jahren darüber, dass NVIDIA irgendwann mal in einer Präsentation (!) eine funktionsunfähige Karte hochgehalten haben. Echt schlimm sowas! :freak:

Cyphermaster
2017-08-21, 13:43:19
Dann muss man das aber von Anfang an so kommunizieren. So wurde der Kundschaft und den Testern vorgegaukelt, die Karten seien für 400 € bzw. 500 € zu haben.Ach komm. Du bist doch nicht so naiv, daß du nicht auch andere "Sonderangebote", "Special Edition"s usw. nicht kennen und entsprechend werten könntest. Solche Aktionen sind nicht unüblich, neu oder sonst was.

Was an Intention/Gründen dahinter stecken mag, ist spekulativ.

Fragman
2017-08-21, 13:58:34
Die Karten sind viel zu teuer in der Herstellung als das man sie für unter 500€ verkaufen könnte,nur konnte AMD Vega nicht noch weiter verschieben bis die Yield's deutlich besser werden.


ist das bestaetigt oder nur eine annahme deinerseits?

G3cko
2017-08-21, 14:00:59
Naja, das schlimmste bei AMD war bisher der overclockersdream.
Da OC weder garantiert und weder ein Produktfeature ist, zudem die Garantie normalweise ausschließt. Ziemlich lächerliches Argument.
Zumal man ja auch kaum etwas sagen kann. Fiji hielt auch lange Zeit den Weltrekord in Sachen speicherbandbreite dank HBM. Und was ist den ein Overclockersdream per Definition?
- ein Pentium 4 @ Stickstoff mit 8GHz. Rekord über Jahre hinweg.
- DevilsCanyon, nicht mal 10% OC ohne köpfen über Turbo dafür höchste singlethread performance
- Q6600 mit 60% OC dank wakü. Weder höchster Takt dafür ernorme Mehrleistung über Stock.

Klar aktuell schießt AMD den Vogel ab, aber bisher war doch alles harmlos im Vergleich zu nvidia wo die Spitze des eisbergs nur ein dummy aus Holz war.

dildo4u
2017-08-21, 14:01:43
ist das bestaetigt oder nur eine annahme deinerseits?
Die Karte kommt 15 Monate nach ihrem Nvidia Gegner kein Plan was sonst der Grund sein soll.

Erbsenkönig
2017-08-21, 14:05:34
Ach komm. Du bist doch nicht so naiv, daß du nicht auch andere "Sonderangebote", "Special Edition"s usw. nicht kennen und entsprechend werten könntest. Solche Aktionen sind nicht unüblich, neu oder sonst was.

Was an Intention/Gründen dahinter stecken mag, ist spekulativ.

Natürlich. Aber hier wurden die Karten ja zu einem geringeren Preis beworben. Vor dem Launch war nie davon die Rede, dass man nur ein paar Karten zum versprochenen Preis erhalten könne und dann für irgendwelche Müll-Bundles kräftig draufzahlen solle. Und darum geht es.

pilzsammler2002
2017-08-21, 14:10:35
Natürlich. Aber hier wurden die Karten ja zu einem geringeren Preis beworben. Vor dem Launch war nie davon die Rede, dass man nur ein paar Karten zum versprochenen Preis erhalten könne und dann für irgendwelche Müll-Bundles kräftig draufzahlen solle. Und darum geht es.

War die letzte Aussage nicht das man derzeitig daran "arbeitet" wieder vermehrt Karten (single Karten ohne Bundle) an die Händler zu schicken? :freak:

Ich habe den Aufschrei diesbezüglich eh nicht verstanden... Für mich kommt es halt so vor als wenn die Händler gerne das Geld mitnehmen aber dann dubiose Aussagen tätigen damit AMD als "buhman" dasteht...

Erbsenkönig
2017-08-21, 14:19:33
War die letzte Aussage nicht das man derzeitig daran "arbeitet" wieder vermehrt Karten (single Karten ohne Bundle) an die Händler zu schicken? :freak:

Radeon RX Vega 64 demand continues to exceed expectations. AMD is working closely with its partners to address this demand. Our initial launch quantities included standalone Radeon RX Vega 64 at SEP of $499, Radeon RX Vega 64 Black Packs at SEP of $599, and Radeon RX Vega 64 Aqua Packs at SEP of $699. We are working with our partners to restock all SKUs of Radeon RX Vega 64 including the standalone cards and Gamer Packs over the next few weeks, and you should expect quantities of Vega to start arriving in the coming days.

Ich hab das auch erst so aufgefasst, dass es bald wieder billigere Karten geben wird, aber mittlerweile halte ich das für viel PR-Geblubber. Man schiebt es auf mangelnde Verfügbarkeit - MF hat aber alles seit Tagen lagernd. Wenn man wollte, könnte man die Karten alle billiger verkaufen, denn die Spiele waren ja dem Vernehmen nach auch schon bei den billigeren Karten mit dabei. Irgendeiner in der Ketter (oder auch alle) langt zu und jetzt will es keiner gewesen sein.

Wenn man genau liest, sieht man ja auch, dass AMD nicht explizit sagt, dass die Karten zum angekündigten Preis angeboten werden, sondern nur ankündigt, für deren Verfügbarkeit zu sorgen.

Ich habe den Aufschrei diesbezüglich eh nicht verstanden... Für mich kommt es halt so vor als wenn die Händler gerne das Geld mitnehmen aber dann dubiose Aussagen tätigen damit AMD als "buhman" dasteht...

Bei der ganzen Sache geht es ja insb. darum, dass AMD laut OCUK für die billigeren Karten extra eingeschritten ist, um den Verkäufern dieselbe Gewinnmarge zu garantieren, es aber wohl von Anfang an klar, dass sie dies nur für eine Handvoll Karten machen würden. Und davon wusste eben niemand.

Blediator16
2017-08-21, 14:27:08
https://twitter.com/JayzTwoCents/status/899321072960512000


Ich frage mich wann bei AMD die Köpfe zu rollen beginnen

Hör mich auf dem dem Typen. Die eindeutige 3,5gb Sache hat er Nvidia sofort verziehen und glaubte nicht einmal, dass das Absicht war und hier will er direkt komplett AMD Boykottieren inkl. seinem TR Build. Der Typ hat einen an der Klatsche.

Lächerlicher gehts kaum. Im Vergleich zu Intel ist AMD ein Schäfchen, was solche Dinge angeht. Die Mrd. an Schmiergelder, die da an OEMs flossen gleicht AMD in einem Jahrhundert in ihrer Situation nicht aus geschweige denn vom aktuellen Intel Launch rund um die neue Plattform.

N0Thing
2017-08-21, 14:30:34
Ich weiß nicht, ob das offiziell von AMD gekommen ist, oder aus zweiter Reihe, aber es wurde doch vor dem Launch bekannt, daß es diese Packs geben wird, damit das Vega Aufgebot zum Start für die Miner nicht so interessant ausfällt, Spieler aber die Gelegenheit bekommen, die Karten zu kaufen.
Wenn das die Intention war, hat es im Prinzip funktioniert. In der Praxis kaufen sich die Gamer aber die Vega Pakete auch nicht, weil die einfach als überteuert wahrgenommen werden.

Wird interessant zu sehen, ob nach den ersten Frachtlieferungen per Schiff auch die Anzahl der reinen Karten deutlich steigt, oder ob AMD an den unerwünschten Paketen festhält.

Screemer
2017-08-21, 14:34:04
Jay ist einfach eine flachpfeife vor dem Herrn. Ich sag nur aiw mit Luft zwischen die und kühler... Das ist noch nicht lang her. Warum Linus ihn überhaupt eingeladen hat fur die letzte San show ist mir ein absolutes Rätsel.

Blediator16
2017-08-21, 14:36:18
Jay ist einfach ein idiot vor dem Herrn. Ich sag nur aiw mit Luft zwischen die und kühler... Das ist noch nicht lang her. Warum Linus ihn überhaupt eingeladen hat fur die letzte San show ist mir ein absolutes Rätsel.

Die heulen doch zusammen in dem Video darüber, dass sie quasi als PR Tools missbraucht werden. Vielleicht ist das bis zu denen noch nicht durchgedrungen, aber das haben sie sich selbst eingebrockt. Wer Geld mit den Herstellern verdienen will, muss dafür werben. Das ist bei jedem Day1 Release so. Ob Youtuber oder Fachzeitungen und Redaktionen einen Teil PR machen sie sowieso mit.

https://www.youtube.com/watch?v=evaBde4MKDQ

dargo
2017-08-21, 14:44:13
Der Lüfter läuft mit max. 2400, je nach Szenario. Durchschnitt sind aber 2080

Taktrate schwankt, Durchschnitt liegt bei ~1200. Das liegt aber vermutlich auch daran, dass ich die Framerate auf 60 limitiert habe und die Karte zwischendrin auch mal ausruhen kann. Werde das nochmal ohne Limit und ohne VSync testen.
Danke... wichtig dabei, die GPU-Temp. nicht vergessen.

Cyphermaster
2017-08-21, 15:18:58
Natürlich. Aber hier wurden die Karten ja zu einem geringeren Preis beworben. Vor dem Launch war nie davon die Rede, dass man nur ein paar Karten zum versprochenen Preis erhalten könne und dann für irgendwelche Müll-Bundles kräftig draufzahlen solle. Und darum geht es.Dann dürftest du ja auch total überrascht worden sein, daß es nach der "Founders Edition" von nVidia plötzlich Custom Editions von Boardpartnern gegeben hat. :rolleyes:

Preise sind im Geschäftsleben immer freibleibend. Da könntest du dich genauso gut beschweren, wenn du eine Karte gekauft hast, daß AMD nicht seine Preissenkungen für die nächsten 1-2 Jahre vorab festgelegt kommuniziert, weil damit "nie die Rede von Preisveränderungen" war, du also eigentlich zuviel gezahlt hast...
Sowas ist oft für den Käufer nicht toll (und in Sachen PR nicht unbedingt optimal), aber halt nun mal Alltag, nicht nur bei Grafikkarten.

Wenn das aber sonst keinen Zusammenhang mit Vega bzgl. Review hat, denke ich, kann man diese Nebendiskussion langsam auch wieder einstellen.

N0Thing
2017-08-21, 15:25:09
Dann dürftest du ja auch total überrascht worden sein, daß es nach der "Founders Edition" von nVidia plötzlich Custom Editions von Boardpartnern gegeben hat. :rolleyes:

War das nicht schon vorher bekannt? Und mir wäre es neu, daß die Founders Edition zum Release nur in nochmals deutlich teureren Varianten erhältlich war.

Isen
2017-08-21, 15:44:50
Am Release wurde das so gesagt ja, 100€ teurer die FEs....

Erbsenkönig
2017-08-21, 15:48:35
Preise sind im Geschäftsleben immer freibleibend. Da könntest du dich genauso gut beschweren, wenn du eine Karte gekauft hast, daß AMD nicht seine Preissenkungen für die nächsten 1-2 Jahre vorab festgelegt kommuniziert, weil damit "nie die Rede von Preisveränderungen" war, du also eigentlich zuviel gezahlt hast...
Sowas ist oft für den Käufer nicht toll (und in Sachen PR nicht unbedingt optimal), aber halt nun mal Alltag, nicht nur bei Grafikkarten.

Das geht doch an der Problematik vorbei. Es geht hier eben nicht um "Preise in der Preisfindung", sondern darum, dass die Karten für Preise beworben wurden, die man wohl nie ausrufen wollte. AMD sagt doch selber, dass die $500 nur für ein paar Karten gab und das wars.

Wenn das aber sonst keinen Zusammenhang mit Vega bzgl. Review hat, denke ich, kann man diese Nebendiskussion langsam auch wieder einstellen.

Natürlich steht es im Zusammenhang mit den Reviews, denn die beziehen sich in aller Regel auf einen Preispunkt, der - wenn man OCUK glauben darf - nie dauerhaft eingehalten werden sollte. Gerade darum geht es doch.

Troyan
2017-08-21, 15:51:35
Das hat nVidia über die GTX1080 geschrieben:
The NVIDIA GeForce GTX 1080 "Founders Edition" will be available on May 27 for $699. It will be available from ASUS, Colorful, EVGA, Gainward, Galaxy, Gigabyte, Innovision 3D, MSI, NVIDIA. Palit, PNY and Zotac. Custom boards from partners will vary by region and pricing is expected to start at $599.
http://nvidianews.nvidia.com/news/a-quantum-leap-in-gaming:-nvidia-introduces-geforce-gtx-1080

Und das schrieb AMD über die RX Vega:

For gamers who already have an enthusiast-class PC and monitor and are looking to up-level their graphics capabilities with groundbreaking technology, Radeon RX Vega 64 air-cooled cards are available today priced at $499 USD SEP.[...]
http://www.amd.com/en-us/press-releases/Pages/rx-vega-available-2017aug14.aspx

VooDoo7mx
2017-08-21, 15:57:22
Dann dürftest du ja auch total überrascht worden sein, daß es nach der "Founders Edition" von nVidia plötzlich Custom Editions von Boardpartnern gegeben hat. :rolleyes:

bei nVidia war es so:

https://blogs.nvidia.com/wp-content/uploads/2016/05/7launch-price.jpg

Und genau wie es kommuniziert wurde, so war es auch. Ganz im Gegensatz zu AMD.
Ich weiß, nVidia ist böse. Verdammt böse.

Matrix316
2017-08-21, 16:04:07
Wobei das damals auch ziemlicher Schwachsinn war, dass die Founders Edition mit billig Kühler teurer sein soll als die Custom Boards.

Am besten die machen garkeine Referenzkarten mehr, sondern geben gleich alles in die Hand der eigentlichen Grafikkartenfirmen. Die Specs der Vega sind doch so lange schon bekannt, da hätte man schon ewig die Custom Kühler vorbereiten können. Wenns dann auch noch NDAs für Custom Karten gibt... wtf???

Opprobrium
2017-08-21, 16:04:33
Ist schon irgendwo frech. Bei Anandtech stand ja, dass das mit den Bundles eventuell ein gezielt gegen Miner gerichteter Plan war seitens AMD. Allerdings interessieren die sich nicht allzusehr für Vega wie es aussieht, zumindest wenn da in den nächsten Wochen nicht noch einiges an Leistung rausoptimiert werden sollte.

Man wird halt sehen müssen, wie die Preise der Custom Karten ausfallen. Wenn es die auch nur als Bundle gibt ist Kritik durchaus angebracht, wenn die aber um die 500€ schweben sollten (vermutlich etwas mehr für bessere Designs), dann ist es doch OK.

Und die Händler verlangen eh, was sie kriegen können.

RoughNeck
2017-08-21, 16:04:49
Ach kommt Leute.
Jeder Hersteller lügt wenn es ihm einen Vorteil bringt, AMD ist halt nur sehr sehr schlecht darin. Jetzt hat man mal Nvidia Preise und das Geheule geht los. Wem das Teil zu teuer, der braucht nicht kaufen, niemand zwingt euch.

Screemer
2017-08-21, 16:05:06
was ist denn anders. es gibt ein kontigent für bundles und eines ohne. das ohne ist weg das andere nicht. die preise für beide standen auch vorher fest. was jetzt mit customs wird ist noch gar nicht klar. da machen die hersteller wiederum eigene preise. das die händler zu dem preis verkaufen den die kunden bezahlen ist doch jetzt auch nichts weltbewegend neues, oder?

Troyan
2017-08-21, 16:06:25
Es gibt keine 509€ Karte. Es gab diese Karte nie "offiziell". Es gab nur für 10 Stück ein von AMD durchgeführtes Rabattangebot an die Händler.

Wobei das damals auch ziemlicher Schwachsinn war, dass die Founders Edition mit billig Kühler teurer sein soll als die Custom Boards.

Am besten die machen garkeine Referenzkarten mehr, sondern geben gleich alles in die Hand der eigentlichen Grafikkartenfirmen. Die Specs der Vega sind doch so lange schon bekannt, da hätte man schon ewig die Custom Kühler vorbereiten können. Wenns dann auch noch NDAs für Custom Karten gibt... wtf???


Die FE sollte gewährleisten, dass du auch nach Monaten noch das Referenzdesign kaufen kannst.
Schau dir die GTX1080TI. Dort gibt es das Referenzdesign nicht mehr, sondern nur einen "Billigabklatsch". Einzig über nVidia.de lässt es sich noch bestellen.

Flusher
2017-08-21, 16:13:59
Ja, für 30Hz wirds reichen. :ulol:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11465919&postcount=1280

Eigentlich will ich mich in die Diskussion ziehen lassen, aber in dem Fall hast du dich mit deiner eigenen Quelle geschlagen. Vega 64 ist gar so lahm, dass sie aus dem Freesync Berreich der meisten aller Monitore fällt.

Um genau zu sein, gibt es sogar nur einen einzigen Monitor der bis runter auf 24 Hz geht und das ist ein? Genau ein G-Sync Monitor :freak:

Nazar
2017-08-21, 16:57:05
So, mal etwas bezogen auf die GK selber (eventuell sollte man die "Betrugsdebatte" sehr schnell in einen anderen Thread verlinken?).
Derzeit ist es so, dass die VEGA 64 in etwa nur so schnell ist wie meine alte 980 ti@1450 MHz, teilweise sogar langsamer.
Die Frage die sich stellt ist jetzt, liegt das an der Basis (siehe Sig.)?
Auffällig ist, dass in den Spielen, wo die 980 ti schneller ist (WoW, DCS, ARMA III) oder gleich schnell ist (Deus Ex MD), die GPU Last bis auf Idle Level einbricht (CPU limitiert?).
Im 3Dmark FS ist die VEGA 64 nur knapp schneller als die 980 ti@1450 MHz.
Dass sich die VEGA 64 einer 980 ti geschlagen geben muss, finde ich schon extrem seltsam, zumal die Tests die VEGA 64 deutlich vor der 980 ti gesehen haben.
Bevor ich mir nun einen neuen Unterbau anschaffe, würde ich gerne von den Profis hören wie eure Meinung ist?

Raff
2017-08-21, 17:00:09
1.450 MHz = fast 35 Prozent mehr Takt als von Nvidia als "typisch" angegeben (1.075 MHz). Das sagt schon fast alles, oder? ;)

MfG,
Raff

dargo
2017-08-21, 17:29:50
bei nVidia war es so:

https://blogs.nvidia.com/wp-content/uploads/2016/05/7launch-price.jpg

Und genau wie es kommuniziert wurde, so war es auch.
Nö... 0,5 TFLOPs hat sich NV da bei der FE beigelogen. *SCNR*

Eigentlich will ich mich in die Diskussion ziehen lassen, aber in dem Fall hast du dich mit deiner eigenen Quelle geschlagen. Vega 64 ist gar so lahm, dass sie aus dem Freesync Berreich der meisten aller Monitore fällt.

Um genau zu sein, gibt es sogar nur einen einzigen Monitor der bis runter auf 24 Hz geht und das ist ein? Genau ein G-Sync Monitor :freak:
Dann bist du sehr schlecht informiert.

Raff
2017-08-21, 17:31:46
Nah. Mit 1.733 MHz Referenzboost stemmt die GTX 1080 FE genau 8.872.960 FLOPS (SP/FP32).

MfG,
Raff

dargo
2017-08-21, 17:35:12
Im Schnitt taktet die GPU bei 1.667 MHz

https://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/

Edit:
Mit 1778Mhz kommt die Karte auf 9,1 TFLOPs. Dann ist aber auch Käse mit 180W Verbrauch. Der liegt dann eher bei ~215-220W.
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/10/

Zumindest 39W mehr als @100% PT-Limit ohne TT-Limit im Gesamtsystem.

Matrix316
2017-08-21, 17:53:49
Es gibt keine 509€ Karte. Es gab diese Karte nie "offiziell". Es gab nur für 10 Stück ein von AMD durchgeführtes Rabattangebot an die Händler.




Die FE sollte gewährleisten, dass du auch nach Monaten noch das Referenzdesign kaufen kannst.
Schau dir die GTX1080TI. Dort gibt es das Referenzdesign nicht mehr, sondern nur einen "Billigabklatsch". Einzig über nVidia.de lässt es sich noch bestellen.
Aber wozu? Gibt doch 1000 Custom Designs die in der Regel auch noch besser sind von der Kühlung und Lautstärke.

Oder meinste jetzt wegen Wasserkühlung?

Bucklew
2017-08-21, 18:42:33
Nö... 0,5 TFLOPs hat sich NV da bei der FE beigelogen. *SCNR*
Bullshit. Die FE schafft 8,87 TFlops und das hat man auf 9 aufgerundet. Ist ja echt ne dreiste Lüge. Wie war nochmal die tatsächliche Rechenleistung der Vega FE? Ach ja, 20% niedriger, als von AMD beworben ;D

dargo
2017-08-21, 18:45:14
Dann lese mal den CB-Test wenn du schon mit Bullshit um dich schmeißt. :rolleyes: Und ich habe nirgendwo gesagt, dass sich AMD die TFLOPs bei Vega nicht schön rechnet. Ich sprach übrigens vom Schnitt. Wenn ich es auf die Spitze treiben will dann kann ich genauso behaupten GTX1080 FE kommt nur auf 8,2 TFLOPs.

In Anno 2205, Star Wars: Battlefront sowie The Witcher 3 kommt die GeForce GTX 1080 Founders Edition nach wenigen Minuten nicht mehr über den Basistakt von 1.607 MHz.

Digidi
2017-08-21, 18:49:27
Gibt es News zum Molding?

Schaffe89
2017-08-21, 19:41:44
Ach komm. Du bist doch nicht so naiv, daß du nicht auch andere "Sonderangebote", "Special Edition"s usw. nicht kennen und entsprechend werten könntest.

Die Preise im Nachinein zu erhöhen ist einfach schäbig, sry, egal ob das Nvidia oder AMD macht.
Dann dürftest du ja auch total überrascht worden sein, daß es nach der "Founders Edition" von nVidia plötzlich Custom Editions von Boardpartnern gegeben hat. :rolleyes:

Du hast den Unterschied zur Founders Edition und die Problematik nicht verstanden, es geht darum dass Preise erhöht wurden, ohne dass das zuvor kommuniziert wurde.
Bei der Founders wusste man die Preise der Founders und die der Customs bereits zuvor, also konnte jeder der warten wollte, warten.

Preise sind im Geschäftsleben immer freibleibend. Da könntest du dich genauso gut beschweren, wenn du eine Karte gekauft hast, daß AMD nicht seine Preissenkungen für die nächsten 1-2 Jahre vorab festgelegt kommuniziert, weil damit "nie die Rede von Preisveränderungen" war, du also eigentlich zuviel gezahlt hast...

Wir reden ja auch von Preiserhöhungen und nicht von Preissenkungen, oder seit wann wurden die Preise einer Grafikkarte je im Nachhinein vom Hersteller erhöht?
Hatten wir so noch nie.
Ist es wirklich so schwer den Unterschied zwische einer Preissenkung oder Preiserhöhung zu verstehen?

Zergra
2017-08-21, 19:43:17
Gibt es News zum Molding?
Gibt es eig. noch mehr Bespiele davon außer bei den nicht fertigen Chips ?

unl34shed
2017-08-21, 19:53:08
Die Preise im Nachinein zu erhöhen ist einfach schäbig, sry, egal ob das Nvidia oder AMD macht.


Wo haben sie das denn?

Linmoum
2017-08-21, 19:54:09
Die Preise im Nachinein zu erhöhen ist einfach schäbig, sry, egal ob das Nvidia oder AMD macht.


Du hast den Unterschied zur Founders Edition und die Problematik nicht verstanden, es geht darum dass Preise erhöht wurden, ohne dass das zuvor kommuniziert wurde.
Bei der Founders wusste man die Preise der Founders und die der Customs bereits zuvor, also konnte jeder der warten wollte, warten.
Gab keine Preiserhöhung. Wer die Thematik mit den Bundles immer noch nicht kapiert hat, sollte sich vielleicht auch nicht dahingehend äußern. Wobei das vom Verständnis her so schwer eigentlich nicht ist, wenn man denn will.

horn 12
2017-08-21, 19:56:26
https://www.youtube.com/watch?v=cw6HDbdALPY

Vega Lüfterspeed.

unl34shed
2017-08-21, 20:00:48
Vega Lüfterspeed.

Warum macht man sowas? Diese Videos sind der letzte Misst. Es gibt keine Referenz, dass man das auch nur im geringsten irgendwie einordnen könnte, dreh ich es bis Volume 11 auf, dann denke ich es ist eine scheiß laute Karte, aus Volume 1 ist sie Flüster leise...

Last doch wenigstens eine Münze fallen, redet in dem Video, ... wie laut muss denn die Intro sein, um als Referenz zu dienen? :confused:

Schaffe89
2017-08-21, 20:02:55
https://www.youtube.com/watch?v=cw6HDbdALPY

Vega Lüfterspeed.

Sie sind deiner Lufterliebelei wirklich nachgegangen, ein hornsches Wunder.:D

Gab keine Preiserhöhung. Wer die Thematik mit den Bundles immer noch nicht kapiert hat, sollte sich vielleicht auch nicht dahingehend äußern.

Wieso äußerst du dich dann?

Kriton
2017-08-21, 20:08:28
Das geht doch an der Problematik vorbei. Es geht hier eben nicht um "Preise in der Preisfindung", sondern darum, dass die Karten für Preise beworben wurden, die man wohl nie ausrufen wollte. AMD sagt doch selber, dass die $500 nur für ein paar Karten gab und das wars.

Natürlich steht es im Zusammenhang mit den Reviews, denn die beziehen sich in aller Regel auf einen Preispunkt, der - wenn man OCUK glauben darf - nie dauerhaft eingehalten werden sollte. Gerade darum geht es doch.

Dann verlinke mal die (Primär)-Quelle...
Ich habe schon geschrieben wie es vermutlich läuft/gelaufen ist (und ja, ich arbeite in einem Bereich, wo ich weiß, wovon ich da geschrieben habe). Aber anscheinend sind hier einige lieber in ihren Anti-AMD-Filterblasen unterwegs.

Und natürlich hat AMD keinen Einfluss auf die Endkundenpreise und es ist auch kein Wunder, dass bei der Nachfrage die Preise steigen. MF hat z.B. 3 Vega 64 von Sapphire lagernd (nicht mehr).

Ein UVP ist nun einmal "unverbindlich".

Das einzige, was man vorwerfen kann (vertriebsbezogen) ist die Zwangsbündelung in den Packs, das wäre als Option sicher schöner gewesen.

dargo
2017-08-21, 20:25:04
Hatten wir eigentlich schon den Test von pcgamer?
http://www.pcgamer.com/amd-radeon-rx-vega-64-review/

Dort wurden auch alle 3 Profile mit dem Bios 1 vermessen. Für mich weiterhin völlig unbegreiflich wie man RX Vega64 per Default das @balanced Powerprofil spendieren kann.

Zergra
2017-08-21, 20:33:51
Hm, mir kommt der Unterschied in BF1 größer vor. Aber ich nutze auch Bios 2. Da kann es sein, das der Powersafe wirklich ein zu geringes PT hat. Die 165 Watt machen wohl mehr Sinn.

TheGood
2017-08-21, 21:00:17
BEi NVidia heisst es founders Edition. Die kostet halt einfach mal 100 Euro mehr.
Bei AMD heissts Radeon Pack. Da bekommt man für 100 Euro immerhin zwei Spiele und bis zu 85 Euro rabatt.

WAs ist nun besser? ;)


PS: beides ist natürlich kacke...

Nazar
2017-08-21, 21:19:01
1.450 MHz = fast 35 Prozent mehr Takt als von Nvidia als "typisch" angegeben (1.075 MHz). Das sagt schon fast alles, oder? ;)

MfG,
Raff

Mir sagt das eben nicht alles, deshalb fragte ich ja auch. :wink:
So gesehen wäre eine 980 TI OC die bessere Wahl, wenn ich dich richtig verstehe?
Ein aktuellerer Untersatz für die VEGA würde das Kräfteverhältnis nicht verschieben?


Wer möchte ein fast neue Vega 64 kaufen? :biggrin:

unwissend!
2017-08-21, 21:36:26
...
Auffällig ist, dass in den Spielen, wo die 980 ti schneller ist (WoW, DCS, ARMA III) oder gleich schnell ist ...
DCS = DigitalCombatSimulator?
Könntest du mir(evtl per PM?) evtl. etwas mehr zur Leistung der Vega64 unter DCS sagen? Welche Einstellungen fährst du, was für FPS erhälst du? (Freiflug/A-A/A-G was auch immer du machst ;) ) Verschiedene Karten(Normandy/Nevada/BlackSea?). Das würde mich brennend interessieren! Vielen Dank schon mal im voraus. :)

mjs
2017-08-21, 21:46:09
Glückwunsch.

Auch an dich die Bitte... könntest du paar Games zocken und sagen wie schnell der Lüfter im GPU-Limit dreht? Sowie bei welcher Temp.?
Ich muss mal am Wochenende schauen -aktuell habe ich nur Dark Souls 3 drauf (das ist nicht allzu fordernd).
Nachdem ich jetzt ca. zwei Stunden gespielt habe, war die Temperatur direkt nach dem Spiel auf 67°, viel nach drei Minuten bei unter 800 Umdrehungen (im Desktop) um 12° runter.
Die GPU lümmelt sonst beim Surfen bei etwa 35°

Wenn ich das Fenster mit dem Wattman offen lasse, zeichnet der auch während des Spiels auf?

Zergra
2017-08-21, 21:48:58
Wenn ich das Fenster mit dem Wattman offen lasse, zeichnet der auch während des Spiels auf?
Ja :tongue:

mjs
2017-08-21, 21:51:05
Ja das dachte ich auch. Das CP von NV fühlt sich so 1999 an, während die Radeon Settings schnell von der Hand gehen und vor allem, dass finde ich viel wichtiger, intuitiver zu bedienen sind. :up: Hast du die Liquid oder die Air?



Ich denke da musst du dir selbst im balanced oder gar turbo mode vom primary keine Sorgen machen. ;)
Ich habe die Black Air.
Warum geben die eigentlich überall ein 750Watt Netzteil als Minimum an (wollen wohl auf Nummer sicher gehen -habe nur einen 77W IvyBridge auf Mini ITX)?

Kriton
2017-08-21, 21:56:38
Die Angabe von (völlig) überdimensionierten Netzteilen ist doch Standard, vermutlich aus dem von dir genannten Grund.

Bucklew
2017-08-21, 22:03:29
Dann lese mal den CB-Test wenn du schon mit Bullshit um dich schmeißt. :rolleyes: Und ich habe nirgendwo gesagt, dass sich AMD die TFLOPs bei Vega nicht schön rechnet. Ich sprach übrigens vom Schnitt. Wenn ich es auf die Spitze treiben will dann kann ich genauso behaupten GTX1080 FE kommt nur auf 8,2 TFLOPs.
Könntest du natürlich gern behaupten, fällt dann aber klar in die unerwünscht Kategorie "Agitation/Propaganda/Meinungsmache".

Man fragt sich ja, warum du keinen Link zu deiner Quelle machst. Googlte man diese (ja, im 21. Jdh ist ein Zitat ohne Quelle die dümmste Idee, seine Behauptungen zu verschleiern), findet man dieses Zitat:
Im Schnitt taktet die GPU bei 1.667 MHz
Gern die Quelle:
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/

1667 = 8,535 TFlops. Also bestätigt deine Quelle tatsächlich, dass die Angabe von NVIDIA passt und nicht wie du behauptest, der Wert gelogen ist. :up:

Ist das nicht vielleicht doch Agitation, was du hier treibst?

Digidi
2017-08-21, 22:15:57
Gibt es eig. noch mehr Bespiele davon außer bei den nicht fertigen Chips ?

Nicht fertige Chips? Das ist ja das komische alle Chips sind fertig, jedoch kommen die aus anderen Fabriken, deshalb haben manche das Molding und andere haben es nicht.

Ich Frage mich wie AMD diesen eklatanten Qualitätsunterschied denn erklären will?

Mich würde auch Mal interessieren ob gewisse Herstelle Chips von nur einem Fabrikanten bekommen oder nur die liquid Edition die Molding Chips bekommt.

@Y33H@ ich warte auf deinen Artikel ;)

horn 12
2017-08-21, 23:04:20
Neuer Treiber für Vega ?

http://support.amd.com/en-us/kb-articles/Pages/Radeon-Software-Crimson-ReLive-Edition-17.8.1-Release-Notes.aspx

Digidi
2017-08-21, 23:31:10
Hab was lustiges gefunden Vega gab's schon 2013 :

http://www.vivantecorp.com/index.php/en/media-article/news/256-20131205-vivante-gs-ts-shader-overview.html

@horn_12
Danke. Aber ist das schon 17.320 der Treiber? Da kommt nämlich laut White paper Der primitive shader

horn 12
2017-08-21, 23:42:00
AMD releast den VEGA Treiber, Freischaltoptionen udg. wohl echt häppchenweise, Salami Scheibchenweise ...
Seit Februar/ März 2017 ist AMD jeden Tag in den Schlagzeilen, eine BESSERE Werbung (in welchem Sinne auch immer) kriegt man woanders nicht umsonst.

Flusher
2017-08-22, 00:06:54
Dann bist du sehr schlecht informiert.

Sorry - ich nutze den GH-Filter

https://geizhals.de/?cat=monlcd19wide&xf=11993_300

und da werden ausschließlich G-Sync Monitore angezeigt.

Mancko
2017-08-22, 00:08:51
Die Karten sind viel zu teuer in der Herstellung als das man sie für unter 500€ verkaufen könnte,nur konnte AMD Vega nicht noch weiter verschieben bis die Yield's deutlich besser werden.
Im Prinzip wäre die 56 bei Nvidia so als wenn sie die 1080 Ti für 400€ verkaufen müssten.(Beides sind beschnittene große Chips)

Das ist in der Tat derren größtes Problem. Ich habe keinen Zweifel daran, dass die genau wissen was sie tun. Im Grunde will AMD zu den Preisen einfach gar nicht so viele RX Vegas verkaufen.

1) AMD weiß, dass sie erheblich und nicht nur ein bisschen im Herstellungskostennachteil gegenüber Nvidia sind was Vega angeht
2) AMD weiß, dass die Leistung eher bescheiden und alles andere als überzeugend ist
3) AMD weiß, dass zumindest durch das Mining Karten nachgefragt werden und zwar zu höheren Preisen.

Also macht man aus Unternehmenssicht das einzig vernünftige und betreibt Schadensbegrenzung. Sprich man launcht die Karte zu den Grafikkarten only Preisen mit begrenzten Mengen um nicht in den Reviews noch übler dazu stehen als man eh schon steht und um der Community vor zugauckeln man wäre doch irgendwie dabei. Reine Schadensbegrenzung also. Dann gibt man Bundles / Pakete heraus um den Preis ein wenig zu verschleiern und das nachrechnen zu erschwerden und auch die Vergleichbarkeit zur Konkurrenz. Und schlußendlich verkauft man dann die Teile zu einem halbwegs vernünftigen Preis an die Miner.

Aus AMDs Perspektive kann ich das Handeln nachvollziehen. Wer gibt schon gerne Produkte mit Verlust oder 0 Marge in den Markt. Attraktives Pricing hilft halt auch nur bedingt, weil man so Nvidia ggf. dazu annimiert die Preise ebenfalls zu senken und die können sich anders als AMD so richtig fette Preissenkungen erlauben. Der Unterschied zwischen einer 1070 bzw. 1080 auf der einen Seite und Vega auf der anderen und dem damit verbundenen Hardwareaufwand ist einfach zu krass. Dazu kommt der erhebliche zeitliche Nachteil wo ein Großteil des Martkes eh schon abgegrast wurde.

Insofern aus AMDs Sicht wohl richtig. Ich finde jedoch, dass die Reviewer hier sehr deutlich das jeweilige Fazit anpassen sollten, wenn nicht zeitnah eine Besserung eintritt. Ich finde die hohen Preise sogar eher gut. Einen besseren erzieherischen Effekt für einige unverbesserliche kann es gar nicht geben. AMD wurde ja häufig primär aus Preisgründen gekauft und das wurde ja auch gern in den Vordergrund gestellt. Jetzt gibts halt mal eine ordentliche Quittung und alle die gewartet haben wurden ebenfalls so richtig schön bestraft, denn auch Nvidia wird das jetzt genüsslich ausnutzen und abkassieren. Lernen durch Schmerzen hilft einfach am Besten.

Was lernen wir daraus. Warten macht in dem Bereich nur wenig Sinn und wenn dann nur wenn das Konkurrenzprodukt zeitlich bald um die Ecke kommt. Ab mehr als 4 bis 6 Monaten ist das aber einfach nicht mehr sinnvoll. Das ist in dem Geschäft eine Ewigkeit. Und noch eine Lektion kann man hier wieder gut lernen. Je später das Produkt und je aufgeblasener und häppchenweise das Marketing, desto schlechter ist das Produkt auch am Ende. Vega ist definitiv der NV30 von AMD, jedoch eben zusätzlich mit schlechter Performance. NV30 war wenigstens noch oben mit dabei. Davon kann hier keine Rede sein. Der Abstand zur 1080Ti ist einfach zu groß und in Anbetracht des Hardwareaufwands wäre das der eigentliche Gegner.

scully1234
2017-08-22, 00:22:59
Gab keine Preiserhöhung. Wer die Thematik mit den Bundles immer noch nicht kapiert hat, sollte sich vielleicht auch nicht dahingehend äußern. Wobei das vom Verständnis her so schwer eigentlich nicht ist, wenn man denn will.


AIB Partners to GN: Gibbo Was Right About AMD Price Changing (http://www.gamersnexus.net/news-pc/3023-aib-partners-to-gn-yes-vega-price-will-change)


:rolleyes:

vielleicht sollte das Relativieren mal aufhören

DrFreaK666
2017-08-22, 02:32:37
...Was lernen wir daraus. Warten macht in dem Bereich nur wenig Sinn und wenn dann nur wenn das Konkurrenzprodukt zeitlich bald um die Ecke kommt. Ab mehr als 4 bis 6 Monaten ist das aber einfach nicht mehr sinnvoll. Das ist in dem Geschäft eine Ewigkeit...

Wenn man nicht aufrüsten muss dann ist warten natürlich sinnvoll, da die Preise dann sinken.
Nicht sinnvoll. So ein quatsch

dargo
2017-08-22, 07:05:02
Könntest du natürlich gern behaupten, fällt dann aber klar in die unerwünscht Kategorie "Agitation/Propaganda/Meinungsmache".

Man fragt sich ja, warum du keinen Link zu deiner Quelle machst. Googlte man diese (ja, im 21. Jdh ist ein Zitat ohne Quelle die dümmste Idee, seine Behauptungen zu verschleiern), findet man dieses Zitat:

Gern die Quelle:
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/

1667 = 8,535 TFlops. Also bestätigt deine Quelle tatsächlich, dass die Angabe von NVIDIA passt und nicht wie du behauptest, der Wert gelogen ist. :up:

Ist das nicht vielleicht doch Agitation, was du hier treibst?
Willst du mich verkackeiern? Seit wann sind 8,5 (in manchen Games sogar 8,2) TFLOPs das gleiche wie 9 TFLOPs?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11467639&postcount=1346

Im schlimmsten Fall rechnet sich NV 10% mehr Aluleistung dazu.

Ich muss mal am Wochenende schauen -aktuell habe ich nur Dark Souls 3 drauf (das ist nicht allzu fordernd).
Nachdem ich jetzt ca. zwei Stunden gespielt habe, war die Temperatur direkt nach dem Spiel auf 67°, viel nach drei Minuten bei unter 800 Umdrehungen (im Desktop) um 12° runter.
Die GPU lümmelt sonst beim Surfen bei etwa 35°

Wenn ich das Fenster mit dem Wattman offen lasse, zeichnet der auch während des Spiels auf?
Ok... da muss definitiv was Forderndes gespielt werden. Die ~800RPM wären nämlich sensationell bei hoher GPU-Last, was hier offenbar nicht der Fall ist. :tongue: Ob der Wattman das aufzeichnet weiß ich nicht, ausprobieren bitte.

Sorry - ich nutze den GH-Filter

https://geizhals.de/?cat=monlcd19wide&xf=11993_300

und da werden ausschließlich G-Sync Monitore angezeigt.
GH ist komplett unzuverlässig bei diesem Thema. Wenn ich möchte gehen bei meinem Asus auch 24-60Hz mit Freesync problemlos.

hlynska
2017-08-22, 07:43:26
Gerade gefunden:
http://www.tomshardware.de/amd-vega-package-probleme-unterschiede,news-258365.html

Verschiedener Speicher? Schon irgendwie etwas verwirrend mittlerweile. Sollte AMD wirklich mittendrin erst mal der Speicher ausgegangen sein?

Linmoum
2017-08-22, 08:50:15
:rolleyes:

vielleicht sollte das Relativieren mal aufhören

Das ist natürlich Beweis genug. Wo sind dann eigentlich die 70-100 MH/s von Vega geblieben?

Cyphermaster
2017-08-22, 09:11:29
Gerade gefunden:
http://www.tomshardware.de/amd-vega-package-probleme-unterschiede,news-258365.html

Verschiedener Speicher? Schon irgendwie etwas verwirrend mittlerweile. Sollte AMD wirklich mittendrin erst mal der Speicher ausgegangen sein?Das sieht eher danach aus, als wäre die Fertigung noch schwer unausgereift (könnte sogar im worst-case BEIDES sein). Das würde aber natürlich auch ein möglicher Grund sein, warum die Karten bisher quasi im "Kompatibilitätsmodus" sind, was die Optimierung von Spannung und Takt angeht. Es paßt zum "unfertigen" Eindruck, den die Karten bisher hinterlassen. Je mehr man mitbekommt, desto besser paßt der Ausdruck "Bastelbude" zu den aktuellen RX.

Umgekehrt haben die Vega-Freunde damit natürlich wieder einen Anhaltspunkt, auf fühlbare Verbesserung der Performance zu hoffen, z.B. wenn es an die Customs geht.
Das ist natürlich Beweis genug. Wo sind dann eigentlich die 70-100 MH/s von Vega geblieben?Das waren Gerüchte, was soll damit sein? Die haben sich halt -zumindest bisher- nicht bestätigt.

Grendizer
2017-08-22, 09:22:04
Vega 64 wird es immer schwerer haben. Heute gibt eine 1080 im Tagesangebot für 469 Euro inklusive Gutschein für Destiny 2. Bei den Preisen des Radeon Packs reduzieren sich die Preisvorteile für Freesyncmonitore dann recht schnell. Klar für Leute die schon einen Monitor haben hilft das wenig.

unl34shed
2017-08-22, 09:32:01
Die 40um sollten aber doch auch keinen wirklichen Unterschied machen, da haben die wahrscheinlich schon eine höhere Toleranz durch das Löten.

Das mit den 6 Schrauben klingt nach viel hilft viel. Für eine Ebene Fläche reichen 3 Fixpunkte. Bei was sollen die 6 Schrauben den helfen?

hlynska
2017-08-22, 09:42:55
Das mit den 6 Schrauben klingt nach viel hilft viel. Für eine Ebene Fläche reichen 3 Fixpunkte. Bei was sollen die 6 Schrauben den helfen?
Es geht sicher eher darum, den Druck besser zu verteilen um den Interposer zu entlasten. Wie stabil bzw. verwindungssteif ist denn ein Heatsink? Wenn es da wirklich überall crackt, dann Gute Nacht.
Mir persönlich kann es egal sein, ich kaufe keine Gaming-Grafikkarten. Meine Frau muss mit ihrem Budget allein klar kommen :P

Bucklew
2017-08-22, 09:46:04
Willst du mich verkackeiern? Seit wann sind 8,5 (in manchen Games sogar 8,2) TFLOPs das gleiche wie 9 TFLOPs?
Im Durchschnitt sind es eben 8,5 -> aufgerundet sind das 9 TFlops.

Was hat das mit verkackeiern zu tun? Das ist einfach kein Lügen, sondern einfach Mathematik, spar dir deine Propaganda. Lügen ist es, wie AMD die TFlops mit einem völlig unrealistischen Boosttakt anzugeben, wobei der durchschnittliche Takt 20% niedriger liegt. Nicht ohne Grund, hat man da bei AMD Angst bekommen und lieber noch schnell den "Average Clock" mit in die Spec aufgenommen, bevor jemand hinterher klagt.

VooDoo7mx
2017-08-22, 10:02:53
Im Durchschnitt sind es eben 8,5 -> aufgerundet sind das 9 TFlops.

Was hat das mit verkackeiern zu tun? Das ist einfach kein Lügen, sondern einfach Mathematik, spar dir deine Propaganda. Lügen ist es, wie AMD die TFlops mit einem völlig unrealistischen Boosttakt anzugeben, wobei der durchschnittliche Takt 20% niedriger liegt. Nicht ohne Grund, hat man da bei AMD Angst bekommen und lieber noch schnell den "Average Clock" mit in die Spec aufgenommen, bevor jemand hinterher klagt.

Lass es einfach. Bitte.

HOT
2017-08-22, 10:32:44
Hm, ein Package made in Korea - wird wohl direkt von Samsung kommen ;).

dargo
2017-08-22, 10:36:51
Im Durchschnitt sind es eben 8,5 -> aufgerundet sind das 9 TFlops.

Was hat das mit verkackeiern zu tun? Das ist einfach kein Lügen, sondern einfach Mathematik, spar dir deine Propaganda. Lügen ist es, wie AMD die TFlops mit einem völlig unrealistischen Boosttakt anzugeben, wobei der durchschnittliche Takt 20% niedriger liegt.
Mache dich nur weiter lächerlich.

Ich habe dir schon mal gesagt, dass nicht nur NV sich TFLOPs in der Gamingpraxis schön rechnet. Und was soll dieser Blödsinn wieder mit 20% niedrigerem Takt? Brauchst du schon Fantasiewerte um deine Argumente zu stützen? AMD bezieht sich bei den TFLOPs auf den zweithöchsten Pstate, nämlich 1546Mhz. Was wiederum 12,66 TFLOPs entspricht. Das diese in der Praxis nicht immer gehalten werden habe ich nirgendwo beschritten. Und wenn wir schon beim Worst Case mit Witcher 3 sind...
http://www.tomshardware.de/vega64-wasserkuhlung-benchmarks-temperaturen-ubertaktung,testberichte-242383-3.html

Die RX Vega64 Air liefert dort im Schnitt 1401Mhz. Das sind ~9% unter den angegeben TFLOP-Werten. Also genau das gleiche wie bei Nvidia mit GTX1080 FE. Dort sind 1607Mhz auch ~9% weniger als die offizielle TFLOP-Angabe.

hlynska
2017-08-22, 10:38:42
Jetzt wird das auch mit den sechs Schrauben verständlicher, im verlinkten Review sind nun ein Update und mehr Folien von AMD drin (http://www.tomshardware.de/amd-vega-package-probleme-unterschiede,news-258365.html). :D

Aber 0,1 mm Höhenunterschied sind echt eine Hausnummer. Wenn eine Firma aus Sicherheitsgründen mit Stoppern gearbeitet hat, passen die Kühler dann wirklich nicht so recht.

Hübie
2017-08-22, 10:41:37
Hab was lustiges gefunden Vega gab's schon 2013 :

http://www.vivantecorp.com/index.php/en/media-article/news/256-20131205-vivante-gs-ts-shader-overview.html

@horn_12
Danke. Aber ist das schon 17.320 der Treiber? Da kommt nämlich laut White paper Der primitive shader

:eek: AMD kauft IP. :D

Das werden wohl so Geschichten wie Mali etc. sein. Samsung hat ja aufgegeben. Aber es liest sich tatsächlich wie Vega. Schon lustig... Oder auch nicht (;D)
Mal so doof gefragt: PrimShader müssen doch in der Engine implementiert sein oder kann der Treiber das überschreiben, zusammenfassen und selbst kompilieren? Wenn ersteres wird man nicht sofort einen Effekt sehen können.

Bucklew
2017-08-22, 10:45:06
Mache dich nur weiter lächerlich.
Du machst dich lächerlich, wenn du aus einem mathematisch korrektem Aufrunden ein "lügen" machst.

Und was soll dieser Blödsinn wieder mit 20% niedrigerem Takt? Brauchst du schon Fantasiewerte um deine Argumente zu stützen?
Nö, brauche ich nicht:
https://pro.radeon.com/en-us/product/radeon-vega-frontier-edition/
Oben: 13,1 TFlops (= 1600 MHz), weiter unten: Typical Engine Clock 1382 (MHz) (=11,3 TFlops)

Das ist eine Diskrepanz zwischen Bezugtakt für die Rechenleistung und des tatsächlichen Taktes von fast 20%.

Das ist eine Lüge, da was von 13 TFlops zu schreiben. NVIDIA rundet einfach nur auf. That's the difference.

dildo4u
2017-08-22, 10:54:23
AMD VEGA Price Increase?? What is going on??


https://youtu.be/5sPOEjQWJlE


Laut dem Video bringt Gamernexus bald ein Artikel der die Produktionspreise bespricht.

HOT
2017-08-22, 11:04:03
:eek: AMD kauft IP. :D

Das werden wohl so Geschichten wie Mali etc. sein. Samsung hat ja aufgegeben. Aber es liest sich tatsächlich wie Vega. Schon lustig... Oder auch nicht (;D)
Mal so doof gefragt: PrimShader müssen doch in der Engine implementiert sein oder kann der Treiber das überschreiben, zusammenfassen und selbst kompilieren? Wenn ersteres wird man nicht sofort einen Effekt sehen können.
Soweit ich weiss bekommt der Treiber ganz normale VS/GS von der Software und zerlegt diese intern, wenns mal aktiv ist. Alternativ kann der Softwarehersteller direkt die neue Geometrieengine programmieren.

Bucklew warum regst du dich so auf? Das ist doch normal, dass Hersteller die peak-Performance angeben.

Noch mal bezüglich des Packages, es kann auch sein, dass V10-Chips von GloFo und Samsung kommen, wie bei Polaris.

Cyphermaster
2017-08-22, 11:15:27
Du machst dich lächerlich, wenn du aus einem mathematisch korrektem Aufrunden ein "lügen" machst.1. Mathematisch ist Rundung per se nie korrekt.
2. Rundung ist technisch eine akzeptierte, künstlich hinzugefügte Ungenauigkeit zur Vereinfachung von Rechenvorgängen. Rundung ist nur dann anwendbar, wenn sie das Endergebnis nicht signifikant beeinflußt (Wo die Signifikanzschwelle je Fall liegt, kann man trefflich streiten).
3. Es ist nicht falsch, einen Rechenleistungswert mit Bezug auf einen Boosttakt zu ermitteln, solange dieser sowohl erreicht werden kann, als auch dieses Ergebnis nicht dem Basistakt zugeordnet wird. Ansonsten wäre auch jeder Normwert wie z.B. der Verbrauch eines Autos grundlegend falsch, weil man praktisch nie exakt einen Normzyklus in der Realität fährt. Das als "Lüge" hinzustellen, ist imho albern.

Also hört endlich auf, euch gegenseitig mit solcher Kinderkacke zu bewerfen, was absehbar nur wieder in Sperren endet - für das Thema und den Thread tut das sowieso nichts zur Sache.

Erbsenkönig
2017-08-22, 11:33:09
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44084-amd-radeon-rx-vega-56-und-vega-64-im-undervolting-test.html

Einschätzung des Undervoltings

Es ist recht erstaunlich, wie groß der Zugewinn durch das Undervoltings für die beiden Karten ausfällt. Die Radeon RX Vega 64 und Vega 56 profitieren unterschiedlich stark im Hinblick auf die Leistung und die Einsparungen beim Strombedarf. Deutlich zu erkennen ist, dass die Radeon RX Vega 64 schon recht nahe am Limit läuft und hier wenig Potenzial vorhanden ist. Bei der Radeon RX Vega 56 hingegen sehen wir einen großen Spielraum, den jeder bastelfreudige Nutzer auch verwenden sollte.

Für die Radeon RX Vega 64 bedeuten die Ergebnisse folgendes: Hinsichtlich der Leistung setzt man sich teilweise recht deutlich vor die GeForce GTX 1080 Founders Edition. Wir haben hier keinerlei Werte für ein Undervolting der Konkurrenzkarten, sondern nehmen diese Werte nur als Referenzpunkte. Es wäre unfair, eine mit niedrigerer Spannung betriebene Karte mit einer solchen im Auslieferungszustand zu vergleichen. Gleichzeitig bedeutet das Undervolting der Radeon RX Vega 64 für die Leistungsaufnahme eine deutliche Reduzierung, auch wenn sie selbst dann noch immer zu den stromhungrigen Single-GPU-Karten gehört.

Die Radeon RX Vega 56 stellt sich etwas besser dar. Hier sehen wir eine deutliche Reduzierung des Strombedarfs, was dazu führt, dass sie der GeForce GTX 1070 (wieder ohne Undervolting) etwas näher kommt. Den größten Sprung macht sie aber gleichzeitig bei der Leistung, denn trotz einer Reduzierung der Spannung, konnten wir den Takt deutlich steigern, bzw. stabiler auf hohem Niveau halten. In den Benchmarks rückt sie daher der größere Radeon RX Vega 64 recht nahe auf die Pelle und kann auch die GeForce GTX 1080 oft hinter sich lassen.

Derzeit ist ein Undervolting aber noch recht kompliziert, da der Software nicht getraut werden kann. Anzeigen für den Takt müssen nicht stimmen und ob die Spannung übernommen wurde, wird nur durch einen Blick auf den Verbrauch sichergestellt. Ein einfaches Einstellen der Werte in der Software reicht momentan nicht aus – alles muss validiert werden.

Berkeley
2017-08-22, 11:56:48
@Erbsenkönig
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44084-amd-radeon-rx-vega-56-und-vega-64-im-undervolting-test.html

Krass! Danke für den Link. In dem UV Test ist VEGA 56 sowohl schneller als 1070 und 1080 als auch effizienter als diese Karten! Dass das mit UV so kommen wird war klar, aber so heftig hätte ich nicht erwartet.

VEGA 56 war zwar auch schon vorher mein Favorit gegen die 1070 bzgl. UV Leistung und Verbrauch, jetzt hat man es aber schwarz auf weiß.

Menace
2017-08-22, 12:00:46
Im Durchschnitt sind es eben 8,5 -> aufgerundet sind das 9 TFlops.


Du machst dich lächerlich, wenn du aus einem mathematisch korrektem Aufrunden ein "lügen" machst.


Ach, das ist doch Aufrunden für Anfänger. Richtig gerundet muss das heißen, es sind 10 TFlops! Wenn schon, dann richtig. :freak:

Was soll dieses offtopic-Getrolle permanent im Review-Thread von den ewig Gleichen?

@Erbsenkönig: Danke für den Link. Ich hoffe, ein Custom-Hersteller macht daraus eine wirklich effiziente Karte.

dildo4u
2017-08-22, 12:05:24
Man muss die Karten schon in 4k auf Stabilität prüfen,gerade bei AMD verhindert der Treiber eine maximale Auslastung.

Wixi
2017-08-22, 12:07:01
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44084-amd-radeon-rx-vega-56-und-vega-64-im-undervolting-test.html

Mich würde nur noch interessieren mit welchen Profilen getestet wurde. Ich seh nur, dass das Powertarget auf +50% erhöht wurde.

Mancko
2017-08-22, 12:07:12
Wenn man nicht aufrüsten muss dann ist warten natürlich sinnvoll, da die Preise dann sinken.
Nicht sinnvoll. So ein quatsch

Dagegen spricht die monitäre Abschreibung über die Nutzungsdauer. Bei einer durchschnittlichen Nutzungsdauer von 2 bis 3 Jahren in diesen Preisgefilden ist es einfach quatsch 12 Monate zu warten. Wer kurz nach dem Launch bei breiter Verfügbarkeit sich eine 1080 oder 1070 gekauft hatte, der lag einfach goldrichtig. Jeden Monat den derjenige damit spielen konnte ist Geld Wert. Da hilfts dir eben nix, wenn Vega heute kommt und dann noch nicht mal vorbei marschiert. Diese 15 Monaten sind bares Geld wert.

Bei einer 700 Euro Graka und 3 Jahren Abschreibung reden wir von einem Wert von 20 Euro pro Monat. Macht also schon mal bei 15 Monaten 300 Euro.
Wenn wir annehmen, dass die Graka nach 3 Jahren vielleicht noch einen Restwert von 300 Euro hat (und das ist eher optimistisch), dann reden wir immer noch von 11 Euro pro Monat oder auch 150 Euro nach 15 Monaten. Zudem darf hier noch erwähnt werden, dass bei Vega ein teureres Netzteil notwendig wird.

In Summe ist klar, dass auf Vega warten einfach quatsch war und ist und das gilt auch anders herum so.

Daredevil
2017-08-22, 12:08:10
@Erbsenkönig
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44084-amd-radeon-rx-vega-56-und-vega-64-im-undervolting-test.html

Krass! Danke für den Link. In dem UV Test ist VEGA 56 sowohl schneller als 1070 und 1080 als auch effizienter als diese Karten! Dass das mit UV so kommen wird war klar, aber so heftig hätte ich nicht erwartet.

VEGA 56 war zwar auch schon vorher mein Favorit gegen die 1070 bzgl. UV Leistung und Verbrauch, jetzt hat man es aber schwarz auf weiß.
Wir vergleichen immer noch eine Karte mit OC+UV gegen eine Stock Karte ohne UV und ohne OC.
Zudem wurden hier Spiele genommen, wo die 1070/1080 in etwa gleich performen wie Vega. Das ist kein Problem. Macht die Ergebnisse, wo Vega komplett verkackt, aber auch nicht besser.

Das ist kein fairer Zustand als Performance Vergleich zum Mitbewerber, aber schön dass man mit der Vega 56 noch etwas basteln kann.

Erbsenkönig
2017-08-22, 12:12:31
Wir vergleichen immer noch eine Karte mit OC+UV gegen eine Stock Karte ohne UV und ohne OC.
Zudem wurden hier Spiele genommen, wo die 1070/1080 in etwa gleich performen wie Vega. Das ist kein Problem. Macht die Ergebnisse, wo Vega komplett verkackt, auch nicht besser.

Das ist kein fairer Zustand als Performance Vergleich zum Mitbewerber, aber schön dass man mit der Vega 56 noch etwas basteln kann.

Danke für den Hinweis. Das ist natürlich wichtig.

BlacKi
2017-08-22, 12:13:20
@Erbsenkönig
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44084-amd-radeon-rx-vega-56-und-vega-64-im-undervolting-test.html

Krass! Danke für den Link. In dem UV Test ist VEGA 56 sowohl schneller als 1070 und 1080 als auch effizienter als diese Karten! Dass das mit UV so kommen wird war klar, aber so heftig hätte ich nicht erwartet.

VEGA 56 war zwar auch schon vorher mein Favorit gegen die 1070 bzgl. UV Leistung und Verbrauch, jetzt hat man es aber schwarz auf weiß.
erstmal ließt sich das sehr beeindruckend, da kommt vega ziemlich nah an pascal UV+OC ran.

aber solange die preise so bleiben??? für 450€ könnte man drüber nachdenken, aber für 500+? trotzdem ist die karte langsamer und braucht mehr strom als die 1080 mit oc+uv für sub 500€.

dargo
2017-08-22, 12:21:32
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44084-amd-radeon-rx-vega-56-und-vega-64-im-undervolting-test.html
Eine Sache finde ich etwas seltsam. Warum gibt AMD Vega56 exakt die gleichen 1,20V max. wenn Vega56 einen niedrigeren Takt fährt als Vega64? Man könnte jetzt meinen Vega56 bekommt die "schlechteren" Chips ab, ergo ist eine höhere Spannung notwendig, bzw. gleiche für weniger Frequenz. Dem Test nach ist das aber nicht der Fall. Na gut... man müsste natürlich jetzt mehrere Grafikkarten testen und nicht nur zwei. :tongue:

Digidi
2017-08-22, 12:23:13
Mal so doof gefragt: PrimShader müssen doch in der Engine implementiert sein oder kann der Treiber das überschreiben, zusammenfassen und selbst kompilieren? Wenn ersteres wird man nicht sofort einen Effekt sehen können.

Nur Mal so woher primitive Shader eigentlich kommt:
Interessante Unterhaltung über primitive Shader kann damit jemand was anfangen?
https://www.twitter.com/bmcnett/status/682650185093234688
https://www.twitter.com/andrewlauritzen/status/685010356763148288


bmcnett:

31. Dez. 2015
@oshepherd we need a new stage before VS to remove useless prims, not these silly new stages after VS

Andrew Lauritzen:

5. Jan. 2016
@bmcnett @oshepherd It's not totally clear - a "primitive shader" can be totally efficient (and I'll note 1:1 GS is pretty decent on Intel)

basix
2017-08-22, 12:23:49
Wir vergleichen immer noch eine Karte mit OC+UV gegen eine Stock Karte ohne UV und ohne OC.
Zudem wurden hier Spiele genommen, wo die 1070/1080 in etwa gleich performen wie Vega. Das ist kein Problem. Macht die Ergebnisse, wo Vega komplett verkackt, auch nicht besser.

Das ist kein fairer Zustand als Performance Vergleich zum Mitbewerber, aber schön dass man mit der Vega 56 noch etwas basteln kann.

Man muss aber schon erwähnen, dass bei Nvidia die Karten sehr stark vom Powerlimit gemässigt werden (siehe Partnerkarten). Dies ist viel näher am "Limit" als bei AMD. Dies ist kein Schlechtreden von Nvidia, die haben es anscheinend einfach besser im Griff, ihre Karten effizient zu tunen und das Out-of-the-Box. Da hat AMD noch viel aufzuholen. +20% Performance bei -30% Leistungsaufnahme der RX Vega 56 spricht nicht für ein getrimmtes Design. Dies ist wie man sieht fast die Effizienz-Differenz zu Pascal. Ergo sind die Karten nur marginal schlechter in der Effizienz, die HW ist also grundsätzlich gut. Nur sind sie 1 Jahr später dran und Out-of-the-Box weit davon entfernt, so effizient wie Pascal zu sein. Das ist sehr schade.

dargo
2017-08-22, 12:24:12
Mich würde nur noch interessieren mit welchen Profilen getestet wurde. Ich seh nur, dass das Powertarget auf +50% erhöht wurde.
UV geht nur mit balanced Asicpower. Gleiches gilt für manuelle Powerlimitänderungen.

gas3t
2017-08-22, 12:27:34
New AMD driver boosts performance of Vega in Quake Champions by about 6%, we'll take it :D
...
Vega 56 now beats 1070 and Vega 64 easily beats the 1080 and is just 8% slower than the 1080 Ti, in this title ;)

https://mobile.twitter.com/HardwareUnboxed/status/899759341955305472

Ist ein guter Anfang

Daredevil
2017-08-22, 12:27:35
@dargo
Vielleicht aus RMA Gründen oder sowas, falls manche Karten zu heiß werden und eben dann diese Spannung benötigen? Bzw. braucht man die Spannung vielleicht, wenn wirklich reale Last anliegt, die die Karte auch wirklich performen lässt? ( BF1? Synthetische Tests? GPU Computing? )
Wenn die Karte nur mit angezogener Handbremse läuft, ist OC+UV ja nicht das Ding, aber wenns zur Sache geht, kann es auch wieder schnell vorbei sein.
Mal als Vergleichbeispiel AVX Benches mit Intel Skylake-X OC. Das geht durch die Decke ans Limit, aber nicht alles ist halt AVX.

Die 290/390er Reihe war doch auch extrem zugetackert mit Spannung, die eigentlich gar nicht hätte sein müssen. Zumindest aus unserer Sicht als undervolter.

Erbsenkönig
2017-08-22, 12:31:10
Nachtrag:

Die Werte in der Tabelle ohne Undervolting sind die, die von AMD vorgegeben werden. Da die Karte in den Standardeinstellungen aber drosselt, werden diese nicht erreicht. Haben wir im Text auch so erwähnt.

Ja, die +50 % im Power Target haben wir nur für das Undervolting gemacht. Es ging darum Stock vs. Undervolting zu zeigen.

Dino-Fossil
2017-08-22, 12:33:51
Vielleicht haben sie auch einfach nicht die Ressourcen für ein aufwändiges Screening und Ausloten der genauen Limits, bzw. wollen auch mehr grenzwertige Chips verwenden als nVidia dies tut.
Oder sie haben einfach größere Toleranzen bei ihrer Spannung angesetzt.

Letztendlich ist der RTG Effizienz aktuell wohl auch einfach nicht wichtig genug, als dass sie wirklich Interesse hätten, die Chipspannung besser einzustellen. (siehe die Effizienzdebatte bei Vega).

Mr. Lolman
2017-08-22, 12:37:15
Die 290/390er Reihe war doch auch extrem zugetackert mit Spannung, die eigentlich gar nicht hätte sein müssen. Zumindest aus unserer Sicht als undervolter.

Stimmt. Die 290X TriX hab ich mit 1035MHz und 1156mV laufen, vgl zu 1040MHz und 1231mV. Ein Wahnsinn, wie leise die Karte seitdem ist. :cool:

Berkeley
2017-08-22, 13:13:11
Wir vergleichen immer noch eine Karte mit OC+UV gegen eine Stock Karte ohne UV und ohne OC.
Zudem wurden hier Spiele genommen, wo die 1070/1080 in etwa gleich performen wie Vega. Das ist kein Problem. Macht die Ergebnisse, wo Vega komplett verkackt, aber auch nicht besser.

Das ist kein fairer Zustand als Performance Vergleich zum Mitbewerber, aber schön dass man mit der Vega 56 noch etwas basteln kann.
Ja das stimmt schon, dass hier gegen "Stock" NV Karten gebencht wurde. Allerdings muss man auch sagen, dass bei NV einfach keine -70W bei +25% Leistung drin sind, weil die Karten bereit out of the box schon nahe am Limit optimiert sind. Wenn, dann lässt sich meist bei gleicher Leistungsaufnahme noch etwas Performance rausholen. Die 1070 FE müsste also bei gleichem Verbrauch 25% Performance drauflegen (Witchter3 mal ausgenommen), um mit der V56 zu konkurrieren. Die schnellsten Custom Karten schaffen im Schnitt 15% bei fast 2Ghz. Wieviel Leistung kann man da noch rausholen?

Das mit den Games, wo VEGA komplett "verkackt", ist eine sehr einseitige Sicht. Wie man als Gamer oder Hardware-Enthusiast wissen sollte, gibt es Games wo AMD "verkackt" und auch genau so viele Games, wo Nvidia "verkackt". Die im Bench getesteten Games sind eher neutral für beide Seiten.
60917

Matrix316
2017-08-22, 13:17:47
Ich kann doch nicht den Kauf einer Grafikkarte davon abhängig machen, welche Spiele ich spielen will. Das ist ja fast wie XBOX vs Playstation. :ugly:

Soll man sich einen PC mit Ryzen und Vega für die eine Hälfte der Games und einen zweiten PC mit Intel und Nvidia für die andere hinstellen? :uponder:

Und was ist wenn Games mit Ryzen gut laufen, aber mit Vega schlecht? Für jede Kombination ein PC? Oder wie stellen die sich das vor? =)

unl34shed
2017-08-22, 13:25:22
Hab mal bei Alternate wegen Vega ohne bundle angefragt:
Diesbezüglich möchten wir Ihnen mitteilen, dass es sich bei diesen Spielen um eine kostenlose Beigabe handelt. Der Preis der Karten ist davon nicht beeinflusst.

Hab denen jetzt Mal AMDs Präsentationen geschickt, wo die Karten auch standalone gelistet sind...

foenfrisur
2017-08-22, 13:25:46
@matrix
wieso nicht??
so ist es doch schon seit jahren ;)

mfg

Matrix316
2017-08-22, 13:28:18
@matrix
wieso nicht??
so ist es doch schon seit jahren ;)

mfg

Nee, erst sei dem AMD wieder konkurrenzfähig ist.

Davor war intel (und Nvidia) ÜEBRALL schneller. :D *g*

DrumDub
2017-08-22, 13:32:48
Hab denen jetzt Mal AMDs Präsentationen geschickt, wo die Karten auch standalone gelistet sind... wozu? wenn alternate die nicht standalone im angebot hat, dann ist das eben so .. es gibt kein recht darauf, dass ein händler etwas anbieten muss, was ein hersteller bewirbt.

dildo4u
2017-08-22, 13:36:27
Stimmt es das zur Zeit nur Samsung HBM2 an AMD liefert?Das könnte die Preise erklären keine Konkurrenz kein Preisdruck für Samsung.

Flusher
2017-08-22, 13:38:43
Hat Vega eigentlich TrueAudio? Hat AMD überhaupt mal was dazu gesagt, oder ist das wieder völlig in der Versenkung verschwunden?

2Ms
2017-08-22, 13:44:00
True Audio Next
Nicht kompatibel mit True Audio. Musste die Erfahrung bei der RX480 und Thief machen. So lief Thief trotz AMD-Karte nur im Software-Modus beim Faltungshall.

unl34shed
2017-08-22, 13:50:46
wozu? wenn alternate die nicht stanalone im angebot hat, dann ist das eben so .. es gibt kein recht darauf, dass ein händler etwas anbieten muss, was ein hersteller bewirbt.

Dann sollen sie mir aber doch bitte nicht erzählen, dass es die Spiele für umme gibt. Sondern es zB. dass man nicht plant die standalone anzubieten.

Erbsenkönig
2017-08-22, 13:53:37
Stimmt es das zur Zeit nur Samsung HBM2 an AMD liefert?Das könnte die Preise erklären keine Konkurrenz kein Preisdruck für Samsung.

Schon gesehen?

http://www.tomshardware.de/amd-vega-package-probleme-unterschiede,news-258365.html

DrumDub
2017-08-22, 14:12:29
Dann sollen sie mir aber doch bitte nicht erzählen, dass es die Spiele für umme gibt. Sondern es zB. dass man nicht plant die standalone anzubieten. ok. versteh was du meinst.

Troyan
2017-08-22, 14:16:00
Dann sollen sie mir aber doch bitte nicht erzählen, dass es die Spiele für umme gibt. Sondern es zB. dass man nicht plant die standalone anzubieten.

Die Spiele sind kostenlos. Das ist die offizielle Bewerbung von seitens AMD. Du kaufst die Bundle-Karte. Diese kostet 100€+ mehr. Mit der Karte berechtigst du dich für einen 85€ Rabatt beim Kauf von CPU und Mainboard. Und zu dieser Karte gibt es das kostenlose Spielepaket.

Alternate verkauft nicht die 499€ Karte. Also können sie dir die Bundle-Karte auch nicht für den Preis anbieten.

Grendizer
2017-08-22, 14:16:46
Ist das normal das der Chip bis zur fertigen Grafikkarte mehrere verschiedene Herstellerstrassen durchlaufen muss. Ich habe in meinem naiven Denken immer geglaubt, das der Hersteller die Chips an die Partner liefert, die Speicherhersteller die Speichermodule und dann in einer Fertigungsstrasse alles zusammengeklebt wird und am Schluss eine Grafikkarte rauskommt.

ndrs
2017-08-22, 14:29:14
Ganz früher war das mal so. In letzter Zeit Kaufen die GPU-Hersteller Speicherchips ein und geben diese zusammen mit der GPU an den Hersteller der Karte weiter. Bis dahin hat die GPU aber schon die eigentliche Chipfertigung und das Packaging als getrennte "Straßen" hinter sich. Jetzt kommt halt noch das Aufbringen von GPU und HBM auf den Interposer dazu.

Screemer
2017-08-22, 14:30:43
Stimmt. Die 290X TriX hab ich mit 1035MHz und 1156mV laufen, vgl zu 1040MHz und 1231mV. Ein Wahnsinn, wie leise die Karte seitdem ist. :cool:
auch polaris war oft völlig überzogen, was die spannungen angeht. die ref. lag oft bei >1,2v. meine strix 480 bei 1,15v. manuel kam ich mit 1350mhz mit knapp unter 1,1v aus und mit 1290mhz konnte ich sogar auf unter 1,06v. da ist bei amd oft so viel spielrau, dass es kaum zu glauben ist. scheint sich ja bei der v56 zu wiederholen.

unl34shed
2017-08-22, 14:54:54
Alternate verkauft nicht die 499€ Karte. Also können sie dir die Bundle-Karte auch nicht für den Preis anbieten.

Habe ich das verlangt? Ich wollte wissen ob und wann sie die standalone Karte ins Lager bekommen, da sich für mich der Aufpreis zu einem Pack nicht lohnt. Ich habe schon einen Ryzen 7 und die Spiele interessieren mich nicht bzw. wäre mir mit Prey wo ich zumindest noch etwas interessant finde keine 100€ wert.

Und wenn man 100€ extra zahlt um 2 Spiele zu bekommen, ist das für mich nicht gratis. Ist aber wohl eine Definitions Sache.

Troyan
2017-08-22, 15:10:43
Eventuell hat Alternate dich missverstanden. Die Antwort ist jedoch in sich genommen richtig. Du kaufst hier die "Bundle"-Version Karte. Diese kostet 100€ mehr. Die Spiele gibt es zu dieser Karte kostenlos dazu.

Das natürlich eine "Standalone"- und "Bundle"-Version für sich genommen sinnlos sind, sollte klar sein. Aber AMD verlangt eben für zweiteres 100€ mehr und verkauft auch nur diese Version an die (Zwischen-)Händler.

Du kannst also nicht einfach "downgraden" indem du auf die zwei Spiele und den Rabatt verzichtest...

Achim_Anders
2017-08-22, 15:22:51
Das wollte er auch nicht. Er wollte eine non Bundle Karte kaufen und von Alternate nun wissen, wann die non bundle karte wieder erwerbbar ist.
Also ja, Alternate hat falsch geantwortet

Grendizer
2017-08-22, 15:40:46
Irgendwie wird die ganze Situation schön geredet. Vor 30 Tagen ist die ganze Weld davon ausgegangen, das die Vega 64 ungefähr 1080 Leistung zu deutlich niedrigeren Preisen liefern wird.

Je näher das Release rückte, desto geringer wurde preisliche Vorteil und kurz vor Release machte dann der Preis von 599 für Vega 64 die Runde. Jetzt ist man sogar bei 649 angelangt, allerdings ohne irgendeinen Miningfaktor, sondern nur durch diese dämlichen Bundles.

Die paar Karten die für 509 Euro in den Handel geglangten, sind doch nur ein Alibi seitens AMD um zu bestätigen, das es einen Releasepreis von 509 Euro gegeben hat.

Der tatsächliche Preis ist aber nunmal 649 Euro.

Iruwen
2017-08-22, 15:45:18
Die FE wurde für "smooth 4K gaming" angekündigt, die "gaming-optimized" Vega sollte nochmal was drauflegen. Das wäre imo noch über der 1080, oder würde die jemand als 4K-Karte bezeichnen?

dildo4u
2017-08-22, 15:45:51
580 kosten meistens um 350€,500 für die 64 waren da immer totale Utopie.
500€ für die 64 sieht man wenn die 580 wieder unter 300 liegen.

Flusher
2017-08-22, 16:45:18
Irgendwie wird die ganze Situation schön geredet. Vor 30 Tagen ist die ganze Weld davon ausgegangen, das die Vega 64 ungefähr 1080 Leistung zu deutlich niedrigeren Preisen liefern wird.

Je näher das Release rückte, desto geringer wurde preisliche Vorteil und kurz vor Release machte dann der Preis von 599 für Vega 64 die Runde. Jetzt ist man sogar bei 649 angelangt, allerdings ohne irgendeinen Miningfaktor, sondern nur durch diese dämlichen Bundles.

Die paar Karten die für 509 Euro in den Handel geglangten, sind doch nur ein Alibi seitens AMD um zu bestätigen, das es einen Releasepreis von 509 Euro gegeben hat.

Der tatsächliche Preis ist aber nunmal 649 Euro.

Listenpreis wird von AMD vorgegeben

Strassenpreis durch Angebot und Nachfrage. Solange AMD nichts am Listenpreis ändert, sehe ich auch keinen Grund AMD etwas vorzuwerfen, ausser schlechter Lieferbarkeit.

Grendizer
2017-08-22, 18:58:18
Eine ganz andere Sache.... ich habe heute mein Coolermaster 520 Watt gegen ein Corsair 750 RM 750I getauscht, weil ich ein ganz übles elektrisches Fiepen hatte und das Netzteil in der Verdacht gehabt habe. Aber wenn die LEDS auf der Vega 64 dauerhaft den maximalen roten Auschlag haben, dann fiept die Karte wie die Sau.

Grendizer
2017-08-22, 19:06:59
Listenpreis wird von AMD vorgegeben

Strassenpreis durch Angebot und Nachfrage. Solange AMD nichts am Listenpreis ändert, sehe ich auch keinen Grund AMD etwas vorzuwerfen, ausser schlechter Lieferbarkeit.

Schlechte Lieferbarkeit gibt es ja eben nicht. Die Radeons Packs sind ja verfügbar. Es ist je AMD Unwille diese Kontingente als "nackte" Karten in den Handel zu bringen. Warum auch, wenn man davon ausgehen kann, das viele Leute den 85 Euro Gutschein auf Kauf von Ryzen Hardware bis September gar nicht einlösen können.

anddill
2017-08-22, 19:08:39
Eine ganz andere Sache.... ich habe heute mein Coolermaster 520 Watt gegen ein Corsair 750 RM 750I getauscht, weil ich ein ganz übles elektrisches Fiepen hatte und das Netzteil in der Verdacht gehabt habe. Aber wenn die LEDS auf der Vega 64 dauerhaft den maximalen roten Auschlag haben, dann fiept die Karte wie die Sau.

Kann ich bestätigen, fiept. Zum Glück recht leise, aber definitiv mehr als meine FuryX, die man kaum gehört hat.
Der Lüfter ist auch ganz schön laut, selbst mit BIOS 2 und etwas abgesenkten Spannungen. Was aber sowieso nicht so richtig funktioniert, mit geänderten Wattman-Einstellungen scheint sie in den tieferen Powerstates zu "kleben", taktet nur sporadisch oder mit synthetischer Vollast hoch auf über ~ 1200MHz.

Und nochwas zum Lüfter: Ich habe das Gefühl da ist noch etwas Optimierungspotential. Das Geräusch klingt sehr hell. Da scheint die Alu-Hülle als Resonanzboden zu wirken. Wenn man mal einen Finger quer über die Alu-Abdeckung kurz hinter (in Strömungsrichtung) dem Lüfter auflegt kann man hören wie das Rauschen deutlich leiser und dumpfer wird. Das ist der leere Raum zwischen Laufrad und Kühllamellen, dort scheint es zu schwingen wie in einer Orgelpfeife und über das Blech nach außen zu dringen. Nachher oder morgen werde ich mal nachsehen ob man da ein kleines Stückchen Butyl oder dünnen Dämmschaum reinbekommt.

eratte
2017-08-22, 19:38:42
Nachher oder morgen werde ich mal nachsehen ob man da ein kleines Stückchen Butyl oder dünnen Dämmschaum reinbekommt.

Habe die Hohlräume um den Lüfter bei meiner RX480 Ref. ausgefüllt. Danach war sie leiser.

Grendizer
2017-08-22, 19:40:42
Habs mal versucht aus ca. 15 cm Entfernung aufzunehmen. Das tiefe Brummen hört man eigentlich nicht, das ist der Seitenlüfter des Coolermaster HAF932.

In den ersten 5 Sekunden hört man nichts. Dann starte ich ein Spiel.... am Schluss dreht die Vega mit 2200 RPM im Powersafemodus (Schalter 2) und 1400 Mhz .

XFX Vega 64 https://drive.google.com/file/d/0B87OJNY5sXrsMUVBcmV0dElqMUE/view?usp=sharing


edit:
Hier hört man bei 5 und bei 9 das Klicken der Maus. Auch die KFA2 fiept sehr stark, deshalb hatte ich Vega durchaus als Alternative überlegt.. Lüfter fängt nicht an zu laufen, da die Karte bei 67°C bleibt und dazu bei Senuas Sacrifice in der Szene statt 107-117 mit 112-136 fps läuft. Hier geht das fiepen ab 17 los

KFA2 1080 EXOC https://drive.google.com/file/d/0B87OJNY5sXrsbmtVU2xiSFpBRWs/view?usp=sharing

Loeschzwerg
2017-08-22, 19:58:02
Hört man da ab Sek. 12 ein Zwitschern der Spulen?

Grendizer
2017-08-22, 20:00:19
Hört man da ab Sek. 12 ein Zwitschern der Spulen?

Jepp... bei 6 ist der Klick der Maus zum starten des Spiel zu hören...., ab 12 die Spulen ... ab 28 fährt langsam der Lüfter hoch. Zwischendrin geht die Festplatte mal in den Sleepmodus.

Sonstige Hardware in dem Rechner: AMD Ryzen 1700X mit einem Noctua NH-D15 SE-AM4, ASUS Prime B350 Plus, Corsair RM750I, Coolermaster HAF932 mit geliefertem Seitenlüfter und Deckellüfter, XFX Vega 64.

horn 12
2017-08-22, 20:54:16
Nun, mit 2200 U/Min kommt mit mit aktiven Bosen auf 55 % und Lautstärke 60% der Lüfter als nicht laut vor ... ? ?
Wie sollte man sich dies anhören um das Bestmögliche Bild zu bekommen

PS: Mein Shop heute 8 Vega 64 Black bekommen, MEINE Silberne ist noch nicht dabei
Andere waren eben sofort raus... und lies mir nur noch 2 bestellen.

basix
2017-08-22, 21:01:03
Die Preise in der Schweiz sind mal so richtig obszön. Die billigste lieferbare Karte V64 fängt bei diesem Händler bei 1000 CHF an ;D
https://www.steg-electronics.ch/de/articlelist/Grafikkarten-11885.aspx

Grendizer
2017-08-22, 21:01:57
Nun, mit 2200 U/Min kommt mit mit aktiven Bosen auf 55 % und Lautstärke 60% der Lüfter als nicht laut vor ... ? ?
Wie sollte man sich dies anhören um das Bestmögliche Bild zu bekommen

PS: Mein Shop heute 8 Vega 64 Black bekommen, MEINE Silberne ist noch nicht dabei
Andere waren eben sofort raus... und lies mir nur noch 2 bestellen.

Schwer zu beurteilen. Bei mir entspricht 100% im Google Pllayer und 60% Windows Lautstärke dem Höreindruck. Aber ich habe auch nur ein Logitech Z506 dran mit 50% aufgedrehter Lautstärke. Man bräuchte wohl einen Referenzton... habe mich da noch nie mit beschäftigt.

Edit: Wenn man eigentlich gewohnt ist, das die Grafikkarte mit 10 mm Lüftern bei max. 1500 rpm dreht, dann sind die 2200 sehr laut.

Matrix316
2017-08-22, 21:14:46
rtZ4DlQ3EGk

gedi
2017-08-22, 22:26:12
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44084-amd-radeon-rx-vega-56-und-vega-64-im-undervolting-test.html

V56 allein durch UV schneller als eine 1080 bei weniger Verbrauch?

dildo4u
2017-08-22, 22:31:16
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/44084-amd-radeon-rx-vega-56-und-vega-64-im-undervolting-test.html

V56 allein durch UV schneller als eine 1080 bei weiniger Verbrauch?

Weniger Verbrauch bei mehr Leistung geht auch mit Pascal.

1.9Ghz bei 160 Watt:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11465948&postcount=4012

Kriton
2017-08-22, 22:31:38
Mal wieder zum eigentlichen Thema:

HardOCP:

What truly needs to be emphasized, is that we had a great gaming experience at 1440p resolution with the Vega 56, overall better than GeForce GTX 1070.

(...)

There is one thing that is very clear, AMD is the king of DirectX 12 API performance at this time. It was true with Polaris, it was true with GCN versions before that, and it’s very true with AMD Vega architecture. When gaming with DX12, AMD Vega does not lose performance. This is in opposition to NVIDIA Pascal which seems to lose a lot of performance in some DX12 games.

In other games AMD Vega actually takes advantage of DX12 and provides faster performance over DX11. In every game comparing Vega to Pascal AMD’s new Vega wins in DX12. This allows games like Sniper Elite 4, Tom Clancy’s The Division and even Gears of War 4 to simply play better and faster on AMD Radeon RX Vega 56. If this trend continues, it will be very positive for both AMD Radeon RX Vega 56 and 64 moving forward comparing to the competition.

In DX11 games we also found AMD Radeon RX Vega 56 mostly faster than GeForce GTX 1070. There are some games that performance is neck-and-neck, and some that are a few percentage faster on GTX 1070. Out of the majority of games we tested in this evaluation though AMD Radeon RX Vega 56 came out on top overall. There were some big performance advantages in some games, and smaller ones in other games. Some were as big as 20%, which is very significant.

AMD Radeon RX Vega 56 is a completely different beast in comparison to GeForce GTX 1070 than Radeon RX Vega 64 was to GeForce GTX 1080. The one slow area once again seems to be MSAA in some games, but if you can use FXAA or SMAA shader based AA methods instead performance should be very close.

Und zum Preis:

That’s where the price becomes the most important factor. We must compare retail custom Vega 56 cards against equally priced GTX 1070 custom cards. The MSRP of Vega 56 is $399, and GTX 1070 is also $399. However, prices in the real-world at street prices can and do end up being different. Right now, prices are being insanely high on custom GTX 1070 cards in retail, and who knows how pricing on AMD Radeon RX Vega 56 is going to end up.

The official retail sale of the AMD Radeon RX Vega 56 isn’t until August 28th. We will have to wait and see what happens in terms of pricing. If AMD Radeon RX Vega 56 is at MSRP, then it’s a killer deal and great value compared to GeForce GTX 1070. If the video card is even $100 more expensive though in retail, then GeForce GTX 1070 is probably the better buy. Pricing is going to determine everything, and is so important to this launch.

https://www.hardocp.com/article/2017/08/22/amd_radeon_rx_vega_56_video_card_review/18

gedi
2017-08-22, 22:35:01
Weniger Verbrauch bei mehr Leistung geht auch mit Pascal.

1.9Ghz bei 160 Watt:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11465948&postcount=4012

mit den 1.9G ist se aber nicht schneller als die UV-56.

dildo4u
2017-08-22, 22:40:17
mit den 1.9G ist se aber nicht schneller als die UV-56.
Mit 1.9 ist sie ca 10 % schneller als die 1080 FE,die 56 UV ist bei den Games immer unter 10% schneller als die FE.

Die MSI Gameing X+ ist 12 % schneller als die FE.

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-3840-2160

Läuft mit 1.85Ghz.

https://www.msi.com/Graphics-card/GeForce-GTX-1080-GAMING-X-Plus-8G.html#hero-overview

gedi
2017-08-22, 22:50:26
Mit 1.9 ist sie ca 10 % schneller als die 1080 FE,die 56 UV ist bei den Games immer unter 10% schneller als die FE.

Die MSI Gameing X+ ist 12 % schneller als die FE.

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-3840-2160

Läuft mit 1.85Ghz.

https://www.msi.com/Graphics-card/GeForce-GTX-1080-GAMING-X-Plus-8G.html#hero-overview

Ich hatte bereits selbst eine 1080 und weiß daher, dass die 1.9G ohne eine gescheite Kurve null Aussagekraft haben. Und 1.9G sind bei einer 1080 praktisch nichts.

BlacKi
2017-08-22, 22:52:42
Weniger Verbrauch bei mehr Leistung geht auch mit Pascal.

1.9Ghz bei 160 Watt:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11465948&postcount=4012
vorsicht, das waren annahmen meinerseits, abgeleitet von meiner 1070 und die auch nicht ganz korrekt, weil sie ein micron bios mit 185w drauf hat und nicht mehr mit 215w. ob meine annahmen stimmen müsste jemand prüfen.

dildo4u
2017-08-22, 22:54:01
Ich hatte bereits selbst eine 1080 und weiß daher, dass die 1.9G ohne eine gescheite Kurve null Aussagekraft haben. Und 1.9G sind bei einer 1080 praktisch nichts.
Wieso sind 1.9Ghz praktisch nix?Die MSI ist bei CB klar schneller als die FE Karte.1.9Ghz scheint so ziemlich der Sweetspot zu sein,es ist eher Schwachsinn ist die Karte zwanghaft mit 2Ghz laufen zu lassen und dafür über 200 Watt zu ziehen.

gedi
2017-08-22, 22:55:51
Zumal die 1080 Gaming ein 240W-Bios hat. Und von den macht sie auch oft gebrauch. Die MSI braucht für ihre 1.9G mehr als 200W und z.B. das Fururemark-Ergebnis (ich weiß Aussagekraft meh) entspricht einer GTX 1080 mit ~ 2.1G was min. 260W entspricht. Eine Zotac Amp! Extreme (hatte ich auch schon) nuckelt für dauerhafte 2.1G mal locker 300W aus dem Netzteil.

dildo4u
2017-08-22, 22:58:50
Nein sie läuft mit 175 Watt out of the Box 75% von 230.

http://abload.de/img/msigameingeej0e.png


https://youtu.be/zQI9zrKnH5Y?t=8m42s

BlacKi
2017-08-22, 23:06:35
Zumal die 1080 Gaming ein 240W-Bios hat. Und von den macht sie auch oft gebrauch. Die MSI braucht für ihre 1.9G mehr als 200W und z.B. das Fururemark-Ergebnis (ich weiß Aussagekraft meh) entspricht einer GTX 1080 mit ~ 2.1G was min. 260W entspricht. Eine Zotac Amp! Extreme (hatte ich auch schon) nuckelt für dauerhafte 2.1G mal locker 300W aus dem Netzteil.
das ist doch aber mal voll am thema vorbei...
bei 2,1ghz ist nichts mehr mit undervolting. aber bei 2ghz@1v,hat man schon ca 15% over FE und das wohl mit avg 180w. und 1,9g@0,9v sind dann nur noch ca 160w.

gedi
2017-08-22, 23:09:09
Bei einer Auslastung von 72% :rolleyes:

Spiele mal PUBG in 4k mit der Karte und du wirst sehen, dass die 230W (sorry my bad) nirgendwo hinreichen. Meine TI braucht in dem Spiel mit 2G@1V ~320W.

@Blacki

ich weiß, nur sollest auch du wissen, dass Pascal-OC mit UV nicht dem entspricht, was durch werksseitigem OC zustande kommt.

dildo4u
2017-08-22, 23:10:51
Bei den 72% geht's um das Powerlimit,die Karte ist bei 4k Wichter 3 natürlich voll ausgelastet.Einfach das Video gucken.

Civtam
2017-08-22, 23:35:08
Wo ist der Bezug zu Vega?
BTT
Wird die 56 wieder um 15 Uhr gelauncht am 28. oder gibt es diesmal ein weiteres Fenster? Ich möchte gerne eine der 30 Karten, die nur die UVP kosten ergattern ;)

TheGood
2017-08-22, 23:35:33
MAn sollte echt mal auf dem Boden bleiben mit dem ganzen Preisgebashe gegen AMD. Immerhin haben sie zum Launch karten zum günstigen Preis geliefert. Das kann man von Nvidias Launch nicht sagen. Selbst die ersten Customs sind nicht zum günstigen MSRP rausgekommen.

Hier sollte einfach mal ncoh 2-4 Wochen abgewartet werden und dann kann gerne gebasht werden... soviel Fairness sollte schon sein.

dildo4u
2017-08-22, 23:58:08
NV hat den teuern Preis für ihre FE Karten beim Launch bekannt gegeben,die Karte wurde nicht plötzlich teurer als versprochen.AMD hingegen hat die 500$ für ihre Version genannt.Hätte sie gesagt die Karte kostet 600 zum Launch wäre es vergleichbar mit NV,so haben sie was versprochen was sie nicht halten können.

Kriton
2017-08-23, 00:00:34
Es ist scheinbar schwer zu verstehen, aber:

Listenpreis wird von AMD vorgegeben

Strassenpreis durch Angebot und Nachfrage. Solange AMD nichts am Listenpreis ändert, sehe ich auch keinen Grund AMD etwas vorzuwerfen, ausser schlechter Lieferbarkeit.

BlacKi
2017-08-23, 00:13:16
Es ist scheinbar schwer zu verstehen, aber:
ja, aber welche schlechte lieferbarkeit? die karten sind doch überall lieferbar und lagerhaltig?



@Blacki

ich weiß, nur sollest auch du wissen, dass Pascal-OC mit UV nicht dem entspricht, was durch werksseitigem OC zustande kommt.
was die leistung angeht? meine karte hat werks OC und wenn ich zusätzlich OC betreibe und dabei undervolte steigt die leistung und der verbrauch sinkt ggü. dem werks OC. worauf du hinaus wilslt kann ich nicht nachvollziehen.

horn 12
2017-08-23, 00:15:35
Lieferbar aber zu überzogenen Preisen
Alles über 550 ist Wucher!

In Italien ist es aber nicht besser 679 Euro verlangen sie dort für die Black Air von Sapphire.

captain_drink
2017-08-23, 00:21:09
Der Unterschied ist: Listenpreise gab es für stand-alone Karten und Bundles -- lediglich Letztere sind aber momentan in größerem Umfang erhältlich. Die Preisangaben waren insofern nicht falsch, aber die Erwartungen, die hinsichtlich dessen geweckt werden, welches Angebotsmodell hauptsächlich verfügbar sein wird. Keine Täuschung, aber Irreführung allemal.

Kriton
2017-08-23, 00:21:17
ja, aber welche schlechte lieferbarkeit? die karten sind doch überall lieferbar und lagerhaltig?

Jein. Die Bundles und die Einzelkarten werden mit Sicherheit als eigene SKUs gehandhabt. Daher kann die Einzelkarte (SKU 1) out of stock sein und ein Bundle (SKU 2) weiter verfügbar.

Der Unterschied ist: Listenpreise gab es für stand-alone Karten und Bundles -- lediglich Letztere sind aber momentan in größerem Umfang erhältlich. Die Preisangaben waren insofern nicht falsch, aber die Erwartungen, die hinsichtlich dessen geweckt werden, welches Angebotsmodell hauptsächlich verfügbar sein wird. Keine Täuschung, aber Irreführung allemal.

IMHO war AMD dort durchaus ehrlich. Sie haben gesagt, dass sie Bundles präferieren um den Preis für Miner höher/zu hoch zu halten. Was hat man denn mit der Aussage erwartet? Eigentlich funktioniert es wie geplant: Die Bundles sind verfügbar.
Ob das jetzt vertriebsmäßig der große Wurf war, ist eine andere Frage. Aber so zu tun als hätten sie getäuscht ist doch ein wenig absurd.

Die Aussagen der (großen) Händler sind IMHO auch nur vorgeschoben. Die kannten (im Voraus) ihre Vertragsbedingungen und die Abnahmemengen die sie bekommen würden/wollten.

Linmoum
2017-08-23, 00:24:16
ja, aber welche schlechte lieferbarkeit? die karten sind doch überall lieferbar und lagerhaltig?
Nur hat sich AMD dazu entschieden, dass Kontingent A die GPU an sich beinhaltet und Kontingent B aus einem Bundle besteht. A ist bereits vergriffen, B noch vorrätig. Ergo kriegt man momentan keine einzelne Karte, sondern muss bei Interesse zu der Bundle-Lösung greifen, wenn man eine RX64 haben will.

Man kann sicherlich kritisieren, dass AMD vielleicht mehr Einzelkarten hätte bereitstellen sollen und dafür bei den Bundles etwas weniger, die sowieso nur von kurzer Dauer sind. Aber nicht, dass AMD den angekündigten SEP von $499 im nachhinein erhöht hat. Der liegt immer noch dort, genauso wie die weiterhin vorrätigen Bundles mit den angekündigten $599 zu haben sind.

Das sind dann einfach zwei unterschiedliche SKUs in diesem Falle. Außerdem, wie Kriton auch sagt, haben sie ja auch gesagt, dass sie (u.a.) aufgrund der Miner die Bundles priorisieren.

horn 12
2017-08-23, 00:41:59
Ruby ist Back:

https://mobile.twitter.com/Radeon/status/900092763651416068/video/1

BlacKi
2017-08-23, 01:02:40
man hätte das bundle auch größer machen können. die 2 spiele sind doch keine 100€ wert.

burninghey
2017-08-23, 01:15:50
Vega64 hier - XFX Vega 64 Black (Luft) mit i5 6500 im Deep Silence 4. Das zweite Bios hab ich noch nicht probiert, aber allein das erste gibt schon so viel her .... man kann im Treiber zwischen Power Save, Standard und Turbo wählen.

Power Save ist mit schwachem Netzteil bitter nötig, mit 450W Netzteil (FractalDesign Edison450M) waren Furmark oder Bechmarks nicht machbar aber lauffähig mit wenig Abstürzen.
Mit 650W Netzteil (Corsair CS650M) Rock Stable.

Bei Erreichen der 85°C Schwelle taktet die Karte herunter. Der Referenzkühler ist zwar zuverlässig, hat aber in der Standardeinstellung (max 2400rpm) seine liebe Mühe die Temp im Zaum zu halten. Die exzessive Hitze die Furmark erzeugt ist natürlich genauso wenig hilfreich wie das gedämmte Gehäuse oder der solo Frontlüfter. Die Geräuschentwicklung ist aber absolut im Rahmen für den unbedarften User der auch ohne Nachzudenken ein Boxed Lüfter einsetzt.

Mit manuell bis zu 4600 rpm sind Temperaturen kein Thema mehr aber man sollte ne Versicherung für den nächsten Gehörschaden abschließen. Da muss wohl eine Wasserkühlung her :)

Standardtakt ist GPU 1630 MHz, HBM 945 MHz.
Furmark für maximale Auslastung (wird in Spielen/Benchmarks nicht erreicht).

Power Save:
Powertarget -25%, die Karte hängt zuerst im Powerlimit, wenig später auch im Temperatur Limit mit durchschnittlich GPU 1200 und HBM 800. 292 Watt aus der Steckdose maximum. Mit angepasster Lüftersteuerung nur noch im Powerlimit.

Balanced:
Powertarget Standard, im Powerlimit und wenig später im Temp Limit, pendelt sich bei 1400 GPU, 945 HBM ein. 364W max

Turbo:
Powertarget +15%, paar Ausreißer nach oben aber sonst keine Veränderung da weiterhin Temperaturlimit, 405W max

Turbo mit Lüfter entfesselt:
bis zu 1545 GPU und 945 HBM aber pendelt, der Lüfter wird deutlich lauter, hängt im Powerlimit. 444W max

Benutzerdefiniert mit Powertarget +50%:
schwankt zwischen 1545 und 1630 GPU, 945 HBM, Lautstärke jenseits von gut und böse, Temperaturlimit, aus der Steckdose bis zu 590W Maximalwert

Im offenen Testaufbau mit Powertarget +50%:
Stabil 1630 GPU und 945 HBM. Dauerlast ca. 540 Watt. Firestrike: http://imgur.com/1C56pPG

Jake Dunn
2017-08-23, 02:57:52
Oder halt 549€ mit "Wolfenstein New Colossus" überall.

unl34shed
2017-08-23, 08:07:33
man hätte das bundle auch größer machen können. die 2 spiele sind doch keine 100€ wert.

Du bekommst ja auch noch 85€ (bzw. bei Caseking 100€) Rabatt auf ein Ryzen 7 X mit einem der teuersten Boards. Wenn du dir eh ein Ryzen System holen wolltest, Mit entsprechendem Board, ist das Angebot nicht so schlecht, die Auswahl der Boards allerdings schon.

(In den USA gibt es ja sogar noch die 200$ Rabatt auf den Monitor)

Interessieren dich die Spiele nicht und du hast eh schon Ryzen, sind die Packs halt für die Füße, da 100€ Aufpreis für nichts.

Also für eine recht kleine Gruppe ein gar nicht mal so schlechtes Angebot,also der Nische in der Nische und dennoch wurde von den Shops leider nur die Packs in Massen geordert.

gnomi
2017-08-23, 09:44:18
Ich denke die Bundles sind verkaufstechnisch gar nicht mal so schlecht aufgestellt.
So verkauft man ja alles aus einer Hand und macht sich die endlich wieder konkurrenzfähigeren CPU's gleich zu nutze.
Wolfenstein 2 dürfte auch ein richtig guter Zugtitel sein. (allerdings nichts so stark wie Destiny 2, obwohl es mich persönlich als SP Spiel natürlich mehr anspricht)
Die reine GPU ist hingegen nicht sonderlich günstig. Ich wette, da haben die meisten mit anderem gerechnet...

Matrix316
2017-08-23, 10:06:54
Was man so von der Asus Strix hört, scheinen die Custom Karten ja doch deutlich besser zu sein. Wenn ich eine Vega kaufen wöllte, würde ich glaube ich noch warten und nicht das Referenzmodell nehmen. Wenn die natürlich über 700 dafür dann haben wollen... sollte man lieber eine 1080TI nehmen.

Raff
2017-08-23, 10:49:00
Was man so von der Asus Strix hört, scheinen die Custom Karten ja doch deutlich besser zu sein. Wenn ich eine Vega kaufen wöllte, würde ich glaube ich noch warten und nicht das Referenzmodell nehmen. Wenn die natürlich über 700 dafür dann haben wollen... sollte man lieber eine 1080TI nehmen.

Dass die Custom-Designs besser werden, ist gewiss. Man sollte nur nicht erwarten, dass die Dinger wesentlich schneller arbeiten als die Referenzkarten. Das ginge nur über Strom – und diesbezüglich sind die AMD-Designs bereits am Rand des Tolerierbaren gebaut. 2,5- bis 3-Slot-Kühler mit 2- bis 3-facher Axialbelüftung werden Vega aber leise bändigen können. Die Abluft landet dann aber im Gehäuse.

MfG,
Raff

BlacKi
2017-08-23, 10:53:01
Dass die Custom-Designs besser werden, ist gewiss. Man sollte nur nicht erwarten, dass die Dinger wesentlich schneller arbeiten als die Referenzkarten. Das ginge nur über Strom – und diesbezüglich sind die AMD-Designs bereits am Rand des Tolerierbaren gebaut. 2,5- bis 3-Slot-Kühler mit 2- bis 3-facher Axialbelüftung werden Vega aber leise bändigen können. Die Abluft landet dann aber im Gehäuse.

MfG,
Raff
wie ist deine persönlich einschätzung zu den OC+UV ergebnissen aus dem Luxx? hast du schon hand an die voltage legen können? oder kommt das noch?

Du bekommst ja auch noch 85€ (bzw. bei Caseking 100€) Rabatt auf ein Ryzen 7 X mit einem der teuersten Boards. Wenn du dir eh ein Ryzen System holen wolltest, Mit entsprechendem Board, ist das Angebot nicht so schlecht, die Auswahl der Boards allerdings schon.
ob ich nun ein überteuertes pack oder eine durch mining verteuerte karte kaufe, am ende kommt dasselbe raus. keine vega verkäufe. was sich amd dabei gedacht hat???

Raff
2017-08-23, 10:54:58
Alles sehr buggy, der Wattman scheint oft zu würfeln. An unseren Testrechnern funktioniert's oft kurz und dann lange nicht, jedenfalls ist das aktuell (RS 17.8.1) nichts, was man zuverlässig testen könnte. Lustigerweise klappte das bei der Frontier Edition und der RPS 17.6 besser. :ugly:

MfG,
Raff

nairune
2017-08-23, 11:18:08
Haben sie beim Luxx ja auch so geschrieben. Naja das wird wieder typisch für AMD Karten in letzter Zeit: Zum Launch jammern alle und es ist noch einiges buggy, nach einigen Wochen / Monaten ist es dann eine grundsolide Karte.

Habe da noch nie drauf geachtet, aber ändern Customs manchmal was an der Spannung oder läuft das immer fest auf der AMD Vorgabe? Das Potenzial der 56 ist ja super und ich hätte auch kein Problem da Hand anzulegen, aber solange der Treiber nicht gefixt ist und Wattman sich zurücksetzt, ist das völlig unpraktikabel. Und in Tests würde eine Karte mit etwas UV sicher auch positiv herausstechen. Solang sie nicht instabil wird :)

BlacKi
2017-08-23, 12:54:22
werden die custom karten ohne packs kommen? dann ist das thema eh vom tisch oder?

G3cko
2017-08-23, 13:02:02
Mit Sicherheit. Aktuell sieht es ja so aus, dass es die packs nur bei den großen Shops gibt die regelmäßig mit den Herstellern solche Angebote anbieten. Ursprünglich war wohl geplant die veganer Karten 2 Monate mit den packs anzubieten und anschließend preiswerter ohne. Im Prinzip wie die FE von nvidia nur das es da keine Spiele gab. AMD rudert zwar etwas zurück und versprich in ein paar Wochen die standalone, aber ob das nun 7 Tage oder 4 Wochen sind und wie viele weiß man leider nicht. Ich hab die Karte nun bestellt und fertig.

mjs
2017-08-23, 13:06:01
Vega64 hier - XFX Vega 64 Black (Luft) mit i5 6500 im Deep Silence 4. Das zweite Bios hab ich noch nicht probiert, aber allein das erste gibt schon so viel her .... man kann im Treiber zwischen Power Save, Standard und Turbo wählen.

Power Save ist mit schwachem Netzteil bitter nötig, mit 450W Netzteil (FractalDesign Edison450M) waren Furmark oder Bechmarks nicht machbar aber lauffähig mit wenig Abstürzen.
Mit 650W Netzteil (Corsair CS650M) Rock Stable.

Danke für die Schilderung -dann ist die Empfehlung auf dem XFX Karton (habe exakt die gleiche Karte wie du ) hinsichtlich NT doch nicht völlig übertrieben.

Ich bleibe bei meinem System (580W NT) trotzdem auf BIOS2+PowerSave, nächstes Jahr kommt nach fünfeinhalb Jahren IvyBridge ein neuer Unterbau mit Zen+.
Da kommt dann auch ein neues stärkeres Netzteil rein (ich denke eh, das mein Unterbau die VEGA GPU nicht immer passend füttern wird).

Trotzdem finde ich es geil, diese Karte im System zu haben.

Dino-Fossil
2017-08-23, 13:18:50
AavuWT17X48

Man kann über seine Vorschläge streiten, wie die Preisgestaltung von Vega hätte aussehen sollen, aber sein letzter Punkt ist nicht ganz von der Hand zu weisen:

Der verhunzte Vega-Launch hat Threadripper einigermaßen überschattet und AMD sicherlich einiges an postivem Marketingeffekten gekostet.
In der Tat kein guter Zug von der RTG.

Grendizer
2017-08-23, 13:47:55
Der Vergleich der Vega 64 mit einem Boxed Lüfter (z.b. I5-3570K Boxed) ist vollkommen daneben. Der Intel Lüfter ist zwar deutlich wahrnehmbar bei Volllast, aber bei weitem nicht so laut wie der Vega 64 Lüfter, wenn der versucht die 70-85° C Temperatur aus dem Gehäuse zu bringen,

Flusher
2017-08-23, 14:16:32
Der Vergleich der Vega 64 mit einem Boxed Lüfter (z.b. I5-3570K Boxed) ist vollkommen daneben. Der Intel Lüfter ist zwar deutlich wahrnehmbar bei Volllast, aber bei weitem nicht so laut wie der Vega 64 Lüfter, wenn der versucht die 70-85° C Temperatur aus dem Gehäuse zu bringen,

Er hat auch nicht behauptet, dass Vega gleichlaut wie ein Boxed Kühler wäre, sondern den Ansprüchen eines Users genüge, die sich typischerweise mit einem boxed Kühler zufrieden geben.

RoughNeck
2017-08-23, 14:23:38
Der Vergleich der Vega 64 mit einem Boxed Lüfter (z.b. I5-3570K Boxed) ist vollkommen daneben. Der Intel Lüfter ist zwar deutlich wahrnehmbar bei Volllast, aber bei weitem nicht so laut wie der Vega 64 Lüfter, wenn der versucht die 70-85° C Temperatur aus dem Gehäuse zu bringen,

Wie willst denn auch halbwegs leise knapp 400W mit einem Radial Lüfter abführen? Der muss zwangsläufig aufdrehen. So einen 3570K leise zu kühlen ist ja keine Kunst, das schafft jeder 10€ Kühler.

Grendizer
2017-08-23, 14:29:21
Wobei wir wieder beim Vega schönreden sind. Das Ding ist unter Volllast auch im Powersafemode scheisse laut und das macht definitiv keinen Spass.

Linmoum
2017-08-23, 14:32:31
Nur hat das nichts mit Vega schönreden zu tun, wenn du dir andere Radeons und Geforces im Referenzdesign anschaust (bzw. anhörst...)

Da gibt's schlicht keine Wunder.

Noebbie
2017-08-23, 14:52:53
Ich hoffe auf eine Sapphire Vega Nitro (oder ähnlich).

Diese Karte mit Vega 56 Chip kann sicherlich einiges ausbessern. Die wird vermutlich auch entsprechend leiser sein. Dauert wohl bestimmt wieder bis diese erscheint. Aktuell habe ich noch eine Fury Nitro im System und die läuft mit Mod Bios auf 1,1GHz. Bei Release einer ähnlichen Vega würde ich wechseln wollen!

Cyphermaster
2017-08-23, 15:04:53
Wie willst denn auch halbwegs leise knapp 400W mit einem Radial Lüfter abführen? Der muss zwangsläufig aufdrehen. So einen 3570K leise zu kühlen ist ja keine Kunst, das schafft jeder 10€ Kühler.Das ist technischer Unsinn. Radial vs. Axial haben Lüfter vor allem stark unterschiedliche Kennlinien Druck/Fördermenge.
Die Lautstärke liegt in der Auslegung der Komponenten. Der Arbeitsbereich des Referenz-Lüfters/Boxed-Kühlers geht bis zur TDP der Karte/CPU, also 100W niedriger bei der RX. Daß es beim Überschreiten der konstruktiven Auslegung laut wird, ist nur logisch - wenn man per OC einer CPU plötzlich dezente 33% mehr Abwärme erlaubt, dann wird auch der erwähnte Boxed-Kühler mit Axiallüfter deutlich lauter.

Der Mythos, Axiallüfter wären immer und grundsätzlich leiser als Radial-Lösungen kommt lediglich daher, daß man oft einen einzelnen Radiallüfter mit 2-3 Axiallüftern ähnlicher Größe und gleichzeitig entsprechend größeren Kühlerblock vergleicht (also Referenz/Boxed vs. Custom-Cooler).
Ein in Größe/Watt fairer Vergleichs-Boxed-Kühler für einen i5-3670k dürfte nur 1/4 der Größe des Kühlers (nicht des Shroud) auf der RX haben.

Daß die Referenzdesigns für Silent-Freaks oder OC-Jünger nie ernsthaft was taugen, ist aber nun auch wirklich weder neu, noch Vega-spezifisch.