PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX Vega 56/64: Review-Thread


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45

Grendizer
2017-08-15, 13:04:05
Ich vermute auch mal, das wir Deutschen da besonders sensibel sind, gerade in Asien interessiert sich vermutlich kein Mensch für den Stromverbrauch.

Der Verbrauch ist ja eigentlich auch nur auf Grund der notwendigen Kühlung ein wirkliches Thema.

//differentRob
2017-08-15, 13:05:09
Bei mir werkelt noch eine gute alte 7970ghz eh sorry das Teil hört ja offiziell auf den Namen R9 280x, gemäss Verpackung.

Ich finde die Vega56 für mich durchaus interessant. Hätte für mich genügend Power um The Division endlich in Angriff zunehmen, die alten Schinken laufen ohnehin mit mehr als ausreichender FPS. Und künftigen Spiele mit der Frostbite Engine (neues Battlefield 2018, hust), sehe ich gelassen entgegen. Frostbite scheint AMD zu liegen, resp. die Jungs aus dem Hause DICE wissen sicherlich mit den neuen Features umzugehen... sei es schon nur wegen der PS4pro.

Und im PowerSaver Modus bin ich sogar noch effizienter. Jetzt müssen nur noch gute Customs kommen und der Preis im vertretbaren Sphären bleiben (Miners... go and play in hell).

dildo4u
2017-08-15, 13:06:11
Schätze mal AMD hat drauf gesetzt das es Mitte 2017 öfter so aussiehst.

http://i.picpar.com/NQ1c.png


Das ist natürlich immer noch selten der Fall und so mussten sie über den Takt gehen.

dargo
2017-08-15, 13:09:09
Die Gamestar testet die LCE. Das hat nix mit einer luftgekühlten Karte zu tun, weder die Leistung noch die Temperaturen. ;)

Aha... das kleine aber feine Detail übersehen. Kam mir schon etwas spanisch vor so ein kleiner Radiallüfter und nur ~1.000RPM. :tongue: Die kleinste Asic Power ist zwar 15W höher bei der AIO als Air. Aber das kann man beinah durch die AIO wieder aufwiegen denke ich.

Ich vermute auch mal, das wir Deutschen da besonders sensibel sind, gerade in Asien interessiert sich vermutlich kein Mensch für den Stromverbrauch.
Vor allem nicht für die Lautstärke laut igor. Er meinte mal... für Asiaten bedeutet eine laute Grafikkarte, dass sie viel Power hat. :D

Screemer
2017-08-15, 13:13:10
Die Gamestar testet die LCE. Das hat nix mit einer luftgekühlten Karte zu tun, weder die Leistung noch die Temperaturen. ;)

MfG,
Raff
Sorry, dass hatte ich natürlich ausgeblendet.
https://community.amd.com/message/2815591
Na super. Sehr schade. Wird dann wohl weiterhin den pro-modellen vorbehalten sein. Die Hardware kann das seit Tonga. Pcie passthrough funktioniert ja. MxGPU für alle wäre aber cool.

uweskw
2017-08-15, 13:13:13
Schätze mal AMD hat drauf gesetzt das es Mitte 2017 öfter so aussiehst.

http://i.picpar.com/NQ1c.png


Das ist natürlich immer noch selten der Fall und so mussten sie über den Takt gehen.

Klar, beim Design von Vega ist man davon ausgegangen, dass DX12 und Low-Level bei Markteinführung Standard sind.
Wie lange gibts jetzt DX12? Das kann man ja schon fast DX12 Boykott nenen :biggrin:

greetz
US

Grendizer
2017-08-15, 13:15:31
Klar, beim Design von Vega ist man davon ausgegangen, dass DX12 und Low-Level bei Markteinführung Standard sind.
Wie lange gibts jetzt DX12? Das kann man ja schon fast DX12 Boykott nenen :biggrin:

greetz
US


Kosten und Nutzen stehen wohl nicht in dem Verhältnis, das es für Programmierer interessant ist. Es scheint genug Performance da zu sein, so das man nicht auf die letzten 15% optimieren muss. Und es bringt auch nur bei AMD richtig krasse Vorteile.

M4xw0lf
2017-08-15, 13:15:38
Ich vermute auch mal, das wir Deutschen da besonders sensibel sind, gerade in Asien interessiert sich vermutlich kein Mensch für den Stromverbrauch.
Bei uns ist Strom ja auch teuer, Effizienz ist nicht nur Jux und Tollerei für unsereins. :tongue:

Complicated
2017-08-15, 13:16:06
Die Karte fackelt bei 1.000 RPM ab. BIOS-Standard sind 2.400, mit 2.000 (Wert der Frontier Edition) kommt man aber gut zurande.

*Auf den Messzettel schaut*

Sollte es jemand hinkriegen, die Referenzkarten mit 30 % = 1.500 RPM zu betreiben -> nette 1,7 Sone Lautheit

MfG,
Raff
Mit BIOS 2 und powersave kam die GS nicht über 1k RPM und das bei weniger als 4% Leistungsverlust. Von abfackeln kann da auch keine rede sein. Man sollte das also nicht AO pauschalisieren, nur weil ihr keine Zeit hattet die anderen powermodi und biose zu testen.
Das sehe ich genauso. Wenn man nur einen halben Test durchführt, verglichen mit anderen Publikationen, sollte man etwas mehr Konjunktiv in solche Aussagen legen und sich mal fragen wo die anderen die Zeit her genommen haben, welche die angebliche "Fachpresse" nicht für den Test einräumt. Man darf sich nicht wundern wenn man keine Neutralität ausstrahlt auf diese Weise, nur weil man meint so lapidare Sprüche klopfen zu müssen in Foren.

Beim CB-Test fällt mir mal wieder die Inkonsistenz der gemessenen Werte direkt beim ersten Überfliegen gestern ins Auge. Ich habe es dann ganz genau nochmal gelesen und muss fest stellen, dass man die Ergebnisse dort gar nicht mehr Ernst nehmen kann:
Zunächst einmal wird beim DX12/ASync Compute Test noch nicht einmal die verwendete Auflösung erwähnt, was gar nicht geht bei einer "Fach-Publikation", und zum anderen kommen dort andere Werte raus als in den allgemeinen Benchmarkcharts verzeichnet sind.
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/4/#diagramm-ashes-of-the-singularity-escalation-2560-1440
Werte der Vega64
Ashes of the Singularity
DX11: 53,7 FPS
DX12: 58,7 FPS
D12+AC: 65,0 FPS

Verwendeter Wert der Vega64 in der Benchmarkliste und im Index:
1080p: 60,3 FPS
1440p: 53,4 FPS

Das sieht danach aus, als seien die DX12+AC Tests in 1440p gemacht worden und das DX11 Ergebnis, welches das schlechteste ist, in den Index eingeflossen. Man muss davon ausgehen dass das selbe bei 1080p geschehen ist.

Das steht eindeutig entgegen den bisherigen Behauptungen es werde immer der beste Werte bei den APIs vorab ausgetestet und dieser in der Wertung genutzt. Eine solche Testredaktion hat sämtliche Glaubwürdigkeit verloren und braucht auch keine Test-Schmierzettel zu veröffentlichen.

Ganz besonders Pikant und meine Argumentation unterstützend sind die ebenfalls inkonsistenten Werte der GTX 1080 FE.

Werte der GTX 1080 FE
Ashes of the Singularity
DX11: 58,8 FPS
DX12: 55,3 FPS
D12+AC: 57,1 FPS

Verwendeter Wert der GTX1080 FE in der Benchmarkliste und im Index:
1080p: 59,1 FPS
1440p: 47,4 FPS

Nicht einer der verwendeten Werte im Index entspricht dem hier gemessen.
Wie kann man so etwas auf ein und der selben Seite Publizieren eines Tests und dann erwarten, dass man die Messwerte für glaubwürdig hält? Hier ist wohl erneut die mangelnde Zeit die Ausrede, warum wohl Werte aus alten Tests genutzt worden sind - und das ist noch die wohlmeinendste Erklärung für diese desaströse und unglaubwürdige Veröffentlichung. Schlechte Arbeit und gehört komplett offline genommen bis die wirklich gemessenen Werte überprüft und korrigiert wurden.

Ich fordere Leonidas auf diesen nachgewiesenen Fail von einem Tests nicht in die Wertung hier auf 3Dcenter zu übernehmen bis er überarbeitet wurde. Ein Fall für den "Schlechter Journalismus-Thread"!
Das ist natürlich immer noch selten der Fall und so mussten sie über den Takt gehen.
Hier auch die Ursache warum.

Der_Korken
2017-08-15, 13:17:36
https://community.amd.com/message/2815591

:(

Sehr schade. Hatte ursprünglich mal gehofft, dass man mit Vega ein Linux-System bauen kann, in dem ein Windows als VM läuft, welches aber trotzdem nahezu volle GPU-Leistung bekommt. Damit hätte man Linux als Hauptsystem und Windows 10 als Spiele-Launcher. Dualboot ist mir zu umständlich.

dildo4u
2017-08-15, 13:19:17
Mindfactory will jetzt absahnen 650 für die Air Version.

https://www.mindfactory.de/product_info.php/8GB-Sapphire-Radeon-RX-Vega-64-Aktiv-PCIe-3-0-x16--Retail-_1186795.html

https://www.mindfactory.de/product_info.php/8GB-XFX-Radeon-RX-Vega-64-Black-Aktiv-PCIe-3-0-x16--Retail-_1186799.html

Das sind die Pack Versionen uh genau was befürchtet wurde nur eine paar Karten für 500€,der Großteil wird in den Packs verkauft.

Grendizer
2017-08-15, 13:24:10
Mindfactory will jetzt absahnen 650 für die Air Version.

https://www.mindfactory.de/product_info.php/8GB-Sapphire-Radeon-RX-Vega-64-Aktiv-PCIe-3-0-x16--Retail-_1186795.html

https://www.mindfactory.de/product_info.php/8GB-XFX-Radeon-RX-Vega-64-Black-Aktiv-PCIe-3-0-x16--Retail-_1186799.html

Das sind die Pack Versionen uh genau was befürchtet wurde nur eine paar Karten für 500€,der Großteil wird in den Packs verkauft.

Lol ... die glücklichen die gestern im Mindstar kaufen konnten

Edit: Ich eine Verarschung mit den Packs. Gültig eh nur bis 30.09. und die Spiele für DE bekommt man für 45 Euro.

foenfrisur
2017-08-15, 13:27:46
ich finde auch die 99th percentile wieder mal interessant.

da bricht z.b. die 1080ti auf einmal stark ein, während die vega recht konstant in einem framebereich zu bleiben scheint.

diese dämlichen avg-fps sind echt nervig und oft nicht aussagekrägtig genug.

https://snag.gy/AZ4teP.jpg
https://snag.gy/rKjYDp.jpg
https://snag.gy/tlI13B.jpg



oder hier so komische messfehler??

https://snag.gy/wKm7co.jpg

ohne 99th percentile ist das bild oft irgendwie leicht verfälscht.

ich habe mir gestern jedenfalls ein V64 Liquid gekauft ;D:D
da war sie noch lieferbar....mal sehen, wann sie denn kommt.

mfg

Käsetoast
2017-08-15, 13:27:57
Also ich bin schon ein wenig enttäuscht. Ich kann es auch absolut nicht nachvollziehen wie Dinge wie die Primitive Shader oder HBCC einfach noch nicht funktionieren können wegen schlechten Treibern. Da ist in meinen Augen gewaltig was schief gegangen wo Vega gefühlt doch sowieso recht spät kam. Wer weiß ob da nicht noch ein paar % Leistung schlummern gerade wegen der Shader...

Wirkt auf mich aber nur bedingt wie eine echte Architekturverbesserung, sondern mehr wie ein Aufblähen der Features wo aber nicht viel von ankommt. Das wirkt ähnlich wie bei Tonga wo das mit der Komprimierung der Datenströme gut klang, aber in der Praxis nur wenig Unterschied machte. Vega wirkt ähnlich auf mich - sehr viele neue Features, einige davon aber nicht nutzbar und andere in so gut wie keiner Software integriert. Mir geht da ein wenig der konkrete Mehrnutzen bei z.B. derzeitigen DX11 / DX12 Spielen ab. Irgendwo auch komisch, dass das TBR in der Umsetzung von AMD nicht ähnliche Effekte hat wie das zu Maxwell Zeiten bei NVIDIA war (also vor Jahren!). Es hat zwar manchmal eine deutliche Auswirkung, sehr oft aber eben auch nicht. Da hätte ich wesentlich mehr erwartet...

Ich meine das Vega nicht wirklich mit Pascal konkurrieren konnte war klar - dazu ist Pascal viel zu sehr Richtung Gaming ausgelegt, während Vega ja mehr ein Chip ist auf dem man AUCH gut spielen kann - wenn überhaupt ist das aber eine Kompromisslösung. Ich fand es aber schon sehr krass wie stark der Unterschied zwischen Pascal und Vega ist was Chipfläche und Leistungsaufnahme angeht. Ich denke es war ja nicht wirklich damit zu Rechnen das die Vega Architektur in Spielen Pascals Effizienz erreicht, aber das Vega nun mit deutlich größerem Chip und mit deutlich mehr Leistungsaufnahme gerade so mit Pascal konkurriert finde ich schon schwach. Für neue Architektur + Shrink finde ich das gegenüber der Fury nicht sehr beeindruckend...

Liebäugle aber dennoch mit einer Vega 56 einfach weil ich gerne eine flotte Freesync Karte hätte. Da warte ich aber definitiv auch Customs mit gutem Luftkühler und 2D Lüfterabschaltung ab. Habe immerhin noch die Hoffnung, dass in den nächsten Jahren die Leistung der 56er irgendwann mal dann leicht oberhalb der 1080 liegen wird bei den modernen Titeln...

Complicated
2017-08-15, 13:29:01
@foenfrisur
Diese Werte von CB kannst du allesamt vergessen. Siehe:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11461345#post11461345
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11461359#post11461359

Pirx
2017-08-15, 13:31:04
:(

Sehr schade. Hatte ursprünglich mal gehofft, dass man mit Vega ein Linux-System bauen kann, in dem ein Windows als VM läuft, welches aber trotzdem nahezu volle GPU-Leistung bekommt. Damit hätte man Linux als Hauptsystem und Windows 10 als Spiele-Launcher. Dualboot ist mir zu umständlich.
Sehr schade. Aber technisch wäre es möglich, oder wie?

Grendizer
2017-08-15, 13:31:58
Sehr schade. Aber technisch wäre es möglich, oder wie?

Ja... aber das ist halt eines der Features die für die Pro Version vorbehalten sind....

24p
2017-08-15, 13:33:48
Dass die letzten 5% wichtig sind kann man doch gut an einigen Kommentaren hier sehen. ;)
Da wird dann eine Vega 56 zum 1070 Killer wegen 5%.

Raff
2017-08-15, 13:36:20
Das sehe ich genauso. Wenn man nur einen halben Test durchführt, verglichen mit anderen Publikationen, sollte man etwas mehr Konjunktiv in solche Aussagen legen und sich mal fragen wo die anderen die Zeit her genommen haben, welche die angebliche "Fachpresse" nicht für den Test einräumt. Man darf sich nicht wundern wenn man keine Neutralität ausstrahlt auf diese Weise, nur weil man meint so lapidare Sprüche klopfen zu müssen in Foren.

Siehe diese Postings:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11461314&postcount=496
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11461336&postcount=504
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11461338&postcount=505

Zum "halben Test" äußere ich mich mal nicht, sonst wird's unschön. Ich sag's mal so: Du hast ganz offensichtlich keine Ahnung, wie viel Zeit das (http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/), das (http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Vergleich-vs-Nvidia-1235712/) und die ganze Vorarbeit für das (http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/) zusammen kostet. Selbst dann muss man Prioritäten setzen. Und selbst dann kommen Hasspostings wie deines. Artikel nicht lesen (es gibt da immer so viele komische Schriftzeichen um die Balken und Bilder herum) oder nicht verstehen und dann einfach irgendwas absondern: Ich liebe es.

MfG,
Raff

hq-hq
2017-08-15, 13:39:35
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/4/#diagramm-ashes-of-the-singularity-escalation-2560-1440
Werte der Vega64
Ashes of the Singularity
DX11: 53,7 FPS
DX12: 58,7 FPS
D12+AC: 65,0 FPS

Verwendeter Wert der Vega64 in der Benchmarkliste und im Index:
1080p: 60,3 FPS
1440p: 53,4 FPS

Das sieht danach aus, als seien die DX12+AC Tests in 1440p gemacht worden und das DX11 Ergebnis, welches das schlechteste ist, in den Index eingeflossen. Man muss davon ausgehen dass das selbe bei 1080p geschehen ist.


das sieht nicht nur so aus :redface:

Complicated
2017-08-15, 13:41:29
@Raff
Ok das relativiert das natürlich mit der LCE.
Ich habe sehr wohl Ahnung wie viel Zeit diese Dinge kosten, doch auch wie es andere wie z.B. Anandtech auf die Reihe bekommen. Offensichtlich stimmt bei euch etwas mit der Systematik nicht. Überprüft mal eure Methoden auch auf Effektivität. Andere schaffen das offensichtlich.

Und selbst dann kommen Hasspostings wie deines.
Und jede Kritik die geäußert wird als Hassposting zu verleumden bestätigt nur den Eindruck der Beratungsresistenz und der Scheuklappen. Steht auch dir nicht sonderlich gut.

Raff
2017-08-15, 13:43:07
Vermutlich bin ich wegen der Kombination aus Überstundenwahnsinn und Undankbarkeit einfach gereizt. Kommt bestimmt wieder vor. ;)

MfG,
Raff

vinacis_vivids
2017-08-15, 13:43:15
Ganz besonders Pikant und meine Argumentation unterstützend sind die ebenfalls inkonsistenten Werte der GTX 1080 FE.

Werte der GTX 1080 FE
Ashes of the Singularity
DX11: 58,8 FPS
DX12: 55,3 FPS
D12+AC: 57,1 FPS

Verwendeter Wert der GTX1080 FE in der Benchmarkliste und im Index:
1080p: 59,1 FPS
1440p: 47,4 FPS



Ist ja richtig effizient bei Nvidida's DX12+AC Von 58,8fps auf 57,1fps :
Dann der Text dazu:
"Die GeForce GTX 1080 profitiert dagegen nur um drei Prozent." ;D

Hier GoW4 mit AC:
https://abload.de/img/gowacqllt0.png
Von 79,4fps -> 77,2fps

Text: "Bei der GeForce GTX 1080 steht erneut ein Plus von drei Prozent.":freak:

Erbsenkönig
2017-08-15, 13:43:36
Lol ... die glücklichen die gestern im Mindstar kaufen konnten

Edit: Ich eine Verarschung mit den Packs. Gültig eh nur bis 30.09. und die Spiele für DE bekommt man für 45 Euro.

Scheint derzeit der gängige Preis in Deutschland zu sein.

https://geizhals.eu/?cat=gra16_512&xf=9809_14+10215+-+Radeon+RX+Vega+64

Bei overclockers.co.uk will man für die billigste 64er auch 600 € umgerechnet.

dildo4u
2017-08-15, 13:43:44
@Raff
Ok das relativiert das natürlich mit der LCE.
Ich habe sehr wohl Ahnung wie viel Zeit diese Dinge kosten, doch auch wie es andere wie z.B. Anandtech auf die Reihe bekommen. Offensichtlich stimmt bei euch etwas mit der Systematik nicht. Überprüft mal eure Methoden auch auf Effektivität. Andere schaffen das offensichtlich.


Und jede Kritik die geäußert wird als Hassposting zu verleumden bestätigt nur den Eindruck der Beratungsresistenz und der Scheuklappen. Steht auch dir nicht sonderlich gut.
Jetzt sind die Redakteure wieder Schuld das AMD Mist abgeliefert hat,offensichtlich läuft die Karte auch bei AMD's internen Benches kacke sonst müsste man sie nicht mit 300 Watt fahren.

Grendizer
2017-08-15, 13:44:57
. Selbst dann muss man Prioritäten setzen. Und selbst dann kommen Hasspostings wie deines. Artikel nicht lesen (es gibt da immer so viele komische Schriftzeichen um die Balken und Bilder herum) oder nicht verstehen und dann einfach irgendwas absondern: Ich liebe es.

MfG,
Raff

Danke für Eure Arbeit und es ist leider hier der Fall, das der Überbringer der schlechten Nachrichten eben gehängt werden soll. Ist bei manchen Leuten so, wenn das tatsächliche Ergebnis nicht dem erträumten Ergebnis entspricht und sich dann an einzelnen Meßfehlern echauffieren. Wenn ein Mensch unter Zeitdruck/Stress steht macht er Fehler.

Complicated
2017-08-15, 13:45:53
@dildo4u
Was hat die Leistung der Vega mit falschen Zahlen beim Review zu tun? Wie du siehst sind auch die 1080 FE Zahlen schlicht falsch bei CB.

Einen "abfackeln" Spruch kann man sich als Redakteur ebenso sparen. Ob da nun die LCE genutzt wurde oder nicht zeigt das kein gutes Bild der Person.

Ich sage es immer wieder: Wer öffentlich Meinung macht muss sich der öffentlichen Meinung stellen. Und vor allem etwas mehr Sorgfalt walten lassen als der Durchschnittliche User oder Forist. Sonst kann man auf diese Meinung nichts geben.

Lurelein
2017-08-15, 13:52:16
Schade AMD, Chance verpasst.

hq-hq
2017-08-15, 13:56:57
Ist ja richtig effizient bei Nvidida's DX12+AC Von 58,8fps auf 57,1fps :
Dann der Text dazu:
"Die GeForce GTX 1080 profitiert dagegen nur um drei Prozent." ;D

Hier GoW4 mit AC:
https://abload.de/img/gowacqllt0.png
Von 79,4fps -> 77,2fps

Text: "Bei der GeForce GTX 1080 steht erneut ein Plus von drei Prozent.":freak:

bei Ashes ist es ein Plus von 3 % bei dx12
bei GoW4 wohl eher ein Minus von 3% :freak: (vermutlich Balken/Zahlen vertauscht)
-> Melden macht frei.

https://abload.de/thumb/uga-aggap0jnl.jpg (http://abload.de/image.php?img=uga-aggap0jnl.jpg)

Loeschzwerg
2017-08-15, 13:57:10
Und jede Kritik die geäußert wird als Hassposting zu verleumden bestätigt nur den Eindruck der Beratungsresistenz und der Scheuklappen. Steht auch dir nicht sonderlich gut.

Wenn du schon mit Aussagen wie "angebliche Fachpresse" an den Start gehst, dann wundere dich bitte nicht über das entsprechende Echo. Völlig unabhängig ob du nun recht hast oder nicht ;)

Und wenn dir das Wort "abfackeln" schon nicht gefällt, dann mach es bei deinen Kommentaren doch einfach besser.

Complicated
2017-08-15, 14:01:07
Nun Fachpresse beinhaltet fachmännische Arbeit. Die ist aber hier in weiten Bereichen oft nicht zu sehen. Meine Formulierung schon als Majestätsbeleidigung zu sehen die den Inhalt irrelevant macht bestätigt meine kritische Haltung. Ich schreibe dies auch im Kontext zu den Kritiken gegen Youtuber die kürzlich hier im Forum als "geldgeile Affen" bezeichnet wurden (der Beitrag steht nach wie vor so im Forum) und das gesammelte runter machen von Seiten wie WCCF-Tech. Dann erwarte ich auch bessere Leistung von den Herren auf den hohen Rössern.

Dino-Fossil
2017-08-15, 14:01:26
Das gilt doch offensichtlich nur für die anderen... :rolleyes:

Erbsenkönig
2017-08-15, 14:01:57
Zur Verfügbarkeit: Bei Overclockers.co.uk geht man wohl davon aus, dass die nächsten Karte zum Ende des Monats eintrudeln.

Grendizer
2017-08-15, 14:03:47
Zur Verfügbarkeit: Bei Overclockers.co.uk geht man wohl davon aus, dass die nächsten Karte zum Ende des Monats eintrudeln.


Das ist auch irgendwie nicht das, was AMD versprochen hat. Ich habe da echt so ein Polaris Déjà-vu.

Loeschzwerg
2017-08-15, 14:04:06
Ich schreibe dies auch im Kontext zu den Kritiken gegen Youtuber die kürzlich hier im Forum als "geldgeile Affen" bezeichnet wurden,

Dann bleib damit bitte im vorgesehen Thema und mach nicht hier ein Fass auf. Du bist doch sonst immer so auf Genauigkeit/Richtigkeit bedacht.

//differentRob
2017-08-15, 14:04:15
Schade AMD, Chance verpasst.

Welche Chance, wenn man denn Nachfragen darf?
Den jedes Jahr TopNotch-Aufrüster zu befriedigen? Falls ja, dem dürfte wohl so sein. Der %-Marktanteil ist aber wohl zu vernachlässigen.

Die breite Masse rüstet die Grafikkarte alle 2-3+ Jahre auf und diesen bietet AMD nun Leistungsmässig eine Alternative. Dass die Energieeffizienz besonders bei VEGA 64 auf der Strecke bleibt ist ärgerlich, aber je nachdem was bereits im System verbaut ist, spielt es gar keine Rolle.

z.b. wenn ich meine r9 280x durch eine VEGA 56 ersetze ;)

yamamoto_dc
2017-08-15, 14:06:19
Wird interessant zu sehen, wie kommende Spiele auf Basis von Frostbite und ID Tech6 auf Vega performen werden. Offensichtlich ist es nicht wirtschaftlich alte Spiele dafür noch einmal auzubohren.

Complicated
2017-08-15, 14:06:56
Dann bleib damit bitte im vorgesehen Thema und mach nicht hier ein Fass auf. Du bist doch sonst immer so auf Genauigkeit/Richtigkeit bedacht.
Du schreibst mich hier an anstatt über PN zu diesem Thema - Aufmerksamkeit.
Ich habe hier zu den Reviews geschrieben und das auf den Punkt sachlich. Eine angebliche Fachpresse die keine Gute Arbeit abliefert kann ich ebenso nennen wie einen angeblichen Fliesenleger der in meinem Bad Pfusch fabriziert. Da wird das "Fach" eben angezweifelt und das zu Recht hier in diesem Thread wo die Reviews das Thema sind und ob sie etwas taugen oder nicht.

P.S.: "Ein Fass auf machen" wenn man Kritik übt ist deine zweite Übertreibung. Auch wenn es ein rhetorisches Stilmittel ist, so ist es kein gutes und auch kein sachliches.

Erbsenkönig
2017-08-15, 14:07:07
Das ist auch irgendwie nicht das, was AMD versprochen hat. Ich habe da echt so ein Polaris Déjà-vu.

Die hatten dem vernehmen nach 1000 Karten auf Lager und haben die innerhalb einer Stunde vertickt. Wieso es dann aber solange dauert, bis Nachschub kommt (gestern konnte man dort im Forum sogar noch was vom 10.September lesen), weiß ich auch nicht.

vinacis_vivids
2017-08-15, 14:08:12
bei Ashes ist es ein Plus von 3 % bei dx12
bei GoW4 wohl eher ein Minus von 3% :freak: (vermutlich Balken/Zahlen vertauscht)
-> Melden macht frei.

https://abload.de/thumb/uga-aggap0jnl.jpg (http://abload.de/image.php?img=uga-aggap0jnl.jpg)

1080
58,8fps -> 57,1fps (-3%)

Vega64
53,7fps -> 65,0fps (+21%)

Egal wie man es verdreht oder wendet, die Balken verbiegen sich schon beim hinschauen ;D

Kriton
2017-08-15, 14:09:57
Nun Fachpresse beinhaltet fachmännische Arbeit. Die ist aber hier in weiten Bereichen oft nicht zu sehen. Meine Formulierung schon als Majestätsbeleidigung zu sehen die den Inhalt irrelevant macht bestätigt meine kritische Haltung. Ich schreibe dies auch im Kontext zu den Kritiken gegen Youtuber die kürzlich hier im Forum als "geldgeile Affen" bezeichnet wurden (der Beitrag steht nach wie vor so im Forum) und das gesammelte runter machen von Seiten wie WCCF-Tech. Dann erwarte ich auch bessere Leistung von den Herren auf den hohen Rössern.

Du ignorierst, dass das auch von anderen Usern so wahrgenommen wird. Wie immer gilt: Ein inhatlich korrektes Argument benötigt keine persönlichen Bestandteile. Im übrigen sind die von dir angemerkten Bemerkungen nicht von den Redakteuren, IIRC.

Erbsenkönig
2017-08-15, 14:13:31
Ich bin im Übrigen auch gespannt, was AMD hierzu sagt (hatte ich ja gestern schon zitiert):

https://www.overclock3d.net/news/gpu_displays/amd_s_rx_64_launch_pricing_was_only_for_early_sales/1

So würde die Karte nämlich noch einmal um einiges schlechter dastehen, in den Reviews und generell.

Complicated
2017-08-15, 14:13:49
@Kriton
Die Anmerkungen zur Qualität von WCCF-Tech sind sehr wohl von einigen Redakteuren. Die zu den Youtubern ebenfalls, lediglich das von mir erwähnte Beispiel nicht. Es war das extremste und ich wollte den User hier nicht nennen. Wenn jemandes berufliche Qualifikation angezweifelt wird oder seine Sorgfalt bei der Arbeit ist das nichts persönliches, auch wenn es hier viele dazu machen. Der Umgang damit gehört auch zu einer Fachkraft, sofern sie die Bezeichnung verdient. Muss ich in meinem Beruf auch täglich unter Beweis stellen.

Der Offtopic kann aber gerne an mich per PN gerichtet werden, denn hier hat das nichts zu suchen. Stört euch eine Formulierung meldet es der Moderation und lasst diese bitte entscheiden ob das im Rahmen der Regeln hier ist.

Dino-Fossil
2017-08-15, 14:16:47
Muss diese Diskussion hier geführt werden? Es gibt schon einen Thread dazu.

Ein weiterer Grund auf mehr runde Produkte von AMD zu hoffen: es wird seltener wegen jedem Pups das Forum zugemüllt, weil die Laune mal wieder angekratzt ist...

Complicated
2017-08-15, 14:18:38
Ein mangelhaftes Vega-Review kann doch wohl hier diskutiert werden. In dem anderen Thread sicherlich auch weil es eben die beiden Themen vereint.

Dies ist der Vega-Review-Thread.

hq-hq
2017-08-15, 14:18:53
1080
58,8fps -> 57,1fps (-3%)

Vega64
53,7fps -> 65,0fps (+21%)

Egal wie man es verdreht oder wendet, die Balken verbiegen sich schon beim hinschauen ;D

neee, bei DX11 gibts doch kein Async Compute, du musst also von
55,3->57,1 bei der 1080 (etwa +3%)
und
58,7->65,0 bei der Vega64 (etwa +11%)

ausgehen, also nur DX12 anschauen :wink:
"Während die Radeon RX 580 durch Async Compute unter DirectX 12 mit einem Schub von drei Prozent und die Radeon R9 Fury X mit acht Prozent beschleunigt werden, sind es bei der Radeon RX Vega 64 gleich elf Prozent. Die GeForce GTX 1080 profitiert dagegen nur um drei Prozent."

Loeschzwerg
2017-08-15, 14:22:03
Also ich will hier zumindest relevante Infos lesen und nicht ob einzelne Tests kleinere Unstimmigkeiten aufweisen, dafür gibt es das andere Thema.

---

HBM2 OC bei der Vega 56:

You'll note that a fully maxed out overclock sees power consumption go through the roof. Here we're running the Vega 56 card with its power slider maxed at +50 per cent, core frequency bumped by 11 per cent and with HBM2 RAM pushed to 950MHz, putting the card on par with the Vega 64's prodigious 484GB/s of memory bandwidth. Generally, this overclock provides anything between a seven per cent to 14 per cent performance uplift, but the fans need be adjusted upwards to keep temperatures in check. With that in mind, pushing Vega 56 hard is a task probably better suited to third party cards that are coming in Q4 this year.

...

Another route forward is simply to overclock the HBM2 memory to 950MHz and leave everything else alone. This requires little extra power (we gave it an extra five per cent but it may not even require that), it won't impact thermal performance that much (if at all) and we noted that in titles like Hitman and The Witcher 3, overclocking memory alone got you approximately half of the performance increase of the maxed OC results. It's worth experimenting with as it is essentially free performance with no downsides - the best kind of overclocking, in our opinion.
http://www.eurogamer.net/articles/digitalfoundry-2017-amd-radeon-rx-vega-56-review

Vega scheint also wirklich ordentlich an der Bandbreite zu hängen. Hat hier noch wer weitere Ergebnisse?

dargo
2017-08-15, 14:22:24
Ist ja richtig effizient bei Nvidida's DX12+AC Von 58,8fps auf 57,1fps :
Dann der Text dazu:
"Die GeForce GTX 1080 profitiert dagegen nur um drei Prozent." ;D

Hier GoW4 mit AC:
https://abload.de/img/gowacqllt0.png
Von 79,4fps -> 77,2fps

Text: "Bei der GeForce GTX 1080 steht erneut ein Plus von drei Prozent.":freak:
Ich frage mich bei solchen Vergleichen was 3DMark da bei Timespy mit AC und Pascal fabriziert haben wenn Pascal in der Praxis (Spiele) dennoch Leistung mit AC verliert. Oder nur die Werte vertauscht?

Complicated
2017-08-15, 14:23:13
Ich möchte hier bei der Gelegenheit nochmal deutlich machen, dass ich mir die Argumente von vinacis_vividis nicht zu eigen mache. 90% seiner Beiträge stimme ich nicht zu und möchte auch nicht meine Kritik an fehlerhaften Reviews im Zusammenhang mit der unter den Erwartungen der RX Vega liegenden Performance verstanden wissen.

hq-hq
2017-08-15, 14:27:00
Ich frage mich bei solchen Vergleichen was 3DMark da bei Timespy mit AC und Pascal fabriziert haben wenn Pascal in der Praxis (Spiele) dennoch Leistung mit AC verliert. Oder nur die Werte vertauscht?
jetzt hammwa den Salat :freak:

Pascal verliert bestimmt nicht Leistung, da gabs (hoffentlich;D) nur einen Dreher :freak:

Complicated
2017-08-15, 14:27:45
Also ich will hier zumindest relevante Infos lesen und nicht ob einzelne Tests kleinere Unstimmigkeiten aufweisen, dafür gibt es das andere Thema.Also das sind keine kleineren Unstimmigkeiten. Die wären ja nicht erwähnenswert wenn es als Messungenauigkeit durchgeht. Schau dir den Beitrag von mir noch mal an.

Die RX Vega hätte bei Ashes of the Singularity mit 65 FPS und nicht mit 53,4 FPS gelistet werden müssen. Die GTX 1080 FE mit 58,8 anstatt mit 59,1 (hier ist es eine Kleinigkeit, doch wo kommen die verschiedenen Werte her? Ein anderes Testsystem liegt hier nahe) - hier liegt ein systematisches "Zeitsparen" als Verdacht in der Luft. Ein Test der von früheren Tests mit Werten gefüttert wird hat weniger Relevanz, doch sollte es zwingend erwähnt werden. Wo fängt Betrug an?

Das dreht das Verhältnis völlig auf den Kopf.

vinacis_vivids
2017-08-15, 14:28:27
neee, bei DX11 gibts doch kein Async Compute, du musst also von
55,3->57,1 bei der 1080 (etwa +3%)
und
58,7->65,0 bei der Vega64 (etwa +11%)

ausgehen, also nur DX12 anschauen :wink:
"Während die Radeon RX 580 durch Async Compute unter DirectX 12 mit einem Schub von drei Prozent und die Radeon R9 Fury X mit acht Prozent beschleunigt werden, sind es bei der Radeon RX Vega 64 gleich elf Prozent. Die GeForce GTX 1080 profitiert dagegen nur um drei Prozent."

Ja, die müssen schon erwähnen, dass Nvidia insgesamt verliert wenn sie DX11 da aufführen im Vergleich. Es kann nämlich der Eindruck erweckt werden, dass Nvidia irgendwie profitiert, tut`s aber nicht. Netto steht nunmal ein Minus da.

Dino-Fossil
2017-08-15, 14:29:38
Ich frage mich bei solchen Vergleichen was 3DMark da bei Timespy mit AC und Pascal fabriziert haben wenn Pascal in der Praxis (Spiele) dennoch Leistung mit AC verliert. Oder nur die Werte vertauscht?

Ich weiß nicht, was bei GoW4 los war, aber zumindest AoTS scheint auch auf Pascal einen Vorteil für AC zu sehen, wenn man DX12->DX12+AC vergleicht.
Es hängt aber vermutlich einfach stärker vom jeweiligen Anwendungsfall ab.
Polaris hat ja auch meist einen geringeren Effekt von AC gezeigt, vermutlich weil der (kleinere) Chip schon ohne AC besser ausgelastet wurde.

Ja, die müssen schon erwähnen, dass Nvidia insgesamt verliert wenn sie DX11 da aufführen im Vergleich. Es kann nämlich der Eindruck erweckt werden, dass Nvidia irgendwie profitiert, tut`s aber nicht. Netto steht nunmal ein Minus da.

AC hat offenbar trotzdem unter Umständen einen (wenn auch geringen) Vorteil. Der Verlust kommt dann durch DX12, nicht durch AC.

vinacis_vivids
2017-08-15, 14:32:17
AC hat offenbar trotzdem unter Umständen einen (wenn auch geringen) Vorteil. Der Verlust kommt dann durch DX12, nicht durch AC.

AC ist mit DX12 verbunden. Dass AMD allein durch DX12 gewinnt und Nvidia durch DX12 verliert haben sie bewusst ignoriert. Es gibt kein Performancegewinn durch DX12 + AC bei Nvidia in dem Fall. Dass das so suggerierrt wird, ist einfach falsch.

Dino-Fossil
2017-08-15, 14:34:44
Sie haben dann trotzdem nicht zwangsläufig einen Verlust aus AC. :wink:

hq-hq
2017-08-15, 14:35:44
Ja, die müssen schon erwähnen, dass Nvidia insgesamt verliert wenn sie DX11 da aufführen im Vergleich. Es kann nämlich der Eindruck erweckt werden, dass Nvidia irgendwie profitiert, tut`s aber nicht. Netto steht nunmal ein Minus da.

:ubeer:

ja das stimmt, bei Ashes.... um zu zeigen das DX12+AsyncCompute nicht die Wunderwaffe ist kam Gears of War 4 zum Einsatz, war nur leider nix durch den Dreher:uhippie:

vinacis_vivids
2017-08-15, 14:35:47
-3% sinds inkl. DX12+AC

Troyan
2017-08-15, 14:44:05
Es sind -6% durch den absichtlichen kaputten DX12 Pfad. Das wird mit Pascal auf -3% durch AC reduziert.

Pascal gewinnt durch AC. Spielt aber keine Rolle, weil DX12 einfach kaputt ist.

hq-hq
2017-08-15, 14:44:32
-3% sinds inkl. DX12+AC

oh shit, hätte ich jetzt nicht gedacht, die 1080 wird tatsächlich langsamer mit AsyncCompute in Gears of War 4 (2016)


https://www.overclock3d.net/reviews/software/gears_of_war_4_pc_performance_review/10

Hübie
2017-08-15, 14:49:25
Nun Fachpresse beinhaltet fachmännische Arbeit. Die ist aber hier in weiten Bereichen oft nicht zu sehen. Meine Formulierung schon als Majestätsbeleidigung zu sehen die den Inhalt irrelevant macht bestätigt meine kritische Haltung. Ich schreibe dies auch im Kontext zu den Kritiken gegen Youtuber die kürzlich hier im Forum als "geldgeile Affen" bezeichnet wurden (der Beitrag steht nach wie vor so im Forum) und das gesammelte runter machen von Seiten wie WCCF-Tech. Dann erwarte ich auch bessere Leistung von den Herren auf den hohen Rössern.

Unterschlage nicht, dass ich damit 99% meinte. :rolleyes: Der Beitrag wurde mittlerweile editiert, aber meine Meinung über diese "Journalisten" ändert sich in keinster Weise.

Complicated
2017-08-15, 14:51:20
Sollte in der Offtopic-Meldung stehen.

hlynska
2017-08-15, 14:53:01
Die YouTuber laufen PR-technisch unter "Influencer" :)

Hübie
2017-08-15, 14:58:39
Eben. Genau wie die "Bild"-Zeitung. Das kann man also nicht ernst nehmen. Manche sind von denen gar nicht kritisch. Plappern alles von den Folien nach, Benchen Müll und sind dann happy über das was da auf dem Bankkonto landet. Warum sollten die sich auch dafür interessieren, was du oder ich kaufen? :| Ist ja nicht mal deren Beruf oder Job. Es ist deren Lebensunterhalt (und der ist mal gar nicht schlecht).
Raff & Co bekommen dennoch Muster und Geld, auch wenn die ein Produkt mal zerreißen (müssen) - Vega ist jedoch nicht bei der "Zerreißprobe" dabei, keine Sorge. Bisher muss ich feststellen, dass Vega ein sehr inkonsistentes Bild abgibt. Mal fast Ti-Niveau, dann wieder unter der 1080. Die Lieferbarkeit lässt zu wünschen übrig und die Liquid ist eher der Exot. Gibt es überhaupt schon einen deutschen Test der Liquid?

Edit: @Complicated: Wo? Der Beitrag ist geändert. ;) Hab sogar gelbe Karte gesehen. Aber hey, shit happens.

dargo
2017-08-15, 15:01:06
oh shit, hätte ich jetzt nicht gedacht, die 1080 wird tatsächlich langsamer mit AsyncCompute in Gears of War 4 (2016)


https://www.overclock3d.net/reviews/software/gears_of_war_4_pc_performance_review/10
Überzeugt mich noch nicht ganz. Schau dir die 1070/1060 dort an. Möglicherweise ist die Testszene nicht exakt reproduzierbar und es sind Messschwankungen.

anddill
2017-08-15, 15:02:50
Mindfactory will jetzt absahnen 650 für die Air Version.

https://www.mindfactory.de/product_info.php/8GB-Sapphire-Radeon-RX-Vega-64-Aktiv-PCIe-3-0-x16--Retail-_1186795.html

https://www.mindfactory.de/product_info.php/8GB-XFX-Radeon-RX-Vega-64-Black-Aktiv-PCIe-3-0-x16--Retail-_1186799.html

Das sind die Pack Versionen uh genau was befürchtet wurde nur eine paar Karten für 500€,der Großteil wird in den Packs verkauft.

Was für Leute wie mich, die ihr MSI Titanium mit Ryzen R7-1800X vielleicht noch mit einer Vega veredeln möchten, richtig Scheiße ist. Hab den ganzen Kram schon und die Spiele gehen mir am Arsch vorbei.

nikk
2017-08-15, 15:06:35
190W-Unterschied (https://www.youtube.com/watch?v=bIGpvBrwXvA&t=8m) zwischen Turbo und Power Safe Mode für ~10% mehr fps. Aber wie AMD selbst in den Previews gezeigt hat, sieht man den Unterschied ohne fps-Anzeige sowieso nicht. Eher merkt man den Unterschied an der Lautstärke der Kühlung und ob man G-Sync/Freesync nutzen kann.

dargo
2017-08-15, 15:09:57
Einfach nur krank. Ich frage mich echt was AMD sich dabei gedacht hat? :confused: Auch hier sind es die 8,6% die ich schon mal hattte.

Ex3cut3r
2017-08-15, 15:10:47
190W weniger für 10% weniger fps? Spinnen die bei AMD jetzt komplett? Das BIOS mit dem am wenigsten Verbrauch sollte Standard sein.

Jake Dunn
2017-08-15, 15:11:03
Gibt es überhaupt schon einen deutschen Test der Liquid?



http://www.gamestar.de/artikel/amd-radeon-rx-vega-64-liquid-cooled-benchmark-duell-gegen-nvidias-gtx-1080,3318225.html

Nazar
2017-08-15, 15:12:12
Wenn du schon mit Aussagen wie "angebliche Fachpresse" an den Start gehst, dann wundere dich bitte nicht über das entsprechende Echo. Völlig unabhängig ob du nun recht hast oder nicht ;)

Und wenn dir das Wort "abfackeln" schon nicht gefällt, dann mach es bei deinen Kommentaren doch einfach besser.

Du kommentierst ausschließlich nur eine Person ohne nur im mindesten auf das eigentlich Problem einzugehen.
Er hat vollkommne recht mit dem Ausdruck der angeblichen Fachpresse und wer sich in die Öffentlichkeit begibt, der muss sich auch deren Meinung stellen.
Wenn man solch offensichtlich falsche Zahlen veräußert, die ein komplett falsches und vor allem einseitiges Bild suggerieren, dann ist da weder der Zufall am Werk gewesen, noch hat das etwas mit einer professionellen Arbeit, die man von einer Fachpresse erwarten darf, in irgend einer Weise etwas zu tun.
Als Zensur würde es ein "Ungenügend" geben und das mit Recht.
Was du hier machst, hilft nicht weiter, zumal auch du nur einseitig "richtest" und vollkommen ausser acht lässt, dass ein "Profi" sich in diesem Forum mindestens genauso oft im Ton vergreift wie manch ein "Normaler".
Wenn du schon Wasser Predigst, dann schütte dir nicht gleichzeitig literweise Wein in den Rachen!
Wo ist deine gepredigte Betrachtung der beiden Seiten in deinem Kommentar abgeblieben? :confused:

Grendizer
2017-08-15, 15:12:32
Gibt es eigentlich irgendwo einen Forza Horizon Test ?

Complicated
2017-08-15, 15:12:42
Das ist mir auch schleierhaft mit dem Turbo-Mode. Ein klares PR-Fail.
Sollte sich später herausstellen, dass in diesem Turbo-Modus noch gravierend die Leistung steigern lässt wäre es um so schlimmer von PR-Seite aus gesehen. Die Testergebnisse die jetzt online stehen werden die Diskussion über alle Nachtests hinaus bestimmen.

Dino-Fossil
2017-08-15, 15:14:47
Einzige Erklärung für die BIOS-Einstellungen: Man wollte unbedingt die 1080 schlagen (oder wenigstens erreichen).

Macht auch irgendwo Sinn, denn hätten sie das nicht mal geschafft, wäre Vega sicherlich noch schlechter weg gekommen. Zumindest in den Regionen in denen man sich nicht um Effizienz kümmert.
Hier ist es wohl eher umgekehrt...

dargo
2017-08-15, 15:18:34
Gibt es eigentlich irgendwo einen Forza Horizon Test ?
Hatte ich auch schon gefragt, bisher leider nichts gefunden.

Das ist mir auch schleierhaft mit dem Turbo-Mode. Ein klares PR-Fail.

Eigentlich ist schon der balanced Mode ein Fail.

Grendizer
2017-08-15, 15:20:52
Hatte ich auch schon gefragt, bisher leider nichts gefunden.


Mist... das wäre mal was für das bald erscheinende Forza Motorsport 7 als Indikator nett gewesen.

Edit: Und ein Klassiker, der jetzt zwar sich lachhaft anhört. Wie läuft den die Vega in World of Warcraft ? Bisher haben die nVidias dort massive Vorteile.

vinacis_vivids
2017-08-15, 15:23:02
Gibt es eigentlich irgendwo einen Forza Horizon Test ?

hier:
http://www.4gamer.net/games/337/G033714/20170814053/

https://abload.de/img/056l7uqn.png

Isen
2017-08-15, 15:23:07
Knall Apex auf 4K und Bench das. Apex hat ebenfalls 4K Texturen...bzw. such nach 4K Benches von dem Game. Es wird entweder gleich oder gar besser laufen, da Turn 10 und MS mit Horizon ihre Erfahrungen gemacht haben.

Grendizer
2017-08-15, 15:23:47
hier:
http://www.4gamer.net/games/337/G033714/20170814053/

https://abload.de/img/056l7uqn.png

Super danke dir

hq-hq
2017-08-15, 15:23:57
Überzeugt mich noch nicht ganz. Schau dir die 1070/1060 dort an. Möglicherweise ist die Testszene nicht exakt reproduzierbar und es sind Messschwankungen.

zumindest sind es jetzt ein paar Fragezeichen mehr geworden (:confused:)
dachte man soll AsyncCompute wenn möglich immer aktivieren für ein paar % mehr fps :freak:


----------

der Turbomodus bei der Liquid Cooling ist doch klasse, aus dem Vollen schöpfen bis 1750MHz

Achill
2017-08-15, 15:24:18
Sehr schade. Aber technisch wäre es möglich, oder wie?

Ja... aber das ist halt eines der Features die für die Pro Version vorbehalten sind....

Es geht schon lange mit einer kleinen zweiten GPU (kann auch eine iGPU sein). Die kleine GPU nutzt man primäre unter Linux. Startet man eine Windows-VM zum Spielen, so wird die große GPU (VEGA, ...) direkt an die VM weiter gereicht.

Ich kann nichts zu FS sagen, aber evtl. geht es sogar, dass man einen zweiten Monitor an die andere GPU anschließt und dann FS hat.

Am besten iuno dazu fragen - er hat glaube für Arch-Linux eine Anleitung geschrieben.

dr_AllCOM3
2017-08-15, 15:24:21
Der Stromverbrauch ist ja schon unter aller Sau. Da sollte man die 64er schon fairerweise gegen eine uebertaktete 1080er vergleichen, denn was anderes macht AMD hier auch nicht.

Messias
2017-08-15, 15:24:28
Wie ich es auch drehe und wende: So richtig was abgewinnen kann ich der Karte nicht.
Wenn sie wenigstens halbwegs günstig wäre. 350€ oder max. 400€.
Aber für den Preis diese Leistung? Und dann bei dem Verbrauch?

Zum Glück muß ich momentan nicht kaufen, meine RX480 tut's noch bis Navi.

Aber... auch für Navi schwindet mir langsam der Optimismus, wenn ich sehe, was AMD seit ein paar Jahren abliefert.

Grendizer
2017-08-15, 15:26:27
zumindest sind es jetzt ein paar Fragezeichen mehr geworden (:confused:)
dachte man soll AsyncCompute wenn möglich immer aktivieren für ein paar % mehr fps :freak:


----------

der Turbomodus bei der Liquid Cooling ist doch klasse, aus dem Vollen schöpfen bis 1750MHz

Nicht bei nVidia... da sollte man meistens DX11 nehmen,

MechWOLLIer
2017-08-15, 15:30:55
Zum "halben Test" äußere ich mich mal nicht, sonst wird's unschön. Ich sag's mal so: Du hast ganz offensichtlich keine Ahnung, wie viel Zeit das (http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Preis-Release-1235445/), das (http://www.pcgameshardware.de/Radeon-RX-Vega-64-Grafikkarte-266623/Tests/Benchmark-Vergleich-vs-Nvidia-1235712/) und die ganze Vorarbeit für das (http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/) zusammen kostet. Selbst dann muss man Prioritäten setzen. Und selbst dann kommen Hasspostings wie deines. Artikel nicht lesen (es gibt da immer so viele komische Schriftzeichen um die Balken und Bilder herum) oder nicht verstehen und dann einfach irgendwas absondern: Ich liebe es.

MfG,
Raff

Raff, wir können gerne tauschen im "von Complicated gebasht werden" :D

Für die unterschiedlichen Ergebnisse bei uns gibt es natürlich einen Grund. Aber anstatt nach dem zu fragen ist drauf los bashen und beleidigen halt einfacher. Ist echt "verwunderlich", warum einige Boardies/Redis/Devs hier nicht mehr Posten:freak:

Das sieht danach aus, als seien die DX12+AC Tests in 1440p gemacht worden und das DX11 Ergebnis, welches das schlechteste ist, in den Index eingeflossen. Man muss davon ausgehen dass das selbe bei 1080p geschehen ist.
Das ist totaler Blödsinn. Das ist technisch, so wie die Diagramme aufgebaut sind, gar nicht möglich. Egal was du gerne hättest.

Grendizer
2017-08-15, 15:32:23
Wenn man die Karte unter dem Aspekt des Powersaving Modus betrachtet und sich dann die min. Frames anschaut, dann kann ich sogar viele positive Aspekte finden, die bei intensiver Betrachtung der Ergebnisse sogar für die Vega sprechen.

dargo
2017-08-15, 15:32:33
hier:
http://www.4gamer.net/games/337/G033714/20170814053/

https://abload.de/img/056l7uqn.png
Danke. Das ist aber auch wieder geil. Turbo und Balanced gleich schnell bei den avgs. Und wiewiel Watt mehr braucht Turbo? :D

Edit: DX11 bei FH3 ist auch goil. ;D

dildo4u
2017-08-15, 15:34:12
Gibt schon Leute die eine Karte bekommen haben.

https://youtu.be/xV0FLjXhi0k

Grendizer
2017-08-15, 15:35:48
Gibt schon Leute die eine Karte bekommen haben.

https://youtu.be/xV0FLjXhi0k

Meine ist heute von MF verschickt worden und kommt morgen

hq-hq
2017-08-15, 15:36:06
Nicht bei nVidia... da sollte man meistens DX11 nehmen,

wenn man die Wahl zwischen DX11 und 12 hat, bei Gears of War4 hiess es immer man soll AsyncCompute aktivieren

https://www.computerbase.de/2016-10/gears-of-war-4-benchmark/2/#abschnitt_async_compute_bringt_mehr_performance


oder damals auch auf Golem:
"Gears of War 4 läuft unter Direct3D 12, Async Compute für AMD- und für Nvidia-Pascal-Karten sollte wie Tiled Resources immer eingeschaltet sein, da die Leistung etwas steigt."
https://www.golem.de/news/gears-of-war-4-im-technik-test-wahnsinnig-diese-pc-version-1610-123631.html

allzuviel über DX12 Games und Async Compute hab ich aber noch nicht gelesen...

etwas mehr DX12 lastige Reviews hätte Vega natürlich gut getan :-D

iuno
2017-08-15, 15:37:57
Es geht schon lange mit einer kleinen zweiten GPU (kann auch eine iGPU sein). Die kleine GPU nutzt man primäre unter Linux. Startet man eine Windows-VM zum Spielen, so wird die große GPU (VEGA, ...) direkt an die VM weiter gereicht.

Ich kann nichts zu FS sagen, aber evtl. geht es sogar, dass man einen zweiten Monitor an die andere GPU anschließt und dann FS hat.
FS funktioniert mit passthrough ganz normal, wenn man den Monitor an der Grafikkarte ansteckt. Ich hatte dann halt immer am Monitor den Eingang gewechselt

SR-IOV ist ja dafuer geacht, dass man kein kompletten PCI Passthrough mehr machen muss, sondern ueber den Host Treiber die GPU virtualisiert und an die VM gegeben wird, so wuerde es auch ohne IGP gehen und (wers braucht ;D ) mit mehreren Gaesten gleichzeitig.

190W-Unterschied (https://www.youtube.com/watch?v=bIGpvBrwXvA&t=8m) zwischen Turbo und Power Safe Mode für ~10% mehr fps.
Das ist richtig uebel, aber hat er da fuer Turbo das PT noch hochgezogen? Laut der Tabelle bei Gamestar liegt die liquid zwischen 165 (BIOS#2, Powersave) und 303 (BIOS#1, Turbo) Watt.

Das ist mir auch schleierhaft mit dem Turbo-Mode. Ein klares PR-Fail.
Sollte sich später herausstellen, dass in diesem Turbo-Modus noch gravierend die Leistung steigern lässt wäre es um so schlimmer von PR-Seite aus gesehen.
Wieso? Turbo ist ja offenbar nicht wirklich schneller und keine Standardeinstellung. Es waere also noch schlimmer gegangen ;D

@MechWOLLIer: koenntest du das (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11461069&postcount=407) noch korrigieren? Es stimmt einfach nicht, dass "sämtliche gängige Formate" unterstuetzt werden, wenn VP9 immer noch fehlt, sogar in beide Richtungen (en- und decoding).

Menace
2017-08-15, 15:41:26
Ich habe BIOS #2 mit Power Save bei der V64 in meinem Test vermessen und der V56-Artikel am Donnerstag enthält auch Werte.Genau das habe ich bei V64 drin: https://www.golem.de/news/radeon-rx-vega-64-im-test-schnell-und-durstig-mit-potenzial-1708-127610-7.html
:up: Freue mich auf Donnerstag. Ich weiß, dass AMD Euch nicht ausreichend Zeit gelassen hat. Trotzdem würde ich mich auf ein paar Messungen zwischen Bios 1 "Balanced" und Bios 2 "Power Save" bei Spielen und Anwendungen (!) freuen.


Wenn man die Karte unter dem Aspekt des Powersaving Modus betrachtet und sich dann die min. Frames anschaut, dann kann ich sogar viele positive Aspekte finden, die bei intensiver Betrachtung der Ergebnisse sogar für die Vega sprechen.

Ich muss meine Kritik an der Vega relativieren (aber nicht an AMDs Launch-Politik :P ). Vor 1-2 Jahren habe ich mit Igor diskutiert und wollte ja genau so eine "Sweet Spot"-Einstellung. Sie haben auf mich gehört und eingebaut. :biggrin: Verpflichtet mich das jetzt auch eine zu kaufen? :confused:

Übrigens, wenn auch der Verbrauch in Amerika oder Asien weniger wichtig ist. Tests werden auch dort gelesen. Und ist es so schwierig für einzelne, wichtige Länder noch den Bios-Schalter einzeln anders zu schalten?

CD-LABS
2017-08-15, 15:42:52
https://www.mindfactory.de/product_info.php/Sapphire-Vega-Bundle-X370-Xpower-Titanium-Pro-1700X-RX-Vega-64_1186958.html

Ja, ihr lest richtig, 1700€. Nein, dabei sind keine zweite RX Vega oder 64 GiB Ram dabei...

Rancor
2017-08-15, 15:43:59
Also wenn man VEGA 64 unter dem Power Saving Bios betrachtet, dann sieht das ganze doch schon wieder viel besser aus.
Unverstädnlich warum AMD für 10% mehr Leistung soviel mehr Energie benötigt.

Ich vermutet weiterhin das da irgendwas nicht stimmen kann. Für 450€ würde ich mir ne 64 ( Custom ) holen.

Grendizer
2017-08-15, 15:45:41
Hier gibt es PUBG Benchmarks:

http://www.4gamer.net/games/337/G033714/20170814053/TN/046.png

http://www.4gamer.net/games/337/G033714/20170814053/TN/047.png

http://www.4gamer.net/games/337/G033714/20170814053/TN/048.png

dildo4u
2017-08-15, 15:47:13
https://www.mindfactory.de/product_info.php/Sapphire-Vega-Bundle-X370-Xpower-Titanium-Pro-1700X-RX-Vega-64_1186958.html

Ja, ihr lest richtig, 1700€. Nein, dabei sind keine zweite RX Vega oder 64 GiB Ram dabei...
Gut für AMD wenn sie das Absetzen,in dem Bereich haben sie schon ewig nicht mehr gespielt was Gesamtsysteme angeht.

Troyan
2017-08-15, 15:47:45
Was? Mit dem Stromsparmodus ist man 5% langsamer und benötigt immer noch 60W mehr als dann die fast durchgehend schnellere GTX1080. Und die kann man ebenfalls undervolten...

Und wir vergleichen hier ja noch nicht mal mit der GTX1080TI, die bei 225W dann rund 50% schneller ist als die 64er Version von Vega...

Eine 64er Vega mit 225W für 399€ wäre das einzige, vernünftige Produkt für AMD. Aber die Produktionskosten sind wohl auch zu hoch dafür.

Der_Korken
2017-08-15, 15:48:26
Es geht schon lange mit einer kleinen zweiten GPU (kann auch eine iGPU sein). Die kleine GPU nutzt man primäre unter Linux. Startet man eine Windows-VM zum Spielen, so wird die große GPU (VEGA, ...) direkt an die VM weiter gereicht.

Joa, ist halt doof wenn man keine iGPU hat (z.B. Ryzen) und wegen µATX auch nicht ohne weiteres Platz für eine zweite Graka da ist. Außerdem kann man die dicke GPU dann auch nicht für Dinge nutzen, die nativ unter Linux laufen. Wäre aber immer noch besser als Dualboot. Hatte nur gehofft, dass Vega hier eine Virtualisierung für Consumer anbietet, da dieses Feature afaik mal für Vega angekündigt wurde.

Grendizer
2017-08-15, 15:51:25
Also wenn man VEGA 64 unter dem Power Saving Bios betrachtet, dann sieht das ganze doch schon wieder viel besser aus.
Unverstädnlich warum AMD für 10% mehr Leistung soviel mehr Energie benötigt.

Ich vermutet weiterhin das da irgendwas nicht stimmen kann. Für 450€ würde ich mir ne 64 ( Custom ) holen.


Leck mich am Arsch...

Board 300 Euro
CPU 309 Euro
Graka 600 Euro

= 1200 Euro gesamt

dargo
2017-08-15, 15:54:01
Was? Mit dem Stromsparmodus ist man 5% langsamer und benötigt immer noch 60W mehr als dann die fast durchgehend schnellere GTX1080. Und die kann man ebenfalls undervolten.

Und das Märchen geht weiter. :facepalm:

Undervolting GCN ungleich Undervolting Pascal!!!

Daredevil
2017-08-15, 15:55:21
https://www.mindfactory.de/product_info.php/Sapphire-Vega-Bundle-X370-Xpower-Titanium-Pro-1700X-RX-Vega-64_1186958.html

Ja, ihr lest richtig, 1700€. Nein, dabei sind keine zweite RX Vega oder 64 GiB Ram dabei...
Vor allem ist das ein Sapphire Bundle mit MSI Board :>

Edit: Klar Daredevil, weil es ja auch so viele Sapphire Boards gibt. Volltroddl, neeext.

iuno
2017-08-15, 15:55:36
Joa, ist halt doof wenn man keine iGPU hat (z.B. Ryzen) und wegen µATX auch nicht ohne weiteres Platz für eine zweite Graka da ist. Außerdem kann man die dicke GPU dann auch nicht für Dinge nutzen, die nativ unter Linux laufen. Wäre aber immer noch besser als Dualboot. Hatte nur gehofft, dass Vega hier eine Virtualisierung für Consumer anbietet, da dieses Feature afaik mal für Vega angekündigt wurde.

Bestätigt, dass es auch für consumer kommt, war es glaube ich nie. Aber ja, die Funktion ist da und wird wohl auf der RX hardwareseitig deaktiviert. Schon schade, bei Intel bekommt es jeder, nur dass man damit halt nicht viel anfangen kann...

Ex3cut3r
2017-08-15, 15:55:48
Und das Märchen geht weiter. :facepalm:

Undervolting GCN ungleich Undervolting Pascal!!!
Warum? Nur weil einige zu doof sind?! Die Kurve im AB richtig zu machen? Wenn man es richtig macht, ist es doch richtiges UV oder nicht?

Pirx
2017-08-15, 15:56:49
Ziemlich blöd von AMD, das wäre ein Mehrwert, den Vega gut gebrauchen könnte.

dargo
2017-08-15, 15:57:09
Warum? Nur weil einige zu doof sind?! Die Kurve im AB richtig zu machen? Wenn man es richtig macht, ist es doch richtiges UV oder nicht?
Du hast eine und kennst die Auswirkung nicht? Respekt. :tongue:

HOT
2017-08-15, 15:58:29
Ich finde, das wird gern viel zu verbissen gesehen bei den Reviews. Das sind doch sowieso auch nur Momentaufnahmen, aber eben informativ, wenn man damit umzugehen weiss, und macht ja auch Spass zu lesen - ist ja immerhin von einigen ein Lieblingshobby. Ich verstehe diese verbissene gebeiße und gehate einfach gar nicht - es ist einfach unglaublich nervig. Und es animiert alle Art von Trollen - was dann teilweise schon an ganking grenzt, also in Onlinespielen sanktioniert wird. Wenn man Einfluss auf die Testmethoden nehmen möchte kann man ja auch teilweise kritisieren aber bitte doch nicht auf so destruktive weise, Herr Complicated. Ich glaube, dass sich Reviewer immer über Anregungen freuen, da sie ja auch immer auf der Suche nach einer kreativen Möglichkeit sind, Test und Reviews, oder auch in-depth-Artikel so interessant zu gestalten, dass die auch geklickt werden, denn darum geht es ja letztendlich. Das Ganze geht also auch auf positive, konstruktive Weise zu beeinflussen. Lasst doch einfach eure Ideen einfließen anstatt immer nur alles zu hassen.
Sicherlich gibt es auch noch die bezahlten Trolle, welche aber eher statistisch mMn keine Rolle mehr spielen und deren Wirkung gegen 0 tendiert. Das war mal anders, aber diese Zeit des aggressiven Marketings ist einfach vorbei.

So ne DX12/Vulkan-Review hätte sowieso mal was :D. Die Aussagekraft ist natürlich nicht allzu ernst zu nehmen, aber ich fänds schon sehr interessant und spassig.
Was ich ebenfalls lustig fänd, da die CPUs teilweise arg unterschiedlich reagieren unter DX11 und 12, wäre ein Testparcours, auf dem man Vega, und auch die 1080ti, zusammen mit verschiedenen CPUs testet, also einem 7700k (oder in Kürze 8700k), ein 7900X und ein 1800X beispiesweise. Nur mal um zu sehen, wie das Gesamtbild auf verschiedenen Plattformen aussieht :).
Ich fänd das auch gar nicht mal so wichtig immer alle GPUs mit zu testen, das ist ja dann eher ein Treibertest, da braucht man nur was repräsentatives.

Das fällt mir auf die Schnelle als konstrutkiver Beitrag ein, um die Hardwaretester zu beeinflussen. Es ist doch einfach.

MechWOLLIer
2017-08-15, 16:00:14
@MechWOLLIer: koenntest du das (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11461069&postcount=407) noch korrigieren? Es stimmt einfach nicht, dass "sämtliche gängige Formate" unterstuetzt werden, wenn VP9 immer noch fehlt, sogar in beide Richtungen (en- und decoding).
Ah, guter Hinweis, danke!

Tru
2017-08-15, 16:01:20
https://www.mindfactory.de/product_info.php/Sapphire-Vega-Bundle-X370-Xpower-Titanium-Pro-1700X-RX-Vega-64_1186958.html

Ja, ihr lest richtig, 1700€. Nein, dabei sind keine zweite RX Vega oder 64 GiB Ram dabei...
Wenn ich mir die Sachen einzeln in den Warenkorb lege und die 85 Euro Rabatt vom Radeon Bundle abziehe, komme ich auf 1.130 Euro. Wahrscheinlich haben die da echt eine zweite RX Vega vergessen. ;D

dildo4u
2017-08-15, 16:02:17
Der 1700X ist schon bei 309 krass.

Schnoesel
2017-08-15, 16:04:02
http://www.finanzen.net/waehrungsrechner/us-dollar_euro

Daran wirds liegen.

Pirx
2017-08-15, 16:09:51
...
Fehlt noch eine Erklärung dazu, wie es zu den Diskrepanzen kommen kann, oder scheint es nur so?

dildo4u
2017-08-15, 16:11:00
http://www.finanzen.net/waehrungsrechner/us-dollar_euro

Daran wirds liegen.
Jup Amazon.com hat ihn bei 340.

CD-LABS
2017-08-15, 16:11:41
Vor allem ist das ein Sapphire Bundle mit MSI Board :>

Edit: Klar Daredevil, weil es ja auch so viele Sapphire Boards gibt. Volltroddl, neeext.
OffTopic: Hat Sapphire eigentlich mal verraten, wieso es von ihnen keine Mainboards mehr gibt?

sunshine
2017-08-15, 16:13:45
Das bezieht sich nur auf den in den Radeon Settings genannten Core-Clock, das hat mit den ausgelesenen Frequenzen unter Last nichts zu tun.Natürlich, da gleiche Karte. Ich habe BIOS #2 mit Power Save bei der V64 in meinem Test vermessen und der V56-Artikel am Donnerstag enthält auch Werte.Genau das habe ich bei V64 drin: https://www.golem.de/news/radeon-rx-vega-64-im-test-schnell-und-durstig-mit-potenzial-1708-127610-7.html

284 Watt vs 213 Watt
Mit eingestellten 1,7 MHz bei 1,2 Volt für die beiden höchsten P-States und einem Speichertakt von 2,1 GHz steigt die Leistungsaufnahme allerdings auf exorbitante 386 Watt.

Da stimmt was nicht oder?

deekey777
2017-08-15, 16:21:27
So viel dazu:

https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/7/#abschnitt_videoencoding_mit_staerken_und_schwaechen

IMHO ein klarer Kritikpunkt, aber lieber misst man ob es 500 oder 600 FPS in h.264 sind? Voellig unverstaendlich fuer mich. Schon bei Polaris stand VP9 in den Slides und wurde einfach so hingenommen. Haette es dafuer mal richtig Kritik gehagelt, waere vielleicht mal was passiert.
Zumal das auch fuer Raven hoechst interessant waere, aber dann halt nicht :rolleyes:

Das ist wirklich Schwachsinn dieser "hybride Ansatz". Ich habe mal unter Edge das ausprobiert (man kann VP9 erzwingen), das funktioniert nicht ohne eine hohe CPU-Last, 4K ist damit nicht möglich (Bristol Ridge, UVD 6.0).

Zergra
2017-08-15, 16:29:47
So habe mein vega 64 für 509 jetzt hier liegen

HOT
2017-08-15, 16:31:10
Ach ja ich hab noch nen Nachtrag.
Was meiner Ansicht nach eigentlich immer zu kurz kommt ist Softwarekritik. Das geht auch unsere Vollberufler hier vor allem was an, denn da gibts einfach viel zu wenig. Wenn ein Spiel rauskommt, nehmen wir Project Cars als Paradebeispiel, und das schneidet auf Hardware, die sich am Markt befindet und mindestens 20% des Marktes abdeckt, unterirdisch ab, dann gehört das verbal vernichtet (jetzt bin ich mal ein bisschen destruktiv). Genauso wie Adobe und deren Optimierungspolitik. Das gehört massivst kritisiert. Die Hardwarehersteller bekommen nämlich regelmäßig Haue, wenn irgend ne Software mit guter Verbreitung nicht gut läuft, dabei liegt das mindestens zur Hälfte auch immer an der Software! Es kann nicht so schwer sein, vernünftige Optimierungen abzugeben, zumindest im Rahmen der möglichen Mühe, die sich ein Softwarehersteller leisten kann, vernünftige Resultate zu erzielen und das ne Firma wie Adobe immer noch Schwierigkeiten mit Multithreading hat, kann eigentlich nur ein schlechter Witz sein. Es gibt genau 2 CPU-Architekturen (2 1/2 mit Intels neuem meshing) auf dem Markt und genau 2 Grafikarchitekturen und das wird sich auf absehbare Zeit wohl kaum ändern.
Denen gehört massiv bei jeder neuen Softwareversion auf die Finger gehauen. Man muss nicht nur neue Hardware testen, auch neue Software testen ist einfach ne gute Idee, so kann man nämlich auch das Angebot als Hardwaremag um interessante Möglichkeiten erweitern. Und man zwingt nebenbei die Hersteller an Qualität draufzulegen.

w0mbat
2017-08-15, 16:33:57
So habe mein vega 64 für 509 jetzt hier liegen

UV @ 1,05v oder 1,025v, BIOS #2 und power safer mode bitte :biggrin:

aufkrawall
2017-08-15, 16:35:28
Ich kaufe Hardware für die Software, nicht umgekehrt.

yamamoto_dc
2017-08-15, 16:36:58
Der Softwarekritik kann ich mich nur anschliessen, wenn man sich anschaut, was auf den Konsolen geht, dann wird einfach viel zu viel Potential verbrannt. AMD sollte hier eigentlich im Vorteil sein, aber das Gegenteil ist wohl der Fall.

HOT
2017-08-15, 16:37:32
Ich kaufe Hardware für die Software, nicht umgekehrt.
Mann ist das kacke...
Dann kaufst du eben nur Geforce+ Intel. Brauchst dich auch nicht wundern, wenn du bald 500€ für ne MainstreamCPU und 1000€ für ne Mainstreamgraka bezahlst... viel Glück dabei. Und selbst Schuld obendrein mit dieser Kopf-in-den-Sand-Einstellung.

Der Softwarekritik kann ich mich nur anschliessen, wenn man sich anschaut, was auf den Konsolen geht, dann wird einfach viel zu viel Potential verbrannt. AMD sollte hier eigentlich im Vorteil sein, aber das Gegenteil ist wohl der Fall.

Na kein Wunder, die PC-Umsetzungen müssen halt auf NV ordentlich laufen, AMD geht dann sowieso schon... Dann wird halt nur auf NV optimiert und der Rest belassen wie er ist - eben nicht optimal. Ist halt schön billig.

Grendizer
2017-08-15, 16:38:58
Der Softwarekritik kann ich mich nur anschliessen, wenn man sich anschaut, was auf den Konsolen geht, dann wird einfach viel zu viel Potential verbrannt. AMD sollte hier eigentlich im Vorteil sein, aber das Gegenteil ist wohl der Fall.


Was geht denn da ? Teilweise reduzierte Auflösungen und 30 fps (und ich habe eine PS4 Pro, da kann ich zum Glück oft wählen, was ich haben möchte)

dildo4u
2017-08-15, 16:40:00
Ach ja ich hab noch nen Nachtrag.
Was meiner Ansicht nach eigentlich immer zu kurz kommt ist Softwarekritik. Das geht auch unsere Vollberufler hier vor allem was an, denn da gibts einfach viel zu wenig. Wenn ein Spiel rauskommt, nehmen wir Project Cars als Paradebeispiel, und das schneidet auf Hardware, die sich am Markt befindet und mindestens 20% des Marktes abdeckt, unterirdisch ab, dann gehört das verbal vernichtet (jetzt bin ich mal ein bisschen destruktiv). Genauso wie Adobe und deren Optimierungspolitik. Das gehört massivst kritisiert. Die Hardwarehersteller bekommen nämlich regelmäßig Haue, wenn irgend ne Software mit guter Verbreitung nicht gut läuft, dabei liegt das mindestens zur Hälfte auch immer an der Software! Es kann nicht so schwer sein, vernünftige Optimierungen abzugeben, zumindest im Rahmen der möglichen Mühe, die sich ein Softwarehersteller leisten kann, vernünftige Resultate zu erzielen und das ne Firma wie Adobe immer noch Schwierigkeiten mit Multithreading hat, kann eigentlich nur ein schlechter Witz sein. Es gibt genau 2 CPU-Architekturen (2 1/2 mit Intels neuem meshing) auf dem Markt und genau 2 Grafikarchitekturen und das wird sich auf absehbare Zeit wohl kaum ändern.
Denen gehört massiv bei jeder neuen Softwareversion auf die Finger gehauen. Man muss nicht nur neue Hardware testen, auch neue Software testen ist einfach ne gute Idee, so kann man nämlich aus das Angebot als Hardwaremag um interessante Möglichkeiten erweitern. Und man zwingt nebenbei die Hersteller an Qualität draufzulegen.
Solche Entwickler müssen jetzt für PC und 4 Konsolen programmieren,das dort die 20% im PC Markt wenig Entwicklungszeiten bekommt hat einfach was mit sinnvollen Prioritäten zu tun.

HOT
2017-08-15, 16:41:46
Solche Entwickler müssen jetzt für PC und 4 Konsolen programmieren,das dort die 20% im PC Markt wenig Entwicklungszeiten bekommt hat einfach was mit sinnvollen Prioritäten zu tun.
Nein, das ist einfach dumm. Denn viele dieser Entwicklungen erstrecken sich ja auf mehr als nur ein Projekt, du hast also Synergien über mehrere Projekte verteilt, dann lohnt sich das auch. Zudem sorgst du so dafür, dass Spielerhardware so teuer wird, dass du irgendwann weniger verkaufst. Einfach dämlich.
Zudem sind es 2 Konsolen, die relevant sind und 2 die nur addon sind, also reine Optimierung benötigen und eine PC-Umsetzung, die auf 2 CPU-Architekturen und 2 GPU-Architekturen vernünftig laufen muss, von denen allen genau zwei GPU-Architekturen zugrunde liegen. Das ist nicht zuviel verlangt.

dargo
2017-08-15, 16:41:49
Ach ja ich hab noch nen Nachtrag.
Was meiner Ansicht nach eigentlich immer zu kurz kommt ist Softwarekritik. Das geht auch unsere Vollberufler hier vor allem was an, denn da gibts einfach viel zu wenig. Wenn ein Spiel rauskommt, nehmen wir Project Cars als Paradebeispiel, und das schneidet auf Hardware, die sich am Markt befindet und mindestens 20% des Marktes abdeckt, unterirdisch ab, dann gehört das verbal vernichtet (jetzt bin ich mal ein bisschen destruktiv). Genauso wie Adobe und deren Optimierungspolitik. Das gehört massivst kritisiert. Die Hardwarehersteller bekommen nämlich regelmäßig Haue, wenn irgend ne Software mit guter Verbreitung nicht gut läuft, dabei liegt das mindestens zur Hälfte auch immer an der Software! Es kann nicht so schwer sein, vernünftige Optimierungen abzugeben, zumindest im Rahmen der möglichen Mühe, die sich ein Softwarehersteller leisten kann, vernünftige Resultate zu erzielen und das ne Firma wie Adobe immer noch Schwierigkeiten mit Multithreading hat, kann eigentlich nur ein schlechter Witz sein. Es gibt genau 2 CPU-Architekturen (2 1/2 mit Intels neuem meshing) auf dem Markt und genau 2 Grafikarchitekturen und das wird sich auf absehbare Zeit wohl kaum ändern.
Denen gehört massiv bei jeder neuen Softwareversion auf die Finger gehauen. Man muss nicht nur neue Hardware testen, auch neue Software testen ist einfach ne gute Idee, so kann man nämlich aus das Angebot als Hardwaremag um interessante Möglichkeiten erweitern. Und man zwingt nebenbei die Hersteller an Qualität draufzulegen.
Das praktiziere ich schon länger so. Alles was auf GCN unterirdisch läuft (und nein, damit meine ich nicht +/-10% zwischen beiden IHVs im gleichen Performancesegment) kaufe ich einfach nicht.

aufkrawall
2017-08-15, 16:42:05
Mann ist das kacke...
Dann kaufst du eben nur Geforce+ Intel. Brauchst dich auch nicht wundern, wenn du bald 500€ für ne MainstreamCPU und 1000€ für ne Mainstreamgraka bezahlst... viel Glück dabei. Und selbst Schuld obendrein mit dieser Kopf-in-den-Sand-Einstellung.

https://de.wikipedia.org/wiki/Homo_oeconomicus

dildo4u
2017-08-15, 16:43:25
Nein, das ist einfach dumm. Denn viele dieser Entwicklungen erstrecken sich ja auf mehr als nur ein Projekt, du hast also Synergien über mehrere Projekte verteilt, dann lohnt sich das auch. Zudem sorgst du so dafür, dass Spielerhardware so teuer wird, dass du irgendwann weniger verkaufst. Einfach dämlich.
Ich versteh dein Beispiel eh nicht gabs hier nicht Benches das Vega gut in PCARS läuft es war also ne AMD Treiber Sache.

http://abload.de/img/carsvegab4y79.png

https://tweakers.net/reviews/5603/9/amd-rx-vega-de-vega-64-en-vega-56-getest-prey-en-project-cars.html

Ätznatron
2017-08-15, 16:43:31
Du hast eine und kennst die Auswirkung nicht? Respekt. :tongue:

Dann klär uns doch mal auf, ich habe nämlich auch eine, auch untervoltet.

Was darf man denn deiner Meinung nach negatives erleben?

dargo
2017-08-15, 16:45:30
Solche Entwickler müssen jetzt für PC und 4 Konsolen programmieren,das dort die 20% im PC Markt wenig Entwicklungszeiten bekommt hat einfach was mit sinnvollen Prioritäten zu tun.
Zum Glück gibt es das Gegenbeispiel von id. Id ist für mich heute das was früher Crytek und DICE war.

HOT
2017-08-15, 16:46:36
https://de.wikipedia.org/wiki/Homo_oeconomicus
Ja ein veraltetes Konzept, dass sich mal irgendwann jemand ausgedacht hat und toteler BS ist. Willst du mir damit irgendwas sinnvolles sagen? Denn mMn ist das nichts anderes als Spam.

Ich versteh dein Beispiel eh nicht gabs hier nicht Benches das Vega gut in PCARS läuft also war es ne AMD Treiber Sache.
Mir ist jetzt erst mal egal, wie PCars auf Vega läuft, das ist eh kalter Kaffee. Das diente nur als Veranschaulichung, als Beispiel. Schön aus dem Kontext gerissen :uup:

Hübie
2017-08-15, 16:46:43
Du hast eine und kennst die Auswirkung nicht? Respekt. :tongue:

Was meinst Du damit?

Grendizer
2017-08-15, 16:47:18
Dann klär uns doch mal auf, ich habe nämlich auch eine, auch untervoltet.

Was darf man denn deiner Meinung nach negatives erleben?

Bei Dargo hat die Karte trotz mehr Mhz beim undervolting weniger fps gebracht, als mit normaler Stromversorgung und geringeren Mhz-Zahlen.

Ich habs nie nachgemessen, weil meine 1080 auch so schnell genug war und es einfach in GPU-Z gut aussieht, wenn sie auf 1950 Mhz nur 0,9V braucht und dabei irgendwo bei 30-70% TDP stehen bleibt, die Temperatur niedrig und der Lüfter leise.

Vieleicht mache ich auch mal einen Test, ob es funktioniert oder nicht.

aufkrawall
2017-08-15, 16:49:12
Ja ein veraltetes Konzept, dass sich mal irgendwann jemand ausgedacht hat und toteler BS ist. Willst du mir damit irgendwas sinnvolles sagen? Denn mMn ist das nichts anderes als Spam.
Ist Aufregen über die Funktionsweise des Marktes meiner Meinung nach auch. Ich könnt dich jetzt fragen, wieso du glaubst, bei Grafikkarten würde ein Boykott einer Winzrandgruppe zu irgendwelchen Änderungen führen, wenn es schon in Industrieländern bei der Tierhaltung nicht klappt...

HOT
2017-08-15, 16:50:10
Ist Aufregen über die Funktionsweise des Marktes meiner Meinung nach auch. Ich könnt dich jetzt fragen, wieso du glaubst, bei Grafikkarten würde ein Boykott einer Winzrandgruppe zu irgendwelchen Änderungen führen, wenn es schon in Industrieländern bei der Tierhaltung nicht klappt...
Wer redet von Boykott? Ich glaub du hast mich einfach nicht verstanden. Boykott bringt nix. Aber Presse, die Software massiv kritisiert, weil sie einfach scheisse optimiert ist, das hat durchaus Wirkung. Da gehts doch nicht um Boykott sondern um Ruf. Das ist was völlig anderes.

vinacis_vivids
2017-08-15, 16:50:36
Der Typ ist meister des OT und BS, warum gehst du auf ihn ein?

@Zerga: UV + PT ist sehr sehr interessant.

=Floi=
2017-08-15, 16:52:14
Ach ja ich hab noch nen Nachtrag.
Was meiner Ansicht nach eigentlich immer zu kurz kommt ist Softwarekritik. Das geht auch unsere Vollberufler hier vor allem was an, denn da gibts einfach viel zu wenig. Wenn ein Spiel rauskommt, nehmen wir Project Cars als Paradebeispiel, und das schneidet auf Hardware, die sich am Markt befindet und mindestens 20% des Marktes abdeckt, unterirdisch ab, dann gehört das verbal vernichtet (jetzt bin ich mal ein bisschen destruktiv). Genauso wie Adobe und deren Optimierungspolitik. Das gehört massivst kritisiert. Die Hardwarehersteller bekommen nämlich regelmäßig Haue, wenn irgend ne Software mit guter Verbreitung nicht gut läuft, dabei liegt das mindestens zur Hälfte auch immer an der Software! Es kann nicht so schwer sein, vernünftige Optimierungen abzugeben, zumindest im Rahmen der möglichen Mühe, die sich ein Softwarehersteller leisten kann, vernünftige Resultate zu erzielen und das ne Firma wie Adobe immer noch Schwierigkeiten mit Multithreading hat, kann eigentlich nur ein schlechter Witz sein. Es gibt genau 2 CPU-Architekturen (2 1/2 mit Intels neuem meshing) auf dem Markt und genau 2 Grafikarchitekturen und das wird sich auf absehbare Zeit wohl kaum ändern.
Denen gehört massiv bei jeder neuen Softwareversion auf die Finger gehauen. Man muss nicht nur neue Hardware testen, auch neue Software testen ist einfach ne gute Idee, so kann man nämlich aus das Angebot als Hardwaremag um interessante Möglichkeiten erweitern. Und man zwingt nebenbei die Hersteller an Qualität draufzulegen.


nur wird das hier vega auch nicht helfen! Die karte ist vom vram durchsatz limitiert. (deshalb versteh ich auch den turboboost nicht)
das mit dem FP16 und Asynk-mist ist doch nur ein hirngespinst, was auch bald in der versenkung verschwinden wird, weil es zu wenig bringt und zu viel manpower kostet. Schaut euch mal den softwaresupport von activison oder anderen publishern an, wenn das game mal kein hit ist. da werden teilweise nicht mal bugs gefixt.



DOOM läuft unter OGL auch auf alten karten wunderbar. Das wohl best optimierteste game ist witcher 3, da muss man echt den hut ziehen, was die programmiert haben.
Klar geht es, aber man auch die kirche im dorf lassen und der grad zwischen läuft sehr gut und "ist mist" kann manchmal sehr schmal sein. Das zeigen auch die UE4 games. UT läuft granatenmäßig, aber schon kleine änderungen anderer studios können die ganzen optimierungen zunichte machen.


edit
Der Typ ist meister des OT und BS, warum gehst du auf ihn ein?

du siehst ja auch nur alles mit deiner roten brille und bist nicht kritikfähig!
pack dich mal an deiner eigenen nase und rede solche produkte nicht so schön, weil die realität eine andere ist. Bei manchen deiner aussagen kann man echt nur noch den kopf schütteln.
Der gamer vega ist zum vergessen und da gibt es aktuell, 15.08.17 nichts zu rütteln.

Grendizer
2017-08-15, 16:52:29
Ich versteh dein Beispiel eh nicht gabs hier nicht Benches das Vega gut in PCARS läuft es war also ne AMD Treiber Sache.

http://abload.de/img/carsvegab4y79.png

https://tweakers.net/reviews/5603/9/amd-rx-vega-de-vega-64-en-vega-56-getest-prey-en-project-cars.html


Ja... das sieht sehr gut aus.... Würde mich jetzt noch interessieren, wie es bei 5760x1200 aussieht, aber gut das kann ich mir morgen vieleicht selber anschauen. Bisher vor Project Cars auf AMD ein Krampf.

Bin gespannt, was bei Project Cars 2 rauskommen wird. Hat jemand was zu Assetto Corsa gesehen ? Am besten auch 5760x1200 auch wen das obzön speziell ist :biggrin:

HOT
2017-08-15, 16:57:53
nur wird das hier vega auch nicht helfen! Die karte ist vom vram durchsatz limitiert. (deshalb versteh ich auch den turboboost nicht)
das mit dem FP16 und Asynk-mist ist doch nur ein hirngespinst, was auch bald in der versenkung verschwinden wird, weil es zu wenig bringt und zu viel manpower kostet. Schaut euch mal den softwaresupport von activison oder anderen publishern an, wenn das game mal kein hit ist. da werden teilweise nicht mal bugs gefixt.



DOOM läuft unter OGL auch auf alten karten wunderbar. Das wohl best optimierteste game ist witcher 3, da muss man echt den hut ziehen, was die programmiert haben.
Klar geht es, aber man auch die kirche im dorf lassen und der grad zwischen läuft sehr gut und "ist mist" kann manchmal sehr schmal sein. Das zeigen auch die UE4 games. UT läuft granatenmäßig, aber schon kleine änderungen anderer studios können die ganzen optimierungen zunichte machen.


edit


du siehst ja auch nur alles mit deiner roten brille und bist nicht kritikfähig!
pack dich mal an deiner eigenen nase und rede solche produkte nicht so schön, weil die realität eine andere ist. Bei manchen deiner aussagen kann man echt nur noch den kopf schütteln.
Der gamer vega ist zum vergessen und da gibt es aktuell, 15.08.17 nichts zu rütteln.

Wieder so ein destruktives Teil.
Ob Vega gut für dich ist, kommt darauf an, für welchen Preis du das Teil bekommst. Wenn das Ding im Powersaving-Mode läuft, ist das durchaus ein adäquates Produkt. Das ist einfach pauschales gebashe aus meiner Sicht.

Kriton
2017-08-15, 16:58:28
Raff, wir können gerne tauschen im "von Complicated gebasht werden" :D

Für die unterschiedlichen Ergebnisse bei uns gibt es natürlich einen Grund. Aber anstatt nach dem zu fragen ist drauf los bashen und beleidigen halt einfacher. Ist echt "verwunderlich", warum einige Boardies/Redis/Devs hier nicht mehr Posten:freak:

Das ist totaler Blödsinn. Das ist technisch, so wie die Diagramme aufgebaut sind, gar nicht möglich. Egal was du gerne hättest.

Dann frage ich mal: Warum?

Ach ja ich hab noch nen Nachtrag.
Was meiner Ansicht nach eigentlich immer zu kurz kommt ist Softwarekritik. Das geht auch unsere Vollberufler hier vor allem was an, denn da gibts einfach viel zu wenig. Wenn ein Spiel rauskommt, nehmen wir Project Cars als Paradebeispiel, und das schneidet auf Hardware, die sich am Markt befindet und mindestens 20% des Marktes abdeckt, unterirdisch ab, dann gehört das verbal vernichtet (jetzt bin ich mal ein bisschen destruktiv). Genauso wie Adobe und deren Optimierungspolitik. Das gehört massivst kritisiert. Die Hardwarehersteller bekommen nämlich regelmäßig Haue, wenn irgend ne Software mit guter Verbreitung nicht gut läuft, dabei liegt das mindestens zur Hälfte auch immer an der Software! Es kann nicht so schwer sein, vernünftige Optimierungen abzugeben, zumindest im Rahmen der möglichen Mühe, die sich ein Softwarehersteller leisten kann, vernünftige Resultate zu erzielen und das ne Firma wie Adobe immer noch Schwierigkeiten mit Multithreading hat, kann eigentlich nur ein schlechter Witz sein. Es gibt genau 2 CPU-Architekturen (2 1/2 mit Intels neuem meshing) auf dem Markt und genau 2 Grafikarchitekturen und das wird sich auf absehbare Zeit wohl kaum ändern.
Denen gehört massiv bei jeder neuen Softwareversion auf die Finger gehauen. Man muss nicht nur neue Hardware testen, auch neue Software testen ist einfach ne gute Idee, so kann man nämlich aus das Angebot als Hardwaremag um interessante Möglichkeiten erweitern. Und man zwingt nebenbei die Hersteller an Qualität draufzulegen.

+1

vinacis_vivids
2017-08-15, 17:00:08
du siehst ja auch nur alles mit deiner roten brille und bist nicht kritikfähig!
pack dich mal an deiner eigenen nase und rede solche produkte nicht so schön, weil die realität eine andere ist. Bei manchen deiner aussagen kann man echt nur noch den kopf schütteln.
Der gamer vega ist zum vergessen und da gibt es aktuell, 15.08.17 nichts zu rütteln.

:facepalm:

Wie Ryzen hat Vega Stärken und Schwächen. Das wird hier gerade beleuchtet. Der Himmel ist nicht immer grünblau :freak:

dargo
2017-08-15, 17:00:56
Dann klär uns doch mal auf, ich habe nämlich auch eine, auch untervoltet.

Was darf man denn deiner Meinung nach negatives erleben?
Was meinst Du damit?
Ich habe es schon zwei mal verlinkt, dann eben ein drittes Mal.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11402738&postcount=190

Bei Pascal ist das nichts weiter als eine Power Target Absenkung mit entsprechend geringerer Leistung. Bei GCN senkst du mit UV den Verbrauch was dazu führt, dass die GPU höher boosten kann (mehr Spielraum bis zum PT-Limit) mit entsprechend höheren Leistung.

Ich versteh dein Beispiel eh nicht gabs hier nicht Benches das Vega gut in PCARS läuft es war also ne AMD Treiber Sache.

Ich will jetzt nicht behaupten der Treiber wäre ganz unschuldig. Aber wieviele Spielpatches gab es bei pCars seit Release? 10-15? Mir kann doch keiner erzählen, dass in der Applikation nichts geändert wurde damit es auf GCN heute so aussieht, wie es aussieht.

Zergra
2017-08-15, 17:03:16
UV @ 1,05v oder 1,025v, BIOS #2 und power safer mode bitte :biggrin:
Bios 2 habe ich gleich ausgewählt.

Das Problem ist wohl, das das System meinen Monitor nicht mehr erkennt. Bzw nur noch mit 30Hz ansteuert... :confused:

EDIT: lag an der Ultimate Engine für FreeSync von meinem Monitor

BoMbY
2017-08-15, 17:09:18
EDIT: lag an der Ultimate Engine für FreeSync von meinem Monitor

Ist das ein Freesync, oder Freesync 2 Display? Ich hab gerade einen Samsung mit angeblich Freesync 2, und die Fury X erkennt die Freesync Range als 90-120 bzw. 80-120 (ultimate), außerdem kann man im Display den DP-Standard von 1.2 auf 1.4 umstellen, was dann nicht mehr mit der Fury X funktioniert. Wäre interessant zu sehen, ob sich an dem Verhalten etwas mit Vega ändert?

Isen
2017-08-15, 17:14:17
Ach ja ich hab noch nen Nachtrag.
Was meiner Ansicht nach eigentlich immer zu kurz kommt ist Softwarekritik. Das geht auch unsere Vollberufler hier vor allem was an, denn da gibts einfach viel zu wenig. Wenn ein Spiel rauskommt, nehmen wir Project Cars als Paradebeispiel, und das schneidet auf Hardware, die sich am Markt befindet und mindestens 20% des Marktes abdeckt, unterirdisch ab, dann gehört das verbal vernichtet (jetzt bin ich mal ein bisschen destruktiv). Genauso wie Adobe und deren Optimierungspolitik. Das gehört massivst kritisiert. Die Hardwarehersteller bekommen nämlich regelmäßig Haue, wenn irgend ne Software mit guter Verbreitung nicht gut läuft, dabei liegt das mindestens zur Hälfte auch immer an der Software! Es kann nicht so schwer sein, vernünftige Optimierungen abzugeben, zumindest im Rahmen der möglichen Mühe, die sich ein Softwarehersteller leisten kann, vernünftige Resultate zu erzielen und das ne Firma wie Adobe immer noch Schwierigkeiten mit Multithreading hat, kann eigentlich nur ein schlechter Witz sein. Es gibt genau 2 CPU-Architekturen (2 1/2 mit Intels neuem meshing) auf dem Markt und genau 2 Grafikarchitekturen und das wird sich auf absehbare Zeit wohl kaum ändern.
Denen gehört massiv bei jeder neuen Softwareversion auf die Finger gehauen. Man muss nicht nur neue Hardware testen, auch neue Software testen ist einfach ne gute Idee, so kann man nämlich auch das Angebot als Hardwaremag um interessante Möglichkeiten erweitern. Und man zwingt nebenbei die Hersteller an Qualität draufzulegen.


+1.
Kann man aber leider knicken.
Ich sehe keinerlei Tendenzen, dass da mal ein Auge auf die Software geworfen wird, die die Hardware füttert - wenn doch umgekehrt der einfachste und gleichzeitig Lukrativste ist.

=Floi=
2017-08-15, 17:18:22
Wieder so ein destruktives Teil.
Ob Vega gut für dich ist, kommt darauf an, für welchen Preis du das Teil bekommst. Wenn das Ding im Powersaving-Mode läuft, ist das durchaus ein adäquates Produkt. Das ist einfach pauschales gebashe aus meiner Sicht.


ja, ok im powersaving modus passt die effizienz der karte. Das ist für viele normale user aber zu viel gefrickel.

Für mich zählt (um den bogen zu kriegen :) ) die software. Ich will mir keine gedanken darüber machen müssen, ob es läuft, sondern es muss laufen!
Was ich NV sehr hoch anrechne sind auch deren offene profile für AA.
Ich zocke auch gerne abseits des mainstreams oder alte sachen. NV deckt die komplette bandbreite ab.
Der preis ist für mich wichtig, aber das gesamtpaket müsste bei mir auch passen.

Ich wäre offen für vega gewesen. Im frühjahr sprach vieles für vega. Die angeblich neue Grundarchitektur, HBM2 und die vielen details. (2x8Pin für OC :ugly: Die leistungsfähige AIO kühlung und hochwertiges PCB)

Sven77
2017-08-15, 17:18:53
Die grottigste Software ist immer noch das was AMD Treiber nennt

edit: bevor das als Flame gemeldet wird.. Hard- und Software gheht Hand in Hand.. zumindest ist das bei nVidia so. AMD hat ja immer auf dem Papier viel Leistung und tolle Features. Am Ende wird aber alles auf die Entwickler abgewälzt die sich den Arsch aufreissen müssen für eine im Vergleich zu geringen Marktanteil von Grafikkarten. Sehet und staunet was plötzlich passieren wird wenn nVidia gute LL Karten bringt..

CD-LABS
2017-08-15, 17:19:01
:facepalm:

Wie Ryzen hat Vega Stärken und Schwächen. Das wird hier gerade beleuchtet. Der Himmel ist nicht immer grünblau :freak:
Das ist aber eine sehr, sehr allgemein gehaltene Aussage... :rolleyes:
...in Punkto Stärken und Schwächen unterscheiden sich Ryzen und Vega massiv.

Bei Ryzen kommt man gar nicht leicht dazu, alle Stärken im Vergleich zu KabyLake-S aufzuzählen, am leichtesten lässt sich das mit dominiert sämtliche B-Noten zusammenfassen.

Bei Vega hingegen hat AMD alle Chancen verpasst, sich irgendwelche B-Noten abseits FreeSync zu krallen. Und FreeSync sprach auch schon bei Fiji für AMD...

Verpasste Chancen:
-Komfortable Integration von NeigherestNeighbour-Scaling im Treiber (um auf hochauflösenden Panels niedrigauflösenden Content verlustfrei darstellen zu können)
-Realisierung von einer Bibliothek an AntiAliasing-Kompatibilitätsbits für das breite Retro-Portfolio an PC-Spielen inklusive automatischer Optimierung im Treibermenu
-ein Referenzdesign, das Nvidia in Punkto Kühlung und Lautstärke wegfegt
-eine besonders kurze Graka direkt zum Launch
-ernsthafte (nicht so verarschende) Bundles
-ein erstklassiges, revolutionäres Lineup an DP 1.4-ausnutzenden FreeSync-Monitoren
-Ein sinnvoll weiterentwickeltes Chill

Das ist jetzt bloß das, was mir sofort in den Sinn kommt. Wieso nur AMD, wieso nur überseht ihr derart offensichtliches Potential

Zergra
2017-08-15, 17:20:16
Ist das ein Freesync, oder Freesync 2 Display? Ich hab gerade einen Samsung mit angeblich Freesync 2, und die Fury X erkennt die Freesync Range als 90-120 bzw. 80-120 (ultimate), außerdem kann man im Display den DP-Standard von 1.2 auf 1.4 umstellen, was dann nicht mehr mit der Fury X funktioniert. Wäre interessant zu sehen, ob sich an dem Verhalten etwas mit Vega ändert?
Soviel ich weiß 1





Also mit BIOS 2 und Powersafe komme ich nicht über 1.4Ghz, schwankt sehr stark zwischen 1.2-1.4. Aber bisschen schnell für eine genaue Aussage.

Schnitzl
2017-08-15, 17:22:22
Also mit BIOS 2 und Powersafe komme ich nicht über 1.4Ghz, schwankt sehr stark zwischen 1.2-1.4. Aber bisschen schnell für eine genaue Aussage.
Kannst du bitte noch was zur Lautstärke sagen?
Generell Powersave und evtl. Vergleich Powersafe/Balance =)

gedi
2017-08-15, 17:23:27
Soviel ich weiß 1





Also mit BIOS 2 und Powersafe komme ich nicht über 1.4Ghz, schwankt sehr stark zwischen 1.2-1.4. Aber bisschen schnell für eine genaue Aussage.

So etwas hatte ich schon vermutet ;(

Ex3cut3r
2017-08-15, 17:25:39
Leute beruight euch mal wieder, viele Texte sind wieder viel zu persönlich.

@Dargo
Du hast damals das UV bei Pascal falsch betrieben, der Trick ist im Curve Editor die Kurve proportional steigen/senken zu lassen und nicht irgendeinen Spannungs State wählen und runterziehen.

Menace
2017-08-15, 17:26:45
ja, ok im powersaving modus passt die effizienz der karte. Das ist für viele normale user aber zu viel gefrickel.


Wer einen Schalter nicht umlegen und einen Button in einer Software nicht drücken kann; ok. Der sollte dann mit dem Verbrauch leben, eine 56 oder nvidia-Karte kaufen. Letztere sind, was die Effizienz bei Spielen angeht, noch immer ungeschlagen - Ehre wem Ehre gebührt.

@Zergra: :up: neidische Glückwunschgrüße.

dargo
2017-08-15, 17:29:45
Ich hab gerade einen Samsung mit angeblich Freesync 2, und die Fury X erkennt die Freesync Range als 90-120 bzw. 80-120 (ultimate), außerdem kann man im Display den DP-Standard von 1.2 auf 1.4 umstellen, was dann nicht mehr mit der Fury X funktioniert.
Wie soll das gehen wenn Fury nur DP 1.2 kann?


@Dargo
Du hast damals das UV bei Pascal falsch betrieben, der Trick ist im Curve Editor die Kurve proportional steigen/senken zu lassen und nicht irgendeinen Spannungs State wählen und runterziehen.
Ich hatte mich an die Videoanleitung von BK-Morpheus gehalten.


Also mit BIOS 2 und Powersafe komme ich nicht über 1.4Ghz, schwankt sehr stark zwischen 1.2-1.4. Aber bisschen schnell für eine genaue Aussage.
Vergiss den Takt, der ist komplett unwichtig. Wichtig ist nur die Leistung die damit zustande kommt.

HOT
2017-08-15, 17:30:23
Menace
Er hat ja schon recht, den Sparmodus als Standardvariante zu markieren wär schon ne tolle Sache gewesen. Was jetzt Standard ist, hätt man ja Turbo nennen können und was jetzt Turbo ist Unleashed. Wär ja schön, diese Schalter zu haben, das würd ich gar nicht kritisieren. Aber der Sparmodus hätte Standard sein müssen. Das hab ich ziemlich am Threadanfang aber schon mal geschrieben ;).

Zergra
2017-08-15, 17:32:07
Kannst du bitte noch was zur Lautstärke sagen?
Generell Powersave und evtl. Vergleich Powersafe/Balance =)

Habe noch das Gehäuse auf, also ist die etwas Lauter. Hatte gerade nur mal Bios2 und Powersafen an, das war Leiser als Custom + 1.05V. Aber da muss ich nochmal schauen wie die Lüfter Kurven aussehen.

Die erste Variante war Okay.

Ätznatron
2017-08-15, 17:34:52
Bei Pascal ist das nichts weiter als eine Power Target Absenkung mit entsprechend geringerer Leistung. Bei GCN senkst du mit UV den Verbrauch was dazu führt, dass die GPU höher boosten kann (mehr Spielraum bis zum PT-Limit) mit entsprechend höheren Leistung.


So ist das gemeint.

Ja, okay, bei Pascal ist das Resultat des Undervoltings halt ein Kompromiss mit durchaus auch einer - je nach "Güte der Kurve" mehr oder weniger starken - Leistungsminderung.

BoMbY
2017-08-15, 17:38:50
Wie soll das gehen wenn Fury nur DP 1.2 kann?

Solche Standards sollten normalerweise abwärtskompatibel sein sollten, was aber offensichtlich nicht der Fall ist. Wie gesagt hat das Display Einstellungen für DP 1.2 und 1.4, und Default ist 1.2 - wobei halt die Frage ist, ob die Freesync-Probleme am DP-Standard liegen, oder einfach nur daran, dass die Firmware von Samsung Müll ist. Und so wirklich hat AMD sich auch nicht geäußert, ob Freesync 2 zwingend DP 1.4 voraussetzt, und welche Karten jetzt eigentlich genau kompatibel sind.

dargo
2017-08-15, 17:43:13
Solche Standards sollten normalerweise abwärtskompatibel sein sollten, was aber offensichtlich nicht der Fall ist.
Ich kann dir nicht folgen. Dein Bildschirm kennt den neuen DP 1.4 Standard und ist zu DP 1.2 abwärtskompatibel. Deine Fury kennt nur DP 1.2. Die kann doch nicht zu DP 1.4 aufwärstkompatibel sein? :confused:

Sunrise
2017-08-15, 17:45:11
...Das ist jetzt bloß das, was mir sofort in den Sinn kommt. Wieso nur AMD, wieso nur überseht ihr derart offensichtliches Potential
Eine DINA4-Liste voller Vorschläge, aber nur eine Handvoll Softwareentwickler, die schon alle Hände voll zu tun haben mit Pro, Apple, etc. pp und was weiß ich nicht noch alles.

Dann irgendwann kommen deinen schönen Vorschläge, die AMD aber auch wenn sie es wollten wohl vor so starke Manpower-Probleme stellen, dass es hier eher danach geht eine "das Ding muss raus"-Mentalität (gezwungenermaßen) zu leben, als noch Zeit dafür zu haben, wie man auch noch das letzte Quentchen Leistung rauskitzelt und man hilfreiche Funktionen in Bestehendes einbaut. Wirklich nur das, was unbedingt nötig ist.

Würde wohl jeder andere genauso machen oder er macht es nur einmal und das war dann auch vorerst das letzte Mal. Zumindest bis es plötzlich stark bebt und man dann draus gelernt hat.

Hilft nur den enttäuschten Erwartungen nichts, eine 1080 FE sollte das Minimum-Ziel sein, und zwar quer durch die Bank.

AMD wird sich beim Nacharbeiten zu 100% hinter Features stellen, die auch bei Navi weitergeführt werden, und diverse Nachtests scheinen mal wieder unvermeidbar.

BoMbY
2017-08-15, 17:47:15
Ich kann dir nicht folgen. Dein Bildschirm kennt den neuen DP 1.4 Standard und ist zu DP 1.2 abwärtskompatibel. Deine Fury kennt nur DP 1.2. Die kann doch nicht zu DP 1.4 aufwärstkompatibel sein? :confused:

Ohh wei. Es sollte automatisch kompatibel sein, und den höchsten Standard der auf beiden Seiten verfügbar ist einstellen, wie z.B. bei PCIe, wo es egal ist, ob Du eine PCIe 3.0 Karte in ein PCIe 1.0 Board steckst, oder eine PCIe 1.0 Karte in ein PCIe 3.0 Board.

dargo
2017-08-15, 17:52:52
Ohh wei. Es sollte automatisch kompatibel sein, und den höchsten Standard der auf beiden Seiten verfügbar ist einstellen, wie z.B. bei PCIe, wo es egal ist, ob Du eine PCIe 3.0 Karte in ein PCIe 1.0 Board steckst, oder eine PCIe 1.0 Karte in ein PCIe 3.0 Board.
Dein Vergleich hinkt ganz schön. Du kannst doch dein DP Kabel anstecken oder nicht? Und dann richtet man sich nach dem was zuerst limitiert. Nämlich deine Fury mit DP 1.2. Nichts anderes passiert wenn du eine PCIe 3.0 Karte in bsw. einen PCIe 2.0 Slot steckst. Auch dort läuft die Karte als PCIe 2.0 und nicht PCIe 3.0, weil eben der Slot der limitierende Faktor ist. Gleiches gilt für einen USB 3.0 Stick in einem USB 2.0 Slot.

Zumindest verstehe ich das hier so, dass dein System mit der Fury automatisch als DP 1.2 läuft.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11461659&postcount=643

Und du nur optional am Bildschirm DP 1.4 wählen kannst, was verständlicherweise mit einer Fury dann nicht funktioniert. Vega kann DP 1.4 und sollte damit dann auch mit deinem Bildschirm kommunizieren.

Ex3cut3r
2017-08-15, 17:55:28
Ohh wei. Es sollte automatisch kompatibel sein, und den höchsten Standard der auf beiden Seiten verfügbar ist einstellen, wie z.B. bei PCIe, wo es egal ist, ob Du eine PCIe 3.0 Karte in ein PCIe 1.0 Board steckst, oder eine PCIe 1.0 Karte in ein PCIe 3.0 Board.

Ja, aber du hast hast halt trotzdem nur die Features von DP 1.2 oder darunter. Auch wenn du DP 1.4 erfolgreich "einstellen" kannst. Fury kann nix mit 1.4 anfangen, aber das ist dir ja klar?!

BoMbY
2017-08-15, 17:58:09
Ja, aber du hast hast halt trotzdem nur die Features von DP 1.2 oder darunter. Auch wenn du DP 1.4 erfolgreich "einstellen" kannst. Fury kann nix mit 1.4 anfangen, aber das ist dir ja klar?!

Das ist doch überhaupt nicht der Punkt Ihr Nasen ... Meine Fresse. Es geht darum ob Displayport 1.4 eine Voraussetzung für Freesync 2 ist, oder nicht.

Schnitzl
2017-08-15, 18:02:20
Habe noch das Gehäuse auf, also ist die etwas Lauter. Hatte gerade nur mal Bios2 und Powersafen an, das war Leiser als Custom + 1.05V. Aber da muss ich nochmal schauen wie die Lüfter Kurven aussehen.

Die erste Variante war Okay.
Danke für den Ersteindruck :cool:

Ex3cut3r
2017-08-15, 18:02:54
Das ist doch überhaupt nicht der Punkt Ihr Nasen ... Meine Fresse. Es geht darum ob Displayport 1.4 eine Voraussetzung für Freesync 2 ist, oder nicht.

Achso, dann sry....:biggrin:

Online finde ich leider keine Anforderungen an Freesync 2.

Ph03n!X
2017-08-15, 18:03:14
Die 56er Customs sollen wie die 64er Customs erst nächsten Monat kommen oder ?

dargo
2017-08-15, 18:08:54
Das ist doch überhaupt nicht der Punkt Ihr Nasen ... Meine Fresse. Es geht darum ob Displayport 1.4 eine Voraussetzung für Freesync 2 ist, oder nicht.
Dann formuliere deine Frage entsprechend du Nase. :D

Ich habe nirgendwo gelesen, dass für Freesync 2 DP 1.4 Voraussetzung sein soll. Die wichtigsten Bestandteile von Freesync 2 sind HDR-/ und LFC-Support auf Seite vom Bildschirm.

horn 12
2017-08-15, 18:09:32
@Zegra

Schon getestet und die schwarze Version oder die Limited Edition
Wie laut wird der Lüfter beim Zocken ?
Untervolting schon probiert, und falls ja was ist möglich...

@Raff
Kannst ja bitte einen Lüftervergleich hier ins Forum reinstellen.

Edgecrusher86
2017-08-15, 18:16:46
Leute beruight euch mal wieder, viele Texte sind wieder viel zu persönlich.

@Dargo
Du hast damals das UV bei Pascal falsch betrieben, der Trick ist im Curve Editor die Kurve proportional steigen/senken zu lassen und nicht irgendeinen Spannungs State wählen und runterziehen.


OT: Genau, eine falsch eingestellte Kurve im Editor resultiert darin, dass nicht alle Domains so hoch takten wie sie sollten - genauer gesagt sogar niedriger als Stock per Boost - kann man im Inspector mit den FermiClocks live verfolgen.
Per Offset und Voltage im Editor festnageln geht auch prima - hier mal am Beispiel TW3 5K DSR UV-Taktskalierung mit 1080 Ti SLI - 1342 MHz bis 1924 MHz - Blickwinkel und Tageszeiten sind nicht 100% identisch, aber die Unterschiede sind mit der Auslastung bei dieser Szene relativ gering:

https://abload.de/thumb/tw35ktisli-1342-51fps0rbqh.jpg (http://abload.de/image.php?img=tw35ktisli-1342-51fps0rbqh.jpg) https://abload.de/thumb/tw35ktisli-1443-53fpsm5ahn.jpg (http://abload.de/image.php?img=tw35ktisli-1443-53fpsm5ahn.jpg) https://abload.de/thumb/tw35ktisli-1557-56fps52bjq.jpg (http://abload.de/image.php?img=tw35ktisli-1557-56fps52bjq.jpg) https://abload.de/thumb/tw35ktisli-1658-58fps9vznv.jpg (http://abload.de/image.php?img=tw35ktisli-1658-58fps9vznv.jpg) https://abload.de/thumb/tw35ktisli-1759-59fpsf8yhb.jpg (http://abload.de/image.php?img=tw35ktisli-1759-59fpsf8yhb.jpg) https://abload.de/thumb/tw35ktisli-1848-62fpsuau51.jpg (http://abload.de/image.php?img=tw35ktisli-1848-62fpsuau51.jpg) https://abload.de/thumb/tw35ktisli-1924-63fpsrvarb.jpg (http://abload.de/image.php?img=tw35ktisli-1924-63fpsrvarb.jpg)

1342/5500 MHz - 0,800V - 51 fps
1443/5500 MHz - 0,800V - 53 fps
1557/5500 MHz - 0,800V - 56 fps
1658/5500 MHz - 0,800V - 58 fps
1759/5500 MHz - 0,850V - 59 fps
1848/5500 MHz - 0,900V - 62 fps
1924/5500 MHz - 1,000V - 63 fps


E: Boost mit max. Targets + Offset drauf und Stock Boost/Targets nachgereicht:

https://abload.de/thumb/tw35ktisli-maxtargets5su29.jpg (http://abload.de/image.php?img=tw35ktisli-maxtargets5su29.jpg)https://abload.de/thumb/tw35ktisli-stocktargeyfuos.jpg (http://abload.de/image.php?img=tw35ktisli-stocktargeyfuos.jpg)

~2025/5500 MHz - 1,050V - 63 fps
~ 1797/5500 MHz - 0,993/0,975V - 59 fps

Im kühlen Betrieb quasi identische Performance zu den AB-Settings, nach ner Weile sinken die fps natürlich wie gewohnt, wenn der Boost runter geht und springt

Leider gehen die Ti nicht so gut wie etwa meine 1080er zuvor oder die X(P) von Bekannten, aber im SLI langt mir je nach Game normal zwischen 1658 und 1848 MHz. Der Hexer kloppt natürlich vor allen mit den Settings gut auf die GPUs, sodass 20xx MHz mit FEs zu halten eher unvernünftige Brechstange sind. ;)


Zurück zu RX VEGA - ja, es ist zwar schön, dass man viel Spielraum hat, um die Karte effizienter zu machen, aber es wäre doch vielleicht besser gewesen, AMD hätte auf die letzten 10% Leistung verzichtet und auf BIOS 2 verwiesen. :cool:

Zergra
2017-08-15, 18:18:57
[
Generell Powersave und evtl. Vergleich Powersafe/Balance =)[/QUOTE]
@Zegra

Schon getestet und die schwarze Version oder die Limited Edition
Wie laut wird der Lüfter beim Zocken ?
Untervolting schon probiert, und falls ja was ist möglich...

@Raff
Kannst ja bitte einen Lüftervergleich hier ins Forum reinstellen.

Black, die Limited habe ich weiter verkauft an jmd hier im Forum.

Ich habe einfach mal 1.05V eingestellt und die hatte keine Abstütze. Aber werde mich in den nächsten Stunden mehr damit auseinander setzen.

Ätznatron
2017-08-15, 18:23:59
@Edgecrusher86

Am Ende bleibt trotzdem, dass sie untervoltet nicht (ganz) die Leistung @Max erreicht.

Meine besten Benchmarkresultate habe ich mit meiner GTX 1070 mit allen Reglern nach rechts erreicht, wenn auch die UV-Resultate nahe dran gekommen sind.

horn 12
2017-08-15, 18:24:53
Mit Untervolting und Bios 2 sollte die Karte gar sparsam sein und vielleicht knapp unter GTX 1080 und leisem Lüfter.

dargo
2017-08-15, 18:25:31
OT: Genau, eine falsch eingestellte Kurve im Editor resultiert darin, dass nicht alle Domains so hoch takten wie sie sollten - genauer gesagt sogar niedriger als Stock per Boost - kann man im Inspector mit den FermiClocks live verfolgen.
Per Offset und Voltage im Editor festnageln geht auch prima - hier mal am Beispiel TW3 5K DSR UV-Taktskalierung mit 1080 Ti SLI - 1342 MHz bis 1924 MHz - Blickwinkel und Tageszeiten sind nicht 100% identisch, aber die Unterschiede sind relativ gering:

https://abload.de/thumb/tw35ktisli-1342-51fps0rbqh.jpg (http://abload.de/image.php?img=tw35ktisli-1342-51fps0rbqh.jpg) https://abload.de/thumb/tw35ktisli-1443-53fpsm5ahn.jpg (http://abload.de/image.php?img=tw35ktisli-1443-53fpsm5ahn.jpg) https://abload.de/thumb/tw35ktisli-1557-56fps52bjq.jpg (http://abload.de/image.php?img=tw35ktisli-1557-56fps52bjq.jpg) https://abload.de/thumb/tw35ktisli-1658-58fps9vznv.jpg (http://abload.de/image.php?img=tw35ktisli-1658-58fps9vznv.jpg) https://abload.de/thumb/tw35ktisli-1759-59fpsf8yhb.jpg (http://abload.de/image.php?img=tw35ktisli-1759-59fpsf8yhb.jpg) https://abload.de/thumb/tw35ktisli-1848-62fpsuau51.jpg (http://abload.de/image.php?img=tw35ktisli-1848-62fpsuau51.jpg) https://abload.de/thumb/tw35ktisli-1924-63fpsrvarb.jpg (http://abload.de/image.php?img=tw35ktisli-1924-63fpsrvarb.jpg)

1342/5500 MHz - 0,800V - 51 fps
1443/5500 MHz - 0,800V - 53 fps
1557/5500 MHz - 0,800V - 56 fps
1658/5500 MHz - 0,800V - 58 fps
1759/5500 MHz - 0,850V - 59 fps
1848/5500 MHz - 0,900V - 62 fps
1924/5500 MHz - 1,000V - 63 fps


Mit fehlt hier der Vergleich mit Default Takt/Vcore sowie PT. Mal davon ab... wieviele Leute haben auf so ein Gefrickel überhaupt Lust?

MechWOLLIer
2017-08-15, 18:47:34
Also mit BIOS 2 und Powersafe komme ich nicht über 1.4Ghz, schwankt sehr stark zwischen 1.2-1.4. Aber bisschen schnell für eine genaue Aussage.
Wobei man mit der Aussage vorsichtig sein muss. mit dem aktuell herunterladbaren Treibern zeigen die Tools nicht den Takt, sondern die DPM-States von Vega an. Die presse hat einen Alpha-Treiber, der die tatsächlichen Taktraten anzeigt. Ist schon lustig, wenn Vega anscheinend in 1-MHz-Schritten den Takt wechseln kann. Was ich damit meine: Es kann ja gut sein, dass du knapp unter dem nächsthöheren DPM-State hängst und damit gut was höher taktest als man vermuten kann. Aktuell kannst du das aber eben nicht sehen.

dargo
2017-08-15, 19:00:34
Ist schon lustig, wenn Vega anscheinend in 1-MHz-Schritten den Takt wechseln kann.
WTF? So eine feine Granularität hat man schon? Jetzt sag mir aber nicht jedes Mhz hat noch eine andere Spannung. X-D

Erbsenkönig
2017-08-15, 19:01:00
Die 56er Customs sollen wie die 64er Customs erst nächsten Monat kommen oder ?

Dahingehend hat man bisher nicht viel gehört. Die 64er STRIX von ASUS soll Anfang September kommen.

http://promos.asus.com/US/PR_2017/ROG_AMD_RX_Vega/index.html

Zergra
2017-08-15, 19:02:54
Ja schon klar,


Ich bin jetzt auch nicht der, der so richtig viel Lust hat alles zu Testen..


Ich kann ja die Spannungen von den States 6-7 ändern. Sind die Taktraten für die States festgelegt ? Also 1.6Ghz und 1.5 ?

MechWOLLIer
2017-08-15, 19:04:42
WTF? So eine feine Granularität hat man schon? Jetzt sag mir aber nicht jedes Mhz hat noch eine andere Spannung. X-D
Sagen wir mal so: Laut WattMan kann Vega das. Ich hoffe jetzt einfach mal, dass das AMD-eigen Tool es richtig ausliest:D
Das Taktverhalten wurde auf jedenfall Massiv gegenüber Polaris geändert.

aufkrawall
2017-08-15, 19:06:00
Kann man im Treiber eigentlich noch zwischen verschiedenen Stromsparprofilen umschalten? Bzw. muss man das immer noch?

Iruwen
2017-08-15, 19:07:40
http://wccftech.com/amds-rx-vega-64s-499-price-tag-was-a-launch-only-introductory-offer/
Hat AMD dazu schon was gesagt?

Zergra
2017-08-15, 19:10:20
Kann man im Treiber eigentlich noch zwischen verschiedenen Stromsparprofilen umschalten? Bzw. muss man das immer noch?
Kann man ja, sind 3 verschiedene.

Trap
2017-08-15, 19:10:34
Computerbase schreibt, dass AMD weiter den Preis 499 nennt:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-preise-bundles-partnerkarten-ueberblick/#update1

Screemer
2017-08-15, 19:16:17
Sehr schade. Aber technisch wäre es möglich, oder wie?
Das ist auf jeden Fall möglich, wenn man noch eine igpu in der CPU hat. Nur mxgpu scheint nicht zu gehen. Pcie passthroug funktioniert schon ewig. Sollten die das geändert haben, dann wäre das selten dämlich.

Iruwen
2017-08-15, 19:16:29
Computerbase schreibt, dass AMD weiter den Preis 499 nennt:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-preise-bundles-partnerkarten-ueberblick/#update1
Thx

Grendizer
2017-08-15, 19:18:02
So Gerüchte gibt es doch seit ca. 1 Woche. So wie es aussieht gab es 60 Karten bei MF für 509 Euro. Und noch einige für 609 und nun nur noch Packs für 649.

AffenJack
2017-08-15, 19:18:08
Computerbase schreibt, dass AMD weiter den Preis 499 nennt:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-preise-bundles-partnerkarten-ueberblick/#update1

Das tun sie zwar, aber Gibbo, der der Urheber der News war hat seine Aussage nochmal präzisiert später. Er meinte damit wohl, dass nach der ersten Fuhre Grakas für 499$ erstmal nur Bundles nachkommen. Die kosten eben 599$ und haben wohl Priorität, während die einzelnen Grakas erst bei verbesserter Liefersituation wiederkommen. OcUK hat keine Liefertermine für die Non-bundle Karten.

aufkrawall
2017-08-15, 19:21:00
Kann man ja, sind 3 verschiedene.
Jetzt sinds drei statt zwei? :redface:
Wär nun interessant, was die Unterschiede sind.

Zergra
2017-08-15, 19:22:21
Jetzt sinds drei statt zwei? :redface:
Wär nun interessant, was die Unterschiede sind.
Achso, insgesamt 3 mit Balanced. Leider werden die Einstellungen vom PowerSafe nicht angezeigt. Wenn man als UV betreiben möchte, muss man selber testen.

Screemer
2017-08-15, 19:23:58
Einen "abfackeln" Spruch kann man sich als Redakteur ebenso sparen. Ob da nun die LCE genutzt wurde oder nicht zeigt das kein gutes Bild der Person.

Komm mal wieder runter. Bei 1k RPM kann man bei regulären BIOS/treiber-settings durchaus von abfackeln sprechen. Die Karte läuft zwangsläufig ins TT und wir massiv drosseln.

dargo
2017-08-15, 19:26:15
Hier gibts einen netten Vergleich von Vega56 vs. GTX1070 in Witcher 3.
https://www.youtube.com/watch?v=uzbjc2JmQJM#t=4m11s

Edgecrusher86
2017-08-15, 19:26:21
Naja, Offset, Targets, Voltage und evtl. noch Fan einstellen ist sicher auch nicht mehr Gefrickel, als eine RX VEGA mit Wattman zu optimieren. Außerdem kann man dann ja Profile speichern und laden. Das einzig Umständliche ist natürlich, dass der Curve Editor für SLI nicht synchronisierén kann, sprich man zwei Profile braucht und natürlich, dass man im Desktopbetrieb die Profile wieder auf Default stellt - sonst bleibt es wärmer im Zimmer. :D

Vermutlich dürfte man bei den RX mit UV zusätzlich zu dem BIOS-Switch und Profile-Settings noch etwas rausholen können. Also ich rechne da schon mit einem ähnlichen Aufwand für den interessierten User, soll es best möglich laufen. Auf die Schnelle ist natürlich so ein BIOS Switch auch cool - auf jeden Fall. :cool:

Habe mal eben schnell mit Boost + Offset und max Targets und Boost mit Stock Targets nachgereicht. Das PT ist jeweils links neben der VCore.


https://abload.de/thumb/tw35ktisli-maxtargets5su29.jpg (http://abload.de/image.php?img=tw35ktisli-maxtargets5su29.jpg)https://abload.de/thumb/tw35ktisli-stocktargeyfuos.jpg (http://abload.de/image.php?img=tw35ktisli-stocktargeyfuos.jpg)

~2025/5500 MHz - 1,050V - 63 fps
~ 1797/5500 MHz - 0,993/0,975V - 59 fps

Im kühlen Betrieb quasi identische Performance zu den AB-Settings, nach ner Weile sinken die fps natürlich wie gewohnt, wenn der Boost runter geht und springt.

aufkrawall
2017-08-15, 19:28:10
Achso, insgesamt 3 mit Balanced. Leider werden die Einstellungen vom PowerSafe nicht angezeigt. Wenn man als UV betreiben möchte, muss man selber testen.
Beziehst du dich vielleicht auf Taktprofile? Ich meinte das Verhalten bez. des Taktumschaltens unter Last/Idle.

Complicated
2017-08-15, 19:30:08
Komm mal wieder runter. Bei 1k RPM kann man bei regulären BIOS/treiber-settings durchaus von abfackeln sprechen. Die Karte läuft zwangsläufig ins TT und wir maßiv drosseln.
Was heisst komm mal runter? Wegen was soll ich irgendwo oben sein?
Du schreibst ja selber die Karte drosselt, das "abfackeln" impliziert die Karte geht defekt durch Überhitzung. Das kann man sich definitiv sparen, da es reiner FUD ist. Seit wann ist drosseln und abfackeln das selbe?

Der_Korken
2017-08-15, 19:33:23
Achso, insgesamt 3 mit Balanced. Leider werden die Einstellungen vom PowerSafe nicht angezeigt. Wenn man als UV betreiben möchte, muss man selber testen.

Müssten die Spannung->Takt-Paarungen nicht bei allen Modi gleich sein? Ich mein, entweder schafft der Chip mit Spannung x den Takt y oder nicht. Der Modus legt dann nur fest, wieviel der Chip maximal verbrauchen darf und drosselt bei Bedarf. Wenn man bei 220W ASIC-Power -25% als Powertarget einstellt, dann sollte eigentlich exakt das gleiche rauskommen wie bei einem 165W ASIC-Powertarget bei +-0.

Erbsenkönig
2017-08-15, 19:42:31
Das tun sie zwar, aber Gibbo, der der Urheber der News war hat seine Aussage nochmal präzisiert später. Er meinte damit wohl, dass nach der ersten Fuhre Grakas für 499$ erstmal nur Bundles nachkommen. Die kosten eben 599$ und haben wohl Priorität, während die einzelnen Grakas erst bei verbesserter Liefersituation wiederkommen. OcUK hat keine Liefertermine für die Non-bundle Karten.

Das sind doch aber keine "richtigen" Pakete. Ich vermute ehrlich gesagt eher, dass es nach den ersten Verkäufen mit der Verfügbarkeit schlecht aussieht und die Verkäufer das ausnutzen. Da kann dann "Gibbo" auch was vom angeblichen Launchpreis erzählen (Ganz ehrlich: So dumm kann AMD gar nicht sein) und das auf AMD schieben, wenn er die paar, die er noch hat, für nen Hunderter mehr verkauft.

Screemer
2017-08-15, 19:45:34
Für die unterschiedlichen Ergebnisse bei uns gibt es natürlich einen Grund. Aber anstatt nach dem zu fragen ist drauf los bashen und beleidigen halt einfacher. Ist echt "verwunderlich", warum einige Boardies/Redis/Devs hier nicht mehr Posten:freak:

Die Erklärung bist du immer noch schuldig. Er war ja nicht der einzig, der sich darüber gewundert hat und auch in normalem ton nach einer Erklärung gefragt hat. Auch würde mich interessieren wie ihr bei negativer Skalierung im Graphen bei der 1080 auf die 3% Steigerung im Text kommt.

dargo
2017-08-15, 19:45:43
Habe mal eben schnell mit Boost + Offset und max Targets und Boost mit Stock Targets nachgereicht. Das PT ist jeweils links neben der VCore.


https://abload.de/thumb/tw35ktisli-maxtargets5su29.jpg (http://abload.de/image.php?img=tw35ktisli-maxtargets5su29.jpg)https://abload.de/thumb/tw35ktisli-stocktargeyfuos.jpg (http://abload.de/image.php?img=tw35ktisli-stocktargeyfuos.jpg)

~2025/5500 MHz - 1,050V - 63 fps
~ 1797/5500 MHz - 0,993/0,975V - 59 fps
Danke. :)

Ich werde dich später über PN anschreiben. Das ist hier zu sehr OT.

Zergra
2017-08-15, 19:58:03
Beziehst du dich vielleicht auf Taktprofile? Ich meinte das Verhalten bez. des Taktumschaltens unter Last/Idle.
Verstehe ich gerade nicht, bin aber auch heute ziemlich durch...

Müssten die Spannung->Takt-Paarungen nicht bei allen Modi gleich sein? Ich mein, entweder schafft der Chip mit Spannung x den Takt y oder nicht. Der Modus legt dann nur fest, wieviel der Chip maximal verbrauchen darf und drosselt bei Bedarf. Wenn man bei 220W ASIC-Power -25% als Powertarget einstellt, dann sollte eigentlich exakt das gleiche rauskommen wie bei einem 165W ASIC-Powertarget bei +-0.
Bin mir da echt nicht sicher, bei den anderen Modi kann man die Spannungen ja nicht ändern.

Gerade eine Runde BF 1 gespielt, macht auf Ultra in 4k schon Spaß.

Zur Lautstärke. Ich hatte Bios 2 + 0% PT + 1.07V.
Die Karte hört man natürlich heraus, lässt sich bei 2400rpm aber ganz gut aushalten.

Birdman
2017-08-15, 20:06:47
Die Erklärung bist du immer noch schuldig. Er war ja nicht der einzig, der sich darüber gewundert hat und auch in normalem ton nach einer Erklärung gefragt hat. Auch würde mich interessieren wie ihr bei negativer Skalierung im Graphen bei der 1080 auf die 3% Steigerung im Text kommt.
Kontext?!?
Das ganze steht explizit unter der Rubrik AsyncCompute Tests und DX11 vs DX12 spielt deshalb bei der Betrachtung gar keine Rolle.
Darum steht dort z.B. auch dass Vega (bei Ashes) 11% gewinnt - würde man die Performance unter DX11 als Ausgangswert nehmen, wären es nämlich 21% Differenz.

Manche Leute haben echt das Leseverständnis eines Bubbles...aber Hauptsache mal dick bashen.

Loeschzwerg
2017-08-15, 20:11:00
Die Erklärung bist du immer noch schuldig. Er war ja nicht der einzig, der sich darüber gewundert hat und auch in normalem ton nach einer Erklärung gefragt hat. Auch würde mich interessieren wie ihr bei negativer Skalierung im Graphen bei der 1080 auf die 3% Steigerung im Text kommt.

Hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11461761#post11461761 :)

Grendizer
2017-08-15, 20:14:59
Gibt es eigentlich Unterschiede zwischen der XFX Vega 64 Black und der Sapphire Vega 64 Black ? Ich hatte gestern nur die XFX bekommen.

Screemer
2017-08-15, 20:16:25
Was heisst komm mal runter? Wegen was soll ich irgendwo oben sein?
Du schreibst ja selber die Karte drosselt, das "abfackeln" impliziert die Karte geht defekt durch Überhitzung. Das kann man sich definitiv sparen, da es reiner FUD ist. Seit wann ist drosseln und abfackeln das selbe?
Wie lang bist du jetzt schon im Hardware Enthusiast Sektor unterwegs? Ich tippe mal auf lang. Wie oft hast du dann schon von abfackeln bei hohen temp. Oder Drosselung durchs TT gehört. Ich tippe auf dutzende male. Du übertreibst es einfach mal wieder über alle maßen.

Schnoesel
2017-08-15, 20:20:37
Irgendiwe fühle ich mich 10 7 Jahre zurückversetzt:

https://www.youtube.com/watch?v=wCi5hiIO4fs

Vorsicht etwas Polemik ;-) Ich fand die Werbung damals gut.

dildo4u
2017-08-15, 20:22:17
Ryzen 1600 + RX Vega 64 - Rise Of The Tomb Raider Gameplay - 4k Very High Settings

https://youtu.be/tbiAeIcyEpk

Complicated
2017-08-15, 20:26:45
Kontext?!?
Das ganze steht explizit unter der Rubrik AsyncCompute Tests und DX11 vs DX12 spielt deshalb bei der Betrachtung gar keine Rolle.
Darum steht dort z.B. auch dass Vega (bei Ashes) 11% gewinnt - würde man die Performance unter DX11 als Ausgangswert nehmen, wären es nämlich 21% Differenz.

Manche Leute haben echt das Leseverständnis eines Bubbles...aber Hauptsache mal dick bashen.
Was heisst denn dick bashen?

Was du noch nicht bemerkt hast, ist dass völlig andere Werte in den Indizies stehen, als die unter den 3 Szenarien gemessenen. Also wo kommt der vierte Wert her? Nicht von DX11, DX12 und auch nicht von DX12+AC.

Wolfgang räumt inzwischen ein sogar in den Tessellation Tests andere Szenarien zu verwenden als in den Tests die zum Eintrag in den Index genutzt werden. Siehe:
Um es direkt vorweg zu nehmen: Die Testszenen für die Special Tests sind generell ein wenig anders. So nutzt die extra ausgesuchte Testszene für RotTR zum Beispiel mehr Tessellation, eignet sich für einen Tessellation-Test also besser als unsere normale Testszene.

Dann kommt hinzu, dass sich doch die Frage stellt warum man bei Zugewinn von AC die Verluste durch den Switch auf DX12 raus nimmt aus der Rechnung. Warum? AC gibt es nicht ohne DX12, also sollten die Zugewinne von DX12+AC auch von der Basis aus gerechnet werden die im Index genutzt wird. Bei Nvidia ist das DX11 und resultiert dann in einem schlechteren Ergebnis anstatt in einem besseren. Hier wird sich die Welt nach belieben mal so oder mal so zusammen gerechnet - sehr fragwürdig das ganze.

Zum Bezug auf die nicht übereinstimmenden Werte hat Wolfgang folgendes geäußert:
Und die gebe ich auch gerne. Im Special-Teil (für Async Compute und co.) kam nicht das Savegame, sondern ein Ausschnitt aus dem integrierten Benchmark zu Stande. Warum? Mein genutztes Savegame hat ärger gemacht und wollte nicht mehr laden. Für die normalen Benchmarks hat es nach ein wenig Bastellei zum Glück wieder funktioniert.Ich halte das für eine nicht befriedigende Antwort, weil diese technischen Probleme und die Ursache für diese Werte nicht im Artikel erwähnt werden - dies gilt es dringend nachzuholen damit jeder weiss was er hier liest.

Nur hinterlässt es keinen seriösen Eindruck wenn in den integrierten Benchmarks der Performanceunterschied um so vieles höher für Vega ausfällt als im Savegame - wir wissen alle, dass die Auswahl der Stelle einen großen Einfluß hat. Hier muss man der Redaktion vertrauen, doch das fällt schwer wenn man solche schlechte Dokumentationen und Mauscheleien entdeckt die einfach nicht gut unter den Teppich gekehrt wurden. Es sind immerhin fast 10% Unterschied wovon wir hier sprechen für Vega und kein Unterschied für Pascal.

Wie lang bist du jetzt schon im Hardware Enthusiast Sektor unterwegs? Ich tippe mal auf lang. Wie oft hast du dann schon von abfackeln bei hohen temp. Oder Drosselung durchs TT gehört. Ich tippe auf dutzende male. Du übertreibst es einfach mal wieder über alle maßen.Noch nie habe ich irgendwo gelesen dass abfackeln und drosseln als synonym verwendet werden. Daher verstehe ich deine Einlassungen hier nicht.
Abfackeln von AMD CPUs laut Toms Hardware ist sogar ein berühmt gewordener Fail von der Testredaktion in 2004. AMD hat später dann die Drosselung in CPUs eingebaut die Intel zuvor als Alleinstellungsmerkmal gepriesen hat. Kommt halt nicht jeder auf die Idee eine CPU ohne Kühler zu betreiben und das als "Stresstest" zu deklarieren.

Grendizer
2017-08-15, 20:28:00
Ist es jetzt gut ? Macht das per PN aus.. langsam nervt der Disput.

Screemer
2017-08-15, 20:28:22
Hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11461761#post11461761 :)
Komisch. Hab wohl vorhin mobil ne Seite übersprungen. Sorry und danke für den link.

Edit: das ist ja nicht mal im gleichen thread. Super.

Ist es jetzt gut ? Macht das per PN aus.. langsam nervt der Disput.

Hier ist der review thread und da darf man doch Auch Kritik an reviews un der Methodik äußern. Das war doch schon immer so. Hail and praise gibts doch auch.

Grendizer
2017-08-15, 20:30:23
Ryzen 1600 + RX Vega 64 - Rise Of The Tomb Raider Gameplay - 4k Very High Settings

https://youtu.be/tbiAeIcyEpk


Das scheint mir nicht so berauschend zu sein.... zwischen 31 und 50. Das sind auch Werte, die eine 1080 ungefähr hat, oder ?

RoughNeck
2017-08-15, 20:32:39
Mit Untervolting und Bios 2 sollte die Karte gar sparsam sein und vielleicht knapp unter GTX 1080 und leisem Lüfter.

Glaubst doch wohl selbst nicht.
Wennst VEGA 64 auf sparsam trimmst, bist irgendwo auf 1070 Referenz und dann braucht die Karte immer noch mehr als eine 1070 / 1080.

dildo4u
2017-08-15, 20:32:52
Das scheint mir nicht so berauschend zu sein.... zwischen 31 und 50. Das sind auch Werte, die eine 1080 ungefähr hat, oder ?

Hier ist das selbe Level:

https://www.pcper.com/image/view/85299?return=node%2F68298

vinacis_vivids
2017-08-15, 20:33:20
Das scheint mir nicht so berauschend zu sein.... zwischen 31 und 50. Das sind auch Werte, die eine 1080 ungefähr hat, oder ?

Alles im Rahmen:
https://www.nordichardware.se/wp-content/uploads/ROTTR_2160p.png

Thomas Gräf
2017-08-15, 20:36:56
Hiermal die liquid-cooled in Aktion vs 1080ti. Hat er gut gemacht find ich.

https://www.youtube.com/watch?v=bIGpvBrwXvA

Wer möchte braucht nur in den Spoiler klicken. :smile:

bIGpvBrwXvA

RoughNeck
2017-08-15, 20:38:26
Alles im Rahmen:
https://www.nordichardware.se/wp-content/uploads/ROTTR_2160p.png

Und wo ist jetzt die ach so tolle DX12 Power von VEGA?
Die VEGA 64 schafft es mit max OC gerade mal auf 1080 Referenz Niveau bei mindestens 150W mehr Verbrauch.

aufkrawall
2017-08-15, 20:42:18
Offenbar hat Vega die AF-Schwäche nicht gefixt.

Rancor
2017-08-15, 20:43:09
Und wo ist jetzt die ach so tolle DX12 Power von VEGA?
Die VEGA 64 schafft es mit max OC gerade mal auf 1080 Referenz Niveau bei mindestens 150W mehr Verbrauch.

Achtung, jetzt kommt bestimmt das Argument das die DX 12 Implementation in TR einfach Kacke ist ;D

dargo
2017-08-15, 20:43:16
Glaubst doch wohl selbst nicht.
Wennst VEGA 64 auf sparsam trimmst, bist irgendwo auf 1070 Referenz und dann braucht die Karte immer noch mehr als eine 1070 / 1080.
Zwischen 1070 und 1080 liegen also 5-8% Leistung. Interessant...

Achtung, jetzt kommt bestimmt das Argument das die DX 12 Implementation in TR einfach Kacke ist ;D
Ist sie nicht, brauchst nicht gleich wieder trollen. Nur die AF-Implementierung ist für GCN ungünstig. Besonders 16x haut stellenweise ganz schön rein.

HOT
2017-08-15, 20:44:54
Achtung, jetzt kommt bestimmt das Argument das die DX 12 Implementation in TR einfach Kacke ist ;D
Nein, aber es könnte einfach ein anderer Flaschenhals sein.
Geometrieleistung und/oder Bandbreite z.B. Wenn das Frontend zu knapp ist, kann das Backend nix machen.

Grendizer
2017-08-15, 20:47:01
Fakt ist aber auch, das weder 1080 noch Vega 64 die 100% richtigen Karten für 4k mit allen Details sind. Da steht nunmal immer noch allein die 1080 TI.

vinacis_vivids
2017-08-15, 20:47:04
Hiermal die liquid-cooled in Aktion vs 1080ti. Hat er gut gemacht find ich.

https://www.youtube.com/watch?v=bIGpvBrwXvA

Wer möchte braucht nur in den Spoiler klicken. :smile:

http://youtu.be/bIGpvBrwXvA


Hier der drop der 1080ti:

https://abload.de/img/1080tidropvdpim.png

dildo4u
2017-08-15, 20:47:45
Achtung, jetzt kommt bestimmt das Argument das die DX 12 Implementation in TR einfach Kacke ist ;D
TR perfomt ok genau in der Mitte.

https://youtu.be/lQCal8t-qvQ?t=16m59s

RoughNeck
2017-08-15, 20:52:31
Hier der drop der 1080ti:

Da lief was im Hintergrund, merkt man wenn man auf die GPU Auslastung schaut. Die ist auf 57%, das gehört einfach noch mal überprüft ob dies ständig so ist, oder ob da ein Prozess gestört.
War aber klar dass du damit kommst, da du nicht einsehen willst dass VEGA shit ist.

dargo
2017-08-15, 20:53:36
Hier der drop der 1080ti:

https://abload.de/img/1080tidropvdpim.png
Was ist das eigentlich für eine 1080TI? Referenz kann das bei dem Takt nicht sein.

vinacis_vivids
2017-08-15, 20:54:02
Da lief was im Hintergrund, merkt man wenn man auf die GPU Auslastung schaut. Die ist auf 57%, das gehört einfach noch mal überprüft ob dies ständig so ist, oder ob da ein Prozess gestört.
War aber klar dass du damit kommst, da du nicht einsehen willst dass VEGA shit ist.

1080ti dropt, soll da jetzt ne magische Macht dahinter stecken? :freak:

dildo4u
2017-08-15, 20:54:40
Was ist das eigentlich für eine 1080TI? Referenz kann das bei dem Takt nicht sein.
MSI Gameing.

Sven77
2017-08-15, 20:55:30
https://abload.de/img/1080tidropvdpim.png

X-D

dein Ernst?

aufkrawall
2017-08-15, 20:55:44
Die Entwickler haben DX12 für RotTR auf Nvidia mit Grafikfehlern eh kaputt gepatcht, spielt man besser mit DX11.
Und auf der 500€ Vega dann mit DX12 und 4x non HQ AF. :freak:

dildo4u
2017-08-15, 20:59:49
Vieleicht ist dort der HBM Cache aktiv das Game hat auf Pascal Probleme wenn man die Very High Texturen nutzt,mit High Texturen flutscht es bei mir.

vinacis_vivids
2017-08-15, 21:00:25
Schmeckt den grünen nicht so, dass ihr Liebling dropt :D

RoughNeck
2017-08-15, 21:00:54
1080ti dropt, soll da jetzt ne magische Macht dahinter stecken? :freak:
Wer weiß was da alles im Hintergrund lief, wenn du dir mal die GPU Last von deinen geposteten Bild ansehen würdest, müsstet du schon sehen dass da was limitiert und deswegen die GPU Last sinkt.
So schwer ist das nicht, außer man sucht natürlich krampfhaft ein Haar in der Suppe welches Nvidia schlecht dastehen lässt.

Schmeckt den grünen nicht so, dass ihr Liebling dropt :D
Ich weiß nicht wie meine Grafikkarte schmeckt.
Ich lecke nicht dran, ich quäle die lieber und das schon seit Monaten.

ecodriver
2017-08-15, 21:01:55
Offenbar hat Vega die AF-Schwäche nicht gefixt.

Welche AF-Schwäche ?
Kannst du mir einen Link (Quelle) geben?

vinacis_vivids
2017-08-15, 21:03:22
Du bist so ein (naja lassen wir das).
Wer weiß was da alles im Hintergrund lief, wenn du dir mal die GPU Last von deinen geposteten Bild ansehen würdest, müsstet du schon sehen dass da was limitiert und deswegen die GPU Last sinkt.
So schwer ist das nicht, außer man sucht natürlich krampfhaft ein Haar in der Suppe welches Nvidia schlecht dastehen lässt.

Hä, wat laberst du da? Hinten ist wohl TS und Firefox angegangen oder was ;D

aufkrawall
2017-08-15, 21:04:58
Welche AF-Schwäche ?
Kannst du mir einen Link (Quelle) geben?
Siehe dargo. 16x AF kostet bei RotTR mit Hawaii 40% Leistung, mit Nvidia 20%.

CD-LABS
2017-08-15, 21:06:50
Eine DINA4-Liste voller Vorschläge, aber nur eine Handvoll Softwareentwickler, die schon alle Hände voll zu tun haben mit Pro, Apple, etc. pp und was weiß ich nicht noch alles.

Dann irgendwann kommen deinen schönen Vorschläge, die AMD aber auch wenn sie es wollten wohl vor so starke Manpower-Probleme stellen, dass es hier eher danach geht eine "das Ding muss raus"-Mentalität (gezwungenermaßen) zu leben, als noch Zeit dafür zu haben, wie man auch noch das letzte Quentchen Leistung rauskitzelt und man hilfreiche Funktionen in Bestehendes einbaut. Wirklich nur das, was unbedingt nötig ist.

Würde wohl jeder andere genauso machen oder er macht es nur einmal und das war dann auch vorerst das letzte Mal. Zumindest bis es plötzlich stark bebt und man dann draus gelernt hat.

Hilft nur den enttäuschten Erwartungen nichts, eine 1080 FE sollte das Minimum-Ziel sein, und zwar quer durch die Bank.

AMD wird sich beim Nacharbeiten zu 100% hinter Features stellen, die auch bei Navi weitergeführt werden, und diverse Nachtests scheinen mal wieder unvermeidbar.
Punkt 1, 2 und 7 sind Softwarevorschläge, ja. Für Punkt 1 braucht man quasi keine Entwickler, für Punkt 2 hingegen schon einige und zwar welche mit wirklich ordentlich Hintergrundwissen zu Spieleengines, das sei zugestanden. Aber das wäre auch etwas, was man komplett als Nebenprojekt entwickeln könnte. Punkt 7, schon schwieriger, aber das hat auch klar positive Nebenwirkung auf die von dir genannten Bereiche.

Die restlichen vier Punkte haben jeweils eher etwas mit Marktlenkung und Portfoliooptimierung zu tun, also nichts, wofür man Devs braucht.

AtTheDriveIn
2017-08-15, 21:07:41
Hä, wat laberst du da? Hinten ist wohl TS und Firefox angegangen oder was ;D
Er verteidigt doch nur seinen Erwerb (sieh Sig) wie eine Kuh ihr Kalb :freak:

Grendizer
2017-08-15, 21:09:49
Er verteidigt doch nur seinen Erwerb (sieh Sig) wie eine Kuh ihr Kalb :freak:


Wenn ich gemein wäre, würde ich ja sagen, er hat sie erworben, während hier die meisten noch nur theoretische Leistung diskutieren, aber keine Karte kaufen konnten, geschweige den einbauen...

dildo4u
2017-08-15, 21:11:33
Siehe dargo. 16x AF kostet bei RotTR mit Hawaii 40% Leistung, mit Nvidia 20%.
Passiert das nur mit HQ AF?PCPER schreibt:

The RX Vega 64 is able to capture the performance lead at both resolution settings over the GTX 1080 in this title, and using the liquid-cooled variant it has a solid 8% lead over the competing NVIDIA card.

https://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-Vega-Review-Vega-64-Vega-64-Liquid-Vega-56-Tested/Rise-Tomb-Rai

dargo
2017-08-15, 21:12:01
Vieleicht ist dort der HBM Cache aktiv das Game hat auf Pascal Probleme wenn man die Very High Texturen nutzt,mit High Texturen flutscht es bei mir.
Ich hatte schon mit Grenada und 8GB kein einziges Problem mit VH Texturen. Hatte allerdings keine max. Settings @1440p.

Passiert das nur mit HQ AF?

Nein, auch schon mit Q-AF

HOT
2017-08-15, 21:13:08
Ich versteh überhaupt nicht, was ihr mit RotTR für Probleme habt ... hab das Ding mit Maximaldetails (-VSync und ohne drecks Bewegungsunschärfe, was für Kackeffekt) auf ner RX480 und nem 6600k (4GHz) in FHD total flüssig in DX12 gespielt...

Grendizer
2017-08-15, 21:13:50
Ich versteh überhaupt nicht, was ihr mit RotTR für Probleme habt ... hab das Ding mit Maximaldetails (-VSync und ohne Bewegungsunschärfe) auf ner RX480 und nem 6600k (4GHz) in FHD total flüssig in DX12 gespielt...

Ja... FHD.... 4K ist da schon ein bisschen anstrengender

RoughNeck
2017-08-15, 21:15:26
Er verteidigt doch nur seinen Erwerb (sieh Sig) wie eine Kuh ihr Kalb :freak:

Ich muss gar nix verteidigen. Als ich mir die TI gekauft habe, hatte AMD nix zu bieten was mir zusagte und jetzt hat AMD immer noch nix zu bieten.
Er sucht sich wieder was raus, was keine Rolle spielt. Ich habe RotTR mit DX11 und DX12 durch und mir ist kein einziger Ruckler aufgefallen.
Ich hatte mit der Karte schon meine Freude, als VEGA nur ein Gerücht war :P

dargo
2017-08-15, 21:17:00
Welche AF-Schwäche ?
Kannst du mir einen Link (Quelle) geben?
Ist nur in RotTR der Fall, also nicht wieder zu viel hinein interpretieren bitte. Ist eh eine komische Geschichte finde ich. Auf den Konsolen wird kein AF in RotTR (oder war es max. 2xAF?) genutzt, also war es für die Entwickler dort egal. Am PC nimmt man AF welches ca. doppelt so teuer ist wie bei Nvidia. Ein Schelm wer Böses dabei denkt. ;) Ach lassen wir es lieber. :)

Ich versteh überhaupt nicht, was ihr mit RotTR für Probleme habt ... hab das Ding mit Maximaldetails (-VSync und ohne drecks Bewegungsunschärfe, was für Kackeffekt) auf ner RX480 und nem 6600k (4GHz) in FHD total flüssig in DX12 gespielt...
Das Thema war Kosten von AF in RotTR, nicht ob es bei dir flüssig lief oder nicht. :) Hätte ich nur Full-HD wäre 16xAF bei mir auch kein Problem gewesen. :wink:

Edit:
Hier wurde die AF-Problematik diskutiert (ab #4096 wirds interessant).
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=551545&page=205

dildo4u
2017-08-15, 21:18:49
Ja... FHD.... 4K ist da schon ein bisschen anstrengender
Jup und ab 1440p will es ordentlich Vram siehe Fury,es ist ein's der Anspruchsvollsten Games zur Zeit.

https://www.pcper.com/image/view/85306?return=node%2F68298

Hübie
2017-08-15, 21:24:06
1080ti dropt, soll da jetzt ne magische Macht dahinter stecken? :freak:

DX12 hat einfach Probleme auf NV. Mit D3D11 gibt es dieses Problem nicht. Bei meinem Ex-Arbeitgeber wurde das testing für DX12 (und einige andere channels) durchgeführt (neben Deus Ex). Es war ein Desaster zu Anfang. Mittlerweile ist es aber schon ziemlich gut in der Summe. Ich glaube man sollte hier mal den Shader cache deaktivieren.

MechWOLLIer
2017-08-15, 21:28:34
Die Erklärung bist du immer noch schuldig. Er war ja nicht der einzig, der sich darüber gewundert hat und auch in normalem ton nach einer Erklärung gefragt hat. Auch würde mich interessieren wie ihr bei negativer Skalierung im Graphen bei der 1080 auf die 3% Steigerung im Text kommt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11461761&postcount=706

Und auf die drei Prozent? Mit Hilfe des Taschenrechners?^^
Bei GoW habt ihr aber recht. Da sinds minus drei und nicht Plus drei Prozent. Ist korrigiert.

vinacis_vivids
2017-08-15, 21:31:24
DX12 hat einfach Probleme auf NV.

NV hat Probleme mit DX12 weil Pascal und LL-API...

Der Locuza behauptet ja felsenfest es sei eine Softwaresache. Wir werden sehen was die Zukunft bringt wenn neue Spiele kommen, die noch mehr features benutzen.

Wir düster für grün, vor allem die Mittelklasse - Oberklasse.

DX12 Zaubertreiber von Nvidia lässt auf sich warten....



Topic:
Hier hat einer ne Custom Vega ausgepackt:
Anschlüsse sind 6pin+8pin
https://www.youtube.com/watch?v=faeHXIs-BA4

dargo
2017-08-15, 21:38:54
Erstens steht da Vega56. Zweitens... es ist eine Powercolor.
https://www.youtube.com/watch?v=-MmwJvDvERg

Grendizer
2017-08-15, 21:41:24
NV hat Probleme mit DX12 weil Pascal und LL-API...


DX12 Zaubertreiber von Nvidia lässt auf sich warten....

Ganz ehrlich ? Was soll der scheiss ? nVidia braucht DX12 einfach nicht. AMD ist da viel abhängiger. Wir können hier stundenlang die vor und Nachteile von DX12 diskutieren. Allerdings spielen 1070/1080 Spieler seit Monaten ihre DX11 und 12 Titel während hier die Stärken der Vega in DX12 diskutiert werden und kaum einer die Karte tatsächlich sein eigen nennt. Die Preise explodieren und je nach Interpretation werden wir wohl in den nächsten 2-4 Wochen auch keine "freien" Karten mehr kaufen können, sondern nur noch überteuerte Pack Karten.

Als Besitzer eines AMD Ryzens mit einem B350 Board würde ich mich da echt in den Arsch beißen, wenn ich gestern bei den Mindstars nicht zugeschlagen hätte. Keine Ahnung was ich mit der Karte machen werde. Zumindest mal einbauen und zum Spass gegen meine 1080 benchen und schauen wie laut sie wirklich ist.

Entweder meine 390 im 2. Rechner geht zu Ebay oder die Vega... das hängt jetzt ein wenig von der Preisentwicklung ab. Geplant war eigentlich die 390, aber wenn die Preise weiter so steigen, dann bekomme ich auch die ausgepackte Vega noch für 629 los :biggrin:

ecodriver
2017-08-15, 21:41:37
Ist nur in RotTR der Fall, also nicht wieder zu viel hinein interpretieren bitte. Ist eh eine komische Geschichte finde ich. Auf den Konsolen wird kein AF in RotTR (oder war es max. 2xAF?) genutzt, also war es für die Entwickler dort egal. Am PC nimmt man AF welches ca. doppelt so teuer ist wie bei Nvidia. Ein Schelm wer Böses dabei denkt. ;) Ach lassen wir es lieber. :)


Das Thema war Kosten von AF in RotTR, nicht ob es bei dir flüssig lief oder nicht. :) Hätte ich nur Full-HD wäre 16xAF bei mir auch kein Problem gewesen. :wink:

Edit:
Hier wurde die AF-Problematik diskutiert (ab #4096 wirds interessant).
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=551545&page=205

Super, danke für die Infos.
Ich wusste noch das da irgendein Spiel mal was war wusste aber nicht mehr welches und was genau.

vinacis_vivids
2017-08-15, 21:43:14
Wie die kleinen pascals (und fiji) hier wegdippen während RX56 absolut unbeeindruckt bleibt...

https://abload.de/thumb/aotsdropz8l7y.png (http://abload.de/image.php?img=aotsdropz8l7y.png)
https://youtu.be/7ThYJU8ctcQ?t=361

Thomas Gräf
2017-08-15, 21:44:10
Erstens steht da Vega56. Zweitens... es ist eine Powercolor.
https://www.youtube.com/watch?v=-MmwJvDvERg

Mmpff so sieht as Ding auch aus.

dargo
2017-08-15, 21:45:30
Ganz ehrlich ? Was soll der scheiss ? nVidia braucht DX12 einfach nicht.
Spielst du dann Titel wie GoW4, Forza Horizon 3, Forza Motorsport 7 etc. mit DX11 auf Nvidia? :devil:

Mmpff so sieht as Ding auch aus.
Ich finde die auch potthässlich, selbst wenn ich sie nicht im Gehäuse sehe. :D